G2 ist stolz darauf, unvoreingenommene Bewertungen über userzufriedenheit in unseren Bewertungen und Berichten zu zeigen. Wir erlauben keine bezahlten Platzierungen in unseren Bewertungen, Rankings oder Berichten. Erfahren Sie mehr über unsere Bewertungsmethoden.
Die allgemeinsten und leistungsfähigsten KI-Modelle, die wir je entwickelt haben.
Erleben Sie die hochmoderne Leistung von Llama 3, einem frei zugänglichen Modell, das sich durch Sprachnuancen, kontextuelles Verständnis und komplexe Aufgaben wie Übersetzung und Dialoggenerierung au
BERT, kurz für Bidirectional Encoder Representations from Transformers, ist ein maschinelles Lernframework für die Verarbeitung natürlicher Sprache. Im Jahr 2018 entwickelte Google diesen Algorithmus,
GPT-3 treibt die nächste Generation von Apps an Über 300 Anwendungen bieten GPT-3-gestützte Suche, Konversation, Textvervollständigung und andere fortschrittliche KI-Funktionen über unsere API.
GPT-4o ist unser fortschrittlichstes multimodales Modell, das schneller und günstiger als GPT-4 Turbo ist und über stärkere visuelle Fähigkeiten verfügt. Das Modell hat einen Kontext von 128K und eine
Erstmals 2019 eingeführt, löste Megatron eine Welle der Innovation in der KI-Community aus, indem es Forschern und Entwicklern ermöglichte, die Grundlagen dieser Bibliothek zu nutzen, um die Fortschri
GPT-2 ist ein Transformatorenmodell, das auf einem sehr großen Korpus englischer Daten in selbstüberwachter Weise vortrainiert wurde. Das bedeutet, es wurde nur auf den Rohtexten vortrainiert, ohne da
Transfer Learning, bei dem ein Modell zunächst auf einer datenreichen Aufgabe vortrainiert wird, bevor es auf eine nachgelagerte Aufgabe feinabgestimmt wird, hat sich als leistungsstarke Technik in de
StableLM 3B 4E1T ist ein reines Decoder-Sprachmodell, das auf 1 Billion Token aus vielfältigen englischen und Code-Datensätzen für vier Epochen vortrainiert wurde. Die Modellarchitektur basiert auf ei
Claude ist KI für uns alle. Egal, ob Sie alleine brainstormen oder mit einem Team von Tausenden arbeiten, Claude ist hier, um zu helfen.
Mistral-7B-v0.1 ist ein kleines, aber leistungsstarkes Modell, das an viele Anwendungsfälle anpassbar ist. Mistral 7B ist in allen Benchmarks besser als Llama 2 13B, hat natürliche Codierungsfähigkeit
Falcon-40B ist ein kausales Decoder-Only-Modell mit 40 Milliarden Parametern, das von TII entwickelt und auf 1.000 Milliarden Tokens von RefinedWeb trainiert wurde, ergänzt durch kuratierte Korpora. E
Das RoBERTa-Modell wurde in RoBERTa: A Robustly Optimized BERT Pretraining Approach von Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer
Die KI-Gemeinschaft baut die Zukunft. Die Plattform, auf der die maschinelle Lern-Community an Modellen, Datensätzen und Anwendungen zusammenarbeitet.
GlobalChat ist ein einheitlicher KI-Arbeitsbereich, der für Kreative, Entwickler, Forscher und Geschäftsteams entwickelt wurde, die es leid sind, mit mehreren Tools und Abonnements zu jonglieren. Durc
Eine Familie leistungsstarker, kleiner Sprachmodelle (SLMs) mit bahnbrechender Leistung zu geringen Kosten und niedriger Latenz
Die Cerebras-GPT-Familie wurde veröffentlicht, um die Forschung zu Skalierungsgesetzen von LLMs mit offenen Architekturen und Datensätzen zu erleichtern und die Einfachheit und Skalierbarkeit des Trai
Soziale Medien-Update zur Veröffentlichung und Verfügbarkeit von o3 und o4-mini über ChatGPT und API.
Frühere Claude 3.5-Version mit verbessertem Verständnis und besserem logischen Denken im Vergleich zu früheren Modellen.
Claude 3.7 Veröffentlichung mit Fokus auf sicherere und zuverlässigere Fähigkeiten eines KI-Assistenten.
Übersicht über die Claude 3 Serie und deren Einsatz in verschiedenen KI-Assistenten-Anwendungen.
Neuestes Claude-Modell mit Fokus auf robuste, ethische und leistungsstarke Funktionen für KI-Assistenten.
Integration des Command R+ Modells von Cohere mit Azure für verbesserte KI-Lösungen im Unternehmen.
The Quantum Cognitive Content Models (QCCM) are an AI-powered marketing tool developed by TravsX. Designed with deep marketing intelligence, QCCM crafts content that mirrors the strategic thinking of
DeepSeeks KI-Coding-Assistent, der für instruktive Programmierhilfe feinabgestimmt ist.
Frühere Aktualisierung der Nachrichten-API mit Verbesserungen bei der Zusammenfassung und Textannotation aus Inhalten mehrerer Quellen.
DeepSeek R2 ist das KI-Modell der nächsten Generation mit 1,2 Billionen Parametern, fortschrittlicher Kostenreduktion, Bildgenauigkeit und mehr. Folgen Sie uns für die neuesten Updates.
Das neueste Update der DeepSeek-API konzentriert sich auf eine genauere und effizientere Nachrichten-Zusammenfassung.
AI Squareds dlite-v2-1.5b ist ein großes Sprachmodell, das von OpenAIs großem GPT-2-Modell abgeleitet und auf einem Korpus von 15.000 Datensätzen (Databricks' "Dolly 15k" Dataset) feinabgestimmt wurde
FastChat-T5 ist ein Open-Source-Chatbot, der durch Feinabstimmung von Flan-t5-xl (3B Parameter) auf von Benutzern geteilte Gespräche, die von ShareGPT gesammelt wurden, trainiert wurde. Er basiert auf
Leichte, schnellere Variante von Gemini 1.5, optimiert für geringere Latenz.
Kleineres 8-Milliarden-Parameter-Gemini-1.5-Flash-Modell, das Leistung und Effizienz ausbalanciert.
Fortgeschrittenes Gemini 1.5 Pro-Modell für mehrstufige Gespräche und komplexes Denken.
Schnittstelle zum Testen von Gemini 2.0 Flash, einer schnellen, kostengünstigen Sprachmodellvariante von Google.
Vereinfachtes Gemini 2.0 Flash-Modell für schnelle Inferenz und Multitasking.
Vorschau auf Googles Gemini 2.0 "Flash" Variante mit Fokus auf tiefes Denken und kosteneffiziente Leistung.
Experimentelles Gemini 2.0 Pro-Modell im AI Studio, optimiert für hochentwickelte multimodale Denkaufgaben.
Leichte, schnelle Variante von Gemini 2.5, ideal für Echtzeitanwendungen mit reduzierten Kosten und starker Leistung.
Frühere experimentelle Veröffentlichung von Gemini 2.5 Pro, optimiert für multimodale Eingaben und großes Kontextverständnis.
Fortgeschrittenes Gemini-Modell mit tiefem Denken und multimodalen Fähigkeiten, verfügbar über die Google AI Studio Vorschau.
Ein weiteres experimentelles Prompt-/Modellkonfigurations in der Gemini 2.x-Linie, das sich auf die Systemintegration konzentriert.
Frühe experimentelle Veröffentlichung der Gemini 2.x-Serie für Entwicklung und Feinabstimmung.
Erleben Sie das leistungsfähigste offene Modell von Google mit multimodalen Fähigkeiten und einem 128K-Kontextfenster. Probieren Sie Gemma 3 kostenlos auf https://gemma3.co mit reichhaltigen Beispiele
API-Dokumentation zur Nutzung des Sprachmodells auf der OpenBigModel-Plattform.
Chinesische KI-Open-Plattform bietet Zugang zu groß angelegten Modellen und APIs.
Verbesserte Version mit einem 1M-Token-Kontextfenster, besserer Befolgung von Anweisungen und leichteren Varianten (Mini/Nano).
Verbessertes Generalistenmodell mit starker emotionaler Intelligenz, reduzierten Halluzinationen und breiten mehrsprachigen Fähigkeiten.
Einführung in GPT-4o, eine Variante, die für fortschrittliche, effiziente multimodale KI entwickelt wurde.
Kompakte, kosteneffiziente Version von GPT-4o, maßgeschneidert für ressourcenbewusste Anwendungen.
OpenAIs schnellerer und günstigerer GPT-4 Turbo neben GPT-4 mit starken multimodalen und logischen Fähigkeiten.
Das Flaggschiffmodell von xAI mit 10-facher Rechenleistung, fortgeschrittenen Denkmodi, DeepSearch-Integration und Unterstützung für Multimodalität.
Vision-Modell-API-Dokumentation, die Objekterkennung, Klassifizierung und verwandte Bildverarbeitungsaufgaben abdeckt.
Offizielle Meta-Seite, die die Llama 3 Modellreihe und deren Fähigkeiten beschreibt.
Metas detailliertes Update zu den Verbesserungen und Anwendungen der Llama 3.1 Modellfamilie.
Metas Llama 4 Maverick 17B Modell, das für Anweisungsaufgaben mit Unterstützung für langen Kontext feinabgestimmt wurde.
Llama 4 Scout-Variante optimiert für schnellere Inferenz und Multitasking.
Veröffentlicht im Mai 2025, bietet „bei oder über“ 90 % der Leistung von Claude 3.7, preislich wettbewerbsfähig ($0,40/$2 pro Token) und auf großen Cloud-Plattformen verfügbar.
MPT-7B ist ein Decoder-Transformer, der von Grund auf mit 1T Tokens englischen Texts und Codes vortrainiert wurde. Dieses Modell wurde von MosaicML trainiert. MPT-7B ist Teil der Familie der MosaicPre
Neospace is a B2B Global AI startup utilizing Large Finance Models to assist financial services enterprises in reimagining, enhacing, and implementing credit scoring and allocation dollars saved.
Stellt das o1-Reasoning-Modell in der API mit Funktionsaufrufen, Unterstützung für Vision, strukturierten Ausgaben, Pref-Fine-Tuning und Echtzeit-/WebRTC-Updates vor.
Anleitungen zur Erklärung, wie man den Aufwand für das Denken anpasst und die Nutzung von o1's Eingabeaufforderung/Steuerung optimiert.
Offizielle Dokumentation für o1, die die Kontrolle des Denkaufwands, den multimodalen Input, die Kosten und die Nutzungsebenen beschreibt.
Einführung der o3- und o4-mini-Modelle von OpenAI, die leistungsstarkes Denken mit der Nutzung von Werkzeugen und multimodaler Bildunterstützung in Einklang bringen.
Kombiniert tiefgehendes Schritt-für-Schritt-Denken (o3) mit einer leichten, kostengünstigen Variante des Denkens (o4-mini), jeweils mit Unterstützung für multimodale Werkzeugnutzung.
LLM, das sich auf Kreativität und Ideenfindung für Schriftsteller konzentriert
Finanzdomänen-spezialisierte LLM-Variante für finanzbezogenes Schreiben und Analysen.
Medizinisches LLM, das für Gesundheitsinhalte und Kommunikation entwickelt wurde.
Etwas kleinere Variante, optimiert für die Erstellung kreativer Inhalte.
Writer.coms Palmyra X5 LLM ist auf fortgeschrittene Schreib- und Inhaltserstellungsaufgaben zugeschnitten.
Mittelgroßes Phi-3-Modell mit 4k Kontextfenster und Anweisungsanpassung.
Microsoft Azures Phi 3 Modell definiert die Fähigkeiten von groß angelegten Sprachmodellen in der Cloud neu.
Kleineres Phi-3-Modell mit erweitertem 8k-Token-Kontext und Anweisungsfähigkeiten.
Das Pixtral-Modell von Mistral ist für die Anweisungstuning mit großer Parametergröße optimiert.
Visuell-sprachliches Qwen2.5-Modell, das Vision und Text kombiniert, optimiert für instruktive Anwendungsfälle, gehostet auf Hugging Face.
Qwen 2.5 Visuell-Sprachmodell 32B, feinabgestimmt für Aufgaben zur Befolgung von Anweisungen.
Größeres Qwen 2.5 Visuell-Sprachliches 72B-Modell, optimiert für instruktionbasierte multimodale Aufgaben.
Blog über Qwen 2 Visuell-Sprach-Modelle, die sich auf die Integration von Seh- und Textverständnis konzentrieren.
Blog über Qwen 2.5 Max, ein groß angelegtes multimodales Modell mit erweiterten Seh- und Sprachfähigkeiten.
Aliyuns Anleitung zu ihren Vision-AI-Studio-Tools zum Erstellen und Bereitstellen von Vision-Language-Modellen.
Übersicht über Qwen 3, ein hochmodernes großes Sprachmodell, das viele Sprachen und große Kontextfenster unterstützt.
Red Hat® Enterprise Linux® AI ist eine Plattform für Foundation-Modelle, um nahtlos Granite-Familie große Sprachmodelle (LLMs) für Unternehmensanwendungen zu entwickeln, testen und auszuführen.
SEO2LLM zeigt, wie sichtbar Ihre Marke in KI-Antworten wie ChatGPT, Gemini und Perplexity mit einem Klick ist.
Solar Pro ist ein hochmodernes großes Sprachmodell (LLM), das von Upstage entwickelt wurde und darauf ausgelegt ist, leistungsstarke Fähigkeiten zur Verarbeitung natürlicher Sprache zu liefern, währen