G2 est fier de présenter des avis impartiaux sur la satisfaction des user dans nos évaluations et rapports. Nous n'autorisons pas les placements payés dans nos évaluations, classements ou rapports. Découvrez nos de notation.
Les modèles d'IA les plus généraux et capables que nous ayons jamais construits.
Découvrez la performance de pointe de Llama 3, un modèle accessible à tous qui excelle dans les nuances linguistiques, la compréhension contextuelle et les tâches complexes comme la traduction et la g
BERT, abréviation de Bidirectional Encoder Representations from Transformers, est un cadre d'apprentissage automatique (ML) pour le traitement du langage naturel. En 2018, Google a développé cet algor
GPT-3 alimente la prochaine génération d'applications Plus de 300 applications offrent des fonctionnalités avancées d'IA alimentées par GPT-3, telles que la recherche, la conversation, la complétion
GPT-4o est notre modèle multimodal le plus avancé, plus rapide et moins cher que GPT-4 Turbo avec des capacités de vision renforcées. Le modèle a un contexte de 128K et une limite de connaissances d'o
Introduit pour la première fois en 2019, Megatron a déclenché une vague d'innovation dans la communauté de l'IA, permettant aux chercheurs et développeurs d'utiliser les fondements de cette bibliothèq
GPT-2 est un modèle de transformateurs préentraîné sur un très grand corpus de données en anglais de manière auto-supervisée. Cela signifie qu'il a été préentraîné uniquement sur les textes bruts, san
L'apprentissage par transfert, où un modèle est d'abord pré-entraîné sur une tâche riche en données avant d'être ajusté sur une tâche en aval, a émergé comme une technique puissante dans le traitement
StableLM 3B 4E1T est un modèle de langage de base uniquement décodeur pré-entraîné sur 1 trillion de tokens de divers ensembles de données en anglais et en code pendant quatre époques. L'architecture
Claude est une IA pour nous tous. Que vous soyez en train de réfléchir seul ou de construire avec une équipe de milliers de personnes, Claude est là pour vous aider.
Mistral-7B-v0.1 est un modèle petit mais puissant, adaptable à de nombreux cas d'utilisation. Mistral 7B est meilleur que Llama 2 13B sur tous les benchmarks, possède des capacités de codage naturelle
Falcon-40B est un modèle de décodage causal de 40 milliards de paramètres construit par TII et entraîné sur 1 000 milliards de jetons de RefinedWeb enrichis avec des corpus sélectionnés. Il est mis à
Le modèle RoBERTa a été proposé dans RoBERTa: A Robustly Optimized BERT Pretraining Approach par Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Ze
La communauté de l'IA construisant l'avenir. La plateforme où la communauté de l'apprentissage automatique collabore sur des modèles, des ensembles de données et des applications.
GlobalChat est un espace de travail unifié par l'IA conçu pour les créateurs, développeurs, chercheurs et équipes commerciales qui en ont assez de jongler avec plusieurs outils et abonnements. En réun
Une famille de modèles de langage puissants et compacts (SLMs) avec des performances révolutionnaires à faible coût et faible latence.
La famille Cerebras-GPT est publiée pour faciliter la recherche sur les lois de l'échelle des LLM en utilisant des architectures et des ensembles de données ouverts et pour démontrer la simplicité et
Mise à jour des réseaux sociaux sur la sortie et la disponibilité de o3 et o4-mini via ChatGPT et API.
Version antérieure de Claude 3.5 avec une compréhension et un raisonnement améliorés par rapport aux modèles précédents.
La version 3.7 de Claude se concentre sur des capacités d'assistant IA plus sûres et plus fiables.
Aperçu de la série Claude 3 et de leur utilisation dans diverses applications d'assistants IA.
Dernier modèle Claude axé sur des fonctionnalités d'assistant IA robustes, éthiques et performantes.
Intégration du modèle Command R+ de Cohere avec Azure pour des solutions d'IA d'entreprise améliorées.
The Quantum Cognitive Content Models (QCCM) are an AI-powered marketing tool developed by TravsX. Designed with deep marketing intelligence, QCCM crafts content that mirrors the strategic thinking of
L'assistant de codage IA de DeepSeek est optimisé pour une aide à la programmation instructive.
Mise à jour antérieure de l'API de nouvelles avec des améliorations dans la synthèse et l'annotation de texte à partir de contenu multi-source.
DeepSeek R2 est le modèle d'IA de nouvelle génération avec 1,2T de paramètres, une réduction avancée des coûts, une précision de vision, et plus encore. Suivez-nous pour les dernières mises à jour.
La dernière mise à jour de l'API DeepSeek s'est concentrée sur une synthèse des actualités plus précise et efficace.
Le modèle de langage de grande taille dlite-v2-1.5b d'AI Squared est dérivé du grand modèle GPT-2 d'OpenAI et affiné sur un corpus de 15 000 enregistrements (jeu de données "Dolly 15k" de Databricks)
FastChat-T5 est un chatbot open-source entraîné en ajustant finement Flan-t5-xl (3 milliards de paramètres) sur des conversations partagées par les utilisateurs collectées à partir de ShareGPT. Il est
Une variante plus légère et plus rapide de Gemini 1.5 optimisée pour une latence réduite.
Un modèle Gemini 1.5 Flash de 8 milliards de paramètres plus petit, équilibrant performance et efficacité.
Modèle avancé Gemini 1.5 Pro pour les conversations à plusieurs tours et le raisonnement complexe.
Interface pour tester Gemini 2.0 Flash, une variante de modèle linguistique rapide et économique de Google.
Modèle Flash Gemini 2.0 rationalisé pour une inférence rapide et le multitâche.
Aperçu de la variante "Flash" de Gemini 2.0 de Google, axée sur le raisonnement approfondi et la performance économique.
Modèle expérimental Gemini 2.0 Pro dans AI Studio, optimisé pour les tâches de raisonnement multimodal haut de gamme.
Version légère et rapide de Gemini 2.5, idéale pour les applications en temps réel avec un coût réduit et de bonnes performances.
Sortie expérimentale antérieure de Gemini 2.5 Pro, optimisée pour les entrées multimodales et la compréhension de grands contextes.
Modèle Gemini avancé avec des capacités de raisonnement approfondi et multimodal, disponible en aperçu via Google AI Studio.
Une autre configuration de modèle/prompt expérimental dans la ligne Gemini 2.x axée sur l'intégration au niveau du système.
Sortie expérimentale précoce de la série Gemini 2.x pour le développement et le réglage.
Découvrez le modèle ouvert le plus performant de Google avec des capacités multimodales et une fenêtre contextuelle de 128K. Essayez gratuitement Gemma 3 ici. https://gemma3.co avec des exemples riche
Documentation de l'API pour l'utilisation du modèle linguistique sur la plateforme OpenBigModel.
Plateforme ouverte d'IA chinoise offrant un accès à des modèles à grande échelle et des API.
Version améliorée avec une fenêtre de contexte de 1 million de tokens, un meilleur suivi des instructions, et des variantes plus légères (mini/nano).
Modèle généraliste amélioré avec une forte intelligence émotionnelle, des hallucinations réduites et de larges capacités multilingues.
Introduction à GPT-4o, une variante conçue pour une IA multimodale avancée et efficace.
Version compacte et économique de GPT-4o adaptée aux applications soucieuses des ressources.
GPT-4 Turbo d'OpenAI, plus rapide et moins cher, aux côtés de GPT-4 avec de solides compétences multimodales et de raisonnement.
Le modèle phare de xAI avec une puissance de calcul 10×, des modes de raisonnement avancés, une intégration DeepSearch et un support multimodal.
Documentation de l'API du modèle de vision couvrant la détection d'objets, la classification et les tâches de traitement d'image associées.
Page officielle de Meta décrivant la série de modèles Llama 3 et ses capacités.
Mise à jour détaillée de Meta sur les améliorations et les applications de la famille de modèles Llama 3.1.
Le modèle Llama 4 Maverick 17B de Meta, affiné pour les tâches d'instruction avec support de contexte long.
Llama 4 Scout variante optimisée pour une inférence plus rapide et le multitâche.
Sorti en mai 2025, offre « à ou au-dessus » de 90 % des performances de Claude 3.7, à un prix compétitif (0,40 $/2 $ par jeton) et disponible sur les principales plateformes cloud.
MPT-7B est un transformateur de type décodeur préentraîné à partir de zéro sur 1T de tokens de texte et de code en anglais. Ce modèle a été entraîné par MosaicML. MPT-7B fait partie de la famille de
Neospace is a B2B Global AI startup utilizing Large Finance Models to assist financial services enterprises in reimagining, enhacing, and implementing credit scoring and allocation dollars saved.
Introduit le modèle de raisonnement o1 dans l'API avec appel de fonction, support de vision, sorties structurées, Préf‑Affinage, et mises à jour en temps réel/WebRTC.
Guides expliquant comment ajuster l'effort de raisonnement et optimiser l'utilisation des invites/contrôles de o1.
Documentation officielle pour o1, détaillant son contrôle de l'effort de raisonnement, son entrée multimodale, son coût et ses niveaux d'utilisation.
Introduction des modèles o3 et o4-mini d'OpenAI, équilibrant un raisonnement puissant avec l'utilisation d'outils et le support multimodal d'images.
Combine un raisonnement en profondeur (o3) avec une variante de raisonnement légère et économique (o4-mini), chacun avec un support d'utilisation d'outils multimodaux.
LLM axé sur la créativité et la génération d'idées pour les écrivains
Variante spécialisée de LLM dans le domaine financier pour l'écriture et l'analyse liées à la finance.
LLM dans le domaine médical conçu pour le contenu et la communication en santé.
Une variante légèrement plus petite optimisée pour la génération de contenu créatif.
Palmyra X5 LLM de Writer.com est conçu pour des tâches avancées d'écriture et de génération de contenu.
Modèle Phi-3 de taille moyenne avec une fenêtre de contexte de 4k et un réglage d'instruction.
Le modèle Phi 3 de Microsoft Azure redéfinit les capacités des modèles de langage à grande échelle dans le cloud.
Une variante plus petite du modèle Phi-3 avec un contexte étendu de 8 000 tokens et des capacités d'instruction.
Le modèle Pixtral de Mistral optimisé pour l'ajustement des instructions avec une grande taille de paramètres.
Modèle Qwen2.5 de langage visuel combinant vision et texte, optimisé pour des cas d'utilisation instructifs, hébergé sur Hugging Face.
Modèle Qwen 2.5 Visual-Language 32B affiné pour les tâches de suivi d'instructions.
Modèle Qwen 2.5 Visuel-Langage 72B plus grand, optimisé pour les tâches multimodales basées sur des instructions.
Blog sur les modèles visuo-linguistiques Qwen 2 axés sur l'intégration de la vision et de la compréhension du texte.
Blog détaillant Qwen 2.5 Max, un modèle multimodal à grande échelle avec des capacités de vision et de langage améliorées.
Le guide d'Aliyun sur leurs outils de studio d'IA de vision pour construire et déployer des modèles de vision-langage.
Aperçu de Qwen 3, un modèle de langage de pointe prenant en charge de nombreuses langues et de grandes fenêtres contextuelles.
Red Hat® Enterprise Linux® AI est une plateforme de modèles de fondation pour développer, tester et exécuter sans effort les modèles de langage de grande taille (LLMs) de la famille Granite pour les a
SEO2LLM shows how visible your brand is across AI answers like ChatGPT, Gemini, and Perplexity in one click.
Solar Pro est un modèle de langage de pointe (LLM) développé par Upstage, conçu pour offrir des capacités de traitement du langage naturel haute performance tout en fonctionnant efficacement sur un se