A G2 se orgulha de mostrar avaliações imparciais sobre a satisfação com user em nossas classificações e relatórios. Não permitimos colocações pagas em nenhuma de nossas classificações, rankings ou relatórios. Saiba mais sobre nossas metodologias de pontuação.
Os modelos de IA mais gerais e capazes que já construímos.
Experimente o desempenho de ponta do Llama 3, um modelo de acesso aberto que se destaca em nuances de linguagem, compreensão contextual e tarefas complexas como tradução e geração de diálogos. Com esc
BERT, abreviação de Representações de Codificador Bidirecional de Transformadores, é uma estrutura de aprendizado de máquina (ML) para processamento de linguagem natural. Em 2018, o Google desenvolveu
GPT-3 alimenta a próxima geração de aplicativos Mais de 300 aplicativos estão oferecendo busca, conversa, conclusão de texto e outros recursos avançados de IA alimentados por GPT-3 através da nossa AP
GPT-4o é o nosso modelo multimodal mais avançado, mais rápido e mais barato que o GPT-4 Turbo, com capacidades de visão mais fortes. O modelo tem um contexto de 128K e um limite de conhecimento de out
Introduzido pela primeira vez em 2019, o Megatron desencadeou uma onda de inovação na comunidade de IA, permitindo que pesquisadores e desenvolvedores utilizassem as bases desta biblioteca para avança
GPT-2 é um modelo de transformadores pré-treinado em um corpus muito grande de dados em inglês de forma auto-supervisionada. Isso significa que foi pré-treinado apenas nos textos brutos, sem que human
O aprendizado por transferência, onde um modelo é inicialmente pré-treinado em uma tarefa rica em dados antes de ser ajustado em uma tarefa subsequente, emergiu como uma técnica poderosa no processame
StableLM 3B 4E1T é um modelo de linguagem base apenas de decodificação pré-treinado em 1 trilhão de tokens de diversos conjuntos de dados em inglês e código por quatro épocas. A arquitetura do modelo
Claude é IA para todos nós. Quer você esteja fazendo brainstorming sozinho ou construindo com uma equipe de milhares, Claude está aqui para ajudar.
Mistral-7B-v0.1 é um modelo pequeno, mas poderoso, adaptável a muitos casos de uso. Mistral 7B é melhor que Llama 2 13B em todos os benchmarks, possui habilidades naturais de codificação e comprimento
Falcon-40B é um modelo de decodificador causal com 40 bilhões de parâmetros, construído pela TII e treinado em 1.000 bilhões de tokens do RefinedWeb, aprimorado com corpora curados. Está disponível so
O modelo RoBERTa foi proposto em RoBERTa: A Robustly Optimized BERT Pretraining Approach por Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettle
A comunidade de IA construindo o futuro. A plataforma onde a comunidade de aprendizado de máquina colabora em modelos, conjuntos de dados e aplicações.
GlobalChat é um espaço de trabalho unificado de IA criado para criadores, desenvolvedores, pesquisadores e equipes de negócios que estão cansados de lidar com múltiplas ferramentas e assinaturas. Ao r
Uma família de modelos de linguagem pequenos e poderosos (SLMs) com desempenho inovador a baixo custo e baixa latência
A família Cerebras-GPT é lançada para facilitar a pesquisa sobre leis de escalonamento de LLM usando arquiteturas e conjuntos de dados abertos e demonstrar a simplicidade e a escalabilidade do treinam
Atualização de postagem social sobre o lançamento e disponibilidade do o3 e o o4-mini via ChatGPT e API.
Versão anterior do Claude 3.5 com compreensão e raciocínio aprimorados em relação aos modelos anteriores.
Lançamento do Claude 3.7 focando em capacidades de assistente de IA mais seguras e confiáveis.
Visão geral da série Claude 3 e seu uso em várias aplicações de assistente de IA.
Último modelo Claude focando em recursos de assistente de IA robustos, éticos e de alto desempenho.
Integração do modelo Command R+ da Cohere com o Azure para soluções de IA empresarial aprimoradas.
The Quantum Cognitive Content Models (QCCM) are an AI-powered marketing tool developed by TravsX. Designed with deep marketing intelligence, QCCM crafts content that mirrors the strategic thinking of
Assistente de codificação de IA da DeepSeek ajustado para ajuda instrutiva em programação.
Atualização anterior da API de notícias com melhorias na sumarização e anotação de texto a partir de conteúdo de múltiplas fontes.
DeepSeek R2 é o modelo de IA de próxima geração com 1,2 trilhões de parâmetros, redução avançada de custos, precisão de visão e mais. Siga-nos para as últimas atualizações.
A atualização mais recente da API DeepSeek focou em uma sumarização de notícias mais precisa e eficiente.
O dlite-v2-1.5b da AI Squared é um grande modelo de linguagem derivado do grande modelo GPT-2 da OpenAI e ajustado em um corpus de 15 mil registros (Conjunto de Dados "Dolly 15k" da Databricks) para a
FastChat-T5 é um chatbot de código aberto treinado por ajuste fino do Flan-t5-xl (3B parâmetros) em conversas compartilhadas por usuários coletadas do ShareGPT. É baseado em uma arquitetura de transfo
Variante mais leve e rápida do Gemini 1.5 otimizada para menor latência.
Modelo Gemini 1.5 Flash de 8 bilhões de parâmetros menor, equilibrando desempenho e eficiência.
Modelo avançado Gemini 1.5 Pro para conversas de múltiplas voltas e raciocínio complexo.
Interface para testar o Gemini 2.0 Flash, uma variante de modelo de linguagem rápida e econômica do Google.
Modelo Flash Gemini 2.0 simplificado para inferência rápida e multitarefa.
Prévia da variante "Flash" do Gemini 2.0 do Google com foco em raciocínio profundo e desempenho econômico.
Modelo Experimental Gemini 2.0 Pro no AI Studio, otimizado para tarefas de raciocínio multimodal de alto nível.
Variante leve e rápida do Gemini 2.5, ideal para aplicações em tempo real com custo reduzido e desempenho forte.
Lançamento experimental anterior do Gemini 2.5 Pro, otimizado para entradas multimodais e compreensão de contexto amplo.
Modelo avançado Gemini com capacidades de raciocínio profundo e multimodal, disponível através da pré-visualização do Google AI Studio.
Outra configuração de prompt/modelo experimental na linha Gemini 2.x focada na integração em nível de sistema.
Lançamento experimental inicial da série Gemini 2.x para desenvolvimento e ajuste.
Experimente o modelo aberto mais capaz do Google com capacidades multimodais e janela de contexto de 128K. Experimente o Gemma 3 gratuitamente aqui. https://gemma3.co com exemplos ricos que mostram vá
Documentação da API para uso do modelo de linguagem na plataforma OpenBigModel.
Plataforma aberta de IA chinesa que fornece acesso a modelos em larga escala e APIs.
Versão melhorada com janela de contexto de 1 milhão de tokens, melhor seguimento de instruções e variantes mais leves (mini/nano).
Modelo generalista aprimorado com forte inteligência emocional, alucinações reduzidas e amplas habilidades multilíngues.
Introdução ao GPT-4o, uma variante projetada para IA multimodal avançada e eficiente.
Versão compacta e econômica do GPT-4o adaptada para aplicações que economizam recursos.
GPT-4 Turbo da OpenAI é mais rápido e barato, juntamente com o GPT-4, que possui fortes habilidades multimodais e de raciocínio.
O modelo principal da xAI com 10× de capacidade computacional, modos de raciocínio avançados, integração com DeepSearch e suporte multimodal.
Documento da API do modelo de visão cobrindo detecção de objetos, classificação e tarefas relacionadas ao processamento de imagens.
Página oficial da Meta descrevendo a série de modelos Llama 3 e suas capacidades.
Atualização detalhada da Meta sobre as melhorias e aplicações da família de modelos Llama 3.1.
Modelo Llama 4 Maverick 17B da Meta ajustado para tarefas de instrução com suporte a contexto longo.
Llama 4 variante Scout otimizada para inferência mais rápida e multitarefa.
Lançado em maio de 2025, oferece "igual ou superior" a 90% do desempenho do Claude 3.7, com preço competitivo ($0,40/$2 por token) e disponível nas principais plataformas de nuvem.
MPT-7B é um transformer no estilo decodificador pré-treinado do zero em 1T tokens de texto e código em inglês. Este modelo foi treinado pela MosaicML. MPT-7B faz parte da família de modelos MosaicPret
Neospace is a B2B Global AI startup utilizing Large Finance Models to assist financial services enterprises in reimagining, enhacing, and implementing credit scoring and allocation dollars saved.
Introduz o modelo de raciocínio o1 na API com chamada de função, suporte a visão, saídas estruturadas, Pref-Fine-Tuning e atualizações em tempo real/WebRTC.
Guias explicando como ajustar o esforço de raciocínio e otimizar o uso de prompt/controle do o1.
Documentação oficial para o o1, detalhando seu controle de esforço de raciocínio, entrada multimodal, custo e níveis de uso.
Introdução dos modelos o3 e o4-mini da OpenAI, equilibrando raciocínio poderoso com uso de ferramentas e suporte multimodal de imagem.
Combina raciocínio em etapas profundas (o3) com uma variante de raciocínio leve e econômica (o4-mini), cada uma com suporte para uso de ferramentas multimodais.
LLM focado em criatividade e geração de ideias para escritores
Variante de LLM especializada no domínio financeiro para redação e análise relacionadas a finanças.
LLM do domínio médico projetado para conteúdo e comunicação em saúde.
Variante ligeiramente menor otimizada para geração de conteúdo criativo.
Palmyra X5 LLM da Writer.com é adaptado para tarefas avançadas de escrita e geração de conteúdo.
Modelo Phi-3 de tamanho médio com janela de contexto de 4k e ajuste de instruções.
O modelo Phi 3 da Microsoft Azure está redefinindo as capacidades dos modelos de linguagem em larga escala na nuvem.
Variante menor do modelo Phi-3 com contexto estendido de 8k tokens e capacidades de instrução.
Modelo Pixtral da Mistral otimizado para ajuste de instruções com tamanho de parâmetro grande.
Modelo Qwen2.5 de linguagem visual combinando visão e texto, otimizado para casos de uso instrutivos, hospedado no Hugging Face.
Modelo Qwen 2.5 Visual-Language 32B ajustado para tarefas de seguimento de instruções.
Modelo Visual-Linguagem Qwen 2.5 Maior 72B otimizado para tarefas multimodais baseadas em instruções.
Blog sobre modelos de linguagem visual Qwen 2 focados na integração da visão e compreensão de texto.
Blog detalhando o Qwen 2.5 Max, um modelo multimodal em larga escala com capacidades aprimoradas de visão e linguagem.
Guia da Aliyun sobre suas ferramentas de estúdio de IA de visão para construir e implantar modelos de visão-linguagem.
Visão geral do Qwen 3, um modelo de linguagem de última geração que suporta muitos idiomas e grandes janelas de contexto.
Red Hat® Enterprise Linux® AI é uma plataforma de modelo de base para desenvolver, testar e executar perfeitamente os modelos de linguagem de grande porte (LLMs) da família Granite para aplicações emp
SEO2LLM mostra como a sua marca é visível nas respostas de IA como ChatGPT, Gemini e Perplexity em um clique.
O Solar Pro é um modelo de linguagem de ponta (LLM) desenvolvido pela Upstage, projetado para oferecer capacidades de processamento de linguagem natural de alto desempenho enquanto opera de forma efic