G2 se enorgullece de mostrar reseñas imparciales sobre la satisfacción de user en nuestras calificaciones e informes. No permitimos colocaciones pagadas en ninguna de nuestras calificaciones, clasificaciones o informes. Conozca nuestras metodologías de puntuación.
Los modelos de IA más generales y capaces que hemos construido.
Experimente el rendimiento de última generación de Llama 3, un modelo de acceso abierto que sobresale en matices del lenguaje, comprensión contextual y tareas complejas como la traducción y la generac
BERT, abreviatura de Representaciones de Codificadores Bidireccionales de Transformadores, es un marco de aprendizaje automático (ML) para el procesamiento del lenguaje natural. En 2018, Google desarr
GPT-3 impulsa la próxima generación de aplicaciones Más de 300 aplicaciones están ofreciendo búsqueda, conversación, finalización de texto y otras características avanzadas de IA impulsadas por GPT-3
GPT-4o es nuestro modelo multimodal más avanzado que es más rápido y económico que GPT-4 Turbo con capacidades de visión más fuertes. El modelo tiene un contexto de 128K y un límite de conocimiento de
Presentado por primera vez en 2019, Megatron provocó una ola de innovación en la comunidad de IA, permitiendo a investigadores y desarrolladores utilizar los fundamentos de esta biblioteca para avanza
GPT-2 es un modelo de transformadores preentrenado en un corpus muy grande de datos en inglés de manera auto-supervisada. Esto significa que fue preentrenado solo en los textos en bruto, sin que los h
El aprendizaje por transferencia, donde un modelo se preentrena primero en una tarea rica en datos antes de ser ajustado en una tarea posterior, ha surgido como una técnica poderosa en el procesamient
StableLM 3B 4E1T es un modelo de lenguaje base solo de decodificación preentrenado en 1 billón de tokens de diversos conjuntos de datos en inglés y código durante cuatro épocas. La arquitectura del mo
Claude es IA para todos nosotros. Ya sea que estés haciendo una lluvia de ideas solo o construyendo con un equipo de miles, Claude está aquí para ayudar.
Mistral-7B-v0.1 es un modelo pequeño, pero poderoso, adaptable a muchos casos de uso. Mistral 7B es mejor que Llama 2 13B en todos los puntos de referencia, tiene habilidades de codificación natural y
Falcon-40B es un modelo de solo decodificador causal con 40 mil millones de parámetros construido por TII y entrenado con 1,000 mil millones de tokens de RefinedWeb mejorados con corpus seleccionados.
El modelo RoBERTa fue propuesto en RoBERTa: A Robustly Optimized BERT Pretraining Approach por Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zett
La comunidad de IA construyendo el futuro. La plataforma donde la comunidad de aprendizaje automático colabora en modelos, conjuntos de datos y aplicaciones.
GlobalChat es un espacio de trabajo unificado de IA creado para creadores, desarrolladores, investigadores y equipos de negocios que están cansados de manejar múltiples herramientas y suscripciones. A
Una familia de modelos de lenguaje pequeños y potentes (SLMs) con un rendimiento innovador a bajo costo y baja latencia.
La familia Cerebras-GPT se lanza para facilitar la investigación sobre las leyes de escalado de LLM utilizando arquitecturas y conjuntos de datos abiertos y demostrar la simplicidad y escalabilidad de
Actualización de la publicación social sobre el lanzamiento y disponibilidad de o3 y o4-mini a través de ChatGPT y API.
Versión anterior de Claude 3.5 con una comprensión y razonamiento mejorados en comparación con modelos anteriores.
Lanzamiento de Claude 3.7 centrado en capacidades de asistente de IA más seguras y confiables.
Descripción general de la serie Claude 3 y su uso en diversas aplicaciones de asistentes de IA.
El último modelo de Claude se centra en características de asistente de IA robustas, éticas y de alto rendimiento.
Integración del modelo Command R+ de Cohere con Azure para soluciones empresariales de IA mejoradas.
The Quantum Cognitive Content Models (QCCM) are an AI-powered marketing tool developed by TravsX. Designed with deep marketing intelligence, QCCM crafts content that mirrors the strategic thinking of
El asistente de codificación de IA de DeepSeek está ajustado para ofrecer ayuda instructiva en programación.
Actualización anterior de la API de noticias con mejoras en la resumición y anotación de texto a partir de contenido de múltiples fuentes.
DeepSeek R2 es el modelo de IA de próxima generación con 1.2 billones de parámetros, reducción avanzada de costos, precisión en visión y más. Síguenos para las últimas actualizaciones.
La última actualización de la API de DeepSeek se centró en una resumición de noticias más precisa y eficiente.
El modelo de lenguaje grande dlite-v2-1.5b de AI Squared se deriva del gran modelo GPT-2 de OpenAI y se ha ajustado con un corpus de 15,000 registros (el conjunto de datos "Dolly 15k" de Databricks) p
FastChat-T5 es un chatbot de código abierto entrenado mediante el ajuste fino de Flan-t5-xl (3B parámetros) en conversaciones compartidas por usuarios recopiladas de ShareGPT. Se basa en una arquitect
Variante más ligera y rápida de Gemini 1.5 optimizada para menor latencia.
Modelo Flash Gemini 1.5 más pequeño de 8 mil millones de parámetros que equilibra rendimiento y eficiencia.
Modelo avanzado Gemini 1.5 Pro para conversaciones de múltiples turnos y razonamiento complejo.
Interfaz para probar Gemini 2.0 Flash, una variante de modelo de lenguaje rápida y rentable de Google.
Modelo Flash de Gemini 2.0 optimizado para inferencia rápida y multitarea.
Vista previa de la variante "Flash" de Gemini 2.0 de Google, con enfoque en el razonamiento profundo y el rendimiento rentable.
Modelo Experimental Gemini 2.0 Pro en AI Studio, optimizado para tareas de razonamiento multimodal de alta gama.
Variante ligera y rápida de Gemini 2.5, ideal para aplicaciones en tiempo real con costo reducido y alto rendimiento.
Lanzamiento experimental anterior de Gemini 2.5 Pro, optimizado para entradas multimodales y comprensión de gran contexto.
Modelo avanzado de Géminis con capacidades de razonamiento profundo y multimodal, disponible a través de la vista previa de Google AI Studio.
Otra configuración de modelo/prompt experimental en la línea Gemini 2.x centrada en la integración a nivel de sistema.
Lanzamiento experimental temprano de la serie Gemini 2.x para desarrollo y ajuste.
Experimente el modelo abierto más capaz de Google con capacidades multimodales y una ventana de contexto de 128K. Pruebe Gemma 3 gratis aquí. https://gemma3.co con ejemplos ricos que muestran diversas
Documentación de la API para el uso del modelo de lenguaje en la plataforma OpenBigModel.
Plataforma abierta de IA china que proporciona acceso a modelos a gran escala y APIs.
Versión mejorada con una ventana de contexto de 1 millón de tokens, mejor seguimiento de instrucciones y variantes más ligeras (mini/nano).
Modelo generalista mejorado con fuerte inteligencia emocional, reducidas alucinaciones y amplias habilidades multilingües.
Introducción a GPT-4o, una variante diseñada para una IA multimodal avanzada y eficiente.
Versión compacta y rentable de GPT-4o adaptada para aplicaciones conscientes de los recursos.
GPT-4 Turbo de OpenAI es más rápido y económico junto con GPT-4, que tiene fuertes habilidades multimodales y de razonamiento.
El modelo insignia de xAI con 10× de capacidad de cálculo, modos de razonamiento avanzados, integración con DeepSearch y soporte multimodal.
Documento de la API del modelo de visión que cubre la detección de objetos, clasificación y tareas relacionadas con el procesamiento de imágenes.
Página oficial de Meta que describe la serie de modelos Llama 3 y sus capacidades.
Actualización detallada de Meta sobre las mejoras y aplicaciones de la familia de modelos Llama 3.1.
El modelo Llama 4 Maverick 17B de Meta ajustado para tareas de instrucción con soporte de contexto largo.
Llama 4 variante Scout optimizada para una inferencia más rápida y multitarea.
Lanzado en mayo de 2025, ofrece "al o por encima" del 90% del rendimiento de Claude 3.7, con un precio competitivo ($0.40/$2 por token) y disponible en las principales plataformas de nube.
MPT-7B es un transformador de estilo decodificador preentrenado desde cero en 1T tokens de texto en inglés y código. Este modelo fue entrenado por MosaicML. MPT-7B es parte de la familia de modelos Mo
Neospace is a B2B Global AI startup utilizing Large Finance Models to assist financial services enterprises in reimagining, enhacing, and implementing credit scoring and allocation dollars saved.
Introduce el modelo de razonamiento o1 en la API con llamadas a funciones, soporte de visión, salidas estructuradas, Pref-Fine-Tuning y actualizaciones en tiempo real/WebRTC.
Guías que explican cómo ajustar el esfuerzo de razonamiento y optimizar el uso de indicaciones/control de o1.
Documentación oficial para o1, detallando su control de esfuerzo de razonamiento, entrada multimodal, costo y niveles de uso.
Introducción de los modelos o3 y o4-mini de OpenAI, equilibrando un razonamiento poderoso con el uso de herramientas y soporte multimodal de imágenes.
Combina el razonamiento profundo (o3) con una variante de razonamiento ligera y rentable (o4-mini), cada una con soporte para el uso de herramientas multimodales.
LLM enfocado en la creatividad y generación de ideas para escritores
Variante de LLM especializada en el dominio financiero para redacción y análisis relacionados con las finanzas.
Modelo de lenguaje de dominio médico diseñado para contenido y comunicación en el ámbito de la salud.
Variante ligeramente más pequeña optimizada para la generación de contenido creativo.
Palmyra X5 LLM de Writer.com está diseñado para tareas avanzadas de escritura y generación de contenido.
Modelo Phi-3 de tamaño mediano con ventana de contexto de 4k y ajuste de instrucciones.
El modelo Phi 3 de Microsoft Azure está redefiniendo las capacidades de los modelos de lenguaje a gran escala en la nube.
Variante más pequeña del modelo Phi-3 con un contexto extendido de 8k tokens y capacidades de instrucción.
El modelo Pixtral de Mistral optimizado para el ajuste de instrucciones con un gran tamaño de parámetros.
Modelo Qwen2.5 de lenguaje visual que combina visión y texto, optimizado para casos de uso instructivos, alojado en Hugging Face.
Modelo Qwen 2.5 Visual-Language 32B ajustado para tareas de seguimiento de instrucciones.
Modelo Qwen 2.5 Visual-Language 72B más grande optimizado para tareas multimodales basadas en instrucciones.
Blog sobre los modelos de lenguaje visual Qwen 2 enfocados en integrar la visión y la comprensión del texto.
Blog que detalla Qwen 2.5 Max, un modelo multimodal a gran escala con capacidades mejoradas de visión y lenguaje.
Guía de Aliyun sobre sus herramientas de estudio de IA de visión para construir y desplegar modelos de lenguaje de visión.
Descripción general de Qwen 3, un modelo de lenguaje grande de última generación que admite muchos idiomas y ventanas de contexto grandes.
Red Hat® Enterprise Linux® AI es una plataforma de modelos de base para desarrollar, probar y ejecutar sin problemas modelos de lenguaje grande (LLMs) de la familia Granite para aplicaciones empresari
SEO2LLM muestra cuán visible es tu marca en las respuestas de IA como ChatGPT, Gemini y Perplexity con un solo clic.
Solar Pro es un modelo de lenguaje grande (LLM) de vanguardia desarrollado por Upstage, diseñado para ofrecer capacidades de procesamiento de lenguaje natural de alto rendimiento mientras opera eficie