Así es Gemini, el nuevo chatbot de Google, contado por los gurús de la compañía
La nueva generación del modelo de IA de Alphabet puede procesar textos, imágenes, vídeos y audios largos
EFE / REDACCIÓN
El gigante tecnológico Google lanzó este jueves, para un grupo selecto de desarrolladores, Gemini 1.5 Pro, un modelo de inteligencia artificial (IA) que puede procesar grandes cantidades de información de una sola vez, incluida una hora de vídeo, once horas de audio, 30.000 líneas de código o más de 700.000 palabras.
La semana pasada, la tecnológica cambió el nombre de su chatbot de Bard a Gemini, y anunció que esta tecnología estará disponible en una nueva aplicación para Android y a través de la aplicación de Google en iOS. También lanzó una versión "avanzada" de pago, que usa Gemini 1.0 Ultra.
La versión 1.5 Pro aporta "mejoras extraordinarias a la herramienta de Google", ha asegurado el director general de la compañía Sundar Pichai, especialmente en el rendimiento, ha aclarado.
1 MILLÓN DE TOKENS
"Nuestros equipos continúan empujando los límites de nuestros últimos modelos con la seguridad como núcleo. Están haciendo progresos rápidos", ha asegurado.
"Hemos podido aumentar significativamente la cantidad de información que nuestros modelos pueden procesar, ejecutando hasta 1 millón de tokens de manera consistente, logrando la ventana de contexto más larga de cualquier modelo de base a gran escala hasta ahora", ha añadido Pitachi.
Las altas capacidades de Gemini "ayudarán a los desarrolladores a construir modelos y aplicaciones mucho más útiles", ha dicho.
En palabras de otro de los gurús del equipo, Demis Hassabis, "Gemini 1.5 es más eficiente para entrenar y servir".
"Estamos trabajando activamente en optimizaciones para mejorar la latencia, reducir los requisitos computacionales y mejorar la experiencia del usuario", ha añadido.
El modelo es capaz de analizar un texto de 402 páginas de transcripciones del Apolo 11 -la primera misión en lograr que un ser humano llegase a la luna- y encontrar tres citas graciosas, explicó Oriol Vinyals, vicepresidente de investigación de Google DeepMind y director ejecutivo de Gemini.
Además de con texto, los usuarios podrán interactuar con el modelo con fotos o dibujos. "En cierto modo, funciona de manera muy similar a como lo hace nuestro cerebro", explicó Vinyals.
En lo referente a las 'alucinaciones' -respuestas bien estructuradas pero incorrectas- Vinyals señala que sigue siendo un problema de la IA en general en el que se sigue trabajando.