Como parte de las últimas actualizaciones y presentaciones del presente año, Google anunció Gemini 2.0, su nuevo modelo para la era de los agentes de Inteligencia Artificial.
Gemini 2.0 es parte de la familia de los modelos desarrollados para esta era de agentes de IA, de hecho, de acuerdo a Google, “Gemini 2.0 es nuestro modelo más capaz hasta el momento”, ya que en esta ocasión, dispone de avances en multimodalidad, como resultados de imágenes y audio nativos, y uso de herramientas nativas, que permiten desarrollar nuevos agentes de IA que acerquen a la visión de un verdadero asistente universal.
Y es que como parte del desarrollo de los agentes de IA, Gemini 2.0 Flash Experimental estará disponible para todos los usuarios de Gemini, una instancia para que puedan probar nuevas funciones de forma más rápida y actualizada. Como parte de estas actualizaciones, Google también lanzó una nueva función llamada Deep Research, que aplica razonamiento avanzado y funciones de contexto ampliado para actuar como asistente de investigación y explorar temas complejos y compilar informes por ti. Ya está disponible en Gemini Advanced.
Gemini 2.0 avanza para que más usuarios puedan experimentar con él
Gemini 2.0 Flash ahora está disponible como un modelo experimental para los desarrolladores a través de la API de Gemini en Google AI Studio y Vertex AI con entradas multimodales, salidas de texto, y generación de imágenes nativas y de texto a voz disponible para los socios con acceso anticipado. En esta línea, Gemini 2.0 seguirá la disponibilidad general en enero, junto con más tamaños de modelos.
Es así que para ayudar a los desarrolladores a compilar aplicaciones dinámicas e interactivas, también lanzaremos una Multimodal Live API que tiene audio en tiempo real, entrada de transmisión de video y la capacidad de usar múltiples herramientas combinadas.
Google, durante su presentación, entregó una gran noticia y es que desde hoy, los usuarios de Gemini a nivel global pueden acceder a una versión de chat optimizada de la versión 2.0 Flash Experimental. Para ello, deben seleccionarla en el menú desplegable del modelo que se encuentra en el escritorio y en la Web en dispositivos móviles, y pronto estará disponible en la app para dispositivos móviles de Gemini. Con este nuevo modelo, los usuarios pueden experimentar un asistente de Gemini aún más útil.
Ahora bien, en materia de experiencias y características clave de Gemini 2.0 encontramos que las capacidades de acción de la interfaz de usuario nativa de Gemini 2.0 Flash junto con otras mejoras (como el razonamiento multimodal, la compresión de contexto amplio, el seguimiento y la planificación de instrucciones complejas, el uso de funciones de composición, el uso de la herramienta nativa y la latencia mejorada) trabajan en conjunto para habilitar una clase nueva de experiencias de agentes.
La aplicación práctica de agentes de IA es un área de investigación repleta de posibilidades emocionantes. Google está explorando esta nueva frontera con una serie de prototipos que pueden ayudar a las personas a realizar y completar tareas. Entre estos, se incluye una actualización al Project Astra, prototipo de investigación que explora las funciones futuras de un asistente de IA universal; el nuevo Project Mariner, que explora el futuro de la interacción entre seres humanos y agentes, empezando con tu navegador; y Jules, un agente de código potenciado por la IA que puede ayudar a los desarrolladores.
Google aún está en las primeras etapas de desarrollo, pero indican que “nos emociona ver cómo los verificadores de confianza usan estas funciones y qué lecciones podemos aprender para poder ponerlas a disposición de forma más amplia para los productos en el futuro”.