A poco más de un año desde su lanzamiento, la familia de modelos de inteligencia artificial Gemma, desarrollada por Google, ha superado un hito importante: más de 150 millones de descargas a nivel global. Este dato fue compartido por Omar Sanseviero, ingeniero de relaciones con desarrolladores en Google DeepMind, a través de una publicación en la red social X (antes Twitter) el pasado fin de semana. Además, reveló que se han creado más de 70.000 variantes de estos modelos dentro de la popular plataforma colaborativa Hugging Face.
La cifra evidencia una fuerte adopción de Gemma por parte de la comunidad técnica y científica, que ha comenzado a explorar, modificar y aplicar estos modelos a diferentes contextos. Este volumen de variantes sugiere una comunidad activa que busca aprovechar las capacidades del modelo más allá de su diseño original, un factor esencial para impulsar su evolución y adaptación en múltiples sectores.
Gemma fue lanzado en febrero de 2024 como parte de una estrategia de Google para competir directamente con otras iniciativas de modelos de IA «abiertos», como Llama, desarrollada por Meta (Facebook). Al igual que sus competidores, Gemma busca combinar potencia técnica, accesibilidad y un enfoque en la versatilidad. Las versiones más recientes del modelo han incorporado capacidades multimodales, es decir, pueden procesar y generar tanto texto como imágenes. Además, son compatibles con más de 100 idiomas, lo que posiciona a Gemma como una opción útil para desarrollos multilingües y aplicaciones globales.
Gemma: Comprendiendo palabras e imágenes
Una de las principales apuestas de Google con Gemma ha sido su adaptación para tareas especializadas. Entre los usos destacados se encuentra la aplicación del modelo en áreas como el descubrimiento de fármacos, lo que demuestra su potencial en entornos de investigación biomédica y farmacéutica. Estas versiones optimizadas reflejan el interés por extender el alcance de la IA hacia campos con alto impacto social y científico.
No obstante, pese a su éxito «relativo», Gemma aún se encuentra lejos de alcanzar las cifras de su competidor más cercano. A finales de abril de 2025, los modelos Llama de Meta habían registrado más de 1.200 millones de descargas, consolidando su posición como uno de los proyectos más populares en el ámbito de la inteligencia artificial abierta. Esta diferencia ilustra tanto la intensidad de la competencia como la necesidad de que Gemma continúe ampliando su base de usuarios y su funcionalidad.
Uno de los factores que podría estar limitando la adopción de Gemma es la crítica que ha recibido en torno a sus términos de licencia. Al igual que Llama, los modelos de Google utilizan licencias personalizadas y no estándar, lo que ha generado dudas en algunos desarrolladores respecto a su uso en entornos comerciales. Este tipo de licencias pueden restringir ciertos usos o generar incertidumbre legal, lo que desalienta a empresas que buscan implementar IA de manera clara y segura.

A pesar de estas restricciones, la comunidad de desarrolladores ha demostrado un alto nivel de compromiso con el proyecto. La interacción activa en plataformas como Hugging Face, donde se alojan y comparten miles de variantes del modelo, es un reflejo de cómo la colaboración abierta sigue siendo un motor clave en el desarrollo de tecnologías emergentes.
La evolución futura de Gemma dependerá no solo de su capacidad técnica, sino también de factores como la claridad de sus licencias, el soporte de Google para su ecosistema y la capacidad de responder a las necesidades específicas de sectores industriales y académicos. Por ahora, haber superado los 150 millones de descargas representa una base sólida sobre la cual seguir construyendo.
Puedes revisar más información relativa a noticias de tecnología | Instagram | YouTube




