Gemma: Los nuevos modelos de IA abiertos introducidos por Google.

febrero 21, 2024

Gemma representa un avance significativo en el ámbito de la inteligencia artificial (IA), construido sobre la base del desarrollo responsable utilizando la misma investigación y tecnología que dio vida a los modelos Gemini. Con la palabra “Gemma” y un elegante ícono de chispa sobre un gradiente de azul en un fondo negro, encapsula la esencia de la innovación y accesibilidad en la IA.

En Google, nuestro compromiso de hacer que la IA sea beneficiosa para todos es inquebrantable. Nuestra historia está llena de contribuciones a la comunidad abierta, incluyendo innovaciones transformadoras como Transformers, TensorFlow, BERT, T5, JAX, AlphaFold y AlphaCode. Estamos emocionados de desvelar una nueva generación de modelos abiertos de Google diseñados para ayudar a desarrolladores e investigadores a crear IA de manera responsable.

Modelos Abiertos Gemma

Gemma es un conjunto de modelos abiertos de vanguardia y ligeros, creados utilizando la misma investigación y tecnología empleada en los modelos Gemini. Desarrollado por Google DeepMind y otros equipos de Google, Gemma se inspira en Gemini, con su nombre reflejando la palabra latina para “piedra preciosa”. Junto con nuestros pesos de modelo, también estamos lanzando herramientas para apoyar la innovación de los desarrolladores, fomentar la colaboración y guiar el uso responsable del modelo Gemma.

Disponible globalmente a partir de hoy, Gemma viene con características clave que debes conocer:

  • Pesos del modelo lanzados en dos tamaños: Gemma 2B y Gemma 7B, cada uno con variantes preentrenadas y ajustadas por instrucciones.
  • Una nueva Herramienta de IA Generativa Responsable proporciona orientación y herramientas esenciales para crear aplicaciones de IA más seguras con Gemma.
  • Cadenas de herramientas para inferencia y ajuste fino supervisado (SFT) en todos los marcos principales: JAX, PyTorch y TensorFlow a través de Keras 3.0 nativo.
  • Cuadernos de Colab y Kaggle listos para usar, junto con la integración con herramientas populares como Hugging Face, MaxText, NVIDIA NeMo y TensorRT-LLM, hacen que empezar con Gemma sea fácil.
  • Los modelos Gemma preentrenados y ajustados por instrucciones pueden operar en tu laptop, estación de trabajo o Google Cloud, con fácil implementación en Vertex AI y Google Kubernetes Engine (GKE).
  • La optimización a través de múltiples plataformas de hardware de IA asegura un rendimiento líder en la industria, incluyendo GPUs de NVIDIA y TPUs de Google Cloud.
  • Los términos de uso permiten el uso comercial responsable y la distribución para todas las organizaciones, independientemente de su tamaño.

Rendimiento de Vanguardia por Tamaño

Los modelos Gemma comparten componentes técnicos e infraestructura con Gemini, nuestro modelo de IA más extenso y capaz disponible ampliamente hoy. Esto permite que Gemma 2B y 7B logren un rendimiento de clase mundial para sus tamaños en comparación con otros modelos abiertos. Notablemente, Gemma supera a modelos significativamente más grandes en benchmarks clave mientras se adhiere a nuestros estrictos estándares para salidas seguras y responsables. Consulta el informe técnico para detalles de rendimiento, composición del conjunto de datos y metodologías de modelado.

Diseñado de Manera Responsable

Gemma está creado con nuestros Principios de IA en primer plano. Parte de hacer que los modelos preentrenados de Gemma sean seguros y confiables involucró el uso de técnicas automatizadas para filtrar cierta información personal y otros datos sensibles de los conjuntos de entrenamiento. Además, utilizamos un ajuste fino extenso y aprendizaje por refuerzo a partir de retroalimentación humana (RLHF) para alinear nuestros modelos ajustados por instrucciones con comportamiento responsable. Para entender y mitigar el perfil de riesgo de los modelos Gemma, realizamos evaluaciones robustas, incluyendo red-teaming manual, pruebas adversarias automatizadas y evaluaciones de capacidad de modelo para actividades peligrosas. Estas evaluaciones se detallan en nuestra Tarjeta de Modelo.

También estamos lanzando una nueva Herramienta de IA Generativa Responsable junto con Gemma para ayudar a desarrolladores e investigadores a priorizar la creación de aplicaciones de IA seguras y responsables. La herramienta incluye:

Clasificación de Seguridad: Proporcionamos una metodología novedosa para construir clasificadores de seguridad robustos con ejemplos mínimos. Depuración: Una herramienta de depuración de modelos ayuda a investigar el comportamiento de Gemma y abordar problemas potenciales. Orientación: Acceso a las mejores prácticas para constructores de modelos basadas en la experiencia de Google en el desarrollo y despliegue de modelos de lenguaje grandes. Optimizado a Través de Marcos, Herramientas y Hardware

Puedes ajustar los modelos Gemma con tus datos para adaptarse a necesidades específicas de aplicación, como la summarización o la generación aumentada por recuperación (RAG). Gemma soporta una amplia variedad de herramientas y sistemas:

Herramientas multi-marco: Trae tu marco favorito, con implementaciones de referencia para inferencia y ajuste fino a través de Keras 3.0 multi-marco, PyTorch nativo, JAX y Transformers de Hugging Face. Compatibilidad entre dispositivos: Los modelos Gemma trabajan en tipos de dispositivos populares, incluyendo laptops, desktops, IoT, móviles y nube, habilitando capacidades de IA ampliamente accesibles. Plataformas de hardware de vanguardia: Nos hemos asociado con NVIDIA para optimizar Gemma para GPUs de NVIDIA, desde centro de datos hasta nube hasta PCs de IA RTX locales, asegurando un rendimiento líder en la industria e integración con tecnología de punta. Optimizado para Google Cloud: Vertex AI proporciona un conjunto completo de herramientas de MLOps con una gama de opciones de ajuste y despliegue con un clic usando optimizaciones de inferencia incorporadas. La personalización avanzada está disponible con herramientas Vertex AI completamente gestionadas o GKE auto-gestionado, incluyendo el despliegue a infraestructura rentable en GPU, TPU y CPU desde cualquier plataforma. Créditos Gratuitos para Investigación y Desarrollo

Gemma está construido para la comunidad abierta de desarrolladores e investigadores impulsando la innovación en IA. Puedes comenzar a trabajar con Gemma hoy usando acceso gratuito en Kaggle, un nivel gratuito para cuadernos Colab, y $300 en créditos para nuevos usuarios de Google Cloud. Los investigadores también pueden solicitar créditos de Google Cloud hasta $500,000 para acelerar sus proyectos.

Cómo Empezar

Explora más sobre Gemma y accede a guías de inicio rápido en ai.google.dev/gemma.

A medida que continuamos expandiendo la familia de modelos Gemma, esperamos introducir nuevas variantes para aplicaciones diversas. Mantente atento a eventos y oportunidades en las próximas semanas para conectar, aprender y construir con Gemma.