Modèles ouverts Gemma
Une famille de modèles ouverts légers et de pointe conçus à partir des recherches et des technologies utilisées pour créer les modèles Gemini
Conception responsable
En intégrant des mesures de sécurité complètes, ces modèles contribuent à garantir des solutions d'IA responsables et fiables grâce à une sélection d'ensembles de données et à des réglages rigoureux.
Des performances inégalées en termes de taille
Les modèles Gemma obtiennent des résultats de benchmark exceptionnels dans leurs tailles 2 milliards et 7 milliards, et surpassent même certains modèles ouverts plus importants.
Cadre flexible
Avec Keras 3.0, bénéficiez d'une compatibilité totale avec JAX, TensorFlow et PyTorch, ce qui vous permet de choisir et de changer facilement de frameworks en fonction de votre tâche.
Variantes du modèle Gemma
Guides de démarrage rapide pour les développeurs
Guides de démarrage rapide pour les partenaires
Benchmarks
Gemma place la barre encore plus haut en termes de performances de pointe par rapport aux modèles populaires tels que Llama 2 et Mistral 7B.
5 shots, top-1
MMLU
Le benchmark MMLU est un test qui mesure l'étendue des connaissances et des capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.
0 shot
HellaSwag
Le benchmark HellaSwag met en question la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en choisissant la fin la plus logique d'une histoire.
0 shot
PIQA
Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.
0 shot
SIQA
Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.
0 shot
Boolq
Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre à des questions par oui ou non (générées dans des environnements sans requête et sans contrainte), en testant la capacité des modèles à effectuer des tâches d'inférence en langage naturel réelles.
notation partielle
Winogrande
Le benchmark de Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage ambiguës avec des options binaires, ce qui nécessite un raisonnement de bon sens généralisé.
7 shots
CQA
Le benchmark CQA évalue les performances des modèles de langage pour les questions-réponses à choix multiples, nécessitant différents types de connaissances de bon sens.
OBQA
Le benchmark OBQA évalue la capacité d'un modèle de langage à répondre à des questions avancées grâce au raisonnement en plusieurs étapes, au bon sens et à la compréhension de texte enrichi, selon les examens en livre libre.
ARC-e
Le benchmark ARC-e évalue les compétences avancées d'un modèle de langage en matière de réponse à des questions sur des questions scientifiques à choix multiples et à un niveau d'enseignement primaire.
ARC-C
Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.
5 shots
TriviaQA
Le benchmark TriviaQA teste les compétences de compréhension en lecture avec des triples des questions-réponses-preuve.
pass@1
HumanEval
Le benchmark HumanEval teste la capacité de génération de code d'un modèle de langage en évaluant si ses solutions réussissent les tests unitaires fonctionnels pour les problèmes de programmation.
3 shots
MBPP
Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts fondamentaux de la programmation et l'utilisation des bibliothèques standards.
maj@1
GSM8K
Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques au niveau de l'école primaire, qui nécessitent souvent plusieurs étapes de raisonnement.
4 prises
MATH
Le benchmark MATH évalue la capacité d'un modèle de langage à résoudre des problèmes écrits mathématiques complexes, nécessitant un raisonnement, une résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.
AGIEval
Le benchmark AGIEval teste l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines (examens d'entrée à l'université, examens de droit, etc.).
BBH
Le benchmark BBH (BIG-Bench Hard) se concentre sur des tâches considérées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans différents domaines de raisonnement et de compréhension.
100 %
75 %
50 %
25 %
0 %
100 %
75 %
50 %
25 %
0 %
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
Gemma
7 Mrds
Gemma
2 Mrds
Mistral
7 Mrds
LLAMA-2
13 Mrds
LLAMA-2
7 Mrds
*Reportez-vous au rapport technique pour obtenir des détails sur les performances avec d'autres méthodologies.
Accédez à Gemma dès aujourd'hui
Les modèles Gemma sont disponibles dans toutes vos plates-formes de modèles préférées.
Développement d'IA responsable
Responsabilité dès la conception
Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité. Développement d'IA sécurisé et responsable s'appuyant sur les modèles Gemma.
Évaluation robuste et transparente
Des évaluations complètes et des rapports transparents révèlent les limites du modèle permettant d'adopter une approche responsable pour chaque cas d'utilisation.
Favoriser un développement responsable
Le kit d'IA générative responsable aide les développeurs à concevoir et à mettre en œuvre les bonnes pratiques d'IA responsable.
Optimisé pour Google Cloud
Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser en profondeur le modèle en fonction de vos besoins spécifiques grâce aux outils entièrement gérés de Vertex AI ou à l'option autogérée de GKE, et le déployer sur une infrastructure flexible et économique optimisée par l'IA.
Accélérer la recherche universitaire avec les crédits Google Cloud
Le programme de recherche universitaire a récemment clos sa période de candidature, en attribuant des crédits Google Cloud pour aider les chercheurs qui repoussent les limites de la découverte scientifique à l'aide des modèles Gemma. Nous sommes ravis de découvrir les avancées révolutionnaires qui découlent de cette initiative.
Rejoindre la communauté
Échangez, explorez et partagez vos connaissances avec d'autres membres de la communauté des modèles de ML.