Modèles ouverts Gemma

Une famille de modèles ouverts légers et de pointe conçus à partir des recherches et des technologies utilisées pour créer les modèles Gemini

Logo Modèles Gemma

Conception responsable

En intégrant des mesures de sécurité complètes, ces modèles contribuent à garantir des solutions d'IA responsables et fiables grâce à une sélection d'ensembles de données et à des réglages rigoureux.

Logo Modèles Gemma

Des performances inégalées en termes de taille

Les modèles Gemma obtiennent des résultats de benchmark exceptionnels dans leurs tailles 2 milliards et 7 milliards, et surpassent même certains modèles ouverts plus importants.

Logo Modèles Gemma

Cadre flexible

Avec Keras 3.0, bénéficiez d'une compatibilité totale avec JAX, TensorFlow et PyTorch, ce qui vous permet de choisir et de changer facilement de frameworks en fonction de votre tâche.

Benchmarks

Gemma place la barre encore plus haut en termes de performances de pointe par rapport aux modèles populaires tels que Llama 2 et Mistral 7B.

5 shots, top-1

MMLU

Le benchmark MMLU est un test qui mesure l'étendue des connaissances et des capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.

0 shot

HellaSwag

Le benchmark HellaSwag met en question la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en choisissant la fin la plus logique d'une histoire.

0 shot

PIQA

Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.

0 shot

SIQA

Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.

0 shot

Boolq

Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre à des questions par oui ou non (générées dans des environnements sans requête et sans contrainte), en testant la capacité des modèles à effectuer des tâches d'inférence en langage naturel réelles.

notation partielle

Winogrande

Le benchmark de Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage ambiguës avec des options binaires, ce qui nécessite un raisonnement de bon sens généralisé.

7 shots

CQA

Le benchmark CQA évalue les performances des modèles de langage pour les questions-réponses à choix multiples, nécessitant différents types de connaissances de bon sens.

OBQA

Le benchmark OBQA évalue la capacité d'un modèle de langage à répondre à des questions avancées grâce au raisonnement en plusieurs étapes, au bon sens et à la compréhension de texte enrichi, selon les examens en livre libre.

ARC-e

Le benchmark ARC-e évalue les compétences avancées d'un modèle de langage en matière de réponse à des questions sur des questions scientifiques à choix multiples et à un niveau d'enseignement primaire.

ARC-C

Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e, qui ne contient que des questions auxquelles les algorithmes courants (base de récupération et cooccurrence de mots) répondent de manière incorrecte.

5 shots

TriviaQA

Le benchmark TriviaQA teste les compétences de compréhension en lecture avec des triples des questions-réponses-preuve.

pass@1

HumanEval

Le benchmark HumanEval teste la capacité de génération de code d'un modèle de langage en évaluant si ses solutions réussissent les tests unitaires fonctionnels pour les problèmes de programmation.

3 shots

MBPP

Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts fondamentaux de la programmation et l'utilisation des bibliothèques standards.

maj@1

GSM8K

Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques au niveau de l'école primaire, qui nécessitent souvent plusieurs étapes de raisonnement.

4 prises

MATH

Le benchmark MATH évalue la capacité d'un modèle de langage à résoudre des problèmes écrits mathématiques complexes, nécessitant un raisonnement, une résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.

AGIEval

Le benchmark AGIEval teste l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines (examens d'entrée à l'université, examens de droit, etc.).

BBH

Le benchmark BBH (BIG-Bench Hard) se concentre sur des tâches considérées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans différents domaines de raisonnement et de compréhension.

100 %

75 %

50 %

25 %

0 %

100 %

75 %

50 %

25 %

0 %

Gemma

7 Mrds

64,3

Gemma

2 Mrds

42.3

Mistral

7 Mrds

62,5

LLAMA-2

13 Mrds

54,8

LLAMA-2

7 Mrds

45,3

Gemma

7 Mrds

81,2

Gemma

2 Mrds

71,4

Mistral

7 Mrds

81,0

LLAMA-2

13 Mrds

80,7

LLAMA-2

7 Mrds

77,2

Gemma

7 Mrds

81,2

Gemma

2 Mrds

77,3

Mistral

7 Mrds

82,2

LLAMA-2

13 Mrds

80,5

LLAMA-2

7 Mrds

78,8

Gemma

7 Mrds

51,8

Gemma

2 Mrds

49,7

Mistral

7 Mrds

47,0*

LLAMA-2

13 Mrds

50,3

LLAMA-2

7 Mrds

48,3

Gemma

7 Mrds

83,2

Gemma

2 Mrds

69,42

Mistral

7 Mrds

83,2*

LLAMA-2

13 Mrds

81,7

LLAMA-2

7 Mrds

77,4

Gemma

7 Mrds

72,3

Gemma

2 Mrds

65,4

Mistral

7 Mrds

74,2

LLAMA-2

13 Mrds

72,8

LLAMA-2

7 Mrds

69.2

Gemma

7 Mrds

71,3

Gemma

2 Mrds

65,3

Mistral

7 Mrds

66,3*

LLAMA-2

13 Mrds

67,3

LLAMA-2

7 Mrds

57,8

Gemma

7 Mrds

52,8

Gemma

2 Mrds

47,8

Mistral

7 Mrds

52,2

LLAMA-2

13 Mrds

57,0

LLAMA-2

7 Mrds

58,6

Gemma

7 Mrds

81,5

Gemma

2 Mrds

73,2

Mistral

7 Mrds

80,5

LLAMA-2

13 Mrds

77,3

LLAMA-2

7 Mrds

75,2

Gemma

7 Mrds

53.2

Gemma

2 Mrds

42,06

Mistral

7 Mrds

54,9

LLAMA-2

13 Mrds

49,4

LLAMA-2

7 Mrds

45.9

Gemma

7 Mrds

63,4

Gemma

2 Mrds

53.2

Mistral

7 Mrds

62,5

LLAMA-2

13 Mrds

79,6

LLAMA-2

7 Mrds

72,1

Gemma

7 Mrds

32,3

Gemma

2 Mrds

22.0

Mistral

7 Mrds

26,2

LLAMA-2

13 Mrds

18,3

LLAMA-2

7 Mrds

12,8

Gemma

7 Mrds

44,4

Gemma

2 Mrds

29,2

Mistral

7 Mrds

40,2*

LLAMA-2

13 Mrds

30,6

LLAMA-2

7 Mrds

20,8

Gemma

7 Mrds

46,4

Gemma

2 Mrds

17.7

Mistral

7 Mrds

35,4*

LLAMA-2

13 Mrds

28,7

LLAMA-2

7 Mrds

14,6

Gemma

7 Mrds

24,3

Gemma

2 Mrds

11.8

Mistral

7 Mrds

12.7

LLAMA-2

13 Mrds

3.9

LLAMA-2

7 Mrds

2.5

Gemma

7 Mrds

41,7

Gemma

2 Mrds

24,2

Mistral

7 Mrds

41,2*

LLAMA-2

13 Mrds

39,1

LLAMA-2

7 Mrds

29,3

Gemma

7 Mrds

55.1

Gemma

2 Mrds

35,2

Mistral

7 Mrds

56,1*

LLAMA-2

13 Mrds

39,4

LLAMA-2

7 Mrds

32,6

*Reportez-vous au rapport technique pour obtenir des détails sur les performances avec d'autres méthodologies.

Développement d'IA responsable

Responsabilité dès la conception

Nous pré-entraînéons sur des données soigneusement sélectionnées et conçus pour assurer la sécurité. Développement d'IA sécurisé et responsable s'appuyant sur les modèles Gemma.

Évaluation robuste et transparente

Des évaluations complètes et des rapports transparents révèlent les limites du modèle permettant d'adopter une approche responsable pour chaque cas d'utilisation.

Favoriser un développement responsable

Le kit d'IA générative responsable aide les développeurs à concevoir et à mettre en œuvre les bonnes pratiques d'IA responsable.

Icône Google Cloud

Optimisé pour Google Cloud

Avec les modèles Gemma sur Google Cloud, vous pouvez personnaliser en profondeur le modèle en fonction de vos besoins spécifiques grâce aux outils entièrement gérés de Vertex AI ou à l'option autogérée de GKE, et le déployer sur une infrastructure flexible et économique optimisée par l'IA.

Accélérer la recherche universitaire avec les crédits Google Cloud

Le programme de recherche universitaire a récemment clos sa période de candidature, en attribuant des crédits Google Cloud pour aider les chercheurs qui repoussent les limites de la découverte scientifique à l'aide des modèles Gemma. Nous sommes ravis de découvrir les avancées révolutionnaires qui découlent de cette initiative.

Ne manquez pas les prochaines opportunités de faire avancer vos recherches avec Google Cloud.

Rejoindre la communauté

Échangez, explorez et partagez vos connaissances avec d'autres membres de la communauté des modèles de ML.