简介
谷歌DeepMind发布了Gemma,这是一系列灵感来自用于Gemini相同研究和技术的开放模型。开放模型适用于各种用例,这是谷歌非常明智的举措。有2B(在2T tokens上训练)和7B(在6T tokens上训练)模型,包括基础和指令调整版本。在8192个token的上下文长度上进行训练。允许商业使用。这些并非多模态模型,根据报告的实验结果优于Llama 2 7B和Mistral 7B。
Gemma模型提高了对话、推理、数学和代码生成等广泛领域的性能。MMLU(64.3%)和MBPP(44.4%)的结果既展示了Gemma的高性能,也显示了开放可用大模型性能仍有提升空间。
Gemma吸收了Gemini模型计划的许多经验,包括代码、数据、架构、指令调优、来自人类反馈的强化学习以及评估。

教程环境要求
Windows操作系统
大于10GB的内存
本教程使用pytorch框架运行gemma
python环境安装
1 使用anaconda管理python环境
国内下载地址:






![第十四章[面向对象]:14.9:定制类](https://img-blog.csdnimg.cn/img_convert/24185a6f8f5567accc7da3ae8eded796.jpeg)







![给定长度为n(n<=20)的数组a,-20<=ai<=20, 每次操作选择i,j,使a[i] += a[j], 在31次操作内使a不递减,输出每次操作的i,j](https://img-blog.csdnimg.cn/direct/b7958c1f23bb46e79983ccc4e11940f6.png)




