前言
看看以前写的文章,业余搞人工智能还是很早之前的事情了,之前为了高工资,一直想从事人工智能相关的工作都没有实现。现在终于可以安静地系统地学习一下了。也是一边学习一边写博客记录吧。
昨天Google发布了最新的开源模型Gemma,今天我就来简单体验一下
第一步 去Kaggle申请模型权限
https://www.kaggle.com/models/keras/gemma/
先用我的Google账户注册登陆一下Kaggle,然后在点击一下那个红框里面的按钮,填个申请表格,立马就可以了,下面是我申请后的样子

第二步 搞个Kaggle的API key 后面会用到
点击页面右上角的用户头像那里

选择Settings

创建token

自动下载下来了

第三步,打开Google colab 运行模型
https://colab.research.google.com/
新建一个笔记

把刚才下载的Kaggle的apikey 填到colab中

填好之后,把开关打开一下
设置两个:KAGGLE_USERNAME KAGGLE_KEY

设置一下运行时

改为T4 GPU

右上角连接资源后可以查看使用情况

写代码:
# 先安装一下keras
!pip install -U keras-nlp
!pip install -U keras
# 引入包,验证一下keras版本,不能低于3.0
import keras
import keras_nlp
import numpy as np
print(keras.__version__)
#设置环境变量
import os
from google.colab import userdata
os.environ["KAGGLE_USERNAME"] = userdata.get('KAGGLE_USERNAME')
os.environ["KAGGLE_KEY"] = userdata.get('KAGGLE_KEY')
# 选择一个较小的模型试试
gemma_lm = keras_nlp.models.GemmaCausalLM.from_preset("gemma_instruct_2b_en")
# 文本补全任务调用generate函数
gemma_lm.generate("Keras is a", max_length=30)
# generate函数,也可也完成批量补全
gemma_lm.generate(["Keras is a", "The sky is blue because"], max_length=30)
执行结果:

资源占用:

感觉好慢。。。
而且显存占用太多了。。。
结果
后面再写一篇本地部署运行的文章,看看效果怎么样
我的电脑配置:
CPU: 12th Gen Intel® Core™ i7-12700F 2.10 GHz
内存32G,显卡RTX3060 12G













![[TCP] TCP/IP 基础知识词典(2)](https://img-blog.csdnimg.cn/direct/fc27f0734e7c43289b0da085bfdc63d1.png)




