当前位置: 首页 >  综合 > 正文

​谷歌新版PaLM2训练数据量为前一代5倍 观热点

2023-05-17 18:02:27 来源:鞭牛士


(资料图片仅供参考)

5月17日消息,据《科创板日报》消息,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。

标签:

<  上一篇

过去一年 腾讯员工减少1万人 平均工资又涨了

下一篇 >

最后一页