雷达智富

首页 > 内容 > 程序笔记 > 正文

程序笔记

清华启动ChatGLM对话模型内测

2024-08-01 28

清华大学计算机系技术成果转化公司智谱AI于近日开源了General Language Model (通用语言模型,GLM)系列模型的新成员——中英双语对话模型ChatGLM-6B,支持在单张消费级显卡上进行推理使用。

这是继此前开源GLM-130B千亿基座模型之后,智谱AI再次推出大模型方向的研究成果。与此同时,基于千亿基座模型的ChatGLM也同期推出,初具问答和对话功能,现已开启邀请制内测,后续还会逐步扩大内测范围。

智谱AI CEO张鹏介绍,ChatGLM-6B是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。该模型基于GLM架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需6GB显存)。

据了解,2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测,GLM-130B是亚洲唯一入选的大模型。在与OpenAI、Google Brain、微软、英伟达、Meta AI的各大模型对比中,评测报告显示GLM-130B在准确性和公平性指标上与GPT-3 175B (davinci) 接近或持平,鲁棒性、校准误差和无偏性优于GPT-3 175B。

然而,ChatGLM距离国际顶尖大模型研究和产品还有一定差距。张鹏表示,GLM团队将持续研发并开源更新版本的ChatGLM和相关模型,希望能和开源社区研究者和开发者一起,推动大模型研究和应用在中国的发展。

更新于:4个月前
赞一波!

文章评论

评论问答