从千亿模型到ChatGPT的一点思考2023

从千亿模型到ChatGPT的一点思考2023_第1页
从千亿模型到ChatGPT的一点思考2023_第2页
从千亿模型到ChatGPT的一点思考2023_第3页
从千亿模型到ChatGPT的⼀点思考唐杰清华⼤学计算机系知识⼯程实验室(KEG)1试试我们的系统•ChatGLM-6B开源,10天10000stars•当天在GitHub的趋势排行第一•过去10天在Huggingface趋势排行第一•开源的训练数据量达到1万亿字符的模型2预训练⼤模型预训练大模型是新一代人工智能应用的基础设施大模型通用能力强,可完成多场景任务,大模型从单模态向多模态发展,从文本逐步发大模型已成为各国人工智能技术新方向,降低成本,提高效率展到视觉、虚实迁移控制亟需建立以中文为核心的超大规模预训练现有300+应用基于OpenAIGPT-3开发OpenAI与阿里、智源均已推出多模态模型模型DALL·EGLM-130B大模型ChatGPT,GPT-4模型参数ChatGLMDALL-E悟道2.01300亿模型参数模型参数2023年1.6万亿1.75万亿2022年nChatGLM:基于GLM-130BGPTGPT-2GPT-32021年n出现大规模基于预训练模底座,具备问答和对话功能模型参数模型参数模型参数型的应用的千亿中英双语模型1750亿nDALL-E/Clip:OpenAI大规1.1亿15亿模图像模型,可基于短文本生nGLM-130B:125T中英文nGPT-4:多模态大模型,可成对应图像和进行图像分类文本6亿图+千万级视频千同时实现图像和文本输入2018年2019年2020年万级别知识图谱nAliceMind:阿里大规模多模nErnieBot(文心一言):nTransformer应用在nOpenAIGPT2.0nOpenAIGPT3,跨时代态模型,集合语言理解与生nChatGPT:在问答模型中百度全新一代知识增强大语OpenAIGPT1中,nBAIDUErnie1.0,基于意义的语言大模型,标志成能力引入人类反馈强化学习,言模型Transformer架构是预着AI文本生成到下一个阶大幅提升生成结果质量训练大模型的技术基Bert模...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

发表评论取消回复

参与评论可获取积分奖励  
悟空文库+ 关注
实名认证
内容提供者

悟空文库-海量文档资源下载,专业/极致/认真

确认删除?
回到顶部