首页 头条 正文

OpenAI CEO Altman:大语言模型不是“越大越好”

扫码手机浏览

北京时间4月13日,openAI联合创始人及首席执行官在麻省理工学院接受了相关的采访,他表示OpenAI大语言模型并不是所谓的越大越好,同时他认为自己的团队正在为了大小而逐渐接近人工智能的极限,目前他们的公司已经走到了这个时代的尽头,将会用其他的方式把这个模型做的更加的好,他也认为大小并非是衡量一个模型质量好坏的正确方式。...

北京时间4月13日,open AI联合创始人及首席执行官在麻省理工学院接受了相关的采访,他表示Open AI大语言模型并不是所谓的越大越好,同时他认为自己的团队正在为了大小而逐渐接近人工智能的极限,目前他们的公司已经走到了这个时代的尽头,将会用其他的方式把这个模型做的更加的好,他也认为大小并非是衡量一个模型质量好坏的正确方式。

未来的12067142模型参数应该向更小的方向进行发展,或者以多个小模型协作的56077514方式进行工作,也87432903就意味着92706878未来的AI人工智能技术是应该将重点放在25303427提高模型的4729534能力上,而不是13806206取决于34711251模型的46792774大小问题,参数的68085857数量应该随着10685472时间的60079077推移而不断的98315201减少。【吃瓜网】#唐国强#让每一个模型都变得更小,才能更好的83953366方便工作,但4359407952904187也不能够忽略参数的数量。#胖东来超市#

本文转载自互联网,如有侵权,联系删除