3 月 29 日消息,综合界面新闻及新浪科技,在今日的中关村论坛人工智能日的主题演讲上,零一万物创始人兼 CEO 李开复表示,DeepSeek 的成功证明闭源是一条死路,开源才会有更大的发展。
他认为,随着 AI 的 Scaling Law 法则从预训练端转移到推理端上,AI 模型、AI 应用会在今年迎来新的加速爆发,今年的一个行业口号应该是“Make AI Work”(让 AI 变得有用)。他表示,随着 Scaling Law(慢思考)的放缓,超大预训练模型的直接商业价值在逐步降低。
获悉,李开复给出的四个理由是:数据不足导致传统预训练将终结;超大 GPU 群效率降低,容错问题等导致边际效应降低;超大预训练模型价格昂贵,速度缓慢;新推理 Scaling Law 将带来更高回报。超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋进于大模型时代的基础设施。旧学习范式是人教 AI,新学习范式是 AI 教 AI。
该内容转自IT之家
本文共 295 个字数,平均阅读时长 ≈ 1分钟
喜欢就支持一下吧
本站为个人博客,博客所发布的一切破解补丁、注册机和注册信息及软件的文章仅限用于学习和研究目的。
不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本站信息来自网络,版权争议与本站无关,您必须在下载后的24个小时之内从您的电脑中彻底删除上述内容。
访问和下载本站内容,说明您已同意上述条款。
本站不贩卖软件,所有内容不作为商业行为。如果有侵犯您的权益请点击“关于”联系WFXL,核实后会及时删除
版权属于:新闻发布
作品采用《署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)》许可协议授权
评论 抢沙发