刘心安儿2024年11月14日发布:“越大越好”的路径走不通?OpenAI正在寻求训练模型的新方法《流水迢迢》开播,播放量破7000万,更短短4天便吊足观众胃口
作者:南茜·艾薇哈德 | 责任编辑:Admin
本次大会汇集了来自全球各地的科技领袖,共同探讨未来科技趋势...
【澳门一码一肖一特一中管家婆】 |
【新澳2024今晚开奖资料】 |
【澳门资料大全免费2024】 |
【正版澳门天天彩】 |
【澳门三肖期期准免费大全】 |
【2024新澳精准资料免费提供下载】 |
【澳门管家婆四肖选一肖期期准】 |
【新澳天天彩免费资料大全特色】 |
【2024新澳门姿料】 |
【六开彩澳门开奖结果查询今晚】 |
财联社11月12日(编辑 牛占林)很多人工智能(AI)科学家和初创公司认为,通过增加更多数据和算力来扩大当前模型,以持续改进AI模型的方法正在走到尽头。因此,像OpenAI这样的AI公司正在寻求通过开发新的训练技术来克服当前面临的挑战,这些技术更像人类的思考方式。
自风靡全球的聊天机器人ChatGPT发布以来,科技公司都是通过增加更多数据和算力来扩大并改善AI模型。但现在,一些最杰出的AI科学家正在指出这种“越大越好”的局限性。
人工智能实验室Safe Superintelligence和OpenAI的联合创始人Ilya Sutskever近日表示,扩大预训练(训练AI模型的阶段,该模型使用大量未标记的数据来理解语言模式和结构)所取得的成果已经达到了一个平稳期,对提升模型性能的帮助有限。
Sutskever早期主张通过在预训练中使用更多数据和算力来实现生成式AI的巨大飞跃,这最终创造了ChatGPT。他今年早些时候离开OpenAI,创立了Safe Superintelligence。
Sutskever表示:“以前是规模扩张的时代,现在我们又回到了奇迹和发现的时代。每个人都在寻找下一个东西,这比以往任何时候都更重要。”
此外,Sutskever还承认他的公司正在研究一种扩大预训练规模的替代方法,但未透露更多细节。
新技术竞赛
大模型的所谓“训练”需要同时运行数百个芯片,成本可能高达数千万美元。考虑到系统的复杂性,它们更有可能出现硬件导致的故障;在测试结束之前,研究人员可能无法知道这些模型的最终性能,这可能需要几个月的时间。
另一个问题是,大语言模型吞噬了大量数据,而AI模型已经耗尽了世界上所有容易获取的数据。电力短缺也阻碍了训练运行,因为这个过程需要大量的能源。
为了克服这些挑战,研究人员正在探索测试时计算(test-time compute),这是一种在所谓的推理阶段或使用模型时增强现有AI模型的技术。例如,模型可以实时生成和评估多种可能性,最终选择最佳前进路径,而不是立即选择一个答案。
这种方法使模型能够将更多的处理能力投入到具有挑战性的任务中,比如数学或编码问题或需要类似人类的推理和决策的复杂操作。
OpenAI研究员Noam Brown此前表示:“事实证明,让一个机器人在一盘扑克牌中思考20秒,与将模型放大10万倍、训练时间延长10万倍的效果相同。”
OpenAI 在其新发布的模型“o1”中采用了这项技术,与此同时,来自Anthropic、xAI和DeepMind等其他顶尖AI实验室的研究人员也在致力于开发自己的技术版本。
OpenAI首席产品Kevin Weil表示:“我们看到了很多低垂的果实,摘下来让这些模型变得更好。等到人们迎头赶上的时候,我们会努力开发新的技术。”
多位科学家、研究人员和投资者认为,这种新技术可能会重塑AI军备竞赛,并对AI公司所需求的各类资源产生影响。
【2024正版资料免费大全】 | 【新澳今天最新资料网站】 | 【曾夫人论坛免费资料大全】 | 【新澳天天彩正版免费资料观看】 | 【新澳门期期准】 | 【2024年天天彩免费资料大全】 | 【正版资料免费大全】 | 【2024新奥资料免费精准109】 |
推荐文章
并购重组潮起,常态化IPO上路
Sutskever表示:“以前是规模扩张的时代,现在我们又回到了奇迹和发现的时代。...
丁学良:中国挺亏待年轻一代专业视角
新技术竞赛 ...
小鹏新车标配高阶智驾,入局增程是顺势而为
每个人都在寻找下一个东西,这比以往任何时候都更重要。...
最新评论
韦斯·麦吉 2024-11-13 23:19
这种方法使模型能够将更多的处理能力投入到具有挑战性的任务中,比如数学或编码问题或需要类似人类的推理和决策的复杂操作。
IP:51.29.4.*
赵晓璐 2024-11-13 13:20
考虑到系统的复杂性,它们更有可能出现硬件导致的故障;在测试结束之前,研究人员可能无法知道这些模型的最终性能,这可能需要几个月的时间。
IP:56.40.3.*
Numchok 2024-11-13 22:20
此外,Sutskever还承认他的公司正在研究一种扩大预训练规模的替代方法,但未透露更多细节。
IP:68.94.5.*