AI 浪潮现泡沫迹象,大模型同质化严重,技术迭代放缓

进不了网站?换个网络试试!

在亚布力企业家夏季年会上,猎豹移动董事长傅生提出了一个观点,AI浪潮已经出现泡沫迹象,大模型出现在公众视野已经过去了近一年,但顶级大模型的模型并未得到明显的提升。“客观地说,大模型有什么优势,基本上就是'家家话',用户在使用的时候感觉不到太大的区别。”他认为,目前的大模型是严重的同质化。

在与创始人严俊杰的交流中,他提到了瓶颈和转折点,现在所有型号的错误率都在 20% 左右,“真正的改变是,有一个模型在什么时间点可以将错误率降低到个位数,这将是一个非常本质的改变。大模型未来能否成功,富生也认为,大模型能否将天花板提高到更高的水平,是非常重要的。

AI 浪潮现泡沫迹象,大模型同质化严重,技术迭代放缓插图

“在最黑暗的时刻,我认为技术很重要。”

这一轮生成式 AI 是社会生产力革命的巨大浪潮,富生认为,这股浪潮在今天已经显示出明显的泡沫迹象。

什么是“泡泡”,富生认为,一方面,模型能力并没有得到明显的提升。“在以技术为核心的技术浪潮中,这是不正常的。”每次写出不同的东西,福生都会把几个大模型互相比较,“有时候这个大模型好用,有时候那个那个好用,现在大模型同质化很严重。”

其次,聊了这么久的人工智能,“但真正的APP(杀手级APP)还没有出现,不仅是C端,B端也是。许多行业模型都说它们有很多应用,但真正提高效率的并不多。付生表示,要将大型模型变成一个能明显提高效率的应用,还是非常困难的。

在泼冷水的同时,富生补充道,泡沫不一定会导致大模型开发崩溃,因为有一点泡沫是正常的,在互联网的早期就有泡沫。

在今年 6 月的一次演讲中,金沙江创投的管理合伙人朱小虎曾谈到 GPT-5 的“反弹票数”,他表示,“硅谷也高度怀疑 GPT-5 在核心推理能力上还有显著的提升,这非常不确定,今年年底就是一块试金石。他判断,大模型的演化速度有放慢的趋势,迭代曲线放慢后,应用层的机会会更多。

不过,在波形智能创始人江雨辰看来,大模型技术的迭代并没有放缓,而是自 2018 年基于架构的大规模语言模型预训练开始流行以来一直保持增长速度。从博士自然语言处理研究到大规模模型创业,江雨辰更早开始体验这一轮大规模模型技术演进的过程。

“大家之所以有这种感觉(技术迭代放缓),是因为大众在 2022 年底和 2023 年初第一次看到这项技术,做了很多短期和追赶,当然追赶也比较快。”江雨辰告诉第一财经,学技术造就不叫“技术迭代”。

虽然业内此前曾有一句“没有应用的大型模型没价值”这句话已经广为流传,但在很多从业者眼中,大型模型的技术同样重要,因为更好的应用必须建立在更好的技术之上,而技术和应用是相互转化的串联关系。

在最近的 Day 活动中,严俊杰在讨论中提到,“在最黑暗的时刻,我觉得技术非常重要。

很多时候,在做技术时,你并没有真正意识到为什么技术很重要。严俊杰举例说,用户感受到的可能来自一些产品细节,或者一些品牌,和技术本身就是多个环节联系在一起的,尤其是在繁荣时期,可能并不清楚什么是主要的,什么是次要的,“当你在某个时间点遇到瓶颈时, 您将意识到技术是最终改进的源泉。”

“当技术做得不好时,发现一切都是问题,而当技术做得好时,似乎所有问题都被掩盖了,”严俊杰说,虽然技术是科技公司的核心要素,虽然他深知这一点,但他还是会不断偶尔犯错,“这是我在很多黑暗时刻遇到的最常见的事情。”

从事技术工作也是一种奢侈,“看看我们每月的账单仍然非常令人痛苦。在采访中,说这句话的时候,严俊杰看了好几眼技术总监韩景涛,也就是“出票人”。

因为技术可能失败,研发投入大,严俊杰以前常考虑是否走捷径,但实践经验会证明,走捷径会“打脸”,“这件事可能发生在我身上十多次了。”

“当第三个实验成功时,我会想着前两次能不能不做,就像吃馒头吃三个就吃饱了,我会想前两个是不是不需要吃。”严俊杰说,这是做技术的时候,比较容易犯的错误。

在关于模型技术细节的各种排名中,GPT-4o 的运行分数可能不经常出现在第一位,甚至不会出现在中间,但在基于真实客户的测试集中,GPT-4o 遥遥领先。

在大模型时代,如何判断技术的质量,大众很困惑,企业也觉得很难,但是这一点非常重要,因为技术的评价标准会决定模型的迭代方向,如果指标本身不对,迭代方向可能会出错。

严俊杰提到,目前的方法之一是基于 30000 多名开发者和付费客户在其场景中的开发平台构建一个真实使用的测试集。

“这个测试集上的所有国产模型都与 GPT-4o 相差很大,GPT-4o 基本排在其他排名的中间,但 GPT-4o 确实排在我们排名的前列。”严俊杰提到,所有国产机型都与 GPT-4o 有本质的差距,问题越难,差距越大。按照这种评价方法,国产模式还有很大的改进空间。

等待下一个转折点

大模型的下一个转折点在哪里?很多创业者有不同的答案,有的认为是错误率的降低,有的认为是个性化的模型,有的认为关键是训练出算力小的大模型,这可能意味着架构的改进。

朱小虎曾提到,今年的大模型本身还存在很多误差,结果无法控制。

现在所有模型都有 20% 左右的错误率,也就是两位数的错误率,有时惊人,有时不靠谱,严俊杰认为,这也是限制模型处理复杂任务的原因,“真正的变化是,在哪个时间点有个模型,可以将错误率降低到个位数。“这是增加用户使用深度的核心手段。

复杂的任务通常需要多个步骤才能“乘以”,更高的错误率会导致失败率呈指数级增长。严俊杰说,即使是 GPT-4 这样的模型也无法支持一个非常灵活的代理,不是因为代理框架写得不好或者产品做得不好,而是最根本的原因是模型本身不够好。

但现在可以看到的是,每家拥有算力的公司,无论是 还是 Meta,都在提高自己的算力。Meta 首席执行官马克·扎克伯格(Mark )在社交媒体上表示,有必要建立一个大规模的计算基础设施,到 2024 年底,将包括 350,000 张 H100 显卡,业内估计可能花费近 100 亿美元。

算法也在改进,2023 年只能做 GPT-4,但 2024 年可以做 GPT-4o,虽然性能差不多,速度快了近 10 倍。

“当计算量增加 10 倍以上,算法速度提高 10 倍时,没有理由说无法训练出更好的模型。”严俊杰说,“如果法律是正确的,这个模式将来肯定会出现,而且标志是个位数的错误率。”

在福生看来,降低错误率同样重要。“今天的大型模型有 20%-30% 的知识错觉,而且'它不知道它不知道什么',这是企业应用程序中的一大难题。”想要真正落地应用,就得用很多工程手段来解决一般人工智能以前认为能做的工作,中间有个差距。

当被问及大型模型技术的下一个转折点时,江雨辰给出了不同的答案,她认为是“个性化”技术。

“ToB 创业者会觉得降低错误率很重要,因为在企业级和工业级场景下,他们需要极高的准确率,而在消费场景下,他们需要一个'懂你'的私人助理。”因此,个性化技术对于 ToC 企业家来说更为重要。对于不同的答案,江雨辰解释说,ToB 和 ToC 在不同场景下会有不同的感知。

从难度上讲,大模型错觉是概率模型固有的,不容易解决,但个性化大模型在技术上确实是可行的。江雨辰提到,波形智能目前正朝着这个方向做,主要难点是算法,中间需要知道的是,这样一个个性化的生成模型需要哪些用户信息,以及如何利用它进行模型自我进化。

Deep 创始人杨志明认为,下一个转折点是如何利用小算力训练大模型,做好大模型的推理。架构改进可能是一个重要的方向。

值得期待的是最近的消息,代号为“”() 的新型号将于今年秋天推出。作为一项核心技术突破, 可以被集成以帮助解决当前 AI 聊天机器人难以完成的复杂任务,例如数学和编程问题。此外,草莓更善于“思考”,更擅长解决主观性强的问题。

“”是开胃菜,消息人士透露,下一代大型语言模型 Orion (Orion) 正在开发中, 将为其生成高质量的训练数据,以帮助减少大型模型幻觉的问题。能否突破瓶颈,带领行业走向下一个转折点,最大的可能性还在。

(本文来自第一财经)。

本站候鸟号已成立2年,主要围绕财经资讯类,分享日常的保险、基金、期货、理财、股票等资讯,帮助您成为一个优秀的财经爱好者。本站温馨提示:股市有风险,入市需谨慎。

相关推荐

暂无评论

发表评论