雷帝网 乐天 1 月 26 日
正在成为人工智能领域的一匹“黑马”。该车型的出现打破了国内大型车型原有的格局。
本周,-R1发布,并同步开源模型权重。 -R1遵循MIT,允许用户通过蒸馏技术在R1的帮助下训练其他模型。
-R1推出API,将思维链输出开放给用户,可以通过设置model='-'来调用。
-R1在后训练阶段大规模使用强化学习技术,仅用很少的标记数据就大大提高了模型的推理能力。在数学、编码、自然语言推理等任务中,性能与官方版o1相当。
-R1在开源660B的两个模型-R1-Zero和-R1的同时,通过-R1的输出,提炼出6个小模型,开源给社区。其中,32B和70B型号在多项能力上都达到了对标o1-mini。影响。
-R1 API服务定价为每百万输入1元(缓存命中)/4元(缓存未命中),每百万输出16元。
它震惊了美国科技界,不仅因为它在性能上与o1相当,而且它完全开源,并且以极低的成本实现了这一突破。
知名投资人Marc 也表示:“R1是我见过的最惊人、最令人印象深刻的突破之一。作为一个开源项目,这是给世界的一份重要礼物。”
人工智能技术初创公司 Scale AI 的创始人 Wang 表示,过去十年,美国在人工智能竞赛中可能一直领先于中国,但大型人工智能模型的发布可能“改变一切”。的AI大模型性能大致与美国最好的模型相当。
Wang认为-R1相当于GPT-4o和3.5,训练时的计算复杂度降低了10倍。 ——V3给外界的教训是:当美国人在休息的时候,中国人却在努力,追赶更便宜、更快、更强的产品。
“科技的本质:他们一边工作一边休息,然后赶上来,&”
王出生于1997年,19岁从麻省理工学院退学,创办公司。如今,Scale AI估值超过100亿美元,获得Y、、AMD 、亚马逊、Meta等投资该公司向 、Meta 等公司提供训练数据。
此举让 Meta 的生成人工智能团队陷入了恐慌。 Meta首席执行官扎克伯格宣布加速Llama 4的研发,并计划投资650亿美元扩建数据中心并部署130万个GPU,“确保Meta AI到2025年成为全球领先的模型”。
创始人梁文峰也很快确立了自己在AI圈的地位。
据介绍,梁文峰就读于浙江大学信息与电子工程专业,获得学士和硕士学位。 2015年,梁文峰与校友共同创立了魔方量化。 2021年,欢放量化成为国内首家规模突破千亿的量化私募公司,被誉为国内量化私募“四王”之一。
早年,魔方量化就开始大规模部署AI算力,搭建了“萤火一号”集群。 2021年,《萤火2》完成,为快跑给予了底层支撑。
有评论称,中国投资者对全球AI最大的贡献是Magic 在数量上赚了这么多钱。然后Magic 的创始人有钱买了最好的GPU,招募了一批中国最优秀的精英,做出了一个好的。
在预训练方面,团队的贡献在于超强的训练稳定性,深入使用fb8混合精度、多词同时预测、潜在空间多注意力头、MOE混合专家等,大大降低了训练成本。训练一个600B大型模型花费了600万美元,堪称工程奇迹。
分析人士指出,训练一个堪比o1级别的模型R1需要10-15%的成本,而且R1也是开源的,这意味着算法有太多的改进空间,不需要那么多GPU 和如此多的计算。封锁芯片、构筑算力壁垒的想法行不通,Meta等美国公司依靠GPU堆叠效应的模式也大打折扣。
另一个可能的影响是,许多购买了数千芯片的AI初创公司可能会破产,导致大量GPU流入二手市场。此外,还有一些初创公司的模式是运营数据中心(例如)并将GPU出租给其他公司,希望获得投资回报。最终,七巨头最终将开始放慢速度或削减未来的订单,而一切都将开始瓦解。
这可能会刺激更多专用推理模型的诞生,而初创公司、个人应用程序等可能会大幅减少在 API 上的支出并转向开源。
还有评论人士表示,英伟达的出现,体验后发现其整合搜索信息的能力比豆宝更强,这让人们对英伟达股价的支撑产生怀疑,这将使美国的技术优势和高估值成为现实。企业靠维持才有可能。将会受到挑战。国内的大牌模特们也一脸尴尬。闻心一言一早起床,Kimi赶去一场迟到的演出,豆宝犯了错误。
有人得出结论,虽然中美科技差距较大,但中国拥有巨大的人才红利,拥有6000万工程师,比日本、韩国和印度的总和还要多。人才红利是持续发展的信心和希望。
——————————————
本站候鸟号已成立3年,主要围绕财经资讯类,分享日常的保险、基金、期货、理财、股票等资讯,帮助您成为一个优秀的财经爱好者。本站温馨提示:股市有风险,入市需谨慎。
暂无评论