4月18日,成都2025年腾讯全球数字生态会议的首脑会议开幕。 Cloud副总裁兼 Cloud 的负责人Wang Qi在会议上发表了主题演讲“享受大型模型时代的新机会”,该会议全面介绍了在大型模型技术,应用程序,应用程序和实施方面的最新进展。
[Wang Qi, Cloud副总裁兼 Cloud 的负责人]
Wang Qi that as the world's , has to the multi-model of "self- core + and open ", on power, basic large , model and , and the of large in all walks of life by users with rich and easy-to-use AI , and helps 创新的增长。
为了满足企业建立AI应用程序的紧急需求,腾讯云已建立了全链路AI本机服务系统。例如, Cloud的大型模型知识引擎可以为用户提供灵活的原子能功能和多元化的应用程序开发模型,从而帮助企业构建自建造的有效知识管理系统。其内置的抹布技术解决方案可显着降低模型幻觉,并广泛用于自然语言处理方案,例如问答系统,文档生成和智能助手。
在模型工具级别上, Cloud Ti平台还可以为开发人员提供一站式服务,涵盖从数据获取,处理,模型培训到评估和部署的所有内容,实现有效的精确调整和主流模型的推理(例如,等)。
在Wang Qi的角度来看,“大型模型 +知识库”是企业实施AI应用程序的最佳方法。通过AI本地产品(例如大型模型知识引擎), Cloud可以为各种行业构建定制的企业知识应用程序,帮助用户降低成本,提高效率并提高价值。
他在演讲中特别提到,达桑林制药集团使用腾讯云大型模型知识引擎来深入优化内部办公室协作,药品知识问答,销售助理和用户体验收集以及其他场景。通过AI Q&A机器人“ AI小赞”,它使大约50,000名员工能够在百科全书应用程序和企业微信平台上实现24小时智能的问答服务,从而大大提高了数字操作的效率。
此外,在大型模型知识引擎的帮助下,DHL将传统的客户服务模型升级为大型模型。通过安排40多个企业的独家工作流,它实现了诸如自动接收客户,货运时间查询,项目限制咨询,快速交付跟踪和服务需求变化的功能,从而大大降低了技术应用和通信成本的阈值。
Wang Qi说:“我们希望每个用户都能享受有用且实用的AI服务。”如今,已成功地将大型模型技术应用于QQ浏览器,腾讯地图和腾讯文档等核心产品,不仅重建了C-End的用户体验,而且还建立了B-End上的“模型作为服务”的新范式。
展望未来,将继续维护开放性,创新和实用主义的概念,与客户和合作伙伴合作,在大型模型时代抓住黄金机遇,共同创造了中国的智能转型样本,并共同创造了一个新的智能生态系统时代。 ( 的特别作者Su Yang)
以下是Wang Qi现场演讲的全文:
大家好!我是的Wang Qi。今天,我很荣幸能在这里与您讨论大型模型时代的机遇和挑战。
最近,美国强烈促进了“互惠关税”政策,导致全球平均平均关税在一口气中飙升,创造了一个百年历史的高位。然后,中国与美国之间的对抗正在逐渐加剧,这对国内芯片供应构成了更大的挑战。同时,中国技术公司正在通过全球化的战略布局和产品增加价值的持续改善寻求“技术平等”,并以新的态度参与并重塑全球AI竞争格局。
在今年年初,引发了革命性的突破。技术的里程碑不仅展示了开源精神,而且还将新的动力注入了包容性的AI。同时,“铁杆六龙”的杭州版本的崛起标志着AI和机器人深入整合的新阶段。我们迎来了三个技术突破,产品迭代和工业转型的三重奏,为整个AI行业的发展和聪明的飞跃创造了前所未有的机会。
在如此严重的背景下,腾讯一直维持对开放和双赢的信念,并积极拥抱变化,并得到了长期投资和连续的研发支持。我们牢固地实施了“自我开发的核心技术 +拥抱高级和开放源代码”的多模型策略,并全面布局围绕基础计算能力,基本大型模型,模型开发平台和智能应用程序,使客户可以根据自己的场景和成本效益要求自由选择。
的完整链接自我开发的 Big Model继续迅速迭代,启动了深入的思维模型T1和 Model Model Turbo S,该模型Turbo S启动了在线和开源映射生成的视频模型和5个新的3D ,不断地促进了AI技术的开放分享AI技术和该行业的开放。
同时,我们还积极采用先进的开源模型。例如,腾讯云已连接了十多种产品,为开发人员和企业客户提供了十多种快速部署应用程序的方法,包括公共云API,大型模型知识引擎, Cloud Cloud Ti平台等。通过为用户提供丰富且有用的AI应用程序产品,我们将促进大型模型的加速实施,并帮助企业的加速实施,以创新和成长。
依靠双引擎驱动器策略,我们有许多产品,这些产品是第一个连接到大型模型技术的产品,将尖端AI技术转换为极为方便的智能产品。我们推出的Ingot的全血版本已成为每天许多人的必备应用工具。同时,基于它的“ AI搜索”功能已在微信上启动,整合了诸如官方帐户和视频帐户之类的生态内容,以实现多轮对话和深入思考。
此外,许多产品的智能升级,例如QQ浏览器,QQ音乐,腾讯地图,腾讯新闻,腾讯文档和企业微信也为C-End用户带来了飞跃体验,并建立了新的“模型-AS-AS-A-A-”范式。
在B到B的服务方面, Cloud部署了全链路AI本机服务。在应用程序软件层中,例如 , , 和客户服务,都完全连接到大型服务。在平台工具层,我们拥有一个大型模型知识引擎,该引擎可帮助企业一站式构建智能应用程序以及TI平台。这是数据准备,模型管理和模型发布的大型模型开发平台。包括AI Infra层和全栈安全功能,我们为客户提供一系列工具和服务,以充分利用大型模型。
我们的大型模型知识引擎是由 Cloud构建的一个大型模型本机平台,其知识管理为核心。他的核心优势是,在严重的情况下,它针对大量,复杂的格式文档和宽桌,而无需手动干预,并且可以解决整个链接中企业中多模式知识处理的问题,并提高了问题和答案的端网的准确性。
启动了最新的智能模式工作流程。内置代理可以在全球管理工作流程的每个节点,并可以识别全局意图,从而使工作流更加灵活和聪明。
可以说,大型模型 +知识库是企业实施AI的最佳方法。接下来,通过两种情况,我将向您展示公司如何使用知识引擎来降低成本,提高效率并提高价值。顶级物流小组DHL应用知识引擎,为企业安排了45个独家工作流程,并迅速建立了适合物流场景的智能服务,实现了一系列服务,例如自动客户接收,快速交付询问,地址和时间修改以及交付。该模型允许一线业务人员独立配置智能服务,从而大大降低了AI技术应用和通信成本的门槛。
另一个案例是达桑林。通过“ Ai ”的智能助理,它将其集成到商店百科全书应用程序,企业微信应用程序和PC中,从而为商店中的一线销售人员提供了知识辅助答案。目前,该系统覆盖了该集团和商店的约50,000名员工,全天候提供问答服务,用户满意度超过80%。同时,在收集的一线反馈中积累了数十万个有价值的意见,为公司高级决策提供了可靠的数据支持。
让我们看一下我们的TI平台,该平台可以帮助开发人员一站式完成主流模型(例如,Llama等)的精细调整和推断,涵盖了数据获取,处理,模型培训,评估,评估和部署应用程序的整个过程。它还支持公共云,私有化和专用的云部署。
在全球关税和越来越稀缺的芯片资源的激增的背景下,将来的芯片资源甚至会很少。这要求我们为培训和促进提供更高效,更实用的大型模型开发平台。
以该模型为例,自今年年初以来,我们通过不断迭代和优化而与社区开源版本相比,推理效率的提高了120%以上,并且指标仍在不断优化。在相同的并发指标和性能指标下加倍,这确实有助于企业降低成本并提高效率。
资金
目前,我们的客户圈已经涵盖了数千个行业。涵盖政府事务,金融,消费电子,教育,医疗和旅行领域。
他们选择了腾讯品牌和数字化转型产品来共同探索AI场景和实际应用。我们还不断积累更多富裕的应用程序和场景,以促进整个人工智能行业生态系统的快速发展。
建立最接近该行业的AI系统一直是我们的目的。技术和产品的持续进展与客户场景的深入抛光以及各行各业的合作伙伴的大力支持是密不可分的。
在这里,我再次感谢各行各业的客户和合作伙伴的信任和帮助。期待2025年,让我们共同努力,在大型模型时代拥抱新的机会,借助技术的力量推动未来,并在智能生态系统中创建新的章节。
谢谢大家。
本站候鸟号已成立3年,主要围绕财经资讯类,分享日常的保险、基金、期货、理财、股票等资讯,帮助您成为一个优秀的财经爱好者。本站温馨提示:股市有风险,入市需谨慎。
暂无评论