腾讯首次披露行业大模型进展:不追求参数高,希望成本预算可控
腾讯首次公开行业大模型进展,但外界聚焦的通用大模型“还在路上”。
(资料图片仅供参考)
6月19日,腾讯云副总裁、腾讯云智能负责人吴运声在接受澎湃新闻等媒体采访时表示,“目前大模型和产业结合还在早期阶段,随着算力发展速度不断提高,行业对大模型的理解程度也在不断加深。”
当天,腾讯首次对外披露行业大模型研发进展,发布依托腾讯云TI平台打造行业大模型精选商店,为客户提供MaaS(Model-as-a-Service)一站式服务,助力客户构建专属大模型及智能应用。
会上,腾讯云联合22家客户正式启动行业大模型共建合作,并携手17家生态伙伴共同发起了“腾讯云行业大模型生态计划”,共同推进大模型在产业领域的创新和落地。基于腾讯HCC高性能计算集群和大模型能力,为传媒、文旅、政务、金融等10余个行业提供超过50个大模型行业解决方案。
澎湃新闻记者注意到,腾讯此次发布的并非是C端通用大模型,而是落地于B端的产业大模型。对此,吴运声解释称,对于C端通用大模型,腾讯内部也有相关应用,但目前尚不能对外公开相关信息。
目前,外界对大模型聚焦热点之一在于,究竟多大的“模型”才能称之为“大模型”?吴运声告诉记者,基本在亿级别参数以上的都可以称为大模型,但规模参数越高,消耗的资源和成本也越相应增加。行业大模型的核心在于根据客户需求制定相关的模型参数,而不是一味追求“规模大”或是“参数高”。在他看来,随着技术和算力的发展,大模型的参数规模也在不断上涨,腾讯更关注怎么用更有效的方法、更低的成本去解决问题,而不是关注几亿、几十亿、几百亿还是一千多亿这些数字。
“就像运动员练体力,举重运动员要举200斤杠铃,游泳运动员举100斤就够了,不同类型的运动员不需要每个人都练习200斤重的杠铃。”吴运声解释称,希望能以最低的成本、最合适的模型和最好的服务把大模型真正做好,会在预算和成本可控的情况下提供最符合逻辑的模型,让其在场景中达到目的,解决问题。
大模型在国内已成为炙手可热的红海赛道,各大厂商争先入局。360创始人周鸿祎曾表示,今年年初,在ChatGPT发布后,中国已经进入百模大战,各家企业都发布了自己的大模型产品,这三个月相当于人工智能行业过去的三十年。此前在2023中关村论坛上,中国科学技术信息研究所所长赵志耘发布《中国人工智能大模型地图研究报告》,目前中国10亿参数规模以上的大模型已发布79个,主要集中在北京和广东,其中北京38个大模型,广东20个大模型。
在采访现场,吴运声也透露,目前腾讯云行业大模型能力已在腾讯企点、腾讯会议、腾讯云AI代码助手等多款产品中落地使用。
其中,腾讯会议宣布将推出覆盖会议全流程场景的AI小助手,只需通过简单会议指令,基于对会议内容的理解,就可以完成信息提取、内容分析、会管会控等多种复杂任务。另外,腾讯云将推出新一代AI代码助手,用AI加持来重塑开发体验和团队能力,让开发者通过人机协作达到高效创作。
此前4月14日,腾讯云曾发布新一代HCC(High-Performance Computing Cluster)高性能计算集群。该集群采用腾讯云星星海自研服务器,搭载英伟达H800 GPU,服务器之间采用3.2T互联带宽,为大模型训练、自动驾驶、科学计算等提供高性能、高带宽和低延迟的集群算力。公开资料显示,H800为英伟达旗下最先进的芯片之一,对人工智能研发极为重要,其算力超过旗舰芯片A100三倍,这也是国内首次发布搭载H800的大模型产品。