“镇馆之宝”之一,百度文心一格大模型 本报记者 刘歆 摄
本报记者 易蓉 郜阳 杨玉红 马丹
人类发展人工智能的初衷,是希望能制造出智慧、能干的机器人,在智能化的环境中服务于人。过去,尽管人工智能近年飞速发展、蓬勃应用,但人们始终觉得到达理想的智能世界还相去甚远。而大模型的横空出世,如同魔法点亮新世界。这是否意味着,大模型的“下一站”即将抵达理想的通用智能?在2023世界人工智能大会上,大多数论坛都离不开大模型的讨论,这一“魔法”是万能之解吗?“魔法”会失控吗?在一片火热之中,亦有冷静之声。
冷静 大模型并非万能
图灵奖得主、Meta AI基础人工智能团队首席AI科学家杨立昆看来,目前似乎各种好用、好评的模型其实并非万能。“实际上现在广泛应用的许多系统或许展现了非凡的应用实力,但‘有用’并非完美,实际上各有缺陷,都不是通向人类智能的模型。”他解释,一些语言模型或图像模型实际上仍然是基于“上一句”“上一帧”来进行预测的,本质还是一种模仿。
这种“模仿”实际上暴露了大模型学习精度不够的缺陷,这也是一些大模型产生“幻觉”的原因。这意味着需要对大模型进行进一步优化,而算力、效率、成本等问题同时伴随。
即使在百花齐放的企业应用层面,也非万能钥匙。“通用大模型可以在100个场景中,解决70%-80%的问题,但未必能100%满足企业某个场景的需求。”腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生表示,企业的大模型应用需要综合考虑行业专业性、数据安全、持续迭代和综合成本等因素。他解释说,通用大模型一般是基于广泛的公开文献与网络信息来训练的,许多专业知识与行业数据积累不足,导致回答的行业针对性与精准度不够。但用户对企业提供的专业服务,要求高、容错性低,企业一旦向公众提供了错误信息,可能引起严重后果。
安全性问题也被提到重要位置。在昨天举行的“聚焦·大模型时代AIGC新浪潮”论坛上,与会专家提到,尽管当前AI不至于危及人类生命,但有关安全的担忧并非无的放矢,特别是大模型的“极度黑盒化”。上海人工智能实验室教授乔宇表示,大模型从深度学习发展而来,深度学习至今也仍存在还未解开的“黑盒之谜”,而大模型数据参数已从原来的百亿级增加到了上万亿规模,“我们还不理解它,但是实际上已经在到处应用它。”
理性 不断优化仍在路上
在大模型发展之路上,澜码科技创始人兼首席执行官周健注意到了一个很迫切的问题:企业在将大模型与自身业务结合时,如何选择模型。“在国外,大部分企业可能会直接选择OpenAI,但在国内,选择更为丰富。”他打趣道。然而,目前学术界对于如何评估通用大语言模型还没有达成共识,企业在这个问题上尤其困难——他们往往缺乏一个基本的数据集来决定在其特定场景下应选择哪种大模型;另外的问题来自人工智能本身,有时候实际的落地效果与期望有很大的差距。
与此同时,企业还需要考虑自身的基础设施建设。大语言模型只是一个通用基础设施,其训练语料主要是通用的公开数据。然而,企业内部一定会有自己的私有数据,这些数据的规整性也非常关键——因为人工智能,包括大语言模型,都需要大量规整的数据进行训练。
而对此,腾讯等“大厂”正帮助合作伙伴基于行业大模型,构建自己的专属模型。汤道生表示,企业如果基于行业大模型,再加上自身数据进行精调,可以建构专属模型,打造出高可用的智能服务;而且模型参数比通用大模型少,训练和推理的成本更低,模型优化也更容易。同时,行业大模型和模型开发工具,也可以通过私有化部署、权限管控和数据加密等方式,防止模型训练和使用带来企业敏感数据的外泄。另外,大模型落地过程,还需要经过算法构建、模型部署一系列环节,每个环节都不能“掉链子”。模型后续还需要不断地迭代调优,这需要用到系统化、工程化的工具。
针对安全问题,企业已有用“魔法打败魔法”的对策。本届大会的“镇馆之宝”之一——蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”可以实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科技伦理三大类的数百种风险,覆盖表格、文本、图像等多种数据和任务类型,是业内首个实现产业级应用的全数据类型AI安全检测平台。
大模型的研发本身也需要创新。“不能一直只跟着国外的成果,而是要基于大模型在应用上有创新,”商汤科技联合创始人、首席科学家、绝影智能汽车事业群总裁王晓刚透露,商汤科技从2019年开始就布局“大模型”方面的研究,并随之建立和不断完善大装置软硬件的基础设施,“另外,需要针对大模型给行业带来的变化,重塑研发体系。”
睿智 开源创新共创未来
AI大模型等技术已经深刻地影响到所有行业的发展,并正在重构企业核心产品,重塑用户与企业产品和服务的交互方式。“未来,金融、政府、能源、交通等每一个行业与领域,都会诞生领域或者行业大模型,这些大模型具有专家的能力,可以在上面构造复杂的应用;而且,随着AI工具的逐渐成熟,训练大模型的难度和成本越来越低,将真正推动AI普惠。”星环科技创始人、董事长孙元浩预计,今年就将会有行业大模型在金融尤其是证券基金行业规模化落地,而相关业务带来的收入即将在下半年有所体现。
“不能再将人工智能视为简单的技术工作,而是整个组织的变革引擎。”中国科学院院士何积丰也在会上提到,这一引擎的安全可信需要多维度保障,包括数据安全可信、系统行为可追责、算法模型可解释、网络环境可信、法律伦理可信等。
杨立昆认为,应该建立不同的非生成式架构,构建表征空间的训练来实现预测。也就是说,为机器建立世界模型,帮助它获得类似人类的物理直觉,来理解世界,形成预测。“这将是未来十年的巨大挑战。”
至于伦理问题,他认为,应建立世界模型——当机器真正像人类理解世界一样学习,并且设定向善的目标,机器就会在学习中自限行为,这或许将为构建伦理形成天然基础。“这是艰巨挑战,但我们可以从培养一只‘好的小老鼠’开始,再慢慢到‘好的狗’‘好的猴子’,逐步放进仿真环境测试。”他同时强调,基于AI向善的目标,相比严格监管,开源是更好的方式。