谷歌发布AI 新技术,让聊天机器更有“教养”

发稿时间: 2022-06-24 16:32 来源:中国电信业 作者: 李白咏 2022-06-24
分享X

基于人工智能(AI)的聊天机器人是计算科学领域一个重要的应用方向,有望帮助用户更高效地获取并处理互联网上的海量信息。此类应用的开发目前尚处于初级阶段,还无法通过自然语言与人类正常、高效地沟通交流。美国知名媒体《连线》(Wired)近期在其网站发布了一篇题为“谷歌计划阻止其AI 说脏话粗话”(Google Has a Plan to Stop Its New AI From Being Dirty and Rude)的文章,给这一问题提供了一个前沿的视角。如果能够找到“驯服”AI聊天机器人的方法,未来人类或许可以通过机器人来高效地“阅读”整个互联网并规划自己的行动。

1656059731232.jpg

谷歌发布AI 智能新突破,有望带来人机对话新体验

一般来说,美国硅谷的首席执行官们在宣布其公司未来的关键项目时,会重点强调其中积极的方面。例如2007 年苹果公司推出第一部iPhone,时任CEO 史蒂夫·乔布斯(Steve Jobs)就对其“革命性用户界面”和“软件方面的突破”不吝溢美之词。2022年5月11日(周三),谷歌公布了对该公司“迄今为止最先进的聊天AI”的测试结果。令人颇感意外的是,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)采取了与乔布斯相反的策略。皮查伊指出,这款名为“LaMDA 2”的聊天机器人可以就任何话题与人进行对话,并且在针对谷歌员工的测试中表现良好,但“可能给出不准确、不适当或冒犯性的反馈”。作为补救措施,谷歌宣布即将推出一款名为“AI 测试厨房”(AI Test Kitchen)的应用程序,将这款AI聊天机器人开放给外部人员使用。

谷歌LaMDA的全称是“对话应用程序语言模型”(Language Model for Dialogue Applications),能够通过处理海量文本来建立对语言模式的统计学感知。例如,LaMDA最初的训练文本获取自在线论坛、问答网站、维基百科等各种网页,体量超过一万亿个单词。这些数据有助于训练算法执行各种任务,如生成不同样式的文本、解释新文本或充当聊天机器人。谷歌认为在正常工作的前提下,该系统完全颠覆了以往聊天机器人那种冰冷死板、令人沮丧的使用体验。

从谷歌公布的聊天记录来看,LaMDA在聊天中至少偶尔能够给出有效、发人深省甚至有趣的信息。关于对聊天机器人的测试,谷歌副总裁兼人工智能研究员布莱斯·阿圭拉·阿尔卡斯(Blaise Agüeray Arcas)在2021年12月发布的一篇博客文章中表示,这项技术对语言和智慧本质的认知达到了新的高度,让使用者非常确定地感觉到是在和人而非机器聊天。除了能够理解文本,皮查伊认为LaMDA未来还可以提供更强大的语音接口。目前,谷歌的Google Assistant和亚马逊的Alexa等AI语音助理类应用都只能执行预设的任务,一旦遇到无法识别的内容,给出的反馈就会“跑偏”。从这个意义上来看,谷歌将要向外界推出的新LaMDA 是一款真正可以和人“交谈”的人工智能。

聊天机器人有待“驯化”,应用前景尚不明朗

由于从互联网上收集的训练文本包含了数以十亿计的单词,其中不可避免地包含了大量令人厌恶的内容。在实践中发现,不少大型AI语言模型会“流利”生成肮脏、低俗甚至带有明显种族主义倾向的内容。例如新一代AI语言生成器GPT-3背后的公司OpenAI就曾经发布报告称,其创建的人工智能模型可能从训练文本中“继承”了关于性别和种族的刻板印象,甚至为此建议客户对一些让人感到不适的内容进行过滤。

同理,谷歌的LaMDA也可能发表“有毒”的言论。但是根据皮查伊的说法,如果有更多的人与AI聊天并提供反馈,谷歌就能够“驯服”该系统。此前已经有数千名谷歌员工参与了一项内部测试,其结果表明该方法能够扭转LaMDA发表不准确或冒犯性言论的倾向。不过,要纠正被海量互联网文本“教坏”的AI,内部员工的力量可谓杯水车薪。为此谷歌将推出“AI 测试厨房”应用程序,引入外部力量对LaMDA进行“消毒”。通过推出该应用程序,谷歌正在把一款先进但偶尔会发布不正常言论的聊天机器人转化为一款产品,这本身就是一次有意义的尝试。谷歌目前尚未透露该应用何时发布,或者什么人将首先获得访问权限。根据皮查伊的说法,该“AI 测试厨房”应用程序最初将包括基于LaMDA 的三种不同体验。

体验一:根据关键信息虚构故事的AI聊天机器人。用户只需把“想象我在……”这样的句式补充完整,AI 就会虚构出相应的场景,如果用户继续与之互动,AI可以在后续的回答中给出更详细的描述。

体验二:专注于谈论特定内容的AI聊天机器人。例如,LaMDA可以反复谈论关于狗的内容,从而验证让聊天机器人始终专注于特定主题的能力。

体验三:为实现特定目标列出具体步骤的AI聊天机器人。在现场演示中,一名谷歌员工输入“我想开辟一个菜园”,LaMDA随即给出一份清单,包含要达成该目标所需完成的六个步骤。不过应用程序同时也提示:“所提供的信息可能不准确、不恰当。”当该员工点击“研究你所在地区的哪些作物生长良好”的选项时,LaMDA 则列出了一些更加具体的步骤建议,如“看看你邻居的院子里都种了些什么”。

基于机器学习和算法的人工智能往往让人难以信任,直接原因在于其功能强大,运行规则却处于“黑箱”之中,这也给谷歌LaMDA未来的大规模应用蒙上了一层阴影。斯坦福大学基础模型研究中心主任Percy Liang 表示,通过收集以上三种功能的反馈应该有助于改进LaMDA,但尚不清楚能否完全“驯服”该系统。该中心于去年成立,致力于研究包括LaMDA在内的大型人工智能系统。Liang 认为维护大型语言模型的工作就像用强力胶布来维修管道,需要在实际使用过程中不断发现问题并进行修补,“只要修补的次数足够多,就能够维持良好的运行状况,但整个系统可能会不断出问题。”

艾伦人工智能研究所(Allen Institute for AI)研究员、加州大学尔湾分校(UC Irvine)教授萨米尔·辛格(Sameer Singh)表示,考虑到对大型语言模型的诸多未知因素,以及一款强大但有缺陷的聊天机器人可能引发的麻烦,谷歌应该考虑邀请外部人士更深入地参与其中,而不仅仅是尝试发布一个功能受限的LaMDA 演示模型。

对此皮查伊表示,谷歌将就LaMDA 咨询社会科学等领域的专家,该项目将遵循谷歌的人工智能原则,但他没有说明相关专家参与该项目的具体方式。值得注意的是,谷歌所谓的“人工智能原则”引入于2018 年,直接原因是当时有数千名谷歌员工抗议该公司在五角大楼的项目中利用人工智能技术对无人机监控录像进行分析解读。

新闻附件:

相关新闻