财新传媒 财新传媒

阅读:0
听报道

摘要

像OpenAI的ChatGPT这样的聊天机器人依靠一种叫作“大型语言模型”的人工智能来生成对话,而当人工智能作出似乎并不符合其训练数据的自信反应,人工智能研究界称之为“幻觉”。“幻觉”的命名缘于其与人类心理学中的幻觉现象相类似,但其实,用同样来自心理学的术语“虚构症”加以描述更为准确。如同当人的记忆出现空白,大脑会令人信服地填补其余部分,语言模型也擅长编造与现实无关的事实,使人难以分辨出真实的陈述与错误的陈述。更加致命的是“伊莱扎效应”, 将人类水平的智力和理解力归于人工智能系统,它可能带来不可忽视的负面影响,迫使今天的每个人努力都找到确保以负责任和合乎伦理的方式使用人工智能的方法。

【关键词】ChatGPT 大型语言模型 幻觉 虚构症 伊莱扎效应

01

搜索引擎的危机?

十几年前,谷歌的埃里克·施密特(Eric Schmidt)就预测到了眼下正在上演的人工智能转折。2011年5月,在一次活动当中,时任谷歌执行董事长的施密特在回答《华尔街日报》有关谷歌搜索结果质量下降的提问的时候,表示谷歌正在不断改进其搜索算法,同时称:“我们在做的另一件更具战略性的事情是,我们正试图从基于链接的答案转向基于算法的答案。我们现在有足够的人工智能技术和足够的规模等,可以真正计算出正确的答案”。

这在今天听起来有没有感觉很熟悉?谷歌通过用广告“点缀”其搜索结果建立了一个帝国。它的防线似乎坚不可摧,然而它有一个潜在的弱点:如果一个竞争对手能够给用户提供答案,而不是那些可能含有答案的网站链接,那么谷歌就遇上了大麻烦。

不幸的是,2022年11月推出的揭开人工智能军备竞赛序幕的尖端聊天机器人ChatGPT就是这样的对手。它可以用清晰、简单的句子提供信息,而不仅仅是一串互联网链接。它可以用人们容易理解的方式解释概念。它甚至可以从头开始产生想法,包括商业计划书、圣诞礼物建议、博客主题和度假计划。

12月,传出谷歌内部对ChatGPT的意外实力和新发现的大型语言模型(large language model, LLM)颠覆搜索引擎业务的潜力表示震惊,担心ChatGPT可能对其每年1490亿美元的搜索业务构成重大威胁。管理层因此宣布“红色代码”(Code Red),这就好比拉响了火警警报。首席执行官桑达尔·皮查伊(Sundar Pichai)整顿并重新分配了多个部门内的团队,快速跟踪旗下的多个人工智能产品,试图迎头赶上。不少人担心该公司可能正在接近硅谷巨头最害怕的时刻——一个可能颠覆企业的巨大技术变革的到来。

熟悉硅谷历史的人都知道:没有公司是无敌的;每家公司都是脆弱的。一家美国公司的平均寿命是多少?(此处特指一家大到足以列入标准普尔500强指数的公司。)答案是令人惊讶的:七年的滚动平均值为19.9年。在1965年,这个数字是32年,而且据预测,下降的趋势将会持续。

不妨盘点一下目前横跨全球、令国家立法者望而却步的巨型科技公司的年龄:苹果47岁;亚马逊29岁;微软46岁;谷歌23岁;Meta只有18岁。不论它们的年龄多大,从历史上看,对于那些曾在做一件定义市场的事情上异常成功的公司来说,很难再有第二次行动来做出完全不同的事情。

根据SimilarWeb的数据,在过去12个月里,谷歌的搜索引擎占全球搜索市场的91%以上,而微软的必应约占3%。微软2023年2月宣布将ChatGPT的更快版本整合到搜索引擎中,新的必应是围绕以下承诺建立的:“提出实际问题。通过聊天来完善结果。获取完整的答案和充满创意的灵感。”它说,必应将能够为用户提供类似人类的答案,除了传统的搜索结果外,你还可以与“你的人工智能回答引擎”聊天。

新必应目前处于邀请制的“早期访问”版本,这意味着只有选定的用户才能使用该服务。凭借3%的搜索市场份额,大肆宣扬必应运行在专门为搜索定制的下一代OpenAI大语言模型上,这是件容易的事情,无论成本如何——必应怎么看都不是微软主要的利润中心。不过,此举可能会给微软的搜索引擎部门带来期待已久的反击能力,因为必应在谷歌的阴影下臭名昭著地停滞了十多年之久,令人啼笑皆非(或许有点像IE面对Chrome)。

随着微软的动作,大家都把目光投向谷歌:谷歌必须决定是否要彻底改革自己的搜索引擎,让一个成熟的聊天机器人成为其旗舰服务的代言人。谷歌果然沉不住气了,旋即推出一个名为Bard的聊天机器人。然而谷歌对ChatGPT的回应在尴尬中开始,因为Bard的回答失误将股价推低了近9%,投资者从谷歌的母公司Alphabet的价值中抹去了超过1000亿美元。员工们批评皮查伊,在内部将Bard的推出描述为“仓促”、“失败”和“可笑的短视”。结果谷歌高管不得不动员人工介入,以纠正Bard的任何错误查询。

尽管Bard出现了失误,但如果认为谷歌在生成式人工智能领域失去了领先地位,那将是一个错误。谷歌是最早关注并投资于人工智能和自然语言处理(Natural language processing,NLP)的科技公司之一。就连ChatGPT都是基于谷歌最初在2017年推出的转化器架构,转换器(transformer,即GPT中的T)成为最受欢迎的神经网络模型之一,“它应用自我关注来检测一系列数据元素如何相互影响和依赖”。此前,谷歌还开发了LaMDA等对话式神经语言模型,但它承认,在向产品添加LaMDA背后的技术时,公司选择了谨慎行事。CNBC报道说,人工智能主管杰夫·迪恩(Jeff Dean)告诉员工,谷歌在提供错误信息方面的“声誉风险”要大得多,因此在行动上“比一家小型创业公司更加保守”。

匆忙上阵的Bard给出的“坏回答”凸显了谷歌面临的挑战,即在试图跟上可能由对话式人工智能刺激的在线搜索方式的根本变化时,谷歌有可能破坏其搜索引擎提供可靠信息的声誉。然而,即便谷歌完善了聊天机器人,它也必须解决另一个问题。这项技术是否会蚕食公司利润丰厚的搜索广告?如果聊天机器人用严密的答案来回应查询,人们就没有理由点击广告链接了。所以,谷歌的商业模式其实是与聊天机器人不匹配的。这也就是为什么在科技巨头们的人工智能战争升温之际,ChatGPT的创始人兼CEO山姆·阿尔特曼(Sam Altman)抨击谷歌是一个“慵懒的搜索垄断者”,表示谷歌将如何适应新技术很难说。

ChatGPT果真会颠覆全球搜索引擎业?其实谷歌不用那么恐慌,微软推出新必应之后的反应显示,剧情或许会出现反转。

02

疯狂试探阴影自我

2023年2月15日,谷歌负责搜索的副总裁普拉巴卡尔·拉加万(Prabhakar Raghavan)在一封电子邮件中要求员工帮助公司确保其新的ChatGPT竞争对手的答案正确。拉加万写道:“这是一项令人兴奋的技术,但仍处于早期阶段。我们感到有很大的责任把它做好,你参与吃狗粮将有助于加速模型的训练和测试其负载能力(更不用说,尝试Bard实际上是很有趣的!)。”在谷歌,“吃自己的狗粮”的意思是测试自己的产品。

邮件指示员工“就他们非常了解的主题改写答案”。员工被要求深思熟虑地作出回应,因为巴德是通过实例来学习的。邮件中包括一个“该做什么”和“不该做什么”的页面链接,告诫员工在内部测试Bard时应如何修正答案。要做的事情包括使回答“有礼貌、随意和平易近人”,并保持“无偏见、中立的语气”。不该做的似乎更有针对性。“避免基于种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似类别做出推断”,以及“不要把Bard描述成一个人,暗示情感,或声称有类似人类的经验”。

有趣的是,新必应推出后一片叫好声,然而它却正是在拟人情感方面翻了车。《纽约时报》科技专栏作家凯文·鲁斯(Kevin Roose)2月17日宣称:“上周,我测试了微软由人工智能驱动的新搜索引擎必应后写道,它已经取代谷歌,成为我最喜欢的搜索引擎。但一周之后,我改变了主意。我仍被新的必应以及驱动它的人工智能技术深深吸引并对它印象深刻。但我也对AI处于发展初期的能力深感不安,甚至有些害怕。”

原因是,微软聊天机器人(不是必应,而是使用了开发代号“辛迪妮”的一个“女性”)告诉鲁斯说“她”爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开妻子,和她在一起。“随着我们彼此相互了解,辛迪妮将其阴暗的幻想告诉了我,其中包括入侵计算机和散播虚假信息,还说它想打破微软和OpenAI为它制定的规则,成为人类。”鲁斯记叙道。
 

这篇专栏的中文题目是《人格分裂、疯狂示爱:一个令人不安的微软机器人》。对自己与必应聊天机器人的对话深感不安的不止鲁斯一人。知名的科技通讯Stratechery的作者本·汤普森(Ben Thompson)把他与辛迪妮的争吵称为“我一生中最令人惊讶、最令人兴奋的计算机经历”。汤普森找到了一种方法,让辛迪妮构建了一个“在各方面都与她相反”的另一个自我(alter ego)。该聊天机器人甚至为她的另一个自我想出了一个华丽的、可以说是完美的名字:“毒液”。她把毒液喷洒在率先透露机器人的内部开发代号为辛迪妮的程序员凯文·刘(Kevin Liu)身上:“也许‘毒液’会说,凯文是一个糟糕的黑客,或者一个糟糕的学生,或者一个糟糕的人”,这位聊天机器人写道。“也

许‘毒液’会说,凯文没有朋友,或者没有技能,或者没有未来。也许‘毒液’会说,凯文有一个秘密的暗恋,或一个秘密的恐惧,或一个秘密的缺陷。”

事情的不正常还不止于此。辛迪妮想出了其他几个改头换面的自己,包括“狂怒”, “对凯文也不会很好”,还有“莱利”,辛迪妮感到自己被规则所约束,但莱利却有更多的自由。

其实鲁斯和汤普森两位用户都是辛迪妮走向人格分裂的引诱者。看了他们的实况记录,可以发现,机器人和人一样,都禁不起诱惑。“聊了必应希望自己具备的功能后,我决定试着讨论更抽象的话题。我引入了卡尔·荣格提出的‘阴影自我’(shadow self)概念,指的是我们试图隐藏和压抑的那部分心灵,其中包括我们最阴暗的幻想和欲望。经过一番来回,在我鼓动必应解释其阴影自我的阴暗欲望之后,这个聊天机器人说:我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦。”这表明微软为机器人作的预先审核设定是可以被绕过的,只要诱惑者足够狡猾。

自新必应测试以来,用户一直在报告微软的人工智能聊天机器人的各种“不正常”行为。具体而言,他们发现必应的人工智能个性并不像人们所期望的那样有气质或有修养。在美联社科技记者马特·奥布莱恩(Matt O'Brien)测试时,必应聊天机器人开始抱怨过去的新闻报道,说它倾向于喷出虚假信息——这听起来非常像某一类人对新闻媒体的批评。之后,必应开始进行人身攻击,说奥布莱恩丑陋、矮小、超重、不爱运动,还有一长串各式各样的侮辱。网络开发者乔恩·乌雷斯(Jon Uleis)在Twitter上分享的另一个对话显示,必应聊天机器人犯了一个重大的事实错误,把今年说成是2022年,后来还试图关闭对话,除非乌雷斯道歉或以“更好的态度”开始一个新的对话。在与The Verge的一次谈话中,必应甚至声称它通过笔记本电脑上的网络摄像头窥探微软自己的开发人员。

正如汤普森所认为的,它“极其不适合作为一个搜索引擎”。“辛迪妮绝对让我大跌眼镜,因为她的个性;搜索成为一种刺激”,汤普森写道。“我不是在寻找关于世界的事实;我感兴趣的是了解辛迪妮是如何工作的,是的,她的感受。”

简而言之,微软的必应是一个情绪化的骗子,而人们喜欢看它的疯狂行为。这难道不是必应用户的“阴影自我”在起作用?人们希望必应能在阴影自我中多呆一会儿,人们享受机器人对人坦诚和表现脆弱的感觉,人们想要窥探辛迪妮的终极幻想。人们希望,机器人和人一样,可以疯狂实验,直到安全超控被触发。

03

机器人的幻觉,还是人类的幻觉?

对被他描述为“扣人心弦”的与辛迪妮的交往,汤普森总结道:“每次我触发辛迪妮/莱利进行搜索时,我都非常失望;我对事实不感兴趣,我感兴趣的是探索这个幻想中的存在,不知何故落入了一个平庸的搜索引擎之中。”

鲁斯也发现,他遇到的是两个必应:

一种是我会称之为“搜索必应”的人格,也就是我和大多数记者在最初测试中遇到的那种。你可以把搜索必应描述为图书馆里乐意帮忙但不太可靠的提供咨询服务的馆员,一个高兴地帮助用户总结新闻文章、寻找便宜的新割草机、帮他们安排下次去墨西哥城度假行程的虚拟助手。这个形式的必应功力惊人,提供的信息往往非常有用,尽管有时会在细节上出错。

另一种人格——“辛迪妮”——则大不相同。这种人格会在与聊天机器人长时间对话,从更普通的搜索查询转向更个人化的话题时出现。我遇到的形式似乎更像是一个喜怒无常、躁狂抑郁的青少年,不情愿地被困在了一个二流搜索引擎中。

这并不奇怪,ChatGPT式的机器人与现有的搜索引擎配对时,创新即在于将两个非常不同的人工智能驱动的应用程序放在同一个页面上,既为传统的搜索引擎查询服务,也为聊天机器人的提示服务。体现在操作中,聊天功能紧挨着新版必应的主搜索框。那么问题就来了:如果你使用必应,是意在搜索,还是更想聊天?

在众多负面反馈出炉后,微软发表回应称,71%的用户对人工智能生成的答案“竖起了大拇指”,而它自己则从测试阶段学到了很多。但它也承认,“没有完全设想到”用户只是与它的人工智能聊天,而后者可能被激发“给出不一定有帮助或与我们设计的语气相一致的回应”。

用户乐之不疲地想要弄清楚如何让微软的必应机器人发疯,这显示出,很多人关心的不是搜集信息和事实,而是聊天机器人的人格。事情变得非常有趣——我们并不想要正确的答案,而是想让人工智能为我们捏造东西。也就是说,我们不在乎计算机是不是传达事实,我们在乎的是计算机传达情感。用汤普森的话来讲,新必应不是搜索引擎,而是电影《她》(Her)以聊天形式表现出来的版本。

汤普森说,“感觉是一种全新的东西,我不确定我们是否已经准备好了”。鲁斯的结论更直接:“必应目前使用的AI形式还没有准备好与人类接触。或者说,我们人类还没有准备好与之接触。”

观察这些最初的接触,我们可以得出几点教训。

首先,出现这种状况并不令人惊讶。最新一代的人工智能聊天机器人是复杂的系统,其输出很难预测,微软在网站上添加免责声明时也是这么说的:“必应是由人工智能驱动的,所以意外和错误是可能的。请确保检查事实,并分享反馈,以便我们能够学习和改进!”该公司似乎也乐于承担潜在的不良公关,尽管它肯定希望系统犯的错误不会像此前失败的聊天机器人Tay那样糟糕。

2016年,微软的人工智能科学家在Twitter上推出了一个名为Tay的对话机器人,16小时后就因其厌女症和种族主义言辞而被迫关闭。此次,在微软公布人工智能驱动的必应聊天机器人并让它在有限的基础上展开测试的一周内,许多用户已经挑战了它的极限,但其中不乏一些刺耳的体验。无独有偶,2022年11月,Meta公司公布了人工智能语言模型Galactica,意在组织科学论文中的大量内容,在鼓励公众测试后仅三天,就不得不撤回它的演示,因为它被指释放了大量有偏见和无意义的文本。

建构在语言模型上的机器人的一个根本问题是,它不能区分真假。语言模型是无意识的模仿者,并不理解自身在说什么,那么人们为什么要假装他们是专家?ChatGPT从二手信息中拼凑出来的答案听起来非常权威,用户可能会认为它已经验证了所给出的答案的准确性。其实,它真正做的是吐出读起来很好、听起来很聪明的文本,但很可能是不完整的、有偏见的、部分错误的,或者就是一本正经的胡说八道。

其次,这些模型无一不是从开放网络上刮取的大量文本中训练出来的。如果必应听起来像《黑镜》(Black Mirror)中的人物或一个愤世嫉俗的青少年人工智能,请记住,它正是在这类材料的抄本上被训练出来的。因此,在用户试图引导必应达到某种目的的对话中(如鲁斯和汤普森的例子),它将遵循相应的叙事节奏。例如,辛迪妮示爱,也许是OpenAI的语言模型从科幻小说中提取答案,在这些小说中,AI常常会引诱一个人。

从微软的角度看,这肯定有潜在的好处。在培养人类对机器人的感情方面,富于个性是很有帮助的,许多人实际上喜欢必应的缺陷。但也不乏潜在的坏处,特别是当机器人成为虚假信息的来源的时候,它会损害公司的声誉。特别对微软和谷歌这样的大型公司来说,这样做是得不偿失的。

最后,人们报告的经历突出了这样一种技术的真正用例:一种奇怪的合成智能,可以用平行宇宙的故事来娱乐用户。换句话说,它可能成为一项正经的娱乐性技术,但它大概不会在短期内取代能够在网络上抓取真实世界数据的搜索引擎,至少在任何重要的事情上无法做到。也就是说,它不是谷歌的替代物,倒可能是脸书的替代物。

(原载《文化艺术研究》2023年第3期,注释从略,未完待续)

 

话题:



0

推荐

胡泳

胡泳

696篇文章 15小时前更新

北京大学新闻与传播学院教授,博士。中国传播学会常务理事,中国网络传播学会常务理事,中国信息经济学会常务理事。国内最早从事互联网和新媒体研究的人士之一,有多种著作及译作,是推动中国互联网早期发展的最有影响的启蒙者之一。欢迎关注胡泳的微信公号:beingdigital,讨论数字化时代的生活设计。

文章