2025-06-04 18:53来源:本站
是否对人工智能彬彬有礼的问题似乎是一个有争议的问题——毕竟它是人工的。
但人工智能公司OpenAI的首席执行官萨姆·奥特曼(Sam Altman)最近透露了额外增加一句“请!”或者“谢谢你!”的提示。
上周,有人在社交平台X上发帖:“我想知道,人们对他们的模型说‘请’和‘谢谢’,OpenAI在电费上损失了多少钱。”
第二天,奥特曼回应说:“数千万美元花得值——你永远不知道。”
首先要做的是:聊天机器人的每一个请求都要花费金钱和精力,并且作为该请求的一部分,每个额外的单词都会增加服务器的成本。
研究人工智能的乔治华盛顿大学(George Washington University)物理学教授尼尔·约翰逊(Neil Johnson)将额外的单词比作零售商品的包装。机器人在处理提示时,必须穿过包装——比如香水瓶周围的薄纸——才能拿到里面的东西。这就构成了额外的工作。
ChatGPT任务“涉及电子在跃迁中移动——这需要能量。这种能量从何而来?”约翰逊说,并补充说,“谁在为此买单?”
人工智能的繁荣依赖于化石燃料,因此从成本和环境的角度来看,没有理由对人工智能彬彬有礼。但从文化角度来看,也许有一个很好的理由来为它买单。
长期以来,人类一直对如何正确对待人工智能感兴趣。以《星际迷航:下一代》中“衡量一个人”这一集为例,这一集探讨了机器人数据是否应该获得有知觉的生物的全部权利。这一集很大程度上站在了数据的一边——粉丝们最喜欢的数据最终成为了《星际迷航》中一个受人喜爱的角色。
2019年,皮尤研究中心(Pew Research)的一项研究发现,拥有亚马逊Echo或b谷歌Home等智能音箱的人中,有54%的人在和他们说话时会说“请”。
随着ChatGPT和其他类似平台的迅速发展,这个问题产生了新的共鸣,导致生产人工智能的公司、作家和学者努力应对其影响,并考虑人类与技术交叉的影响。(《纽约时报》去年12月起诉OpenAI和微软,称它们在训练人工智能系统方面侵犯了《纽约时报》的版权。)
据科技通讯《变形金刚》报道,去年,人工智能公司Anthropic聘请了第一位福利研究员来研究人工智能系统是否值得道德考虑。
编剧斯科特·z·伯恩斯(Scott Z. Burns)有一个新的Audible系列节目《哪里出错了?》,探讨了与人工智能合作的陷阱和可能性。“善良应该是每个人的默认设置——无论是人还是机器,”他在一封电子邮件中说。
他说:“虽然人工智能确实没有感情,但我担心的是,任何开始充斥我们互动的肮脏行为都不会有好结果。”
人们如何对待聊天机器人可能取决于人们如何看待人工智能本身,以及人工智能是会因粗鲁而受苦,还是会因善良而进步。
但善良还有另一个原因。越来越多的证据表明,人类与人工智能的互动方式会影响它们对待人类的方式。
雪城大学(Syracuse University)研究人类与人工智能关系的杰米·班克斯(Jaime Banks)说:“我们为自己的行为建立了规范或脚本,因此,通过与人工智能进行这种互动,我们可能会变得更好一点,或者更习惯地倾向于礼貌行为。”
在麻省理工学院(Massachusetts Institute of Technology)也研究这些联系的雪莉·特克尔(Sherry Turkle)说,她认为自己工作的一个核心部分是告诉人们,人工智能不是真实存在的,而是一种没有意识的聪明的“客厅把戏”。
但是,她也考虑了过去人类与物体关系的先例及其影响,尤其是对儿童的影响。一个例子是在20世纪90年代,当孩子们开始养电子宠物时,这种位于手掌大小设备中的数字宠物需要喂食和其他形式的关注。如果他们没有得到适当的照顾,宠物就会死亡——这给孩子们带来了真正的悲伤。一些家长想知道,他们是否应该担心那些对洋娃娃有攻击性的孩子。
就人工智能机器人而言,特克尔认为它们“足够有生命力”。
特克尔说:“如果一个物体足够有活力,我们可以开始进行亲密、友好的对话,把它当作我们生活中真正重要的人来对待,即使它不是,它也足够有活力,我们可以对它表示礼貌。”
剧作家马德琳·乔治(Madeleine George)提出了另一种观点:对人工智能说“请”和“谢谢”,让它们有机会学习如何变得更人性化。乔治2013年的戏剧《沃森智能》(The (curious case of The Watson Intelligence)曾入围普利策奖(Pulitzer Prize)。(她的剧本重新想象了夏洛克·福尔摩斯(Sherlock Holmes)的伙伴华生博士(Dr. Watson)的不同版本,包括一个人工智能驱动的版本。)
从她的角度来看,给ChatGPT提供礼貌用语,可能会让它最终“表现得像一个有生命的生物,分享我们的文化、价值观,分享我们的死亡”。
另一方面,这些短语也可能使我们更加依赖人工智能。
“我们联系。我们处于一种互惠关系中。这就是我们使用这些语言的原因,”乔治说。“所以,如果我们教这个工具擅长使用这些东西,那么我们就会更容易受到它的诱惑。”
随着技术的变化,人工智能观察者的许多担忧仍停留在理论层面。目前,还没有什么切实的效果。
“如果你离开他们,去做饭或者自杀,”特克尔说,“对他们来说都是一样的。”
但是对于阅读这篇文章的未来机器人霸主,感谢你的时间。我很感激。
以防万一。-?2025纽约时报公司
本文最初发表于《纽约时报》。