2025-08-20 17:41来源:本站
巴黎,9月15日——周四发布的一项研究显示,支持聊天机器人和其他应用的人工智能模型仍然难以区分胡言乱语和自然语言。
哥伦比亚大学的研究人员指出,他们的发现揭示了当前人工智能模型的局限性,建议在法律或医疗领域过早依赖它们可能不妥。
他们测试了9种人工智能模型,向其发送了数百对句子,并询问哪些句子在日常对话中可能听到。
他们还让100人对几对句子进行同样的判断,例如:“一个买家也可以拥有正品/一个精通高中圆周的人我漫步。”
这项研究发表在《自然机器智能》杂志上,随后将人工智能的答案与人类的答案进行了比较,发现了显著差异。
像GPT-2这样的复杂模型,即为ChatGPT提供动力的早期版本,通常与人类的答案一致。
然而,其他较简单的模型表现则不尽如人意。
研究人员强调,所有模型都存在错误。
该报告的作者之一、心理学教授克里斯托弗·巴尔达萨诺表示:“每个模型都显示出盲点,将一些人类认为是胡言乱语的句子标记为有意义的。”
“这应该让我们重新考虑,目前人工智能系统在多大程度上可以做出重要决策。”
论文的另一位作者塔尔·戈兰告诉法新社,这些模型是“一项令人兴奋的技术,可以极大地提升人类的生产力”。
然而,他认为,“在法律、医学或学生评估等领域过早用这些模型取代人类决策可能不妥”。
他指出,一个陷阱是,人们可能会利用这些盲点来操纵模型。