加州会通过一项将硅谷分裂的人工智能法律吗?

2025-06-05 16:22来源:本站

  

  

  加州监管人工智能(ai)的努力令硅谷陷入分裂,反对者警告称,该法律框架可能会破坏竞争,损害美国作为该技术全球领导者的地位。

  在该法案通过加州立法机构时,OpenAI和meta等公司的高管们为修改或淡化该法案展开了激烈的斗争,他们正焦急地等待着加州民主党州长加文·纽森(Gavin Newsom)是否会将其签署为法律。他必须在9月30日之前做出决定。

  加州是蓬勃发展的人工智能产业的中心,由于没有联邦法律来规范美国各地的人工智能技术,更不用说统一的全球标准了,其影响将远远超出加州。

  蒙特利尔大学(University of Montreal)教授、人工智能“教父”约书亚?本吉奥(Yoshua Bengio)表示:“世界其他地区肯定在密切关注加州乃至更广泛意义上的美国目前正在发生的事情,那里的结果很可能会对其他国家的监管努力产生影响。”

  为什么加州要监管人工智能?

  人工智能工具的快速发展,可以对问题产生类似人类的回答,放大了围绕这项技术的感知风险,从版权侵权等法律纠纷,到错误信息和深度造假的扩散。一些人甚至认为它可能对人类构成威胁。

  美国总统乔·拜登去年发布了一项行政命令,旨在为人工智能安全制定国家标准,但国会在通过国家法律方面没有取得任何进展。

  在联邦政府落后的问题上,自由派的加州经常介入监管。人工智能是由加州参议员斯科特·维纳(Scott Wiener)提出的加州前沿人工智能系统安全创新法案(Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act)关注的焦点。在不同州提交的各种法案中,加州的法案最有可能产生真正的影响,因为该州处于技术繁荣的中心,是OpenAI、Anthropic、meta和谷歌等顶级公司的所在地。

  本吉奥说:“在这个问题上直言不讳的大型人工智能公司目前陷入了争夺市场份额和利润最大化的竞争中,这可能导致在安全方面偷工减料,这就是为什么我们需要为那些在这场竞赛中领先的公司制定一些规则。”

  [利用恐惧推销AI是个坏主意]

  法案是怎么说的?

  维纳表示,他的法案“只要求最大的人工智能开发商做他们每个人都一再承诺要做的事情:对强大的人工智能模型进行基本的安全测试”。

  该法案将要求开发人员建立大型模型,以评估它们是否“合理地有能力造成或在物质上造成严重伤害”,范围从恶意使用或盗窃到制造生物武器。然后,企业将被期望采取合理的防范措施,防范那些已确定的风险。

  开发人员将不得不在任何超过一定尺寸的新模型中建立一个“终止开关”,以防它们被滥用或失控。他们还必须在培训新模型之前起草一份安全报告,并提高透明度——他们必须“向该州总检察长报告每一起人工智能安全事件”,并接受第三方审计,以确保每年都遵守规定。

  它针对的是训练成本超过1亿美元(9000万欧元)的模特,这大约是训练当今顶级模特所需的费用。但这是一个快速发展的目标:Anthropic首席执行官达里奥·阿莫代伊(Dario Amodei)预测,下一批尖端模型的培训成本将达到10亿美元,到2026年将达到100亿美元。

  本吉奥表示,该法案将适用于所有在加州开展业务的公司,无论它们位于何处,这实际上将涵盖目前能够开发顶级人工智能模型的所有公司。

  它将引入最高相当于培训模型成本10%的民事罚款,惩罚那些使用工具造成死亡、盗窃或财产损失的开发者。它还将为提供计算资源、培训这些模型的公司和审计公司创造责任,使它们有责任收集和保留有关客户身份和意图的详细信息。如果不这样做,可能会被处以高达1000万美元的罚款。

  谁赞成这项法案,谁反对?

  维纳和他的同事们表示,公众对新的人工智能护栏有着强烈的支持。他还获得了领先的人工智能初创企业Anthropic和埃隆·马斯克(Elon Musk),以及演员工会SAG-AFTRA和两个女性团体的合格支持。周一,OpenAI、xAI、谷歌DeepMind等顶尖人工智能公司的100名员工签署了一封信,呼吁纽森签署该法案。

  他们写道:“前沿人工智能公司测试最强大的人工智能模型是否会造成严重危害,并对这些公司实施合理的防范措施,这是可行和适当的。”

  批评人士——包括斯坦福大学人工智能教授李飞飞、风险投资公司Andreessen Horowitz和创业加速器Y Combinator等学者——认为,该法案将阻碍早期公司和公开分享其模型底层代码的开源开发者。

  OpenAI首席战略官Jason Kwon上个月在给Wiener的一封信中警告称,参议院sb1047法案将“减缓创新的步伐,导致加州世界级的工程师和企业家离开加州,到其他地方寻找更大的机会”。他回应了最常见的抱怨之一:参议员干涉了一个本应由联邦政府处理的领域。

  反对者还表示,这将扼杀创新,因为它向开发人员提出了繁重的要求,并要求他们对不良行为者使用他们的人工智能模型负责。他们补充说,它为尚不存在的风险制定了法律。

  IBM研究主管达里奥?吉尔(Dario Gil)表示:“从哲学上讲,预测人们将如何在软件中使用你的代码的后果是一个非常困难的问题。人们将如何使用它,你将如何预测有人会造成伤害?这是一种很好的抑制剂。这是一个非常严重的滑坡。”

  在制定该法案中发挥关键作用的人工智能安全中心(Center for AI Safety)主任丹·亨德里克斯(Dan hendricks)表示,反对者“希望政府给他们一张空白支票,让他们建造和部署任何他们想要的技术,而不顾对社会的风险或危害”。

  亨德里克斯也是马斯克xAI的顾问,他受到了批评人士的抨击,他们认为CAIS是一个过分担心人工智能存在风险的边缘机构。反对者还表示担心,CAIS曾游说对该法案将创建的“前沿模型委员会”施加影响,该委员会由来自工业界和学术界的九名董事组成,负责更新有关人工智能模型的法规并确保合规。

  维纳将这些论点斥为“阴谋论”。

  “反对派试图把任何支持该法案的人描绘成‘末日论者’,”他说。“他们说这些都是科幻小说中的风险;我们专注于《终结者》(电影)。我们关注的是非常现实的风险,比如关闭电网、银行系统,或者制造化学或生物武器。”

  【要让人工智能更安全,多使用它】

  该法案的起草者是如何试图解决这些问题的?

  维纳表示,他和他的团队在过去18个月里一直在与“任何愿意与我们会面的人”进行接触,讨论该法案,包括李以及安德森和Y Combinator的合伙人。

  他们担心的一个问题是,为开源模型设置一个“终止开关”,会阻止其他开发人员修改或在此基础上进行构建,因为他们担心这些模型可能会在接到通知后立即关闭。这对年轻的公司和学术界来说可能是致命的,因为它们依赖于更便宜或免费的开源模式。

  Wiener的法案已经被修改,排除了被第三方微调到一定程度以上的开源模型。他们也不需要有一个终止开关。

  该法案最初的一些限制也得到了缓和,包括缩小民事处罚的范围,限制新规则涵盖的模式数量。

  该法案会成为法律吗?

  sb1047法案轻松通过了州议会。现在纽森必须决定是否签署该法案,允许它在没有他签名的情况下成为法律,或者否决它。如果他否决,加州立法机构可以以三分之二的多数票推翻他的否决。但是,据维纳的一位发言人说,这种情况几乎不可能发生。上一次加州州长的否决被推翻是在1980年。

  鉴于科技行业对该州的重要性,这位州长处境艰难。但让人工智能不受限制地成长可能会带来更大的问题。

  维纳说:“我希望这能成为联邦立法:如果国会在这一领域采取行动,通过一项强有力的人工智能安全法案,我很乐意收拾行李回家。”但可悲的现实是,虽然国会在医疗保健、基础设施和气候方面非常非常成功,但它在技术监管方面真的很挣扎……在国会采取行动之前,加州有义务发挥领导作用,因为我们是科技行业的中心地带。-版权所有金融时报有限公司2024

  报名参加

  商业推动lerts

  并有最好的新闻,分析和评论直接发送到您的手机

  找到

  WhatsApp上的爱尔兰时报

  保持与时俱进

  我们的商业内幕播客每周发布-查找最新一期

  在这里

一物网声明:未经许可,不得转载。