目 录CONTENT

文章目录

OpenAI力挺新法案:旨在豁免AI公司在“重大灾难”中的法律责任

Administrator
2026-04-10 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/openai-backs-bill-exempt-ai-firms-model-harm-lawsuits/

原文作者:Maxwell Zeff (WIRED)


OpenAI CEO Sam Altman

OpenAI 正在为其支持的伊利诺伊州一项法案摇旗呐喊,该法案旨在为人工智能实验室提供保护伞,免除其在AI模型被用于造成严重社会危害(如导致 100 人以上死亡或重伤,或至少造成 10 亿美元财产损失)时的法律责任。

立法策略的重大转变

这一举动标志着 OpenAI 在立法策略上的重大转变。在此之前,OpenAI 长期处于守势,主要采取反对立场,抵制那些可能使其因技术带来的危害而承担责任的法案。多位 AI 政策专家向 WIRED 表示,SB 3444 法案——如果通过,将为行业树立新标杆——是一项比 OpenAI 过去支持的任何措施都要激进得多的方案。

根据该法案,只要前沿 AI 开发商未 故意鲁莽 地造成此类事件,并已在网站上发布了安全、保障及透明度报告,他们即可免除因模型引发的“严重伤害”而承担的法律责任。该法案将前沿模型定义为计算成本超过 1 亿美元训练出的 AI 模型,这几乎涵盖了美国各大 AI 实验室,如 OpenAI、Google、xAI、Anthropic 和 Meta。

OpenAI 的立场声明

OpenAI 发言人 Jamie Radice 在一份电子邮件声明中表示:“我们支持这类方法,因为它们关注最重要的问题:在减少先进 AI 系统造成严重伤害风险的同时,确保这项技术能够惠及伊利诺伊州的个人、大型企业及小型企业。此外,这有助于避免各州之间规则不统一的‘拼凑’局面,向更清晰、更一致的国家标准迈进。”

关于“严重伤害”的定义

在法案对“严重伤害”的定义中,列举了 AI 行业关注的几个常见领域,例如不法分子利用 AI 制造化学、生物、放射性或核武器。如果 AI 模型在无人为干预下采取了行动(若该行为由人类实施将构成刑事犯罪),并导致了此类极端后果,这也属于严重伤害。只要实验室没有主观故意且发布了合规报告,便可免责。

联邦与州的博弈

目前,美国联邦和州政府尚未出台专门法律来确定像 OpenAI 这样的开发者是否应对其技术造成的此类伤害承担责任。然而,随着 AI 实验室不断发布能力更强、引发新安全挑战的模型(如 Anthropic 的 Claude Mythos),这些问题显得日益紧迫。

在支持 SB 3444 的证词中,OpenAI 全球事务团队成员 Caitlin Niedermeyer 主张建立联邦层面的 AI 监管框架。她的言论与特朗普政府近期对各州 AI 安全法的打压相一致,声称要避免“各州不一致的要求导致摩擦,且无法切实提升安全水平”。

尽管如此,安全 AI 项目 (Secure AI project) 政策总监 Scott Wisor 认为该法案通过的可能性微乎其微,因为伊利诺伊州在技术监管方面历来非常强硬。“我们对伊利诺伊州民众进行了民调,询问他们是否认为 AI 公司应免除责任,90% 的人表示反对。没有任何理由让现有的 AI 公司减轻责任,” Wisor 说道。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区