近日,美国AI创业公司Anthropic宣布对其旗舰安全政策“负责任扩展政策”(RSP)进行重大调整。Anthropic曾在2023年承诺,除非能提前保证拥有足够的安全措施,否则绝不训练AI系统。这一承诺成为RSP的核心支柱。然而,该公司最近决定放弃这一承诺,改为在AI安全风险方面更加透明,包括额外披露Anthropic自有模型在安全测试中的表现,并承诺在安全方面的投入与努力要达到或超越竞争对手的水平。
Anthropic首席科学官贾里德·卡普兰表示:“我们认为,停止训练AI模型实际上对任何人都没有帮助。随着AI的快速发展,我们并不觉得在竞争对手快速推进的情况下,我们做出单方面承诺是合理的。”新版政策还承诺,如果领导层认为Anthropic是AI竞赛的领跑者,并且认为发生灾难性风险的可能性很大,那么他们将“推迟”Anthropic的AI开发进程。但总体来看,RSP的这一调整让Anthropic在安全政策上受到的约束大幅减少。此前,该政策明确禁止公司在没有适当安全措施的情况下,训练超过特定水平的模型。
Anthropic面临来自OpenAI、埃隆·
马斯克旗下xAI以及
谷歌等竞争对手的激烈竞争,这些对手都在定期发布尖端工具。同时,该公司也与美国国防部就其Claude工具的使用方式陷入争执。Anthropic表示,此次安全政策的调整是基于AI发展速度以及联邦层面缺乏相关法规而做出的更新。Anthropic发言人表示,此次调整旨在帮助公司在不均衡的政策背景下与多家竞争对手抗衡。在这种环境中,公司必须自行判断安全防护措施是否足够。

来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。