研究显示:AI公司安全防护措施远未达标
路透12月3日 - 根据未来生命研究所(Future of Life Institute)周三发布的新版人工智能(AI)安全指数,Anthropic、OpenAI、xAI 和 Meta 等主要人工智能公司的安全实践 "远低于远低于全球新兴标准"。
该研究所称,由独立专家小组进行的安全评估发现,虽然这些公司都在竞相开发超级智能,但没有一家公司制定了控制此类先进系统的完善战略。
在多起与AI聊天机器人相关的自杀和自残事件曝光之后,公众愈发担心具备推理和逻辑思维能力、甚至比人类更聪明的系统对社会的影响。这项研究正是在这种背景下发布的。
麻省理工学院教授、未来生命研究所主席Max Tegmark表示:“尽管近期因AI驱动的黑客攻击以及AI导致人们出现精神错乱和自残行为引发强烈关注,美国AI公司受到的监管力度仍不及餐馆,而且还在继续游说反对有约束力的安全标准。”
未来生命研究所是一个非营利性组织,长期关注智能机器对人类构成的风险。该机构成立于2014年,早期曾获得特斯拉CEO马斯克的支持。
谷歌 DeepMind 发言人表示,随着其模型越来越先进,该公司将 "继续在安全和治理方面与能力同步创新"。而xAI则回应称“传统媒体撒谎”,似乎是自动回复。
OpenAI 发言人表示:“我们分享我们的安全框架、评估和研究,以帮助推进行业标准,我们不断加强我们的保护措施,为未来的能力做好准备。”该发言人补充说,OpenAI在前沿安全研究方面投入巨大,并“严格”测试其模型。
Anthropic、Meta、Z.ai、DeepSeek 和阿里云没有回应就这项研究发表评论的请求。(完)
免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。
点赞












