
路透12月3日 - 根據未來生命研究所(Future of Life Institute)周三發布的新版人工智能(AI)安全指數,Anthropic、OpenAI、xAI 和 Meta 等主要人工智能公司的安全實踐 "遠低於遠低於全球新興標準"。
該研究所稱,由獨立專家小組進行的安全評估發現,雖然這些公司都在競相開發超級智能,但沒有一家公司制定了控制此類先進系統的完善戰略。
在多起與AI聊天機器人相關的自殺和自殘事件曝光之後,公眾愈發擔心具備推理和邏輯思維能力、甚至比人類更聰明的系統對社會的影響。這項研究正是在這種背景下發布的。
麻省理工學院教授、未來生命研究所主席Max Tegmark表示:“儘管近期因AI驅動的黑客攻擊以及AI導致人們出現精神錯亂和自殘行為引發強烈關注,美國AI公司受到的監管力度仍不及餐館,而且還在繼續游說反對有約束力的安全標準。”
未來生命研究所是一個非營利性組織,長期關注智能機器對人類構成的風險。該機構成立於2014年,早期曾獲得特斯拉CEO馬斯克的支持。
谷歌 DeepMind 發言人表示,隨著其模型越來越先進,該公司將 "繼續在安全和治理方面與能力同步創新"。而xAI則回應稱“傳統媒體撒謊”,似乎是自動回復。
OpenAI 發言人表示:“我們分享我們的安全框架、評估和研究,以幫助推進行業標準,我們不斷加強我們的保護措施,為未來的能力做好準備。”該發言人補充說,OpenAI在前沿安全研究方面投入巨大,並“嚴格”測試其模型。
Anthropic、Meta、Z.ai、DeepSeek 和阿里雲沒有回應就這項研究發表評論的請求。(完)