
由於國防部和人工智能初創公司Anthropic在其AI模型軍事用途上的爭議迅速升級,Anthropic面臨可能被切斷大批客戶的風險。上週五,國防部長皮特·赫格塞斯(Pete Hegseth)表示將Anthropic列爲“供應鏈風險”,加劇了這一緊張局勢。
五角大樓將目標對準人類學之際,OpenAI 試圖填補這一空白
政府威脅禁止與Anthropic有商業往來的軍事承包商繼續合作——這可能涉及其主要雲服務合作伙伴亞馬遜、谷歌和微軟——但這一禁令很可能面臨法律挑戰。與此同時,OpenAI似乎利用這一局勢與國防部達成了自己的協議。
OpenAI首席執行官山姆·奧特曼(Sam Altman)在上週五晚間於X(前Twitter)宣佈,公司已與國防部達成協議,“在其機密網絡中部署我們的模型”。OpenAI表示,政府同意其禁止AI用於國內大規模監控和自主武器系統的規定,並“已將這些條款納入協議中”。協議的具體條款尚未公開。
這一公告是在Anthropic與國防部之間的激烈爭執之後發佈的,而這場爭執看似可能演變爲法律糾紛。
Anthropic預計美國政府將援引的法律最早於2011年頒佈,原本是針對外國公司制定的。明尼蘇達大學法學院副教授艾倫·羅森斯坦(Alan Rozenshtein)表示:“幾乎可以肯定,這條法律並不適用於像Anthropic這樣的純美資公司。”
Anthropic首席執行官達里奧·阿莫代(Dario Amodei)週五提出進一步論點:該法律並不會禁止Anthropic的客戶在與國防部無關的情況下使用Claude系列AI模型。
阿莫代寫道:“赫格塞斯部長暗示,這一指定會限制任何與軍方有業務往來的公司繼續與Anthropic合作。但他並沒有‘法定權力’支持這一做法。”
另一方面,法律智庫“人工智能與法律研究所”的高級研究員查理·布洛克(Charlie Bullock)表示,法院可能傾向於在國家安全事務上尊重政府權威。實際上,如果軍方將Anthropic標記爲供應鏈風險,其客戶可能會認爲徹底切斷對Claude的依賴是最直接遵守軍事命令的方式。
早些時候,赫格塞斯宣佈,與美國軍方有業務往來的承包商或供應商將不能“與Anthropic進行任何商業活動”,並推動將Anthropic列爲供應鏈風險。
這一決定源於美國軍方與Anthropic之間的僵局。Anthropic政策規定,其AI不會用於大規模國內監控或完全自主的致命武器。
國防部要求Anthropic在週五前取消對其技術用途的限制,但在最後期限前一小時,美國前總統特朗普表示,他已指示所有聯邦機構停止使用Anthropic的技術。最後期限過後不久,赫格塞斯宣佈了這一決定。
雲服務合作伙伴
赫格塞斯的決定讓Anthropic的核心合作伙伴感到擔憂,他們不確定這會如何影響與公司的關係。
亞馬遜在Anthropic中投資了80億美元,其雲服務器運行大部分Anthropic直接銷售給客戶的AI服務。Anthropic還會向亞馬遜支付部分收入。
谷歌也在Anthropic中投資了數十億美元,並在其雲服務器上運行Anthropic模型。去年秋天,Anthropic曾表示計劃使用多達100萬臺谷歌張量處理單元(TPU)來支持AI運行,這意味着公司在TPU租賃上可能花費數百億美元。
Anthropic預計到2029年,將在亞馬遜、谷歌和微軟的雲服務器上運行Claude AI,支付至少800億美元雲服務費用,而去年僅約爲30億美元。據The Information報道。
谷歌和微軟發言人拒絕置評,亞馬遜發言人未回應置評請求。
與此同時,Anthropic與國防部的談判可能尚未結束。標記一家公司爲供應鏈風險需要遵循漫長程序,包括進行風險評估、通知國會,並考慮更溫和的風險降低方式。
非營利組織Abundance Institute的AI政策主管尼爾·奇爾森(Neil Chilson)表示:“你不能僅憑一條推特就將公司列爲供應鏈風險。”
如果這個過程需要時間,那麼週五的聲明可能只是Anthropic與國防部新一輪談判的開局。奇爾森認爲,與國防部繼續談判達成協議可能比訴諸法律更爲明智。“起訴你的客戶總是有風險,尤其當你的客戶掌握所有武力時。”