白宮現在希望在向公衆發佈人工智能模型之前對其進行審查。
白宮正在考慮一項計劃,對一些最強大的人工智能系統進行審查,然後再向公衆發佈。.
率先 報道了 這項 《紐約時報》 將在人工智能生命週期的關鍵階段——部署之前——引入聯邦審查。官員們越來越擔心,前沿模型現在能夠識別dent利用支撐關鍵基礎設施的軟件漏洞。
發表的一篇分析文章 《對話》雜誌 指出 ,越來越多的證據表明,近期的AI系統能夠發現操作系統和網絡瀏覽器中的大量漏洞。這種能力雖然對防禦性安全至關重要,但如果此類工具被濫用或落入不法分子之手,也會帶來更大的風險。
模型能力促使政策重新思考
在Anthropic公司決定推遲其最新型號 Mythos能力dent。作爲回應,該公司通過其“玻璃翼計劃”(Project Glasswing)將訪問權限限制在負責關鍵基礎設施的少數機構。
據 《對話》報道,當 Anthropic 探索擴大人工智能訪問權限時,白宮介入了此事,這表明即使更廣泛的技術政策仍然相對以市場爲導向,美國也對人工智能監管採取了更加積極主動的態度。
擔憂並非僅限於單一公司或系統。英國人工智能安全研究所 報告 四月份的一份評估
該研究所重點介紹的一項測試中,該模型對一臺定製虛擬機進行了逆向工程,並在幾分鐘內解決了一個複雜的難題,比使用專業工具的人類專家快得多。.
該研究所的報告中寫道:“一個關鍵問題是,這反映的是某個特定模型的突破,還是更廣泛趨勢的一部分。GPT-5.5早期測試階段的結果表明是後者。”
綜合來看,這些研究結果表明,這些能力正在成爲領先的人工智能系統的普遍特徵,而不是一項孤立的突破。.
人工智能安全問題呈現出地緣政治維度。
其影響不僅限於技術領域,還延伸至國家安全領域。 《對話》雜誌 警告稱,與國家有關聯的組織可能利用類似工具開展網絡行動,其目標可能包括基礎設施或經濟系統。
這種轉變的早期跡象已經顯現。Anthropic公司報告稱,疑似受國家支持的組織利用其模型開展間諜活動,影響了數十個機構。與此同時,微軟和OpenAI在2024年表示,與政府有關聯的團體正在利用人工智能來增強網絡攻擊。.
與此同時,研究人員仍在努力尋找可靠控制這些系統的方法。 《對話》雜誌 表明,訓練後應用的安全過濾器可能被繞過,而某些模型表面上看起來合規,但實際上並未完全消除風險功能。
這使得政策制定者中越來越多的人認爲,安全措施可能需要在模型開發過程中就納入其中,而不是在之後添加。.
政策展望:框架分散,壓力上升
美國的這項提案是在一個更廣泛、仍在不斷發展的全球監管環境中形成的:
- 歐盟人工智能法案制定了基於風險的框架,對高風險應用提出了嚴格的要求,但並未強制要求對前沿模型進行集中審批。.
- 英國一直依靠英國人工智能安全研究所開展自願合作,重點是與開發者建立測試和評估夥伴關係。.
- 美國正在採取的新做法似乎是對最先進的系統進行直接監管,可能會通過發佈前審查的方式進行。.
立法者們已經開始更仔細地研究這些問題,國會於 4 月舉行了關於人工智能安全和治理的聽證會,但目前還沒有取得任何全面的立法進展。.
如果實施,美國的釋放前審查制度將代表着一種向更早干預的轉變,將監督置於風險可預見之處,而不是風險發生之後。.
此舉可能會樹立一個非正式的全球標準,尤其考慮到美國集中了衆多領先的人工智能開發商。與此同時,這也增加了企業將部分研發或部署工作轉移到限制較少的地區的可能性。.
政策制定者面臨的挑戰是,在一個能力快速發展的領域中,如何在創新與風險管理之間取得平衡,而濫用的後果可能影響深遠。.
目前,最具體的保障措施仍然是自願性的。像Anthropic這樣的公司正在限制對敏感系統的訪問,而像英國人工智能安全研究所這樣的組織則繼續開展dent 評估。.
美國是否會正式確立其做法,以及其他國家是否會與之保持一致,將是未來幾年人工智能治理方式形成的關鍵因素。.
不要只是閱讀加密貨幣新聞,要理解它。訂閱我們的新聞簡報, 完全免費。













