
聯合國兒童基金會(UNICEF)週三指出,有報告顯示,互聯網上流傳的AI生成的性化圖像數量激增。這些AI生成的圖像主要包括對兒童照片進行篡改和性化的案例。.
該機構指出,人工智能圖像或視頻生成工具的興起,以及由此產生的兒童性虐待材料的泛濫,加劇了兒童通過數字技術面臨的風險。聯合國兒童基金會 UNICEF)還呼籲各國政府和業界採取緊急行動,防止人工智能生成的兒童性內容的製作和傳播。.
濫用深度僞造技術就是濫用。.
利用人工智能工具生成或篡改的兒童性化圖像、視頻或音頻屬於兒童性虐待材料。即使沒有dent的受害者,它也會使性剝削兒童的行爲正常化。.
UNI歐洲經濟論壇呼籲採取緊急行動防止……
— UNI CEF (@ UNI CEF) 2026年2月4日
聯合國機構指出,不到五年前,高質量的生成模型需要強大的計算能力和專業知識。然而,目前的開源模型卻讓犯罪分子更容易製作性虐待內容。.
該機構認爲,雖然沒有真正的兒童直接參與其中,但此類內容會使兒童性化正常化,並使受害者身份dent。UNI還指出,犯罪者可以在兒童不知情或未參與的情況下製作出逼真的兒童性圖像。
聯合國兒童基金會UNICEF)表示,此類內容可能侵犯兒童的受保護權利,而兒童甚至可能對此毫不知情。該機構還指出,兒童會因此面臨羞恥感、污名化、來自同齡人和成年人的更多評判、社會孤立以及長期的情感傷害。.
UNI CEF)還指出,人工智能圖像或視頻生成工具的普及導致兒童性虐待材料(CSAM)的製作和傳播激增。英國互聯網觀察基金會(IWF)僅在一個月內,就在一家專門傳播兒童性虐待材料的暗網論壇上發現了約14000張疑似人工智能生成的圖像。該報告披露,其中三分之一的材料屬於犯罪材料,並且是首批逼真的兒童性虐待人工智能視頻。
國際婦女基金會還發現了3440個利用人工智能技術製作的兒童性虐待視頻,比上一年發現的13個視頻激增了26362%。其中2230個(65%)視頻因內容極其極端而被歸類爲A類,另有1020個(30%)被歸類爲B類。.
婦女基金會(IWF)還dent主流平臺上存在人工智能兒童性虐待材料,其中包括在點對點環境下針對女孩製作的深度僞造裸照。該組織還指出,韓國執法部門報告稱, 2022年至2024年間,涉及人工智能和深度僞造技術的性犯罪案件激增了10倍。
人工智能和深度僞造技術主要針對青少年,他們佔被告的大多數。索尼的調查發現,美國十分之一的青少年知道有朋友使用人工智能工具製作未經同意的兒童私密照片。
UNI CEF)、ECPAT國際組織和國際刑警組織還發現,到2025年,11個國家約有120萬兒童的圖像被人工智能工具篡改成色情深度僞造圖像。這些機構還報告稱,在約11個國家中,多達三分之二的兒童擔心人工智能可能被用於製作虛假的色情圖像。
聯合國兒童基金會UNICEF)認爲,家長和監護人需要了解人工智能賦能的性剝削和性虐待問題。該機構還呼籲學校對dent進行人工智能相關風險及其對受影響個體造成的傷害的教育。.
UNI CEF)發佈這份報告之際,埃隆·馬斯克的AI工具Grok也推出了新功能,防止該工具在禁止此類行爲的國家/地區編輯真實人物照片,使其穿着暴露的服裝。此前,人們對AI深度僞造技術引發的性暗示問題普遍感到擔憂。
英國政府呼籲X公司管控Grok,而監管機構Ofcom表示正在夜以繼日地修復該問題。X公司表示,該公司已對所有用戶通過Grok賬戶以及在Grok應用內生成身着比基尼、內衣及類似服裝的真人圖片的功能進行了地域限制,尤其是在禁止此類內容的國家/地區。
馬來西亞和印度尼西亞上個月初也因Grok能夠生成露骨的深度僞造視頻而封禁了其服務Cryptopolitan 有報道稱,在 X 承諾改善對印尼法律的遵守情況後,印尼已允許 Grok 恢復運營。
不要只是閱讀加密貨幣新聞,要理解它。訂閱我們的新聞簡報,完全免費。