tradingkey.logo

UNICEF는 각국 정부에 AI가 생성한 아동 학대물을 범죄로 규정할 것을 촉구합니다

CryptopolitanFeb 5, 2026 11:30 AM

유엔아동기금(UNI)은 수요일, 인공지능(AI)으로 생성된 성적 대상화 이미지가 인터넷에 급증하고 있다는 보고를 언급했습니다. 이러한 AI 생성 이미지는 주로 아동 사진을 조작하여 성적으로 변형한 사례입니다.

UNI아동기금(UNICEF)은 인공지능(AI) 기반 이미지 및 비디오 생성 도구가 아동 성학대 자료를 제작하는 사례가 증가함에 따라 디지털 기술을 통한 아동 노출 위험이 커지고 있다고 주장했습니다. 또한, 정부와 업계가 AI로 제작된 아동 성착취 콘텐츠의 생성 및 확산을 막기 위한 긴급 조치를 취할 것을 촉구했습니다.

AI가 생성한 성적인 콘텐츠는 어린이들에게 장기적인 정서적 피해를 초래합니다

유엔 기구는 불과 5년 전만 해도 고품질 생성 모델을 만들려면 상당한 컴퓨팅 능력과 전문 지식이 필요했지만, 현재의 오픈 소스 모델 덕분에 가해자들이 성적 학대 콘텐츠를 더 쉽게 만들 수 있게 되었다고 지적했습니다. 

해당 기관은 비록 실제 아동이 직접적으로 연루되지는 않았지만, 이러한 콘텐츠가 아동의 성적 대상화를 정상화하고 피해자 식별을 어렵게 한다고 판단했습니다 dent 또한 , UNI 는 아동의 참여나 인지 없이도 아동의 사실적인 성적 이미지를 만들어낼 수 있다고 주장했습니다

유엔아동기금 UNICEF)은 그러한 콘텐츠가 아동이 인지하지 못하는 사이에 보호받을 권리를 침해할 수 있다고 밝혔습니다. 또한, 아동들은 수치심, 낙인, 또래와 어른들의 비난, 사회적 고립, 그리고 장기적인 정서적 피해에 직면할 수 있다고 지적했습니다.

UNI CEF는 인공지능 기반 이미지 또는 비디오 생성 도구의 접근성 증가로 아동 성착취물(CSAM)의 제작 및 유포가 급증했다고 밝혔습니다. 영국의 인터넷 감시 재단(IWF)은 아동 성착취물 전용 다크웹 포럼 한 곳에서 단 한 달 만에 약 14,000개의 의심 이미지를 발견했습니다. 보고서에 따르면 해당 자료의 3분의 1은 범죄 행위였으며, 최초의 사실적인 인공지능 아동 성착취 영상이었습니다.

IWF는 또한 아동 성학대 관련 AI 영상 3,440개를 발견했는데, 이는 전년도 13개에서 26,362% 급증한 수치입니다. 이 중 2,230개(65%)는 수위가 매우 높은 A등급 영상으로 분류되었고, 나머지 1,020개(30%)는 B등급 영상으로 분류되었습니다.

IWF는 또한 dent , 여기에는 소녀들을 대상으로 하는 P2P 환경에서 제작된 딥페이크 누드 사진이 포함됩니다. 이 단체는 또한 한국에서 AI 및 딥페이크 기술을 이용한 성범죄가 2022년에서 2024년 사이에 10배 증가했다는 사례

AI와 딥페이크 관련 사건의 주요 피해자는 십대 청소년이었으며, 이들이 기소된 사람들의 대다수를 차지했습니다. 토니의 조사에 미국 십대 청소년 10명 중 1명은 친구들이 AI 도구를 이용해 아동의 동의 없이 합성된 성적 이미지를 만든 사례를 알고 있는 것으로 나타 났습니다

UNI CEF, ECPAT International, 그리고 인터폴은 11개국에서 약 120만 명의 아동이 2025년까지 AI 도구를 이용해 자신의 이미지가 성적으로 노골적인 딥페이크로 조작된 것을 발견했다고 밝혔습니다. 또한 이들 기관은 11개국에서 아동의 최대 3분의 2가 AI가 가짜 성적 이미지를 만드는 데 사용될 수 있다고 우려하고 있다고 보고했습니다

UNICEF는 부모와 보호자들이 AI를 이용한 성적 착취 및 학대에 대해 알아야 한다고 주장했습니다. 또한 학교는dent에게 AI 관련 위험과 그로 인해 피해를 입는 사람들에게 미치는 영향에 대해 교육해야 한다고 촉구했습니다.

여러 국가들이 성적인 내용을 담은 AI 딥페이크를 제작하는 Grok과의 관계를 끊고 있습니다

UNI CEF의 보고서는 일론 머스크의 AI 도구인 그록(Grok)이 실제 사람의 사진을 편집하여 노출이 심한 옷을 입은 모습으로 바꾸는 것을 금지하는 기능을 구현한 직후에 나왔습니다. 이 기능은 성적으로 대상화된 AI 딥페이크에 대한 광범위한 우려에 따른 것입니다.

영국 정부는 X사에 Grok 서비스 관리를 촉구했고, 규제기관인 오프컴은 문제 해결을 위해 24시간 노력하고 있다고 밝혔습니다. X 사는 성명을 통해 비키니, 속옷 등 실제 사람이 속옷 차림으로 있는 이미지를 해당 콘텐츠에 사용하는 것이 금지된 국가에서는 Grok 계정 및 X사의 Grok 서비스에서 해당 이미지를 생성할 수 없도록 지리적 차단 조치를 취했다고 밝혔습니다.

말레이시아와 인도네시아는 지난달 초 성적으로 노골적인 딥페이크를 생성할 수 있다는 이유로 Grok 접속을 차단했습니다. Cryptopolitan 보도에 따르면 인도네시아 정부는 X사가 인도네시아 법률 준수 수준을 개선하기로 약속한 후 Grok의 영업 재개를 허용했습니다.

프리미엄 암호화폐 거래 커뮤니티에 30일 동안 무료로 가입하세요. (정상 가격은 월 100달러입니다.)

면책 조항: 이 웹사이트에서 제공되는 정보는 교육적이고 정보 제공을 위한 목적으로만 사용되며, 금융 또는 투자 조언으로 간주되어서는 안 됩니다.

관련 기사

KeyAI