AI 기술 발전이 불러온 불법 이미지 급증
인공지능(AI) 발전으로 인한 불법적으로 생성된 아동 성적 학대 이미지가 크게 증가했다는 보고서가 공개됐다. 온라인 안전 감시 기관인 인터넷 감시 재단(IWF)는 AI 기술이 발전하면서 아동 성적 학대 이미지의 현실성이 눈에 띄게 향상됐다고 발표했다.
2024년도 연례 보고서에 따르면, IWF는 영국 법을 위반하는 AI 생성 아동 성적 학대 이미지에 대한 245건의 보고를 받았으며, 이는 2023년의 51건에서 380% 증가한 수치다. 이들 보고 건수는 총 7,644개의 이미지와 소수의 비디오에 해당하며, 이는 하나의 URL에 여러 불법 자료가 포함될 수 있다는 점을 반영한다.
'카테고리 A' 불법 이미지, 39% 차지
보고된 이미지 중 가장 큰 비중을 차지한 것은 '카테고리 A' 자료로, 이는 관통행위 또는 가학성을 포함하는 가장 극단적인 유형의 아동 성적 학대 콘텐츠를 의미한다. 이러한 '카테고리 A' 자료는 IWF가 처리한 AI 자료의 39%에 달한다.
정부는 2월에 아동 성적 학대 자료를 생성하는 AI 도구의 소유, 제작, 배포를 불법으로 규정할 것이라고 발표하며, 경찰과 온라인 안전 운동가들의 우려를 샀던 법적 허점을 메웠다. 또한 AI 도구를 사용해 학대 이미지를 만들거나 아동을 학대하는 방법을 가르치는 매뉴얼의 소유도 불법이 된다.
IWF, 웹 상에서 확산되는 AI 생성 이미지
IWF는 AI 생성 이미지가 더 이상 다크 웹에만 존재하지 않고, 공개된 인터넷에서도 점점 더 많이 발견되고 있다고 밝혔다. 가장 정교한 AI 생성 자료는 심지어 훈련된 IWF 분석가들조차 실제 이미지와 구별하기 어려울 정도로 사실적이다.
연례 보고서에서는 2024년 아동 성적 학대 이미지를 호스팅하는 웹페이지 수가 기록적으로 많다는 사실도 발표됐다. 작년 한 해 동안 291,273건의 아동 성적 학대 이미지 보고가 있었으며, 이는 2023년보다 6% 증가한 수치다. 피해자의 대다수는 여아였다.
IWF는 또한 작은 웹사이트들이 플랫폼에서 학대 자료의 확산을 막을 수 있도록 무료로 새로운 안전 도구를 제공한다고 밝혔다. '이미지 인터셉트'라는 이 도구는 2.8백만 개의 불법 이미지를 포함한 IWF 데이터베이스에서 디지털로 표시된 이미지를 감지하고 차단할 수 있다.
온라인 공간 안전성을 위한 혁신적 도구
인터넷 감시 재단의 임시 최고 경영자인 데릭 레이힐은 이 도구를 무료로 제공하는 것이 온라인 안전에 있어 중요한 순간임을 강조했다. 기술부 장관 피터 카일은 AI 생성 학대와 아동을 협박하는 '섹스토션(sextortion)'의 증가가 온라인에서 청소년에 대한 위협이 끊임없이 진화하고 있음을 보여준다고 말했다. 그는 새로운 이미지 인터셉트 도구가 아동을 위한 온라인 공간을 보다 안전하게 만드는 데 있어 혁신이 해결책의 일부가 될 수 있음을 보여주는 강력한 사례라고 평가했다.
출처 : 원문 보러가기