성범죄 우려에 대거 삭제

AI(인공지능)문자 이미지. 로이터

인공지능(AI) 학습 훈련에 데이터베이스에서 아동 성착취 관련 이미지들이 대거 삭제됐다. 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있다는 우려에서다.

30일(현지시간) AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 ‘LAION’은 최근 미국 스탠퍼드대를 비롯해 캐나다·영국 기관들과 협업해 데이터베이스에서 아동 성착취 이미지 2000개 이상을 삭제했다. LAION은 인터넷 공간의 각종 이미지를 분류한 뒤 텍스트를 이미지로 변환해 AI에 제공하는 데이터베이스다.

문제는 데이터베이스에 존재하는 아동 성 착취 이미지가 딥페이크 성범죄 등 또 다른 아동 학대로 이어질 수 있다는 것이다.

실제로 최근 AI를 이용한 이미지 생성 사이트에서 아동을 대상으로 한 딥페이크 성범죄가 증가했다. 앞서 스탠퍼드대는 지난해 12월 LAION에서 최소 1000개 이상의 아동 성착취 이미지를 발견했다는 보고서를 발표하기도 했다.

보고서 책임 저자인 데이비드 티엘은 LAION의 아동 성착취 이미지 삭제를 환영했지만, 다음 조치도 이어져야 한다고 지적했다. 실제 아동 성착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다는 것이다.

전문가들은 아동 성착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다고 주장하고 있다.

성범죄AILAION딥페이크

면책 조항: 이 글의 저작권은 원저작자에게 있습니다. 이 기사의 재게시 목적은 정보 전달에 있으며, 어떠한 투자 조언도 포함되지 않습니다. 만약 침해 행위가 있을 경우, 즉시 연락해 주시기 바랍니다. 수정 또는 삭제 조치를 취하겠습니다. 감사합니다.