딥페이크 포르노 또는 AI누드의 표적이 된 경우 해야할 일

박윤석 VP 승인 2024.06.14 13:39 | 최종 수정 2024.07.01 11:40 의견 0

크레딧: Pixabay/CC0 퍼블릭 도메인

이번 주, 빅토리아의 바커스 마쉬 그래머 스쿨(Bacchus Marsh Grammar School)의 여학생 약 50명은 인스타그램과 스냅챗에서 동의 없이 공유된 성적으로 노골적인 가짜 이미지를 발견했습니다. 소셜미디어에서 입수한 것으로 알려진 이들의 얼굴 이미지는 인공지능(AI)을 이용해 포르노 이미지에 합성되어 있었습니다.

딥페이크 포르노 또는 우리 팀이 "AI 생성 이미지 기반 성적 학대"라고 부르는 것은 AI를 사용하여 말하거나 행동하지 않은 행동이나 말을 하는 사람의 누드 및/또는 성적 이미지를 만드는 것을 포함합니다.

유명인과 공인, 주로 여성은 거의 10년 동안 이러한 학대를 경험해 왔으며, 다양한 딥페이크 포르노 사이트와 "누드 앱"을 온라인에서 쉽게 구할 수 있습니다.

그러나 이러한 기술에 대한 접근성이 높아지고 정교해짐에 따라 이 문제가 가정과 학교에 스며들기 시작했습니다. 십대들—심지어 어린이들까지—이 표적이 되고 있습니다.

딥페이크 악용은 얼마나 널리 퍼져 있습니까?

2023년, 저와 제 동료들은 10개국에서 16,000명 이상의 성인을 대상으로 설문조사를 실시했는데, 특히 서구 국가에서 광범위한 언론 보도에도 불구하고 딥페이크 포르노의 개념이 잘 알려져 있지 않다는 것을 발견했습니다. 그러나 이에 대한 정보를 받았을 때 대부분의 응답자는 이를 범죄화해야 한다고 답했습니다.

호주 응답자 중 3.7%는 성인이 되어서도 딥페이크 포르노의 피해자였습니다. 이것은 우리가 조사한 나라들에서 보고된 가장 높은 비율이었습니다.

동시에 호주 응답자의 2.4%는 동의 없이 다른 사람의 딥페이크 사진이나 동영상을 제작, 공유 또는 공유하겠다고 위협한 적이 있다고 답했습니다. 이 역시 미국을 제외하고 우리가 조사한 다른 모든 나라들보다 높은 수치였습니다.

남성은 자신이 딥페이크 학대의 피해자라고 신고할 가능성이 더 높았고, 가해자라고 신고할 가능성이 더 높았스니다. 남성은 또한 딥페이크 포르노를 보거나, 만들거나, 공유하는 것이 문제가 된다고 생각할 가능성이 적었습니다.

표적이 된 경우 어떻게 해야 합니까?

이미지 기반 학대는 고통스러운 경험이 될 수 있습니다. 그러나 피해자는 혼자가 아니며 자신의 잘못이 아니며 많은 도움이 있다는 것을 알아야 합니다. 다음은 그들이 취할 수 있는 몇 가지 단계입니다.

1. 신고하기

미성년자의 딥페이크 성적 이미지를 만들거나 공유하는 행위는 호주 연방 아동 성적 학대 자료('아동 포르노') 법에 따른 형사 범죄입니다. 성인의 동의하지 않은 딥페이크 포르노를 공유하는 것도 범죄입니다(빅토리아에 거주하는 경우 이를 만드는 것도 범죄입니다).

본인이 피해자이든 피해자인지 여부에 관계없이 딥페이크 학대를 디지털 플랫폼, 호주 아동 착취 방지 센터(묘사된 사람이 미성년자인 경우) 및 eSafety Commissioner에 신고할 수 있습니다.

위험에 처한 경우 트리플제로(000)로 경찰이나 구급차에 연락하십시오. 응급 상황이 아닌 경우 경찰 지원 라인(131 444) 또는 지역 경찰서에 전화할 수 있습니다. 온라인에서 다른 사람의 동의하지 않은 딥페이크 포르노를 접한 방관자인 경우에도 동일한 단계가 적용됩니다.

eSafety 커미셔너는 연방 온라인 안전법에 따라 이미지 기반 학대에 대해 조치를 취할 수 있으며, 피해자 및 지지자와 협력하여 24시간 이내에 콘텐츠를 삭제할 수 있습니다. 또한 조치를 취하지 않는 개인 및 기술 회사에 공식 경고, 게시 중단 명령 및 민사 처벌을 내릴 수 있습니다.

불행히도 딥페이크 콘텐츠는 초기 플랫폼에서 삭제된 후에도 계속 유포될 수 있습니다.

2. 도움 구하기

표적이 된 경우 친구, 가족, 교사, 상담사 또는 심리학자와 같이 신뢰할 수 있는 사람과 이야기하는 것이 좋습니다.

저희 웹사이트에는 원주민 및 토레스 해협 섬 주민, 이민자 및 난민, 청소년, 장애인, LGBTQI+ 커뮤니티 주민 및 성노동자를 위한 전문 서비스를 포함하여 이미지 기반 학대의 피해자-생존자를 위한 관련 지원 서비스 목록이 있습니다.

이 경험에 대해 이야기할 준비가 되지 않았더라도 eSafety 커미셔너의 웹사이트를 포함하여 온라인에서 이미지 기반 학대에 대한 유용한 정보를 찾을 수 있습니다.

또한 Umibot이라는 챗봇을 개발하여 딥페이크 악용을 포함한 이미지 기반 악용을 경험한 사람들에게 무료로 비밀이 보장되는 조언과 지원을 제공합니다. Umibot에는 목격자와 가해자에 대한 정보도 있습니다.

원주민이나 토레스 해협 섬 주민이라면 WellMob을 확인할 수 있습니다. 이것은 사회적, 정서적 웰빙에 대한 정보를 제공하기 위해 호주 원주민이 만든 온라인 리소스입니다.

청소년을 위한 리소스는 ReachOut, Beyond Blue, Youth Law Australia 및 Kids Helpline에서도 구할 수 있습니다.

3. 확산을 막기 위해 디지털 해시 만들기

영국의 리벤지 포르노 헬프라인(Revenge Porn Helpline)과 메타(Meta)는 피해자 생존자를 위한 두 가지 디지털 해싱 도구를 개발했습니다. 성인을 위한 Stop NCII와 미성년자를 위한 Take It Down이 있습니다.

전 세계 누구나 이러한 도구를 사용하여 장치에서 이미지를 스캔하여 익명의 디지털 해시(고유한 숫자 코드)를 생성할 수 있습니다. 그런 다음 이 해시는 계획에 참여하는 회사(Facebook, Instagram, Pornhub, TikTok 및 OnlyFans 포함)와 공유되어 플랫폼에서 일치하는 항목을 감지하고 차단할 수 있습니다. 이미지를 업로드할 필요가 없으므로 다른 사람이 이미지를 볼 수 없으며 기기를 떠나지도 않습니다.

이 도구는 체계에 속하지 않는 플랫폼에 이미지가 표시되는 것을 차단하지 않는다는 점에 유의하는 것이 중요합니다. 또한 도구를 사용하려면 먼저 이미지에 액세스할 수 있어야 합니다.

4. 가해자를 차단하고, 신고하고, 거리를 두세요(안전한 경우)

모바일과 소셜 미디어를 통해 가해자를 차단하고 관련 플랫폼 및 당국에 신고할 수 있습니다. 플랫폼의 경우 신고가 접수되면 어떻게 처리될지 항상 명확하지 않으므로 이에 대해 문의하는 것이 좋습니다.

가해자가 동급생이나 학생과 같이 아는 사람인 경우 당국은 더 이상 그 사람과 교류하지 않도록 조치를 취할 수 있습니다.

지난주에는 멜버른의 살레시오 대학에서 한 남학생이 AI를 사용해 여교사의 성적으로 노골적인 이미지를 만든 후 퇴학당했습니다.

5. 온라인 안전 강화

eSafety 커미셔너는 소셜 미디어에서 개인 정보 설정을 변경하는 방법부터 강력한 암호를 선택하는 방법에 이르기까지 다양한 온라인 안전 주제에 대한 단계별 비디오 가이드를 제공합니다.

가족 또는 가정 폭력을 경험하는 여성의 경우 다음 자료도 도움이 될 수 있습니다.

- 여성을 위한 WESNET의 포괄적인 안전 및 개인 정보 보호 툴킷

- 호주 eSafety 커미셔너(Australian eSafety Commissioner) 온라인 안전 체크리스트

- 1800 RESPECT의 장치 안전 페이지

이상의 기사는 2024년 6월 12일 Phys.org에 게재된 “What to do if you or someone you know is targeted with deepfake porn or AI nudes”제목의 기사 내용을 편집하여 작성하였습니다.

* 원문정보 출처 : What to do if you or someone you know is targeted with deepfake porn or AI nudes (phys.org)

* 국내 신고센터 : 디지털성범죄피해자지원센터

저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지