전체뉴스

Total News

애플, 아동착취 사진 탐지 시스템 도입…"감시·악용 우려"

입력 2021-08-10 16:56:37 수정 2021-08-10 16:56:37
  • 프린트
  • 글자 확대
  • 글자 축소


애플이 아동착취 음란물(CSAM)을 자동으로 탐지하는 시스템을 시험 도입한 이후 이것이 감시 등에 악용될 우려가 있다는 목소리가 커지자 애플은 '이 시스템을 감시에 사용하라'는 정부 요구가 있다면 거부할 것이라며 대응했다.

10일 CNBC와 더버지(The Verge) 등 미국 언론 보도에 따르면 애플은 자사 웹사이트에 적용한 탐지 시스템이 아이클라우드(iCloud)에 저장된 아동착취 음란물 탐색에만 제한적으로 활용될 것이라며 어떤 정부더 CSAM 외의 다른 콘텐츠를 탐지하도록 강제할 수 없다고 밝혔다.

이에 더해 애플은 자사의 자동 탐지시스템이야 말로 구글이나 마이크로소프드 같은 기업이 사용하는 아동학대 이미지 제거용 시스템보다 훨씬 프라비어시 친화적인 기술을 사용한 것이라고 강조했다.

앞서 애플은 지난주 아이클라우드에 업로드되는 콘텐츠 가운데 아동을 성적으로 착취한 음란물 이미지를 포착해 '아동실종학대방지센터(NCMEC)에 통보하는 자동 탐지시스템을 개발했다. 이 기술은 아이클라우드에 시험 도입됐으며 올해 안으로 아이폰 운영체제(iOS 15) 업데이트를 통해 배포할 계획이라고 밝혔다.

애플의 이런 시스템과 계획에 대해 아동보호단체 등은 아동학대 음란물 퇴치에 기여할 조치라며 환영했지만 보안전문가 등은 CSAM 탐지를 위한 알고리즘이 오히려 사람들은 감시 또
는 해킹하는 '백도어' 역할을 할 수 있다며 이의를 제기했다.

프라이버시 보호단체 등은 일단 콘텐츠를 들여다볼 수 있는 '백도어'가 등장하면 이것이 CSAM 외의 다른 특정 콘텐츠를 감시하는데 이용될 가능성이 항상 열려있다며 우려를 나타냈다.

이들은 특히 권위주의적 정권이 이 시스템을 활용해 반정부 콘텐츠를 감시하거나, 성소수자에 반대하는 정권이 성적 자유를 억압하는 등 부당한 일이 일어날 수 있다고 지적한다.

애플은 이런 의견에 대해 자동 탐지시스템은 성적 학대 이미지 외의 다른 것을 알아내는 데 사용될 수 없도록 안전장치를 갖췄으며, 금지된 아동착취 음란물 목록과 CSAM 판정 기준인 디지털 지문(Hash) 또한 NCMEC와 아동안전단체 등이 제공한다고 선을 그었다.

이어 "사용자의 프라이버시를 저하시키는 변경 조치를 하라는 정부 요구는 이전부터 있었지만 우리는 이런 요구를 꾸준히 거부해왔고 앞으로도 계속 거절할 것"이라며 "CSAM이 아닌 이미지를 검색 대상 목록에 추가하라는 정부 요구가 있다면 거절할 것"이라고 거듭 강조했다.



김주미 키즈맘 기자 mikim@kizmom.com
입력 2021-08-10 16:56:37 수정 2021-08-10 16:56:37

#애플 , #아동 , #음란물 , #CNBC , #감시

  • 페이스북
  • 엑스
  • 카카오스토리
  • URL
© 키즈맘, 전재 및 재배포 금지