Apple, iCloud를 통한 CSAM 배포 허용 혐의로 웨스트 버지니아주로부터 소송 당함

포스팅 단축 주소: https://hoyafinancial.com/fiwu

웨스트버지니아 주 법무장관 JB McCuskey는 오늘 Apple이 고의로 iCloud를 사용하여 CSAM(아동 성적 학대 자료)을 배포하고 저장하도록 허용했다고 비난하는 소송을 발표했습니다. McCuskey는 Apple이 수년간 "아무것도 하지 않는 것"을 선택했다고 말했습니다.

JB McCuskey 법무장관은 "아동 성범죄자의 사생활을 보호하는 것은 절대 변명의 여지가 없습니다. 그리고 더 중요한 것은 그것이 웨스트 버지니아 법을 위반한다는 것입니다. Apple은 지금까지 스스로 경찰을 단속하고 도덕적으로 옳은 일을 하는 것을 거부해왔기 때문에 저는 Apple이 법을 준수하고, 이러한 이미지를 신고하고, 이러한 이미지를 저장하고 공유할 수 있도록 허용하여 어린이가 다시 피해를 입는 것을 중단할 것을 요구하기 위해 이 소송을 제기합니다"라고 말했습니다.

JB McCuskey 법무장관은 "아동 성범죄자의 사생활을 보호하는 것은 절대 변명의 여지가 없습니다. 그리고 더 중요한 것은 그것이 웨스트 버지니아 법을 위반한다는 것입니다. Apple은 지금까지 스스로 경찰을 단속하고 도덕적으로 옳은 일을 하는 것을 거부해왔기 때문에 저는 Apple이 법을 준수하고, 이러한 이미지를 신고하고, 이러한 이미지를 저장하고 공유할 수 있도록 허용하여 어린이가 다시 피해를 입는 것을 중단할 것을 요구하기 위해 이 소송을 제기합니다"라고 말했습니다.

소송[PDF]에 따르면 Apple은 내부적으로 "아동 포르노 배포를 위한 최고의 플랫폼"이라고 설명했지만 Google 및 Meta와 같은 경쟁사에 비해 CSAM에 대한 보고서를 훨씬 적게 제출했습니다.

2021년에 Apple은 iCloud 사진에 저장된 이미지에서 알려진 CSAM을 감지하는 시스템을 포함하여 새로운 어린이 안전 기능을 발표했습니다. 고객, 디지털 권리 단체, 아동 안전 옹호자 및 보안 연구원의 반발 이후 Apple은 ‌iCloud Photos‌에서 CSAM 탐지 계획을 포기하기로 결정했습니다.

Apple은 이 기능을 구현하지 않겠다고 발표하면서 "회사가 개인 데이터를 뒤져보지 않고도 어린이를 보호할 수 있습니다. 우리는 청소년을 보호하고 개인 정보 보호 권리를 보호하며 인터넷을 어린이와 우리 모두를 위해 더 안전한 곳으로 만들기 위해 정부, 아동 보호 단체 및 기타 기업과 계속 협력할 것입니다"라고 밝혔습니다.

Apple은 나중에 개인 iCloud 데이터를 검색하는 도구를 만들면 "데이터 도둑이 찾아 악용할 수 있는 새로운 위협 벡터가 생성될 것"이라고 설명했습니다.

웨스트버지니아 주 법무장관은 애플이 사용자 개인 정보 보호를 가장하여 어린이를 보호할 책임을 회피했으며 탐지 기술을 배포하지 않기로 한 애플의 결정은 수동적인 감독이 아니라 선택이라고 말했습니다. 소송은 Apple이 하드웨어, 소프트웨어 및 클라우드 인프라에 대한 엔드투엔드 통제권을 갖고 있기 때문에 "알지 못하는 CSAM의 수동적 전달자"라고 주장할 수 없음을 시사합니다.

이번 소송에서는 Apple이 효과적인 CSAM 탐지 조치를 시행하도록 요구하는 징벌적 손해배상 및 금지명령 구제를 모색하고 있습니다.

Apple은 CSAM 탐지를 포기하기로 한 결정으로 2024년에도 고소당했습니다. 2,680명의 잠재적 피해자 그룹을 대표하는 소송에서는 Apple이 CSAM 모니터링 도구를 구현하지 않아 피해자들에게 지속적인 피해가 발생했다고 밝혔습니다. 해당 소송에는 12억 달러가 소요됩니다.

참고: 이 주제에 관한 토론의 정치적 또는 사회적 성격으로 인해 토론 스레드는 정치 뉴스 포럼에 있습니다. 모든 포럼 회원과 사이트 방문자는 스레드를 읽고 팔로우할 수 있지만 게시는 게시물이 100개 이상인 포럼 회원으로 제한됩니다.

포스팅 단축 주소: https://hoyafinancial.com/fiwu