(우선 CSAM은 아동학대자료의 약자입니다)
사람들은 어떤 점을 걱정하냐면 :
그럼 저거 조금 바꾸면 내 아이폰에 있는 정보, 다 훔쳐 볼 수 있는 거 아니야? (클라우드가 아니라 아이폰에서 확인하니까!)
CSAM이라는 걸 증명할 증서를 주는 게 정부 기관인데, 그 정부 기관이 자기들 마음에 안 드는 사람들 잡으려고 그 증서에 자기들 원하는 걸 넣으면. 애플이 그걸 알 수 있어? 그리고 알 수 있더라도 왜 너네가 결정해?
그리고 CSAM에 사용되는 검사 방법 있잖아. 그거 돌고래 사진도 아청법에 걸리는 사진으로 인식할 수 있던데? 봐봐!
그리고 이 글은, 이 3가지에 대해서 그렇게 사람들이 생각하게 된 계기와 글을 모은 글입니다. 'ㅁ '/
안녕하세요. 눈팅만 하다가 우연히 최근에 논란이 크게 터졌던 눈팅만 한 CSAM 사건에 대해 애플의 문서를 통해 펙트 체크 글을 올리신걸 눈팅했었어요.. (https://bbs.ruliweb.com/news/board/1004/read/2199500?search_type=subject&search_key=CSAM).
이 글을 읽고서는 애플의 입장 뿐만 아니라, 왜 사람들이 왜 CSAM 기술을 보고 이에 대해서 걱정을 하는 지 이해하실 수 있는 글들을 소개하면 좋을 것 같아 글을 쓰게 되었습니다.
최대한 의견들만 올리도록 노력했고, 만약 제 생각으로 보이는 부분이 있다면 그건 제가 글을 쓰는 실력이 미숙하기 때문이므로 미리 사과와 양해의 부탁의 말씀 올려드립니다(...)
[뉴스 사이트 간단정리]
hada.io -> 본문 제목글 누르면 원문이 나옵니다.
MIT 테크놀로지 리뷰 -> 미국에서 유례깊은 IT 언론지입니다. 하루에 3개만 볼 수 있어서 (... ) 3개만 올렸습니다.
약 한 달 전, 애플은 '(애플, 아동 보호를 위한 새로운 안전기능 도입 | GeekNews (hada.io)) ' 라는 글을 발표했고. 이 글에서는 아동에게 성적인 사진을 전송하거나, CSAM인지 인식하여 경고한 뒤 법집행기관에 통보하는 기술을 도입했다고 발표했습니다. 이 기술은 미국만 적용된다고 발표했고요.
이미 이 기술은 클라우드 시스템들에는 대부분 적용되었습니다만, 이 기술은 애플이 '클라이언트, 즉 사용자의 아이폰'에서 실행한다고 해서 논란이 커졌습니다. 그러면서도 적용 대상은 '사진을 아이클라우드에 업로드하는 사람'에만 적용한다고 밝혔죠. (사생활 침해 우려 낳은 애플의 아동 성범죄 방지 기술 - MIT Technology Review)
그런데 이 기술이 만약 클라이언트에서 실행되게 된다면 이런 우려들이 생겨나요.
그러면 약간의 변형만으로도 내 기기안에 내가 올리고 싶지 않았던 다른 파일도 뒤져볼 수 있는 게 아닌가? ( 내 기기에서 실행되는 것이므로 )
CSAM인지 어떻게 추측하는가? 뉴럴해시라는 걸로 한다는 것 외에는 설명이 없지 않아?
애플이 보안이 완벽하다면서 폐쇄성을 유지하고 있는데, 이 폐쇄성떄문에 쟤네가 실제로 뭘 하는 지 잘 모르겠어. (애플의 닫힌 정원에서 펼쳐지는 숨바꼭질 - MIT Technology Review )
CSAM 리스트는 정부가 제공하는데, 만약 신뢰할 수 없고, 감시 받지 않는 정부가 CSAM 리스트에 다른 정치인들의 포스터나, 아니면 본인 정권의 위협이 되는 걸 추가하라고 요청하면 애플은 뭘 할건데? 그리고 CSAM은 해시 데이터베이스잖아. 원본 파일 뭔지 애플이 모를거고, 알 수 있고 하더라도 그게 애플이 판단할 수 있는 영역인가? ( CSAM scanning controversy was entirely predictable, Apple - 9to5Mac )