Apple 스캔 iCloud 아동에 대한 폭력이 포함된 이미지를 검색합니다.

작가 사진
stealth

우리는 알고 Apple 는 생태계의 장치를 통과하는 데이터의 기밀성에 대해 많은 관심을 갖고 있으며 엿보는 눈으로부터 잘 보호됩니다. 그러나 사용자가 윤리, 도덕 및 인류와 관련된 규칙을 준수할 필요가 없다는 의미는 아닙니다.

Apple 는 사용자가 저장한 모든 이미지를 스캔할 수 있는 기술을 곧 출시할 것이라고 발표했습니다. iCloud 아동에 대한 성적 학대가 포함된 사진을 식별합니다. 아동 성적 학대 자료(CSAM).
이 기술은 Apple 올해 말에 소수의 사용자를 대상으로 파일럿 버전으로 제공될 가능성이 큽니다.

"데이터 기밀은 어디에 있습니까?"가 궁금하다면 우리가 수신하는 모든 콘텐츠를 찾으십시오. 비디오 / 사진 암호화된 프로토콜을 통해 수행됩니다. 데이터를 저장할 뿐만 아니라 iCloud 암호화되어 있지만 이러한 서비스 제공자는 데이터를 암호화할 수 있는 키를 가지고 있습니다. 여기서 우리는 뿐만 아니라 Apple. Microsoft, Google 및 기타 데이터 스토리지 서비스 cloud 나는 똑같은 일을한다.

저장된 데이터는 법적 조치를 요청하거나 노골적으로 법률을 위반하는 경우 복호화 및 검증할 수 있습니다. 아동 및 여성에 대한 폭력 행위에 관한 것 등.

사용자의 기밀을 유지하기 위해 회사는 NeuralHash라는 새로운 기술을 사용합니다. iCloud 그리고 데이터베이스의 다른 이미지와 비교하여 아동에 대한 폭력이 포함된 이미지를 식별합니다.
얼굴 인식이나 사물, 동물 및 기타 요소의 지능적 인식과 다소 유사합니다.

이 기술은 iPhone, iPad 또는 Mac 장치를 통해 촬영되거나 전송된 사진이 변경되더라도 스캔하고 확인할 수 있습니다.

컴퓨터, 휴대폰, 운영 체제 분야에서의 경험을 공유하고 웹 프로젝트를 개발하며 가장 유용한 튜토리얼과 조언을 제공하게 되어 기쁩니다. 나는 iPhone에서 "놀이"하는 것을 좋아합니다. MacBook Pro, iPad, AirPort Extreme 및 운영 체제 macOS, iOS, 안드로이드 및 Windows.

코멘트 남김