Apple

Apple 스캔 iCloud 아동에 대한 폭력이 포함된 이미지를 검색합니다.

우리는 알고 Apple 당신은 생태계의 장치를 통과하는 데이터의 기밀성에 대해 많은 관심을 갖고 있으며, 다른 사람의 눈으로부터 매우 잘 보호됩니다. 그러나 이것이 사용자가 윤리, 도덕 및 인류와 관련된 규칙을 준수해서는 안 된다는 것을 의미하지는 않습니다.

Apple 는 사용자가 저장한 모든 이미지를 스캔할 수 있는 기술을 곧 출시할 것이라고 발표했습니다. iCloud 아동에 대한 성적 학대가 포함된 사진을 식별합니다. 아동 성적 학대 자료(CSAM).
이 기술은 Apple 올해 말에 소수의 사용자를 대상으로 파일럿 버전으로 제공될 가능성이 큽니다.

"데이터 기밀은 어디에 있습니까?"가 궁금하다면 우리가 수신하는 모든 콘텐츠를 찾으십시오. 비디오 / 사진 암호화된 프로토콜을 통해 수행됩니다. 데이터를 저장할 뿐만 아니라 iCloud 암호화되어 있지만 이러한 서비스 제공자는 데이터를 암호화할 수 있는 키를 가지고 있습니다. 여기서 우리는 뿐만 아니라 Apple. Microsoft, Google 및 기타 클라우드 데이터 스토리지 서비스도 마찬가지입니다.

저장된 데이터는 법적 조치를 요청하거나 노골적으로 법률을 위반하는 경우 복호화 및 검증할 수 있습니다. 아동 및 여성에 대한 폭력 행위에 관한 것 등.

사용자의 기밀을 유지하기 위해 회사는 NeuralHash라는 새로운 기술을 사용합니다. iCloud 그리고 데이터베이스의 다른 이미지와 비교하여 아동에 대한 폭력이 포함된 이미지를 식별합니다.
얼굴 인식이나 사물, 동물 및 기타 요소의 지능적 인식과 다소 유사합니다.

이 기술은 장치를 통해 촬영하거나 전송한 사진을 스캔하고 확인할 수 있습니다. iPhone, iPad 또는 Mac, 변경을 겪더라도.

Apple 스캔 iCloud 아동에 대한 폭력이 포함된 이미지를 검색합니다.

저자에 관하여

스텔스

컴퓨터, 휴대 전화 및 운영 체제에 대한 경험을 공유하고, 웹 프로젝트를 개발하고, 가장 유용한 자습서 및 팁을 제공하게되어 기쁩니다.
나는 "놀이"를 좋아한다 iPhone, MacBook Pro, iPad, AirPort Extreme 및 운영 체제 macOS, iOS, Android 및 Windows.

코멘트를 남겨