El jefe de WhatsApp dice que la actualización de seguridad infantil de Apple es un ‘sistema de vigilancia’

Un día después de que Apple confirmara sus planes para un nuevo software que le permitirá detectar imágenes de abuso infantil en las fotos de iCloud de los usuarios, el jefe de WhatsApp dice que está «preocupado» por los planes.

En un hilo en Twitter, Will Cathcart lo llamó un «sistema de vigilancia construido y operado por Apple que podría usarse muy fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar». También planteó preguntas sobre cómo un sistema de este tipo puede ser explotado en China u otros países, o abusado por empresas de software espía.

Un portavoz de Apple cuestionó la caracterización del software por parte de Cathcart y señaló que los usuarios pueden optar por desactivar iCloud Photos. Apple también ha dicho que el sistema solo está entrenado en una base de datos de Imágenes «conocidas» proporcionado por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones, y que no sería posible hacerlo funcionar de una manera regionalmente específica ya que está integrado en iOS.

No es sorprendente que Facebook se oponga a los planes de Apple. Apple ha pasado años criticando a Facebook por su historial de privacidad, incluso cuando la red social ha adoptado el cifrado de extremo a extremo. Más recientemente, las compañías se han enfrentado por las actualizaciones de privacidad que han obstaculizado la capacidad de Facebook para rastrear a sus usuarios, una actualización que, según la compañía, afectará sus ingresos por publicidad.

Más artículos
SQUARE ENIX – @Tokyo_Game_Show 2021