More

    La nueva función de Apple escanea imágenes de abuso infantil

    Apple se enfrenta oficialmente a los depredadores de niños con nuevas funciones de seguridad para iPhone y iPad.

    Uno busca material de abuso sexual infantil (MASI), lo que parece algo bueno. Pero tiene varios expertos en privacidad preocupados.

    ¿Entonces, cómo funciona? La función, disponible en iOS 15 y iPadOS 15 a finales de este año, utiliza una nueva tecnología patentada llamada NeuralHash para detectar imágenes CSAM conocidas.

    Antes de que la imagen se almacene en Fotos de iCloud, pasa por un proceso de comparación en el dispositivo con hashes CSAM específicos.

    Luego utiliza una tecnología llamada «umbral para compartir secretos», que no permite a Apple interpretar una foto a menos que la cuenta relacionada haya cruzado un umbral de contenido CSAM.

    Luego, Apple puede reportar cualquier contenido CSAM que encuentre al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

    Vale la pena señalar que hay espacio para falsos positivos. Matthew Green, experto en ciberseguridad y profesor asociado de la Universidad Johns Hopkins, recurrió a Twitter para expresar sus preocupaciones.

    «Decir que estamos decepcionados por los planes de Apple es quedarse corto», dijo la Electronic Frontier Foundation, argumentando que «incluso una puerta trasera completamente documentada, cuidadosamente pensada y de alcance limitado sigue siendo una puerta trasera».

    Nos comunicamos con Apple para hacer comentarios y actualizaremos esta historia cuando tengamos noticias.

    Apple dice que su umbral proporciona «un nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada».

    Una vez que un dispositivo cruza ese umbral, el informe se revisa manualmente. Si Apple encuentra una coincidencia, deshabilita la cuenta del usuario y se envía un informe al NCMEC. Los usuarios que crean que su cuenta ha sido marcada por error deberán presentar una apelación para recuperarla.

    Si bien es difícil criticar a una empresa por querer tomar medidas enérgicas contra la pornografía infantil, el hecho de que Apple tenga la capacidad de escanear las fotos de alguien en general es preocupante. Es incluso peor pensar que un ser humano real podría mirar a través de imágenes privadas solo para darse cuenta de que una cuenta fue identificada por error.

    VER TAMBIÉN:

    Apple soluciona la falla de seguridad de AirTags con una pequeña actualización de privacidad

    También es irónico que Apple, la compañía que se jacta de sus iniciativas de privacidad, específicamente sus etiquetas nutricionales y seguimiento de transparencia de aplicaciones, haya dado este paso.

    Apple asegura a los usuarios que «CSAM está diseñado teniendo en cuenta la privacidad del usuario», por lo que coincide con una imagen en el dispositivo. antes de se envía a Fotos de iCloud. Pero dijeron lo mismo sobre AirTags y, bueno, resultaron ser una pesadilla de privacidad.

    Recent Articles

    Related Stories

    Leave A Reply

    Please enter your comment!
    Please enter your name here

    Stay on op - Ge the daily news in your inbox