Apple ha sido reconocida por sus políticas de seguridad y privacidad. Pero el reciente plan de escanear fotos del iPhone ha hecho sonar la alarma en el mundo de la tecnología. Apple planea implementar este plan para poner freno a los crecientes casos de material de abuso sexual infantil (CASM).
El contenido sexual explícito no es aceptable en la sociedad tanto moral como legalmente pero el tráfico sexual lo ha hecho obligatorio. dar algunos pasos duros para empresas como Apple. Apple escaneará fotos en el iPhone y descubrirá si el usuario está involucrado en tráfico sexual o de personas y esta medida será un paso adelante para acabar con este mal en la sociedad.
Sin embargo, este nuevo plan de Apple es menospreciado por sus usuarios porque los usuarios están preocupados por su privacidad. Sin duda, esto es una violación de la privacidad en la que los datos de su teléfono no estarán seguros porque el nuevo sistema de escaneo de fotografías de Apple en el iPhone tendrá su información.
¿Está Apple escaneando las fotos de su iPhone? ¿Así es como se escanea?
La tecnología de detección de CSAM estará disponible con las nuevas actualizaciones de iOS 15, que incluirán tres funciones para controlar CASM.
- La primera función de la actualización ser control parental. Cuando esta función esté habilitada, escaneará las fotos en la aplicación Mensajes del teléfono del niño y, si se detecta algún contenido explícito, se enviará una notificación.
- La segunda función de la actualización escaneará fotos en iCloud para material de abuso sexual infantil.
- La tercera función de la actualización advertirá a los usuarios cuando utilicen Siri o la barra de búsqueda en Safari para contenido explícito.
Todos Tres características ayudarán a erradicar el mal CSAM de la sociedad al detectar y marcar contenido sexualmente explícito que involucre a niños en un dispositivo. CSAM se está propagando como un virus con millones de vídeos e imágenes. Con el tiempo, las fuerzas del orden han identificado aproximadamente 19.000 víctimas.
Apple dijo que sus nuevas funciones tienen como objetivo “ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de la sexualidad infantil”. material de abuso”.
¿Cómo funcionará esta característica?
La tecnología de detección de CSAM de Apple se basa en un algoritmo informático que escaneará imágenes de iCloud y luego las comparará con los códigos de fuentes conocidas. Imágenes de abuso sexual infantil. Estos códigos se almacenan en la base de datos de organizaciones de seguridad infantil, incluido el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
Si la foto coincide con la base de datos, una persona revisará la imagen para ver si es CSAM. Si se determina que la foto es un CSAM, Apple cerrará su cuenta y se informará a las autoridades y al NCMEC.
¿Se convertirá la nueva tecnología en una amenaza para la seguridad?
Con la introducción de nuevas funciones en la actualización, Apple ciertamente protegerá la seguridad de los usuarios porque afectará el cifrado de un extremo a otro. Esta función de escaneo puede convertirse en una laguna para el gobierno, los piratas informáticos y los empleados de la propia Apple que pueden obtener acceso no autorizado a sus datos pueden utilizarlos para motivos personales. Puede ser una grave amenaza para la privacidad del usuario porque cualquier autoridad puede comprometer dichos datos confidenciales y puede conducir a un colapso mayor de la privacidad.
Según Hijazi. "Creo que el corazón de Apple está en el lugar correcto y está tratando de hacer lo correcto aquí, pero esta medida es simplemente demasiado amplia porque sacrifica la privacidad de todos en el proceso".
Es ¿Hay alguna manera de evitar que Apple escanee las fotos?
Según Hijazi. "Si le importa su privacidad, debe asumir que cualquier dispositivo iOS es vulnerable a la omisión del cifrado de extremo a extremo y al acceso completo a las fotografías", dice. "No existe la privacidad en línea ni en ningún dispositivo conectado, y siempre debes asumir que ese es el caso y comportarte en consecuencia".
Bueno, hay una manera de evitar que Apple escanea tus fotos de iCloud y puede proteger tu privacidad. Puedes desactivar el almacenamiento de iCloud para tus fotos y garantizar tu privacidad.
Sigue los pasos para desactivar las fotos de iCloud:-
- Selecciona Configuración> Fotos
- Desactiva el control deslizante de fotos de iCloud
- Selecciona Descargar fotos y vídeos en las ventanas emergentes para descargar las fotos desde tu iCloud al dispositivo.
Conclusión:-
CSAM es un buen paso para prevenir el abuso sexual infantil, pero sí, el hecho que no se debe ignorar es que la privacidad se filtra de esta manera. Apple podría haber tomado otras medidas que no infrinjan la privacidad de los usuarios y, al mismo tiempo, se podría prevenir el abuso sexual infantil.
Sin embargo, si una persona es limpia y sabe que no hay nada sospechoso en sus datos, entonces no debería prestar oídos a ningún rumor y apoyar la noble causa y un paso dado por Apple. Síguenos en las redes sociales – .
Leer: 0