Anuncios
U.S. markets open in 3 hours 43 minutes
  • F S&P 500

    4,579.25
    +2.50 (+0.05%)
     
  • F Dow Jones

    36,069.00
    +59.00 (+0.16%)
     
  • F Nasdaq

    15,976.75
    -8.75 (-0.05%)
     
  • E-mini Russell 2000 Index Futur

    1,816.70
    +4.50 (+0.25%)
     
  • Petróleo

    76.26
    +0.30 (+0.39%)
     
  • Oro

    2,063.70
    +6.50 (+0.32%)
     
  • Plata

    25.67
    +0.01 (+0.02%)
     
  • dólar/euro

    1.0890
    -0.0004 (-0.03%)
     
  • Bono a 10 años

    4.3520
    0.0000 (0.00%)
     
  • Volatilidad

    12.86
    -0.06 (-0.46%)
     
  • dólar/libra

    1.2642
    +0.0014 (+0.11%)
     
  • yen/dólar

    148.0220
    -0.1430 (-0.10%)
     
  • Bitcoin USD

    38,596.64
    +839.70 (+2.22%)
     
  • CMC Crypto 200

    798.72
    +15.07 (+1.92%)
     
  • FTSE 100

    7,511.51
    +57.76 (+0.77%)
     
  • Nikkei 225

    33,431.51
    -55.38 (-0.17%)
     

En el monitoreo del abuso sexual infantil, a Apple se le presenta un dilema

SAN FRANCISCO – En 2021, Apple se vio envuelta en una controversia sobre un plan para escanear iPhones en busca de materiales de abuso sexual infantil. Los expertos en privacidad advirtieron que los gobiernos podrían abusar del sistema, y la reacción negativa fue tan severa que Apple finalmente abandonó el plan.

Nubes reflejadas en la fachada de una Apple Store en Brooklyn, el 17 de marzo de 2020. (John Taggart / The New York Times).
Nubes reflejadas en la fachada de una Apple Store en Brooklyn, el 17 de marzo de 2020. (John Taggart / The New York Times).

Dos años después, Apple está enfrentando críticas de defensores e inversores activistas de la seguridad infantil que le están pidiendo a la empresa que haga más para proteger a los niños de los abusos en línea.

Una organización de defensa de los derechos infantiles, Heat Initiative, ha recaudado 2 millones de dólares para una nueva campaña publicitaria nacional que exhorta a Apple a que detecte, informe y elimine materiales de abuso sexual infantil de iCloud, su plataforma de almacenamiento en la nube.

La próxima semana, la organización publicará anuncios digitales en sitios web que son populares entre los legisladores de Washington, como político. También colocará carteles en San Francisco y Nueva York que digan: “Los materiales de abuso sexual infantil se almacenan en iCloud. Apple lo permite”.

Las críticas provienen de un dilema que ha perseguido a Apple durante años. La compañía ha hecho de la protección de la privacidad una parte central de su discurso de venta del iPhone para los consumidores. Pero esa promesa de seguridad ha ayudado a que sus servicios y dispositivos, dos mil millones de los cuales están en uso, se conviertan en herramientas útiles para compartir imágenes de abuso sexual infantil.

La compañía está atrapada entre organizaciones defensoras de la seguridad infantil, que quieren que haga más para detener la propagación de dichos materiales, y expertos en privacidad, que quieren que mantenga la promesa de dispositivos seguros.

Un grupo de dos decenas de inversores con casi 1 billón de dólares en activos bajo gestión también le ha pedido a Apple que informe públicamente la cantidad de imágenes abusivas que detecta en sus dispositivos y servicios.

Dos inversores —Degroof Petercam, gestor de activos belga, y Christian Brothers Investment Services, una firma de inversión católica— presentarán este mes una propuesta de accionistas que le exigirá a Apple que proporcione un informe detallado sobre cuán efectivas son sus herramientas de seguridad para proteger a los niños.

“Apple parece estar atrapada entre la privacidad y la acción”, afirmó Matthew Welch, especialista en inversiones de Degroof Petercam. “Pensamos que una propuesta despertaría a la directiva y haría que se tomara esto más en serio”.

Apple ha respondido rápidamente a los defensores de la seguridad infantil. A principios de agosto, sus ejecutivos de privacidad se reunieron con el grupo de inversores, según informó Welch. Luego, el jueves, la compañía respondió a un correo electrónico de Heat Initiative con una carta que defendía su decisión de no monitorear iCloud. Apple compartió la correspondencia en cuestión con Wired, una publicación de tecnología.

En la carta de Apple, Erik Neuenschwander, director de privacidad del usuario y seguridad infantil, afirmó que la compañía había llegado a la conclusión de que “no era posible de forma práctica” escanear las fotos de iCloud sin “poner en peligro la seguridad y privacidad de nuestros usuarios”.

“Monitorear un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada”, dijo Neuenschwander.

Nueva función

Añadió que Apple ha creado una nueva función predeterminada para todas las cuentas de niños que interviene con una advertencia si reciben o intentan enviar imágenes de desnudos. Está diseñada para prevenir la creación de nuevo material de abuso sexual infantil y limitar los riesgos de que los depredadores coaccionen y chantajeen a los niños por dinero o imágenes de desnudos. También ha puesto esas herramientas a disposición de los desarrolladores de aplicaciones.

En 2021, Apple declaró que utilizaría una tecnología de autenticación llamada “hashing” de imágenes para detectar material abusivo en iPhones y en iCloud.

Pero la compañía no logró comunicar ese plan ampliamente a los expertos en privacidad, lo que intensificó su escepticismo y alimentó la preocupación de que los gobiernos puedan abusar de la tecnología, afirmó Alex Stamos, director del Observatorio de Internet de la Universidad Stanford en el Cyber Policy Center, quien se opuso a la idea.

El año pasado, la compañía abandonó discretamente su plan de monitorear iCloud, lo que tomó por sorpresa a las organizaciones defensoras de la seguridad infantil.

Apple ha recibido elogios tanto de organizaciones de privacidad como de seguridad infantil por sus esfuerzos para frenar la creación de nuevas imágenes de desnudos en iMessage y otros servicios. Pero Stamos, que aplaudió la decisión de la compañía de no escanear los iPhones, dijo que podría hacer más para evitar que la gente comparta imágenes problemáticas en la nube.

“Puedes tener privacidad si guardas algo para ti, pero si compartes algo con otra persona, no obtienes la misma privacidad”, comentó Stamos.

Varios gobiernos de todas partes del mundo están presionando a Apple para que tome medidas. El año pasado, el comisionado de seguridad electrónica en Australia publicó un informe en el que criticaba a Apple y a Microsoft por no hacer más para vigilar de manera proactiva sus servicios en busca de material abusivo.

En Estados Unidos, Apple presentó 160 informes en 2021 al Centro Nacional para Niños Desaparecidos y Explotados, un centro de información designado a nivel federal para el material abusivo. Google realizó 875.783 informes, mientras que Facebook generó 22 millones. Estos informes no siempre reflejan el material realmente abusivo; a algunos padres se les suspendieron sus cuentas de Google y fueron denunciados a la policía por imágenes de sus hijos que no eran de índole criminal.

c.2023 The New York Times Company

TAMBIÉN TE PUEDE INTERESAR | EN VIDEO

Apple presentaría muy pronto el iPhone 15 y el iPhone 15 Pro-Max