Anuncios
U.S. markets closed
  • S&P 500

    5,123.41
    -75.65 (-1.46%)
     
  • Dow Jones

    37,983.24
    -475.84 (-1.24%)
     
  • Nasdaq

    16,175.09
    -267.10 (-1.62%)
     
  • Russell 2000

    2,003.17
    -39.43 (-1.93%)
     
  • Petróleo

    85.45
    +0.43 (+0.51%)
     
  • Oro

    2,360.20
    -12.50 (-0.53%)
     
  • Plata

    27.97
    -0.28 (-0.99%)
     
  • dólar/euro

    1.0646
    -0.0085 (-0.79%)
     
  • Bono a 10 años

    4.4990
    -4.5760 (-50.42%)
     
  • dólar/libra

    1.2451
    -0.0104 (-0.83%)
     
  • yen/dólar

    153.2400
    +0.0370 (+0.02%)
     
  • Bitcoin USD

    64,482.59
    -3,033.14 (-4.49%)
     
  • CMC Crypto 200

    885.54
    0.00 (0.00%)
     
  • FTSE 100

    7,995.58
    +71.78 (+0.91%)
     
  • Nikkei 225

    39,523.55
    +80.92 (+0.21%)
     

La carrera para evitar ‘el peor escenario posible para el aprendizaje automático’

Rebecca Portnoff, directora de ciencia de datos de Thorn, en Pittsburgh, Pensilvania, el 16 de junio de 2023. (Kristian Thacker/The New York Times)
Rebecca Portnoff, directora de ciencia de datos de Thorn, en Pittsburgh, Pensilvania, el 16 de junio de 2023. (Kristian Thacker/The New York Times)

Dave Willner ha asistido en primera fila a la evolución de las peores cosas de internet.

Empezó a trabajar en Facebook en 2008, cuando las empresas de redes sociales inventaban sus normas sobre la marcha. Como responsable de la política de contenidos de la empresa, Willner redactó las primeras normas comunitarias oficiales de Facebook hace más de una década, convirtiendo lo que, según él, era una lista informal de una página que se reducía sobre todo a prohibir a “Hitler y la gente desnuda” en lo que ahora es un voluminoso catálogo de insultos, delitos y otras grotescas cosas que están prohibidas en todas las plataformas de Meta.

Así que el año pasado, cuando el laboratorio de inteligencia artificial OpenAI de San Francisco se disponía a lanzar Dall-E, una herramienta que permite a cualquiera crear al instante una imagen describiéndola con unas pocas palabras, la empresa nombró a Willner responsable de confianza y seguridad. Al principio, eso significaba examinar todas las imágenes y mensajes que los filtros de Dall-E señalaban como posibles infracciones, y encontrar formas de evitar que los posibles infractores tuvieran éxito.

PUBLICIDAD

No pasó mucho tiempo antes de que Willner se encontrara ante una amenaza conocida.

Así como los depredadores de menores habían utilizado durante años Facebook y otras grandes plataformas tecnológicas para difundir imágenes de abusos sexuales a menores, ahora intentaban usar Dall-E para crear otras totalmente nuevas. “No me sorprende que la gente intente hacerlo”, afirmó Willner. “Pero para ser muy claros, tampoco le sorprende a la gente de OpenAI”.

A pesar de todo lo que se ha dicho hace poco sobre los hipotéticos riesgos existenciales de la IA generativa, los expertos afirman que es esta amenaza inmediata —los depredadores de menores que ya aprovechan nuevas herramientas de IA— la que merece toda la atención del sector.

Julie Cordua, directora ejecutiva de Thorn, una organización sin fines de lucro que lucha contra la propagación del abuso sexual infantil en Internet, en El Segundo, California, el 21 de junio de 2023. (Stephen Goldstein/The New York Times)
Julie Cordua, directora ejecutiva de Thorn, una organización sin fines de lucro que lucha contra la propagación del abuso sexual infantil en Internet, en El Segundo, California, el 21 de junio de 2023. (Stephen Goldstein/The New York Times)

En un artículo publicado recientemente por el Observatorio de Internet de Stanford y Thorn, una organización sin fines de lucro que lucha contra la propagación de los abusos sexuales a menores en internet, los investigadores descubrieron que, desde el pasado mes de agosto, se ha producido un pequeño pero significativo aumento de la cantidad de material fotorrealista de abusos sexuales a menores generado por IA que circula por la red oscura.

Según los investigadores de Thorn, esto se ha manifestado sobre todo en imágenes que utilizan el parecido de víctimas reales pero en poses nuevas, sometidas a nuevas y cada vez más atroces formas de violencia sexual. Según los investigadores, la mayoría de estas imágenes no han sido generadas por Dall-E, sino por herramientas de código abierto desarrolladas y publicadas con escasa protección.

En su artículo, los investigadores informan de que menos del uno por ciento del material de abuso sexual infantil encontrado en una muestra de comunidades depredadoras parecían ser imágenes fotorrealistas generadas por IA. Sin embargo, dado el vertiginoso ritmo de desarrollo de estas herramientas de IA generativa, los investigadores predicen que esa cifra solo aumentará.

“Dentro de un año, vamos a llegar a un estado muy problemático en esta área”, comentó David Thiel, el tecnólogo jefe del Observatorio de Internet de Stanford, que coescribió el documento con la directora de ciencia de datos de Thorn, Rebecca Portnoff, y la jefa de investigación de Thorn, Melissa Stroebel. “Este es absolutamente el peor escenario para el aprendizaje automático que se me ocurre”.

‘Confiamos en la gente’

En 2003, el Congreso aprobó una ley por la que se prohibía la “pornografía infantil generada por computadora”, un caso poco frecuente en el que el Congreso se preparaba para el futuro. Pero en aquel momento, la creación de esas imágenes era exorbitantemente costosa y compleja a nivel tecnológico.

El costo y la complejidad de la creación de esas imágenes no han dejado de disminuir, pero cambiaron el pasado agosto con el debut público de Stable Diffusion, un generador de texto a imagen gratuito y de código abierto desarrollado por Stability AI, una empresa de aprendizaje automático con sede en Londres.

En su primera versión, Stable Diffusion ponía pocos límites al tipo de imágenes que su modelo podía producir, incluyendo las que contenían desnudos. “Confiamos en la gente y en la comunidad”, declaró Emad Mostaque, director ejecutivo de la empresa, a The New York Times el pasado otoño.

Mediante un comunicado, Motez Bishara, director de comunicaciones de Stability AI, afirmó que la empresa prohíbe el uso indebido de su tecnología con fines “ilegales o inmorales”, incluida la creación de material de abuso sexual infantil. “Apoyamos de manera firme los esfuerzos de las fuerzas de seguridad contra quienes hagan un uso indebido de nuestros productos con fines ilegales o nefastos”, señaló Bishara.

Dado que el modelo es de código abierto, los desarrolladores pueden descargar y modificar el código en sus propios ordenadores y utilizarlo para generar, entre otras cosas, pornografía adulta realista. En su artículo, los investigadores de Thorn y del Observatorio de Internet de Stanford descubren que los depredadores han modificado esos modelos para que también sean capaces de crear imágenes sexualmente explícitas de niños. En el informe, los investigadores demuestran una versión inocente de este problema, modificando una imagen de una mujer generada por la IA hasta que parece una imagen de Audrey Hepburn de niña.

Desde entonces, Stability AI ha lanzado filtros que intentan bloquear lo que la empresa denomina “contenido inseguro e inapropiado”. Y las versiones más recientes de la tecnología se construyeron utilizando conjuntos de datos que excluyen el contenido considerado “no adecuado para el lugar de trabajo”. Pero, según Thiel, la gente sigue utilizando el modelo antiguo para producir imágenes que el nuevo prohíbe.

A diferencia de Stable Diffusion, Dall-E no es de código abierto y solo se puede acceder a él a través de la propia interfaz de OpenAI. El modelo también se desarrolló con muchas más salvaguardas para prohibir la creación de imágenes de adultos desnudos, incluso legales. “Las propias modelos tienden a negarse a mantener conversaciones sexuales contigo”, explicó Willner. “Lo hacemos sobre todo por prudencia en torno a algunos de estos temas sexuales más oscuros”.

Preguntas abiertas

Thorn tiene una herramienta llamada Safer, que escanea imágenes en busca de abusos a menores y ayuda a las empresas a denunciarlas al Centro Nacional para Menores Desaparecidos y Explotados, que gestiona un centro de intercambio de información designado a nivel federal sobre material sospechoso de abusos sexuales a menores. OpenAI utiliza Safer para escanear los contenidos que los usuarios suben a la herramienta de edición de Dall-E. Esto es útil para detectar imágenes reales de niños, pero Willner afirma que incluso las herramientas automatizadas más sofisticadas podrían tener problemas para identificar con precisión las imágenes generadas por IA.

Se trata de una preocupación emergente entre los expertos en seguridad infantil: Que la IA no solo se utilice para crear nuevas imágenes de niños reales, sino también para hacer explícitas imágenes de niños que no existen.

Ese contenido es ilegal y habrá que denunciarlo. No obstante, esa posibilidad también ha suscitado la preocupación de que el centro federal de intercambio de información se vea aún más inundado de imágenes falsas que complicarían los esfuerzos por identificar a las víctimas reales. Tan solo el año pasado, la CyberTipline del centro recibió cerca de 32 millones de denuncias.

“Si empezamos a recibir denuncias, ¿podremos saberlo?”, se preguntó Yiota Souras, consejera general del Centro Nacional para Menores Desaparecidos y Explotados. “¿Estarán etiquetadas o podrán diferenciarse de las imágenes de niños reales?”.

Al menos algunas de esas respuestas tendrán que provenir no solo de empresas de IA, como OpenAI y Stability AI, sino también de empresas que gestionan aplicaciones de mensajería o plataformas de redes sociales, como Meta, la principal informadora de la CyberTipline.

El año pasado, más de 27 millones de denuncias procedieron de Facebook, WhatsApp e Instagram. Las empresas tecnológicas ya utilizan un sistema de clasificación, desarrollado por la alianza del sector Tech Coalition, para clasificar el material sospechoso de abuso sexual infantil en función de la edad aparente de la víctima y la naturaleza de los actos representados. Los investigadores de Thorn y Stanford sostienen que estas clasificaciones deberían ampliarse para reflejar también si una imagen ha sido generada por computadora.

En una declaración a The New York Times, la responsable mundial de seguridad de Meta, Antigone Davis, declaró: “Estamos trabajando para ser decididos y basarnos en pruebas en nuestro enfoque de los contenidos generados por IA, como entender cuándo sería más beneficiosa la inclusión de información identificativa y cómo debería transmitirse esa información”. Davis aseguró que la empresa trabajaría con el Centro Nacional para Menores Desaparecidos y Explotados para determinar el mejor camino a seguir.

Más allá de las responsabilidades de las plataformas, los investigadores sostienen que las empresas de IA pueden hacer mucho más. En concreto, podrían entrenar a sus modelos para que no creen imágenes de desnudos infantiles y para que identifiquen de manera clara las imágenes generadas por inteligencia artificial a medida que circulan por internet. Esto supondría introducir en esas imágenes una marca de agua más difícil de eliminar que las que ya han colocado Stability AI u OpenAI.

Mientras los legisladores tratan de regular la IA, los expertos consideran que exigir algún tipo de marca de agua o rastreo de procedencia es clave para luchar no solo contra el material de abusos sexuales a menores, sino también contra la desinformación.

“Solo se es tan bueno como el mínimo común denominador, por eso es necesario un régimen regulador”, afirmó Hany Farid, profesor de análisis forense digital en la Universidad de California, campus Berkeley.

Farid es responsable del desarrollo de PhotoDNA, una herramienta introducida en 2009 por Microsoft, que muchas empresas tecnológicas utilizan ahora para encontrar y bloquear automáticamente imágenes conocidas de abusos sexuales a menores. Farid afirma que los gigantes tecnológicos tardaron demasiado en utilizar esta tecnología tras su desarrollo, lo que permitió que la lacra del material de abusos sexuales a menores siguiera supurando abiertamente durante años. Farid está trabajando con varias empresas tecnológicas para crear una nueva norma técnica que permita rastrear las imágenes generadas por IA. Stability AI se encuentra entre las empresas que tienen previsto seguir esta norma.

Otra cuestión pendiente es cómo tratará el sistema judicial los casos presentados contra creadores de material de abuso sexual infantil generado por IA, y qué responsabilidad tendrán las empresas de IA. Aunque la ley contra la “pornografía infantil generada por computadora” existe desde hace dos décadas, nunca se ha puesto a prueba en los tribunales. Una ley anterior que intentaba prohibir lo que entonces se denominaba pornografía infantil virtual fue anulada por el Tribunal Supremo en 2002 por atentar contra la libertad de expresión.

Miembros de la Comisión Europea, la Casa Blanca y el Comité Judicial del Senado de Estados Unidos han sido informados de las conclusiones de Stanford y Thorn. Según Thiel, es fundamental que las empresas y los legisladores encuentren respuestas a estas preguntas antes de que la tecnología avance aún más e incluya elementos como el video en movimiento. “Tenemos que lograrlo antes de eso”, concluyó Thiel.

c.2023 The New York Times Company