Anuncios
U.S. markets open in 5 hours 1 minute
  • F S&P 500

    5,332.00
    +0.25 (+0.00%)
     
  • F Dow Jones

    39,939.00
    -5.00 (-0.01%)
     
  • F Nasdaq

    18,745.00
    -18.00 (-0.10%)
     
  • E-mini Russell 2000 Index Futur

    2,107.50
    -2.40 (-0.11%)
     
  • Petróleo

    79.16
    -0.64 (-0.80%)
     
  • Oro

    2,421.50
    -17.00 (-0.70%)
     
  • Plata

    31.84
    -0.58 (-1.79%)
     
  • dólar/euro

    1.0866
    +0.0005 (+0.04%)
     
  • Bono a 10 años

    4.4370
    +0.0170 (+0.38%)
     
  • Volatilidad

    12.34
    +0.19 (+1.56%)
     
  • dólar/libra

    1.2712
    +0.0006 (+0.04%)
     
  • yen/dólar

    156.2100
    +0.0140 (+0.01%)
     
  • Bitcoin USD

    70,961.74
    +4,022.62 (+6.01%)
     
  • CMC Crypto 200

    1,525.74
    +37.19 (+2.50%)
     
  • FTSE 100

    8,383.86
    -40.34 (-0.48%)
     
  • Nikkei 225

    38,946.93
    -122.75 (-0.31%)
     

Las naciones están perdiendo una carrera global para tener bajo control los peligros de la IA

Los legisladores y reguladores de Bruselas, Washington y el resto del mundo están perdiendo la batalla para regular la IA y batallan para ponerse al día, en particular ahora que aumenta el desasosiego ante la posibilidad de que esta poderosa tecnología elimine empleos debido a la automatización, impulse tremendamente la propagación de desinformación y llegue a desarrollar su propio tipo de inteligencia. (Hokyoung Kim/The New York Times)

BRUSELAS — Cuando los líderes de la Unión Europea presentaron un proyecto de ley de 125 páginas con el propósito de regular el sector de la inteligencia artificial en abril de 2021, lo promovieron como un modelo global para manejar esa tecnología.

Los legisladores de la Unión Europea habían obtenido ideas de miles de expertos en IA durante tres años, cuando el tema ni siquiera se abordaba en otros países. El resultado fue una política “trascendental” y garantizada para “funcionar en el futuro”, según Margrethe Vestager, encargada de la política digital aplicable en el bloque de 27 naciones.

Entonces apareció ChatGPT.

PUBLICIDAD

El lanzamiento del chatbot de espeluznante similitud con un ser humano, que se volvió viral el año pasado gracias a las respuestas que genera para distintas entradas, tomó por sorpresa a los legisladores europeos. El tipo de IA detrás de ChatGPT ni siquiera se mencionaba en el proyecto de ley y no fue un tema central durante los diálogos sobre la política. Los legisladores y sus asesores intercambiaron un torrente de llamadas y mensajes de texto para solucionar ese vacío, pues los ejecutivos del sector tecnológico advirtieron que, si las regulaciones eran demasiado agresivas, Europa podría encontrarse en una posición de desventaja económica.

Incluso ahora, los legisladores europeos debaten qué hacer y ponen en riesgo la legislación. “Siempre estaremos rezagados dada la velocidad de la tecnología”, afirmó Svenja Hahn, integrante del Parlamento Europeo que participó en la preparación de la ley sobre IA.

Los legisladores y reguladores de Bruselas, Washington y el resto del mundo están perdiendo la batalla para regular la IA y batallan para ponerse al día, en particular ahora que aumenta el desasosiego ante la posibilidad de que esta poderosa tecnología elimine empleos debido a la automatización, impulse tremendamente la propagación de desinformación y llegue a desarrollar su propio tipo de inteligencia. Las naciones han actuado con agilidad para abordar los posibles peligros de la IA, pero la evolución de la tecnología tomó por sorpresa a los funcionarios europeos, mientras que los legisladores estadounidenses han aceptado con toda franqueza que apenas comprenden cómo funciona.

Los legisladores y reguladores de Bruselas, Washington y el resto del mundo están perdiendo la batalla para regular la IA y batallan para ponerse al día, en particular ahora que aumenta el desasosiego ante la posibilidad de que esta poderosa tecnología elimine empleos debido a la automatización, impulse tremendamente la propagación de desinformación y llegue a desarrollar su propio tipo de inteligencia. (Hokyoung Kim/The New York Times)

El resultado ha sido un sinnúmero de respuestas. El presidente Joe Biden emitió una orden ejecutiva en octubre sobre los efectos de la IA para la seguridad nacional en tanto los legisladores debaten qué medidas, en su caso, deben aprobar. Japón se encuentra en proceso de elaborar lineamientos no obligatorios para la tecnología, mientras que China ha impuesto restricciones sobre ciertos tipos de IA. El Reino Unido ha dicho que las leyes actuales son adecuadas para regular la tecnología. Arabia Saudita y los Emiratos Árabes Unidos han canalizado fondos del gobierno a la investigación de la IA.

En la raíz de estas acciones fragmentadas hay una disparidad fundamental. Los sistemas de IA avanzan con tal rapidez y son tan impredecibles que los legisladores y reguladores no pueden llevarles el paso. Esa brecha se ha agravado debido al déficit de conocimiento sobre IA de los gobiernos, la compleja burocracia y el temor de que demasiadas reglas podrían limitar involuntariamente los beneficios de la tecnología.

Incluso en Europa, que quizá sea el regulador tecnológico más agresivo del planeta, la IA ha confundido a los encargados de las políticas.

La Unión Europea ha dado marcha adelante con su nueva legislación, la Ley de IA, a pesar de los desacuerdos en cuanto a cómo manejar a los fabricantes de los sistemas de IA más recientes. Un convenio definitivo, que se espera ya para este miércoles, podría restringir ciertos usos riesgosos de la tecnología y crear requisitos de transparencia sobre el funcionamiento de los sistemas subyacentes. Pero incluso si se aprueba, no se espera que entre en vigor al menos por otros 18 meses (toda una vida en el desarrollo de la IA) y no se sabe a ciencia cierta cómo se haría valer.

“Nadie sabe si es posible regular esta tecnología o no”, enfatizó Andrea Renda, investigador del Centro Europeo de Estudios Políticos, un grupo de expertos de Bruselas. “Existe el riesgo de que este texto de la Unión Europea termine por ser prehistórico”.

La falta de normas ha dejado un vacío. Google, Meta, Microsoft y OpenAI, la creadora de ChatGPT, se controlan solas justo ahora que compiten para crear sistemas avanzados de IA y beneficiarse gracias a ellos. Muchas empresas preferirían códigos de conducta no obligatorios que les den margen para acelerar el desarrollo, así que cabildean para flexibilizar las regulaciones propuestas y crean enfrentamientos entre los gobiernos.

Si no se adopta pronto un frente unido de acción, algunos funcionarios advirtieron, es posible que los gobiernos queden todavía más rezagados con respecto a los creadores de IA y sus descubrimientos.

“Nadie, ni siquiera los creadores de estos sistemas, saben qué podrán hacer”, explicó Matt Clifford, asesor del primer ministro británico, Rishi Sunak, quien presidió una Cumbre sobre Seguridad de la IA el mes pasado a la que asistieron 28 países. “La urgencia se debe a que de verdad nos preguntamos si los gobiernos están equipados para lidiar con los riesgos y mitigarlos”.

Europa toma la delantera

A mediados de 2018, 52 académicos, expertos en ciencias de la computación y abogados se reunieron en el hotel Crowne Plaza de Bruselas para dialogar acerca de la IA. Los funcionarios de la Unión Europea los seleccionaron para darles asesoría con respecto a la tecnología, que comenzaba a llamar la atención debido a los vehículos autónomos y los sistemas de reconocimiento facial.

El grupo debatió si había suficientes reglas europeas para ofrecer protección contra la tecnología y consideraron posibles lineamientos éticos, indicó Nathalie Smuha, investigadora del área legal en Bélgica que coordinó el grupo.

En su diálogo sobre los posibles efectos de la IA (incluido el riesgo que implica la tecnología de reconocimiento facial para la privacidad de las personas), reconocieron que “había muchísimos vacíos legales” y se preguntaron qué sucedería “si las personas no se apegan a esos lineamientos”.

En 2019, el grupo publicó un informe de 52 páginas con 33 recomendaciones, incluida mayor supervisión para las herramientas de IA que podrían dañar tanto a los individuos como a la sociedad.

Este informe causó revuelo en el mundo insular de la legislación de la Unión Europea. Ursula von der Leyen, presidenta de la Comisión Europea, hizo prioritario ese tema en su agenda digital. Se designó a un grupo de 10 personas al que se le encomendó trabajar en las ideas del grupo y elaborar una ley. Otro compromiso en el Parlamento Europeo, el poder legislativo paralelo de la Unión Europea, sostuvo casi 50 audiencias y reuniones para considerar los efectos de la IA en áreas como la ciberseguridad, la agricultura, la diplomacia y la energía.

En 2020, los legisladores europeos decidieron que la mejor estrategia sería concentrarse en el uso dado a la IA en vez de la tecnología subyacente. Concluyeron que no es posible calificar a la IA como inherentemente buena o mala; todo depende de cómo se aplica.

Así que cuando se dio a conocer la Ley de IA en 2021, se concentró en usos de “alto riesgo” de la tecnología, en la policía, las admisiones escolares y las contrataciones. Evitó casi por completo regular los modelos de IA que los impulsan, con excepción de aquellos identificados como peligrosos.

Conforme a la propuesta, las organizaciones que ofrecen herramientas de IA riesgosas deben cumplir ciertos requisitos para garantizar que esos sistemas sean seguros antes de lanzarse. El software de IA que creó videos manipulados e imágenes ultrafalsas (“deepfake”) debe aclarar que las personas ven contenido generado por IA. Otros usos se prohibieron o restringieron, como el software de reconocimiento facial en vivo. A quienes contravengan esta disposición podrían imponérseles multas del seis por ciento de sus ventas globales.

Algunos expertos advirtieron que el proyecto de ley no incluía suficientes normas para las altas y bajas futuras de la IA.

“Me enviaron una versión preliminar y les regresé 20 páginas de comentarios”, señaló Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California, campus Berkeley, que fungió como asesor de la Comisión Europea. “Cualquier cosa no incluida en su lista de aplicaciones de gran riesgo no contaría, y la lista excluía a ChatGPT y la mayoría de los sistemas de IA”.

Los dirigentes de la Unión Europea estaban resueltos.

“Europa quizá no haya liderado la oleada más reciente de digitalización, pero tiene todo para ir al frente de la siguiente”, aseveró Vestager durante la presentación de la política en una conferencia de prensa en Bruselas.

Diecinueve meses después, apareció ChatGPT.

La estrategia de Washington

Jack Clark, fundador de la empresa emergente de IA Anthropic, había visitado Washington por muchos años para darles a los legisladores tutoriales de IA. Casi siempre, solo participaban unos cuantos asesores del Congreso.

Pero después de que ChatGPT se volvió viral, comenzaron a asistir a sus presentaciones muchos legisladores y asesores interesados en recibir su curso rápido sobre IA y conocer sus puntos de vista sobre la formulación de leyes.

“Todos despertaron en masa al descubrimiento de esta tecnología”, dijo Clark, cuya empresa contrató hace poco a dos empresas de cabildeo en Washington.

Debido a su falta de conocimientos de tecnología, los legisladores dependen cada vez más de Anthropic, Microsoft, OpenAI, Google y otros creadores de IA para explicar cómo funciona y ayudar a crear reglas.

“No somos expertos”, comentó el representante Ted Lieu, demócrata de California, quien invitó a Sam Altman, el director ejecutivo de OpenAI, y a más de 50 legisladores a una cena en Washington en mayo. “Es importante ser humilde”.

Las empresas tecnológicas han aprovechado su ventaja. En el primer semestre del año, muchos de los 169 cabilderos combinados de Microsoft y Google se reunieron con legisladores y con la Casa Blanca para dialogar acerca de la legislación de IA, según algunos informes de cabildeo. OpenAI registró a sus primeros tres cabilderos y un grupo de cabildeo del sector tecnológico reveló una campaña de 25 millones de dólares para promover los beneficios de la IA este año.

En ese mismo periodo, Altman se reunió con más de 100 miembros del Congreso, incluido el expresidente de la Cámara de Representantes Kevin McCarthy, republicano de California, y el líder del Senado, Chuck Schumer, demócrata de Nueva York. Después de dar su testimonio ante el Congreso en mayo, Altman emprendió un recorrido global por 17 ciudades y se reunió con líderes mundiales como el presidente francés, Emmanuel Macron, Sunak, y el primer ministro de la India, Narendra Modi.

En Washington, la actividad en torno a la IA ha estado marcada por el frenesí… pero no hay ninguna legislación que lo demuestre.

En mayo, tras una reunión en la Casa Blanca para dialogar sobre IA, se les pidió a los dirigentes de Microsoft, OpenAI, Google y Anthropic que redactaran sus propias normas para hacer más seguros sus sistemas, comentó Brad Smith, presidente de Microsoft. Después de que Microsoft presentó algunas sugerencias, la secretaria de Comercio, Gina Raimondo, le devolvió la propuesta con instrucciones de incluir más promesas, indicó.

Dos meses después, la Casa Blanca anunció que las cuatro empresas habían convenido en hacer compromisos voluntarios con respecto a la seguridad de la IA, como someter sus sistemas a pruebas de terceros encargados de supervisarlos (algo que la mayoría de las empresas ya hacían).

“Fue brillante”, señaló Smith. “En vez de que la gente del gobierno presentara ideas poco prácticas, nos dijeron: ‘Muéstrennos qué creen que pueden hacer y los alentaremos a hacer más’”.

Durante el verano, la Comisión Federal de Comercio abrió una investigación centrada en OpenAI y su manejo de los datos de los usuarios. Los legisladores no dejaron de recibir a los ejecutivos tecnológicos.

En septiembre, Schumer recibió a Elon Musk, Mark Zuckerberg de Meta, Sundar Pichai de Google, Satya Nadella de Microsoft y Altman en una reunión a puertas cerradas con legisladores en Washington con el propósito de dialogar sobre normas aplicables a la IA. Musk advirtió que la IA presenta riesgos “civilizacionales”, mientras que Altman proclamó que la IA podría resolver problemas globales como la pobreza.

Colaboración efímera

En mayo, Vestager, Raimondo y Antony Blinken, secretario de Estado de Estados Unidos, se reunieron en Lulea, Suecia, para analizar una posible cooperación en política digital.

Después de dos días de pláticas, Vestager anunció que Europa y Estados Unidos darían a conocer un código de conducta compartido para salvaguardar la IA “en unas semanas”. Les envió mensajes a sus colegas de Bruselas para pedirles que compartieran su publicación en redes sociales sobre el acuerdo, al que describió como un “gran paso en una carrera que no nos podemos dar el lujo de perder”.

Meses después, no había aparecido ningún código de conducta compartido. En cambio, Estados Unidos anunció sus propios lineamientos para la IA.

Ha habido pocos avances internacionales en el tema de la IA. En vista de la competencia económica que sostienen varios países y la desconfianza geopolítica existente, muchos han decidido establecer sus propias normas para la tecnología sin fronteras.

Algunos legisladores declararon que esperaban algunos avances en una cumbre sobre seguridad de la IA organizada por el Reino Unido el mes pasado en Bletchley Park, donde el matemático Alan Turing ayudó a descifrar el código Enigma empleado por los nazis. A la reunión asistieron la vicepresidenta Kamala Harris; Wu Zhaohui, viceministro de Ciencia y Tecnología de China, y Musk, entre otros.

El resultado fue un comunicado de 12 párrafos en el que se describe el potencial “transformador” y el riesgo “catastrófico” de mal uso de la IA. Los asistentes convinieron en reunirse de nuevo el año próximo.

A fin de cuentas, las conversaciones produjeron un acuerdo para seguir dialogando.

c.2023 The New York Times Company