Anuncios
U.S. markets open in 9 hours 10 minutes
  • F S&P 500

    5,124.25
    +42.00 (+0.83%)
     
  • F Dow Jones

    38,337.00
    +49.00 (+0.13%)
     
  • F Nasdaq

    17,766.50
    +199.00 (+1.13%)
     
  • E-mini Russell 2000 Index Futur

    1,988.70
    -4.50 (-0.23%)
     
  • Petróleo

    83.87
    +0.30 (+0.36%)
     
  • Oro

    2,347.20
    +4.70 (+0.20%)
     
  • Plata

    27.50
    +0.15 (+0.56%)
     
  • dólar/euro

    1.0726
    -0.0007 (-0.06%)
     
  • Bono a 10 años

    4.7060
    +0.0540 (+1.16%)
     
  • Volatilidad

    15.37
    -15.97 (-50.96%)
     
  • dólar/libra

    1.2500
    -0.0011 (-0.09%)
     
  • yen/dólar

    156.0910
    +0.5110 (+0.33%)
     
  • Bitcoin USD

    64,244.05
    +82.22 (+0.13%)
     
  • CMC Crypto 200

    1,388.80
    +6.23 (+0.45%)
     
  • FTSE 100

    8,078.86
    +38.48 (+0.48%)
     
  • Nikkei 225

    37,918.25
    +289.77 (+0.77%)
     

Cecilia Danesi: “La inteligencia artificial tiene que ser una política pública”

Cecilia Danesi: "Debemos concebir a la inteligencia artificial como una aliada de la innovación, no podemos quedarnos en el debate acerca de si los robots nos van a reemplazar o no, los desafíos van mucho más allá"
gentileza

A principios de este mes, la organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) publicó un documento resultante de su conferencia general que logró el consenso a nivel mundial de los 193 países parte, junto a las principales empresas tecnológicas bajo el nombre de “Recomendación sobre la ética de la inteligencia artificial”, que constituye una exhortación a los Estados para el dictado de políticas públicas y marcos normativos internacionales y nacionales para asegurar que el avance de las tecnologías emergentes no perjudiquen y beneficien a la humanidad en su conjunto. El documento deja en claro cuál debe ser el foco en el desarrollo de la IA: la ética; entendida como sinónimo de diversidad, inclusión y sostenibilidad.

En diálogo con LA NACION Cecilia Danesi, doctoranda en IA y Derecho del Consumidor de las Universidades de Perugia y Salamanca, investigadora y docente de la UBA en la asignatura “Inteligencia Artificial y Derecho” y subdirectora del posgrado del mismo nombre para conocer el estado actual de la cuestión.

El año estelar de la inteligencia artificial: en busca del verdadero “momento Sputnik”

PUBLICIDAD

-¿Por qué es importante tener un acuerdo global que vele por el desarrollo ético de la Inteligencia Artificial (IA)?

-Según el Foro Económico Mundial, los sistemas y robots de inteligencia artificial impulsarán la productividad, reducirán los costos y mejorarán la calidad y la gama de productos que las empresas pueden producir. Para que todos y todas podamos estar en el barco del progreso, la IA tiene que ser una política pública. Debemos concebir a la IA como una aliada para ese progreso a través de la innovación, no podemos quedarnos en el debate acerca de si los robots nos van a reemplazar o no, los desafíos van mucho más allá. Si tenemos políticas públicas robustas y claras, los beneficios son para todos los sectores. Por ello, es prioritario el desarrollo de un plan estratégico nacional en materia de inteligencia artificial, tal como sucede en el resto del mundo. Según el AI Index Report 2021(Stanford University), desde que Canadá publicó la primera estrategia nacional de IA en 2017, en solo tres años lo siguieron más de 30 países y regiones. De los 27 países que conforman la UE, 20 más Noruega tenían publicada su estrategia nacional de IA a junio de 2021 y 7 estaban en la etapa final. Estas estrategias colocan a la IA en primer plano, de manera integral, interdisciplinaria y multisectorial. En la Argentina, algunas ciudades avanzan, como la ciudad de Buenos Aires que lanzó en agosto de 2021 el primer Plan de Inteligencia Artificial.

-¿Cuáles son los principales focos de interés que se tienen que contemplar para pensar este tema como política pública?

-El primero es educación y divulgación, porque son los disparadores vitales para el futuro. Miremos el caso del Programa Estratégico de IA del gobierno italiano, donde se hace hincapié en el aumento de doctorados en el área de IA, promoción de cursos y carreras STEM y, creación de nuevas cátedras de investigación en IA. Por ejemplo, en Estados Unidos, la mayoría de los graduados de doctorado en IA provienen del extranjero y de ellos, más del 80% se quedó a trabajar allí una vez finalizados sus estudios. Además, tienen un efecto contundente en los ciudadanos y la protección de las personas: un consumidor informado toma buenas decisiones. Las personas deben ser conscientes sobre el uso de estos sistemas y sus riesgos. Además, la capacitación no formal puede constituir una excelente herramienta -junto con la universitaria- para comenzar a prepararnos para los puestos de trabajo que creará la IA en el futuro. Según el World Economic Forum, la IA y los robots crearán tantos puestos de trabajo como los que desplazarán, el problema -y el desafío- es estar capacitados para ocupar esos nuevos puestos; esto debe ser una política de Estado.

-Existe evidencia del gran beneficio económico que las estrategias de IA están dando a muchas industrias, ¿esto requerirá un marco regulatorio nuevo?

-Las empresas que desarrollan IA tienen oro en polvo en sus manos. Si tomamos nuevamente de base el modelo italiano, el programa dirige sus esfuerzos al apoyo a las empresas emergentes y el fomento de la inversión en el país. Con las reglas del juego claras desde el comienzo, podemos incentivar a las pymes y empresas nacionales y extranjeras a desarrollar e implementar sistemas de IA en Argentina. El diálogo multisectorial es clave. En lo que respecta al marco regulatorio, la Unión Europea es la que lleva la delantera. Desde 2017 viene publicando diversos documentos con análisis de propuestas legislativas. En abril de 2021 dio a conocer el “Artificial Intelligence Act” que es una propuesta de regulación integral de la inteligencia artificial. Allí, entre muchas cosas, crea un Comité de la IA y establece los requisitos que van a tener que cumplir los sistemas según una clasificación basada en el riesgo: “prohibidos”, “alto riesgo”, “riesgo limitado” y “riesgo nulo”.

La inteligencia artificial y todo lo que hay que saber sobre el mundo que viene en una mañana única

-¿Cuáles son entonces las áreas clave en la regulación de la IA y cómo se logra sin que esta “mate” a la innovación?

-Son la propiedad intelectual, ética y responsabilidad civil. La primera es sin dudas una herramienta clave para fomentar la innovación e inversión en la materia, si los inventores saben que sus desarrollos estarán protegidos, estarán más motivados a crear. La ética debe tener una recepción normativa para ser cumplida. Existen muchísimos principios éticos, pero si no son vinculantes, su cumplimiento es optativo. Y la responsabilidad civil se erige como el “arma” de protección de los individuos. La reparación del daño debe resguardar a la víctima pero sin frenar la innovación, sin dudas un equilibrio difícil pero no imposible de alcanzar.

Cecilia Danesi: "El sector privado ocupa un rol fundamental. Las empresas deben estar involucradas en el desarrollo ético de la inteligencia artificial"
gentileza


Cecilia Danesi: "El sector privado ocupa un rol fundamental. Las empresas deben estar involucradas en el desarrollo ético de la inteligencia artificial" (gentileza/)

-Existen casos, como el del sistema de IA Compas, para predecir reincidencias criminales en los Estados Unidos, que han reflejado sesgos discriminatorios ¿Cómo se combaten esos sesgos?

-La IA tiene el enorme poder de agrandar y ensanchar las brechas sociales existentes; por esto, es que debemos tomar cartas en el asunto lo antes posible. Hoy en día, interactuamos con sistemas de IA que no solo influyen en nuestras decisiones, sino que las toman por nosotros. El quid de la cuestión son los sesgos algorítmicos, los cuales consisten en la inyección de los valores y prejuicios humanos en los algoritmos y que afectan derechos humanos: no discriminación, libertad de expresión, asociación, información, etc.

-¿Cuál es el rol de las empresas?

-El sector privado ocupa un rol fundamental. Las empresas deben estar involucradas en el desarrollo ético de la IA. El compromiso de los desarrolladores tecnológicos es esencial y debe ir más allá del arribo de una legislación. Desde el Ialab, y en diálogo con el sector público y privado, estamos elaborando la Certificación Ética de la IA “CetIA”. Será una guía o protocolo que podrán seguir las empresas para garantizar un uso ético de los sistemas que desarrollan.

-Mientras intentamos entender el poder de IA se anuncian nuevos mundos digitales posibles como el metaverso ¿Qué pasará cuando interactuemos en un mundo paralelo? ¿Qué leyes lo gobernarán?

-Ese mundo paralelo ya existe. Es la combinación de todas las tecnologías emergentes: inteligencia artificial, realidad aumentada, blockchain, NFT y más. Según Bloomberg Intelligence, la oportunidad de mercado para el metaverso puede alcanzar los US$800.000 millones para 2024. El impacto del metaverso en nuestras vidas es inimaginable. Por ejemplo qué pasará con la economía, la tributación de impuestos, la aplicabilidad de las leyes y la seguridad de los datos. Pensemos en los daños psíquicos que puedan derivarse de las interacciones en el metaverso: ¿servirán los avatares para reproducir estereotipos? Lo único que tenemos claro es que estos debates deben darse y para ello, tenemos que crear espacios interdisciplinarios y marcados por la diversidad para alcanzar un diálogo enriquecedor y sin puntos ciegos.