Anuncios
U.S. markets closed
  • S&P 500

    5,137.08
    +40.81 (+0.80%)
     
  • Dow Jones

    39,087.38
    +90.99 (+0.23%)
     
  • Nasdaq

    16,274.94
    +183.02 (+1.14%)
     
  • Russell 2000

    2,076.39
    +21.55 (+1.05%)
     
  • Petróleo

    79.81
    +1.55 (+1.98%)
     
  • Oro

    2,091.60
    +36.90 (+1.80%)
     
  • Plata

    23.34
    +0.46 (+2.01%)
     
  • dólar/euro

    1.0839
    +0.0032 (+0.29%)
     
  • Bono a 10 años

    4.1800
    -0.0720 (-1.69%)
     
  • dólar/libra

    1.2655
    +0.0029 (+0.23%)
     
  • yen/dólar

    150.0640
    +0.0800 (+0.05%)
     
  • Bitcoin USD

    62,166.09
    +1,109.02 (+1.82%)
     
  • CMC Crypto 200

    885.54
    0.00 (0.00%)
     
  • FTSE 100

    7,682.50
    +52.48 (+0.69%)
     
  • Nikkei 225

    39,910.82
    +744.63 (+1.90%)
     

Musk y líderes tecnología piden pausar modelos más potentes de IA

(Bloomberg) -- Expertos en inteligencia artificial y líderes de la industria —incluidos Elon Musk, Stuart Russell, profesor de informática de University of California Berkeley, y el cofundador de Apple Inc. Steve Wozniak— piden a los desarrolladores que pausen el entrenamiento de modelos poderosos de IA.

Más de 1.100 personas del sector firmaron una petición solicitando una pausa de seis meses en los entrenamientos de sistemas de inteligencia artificial más potentes que la última iteración de ChatGPT de OpenAI, para permitir el desarrollo de protocolos de seguridad compartidos.

“En los últimos meses, los laboratorios de IA han estado en una carrera descontrolada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable”, dice una carta abierta publicada en el sitio web de Future of Life Institute. “Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

El llamado se produce después del lanzamiento de una serie de proyectos de IA en los últimos meses que realizan tareas humanas de manera convincente, como escribir correos electrónicos y crear arte. OpenAI, respaldada por Microsoft Corp., hizo el lanzamiento de GPT-4 este mes, una importante actualización de su chatbot impulsado por IA, capaz de contar chistes y aprobar exámenes.

Google, de Alphabet Inc., y Microsoft figuran entre las empresas que utilizan inteligencia artificial para mejorar sus motores de búsqueda, mientras que Morgan Stanley ha estado utilizando GPT-4 para crear un chatbot para sus asesores de patrimonio.

Los desarrolladores deberían trabajar con los legisladores para crear nuevos sistemas de gobierno de IA y órganos de supervisión, según la carta. Hace un llamado a los Gobiernos para que intervengan en el desarrollo de sistemas de IA si los principales actores no aceptan de manera inminente una pausa pública y verificable.

“La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”, indica.

Yoshua Bengio, fundador y director científico del instituto canadiense de investigación de IA Mila, firmó la petición, según un comunicado del instituto. Emad Mostaque, fundador y director ejecutivo de Stability AI, también dijo que la firmó.

“Hemos visto las asombrosas capacidades de GPT-4 y otros modelos masivos. Quienes los crean han dicho que podrían ser una amenaza existencial para la sociedad e incluso para la humanidad, sin un plan para mitigar totalmente estos riesgos”, dijo Mostaque. “Es hora de dejar de lado las prioridades comerciales y hacer una pausa por el bien de todos para evaluar en lugar de correr hacia un futuro incierto”.

Future of Life Institute es una organización sin ánimo de lucro que busca mitigar los riesgos asociados con tecnologías poderosas y su mayor contribuyente es Musk Foundation.

Nota Original:Musk, Tech Leaders Urge Halt to Training Powerful AI Systems (3)

--Con la colaboración de Ed Ludlow, Dina Bass, Mark Bergen y Dana Hull.

More stories like this are available on bloomberg.com

©2023 Bloomberg L.P.