Anuncios
U.S. markets closed
  • F S&P 500

    5,122.50
    +16.00 (+0.31%)
     
  • F Dow Jones

    38,763.00
    +37.00 (+0.10%)
     
  • F Nasdaq

    17,732.75
    +126.00 (+0.72%)
     
  • E-mini Russell 2000 Index Futur

    2,016.80
    +1.90 (+0.09%)
     
  • Petróleo

    83.30
    -0.06 (-0.07%)
     
  • Oro

    2,331.60
    -10.50 (-0.45%)
     
  • Plata

    27.25
    -0.11 (-0.39%)
     
  • dólar/euro

    1.0714
    +0.0009 (+0.09%)
     
  • Bono a 10 años

    4.5980
    -0.0250 (-0.54%)
     
  • Volatilidad

    15.69
    -1.25 (-7.38%)
     
  • dólar/libra

    1.2461
    +0.0009 (+0.07%)
     
  • yen/dólar

    154.8010
    +0.0130 (+0.01%)
     
  • Bitcoin USD

    66,621.11
    -264.63 (-0.40%)
     
  • CMC Crypto 200

    1,432.02
    +17.26 (+1.22%)
     
  • FTSE 100

    8,044.81
    +20.94 (+0.26%)
     
  • Nikkei 225

    38,343.03
    +790.87 (+2.11%)
     

Wozniak, Musk y cientos más piden frenar la investigación sobre inteligencia artificial

Wozniak, Musk y cientos más piden frenar la investigación sobre inteligencia artificial
Wozniak, Musk y cientos más piden frenar la investigación sobre inteligencia artificial

No hay duda de que la inteligencia artificial fue, o está siendo, el avance tecnológico más importante de este 2023. Y aunque hay muchísima gente que está emocionada por lo que nos depare el futuro, también hay muchas otras que, de hecho, están espantadas por el crecimiento desmedido. Así pues, hicieron una petición para ralentizarlo.

Un grupo de figuras importantes del mundo de la tecnología, como Elon Musk, fundador de Tesla y SpaceX; Steve Wozniak, cofundador de Apple; Evan Sharp, cofundador de Pinterest; Craig Peters, director general de Getty Images, y cientos más, firmaron una carta abierta titulada "Pausen los experimentos gigantes de inteligencia artificial", publicada por el Future of Life Institute.

Esta carta advierte sobre los riesgos que representan los sistemas de inteligencia artificial (IA) con capacidades similares a las de los seres humanos y solicita una pausa en su desarrollo. El escrito que en los últimos meses, los laboratorios de IA se han embarcado en una carrera descontrolada para desarrollar y desplegar IAs cada vez más poderosas que nadie puede entender, predecir o controlar de manera confiable. En ella se cuestiona si debemos permitir que las máquinas inunden nuestros canales de información, automaticen todos los trabajos o, quién sabe, que incluso desarrollen otras mentes no humanas que eventualmente podrían reemplazarnos. Para prevenir efectos catastróficos, los firmantes solicitan que todos los laboratorios de IA detengan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más poderosos que GPT-4 y utilicen este tiempo para desarrollar e implementar conjuntamente protocolos de seguridad compartidos que sean rigurosamente auditados y supervisados por expertos independientes externos.

PUBLICIDAD

La carta menciona que la investigación y el desarrollo de IA deben enfocarse en hacer que los sistemas actuales y de última generación sean "más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales". También solicita el desarrollo de sistemas sólidos de gobernanza de la IA, que incluyan nuevas autoridades regulatorias dedicadas a la IA, un ecosistema sólido de auditoría y certificación, responsabilidad por los daños causados por la IA y una institución bien financiada para hacer frente a las interrupciones económicas y políticas que causará la IA. Los firmantes creen que la humanidad puede disfrutar de un futuro próspero con la IA si nos tomamos el tiempo para diseñar estos sistemas para el beneficio de todos y damos a la sociedad la oportunidad de adaptarse.

Hasta el momento, la carta cuenta con más de 1300 firmas públicas, aunque hay un mensaje que menciona que la alta demanda ha pausado su reflejado en la página web. Por lo que sabemos, miles y miles de personas podrían estar de acuerdo con ellos.

Si estás interesado, puedes agregar tu firma aquí.

¿Qué opinas de esta carta? ¡Déjanos tus comentarios!