Anuncios
U.S. markets open in 3 hours 29 minutes
  • F S&P 500

    5,534.25
    -9.25 (-0.17%)
     
  • F Dow Jones

    39,463.00
    -77.00 (-0.19%)
     
  • F Nasdaq

    19,973.50
    -39.00 (-0.19%)
     
  • E-mini Russell 2000 Index Futur

    2,037.10
    -3.40 (-0.17%)
     
  • Petróleo

    81.42
    +0.52 (+0.64%)
     
  • Oro

    2,322.70
    +9.50 (+0.41%)
     
  • Plata

    28.89
    -0.04 (-0.14%)
     
  • dólar/euro

    1.0701
    +0.0017 (+0.16%)
     
  • Bono a 10 años

    4.3160
    +0.0780 (+1.84%)
     
  • Volatilidad

    12.72
    +0.17 (+1.35%)
     
  • dólar/libra

    1.2649
    +0.0025 (+0.20%)
     
  • yen/dólar

    160.4790
    -0.2780 (-0.17%)
     
  • Bitcoin USD

    61,249.08
    -109.42 (-0.18%)
     
  • CMC Crypto 200

    1,268.99
    +2.85 (+0.22%)
     
  • FTSE 100

    8,209.89
    -15.44 (-0.19%)
     
  • Nikkei 225

    39,341.54
    -325.53 (-0.82%)
     

Inteligencia artificial revela cuál es la probabilidad del fin del mundo

Inteligencia artificial revela cuál es la probabilidad del fin del mundo

Un nuevo término está rondando en el mundo de la tecnología. Se trata del número ‘p(doom)’, el cual representa la probabilidad de la perdición como una ecuación matemática.

Los expertos y desarrolladores de IA (inteligencia artificial) aseguran que, preguntarle a alguien por su ‘p(doom)’, es conocer su opinión acerca de qué tan probable cree que la IA acabe con el mundo como lo conocemos.

La realidad es que esta métrica, más allá de ser una operación estadística, es un número de percepción. La medida del ‘p(doom)’ es un valor del 1 al 100, con el que científicos miden – de manera informal– la probabilidad del fin del mundo a causa de la IA.

En caso de que tengas un ‘p(doom)’ alto, equivalente al 80 o 100%, quiere decir que eres un ‘doomer’ o una persona que cree que la IA se está desarrollando demasiado rápido y de manera imprudente; asimismo, consideras que existe un punto de ‘no retorno’ ante este tipo de tecnología.

PUBLICIDAD

Según refiere el diario The New York Times, el término surgió en línea en un foro del portal LessWrong dedicado al movimiento filosófico del racionalismo, en el año 2009. El término se le atribuye a Tim Tyler, un programador de Boston. En aquellos años, Tyler no desarrolló tanto el concepto, pero se refirió a él como “probabilidad de condena”.

El fundador de LessWrong, Eliezer Yudkowsky, fue el que comenzó a utilizarlo más frecuentemente para referirse a los posibles daños de la IA. Este se habría exponenciado aún más con la aparición de plataformas como ChatGPT, Stable Diffusion o Midjourney.

Los expertos creen que el desastre por la IA podría ir desde el control total de las máquinas; la dominación de la especie a través de la tecnología; e, incluso, la extinción total de nuestra raza.

La probabilidad que consideran los expertos en su rama es la siguiente: Dario Amodei, director de Anthropic, es de entre el 10 y 25%; Lina Khan, presidenta de la Comisión Federal de Comercio de EEUU, es del 15%; y Emmett Shear, otrora director ejecutivo interino de OpenAI, de entre el 5 y 50%.