Anuncios
U.S. markets close in 17 minutes
  • S&P 500

    5,304.92
    +58.24 (+1.11%)
     
  • Dow Jones

    39,880.47
    +322.36 (+0.81%)
     
  • Nasdaq

    16,742.81
    +231.63 (+1.40%)
     
  • Russell 2000

    2,106.22
    +20.52 (+0.98%)
     
  • Petróleo

    78.85
    +0.83 (+1.06%)
     
  • Oro

    2,390.90
    +31.00 (+1.31%)
     
  • Plata

    29.95
    +1.25 (+4.35%)
     
  • dólar/euro

    1.0884
    +0.0062 (+0.58%)
     
  • Bono a 10 años

    4.3560
    -0.0890 (-2.00%)
     
  • dólar/libra

    1.2678
    +0.0088 (+0.70%)
     
  • yen/dólar

    155.0010
    -1.4060 (-0.90%)
     
  • Bitcoin USD

    66,328.88
    +4,756.35 (+7.72%)
     
  • CMC Crypto 200

    1,389.71
    +121.76 (+9.60%)
     
  • FTSE 100

    8,445.80
    +17.67 (+0.21%)
     
  • Nikkei 225

    38,385.73
    +29.67 (+0.08%)
     

Deberían entrenar a la inteligencia artificial para que sea “mejor que nosotros”, según Edward Snowden

Austin, Texas — Los modelos de inteligencia artificial (IA) pronto podrían superar las capacidades de los humanos, pero solo si dejamos de enseñarles a pensar como nosotros y les permitimos ser “mejores”, dijo Edward Snowden, presidente de la Fundación para la Libertad de Prensa, en Consensus 2023.

Read this article in English.

El exinformante de la Agencia de Seguridad Nacional (NSA, por sus siglas en inglés), quien participó de la conferencia de manera virtual desde Rusia, compartió sus opiniones cautelosamente optimistas sobre la IA, la tecnología que se volvió viral luego del lanzamiento de ChatGPT de OpenAI en otoño pasado. Si bien en ocasiones Snowden estuvo de acuerdo con algunos expertos que advierten que las tecnologías de IA podrían darles más poder a los participantes incorrectos, también mencionó casos de uso positivos propuestos por la tecnología en ascenso.

Snowden argumentó que los modelos de IA podrían obstruir la vigilancia gubernamental en lugar de fomentar los programas de inteligencia invasiva.

PUBLICIDAD

Sigue a CoinDesk en Español.

“Tal vez podrían dejar de espiar al público y comenzar a espiar para el público”, afirmó Snowden. “Eso estaría muy bueno”.

Sin embargo, también advirtió que el lanzamiento de ChatGPT y de otros modelos de IA cada vez más sofisticados podría impulsar las iniciativas de grandes tecnologías y gobiernos para invadir la privacidad de los usuarios.

Para evitar que los participantes incorrectos hagan un mal uso de las tecnologías de IA, las personas deben luchar para que los modelos abiertos de IA permanezcan abiertos, comentó Snowden a CoinDesk.

“Las personas comenzarán a levantar la bandera roja del ‘comunismo del software’, y tenemos que declarar que los modelos deben ser abiertos”, agregó Snowden.

Snowden apuntó sus críticas específicamente a los modelos emergentes de IA que se están volviendo cada vez menos abiertos y mencionó específicamente a OpenAI.

“Es una broma de mal gusto, ¿verdad? Se niegan a proporcionar acceso público a sus datos de trading, sus modelos, su influencia, etc., pero son líderes en el espacio. Están siendo recompensados. Están siendo recompensados por comportamiento antisocial”.

En su opinión, la forma en que se utiliza la tecnología se reduce a la manera en que los investigadores entrenan a los motores de IA. Actualmente, el entrenamiento de la IA consiste en cargarla con grandes cantidades de contenido online, incluyendo comentarios en redes sociales, algo que Snowden considera que no es lo ideal.

“Están entrenando [a los modelos de IA] con hilos de Reddit”, afirmó Snowden. “Es como el equivalente en Internet de los comentarios de YouTube. Pero el objetivo es crear algo decente y bueno que sea creativo y útil”.

Según Snowden, los métodos de entrenamiento actuales se enfocan en enseñar a los modelos de AI a “pensar como nosotros”, algo que podría limitar el potencial de la tecnología para mejorar la humanidad.

“Al igual que con los niños, no necesitamos máquinas que sean como nosotros”, sostuvo Snowden. “Necesitamos que sean mejores que nosotros. Y si no lo son, entonces hicimos un trabajo muy malo”.

Artículo editado por Christie Harkin y traducido por Natalia Paulovsky.