Anuncios
U.S. markets close in 5 hours 31 minutes
  • S&P 500

    5,011.60
    -60.03 (-1.18%)
     
  • Dow Jones

    37,819.79
    -641.13 (-1.67%)
     
  • Nasdaq

    15,494.52
    -218.23 (-1.39%)
     
  • Russell 2000

    1,965.83
    -29.60 (-1.48%)
     
  • Petróleo

    82.24
    -0.57 (-0.69%)
     
  • Oro

    2,335.80
    -2.60 (-0.11%)
     
  • Plata

    27.31
    -0.04 (-0.15%)
     
  • dólar/euro

    1.0719
    +0.0018 (+0.17%)
     
  • Bono a 10 años

    4.7190
    +0.0670 (+1.44%)
     
  • dólar/libra

    1.2490
    +0.0028 (+0.22%)
     
  • yen/dólar

    155.5750
    +0.3460 (+0.22%)
     
  • Bitcoin USD

    63,703.00
    -1,697.96 (-2.60%)
     
  • CMC Crypto 200

    1,379.62
    -2.96 (-0.21%)
     
  • FTSE 100

    8,055.90
    +15.52 (+0.19%)
     
  • Nikkei 225

    37,628.48
    -831.60 (-2.16%)
     

¿Y si la sintiencia de la inteligencia artificial fuera una cuestión de grados?

Nick Bostrom, filósofo y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, en Oxford, Inglaterra, el 9 de septiembre de 2017.  (Tom Jamieson/The New York Times)
Nick Bostrom, filósofo y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, en Oxford, Inglaterra, el 9 de septiembre de 2017. (Tom Jamieson/The New York Times)

La opinión de los expertos es rotunda: la inteligencia artificial no es sintiente.

Es una suerte de corrección para la exageración que han generado los chatbots de inteligencia artificial, sobre todo en los últimos meses. Al menos dos noticias en particular han introducido la noción de chatbots con conciencia propia en nuestro imaginario colectivo.

El año pasado, un exempleado de Google manifestó su preocupación por lo que consideraba una prueba de la capacidad de percepción de la inteligencia artificial. Y en febrero, una conversación entre un chatbot de Microsoft y mi colega Kevin Roose sobre el amor y el deseo de ser humano se hizo viral y enloqueció al internet.

PUBLICIDAD

En respuesta, los expertos y periodistas se han visto en la necesidad de recordarle al público que los chatbots de inteligencia artificial no tienen conciencia. Si pueden parecer extrañamente humanos, es solo porque han aprendido a sonar como nosotros a partir de enormes cantidades de texto en internet, desde blogs de comida hasta viejas publicaciones de Facebook o entradas de Wikipedia. Son muy buenos imitadores, dicen los expertos, pero no tienen sentimientos.

Los líderes del sector están de acuerdo con esa valoración, al menos por ahora. Pero muchos insisten en que la inteligencia artificial algún día será capaz de cualquier cosa que pueda hacer el cerebro humano.

Nick Bostrom ha pasado décadas preparándose para ese día. Bostrom es filósofo y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford. También es autor del libro “Superinteligencia”. Su trabajo consiste en imaginar futuros posibles, determinar los riesgos y sentar las bases conceptuales para sortearlos. Y uno de sus intereses más antiguos es cómo gobernar un mundo lleno de mentes digitales superinteligentes.

Hablé con Bostrom acerca de la posibilidad de que la inteligencia artificial sea capaz de sentir y de cómo podría cambiar nuestras ideas fundamentales sobre nosotros mismos y nuestras sociedades.

Esta conversación se editó con fines de claridad y síntesis.

P: Muchos expertos insisten en que los chatbots no son sintientes ni conscientes, dos palabras que describen el estado de conciencia respecto del mundo que nos rodea. ¿Está de acuerdo con esta valoración de que los chatbots solo regurgitan información?

R: La conciencia es algo multidimensional, vago y confuso. Y es difícil de definir o determinar. Hay varias teorías de la conciencia que neurocientíficos y filósofos han desarrollado a lo largo de los años. Y no hay un consenso sobre cuál es la correcta. Los investigadores pueden tratar de aplicar estas teorías para probar la sintiencia de los sistemas de inteligencia artificial.

Pero yo opino que la sintiencia es una cuestión de grados. Yo estaría bastante dispuesto a atribuir cantidades muy pequeñas de sintiencia a una amplia gama de sistemas, incluidos los animales. Si se admite que no es una cuestión de todo o nada, entonces no es tan drástico decir que algunos de estos asistentes podrían ser candidatos plausibles a algunos grados de sintiencia.

En primer lugar, creo que no es justo decir que estos grandes modelos lingüísticos se limitan a regurgitar texto. Muestran destellos de creatividad, perspicacia y comprensión que son bastante impresionantes y pueden mostrar los rudimentos del razonamiento. Algunas variantes de estas inteligencias artificiales pronto podrían desarrollar una concepción de sí mismas que perdure en el tiempo, reflexionar sobre sus deseos, interactuar socialmente y establecer relaciones con los humanos.

P: ¿Qué significaría si se determinara que una inteligencia artificial es sintiente, aunque fuera solo un poco?

R: Si una inteligencia artificial mostrara signos de sintiencia, es plausible que tuviera cierto grado de estatus moral. Esto significa que habría ciertas formas de tratarla que estarían mal, así como estaría mal darle una patada a un perro o que investigadores médicos operaran a un ratón sin anestesiarlo.

Las implicaciones morales dependen del tipo y grado de estatus moral del que estemos hablando. En los niveles más bajos, quizá signifique que no debemos causarle dolor o sufrimiento innecesario. En los niveles superiores, podría significar, entre otras cosas, que debemos tener en cuenta sus preferencias y que debemos pedir su consentimiento informado antes de hacer determinadas cosas con ella.

He estado trabajando en este tema de la ética en torno a las mentes digitales y tratando de imaginar un mundo en algún momento del futuro en el que haya tanto mentes digitales como mentes humanas de todos los tipos y niveles de sofisticación. Me pregunto cómo pueden coexistir en armonía. Es todo un reto, porque hay muchos supuestos básicos sobre la condición humana que habría que replantearse.

P: ¿Cuáles son algunos de esos supuestos fundamentales que habría que reimaginar o ampliar para dar cabida a la inteligencia artificial?

R: He aquí tres. En primer lugar, la muerte: los seres humanos tienden a estar vivos o muertos. Hay casos limítrofes, pero son relativamente raros. Sin embargo, las mentes digitales podrían pausarse y reiniciarse con facilidad.

En segundo lugar, la individualidad. Aunque incluso los gemelos idénticos son bastante distintos, las mentes digitales podrían ser copias exactas.

Y en tercero, nuestra necesidad de trabajar. Hoy en día, los humanos tienen que trabajar mucho. Con la automatización total, esto podría dejar de ser necesario.

P: ¿Me puede dar algún ejemplo de cómo trastocar estos supuestos podría ponernos a prueba como sociedad?

R: Otro ejemplo evidente es la democracia. En los países democráticos, nos enorgullecemos de una forma de gobierno que da voz a todas las personas. Y suele pasar que eso se concibe como una persona, un voto.

Pensemos en un futuro en el que haya mentes exactamente iguales a las humanas, con la salvedad de que se implementan en computadoras. ¿Cómo ampliar la gobernanza democrática para incluirlas? Podría pensarse que se da un voto a cada inteligencia artificial y otro a cada ser humano. Pero entonces te das cuenta de que no es tan sencillo. ¿Y si el software se puede copiar?

El día antes de las elecciones, podrías hacer 10.000 copias de una inteligencia artificial específica y obtener 10.000 votos más. O, ¿qué pasa si las personas que construyen la inteligencia artificial pueden seleccionar sus valores y preferencias políticas? O, si eres muy rico, podrías construir muchas inteligencias artificiales. Tu influencia podría ser proporcional a tu riqueza.

P: Más de mil líderes tecnológicos e investigadores, entre ellos Elon Musk, publicaron hace poco una carta en la que advierten que el desarrollo descontrolado de la inteligencia artificial supone un “profundo riesgo para la sociedad y la humanidad”. ¿Hasta qué punto es creíble la amenaza existencial de la inteligencia artificial?

R: Desde hace mucho tiempo soy de la opinión de que la transición a la superinteligencia de las máquinas se asociará con riesgos significativos, incluidos los existenciales. Eso no ha cambiado. Creo que ahora los plazos son más cortos que en el pasado.

Y será mejor que estemos preparados para este desafío. Creo que debimos haber estado haciendo CrossFit metafórico durante las últimas tres décadas. Pero solo hemos estado tumbados en el sofá comiendo palomitas cuando debimos estar pensando en la alineación, la ética y la gobernanza de una posible superinteligencia. Es tiempo perdido que nunca recuperaremos.

P: ¿Nos podría hablar un poco más de esos desafíos? ¿Cuáles son los problemas más urgentes sobre los que deben reflexionar los investigadores, la industria tecnológica y los responsables políticos?

R: Primero, está el problema de la alineación. ¿Cómo nos aseguramos de que estos sistemas de inteligencia artificial cada vez más capaces que construimos estén en consonancia con los objetivos de las personas que los construyen? Es un problema técnico.

Luego está el problema de la gobernanza. Considero que lo más importante es que tratemos de abordarlo de forma cooperativa. En última instancia, todo esto es más grande que cualquiera de nosotros, o que una empresa, o incluso que un país.

También deberíamos evitar diseñar, de manera deliberada, inteligencias artificiales que dificulten a los investigadores determinar si tienen un estatus moral, por ejemplo, entrenándolas para negar que son conscientes o que tienen un estatus moral. Aunque no podemos tomarnos al pie de la letra los resultados verbales de los sistemas de inteligencia artificial actuales, deberíamos buscar de manera activa, sin intentar suprimir u ocultar, posibles indicios de que hayan alcanzado cierto grado de sintiencia o estatus moral.

c.2023 The New York Times Company