Anuncios
U.S. markets close in 5 hours 23 minutes
  • S&P 500

    5,041.14
    -20.68 (-0.41%)
     
  • Dow Jones

    37,754.41
    +19.30 (+0.05%)
     
  • Nasdaq

    15,836.69
    -48.33 (-0.30%)
     
  • Russell 2000

    1,959.59
    -16.12 (-0.82%)
     
  • Petróleo

    85.06
    -0.35 (-0.41%)
     
  • Oro

    2,382.70
    -0.30 (-0.01%)
     
  • Plata

    28.08
    -0.64 (-2.24%)
     
  • dólar/euro

    1.0634
    +0.0008 (+0.07%)
     
  • Bono a 10 años

    4.6630
    +0.0350 (+0.76%)
     
  • dólar/libra

    1.2440
    -0.0006 (-0.05%)
     
  • yen/dólar

    154.6830
    +0.4660 (+0.30%)
     
  • Bitcoin USD

    62,296.12
    -3,026.55 (-4.63%)
     
  • CMC Crypto 200

    885.54
    0.00 (0.00%)
     
  • FTSE 100

    7,810.98
    -154.55 (-1.94%)
     
  • Nikkei 225

    38,471.20
    -761.60 (-1.94%)
     

Martin Hilbert: “Corremos el riesgo de que la humanidad deje de existir”

Martin Hilbert siguió de cerca los efectos digitales del coronavirus y sus conclusiones son poco optimistas: las personas no saben cómo lidiar con el poder de los algoritmos
BBC Mundo

Martin Hilbert es alemán, habla como chileno y vive en Estados Unidos, donde consolidó su prestigio como uno de los mayores expertos globales en big data, redes digitales y el poder de los algoritmos informáticos –y, por tanto, de las empresas tecnológicas– en la mente humana. Y no se va con chiquitas.

“Las redes sociales van cambiando nuestras personalidades, cambiando lo que somos”, dice. Para eso, no apuntan a lo mejor de nosotros, sino a nuestras debilidades. “Alimentan nuestro narcisismo, nuestro enojo, la envidia, la lujuria y, en especial, nuestra ansiedad”.

Keiko Fujimori: “Voy a aceptar el resultado del tribunal electoral”

PUBLICIDAD

Hilbert ve, sin embargo, ciertos indicios alentadores, con la meditación como herramienta para reflexionar sobre lo que nos pasa y cómo buscan manipularnos, planteándonos varias preguntas: “¿Qué pasa en mi mente? ¿Qué reacción quiere provocarme este post que estoy viendo? ¿Por qué me genera ganas de clickear en este link?”.

Reconocido por haber alertado sobre el rol de Cambridge Analytica en el triunfo de Donald Trump un año antes de que estallase el escándalo, Hilbert pasa unos días en Berlín, desde donde dialoga con LA NACION. “Corremos el riesgo de que la humanidad deje de existir”, dice.

Martin Hilbert. experto en tecnologías, indaga sobre el impacto de la digitalización en la sociedad
BBC Mundo


Martin Hilbert. experto en tecnologías, indaga sobre el impacto de la digitalización en la sociedad (BBC Mundo/)

–Todo lo que hemos vivido durante el año y medio de pandemia, ¿ha confirmado o corregido sus investigaciones?

–Ha mostrado lo que siempre supimos: el poder de la tecnología. Evidenció primero sus facetas más positivas, porque el lado negativo de cualquier revolución tecnológica suele corroborarse mucho después, como ocurrió con los automóviles. El primer argumento a su favor en el Congreso de Estados Unidos fue que ayudaría a limpiar las ciudades eliminando tanto excremento de caballo. Cien años después comprendimos que en realidad los autos no ayudan a limpiar las ciudades, sino que producen smog. Ahora pasa algo parecido con la pandemia. La tecnología nos salvó cuando debimos apagar la economía, pero también se expandieron muchos de sus rasgos negativos. Ahora estamos en la segunda fase de la digitalización y veremos cuáles son sus consecuencias.

–¿Qué quiere decir?

–A través de la historia, primero trabajamos en la transformación de materiales, durante las edades de Piedra, Hierro y otras. Luego transformamos la energía, a través del agua, el vapor o la electricidad. Después fue la transformación de la información. Y ahora vamos por la transformación del conocimiento, lo que nos desafía en nuestro orgullo como homo sapiens porque estas tecnologías funcionan como extensiones de nuestra mente y muy fácilmente pueden dominarla. Afrontamos un riesgo existencial, corremos el riesgo de que la humanidad deje de existir. Es un riesgo tan grave como el calentamiento global o la pandemia. Con esto no quiero decir que surgirán “Terminators” o que tendremos que luchar por nuestras vidas. Pero debemos ser mucho más conscientes de los riesgos que afrontamos.

–¿Un ejemplo?

–El algoritmo de optimización de YouTube, que está preparado para extender al máximo posible tu tiempo ante la pantalla. Eso explica que, aunque hayas entrado para ver apenas un video muy específico, puedes seguir ante la pantalla varias horas después hasta que preguntas: “¡Chuta! ¿Qué pasó? Tenía que levantarme temprano mañana, pero terminé en este agujero digital negro porque la máquina supo cómo seducir mi cerebro”. Bueno, en realidad, tu cerebro no tenía chance alguna de resistirse porque ese algoritmo, cuanto más tiempo pasas frente a la pantalla, mejor te conoce. De hecho, te conoce mejor que tu mamá y que tú mismo.

–¿Qué opciones tenemos?

–Hay varias salidas posibles. Una es que los gobiernos regulen a estas empresas; otra es que esas empresas asuman una mayor responsabilidad y se fijen límites a sí mismas. Pero déjeme decirle que también hay una vida después de Google y de Facebook. Resulta difícil de imaginar, pero la hay. Porque los sapiens somos más que simples máquinas de pensar y de sentir. Si fuera sólo por eso, las máquinas ya piensan y sienten mejor que nosotros. ¡Por eso pueden manipularnos a través de nuestra lujuria o nuestro narcisismo o cualquiera de los pecados capitales!

–Suele promover la “desinfección digital”. ¿Qué significa?

–Mira, en América Latina son los campeones de las redes sociales. Pasan conectados un promedio de tres horas y media al día, frente a dos horas diarias en Europa y Estados Unidos. Ahora, durante la pandemia, las redes fueron nuestra forma de contacto, pero esa interacción llegó a un extremo. Estas tecnologías alimentan nuestro narcicismo, nuestro enojo, la envidia, la lujuria y, en especial, nuestra ansiedad. Pero el año pasado desarrollé un estudio para la Cepal y lo que más me impresionó fue cómo cambió el comportamiento durante el tiempo libre en América Latina. En cada país de la región, chico o grande, aumentó muchísimo el interés en la meditación con respecto a 2019. Pasó del 10% al 20% entre las mujeres, y del 5% al 10% entre los hombres. Son personas que buscan desarrollar un diálogo interno que les permita comprender qué pasa en sus mentes, marcando un límite entre aquello que nos llega y lo que somos. De otro modo, las redes van cambiando nuestras personalidades, cambiando lo que somos.

–¿Tanto?

–La inteligencia artificial puede cambiar quiénes somos. Fíjese en la proliferación de las teorías de conspiración. Volvamos a YouTube. Históricamente, se estimaba que el 10% de sus recomendaciones eran videos con noticias falsas. Hasta que, en 2019, Google decidió hacer algo para combatirlas y logró reducirlas a la mitad. Ahora rondan el 5%.

–Así que, si una persona dedica una hora por día a YouTube, verá al menos 3 minutos diarios de teorías conspirativas…

–[Asiente] Y recuerde que 2000 millones de personas suelen mirar YouTube, un número equivalente a la cantidad de cristianos que hay en el mundo. No sé si todos los cristianos rezan tres minutos al día, pero sí sé que la misma cantidad de gente consume tres minutos diarios de teorías de conspiración. Por eso, mi pregunta es: ¿Quién está a cargo de nuestras mentes? Y si pensamos que 2020 fue horrible, déjeme recordarle que el 6 de enero 2021, un tipo enfundado en una piel de oso y con cuernos de vikingo tomó el Congreso de Estados Unidos, basado en una teoría de conspiración. ¡Por supuesto que podríamos usar estas tecnologías para crear el sistema más democrático que jamás haya existido! Sin embargo, nadie pone el dinero sobre la mesa para contratar 200 programadores que estudien cómo desarrollar ese sistema. Por el contrario, la National Security Agency, por sí sola, emplea a 40.000 personas, entre ellos muchísimos doctores en matemáticas y programadores. Y volviendo a los algoritmos, solo ejecutan las órdenes que reciben, sin saber si es bueno o malo. Eso lleva a que si una chica de 14 años googlea sobre cómo alimentarse bien, por ejemplo, el algoritmo terminará por mostrarle un video fomentando la anorexia.

–¿Cuáles son las preguntas que deberíamos habernos hecho? ¿Cuáles son las preguntas que deberíamos plantearnos ahora?

–[Calla por varios segundos] Creo que el error más grande que cometimos fue enfocarnos en qué podría ocurrir cuando las máquinas sobrepasaran nuestras mejores capacidades, pero no nos preguntamos qué pasaría si dominaran nuestras debilidades. En realidad, las máquinas no tienen que superar a los mejores, sino al peor de nosotros. Tiene que dominar nuestra lujuria, nuestro narcisismo, nuestro enojo, nuestra envidia. ¡Ahí nos dominan! ¡Ahí tienen el control sobre nuestra mente! Y mirando hacia delante, tengamos presente que los dueños de Microsoft, Google. Facebook, Amazon y Apple tienen más plata en su bolsillo que el 40% de los países, juntos. En ese contexto, ¿dónde está el poder del pueblo soberano? ¿Quién gobierna a quién? ¿Y qué podemos hacer? ¿Cómo podemos adaptar las regulaciones existentes a las nuevas realidades? Las leyes prohíben que un maestro, abogado, psicólogo, médico o sacerdote se aproveche para su propio beneficio de la información y de las debilidades que conoce de sus alumnos, clientes, pacientes o feligreses. Pero Facebook y Google hacen exactamente eso. Conocen tus debilidades y las aprovechan para vender.

–¿A qué punto llega ese conocimiento?

–Con diez “me gusta” que des en Facebook, la inteligencia artificial te conoce mejor que tus colegas de trabajo; con 100, mejor que tu familia; con 150, mejor que tu pareja y tu mamá; y con 200, mejor que tú mismo. Facebook puede predecir tu orientación sexual con más del 90% de precisión. La manera en que abres o cierras ventanas en tu teléfono celular les permite predecir tu personalidad en más del 80%, además de que saben exactamente dónde estás.

–¿Qué puede hacer quien lea esta entrevista?

–Para empezar, tener claro que cada uno de nosotros es parte del problema y de la solución. Somos un potencial vector de difusión de lo que está mal. Al mismo tiempo, la solución es muy similar a la que tenemos ante la pandemia: después de una interacción peligrosa: lava tu mente durante al menos 20 segundos y tapate la boca antes de decir algo, en especial cuando estuviste interactuando con algoritmos. Debemos reflexionar y respirar hondo antes de difundir algo. Tenemos que ser capaces de plantearnos varias preguntas y reflexionar: ¿Qué pasa en mi mente? ¿Qué reacción quiere provocarme este post que estoy viendo? ¿Por qué me genera ganas de clickear en este link? Debemos transcender a un nivel superior de conocimiento más allá de la acción y reacción que fomenta un algoritmo. Eso me recuerda una frase de Victor Frankl: entre el estímulo y la respuesta hay un espacio y en ese espacio está nuestro poder para elegir. En esa respuesta que demos está nuestra libertad, la libertad de la voluntad.

Después de un lento arranque, China ya administró 1000 millones de vacunas contra el Covid-19

–¿Hay alguna pregunta que no le hice y quiera abordar?

–[Calla por varios segundos] Hay estudios en los que convencieron a los usuarios de desconectarse de Facebook durante cuatro semanas y descubrieron que la polarización política disminuyó mucho, aunque la gente se involucró más políticamente. Segundo, se redujeron los síntomas de depresión y ansiedad, mientras que aumentó el bienestar mental.

–¿Hay, pues, que apagar las redes?

–[Ríe] No, nunca podremos volver a poner al genio en la botella. Además, durante esta pandemia, ¡la tecnología salvó la economía mundial! Pero tenemos que madurar, urgente.