Anuncios
U.S. markets closed
  • F S&P 500

    4,981.50
    -67.50 (-1.34%)
     
  • F Dow Jones

    37,579.00
    -428.00 (-1.13%)
     
  • F Nasdaq

    17,260.50
    -286.75 (-1.63%)
     
  • E-mini Russell 2000 Index Futur

    1,928.20
    -29.90 (-1.53%)
     
  • Petróleo

    85.42
    +2.69 (+3.25%)
     
  • Oro

    2,424.60
    +26.60 (+1.11%)
     
  • Plata

    28.81
    +0.43 (+1.52%)
     
  • dólar/euro

    1.0620
    -0.0026 (-0.24%)
     
  • Bono a 10 años

    4.6470
    +0.0620 (+1.35%)
     
  • Volatilidad

    18.00
    -0.21 (-1.15%)
     
  • dólar/libra

    1.2398
    -0.0040 (-0.32%)
     
  • yen/dólar

    153.9840
    -0.6160 (-0.40%)
     
  • Bitcoin USD

    61,146.73
    -623.80 (-1.01%)
     
  • CMC Crypto 200

    1,266.01
    +380.47 (+40.87%)
     
  • FTSE 100

    7,877.05
    +29.06 (+0.37%)
     
  • Nikkei 225

    36,922.22
    -1,157.48 (-3.04%)
     

El hallazgo en el algoritmo de YouTube: ¿qué tan fácil es que te 'laven el cerebro'?

Legisladores, ejecutivos de internet y el público deberían enfocarse en las formas en que YouTube podría contribuir a validar y endurecer los puntos de vista de personas que ya tienen inclinación hacia ideología extremista, escribe Shira Ovide. (Gabriel Gabriel Garble/The New York Times)
Legisladores, ejecutivos de internet y el público deberían enfocarse en las formas en que YouTube podría contribuir a validar y endurecer los puntos de vista de personas que ya tienen inclinación hacia ideología extremista, escribe Shira Ovide. (Gabriel Gabriel Garble/The New York Times)

Es probable que te hayas hecho una idea de las personas a las que YouTube les lava el cerebro.

Tal vez te imagines a tu primo que le encanta ver videos de animales tiernos. De repente, el algoritmo de YouTube le pone un video de reclutamiento para terroristas en la parte superior de la aplicación y continúa sugiriendo videos cada vez más extremos hasta que lo convencen de tomar las armas.

Qué dice el nuevo análisis

Un nuevo análisis agrega matiz a nuestro entendimiento del papel que YouTube desempeña en la difusión de creencias que están muy alejadas de la corriente tradicional.

Un grupo de académicos descubrió que YouTube en pocas ocasiones sugiere videos que podrían contener teorías de conspiración, fanatismo extremo o ciencia sin fundamentos a personas que han mostrado poco interés en material de ese tipo. Además, es improbable que esas personas sigan tales recomendaciones computarizadas cuando se les ofrecen. La conexión entre gatitos y terroristas es extremadamente rara.

PUBLICIDAD

Eso no significa que YouTube no desempeña un papel en la radicalización. El artículo también halló que los voluntarios de la investigación que ya tenían puntos de vista intolerantes o estaban suscritos a canales de YouTube que con frecuencia publican creencias poco convencionales eran mucho más propensos a buscar o a que les recomendaran más videos de este tipo.

Los hallazgos indican que los legisladores, los ejecutivos de internet y el público deben enfocarse menos en el riesgo potencial de que una persona sea conducida de manera involuntaria a una ideología extremista en YouTube y más en las formas en que YouTube podría contribuir a validar y endurecer los puntos de vista de personas que ya tienen inclinación hacia tales creencias.

“Hemos subestimado las formas en que las redes sociales facilitan que la demanda cumpla con la oferta de puntos de vista extremos”, opinó Brendan Nyhan, uno de los coautores del artículo y un profesor de Dartmouth College que estudia las percepciones erróneas sobre la política y el cuidado de la salud. “Incluso unas cuantas personas con puntos de vista extremos pueden hacer un gran daño al mundo”.

La gente ve más de 1000 millones de horas de videos de YouTube cada día. Hay inquietudes perennes de que el sitio propiedad de Google podría amplificar voces extremistas, silenciar expresiones legítimas o ambas situaciones, de manera similar a las preocupaciones que rodean a Facebook.

No como muchos pensaban

Esta es tan solo una pieza de investigación y más adelante menciono algunos límites del análisis. Sin embargo, lo que es intrigante es que la investigación desafía la noción binaria de que el algoritmo de YouTube crea el riesgo de convertir a cualquiera de nosotros en monstruos o de que las cosas extrañas en internet causan poco daño. Es posible que ninguna sea verdad.

Kyary Pamyu Pamyu en el YouTube Artist Lounge en Coachella 2022 . (Photo by Anna Webber/Getty Images for YouTube)
Kyary Pamyu Pamyu en el YouTube Artist Lounge en Coachella 2022 . (Photo by Anna Webber/Getty Images for YouTube) (Anna Webber via Getty Images)

Analizando los detalles, alrededor del 0,6 por ciento de los participantes en la investigación representaron alrededor del 80 por ciento del tiempo total de visualización de canales de YouTube clasificados como “extremistas”, tales como los de los personajes de extrema derecha David Duke y Mike Cernovich. (YouTube eliminó el canal de Duke en 2020).

La mayoría de esas personas no encontraron los videos por accidente, sino al seguir vínculos web, dar clic en videos de canales de YouTube a los que están suscritos o al seguir recomendaciones de YouTube. Cerca de uno de cada cuatro videos que YouTube recomienda a personas que ven un canal de YouTube extremo fue otro video similar.

Solo 108 veces durante la investigación (alrededor del 0,02 por ciento de todas las reproducciones de video que los investigadores observaron) ocurrió que alguien que estaba viendo un canal relativamente convencional de YouTube siguió una sugerencia computarizada a un canal ajeno a la corriente tradicional y al que esa persona no estaba suscrito.

El análisis indica que la mayoría de la audiencia de los videos de YouTube que promueven creencias poco convencionales está compuesta por personas que quieren verlos y, entonces, YouTube les proporciona más de lo mismo. Los investigadores descubrieron que verlos era mucho más probable entre los voluntarios que desplegaron altos niveles de resentimiento de género o racial, lo cual fue medido con base en sus respuestas a encuestas.

“Nuestros resultados dejan en claro que YouTube continúa brindando una plataforma para que contenido alternativo y extremo sea distribuido a audiencias vulnerables”, escribieron los investigadores.

Limitantes

Como todas las investigaciones, este análisis tiene limitantes. El estudio fue realizado en 2020, después de que YouTube hizo cambios significativos para evitar recomendar videos que desinformen a la gente de maneras dañinas. Eso dificulta saber si los patrones que los investigadores descubrieron en las recomendaciones de YouTube habrían sido diferentes en los años previos.

Además. expertos independientes todavía no han revisado de manera rigurosa los datos y el análisis y la investigación no examinó a detalle la relación entre observar a yutuberos como Laura Loomer y Candace Owens, algunos de los cuales los investigadores nombraron y describieron como poseedores de canales “alternativos” y una audiencia de videos extremos.

Se necesitan más estudios, pero estos hallazgos indican dos cosas. Primero, hay que reconocerle a YouTube los cambios que hizo para reducir las maneras en que el sitio impulsaba a las personas a puntos de vista fuera de la corriente tradicional que no buscaban de forma intencional.

Segundo, se necesita mayor debate sobre qué tan lejos debe llegar YouTube para reducir la exposición de ideas potencialmente extremas o peligrosas a personas con inclinación a creerlas. Incluso una pequeña minoría de la audiencia de YouTube que podría ver con regularidad videos extremos consta de varios millones de personas.

Preguntas válidas

¿Debería YouTube dificultar, por ejemplo, que las personas vinculen a videos poco convencionales (algo que la plataforma ha considerado)? ¿Debería el sitio hacer más difícil que las personas que se suscriben a canales extremistas vean esos videos o se les recomienden similares en automático? ¿O está bien el statu quo?

Esta investigación nos recuerda que debemos luchar constantemente con las formas complejas en las que las redes sociales pueden ser al mismo tiempo un espejo de la maldad en nuestro mundo y reforzarla y resistir explicaciones fáciles. Que no las hay.

© 2022 The New York Times Company

TAMBIÉN TE PUEDE INTERESAR | EN VIDEO

9 claves para fortalecer tu salud financiera