Anuncios
U.S. markets close in 6 hours 25 minutes
  • S&P 500

    5,246.57
    -1.92 (-0.04%)
     
  • Dow Jones

    39,815.38
    +55.30 (+0.14%)
     
  • Nasdaq

    16,359.54
    -39.98 (-0.24%)
     
  • Russell 2000

    2,114.35
    +44.19 (+2.13%)
     
  • Petróleo

    82.40
    +1.05 (+1.29%)
     
  • Oro

    2,231.30
    +18.60 (+0.84%)
     
  • Plata

    24.75
    -0.01 (-0.03%)
     
  • dólar/euro

    1.0812
    -0.0018 (-0.16%)
     
  • Bono a 10 años

    4.2200
    +0.0240 (+0.57%)
     
  • dólar/libra

    1.2639
    +0.0001 (+0.01%)
     
  • yen/dólar

    151.3200
    +0.0740 (+0.05%)
     
  • Bitcoin USD

    71,126.95
    -285.40 (-0.40%)
     
  • CMC Crypto 200

    885.54
    0.00 (0.00%)
     
  • FTSE 100

    7,956.36
    +24.38 (+0.31%)
     
  • Nikkei 225

    40,168.07
    -594.66 (-1.46%)
     

Disputa con la Casa Blanca revela el punto ciego de Facebook sobre la desinformación

El director ejecutivo de Facebook, Mark Zuckerberg, concibió en 2018 la idea de tener un organismo independiente que actuara como una especie de Corte Suprema para Facebook. (Laura Morton para The New York Times)
El director ejecutivo de Facebook, Mark Zuckerberg, concibió en 2018 la idea de tener un organismo independiente que actuara como una especie de Corte Suprema para Facebook. (Laura Morton para The New York Times)

SAN FRANCISCO— Al comienzo de la pandemia, un grupo de analistas de datos en Facebook sostuvo una reunión con ejecutivos para solicitar recursos que ayudaran a medir la prevalencia de la desinformación sobre el COVID-19 en la red social.

Los analistas dijeron que averiguar cuántos usuarios de Facebook habían visto información falsa o engañosa sería complejo y que tal vez tomaría un año o más, según dos personas que participaron en la reunión. Sin embargo, añadieron que, si se establecían algunas nuevas contrataciones en el proyecto y se reasignaban algunos empleados, la compañía podría comprender mejor cómo los datos incorrectos sobre el virus se propagaban en la plataforma.

Los ejecutivos nunca aprobaron los recursos y al equipo nunca se le informó la razón, según los involucrados, quienes solicitaron la condición de anonimato porque no estaban autorizados para conversar con periodistas.

PUBLICIDAD

Ahora, más de un año después, Facebook se ha visto envuelto en una inmensa controversia por el mismo tipo de información que los analistas de datos esperaban rastrear.

La Casa Blanca y otras agencias federales han presionado a la compañía para que entregue datos sobre cómo se difunden en línea las narrativas contra las vacunas y han acusado a Facebook de retener información clave. El viernes 16 de julio, el presidente estadounidense, Joe Biden, acusó a la compañía de “matar personas” al permitir que la información falsa circule ampliamente. El lunes 19 de julio, flexibilizó un poco el tono y prefirió responsabilizar a las personas que originan las mentiras.

“Cualquiera que esté escuchando eso, está siendo perjudicado”, dijo Biden, quien agregó que esperaba que en vez de “tomárselo de manera personal”, Facebook “haría algo con respecto a la desinformación”.

La compañía ha respondido con estadísticas que muestran cuántas publicaciones con desinformación ha eliminado, así como la cantidad de estadounidenses a los que les ha dirigido información real sobre la respuesta del gobierno a la pandemia. En una publicación en el blog el sábado 17 de julio, Facebook le pidió al gobierno de Biden que dejara de “señalar responsables” y culpar a Facebook tras no haber cumplido su objetivo de vacunar al 70% de los adultos estadounidenses para el 4 de julio.

“Facebook no es la razón por la que no se logró ese objetivo”, dijo en la publicación Guy Rosen, vicepresidente de integridad de Facebook.

Sin embargo, el contrapunteo tocó una fibra incómoda para la empresa: en realidad desconoce muchos detalles sobre cómo se ha propagado la desinformación sobre el coronavirus y las vacunas para combatirlo. Ese punto ciego ha reforzado las preocupaciones entre los investigadores de la desinformación sobre la selectiva liberación de datos de Facebook y cuán agresivamente —o no— la compañía ha analizado la desinformación en su plataforma.

“La insinuación de que no hemos invertido recursos para combatir la desinformación sobre el COVID-19 y apoyar la campaña de vacunación simplemente no está respaldada por los hechos”, dijo Dani Lever, portavoz de Facebook. “Sin una definición estándar de lo que significa desinformación sobre vacunas, y con contenidos falsos e incluso verdaderos (a menudo compartidos por los principales medios de comunicación) que potencialmente desalientan la aceptación de la vacuna, nos enfocamos en los resultados: medir si las personas que utilizan Facebook están aceptando las vacunas contra el COVID-19”.

Los ejecutivos de Facebook, incluyendo a su director ejecutivo, Mark Zuckerberg, han dicho que la compañía se comprometió a eliminar la desinformación sobre el COVID-19 cuando comenzó la pandemia. La compañía dijo que había eliminado más de 18 millones de piezas de desinformación sobre el COVID-19 desde el inicio de la pandemia.

Los expertos que estudian la desinformación dijeron que la cantidad de piezas eliminadas por Facebook no era un dato tan informativo como la cantidad que había sido subida al sitio o en qué grupos y páginas las personas veían la propagación de la desinformación.

“Tienen que abrir esa caja negra sobre su clasificación de contenido y la arquitectura de amplificación de contenido. Deben llevar esa caja negra para que investigadores independientes y el gobierno la auditen”, afirmó Imran Ahmed, director ejecutivo del Centro para Contrarrestar el Odio Digital, una organización sin fines de lucro que tiene como objetivo combatir la desinformación. “No sabemos cuántos estadounidenses han sido infectados con desinformación”.

Utilizando datos disponibles públicamente de CrowdTangle, un programa propiedad de Facebook, el grupo de Ahmed descubrió que 12 personas eran responsables del 65 por ciento de la desinformación sobre el COVID-19 en Facebook. La Casa Blanca, incluyendo a Biden, repitió esa cifra la semana pasada. Facebook afirma no estar de acuerdo con la caracterización de los Doce de la Desinformación, además de asegurar que algunas de sus páginas y cuentas ya fueron eliminadas, mientras que otras ya no publican contenido que viole las reglas de Facebook.

Renée DiResta, investigadora de desinformación del Observatorio de Internet de la Universidad de Stanford, le hizo un llamado a Facebook para que divulgue datos más detallados, ya que eso le permitiría a los expertos comprender cómo las falsas afirmaciones sobre la vacuna afectan a comunidades específicas dentro del país. La información, conocida como “datos de prevalencia”, en esencia analiza cuán extendida está una narrativa, como, por ejemplo, el porcentaje de personas que la ve en una comunidad dentro del servicio.

“La razón por la que se necesitan datos de prevalencia más detallados es que las falsas afirmaciones no se propagan de la misma manera en todas las audiencias”, dijo DiResta. “Para poder contrarrestar de forma efectiva afirmaciones falsas específicas que están siendo vistas por las comunidades, las organizaciones de la sociedad civil y los investigadores necesitan tener una idea más clara de lo que está sucediendo dentro de esos grupos”.

Muchos empleados de Facebook han presentado el mismo argumento. Brian Boland, un exvicepresidente de Facebook que estaba a cargo de la estrategia de alianzas, le dijo a CNN el domingo 18 de julio que mientras estuvo en la compañía había sostenido la idea de que Facebook debía compartir públicamente toda la información posible. Cuando se le preguntó sobre la disputa con la Casa Blanca por la desinformación referente al COVID-19, Boland afirmó: “Facebook tiene esos datos”.

“Ellos miran los datos”, dijo Boland, para luego agregar: “¿Los analizan de la manera adecuada? ¿Están invirtiendo en los equipos tan robustamente como deberían?”.

Los comentarios de Boland se repitieron ampliamente como evidencia de que Facebook tiene los datos solicitados, pero ha decidido no compartirlos. Boland no respondió a una solicitud de comentarios de The New York Times, pero uno de los analistas de datos que presionó dentro de Facebook para un estudio más profundo sobre la desinformación del coronavirus dijo que el problema se centraba más en si la compañía había estudiado (y de qué manera) los datos.

Técnicamente, dijo la persona, la compañía tiene datos de todo el contenido que se mueve a través de sus plataformas. Pero medir y rastrear la desinformación sobre el COVID-19 requiere primero definir y etiquetar lo que califica como desinformación, algo a lo que, según la persona, la compañía no había dedicado recursos.

© 2021 The New York Times Company