La
demanda de Frances Haugen demuestra que Facebook sabía que sus algoritmos
promueven contenidos peligrosos pero decidió, en función de maximizar sus
ingresos publicitarios, no hacer nada al respecto.
Cómo los algoritmos de Facebook promueven el odio y los contenidos tóxicos
El Viejo Topo
20 diciembre, 2021
Últimamente,
Facebook ha estado en la palestra pública por dos razones. Aunque ambas
resultan “perjudiciales” desde el punto de vista de la empresa, en términos de
interés público cada una tiene su propio nivel de pertinencia. La noticia con
menos trascendencia a largo plazo – pero con mayor atractivo mediático – fue
que lo que debía ser un pequeño cambio de configuración hizo que Facebook, Instagram y WhatsApp se cayeran durante algunas
horas el 4 de octubre. Esto afectó a miles de millones de usuarios y usuarias,
exponiendo la importancia que Facebook y otros gigantes tecnológicos han
adquirido en la vida cotidiana de muchas personas e incluso, en el
funcionamiento de pequeñas empresas. La otra noticia – por supuesto mucho más
significativa que esta primera – es la denuncia de Frances Haugen, ex empleada de la empresa, que
hizo públicas decenas de miles de páginas de documentos internos de Facebook.
Estos documentos evidencian que la dirección de Facebook prioriza repetidamente los beneficios económicos por sobre el bien social.
Los algoritmos de Facebook polarizaron a la sociedad y promovieron el odio y
las noticias falsas porque impulsaron el “compromiso” en sus plataformas. El
hecho de que la plataforma esté destrozando comunidades, e incluso poniendo
en peligro a los adolescentes, especialmente a las niñas, por no
tener cuerpos “perfectos”, aparentemente no le importó ni un ápice a Facebook.
El Wall Street
Journal ha publicado informes detallados citando documentos internos de
Facebook y a Frances Haugen, que también ha aparecido en el programa “60 Minutes” de la CBS y en audiencias del Congreso. “Lo que vi en Facebook una y otra vez
fue que había conflictos de intereses entre lo que era bueno para el público y
lo que era bueno para Facebook”, le dijo Haugen al corresponsal de CBS Scott Pelley en “60
Minutes”. “Y Facebook, una y otra vez, eligió optimizar para sus propios
intereses, como ganar más dinero”.
El científico
de datos, de 37 años, ha presentado ocho denuncias contra Facebook ante la Comisión de
Valores y Bolsa (SEC) con la ayuda de una organización sin ánimo de lucro, Whistleblower Aid. Estas
denuncias están respaldadas por pruebas fehacientes: decenas de miles de documentos internos de Facebook que
Haugen había copiado en secreto antes de abandonar la compañía.
¿Por qué esto
es una gran noticia cuando estos temas relacionados con Facebook se han
planteado una y otra vez, destacando especialmente después de que se hicieran
públicas las revelaciones relativas a la empresa de datos Cambridge
Analytica y a Facebook en 2018? ¿ Acaso no sabíamos ya cómo Facebook, WhatsApp
y otras plataformas de medios sociales se han convertido hoy en día en
poderosos instrumentos que ayudan a promover el odio y la política divisoria?
¿No han responsabilizado los investigadores de la ONU a Facebook de
la violencia genocida contra los rohingyas en Myanmar? ¿No se vieron acaso
patrones similares durante los disturbios comunales en Muzaffarnagar, en el
estado indio de Uttar Pradesh en 2013 y 2017?
La gran noticia
es que ahora tenemos pruebas de que esta plataforma era plenamente consciente
de lo que hacía: documentos internos de Facebook que Haugen ha hecho públicos.
Se trata de fuentes directas de información.
Al dar
prioridad a las publicaciones que promueven el “compromiso” – es decir, que la
gente lea, le guste o responda a las publicaciones en Facebook, WhatsApp e
Instagram – Facebook se aseguró de que la gente permaneciera en su plataforma
durante mucho más tiempo. Los usuarios de Facebook podían entonces “venderse” a
los anunciantes con mayor eficiencia, mostrándoles más anuncios. El modelo de
negocio de Facebook no es promover las noticias, las charlas amistosas entre
los usuarios o entretener a la gente. Está vendiendo sus usuarios a quienes
pueden venderles mercancía. Y, al igual que Google, conoce mucho mejor quiénes
son sus usuarios y qué pueden comprar. Esto es lo que proporcionó a Facebook el 98% de sus ingresos en 2020 y la ha
convertido en una de las
seis empresas de un billón de dólares (en septiembre de 2021)
en términos de capitalización bursátil.
Al testificar
ante el Congreso el 5 de octubre, Haugen dijo que “Facebook utiliza la
inteligencia artificial para encontrar contenido peligroso”, informó Ars Technica. “El problema es que la ‘propia
investigación de Facebook dice que no pueden identificar adecuadamente el
contenido peligroso. Y como resultado, esos algoritmos peligrosos que admiten
están recogiendo los sentimientos extremos, la división[s]’”.
Que esto estaba
ocurriendo es ampliamente conocido y ha sido discutido, incluso en mis
propias columnas. La respuesta de Facebook a estas críticas fue la
creación de un consejo de supervisión independiente y el empleo de un gran número de verificadores de hechos. Este
y otros procesos ayudarían a filtrar los mensajes de odio y las noticias
falsas. Lo que ocultaron fue que todas estas acciones eran simplemente
cosméticas. El conductor del tráfico, o lo que una persona ve en
su feed – o, en términos de Facebook, con lo que
participa – está determinado por algoritmos. Y estos algoritmos
estaban orientados a promover las publicaciones más tóxicas y divisivas, ya que
esto es lo que atrae la participación. El aumento de la participación es el
motor principal de los algoritmos de Facebook y anula cualquier medida
para desintoxicar su contenido.
El testimonio
de Haugen en el Congreso también relativiza cuáles son los verdaderos problemas
de Facebook y lo que los Gobiernos de todo el mundo deben hacer para proteger a
sus ciudadanos: lograr que la plataforma sea responsable, no censurando la
incitación al odio y comprobando la información errónea publicada por
usuarios individuales, sino más bien atacando la tendencia de
sus algoritmos a permitir el peligroso contenido de alto
compromiso. “No se trata simplemente de que ciertos usuarios de las redes
sociales estén enfadados o sean inestables, o de que un bando esté radicalizado
contra el otro”, dijo. “Estos problemas tienen solución… Facebook puede
cambiar, pero está claro que no lo va a hacer por sí solo”. Mientras se dirigía
al Congreso de Estados Unidos sobre lo que se puede hacer para regular Facebook
a nivel nacional, Haugen también reconoció los problemas que los algoritmos de
Facebook han causado en todo el mundo. La solución, por tanto, debe ser también
global. En su testimonio, dijo que las escasas autorreformas propuestas por
Facebook serían insuficientes para hacer que la empresa rinda cuentas de sus
acciones hasta que sean totalmente transparentes. Facebook se escuda en
las leyes de “puerto seguro” que protegen a las empresas
tecnológicas como Facebook, que no generan contenidos por sí mismas, sino que
proporcionan su plataforma para lo que se denomina contenido generado por el
usuario. En Estados Unidos, es la Sección 230 de la Ley de Decencia en las Comunicaciones
la que permite a estas empresas tecnológicas “moderar el
contenido de sus servicios”; en India, es la Sección 79 de la Ley de Tecnología de la Información.
Ambos países están estudiando reformas.
En Estados
Unidos, “una revisión de la Sección 230… haría responsable al gigante de las
redes sociales de sus algoritmos”, informa Ars Technica. En palabras de Haugen, “si
tuviéramos una supervisión adecuada, o si reformáramos la [Sección] 230 para
hacer a Facebook responsable de las consecuencias de sus decisiones de
clasificación intencionadas, creo que se desharían de la clasificación basada
en el compromiso.… Porque está provocando que los adolescentes estén expuestos
a más contenidos de anorexia, está separando a las familias y, en lugares como
Etiopía, está literalmente avivando la violencia étnica”. El problema principal
no es el contenido odioso que los usuarios generan en Facebook; son los
algoritmos de Facebook los que llevan este contenido venenoso al feed de
Facebook de una persona continuamente para maximizar los ingresos publicitarios
de la empresa.
Haugen añadió:
“Facebook
quiere engañarte haciéndote creer que las protecciones de privacidad o los
cambios en la Sección 230 serán suficientes. Aunque son importantes, no
llegarán al núcleo de la cuestión, que es que nadie entiende realmente las
decisiones destructivas tomadas por Facebook, excepto Facebook. No podemos
permitirnos nada menos que una transparencia total. Mientras Facebook siga
operando en la sombra, ocultando sus investigaciones del escrutinio público, no
podrá rendir cuentas. Hasta que no cambien los incentivos, Facebook no
cambiará. Si se le deja solo, Facebook seguirá tomando decisiones que van en
contra del bien común, nuestro bien común”.
Por supuesto,
la prevalencia generalizada de contenidos tóxicos en las plataformas de
Facebook se ve favorecida por su negligencia deliberada al no disponer de
clasificadores lingüísticos – los algoritmos utilizados para detectar la
incitación al odio – para los contenidos que no están en inglés y se crean en
otros idiomas. A pesar de que el hindi es el tercer idioma más hablado
del mundo y el bengalí el sexto, según Haugen, Facebook no dispone de suficientes “clasificadores de discurso de odio” en
estos dos idiomas.
Ya he escrito
anteriormente por qué el contenido divisivo y las noticias falsas tienen más viralidad que
cualquier otro contenido. Los documentos de Haugen confirman lo que los
analistas, incluido yo mismo, hemos estado diciendo todo el tiempo. Los
algoritmos que Facebook y otras empresas de tecnología digital utilizan hoy en
día no codifican directamente las reglas para aumentar el compromiso. En su
lugar, estas empresas utilizan el aprendizaje automático, o lo que se llama
vagamente inteligencia artificial, para crear estas reglas. Es el objetivo –
aumentar el compromiso – el que crea las reglas que conducen a la exhibición de
contenido tóxico en los feeds de los usuarios, lo que está
desgarrando las sociedades y dañando la democracia. Ahora tenemos pruebas
fehacientes en forma de documentos filtrados de que esto es lo que ha estado
ocurriendo. Y lo que es peor, los dirigentes de Facebook y Mark Zuckerberg han
sido plenamente conscientes del problema desde el principio.
Sin embargo, no
todo el daño en la plataforma de Facebook fue causado por los algoritmos. A
partir de los documentos de Haugen, descubrimos que Facebook había puesto en
la “lista blanca” a usuarios de alto perfil cuyo contenido
se promocionaría incluso si violaban las directrices de Facebook. Millones de
estos usuarios especiales podían violar las normas de Facebook con impunidad.
Anteriormente escribí sobre las pruebas aportadas por el Wall Street Journal acerca de cómo Facebook India protegió a los líderes del BJP a pesar de las repetidas
alertas rojas relacionadas con sus publicaciones que se levantaron dentro de la
propia Facebook.
Esto no es todo
lo que revela el tesoro de documentos internos de Facebook de Haugen. Al igual
que las empresas de cigarrillos investigan cómo enganchar a los niños a fumar,
Facebook ha investigado a los “tweens”, que son niños de entre 10 y 12 años. Su
investigación se centró en cómo enganchar a los “preadolescentes” a las plataformas
de Facebook para que pudieran crear nuevas consumidores para sus plataformas.
Todo ello a pesar de que sus investigaciones internas mostraban que las
plataformas de Facebook promovían la anorexia y otros trastornos alimenticios, la depresión y
las tendencias suicidas entre los adolescentes.
Todos estos
hechos deberían dañar la imagen de Facebook. Pero es una empresa de un billón
de dólares y una de las mayores del mundo. Su abultado saldo de caja, unido al
poder que ejerce en la política y a su capacidad para “hackear” elecciones, proporciona la protección que el gran
capital recibe en el capitalismo. El pecado capital que el gran capital no
puede tolerar es mentir a otros capitalistas. Los documentos internos que
Haugen ha presentado a la SEC podrían finalmente dar lugar a una reacción
contra los gigantes de las redes sociales y conducir a su regulación – si no
una regulación fuerte, al menos algunas restricciones débiles en los algoritmos
que promueven el odio en estas plataformas de medios sociales –.
Una cita de
hace una década es tan relevante ahora, a la luz de estos recientes
acontecimientos de Facebook, como lo fue cuando el entonces
genio de la tecnología de Silicon Valley de 28 años, Jeff
Hammerbacher, lo dijo por primera vez: “Las mejores mentes de mi generación
están pensando en cómo hacer que la gente haga clic en los anuncios”. Este ha
sido durante mucho el redoble de tambores que ha impulsado la marcha de los
gigantes de las redes sociales hacia sus trillones.
Este artículo ha sido producido en colaboración con Newsclick y Globetrotter. Fuente: Globetrotter
No hay comentarios:
Publicar un comentario