La lucha por
los Derechos Humanos ha de convertirse en este siglo XXI en uno de los grandes
motores de la emancipación de todos. La crisis de los refugiados, las guerras
en Oriente Medio, el terrorismo, ponen de manifiesto que la vida humana sigue
siendo un elemento “prescindible”, y los derechos básicos siguen siendo
desatendidos en muchos ámbitos a nivel mundial. La consolidación de nuevos
derechos –o que parecen nuevos– ha de constituir una de las grandes victorias
de la humanidad ene este siglo XXI.
Cómo los algoritmos de Facebook promueven el odio y
los contenidos tóxicos
El Viejo Topo
20 diciembre, 2021
Últimamente,
Facebook ha estado en la palestra pública por dos razones. Aunque ambas
resultan “perjudiciales” desde el punto de vista de la empresa, en términos de
interés público cada una tiene su propio nivel de pertinencia. La noticia con
menos trascendencia a largo plazo – pero con mayor atractivo mediático – fue
que lo que debía ser un pequeño cambio de configuración hizo que Facebook, Instagram y WhatsApp
se cayeran durante algunas horas el 4 de octubre. Esto afectó a
miles de millones de usuarios y usuarias, exponiendo la importancia que
Facebook y otros gigantes tecnológicos han adquirido en la vida cotidiana de
muchas personas e incluso, en el funcionamiento de pequeñas empresas. La otra
noticia – por supuesto mucho más significativa que esta primera – es la denuncia de Frances Haugen,
ex empleada de la empresa, que hizo públicas decenas de miles de páginas de
documentos internos de Facebook. Estos documentos evidencian que la dirección
de Facebook prioriza repetidamente los
beneficios económicos por sobre el bien social. Los algoritmos de
Facebook polarizaron a la sociedad y promovieron el odio y las noticias falsas
porque impulsaron el “compromiso” en sus plataformas. El hecho de que la
plataforma esté destrozando comunidades, e incluso poniendo en peligro a los adolescentes,
especialmente a las niñas, por no tener cuerpos “perfectos”, aparentemente no
le importó ni un ápice a Facebook.
El Wall Street
Journal ha publicado informes detallados citando
documentos internos de Facebook y a Frances Haugen, que también ha aparecido en
el programa “60 Minutes” de la CBS
y en audiencias del Congreso.
“Lo que vi en Facebook una y otra vez fue que había conflictos de intereses
entre lo que era bueno para el público y lo que era bueno para Facebook”,
le dijo Haugen al
corresponsal de CBS Scott Pelley en “60 Minutes”. “Y Facebook, una y otra vez,
eligió optimizar para sus propios intereses, como ganar más dinero”.
El científico
de datos, de 37 años, ha presentado ocho denuncias contra Facebook ante
la Comisión de Valores y Bolsa (SEC) con la ayuda de una
organización sin ánimo de lucro, Whistleblower Aid.
Estas denuncias están respaldadas por pruebas fehacientes: decenas de miles de
documentos internos de Facebook que Haugen había copiado en secreto antes de
abandonar la compañía.
¿Por qué esto
es una gran noticia cuando estos temas relacionados con Facebook se han
planteado una y otra vez, destacando especialmente después de que se hicieran
públicas las revelaciones relativas
a la empresa de datos Cambridge Analytica y a Facebook en 2018? ¿ Acaso no
sabíamos ya cómo Facebook, WhatsApp y otras plataformas de medios sociales se
han convertido hoy en día en poderosos instrumentos que ayudan a promover el
odio y la política divisoria? ¿No han responsabilizado los
investigadores de la ONU a Facebook de la violencia genocida
contra los rohingyas en Myanmar? ¿No se vieron acaso patrones similares durante los disturbios comunales
en Muzaffarnagar, en el estado indio de Uttar Pradesh en 2013 y 2017?
La gran noticia
es que ahora tenemos pruebas de que esta plataforma era plenamente consciente
de lo que hacía: documentos internos de Facebook que Haugen ha hecho públicos.
Se trata de fuentes directas de información.
Al dar
prioridad a las publicaciones que promueven el “compromiso” – es decir, que la
gente lea, le guste o responda a las publicaciones en Facebook, WhatsApp e
Instagram – Facebook se aseguró de que la gente permaneciera en su plataforma
durante mucho más tiempo. Los usuarios de Facebook podían entonces “venderse” a
los anunciantes con mayor eficiencia, mostrándoles más anuncios. El modelo de
negocio de Facebook no es promover las noticias, las charlas amistosas entre
los usuarios o entretener a la gente. Está vendiendo sus usuarios a quienes
pueden venderles mercancía. Y, al igual que Google, conoce mucho mejor quiénes
son sus usuarios y qué pueden comprar. Esto es lo que proporcionó a Facebook el 98% de sus ingresos en
2020 y la ha convertido en una de las seis empresas de un
billón de dólares (en septiembre de 2021) en términos de
capitalización bursátil.
Al testificar
ante el Congreso el 5 de octubre, Haugen dijo que “Facebook utiliza la
inteligencia artificial para encontrar contenido peligroso”, informó Ars
Technica. “El problema es que la ‘propia investigación de Facebook dice que no
pueden identificar adecuadamente el contenido peligroso. Y como resultado, esos
algoritmos peligrosos que admiten están recogiendo los sentimientos extremos,
la división[s]’”.
Que esto estaba
ocurriendo es ampliamente conocido y ha sido discutido, incluso en mis
propias columnas. La
respuesta de Facebook a estas críticas fue la creación de un consejo de
supervisión independiente y el empleo de un
gran número de verificadores de hechos. Este y otros procesos ayudarían a
filtrar los mensajes de odio y las noticias falsas. Lo que ocultaron fue que
todas estas acciones eran simplemente cosméticas. El conductor del tráfico,
o lo que una persona ve en su feed – o, en
términos de Facebook, con lo que participa – está determinado
por algoritmos. Y estos algoritmos estaban orientados a promover las
publicaciones más tóxicas y divisivas, ya que esto es lo que atrae la
participación. El aumento de la participación es el motor principal de los
algoritmos de Facebook y anula cualquier medida para desintoxicar su
contenido.
El testimonio
de Haugen en el Congreso también relativiza cuáles son los verdaderos problemas
de Facebook y lo que los Gobiernos de todo el mundo deben hacer para proteger a
sus ciudadanos: lograr que la plataforma sea responsable, no censurando la
incitación al odio y comprobando la información errónea publicada por
usuarios individuales, sino más bien atacando la tendencia de
sus algoritmos a permitir el peligroso contenido de alto
compromiso. “No se trata simplemente de que ciertos usuarios de las redes
sociales estén enfadados o sean inestables, o de que un bando esté radicalizado
contra el otro”, dijo. “Estos
problemas tienen solución… Facebook puede cambiar, pero está claro que no lo va
a hacer por sí solo”. Mientras se dirigía al Congreso de Estados Unidos sobre
lo que se puede hacer para regular Facebook a nivel nacional, Haugen también
reconoció los problemas que los algoritmos de Facebook han causado en todo el
mundo. La solución, por tanto, debe ser también global. En su testimonio, dijo que las
escasas autorreformas propuestas por Facebook serían insuficientes para hacer
que la empresa rinda cuentas de sus acciones hasta que sean totalmente
transparentes. Facebook se escuda en las leyes de “puerto seguro” que
protegen a las empresas tecnológicas como Facebook, que no generan contenidos
por sí mismas, sino que proporcionan su plataforma para lo que se denomina
contenido generado por el usuario. En Estados Unidos, es la Sección 230 de la
Ley de Decencia en las Comunicaciones la que permite a estas
empresas tecnológicas “moderar el contenido de sus servicios”; en India, es
la Sección 79 de la Ley de
Tecnología de la Información. Ambos países están
estudiando reformas.
En Estados
Unidos, “una revisión de la Sección 230… haría responsable al gigante de las
redes sociales de sus algoritmos”, informa Ars
Technica. En palabras de Haugen, “si tuviéramos una supervisión adecuada, o si
reformáramos la [Sección] 230 para hacer a Facebook responsable de las
consecuencias de sus decisiones de clasificación intencionadas, creo que se
desharían de la clasificación basada en el compromiso.… Porque está provocando
que los adolescentes estén expuestos a más contenidos de anorexia, está
separando a las familias y, en lugares como Etiopía, está literalmente avivando
la violencia étnica”. El problema principal no es el contenido odioso que los
usuarios generan en Facebook; son los algoritmos de Facebook los que llevan
este contenido venenoso al feed de Facebook de una persona
continuamente para maximizar los ingresos publicitarios de la empresa.
Haugen añadió:
“Facebook
quiere engañarte haciéndote creer que las protecciones de privacidad o los
cambios en la Sección 230 serán suficientes. Aunque son importantes, no
llegarán al núcleo de la cuestión, que es que nadie entiende realmente las
decisiones destructivas tomadas por Facebook, excepto Facebook. No podemos
permitirnos nada menos que una transparencia total. Mientras Facebook siga
operando en la sombra, ocultando sus investigaciones del escrutinio público, no
podrá rendir cuentas. Hasta que no cambien los incentivos, Facebook no
cambiará. Si se le deja solo, Facebook seguirá tomando decisiones que van en
contra del bien común, nuestro bien común”.
Por supuesto,
la prevalencia generalizada de contenidos tóxicos en las plataformas de
Facebook se ve favorecida por su negligencia deliberada al no disponer de
clasificadores lingüísticos – los algoritmos utilizados para detectar la
incitación al odio – para los contenidos que no están en inglés y se crean en
otros idiomas. A pesar de que el hindi es el tercer idioma más hablado del mundo y el bengalí el
sexto, según Haugen, Facebook no dispone de
suficientes “clasificadores de discurso de odio” en estos dos
idiomas.
Ya he escrito
anteriormente por qué el contenido divisivo y las
noticias falsas tienen más viralidad que cualquier otro
contenido. Los documentos de Haugen confirman lo que los analistas, incluido yo
mismo, hemos estado diciendo todo el tiempo. Los algoritmos que Facebook y
otras empresas de tecnología digital utilizan hoy en día no codifican
directamente las reglas para aumentar el compromiso. En su lugar, estas
empresas utilizan el aprendizaje automático, o lo que se llama vagamente
inteligencia artificial, para crear estas reglas. Es el objetivo – aumentar el
compromiso – el que crea las reglas que conducen a la exhibición de contenido
tóxico en los feeds de los usuarios, lo que está desgarrando
las sociedades y dañando la democracia. Ahora tenemos pruebas fehacientes en
forma de documentos filtrados de que esto es lo que ha estado ocurriendo. Y lo
que es peor, los dirigentes de Facebook y Mark Zuckerberg han sido plenamente
conscientes del problema desde el principio.
Sin embargo, no
todo el daño en la plataforma de Facebook fue causado por los algoritmos. A
partir de los documentos de Haugen, descubrimos que Facebook había puesto en
la “lista blanca” a usuarios de
alto perfil cuyo contenido se promocionaría incluso si violaban
las directrices de Facebook. Millones de estos usuarios especiales podían
violar las normas de Facebook con impunidad. Anteriormente escribí sobre las
pruebas aportadas por el Wall Street Journal acerca
de cómo Facebook India protegió a los líderes del BJP a
pesar de las repetidas alertas rojas relacionadas con sus publicaciones que se
levantaron dentro de la propia Facebook.
Esto no es todo
lo que revela el tesoro de documentos internos de Facebook de Haugen. Al igual
que las empresas de cigarrillos investigan cómo enganchar a los niños a fumar,
Facebook ha investigado a los “tweens”, que son niños de entre 10 y 12 años. Su
investigación se centró en cómo enganchar a los
“preadolescentes” a las plataformas de Facebook para que
pudieran crear nuevas consumidores para sus plataformas. Todo ello a pesar de
que sus investigaciones internas mostraban que las plataformas de Facebook
promovían la anorexia y otros trastornos
alimenticios, la depresión y las tendencias suicidas entre
los adolescentes.
Todos estos
hechos deberían dañar la imagen de Facebook. Pero es una empresa de un billón
de dólares y una de las mayores del mundo. Su abultado saldo de caja, unido al
poder que ejerce en la política y a su capacidad para “hackear” elecciones,
proporciona la protección que el gran capital recibe en el capitalismo. El
pecado capital que el gran capital no puede tolerar es mentir a otros
capitalistas. Los documentos internos que Haugen ha presentado a la SEC podrían
finalmente dar lugar a una reacción contra los gigantes de las redes sociales y
conducir a su regulación – si no una regulación fuerte, al menos algunas
restricciones débiles en los algoritmos que promueven el odio en estas
plataformas de medios sociales –.
Una cita de
hace una década es tan relevante ahora, a la luz de estos recientes
acontecimientos de Facebook, como lo fue cuando el entonces genio de la tecnología de Silicon Valley
de 28 años, Jeff Hammerbacher, lo dijo por primera vez: “Las mejores
mentes de mi generación están pensando en cómo hacer que la gente haga clic en
los anuncios”. Este ha sido durante mucho el redoble de tambores que ha
impulsado la marcha de los gigantes de las redes sociales hacia sus trillones.
Este artículo ha sido producido en colaboración con Newsclick y Globetrotter. Fuente: Globetrotter
*++
*++
No hay comentarios:
Publicar un comentario