Datos,
algoritmos y política: ¿puede la IA gobernarnos?
TERCERAINFORMACION
/ 20.04.2023
Desde
el ChatGPT hasta el escándalo de Cambridge Analytica, desde la manipulación
electoral hasta la creación de un «Partido Sintético», la Inteligencia
Artificial es uno de los principales temas ético-políticos de nuestra era.
En el cuento, una supercomputadora de más de un
kilómetro de extensión y tres pisos de alto llamada Multivac posee los datos
completos del padrón y las variables de todas las elecciones que se realizaron
en el país hasta entonces. Luego de un proceso secreto que tiene en suspenso a
toda la nación, Norman Muller, empleado de un comercio de una pequeña ciudad
del interior, es elegido entre 50 millones de personas como el votante
universal.
El día de la elección, la policía lo lleva entre
medidas de seguridad hasta el sótano del hospital local, donde el jefe de
informática le explica qué sucederá y por qué será conectado a una serie de
sensores y dispositivos: “Multivac ya tiene toda la información que necesita
para decidir todas las elecciones nacionales, estatales y locales. Sólo
necesita verificar ciertas actitudes mentales imponderables, y lo utilizará a
usted para eso. No podemos predecir qué preguntas le hará, pero quizá no tengan
mucho sentido para usted y ni siquiera para nosotros.” Los científicos le
aclaran que Multivac no basará su análisis en la información de las respuestas
de Norman, sino en sus sentimientos.
Para desarrollar la idea de la Multivac Asimov
se basó en Univac, el primer computador que se fabricó de forma comercial en
Estados Unidos y que en 1952 fue utilizado por la cadena CBS para predecir la
elección presidencial. Con una muestra del 1% de la población predijo que
ganaría Dwight Eisenhower, como finalmente sucedió.
La ciencia ficción es una realidad
El papel de la inteligencia
artificial (IA) y de la ciencia de datos es cada vez más importante en el curso
de las elecciones democráticas. La campaña electoral de
Barack Obama, las del Partido Sintético de Dinamarca, la campaña de Emmanuel
Macron en Francia, Donald Trump en Estados Unidos, Jair Bolsonaro en Brasil y
Mauricio Macri en Argentina son buenos ejemplos y configuran una práctica que
debilita la democracia.
En diciembre de 2020, la Comisión Federal de
Comercio de Estados Unidos y casi todos los estados de ese país presentaron una
demanda contra Facebook por perjudicar a sus usuarios y competidores. Si
bien a esta altura la entrega voluntaria de nuestros datos a las grandes
corporaciones no es ninguna novedad, en ese entonces quedó comprobado que el
monopolio violaba la privacidad de sus usuarios y propagaba “una
epidemia de contenido tóxico y dañino que afectaba a tres mil millones de
personas”.
Las periodistas Sheera Frenkel y Cecilia Kang,
en su libro «Manipulados», aportan información detallada sobre la historia del
experimento social con más repercusiones de la época y sobre una cultura
empresarial que exige tanto lealtad ciega como secretismo. Después de más de un
año de investigaciones, en julio de 2019 se confirmó que Facebook
debería pagar una multimillonaria multa por el caso de Cambridge Analytica.
La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en
inglés) ordenó a la red social a pagar US$5.000 millones como sanción por las
malas prácticas en el manejo de la seguridad de los datos y violar la
privacidad de los usuarios. A Facebook se le acusa de haber compartido de
manera inapropiada los datos de 87 millones de usuarios con la firma de
consultoría política Cambridge Analytica.
Monitorización de la opinión, el “análisis de
sentimiento”
Uno de los primeros casos de éxito en el uso de
técnicas de big data y análisis de redes sociales para ajustar
una campaña electoral fue el de Barack Obama en las presidenciales de Estados
Unidos de 2012. En su campaña (y en muchas otras que la sucedieron), las
encuestas tradicionales de intención de voto, basadas en llamadas telefónicas o
entrevistas personales, se complementaron con el análisis de redes sociales.
“A Facebook se le acusa de
haber compartido de manera inapropiada los datos de 87 millones de usuarios con
la firma de consultoría política Cambridge Analytica”
Estos análisis ofrecen un método barato y casi
en tiempo real de medir la opinión de los votantes. Para ello se aplican
técnicas de Procesamiento del Lenguaje Natural (PLN), en particular las
dedicadas al «análisis de sentimiento». Dichas técnicas analizan los mensajes
contenidos en Twitter, Instagram, Facebook, blogs, etc. y tratan de medir si
las opiniones vertidas en ellos son positivas o negativas con respecto a un
cierto político, a un cierto mensaje electoral o a una situación social y
política dada.
El principal problema que tienen es el sesgo
muestral, pues los usuarios más activos en redes sociales suelen ser jóvenes y
tecnófilos, y no representan a toda la población. Por eso estas técnicas tienen
limitaciones a la hora de predecir resultados electorales, aunque resultan
muy útiles para estudiar las tendencias de voto y el estado de opinión de las
personas.
Intervención en campañas electorales: el caso Donald
Trump y Macron
Más inquietante que el estudio de las emociones
en redes sociales resulta su uso para influenciar estados de opinión y
configurar el voto. Un caso bien conocido es el de la campaña de Donald Trump
en las presidenciales de EE.UU. de 2016. El big data y los
perfiles psicográficos tuvieron mucho que ver con una victoria que no habían
logrado predecir las encuestas.
No se trató de una manipulación en masa, sino
que diferentes votantes recibieron diferentes mensajes basados en predicciones
sobre su susceptibilidad a diferentes argumentos, recibiendo información
sesgada, fragmentada y a veces contradictoria con otros mensajes del candidato.
La tarea fue encomendada a la empresa Cambride Analytica, que se vio implicada
en una polémica por la recopilación no autorizada de información sobre millones
de usuarios de Facebook. El método de Cambride Analytica se basó en los estudios
de psicometría de Michal Kosinski, quien comprobó cómo con un número
limitado de likes se puede obtener un perfil del usuario tan
acertado como si lo hicieran sus familiares o amigos.
El problema no está en el uso de la tecnología
sino en la naturaleza “encubierta” de la campaña, en la manipulación
psicológica a votantes susceptibles a través de apelaciones directas a sus
emociones o la difusión deliberada de noticias falsas a través de bots.
Un bot es un software (aplicación) que efectúa automáticamente
tareas reiterativas mediante Internet y posee capacidad de interacción,
cambiando de estado para responder a un estímulo. Estos fueron utilizados en
las presidenciales francesas de 2017. La campaña de Emmanuel Macron sufrió
un robo masivo de correos electrónicos a sólo dos días de las elecciones.
Multitud de bots se encargaron de difundir evidencias de comisión de delitos
supuestamente contenidos en la información, que luego resultaron falsas.
El Partido Sintético
Dinamarca abrió el debate en sus últimas
elecciones legislativas, a las que concurrió el Partido Sintético, liderado por
una aplicación de IA. Se trata de un chatbot (los bot de
charla o bot conversacionales son aplicaciones basadas en software que simulan
mantener una conversación con una persona al proveer respuestas automáticas,
las cuales son previamente establecidas por un conjunto de expertos) llamado
Leader Lars, con la aspiración de entrar en el parlamento. Detrás del chatbot
hay humanos, naturalmente, en particular la fundación MindFuture de
arte y tecnología.
Leader Lars fue entrenado con los programas
electorales de partidos daneses marginales desde 1970, para configurar una
propuesta que representara al 20 % de la población danesa que no acude a las
urnas. Si bien el Partido Sintético parece una extravagancia (con propuestas
como una renta básica universal superior a 13.400€ al mes, el doble del salario
medio en Dinamarca), ha servido para estimular el debate sobre la capacidad de
una IA para gobernarnos.
Si analizamos el pasado reciente de la IA, vemos
que los avances se suceden uno tras otro, particularmente en el campo del
procesamiento del lenguaje natural, tras la aparición de las arquitecturas
basadas en transformers. Los transformers son enormes redes neuronales
artificiales (uno de los métodos de la IA) entrenadas para aprender a generar
textos, pero fácilmente adaptables a muchas otras tareas. Estas redes aprenden
la estructura general del lenguaje humano y acaban teniendo un conocimiento del
mundo a través de lo que han “leído”.
“Si bien el Partido
Sintético parece una extravagancia […] ha servido para estimular el debate
sobre la capacidad de una IA para gobernarnos”
Uno de los ejemplos más avanzados lo ha
desarrollado OpenIA y se llama ChatGPT. Se trata de un chatbot
capaz de responder de manera coherente a casi cualquier pregunta formulada en
lenguaje natural, de generar texto o de efectuar tareas tan complicadas como
escribir programas informáticos a partir de unas pocas indicaciones.
El caso de Brasil
Las relaciones del clan Bolsonaro con Steve
Bannon convirtieron al “mano derecha” de Trump en un referente del
bolsonarismo, quien inspiró una táctica de activismo digital al estilo
brasileño. La relación entre Bannon y la familia Bolsonaro se consolidó
el mismo año en que Brasil eligió por primera vez a un presidente de extrema
derecha. En vísperas de la campaña electoral, Eduardo Bolsonaro conoció
personalmente al estratega que ayudó a llevar a Trump a la presidencia de
Estados Unidos.
Bannon, asesor de políticas globales para
debilitar las democracias locales, fue fundador de Breitbart News, un sitio de
extrema derecha famoso por difundir noticias falsas y contenido racista. Entre
las técnicas para viralizar publicaciones, el sitio web centró sus esfuerzos en
difamar a los políticos demócratas y difundir teorías sobre una hipotética
conspiración global marxista contra lo que denominó “valores estadounidenses
tradicionales”.
El inicio de 2019 estuvo marcado por la
designación de Eduardo Bolsonaro como embajador sudamericano de «El
Movimiento», articulación creada por Bannon y encabezada por Marine Le Pen
(Francia), Matteo Salvini (Italia) y Viktor Orbán (Hungría), para unir a
líderes mundiales de ultraderecha.
El caso de Argentina
En 2016 el gobierno de Mauricio Macri mantuvo
una negociación demostrada con Cambridge Analytica, la empresa acusada de
utilizar datos personales de Facebook para perpetrar campañas en diferentes
países a través de la manipulación del electorado en las elecciones legislativas
de 2017.
Alexander Nix, ex CEO de
Cambridge Analytica, admitió que su empresa trabajó en una “campaña
antikirchnerista” durante las elecciones presidenciales de 2015, cuando
fue nterpelado por la Comisión de Asuntos Digitales, Cultura, Medios y Deporte
del Parlamento británico, que investiga el uso ilegal de los datos de la red
social Facebook por parte de la consultora. Nix manifestó desconocer el asunto
de la campaña en la Argentina, aunque finalmente debió admitir que estaba al
tanto, sin mencionar la identidad de su contratador: “No nos gusta hablar de
clientes específicos, simplemente porque hay una confidencialidad con el
cliente”, sostuvo en su comparecencia, que fue transmitida por el canal C-Span
2.
Los parlamentarios denunciaron en su informe la
existencia de “alarmantes pruebas” sobre la presunta injerencia ilícita de la
empresa consultora británica SCL Group en operaciones políticas en el
extranjero, incluida una maniobra realizada en 2015 contra la entonces
presidenta argentina Cristina Fernández de Kirchner.
“El comité ha visto evidencia confidencial de
una reunión entre los directores del Grupo SCL con el PRO-Cambiemos el 27 de
mayo de 2015, en relación a una campaña anti-Kirchner en Argentina”, afirmaron
los miembros del mencionado Comité en su informe sobre “Desinformación y falsas
noticias”.
Sin transparencia
Las ventajas de usar una IA para la acción de
gobierno serían varias. Por una parte, su capacidad de procesar datos y
conocimiento para la toma de decisiones es muy superior a la de cualquier
humano. Pero, al día de hoy, los chatbots se alimentan de los datos
que proveedores direccionados les proporcionan para dar sus respuestas. No
tiene aún autonomía de lenguaje ni pueden reaccionar “espontáneamente”, tomando
la iniciativa. Es más adecuado ver estos sistemas como oráculos, capaces de
responder a preguntas del tipo “qué crees que pasaría si…”, “que propondrías en
caso de…”, más que como agentes activos.
Los posibles problemas y peligros de este tipo
de inteligencias, basadas en grandes redes neuronales es el de la falta
de transparencia (“explicabilidad”) de las decisiones que toman. En
general actúan como “cajas negras”, sin que podamos saber qué razonamiento han
llevado a cabo para llegar a una conclusión determinada.
El “experto” es un humano que define los
procesos de aprendizaje y orienta los resultados. No olvidemos que detrás de la
máquina están personas que definen o adecúan las estructuras de datos y los
algoritmos para los procesos de aprendizaje (el entrenamiento del algoritmo).
Estas decisiones y acciones permiten introducir ciertos sesgos en la IA a
través de los datos que han usado para entrenarla. Por otro lado, la IA
no está libre de dar datos o consejos erróneos, como muchos usuarios de ChatGPT
han podido experimentar.
La Soberanía sobre los datos y la transparencia
sobre los procesos de la IA continúa a la espera de políticas más firmes a
manos del Estado. Políticas como la exigencia de almacenamiento local de los
datos para aplicación de leyes contramonopólicas y de visibilidad ciudadana
sobre los algoritmos y los procesos de aprendizaje permitirían garantizar
transparencia democrática en el contexto digital. La democracia está en riesgo:
la manipulación de las personas mediante el uso indebido de datos personales y
la propagación de noticias falsas es un hecho demostrado. El debate y las
acciones aún están pendientes: la disyuntiva entre democracia o corporaciones
debe desplezarse urgentemente al terreno político, ético y social.
Analista de Sistemas de Computación por el
Instituto de Tecnología ORT y de Sistemas Distribuidos por EBAI-UNICAMP.
Docente en la Universidad Nacional de Moreno e ingeniero TIC de ARSAT.
Fuente: https://www.alai.info/datos-algoritmos-y-politica-puede-la-ia-gobernarnos/
No hay comentarios:
Publicar un comentario