Miguel Toro
23
de septiembre de 2025
Este artículo fue publicado originalmente en elDiario.es el pasado
5 de septiembre
Estamos
viviendo unos momentos donde vemos cómo los algoritmos de Inteligencia
Artificial (IA), las inteligencias artificiales, pueden procesar enormes
cantidades de datos y a partir de ellos proponer soluciones a problemas
técnicos y sociales. En definitiva, ayudar a gestionar un mundo cada vez más
complejo. Muchos se preguntan si la política sobrevivirá a la informática, si es
posible la política cuando se complican los procedimientos para la toma de
decisiones colectivas en un entorno de creciente complejidad, donde los
algoritmos son capaces de analizar datos y proponer soluciones.
Se extiende la idea de que los algoritmos neutralizan los prejuicios subjetivos mediante procedimientos exactos de decisión y por lo tanto pueden hacer innecesaria la política. Algunas organizaciones justifican sus decisiones en que han sido tomadas por un algoritmo. Se nos intenta convencer de que cualquier desafío social puede resolverse como un problema técnico cuya solución simplemente requiere procedimientos algorítmicos, que el análisis de datos conduce a una única elección racional y por lo tanto hace innecesario el debate político y la política. La filosofía alrededor de los nuevos algoritmos de IA se mezcla y se refuerza con una vieja tradición –podemos llamarla tecnocracia– que considera que existe una objetividad indiscutible proporcionada por la tecnología, por algoritmos de algún tipo, para la solución de cualquier diferencia de opinión. Esta filosofía nos quiere convencer de que con la objetividad algorítmica las ideologías quedan obsoletas al ser superadas por los algoritmos.
Pero
los algoritmos de inteligencia artificial aprenden a partir de datos que ya
existen, mirando al pasado y copiando patrones, detectan correlaciones que no
tienen por qué ser causalidades. Detecta patrones que no tienen por qué ser
inmutables y pueden ser casuales. Si confiamos demasiado en que esos datos son
neutrales y justos, podemos olvidar que detrás de ellos hay intereses. Esto
puede hacer que no investiguemos las posibles discriminaciones que generan y
que no pensemos en otras soluciones alternativas.
Los
datos, tomados de la realidad social, reflejan diversas formas de poder que no
siempre están justificadas. Contienen estructuras y reglas sociales que los
algoritmos repiten automáticamente, incluso si parecen imparciales. Confiar
demasiado en los datos puede hacernos creer que ofrecen una verdad absoluta,
cuando en realidad no muestran el contexto ni incluyen toda la realidad.
En
muchos casos se ignora a determinados grupos: los que no están asegurados, los
que no tienen permiso de residencia, ni acceso a los servicios de salud, los
que no tienen formación digital, etc. A veces se ignora a los que están fuera
de las normas establecidas. En muchos casos tienen sesgos que se heredan de la
propia realidad. Mejorar los algoritmos siempre es muy necesario, pero podemos
creer que para conseguir la objetividad de los algoritmos es suficiente con
mejorar los datos.
Pero
aunque los datos fueran perfectos, aunque incluyeran a todos los grupos, aunque
se hubieran eliminado los sesgos más evidentes, siempre reflejan la realidad
con sus desigualdades y discriminaciones. Los datos transmiten el statu quo
y lo reproducen. Reflejan la sociedad como está, con sus reglas de
funcionamiento, aunque estas reglas sean del interés de algunos grupos
solamente.
Los
algoritmos suelen acertar cuando advierten de que un grupo de población suele
cometer más delitos que otro, pero no se preguntan por qué eso es así y mucho
menos se plantean decisiones políticas para poner remedio a esa realidad. La predicción
algorítmica da al statu quo un carácter inmutable, aunque la situación
analizada esté plagada de desigualdades evidentes para muchos. Los algoritmos
no solo describen la realidad existente, sino que influyen en cómo debe
ser entendida o gestionada, como si sus predicciones tuvieran autoridad para establecer
lo que es correcto, esperado o aceptable. En definitiva, los algoritmos
refuerzan las desigualdades existentes mediante previsiones supuestamente
objetivas.
El
hecho de que automaticemos ciertas decisiones individuales o colectivas implica
grandes beneficios en términos de efectividad. Sin embargo, este potencial
puede constituir una amenaza si implica una rendición absoluta de nuestra
soberanía. En definitiva, ¿quién decide cuando, aparentemente, nadie decide?
¿Quién se beneficia cuando parece que nadie está decidiendo, en la medida que
las decisiones las toma un algoritmo? Porque en las sociedades humanas siempre
hay algunos grupos que se benefician de lo producido por otros.
Queremos
vivir en una democracia y una cuestión clave es decidir si nuestras vidas deben
estar regidas por procedimientos algorítmicos. El interrogante fundamental es
qué lugar ocupa la decisión política en una democracia algorítmica. La
democracia es libre decisión, voluntad popular, autogobierno. ¿Hasta qué punto
es esto posible y tiene sentido en los entornos algorítmicos que anuncia la
inteligencia artificial? En definitiva, qué decisiones queremos dejar a los
algoritmos y por lo tanto sacarlas de la contienda política.
Frente
a los algoritmos la política tiene, entre sus funciones más características, el
objetivo de formular proyectos de ruptura con esa realidad tan insatisfactoria para
muchos desde distintos puntos de vista. La política se pregunta qué datos
requieren las decisiones políticas que queremos tomar en vez de solo justificar
una decisión política con los datos existentes.
Las
decisiones políticas son algo más que cálculos; los problemas persistirán
siempre que usemos únicamente datos para adoptar decisiones que implican
juicios sociales y de valor. Un ejemplo ilustrativo de las limitaciones de los
modelos algorítmicos lo constituye un programa que ha estimado que los
pasajeros de primera clase del Titanic presentaban una mayor probabilidad de
supervivencia. No obstante, esta inferencia no debe interpretarse como una
valoración moral sobre quién merecía sobrevivir. Si se aplicara esta lógica al
ámbito de los seguros, aunque de hecho se aplique usualmente, se podría
concluir que los viajeros de primera clase deberían abonar primas más bajas, lo
cual resulta socialmente inaceptable, ya que implicaría penalizar a quienes no
disponen de los mismos recursos económicos. Este caso evidencia que ciertos
juicios requieren una comprensión ética y contextual que excede las capacidades
de los sistemas automatizados, y que solo puede ser aportada por la
intervención humana.
La cuestión
clave es cómo combinar los beneficios de la automatización, los beneficios de
los algoritmos de IA, con los mecanismos de decisión de las sociedades democráticas
donde los ciudadanos deben tener la última palabra. Automatizar ciertas
decisiones individuales o colectivas implica grandes beneficios en términos de
efectividad. Pero este potencial puede constituir una amenaza si implica una
rendición absoluta de nuestra soberanía, de nuestra capacidad de decisión.
Se
están instalando algoritmos de IA en las administraciones públicas y en las
empresas y nos quieren convencer de que sus decisiones son neutrales y las
únicas posibles. Pero en la época de la IA la política no sólo no desaparece,
sino que es allí donde propiamente comienza y tiene sentido. Politizar,
democratizar, implica, siempre, complicar ciertas cosas que antes estaban
cómodamente decididas por la tradición, cuestionar la autoridad establecida,
ampliar el campo de lo políticamente discutible, en suma, ampliar las
posibilidades. Resulta inquietante ver cómo la digitalización, los algoritmos
en general y los de IA en particular, se presentan como un proceso
despolitizado; se insiste demasiado en su determinismo, que nos invita a renunciar
a decidir, a imaginar un mundo diferente. Este determinismo puede llevarnos a
renunciar a la política y en ese caso ya han ganado los actuales vencedores: los
que acumulan la mayor parte de las riquezas y del poder real, y se seguirán perpetuando
las actuales desigualdades.
En
esta época de algoritmos inteligentes debemos reivindicar la política, con
todas sus imperfecciones, como el mecanismo humano de toma de decisiones,
posiblemente ayudada por la IA.
Muchas
de las ideas anteriores son reelaboraciones de las expuestas en Una teoría
crítica de la inteligencia artificial, de Daniel Innerarity (Galaxia
Gutenberg, 2025).