Páginas

martes, 23 de septiembre de 2025

¿SON NEUTRALES LOS ALGORITMOS DE IA?

 

Miguel Toro

23 de septiembre de 2025

Este artículo fue publicado originalmente en elDiario.es el pasado 5 de septiembre

 

Estamos viviendo unos momentos donde vemos cómo los algoritmos de Inteligencia Artificial (IA), las inteligencias artificiales, pueden procesar enormes cantidades de datos y a partir de ellos proponer soluciones a problemas técnicos y sociales. En definitiva, ayudar a gestionar un mundo cada vez más complejo. Muchos se preguntan si la política sobrevivirá a la informática, si es posible la política cuando se complican los procedimientos para la toma de decisiones colectivas en un entorno de creciente complejidad, donde los algoritmos son capaces de analizar datos y proponer soluciones.

Se extiende la idea de que los algoritmos neutralizan los prejuicios subjetivos mediante procedimientos exactos de decisión y por lo tanto pueden hacer innecesaria la política. Algunas organizaciones justifican sus decisiones en que han sido tomadas por un algoritmo. Se nos intenta convencer de que cualquier desafío social puede resolverse como un problema técnico cuya solución simplemente requiere procedimientos algorítmicos, que el análisis de datos conduce a una única elección racional y por lo tanto hace innecesario el debate político y la política. La filosofía alrededor de los nuevos algoritmos de IA se mezcla y se refuerza con una vieja tradición –podemos llamarla tecnocracia– que considera que existe una objetividad indiscutible proporcionada por la tecnología, por algoritmos de algún tipo, para la solución de cualquier diferencia de opinión. Esta filosofía nos quiere convencer de que con la objetividad algorítmica las ideologías quedan obsoletas al ser superadas por los algoritmos.

Pero los algoritmos de inteligencia artificial aprenden a partir de datos que ya existen, mirando al pasado y copiando patrones, detectan correlaciones que no tienen por qué ser causalidades. Detecta patrones que no tienen por qué ser inmutables y pueden ser casuales. Si confiamos demasiado en que esos datos son neutrales y justos, podemos olvidar que detrás de ellos hay intereses. Esto puede hacer que no investiguemos las posibles discriminaciones que generan y que no pensemos en otras soluciones alternativas.

Los datos, tomados de la realidad social, reflejan diversas formas de poder que no siempre están justificadas. Contienen estructuras y reglas sociales que los algoritmos repiten automáticamente, incluso si parecen imparciales. Confiar demasiado en los datos puede hacernos creer que ofrecen una verdad absoluta, cuando en realidad no muestran el contexto ni incluyen toda la realidad.

En muchos casos se ignora a determinados grupos: los que no están asegurados, los que no tienen permiso de residencia, ni acceso a los servicios de salud, los que no tienen formación digital, etc. A veces se ignora a los que están fuera de las normas establecidas. En muchos casos tienen sesgos que se heredan de la propia realidad. Mejorar los algoritmos siempre es muy necesario, pero podemos creer que para conseguir la objetividad de los algoritmos es suficiente con mejorar los datos.

Pero aunque los datos fueran perfectos, aunque incluyeran a todos los grupos, aunque se hubieran eliminado los sesgos más evidentes, siempre reflejan la realidad con sus desigualdades y discriminaciones. Los datos transmiten el statu quo y lo reproducen. Reflejan la sociedad como está, con sus reglas de funcionamiento, aunque estas reglas sean del interés de algunos grupos solamente.

Los algoritmos suelen acertar cuando advierten de que un grupo de población suele cometer más delitos que otro, pero no se preguntan por qué eso es así y mucho menos se plantean decisiones políticas para poner remedio a esa realidad. La predicción algorítmica da al statu quo un carácter inmutable, aunque la situación analizada esté plagada de desigualdades evidentes para muchos. Los algoritmos no solo describen la realidad existente, sino que influyen en cómo debe ser entendida o gestionada, como si sus predicciones tuvieran autoridad para establecer lo que es correcto, esperado o aceptable. En definitiva, los algoritmos refuerzan las desigualdades existentes mediante previsiones supuestamente objetivas.

El hecho de que automaticemos ciertas decisiones individuales o colectivas implica grandes beneficios en términos de efectividad. Sin embargo, este potencial puede constituir una amenaza si implica una rendición absoluta de nuestra soberanía. En definitiva, ¿quién decide cuando, aparentemente, nadie decide? ¿Quién se beneficia cuando parece que nadie está decidiendo, en la medida que las decisiones las toma un algoritmo? Porque en las sociedades humanas siempre hay algunos grupos que se benefician de lo producido por otros.

Queremos vivir en una democracia y una cuestión clave es decidir si nuestras vidas deben estar regidas por procedimientos algorítmicos. El interrogante fundamental es qué lugar ocupa la decisión política en una democracia algorítmica. La democracia es libre decisión, voluntad popular, autogobierno. ¿Hasta qué punto es esto posible y tiene sentido en los entornos algorítmicos que anuncia la inteligencia artificial? En definitiva, qué decisiones queremos dejar a los algoritmos y por lo tanto sacarlas de la contienda política.

Frente a los algoritmos la política tiene, entre sus funciones más características, el objetivo de formular proyectos de ruptura con esa realidad tan insatisfactoria para muchos desde distintos puntos de vista. La política se pregunta qué datos requieren las decisiones políticas que queremos tomar en vez de solo justificar una decisión política con los datos existentes.

Las decisiones políticas son algo más que cálculos; los problemas persistirán siempre que usemos únicamente datos para adoptar decisiones que implican juicios sociales y de valor. Un ejemplo ilustrativo de las limitaciones de los modelos algorítmicos lo constituye un programa que ha estimado que los pasajeros de primera clase del Titanic presentaban una mayor probabilidad de supervivencia. No obstante, esta inferencia no debe interpretarse como una valoración moral sobre quién merecía sobrevivir. Si se aplicara esta lógica al ámbito de los seguros, aunque de hecho se aplique usualmente, se podría concluir que los viajeros de primera clase deberían abonar primas más bajas, lo cual resulta socialmente inaceptable, ya que implicaría penalizar a quienes no disponen de los mismos recursos económicos. Este caso evidencia que ciertos juicios requieren una comprensión ética y contextual que excede las capacidades de los sistemas automatizados, y que solo puede ser aportada por la intervención humana.

La cuestión clave es cómo combinar los beneficios de la automatización, los beneficios de los algoritmos de IA, con los mecanismos de decisión de las sociedades democráticas donde los ciudadanos deben tener la última palabra. Automatizar ciertas decisiones individuales o colectivas implica grandes beneficios en términos de efectividad. Pero este potencial puede constituir una amenaza si implica una rendición absoluta de nuestra soberanía, de nuestra capacidad de decisión.

Se están instalando algoritmos de IA en las administraciones públicas y en las empresas y nos quieren convencer de que sus decisiones son neutrales y las únicas posibles. Pero en la época de la IA la política no sólo no desaparece, sino que es allí donde propiamente comienza y tiene sentido. Politizar, democratizar, implica, siempre, complicar ciertas cosas que antes estaban cómodamente decididas por la tradición, cuestionar la autoridad establecida, ampliar el campo de lo políticamente discutible, en suma, ampliar las posibilidades. Resulta inquietante ver cómo la digitalización, los algoritmos en general y los de IA en particular, se presentan como un proceso despolitizado; se insiste demasiado en su determinismo, que nos invita a renunciar a decidir, a imaginar un mundo diferente. Este determinismo puede llevarnos a renunciar a la política y en ese caso ya han ganado los actuales vencedores: los que acumulan la mayor parte de las riquezas y del poder real, y se seguirán perpetuando las actuales desigualdades.

En esta época de algoritmos inteligentes debemos reivindicar la política, con todas sus imperfecciones, como el mecanismo humano de toma de decisiones, posiblemente ayudada por la IA.

Muchas de las ideas anteriores son reelaboraciones de las expuestas en Una teoría crítica de la inteligencia artificial, de Daniel Innerarity (Galaxia Gutenberg, 2025).