Vientos de Cambio Justo

martes, 10 de septiembre de 2024

LOS ALGORITMOS DE IA NO SON RESPONSABLES


Miguel Toro

10 de septiembre de 2024

Este artículo fue publicado originalmente en elDiario.es el pasado 5 de septiembre

Los algoritmos en general y los de inteligencia artificial (IA) en particular están transformando la forma en que vivimos y trabajamos. Estas tecnologías prometen mejorar la eficiencia, la precisión y la toma de decisiones en una variedad de sectores. Sin embargo, a medida que la IA se vuelve más omnipresente, surge la cuestión de la responsabilidad. ¿quién es responsable cuando un algoritmo toma una decisión incorrecta o perjudicial?

Como ya sabemos los algoritmos son secuencias de instrucciones lógicas utilizadas por las computadoras para procesar datos y tomar decisiones. Y en particular “los algoritmos inteligentes”, la IA, son aquellos con capacidad para imitar la inteligencia humana y realizar tareas que normalmente requerirían la intervención de una persona. Y aquí viene la pregunta: ¿Son inteligentes los algoritmos de IA?

Y si es afirmativa la respuesta a la pregunta anterior ¿está cercana, como afirman algunos, una supuesta superinteligencia artificial que decida controlar el mundo?.

Son preguntas que usan conceptos muy relacionados: inteligencia, responsabilidad, control del mundo con un objetivo determinado.

En fechas cercanas a la Segunda Guerra Mundial se pensaba que la mente humana es en esencia un ordenador muy sofisticado y que el desarrollo de los ordenadores daría lugar a algoritmos que podrían reproducir las capacidades humanas. Es decir que no podríamos distinguir las tareas realizadas por un algoritmo a las llevadas a cabo por una persona. En muchos campos específicos estos algoritmos ya existen y pueden desarrollar tareas mejor que los humanos. Los algoritmos que juegan al ajedrez son una prueba de ello. El reciente ChatGpt y sus variantes otra. Esta situación ha llevado a llamar a estos “algoritmos inteligentes" y concluir, demasiado rápidamente, que pueden razonar y que las decisiones que toman serán mejores que las que toman los humanos.

Pero hay algo que falta en los actuales algoritmos de IA: el razonamiento de sentido común. La ausencia de conocimientos de sentido común imposibilita que un sistema de inteligencia artificial pueda tener una comprensión profunda del lenguaje. Lo que hacen, según el término usado por Ramon Lopez de Mantaras, es mucho mas cercano a recitar en base a "aproximaciones" que razonar. Pueden generar texto combinando probabilísticamente complejos patrones lingüísticos previamente aprendidos, sin comprender su contenido.

Los actuales sistemas de IA generativa no son inteligencia sino “habilidades sin comprensión”. Es decir, sistemas que pueden llegar a ser muy hábiles llevando a cabo tareas, como por ejemplo generar imágenes o textos plausibles y persuasivos, pero sin comprender absolutamente nada sobre la naturaleza de lo que genera.

Las estrategias estadísticas que se utilizan para reconocer y predecir patrones son inadecuadas para captar la esencia de muchas habilidades humanas. Para empezar, estos métodos tendrán serias dificultades con la naturaleza contextual de la inteligencia porque es difícil definir y codificar la situación exacta en la que se encuentran.

Crear tecnología que imite a los humanos, haciéndose pasar por algo humano, requiere que tengamos muy claro que significa ser humano y uno de los aspectos fundamentales del ser humano es que es responsable de sus actos.

Fabricar dinero falsificado es un delito y falsificar personas debería ser un delito ya que a las “personas” falsificadas no se les puede exigir responsabilidades y eso las convierte en actores amorales con gran capacidad para generar multitud de falsedades, es decir con gran capacidad de desinformar. Los responsables son los creadores de estas tecnologías, los creadores de los algoritmos.

De hecho, cuanto mas sofisticados sean los sistemas de IA, mas responsabilidades deberíamos exigir a sus diseñadores y programadores de forma que se asegure que cumplan principios legales y éticos estrictos. Las inteligencias artificiales no tienen, ni tendrán nunca, al menos en un horizonte cercano, intencionalidad ni objetivos propios; su desarrollo involucra a personas en todas las fases, desde la concepción y diseño del algoritmo, hasta su implementación, entrenamiento y despliegue. Los agentes morales somos nosotros y no las maquinas. Si algo sale mal, el responsable no es el algoritmo, somos nosotros:

El peligro de la IA no es, como afirman algunos, una supuestamente cercana superinteligencia artificial que decida controlar el mundo. Posiblemente los discursos apocalípticos sobre los peligros existenciales a largo plazo de la IA se han puesto encima de la mesa de forma interesada como una cortina de humo para distraernos e intentar esconder los verdaderos problemas actuales de la IA: la falsificación de personas, la violación de la privacidad, la facilidad para generar textos, imágenes y videos falsos para manipular y polarizar, la vigilancia y control masivo de la ciudadanía, la autonomía de los sistemas (en particular las armas letales autónomas), etc.

Además debemos tener en cuenta que diferentes decisiones tecnológicas —por ejemplo, sobre algoritmos que se usan para contratar, para gestionar productos financieros— tienen consecuencias políticas y económicas distintas. Los algoritmos no son neutrales. Suelen tener sesgos porque reproducen, y en muchos casos amplifican, los sesgos de la sociedad. Todo el mundo debería poder expresar su opinión sobre si son deseables o incluso aceptables

Cuando una empresa decide desarrollar una tecnología para ofrecer publicidad personalizada, para llevar a cabo reconocimiento facial para pueda encontrar una cara en medio de la multitud, o garantizar que la gente participa o no en una protesta, sus ingenieros son los mejor posicionados para decidir cómo diseñar el software. La orientación y la forma de utilizar una tecnología en particular siempre se entrecruza con la visión y los intereses de los individuos que ostentan el poder. Pero debería ser el conjunto de la sociedad quién decidiera si esa clase de software debería diseñarse y desplegarse. Escuchar a voces distintas obliga a aclarar cuáles son esas consecuencias y permite que las personas no expertas puedan hablar sobre lo que quieren ver hecho realidad.

En medio de esta situación, aparece una trampa tecnológica: los gobiernos con dinero y poder que quieren acabar con las disidencias exigen tecnologías IA para controlar a la población. Cuanto mayor es la demanda, más investigadores trabajan en el sector. Y cuanto más se mueve la IA en esta dirección, más atractiva resulta a los gobiernos autoritarios (o a los que les gustaría serlo).

Los discursos de odio, el extremismo y la desinformación generan emociones extremas e incrementan la participación y el tiempo invertido en una plataforma. Eso permite a Facebook, por ejemplo, vender más publicidad digital individualizada. Se usa el término “filtro burbuja” para indicar los filtros algorítmicos que están creando un entorno artificial en el que la gente sólo oye aquellas voces que coinciden con sus opiniones políticas. Los filtros burbuja tienen efectos perniciosos.

La desinformación y las llamadas al odio no se limitan a Facebook. Las decisiones algorítmicas de YouTube y sus esfuerzos por aumentar el tiempo de visionado han tenido una importancia fundamental. Con el fin de incrementar las horas de conexión, la empresa modificó su algoritmo para priorizar los vídeos que parecían enganchar a los espectadores, incluidos algunos de los contenidos extremistas más incendiarios. La inteligencia artificial puede amenazar la democracia.

Si la inteligencia artificial, en muchos casos, sólo conduce a una automatización a medias, ¿por qué tanto entusiasmo por la IA? La respuesta son los ingresos que las empresas dedicadas a recopilar enormes cantidades de datos obtienen con la publicidad individualizada. Los anuncios digitales sólo sirven de algo si la gente les presta atención, por lo que su modelo de negocio obliga a las plataformas a aumentar la interacción de los usuarios con los contenidos en línea. La manera más efectiva de conseguirlo ha resultado ser la promoción de las emociones más extremas, como la indignación y la rabia, pero esto está produciendo muchos daños colaterales.

Podemos salir del actual atolladero si conseguimos reconfigurar la distribución de poder en la sociedad y reorientar el cambio tecnológico. Una transformación de este estilo sólo podrá producirse con procesos democráticos. Hay que avanzar en el camino de identificar a los responsables de los algoritmos, a los responsables de su diseño, a los responsables de sus objetivos implícitos, a los responsables, por tanto, de los efectos colaterales que puedan producir. Esto incluye, entre otros, a los algoritmos que regulan las redes sociales. Debemos abrir los algoritmos y sus usos al debate público para concluir si son aceptables o no y, en su caso, quien es el responsable de las acciones que puedan tomar. La Ley de la Inteligencia Artificial de la UE es un paso, aunque tímido, en esa dirección. De la misma forma que un medicamento debe ser aprobado antes de su uso por la Agencia Europea o Española de medicamentos, un algoritmo debería ser evaluado antes de su uso. Tras los tímidos pasos de la UE ya algunas empresas como Meta, la empresa matriz de Facebook, Instagram, etc., anuncian que no ofrecerán sus nuevos modelos de IA generativa en Europa por su “impredecible entorno regulatorio”. ¿Acaso no quieren someterse a un control democrático?

Se han usado ideas de la conferencia Reflexiones sobre la inteligencia de la Inteligencia Artificial de Ramón López de Mántaras en el Congreso Español de Informática de 2024.