Miguel Toro
10 de septiembre de 2024
Este artículo fue publicado originalmente en elDiario.es el
pasado 5 de septiembre
Los algoritmos en general y los de inteligencia artificial (IA) en particular están
transformando la forma en que vivimos y trabajamos. Estas tecnologías prometen mejorar
la eficiencia, la precisión y la toma de decisiones en una variedad de
sectores. Sin embargo, a medida que la IA se vuelve más omnipresente, surge la
cuestión de la responsabilidad. ¿quién es responsable cuando un algoritmo toma
una decisión incorrecta o perjudicial?
Como ya sabemos los algoritmos son secuencias de
instrucciones lógicas utilizadas por las computadoras para procesar datos y
tomar decisiones. Y en particular “los algoritmos inteligentes”, la IA, son
aquellos con capacidad para imitar la inteligencia humana y realizar tareas que
normalmente requerirían la intervención de una persona. Y aquí viene la
pregunta: ¿Son inteligentes los algoritmos de IA?
Y si es afirmativa la respuesta a la pregunta anterior ¿está cercana, como afirman algunos, una supuesta superinteligencia artificial que decida controlar el mundo?.
Son preguntas que usan conceptos muy relacionados:
inteligencia, responsabilidad, control del mundo con un objetivo determinado.
En fechas cercanas a la Segunda Guerra Mundial se pensaba
que la mente humana es en esencia un ordenador muy sofisticado y que el
desarrollo de los ordenadores daría lugar a algoritmos que podrían reproducir
las capacidades humanas. Es decir que no podríamos distinguir las tareas
realizadas por un algoritmo a las llevadas a cabo por una persona. En muchos
campos específicos estos algoritmos ya existen y pueden desarrollar tareas
mejor que los humanos. Los algoritmos que juegan al ajedrez son una prueba de
ello. El reciente ChatGpt y sus variantes otra. Esta situación ha llevado a
llamar a estos “algoritmos inteligentes" y concluir, demasiado
rápidamente, que pueden razonar y que las decisiones que toman serán mejores
que las que toman los humanos.
Pero hay algo que falta en los actuales algoritmos de IA:
el razonamiento de sentido común. La ausencia de conocimientos de sentido común
imposibilita que un sistema de inteligencia artificial pueda tener una comprensión
profunda del lenguaje. Lo que hacen, según el término usado por Ramon Lopez de
Mantaras, es mucho mas cercano a recitar en base a "aproximaciones"
que razonar. Pueden generar texto combinando probabilísticamente complejos
patrones lingüísticos previamente aprendidos, sin comprender su contenido.
Los actuales sistemas de IA generativa no son inteligencia
sino “habilidades sin comprensión”. Es decir, sistemas que pueden llegar a ser
muy hábiles llevando a cabo tareas, como por ejemplo generar imágenes o textos
plausibles y persuasivos, pero sin comprender absolutamente nada sobre la
naturaleza de lo que genera.
Las estrategias estadísticas que se utilizan para reconocer
y predecir patrones son inadecuadas para captar la esencia de muchas
habilidades humanas. Para empezar, estos métodos tendrán serias dificultades
con la naturaleza contextual de la inteligencia porque es difícil definir y
codificar la situación exacta en la que se encuentran.
Crear tecnología que imite a los humanos, haciéndose pasar por
algo humano, requiere que tengamos muy claro que significa ser humano y uno de
los aspectos fundamentales del ser humano es que es responsable de sus actos.
Fabricar dinero falsificado es un delito y falsificar
personas debería ser un delito ya que a las “personas” falsificadas no se les
puede exigir responsabilidades y eso las convierte en actores amorales con gran
capacidad para generar multitud de falsedades, es decir con gran capacidad de
desinformar. Los responsables son los creadores de estas tecnologías, los
creadores de los algoritmos.
De hecho, cuanto mas sofisticados sean los sistemas de IA,
mas responsabilidades deberíamos exigir a sus diseñadores y programadores de
forma que se asegure que cumplan principios legales y éticos estrictos. Las
inteligencias artificiales no tienen, ni tendrán nunca, al menos en un
horizonte cercano, intencionalidad ni objetivos propios; su desarrollo
involucra a personas en todas las fases, desde la concepción y diseño del
algoritmo, hasta su implementación, entrenamiento y despliegue. Los agentes
morales somos nosotros y no las maquinas. Si algo sale mal, el responsable no
es el algoritmo, somos nosotros:
El peligro de la IA no es, como afirman algunos, una
supuestamente cercana superinteligencia artificial que decida controlar el
mundo. Posiblemente los discursos apocalípticos sobre los peligros
existenciales a largo plazo de la IA se han puesto encima de la mesa de forma
interesada como una cortina de humo para distraernos e intentar esconder los
verdaderos problemas actuales de la IA: la falsificación de personas, la violación
de la privacidad, la facilidad para generar textos, imágenes y videos falsos
para manipular y polarizar, la vigilancia y control masivo de la ciudadanía, la
autonomía de los sistemas (en particular las armas letales autónomas), etc.
Además debemos tener en cuenta que diferentes decisiones
tecnológicas —por ejemplo, sobre algoritmos que se usan para contratar, para
gestionar productos financieros— tienen consecuencias políticas y económicas
distintas. Los algoritmos no son neutrales. Suelen tener sesgos porque
reproducen, y en muchos casos amplifican, los sesgos de la sociedad. Todo el
mundo debería poder expresar su opinión sobre si son deseables o incluso
aceptables
Cuando una empresa decide desarrollar una tecnología para ofrecer
publicidad personalizada, para llevar a cabo reconocimiento facial para pueda encontrar
una cara en medio de la multitud, o garantizar que la gente participa o no en
una protesta, sus ingenieros son los mejor posicionados para decidir cómo
diseñar el software. La orientación y la forma de utilizar una tecnología en
particular siempre se entrecruza con la visión y los intereses de los
individuos que ostentan el poder. Pero debería ser el conjunto de la sociedad
quién decidiera si esa clase de software debería diseñarse y desplegarse.
Escuchar a voces distintas obliga a aclarar cuáles son esas consecuencias y
permite que las personas no expertas puedan hablar sobre lo que quieren ver
hecho realidad.
En medio de esta situación, aparece una trampa tecnológica:
los gobiernos con dinero y poder que quieren acabar con las disidencias exigen
tecnologías IA para controlar a la población. Cuanto mayor es la demanda,
más investigadores trabajan en el sector. Y cuanto más se mueve la
IA en esta dirección, más atractiva resulta a los gobiernos autoritarios
(o a los que les gustaría serlo).
Los discursos de odio, el extremismo y la desinformación
generan emociones extremas e incrementan la participación y el tiempo invertido
en una plataforma. Eso permite a Facebook, por ejemplo, vender más publicidad
digital individualizada. Se usa el término “filtro burbuja” para indicar los
filtros algorítmicos que están creando un entorno artificial en el que la gente
sólo oye aquellas voces que coinciden con sus opiniones políticas. Los filtros
burbuja tienen efectos perniciosos.
La desinformación y las llamadas al odio no se limitan a
Facebook. Las decisiones algorítmicas de YouTube y sus esfuerzos por aumentar
el tiempo de visionado han tenido una importancia fundamental. Con el fin de
incrementar las horas de conexión, la empresa modificó su algoritmo para priorizar
los vídeos que parecían enganchar a los espectadores, incluidos algunos de los
contenidos extremistas más incendiarios. La inteligencia artificial puede
amenazar la democracia.
Si la inteligencia artificial, en muchos casos, sólo
conduce a una automatización a medias, ¿por qué tanto entusiasmo por la IA? La
respuesta son los ingresos que las empresas dedicadas a recopilar enormes
cantidades de datos obtienen con la publicidad individualizada. Los anuncios
digitales sólo sirven de algo si la gente les presta atención, por lo que su
modelo de negocio obliga a las plataformas a aumentar la interacción de los
usuarios con los contenidos en línea. La manera más efectiva de conseguirlo ha
resultado ser la promoción de las emociones más extremas, como la indignación y
la rabia, pero esto está produciendo muchos daños colaterales.
Podemos salir del actual atolladero si conseguimos reconfigurar la distribución de poder en la sociedad y reorientar el cambio tecnológico. Una transformación de este estilo sólo podrá producirse con procesos democráticos. Hay que avanzar en el camino de identificar a los responsables de los algoritmos, a los responsables de su diseño, a los responsables de sus objetivos implícitos, a los responsables, por tanto, de los efectos colaterales que puedan producir. Esto incluye, entre otros, a los algoritmos que regulan las redes sociales. Debemos abrir los algoritmos y sus usos al debate público para concluir si son aceptables o no y, en su caso, quien es el responsable de las acciones que puedan tomar. La Ley de la Inteligencia Artificial de la UE es un paso, aunque tímido, en esa dirección. De la misma forma que un medicamento debe ser aprobado antes de su uso por la Agencia Europea o Española de medicamentos, un algoritmo debería ser evaluado antes de su uso. Tras los tímidos pasos de la UE ya algunas empresas como Meta, la empresa matriz de Facebook, Instagram, etc., anuncian que no ofrecerán sus nuevos modelos de IA generativa en Europa por su “impredecible entorno regulatorio”. ¿Acaso no quieren someterse a un control democrático?
Se han usado ideas de la conferencia Reflexiones sobre la inteligencia de la Inteligencia Artificial de Ramón López de Mántaras en el Congreso Español de Informática de 2024.