Artículo facilitado por Deside Datum
Hace tiempo que la ciencia ficción ha creado imaginarios diversos sobre la inteligencia artificial (IA). Desde ordenadores que se rebelan contra los humanos hasta humanos que se enamoran de las máquinas.
Lo cierto es que desde la década de los 50, con el avance de la computación, muchos han soñado con replicar la inteligencia humana. Desde entonces, se han producido grandes desarrollos en ese campo, intercalados con periodos conocidos como inviernos de la IA, durante los cuales las expectativas e interés en este campo se desvanecen.
En este momento, no cabe duda de que estamos en una fase de expansión, quizás la más acelerada de las que han ocurrido. El desarrollo de los modelos llamados Transformers, junto con la gran cantidad de datos disponibles y la disminución de los costes de computación, han permitido el desarrollo de la IA generativa, que nos dejó sorprendidos a muchos hace ya un par de años.
Aun así, los grandes objetivos que se planteaban aún no parecen haber sido alcanzados, y muchas preguntas siguen en el aire. ¿Son los grandes modelos de lenguaje el mejor camino para alcanzar la inteligencia artificial general? ¿Tiene ChatGPT comportamientos emergentes? ¿Qué riesgos supone esta supuesta inteligencia artificial general para el futuro de la humanidad?
La realidad es que mientras estos debates están sucediendo, la industria va mucho más rápido, y los sistemas de IA ya se están aplicando en prácticamente todos los sectores económicos.
Además, esta nueva fase expansiva de la IA tiene la particularidad de que cada avance que se produce está disponible de forma casi inmediata y, en muchos casos, a coste muy reducido.
Actualmente, los riesgos derivados del uso de la IA a los que nos enfrentamos son menos trascendentales, pero no por eso menos peligrosos. Así pues, las preguntas más urgentes que debemos responder son de otro tipo:
¿Es posible garantizar una justa representación de todos los grupos sociales en los datos de entrenamiento?
¿Cómo se puede asegurar que un sistema de IA no está replicando sesgos discriminatorios?
¿Es posible saber el motivo por el cual un sistema de IA recomienda no otorgarle una hipoteca a una persona? ¿O no concederle un permiso penitenciario?
¿Es posible identificar qué variables de los datos de entrenamiento, y en qué porcentaje, están contribuyendo a la toma de decisiones?
¿Es posible garantizar la fiabilidad de las respuestas de un modelo de generación de texto?
¿Cómo se puede garantizar que las personas responsables de tomar decisiones utilizando la IA entienden cómo opera y son capaces de supervisarlo?
La respuesta a muchas de estas cuestiones es compleja, y escapa de lo estrictamente técnico. Debemos entender los sistemas de IA como sistemas sociotécnicos. Esto es, sistemas tecnológicos que están integrados en los valores, dinámicas y expectativas de la sociedad que los ha generado y que los aplica.
Algunas iniciativas que pretenden contribuir a una IA más transparente y responsable están ya en funcionamiento. La EU AI Act establece un marco controlado para la comercialización de la IA basado en niveles de riesgo según los casos de uso; el Registro de Transparencia Algorítmica de EUROCITIES pretende ser un estándar para tener un control de los algoritmos implementados; y la Guía de la UNESCO para un uso responsable de la IA propone unas recomendaciones para que los estados puedan desplegar la IA de manera controlada. No obstante, aún queda mucho por hacer en este campo tan complejo.
Por todo ello, es necesario que las organizaciones se doten de equipos preparados para el gobierno de la IA con un enfoque multidisciplinar, que entiendan los riesgos de la inteligencia artificial y sepan plantear enfoques amplios para mitigarlos. Se necesitan equipos, en definitiva, que sepan plantear las preguntas adecuadas. En DesideDatum os podemos ayudar al respecto…
22a Festibity
13 de maig de 2025 - Teatre Nacional de Catalunya