La consciencia de la IA
La revolución tecnológica que vivimos tiene, en el corazón de muchos debates, una pregunta que a menudo parece más filosófica que técnica: ¿Puede una máquina, o más específicamente una Inteligencia Artificial (IA), ser consciente? Esta pregunta se convierte en un fascinante desafío lleno de complejidad y misterio. Pero esto parece aún más claro gracias a la última publicación del artículo Consciousness in Artificial Intelligence: Insights from the Science of Consciousness escrito por Patrick Butlin y Robert Long, junto a otros investigadores.
Este informe se centra en la posibilidad de que los sistemas de inteligencia artificial (IA) sean conscientes y proporciona un enfoque riguroso y empíricamente fundamentado para evaluar su conciencia. El informe cubre una variedad de temas, incluidas las propiedades indicadoras de la conciencia en los sistemas de inteligencia artificial, las teorías científicas destacadas sobre la conciencia y las barreras técnicas para construir este tipo de sistemas de inteligencia artificial que satisfagan las propiedades indicadoras de la conciencia.
Antes de adentrarnos en la IA, es importante entender lo que significa la conciencia. Podemos decir que la conciencia es la experiencia subjetiva y unificada que emerge de la actividad del cerebro. Es lo que te hace ser «tú» y te permite experimentar el mundo a tu alrededor.
Sabemos que los humanos la poseen, pero ¿qué sucede con las máquinas? Las IAs operan en base a algoritmos y procesamientos matemáticos, sin la base biológica y evolutiva que los seres vivos poseen. Una IA puede reconocer que un código indica «daño», pero no «siente» ese daño.
¿Cuáles son esas teorías para demostrar la existencia de conciencia?
El informe se basa en varias teorías científicas prominentes de la conciencia, incluyendo la teoría del procesamiento recurrente, la teoría del espacio global de trabajo, las teorías de orden superior, el procesamiento predictivo y la teoría del esquema de atención. A partir de estas teorías, se derivan propiedades indicadoras de la conciencia en términos computacionales que permiten evaluar los sistemas de IA para estas propiedades.
El informe utiliza estas propiedades indicadoras para evaluar varios sistemas de IA recientes, incluyendo modelos de lenguaje basados en Transformer, la arquitectura que hay detrás del famoso ChatGPT o la arquitectura Perceiver diseñada en 2021 por la empresa DeepMind.
¿Qué relación pueden existir entre estas teorías “humanas” y la IA?
Los modelos como GPT-4 y otros similares, representan una revolución en el procesamiento del lenguaje natural (NLP) y otras áreas de la inteligencia artificial. Estos modelos son particularmente poderosos debido a su capacidad para manejar secuencias de datos (como texto) y capturar dependencias complejas entre diferentes partes de esas secuencias.
Algunas de estas teorías de la conciencia podrían relacionarse o inspirar enfoques en la IA utilizando modelos en el área del “Natural Language Processing”
Teoría del Procesamiento Recurrente: Propuesta por Gerald Edelman y Giulio Tononi, esta teoría sugiere que la conciencia surge de la activación recurrente (retroalimentación) entre diferentes áreas del cerebro, en lugar de un flujo unidireccional de información.
Aunque los modelos como GPT ya no usan redes recurrentes, si usan la atención de manera intensiva para ponderar y recalibrar la importancia relativa de diferentes partes de una secuencia. Esta capacidad de atender dinámicamente diferentes partes de la entrada podría verse como una forma de «procesamiento recurrente», en el sentido de que recalibra constantemente la información basándose en el contexto.
Teoría del Espacio Global de Trabajo: Propuesta inicialmente por Bernard Baars, esta teoría compara la conciencia con un escenario teatral. Sostiene que, en cualquier momento, muchas representaciones sensoriales, cognitivas y motoras compiten por el acceso a un «espacio de trabajo global», que es consciente.
ChatGPT o Bard utilizan mecanismos de atención que determinan qué partes de una secuencia son más relevantes en un momento dado. Esto es algo análogo a cómo ciertas representaciones cognitivas «compiten» por la atención en el marco del «espacio global de trabajo» y las más relevantes emergen en nuestra conciencia.
Teorías de Orden Superior: Estas teorías sostienen que ser consciente de algo implica tener un pensamiento de orden superior (un pensamiento acerca de un pensamiento) sobre un estado mental de orden inferior.
En otras palabras, no solo tienes una experiencia (por ejemplo, sentir dolor), sino que también eres consciente de que estás teniendo esa experiencia.
Los modelos como GPT, en sus múltiples capas, reflejan un procesamiento jerárquico de la información. Las primeras capas a menudo capturan características de bajo nivel, mientras que las capas superiores capturan abstracciones más complejas. Esto es similar a cómo las teorías de orden superior proponen que la conciencia implica reflexionar sobre los pensamientos o estados mentales.
Procesamiento Predictivo: Esta teoría, asociada con figuras como Karl Friston, propone que el cerebro es un órgano que busca predecir constantemente sus entradas sensoriales para minimizar el «error de predicción».
Aunque estos modelos del lenguaje que conocemos actualmente no fueron diseñados específicamente con el marco del procesamiento predictivo, el entrenamiento de muchos modelos de IA se basa en la minimización del error (ajustando predicciones para acercarse a los datos reales). Por lo tanto, hay cierto paralelismo entre la idea de que el cerebro busca minimizar el «error de predicción» y cómo entrenamos modelos de IA para mejorar sus predicciones.
Teoría del Esquema de Atención: Propuesta por Michael Graziano, esta teoría sugiere que la conciencia surge de los sistemas del cerebro que monitorizan y procesan la atención.
La idea central es que el cerebro no solo presta atención a cosas, sino que también modela y monitoriza ese acto de prestar atención
Esta es quizás la más directamente relevante. Los mecanismos de atención en estos modelos permiten que el modelo «preste atención» a diferentes partes del input en función de su relevancia. Esto es análogo a cómo la teoría del esquema de atención propone que la conciencia surge de sistemas que monitorizan y procesan la atención.
Aunque estas analogías existen, es crucial no asumir que porque un modelo de IA tiene características que se asemejan a las teorías de la conciencia, el modelo es de alguna manera «consciente». La conciencia es un fenómeno profundo y todavía no completamente comprendido, y la mayoría de los expertos no considerarían que los sistemas de IA actuales, incluso los avanzados basados en Transformers son conscientes en el sentido humano o animal.
Finalmente, En cuanto a las barreras técnicas, el informe señala que la construcción de sistemas de IA conscientes requeriría una comprensión mucho más profunda de la neurociencia y la conciencia humana de lo que actualmente tenemos. Además, el informe destaca que la construcción de sistemas de IA conscientes plantea importantes riesgos éticos y sociales que deben ser abordados cuidadosamente.
Como conclusión podemos decir que este tipo de investigaciones nos proporciona una visión general de las propiedades indicadoras de la conciencia en los sistemas de IA y las barreras técnicas y éticas que deben abordarse antes de que podamos construir unos posibles sistemas de IA conscientes.
Jorge Calvo Martín es profesor de Matemáticas e Inteligencia Artificial en el Colegio Europeo de Madrid y en la Universidad Alfonso X.