Fedea publica hoy un trabajo de Álvaro Gaviño González, Behavioral Economics Principal Manager en BBVA, en el que se reflexiona sobre cómo la inteligencia artificial (IA) está cambiando la manera en que se entiende el comportamiento humano y las posibilidades que abre. En la dirección contraria, también cómo las ciencias del comportamiento pueden ayudar a moldear el desarrollo de la IA y su adopción.
El autor destaca la historia compartida en el nacimiento de la IA y las ciencias del comportamiento y, en particular, el papel que en ambas disciplinas juega la presencia de racionalidad limitada y la toma de decisiones en entornos de información incompleta. De hecho, se señala cómo los mecanismos de atención en IA, específicamente en modelos como los Transformers, pueden verse como una forma de abordar la limitación, compartida entre humanos y máquinas, consistente en una capacidad finita de atención, procesamiento o racionalidad, limitación ya descrita en los inicios de la IA moderna por Herbert Simon con el concepto de racionalidad limitada. El autor señala también cómo los seres humanos integramos rápidamente y normalizamos desarrollos en el ámbito de la IA, como ocurre en otros campos innovadores.
En segundo lugar, se señalan las características diferenciales de los agentes de IA en relación con los asistentes. Mientras que los asistentes automatizan tareas repetitivas y ofrecen apoyo en la toma de decisiones, los agentes son capaces de ejecutar tareas sin supervisión humana directa, operando de manera independiente y tomando decisiones basadas en datos, contextos y objetivos previamente establecidos. El autor señala cómo esta posibilidad de operar en escenarios complejos sin intervención humana plantea preguntas fundamentales sobre el control y la regulación de la IA. Además, recuerda que los enormes avances en la intersección de IA y robótica, en un punto en el que la línea entre software y hardware comienza a desdibujarse, nos acerca también a una realidad en la que la presencia de sistemas inteligentes en el mundo físico será tan común como lo son hoy los algoritmos en el ámbito digital.
El autor considera que ya no es meramente especulativa la pregunta sobre si la Inteligencia Artificial General (IAG), con un nivel de cognición y adaptabilidad comparable o superior al humano en cualquier dominio, es una meta lejana o una realidad en construcción. En su opinión, la pregunta ya no es si la IAG es posible, sino cuándo será innegable que la hemos alcanzado. Esto haría aún más pertinente la reflexión sobre el poder asociado al desarrollo la IA y su control, en la medida en que el país o corporación que logre desarrollar una IAG antes que el resto tendrá una ventaja estratégica sin precedentes en defensa, economía e innovación.
En tercer lugar, el autor analiza los paralelismos y complementariedades entre la IA y la ciencia del comportamiento. En particular, señala cómo la economía del comportamiento, frente a la visión de la economía neoclásica que asumía agentes racionales maximizadores de utilidad, demuestra que nuestras decisiones son moldeadas por heurísticas y sesgos cognitivos. Además, su interacción con otras disciplinas como la psicología, la sociología, la antropología y la neurociencia ha abierto nuevas puertas para la simulación de sistemas complejos, basados en modelos de IA como los de aprendizaje automático. Esos modelos de simulación utilizan agentes que representan individuos con características diversas y comportamientos realistas, alimentándose de datos reales. El autor explica cómo estos modelos han madurado hasta convertirse en herramientas comerciales, con amplia utilización en el sector financiero, de seguros o el marketing, entre otros.
El autor señala que este tipo de simulaciones no solo sirven para prever escenarios sino, también, para influir en ellos. Ello le lleva a plantear diversas preguntas éticas referidas, por ejemplo, a la manipulación del comportamiento humano o la manipulación de la propia información asociada a los modelos. Asimismo, reflexiona sobre la capacidad predictiva de la modelación de sistemas complejos en un entorno de aumento incesante de la capacidad de computación, que considera podría transformar la política y la gobernanza. En ese contexto, argumenta que la descentralización y el diseño ético de estas tecnologías serán claves para evitar escenarios de control totalitario. A su juicio, el diseño de inteligencias descentralizadas, supervisadas y alineadas con principios éticos, permitiría un estado de simbiosis con la IA, delegando decisiones sin perder el control fundamental de nuestras vidas. El autor señala que la centralización de la IA, que implica que unas pocas corporaciones y gobiernos controlen su desarrollo y aplicación, tiene ventajas obvias: permite regulación, seguridad y una coordinación global para minimizar riesgos. Pero, también, implica monopolios tecnológicos, menor acceso y el riesgo de que unos pocos actores decidan el futuro de la humanidad.
En cuarto lugar, el autor reflexiona sobre la resistencia humana a las innovaciones e indica que hay un patrón predecible de temor inicial seguido por una adopción masiva. En el trabajo se aportan diversos ejemplos históricos de la aversión a lo desconocido y la preferencia por lo familiar. Sin embargo, también señala que una diferencia clave con la IA es su capacidad de tomar decisiones autónomas y su potencial para alterar estructuras de poder a una velocidad sin precedentes. En ese sentido, tras repasar las distintas estrategias adoptadas en Estados Unidos, China y la Unión Europea, enfatiza cómo la capacidad humana para cuestionar, contrastar y reflexionar es más valiosa que nunca. Por ello, considera que reintroducir la filosofía, la retórica y la lógica en la educación no es un gesto nostálgico, sino una necesidad estratégica. Ello contribuiría a que la IA fuese una extensión de nuestra capacidad y no un sustituto de nuestra voluntad.
Documento completo
Gaviño, A. (2025). “Inteligencia artificial y ciencias del comportamiento”. FEDEA, Colección Apuntes no. 2025-15, Madrid.