Innovación Legal
26 mayo 2025
Por Moisés Barrio
El nudging
El término nudge o empujoncito se refiere a una intervención que dirige a una elección, condicionando el proceso de toma de decisiones por quien lleva a cabo esta práctica. Con esta expresión, el economista Richard H. Thaler y el jurista Cass R. Sunstein, autores del libro “Nudge: Improving Decisions about Health, Wealth, and Happiness” se refieren a una serie de técnicas que permitirían dirigir las elecciones de las personas de una manera más racional y rentable. Los empujoncitos no son mandatos. Poner la fruta a la altura de los ojos cuenta como un empujoncito. En cambio, prohibir la comida basura no lo es.
La teoría del nudging ha tenido tal repercusión que el profesor Thaler fue galardonado con el Premio Nobel Economía de 2017, y el profesor Sunstein recibió el encargo del entonces presidente Barack Obama de diseñar algunos nudges conductuales para animar a los ciudadanos a “hacer lo correcto” sin estar obligados a ello. Los autores parten de una crítica al concepto de homo oeconomicus, que teóricamente sería capaz de tomar decisiones que maximicen los beneficios minimizando los recursos basándose en una racionalidad matemático-probabilística. En realidad, señalan estos profesores cómo las elecciones están afectadas por sesgos cognitivos: se trata de errores sistemáticos derivados de la falta de información o de condiciones de incertidumbre, que influyen tanto en la actitud que cada uno adopta como en el comportamiento que pone en práctica.
La tesis de los profesores Thaler y Sunstein es explotar estos límites cognitivos, haciéndolos funcionales para el bienestar de la comunidad.
El nudging muestra cómo es posible reestructurar la arquitectura del contexto de toma de decisiones para reorientarlo hacia opciones funcionales para lograr el bienestar individual y colectivo.
Hay muchos ejemplos que ilustran cómo las técnicas de nudging han dado resultados: desde flechas verdes que nos animan a comprar más fruta y verdura en los supermercados, hasta huellas pintadas en el suelo que nos conducen a los contenedores de basura, reduciendo la cantidad de desperdicios arrojados al suelo, pasando por notas musicales que desaconsejan el uso de escaleras mecánicas y moscas dibujadas en el desagüe de los urinarios públicos masculinos.
El nudging no implica prohibiciones o castigos explícitos, ni adopta la forma de exhortación directa. A veces se ofrecen recompensas económicas, o incentivos en forma de premio o regalo. El instrumento es un “codazo”, un “»empujón” en la dirección deseada, aprovechando el llamado mindlessness, es decir, el automatismo de la mente humana que, según Daniel Kahneman, nos lleva a tomar decisiones rápidas y repetitivas, que llamamos rutina o hábito, pero sin hacer una evaluación meditada e imparcial de las opciones disponibles.
En definitiva, su objetivo es utilizar la arquitectura de la elección para inducir y persuadir a los individuos a cambiar su comportamiento, de forma predecible y no coercitiva, manteniendo intacta la libertad de elección. En su libro, Thaler y Sunstein llaman a este enfoque “paternalismo libertario”. El sujeto tiene a su disposición las mismas opciones de elección, no hay prohibiciones ni privaciones impuestas desde arriba, sólo estímulos para tomar una decisión más deseable, ignorada de otro modo debido a los límites naturales de la racionalidad humana y la actual sobrecarga de información.
Críticas
En torno a la teoría del nudging han surgido dos grandes líneas de crítica: una se refiere a su eficacia, la otra hace hincapié en su riesgo de manipulación o engaño, relacionado con su falta de transparencia.
En cuanto a la primera, diversas investigaciones empíricas han puesto en duda la eficacia del nudging, o al menos han sugerido la necesidad de graduar la eficacia en función del tipo de nudging utilizado. Por ejemplo, las intervenciones que se adelantan a las opciones por defecto resultaron especialmente eficaces, cuyos efectos, sin embargo, parecen más bien atribuibles a la distorsión o a la manipulación que al nudging. Diversos estudios han revelado que el nudge fomentaría un cambio de comportamiento similar al de otros enfoques tradicionales, como las campañas educativas o los incentivos.
En cuanto a la segunda dirección crífica sobre la opacidad del nudging, se denuncia que los individuos se encontrarían sometidos a la omisión selectiva de información relevante, con la consiguiente limitación de sus opciones de comportamiento. Las personas, en otras palabras, no tendrían conocimiento de que el contexto social está deliberadamente diseñado para regular su comportamiento, ni serían conscientes del contenido de la regulación arquitectónica a la que están sometidos.
Estos efectos manipuladores serían mayores en presencia de nuevas herramientas tecnológicas con las que el usuario está menos familiarizado. La mayoría de los usuarios no dispondrían de las competencias o herramientas necesarias para evaluar los cambios en la configuración por defecto de las tecnologías emergentes. Este desconocimiento tiene implicaciones jurídicas. Si la información sobre las opciones de diseño alternativas no llega al público, falta el requisito previo para emitir un juicio fundado.
Se ha afirmado también cómo el mecanismo a través del cual operaría el nudging explotaría la irracionalidad cognitiva de los individuos. En consecuencia, el nudge, al manifestar desprecio y desconfianza hacia los individuos como seres autónomos, racionales y pensantes, implicaría una forma de manipulación ilegítima. Varios autores hemos alertado sobre esta forma de control capaz de modular el espacio informativo que nos rodea, creando los llamados filtros burbuja, según lógicas que escapan a nuestro control y erosionan la capacidad de autorregulación democrática.
Nudging y Derecho
La teoría del nudging aplicada a la regulación jurídica sostiene que se puede influir en el comportamiento de los individuos mediante sugerencias y refuerzos “indirectos” con igual o mayor eficacia que la que puede lograrse mediante la imposición de leyes u órdenes directas.
La profesora Karen Yeung, en particular, distingue entre formas estáticas y dinámicas de regulación basada en el diseño. El diseño estático, según el modelo planteado por Thaler y Sunstein, se presenta como una forma de condicionamiento “blando”, porque actúa por persuasión, en lugar de utilizar la coerción, sin excluir otras opciones de acción y permite predecir el comportamiento previsto. El diseño es incapaz de variar su funcionamiento: así, el badén en la carretera frenará indiscriminadamente a todos los vehículos, sin poder distinguir entre vehículos civiles y ambulancias.
En cambio, Yeung advierte cómo la IA permite hoy crear un hipermundo dinámico, interconectado con el entorno, constantemente actualizado y adaptable al contexto, y por tanto personalizado en sus efectos. Estas nuevas formas de nudges tecnológicos, a diferencia de los diseños estáticos tradicionales que tienen la capacidad de condicionar el comportamiento de un único individuo a la vez (el único coche que golpea el badén en la carretera), pueden influir omnipresentemente en el comportamiento de millones usuarios simultáneamente.
Su regulación en el RIA
Son precisamente estos sistemas de nueva generación los que plantean los riesgos más importantes desde el punto de vista del respeto del Estado de Derecho y los derechos fundamentales. Por eso, el Reglamento europeo de inteligencia artificial -1-, el RIA, aborda con decisión la manipulación a través de varias medidas centradas en la transparencia, la responsabilidad y la protección de los derechos fundamentales.
Así, el artículo 5 del RIA prohíbe aquellos sistemas de IA que utilicen técnicas subliminales, engañosas o manipulativas que distorsionen significativamente el comportamiento de las personas, especialmente si afectan su capacidad para tomar decisiones informadas. Esto incluye, por ejemplo, sistemas que exploten vulnerabilidades relacionadas con la edad, discapacidad o contextos socioeconómicos de vulnerabilidad.
A renglón seguido, los sistemas de IA que puedan influir en decisiones importantes acerca de las personas, como en elecciones, publicidad personalizada o decisiones autónomas, se clasifican como de alto riesgo si tienen un impacto significativo en los derechos fundamentales. Estos sistemas están sujetos a requisitos estrictos, como evaluaciones de impacto, auditorías y medidas de mitigación para prevenir manipulaciones al ser clasificados como sistemas de alto riesgo (arts. 6 y ss. RIA).
Del mismo modo, se establece la transparencia en las interacciones con sistemas de IA. En efecto, los usuarios deben ser informados cuando interactúan con un sistema de IA, como chatbots o sistemas de recomendación, para evitar manipulaciones encubiertas (art. 50 RIA). Esto es crucial en contextos como la publicidad dirigida o la generación de contenido personalizado. Asimismo, el RIA exige que el contenido generado o manipulado por IA (como deepfakes) esté claramente etiquetado como tal. Esta medida busca reducir el riesgo de desinformación o manipulación en medios y plataformas digitales.
Conclusión
Quienes poseen estos instrumentos de modificación masiva del comportamiento detentan una nueva forma de poder, consistente en una poderosísima forma de “mano inviolable”, de control o vigilancia, definida por Shoshana Zuboff con la afortunada expresión de capitalismo de vigilancia. Por eso, el RIA ha introducido las salvaguardias precisas para evitar su utilización con fines de manipulación social.
También a mi juicio resulta crucial llevar a cabo auditorías públicas regulares e independientes de los algoritmos de recomendación para identificar y mitigar sesgos o comportamientos manipulativos. Esto incluye analizar cómo los sistemas priorizan contenidos para maximizar el engagement, lo que puede fomentar la polarización.
1- Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial).