La disonancia cognitiva es uno de esos conceptos psicológicos que nos ayudan a entender por qué a veces actuamos «raro». Se refiere a esa incomodidad que sentimos cuando nuestras creencias y nuestras acciones no encajan. Por ejemplo, si crees que es importante cuidar el planeta pero te vas en coche a todas partes, algo dentro de ti chirría. Esa sensación incómoda es la disonancia cognitiva en acción.
Pero… ¿y si te digo que algo parecido puede ocurrir también en la inteligencia artificial? 😲
Obviamente, las máquinas no tienen emociones ni conciencia (al menos de momento), pero los sistemas de IA también pueden entrar en “conflicto” cuando reciben objetivos contradictorios o datos inconsistentes. Imagina un modelo de IA que tiene que priorizar entre eficiencia y seguridad. Si no se le han dado bien las prioridades o los datos que recibe son ambiguos, su comportamiento puede volverse errático o contradictorio. Algo así como una «disonancia algorítmica«.
En el último episodio del Podcast de Iria y Raúl, exploramos esta idea de forma informal, divertida y con algún que otro chiste malo (culpa mía, ya sabes 😅). Hablamos de cómo entendemos la disonancia en humanos y de qué forma se puede “traducir” a contextos tecnológicos. También nos preguntamos: ¿qué pasará si algún día una IA realmente siente esa incomodidad interna?
🎧 Puedes escucharlo aquí: [ivoox] [Spotify] [YouTube]
¿Te ha pasado alguna vez algo así? ¿Crees que una IA del futuro podría tener sus propios “conflictos internos”? ¡Cuéntamelo en los comentarios! 👇
Iria.