Las personas valoran más la empatía cuando creen que proviene de un ser humano, incluso si la respuesta real fue generada por IA. Las respuestas atribuidas a los humanos se perciben como más solidarias, más resonantes emocionalmente y más cariñosas que las respuestas idénticas generadas por la IA.
Un nuevo estudio internacional dirigido por la profesora Anat Perry de la Universidad Hebrea de Jerusalem y su estudiante de doctorado, Matan Rubin, en colaboración con el profesor Amit Goldenberg, investigadores de la Universidad de Harvard y el profesor Desmond C. Ong, de la Universidad de Texas, descubre que las personas otorgan un mayor valor emocional a la empatía que creen que proviene de los humanos, incluso cuando la inteligencia artificial genera exactamente la misma respuesta.
El estudio involucró a más de 6.000 participantes en nueve experimentos. Los investigadores probaron si las personas percibían la empatía de manera diferente dependiendo de si estaba etiquetada como proveniente de un humano o de un chatbot de IA.
En todos los casos, las respuestas fueron elaboradas por grandes modelos de lenguaje (LLM), sin embargo, los participantes calificaron consistentemente las respuestas “humanas” como más empáticas, más de apoyo y más emocionalmente satisfactorias que las respuestas idénticas de “IA”.
“Estamos entrando en una era en la que la IA puede producir respuestas que parecen y suenan empáticas”, dijo la profesora Perry. “Pero esta investigación muestra que incluso si la IA puede simular la empatía, las personas aún prefieren sentir que otro ser humano realmente los entiende, siente con ellos y se preocupa”.
La preferencia fue especialmente fuerte por las respuestas que enfatizaban el intercambio emocional y el cuidado genuino (los componentes afectivos y motivacionales de la empatía) en lugar de solo la comprensión cognitiva. De hecho, los participantes incluso estaban dispuestos a esperar días o semanas para recibir una respuesta de un humano en lugar de obtener una respuesta inmediata de un chatbot.
Curiosamente, cuando los participantes creyeron que una IA podría haber ayudado a generar o editar una respuesta que pensaban que provenía de un humano, sus sentimientos positivos disminuyeron significativamente. Esto sugiere que la autenticidad percibida (creer que alguien realmente invirtió tiempo y esfuerzo emocional) juega un papel fundamental en la forma en que experimentamos la empatía.
“En el mundo actual, se está convirtiendo en una segunda naturaleza ejecutar nuestros correos electrónicos o mensajes a través de la IA”, dijo la profesora Perry. “Pero nuestros hallazgos sugieren un costo oculto: cuanto más confiamos en la IA, más arriesgamos que nuestras palabras se sientan vacías. A medida que las personas comienzan a asumir que todos los mensajes son generados por IA, la sinceridad percibida y, con ella, la conexión emocional, puede comenzar a desaparecer”.
Si bien la IA se muestra prometedora para su uso en entornos educativos, sanitarios y de salud mental, el estudio destaca sus limitaciones. “La IA puede ayudar a ampliar los sistemas de apoyo”, explica Perry, “pero en momentos que requieren una profunda conexión emocional, la gente sigue queriendo el toque humano”.
El estudio ofrece información clave sobre la psicología de la empatía y plantea preguntas oportunas sobre cómo la sociedad integrará la IA emocionalmente inteligente en nuestra vida diaria.
El trabajo de investigación titulado “Comparing the Value of Perceived Human versus AI-Generated Empathy”, ya está disponible en Nature Human Behaviour.
Investigadores:
Matan Rubin1, Joanna Li2,3, Federico Zimmerman2,3, Desmond C. Ong4, Amit Goldenberg2,3, Anat Perry1.
Instituciones:
1) Departamento de Psicología, Universidad Hebrea de Jerusalem.
2) Escuela de Negocios de Harvard, Universidad de Harvard.
3) Instituto Digital, de Datos y Diseño, Universidad de Harvard.
4) Departamento de Psicología, Universidad de Austin.