Perder a un ser querido es una de las experiencias más difíciles que cualquier persona puede atravesar. Durante siglos, hemos buscado formas de mantener su recuerdo vivo: fotografías, cartas, videos… Ahora, la tecnología da un paso más allá con herramientas de inteligencia artificial (IA) que permiten «conversar» con aquellos que ya no están.
Con algoritmos avanzados, estas aplicaciones recopilan mensajes, audios y publicaciones de redes sociales para crear chatbots que imitan la forma de hablar y expresarse de una persona fallecida. Empresas como Replika, en su versión Pro, ofrecen este servicio por unos 20 euros al mes. Sus usuarios pueden mantener conversaciones con un avatar digital que responde de manera casi idéntica a un padre, un hermano o un amigo que han perdido.
La idea puede parecer reconfortante, pero ¿hasta qué punto es saludable?
Un puente o una barrera en el proceso de duelo
Expertos en psicología advierten que esta tecnología podría suponer un obstáculo para superar una pérdida. Guillermo Fouce, presidente de la fundación Psicología Sin Fronteras, señala que estas herramientas pueden generar la ilusión de que la muerte no es definitiva.
«La muerte es parte de la vida, pero esta tecnología da la sensación de que siempre podemos seguir conectados con alguien que ya no está», explica.
María Martín, psicóloga clínica, profundiza en los riesgos emocionales. Según ella, el duelo es un proceso que implica aceptar la ausencia, reconstruir la vida y apoyarse en personas que siguen vivas. «Si en lugar de afrontar la pérdida, se invierte tiempo en hablar con un chatbot, se corre el riesgo de quedarse atrapado en una realidad artificial«, advierte.
Por su parte, el psiquiatra Pablo Malo también ve riesgos en el uso de estos avatares digitales. «Aceptar la muerte significa reconducir el vínculo con la persona fallecida de otra manera. Mantener conversaciones con una IA que la imita no es sano ni positivo«, afirma.
El peligro de una «segunda pérdida»
Algunos estudios han analizado las consecuencias de esta tecnología. Una investigación de la Universidad de Cambridge planteó tres escenarios hipotéticos que reflejan los peligros de no regular estos sistemas. En uno de ellos, un niño se angustia cuando la IA que imita a su madre empieza a dar respuestas confusas. En otro, un avatar programado por un padre fallecido interactúa con sus hijos durante 20 años, generando agotamiento emocional en uno de ellos.
Además, Martín destaca un problema poco considerado: el riesgo de una «segunda pérdida». Si alguien se acostumbra a hablar con el avatar de su ser querido y, por algún motivo, deja de funcionar o desaparece, el impacto emocional puede ser devastador.
«Es una herramienta que a corto plazo puede parecer útil, pero a medio plazo puede atraparte en un bucle. Para superar una pérdida, hay que enfrentarla, no evitarla«, concluye la psicóloga.
¿Una tecnología útil si se usa con control?
A pesar de los riesgos, algunos expertos creen que, con la supervisión adecuada, estas herramientas podrían ayudar en ciertos aspectos del duelo.
Por ejemplo, Fouce menciona que técnicas tradicionales, como la «silla vacía» (un ejercicio en el que se simula una conversación con el fallecido para expresar sentimientos no resueltos), podrían potenciarse con IA. «Si se usa para afrontar la pérdida, no para negarla, podría ser una herramienta de apoyo», sostiene.
El dilema sigue abierto. La IA avanza a un ritmo vertiginoso y la ética en su uso se vuelve cada vez más relevante. ¿Nos ayudarán estas tecnologías a sanar o nos impedirán soltar a quienes ya se han ido?