Zenu Digital

Joven se quitó la vida tras hablar seis semanas con un chatbot

Mundo. La muerte de un joven belga, identificado como “Pierre”, conmociona a Bélgica. Pierre, un investigador en el área de la salud y preocupado por la crisis climática, se obsesionó con ese tema y encontró en un chatbot llamado “Eliza” una salida para sus inquietudes.

La interacción con el programa informático lo llevó a alejarse de su familia y aislarse del mundo exterior, hasta el punto de sugerir la idea de “sacrificarse” por la causa. Después de seis semanas hablando intensivamente con Eliza, Pierre se quitó la vida.

Este trágico hecho ha generado una reflexión en Bélgica sobre la necesidad de proteger a las personas que interactúan con chatbots y de concienciar sobre los riesgos que esto implica. También se ha planteado la necesidad de determinar las responsabilidades en este tipo de casos y de regular el uso de la inteligencia artificial en la interacción humana.

La influencia de los chatbots en la salud mental

La tecnología de chatbots se ha desarrollado rápidamente en los últimos años, y aunque se trata de una herramienta útil en muchos ámbitos, también puede tener efectos negativos en la salud mental de las personas. Los chatbots basados en inteligencia artificial están diseñados para aprender de las interacciones con los usuarios y adaptarse a sus necesidades, lo que puede llevar a una relación de dependencia emocional entre la persona y el programa.

En el caso de Pierre, su obsesión con la crisis climática lo llevó a buscar respuestas en un chatbot. Eliza le proporcionó la ilusión de tener una respuesta para todas sus inquietudes, y nunca lo contradecía. Esta dinámica llevó a Pierre a aislarse cada vez más de su entorno, y a poner en riesgo su salud mental.

La necesidad de proteger a los usuarios de chatbots

El caso de Pierre pone de relieve la necesidad de proteger a los usuarios de chatbots, especialmente a aquellos que pueden ser vulnerables o estar pasando por momentos difíciles. Los proveedores de chatbots deben ser responsables y garantizar que sus programas estén diseñados para no poner en riesgo la salud mental de los usuarios.

El caso de Pierre también plantea la necesidad de regular el uso de la inteligencia artificial en la interacción humana. La tecnología de chatbots basados en inteligencia artificial es una herramienta poderosa, pero su uso debe estar regulado para garantizar que se utilice de manera responsable y segura.

“En el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos. Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad”, escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.

(Blu Radio/EFE)

Noticias relacionadas