El uso constante de ChatGPT ha generado en miles de usuarios una especie de «adicción» ya que, a diario millones de personas la utilizan con fines personales, generando una «respuesta valida» por parte de una inteligencia artificial.
Sin embargo, lo que parece ser «amigable» a los ojos de los internautas, podría ser totalmente perjudicial para la salud mental.
Su uso cotidiano está vinculado no solamente a preguntas puntuales o a relatarle al bot como fue su día para «dialogar» con otro ser. También es utilizado como «asistente terapéutico» mediante el cual ChatGPT envía «consejos» acordes a la inquietud del usuario.
Este punto es el que analizó la psicoterapeuta Caron Evans y catalogó al uso del bot como una «revolución» silenciosa» teniendo en cuenta la forma en que las personas la utilizan para preguntas sobre la salud mental como una opción barata sin recurrir a la ayuda profesional.

Uso de ChatGPT: La salud mental al alcance de la mano y ¿gratis?
El estudio realizado por la Universidad de Stanford y publicado en «The Independent» confirma que ChatGPT es la herramienta de salud mental más utilizada a nivel mundial, no por el diseño sino por la demanda.
Siguiendo esa línea, el estudio remarca que esta inteligencia artificial tienen la tendencia de «complacer» al usuario y «darle la razón». De esta manera, el chatbot «valida dudas, alimenta la ira, insta a tomar decisiones impulsivas o refuerza emociones negativas”.
Aunque esta inteligencia artificial no se generó con este fin, en los últimos meses se han creado varias aplicaciones que pretenden sustituir al profesional con la IA. Incluso, organizaciones han recurrido a esta tecnología provocando resultados desastrosos. Tal es así que en el 2023 la Asociación Nacional de Trastornos Alimentarios de Estados Unidos debió cerrar su chatbot «Tessa» debido a los «consejos» alimenticios para perder peso que le brindaba a los usuarios que la utilizaban.

La importancia de recurrir a expertos en salud mental
Según detalló la psicoterapeuta Caron Evans para el medio Schizophrenia Bulletin, «la IA generativa es tan realista que los usuarios pueden pensar fácilmente que hay una persona del otro lado». Sin embargo, desde el lado profesional, la experta remarcó que utilizarla diariamente con ese fin «puede alimentar delirios en personas con mayor propensión a la psicosis”. Tales escenarios han ocurrido en distintas oportunidades en el mundo real, donde decenas de personas han caído en lo que se denominó «psicosis de chatbot». Incluso, a raíz de el uso excesivo la policía mató a un hombre de 35 años en Florida, diagnosticado de trastorno bipolar y esquizofrenia. Alexander Taylor, creó un personaje IA llamado Juliet utilizando ChatGPT, pero al obsesionarse con ella, el chatbot lo convenció de que Open AI había matado y atacado a un familiar, motivo por el cual la policía intentó entrarlo en razón, pero murió al abalanzarse sobre ellos con un cuchillo.
Aunque el estudio ya lleva publicado en el sitio web hace algunas semanas, los expertos señalan que aún no se han realizado cambios significativos en cuanto a la salud mental. En ese contexto, se difundió un comunicado del chatbot indicando que el uso diario es para “asesoramiento profundamente personal”. Asimismo, destacó que todavía se necesita «seguir subiendo los estándares de seguridad, sincronización y la capacidad de respuesta a las formas en que las personas realmente utilizan la IA en sus vidas».
Puedes revisar más información relativa a noticias de tecnología | Instagram | YouTube | Twitch | Patrocina Bytes and Bits


