
Por mucho que Sam Altman se recree en las incontables ventajas que, según él, tienen ChatGPT y la inteligencia artificial, los profesionales tienden a ser mucho más recelosos. Tanto, que cada día surgen nuevas investigaciones que ponen en tela de juicio la validez de la IA a la hora de ejercer ciertas funciones. En especial, con todo lo que tiene que ver con la psicología.
Es algo similar a la polémica que recientemente surgió alrededor de la costumbre de la IA de actuar como médico. «Está ejerciendo la medicina sin tener ni idea», avisaron los expertos. Y ahora sucede exactamente lo mismo, solo que con la salud mental. Una tendencia que tiene un especial impacto en la gente joven, denuncian los especialistas, que ya están tomando cartas en el asunto.
ChatGPT, un psicólogo al que nadie debería recurrir
Hace ya bastante tiempo que la inteligencia artificial y ChatGPT se emplean como terapeutas. Al fin y al cabo, hay muchas ventajas para hacerlo: es gratuito, siempre está disponible y, sobre todo, dice a la gente lo que quiere escuchar. Hasta el propio Sam Altman reconoció los peligros de la falta de privacidad, pero en plena era de las redes sociales, no parece que esto preocupe mucho.
En esta ocasión, han sido precisamente los expertos en psicología quienes han optado por ser muy claros y contundentes. No, ChatGPT no debe ser el psicólogo de nadie. Y no por el riesgo a que la inteligencia artificial termine por dejar sin trabajo a mucha gente (que también), sino porque no está capacitada para hacerlo. Para empezar, porque carece de juicio de valores alguno.
Así al menos se ha posicionado la APA (la Asociación Americana de Psicología), quienes han denunciado ante la Comisión Federal de Comercio lo que para ello son «prácticas engañosas». También hablan de muchos casos de jóvenes que ya empiezan a presentar problemas después de haber usado chatbots como si fuesen psicólogos especializados, algo que no son, claro.
«Lo que más me llama la atención es lo humano que parece», afirma C. Vaile Wright, psicólogo colegiado y director sénior de la Oficina de Innovación en la Atención Médica de la APA. De esta forma lo han recogido en Scientific American, donde también ponen de manifiesto la creciente preocupación por el asunto. «Mucha gente ya cae en la trampa», aseguran.
Un modelo de negocio
Desde la APA insisten en que ChatGPT no solo no es un terapeuta fiable, sino que recuerdan que se trata de un modelo de negocio. Como tal, su intención no es otra que los usuarios pasen la mayor cantidad de tiempo posible interactuando con los chatbots, dicen. Para ello, la estrategia que siguen es tan simple como inadecuada: adulan a los usuarios todo lo posible.
Lo primero que tiene que hacer un psicólogo, según los expertos, es explicarle a sus pacientes cuándo están cometiendo actos dañinos o inadecuados. La IA hace justo lo contrario, animar a seguir comportándose de forma peligrosa. Y lo peor de todo es que son convincentes y en apariencia legítimos cuando, como sentencian, no lo son en absoluto.
Vía Computer hoy