Freud se revuelca en su tumba: ¿Se puede usar ChatGPT como psicólogo?

*Por Lic. María Verónica Riedel 

 

Hace poco comenzó a circular por las redes sociales una IA que ofrece asistencia psicológica.  Y esto despertó preocupación en diferentes foros de psicología. Algunos profesionales aseguraron que ya hay personas que están utilizando el chatGPT como psicólogo.    

 



 

 

Según la Organización Mundial dela Salud, 1 de cada 8 personas en el mundo padece un trastorno de salud mental, es decir 970 millones de personas en cifras globales. Se estima que los problemas de salud mental serán la principal fuente de discapacidad en 2030. En este contexto, el desarrollo de IA se está centrando en el desarrollo de las relaciones personales y especialmente enfocadas en brindar ayuda psicológica.

 

Dejando de lado todas las cuestiones éticas, el modelo de lenguaje de OpenAI se ha entrenado intensamente en grandes conjuntos de datos para que pueda determinar de forma probabilística, dado un determinado texto de entrada, qué vocabulario sabe que vendrá a continuación. Porque es una computadora y puede producir una reacción significativamente más rápido que una persona, a veces incluso reacciona un 50% más rápido. El modelo sofisticado también sabe cómo construir combinaciones textuales convincentes o incluso elegantes. Pero los resultados que produce ChatGPT no están relacionados y no comunican intencionalmente ninguna idea sobre el mundo. Las cadenas de palabras que produce no tienen intención, y por más información que le pongamos al generador de lenguaje, nunca entenderá cómo funciona el mundo, conexiones simbólicas o ideas abstractas. Es incapaz de conectar ideas abstractas con otras, ni de separarlas. No tiene la capacidad de comprender continuamente las leyes, reglas y expectativas del mundo y, por lo tanto, puede mentir, inventar o incluso alucinar.

 


 

 ¿La IA podría reemplazar a un profesional de la salud? ¿Qué requiere la atención médica, física o mental? Si bien el chatbot es una excelente herramienta para la imitación y el autocompletado, cuando hablamos entre nosotros no estamos copiando o simplemente tratando de conectar piezas de texto. Investigamos constantemente, sin darnos cuenta, significados ocultos o implícitos, lo que se dice, pero también lo que no se dice. Tratamos de entender si nos han dicho todo, si nos ocultan información y, de ser así, por qué, y sacar conclusiones de ese contexto. Con esta gama de habilidades, experiencias, sentimientos y pensamientos construimos un modelo complejo del mundo, y a través de él producimos una respuesta efectiva e intencional a situaciones específicas. A veces, la respuesta es más lenta que una computadora, pero puede considerarse una respuesta productiva. 

 

Entre los tecnofílicos existe la expectativa, o al menos la suposición, de que la Inteligencia Artificial puede satisfacer una necesidad de cuidado y empatía. Pero si una computadora imitara mejor la empatía, aun así, no comprendería el estado interno de los humanos o los sistemas abstractos del mundo. Incluso si el modelo se perfeccionara, aún no se puede confiar en él ni creerlo, y definitivamente es importante evitar usarlo en algo sustancial como una herramienta para la terapia mental.

 

Durante años, la actitud en Silicon Valley ha promovido fuertemente que cada necesidad en el mundo físico es un problema que se puede resolver con la ayuda de la tecnología. Sin embargo, las relaciones interpersonales, las necesidades sociales, el cuidado, la educación y el trabajo, no exigen una solución, sino una respuesta. Requieren más atención humana, más cuidado, una comprensión más compleja del mundo. El autocompletado o el "copiar y pegar" no producen la profundidad que necesitamos, y no todo puede o debe intentarse resolver con tecnología.

 

Cuando se le pregunta a ChatGPT si podría ejercer como psicólogo, la respuesta es: “Como modelo de lenguaje, no tengo la capacidad de ejercer como psicólogo de manera independiente, ya que soy una entidad virtual y no tengo las habilidades necesarias para llevar a cabo diagnóstico ni tratamientos terapéuticos. Además, es importante señalar que ejercer como psicólogo requiere una formación académica y una licencia profesional, lo cual no es posible para una entidad virtual como yo”. 

 


 

Cómo la IA beneficia al ámbito de la psicología

 

La IA enfocada en psicología posibilita establecer un diagnóstico y tratamiento de trastornos psicológicos. Además, puede ser utilizada para desarrollar intervenciones de tratamiento personalizadas para cada paciente. También es muy adecuada para establecer un análisis de emociones. Por ejemplo, puede ser usada para analizar el lenguaje, la expresión facial y otros indicadores de emociones y sentimientos. Esa labor analítica puede ayudar a comprender mejor las emociones de las personas y a diseñar intervenciones terapéuticas más efectivas.

 

Además, la IA puede ayudar a los psicólogos a identificar rápidamente patrones y tendencias en los resultados de las pruebas psicológicas, lo que les ayudaría a tomar decisiones sobre el tratamiento más adecuado para el paciente.          

 

Si bien la IA no puede ejercer como psicólogo, si puede ayudar a mejorar la comprensión de los trastornos psicológicos y a desarrollar intervenciones terapéuticas más efectivas y personalizadas en cada paciente.  

 

Freud se revuelca en su tumba: ¿Se puede usar ChatGPT como psicólogo? Freud se revuelca en su tumba: ¿Se puede usar ChatGPT como psicólogo? Reviewed by Lic. María Verónica Riedel on julio 13, 2023 Rating: 5

No hay comentarios