La investigación, publicada recientemente en la revista científica JAMA Network Open y dirigida por la doctora Silvia Kyungjin Lho, examinó el desempeño de diferentes sistemas de IA al analizar respuestas a un clásico test psicológico conocido como prueba de frases incompletas (STC, por sus siglas en inglés).
Dicha prueba, que invita a los pacientes a completar frases como «Yo soy...» o «Mi futuro será...», ha sido utilizada durante décadas para encontrar problemas de salud mental. La idea detrás del estudio era sencilla: si una persona refleja emociones negativas en sus respuestas, como desesperanza o autocrítica, ¿puede un modelo de IA identificarlo como una señal de alarma?
Para sacar conclusiones al respecto, el equipo analizó los datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que fueron atendidos en el Hospital Boramae de Seúl. Todos ellos habían completado el test STC. Tras borrar cualquier rastro de datos personales, introdujeron las respuestas escritas -más de 52.000 frases en total- en modelos como GPT 4, uno de los que mueve a ChatGPT, o al Gemini de Google.
FUENTE: ABC