miércoles, octubre 8Una producción de Corporación Medios Digitales del Sur

Un entrenador social con inteligencia artificial ofrece apoyo a personas con autismo


Un chatbot especializado llamado Noora está ayudando a las personas con trastorno del espectro autista a practicar sus habilidades sociales.


por Sarah Wells, Universidad de Stanford


Saber qué decir cuando los compañeros de trabajo te cuentan cómo les fue el fin de semana es una habilidad social que muchos dan por sentado, pero para algunas personas con trastorno del espectro autista (TEA), esta interacción social puede ser un desafío. Dificultar la respuesta adecuada en situaciones sociales como estas puede afectar negativamente las relaciones sociales y profesionales de las personas con TEA y puede agravar trastornos coexistentes como la depresión.

Las investigaciones han demostrado que practicar interacciones sociales con profesionales en una intervención clínica cara a cara puede mejorar los resultados de las personas, pero estas soluciones a menudo son costosas o no están ampliamente disponibles.

Lynn Koegel, profesora clínica de psiquiatría y ciencias del comportamiento en la Universidad de Stanford, en colaboración con la profesora Monica Lam del Departamento de Ciencias de la Computación de Stanford, son los autores de una investigación reciente publicada en el Journal of Autism and Developmental Disorders que investiga el papel de la IA para llenar este vacío.

«Nuestra investigación ha demostrado que el trabajo presencial facilita la conversación social, así que queríamos ver si podíamos aplicar esto al uso de la computadora «, dijo Koegel. «La accesibilidad es fundamental porque muchas personas no tienen acceso a un proveedor presencial, y estos proveedores pueden ser muy caros».

Presentando a Noora

En este trabajo, Koegel y sus colegas evaluaron las interacciones entre participantes con TEA que tienen dificultades con las interacciones sociales y Noora, un chatbot creado con un modelo de lenguaje grande (LLM).

En interacciones uno a uno, que pueden ser escritas o habladas, Noora ofrece orientación individualizada en una variedad de escenarios de comunicación social; ayuda a los usuarios a aprender a hacer preguntas, dar cumplidos, responder con empatía y ayuda con otras áreas de la comunicación social que a menudo son desafiantes.

En este trabajo reciente, Koegel se centró en el impacto del módulo de empatía de Noora. El chatbot primero ofrece una afirmación principal, como «Últimamente me siento muy cansado y me cuesta mucho concentrarme», y luego pide al usuario que evalúe si la afirmación es positiva, neutral o negativa. Noora califica la respuesta y le pide al usuario que responda con empatía a la afirmación inicial. En función de si el usuario responde con empatía, Noora ofrece una corrección sutil o valida la respuesta correcta.

El equipo de investigación elaboró cuidadosamente las indicaciones con ejemplos representativos para garantizar que las respuestas fueran apropiadas. Para interactuar con los usuarios, Noora necesitaba saber tres cosas: qué tipo de afirmaciones justifican una respuesta empática, cómo evaluar si un usuario ha respondido con empatía y cómo ofrecerle retroalimentación útil para mejorar la respuesta si esta carecía de empatía.

Para elaborar las afirmaciones sugestivas, el equipo expuso a Noora a respuestas clave y a respuestas inapropiadas. El equipo redactó las respuestas y utilizó el LLM para redactar otras respuestas que luego verificaron, creando un conjunto de 330 afirmaciones diseñadas para generar respuestas empáticas en los participantes. Esto significa que Noora nunca creó afirmaciones sugestivas sobre la marcha, lo que podría haber dado lugar a preguntas inapropiadas.

A la hora de responder en directo a las respuestas empáticas de los usuarios, Noora tuvo mayor libertad. Aprovechando las capacidades del LLM para el aprendizaje en contexto, el equipo simuló las personalidades de los usuarios e hizo que Noora practicara respondiendo a usuarios que mostraban distintos niveles de empatía. También seleccionaron casos difíciles y le proporcionaron retroalimentación para que Noora aprendiera de ellos.

Poniendo a Noora a prueba

Para evaluar la eficacia de Noora frente al tratamiento habitual, Koegel, Lam y sus colegas realizaron un ensayo aleatorizado con 30 participantes. La mitad de ellos utilizaron Noora durante cuatro semanas y la otra mitad no recibió ninguna intervención. Se pidió a los participantes que usaron Noora que completaran 10 ensayos al día, cinco días a la semana, para un total de 200 ensayos.

En última instancia, dijo Koegel, el equipo buscaba evaluar si Noora podía mejorar las respuestas empáticas de los usuarios y si las mejoras podían generalizarse para mostrar empatía también en la comunicación entre humanos.

«Existe mucha investigación sobre IA que demuestra que los estudiantes con TEA mejoran con un programa, pero no demuestra que esto se generalice a la vida real», dijo Koegel. «Así que ese era nuestro objetivo principal».

Al comparar las respuestas desde el inicio del experimento hasta el final, Koegel afirmó que el 71% de los participantes mejoraron su número de respuestas empáticas al usar Noora.

Para comprobar si este progreso podía generalizarse, el equipo invitó a los participantes a una videollamada de Zoom con un miembro del equipo antes y después del experimento, que incluyó la formulación de declaraciones empáticas. Al ser reevaluados después de la intervención, el grupo experimental obtuvo una puntuación significativamente superior a la del grupo de control, con un aumento medio del 38 %, mientras que las puntuaciones de los grupos de control antes y después fueron similares. Esto demuestra que tan solo cuatro semanas de uso del programa de IA mejoraron significativamente las respuestas empáticas verbales.

Con este éxito de Noora, Koegel y Lam ahora están interesados en probar también la eficacia de otros módulos. Además, están trabajando para abrir Noora a pruebas beta para uso público y en entornos clínicos.

Además de Noora, Koegel dijo que también está incorporando IA en otros aspectos de su investigación sobre el autismo, incluido el tratamiento motivacional para niños con TEA que están en las etapas iniciales del uso de la comunicación.

«Me gustaría retomar gran parte del trabajo presencial que he realizado durante décadas y ver cuánto podemos trasladar a la IA», dijo Koegel. «Como a los niños les encanta la computadora, queremos ver si, en lugar de simplemente pasar tiempo en su computadora o iPhone, podemos crear una experiencia de aprendizaje».

Más información: Lynn Kern Koegel et al., Uso de inteligencia artificial para mejorar las declaraciones empáticas en adolescentes y adultos autistas: un ensayo clínico aleatorizado, Journal of Autism and Developmental Disorders (2025). DOI: 10.1007/s10803-025-06734-x