Los latinos reciben tratamiento para la salud mental a una tasa inferior a la de los adultos estadounidenses, en general. Hoy, expertos dicen que los ‘chatbots’ podrían llenar ese hueco — aunque la tecnología trae sus propias complicaciones.
Daniel Enrique Jimenez, un psicólogo clínico y profesor asociado en el departamento de psiquiatría en la Universidad de Miami Miller School of Medicine, estudia el estigma sobre la salud mental en las comunidades latinos más viejos.
“Si nosotros, como proveedores de servicios para la salud mental, sólo esperamos y decimos ‘Hablo español, vení,’ la realidad es que no muchos van a venir,” dijo Jimenez.
Para las personas hispanas mayores, las enfermedades mentales pueden ser vistas como defectos de carácter. Si alguien no sale de la cama y va al trabajo, su reacción típicamente es preguntar “Qué te pasa?”, dijo.
La percepción que la enfermedad mental es un defecto personal que necesita ser arreglado, previene a la gente latina de entender que la enfermedad mental como cualquier otra enfermedad física necesita ser tratada por un Doctor, dijo.
También, algunas personas piensan erróneamente que salir de su país de nacimiento es la causa de su estrés psicológico, agregó Jimenez. La migración puede ser “la cerilla que encendió el fuego” de la salud mental de alguien, pero esa perspectiva sola no logra darse cuenta de la predisposición genética de alguien.
Debido al estigma y barreras de lenguaje y cultura que desalienta las personas hispanas de encontrar ayuda por su salud mental, y la escasez de recursos e intérpretes, el crecimiento de IA tiene la potencial de cambiar los servicios de la salud mental, dijo.
“La IA nos da una herramienta que nos permite decir ‘Ok, ahora podemos poner los servicios de la salud mental en las manos de gente que típicamente no tienen acceso”, dijo Jimenez.
Esta herramienta podría reducir los costos, especialmente para las personas sin seguro médico, y ampliar el acceso a aquellas personas que atraviesan dificultades o que sienten cierto estigma sobre ir a terapia, dijo.
A pesar de estos beneficios, la integración de la IA suscita inquietudes en la comunidad de salud.
“Le estás confiando a este chatbot cosas que no le contarías a ninguna otra alma”, dijo Jiménez.
También, comentó que la IA es incapaz de empatía, limitándolo al brindar consuelo durante momentos de vulnerabilidad. Al mismo tiempo, estos datos personales quedan a disposición del chatbot, que puede recopilarlos y utilizarlos de diversas formas, fuera del control del usuario.
Jiménez sostuvo que la integración de la IA en el sector sanitario es, probablemente, algo inevitable, entonces los profesionales de la salud, los investigadores y los responsables políticos deberían priorizar el desarrollo de marcos regulatorios eficaces para su uso.
“No pretendo adoptar una postura de ‘estoy en contra de la IA’ o ‘estoy a favor de la IA’”, aclaró. “La gente ya la está utilizando, y lo hace precisamente de esta manera. Por tanto, ¿cómo podemos asegurarnos de que todas estas acciones se están haciendo y de que estas herramientas se emplean de forma segura y eficaz?”
María Laura Mecías, profesora del Departamento de Estudios Hispánicos y Portugueses de la UF y intérprete certificada en la Red de Clínicas de Acceso Equitativo de la UF, dijo que la persistente escasez de recursos de salud mental resulta más acentuada para los pacientes que no hablan inglés.
En su labor como intérprete, Mecías observa con frecuencia que los médicos intentan referir a los pacientes latinos a servicios de salud mental en español, pero las opciones disponibles son escasas. El uso de herramientas de traducción o de IA para ayudar a validar los síntomas podría contribuir a cerrar esta brecha con el paciente, dijo.
También, hizo referencia a estudios recientes realizados en España que sugieren que los sistemas de IA pueden reforzar, o amplificar, ciertos estereotipos cuando dichos sesgos se hallan integrados en sus datos de entrenamiento.
“Si se alimenta un modelo con sesgos, este puede volverse excesivamente generalista e incapaz de identificar adecuadamente aspectos como, ‘bueno, esta persona es diferente, este contexto es diferente’”, dijo Mecías.
Las diferencias culturales pueden pasar desapercibidas cuando la IA no logra percibir la interseccionalidad que define al paciente, dijo.
Algunas enfermedades mentales se comprenden y diagnostican en los pacientes estadounidenses mediante criterios sintomáticos específicos y listas de verificación, sin embargo, no siempre se manifiestan de la misma manera en los pacientes latinos, dijo. En el caso de la depresión, por ejemplo, indicó que muchos individuos hispanos no pueden simplemente dejar de trabajar o quedarse en casa, a pesar de estar lidiando con dicha afección.
“No están llorando ... pero sigue siendo depresión”, dijo Mecías.
Otro usos de la IA en la atención médica para los latinos
Mecías noto que los recursos en la UF son relativamente accesibles para los estudiantes, pero afirmó que la situación es diferente en la comunidad de Gainesville en general. .
Por ejemplo, según Mecías, el Hospital Shands solo tiene una intérprete de español a tiempo completo y uno a tiempo parcial para atender a su población de pacientes. Además, los materiales traducidos, como los formularios de registro de pacientes, a veces se ofrecen en un número limitado de idiomas, e incluso esas traducciones llegan a un punto límite en el que el paciente no puede continuar en ningún otro idioma que no sea el inglés, comentó.
Mecías considera que las traducciones mediante la IA pueden ser útiles, pero carecen de una voz humana y de comprensión cultural. Si se utiliza la IA, agregó, debería ayudar a los pacientes a encontrar los recursos profesionales existentes que satisfacen sus necesidades específicas, en lugar de sustituir los servicios de terapia y traducción.
Dylan Siegel, un estudiante de segundo año de 20 años de la UF que especializa en Lenguas y Literaturas Extranjera de China que habla inglés, portugués, español, mandarín, criollo y vietnamita básico, afirmó que las barreras idiomáticas pueden impedir que las personas se expresen completamente utilizando las palabras exactas que las herramientas de traducción o la IA no logran capturar.
Dijo que esto es especialmente importante en la terapia, donde los matices lingüísticos pueden influir en el diagnóstico y la atención. Sin embargo, el uso de la IA podría reducir la necesidad de contar con profesionales clínicos que posean tanto formación médica como fluidez en múltiples idiomas.
Todavía, la necesidad de contar con cuidadores bilingües persistirá, incluso si su valor percibido disminuye, él explicó.
“La razón de ser de la terapia es la comunicación interpersonal, y sin esa conexión humana, qué está previniendo que [las personas] recurren a la IA?”, preguntó.
La confianza entre el profesional y el paciente, agregó, resulta últimamente crucial.
“Si cuentas con alguien capaz de comprenderte — y no solo un robot — eso tiene mucho más valor... Necesitas a esa persona con la que puedas identificarte”, afirmó. “No se puede humanizar a una IA”.
Contacta con Ariana Badra por abadra@alligator.org. Siguela en X @arianavbm.
Ariana is a first-year journalism major and an El Caimán reporter for the Fall of 2025. In her free time, she enjoys reading, spending time with friends and scouring for new songs to play on repeat to an absurd degree.




