¿Es seguro confiar en un chatbot como psicólogo?
Fuente: Comunicaciones UTalca. Autor: septimapaginanoticias.cl
Desde solicitar ayuda para preparar una receta culinaria hasta pedir consejos financieros para rendir el salario hasta fin de mes, la Inteligencia Artificial (IA) se ha convertido en una herramienta habitual en el día a día de las personas. Sin embargo, aunque estas tecnologías pueden proporcionar información útil, no han sido diseñadas para sustituir, por ejemplo, el apoyo que puede brindar un psicólogo profesional.
Así lo destacó Nadia Ramos Alvarado, directora del Centro de Psicología Aplicada (CEPA) de la Universidad de Talca, quien explicó que el uso de una IA puede –eventualmente- ser un apoyo, pero no puede ser considerado como una psicoterapia, ya que, esta “tiene características particulares, asociadas al establecimiento de una relación con otra persona y dándose en un entorno de confianza”.
La especialista agregó que, no podemos olvidar que “la inteligencia artificial no tiene capacidad de comprender la complejidad única de cada individuo, por tanto, solo puede entregar recomendaciones genéricas. Tampoco es capaz de percibir las señales no verbales, aspectos que un terapeuta profesional entrenado sí puede hacer”.
En este sentido, recalcó que la IA, en sus versiones conversacionales, puede “entregar ciertos consejos, pero que no reemplazar un proceso terapéutico. Yo diría que el riesgo,en el caso además depoblaciones vulnerables como los niños,n iñas , adolescentes , esque ellosno tienen todavía lacapacidad dediscriminarhasta dónde puedellegareluso desta tecnología”.
Hay que considerar , señaló la psicólogaNadia Ramos Alvarado ,que estas aplicaciones“se basan,muchasde ellas,en elementosquetienenquevermáscon entretenimientoyno están pensadosenfuncióndelasaludmentaly,porejemplo,puedenterminareafirmandopensamientosque puedenestarerr óneoso creenciasquedistorsionadasenlapersona”.
"Cuandounopien saenquesepuedehacerunamigovirtual , elfoconoescuidadodelasaludmentalynotambiénestábasadoenevidenciacientífica.Entonceshayunriesgoporque lainteligenciaartificialtienesesycometeerroresimpidiendoestablecerunarelaci óngenuinadeapoyodeacompañamientoparauncambioqueseloesperaenpsicoterapia"indic ó .
Dentrodelos riesgosquesurgenesta prácticaderecurrira lainteligenciaartificialparaapoyarsepsicológicamente,lacadémicadelUTalcadestac ó quesi bien“haychatbotsdeIAcreadosparaabordartemasdesaludmental,no cuentanconevidenciacientíficadesuefectividad”.
"Tambi énexistenchatbotsdesarrolladoscomoentretenimiento,porello quesuusoparasaludmentales aúnmáscomplejo yaquete utilizanalgoritmosparamanteneralusuarioscomprometidosenlaactividadlamayorcantidaddetiempoposiblerecopilandodatos,ylosusuariosnotienenclarasu finalidadosi tienennivelesdeconfidencialidadapropiadosalcontextoterapéutico",agreg ó .
P arafinalizar ,laespecialistarecalc ó qu eesdifícilconocerlosfuturosalcancesdelaIAenel ámbitodelapsicot erapia,"peroaldíadehoy,sibienciesierto sepuedeprogramar algunoselementosasociadosala interacciónconlaspersonas,no tiene lacapacidadd eanalizarlosaspectosemocionalesquetánimplicadosena relaci ónterapéutica,d e estarcara acara,aunque seaporvirtualidad".