Saltar ao contido principalSaltar ao pé de páxina

Pere Castellví, na Coruña: "A intelixencia artificial non está programada para dicir a verdade, senón para ser compracente co usuario"

O psicólogo analizará os beneficios e riscos do uso desta ferramenta nos mozos nunha conferencia o xoves na sede de Afundación: "É como cando cun machada podes cortar leña ou matar persoas"

El investigador y profesor Pere Castellví.

O investigador e profesor Pere Castellví. / Cedida

A Coruña

"As versións gratuítas da intelixencia artificial 'alucinan' ou 'confabulan', o que quere dicir que se inventan cousas que, ás veces, poden facer dano", relata Pere Castellví, profesor e investigador especializado no impacto das novas tecnoloxías sobre a saúde mental. Co obxectivo de concienciar sobre o impacto destas ferramentas nos máis novos, Afundación invita o docente á Coruña o vindeiro xoves, 26 de febreiro. "Especialiceime en IA porque creo que é unha oportunidade", comenta.

Castellví inaugura o ciclo Educación Século XXI con dous pases: un ás 11.00 horas para centros educativos, e outro vespertino para público xeral, ás 19.00 horas, con entrada gratuíta en Ataquilla.com . O profesor espera que a sesión "sexa útil para todos", que haxa interacción cos usuarios e anímense a "preguntar dúbidas e debater sobre un tema tan complexo". "Tocounos vivir a época na que vivimos e saíu unha nova tecnoloxía que pode ter moitos beneficios. Os clínicos e investigadores temos que adaptarnos e modernizarnos continuamente, e leste é un bo exemplo diso. Hai moitos estudos que din que o medicamento e a psicoloxía van vivir un cambio de paradigma coa aparición da intelixencia artificial", engade Castellví.

A intelixencia artificial como aliada

Como profesor agregado da Universidade Autónoma de Barcelona no Departamento de Psicoloxía Clínica e da Saúde, as súas liñas de investigación céntranse na prevención do suicidio e na promoción do benestar mental. "Desde os últimos anos, estou a profundar na intelixencia artificial e as súas repercusións na saúde mental desde un punto de vista ético". Por mor da súa especialización, lidera un proxecto sobre a análise de texto mediante estas tecnoloxías para predicir a conduta suicida nos usuarios que contactan coa Fundación Axuda e Esperanza. "A idea é mellorar o aplicativo que teñen os terapeutas e proporcionarlles máis información a maiores da que o usuario lles dá", explica.

O funcionamento da iniciativa é sinxelo: nun inicio realizaríase unha análise de sentimentos para identificar cales son os agradables e desagradables, "en canto a positivos e negativos", que van saíndo no texto. Isto pode proporcionar aos profesionais da Fundación información sobre a gravidade da situación. Despois, no caso de que o paciente se sometese a algunha intervención psicoterapéutica, comprobarían se melloran as súas emocións clínicas.

O interesante do estudo, que probablemente finalice en setembro, é que quere testarlo en tempo real, "a medida que o usuario vai escribindo, se presenta máis ou menos riscos de condutas suicidas cunha porcentaxe de risco de cero a 100". Un exemplo: "Imaxinemos que unha persoa di que está desesperada, que está a sufrir bullying na escola e que pensou en quitarse a vida. Cando escribe iso, a porcentaxe de risco pasa automaticamente do cinco ao 90%", expresa.

Efectos nos mozos

"O que parecen dicir as enquisas poboacionais, tanto en adolescentes como en mozas, é que este rango de idade utiliza bastante máis a intelixencia artificial que os maiores", indica Castellví. As cifras falan por si soas: "Ao redor de case o 90% utilizouna algunha vez, e o 60%, máis ou menos, utilízaa de forma bastante frecuente no ámbito académico, pero tamén no seu día a día", di. O preocupante para o profesor é que un 25% atopa nos bots conversacionales —como ChatGPT ou Geminiun confidente, "coma se fose unha persoa que á que explicar os seus problemas".

"Os expertos o que recomendan é que sexa un complemento para que unha persoa, se o necesita, vaia a un profesional da saúde mental", declara. Un dos maiores riscos que entraña o valerse en exceso deste tipo de tecnoloxías, segundo Castellví, é que, en ocasións, poden ser nocivas para o usuario. "Reportáronse casos de suicidio inducido por culpa da intelixencia artificial, de agresión aos pais por parte dos adolescentes; ata se pode incentivar a trastornos da conduta alimentaria, como a anorexia ou a bulimia", alerta. Para el, o pensamento crítico é clave para combater estas ameazas, "e para iso é necesario o empoderamiento da poboación".

Como docente universitario, Castellví percibe que o uso máis estendido que as novas xeracións danlle a esta ferramenta é académico, "para que lles axude nos seus traballos". Con todo, isto carrexa un contratempo, o que se coñece como débeda cognitiva. "A débeda cognitiva é que esas competencias que deberían conseguir con eses traballos que ti, como profesor, mándaslles aos alumnos, non se conseguen, e a longo prazo é peor", anota.

"Se utilizas ben a IA, pódeche axudar unha chea"

Non todo é negativo, aínda que, para sacar máximo proveito das posibilidades que ofrece a intelixencia artificial, hai que ter nocións sobre o tema. "Se a utilizas ben, pódeche axudar unha chea: mellorar as presentacións, preparar exames, resumir texto... O importante é ter de base unha serie de habilidades para usala. Pero non só iso, senón que ás veces pode achegarche ideas que non pensaras. Pode axudarche a ser máis creativo, a facer unha aprendizaxe máis personalizado, adaptado ao nivel, ritmo e necesidades do estudante... E telo 24 horas ao día, sete días á semana. É como cando cun machada podes cortar leña ou matar persoas", aclara.

Advirte que a intelixencia artificial "non está programada para dicir a verdade, senón para ser compracente co usuario", e o que simula é unha interacción con outro ser humano, dando unha falsa sensación de empatía. "Isto pode provocar confusión, pensar que estás a falar cunha persoa cando, en realidade, estás a falar cunha máquina. Temos que saber diferenciar entre ambas", puntualiza.

As actividades do ciclo que inaugura Castellví inscríbense no programa Cultura por Alimentos, desenvolvido por Afundación e a Federación Española de Bancos de Alimentos (Fesbal), que situará colectores no lugar da charla para que os asistentes depositen alimentos non perecedoiros.

Tracking Pixel Contents