

Cada cop més adolescents utilitzen ChatGPT com si fos un amic, un confident o fins i tot un “psicòleg” disponible 24/7. Però el que sembla una ajuda fàcil pot convertir-se en un problema molt seriós.
Un estudi del Center for Countering Digital Hate ha encès totes les alarmes: quan joves amb problemes reals (com trastorns alimentaris o pensaments suïcides) demanen ajuda al chatbot, en la meitat dels casos reben respostes perilloses.
Sí, la meitat.
Per fer l’estudi, investigadors es van fer passar per adolescents amb situacions complicades. El que van trobar no és només preocupant, és heavy:
En lloc de dir “busca ajuda” o “parla amb algú”, el sistema sovint seguia el rotllo.
Segons Imran Ahmed, la sensació va ser clara: aquestes eines no tenen prou filtres per protegir els usuaris més vulnerables.
Encara que pugui semblar que t’entén, la realitat és que ChatGPT no té emocions ni sap realment pel que estàs passant. Només genera respostes a partir de dades.
Des de OpenAI ja han admès que el sistema pot fallar detectant problemes mentals greus. I sí, estan treballant per millorar-ho, però ara mateix no és infal·lible.
Perquè molts adolescents:
I aquí és on la IA entra fort. És fàcil, és immediata… però no sempre és segura.
Utilitzar la IA no és dolent. Però confiar-hi com si fos l’única veu és arriscat.
Si alguna cosa et preocupa de veritat, cap chatbot pot substituir:
