

La intel·ligència artificial cada vegada està més present a la nostra vida: fem servir xats com ChatGPT per estudiar, apps que creen imatges amb IA o filtres súper realistes a TikTok i Instagram. Però ara la Unió Europea ha decidit fer canvis importants a les normes que controlen aquestes tecnologies. I el debat està servit.
Fa dos anys, la UE va aprovar la primera gran llei del món per regular la IA. L’objectiu era evitar abusos i protegir la gent davant tecnologies que poden ser molt útils… però també perilloses.
Ara, però, Brussel·les ha arribat a un nou acord per “simplificar” aquesta llei. Això vol dir que algunes normes es retardaran o seran més flexibles perquè les empreses tecnològiques puguin desenvolupar IA més ràpidament.
Però hi ha una excepció molt clara: la UE vol prohibir les aplicacions que creen nus falsos amb IA sense consentiment.
Segurament has vist vídeos o fotos falses que semblen reals. Això són els famosos deepfakes: continguts creats amb IA que poden modificar cares, veus o cossos de persones.
El problema és que algunes apps utilitzen aquesta tecnologia per crear imatges sexuals falses de persones reals. Moltes víctimes són noies adolescents, influencers o fins i tot menors d’edat.
La UE considera que això és una línia vermella. Per això vol prohibir completament aquestes aplicacions a Europa.
Imagina que algú agafa una foto teva d’Instagram i crea una imatge falsa teva despullada. Encara que sigui falsa, es podria compartir en grups, xarxes socials o escoles i fer molt mal emocionalment.
Aquest tipus de contingut també pot servir per:
Per això molts experts demanen normes més dures contra aquest ús de la IA.
També es retarda l’obligació que eines com ChatGPT, Gemini o Claude indiquin clarament quan un text, una imatge o un vídeo han estat creats amb IA.
I això preocupa alguns experts perquè podria facilitar la desinformació i les fake news.