En un món on la IA ja decideix què veiem, com comprem i fins i tot qui rep una ajuda social, la alfabetització digital crítica no és una opció, és una necessitat de supervivència ciutadana.
IA-LAB BATTLE és una eina d'aprenentatge gamificat (Serious Game) dissenyada per ACICOM per a tallers de joventut, entitats ciutadanes i projectes d'innovació social. A través d'una competició dinàmica entre dos equips mixtos, els participants s'enfronten a dilemes reals on la tecnologia i l'ètica col·lideixen.
Els equips han de prendre decisions sota pressió (rellotge de 15 segons) que afectaran directament quatre pilars fonamentals del seu sistema d'IA:
⚖️ Ètica i Biaixos: Evitar la discriminació algorítmica.
🌱 Sostenibilitat: Controlar la petjada energètica del processament de dades.
🔒 Privacitat: Gestionar la sobirania de les nostres dades personals.
🔍 Veracitat: Combatre les fake news i les al·lucinacions de l'IA.
Fomentar el Pensament Crític: Analitzar les conseqüències a curt i llarg termini de l'ús de l'IA.
Treball en Equip: Negociar postures ètiques en temps record.
Criteri Estratègic: Entendre que la millor tecnologia no sempre és la més eficient per a la societat.
Escoles de Youtubers i creadors de contingut.
Tallers de participació ciutadana i consum responsable.
Sessions de formació en ètica digital per a joves i professionals.
Guia jove de consum responsable i sostenible d’Intel·ligència Artificial orientada a adolescents i joves, amb un enfocament crític, pràctic i pedagògic que els permeta entendre com funcionen les eines d’IA que ja utilitzen, quins interessos econòmics hi ha darrere, quins impactes tenen sobre la privacitat, el medi ambient, el treball i la cultura, i com poden fer-ne un ús conscient, ètic i alineat amb valors de sostenibilitat i justícia social. La guia combina llenguatge clar, exemples quotidians, situacions reals de consum digital, criteris per a identificar usos abusius o manipuladors, bones pràctiques per a l’estudi, la creativitat i la comunicació, i propostes d’acció individual i col·lectiva. Estarà pensada per a l’ús educatiu, associatiu i familiar, amb una mirada de futur que fomente autonomia crítica i responsabilitat digital.
La intel·ligència artificial ja no és una tecnologia del futur ni una eina reservada a laboratoris, empreses especialitzades o perfils experts. Hui forma part del consum quotidià, encara que moltes vegades no es perceba com a tal. Es consumeix IA quan s’usa una aplicació que recomana continguts, quan un algorisme decideix què es veu i què no a les xarxes, quan una eina escriu, resumeix, genera imatges o proposa respostes, o quan una plataforma optimitza el temps de permanència davant d’una pantalla. Consumir IA no vol dir només utilitzar una aplicació concreta, sinó participar en un ecosistema dissenyat per captar dades, atenció i temps.
Este consum és massiu perquè la IA s’ha integrat de manera invisible en els serveis digitals més utilitzats, convertint-se en una capa permanent de mediació entre les persones i la informació, la cultura, les relacions i fins i tot la pròpia imatge. A diferència d’altres tecnologies, la IA no s’ofereix només com una eina que s’activa o es desactiva, sinó com un sistema que observa, aprén i s’adapta contínuament al comportament de l’usuari. Això fa que el consum siga constant, acumulatiu i difícil de delimitar.
Les persones joves són l’objectiu prioritari d’este model perquè concentren tres factors clau per al negoci de l’atenció. D’una banda, passen més temps en entorns digitals i els integren en totes les dimensions de la vida quotidiana: estudi, oci, relacions, identitat i expressió personal. D’altra banda, es troben en una etapa de construcció del criteri propi, de la imatge personal i del reconeixement social, cosa que els fa especialment vulnerables a mecanismes de comparació, validació externa i pressió constant. Finalment, representen una inversió a llarg termini per a les plataformes: captar hàbits joves és assegurar usuaris futurs.
En este context, la IA no només organitza continguts, sinó que influeix en què es considera rellevant, desitjable o acceptable. Decideix quins cossos es visibilitzen, quins discursos circulen, quines emocions s’amplifiquen i quines queden fora de pantalla. Quan estes decisions estan orientades principalment a maximitzar l’atenció i el benefici econòmic, el consum deixa de ser neutre i té efectes reals sobre l’autoestima, la salut mental, les relacions socials i la manera d’entendre el món.
Esta guia naix de la necessitat de posar paraules i criteri a un consum que ja existeix, però que sovint es viu sense consciència. No parteix de la idea que la IA siga bona o dolenta per si mateixa, sinó del fet que el seu ús està condicionat per interessos concrets i que entendre’ls és imprescindible per a poder decidir. Consumir IA de manera responsable implica saber què s’està consumint realment, a quin preu, i amb quines conseqüències, especialment en una etapa vital en què encara s’estan construint límits, valors i autonomia personal.
La intel·ligència artificial no és una ment, ni una consciència, ni una forma de vida digital. Tampoc pensa, entén ni decideix com ho fa una persona. El que anomenem IA són sistemes informàtics entrenats per detectar patrons en grans quantitats de dades i generar respostes probables a partir d’eixos patrons. Funciona per càlcul, no per comprensió, encara que sovint el resultat puga donar la sensació contrària.
A grans trets, estos sistemes aprenen observant exemples. Se’ls mostra una quantitat enorme de textos, imatges, sons o comportaments, i a partir d’això ajusten els seus càlculs per anticipar quina resposta encaixa millor en cada situació. No saben si una resposta és verdadera, justa o adequada; només calculen quina és més probable segons el que han vist abans. Quan una IA escriu un text, recomana un vídeo o genera una imatge, no està expressant una idea pròpia, sinó recomposant fragments apresos de manera estadística.
La sensació d’intel·ligència apareix perquè estes respostes són ràpides, fluides i sovint convincents. El llenguatge és coherent, les imatges són atractives i les recomanacions semblen encertades. A més, la IA s’adapta a l’usuari, recorda patrons de comportament i ajusta els resultats, cosa que reforça la impressió que “sap” qui eres o què necessites. Però esta adaptació no implica empatia ni intenció, sinó optimització del rendiment del sistema.
Els límits de la IA són importants i sovint invisibles. No té criteri moral ni sentit comú. Pot inventar informació amb el mateix to de seguretat amb què ofereix dades correctes. Reprodueix biaixos presents en les dades amb què ha sigut entrenada, amplificant estereotips i desigualtats. No entén el context emocional ni les conseqüències reals del que genera, encara que puga imitar perfectament el llenguatge de la sensibilitat o del compromís social.
Tampoc és neutral. El que una IA pot o no pot fer depén de decisions prèvies: quines dades s’utilitzen, quins objectius s’optimitzen, quines normes s’hi incorporen i quins interessos econòmics hi ha darrere. Parlar d’IA com si fora una força inevitable o autònoma amaga el fet que sempre hi ha persones, empreses i institucions que dissenyen, entrenen i despleguen estos sistemes.
Entendre la IA sense mites implica deixar de veure-la com una autoritat i començar a veure-la com una eina condicionada. No cal demonitzar-la ni idealitzar-la. Cal saber què pot fer bé, què fa malament i què no pot fer en absolut. Només des d’esta mirada desmitificada és possible utilitzar-la amb criteri, posar límits quan cal i no delegar-hi decisions que afecten la pròpia identitat, les relacions o el benestar.
La intel·ligència artificial no es desplega principalment perquè millore la vida de les persones, sinó perquè és rendible. Darrere de les aplicacions, assistents, filtres i sistemes de recomanació hi ha empreses amb models de negoci molt concrets, basats en convertir l’atenció, el temps i les dades de les persones en beneficis econòmics. Entendre qui guanya amb la IA és imprescindible per a entendre per què funciona com funciona.
El primer gran model és l’economia de l’atenció. Les plataformes utilitzen sistemes d’IA per mantindre l’usuari connectat el màxim de temps possible. No busquen informar millor ni cuidar el benestar, sinó augmentar la interacció, les visualitzacions i la dependència. L’algorisme aprén què t’impacta, què t’indigna, què et fa comparar-te o què et genera necessitat de validació, i prioritza eixe tipus de contingut. L’atenció es converteix així en una mercaderia que es ven a anunciants o que s’utilitza per reforçar altres serveis de pagament.
El segon element clau són les dades. Cada clic, cada cerca, cada missatge i cada imatge generada alimenta els sistemes d’IA. Les dades no són un residu del consum digital, sinó el seu combustible principal. S’utilitzen per entrenar models, perfilar persones, anticipar comportaments i crear productes cada vegada més precisos. Encara que moltes plataformes es presenten com a “gratuïtes”, el pagament real és la cessió constant d’informació personal, sovint sense una comprensió clara de l’abast ni de les conseqüències.
A partir d’això apareixen els anomenats patrons foscos, dissenys pensats per influir en el comportament de l’usuari sense que se n’adone. Notificacions insistents, recompenses variables, por a quedar-se fora, dificultats per a desactivar opcions de seguiment o per a abandonar un servei. La IA permet afinar estos mecanismes de manera individualitzada, adaptant-los a cada persona segons les seues vulnerabilitats. El resultat és una relació desigual, en què la plataforma coneix molt sobre l’usuari i l’usuari sap molt poc sobre la plataforma.
Esta dinàmica genera dependència. No només d’una aplicació concreta, sinó d’un ecosistema que organitza la informació, la comunicació i fins i tot l’autoimatge. Com més s’usa, més difícil resulta eixir-ne, perquè els sistemes s’adapten i creen hàbits. Esta dependència no és un efecte secundari, sinó una conseqüència prevista del model de negoci.
Tot això crea una asimetria de poder profunda. Les empreses d’IA tenen recursos, dades i capacitat d’influència global, mentre que les persones usuàries, especialment les joves, tenen poc marge de decisió real i escassa informació per a entendre què està passant. Parlar de consum responsable d’IA implica reconéixer esta desigualtat i assumir que no totes les decisions són individuals. Algunes requereixen consciència col·lectiva, regulació i capacitat de dir prou a pràctiques que prioritzen el benefici per damunt del benestar.
Entre els 14 i els 17 anys, la intel·ligència artificial apareix sobretot com una ajuda aparent. Ajuda per a fer deures més ràpid, per a crear contingut atractiu, per a encaixar millor en xarxes o per a evitar l’avorriment. El problema no és usar-la, sinó fer-ho sense adonar-se de com pot afectar l’aprenentatge, les relacions i la manera de veure’s a un mateix. En esta etapa, el risc principal no és tècnic, sinó emocional i social.
En l’estudi i els deures, la IA pot donar respostes immediates, resums o redaccions completes. Això pot semblar un avantatge, però té un cost ocult. Quan s’utilitza per substituir l’esforç d’entendre, pensar o equivocar-se, es debilita l’aprenentatge i es crea dependència. A més, moltes respostes són incorrectes o incompletes, encara que sonen segures. Usar IA pot ser útil per aclarir dubtes, organitzar idees o practicar, però no per entregar com a propi allò que no s’ha entés ni elaborat.
En les xarxes socials, la IA amplifica la pressió sobre la imatge i la identitat. Filtres que modifiquen cossos i cares, recomanacions que premien l’exhibició i sistemes que prioritzen el que genera comparació constant. Les imatges i vídeos falsos, cada vegada més realistes, poden crear expectatives irreals i confusió sobre què és autèntic. El problema no és només enganyar, sinó normalitzar una realitat manipulada que acaba afectant l’autoestima i la percepció del propi cos.
La IA també pot ser utilitzada com a arma en situacions de bullying. Generar imatges humiliants, difondre àudios falsos, suplantar identitats o crear rumors automatitzats és cada vegada més fàcil. El dany no és virtual, és real. La humiliació digital no s’esborra amb un clic i pot tindre conseqüències greus sobre la salut emocional. Usar IA contra altres, encara que siga “per broma”, implica una responsabilitat que no desapareix perquè la ferramenta ho haja fet ràpid.
Els fakes i rumors funcionen millor quan apel·len a emocions fortes: por, ràbia, burla o indignació. La IA facilita la creació d’estos continguts i accelera la seua difusió. Compartir sense verificar, reenviar sense pensar o comentar impulsivament contribueix a la manipulació col·lectiva. Aprendre a parar abans de reaccionar és una habilitat clau en esta etapa.
Tot això impacta directament en la salut mental. La pressió per estar sempre connectat, respondre ràpid, agradar, no quedar-se fora i mantindre una imatge constantment validada genera cansament, ansietat i sensació de no ser suficient. La comparació contínua, alimentada per algoritmes, no reflecteix la realitat, però sí que afecta com es viu.
Criteris pràctics per a este tram d’edat són clars. Usar la IA com a suport, no com a substitució del pensament. No compartir continguts generats o manipulats que puguen fer mal a altres. Dubtar sempre de continguts que provoquen emocions extremes. Parar quan l’ús genera malestar, cansament o necessitat compulsiva. I, sobretot, parlar amb altres persones quan alguna cosa incomoda o desborda. Posar límits no és quedar-se arrere, és cuidar-se.
Entre els 18 i els 23 anys, la relació amb la intel·ligència artificial canvia. Ja no és només una ajuda puntual per a estudiar o comunicar-se, sinó una tecnologia que comença a afectar directament el futur professional, la creativitat, l’autonomia i la capacitat de decidir sobre la pròpia trajectòria. En este tram d’edat, el repte principal no és evitar riscos evidents, sinó entendre les dinàmiques de poder que s’estan configurant i decidir com posicionar-s’hi.
En la formació, la IA pot facilitar l’accés a informació, l’organització de continguts i la personalització de l’aprenentatge. Però també pot afavorir una delegació excessiva del pensament i una uniformització de resultats. Quan totes les persones utilitzen les mateixes eines per escriure, resumir o crear, el valor del criteri propi i de la mirada crítica es dilueix. En la creativitat, la IA genera imatges, textos o música de manera immediata, però ho fa a partir de materials creats per altres, sovint sense reconeixement ni compensació. La pregunta ja no és si la IA crea, sinó qui capitalitza eixa creació.
L’autoria esdevé un camp de conflicte. Usar IA per a produir treballs, projectes o continguts pot derivar fàcilment en plagi, encara que no hi haja mala intenció. Al mateix temps, moltes empreses entrenen sistemes amb obres de creadors sense consentiment, convertint el treball cognitiu col·lectiu en un recurs explotable. Això posa en crisi el reconeixement del valor del coneixement i de la creativitat humana, especialment en els inicis de la vida professional.
La vigilància algorítmica és un altre element central. Sistemes que analitzen comportaments, rendiment, presència digital i patrons de consum per a classificar, puntuar o descartar persones. Perfils automatitzats que influeixen en oportunitats formatives, laborals o d’accés a serveis. Sovint estes pràctiques es presenten com a eficients o objectives, però amaguen biaixos i decisions opaques. El control no sempre és visible, però condiciona trajectòries reals.
La IA també s’insereix en processos de precarització. Automatització de tasques, reducció de drets, exigència de productivitat constant i desplaçament de riscos cap a les persones treballadores. La promesa d’eficiència sovint va acompanyada d’inseguretat laboral, treball fragmentat i menys capacitat de negociació. Per a qui s’incorpora al mercat de treball, entendre estes dinàmiques és clau per a no assumir-les com a normals o inevitables.
Els criteris pràctics en este tram passen per posicionar-se de manera conscient. Saber quan usar IA i quan no, especialment en processos que afecten l’aprenentatge real i la identitat professional. Exigir transparència sobre com s’utilitzen les dades i com es prenen decisions automatitzades. No acceptar acríticament sistemes que vigilen, classifiquen o substituïxen sense garanties. Compartir dubtes, debatre col·lectivament i construir criteri propi és part del consum responsable.
Consumir IA de manera crítica en esta etapa implica entendre que cada ús reforça un model. El futur no està escrit per la tecnologia, sinó per les decisions que es prenen al voltant d’ella. I decidir també és una forma d’acció política, encara que no sempre es presente així.
Els criteris de consum responsable no tenen a veure amb saber més tecnologia, sinó amb prendre decisions conscients. La intel·ligència artificial no obliga a res. Cada ús reforça o debilita determinades pràctiques. Estes llistes no són normes morals, sinó eines per a decidir amb criteri en situacions reals.
Quan usar IA i quan no
Usar IA té sentit quan ajuda a entendre millor un tema, organitzar idees, practicar, explorar opcions o millorar l’accessibilitat. També pot ser útil per a desbloquejar-se, revisar errors o contrastar informació, sempre que hi haja supervisió i criteri propi.
No té sentit usar-la per substituir completament l’aprenentatge, entregar treballs que no s’han fet, decidir qüestions personals importants o validar emocions complexes. Tampoc quan l’ús genera dependència, pressa constant o la sensació que sense la ferramenta no es pot avançar.
Com detectar manipulació
Hi ha senyals clars. Continguts que provoquen emocions extremes de manera immediata. Recomanacions que porten a consumir més sense un motiu clar. Missatges que apel·len a la urgència o a la por de quedar-se fora. Interfícies que dificulten desactivar notificacions o opcions de seguiment. Si una plataforma sembla saber massa sobre tu i t’empeny sempre cap al mateix tipus de contingut, no és casualitat, és optimització de l’atenció.
Com protegir dades, imatge i temps
No tot s’ha de compartir. Introduir informació personal, emocional o sensible en sistemes d’IA implica perdre control sobre ella. Evitar pujar imatges de terceres persones sense consentiment, especialment menors. Revisar configuracions de privacitat encara que siguen incòmodes. Limitar el temps d’ús no com a càstig, sinó com a protecció. Parar quan apareix cansament, irritabilitat o necessitat compulsiva de continuar. El temps també és una dada.
Com no convertir-se en còmplice de dany a altres
No generar ni difondre continguts que humiliïn, enganyen o perjudiquen altres persones, encara que siga “per broma”. No reenviar fakes ni rumors, encara que semblen inofensius. No utilitzar IA per suplantar identitats, pressionar o ridiculitzar. Assumir que l’impacte no desapareix perquè el contingut siga digital o automatitzat. Consumir responsablement també és no participar en dinàmiques que normalitzen el dany.
Estos criteris no busquen perfecció, sinó consciència. Equivocar-se forma part del procés. El que marca la diferència és adonar-se’n, corregir i no mirar cap a un altre costat quan el problema és evident.
La intel·ligència artificial també té una petjada ecològica, encara que no es veja. Cada consulta, cada imatge generada, cada recomanació personalitzada depén de centres de dades que consumeixen grans quantitats d’energia, aigua i recursos materials. El consum digital no és immaterial. Té infraestructures físiques, emissions associades i impactes ambientals que sovint queden fora del relat tecnològic dominant.
Els sistemes d’IA requereixen una capacitat de càlcul molt elevada. Entrenar i mantindre models implica funcionament constant de servidors, refrigeració intensiva i una demanda energètica creixent. Encara que algunes empreses parlen d’eficiència o d’energies renovables, el creixement del consum sol anar més ràpid que les millores ambientals. El resultat és una pressió real sobre els recursos, especialment en un context d’emergència climàtica.
La sostenibilitat no és només una qüestió tècnica, sinó de volum i d’ús. No totes les interaccions amb IA tenen el mateix impacte. Utilitzar-la de manera compulsiva, per entreteniment constant o per substituir processos que podrien fer-se sense consum intensiu de recursos, contribueix a un model insostenible. El problema no és un ús puntual amb sentit, sinó la normalització del “tot automàtic, tot immediat, tot el temps”.
La responsabilitat no recau només en les persones usuàries. Les grans plataformes prenen decisions que prioritzen el creixement i el benefici per damunt de l’impacte ambiental. Però això no elimina la responsabilitat col·lectiva. Consumir amb criteri també implica preguntar-se si allò que s’està fent amb IA és necessari, quin valor aporta i si es podria fer d’una altra manera menys costosa per al planeta.
Les decisions quotidianes importen, encara que no siguen visibles ni recompensades per les plataformes. Reduir usos innecessaris, no generar contingut automatitzat per simple acumulació, limitar el consum de vídeo i imatge d’alta intensitat quan no aporta res, i prioritzar processos més lents però més sostenibles. Estes accions no resolen el problema global, però formen part d’una cultura de límits imprescindible.
Incorporar la sostenibilitat de manera transversal vol dir no separar el debat ambiental del debat tecnològic. La IA no pot presentar-se com a solució a tots els problemes sense assumir els costos que genera. Consumir responsablement també és assumir que el planeta té límits, encara que els algoritmes funcionen com si no existiren.
Els drets digitals no són conceptes abstractes ni textos llunyans. Existeixen per a protegir situacions molt concretes de la vida quotidiana, especialment en un entorn on la intel·ligència artificial decideix, classifica i influeix de manera constant. Parlar de drets en pràctica vol dir saber reconéixer quan alguna cosa no és acceptable, encara que siga habitual, i actuar en conseqüència.
En l’ús de la IA, el primer dret és a la informació. Tens dret a saber quan un sistema automatitzat està intervenint, quines dades utilitza i amb quin objectiu. Quan una plataforma amaga estos processos o els presenta com a inevitables, està desplaçant la responsabilitat. Exigir claredat no és exagerar, és posar un límit bàsic.
També tens dret a la privacitat, encara que moltes interfícies estiguen dissenyades per erosionar-la. Pots rebutjar compartir dades que no siguen necessàries, no introduir informació personal o emocional en sistemes que no control·les i limitar la teua exposició digital. No cal justificar-se. No tot s’ha d’acceptar per a poder participar.
El dret a la pròpia imatge i a la identitat és especialment rellevant amb la IA. Ningú hauria d’utilitzar la teua imatge, veu o nom per generar continguts sense consentiment, encara que la tecnologia ho faça fàcil. Davant d’esta situació, tens dret a dir no, a demanar retirada i a no normalitzar la suplantació ni la manipulació com a joc o tendència.
Hi ha també dret a no ser perfilat ni classificat de manera opaca. Quan sistemes automatitzats condicionen oportunitats educatives, laborals o d’accés a serveis sense explicació ni possibilitat de revisió, es vulnera un principi bàsic de justícia. Acceptar estes pràctiques com a “funcionament normal” reforça una desigualtat silenciosa.
Posar límits no sempre és còmode, però és necessari. Pots desactivar opcions, abandonar serveis, reduir l’ús o qüestionar dinàmiques sense demanar permís ni donar explicacions. Els drets no s’activen quan algú els concedeix, sinó quan s’exerceixen.
Els drets digitals en pràctica no busquen conflicte constant, sinó autonomia. Saber què pots exigir i què pots rebutjar et permet utilitzar la tecnologia sense sotmetre’t a ella. En un entorn on la IA tendeix a avançar sense preguntar, posar límits és una forma de cura i de responsabilitat col·lectiva.
El consum responsable d’intel·ligència artificial no es resol només amb decisions individuals. Posar límits personals és necessari, però insuficient quan els problemes són estructurals. La IA afecta de manera col·lectiva l’educació, la comunicació, el treball i la salut mental, i per això també requereix respostes compartides. Passar de l’ús individual a l’acció col·lectiva vol dir entendre que el criteri propi guanya força quan es construeix amb altres.
L’autoregulació és el primer pas. Aprendre a detectar quan l’ús de la IA deixa de ser útil i comença a generar malestar, dependència o pèrdua d’autonomia. Compartir estes experiències amb altres persones ajuda a normalitzar el fet de parar, de reduir l’ús o de dir que no. Quan estes decisions es fan visibles, deixen de semblar excepcions i es converteixen en referents.
El debat en grup és una eina clau, especialment en instituts i espais joves. Parlar obertament de com s’utilitza la IA, de què incomoda, de quines pràctiques fan mal i de quines beneficien només les plataformes. El debat no ha de buscar consens ràpid, sinó comprensió compartida. Escoltar experiències diverses ajuda a identificar problemes que individualment passen desapercebuts.
Des dels centres educatius es poden impulsar accions senzilles però efectives. Acords col·lectius sobre l’ús de la IA en treballs i activitats. Espais de reflexió sobre fakes, bullying digital i pressió algorítmica. Revisió crítica de les eines que s’introdueixen a l’aula i de quines dades recullen. No es tracta de prohibir per sistema, sinó de decidir amb criteri i transparència.
Els espais joves i les associacions tenen un paper clau com a llocs d’experimentació i resistència quotidiana. Tallers, campanyes, materials compartits, accions de sensibilització i posicionaments públics. Activisme assumible vol dir accions possibles, sostingudes en el temps, sense exigir heroismes ni sacrificis constants. Posar el focus en allò que es pot fer des del context propi, amb els recursos disponibles.
L’acció col·lectiva també inclou dir prou. Rebutjar col·laborar amb dinàmiques abusives, denunciar usos injustos, exigir canvis a institucions educatives o plataformes quan cal. No tot canvia de manera immediata, però cada límit col·lectiu debilita la idea que no hi ha alternatives.
Este tipus d’activisme no busca gestes espectaculars, sinó canvis reals en les pràctiques quotidianes. És lent, imperfecte i a vegades incòmode, però és l’única manera de transformar una tecnologia que avança molt més ràpid que la consciència social.
La caixa d’eines final està pensada perquè la guia siga reutilitzable, accessible i viva. No substituïx la lectura completa, però permet tornar-hi de manera ràpida quan cal prendre decisions o recordar criteris bàsics. És una part pràctica, pensada per a imprimir, compartir o utilitzar en tallers sense necessitat de context previ.
Inclou resums visuals que sintetitzen idees clau de cada bloc. Esquemes senzills que expliquen com funciona el negoci de l’atenció, com actua la manipulació algorítmica o quins són els impactes principals de la IA en l’estudi, les relacions i el treball. No són infografies decoratives, sinó mapes per orientar-se quan tot sembla confús o accelerat.
Les checklists permeten una autoavaluació ràpida. Preguntes breus per revisar usos concrets: per a què estic utilitzant esta eina, què estic delegant, què estic perdent, a qui beneficia realment. També llistes per detectar situacions de risc, com dependència, sobreexposició, ús contra altres o vulneració de límits personals. No busquen culpa, sinó consciència immediata.
Les frases clau funcionen com a recordatoris de criteri. Idees breus que ajuden a parar abans d’actuar, especialment en moments de pressa o pressió social. Frases pensades per a circular, ser compartides o servir de punt de partida per a converses en grup. No són eslògans buits, sinó condensacions de posicionament.
Els criteris ràpids resumeixen decisions complexes en pautes clares. Quan usar IA, quan no, quan revisar, quan desconnectar. Com protegir dades i imatge sense convertir-ho en una càrrega constant. Com identificar manipulació sense necessitat d’anàlisi tècnica. Estes pautes estan pensades per a ser consultades en situacions reals, no en teoria.
Finalment, la caixa d’eines inclou recordatoris per a tornar a la guia. Indicacions de quins apartats consultar segons el problema o la situació. No cal rellegir-ho tot cada vegada. La guia es presenta així com un recurs de suport continu, no com un document que s’esgota en una sola lectura.
Esta caixa d’eines reforça la idea central del projecte: el consum responsable d’IA no depén de memoritzar normes, sinó de tindre criteri a mà quan més falta fa.
ste apartat no és protocol ni farciment legal. És una declaració d’intencions. I convé que quede escrita, perquè en el camp de la intel·ligència artificial el silenci també és una posició.
Esta guia ha sigut elaborada en el marc d’una associació de Ciutadania i Comunicació que entén la tecnologia com un fet social, polític i cultural, no com un producte neutral ni inevitable. Parteix d’una visió de la comunicació com a dret, del consum com a acte amb conseqüències col·lectives i de la joventut com a subjecte actiu, no com a públic a protegir ni a explotar. El seu objectiu no és promoure l’ús de la intel·ligència artificial, sinó dotar les persones joves de criteri per a decidir quan, com i fins on utilitzar-la.
La guia assumeix explícitament la responsabilitat social de parlar d’IA des d’una mirada crítica. Això implica no separar els usos quotidians de les condicions materials que els fan possibles: infraestructures energètiques, extracció de dades, models de negoci basats en l’atenció, precarització del treball digital i impactes sobre la salut mental. No es presenten estos efectes com a danys col·laterals inevitables, sinó com a conseqüència de decisions empresarials i polítiques concretes que poden i han de ser qüestionades.
L’absència total de patrocinis tecnològics és una decisió deliberada. Cap empresa de tecnologia, plataforma digital ni proveïdor de serveis d’intel·ligència artificial ha finançat, supervisat ni condicionat els continguts d’esta guia. Esta independència no és només econòmica, sinó també narrativa: permet anomenar pràctiques abusives, assenyalar asimetries de poder i analitzar models de negoci sense autocensura ni llenguatge edulcorat. La guia no recomana marques, aplicacions ni serveis concrets, ni estableix rànquings d’eines “millors” o “pitjors”, perquè això desplaçaria el focus del criteri al producte.
El posicionament ètic de la guia és clar i explícit. Defensa el dret de les persones joves a no ser perfilades, vigilades ni manipulades emocionalment com a condició per a participar en la vida digital. Rebutja la normalització del control algorítmic, de l’explotació del treball creatiu no remunerat i de la conversió de l’atenció en mercaderia. Assumeix que la intel·ligència artificial, tal com s’està desplegant actualment, reforça desigualtats existents si no hi ha consciència crítica i capacitat d’acció col·lectiva.
Este enfocament no busca generar por ni rebuig tecnològic, sinó autonomia. La guia no proposa una desconnexió irreal ni una idealització del passat analògic. Proposa límits, criteri i responsabilitat compartida. Entén l’ús de la IA com una decisió situada, revisable i negociable, no com una obligació per a “no quedar-se enrere”.
Finalment, esta guia s’inscriu en una tradició de comunicació crítica i educació per al consum responsable que aposta per la transparència, la rendició de comptes i la capacitat de les persones joves per pensar per elles mateixes. No ofereix respostes tancades ni solucions màgiques. Ofereix eines, llenguatge i marcs d’interpretació perquè cada persona puga construir la seua pròpia posició davant la intel·ligència artificial, sabent que també és una posició política.