Temi
L’intelligenza artificiale (IA) fa parte della nostra vita quotidiana. Talvolta la usiamo consapevolmente, ad esempio con ChatGPT, ma sovente anche in modo del tutto nascosto. Gli assistenti vocali Alexa e Siri per esempio si basano sulla tecnologia d’IA tanto quanto i suggerimenti di Netflix o TikTok. Lo stesso vale per la funzione di riconoscimento facciale che permette di sbloccare il telefono cellulare, per Google Maps che calcola il percorso migliore da proporci o per i programmi di e-mail in grado di filtrare lo spam.
Proprio per questo è estremamente importante che i bambini e i giovani comprendano che cosa sono gli strumenti di IA, come funzionano, cosa possono fare e a cosa bisogna prestare attenzione. Ciò significa ad esempio che:
l’IA viene spesso utilizzata senza che ce ne accorgiamo;
i testi scritti dall’IA spesso suonano bene, ma possono contenere informazioni false;
le immagini e i video possono essere manipolati con l’IA o generati da zero;
l’IA può controllare ciò che vediamo su Internet e questo può limitare la nostra visione del mondo;
sviluppare una migliore comprensione e uno sguardo critico aiuta a utilizzare l’IA in modo mirato, ragionevole e creativo.
Contenuto
Detto in parole povere, un algoritmo è un comando: esso stabilisce che cosa va fatto per ottenere un determinato risultato. Poiché di regola un unico algoritmo non è sufficiente, un programma o un software ne contiene diversi. Ma nemmeno questo da solo basta a farne uno strumento d’IA.
I programmi che funzionano con algoritmi classici sono statici, vale a dire che fanno sempre la stessa cosa. I sistemi d’IA, invece, si basano su algoritmi dinamici, in grado di apprendere costantemente. Per questo processo di apprendimento devono essere alimentati continuamente con dati che li aiutino a elaborare schemi, modelli e nessi dai quali poter trarre deduzioni.
Quando TikTok mi suggerisce un nuovo video che potrebbe piacermi, vengono utilizzati algoritmi dell’IA. Lo stesso vale per Netflix o Spotify. Gli algoritmi analizzano costantemente ciò che guardiamo, apprezziamo con un like o cancelliamo e da questo deducono ciò che potrebbe piacerci. Si crea così un’offerta personalizzata.
Questo può essere pratico perché possiamo accedere più rapidamente ai contenuti che ci piacciono. Allo stesso tempo, però, può portarci a vedere sempre più cose uguali, ad esempio soltanto una determinata opinione o un tipo di video. In questi casi si parla di bolle di filtraggio o di camere d’eco.
Si parla di IA generativa quando uno strumento è in grado di creare contenuti come testi, immagini, video o brani musicali. Tra gli esempi più noti vi sono:
ChatGPT, Google Gemini, Bing Chat, Microsoft Copilot: chatbot basati sul testo che scrivono testi o rispondono a domande in modo simile a quello umano;
Siri, Alexa, Cortana: assistenti vocali e chatbot basati sulla voce che utilizzano l’IA per comprendere istruzioni vocali;
DALL-E, Flux, Midjourney: inserendo testi si possono creare immagini completamente nuove o modificare foto esistenti;
VEO3, RunwayML, Lumen5: generatori di video che funzionano secondo lo stesso principio dei generatori di immagini; una semplice descrizione basta per creare nuovi video e modificare quelli esistenti;
Suno, Udio, MusicGPT: strumenti che compongono brani musicali.
Tuttavia, gli strumenti di IA possono anche commettere errori, inventare contenuti o diffondere discriminazioni. Inoltre, ChatGPT e simili hanno bisogno di enormi quantità di dati per svilupparsi costantemente. Tutto ciò che gli utenti inseriscono può essere utilizzato a tal fine.
Se si vuole dare credito ai film hollywoodiani, in un futuro più o meno lontano gli esseri umani saranno controllati dall’IA. Ma quanto c’è di realistico in questi scenari? Per dare una risposta dobbiamo distinguere tra due forme di IA:
IA debole: Nel caso di strumenti come Alexa, ChatGPT, scacchi al computer o veicoli a guida autonoma si parla di IA debole. Infatti, sebbene si tratti di sistemi altamente complessi in grado di fare cose incredibili, hanno tutti un compito specifico e non posseggono un’«intelligenza generale».
IA forte: Se fosse possibile creare sistemi come quelli che conosciamo dal cinema, ci troveremmo per così dire di fronte a una «super intelligenza», in grado persino di superare le capacità umane. Uno strumento del genere, per esempio un robot, potrebbe essere impiegato nei più svariati ambiti. Fino a questo momento l’IA forte non è ancora stata realizzata e gli scienziati non sono concordi sul fatto che sia effettivamente possibile farlo.
I progressi nel campo dell’IA sono rapidissimi. Oltre agli aspetti tecnologici, con essi si presentano tutta una serie di questioni di tipo giuridico ed etico e/o rilevanti per la sicurezza.
L’IA può avere allucinazioni, ovvero inventare contenuti. Presenta informazioni false, ad esempio fatti o citazioni inventati, come se fossero vere. Se l’IA non è in grado di riconoscere e filtrare una notizia falsa, allora riprende l’informazione errata e contribuisce a divulgarla o si basa su di essa per apprendere. Senza contare che gli strumenti di IA offrono tecnologie sempre più sofisticate per la diffusione di fake news.
I social bot sono programmi del computer che agiscono in modo autonomo e che possono essere utilizzati per manipolare e confondere gli utenti. Utilizzando algoritmi basati in gran parte sull’IA, simulano un’identità umana e comunicano come delle vere persone nei social media quali Instagram o X oppure in altri forum interattivi: mettono automaticamente dei «mi piace» ai contenuti postati, li commentano e/o condividono oppure ne producono di propri. In questo modo sono in grado di distorcere tendenze e formazione di opinioni.
È importante che i bambini e i giovani sappiano che non sempre, nei social media o nei forum, dietro a un profilo si trova effettivamente una persona reale, anche se questo ha un aspetto autentico. Allo stesso tempo, non tutti i commenti pubblicati in discussioni o attività online provengono da persone realmente esistenti. I social bot inviano spesso richieste di amicizia a persone reali o vogliono seguirle per esempio su Instagram, al fine di fare appa-rire autentico il loro elenco di amici oppure di poter accedere a ulteriori informazioni di un profilo.
Disinformazione
Odio e radicalizzazione
Social media
I deepfake sono immagini, video e registrazioni audio modificati dall’IA o completamente falsificati in modo talmente perfetto da sembrare veri. Vengono anche utilizzati in modo abusivo a fini di estorsione.
Aggressioni Sessuali
Se uno strumento di IA si basa su un campione di dati discriminanti, esso riprende la discriminazione intrinseca e basa le proprie decisioni su di essa. Un esempio potrebbe essere uno strumento per filtrare le candidature nel quadro di un concorso. Possono essere diffusi anche modelli di pensiero stereotipati, come quelli relativi al genere, al colore della pelle o all’origine.
Odio e radicalizzazione
I sistemi di IA necessitano di enormi quantità di dati. Quando si tratta di dati sensibili (dati personali), la questione può divenire problematica, se a causa del processo di apprendimento automatico non è chiaro che cosa succeda ai dati. Occorre chiarire la questione della protezione dei dati anche nel caso dei sistemi di IA utilizzati per il riconoscimento facciale, per la profilazione o la localizzazione di persone oppure nell’ambito dei giocattoli intelligenti.
Protezione dei dati
Proprio per il fatto che l’IA è presente in molti ambiti della realtà quotidiana, anche i bambini e i giovani vi entrano in contatto. Questo comporta una serie di rischi:
Spesso gli strumenti di IA non chiedono l’età. Così anche i bambini più piccoli hanno facilmente accesso a sistemi che non comprendono e che non sono pensati per loro, perché per esempio non hanno integrato un filtro per la protezione dei minori.
ChatGPT e altri equivalenti simulano la comunicazione umana. Per i bambini non è sempre chiaro se dall’altra parte dello schermo ci sia davvero una persona o meno.
Gli strumenti di IA permettono per esempio di manipolare le fotografie al punto tale da trasformare una normale immagine in materiale (pedo)pornografico. I programmi sono in grado di ritagliare la testa da una foto e incollarla in modo realistico su un corpo nudo. Gli autori di questi collage possono utilizzare tali materiali per ricattare o bullizzare bambini e giovani. Naturalmente manipolazioni del genere eseguite senza il consenso degli interessati sono vietate e perseguibili penalmente.
Quando gli strumenti di IA generano immagini o testi, non è sempre chiaro da dove abbiano preso i vari elementi. La conseguenza può essere una violazione del diritto d’autore con conseguenze penali.
Ad oggi (stato: giugno 2025) in Svizzera non esiste una legislazione specifica sull’IA. Tuttavia, entro la fine del 2026 la Confederazione intende elaborare un progetto da porre in consultazione concernente la regolamentazione dell’IA. L’accento sarà posto su aspetti quali la protezione dei dati, la trasparenza, la non discriminazione e la vigilanza. Il progetto permetterà di ratificare la Convenzione sull’intelligenza artificiale del Consiglio d’Europa.
Tuttavia, ciò non significa che l’utilizzo dell’IA avvenga in un vuoto giuridico o che le applicazioni abusive non possano avere conseguenze legali. Le basi giuridiche esistenti, come il diritto penale (Codice penale [CP]), il diritto civile (Codice civile [CC]) o i diritti di protezione per quanto riguarda la proprietà intellettuale (p. es. diritto d’autore), sono già per principio applicabili. Concretamente, si tratta ad esempio dei seguenti articoli:
art. 258 segg. CP: crimini o delitti contro la tranquillità pubblica;
art. 261bis CP: discriminazione e incitamento all’odio;
art. 173 segg. CP: delitti contro l’onore;
art. 179decies CP: usurpazione d’identità;
art. 28 segg. CC: lesioni della personalità.
Ultimo aggiornamento del testo il 12.11.25