Ricerca

Immagine simbolica per l'intelligenza artistica

Intelligenza artificiale

28%
dei giovani di 16 e 17 anni in Svizzera utilizza regolarmente le applicazioni IA a scopo informativo (JAMES 2024).
26
volte più casi di abusi legati all’IA si sono registrati nel 2022 rispetto al 2012 (AI Index Report 2023, Stanford University).
108
imprese che si occupano di IA sono state fondate in Svizzera negli ultimi dieci anni (AI Index Report 2023, Stanford University).
jum-lightbulb

Buono a sapersi

L’avvento di ChatGPT ha fatto entrare il tema dell’intelligenza artificiale nei salotti della gente e nelle scuole. Nella nostra realtà quotidiana l’IA è però presente già da molto più tempo: gli assistenti vocali Alexa e Siri per esempio si basano sulla tecnologia d’IA tanto quanto i suggerimenti di Netflix o TikTok. Lo stesso vale per la funzione di riconoscimento facciale che permette di sbloccare il telefono cellulare, per Google Maps che calcola il percorso migliore da proporci o per i programmi di e-mail in grado di filtrare lo spam.

Ma andiamo per ordine: iniziamo con il vedere tutto ciò che occorre sapere sul tema dell’IA.

 

Detto in parole povere, un algoritmo è un comando: esso stabilisce che cosa va fatto per ottenere un determinato risultato. Poiché di regola un unico algoritmo non è sufficiente, un programma o un software ne contiene diversi. Ma nemmeno questo da solo basta a farne uno strumento d’IA.

I programmi che funzionano con algoritmi classici sono statici, vale a dire che fanno sempre la stessa cosa. I sistemi d’IA, invece, si basano su algoritmi dinamici, in grado di apprendere costantemente. Per questo processo di apprendimento devono essere alimentati continuamente con dati che li aiutino a elaborare schemi, modelli e nessi dai quali poter trarre deduzioni.

A questo proposito possiamo distinguere tra due tipi di apprendimento:

1. Apprendimento automatico (in inglese «machine learning»)

Diversamente dal classico sviluppo di software, un sistema basato sull’apprendimento automatico impara prevalentemente da solo. Questo è permesso da algoritmi che analizzano dati per formulare previsioni, calcolare probabilità e prendere decisioni, per esempio per contribuire a ottimizzare i processi. In questo sistema l’essere umano rimane un attore importante, poiché verifica e valuta i progressi del sistema di IA.

2. Apprendimento profondo (in inglese «deep learning»)

Si tratta di una categoria dell’apprendimento automatico che fa un passo ulteriore. In questo procedimento vengono impiegate reti neurali artificiali create sul modello del cervello umano. Un sistema che funziona in questo modo non ha praticamente bisogno dell’intervento degli esseri umani. Esso è in grado di elaborare quantità di dati, immagini eccetera molto maggiori, si sviluppa costantemente e in questo processo stabilisce autonomamente anche se le sue decisioni sono corrette. L’apprendimento profondo offre una vasta gamma di nuove possibilità, per esempio in medicina, nel contesto della diagnostica, oppure nell’ambito della sicurezza informatica. Ma questo sistema rappresenta anche una specie di «black box», poiché non è più praticamente possibile seguirne i processi di apprendimento.

ChatGPT (di OpenAI) ha aperto le danze come generatore di testi o chatbot, portando a conoscenza del grande pubblico il tema dell’intelligenza artificiale. Nel frattempo sono stati sviluppati anche altri strumenti, quali Bard di Google o Perplexity AI dell’omonima azienda. Tutti hanno lo stesso scopo: comunicano con noi, rispondono alle nostre domande, risolvono compiti di aritmetica, scrivono testi o traducono in altre lingue. Altrettanto variegate sono le possibili applicazioni: a scuola, nello studio e anche in molte professioni.

 

Se si vuole dare credito ai film hollywoodiani, in un futuro più o meno lontano gli esseri umani saranno controllati dall’intelligenza artificiale. Ma quanto c’è di realistico in questi scenari? Per dare una risposta dobbiamo distinguere tra due forme di IA:

IA debole

Nel caso di strumenti come Alexa, ChatGPT, scacchi al computer o veicoli a guida autonoma si parla di IA debole. Infatti, sebbene si tratti di sistemi altamente complessi in grado di fare cose incredibili, hanno tutti un compito specifico e non posseggono un’«intelligenza generale».

IA forte

Se fosse possibile creare sistemi come quelli che conosciamo dal cinema, ci troveremmo per così dire di fronte a una «super intelligenza», in grado persino di superare le capacità umane. Uno strumento del genere, per esempio un robot, potrebbe essere impiegato nei più svariati ambiti. Fino a questo momento l’IA forte non è ancora stata realizzata e gli scienziati non sono concordi sul fatto che sia effettivamente possibile farlo.

Proprio per il fatto che l’IA è presente in molti ambiti della realtà quotidiana, anche i bambini e i giovani vi entrano in contatto. Questo comporta una serie di rischi:

  • Spesso gli strumenti di IA non chiedono l’età. Così anche i bambini più piccoli hanno facilmente accesso a sistemi che non comprendono e che non sono pensati per loro, perché per esempio non hanno integrato un filtro per la protezione dei minori.
  • ChatGPT e altri equivalenti simulano la comunicazione umana. Per i bambini non è sempre chiaro se dall’altra parte dello schermo ci sia davvero una persona o meno.
  • Gli strumenti di IA permettono per esempio di manipolare le fotografie al punto tale da trasformare una normale immagine in materiale (pedo)pornografico. I programmi sono in grado di ritagliare la testa da una foto e incollarla in modo realistico su un corpo nudo. Gli autori di questi collage possono utilizzare tali materiali per ricattare o bullizzare bambini e giovani (→ Ciberbullismo). Naturalmente manipolazioni del genere eseguite senza il consenso degli interessati sono vietate e perseguibili penalmente. Ulteriori informazioni sulla manipolazione di immagini e video sono disponibili alla rubrica → Disinformazione ed educazione all’informazione (Deepfake e deepnude), e sull’estorsione con immagini erotiche alla rubrica → Sessualità e pornografia (Sextortion).
  • Quando gli strumenti di IA generano immagini o testi, non è sempre chiaro da dove abbiano preso i vari elementi. La conseguenza può essere una violazione del diritto d’autore con conseguenze penali.

I progressi nel campo dell’intelligenza artificiale sono rapidissimi. Oltre agli aspetti tecnologici, con essi si presentano tutta una serie di questioni di tipo giuridico e/o etico. Persino i sostenitori dell’IA fanno continuamente osservare i possibili rischi ad essa legati. Di seguito ne presentiamo alcuni.

  • Protezione dei dati: i sistemi di IA necessitano di enormi quantità di dati. Quando si tratta di dati sensibili (dati personali), la questione può divenire problematica, se a causa del processo di apprendimento automatico non è chiaro che cosa succeda dei dati. Anche nel caso dei sistemi di IA utilizzati per il riconoscimento facciale, la profilazione o la localizzazione di persone oppure nell’ambito dei giocattoli intelligenti, occorre chiarire la questione della protezione dei dati.
  • Disinformazione e manipolazione: se l’IA non è in grado di riconoscere e filtrare una notizia falsa, allora riprende l’informazione errata e contribuisce a divulgarla o si basa su di essa per apprendere. Senza contare che gli strumenti di IA offrono tecnologie sempre più sofisticate per la diffusione di fake news. Già oggi s’incontrano sempre più in rete i cosiddetti deepfake (→ Disinformazione ed educazione all’informazione), ovvero immagini e video modificati in modo realistico dall’IA.
  • Discriminazione: se uno strumento di IA si basa su un campione di dati discriminanti, esso riprende la discriminazione intrinseca e basa le proprie decisioni su di essa. Un esempio potrebbe essere uno strumento per filtrare le candidature nel quadro di un concorso.
  • Responsabilità per danni: chi deve assumere la responsabilità di un incidente causato da un veicolo a guida autonoma? Questioni del genere devono ancora essere chiarite.
  • Sicurezza dei posti di lavoro: l’IA modifica il mondo del lavoro. Ma come esattamente? Quali professioni ne saranno toccate e in che misura? E che cosa comporteranno questi cambiamenti per le persone che esercitano tali professioni?
  • Guerre: come in molti altri settori, l’IA trova impiego anche nel contesto dell’attività bellica. I sistemi di armi autonome (nel linguaggio comune conosciute anche come «robot killer») sono estremamente controversi e per questo viene ripetutamente chiesto di vietarne l’utilizzo.
  • Energia: l’IA è legata a elevate prestazioni di calcolo e dunque a un altrettanto elevato consumo di elettricità. Gli scienziati temono che il consumo energetico continuerà ad aumentare in modo esponenziale a causa della crescente importanza di questa tecnologia (dpa 2023). Nella prospettiva della protezione climatica è dunque ancora più importante cercare d’impostare lo sfruttamento dell’IA (dallo sviluppo alla fase di apprendimento fino all’applicazione pratica) con maggiore efficienza a livello energetico. Google e altre imprese dichiarano di essere già attivi su questo fronte. Inoltre, l’industria energetica spera di trovare nuove soluzioni per la protezione del clima grazie all’IA.
jum-umbrella

A cosa prestare attenzione?

È molto importante avere un’idea di cosa sia l’intelligenza artificiale e di come i suoi strumenti si distinguono dalle consuete applicazioni elettroniche. I vostri figli devono essere coscienti del fatto che molti programmi e servizi utilizzano già oggi l’IA. È il caso di TikTok, di Netflix, degli smartwatch e di altri dispositivi indossabili nonché del chatbot «My AI», che compare in tutta tranquillità nell’elenco delle amicizie di Snapchat.

 

Al pari di quanto vale generalmente per la rete, anche nel caso dell’IA non bisogna credere a tutto ciò che si vede e si legge. Questa tecnologia facilita addirittura, per esempio, la modifica di foto e video. In particolare, nel caso di strumenti come ChatGPT, che non sempre indicano le fonti utilizzate, occorre un’accurata → verifica dei fatti.

 

Il fatto di poter falsificare con facilità foto e video può essere sfruttato anche con cattive intenzioni, per esempio per danneggiare qualcuno inserendo la sua immagine in una scena pornografica e diffondendo questo materiale nella chat della classe. Oltre a dover essere informati di questi possibili scenari, i bambini e i giovani hanno soprattutto bisogno di interlocutori a cui potersi rivolgere quando succede qualcosa di spiacevole.

Ciberbullismo
Cybergrooming

 

Nelle applicazioni di IA spesso non sono integrati sistemi per la protezione dei minori. Può dunque succedere che i bambini e i giovani, utilizzando ad esempio ChatGPT, si imbattano in contenuti non adatti alla loro età che potrebbero spaventarli, confonderli o traumatizzarli.

 

L’intelligenza artificiale funziona solo se dispone di un numero sufficiente di dati. A prescindere dal contesto o dallo strumento, è importante rispettare il principio secondo cui non bisogna rivelare dati personali quali nome, età, posizione geografica o interessi.

 

Grazie ad applicazioni quali ChatGPT o Bard è facilissimo fare i compiti a casa. Ma i chatbot spesso non sono molto attenti all’indicazione delle fonti. La pubblicazione di testi protetti dal diritto d’autore può essere perseguibile. Maggiori informazioni su un utilizzo responsabile di ChatGPT e applicazioni simili nel contesto scolastico sono disponibili in questo → articolo del nostro blog.

 

Attenzione

Esplorate insieme il mondo dell'intelligenza artificiale e prestate attenzione ai rischi!

jum-hand

Cosa possono fare i genitori?

Informatevi voi per primi sull’IA e parlatene con i vostri figli in modo adeguato alla loro età. Esistono video esplicativi che potete guardare assieme. Oppure potete divertirvi a chiedere per esempio ad Alexa o a Siri di spiegare in modo semplice come funzionano. Ai figli più grandicelli che usano Snapchat (età minima 13 anni) potete proporre di testare assieme il chatbot «My AI». Tutte queste attività forniscono buoni spunti per una discussione. Cercate poi assieme altri esempi di IA che compaiono nella vita quotidiana. I vostri figli sono in grado di riconoscere i casi in cui viene utilizzata l’intelligenza artificiale?

 

Accompagnate i vostri figli nell’utilizzo, per esempio facendo una domanda a ChatGPT. Cercate strumenti di IA creativi per modificare assieme foto, video e quant’altro.

 

Spiegate ai vostri figli che gli strumenti di IA possono essere usati in modo abusivo, per esempio per diffondere informazioni false e immagini o video manipolati oppure per raccogliere dati sensibili. Stimolateli ad assumere sempre un approccio critico e a non credere a tutto. Mostrate loro strumenti utili per smascherare fake news e manipolazioni (→ Disinformazione ed educazione all’informazione). Fate capire loro in modo chiaro quanto sia importante proteggere i dati sensibili. E siate presenti quali interlocutori se i vostri figli hanno domande o si imbattono in qualcosa di spiacevole.

 

Anche i cosiddetti «smart toys» (giocattoli intelligenti) utilizzano spesso forme di IA. Sull’argomento potete consultare il nostro → articolo del blog.

 

jum-hand

Ulteriori informazioni utili