«700 anni nel futuro, l'umanità abbandonerà il nostro pianeta, lasciando la pulizia della Terra nelle mani di una macchina incredibile… è Wall-E, programmato per pulire il nostro pianeta, ma – in tutti questi anni – Wall-E ha sviluppato una piccola anomalia: una personalità!».
Era il 2008, nelle sale cinematografiche usciva un nuovo film d'animazione, il cui protagonista era il robot Wall-E, lasciato sulla terra a ripulire l'accumulo di rifiuti prodotto dalla specie umana.
Al di là della propria abilità nel raccogliere, identificare e compattare i rifiuti in balle, il lungometraggio dimostrava come Wall-E vantasse un'ulteriore e ben più ampia serie di capacità.
Il robottino era, infatti, dotato di un certo grado di intelligenza nel prendere decisioni autonome, così come di una spiccata bravura nell'apprendimento, imparando costantemente dall'ambiente circostante, al punto da modificare e meglio adattare il proprio comportamento.
E non finisce qui, poiché Wall-E poteva anche riconoscere volti umani e rispondere alle espressioni facciali, instaurando relazioni sociali, interagendo con altri soggetti e comprendendo le emozioni umane.
Il protagonista della trama fantastica è – a soli 15 anni dal successo del film – tutt'altro che opera di fantasia, bensì piena realtà.
L'intelligenza artificiale è oggi parte integrante di numerose attività, dal marketing (per offerte personalizzate e profiling delle preferenze dei consumatori) all'assistenza sanitaria (per l'analisi di dati medici e la diagnosi di malattie), dall'educazione (per tutor virtuali e percorsi di apprendimento personalizzati) all'automotive (per i veicoli a guida autonoma).
Proprio per questa ragione, avvertendo l'esigenza di un impianto normativo atto a disciplinare il funzionamento di uno strumento dalle infinite potenzialità, lo scorso 14 giugno il Parlamento europeo ha approvato l'AI Act (P9_TA(2023)0236). Il regolamento, la cui entrata in vigore è prevista nel 2024, investirà lo sviluppo e l'adozione di tutti i sistemi di intelligenza artificiale.
Che ne sarà di Wall-E?
Per rispondere, occorre guardare al contenuto della norma, che adotta un cosiddetto approccio risk-based.
Piuttosto che regolamentare in maniera generica il funzionamento di tutti i sistemi AI, il legislatore europeo ha optato per la loro classificazione in quattro distinte categorie: maggiori saranno i rischi connessi all'utilizzo dell'intelligenza artificiale e più stringenti saranno le restrizioni imposte.
In particolare, si distinguono quattro livelli di rischio:
- Rischio inaccettabile. È relativo ai sistemi recanti un rischio inaccettabile per la sicurezza degli individui e che, per questa ragione, saranno assolutamente vietati. Vi rientrano per esempio i sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico. Sarebbe il caso, ad esempio, in cui Wall-E fosse impiegato per vagare per le strade al solo fine di identificare i passanti, riconoscendone il volto ed abbinandolo ai relativi dati anagrafici;
- Rischio alto. È il tipico caso dei sistemi in grado di arrecare danni significativi a salute, sicurezza, e diritti fondamentali. Si suddividono in due categorie: sistemi AI impiegati nella produzione di merce soggetta alla legislazione UE sulla sicurezza dei prodotti (es. giocattoli, automobili, dispositivi medici) e sistemi AI rientranti in una delle aree specifiche individuate dall'UE (es. istruzione e formazione professionale, migrazione e gestione dei controlli alle frontiere, gestione e funzionamento delle infrastrutture critiche). In tal caso, i sistemi saranno soggetti a determinati vincoli prima della loro utilizzazione (es. obbligo di fornire adeguata documentazione affinché le autorità possano valutarne conformità, svolgimento di una valutazione dei rischi, garanzia sulla tracciabilità dei risultati, etc.) e alla registrazione presso un'apposita banca dati dell'Unione. In questo senso, Wall-E apparterebbe a tale categoria laddove fosse un sistema impiegato per monitorare il trasporto aereo;
- Rischio limitato. In questa ipotesi, si fa riferimento ai sistemi di intelligenza artificiale meno invadenti, che generano o manipolano contenuti di immagini, audio o video (es. i deepfake). In questa ipotesi, occorrerà rispettare requisiti di trasparenza nei confronti degli utenti, informandoli dell'esistenza e del funzionamento dei sistemi. Pensiamo al caso in cui l'unica funzionalità di Wall-E fosse quella di replicare il timbro vocale degli umani;
- Rischio minimo o nullo. È una casistica senza pericolosità per diritti e libertà fondamentali dell'uomo; si pensi, ad esempio, ai chatbot o ai sistemi di assistenza ai clienti, che saranno liberamente utilizzabili. Wall-E potrebbe rientrarvi se il suo unico scopo fosse quello di raccogliere reclami degli esseri umani sul servizio di raccolta dei rifiuti.
In quest'ottica, tornando al nostro robottino, duole constatare che le sue molteplici abilità – prima fra tutte la capacità di riconoscere volti rilevare emozioni umane – lo farebbero rientrare nella categoria di sistemi AI a rischio inaccettabile.
Wall-E, infatti, compie operazioni di trattamento di dati biometrici in tempo reale e in luoghi pubblici (possibili, invece, solo in via differita per evitare rischi di sorveglianza massiva) che, in quanto tali, sarebbero vietati.
Tuttavia, il film d'animazione è ambientato nel 2805 e chissà se il futuro riserverà la possibilità di poter realmente impiegare sistemi AI come il tenero Wall-E.