La regolazione non toccherà gli sviluppi di IA del settore radiotelevisivo, il piano di coordinamento degli Stati sì, ma siamo agli inizi. La Commissione ha proposto le nuove regole e azioni “volte a trasformare l’Europa nel polo mondiale per un’intelligenza artificiale (IA) affidabile” con il primo quadro giuridico sull’IA mai realizzato (proposta di regolamento) e un nuovo piano coordinato con gli Stati membri (comunicazione e annex) che promuoverà adozione investimenti e innovazione nel settore dell’IA europeo. Il regolamento sull’IA propone regole proporzionate e flessibili, il piano coordinato gli investimenti necessari a livello di Stati membri per rafforzare la posizione dell’Europa nello sviluppo di un’IA “antropocentrica, sostenibile, sicura, inclusiva e affidabile”. Ad integrazione di questo quadro, le nuove regole sulla sicurezza delle macchine (un regolamento a sostituzione della precedente direttiva), per far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti (dai robot ai tosaerba, alle stampanti 3D, alle macchine per l’edilizia e alle linee di produzione industriale) recita il comunicato.
Regolamento dei rischi. L’approccio europeo a un’IA affidabile si basa su una gradazione dei rischi per la sicurezza dei cittadini: i sistemi di IA con rischio inaccettabile saranno vietati, a rischio alto, soggetti a obblighi rigorosi prima dell’immissione sul mercato, a rischio limitato (es. chatbot) a specifici obblighi di trasparenza. I sistemi e le applicazioni di IA a rischio minimo saranno a libero utilizzo e pertanto non soggetti a regolazione: fra questi rientrano ad es. videogiochi o filtri spam basati sull’IA e la grande maggioranza dei sistemi di IA. I sistemi e le applicazioni utilizzate per efficientare alcune attività legate all’attività radiotelevisiva rientrano in tale categoria. Ad oggi sembra di poter affermare che le attività radiotelevisive legate all’intelligenza artificiale sono limitati all’algoritmica di dati e big data (es. content intelligence, content recommendation). L’intelligenza artificiale “vera e propria” (sistemi di autoapprendimento e schemi a reti neurali ad esempio) sarà tuttavia utilizzata nel futuro prossimo per es. in attività di clustering in raccomandazione e marketing). L’applicazione delle nuove tecnologie e l’utilizzo dei big data è anche tema importante nel contesto competitivo dove i broadcaster si confrontano con gli OTT.
I rischi inaccettabili e quindi vietati sono quelli che costituiscono chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone es. i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”. Sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata in infrastrutture critiche; nell’istruzione o formazione professionale; in componenti di sicurezza dei prodotti ;nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro; in servizi pubblici e privati essenziali; in attività di contrasto che possono interferire con i diritti fondamentali delle persone; nella gestione della migrazione, dell’asilo e del controllo delle frontiere; nell’amministrazione della giustizia e nei processi democratici. Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato tranne poche eccezioni rigorosamente definite e regolamentate il cui uso è soggetto all’autorizzazione di un organo giudiziario.
Per i sistemi di IA non ad alto rischio, vengono proposti codici di condotta nonché spazi di sperimentazione normativa per facilitare un’innovazione responsabile. Trattandosi di regolamento, le nuove regole saranno applicate direttamente e nello stesso modo in tutti gli Stati membri. In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, ma prevede un comitato europeo per l’intelligenza artificiale .
L’approccio europeo all’eccellenza nell’IA. Il piano coordinato aggiornato utilizzerà i finanziamenti assegnati attraverso i programmi Europa digitale e Orizzonte Europa, nonché il dispositivo per la ripresa e la resilienza, che prevede un obiettivo di spesa per il digitale del 20%, e i programmi della politica di coesione. Sta ora al Parlamento europeo e agli Stati membri di adottare le proposte della Commissione nell’ambito della procedura legislativa ordinaria. La Commissione parallelamente continuerà a collaborare con gli Stati membri per attuare le azioni annunciate nel piano coordinato.
Dal link del comunicato è possibile accedere a diversi file di interesse – Domande e risposte, Scheda informativa, il Regolamento relativo all’approccio europeo per l’intelligenza artificiale, Comunicazione “Promuovere un approccio europeo all’intelligenza artificiale”, Nuovo piano coordinato sull’intelligenza artificiale, inclusi i progetti di IA ad oggi finanziati attraverso il programma Horizon (Progetti di IA finanziati dall’UE).