Intelligenza artificiale: 11 raccomandazioni del CESE

0
1247
Intelligenza artificiale: 11 raccomandazioni del CESE

L’intelligenza artificiale – come altri settori dell’informatica – sta portando importanti novità e rapidi cambiamenti nella società attuale.

Il sindacato entra nel vivo del dibattito dell’intelligenza artificiale tramite il CESE (Comitato economico e sociale europeo) e un parere dal titolo “L’intelligenza artificiale – Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società” votato favorevolmente dall’assemblea del CESE il 31 maggio 2017.

Il documento – sottolineando le cifre del mercato dell’intelligenza artificiale (664 milioni di dollari americani, che, secondo le stime, saliranno a 38,8 miliardi di dollari entro il 2025) – punta a stimolare tutte le parti interessate: dall’università  e la formazione alla sanità, dalle parti sociali ai consumatori, dall’industria alla politica.

Il CESE – partendo dal principio dello “human-in-command“, cioè con la condizione essenziale che l’IA sia sviluppata in maniera responsabile, sicura e utile, e che la macchina rimanga macchina e l’uomo ne mantenga il controllo in ogni momento – ha individuato 11 settori nei quali l’IA pone sfide per la società: l’etica; la sicurezza; la privacy; la trasparenza e la rendicontabilità; il lavoro; l’istruzione e le competenze; la (dis)uguaglianza e l’inclusività; le disposizioni legislative e regolamentari; la governance e la democrazia; la guerra; la superintelligenza.

Il CESE ha così formulato le seguenti raccomandazioni.

Etica

Lo sviluppo dell’IA solleva numerosi interrogativi di ordine etico. Che influenza ha l’IA autonoma (in grado di apprendere) sulla nostra integrità personale, autonomia, dignità, indipendenza, uguaglianza, sicurezza e libertà di scelta? In che modo si può garantire che le nostre norme fondamentali, i nostri valori e i diritti umani siano rispettati e salvaguardati?

Inoltre, lo sviluppo dell’IA viene portato avanti al momento attuale in un ambiente omogeneo, costituito essenzialmente da giovani uomini bianchi, con la conseguenza che nell’IA vengono integrate (intenzionalmente o meno) disparità culturali e di genere, anche perché questi sistemi apprendono sulla base di dati di addestramento. Tali dati devono essere esatti, ma anche di buona qualità, diversificati, sufficientemente approfonditi e imparziali. Si tende in genere a ritenere che i dati siano obiettivi per definizione, ma questa è un’idea sbagliata: i dati sono facili da manipolare, possono essere di parte, possono rispecchiare preconcetti e preferenze culturali, di genere e di altro tipo e contenere errori.

I sistemi di IA che sono attualmente in fase di sviluppo non sono “corredati” di valori etici. Spetta a noi, esseri umani, fare in modo che tali sistemi e l’ambiente in cui essi vengono impiegati ne siano dotati. Lo sviluppo, la diffusione e l’utilizzo dei sistemi di IA (sia pubblici che commerciali) devono avvenire entro i limiti delle nostre norme, dei nostri valori, delle nostre libertà e dei nostri diritti umani fondamentali. Il CESE sollecita pertanto a elaborare e definire un codice etico globale uniforme per lo sviluppo, la diffusione e l’utilizzo dell’IA.

Sicurezza

L’impiego dell’IA nel mondo reale solleva innegabilmente interrogativi sul piano della sicurezza. A tal riguardo, si può distinguere tra sicurezza interna e sicurezza esterna.

  • Sicurezza interna: il sistema di IA è sufficientemente solido da poter (continuare a) funzionare correttamente? L’algoritmo è ben programmato? Non va in crash, è a prova di pirateria informatica? È efficace? È affidabile?
  • Sicurezza esterna: l’IA può essere impiegata con sicurezza nella società? Funziona in modo sicuro non soltanto in condizioni normali, ma anche in situazioni ignote, critiche o imprevedibili? Che influenza ha la capacità di autoapprendimento sul grado di sicurezza, considerando anche che il sistema continua ad apprendere dopo la sua messa in funzione?

Il CESE ritiene che i sistemi di IA possano essere messi in funzione soltanto se soddisfano requisiti specifici in materia di sicurezza interna ed esterna, i quali devono essere stabiliti congiuntamente dai decisori politici, dagli specialisti di IA e di sicurezza, dalle imprese e dalla società civile organizzata.

Trasparenza, comprensibilità, controllabilità e rendicontabilità

L’accettazione come anche lo sviluppo e l’applicazione durevoli dell’IA dipendono dalla possibilità di comprendere, controllare e spiegare, anche a posteriori, il funzionamento, le azioni e le decisioni dei sistemi di Intelligenza Artificiale.

Le azioni e le decisioni dei sistemi di IA (risultanti da algoritmi intelligenti) hanno un’influenza sempre maggiore sulla vita delle persone. Si pensi, ad esempio, all’impiego dell’IA nelle attività di polizia basate sull’intelligence, nella valutazione delle richieste di mutui ipotecari o nella procedura di autorizzazione di coperture assicurative. In tutti questi casi la comprensibilità, la controllabilità e la rendicontabilità del processo decisionale di un sistema di IA sono aspetti essenziali.

Già ora numerosi sistemi di IA sono assai difficili da capire per gli utilizzatori. Ma questo vale ormai sempre di più frequentemente anche per gli sviluppatori stessi di tali sistemi. In particolare, le reti neurali, sono spesso delle “scatole nere” nelle quali si svolgono processi (decisionali) che sono diventati ormai insondabili e per i quali non esiste alcun meccanismo esplicativo.

Il CESE raccomanda che i sistemi di Intelligenza Artificiale siano trasparenti, comprensibili e controllabili, e che il loro funzionamento sia rendicontabile anche a posteriori. Occorre, inoltre, stabilire quali processi decisionali possano o non possano essere lasciati ai sistemi di IA e in quali casi debba essere auspicabile o richiesto l’intervento umano.

Privacy

Il rispetto della privacy in relazione ai sistemi di Intelligenza Artificiale è un tema che desta preoccupazione. Sono ormai numerosi i prodotti (di consumo) dotati di Intelligenza Artificiale integrata: elettrodomestici, giocattoli per bambini, automobili, dispositivi per monitorare la salute (health tracker) e smart phone. Tutti questi prodotti trasmettono dati (spesso personali) alle piattaforme di cloud computing dei produttori. Visto che il commercio di dati è in piena espansione, nel senso che i dati generati non rimangono presso il produttore ma vengono rivenduti a terzi, è lecito chiedersi se il rispetto della vita privata sia sufficientemente garantito.

Inoltre, mediante l’analisi di numerosi dati (spesso) personali, l’IA è in grado di influenzare le scelte delle persone in numerosi ambiti (dalle decisioni commerciali alle decisioni di voto nelle elezioni e nei referendum). In questo contesto, una categoria particolarmente vulnerabile è rappresentata dai minori. Il CESE esprime preoccupazione riguardo alle applicazioni di IA destinate esplicitamente a influenzare il comportamento e i desideri dei minori.

Bisogna evitare che l’applicazione dell’IA in relazione ai dati personali limiti la libertà reale o percepita dei cittadini. Il regolamento generale UE sulla protezione dei dati prevede un livello significativo di tutela della riservatezza delle informazioni personali fornite in formato digitale. Alla luce degli sviluppi sul fronte dell’IA, occorre monitorare attentamente se nella pratica sia sufficientemente garantito non soltanto il diritto al consenso informato e alla libertà di scelta nella trasmissione di dati, ma anche quello di accedere ai dati trasmessi e di poterli modificare e verificare.

Norme, standard e infrastrutture

Occorre sviluppare nuove procedure di normazione per la verifica e la convalida dei sistemi di Intelligenza Artificiale, sulla base di un’ampia gamma di standard, al fine di poter valutare e controllare la sicurezza, la trasparenza, la comprensibilità, la rendicontabilità e la responsabilità etica di tali sistemi.

Il CESE chiede all’UE di sviluppare una propria infrastruttura di IA, costituita da ambienti di apprendimento a codice sorgente aperto e rispettosi della privacy, con serie di dati di elevata qualità per la messa a punto e l’addestramento dei sistemi di IA. A questo riguardo, l’UE può inoltre ottenere un vantaggio (concorrenziale) sul mercato mondiale promuovendo “sistemi di IA responsabili europei”. Il CESE raccomanda di esaminare le possibilità di certificazione ed etichettatura europee di tali sistemi.

Impatto sul lavoro, sull’occupazione, sulle condizioni di lavoro e sui sistemi di protezione sociale

Benché le opinioni divergano in merito alla velocità e alla misura, è ovvio che l’IA avrà un impatto sul livello di occupazione come anche sulla natura e sul carattere di molti lavori e quindi anche sui sistemi di protezione sociale.

In relazione agli sviluppi tecnologici attuali (tra cui l’IA), Brynjolfsson e McAfee del Massachusetts Institute of Technology (MIT) parlano di “seconda età delle macchine”. Vi sono però due importanti differenze: i) le macchine di “vecchia generazione” sostituivano in primo luogo l’energia muscolare, mentre quelle di nuova generazione sostituiscono le capacità intellettuali e cognitive, per cui questa evoluzione non ha ripercussioni solo sui lavoratori poco qualificati (“colletti blu”), ma anche su quelli delle categorie con qualifiche medio-alte (“colletti bianchi”); e ii) l’IA è una tecnologia generica (general purpose technology), che ha un impatto su quasi tutti i settori allo stesso tempo.

L’IA può offrire vantaggi significativi se impiegata per operazioni pericolose, pesanti, faticose, sgradevoli, ripetitive, noiose o in condizioni di sporcizia. Ma anche le operazioni eseguibili in routine, l’elaborazione e l’analisi di dati e le attività consistenti essenzialmente nel pianificare o prevedere, svolte spesso da addetti altamente qualificati, possono essere effettuate sempre più spesso da sistemi di IA.

Tuttavia, la maggior parte dei posti di lavoro comprende attività diverse tra loro. Sembra quindi poco probabile che tutte le attività che una persona compie vengano rilevate dall’IA o da robot. Tuttavia, per quasi tutti i lavoratori alcuni aspetti delle loro mansioni professionali finiranno per essere automatizzati. Il tempo così risparmiato potrà essere utilizzato per altri compiti, purché le autorità pubbliche e le parti sociali si adoperino in tal senso. A questo riguardo bisogna tener conto dell’impatto che questi sviluppi possono avere sui professionisti e sui dirigenti, e occorre promuoverne il coinvolgimento in modo che essi mantengano il controllo di tali sviluppi e non ne diventino invece vittime.

Questa evoluzione porterà anche alla nascita di nuovi posti di lavoro. Nessuno è però in grado di prevedere quali e quanti saranno questi nuovi lavori e con quale rapidità verranno creati. Imprese come Google e Facebook riescono a generare un enorme valore con un numero relativamente ridotto di dipendenti. Inoltre, questi nuovi posti di lavoro non sempre sono di qualità. La preoccupazione è che con l’ulteriore sviluppo dell’IA rimarranno presto soltanto delle “mini-mansioni” poco retribuite per una fascia crescente di lavoratori “flessibili”.

L’IA non inciderà soltanto sulla quantità di lavoro disponibile, ma anche sulla natura di quello esistente. I sistemi di IA offrono sempre maggiori possibilità di seguire e monitorare i lavoratori, il che può mettere in discussione l’autonomia e il rispetto della privacy. Già oggi, il lavoro viene spesso definito e ripartito da algoritmi, senza alcun intervento umano, e questo ha un impatto sulla natura del lavoro e sulle condizioni di lavoro. Il ricorso ai sistemi di IA comporta il rischio di impoverimento delle attività e la perdita di competenze importanti.

Un fatto è certo, però: la tecnologia non è qualcosa che ci “accade”. I governi e le parti sociali hanno la possibilità di determinare il modo in cui l’IA viene ulteriormente sviluppata e applicata nei processi lavorativi e devono avvalersi pienamente di tale possibilità. A questo riguardo, è importante concentrarsi non soltanto su ciò che l’IA è capace di fare, bensì anche su quello che gli uomini sono in grado di fare essi stessi (creatività, empatia e cooperazione), su ciò che vogliamo che essi continuino a fare e sulla ricerca di modi che consentano di migliorare la collaborazione tra l’uomo e la macchina (complementarità).

L’intelligenza aumentata (complementarità), in cui l’uomo e la macchina cooperano e si rafforzano reciprocamente, costituisce l’applicazione più interessante dell’IA in quanto si tratta del concetto di “uomo in associazione con la macchina”, in contrapposizione a quello di “uomo al posto della macchina”. La co-creazione è tuttavia molto importante: i lavoratori devono essere coinvolti nello sviluppo di questi sistemi di IA complementare, in modo da garantire che tali sistemi siano utilizzabili, che il lavoratore mantenga un sufficiente grado di autonomia e di controllo (human-in-command) e che il lavoro rimanga gratificante e piacevole.

Istruzione e competenze

Per poter adattarsi ai rapidi sviluppi in atto nel settore dell’IA è necessario conservare e acquisire le competenze digitali. Con l’iniziativa della coalizione per le competenze e le occupazioni digitali, la Commissione europea si sta adoperando con grande impegno nello sviluppo delle competenze digitali. Tuttavia, non tutti avranno le capacità per codificare o saranno interessati a diventare programmatori. Le strategie politiche e le risorse finanziarie dovranno quindi essere dirette a sostenere l’insegnamento e lo sviluppo delle competenze nei settori che non saranno minacciati dalla diffusione dei sistemi di Intelligenza Artificiale (per esempio, le mansioni che richiedono prima di tutto l’interazione umana, nelle quali l’uomo e la macchina lavorano insieme o che vogliamo che sia l’uomo a continuare a svolgere).

Se si punta sulla complementarità tra l’uomo e l’IA (intelligenza aumentata), è necessario prevedere per tutti e fin da una giovane età percorsi didattici che insegnino a utilizzare l’IA e a lavorare con tali sistemi, in modo che le persone possano mantenere autonomia e controllo nel loro lavoro (human-in-command). In questo contesto è importante in particolare l’educazione all’etica e al valore dei dati personali, in quanto l’IA ha un impatto significativo su tali ambiti.

Accessibilità, (dis)uguaglianza sociale, inclusività e distribuzione

Lo sviluppo dell’IA e di tutte le sue componenti (piattaforme di sviluppo, dati, conoscenze e competenze) è in gran parte nelle mani di cinque grandi società tecnologiche (Amazon, Apple, Facebook, Google e Microsoft). Queste società sono certamente a favore dello sviluppo aperto dell’IA, e alcune di esse offrono le loro piattaforme di sviluppo in questo campo in forma open source, ma ciò non garantisce la piena accessibilità dei sistemi di Intelligenza Artificiale. Al riguardo, l’UE, i responsabili delle politiche internazionali e la società civile organizzata hanno un importante ruolo da svolgere nel garantire non soltanto che i sistemi di IA siano accessibili a tutti, ma anche che il loro sviluppo avvenga in un ambiente aperto.

I cambiamenti tecnologici che favoriscono il capitale, in cui le innovazioni recano vantaggi soprattutto ai loro proprietari, indeboliscono la posizione del lavoro rispetto a quella del capitale. Le evoluzioni tecnologiche possono determinare anche disparità (di reddito) tra i cittadini (sia a livello locale che a livello regionale e mondiale). L’IA può accentuare ulteriormente queste tendenze.

La cosa importante è che tali sviluppi siano monitorati con attenzione e affrontati in maniera adeguata. Da alcune parti si invoca l’introduzione di una tassa sull’IA, un dividendo dell’IA o la condivisione della proprietà dei sistemi di IA tra i lavoratori e i datori di lavoro. Si parla anche sempre più spesso della necessità di un reddito di base incondizionato.

In un precedente parere , il CESE ha formulato la possibilità di un dividendo del digitale e di una sua equa ripartizione al fine di ottenere effetti positivi per la crescita. Il CESE attribuisce particolare importanza all’analisi di queste soluzioni, e sottolinea che occorre trovare un giusto equilibrio tra lo sviluppo dei sistemi di IA che recano benefici all’uomo e gli eventuali effetti di freno derivanti da tali soluzioni. Occorre inoltre evitare il rischio morale connesso al trasferimento della responsabilità dei sistemi di IA a un’entità che di fatto non può essere ritenuta responsabile.

Legislazione e regolamentazione

L’IA ha notevoli ricadute sulle disposizioni legislative e regolamentari vigenti. Nel giugno 2016, l’unità di valutazione delle opzioni scientifiche e tecnologiche (STOA) del Parlamento europeo ha pubblicato una sintesi degli atti legislativi e regolamentari europei che saranno interessati dagli sviluppi nel settore della robotica, dei sistemi ciberfisici e dell’intelligenza artificiale. La STOA indica sei ambiti (trasporti, sistemi a duplice uso, libertà civili, sicurezza, salute ed energia) nei quali bisognerà probabilmente rivedere o adeguare ben 39 atti dell’UE tra regolamenti, direttive, dichiarazioni e comunicazioni, oltreché la Carta europea dei diritti fondamentali. Tale valutazione va realizzata con urgenza e determinazione, e il CESE può e intende svolgere un ruolo in tale processo.

Si discute molto sulla questione di chi debba essere ritenuto responsabile se un sistema di IA causa un danno. In particolare, nei casi in cui si tratti di sistemi che apprendono autonomamente e continuano ad apprendere anche dopo la loro messa in funzione. Il Parlamento europeo ha formulato delle raccomandazioni concernenti norme di diritto civile sulla robotica, proponendo di esaminare l’opportunità di introdurre il concetto di “personalità elettronica” per i robot, in modo tale che essi possano essere ritenuti civilmente responsabili degli eventuali danni causati. Il CESE è contrario all’introduzione di una forma di personalità giuridica per i robot o per l’IA (o i sistemi di IA), in quanto essa comporterebbe un rischio inaccettabile di azzardo morale. Dal diritto in materia di responsabilità civile deriva una funzione preventiva di correzione del comportamento, la quale potrebbe venir meno una volta che la responsabilità civile non ricade più sul costruttore perché è trasferita al robot (o al sistema di IA). Inoltre, vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo. In questo contesto, il confronto con la responsabilità limitata delle società è fuori luogo, in quanto è sempre la persona fisica a essere responsabile in ultima istanza. A tale riguardo, si dovrebbe esaminare in che misura la normativa nazionale e dell’UE vigente e la giurisprudenza in materia di responsabilità (per danno da prodotti difettosi e di rischio) e colpa propria sia sufficiente a rispondere a tale questione e, in caso contrario, quali soluzioni si impongano sul piano giuridico.

Inoltre, per un corretto approccio legislativo e regolamentare in materia di Intelligenza Artificiale è fondamentale comprendere con chiarezza ciò che l’IA può fare, ciò che non può fare e ciò che, nel breve, medio e lungo termine, sarà in grado di fare.

L’IA non si ferma alle frontiere. È quindi importante esaminare la necessità di una regolamentazione a livello mondiale, in quanto le normative regionali non saranno sufficienti e avranno anzi effetti indesiderati. In considerazione del sistema di norme sui prodotti e sulla sicurezza di cui l’UE si è dotata, delle tendenze protezionistiche in atto in altri continenti, dell’elevato livello di conoscenze esistente all’interno dell’Europa, del sistema di diritti fondamentali e valori sociali europei e del dialogo sociale, il CESE raccomanda all’UE di assumere un ruolo guida nella definizione di quadri strategici uniformi a livello internazionale in materia di IA, e di promuovere tale processo a livello mondiale.

Politica e democrazia

Le applicazioni di IA possono contribuire a migliorare il coinvolgimento dei cittadini nelle politiche pubbliche e ad aumentare la trasparenza dei processi decisionali in ambito amministrativo. Il CESE esorta l’UE e le autorità pubbliche ad avvalersi dell’IA in questo contesto.

Il CESE esprime preoccupazione in merito all’utilizzo mirato dei sistemi di IA (sotto forma di algoritmi intelligenti) per l’aggregazione di notizie, ad esempio, sui media sociali, che sembra aver ridotto il pluralismo dell’informazione e aver determinato un’ulteriore spaccatura della società (si pensi, ad esempio, alle “bolle di filtraggio” e alle “false notizie” su Twitter e Facebook durante le elezioni americane).

Il CESE è anche preoccupato per i segni che fanno pensare a un probabile utilizzo dei sistemi diIntelligenza Artificiale al fine di influenzare il comportamento (di voto) dei cittadini. L’impiego di algoritmi intelligenti sembra aver consentito di prevedere e influenzare in maniera mirata le preferenze e i comportamenti delle persone. Si tratta di una minaccia a una democrazia giusta e aperta. Nell’attuale epoca di polarizzazione e di delegittimazione delle istituzioni internazionali, la precisione e la potenza di questo tipo di tecnologia di propaganda può provocare rapidamente ulteriori disgregazioni della società. Questo è uno dei motivi che rendono necessaria l’introduzione di standard in materia di trasparenza e controllabilità degli algoritmi (intelligenti).

Attività belliche

Nel quadro della Convenzione delle Nazioni Unite su determinate armi convenzionali è stato deciso di chiedere a esperti di confrontarsi, nel corso del 2017, in merito alle implicazioni delle armi autonome. Il CESE accoglie con favore e appoggia l’appello rivolto da Human Rights Watch e altre organizzazioni a mettere al bando i sistemi d’arma autonomi. Ritiene che questa messa al bando debba essere esaminata e presa in considerazione seriamente. Tale misura non sarà però sufficiente ad affrontare in maniera adeguata le possibilità di applicazione dell’IA nelle situazioni di guerra e di conflitto. Occorre che questa consultazione delle Nazioni Unite riguardi anche le applicazioni dell’IA nella guerra cibernetica.

Inoltre, bisogna evitare che l’IA finisca nelle mani di individui o regimi che intendono utilizzarla a fini terroristici.

Superintelligenza

Infine, si pone la questione di quali siano le opportunità e i rischi legati allo sviluppo della superintelligenza. Secondo Stephen Hawking, lo sviluppo dell’IA generale può significare la fine dell’umanità. Come sostiene Hawking, a un certo punto, infatti, l’IA si evolverà a un ritmo con il quale l’uomo non potrà più tenere il passo. Taluni esperti consigliano pertanto di prevedere un cosiddetto pulsante di emergenza (kill-switch) o di resettaggio (reset-button) che consenta di disattivare o resettare un sistema di Intelligenza Artificiale superintelligente “impazzito”.

Il CESE raccomanda di adottare l’approccio “human-in-command”, con la condizione essenziale che l’IA sia sviluppata e applicata in maniera responsabile e sicura, e che la macchina rimanga macchina e l’uomo possa continuare a mantenerne il controllo in ogni momento. Il dibattito sulla superintelligenza è importante, ma al momento sta oscurando eccessivamente quello sull’impatto delle applicazioni attuali dell’IA.

Scarica il documento completo del CESE sull’intelligenza artificiale.