Intervento “Intelligenza artificiale, Big Data e Piattaforme digitali: la necessità di un controllo globale”

Centro Russo di Scienza e Cultura, Piazza Cairoli 

Roma, 26 ottobre 2018

La scienza, l’economia, la sicurezza e la politica dell’era Internet che avevamo conosciuto negli ultimi vent’anni stanno evolvendo verso una “Società Algoritmica” assai diversa. Presto guarderemo all’età digitale- sostiene un eminente studioso di Yale, Jack M. Balkin- come al precursore di questa nuova Società: organizzata sulla base di decisioni dettate da algoritmi, robots, e “attori” dell’Intelligenza Digitale; e non solo per ciò che riguarda i processi decisionali, ma in diversi casi anche per attuarli.

I programmi che utilizzano Big Data e Intelligenza Artificiale (IA) acquisiscono influenza determinante sia nelle democrazie liberali che nei regimi autocratici e repressivi. Controllano l’opinione pubblica, propagano disinformazione, radicalizzano le piattaforme social. L’Internet della globalizzazione si frammenta in una realtà differenziate da norme e condizionamenti. Esse riflettono dinamiche geopolitiche in rapida trasformazione. Mentre eravamo abituati a un “Digital Divide” Nord -Sud, tra Paesi industrializzati e Paesi emergenti, i nuovi allineamenti della geopolitica ci fanno capire quanto profondo stia diventando il “Political Digital Divide” (PDD) tra Occidente, da un lato, e Potenze “revisioniste” dell’ordine mondiale, dall’altro: soprattutto la Russia, la Cina, e l’Iran.

I. La disaggregazione di Internet e il “Political Digital Divide”.

Può sembrare sopra le righe affermare la necessità di un “controllo globale” per IA, Big Data e piattaforme digitali in questa fase di competizione esasperata – per quanto riguarda le Tecnologie dell’informazione (IT) – tra gli Stati, e tra i giganteschi oligopoli e monopoli dell’informatica. La gara a superarsi gli uni contro gli altri alimenta, nella “quinta dimensione ” della Cibernetica, rivolgimenti geopolitici, condizioni diffuse di “warfare”, e instabilità generalizzata. Le possibilità di avviare un negoziato globale, e le limitate chances di una sua rapida conclusione, si confrontano con due ordini di problemi: il primo, la “disaggregazione” di Internet, il secondo il “Political Digital Divide”. L’evoluzione rapidissima nella ricerca e le applicazioni dell’Intelligenza Artificiale ne costituiscono lo sfondo.

a)   “Tre Internet”

Il primo ordine di problemi riguarda (editoriale del NYT del 15/10/18) il rapido emergere di “Tre Internet” nelle realtà politiche, economiche e di sicurezza. Sono maturate, fra le tre diverse aggregazioni geopolitiche di USA, Cina, Europa, definizioni e regolamentazioni ben distinte per quanto riguarda la protezione dei Dati, la sicurezza, le libertà individuali e collettive. Lo scorso settembre il CEO di Google, Eric Schmidt, prevedeva la completa frammentazione di Internet entro i prossimi 10-15 anni, con gli Usa da una parte, la Cina dall’altra. E’ stato poi corretto da quanti hanno constatato l’importanza del “sistema Europeo di Internet”, con la “sempre più rilevante” regolamentazione delle piattaforme digitali attraverso la General Data Protection Regulation (GDPR) entrata in vigore nel maggio scorso, e la Network and Information Security Directive (NIS).

b) Il “Political Digital Divide”.

Il secondo ordine di problemi riguarda il “Political Digital Divide”. E’ massiccio l’impiego delle piattaforme digitali per aggressioni di ogni natura, di fatto già da anni qualificabili come “cyberwar” -anche se il termine viene accuratamente evitato- con interferenze gravi nei processi formativi del dibattito politico e nelle consultazioni elettorali. Continue, con riflessi economici devastanti, sono le violazione della proprietà intellettuale e la sottrazione di vaste quantità di dati di enorme valore per le persone, le imprese e  i Governi.

Il PPD non ci consente più di sottovalutare la competizione tra gli Stati, gli attori non governativi nel Dominio Cyber, e le sempre più frequenti tensioni che si determinano tra Paesi Occidentali, Russia e Cina. Ciò ostacola, inoltre, l’instaurarsi di qualsiasi il clima di fiducia che permetta di riconoscere un comune interesse a sottoscrivere accordi globali per regolamentare il dominio Cyber e per attuare sollecitamente le indispensabili misure di fiducia.

c) Diversi fattori hanno influito sulla sottovalutazione dei problemi, e accentuato le “fratture”:

  • L’inversione nel ruolo, che si riteneva scontato, della “libertà del web” nella diffusione della democrazia: ha recentemente osservato un autorevole studioso di questa materia, Zeynep Tufekci, che “per capire come le tecnologie digitali siano passate dall’essere strumenti per diffondere la democrazia, a essere armi per attaccarla, si deve guardare oltre queste stesse tecnologie”. Il ruolo delle IT e delle piattaforme Social nelle Primavere Arabe è stato a lungo studiato. Solo dopo l’attenzione si è concentrata sull’atteggiamento dei giganti del web. Sono loro che dovevano assumersi le inevitabili responsabilità nel controllare gli effetti devastanti della disinformazione, della propaganda all’odio e della radicalizzazione ‎nelle nostre società. Ma non le hanno volute o sapute gestire.
  • Le carenze dei Governi occidentali nel sostenere la i principi della democrazia liberale sulla Rete. Non sono certo da trascurare le distrazioni e le passività dei Governi nelle democrazie liberali – dove è nata e da dove si è propagata la libertà del web – nel rispondere tempestivamente alla crescente minaccia rappresentata da Stati e attori non statuali che hanno messo a punto e attuato precise strategie di destabilizzazione sociale e politica. Questa storia è racchiusa nelle vicende degli ultimi dieci anni (MIT Technology Review di Settembre/Ottobre 2018).
  • L’atteggiamento della Presidenza Obama. Nel 2008, e anche all’epoca della sua riconferma nel 2012, l’opinione prevalente dell’amministrazione Obama e nel mondo Occidentale era che le nuove tecnologie dell’informazione fossero la soluzione perfetta per la diffusione della libertà e della democrazia. Le Primavere Arabe del 2011, si erano concluse con il rovesciamento di regimi corrotti e dispotici ad opera di forze alimentatesi su internet. Il cantante Bono compariva sulla copertina di una rivista con il titolo “Big Data Will Save Politics” e la citazione “The mobile phone, the Net, and the spread of information … a deadly combination for dictators”. L’America si sentiva sicura della sua posizione di forza sia sul piano politico – nell’affermazione di principi di democrazie e libertà- che su quello tecnologico.
  • “Nobody But Us”. La National Security Agency disponeva, sin dalla Presidenza Clinton, di un ampio arsenale di difesa e di deterrenza grazie alla grande capacità di elaborazione dei dati. In molti alla NSA pensavano che il vantaggio tecnologico rispetto agli altri Paesi fosse decisivo e ponesse gli Stati Uniti in una posizione praticamente inattaccabile. Sembrava fosse diffuso nel mondo dell’intelligence l’acronimo NOBUS, “Nobody but us”.
    Una fiducia giustificata dal fatto che internet era stata essenzialmente una creazione dell’America.Le più importanti imprese informatiche erano e sono statunitensi Nella Silicon Valley si è concentrata da sempre l’essenza della ricerca e della scienza informatica globale.
  • Il ritardo nel dare nuovi impulsi al settore. La fiducia di disporre di un “technological hedge”confortevole spiegherebbe il perché tra il 2012 e il 2016 non vi siano stati sforzi “visibili” per rafforzare significativamente le infrastrutture informatiche degli Stati Uniti, accrescerne i livelli operativi ,di deterrenza e di risposta agli attacchi. Per parte loro i giganti americani dei social media e dell’informatica vedevano aumentare senza sosta i loro valori azionari, profitti e mercati. Non ritenevano così di porsi, attraverso una qualsiasi credibile regolamentazione, ma anzi contrastandola duramente, il problema sempre più drammatico della sicurezza della rete, degli utenti e dei dati che gestivano.
  • Il “duopolio di fatto” Google – Facebook. Esso ha rivelato inconcepibili carenze di queste due imprese nella gestione e protezione dei dati, anzitutto, e di un “business model” ormai giudicato da molti pericolosamente inquinante per la libertà di informazione, i diritti politici e individuali del cittadino, e la sua dignità.Recenti vicende  hanno portato alla luce non soltanto i comportamenti omissivi dei vertici di FB nel negare pervicacemente l’evidenza di qualsiasi seria azione per evitare Fake News, istigazione all’odio e alla radicalizzazione, pesanti interferenze dall’estero nei processi elettorali; nel negare sempre tutto persino dinanzi al Congresso americano, e a più riprese. Comportamenti che si sono accompagnati alle ammissioni circa  piani per occultare, e distrarre pubblico e utenti, da fatti gravi: consistiti nella cessione illegale e vietata di decine di migliaia di dati personali per fini di lucro; nell’affidamento a discutibili organizzazioni di lobbisti della “contro informazione” su quanto stava avvenendo; nella assicurazione di “nuove misure” annunciate una dopo l’altra, anno dopo anno, per eliminare i pregiudizi economici, morali, psicologici subiti da centinaia di miglia di loro clienti. Dopo le imbarazzanti testimonianze rese da Mark Zuckerberg al Congresso, ma che si è poi rifiutato di presentarsi dinanzi al Comitato Internazionale su Fake News e Disinformazione formato da Parlamentari di Argentina, Brasile, Canada, Irlanda, Lettonia, Singapore, Francia, Belgio, Gran Bretagna la conclusione era scontata, La dichiarazione sottoscritta da tutti i membri del Comitato Internazionale indica che” è urgente creare un sistema di Governance Globale per Internet e governare le maggiori piattaforme internazionali delle IT che dispongono di sistemi on-line con miliardi di utenti”. Perdita di fiducia nei loro confronti, necessità di regolamentazioni nazionali e/o globali, attivazione delle normative antitrust, convenzione quadro dell’Onu o dell’OSCE, sono le proposte in discussione.
  • Radicalizzazione e estremismo nei “social media”. Peculiarità del fenomeno è che esso tipicamente riguarda quasi esclusivamente i Paesi a Democrazia liberale, rispettosi dello Stato di Diritto, dove la libertà di espressione e di pensiero viene garantita, incoraggiata e promossa come valore assoluto da tutelare. Mentre sull’altro versante del Political Digital Divide, in Cina, Russia, Iran, quelle libertà ed i diritti che ad esse corrispondono sono sistematicamente negati. Sono ritenuti pericolosamente destabilizzanti per l'”ordine costituito”. Motivi “endogeni” – opportunità che radicalismo e radicalizzazione offrono al “mercato” e al “profitto” delle piattaforme social – e “esogeni” -interessi degli attori Statuali ( a Mosca,Pechino, Teheran) e non Statuali (terrorismo Jihadista, crimine organizzato ad es.)- convergono nel fare della radicalizzazione e dell’estremismo su Internet una minaccia potente per le nostre società. Prova ne sia il balzo in avanti del 56% dell’antisemitismo rilevato a inizio dicembre da un sondaggio della CNN in Europa, con rilevante impatto del “fattore web”.

d) L’attacco alla democrazia liberale.

Era inevitabile che gli strumenti digitali disponibili a Governi e attori non statuali nel campo “antagonista” delle democrazie  diventassero molto rilevanti, e forse decisivi nel contribuire a alterare gli equilibri politici: lo abbiamo visto in Gran Bretagna in occasione del voto sulla Brexit in Germania, Ungheria, Svezia, Polonia, Francia, e anche in Italia  con le affermazioni dei partiti anti-élites . Le campagne su Facebook hanno sicuramente aiutato Rodrigo Duterte nell’elezione alla presidenza filippina e, secondo un Rapporto dell’ONU, ha contribuito alla pulizia etnica contro i Rohynga da parte di Myanmar.

Le elezioni Presidenziali americane nel 2016 sarebbero state il vero salto di qualità, utilizzando strumenti come il VPN (Virtual Private Network) e pagamenti in Bitcoin per sottrarre- nel Luglio 2016 – una enorme mole di comunicazioni alla Convenzione Nazionale Democratica; e nella massiccia, e molto ben mirata, campagna di interferenze nei diversi settori dell’elettorato e nei distretti a più elevata criticità alle Presidenziali di Novembre dello stesso anno. E c’è qualcosa ancora da capire nel movimento dei Gilets Jaunes in Francia?
Si era già è assistito a un vera eterogenesi dei fini -“democrazia, libertà, giustizia”- dopo le Primavere Arabe. Le nuove tecnologie sono divenute lo strumento principe per i regimi totalitari nel reprimere la dissidenza, infiltrare e distorcere il dibattito politico, e creare una realtà artificiale perfettamente gestita dall’Intelligence di Stato. In tutto questo lo sviluppo dell’intelligenza artificiale rappresenta una medaglia a due facce. Da un lato imprime progressi rapidissimi, nella scienza, nell’economia, nel progresso sociale. Ma può anche rappresentare, nelle mani sbagliate, una minaccia assai temibile per la democrazia liberale e lo Stato di Diritto. Questa bivalenza impone, nell’interesse di tutti, l’adozione urgente di misure di fiducia e di un vero e proprio Statuto di principi e di comportamenti.

Se esiste una dimostrazione tangibile del crescente “Political Digital Divide” tra Democrazie e Paesi retti da regimi autocratici e repressivi, credo non vi sia prova più eloquente del trattamento riservato ai dissidenti politici e ai movimenti di opposizione. Gli esempi che preoccupano, non solo da oggi, provengono da Cina, Russia, Iran, Siria, Arabia Saudita:

  • Il caso Cina: una decina di anni fa ero Ambasciatore negli Stati Uniti e mi capitò di ascoltare da importanti personalità Democratiche del Congresso americano racconti allarmanti sulla costante infiltrazione di hackers – presumibilmente diretti da Pechino- negli accounts di Congressman che erano in rapporto con dissidenti cinesi. Alcuni di loro erano rifugiati politici negli USA e avevano manifestato a Tienanmen, altri si trovavano in Cina. La violazione della corrispondenza con i parlamentari americani aveva conseguenze spesso irreparabili per i dissidenti cinesi. Da allora le tecnologie dell’informazione sono enormemente progredite, così come le capacità di controllo dei regimi repressivi sui loro popoli. In Cina è in atto un esperimento di “ingegneria sociale” che muove dal controllo capillare della popolazione di origine mussulmana dello Xinjiang, e viene annunciato quale primo passo verso il “social rating” dell’intera popolazione cinese. Il “modello Xinjiang” si avvale delle tecniche più sofisticate dell’Intelligenza Artificiale, combinate con analisi del Big Data, riconoscimento facciale, filtri e controlli capillari di tutti gli strumenti elettronici, comunicazioni, e Internet delle Cose (IOT); senza alcuna possibilità per il cittadino di avvalersi anche del più elementare diritto alla privacy, o alla riservatezza personale, oltre che di pensiero e di relazione umana. E’ questo modello che assicura alla leadership del Partito Comunista cinese un controllo sempre più stretto e orwelliano su un miliardo e mezzo di cittadini. Il milione di Uiguri rinchiusi in campi di detenzione nello Xinjiang fanno in molti casi le spese di un sistema poliziesco nel quale una sillaba in più su un’e-mail o al telefono cambia il corso dell’esistenza.
  • Il caso Iran. Non molto diversa, se non forse per capacità tecnologiche, è la situazione in Iran. Nel 2009 l’anelito di libertà di una “Onda Verde” alimentatasi su Internet è stato drammaticamente represso grazie al controllo degli strumenti informatici da parte delle autorità iraniane. Lo stesso accadeva due anni dopo con la fine delle “Primavere Arabe”, il sopravvento dell’Islam politico in alcuni Paesi e in altri il generalizzato rilancio – con eccezione della Tunisia – delle tendenze autocratiche nel mondo mediterraneo e la carneficina Siriana, con la costante crescita negativa e destabilizzante della potenza iraniana.
  • Il caso Arabia Saudita. Il 2 Dicembre la CNN ha trasmesso la testimonianza di un dissidente Saudita residente in Canada e i suoi scambi App con Jamal Kashoggi, il giornalista del Wall Street Journal ucciso e smembrato da una squadra dell’Intelligence saudita nel Consolato di Istanbul. Le critiche di Kashoggi al Principe ereditario Mohammed bin Salman erano state durissime. L’interlocutore di Kashoggi aveva ricevuto, dopo gli scambi di App, telefonate di invito e recarsi all’Ambasciata saudita per parlarne, cosa che fortunatamente non fece. Ma il commento alla CNN era che proprio quelle mail, evidentemente hackerate, avevano segnato la terribile fine dell’amico.
  • Il caso Russia. Sono innumerevoli gli episodi nei quali la sorveglianza di dissidenti e oppositori politici via Internet ha portato a attentati, assassini, sparizioni, terrorismo di Stato. Dai casi Litvinenko, Politkovskaja, Nemtsov, a quelli più recenti dei due Skripal, alla tentata intrusione informatica russa  nei laboratori di analisi  sul gas Novichok, sino ai tentativi attacco terroristico iraniano contro organizzazioni della dissidenza in Europa, la storia dell’utilizzo criminale delle tecnologie dell’informazione è un fenomeno di gigantesca portata nei sistemi repressivi delle libertà  e totalizzanti del potere.

Gli anticorpi stentano a formarsi. Nonostante l’efficienza per ora mostrata dalle entità “revisioniste” nel destabilizzare le società libere e democratiche – RussiaGate, Brexit, movimenti “no-global” e anti-europei, passi incoraggianti sono stati fatti nella parte ancora illuminata del pianeta. Il Regolamento europeo sulla Protezione dei Dati (GDPR) e la Direttiva sulla Sicurezza della Rete e dell’Informazione (NIS) definiscono un avanzato quadro giuridico, organizzativo e operativo. Nella stessa direzione si pongono le politiche di contrasto alla radicalizzazione e alle fake news, l’impegno a una più scrupolosa attuazione dei principi dello Stato di Diritto, dei Diritti Umani e delle libertà fondamentali.

II. Diversi mondi: quale “Superpotenza” avrà la leadership cyber nel prossimo decennio?

Il conflitto commerciale che contrappone USA e Cina, ha scritto recentemente The Economist, è anzitutto una competizione per la tecnologia. Riguarda il vastissimo campo che va dall’Intelligenza Artificiale alle infrastrutture informatiche, come reti, server, telefoni, computer. Ma la questione centrale concerne i semiconduttori. E’ il terreno nel quale si scontra la leadership dell’America con le ambizioni della Cina. Sui chips che è fondata l’economia digitale e la sicurezza nazionale. Prima dell’insediamento di Trump alla Casa Bianca, nel 2014, Pechino ha annunciato un fondo di $150Mld per raggiungere e superare qualsiasi altro concorrente; i semiconduttori fanno, dal 2015, la parte del leone nei progetti di sviluppo del programma “Made in China 2025″.

I rischi che tutto ciò comporta sono parsi evidenti a Washington sin dall’inizio del decennio. Obama ha bloccato la cessione di alcune componenti critiche di Intel alla Cina, si è opposto alla vendita da parte di un fornitore tedesco di analoghe tecnologie a aziende cinesi, denunciando poi in un rapporto al termine della sua presidenza i sussidi statali e i trasferimenti obbligatori di tecnologia imposti da Pechino. Con Trump vi è stato il caso ZTE, peraltro risoltosi in un passo avanti e uno indietro. Tuttavia la consapevolezza americana di una minaccia incombente si è accresciuta. Così come, d’altra parte, lo sforzo cinese per acquisire una leadership indiscussa nei semiconduttori. Vi sono enormi investimenti di Baidu, Alibaba, Huawei. Vi è nella strategia cinese un particolare tempismo. I limiti della” Legge di Moore” – raddoppio ogni due anni delle capacità di un microprocessore – sono ormai acquisiti. La tendenza attuale premia il “quantum computing” e i chips specializzati nella IA. Le opzioni di cui dispongono gli Stati Uniti e l’Occidente, nel contrastare una dominazione cinese nei microprocessori e nella IA – che significherebbe sudditanza tecnologica, economica e in ultima analisi politica a Pechino e al Partito Comunista Cinese -sembrano non poter essere che di tre tipi.

Anzitutto quella di lavorare in stretto raccordo con i Paesi alleati in Europa e in Asia. Si devono respingere con fermezza le pratiche scorrette e illegali cinesi, il trasferimento forzoso di tecnologia e il furto sistematico di proprietà intellettuale. In secondo luogo è urgente il rilancio dell’innovazione, della ricerca, delle tecnologie nazionali nel settore cruciale della Cyber-Security e della Cyber- Defence. Infine, dobbiamo rapidamente attrezzarci – dato che i semiconduttori cinesi saranno sempre più diffusi e pervasivi- a procedure accurate di verifica di tutte le componenti importate dall’estero e inserite in apparecchiature e reti informatiche, soprattutto per ciò che riguarda gestione, controllo, e portabilità dei Dati. Si tratta di una sfida enorme quando si consideri che l’economia digitale ha toccato nel 2017 il valore di 12,9 trilioni di dollari, con un mercato dei semiconduttori di 412,2 miliardi, un cloud computing pari a 260,2 miliardi, mentre nei sei primi mesi 2018 i “data breaches” di portata sistemica sono stati 2.300.

 

III. Piattaforme e Social Media.

E’ giudizio diffuso che i Social Media abbiano un ruolo chiave nell’aumento verificatasi in questi ultimi anni di estremismo e di radicalizzazione influendo sugli autori di attentati e attacchi terroristici negli Stati Uniti e in Europa.

Diversi casi , accaduti anche degli ultimi mesi ad esempio negli Stati Uniti, rientrano nella definizione di “estremismo di destra” utilizzata dal Global Terrorism Database dell’Università del Maryland: “violenza in sostegno del pensiero che la qualità della vita della persona o della nazione è sotto attacco o è già compromessa” così come l’antisemitismo e la radicalizzazione Jihadista, l’antiglobalismo anarchico il suprematismo etnico, le teorie complottiste e i sospetti verso l’Autorità costituita sono tutti caratteri distintivo di una rete di ideologie che si mischiano alle teorie cospiratorie.

Mentre il fanatismo cresce, non sono ancora individuate le strategie per contrastare l’estremismo reso possibile da Internet. Al contrario, l’architettura sulla quale si basano i social media esacerba il problema, premia la realtà al proprio gruppo, eccita la volontà di agire, alimenta piattaforme come Facebook e YouTube così come siti meno conosciuti, ad esempio Gab o Voat. Gli algoritmi che fanno funzionare questi network promuovono contenuti specifici e motivanti, in un circolo vizioso che, attraverso connessioni e promozioni degli annunci trascina un numero sempre più ampio di utilizzatori verso idee altamente tossiche.

Negli Stati Uniti tra i fatti più inquietanti vengono ricordati: i pacchi bomba mandati a personalità democratiche particolarmente critiche del Presidente Trump; la sparatoria nel Kentucky che è costata la vita a due afro-americani; la strage della Sinagoga di Pittsburgh. In Germania è stato dimostrato che le città con maggior tasso di utilizzatori di Facebook hanno registrato un numero di attacchi contri gli immigrati più elevato di quanto non sia accaduto in centri urbani con un minor numero di iscritti a tale piattaforma.

Gli stessi effetti dell’eccitamento alla violenza sono documentabili anche per quanto avvenuto recentemente in Sri Lanka e Myanmar. Le motivazioni sono differenti, ma il percorso verso la violenza è sempre molto simile: il bomber nemico dei democratici aveva postato su Twitter e Facebook teorie cospiratorie su Hillay Clinton e immigrazione illegale. Il Killer di Pittsburgh agiva su Gav, un network creato apposta per evitare la censura su piattaforme mainstream.

Altra circostanza che accomuna tra loro ,sempre più, gli autori di questi crimini, è quella di un estremismo e di una radicalizzazione generata esclusivamente su Internet, senza l’appartenenza a gruppi o comunità che si riuniscono realmente.

La radicalizzazione può iniziare con una conversazione occasionale tra partecipanti a un videogame, crescere di tono in alcune banali espressioni razzisti durante il gioco, trasferirsi su canali YouTube o altri per infiammare i propri simili.Dove sono più chiare le responsabilità delle piattaforme “social” e della loro governance? Molti casi dimostrano disattenzioni e carenze: non soltanto di comodo, ma determinate da finalità commerciali e di profitto. Un esempio è quello del predicatore jihadista Anwar al-Awlaki, ispiratore dell’Ufficiale dei Marines che ha compiuto la strage di Fort Hood nel 2009 e di un giovane che aveva cercato di far esplodere un aereo su Detroit. Dopo l’eliminazione di Anwar al-Awlaki ad opera di un drone americano in Yemen, ci sono voluti anni perché YouTube cancellasse dai propri siti i video, i sermoni e gli interventi registrati del predicatore jihadista.

L’aspetto interessante è che se un navigatore su Internet attraverso un motore di ricerca cercava i video del predicatore e trovava quelli che ancora fornivano, nei primi anni della sua attività, una versione moderata e umana dell’Islam, gli algoritmi di YouTube guidavano subito l’utente verso le sue prediche degli ultimi tempi, quelle più radicali nelle quali veniva descritto come dovere prioritario di ogni Musulmano l’uccisione di americani. Il terrorista della strage alla maratona di Boston, Dzhokhar Tsarnaev e l’autore della strage a Charlie Hebdo nel 2015 erano stati ispirati proprio da Anwar al-Awlaki.

La regolamentazione delle piattaforme social al fine di contrastare estremismo e radicalizzazione è quanto mai urgente.

 

IV. L’Intelligenza Artificiale.

a) Isaac Asimov e le sue Leggi.

Da quel grande e visionario scrittore di fantascienza che era, Isaac Asimov enunciò le “tre leggi della robotica” che hanno ispirato generazioni di esperti di robotica, intelligenza artificiale e cibernetica. La prima Legge stabilisce che un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. La seconda, che un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che questi ordini non contrastino con la prima Legge; la terza, che un robot deve salvaguardare la propria esistenza, a meno che l’autodifesa non contrasti con la Prima o la Seconda Legge. In alcuni dei suoi ultimi racconti, Isaac Asimov postula l’esistenza di una Legge più generale; la Legge Zero: “Un robot non può danneggiare l’Umanità, né può permettere che, a causa del suo mancato intervento, l’Umanità riceva danno”. Le tre precedenti vengono conseguentemente modificate e a tutte le leggi viene aggiunta la postilla “A meno che questo non contrasti con la Legge Zero”.

Come è stato osservato da Jack M. Balkin, le leggi della robotica sono servite a sfatare il radicato preconcetto che il progresso scientifico verso l’I.A. debba inevitabilmente creare mostri incontrollabili tipo Frankestein, o Terminator con il sistema neurale Skynet “auto cosciente” nel dominio del mondo. L’interesse a l’attualità di Asimov risiede nel fatto che, al di là delle sue ipotesi fantascientifiche, egli si sia posto temi etici e giuridici, con molte incognite di complessa interpretazione, ma con l’esigenza di fare chiarezza. Il dibattito sulla possibilità che macchine super intelligenti possano superare le capacità umane è andato avanti per decenni e ha suscitato forti preoccupazioni, come in Steven Hawking o Elon Musk, e fiduciose speranze, come per Ray Kurzweil, fondatore della Singularity University e autore di molti lavori sull’intelligenza artificiale. Kurzweil ha ipotizzato addirittura una data che sancirebbe l’inizio della Singolarità entro il 2029.La “singolarità tecnologica” viene considerata un punto, nello sviluppo di una civiltà, in cui il progresso  accelera oltre la capacità di comprendere e prevedere degli esseri umani e ai progressi tecnologici che, a cascata, seguirebbero da un tale evento; salvo che non intervenga un importante aumento delle facoltà intellettive dell’ individuo.

Se stiamo veramente passando dall’Età Digitale alla Società Algoritmica, un raccordo essenziale è rappresentato dall’utilizzo esteso e efficace del Big Data. Parafrasando Kant si è affermato che “Algoritmi senza Dati sono vuoti; Dati senza Algoritmi sono ciechi”. Sullo stato dell’arte nell’avanzamento e utilizzo dell’I.A., e sui problemi irrisolti di natura etica, scientifica, politica e legale si stanno esprimendo Governi, Parlamenti, organizzazioni della ricerca e dell’impresa. E’ interessante notare come le sensibilità emerse sin dall’immediato Dopoguerra con le Leggi di Asimov, corrispondano ancora in un ben più avanzato grado di maturazione delle tecnologie, a molte delle conclusioni raggiunte la primavera scorsa dal Parlamento britannico, con il Rapporto della Camera dei Lords al Governo.

b) Il Rapporto sull’Intelligenza Artificiale della House of Lords al Governo Britannico.

Si tratta di un approfondimento di notevole ampiezza che prende in esame lo stato della ricerca e dello sviluppo sull’Intelligenza Artificiale in Gran Bretagna, con una ricca documentata analisi sulle tendenze a livello nazionale e globale.

Il Rapporto rileva come l’Intelligenza Artificiale si stia sviluppando da anni, ma stia entrano ora nel suo stadio cruciale.

L’ultimo decennio ha visto la confluenza di molteplici fattori, in particolare l’avanzamento tecnologico nel “deep learning”, la crescita dei dati disponibile e dalla capacità di calcolo dei computer. Questo comporta un insieme vasto di opportunità, di rischi e di sfide alle quali i Governi devono rispondere con la consapevolezza delle conseguenze che le loro scelte comporteranno nel medio e lungo periodo. L’accesso ai metadati è uno dei fattori fondamentali che alimenta l’IA, le modalità in cui i dati sono raccolti, conservati, resi accessibili, deve cambiare in modo che le imprese innovative e la ricerca abbia un accesso corretto e ragionevole e al tempo stesso che i cittadini e i consumatori possano proteggere il loro diritto alla privacy e all’identità personale.  Ciò significa non soltanto ricorrere a principi e concetti esistenti, impliciti nella legislazione sulla protezione dei dati, ma anche a nuovi meccanismi riguardanti la portabilità e l’affidabilità dei dati stessi.

Le imprese di più grandi dimensioni che controllano una vasta qualità di dati non devono acquisire eccessivo potere. In questo senso il Governo Britannico e l’Autorità che sovraintende alla competizione e al mercato, dovrebbero rivedere in modo pro-attivo l’utilizzo e l’esercizio potenzialmente monopolistico delle tecnologie di controllo e gestione dei dati.

Imprese e organizzazioni informatiche devono migliorare l’intellegibilità dei loro sistemi di IA. Se ciò non avvenisse i regolatori devono poter intervenire e proibire l’utilizzo di tecnologie opache in aree sensibili per la vita e per la società. Si deve assicurare che il ricorso all’IA non sia di pregiudizio alcuno alla condizione di specifici gruppi sociali. Il Governo deve dotarsi di procedure di auditing dei dati utilizzati nell’IA e incoraggiare la “diversità” di appartenenza sociale, etnica, culturale nel reclutamento e formazione degli specialisti che si occupano di IA.

Molte delle speranze e dei timori che sono attualmente associati all’IA non hanno un vero fondamento. Mentre la prospettiva di macchine super-intelligenti che superino le nostre capacità cognitive è sempre in discussione, le opportunità e i rischi insiti nell’IA sono di natura diversa. Il pubblico e la classe politica hanno una comune responsabilità di comprendere le capacità e i limiti di questa tecnologia via via che essa diventa parte delle nostre vite quotidiane.

L’industria del settore deve istituire un “meccanismo volontario” per informare i consumatori ogni volta che l’IA viene impiegata per decisioni significative o sensibili. L’IA può accelerare la soppressione di posti di lavoro nell’economia digitale. Molte attività lavorative possono essere rilanciate dall’IA, molte altre sparire, molte di nuove possono essere create. E’ quindi necessario che il Governo investa nella formazione. Con programmi e iniziative pilota che diventeranno una necessità vitale per tutta la vita dell’individuo, ciò può venire in uno stretto partenariato con l’industria, e dovrà partire dall’educazione scolastica e dalle conoscenze di base. Il settore pubblico deve ridisegnare la sua politica di appalti e pubblica fornitura all’obiettivo di sostenere lo sviluppo dell’IA, in particolare nella sanità e nelle tecnologie utilizzate in medicina. Le maggiori incertezze nell’utilizzo dell’IA riguardano l’adeguatezza delle norme vigenti in caso di malfunzionamento dei sistemi di IA e di danni che ne possano derivare. E’ questa una materia sulla quale è necessario maturare la massima chiarezza. Il Governo deve sollecitare i ricercatori e gli sviluppatori di sistemi di IA ad essere consapevoli e responsabili delle implicazioni etiche del loro lavoro e attenti ai rischi che si presentano nel possibile utilizzo dei sistemi di IA per fini malevoli o criminali. L’erogazione di fondi pubblici o privati al mondo della ricerca deve basarsi sulla dimostrazione che vi è piena consapevolezza dei rischi legati a un cattivo utilizzo di queste risorse. Particolare importanza viene data inoltre dal Rapporto del Parlamento Britannico all’utilizzo dell’IA nelle applicazioni di cybersecurity e alle modalità per proteggere le banche dati e i programmi da tentativi di sabotaggio.

Il Rapporto si conclude con la sollecitazione al Governo Britannico a prendere iniziative a livello internazionale per indirizzare lo sviluppo e l’utilizzo dell’IA a livello globale, e a convocare un vertice che stabilisca norme universali per la progettazione, lo sviluppo, la regolamentazione e l’impiego dell’IA.

In particolare il GDPR prevede condizioni molto vincolanti per l’utilizzo di dati in programmi di IA interamente automatizzati, che possano produrre effetti legali o significativi per i diritti individuali.

Ciò potrebbe comportare l’esclusione dalla pratica corrente di un ampio numero di algoritmi utilizzati ad esempio nei sistemi di valutazione, nell’analisi del rischio creditizio e assicurativo, nella pubblicità informatizzata e nelle piattaforme social. Ciò potrebbe comportare una completa revisione di standard e tecniche algoritmiche già ampiamente utilizzate, con facoltà dei cittadini di avere spiegazioni sugli aspetti essenziali delle decisioni formulate grazie agli algoritmi, con accresciuta importanza dell’interpretabilità umana circa la loro formulazione. Tutto questo dà ancor più rilevanza, in ambito Europeo, ai principi di “non discriminazione” e di “avversione al rischio”: nel primo caso quando si deve essere certi che in un determinato “campione” utilizzato nel raccogliere i dati  non vi siano discriminazioni a danno di un certo gruppo; nel secondo caso, che l’algoritmo sia costruito per essere “avverso al rischio” (Risk averse) così da falsare l’oggettività della valutazione.

V. Unione Europea e regolamentazione dell’AI

Il GDPR, pur non menzionando direttamente l’IA, prevede condizioni molto vincolanti per l’utilizzo di dati in programmi interamente automatizzati, che possano produrre effetti legali o significativi per i diritti individuali. L’art 22 “Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione” afferma che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. L’applicabilità del GDPR potrebbe comportare l’esclusione dalla pratica corrente di un ampio numero di algoritmi utilizzati ad esempio nei sistemi di valutazione, nell’analisi del rischio creditizio e assicurativo, nella pubblicità informatizzata e nelle piattaforme social. Ciò potrebbe comportare una completa revisione di standard e tecniche algoritmiche già ampiamente utilizzate, con facoltà dei cittadini di avere spiegazioni sugli aspetti essenziali delle decisioni formulate grazie agli algoritmi, con accresciuta importanza dell’interpretabilità umana circa la loro formulazione. Tutto questo dà ancor più rilevanza, in ambito Europeo, ai principi di “non discriminazione” e di “avversione al rischio”: nel primo caso quando si deve essere certi che in un determinato “campione” utilizzato nel raccogliere i dati  non vi siano discriminazioni a danno di un certo gruppo; nel secondo caso, che l’algoritmo sia costruito per essere “avverso al rischio” (Risk averse) così da falsare l’oggettività della valutazione.

La protezione e tutela derivante da questa norma non è tuttavia sufficiente a far fronte alla complessità posta dall’uso dell’IA negli attuali processi automatizzati e nella profilazione. Già prima del GDPR c’erano stati dei tentativi da parte della Corte di Giustizia dell’UE di far chiarezza sull’importante correlazione tra l’AI e privacy, ma prima dell’entrata in vigore del Regolamento, le Istituzioni avevano assunto un atteggiamento piuttosto permissivo rispetto la collezione ed elaborazione di dati tramite algoritmi automatizzati.

Per far fronte a questa evidente lacuna legis, l’Unione Europea ha avviato alcune discussioni in merito all’avanzamento di proposte legislative specificatamente riguardanti l’AI.

Il Parlamento Europeo, infatti, sta ipotizzando la creazione di un Agenzia Europea specifica incaricata di fornire competenze tecniche, etiche e normative nel campo della robotica e dell’intelligenza artificiale. Un recente report del Comitato per gli Affari legali del Parlamento Europeo pone enfasi sulla crescente necessità di far nascere un’Agenzia di questo stampo e di agire dal punto di vista normativo per regolamentare un settore così complesso, ma al contempo così rilevante.

La questione è stata affrontata anche dall’Ufficio del Commissario per le Informazioni, che ha analizzato le implicazioni inerenti alla protezione dei dati che esistono dall’uso e dallo sviluppo dell’IA. Il rapporto recentemente pubblicato dall’ICO riconosce a sua volta l’inadeguatezza del GDPR ed evidenzia la necessità di avviare un approccio legale e normativo diverso, più specifico.

Manifestata l’esigenza di trovare una soluzione al problema, bisognerà capire come una nuova agenzia e una nuova regolamentazione in materia può relazionarsi con la normativa vigente. E’ logico pensare che qualsiasi nuova iniziativa dovrà tener conto del GDPR, anche se c’è il rischio che in questo modo non si riescano ad eludere le difficoltà già esistenti. Per far fronte a questi problemi, il Consiglio e la Commissione Europea potrebbero ricondurre la nuova regolamentazione IA fuori dal campo di applicazione del GDPR e formare un Consiglio sull’IA specifico in materia. Questo avrebbe il duplice beneficio di creare un framework vincolante per regolamentare il settore, conforme ai principi ed i valori difesi dall’Unione Europea, e di evitare un’eventuale riallocazione degli investimenti privati in materia fuori dallo Spazio Comune Europeo.  Un’altra ipotesi è creare un sistema di finanziamenti mirati allo sviluppo di regolamentazioni nazionali e di modelli di AI alternativi conformi agli attuali standard GDPR o a quelli che verranno identificati. La creazione di una serie di incentivi da parte degli Stati potrebbe, infatti, alimentare la nascita e lo sviluppo di un sistema di best practices che un domani potrà concretizzarsi in una regolamentazione globale.

VI. Conclusioni.

Le complessità sopra indicate dimostrano quanto siano urgenti le decisioni da prendere per garantire i diritti del cittadino e i principi fondamentali della nostra democrazia nella “Società Algoritmica”. Si tratta di un mondo sempre dominato dall’IA e dalla “dimensione Cyber”. Un’auspicabile regolamentazione globale che dia sufficienti garanzie ai singoli Stati Nazionali e ai loro cittadini non è, allo stato delle cose, imminente e forse neppure realistica nei prossimi anni. Per definire norme e politiche efficaci, si deve guardare piuttosto a obiettivi ragionevolmente perseguibili nell’Unione Europea, e in aggregazioni più ampie del mondo Occidentale, come l’Alleanza Atlantica e i Paesi a noi vicini dell’Asia.

Poiché la responsabilità primaria incombe in ogni caso agli Stati, è necessario che Difesa e Sicurezza Informatica siano anzitutto oggetto di una regolamentazione nazionale nella quale l’Intelligenza Artificiale abbia tutta l’attenzione e il rilievo che essa richiede.

Dai numerosi approfondimenti e dibattiti sviluppatisi nei Parlamenti degli Stati Membri dell’UE, al Parlamento Europeo, nel mondo scientifico ed accademico, il principio di una regolamentazione accompagnata da appropriate misure di incentivazione economica, fiscali, di sostegno alla ricerca, di formazione sin dall’età scolare, raccoglie un generalizzato consenso. In tale quadro, sono numerose le proposte su ciò che deve essere fatto prioritariamente. Ad esempio, le garanzie che devono essere acquisite circa le tecnologie, le modalità, e gli individui stessi che vengono impiegati nell’IA, e in particolare nella formulazione degli algoritmi così come nella elaborazione, conservazione dei dati e loro gestione. Si è proposto di istituire un “registro degli algoritmi”, con “certificazioni di sicurezza” per chi li elabora, quando si tratti di settori che possono rilevare per la “quinta dimensione” della sicurezza. Si dovrebbe prestare particolare attenzione ai requisiti di segretezza che devono essere assolti da quanti operano nei settori sensibili, in tutto lo stream che va dalla formulazione algoritmica sino alla gestione delle infrastrutture e dei dati.

Il punto di consenso dal quale si dovrebbe partire, riguarda l’adozione di un vero e proprio Statuto sull’utilizzo dell’IA: per raccoglierne i benefici e tener sotto controllo problemi e rischi che ad essa si collegano. In altri termini, si tratta di creare una Magna Carta per l’era digitale che protegga diritti e libertà dei cittadini, definendo le responsabilità dello Stato e dell’impresa.

Gli elementi essenziali di uno “Statuto Generale” dovrebbero essere:

  • sviluppare l’IA esclusivamente per il bene comune dell’umanità e dei cittadini;
  • regolarla in base a principi di intelligibilità e di equità;
  • rispettare il diritto alla riservatezza, con adeguata protezione dei Dati;
  • riformare l’educazione e la formazione permanente per adattarle all’uso dell’IA;
  • vietare configurazioni dell’IA che attribuiscano ai sistemi informatici poteri autonomi nel danneggiare, ingannare o colpire l’essere umano.

Questi obiettivi primari devono essere alla base di un Codice per l’IA, da sviluppare come Corpus Iuris, sia a livello nazionale che, possibilmente, multilaterale. Occorre altresì agire internazionalmente affinché si perseguano da parte dell’UE, delle Organizzazioni internazionali, e degli Stati a economia di mercato, politiche mirate al radicale ridimensionamento dei regimi monopolistici che le grandi imprese informatiche si sono attribuite nel controllo, commercio, portabilità dei dati. L’Intelligenza Artificiale è direttamente guidata nelle soluzioni che individua e propone all’uomo nel prendere decisioni complesse dalla disponibilità dei BigData. Essi sono – come ben spiegava un’analisi di pochi anni fa di due noti studiosi, Viktor Mayer-Schönberger e Kenneth Cukier – tanto una risorsa che uno strumento. I Big Data mirano a informare più che a spiegare; puntano verso la comprensione, a seconda di quanto efficacemente o modestamente essi siano elaborati. L’informazione e la conoscenza assolute – il definitivo “N=tutto” – non possono essere raccolte, immagazzinate, conseguite dalle tecnologie esistenti. Il CERN raccoglierebbe solo lo 0,1% circa dell’informazione generata negli esperimenti del suo acceleratore di particelle, Large Hadron Collider. Il resto si dissolve nell’etere.

Quanto siamo capaci di raccogliere e rielaborare sarà sempre una piccola frazione dell’informazione esistente nel mondo; un simulacro della realtà, come le ombre sulla parete, nella caverna di Platone. Poiché non potremo mai avere l’informazione perfetta, le nostre previsioni sono fallibili. Non significa che siano sbagliate. Significa solo che sono incomplete. Dobbiamo perciò usare le tecnologie di cui disponiamo con questa profonda consapevolezza.

 

©2021 Giulio Terzi

Log in with your credentials

pergot your details?