La Bestia e la minaccia dell'intelligenza artificiale. Non cyborg in guerra contro gli umani, ma algoritmi auto-apprendenti che sfuggono al controllo di programmatori e leggi. Abbiamo creato un'intelligenza che non riusciamo a capire davvero, e le abbiamo dato le chiavi del mondo.

Una sociologa molto esperta di tecnologia, Zeynep Tufekci, ci avverte della minaccia dell'intelligenza artificiale. La Bestia ha preso una strada forse senza ritorno.

Spesso la fantascienza aiuta a formare scenari di quello che sta per avvenire, soprattutto in fasi delicate come questa, in cui la tecnologia sembra assumere un potere così vasto da sfuggirci di mano.

E se si parla di intelligenza artificiale, molti amanti del genere pensano alla saga di Terminator, in cui un'immaginaria rete di supercomputer, chiamata Skynet, prende il possesso del pianeta Terra e ingaggia una crudele guerra all'ultimo sangue contro l'umanità.

Diciamo che la probabilità di vederci sfondare il parabrezza da uno Schwarzenegger di acciaio, armato di fucile a pompa, non è molto alta: non siamo arrivati a macchine che possano progettare e costruire altre macchine pensanti, e probabilmente nemmeno ci arriveremo. Ma affidare un gran numero di calcoli a degli algoritmi che non sono sotto il controllo di un essere umano, come sta facendo la Bestia, non è stata una buona scelta.

Come abbiamo visto in La Bestia e il GPS, gran parte della tecnologia che usiamo è stata appositamente progettata per rubare la nostra anima, ovvero la nostra personalità, i nostri gusti, il nostro comportamento, i nostri spostamenti.

Non si tratta un'eventualità legata a chi commette qualcosa di contrario al regime, come nel caso degli spioni nelle "Vite degli altri", ma di una prassi applicata a tutti noi, ogni secondo che Dio mette in Terra.

Tutti i dati (cronologia web, posizione geografica, fotografie scattate, chat, acquisti, etc.) sono catturati dai nostri smartphone, associati al nostro dossier, e conservati nei server di queste aziende. Il dossier è utilizzato per rendere più efficaci i sistemi di pubblicità: mandano messaggi solo a interessati.

Certo, dopo lo stupore iniziale, abbiamo imparato a convivere con queste pubblicità che arrivano quasi sempre troppo tardi e sembrano rozze, di scarso effetto. Cerchiamo un biglietto per Andorra, e per settimane i viaggi per Andorra ci seguiranno dovunque, anche ad Andorra, e anche dopo che avremo fatto ritorno dal viaggio. Ciascuno di noi pensa "Queste cose non funzionano."

Ma il profitto digitale non si ottiene solo attraverso la pubblicità. Scrive Zeynep Tufekci, tecno-sociologa turca: "Sapete che nei supermercati, proprio vicino alle casse trovate dolci e gomme ad altezza occhi di bambino? È fatto apposta per farli piagnucolare proprio mentre i genitori stanno per pagare alla cassa. Si tratta di architettura persuasiva. Non è bella, ma funziona."

"Nel mondo reale," continua Tufekci, "queste architetture persuasive sono un po' limitate, perché ci sta solo una certa quantità di prodotti, e sono uguali per tutti. Ma nel mondo digitale le architetture persuasive possono essere costruite su larghissima scala e possono essere mirate ai singoli individui, uno per uno, scoprendo le debolezze, e possono essere inviate sugli schermi privati dei nostri telefoni, così da non essere visibili agli altri."

Facciamo un esempio concreto: le piattaforme di gioco online. In Europa sono severamente regolamentate e monitorate, per prevenire abusi, sempre dietro l'angolo quando si tratta, come spesso in questo caso, di truffe legalizzate a danno di soggetti deboli. Sarebbe più corretto abolirle del tutto, ma non sottilizziamo.

Nel mondo analogico, chi faceva pubblicità per questi attrezzi faceva delle ipotesi di tipo demografico: maschi tra i 25 e i 35 anni, oppure persone con carte di credito capienti, o ancora coppie in pensione. Ma i Big Data e l'intelligenza artificiale hanno cambiato paradigma: si parte da un social media tipo Facebook, che sa perfettamente, anche se non l'abbiamo mai scritto, quanto siamo propensi al gioco d'azzardo.

Leggono le nostre chat, sanno se frequentiamo le sale bingo (attraverso la geo-localizzazione), analizzano la nostra personalità attraverso il malefico meccanismo dei "like". Addirittura analizzano le frasi che iniziamo a scrivere e poi ci ripensiamo e cancelliamo. Facebook compra pure dei dati da altri fornitori esterni. Dati di varia natura come movimenti finanziari o la cronologia delle pagine web. In Europa, con la nuova legge, questa prassi è un po' più difficile, ma ancora ampiamente possibile.

Poi, un algoritmo, macina tutti questi dati. Questi algoritmi di "machine learning" sono chiamati algoritmi di "apprendimento": apprendono come capire le caratteristiche delle persone che possono cadere nel vizio del gioco. Quindi quando si trovano davanti un nuovo soggetto possono classificarlo e dire se vale la pena o meno proporgli una scommessa. Lo schema non è più quindi il banale: "hai scommesso, quindi ti propongo un gioco d'azzardo," ma: "siccome sei vulnerabile, ti propongo una serie di contenuti digitali per convincerti a giocare."

OK, state pensando: "E chemme frega? Mica gioco, io." Ma il problema è sociale e politico: non riusciamo più a capire come funzionano questi algoritmi complessi, che lavorano su giganteschi fogli di calcolo, con milioni di righe e colonne, e né i programmatori né nessun altro, anche se ha tutti i dati nel suo server, capisce più come stia funzionando esattamente.

Ma la situazione è ancora peggiore. Facciamo un altro passo: supponiamo che questa intelligenza artificiale avesse imparato che è più semplice convincere a giocare le persone depresse o con qualche disturbo della personalità, magari sul punto di entrare nella fase patologica. Magari queste persone tendono a spendere di più e a diventare scommettitori compulsivi. La Bestia inciterebbe queste persone a giocare, magari aggravando il loro stato di salute. Siamo ben oltre il lecito, ma questa cosa sfugge non solo al controllo della legge, ma anche a quello dei suoi stessi programmatori, che nemmeno sono a conoscenza di quello che l'algoritmo fa. E tutto questo in barba a tutte le leggi, comprese quelle ridicole per la privacy.

Come si vede, ciò che la Bestia riesce a fare con la massa enorme di dati a disposizione, è inquietante. E il fatto che li ceda, spontaneamente o meno, ai governi, che li useranno in senso repressivo (cosa che ha fatto, vedi il caso PRISM), o ad aziende 'terze', che li utilizzano fraudolentemente (cosa che ha fatto, vedi il caso Cambridge Analytica), è assolutamente secondario.

Tutto questo funziona tanto meglio quanto più sono numerosi i dati che macina. Per questo Facebook vuole raccogliere tutti i nostri dati. L'algoritmo così funziona meglio. Ed è per questo che essere anonimi (vedi Sabotaggio 1: essere anonimi) e creare confusione nei dati è la nostra unica arma.

Qui non ci sono agenti segreti, ma Intelligenze Artificiali, ovvero algoritmi in grado di influenzare IN MASSA il comportamento socio economico dei cittadini di intere nazioni. Abbiamo creato un'intelligenza che non riusciamo a capire davvero, e le abbiamo dato le chiavi del mondo.