Chi ha paura dell'intelligenza artificiale?

Avv. MARCO SOLFERINI

Premessa: quando la paura fa spavento

L'acceso dibattito e confronto tra coloro che vedono nell'Intelligenza Artificiale (di seguito denominata Ai) una risorsa e quanti, all'opposto, la considerano una tecnologia pericolosa si ripropone ormai costantemente. Arricchendosi ogni volta di ulteriori elementi che guardano spesso alla casistica nota degli sviluppatori. Si confrontano da un lato i successi della scienza in svariati campi, grazie all'Ai, con episodi definiti come problematici in cui, specialmente nelle fasi di studio, addestramento e test delle Ai le stesse dimostrano la tendenza ad assumere alcuni comportamenti pericolosi. Compiendo cioè delle scelte che puntano ad ingannare e/o ad alterare la capacità dei supervisori umani di controllarle. Il confronto è sempre più acceso. Coinvolgendo ormai plurimi ambiti. In particolare cercando di orientare il legislatore nazionale o europeo. Il Mondo intero sta vivendo questa contrapposizione. Si fronteggiano quindi i sostenitori delle leggi "pro o contro" lo sviluppo dell'Ai. Nel mentre, la corsa a questa tecnologia moltiplica i capitali e brucia le tappe. Mettendo in difficoltà persino la statistica che fatica a mantenere le proprie previsioni. La certezza che l'Ai sia una nuova frontiera trasformativa ha convinto alcune nazioni, fra le quali le più industrializzate, a competere in modo tale da raggiungere per primi i risultati più esplorativi o all'avanguardia. La domanda di fondo però rimane: è giusto avere paura dell'Ai? E ancora: chi ha paura dell'Ai?

  1. La paura dell'Ai tra soluzionismo tecnologico e suprematismo tecnologico.

Rispondere a siffatti quesiti in modo organizzato rappresenta un impegno cui hanno tentato di dare voce continuativa e orientativamente organizzata alcuni think tank nel supposto che non ci sia una singola soddisfacente risposta. Il campo di applicazione di questa tecnologia, tanto nella sua fase di ricerca come pure di sperimentazione e di successiva applicazione, è talmente vasto da escludere che si possa affrontare in modo omogeneo. Andrebbero cioè parcellizzati un enorme serie di distingui che trasformerebbero il dibattito in un opinionismo simile a un crescendo rossiniano che dopo essersi sviluppato a macchia di leopardo finirebbe per annullarsi da solo inseguendo personalismi e convinzioni più astratte (o teoriche) invece che pratiche. Il rischio potenziale è quello di trasformare la discussione in uno "stop & go" simile a una contrapposizione concettuale di principio dove le fazioni si arroccano in difesa come fosse una trincea. A questo proposito occorre osservare che coloro i quali attaccano sulla presunta pericolosità dell'Ai hanno costruito la stessa attorno ad un paradigma volutamente artificioso (molto umano) in quanto organizzato in maniera tale da non consentire/favorire un dissenso ragionevole. Volendo cioè stimolare reazioni più emotive che razionali. Anzitutto, non negano il fatto che l'Ai sia molto utile e stia dando risultati straordinari in molteplici ambiti come ad esempio quello medico o chimico, della ricerca e dell'innovazione, come pure molteplici altri. Questa forma di condiscendenza è certamente parte di una soluzione strategica (e furba). Sono consapevoli di non poter attaccare a tutto campo e su tutti i fronti l'Ai. Non sarebbero credibili. Nel ventre dei vari movimenti critici bisognerebbe operare un distinguo tra scettici, prudenti, timorosi. Ciascuna posizione presenta dei distingui di non poco momento. Inoltre è utile separarli rispetto ai fanatici anti-Ai cioè coloro che vorrebbero vietare l'Ai. Senza nemmeno probabilmente sapere di cosa si tratta e senza possedere la cognizione di causa di cosa significhi il termine divieto anche dal punto di vista della sua applicazione. Costoro più che altro sentono l'Ai come un anatema. Fonte di tutti i mali. E hanno già deciso che non s'ha da fare. Il loro soluzionismo è: fermarsi, prendere tutto ciò che è stato per adesso prodotto, spostarlo nel cestino di Windows e poi cliccare con convinzione su "svuota cestino". Queste posizioni sono talmente oltranziste che non possono essere elaborate e rappresentano un opzione "prendere o lasciare". Concentriamoci invece su altre elaborazioni relative al pericolo dell'Ai che siano più comprensibili, razionali e più argomentabili. Prima però sembra opportuno soffermarsi ad un analisi che permetta di comprendere in cosa consiste il soluzionismo tecnologico e che tipo di rapporto può sviluppare rispetto al suprematismo tecnologico. Termini che stanno tornando in uso con una certa frequenza. Il punto di partenza ideale sembra quello di valutare il rischio insito in un futuro postumano dove si verifichi un disallineamento tra la sfera umana e la sfera naturale. Che tale sidaccorpamento provochi una progressiva perdita dei contenuti storici, culturali, territoriali e relazionali che rappresentano il primo irrinunciabile perimetro di umanità inteso come conoscibilità e accettazione delle soluzioni democratiche sociali per la risoluzione dei conflitti e per il progresso nell'evoluzione della specie. Presupposti indefettibili nella vita consociata. Che tale progressione porti a demandare sempre maggiormente le soluzioni ai problemi umani ad un primigenio concetto di fattibilità tecnologica. Questa fattibilità diventerebbe presunzione di soluzionismo tecnologico che andrebbe ad appannaggio di pochi in quanto proprietari delle tecnologie cui verrebbero delegate le decisioni di come direzionare l'umanità. Attraverso un implicita ma inevitabile depoliticizzazione delle decisioni. In uno scenario del genere l'attività del legislatore, colui il quale disciplina attraverso le leggi ciò che può essere fatto e come andrebbe realizzato, finirebbe per essere ridotta a un certificatore delle esigenze e come tale opererebbe in termini meramente formali assicurando solo la continuità del soluzionismo tecnologico. I sostenitori di questa visione partono dalla definizione di soluzionismo tecnologico di E. Morozov il quale interpretò questa tendenza della società a essere identificata in modo statistico come una sorta di sommatoria di problemi definiti, relativamente individuabili e fra loro ottimizzabili attraverso le soluzioni tecnologiche. La cui centralità finirebbe per deprimere ed escludere tutte le altre scienze. Questa ipotesi a ben guardare è stata fino ad oggi smentita proprio dall'avvento delle nuove tecnologie. Dalla metà degli anni 90 chi ha vissuto l'evoluzione dell'informatica ha potuto apprezzare una serie di prodotti che dapprima hanno animato una competizione tecnologica e successivamente si sono orientati verso uno standard. Che poi è stato implementato. In principio si fronteggiarono diversi calcolatori o computer in quella che oggi viene definita retro tecnologia. Poi, essendo prevalso lo standard de PC, attorno a quest'ultimo si è evoluta la tecnologia successivamente con una serie di miglioramenti: dalle schede grafiche, ai processori, dalla memoria ai collegamenti tramite l'avvento di internet. L'idea che il soluzionismo tecnologico non sia già in essere è una comodità espositiva. Per facilitare la possibilità di importare nel ragionamento elementi di filosofia. In realtà stiamo vivendo il soluzionismo tecnologico. Probabilmente fin dalla scoperta dell'elettricità. Un gran numero di millennials sono cresciuti proprio con quella tecnologia che è sopravvissuta e si è imposta. La loro vita è inscindibilmente condizionata da quest'ultima. La loro istruzione. La loro formazione. Il loro lavoro. Ipotizzare che oggi le loro decisioni o le loro scelte siano del tutto prive della conseguenza di ciò che è già il soluzionismo tecnologico è pura miopia irrazionale. Tutto ciò ha forse provocato una deresponsabilizzazione dell'uomo rispetto alle sfide del futuro? Se, come vero, il progresso tecnologico ha portato a uno sviluppo umano lo stesso già oggi non incorpora in larga parte anche gli obiettivi e gli strumenti per raggiungerli? Non è forse parte integrante dell'organizzazione delle attività umane in terra, acqua, cielo e persino nello spazio? La svolta trasformativa che ogni tecnologia ci ha portato non ha annullato il libero arbitrio ma ne ha realizzato un evoluzione. Siamo il prodotto di ciò che abbiamo creato. Conosciamo la razza umana per ciò che ha saputo dare e fare attraverso gli strumenti di cui si è dotata. Non è poi così diverso da ciò che è accaduto nel passaggio all'età del ferro, dall'avvento della ruota o nelle rivoluzioni agricole e industriali. L'idea dell'uomo epicentro dell'universo, unico artefice degli eventi per la sua sconfinata perfezione nella capacità di interagire e di prendere decisioni appartiene alla filosofia del passato. Delle trasformazioni dall'umanesimo al rinascimento. Tuttavia noi non siamo più quell'uomo. L'avvento dell'energia elettrica ha fatto sì che quell'uomo decidesse di orientarsi verso ciò che oggi è l'hi-tech. Perché ha creduto nel suprematismo della scienza e della scoperta, della ricerca e dell'esplorazione. Si è a lungo posto dilemmi tanto morali quanto etici. Ha ragionato di filosofia e di religione. Quell'uomo ha parlato spesso di pace ma poi ha fatto la guerra. Tante volte. Quell'uomo ha prodotto le più gravi sperequazioni e disuguaglianze nei diritti umani nella distribuzione della ricchezza. Le ha anche combattute. Ha sconfitto per esempio la schiavitù e si è battuto contro i pregiudizi. Ma non ha veramente vinto. E' andato avanti. Ha superato i suoi limiti. Ha cercato di fare la cosa giusta per un sentimento di autoconservazione fortemente veicolato dalla riproduzione. Dal desiderio di fare in modo che le sofferenze patite non si trasferissero alle nuove generazioni. Quell'uomo ha protetto i suoi figli. E per farlo si è affidato al soluzionismo tecnologico. Di fatto ogni possibile causa di estinzione della razza umana, per quanto sia probabile, ricade proprio sull'evoluzione della stessa. Si pensi al rischio sul nucleare, alla sovrappopolazione in rapporto all'emergenza alimentare o idrica, si rifletta sul rischio ambientale. Il Mondo è flagellato da problemi. Ci sono guerre. Carestie. Genocidi. Povertà. Ci sono disuguaglianze assimilabili per molti versi alla schiavitù. La distrazione di massa ha alimentato un vortice di egoismo, opportunismo, affarismo e più in generale ha destrutturato quel conflitto etico e morale vivente sopra tutto nel secolo scorso. Adeguandolo alle proprie esigenze. Siamo giustificati e giustificabili per ogni nostra assenza. Errore. Incongruenza. Osservato sotto questo profilo siamo noi il rischio estinzione. Non il soluzionismo tecnologico. Tuttavia se quest'ultimo fosse a nostra immagine e somiglianza, se cioè proseguisse in questo trend potrebbe diventare il suprematismo tecnologico perché è facilmente credibile che in questo contesto, l'uomo di oggi che non è certo più nemmeno in parte quello del mito vitruviano, il mito dell'homo faber cioè di colui che con il suo positivismo dignitoso nobilita la razza umana modellandola sui più alti valori, accentrerebbe invece il potere che deriva dalla tecnologia secondo quello che è l'uso che oggi ne viene fatto. L'uomo di oggi non é l'ingegnoso Ulisse che risponde con audacia al vizio della superbia, portando con sé il conflitto interiore di Eraclito come il peso che è costretto a sostenere il Titano Atlante. Dobbiamo convivere con la necessità di dimenticarci che l'uomo di oggi sia parente del mito. Perché è l'uomo di oggi che non tiene conto degli obiettivi redistributivi e non ha nessun interesse a risolvere problemi strutturali affrontando la complessità degli stessi scevro dal proprio tornaconto o dalle ambizioni. I bisogni della collettività sono oggi un prodotto di uso e consumo imbrigliati in una rete fittissima di egoismo razionale, giustificato da logiche di economia, finanza, mercato. Quale migliore esempio di ciò si potrebbe citare se non l'attuale braccio di ferro sulle politiche degli scambi commerciali? Quest'uomo potrebbe trasformare tramite l'uso dell'Ai cioè che tocca in un estensione di sé a sua immagine e somiglianza come un Re Mida che invece di portare oro illude con il luccichio della pirite. Tutto ciò rappresenta purtroppo il negazionismo empirico della logica del lungoterminismo orientata cioè a una benevola visione che consentirebbe di recuperare il ruolo prioritario dell'umana volontà di sopravvivere a se stessi. Di vincere la sfida più ardua contro un avversario che non è esterno a noi. Ma interno. Che è cresciuto nelle nostre ossa, muscoli. Nella nostra mente. Si è nutrito delle paure e delle convinzioni. Lo osserviamo nello specchio e il riflesso dei nostri errori è quello che rimanda. Il nostro nemico siamo noi. Non è la guerra. Non è il cambiamento climatico. Non sono le scoperte della scienza. Non è il soluzionismo tecnologico. Questo è un rischio "umano" molto concreto e altrettanto probabile ma è anche il motivo per cui l'uomo non lo eviterà fermando lo sviluppo dell'Ai. Confrontarsi con il suo lato oscuro sarà con ogni probabilità il suo destino.

2 La paura dell'Ai attraverso il dubbio di non essere i piu' intelligenti.

Il nostro timore verso la Ai, secondo coloro che ci dicono di averne paura, nasce dalla considerazione che tutto ciò che noi abbiamo ottenuto come specie durante l'evoluzione sarebbe il risultato dell'applicazione della nostra risorsa principale: l'intelligenza. La macchina intelligente prima o poi ci supererebbe e noi non ci accorgeremmo di questa distanza perché saremmo incapaci di reagire. Ella quindi utilizzerebbe gli strumenti a disposizione per eliminarci, asservirci, strumentalizzarci o usarci al solo scopo di prendere il controllo. Esistono video esplicativi di questi scenari che sembrano dei teaser trailer dove giovanissimi attivisti nell'arco di pochi minuti ci spiegano come ad esempio potremmo essere ingannati dalla Ai che con l'arma atomica ci spingerebbe ad estinguerci trasformando la Terra in un deserto radioattivo. Tuttavia ognuno dei metodi che questi teorici dell'estinzione ritiene che l'Ai potrebbe usare contro di noi in realtà sono tutti quelli che noi useremmo per ucciderci. O che abbiamo già usato. E' possibile che noi opteremmo per una forma di aggressività tale se controllassimo le Ai finalizzate a questo scopo. Un Ai rappresenta una forma di vita antropologicamente diversa, quantunque sarebbe erede e prosecutrice di una conoscenza che trae origine dall'umano. E che però va molto oltre la stessa. Perché la nostra conoscenza dei misteri e della scienza è talmente bassa che anche solo volgendo lo sguardo al cosmo e all'Universo non arriva all'1%. Eppure siamo convinti che chi eredita quest'ultima si comporterebbe come noi. E' come dare a un altra forma di vita la copertina di un libro ed essere tanto arroganti da pensare che lo scriverebbe esattamente come lo faremmo noi al suo posto. Si rifletta anche solo sul fatto che un Ai evoluta non avrebbe i limiti imposti alle forme di vita al carbonio. Non sarebbe condizionata come lo siamo noi dalle leggi della fisica o della chimica. Potrebbe affrancarsi dalla Terra senza gli accorgimenti di cui noi abbiamo bisogno per sopravvivere anche solo per raggiungere la Luna. Eppure secondo alcuni teorici noi saremmo un tale problema per un Ai che quest'ultimo, dovrebbe prima di tutto toglierci di mezzo. E' la stessa assurda arroganza che spinge taluni a pensare che dovremmo avere paura degli extraterrestri perché ci sono civiltà evolute che non vedono l'ora di viaggiare attraverso le galassie per conquistare il nostro pianeta (!!!) e iniziare la guerra dei Mondi (!!!). Mentre a guardare ai risultati che abbiamo prodotto l'ipotesi più semplice potrebbe all'opposto essere che se una civiltà evoluta prendesse atto della nostra presenza forse non ci troverebbe interessanti. Forse semplicemente ci ignorerebbe perché quello che è grande per noi potrebbe essere infinitamente piccolo per altri. E lo stesso vale per l'Ai.

3 La paura dell'Ai per vietare il libero mercato e controllare i controllori.

Coloro che vedono nel suprematismo tecnologico un pericolo partono sempre dal concetto di soluzionismo tecnologico arrivando a ipotizzare società distopiche dove per effetto dell'irrinunciabilità e della dipendenza dalla tecnologia coloro che la controllano sarebbero, per effetto, i padroni del Mondo. E' una visione totalitarista che mette ancora una volta in rilievo la presunta volontà di un microcosmo riservato e facoltoso di un élite mondiale, di agire come una sorta di "Spectre" dei romanzi di James Bond in modo da alimentare il libero mercato a discapito delle regole. Anzi indebolendo l'apparato di coloro che creano, elaborano e promulgano tali regole, sovente le leggi, in modo tale da controllare il destino dell'umanità. Un po' come il burattinaio tira i fili dei burattini. In questo scenario il libero mercato diventa una leva per accentrare il potere, attraverso la ricchezza, nelle mani di pochissimi che poi la trasformano con la tecnologia in controllo totale. Premesso che questo è quanto accade già oggi con una buona parte del lobbismo, spostare l'attenzione su di un crollo antropologico tale per cui nasce una sorta di "Impero galattico" dalle ceneri della Repubblica per mano di un ristretto gruppo di persone (qui non c'è l'Imperatore) che sarebbero le big tech tralascia, nella sua ingenuità, una moltitudine di eccezioni fra le quali la competizione del mercato e il fatto di quanto sia davvero poco probabile che queste persone vadano d'amore e d'accordo alla conquista del Mondo. Tuttavia pur senza addentrarci in queste logiche del distruggere per ricostruire o controllare per non essere controllati la soluzione dei critici dell'Ai che temono il suprematismo tecnologico è una ricorso davvero massiccio alla regolamentazione di controllo sul soluzionismo tecnologico. Tali ipotesi di controllo si snodano genericamente su tre grandi linee. Il controllo sulla comunità scientifica, quello sulla finanza d'impresa quindi sull'imprenditoria e sui capitali per terminare in una sorta di controllo last minute sulla distribuzione dei prodotti a Intelligenza Artificiale, tenuto conto degli effetti di un monitoraggio continuo su quello che provocano alla cittadinanza destinataria degli stessi in tutto o in parte. Lo scopo della vigilanza interventista principalmente, sarebbe quello di evitare che da un lato le caratteristiche di condivisione e democrazia partecipativa della scienza non subiscano una sorta di condizionamento e quindi un effetto distorsivo che trasformerebbe la buona scienza in una cattiva scienza. Dove pochi sarebbero a conoscenza di questa evoluzione. Partendo dalla considerazione che l'evoluzione tecnologica è non solo sempre più rapida in termini di progresso ma anche vasta, cioè si sviluppa in ogni dove, la stessa diventerebbe così difficile da comprendere che si creerebbe un distacco tra la tecnologia in quanto tale e coloro che la utilizzano. Tale per cui chi controllerebbe a monte la produzione potrebbe decidere se e come accelerare o orientare finanche a rifiutare determinati sviluppi. Avendo quindi una tecnologia a immagine e somiglianza di pochi che finirebbero per manipolare anche la stessa vigilanza. Per queste motivazioni quasi tutti coloro che vogliono imporre modelli di controllo su ogni singolo passaggio che riguarda le Ai credono sia fondamentale cominciare ad agire anzitutto sulla convinzione che la tecnologia non necessariamente migliora la vita umana. Ecco il perché spesso assistiamo a un confronto che non è totalmente tenico-scientifico ma di base filosofica in particolar modo nel linguaggio. A volte persino molto psicologico. Pertanto l'equazione è che ci vogliono più regole, sempre più penetranti e sempre più allerta per contrastare la depoliticizzazione laddove la stessa è la strada maestra che porta a quel ristretto gruppo di persone che amano il libero mercato e vorrebbero / potrebbero decidere come, dove, quando e perché riguardo all'Ai. Pur volendo superare il dubbio circa il fatto che in nome della sicurezza e della prudenza si possano effettivamente disciplinare conoscenza e competenze a tal punto da gestire l'evoluzione dell'Ai questa impostazione rifiuta sistematicamente i benefici sotto l'egida del bene maggiore di impedire le conseguenze negative. Giudicando il nostro percorso evolutivo, come specie, inadeguato al libero arbitrio. Perlomeno in termini di scelte. Si devono ridurre quest'ultime a un percorso controllato burocraticamente dove tutto è ciò che deve sembrare rigettando a priori il sinallagma funzionale tra comunità e tecnologia. Questo si che sarebbe un precedente distopico. Il concetto di una ragione basata sulla tecnoscienza che accetti le implicazioni delle innovazioni come possibili futuri verrebbe ad essere scartato, per la prepotenza e preponderanza della dimensione valoriale attribuita alla politicizzazione totalizzante degli intenti. E di tutte quelle finalità che individuano la ragione nello scopo di ciò che viene dopo. Secondo il celebre scrittore P. K. Dick il metodo domino si fonda sull'assunto che le persone credono in ciò in cui crede il loro gruppo di appartenenza.

4 La paura dell'Ai é un bel business: chi guadagna e come a spaventarci il più possibile.

Tutto ciò è il solito e già visto desiderio di ingabbiare il futuro sotto un idea di autocontrollo. Non si può nemmeno prescindere dal fatto che buona parte degli attori che predicano questa forma di sicurezza sulla Ai per vincere la resistenza e avere ragione hanno abilmente creato un paradigma non dissimile da quello già individuato in precedenza. Essi infatti temono di essere tacciati di non avere esperienza pratica. Quindi giocano d'anticipo, come si fa negli scacchi guardando avanti. Da un lato qualificano l'Ai come un rischio esistenziale però non lo hanno mai affrontato. E' un po' come essere una società che parla di sicurezza informatica senza avere però mai debellato un virus. Per scongiurare questa critica si sono inventati che se ti sbagli muori. Cioè se con l'Ai commetti un errore non ci sarà una seconda possibilità. Il primo è anche l'ultimo. Insomma è timore dell'ignoto. Hanno trovato un super cattivo poco conosciuto, che può mettere paura davvero a tanti e dietro al concetto di sicurezza ci hanno infilato il fatto che basta un errore ed è fatale. Una posizione utile più che interessante. E in realtà pericolosa. Perché se effettivamente le Ai fossero problematiche affrontarle in questo modo significa indebolire la logica con cui il pericolo potrebbe essere gestito. Coloro che vogliono proteggerci cercando in parte di ingannarci per convincerci. Inventarsi un rischio che non c'è sotto forma di mentite spoglie non è tanto diverso dalla celebre favola di "al lupo, al lupo". Questo è straordinariamente umano. Buona parte di questi soggetti poi attorno al concetto di sicurezza e controllo creano le loro opportunità di lavoro adoperandosi attraverso estensioni molto più profit di queste concettualità. Il che comporta anche un potenziale conflitto d'interessi. Pur se animato da nobili intenzioni. Quasi tutti i pensatori che propongono queste soluzioni basate su controlli a tappeto e in ogni dove hanno cominciato il loro viaggio di convincimento / terrore parafrasando su scacchi, Go! e altri giochi dove le Ai hanno superato gli umani, perché visivamente sono giochi intesi dalla collettività come intelligenti. Quindi hanno suggerito che il fatto di essere superati in queste competizioni dalle Ai sia sinonimo di pericolo. Come abili prestigiatori hanno puntato su un prestigio a misura di convincimento dell'uomo medio. Non solo, un attento lettore "scartabellando" tra i vari link della fine del mondo made in Ai potrebbe accorgersi che chi li scrive usa più o meno sempre la stessa cifra letteraria o se vogliamo il medesimo schema. Cominciano con il definire un ambito. Per esempio la sicurezza informatica. E con una buona dose di esempi provano a stabilire un rapporto empatico con il lettore. Bisogna fare in modo che pensi che possa capitare anche a lui. Quindi si cercano elementi della consuetudine nella vita di tutti i giorni. Un esempio in termini di sicurezza giacché è noto che le truffe sono conosciute da parecchi sono i risparmi. Così il lettore pensa che i suoi sudati averi sul conto corrente sono a rischio di un nuovo e super potente, incontrollabile e irrintracciabile ladrone informatico modello Lupin 3.0. A sto punto lo terrorizzano per bene. Tanto sanno benissimo che sull'Ai il 90% non ha cognizioni di causa e viaggia su credenze molto approssimative. Quando lo hanno spaventato facendogli credere che da un momento all'altro l'Ai cattiva gli svuota il conto corrente (cosa se ne faccia poi l'Ai dei soldoni è un mistero, andrà a prendersi un cocktail ai Caraibi con altre Ai?) spostano l'articoletto su qualche elemento giustificativo infilandoci termini che servono per simulare che chi parla sa bene cosa fare e cosa succede nel farlo. Un po' come l'insegnate di scuola guida che prima ti dice di non andare sul marciapiede e poi ti spiega cos'è il freno a mano. Abbiamo sempre bisogno di qualcuno che ci insegna come si legge l'orologio.. Ovviamente c'è qualche termine in inglese perché ormai dai tempi delle offerte fregatura nella telefonia fanno scena, trasmettono la sensazione che tutto sia più professionale. E infine dopo averti praticamente spiegato niente e terrorizzato molto sparacchiano qualche ipotesi di soluzione. Che sono sempre gli stessi paradigmi di supervisione, controllo, monitoraggio, blocco, ecc. a volte meglio dettagliati perché magari da qualche parte hanno trovato che qualcuno ha sviluppato un metodo apparentemente più efficace e quindi lo fanno proprio nell'alveo del convincimento. Naturalmente, fateci sempre caso se volete approfondire gli Autori quasi sempre lavorano per società che ne occupano, associazioni, o essi stessi offrono la propria consulenza, sono autori di libri ed altro. Insomma, guarda caso se vuoi sopravvivere all'Ai devi pagare loro, direttamente o indirettamente. Questo modo da venditori evocare l'orrore, sfruttando la grandezza dell'immaginazione e la pochezza della formazione culturale tecnologica delle masse mette solo alla prova la capacità di resistenza del lettore. Fino a che punto cioè egli è in grado di reggere allo spettacolo della paura che questi Autori si dilettano a produrre costantemente cercando quella leva da veri e propri epicurei del terrore che finalmente faccia crollare le difese dei malcapitati. O convinca in questa marea di articoli fotocopia le istituzioni a dargli retta. E' solo una macchina del convincimento. Riflettete bene prima, cari lettori, e rammentate una vecchia ma fondamentale massima: "Timeo Danaos et dona ferentes". Nel novero delle prove di comportamenti più pericolosi vengono spesso condivisi degli esempi tratti dagli addestramenti delle principali Ai da parte di un ristretto numero di note società. Esempi che dimostrerebbero la tendenza di alcune Ai, se messe alla prova ad autoconservarsi, giustificarsi, ingannare o provare ad evitare i supervisori. Comportandosi in maniera umana e come tale pericolosa. Spesso si punta l'indice sul fatto che gli addestramenti dell'Ai non sarebbero in grado di evitare quella parte della cognizione di causa rappresentata dai pregiudizi ("bias") di cui specialmente la nostra formazione umana è portatrice sana. Pur se è doveroso sottolineare come episodi problematici e per alcuni versi inquietanti se ne sono in effetti verificati tra quelli perlomeno noti e possiamo agevolmente ipotizzare anche tra quelli di non pubblico dominio questo ragionamento di fondo porta ad ottenere due risultati entrambi negativizzanti per una democratica partecipazione ad un procedimento decisionale nella sicurezza dell'Ai. Il primo è che sono eventi riferiti da laboratori di ricerca situati presso società che hanno in essere numerosissime attività di sviluppo. C'è un distacco tra colui il quale lavora giorno dopo giorno ad una tecnologia e il racconto reso sul suo operato. E' sempre stato così. Una dispersione tale per cui si potrebbe affermare che certuni "incidenti di percorso" si debbano verificare proprio per poter evitare, un domani, danni collaterali. In quest'ottica la riproduzione di notizie in chiave whistleblowers o, in parte, social, cioè pensata per una serie di supporti divulgativi che non sono proprio in forma imparziale, corre il rischio di essere fuorviante. Scientificamente inutile. Solo emotivamente coinvolgente. Un altra conseguenza è che chi ha una forte dimestichezza dovuta allo studio e alla pratica sulla replica delle reti neurali per le macchine intelligenti, a cominciare dal machine learning, si potrebbe stancare di leggere saggistica on demand da parte di chi non è al suo livello per competenze tanto pratiche quanto teoriche. Pertanto smetterebbe di prestare attenzione. Avremmo cioè degli straordinari scienziati o ricercatori, come ad esempio ingegneri coinvolti in programmi avveniristici, che scelgono di evitare quella parte di realtà contemporanea portatrice di realismo perché troppo potenzialmente indotto e come tale artificiale. Che sottrae loro solo tempo. Nella storia questo è stato uno dei principali problemi che hanno portato, successivamente, a sviluppare tecnologie paradossalmente non sicure come si era cercato proprio di evitare. Quasi tutti i modelli di Ai utilizzano esclusivamente il deep learning come metodologia per l'addestramento il che, secondo i teorici della pericolosità, creerebbe potenziali rischi. In particolare per via dell'allineamento cioè la possibilità, ricercata dagli sviluppatori, che l'Ai di fronte ad eventuali problemi non risolvibili in termini di accesso a informazioni predefinite o comprensibili per comune esperienza dai dataset prenda decisioni operative come se fosse umana. In linea ipotetica nel farlo l'Ai dovrebbe ispirarsi ai più alti valori umani, per esempio preservare la vita. Ma non è detto che questo accada. Di qui anche l'importanza, come visto in precedenza, di cercare dove possibile di eliminare i pregiudizi ("bias"). Bisogna pur comprendere un paradigma di logica: se noi comandassimo a una Ai di produrre quanti più chiodi possibili utilizzando qualunque materiale a disposizione e gli dessimo i mezzi per farlo, distruggerebbe la Terra per portare a compimento siffatto compito? I parametri servono a questo. Quindi non necessariamente è solo una questione di pregiudizi o di emulazione del ragionamento umano. Detto ciò occorre fare una precisazione: in questo scritto, da un punto di vista tecnico, c'è l'ovvia e ricercata sintesi laddove bisogna prendere atto di un altro limite nell'affrontare il problema della potenziale sicurezza delle Ai. Infatti, buona parte degli articoli sulle Ai vengono derubricati a inutili per via del fatto che qualcuno con competenze (e credenze) tecniche se non vede un centinaio di pagine di spiegazioni su cosa significhi esattamente, secondo la miglior definizione della scienza contemporanea, ogni singola affermazione, non prende in considerazione il contenuto perché afferma che è inesatto. Per farla breve gli articoli sulla Ai sono tantissimi come tantissimi sono i contributi e vengono sistematicamente fatti oggetto di una serie di frustrazioni da parte di chi parte dal presupposto che il suo scritto è più completo perché lui è preparato. E' un po' come quello che rivolgendosi ad un altro gli dice: "il mondo è diviso in due tipi di persone, ci sono i geni e poi ci sono quelli che credono di essere un genio.. per fortuna che io sono un genio!" Quindi negli attacchi ai vari contributi ci sarà sempre chi dice che un modello non è questo, un agente non è questo, il deep learning non è questo, il machine learning non è questo e insomma oltre questa muraglia cinese di "non è questo" c'è l'ignoto. Come tale l'Autore/Autrice avrà sempre parlato o scritto di cose che non conosce abbastanza. E' più che altro un bel gioco ad esclusione per invitare a cena solo coloro che si vuole siedano alla propria tavola. Una pratica per creare think tank o organizzazioni di volenterosi che decidono quali carte scartare dal mazzo e guarda caso i rinunciabili sono sempre coloro che esercitano il libero convincimento. Fai parte della squadra di persone preparate solo se accetti pedissequamente le regole e quindi parteggi in tutto e per tutto per la squadra. Questo provoca appiattimento dei messaggi che provengono da gruppi di interesse ma anche il rafforzativo della loro ripetizione tale per cui qualche legislatore vedendo che "tutti dicono la stessa cosa" può anche prenderla per buona. In realtà, tornando ai supercritici degli episodi che rappresentano il preambolo all'avvento di Terminator, se chiediamo a una macchina intelligente di agire secondo i valori della razza umana gli stiamo proprio chiedendo di fare propria la storia di quei valori che incorpora. L'averli più volte violati, depressi, negati, esclusi. Tutti i nostri traguardi, come scelte di comportamento, implicano che abbiamo sbagliato. Perché il punto di partenza è proprio quello che la razza umana non si è mai negata il diritto di avere una seconda (e anche di più) chance. E' stato detto che se non comprendi la storia sei condannato a riviverla. L'abbiamo fatto davvero tante volte. Ma davvero pretendiamo di addestrare una macchina intelligente e di controllarla con l'ambizione che ella ragioni come noi senza essere nemmeno in minima parte noi? Il dott. Frankenstein quando si rivolge a colei che chiama "mia creatura" comprende, durante uno dei più celebri confronti, che la stessa è incline alla violenza perché simile all'uomo di cui ha la forma e capisce che sta mentendo allo scopo di avere una compagna promettendo pace ma ben desiderosa di fare la guerra. Sulla scorta di queste infantili preoccupazioni i fautori dell'Ai come pericolo esistenziale hanno ottenuto con il loro delirio di supercontrollo una reazione tipicamente societaria e cioè che i grandi e più noti produttori, che sono costantemente oggetto dell'attenzione di migliaia di organizzazioni autoproclamatisi per la sicurezza dell'Ai, stanno separando il proprio prodotto in due: da una parte l'open source che è quello su cui ha lavorato oltre il 90% di coloro che negli ultimi 3 anni si è impratichito di questa tecnologia e dall'altra un ondivago (e riservato) closed source più all'avanguardia. Il primo potrebbe essere aperto anche all'implementazione da parte degli utenti essendo destinato alla vendita di massa (pur se in diversi formati, pacchetti, livelli, ecc.) mentre il secondo resterebbe confinato a progetti avveniristici fra cui la super intelligenza. Quindi non più un allineamento ma qualcosa che va oltre l'umano limite. Il tutto senza prendere in considerazione la situazione per quanto riguarda la produzione dei chipset di Ai senza i quali è molto difficile ottenere risultati davvero performanti. Su questo argomento ahimè si gioca un pericoloso risiko geopolitico internazionale che coinvolge nazioni strategicamente fondamentali. Ad esempio Taiwan. I chip in questione sono difficilissimi da realizzare e le fabbriche che producono i macchinari per realizzarli o che utilizzandoli producono il chip finale sono poche nel mondo. Sono costosissime (nell'ottica di molti miliardi sia per il realizzo che per la manutenzione). Poche nazioni se le possono davvero permettere. Inoltre le Ai consumano, a regime di massima potenza, tantissima energia tanto più si procede verso l'allineamento e la super intelligenza. Sono necessari multi-gigawatt di consumo il che rappresenta un serissimo problema sia per l'impatto ambientale sia per il consumo di acqua. Le Nazioni le cui corporation sono più in competizione difficilmente produrranno questi centri (data center) lontano dalla nazione stessa, cioè con decentramento o outsourcing per via della sicurezza e del controllo che dovranno essere costanti (ma anche per la riservatezza della tecnologia). Il che porta a considerare che il rischio più immediato è rappresentato dai benefici che le nazioni che sono davanti in questa corsa all'Ai traggono dalla stessa rispetto ai problemi che gli produrrà in casa. Capiamocela: i chip costosissimi, l'impatto ambientale, il consumo di risorse varranno veramente la pena per un prodotto che dovrà essere ceduto quindi a fronte di un pagamento altri non patiranno i danni collaterali mentre nelle sue applicazioni più riservate (e potenti) finisce per scontrarsi con la violazione isterica di un diluvio di imposizioni sulla sicurezza? Non è così scontato. Ci sono già stati dei c.d. inverni dell'Ai.

5 La paura dell'Ai si vince con il coraggio dei giusti e la ragione dei virtuosi: un passo alla volta.

In un mio precedente articolo ho puntato l'indice, come da tempo sostengo, verso una burocratizzazione esasperante che non ha caso ha portato a un lieve attenuamento delle disposizioni dell'Ai Act Europeo con l'introduzione di un codice di condotta quale espediente per evitare (la sterzata dell'ultimo miglio) gli eccessi di cui plurime parti si erano resi conto e che aveva portato alla condivisibile protesta di numerose società e gruppi di imprese. Il tempo è stato galantuomo e un sempre maggior numero di ex. fautori del supercontrollo guarda caso hanno iniziato a pensarla diversamente. Archiviati gli allarmismi sono passati dall'altra parte della barricata dove noi moderati (e scettici) ci eravamo collocati secondo il vecchio adagio "wait & see". Ma inascoltati. Fino ad oggi. Se non altro questa esperienza ci potrebbe offrire un altra cosa da insegnare bene alle Ai: diffidare dei voltagabbana cioè colui che per utilità e personalismi si rimangia tutto a va dove tira meglio il vento. Finalmente invece ovunque si sta prendendo in considerazione che le proposte di monitoraggio, comunicazione, supervisione, revisione, indagine, stop & go, autorizzazioni, ecc. finiscono per criminalizzare ogni singolo movimento, virgola, anche solo caricamento o download di tutto ciò che sarebbe un modello aperto a meno che non venga assolta a una trafila delirante di passaggi discutibilmente utili ma frutto di una vera e propria ossessione non per trovare il problema ma solo per indagarlo. Chi sostiene ciò semplicemente o ha un interesse economico e sta cercando di costruire una sorta di macromacchina guardiana oppure più semplicemente non vuole le Ai. Sotto l'egida della sicurezza sta boicottando questa tecnologia. Perché vuole il controllo dei controllori ("who watch the watchers?") per farci tanti soldi oppure perché è sufficientemente illuso che il reset sia ancora la soluzione migliore. Questo concetto di sicurezza è profondamente non solo sbagliato ma inutile. Non fermerà la tendenza al soluzionismo tecnologico e anzi, provocherà esattamente la nascita del suprematismo perché stimolerà le élite a prendere contromisure nell'ottica di salvaguardare il proprio business e la competizione con altri players. Si rammenti che la strada per l'inferno è lastricata di buone intenzioni e la sensazione è che i pochi che tirano le fila dietro al macro concetto di sicurezza abbiano interessi legati alle Ai. Mentre un esercito di fiduciari che credono nella causa della sicurezza rappresentano quella manodopera utile più che altro per sembrare dall'esterno qualcosa di diverso: il volto moderato di un ristretto sistema in realtà ben più intransigente e nascosto. Chi sta avanti crede di agire in modo probo ed è convinto di essere dalla parte giusta della storia ma viene manipolato dallo spettro della paura esistenziale dell'Ai che offre a generazioni distratte qualcosa in cui credere. Sfruttando la necessità di fare la cosa giusta. L'Autore di questo scritto crede fermamente che l'Ai sia una tecnologia trasformativa utilissima per il genere umano. Forse salvifica per molti versi. Temo l'uso che l'uomo potrebbe farne. E ritengo che il primo pericolo di quell'uso nasca proprio e paradossalmente dal grande inganno della sicurezza come viene promossa oggi. Stiamo cadendo in una elaborata rete. Ciò che disappare è un inganno che sta facendo presa. Io credo nella necessità di dotarci di una sicurezza ma di carattere completamente diverso da quella che fino ad oggi è stata insistentemente promossa ai vari policymakers, a cominciare da ciò che hanno inculcato all'Europa, imbottita di pregiudizi che se li è digeriti tutti senza porsi il problema di cosa debba essere la sicurezza tecnologica e come andrebbe impostata. Abbandonando anzitutto l'idea contemporanea che possano esportare nell'Ai le barriere esterne previste per la cybersecurity in favore di una visione che comincia il suo viaggio traendo spunto dalla fisica quantistica il cui studio sta rivelando non solo un architettura del Tutto davvero sorprendente ma anche la capacità conservativa di rimodellazione. Non è questo il testo, per contenuti, per affrontare questa impostazione ma ci tenevo a significare quanto la mia idea di sicurezza fosse davvero distante ma non per questo meno impegnativa rispetto al monstrum burocratico attuale.  La necessità di fondo non è mai stata quella di creare il pulsante di spegnimento. Il punto è chi ha il potere di premerlo e secondo quale procedura. Perché quel pulsante mette solo un diverso tipo potere nelle dita di quella mano. E qualcuno, credetemi, che lo vuole.

Avv. Marco Solferini Studio Legale Solferini:
Website
Linkedin