Skip to main content

Tag: ia

Doomsday Clock – Intelligenza Artificiale: le macchine ci domineranno? – Guerrilla Radio

Nella quarta puntata di Doomsday Clock, la rubrica che conta i giorni che ci restano prima dell’apocalisse, ci occupiamo di Intelligenza Artificiale e delle inquietudini ad essa legate. Davanti alle meraviglie dell’AI generativa, predisposti e addomesticati da una sterminata produzione letteraria e cinematografica di Science Fiction, a dover un giorno ragionare con una macchina che sembra in qualche modo umana, abbiamo tutti la sensazione di trovarci di fronte a una grande accelerazione tecnologica e, quindi, ad un grande potenziale cambiamento. Davanti a strumenti così potenti che migliorano le proprie performance ogni pochi mesi, alle legittime speranze verso i campi di applicazione più utili per la collettività, si affiancano preoccupazioni riguardo l’uso, positivo o meno, che saremo in grado di farne. Per questo sottoporremo all’ospite di stasera alcuni di questi interrogativi:
Le Intelligenze Artificiali assumeranno mai un cammino evolutivo proprio in grado di sfuggire al nostro controllo? E’ davvero possibile la singolarità?
Con molte delle funzioni impiegatizie automatizzate grazie all’IA sarà inevitabile una spaventosa crisi occupazionale nel settore dei servizi?
Quando è una macchina a trovare dei risultati scientifici al posto dello scienziato, come cambia il nostro rapporto con la conoscenza? Cos’è l’effetto Black Box?
Quali sono i pericoli sulla manipolazione delle news e sui criteri con cui vengono diffusi falsi potenzialmente pericolosi?
Ci risponderà Stefano Quintarelli: informatico, già pioniere dell’Internet italiana, divulgatore, saggista, ex-deputato, membro del Gruppo di esperti di alto livello sull’Intelligenza Artificiale della Commissione Europea, membro del comitato guida del UN-Sustainable Development Solutions Network e presidente dell’Advisory Group on Advanced Technologies for Trade and Transport per le Nazioni Unite
(CEFACT). Tra i suoi saggi ricordiamo, nel 2020, Intelligenza artificiale. Cos’è davvero, come funziona, che effetti avrà con prefazione di Piero Angela e, nel 2023, Internet fatta a pezzi: Sovranità digitale, nazionalismi e big tech scritto con Vittorio Bertola. In attesa di muovere le lancette del nostro orologio metaforico e forse scoprire, malgrado tutto, di dover ancora avere più paura della stupidità umana che
dell’Intelligenza Artificiale.

Restiamo umani contro l’IA

Per chi non ha trascorso gli ultimi decenni in una caverna platonica, il dato è semplice: l’Intelligenza Artificiale è ormai realtà. Che si tratti di domotica, veicoli a guida autonoma o creatori di testi, gli impieghi dell’IA sono diffusi a tutte le sfere dell’attività umana, professionale e relazionale. Ma si tratta di un rischio o di un’opportunità? Possiamo credere a un futuro in cui l’IA, nella migliore utopia marxiana, conceda all’Uomo sempre più tempo per la cura di sé, o dobbiamo invece temere un’IA in grado di sostituirsi a tutto ciò che rende la vita degna di essere vissuta? Ne parliamo con Giuseppe Girgenti, professore associato all’Università Vita-Salute San Raffaele di Milano e autore, insieme a Mauro Crippa, del saggio Umano poco umano. Esercizi spirituali contro l’Intelligenza Artificiale, appena uscito e già protagonista di un vivace dibattito filosofico.

L’intelligenza artificiale è un’arma di distruzione di massa: e gli USA si rifiutano di regolarla

Ma quante storie con questa intelligenza artificiale, è solo una tecnologia.

Giusto, è solo una tecnologia: come la bomba atomica, il sarin, o anche l’ingegneria genetica, o l’energia prodotta da fonti fossili.

Sono solo tecnologie, che sarà mai…

Lo sviluppo industriale e scientifico degli ultimi due secoli ha comportato benefici straordinari, ma non sono gratis. Grazie proprio a questo incredibile sviluppo oggi infatti l’essere umano e le forme specifiche di organizzazione politica, sociale ed economica di cui si è dotato, ha il potere di distruggere definitivamente, se non proprio l’intero pianeta che ci ospita, di sicuro una fetta consistente della vita che lo anima, a partire in particolare dalla nostra stessa specie. Come dice l’uomo ragno, “da un grande potere, derivano grandi responsabilità”.

Saremo abbastanza adulti e consapevoli da potercele accollare?

A giudicare dal fanatismo ideologico nel quale ci hanno catapultato cinquant’anni di controrivoluzione neoliberista, sembrerebbe proprio di no. Ai piani bassi, la profonda trasformazione antropologica imposta dalla controrivoluzione ha fatto si che la nostra capacità di lettura dei fenomeni e dei processi che condizionano la nostra vita venisse sistematicamente compromessa dal pervadere di una inscalfibile superstizione di massa: le cose si aggiusteranno da sole, grazie alla mano invisibile del mercato.

O comunque, anche se non si aggiusteranno, ha ragione TINA, la nostra amica immaginaria collettiva, che ci insegna che There Is No Alternative. Tocca farsi il segno del dollaro, al posto di quello della croce e avere fede nell’intervento salvifico di un entità immaginaria. Ai piani alti invece, dove in realtà che un’alternativa c’è sempre: lo sanno benissimo e invece che sulla leggenda della mano invisibile,preferiscono concentrarsi sulla realtà concretissima di chi detiene il potere e per farci cosa, semplicemente del destino dell’umanità e della vita tutta, non hanno tempo di occuparsene. Sono troppo presi ad accumulare quanta più ricchezza e quanto più potere nel minor tempo possibile e le conseguenze, per quanto devastanti, vengono catalogate semplicemente sotto la voce “effetti collaterali”.

L’intelligenza artificiale non fa eccezione.

Senza entrare nei dettagli di un dibattito tecnico che di scientifico mi sembra abbia pochino, da qualunque punto di vista la si guardi, sul tema esistono sostanzialmente due opzioni:

1 – L’intelligenza artificiale è un bel giochino, va bene, ma è solo una tecnologia tra le tante, con un impatto limitato. Quindi anche i rischi che comporta sono limitati. e quindi anche basta con tutto questo hype ingiustificato.

2 – L’intelligenza artificiale comporta una vera e propria rivoluzione tecnologica, in grado di modificare in profondità sostanzialmente tutto quello che facciamo e come lo facciamo. In tal caso, come la giri la giri, comporta anche rischi enormi. sostanzialmente, incalcolabili.

Noi, molto onestamente, non siamo minimamente in grado di dirvi quale delle due opzioni sia quella giusta. Possiamo però fare una semplicissima deduzione logica: se quella giusta è l’opzione numero 2, siamo letteralmente nella merda.

Voi, in tutta sincerità, ve la sentite di accollarvi il rischio?

18 luglio 2023, New York, sede delle Nazioni Unite.

Dopo lunghe ed estenuanti trattative, per la prima volta in assoluto il Consiglio di Sicurezza si riunisce per affrontare un tema avvertito da più parti come sempre più urgente: i rischi legati all’intelligenza artificiale applicata ai sistemi d’arma. A promuovere l’incontro, la Cina: da 18 mesi. La prima volta che i funzionari cinesi avevano provato a portare il tema alle nazioni unite infatti era il dicembre 2021. Il Ministero degli Esteri aveva da poco pubblicato un documento ufficiale per la “regolazione della applicazioni militari dell’intelligenza artificiale”: dal momento che la pace e lo sviluppo nel mondo si trovano ad affrontare sfide dalle molteplici sfaccettature”, si legge nel documento, “i diversi paesi dovrebbero elaborare una visione sulla sicurezza comune, globale, cooperativa e sostenibile, e cercare il consenso sulla regolamentazione delle applicazioni militari dell’IA attraverso il dialogo e la cooperazione e stabilire un regime di governance efficace, al fine di prevenire danni gravi o addirittura disastri causati dalle applicazioni militari dell’Iintelligenza artificiale”. Soltanto una governance comune globale e cooperativa, sostengono i cinesi, può aiutarci a “prevenire e gestire i potenziali rischi, promuovere la fiducia reciproca tra i paesi e prevenire così una nuova pericolosissima corsa agli armamenti”. Il rischio, in particolare, riguarda eventuali sistemi di risposta automatica.

Non è un problema del tutto inedito

Sistemi di allarme preventivo automatizzati infatti sono sempre esistiti. Come il celebre Oko, il sofisticato sistema di allerta precoce sviluppato a partire dai primi anni ‘70 e che ha rischiato di catapultarci in un conflitto nucleare, per sbaglio. Era il settembre del 1983: l’Oko segnala il lancio di una batteria di ben cinque missili intercontinentali. Il protocollo prevedeva di riportare l’allerta immediatamente ai piani alti della catena di comando, ma secondo la dottrina della “distruzione reciproca assicurata”, la risposta sarebbe dovuta essere un contrattacco nucleare immediato obbligatorio contro gli USA. Fortunatamente però quel giorno il compito di trasmettere le allerte del sistema era toccato al colonnello Stanislav Petrov. Sin da subito, Petrov pensò a un errore: era convinto che in caso di primo attacco nucleare gli USA avrebbero lanciato contemporaneamente centinaia di missili nel tentativo di annientare la capacità controffensiva sovietica, quindi decise di non riportare l’allarme ai superiori, ed ebbe ragione.

Nessun missile intercontinentale toccò mai il suolo sovietico. Petrov aveva evitato la guerra nucleare. Ma nessuno gli disse grazie, anzi…

Premiarlo, infatti, avrebbe comportato riconoscere ufficialmente le carenze del sistema. Poco dopo, fu costretto a ritirarsi in pensione prima del tempo per un esaurimento nervoso. Il timore espresso dai cinesi, appunto, è che si vada verso una situazione dove non ci sarà più un Petrov a salvarci dall’estinzione, e che quindi è urgente mettere dei paletti condivisi.

Ad aumentare a dismisura i rischi di incidente, infatti, è l’inizio dell’era dei missili ipersonici, che con la loro velocità fino a dodici volte superiore a quella del suono, accorciano in maniera drastica il tempo utile per consentire un eventuale intervento umano. Una minaccia esistenziale, la cui risoluzione non può più essere rinviata. È essenziale garantire il controllo umano per tutti i sistemi d’arma abilitati all’intelligenza artificiale”, ha affermato di fronte al consiglio di sicurezza l’ambasciatore cinese presso le Nazioni Unite, sottolineando che “questo controllo deve essere sufficiente, efficace e responsabile”

Ma la partita militare è solo una parte del problema

Se davvero l’intelligenza artificiale è questa rivoluzione epocale di cui tutti parlano, il suo potenziale distruttivo necessariamente va ben oltre il campo di battaglia e il problema di una governance “globale, cooperativa e sostenibile” riguarda necessariamente anche ben altri ambiti. Ed è proprio per rispondere a questa esigenza che nel luglio scorso a Nishan, nella provincia orientale dello Shandong, i cinesi hanno invitato tutti gli stati del pianeta, a prescindere dal loro orientamente politico, a partecipare alla World Internet Conference. Tutti i paesi, grandi o piccoli, forti o deboli, ricchi o poveri”, avrebbe dichiarato il vice direttore del dipartimento per il controllo delle armi del Ministero degli Esteri, “hanno pari diritti di partecipare alla governance globale dell’IA”.

Il Nord Globale, però, ha risposto picche. Non si sono manco presentati: erano occupati a organizzare un altro simposio, tutto loro. Si dovrebbe tenere il prossimo novembre nel Regno Unito. Ma i cinesi, come d’altronde una lunga serie di altri Paesi ritenuti dall’Occidente globale dei pariah, non sono stati invitati.

Una follia, che ha spinto addirittura i ricercatori dell’occidentalissimo e liberalissimo Oxford Internet Institute a scrivere una lettera aperta di protesta al Financial Times: perchè escludere la Cina dal summit sull’intelligenza artificiale sarebbe un errore”, si intitola. Ribadisce quello che dovrebbe essere ovvio, ma che in questo clima avvelenato da guerra ibrida globale, evidentemente, non lo è più: primo”, scrivono, “i rischi posti dai sistemi di intelligenza artificiale trascendono i confini nazionali. senza il coinvolgimento della Cina, qualsiasi accordo internazionale teso a contrastarli sarebbe del tutto futile. Prendiamo ad esempio l’utilizzo dell’intelligenza artificiale per lo sviluppo di armi chimiche. Se un accordo sulle migliori pratiche per prevenire ciò escludesse la Cina, gli altri paesi potrebbero semplicemente utilizzare i sistemi di intelligenza artificiale cinesi per questo tipo di scopi dannosi”. “Secondo”, continuano, “qualsiasi accordo internazionale, se verrà percepito come un vantaggio per la Cina, nopn potrà che essere respinto, in particolare negli Stati Uniti. Fino ad oggi, infatti, gli sforzi esistenti per introdurre una regolamentazione sono stati vanificati dai timori di perdere una “corsa agli armamenti dell’intelligenza artificiale” a favore della Cina. Avere la Cina al tavolo riduce questo rischio, poiché sarà vincolata dallo stesso accordo”. Per finire, “In terzo luogo, mentre gli Stati Uniti e il Regno Unito hanno in gran parte ritardato la regolamentazione dell’intelligenza artificiale, la Cina è stata proattiva. Di fatto è l’unico paese a promulgare regolamenti specificamente mirati all’intelligenza artificiale generativa. Questa esperienza normativa sarebbe preziosa per indirizzare una politica ben progettata al vertice sull’intelligenza artificiale del Regno Unito”.


L’esclusione della Cina non è l’unico aspetto del summit a sdubbiare la comunità accademica. Secondo Wendy Hall dell’Università di Southampton, riporta sempre il Financial Times, il problema principale è costituito dal fatto che “i consigli proverranno principalmente dalle grandi aziende tecnologiche stesse”.

““È giusto”, si chiede la Hall, “che le persone che traggono profitto da questa rivoluzione siano le stesse che progettano la sua regolamentazione?”. Ed ecco così svelata la vera natura del conflitto insanabile tra come intende la governance dell’intelligenza artificiale la Cina, e come la intendono i paesi del Nord Globale. Come ricorda sempre un ricercatore di quella temibile cellula dell’internazionale bolscevica che è l’Oxford Internet Institute, in un articolo pubblicato ieri su Asia Times: “il 15 agosto 2023, in Cina è entrata in vigore una nuova legge per la regolazione dell’intelligenza artificiale generativa. è solo l’ultimo di una lunga serie di sforzi mirati a governare diversi aspetti dell’intelligenza artificiale, ed è la prima legge al mondo specificatamente rivolta all’intelligenza artificiale generativa”. La legge introduce alcune restrizioni importanti per le società che offrono questo genere di servizi, in particolare in relazione alla natura dei dati utilizzati per addestrare gli algoritmi. Sin dalla fine del 2020, la Cina ha intrapreso una lunga battaglia contro il consolidamento di un oligopolio da parte dei grandi gruppi tecnologici, rafforzando l’azione della sua agenzia antitrust, e sopratutto ponendo limiti chiari allo sfruttamento dei dati personali a fini commerciali. Un approccio molto simile a quello adottato dall’Unione Europea a partire dall’introduzione del GDPR. Con la differenza che queste restrizioni all’Europa non sono costate niente, visto che non ha sue proprie aziende competitive nel settore. La Cina invece, nonostante la guerra tecnologica ingaggiata nei suoi confronti dagli USA, ha deciso di porre alcuni paletti precisi allo strapotere delle principali aziende tecnologiche, in nome della tutela dei diritti degli utenti. Come ricorda anche l’Economist: “Un modo in cui le aziende cinesi di intelligenza artificiale potrebbero essere frenate è limitando i dati personali resi disponibili per addestrare i loro modelli di intelligenza artificiale”.

L’economist ricorda come “Il partito gestisce lo stato di sorveglianza di massa più sofisticato del mondo, e fino a poco tempo fa, anche le aziende tecnologiche cinesi erano in grado di sfruttare i dati personali. Ma quest’era sembra ormai essere definitivamente tramontata. Ora le aziende che vogliono utilizzare determinati tipi di dati personali devono ottenere prima il consenso. E L’anno scorso la CAC ha multato Didi Global, una società di ride-sharing, per l’equivalente di 1,2 miliardi di dollari per aver raccolto e gestito illegalmente i dati degli utenti”. Ora, con questa ultima legge sull’intelligenza artificiale, conclude l’economist, “le aziende sarebbero responsabili della tutela delle informazioni personali degli utenti”. Esattamente il contrario, in soldoni, di quanto avvenuto negli USA, dove con la scusa del laissez-faire, semplicemente si è deciso di dare carta bianca ai giganti tecnologici a spese dei diritti degli utenti con la sola finalità di avvantaggiare la concentrazione del potere nelle mani appunto di un oligopolio adeguatamente foraggiato in grado di vincere la competizione contro i gruppi cinesi e anche procedere indisturbato alla colonizzazione digitale del vecchio continente. Ma come sottolinea sempre lo stesso articolo su Asia Times, “Un approccio normativo più rigido, potrebbe rivelarsi economicamente impegnativo nel breve termine, ma sarà essenziale per mitigare i danni agli individui, e anche per mantenere la stabilità sociale”.

Insomma, come abbiamo sottolineato svariate volte già in passato, paradossalmente, l’approccio cinese, teso a governare questo processo con regole trasparenti a tutela di consumatori ed utenti, sembra essere molto più vicino a quello europeo di quanto non lo sia invece il far west immaginario di Washington. Una differenza, quella dell’approccio europeo rispetto a quello a stelle e strisce, sottolineata sempre dall’Oxford Internet Institute in un lungo paper di ormai 2 anni fa, dove si sottolineava che mentre “dal punto di vista della governance dell’intelligenza artificiale, l’approccio europeo è eticamente più corretto”, dal momento che “Mette in primo piano la protezione dei diritti dei cittadini delineando il valore guida di un’intelligenza artificiale affidabile incentrata sull’uomo. Il laissez-faire intrapreso dagli Stati Uniti è eticamente decisamente più discutibile, dal momento che ha affidato gran parte della governance dell’AI nelle mani degli attori privati, lasciando ampio margine alle imprese per mettere i propri interessi davanti a quelli dei cittadini”. “Ciò nonostante”, scrive l’economist, “l’idea che la Cina possa fungere da guida per quanto riguarda l’etica dell’intelligenza artificiale dovrebbe terrorizzare i governi occidentali”.

Capito come ragionano?

La Cina procede cautamente per tutelare i cittadini proprio come vorrebbe fare l’Unione Europea, però il nostro alleato anche in questa partita devono per forza essere gli USA, anche se stanno combinando un disastro, perché alla fine i cinesi rimangono comunque sempre cinesi…

Decidere su aspetti fondamentali per la nostra sicurezza in base al razzismo, insomma: benvenuti nel 2023.

Cosa mai potrebbe andare storto?

L’umanità si trova di fronte a sfide epocali che potrebbero metterne a rischio la stessa sopravvivenza, ma la principale potenza del globo è ostaggio di un manipolo di oligarchi pronti a consegnarci mani e piedi al più distopico dei futuri possibili pur di non cedere nemmeno un pezzettino della spaventosa concentrazione di ricchezza e di potere che hanno accumulato sulla nostra pelle.

Sarebbe arrivata l’ora di mandarli anche un po’ a fare in culo

Per farlo, abbiamo bisogno di un media che dia voce al 99%: aiutaci a costruirlo

aderisci alla campagna di sottoscrizione di ottolinatv su GoFundMe (https://www.gofundme.com/f/un-media-per-dare-voce-al-99-per-cento) e su PayPal ( https://shorturl.at/knrCU )

e chi non aderisce è Bill Gates