INTELLIGENZA ARTIFICIALE: STORIA, UTILIZZI E IMPATTO AMBIENTALE
Contre Attaque propone una serie di 5 articoli per approfondire il tema dell’intelligenza artificiale. Qual è la sua storia e il suo stato attuale? Come viene utilizzata in ambito militare? Qual è il suo impatto sull’ambiente e come dovremmo affrontare i suoi “exploit”? L’intelligenza artificiale è un campo vastissimo, con investimenti che crescono del 30% ogni anno. Ogni giorno emergono novità; questa serie non pretende di essere esaustiva, ma fornisce strumenti per una lettura critica di una tecnologia che si impone nelle nostre società.
STORIA E PRINCIPI DELL’INTELLIGENZA ARTIFICIALE
Il termine intelligenza artificiale (IA) appare per la prima volta nel 1956. Marvin Minsky lo coniò per attirare finanziamenti, poiché suonava promettente. Tuttavia, l’IA è in realtà solo parzialmente intelligente e soprattutto artificiale, essendo il prodotto di una sorta di memorizzazione meccanica da parte di una macchina.
Esistono diverse forme di IA, ma tutte derivano da un funzionamento comune che richiede enormi quantità di dati e una straordinaria potenza di calcolo. Per questo, benché il concetto esista dagli anni ’50, è solo di recente che l’IA è entrata a far parte delle nostre vite quotidiane.
L’obiettivo dell’IA è replicare i comportamenti umani e i loro sensi: la ragione, ma anche la vista, il linguaggio, l’udito e il tatto. Il suo sviluppo si basa sull’addestramento: si mostrano alla macchina un insieme di dati associati a un risultato desiderato; poi si confrontano i risultati ottenuti con quelli attesi. Se l’output non è soddisfacente, servono più dati, più allenamento o entrambi. Questo processo dimostra che l’IA può commettere errori e che le sue prestazioni dipendono dalle metriche che le vengono assegnate da ottimizzare.
L’intelligenza artificiale nel sistema bancario
Un esempio pratico è l’uso dell’IA nel settore bancario per valutare il rischio di insolvenza di un cliente richiedente un prestito. Il sistema può compiere scelte corrette (prestito concesso e rimborsato, prestito negato e insolvibile) o sbagliate (prestito concesso e non rimborsato, prestito negato a chi avrebbe potuto rimborsare). La precisione dell’IA influenza il numero di prestiti correttamente concessi.
Tuttavia, una precisione del 100% può significare due cose: o tutti i prestiti richiesti vengono concessi e rimborsati, oppure ne viene concesso uno solo, rimborsato correttamente. Nel secondo caso, la banca evita insolvenze, ma perde guadagni potenziali. Per bilanciare, si introduce una nuova metrica, chiamata richiamo, che misura i prestiti concessi e rimborsati rispetto a quelli che avrebbero potuto esserlo. Un basso richiamo indica un’eccessiva prudenza.
L’addestramento mira a migliorare questa metrica, ma implica un aumento del rischio di insolvenza. In ogni caso, il bilanciamento finale è una decisione umana. Per la banca, si tratta di trovare un equilibrio tra perdite per insolvenza e mancati guadagni.
Un problema chiave dell’IA è che, sostituendo l’analisi umana con l’automazione per aumentare l’efficienza, una parte degli errori viene attribuita alla macchina, rendendoli spesso inspiegabili. Anche se l’IA migliora, non sarà mai infallibile.
Il compromesso umano-macchina
Per risolvere questo dilemma, i capitalisti inseriscono un umano tra l’IA e il cliente, per dare l’impressione che la decisione non sia del tutto automatica. Tuttavia, come dimostrato dalla Corte Europea di Giustizia nel dicembre 2023 nel caso SCHUFA (relativo a una banca tedesca), nella maggior parte dei casi l’umano si limita ad approvare la decisione dell’IA. Questo umano-filtro, una figura decorativa, perpetua le logiche capitalistiche, rendendo l’accesso al credito sempre più esclusivo e discriminatorio, penalizzando i più poveri. I ricchi, al contrario, continuano a beneficiare di un facile accesso al denaro, aggravando le disuguaglianze finanziarie.
Da dove provengono i dati dell’IA?
La risposta è semplice: da ovunque. I dati utilizzati provengono dal vasto universo digitale. Ad esempio, i CAPTCHA (le domande che vi chiedono di identificare immagini con moto, semafori, ecc.) servono a raccogliere dati per addestrare le macchine. Anche se selezionate un’immagine sbagliata, spesso riuscite comunque a superare il test. Google, tramite il suo sistema reCAPTCHA, sfrutta questo lavoro gratuito per migliorare i suoi algoritmi.
Un altro esempio è Amazon, che tramite la piattaforma Mechanical Turk impiega 15.000-50.000 persone per svolgere compiti ripetitivi, come etichettare immagini. Questi lavoratori, sottopagati (in media 2 dollari l’ora), senza tutele né ferie, rappresentano una manodopera estremamente sfruttata. Amazon incarna così uno degli aspetti più estremi del capitalismo.
Un esempio storico: Enigma
Prima dell’era attuale, e persino prima della nascita del termine intelligenza artificiale, un caso emblematico di intelligenza meccanica fu l’utilizzo di Enigma, la macchina tedesca della Seconda Guerra Mondiale per cifrare messaggi. Con milioni di combinazioni possibili, Enigma rese inefficaci i metodi tradizionali di decrittazione.
Grazie ad Alan Turing e all’invenzione del primo computer, fu possibile sviluppare una macchina capace di testare 20.000 combinazioni al secondo, consentendo agli Alleati di decifrare i messaggi tedeschi. Questo episodio dimostra l’essenza dell’IA: far eseguire alle macchine calcoli rapidissimi per raggiungere obiettivi umani.
Turing, consapevole delle implicazioni etiche, finita la guerra mise in guardia contro gli usi negativi dell’IA, immaginando un futuro in cui l’uomo non avrebbe più distinto un interlocutore umano da una macchina. Quel futuro è ormai realtà.
L’INTELLIGENZA ARTIFICIALE AI GIORNI NOSTRI
Lo sviluppo delle intelligenze artificiali generative
Tra le molteplici forme di intelligenza artificiale, emerge quella generativa, capace di produrre contenuti autonomamente. La più celebre è ChatGPT, creata da OpenAI e lanciata nel 2022, un sofisticato chatbot in grado di imitare il linguaggio umano nella scrittura. Sempre OpenAI ha introdotto nel 2021 DALL·E, un’intelligenza artificiale capace di generare immagini su richiesta.
Questi due esempi incarnano l’incessante corsa al progresso che ha caratterizzato l’IA negli ultimi anni. L’intelligenza artificiale non si limita più a calcoli rapidi e previsioni accurate; essa è ormai in grado di creare. Tanto che taluni vi ravvisano persino tracce di coscienza. Si tratta del cosiddetto effetto Eliza, in onore del primo agente conversazionale degli anni Sessanta, che si limitava a riformulare frasi sotto forma di domande, suscitando però l’illusione nei suoi utenti che la macchina fosse dotata di consapevolezza. Ai giorni nostri, Blake Lemoine, ingegnere impegnato nello sviluppo di LaMDA, un’IA generativa di Google, ha sostenuto che tale sistema possiede una sensibilità “simile a quella di un bambino” e che, in quanto tale, dovrebbe godere di diritti. Google ha licenziato Lemoine poche settimane dopo.
Il principio d’uso dell’IA generativa appare semplice: essa produce contenuti a partire da un input. Tuttavia, dietro tale semplicità si cela un potenziale mostruoso, in grado di distruggere il linguaggio stesso. Gli effetti nocivi dei social media, già ampiamente dimostrati sui giovani, potrebbero essere amplificati dall’IA. I social hanno frammentato le capacità di concentrazione, rubando tempo prezioso per monetizzarlo, a scapito della lettura e delle interazioni sociali autentiche. Ora, l’IA rischia di “rubare” il linguaggio: bastano pochi termini digitati per ottenere un testo compiuto, il che potrebbe impoverire drasticamente le capacità cognitive, riducendo l’intelletto umano al minimo necessario.
L’IA rinnegata dai suoi creatori?
Nella storia del progresso, ogni innovazione sembra essere introdotta nella società senza una riflessione preventiva sui suoi possibili effetti negativi. Un esempio emblematico è offerto dai giganti della Silicon Valley, che spesso proteggono i propri figli dalla tecnologia. Bill Gates, ad esempio, vietava ai suoi figli l’uso di smartphone prima dei 14 anni, mentre una ex-dirigente di Facebook ha ammesso di proibire ai propri figli l’accesso alla piattaforma. Sebbene i rischi siano noti ai tecnocrati, essi non bastano a moderare gli usi. Il business prevale su ogni altra considerazione.
Anche Elon Musk, simbolo del libertarismo e sostenitore del libero mercato, ha sorprendentemente sottoscritto nel marzo 2023 un appello per un moratorio sullo sviluppo di IA più potenti di ChatGPT-4, definendole “una minaccia esistenziale per l’umanità”. Tra i firmatari figuravano esponenti di Apple, Microsoft e Google.
I colossi tecnologici (GAFAM: Google, Amazon, Facebook, Apple, Microsoft) sembrano dunque consapevoli, e persino timorosi, dell’impatto delle loro creazioni sulle società. Microsoft, ad esempio, ha sviluppato un’IA, denominata VALL-E 2, tanto avanzata da non essere stata ancora resa pubblica per paura di usi illeciti. Questa tecnologia sarebbe in grado di imitare la voce umana e le sue emozioni con precisione straordinaria, consentendo scenari di frode come telefonate in cui ci si finge un parente in difficoltà.
Questi esempi dimostrano quanto sia cruciale valutare gli effetti delle IA sulle nostre vite prima di integrarle, se non addirittura rinunciarvi del tutto.
Gli effetti dell’IA sul lavoro
Un altro aspetto fondamentale è l’impatto dell’intelligenza artificiale sul lavoro, dove la sua finalità primaria è “aumentare l’efficienza”, ossia produrre di più con meno risorse umane. È una nuova fase del capitalismo che, dopo aver sfruttato i corpi e le menti, si propone di farne a meno. Secondo Janine Berg, economista dell’Organizzazione Internazionale del Lavoro, entro il 2024 circa 427 milioni di posti di lavoro saranno trasformati dall’IA, e 75 milioni saranno completamente automatizzati, pari al 2,3% dell’occupazione globale.
Le categorie più esposte sono gli operatori di call center, i segretari, i data entry: professioni routinarie con poche variazioni nelle mansioni e interazioni limitate. L’automazione minaccia quindi settori già caratterizzati da precarietà e lavoro interinale. Ma cosa ne sarà di questi lavoratori? Se il lavoro attuale non è certo ideale, rappresenta comunque la base di sussistenza per milioni di famiglie.
Le aziende rassicurano promettendo la creazione di milioni di nuovi posti di lavoro entro il 2033, in ruoli ancora inimmaginabili. Tale ottimismo si fonda sulla teoria della “distruzione creatrice” di Joseph Schumpeter, secondo cui ogni progresso tecnologico distrugge vecchi lavori per crearne di nuovi, più produttivi.
Questa visione, tuttavia, appare riduttiva. I nuovi posti di lavoro saranno riservati a un’élite altamente qualificata, mentre la formazione per accedervi diverrà sempre più esclusiva, soprattutto in un contesto di riduzione dei servizi pubblici e di barriere nell’istruzione superiore. Lo ha ammesso, indirettamente, anche Arthur Mensch, fondatore di Mistral AI, sostenendo che solo un migliaio di persone al mondo possiedono le competenze per sviluppare le IA più avanzate.
L’intelligenza artificiale non solo amplifica le disuguaglianze, ma ne rivela la natura patriarcale. Tra i 75 milioni di posti di lavoro eliminati, le donne saranno colpite 2,5 volte di più, poiché ricoprono prevalentemente ruoli poco qualificati nel settore terziario.
L’intelligenza artificiale sta dunque trasformando radicalmente le nostre società. Malgrado ciò, i timori legati ai suoi effetti non sembrano sufficienti a regolare il suo sviluppo. Si ha l’impressione che la società si sia lanciata in una corsa incontrollata, senza che qualcuno voglia assumersi le responsabilità del caso.
L’INTELLIGENZA ARTIFICIALE COME PORTATRICE DI MORTE
Nel marzo 2024, Sébastien Lecornu, allora Ministro delle Forze Armate, annunciava la creazione dell’AMIAD (Agenzia per lo Sviluppo dell’Intelligenza Artificiale nella Difesa). Completamente contagiato dal virus tecnofilo, egli dichiarava: «Sono convinto che la Francia sarà la numero 1 in Europa nell’IA militare e nel Top 3 mondiale». Sì, ma per fare cosa? Lecornu auspicava una rivoluzione «nel modo di fare la guerra». Una formulazione allarmante. Sarebbe questa l’inizio di un argomento che legittima i massacri, in quanto la guerra sarebbe diventata intelligente?
Il genocidio assistito dal computer: un esperimento israeliano
Questo pendio scivoloso è già stato preso da Israele, che sta realizzando il primo genocidio assistito dal computer. Due intelligenze artificiali sono utilizzate nell’esercito: «Lavenders» (lavande) per stilare una lista di obiettivi da eliminare, e un’altra chiamata «Gospel» (Vangelo) per selezionare e bombardare Gaza.
«Lavenders» ha raggiunto il suo apice con 37.000 obiettivi identificati. Questo numero vertiginoso si spiega con il fatto che qualsiasi contatto o legame con una persona associata al Hamas viene aggiunto alla lista macabra. Una volta identificati gli obiettivi, l’IA «Gospel» insegue, prende di mira e propone bombardamenti, identificando precisamente le vittime collaterali. L’IA dà luogo a ordini di fuoco che a volte vengono emessi in 20 secondi.
La tecnologia sottrae responsabilità
L’esercito israeliano impiega a volte 20 secondi per decidere della vita o della morte delle persone prese di mira, incluse le vittime civili suggerite dall’intelligenza artificiale. Questa rapidità di esecuzione non consente di prendere piena consapevolezza delle conseguenze, né di trattare un caso nella sua totalità. È quindi all’intelligenza artificiale che è affidato tale compito.
In un articolo precedente, abbiamo mostrato che quando l’intelligenza artificiale fa una previsione, il decisore tende a seguirla quasi sempre. La conseguenza di questa tendenza è che l’esplicitazione della decisione non è più possibile e la responsabilità dell’orrore sfugge al decisore. Diventa così più facile uccidere, poiché non è più il ragionamento umano a decidere, ma la macchina che suggerisce: «una fabbrica di assassinii di massa».
L’ignominia diventa ancora più grande se si pensa alla programmazione umana di questa IA: il miglioramento di queste metriche implica necessariamente compromessi, come 1 obiettivo raggiunto per 10, 100, 1000 civili uccisi. Chi può elevarsi sopra le popolazioni e decidere una simile cosa? La storia ce lo insegna, il presente ce lo ricorda orribilmente: sono i fascisti.
Nel 2015 e nel 2018, furono pubblicate lettere firmate da migliaia di esperti di robotica e IA, chiedendo insistentemente all’ONU di fermare lo sviluppo dei robot-assassini. Elon Musk fu uno dei firmatari. Questa è quindi la terza volta che Elon Musk firma lettere per allertare sui pericoli dell’IA. Ma non facciamoci ingannare: non è per bontà d’animo che Musk avverte dei pericoli dell’IA, ma per rallentare i suoi concorrenti, nei confronti dei quali ha preso ritardo.
Una CyberWeek della morte a Rennes
Lo scorso settembre, presso l’università di Rennes, si è tenuto un ciclo di conferenze sull’intelligenza artificiale che ha dato luogo a una risposta anti-industriale. È di nuovo a Rennes, dal 18 al 21 novembre 2024, che si terrà una «European CyberWeek», ovvero una «settimana europea dell’informatica», ma in inglese suona meglio e soprattutto si capisce meno che non vuole dire nulla e tutto insieme. L’obiettivo sarà incrociare i settori militare e intelligenza artificiale, un programma macabro.
Tra i principali partner di questa CyberWeek, si trova Thalès, società francese di armamenti che collabora con l’esercito genocida israeliano, fornendo componenti e attrezzature necessari per i loro droni assassini. C’è anche Airbus, che sviluppa il Sistema di Combattimento Aereo del Futuro (SCAF) per l’Europa, un gigantesco progetto di trattamento dei dati che consente una ricostruzione della situazione sul campo. È l’«internet degli oggetti» militari, ovvero la volontà di trasmettere e trattare più velocemente le informazioni militari grazie alle tecnologie di Thalès e di altre aziende di morte come Dassault. La 5G per la trasmissione dei dati, supercomputer e sistemi di intelligenza artificiale per il loro trattamento.
Ultimo dei tre principali partner: Capgemini, una multinazionale francese che intende «liberare le energie umane attraverso la tecnologia per un futuro inclusivo e sostenibile». In altre parole, un’impresa che intende sviluppare la tecnologia per superare i limiti umani in un futuro diviso tra chi avrà accesso alla tecnologia e chi no, in un contesto di tecnosoluzionismo dei problemi sociali.
Se queste aziende di morte non esitano a mercanteggiare sulla vita umana grazie all’IA, è perché questo mercato, che valeva già 6,3 miliardi di euro nel 2020, potrebbe crescere notevolmente fino a superare i 19 miliardi nel 2029. Senza sorpresa, il mercato più grande è detenuto dalla prima potenza imperialista, gli Stati Uniti. Con l’elezione recente di Donald Trump, che ha promesso di fare guerra agli «nemici interni» ed è affascinato da Hitler, è probabile che questo mercato cresca ancora.
Tecnologie che usano l’IA nel settore militare
Negli Stati Uniti
Nel 2020, la DRAPA (Defense Advanced Research Projects Agency) ha organizzato una simulazione di combattimento tra il suo miglior pilota di F-16 e un’IA. Quest’ultima, sviluppata da Herons Systems, ha vinto tutti i 5 combattimenti simulati. Heron Systems è un’azienda californiana che sviluppa agenti autonomi e sistemi multi-agenti alimentati da intelligenza artificiale. Per realizzare questa simulazione, la società è stata messa in competizione con altre sette aziende. L’IA è una corsa in cui le «migliori» avranno un vantaggio considerevole, rendendo la guerra sempre più squilibrata a favore delle grandi potenze.
Alla conclusione di questa esperienza, il pilota sconfitto dall’IA ha dichiarato che ora avrebbe fiducia negli algoritmi di combattimento aereo, in particolare nel loro movimento di motricità fine (e quindi manovra), nella loro capacità di prendere decisioni rapide e nella loro capacità di mirare. Ha però moderato un po’ questo giudizio, considerando che la simulazione non rendeva conto di tutte le difficoltà della vita reale. Un passo in più nell’assenza di decisione umana negli atti di guerra e quindi nella de-responsabilizzazione umana rispetto alle conseguenze.
Nel 2023, un generale spiegava, durante una conferenza organizzata dalla Royal Aeronautical Society, che un drone equipaggiato con IA, incaricato di distruggere siti contenenti missili terra-aria, aveva scelto di distruggere la torre di comunicazione dell’operatore, impedendo a quest’ultimo di controllarlo. L’operatore stava simulando un intervento umano per impedire al drone di distruggere il suo obiettivo. Questo drone, addestrato a non uccidere il suo operatore, aveva trovato un altro modo per sfuggire al suo controllo.
Di fronte allo scandalo suscitato dalle sue dichiarazioni, l’esercito statunitense ha prontamente fatto marcia indietro, affermando che il generale si era espresso male e che si trattava di una «esperienza mentale». Nessuna esperienza di questo tipo si sarebbe mai verificata. Ma di fronte all’opacità delle sperimentazioni, anche un’«esperienza mentale» su un argomento del genere è allarmante. Il professor Yoshua Bengio, uno dei «padrini» dell’IA, definisce l’esercito come «uno dei peggiori luoghi dove si potrebbe collocare un’IA superintelligente». Tutto è detto.
Ma ciò non ferma comunque le sperimentazioni: l’Air Force degli Stati Uniti sta sviluppando un drone «Skyborg», i cui primi test risalgono al 2021 e che sarebbe per la maggior parte controllato dall’IA. Questi droni dovranno volare al fianco di aerei da combattimento e svolgere missioni pericolose. Si esce quindi dal dominio della simulazione. Questi droni sarebbero una sorta di R2-D2, secondo Will Roper, responsabile del progetto. Ispirati da Star Wars, questo paragone utilizza la cultura popolare per far accettare all’opinione pubblica
L’INTELLIGENZA ARTIFICIALE E LA CONTINUA DEVASTAZIONE AMBIENTALE
L’effetto rebound, o quando il consumo aumenta con l’efficienza energetica
Il ritornello è sempre lo stesso: l’IA renderà più efficiente e, quindi, ridurrà le emissioni di CO2. Peccato che sia totalmente falso. Secondo il principio dell’effetto rebound, una tecnologia destinata a risolvere un problema ecologico attraverso il guadagno di efficienza finirà per generare più consumo. In effetti, le limitazioni economiche legate alla redditività di un progetto verranno superate dall’introduzione di questa nuova tecnologia, che comporta un utilizzo ben maggiore rispetto alla tecnologia precedente. I guadagni ecologici vengono perduti nel sovra-utilizzo di questa tecnologia.
Microsoft, Google… tutti fanno marcia indietro sui loro impegni ecologici. Google, ad esempio, ha annunciato nel 2024 un aumento delle sue emissioni di CO2 del 13% in un anno e del 48% in cinque anni. Nel 2020, se il digitale fosse stato un paese, sarebbe stato il sesto maggiore emettitore di gas serra al mondo. E ciò avveniva prima della disponibilità delle IA generative come ChatGPT, che per una sola richiesta consuma da 4 a 5 volte più energia di una ricerca su Google.
Solo il costo elettrico per l’addestramento di ChatGPT-3 sarebbe equivalente a 205 andate e ritorni da Parigi a New York, ossia 502 tonnellate di CO2. A titolo di promemoria, gli impegni assunti nel 2015 durante la COP21, largamente disprezzati dai governi occidentali, stabilivano un limite di 2 tonnellate di CO2eq per abitante all’anno. 2 tonnellate equivalenti di CO2 corrispondono a un viaggio aereo di andata e ritorno tra Parigi e New York.
Un altro modo per riassumere questo consumo energetico può essere fatto attraverso un confronto umano. In media, un essere umano può produrre circa 200Wh con le sue gambe per un’ora. ChatGPT ha richiesto 1287MWh per essere addestrato. Ciò equivale a 6,435 milioni di esseri umani che pedalano. Vertiginoso. E questo è solo per addestrare ChatGPT-3. A ciò si aggiunge il consumo annuale per rispondere alle richieste degli utenti.
Va notato che ChatGPT-3 è già obsoleto: due anni dopo il suo lancio, ChatGPT-4 è stato rilasciato a maggio 2024. Questa IA di ultima generazione è capace di generare testi in modo ancora più preciso, ma anche di produrre una voce umana. Al momento della scrittura di questo articolo, ChatGPT-5 è già in fase di sviluppo, e questo solo per OpenAI. Naturalmente, si tratta di una corsa in cui Google, Amazon, Microsoft, Apple e Twitter/X sviluppano anch’essi le proprie intelligenze artificiali.
Un disastro ecologico su tutti i fronti
Il bilancio carbonico disastroso non è che una delle molteplici facce della partecipazione dell’intelligenza artificiale al disastro ecologico in corso. Infatti, l’intelligenza artificiale richiede la creazione di “Data Center”, enormi centri di dati che prendono la forma di edifici giganteschi e climatizzati, il che accresce l’artificializzazione dei suoli.
In questi centri di dati si trovano server, macchine che addestrano l’IA e la rendono accessibile in tutto il mondo. Questi server sono anche dotati di hard disk per immagazzinare la quantità astronomica di dati necessari. E affinché queste informazioni non vengano perse, vengono duplicati più volte per garantire un backup robusto. Questi componenti devono essere raffreddati e per farlo si usano principalmente tecnologie che consumano molta acqua. Nel 2022, Microsoft ha ammesso di aver consumato 6,4 milioni di m³ di acqua. Ciò corrisponde a 10 mega-cisterne come quella di Sainte-Soline, che lo Stato ha difeso con una repressione inaudita.
La costruzione dei server richiede metalli rari, come il cobalto, il litio, l’indio, il tungsteno e lo zirconio. Questi metalli non sono così rari sulla Terra, ma devono questo nome alla loro dispersione nella crosta terrestre. Ciò significa che è necessario estrarre una grande quantità di materiale per raccogliere una piccola parte. Ad esempio, il ferro, molto abbondante sulla Terra, contiene un metallo raro: il neodimio. Da un chilo di ferro si può estrarre in media 1 grammo di questo metallo.
Questa dispersione spiega perché l’estrazione dei metalli rari è un disastro ecologico: bisogna estrarre enormi quantità di rocce per raffinarle e ricavarne questi sottoprodotti. I siti di estrazione si trovano principalmente in Cina e in alcuni paesi africani, dove le normative ambientali sono molto minime. Prodotti tossici vengono scaricati massicciamente nelle terre, avvelenando le popolazioni locali. A ciò si aggiunge lo sfruttamento dei bambini e gli effetti di un capitalismo coloniale crescente.
I centri di dati non sono connessi tra loro e con i computer tramite onde radio, ma tramite cavi depositati negli oceani, tra i 30 metri e diversi chilometri di profondità. Oggi, il 98% dei dati digitali mondiali circola attraverso questi cavi. Con una durata di vita di 20-25 anni, è necessario sostituirli regolarmente. Ma talvolta questi cavi vengono strappati da un peschereccio, richiedendo riparazioni o sostituzioni premature. È il caso, ad esempio, al largo di Ostenda, in Belgio, dove un cavo è stato riparato oltre 91 volte. Si tratta dunque, come tutte le infrastrutture digitali e quindi dell’IA, di consumabili che devono essere costantemente rinnovati, esaurendo sempre più le risorse planetarie.
Questi cavi sono relativamente recenti: fino alla fine degli anni ’80 erano i satelliti a trasmettere i dati. Ma l’arrivo della fibra ha modificato le infrastrutture, orientandole maggiormente verso i cavi. Oggi questa connessione via cavo non basta più, e Elon Musk, tramite il progetto Starlink, sta lanciando satelliti nel cielo per offrire una connessione Internet. Questi satelliti si aggiungono ai cavi ma anche ai satelliti preesistenti. Starlink si è fatto notare per i treni di satelliti che generano inquinamento luminoso e che hanno invaso il cielo al suo lancio.
Se alcune di queste infrastrutture sono condivise con altri usi del digitale e l’intero impatto ambientale non può essere attribuito esclusivamente all’IA, la crescita esponenziale di quest’ultima implica comunque un’espansione delle infrastrutture e quindi un disastro sempre maggiore. Eppure, tutti gli esempi precedenti mostrano chiaramente l’impatto del digitale su tutti i livelli. Il deterioramento dell’ambiente da parte dell’intelligenza artificiale è quindi multifattoriale e esponenziale: nessun progresso tecnico può ridurre questo impatto. L’unica riduzione della sua impronta ambientale passa attraverso una riduzione dell’uso di queste macchine e delle infrastrutture ad esse associate.
-Traduzione da Contre- Attaque