Algoritmi che uccidono
Source : dissipatio.it – 20 juin 2024 – Elham Makdoum
https://www.dissipatio.it/algoritmi-che-uccidono/
Abonnez-vous au canal Telegram Strategika pour ne rien rater de notre actualité
Pour nous soutenir commandez les livres Strategika : “Globalisme et dépopulation” , « La guerre des USA contre l’Europe » et « Société ouverte contre Eurasie »
L’intelligenza artificiale sta rivoluzionando il campo delle guerre ibride, influenzando la strategia e la tattica dei conflitti. Dalla localizzazione precisa delle truppe nemiche all’uso di deepfake per destabilizzare mercati finanziari e amplificare l’impatto psicologico sugli avversari, l’IA gioca un ruolo sempre più centrale. La capacità di manipolare masse e di condurre operazioni cognitive avanzate su piattaforme come TikTok dimostra come essa possa trasformare dispositivi domestici e algoritmi di rete in potenti armi di guerra.
L’intelligenza artificiale cambierà, e in parte ha già cambiato, il volto delle guerre ibride. L’era degli algoritmi che lavano il cervello, dei deepfake che super-disinformano e dei chatbot che radicalizzano è già iniziata.
L’intelligenza artificiale è ovunque ed è oggi, sebbene se ne parli come di una rivoluzione in the making che chissà quando e dove colpirà. È nei nostri smartphone, in applicazioni come TikTok, è nelle nostre case, trattandosi di ciò che anima dispositivi domestici come Alexa, ed è nelle guerre, convenzionali e non, da Gaza e Kharkiv al cyberspazio.
L’IA cambierà e in parte ha già cambiato le guerre. Tutte. Convenzionali e non. C’è l’Ucraina, dove le forze armate stanno utilizzando programmi basati su IA per geolocalizzare con più rapidità i russi, cosa che gli ha dato un vantaggio enorme in termini di aumento delle possibilità di effettuare imboscate e attacchi a sorpresa. E poi c’è Gaza, dove un’inchiesta di +972 Magazine ha svelato che l’IDF sta utilizzando un’IA volgarmente nota come Where’s my daddy? per massimizzare il numero delle perdite tra le file di Hamas.
Come è noto, essendo davanti agli occhi di tutti, l’IA di Where’s my daddy ha prodotto un risultato contrario a quello per cui era stata sviluppata: distruzione su larghissima scala. Questo ci dice molto della più grande forza, che al tempo stesso è anche il più grande limite, delle IA, ovvero la rigidità nell’interpretazione della funzione-obiettivo.
In contesti specifici e circoscritti le IA sono in grado di risolvere problemi con un’accuratezza prestazionale di gran lunga superiore a quella richiesta dal test di Touring. Ma quando il contesto di applicazione è dinamico e ricco di variabili in grado di modificare tutta l’equazione, così di conseguenza il risultato, IA perde la prima lettera per mantenere solo la seconda. E a Gaza, anziché sterminare Hamas, crea una tragedia umanitaria con pochi precedenti storici. Non è il caso d’indagare dunque le guerre convenzionali il, bensì le guerre ibride e, più nello specifico, cognitive.
Alla RAND Corporation stanno conducendo esperimenti sulla militarizzazione delle IA deboli, quelle che animano dispositivi per la casa come Alexa, e hanno ottenuto dei risultati sorprendenti e un pochino distopici, come la loro conversione in strumenti per lo spionaggio al loro utilizzo per innescare corto circuiti in grado di mandare a fuoco appartamenti popolati da elettrodomestici smart interconnessi tra loro. Il delitto perfetto non sarà più il soggetto intrigante di cinema e letteratura.
Mentre negli Stati Uniti sono ancora alla fase degli esperimenti in laboratorio, dall’altra parte del mondo, cioè Cina e Russia, sono passati all’applicazione sul campo. Con risultati altrettanto eccezionali. È il maggio 2023, quando in compare un deepfake ritraente il Pentagono in fiamme. Le immagini vengono condivise e ricondivise fino a raggiungere i primi canali di osint e di giornalisti alla ricerca di conferme sull’accaduto. Il video è troppo realistico per essere un falso. Il più importante indice stazionario statunitense, l’S&P500, crolla. Quel giorno si fa la storia: non era mai accaduto che un deepfake avesse causato delle conseguenze sui mercati finanziari.
Le applicazioni sul campo non si fermano qui. TikTok, l’applicazione più controversa del momento, nonché la più utilizzata dalla generazione Z, possiede un algoritmo per l’analisi del comportamento dell’utenza e per la viralizzazione dei contenuti che è interamente gestito da un’IA, come del resto la maggior parte delle piattaforme di rete globali.
Non è per l’opacità con cui TikTok tratta i dati degli utenti che gli Stati Uniti hanno messo quest’app nel mirino: è per via del suo algoritmo, che vogliono studiare – da qui le richieste perché la casa madre dell’app apra agli investitori statunitensi –, che vogliono replicare e che vogliono combattere – perché TikTok, da tempo, è diventata una fabbrica in cui si costruiscono opinioni, si organizzano proteste, si modellano idee, si combattono guerre cognitive.
Le guerre cognitive sono guerre per il dominio della mente. Perché una persona dalla mente inquinata, non è più una persona: è un automa telecomandato, che pensa ciò che gli viene inculcato e che fa ciò che gli viene detto. Una guerra cognitiva difficilmente crea qualcosa, molto più spesso alimenta e amplifica sentimenti pre-esistenti. Fino al botto.
Esempi di guerre cognitive combattute su TikTok, ormai, ne abbiamo parecchi. In Nuova Caledonia, nel maggio 2024, dopo mesi di operazioni cognitive condotte da Cina e Azerbaigian per esacerbare i sentimenti antifrancesi sul posto, è esplosa un’insurrezione per chiedere l’indipendenza dalla Francia. In Francia, nel giugno 2023, l’assassinio del diciassettenne Nahel Merzouk per mano della polizia accende la rabbia delle banlieue e, curiosamnte, accende un dibattito su TikTok. Emmanuel Macron accusa l’app di esacerbare le violenze viralizzando i contenuti delle rivolte, in particolare i video e le dirette di saccheggi, assalti pirotecnici e scontri filmati personalmente dai membri delle gang. Per Macron non è copertura né libertà d’espressione: è incitazione all’emulazione, è manipolazione del livore dei banlieusard. Il presidente francese promette che non permetterà a TikTok di interferire nuovamente in un’emergenza e, infatti, vieterà ai neocaledoni l’accesso all’app nei giorni successivi allo scoppio dell’insurrezione sull’arcipelago.
Ma oltre le interferenze nei contesti emergenziali, ed anche elettorali, c’è di più. A partire dal curioso fatto che TikTok non esiste in Cina, dove invece opera Douyin, l’app presenta altre caratteristiche degne di nota: l’algoritmo promuove la narrazione politica della Cina, per esempio viralizzando i contenuti filopalestinesi e shadowbannando quelli filoisraeliani, e in generale popolarizza tutto ciò che ha a che fare con l’ascesa del multipolarismo, col declino dell’America e con le ipocrisie dell’Occidente.
Negli Stati Uniti, che sono alle prese con un’ondata depressiva senza precedenti, l’algoritmo di TikTok sembra operare con un solo obiettivo: destabilizzazione. Come? Utilizzando l’IA per plasmare totalmente le categorie più psicolabili, i giovanissimi, che da quelle parti hanno il telefono in mano già a 6-8 anni, e che dai loro feed vengono periodicamente spinti quando al suicidio e quando alla partecipazione in challenge estreme dal tragico epilogo. I casi, ormai, sono tantissimi. Senza dimenticare il grande quadro generale: l’algoritmo che esalta stili di vita malsani, frivoli, distruttivi e autodistruttivi, spazianti dal consumo di droghe alla sessualizzazione e alla commercializzazione del corpo.
L’IA è già sbarcata in quell’universo semisconosciuto che sono le guerre ibride. Abbiamo dispositivi che possono essere utilizzati per creare degli omicidi perfetti, come un’Alexa che può innescare un incendio in una casa smart. E abbiamo algoritmi che manipolano il comportamento delle masse creando mode, popolarizzando idee e scatenando insurrezioni.
Un domani, il domani del metaverso e delle vite vissute da un divano, avremo persino chatbot e sexbot in grado di radicalizzare. Non è fantasia. Nel 2021 un ragazzo entrò di nascosto nel castello dei Windsor armato di spada per uccidere la Regina. Nel 2023 è stato condannato a nove anni per quel fatto. La sua difesa? Era stato radicalizzato da un chatbot con cui parlava da mesi, di cui si era innamorato, e aveva portato le conversazioni in tribunale come prova. Ecco, questo è accaduto con un chatbot impazzito, ma che cosa succederà quanto le grandi potenze inizieranno a sviluppare dei chatbotpensati esattamente per questi scopi? Saremmo difronte a dei killbot. Possono sembrare degli scenari cupi, in realtà sono realistici.
Sensibilizzare sul ruolo che l’IA avrà sull’amplificazione degli effetti delle guerre cognitive è l’unico modo che abbiamo per prevenire ondate di isteria collettiva alla Herbert Wells causate da deepfake e per sviluppare degli antidoti e delle strategie di resilienza in grado di aiutarci a contrastare operazioni destabilizzative IA-guidate.
La domanda è lecita: se gli Stati Uniti furono in grado di rovesciare Salvador Allende nel 1973 grazie ai suggerimenti forniti da una proto-intelligenza artificiale, un programma di elaborazione scenariale chiamato Politica, di cosa saranno capaci le IA generali che OpenAI and co. vogliono sviluppare?