Perché Gran Parte dell’AI (Intelligenza Artificiale) è Costosa Spazzatura. Norman Fenton.

3 Settembre 2024 Pubblicato da Lascia il tuo commento

Marco Tosatti

Cari amici e nemici di Stilum Curiae, offriamo alla vostra attenzione questo articolo pubblicato da The Exposé, che ringraziamo per la cortesia. Buona lettura e condivisione. 

§§§

 

 

Perché gli algoritmi e la ricerca sulla “disinformazione” dell’intelligenza artificiale sono per lo più spazzatura costosa

Del professor Norman Fenton

La storia del laptop di Hunter Biden è solo una delle tante storie che sono state considerate dai media aziendali (e dalla maggior parte degli accademici) come “disinformazione” ma che sono state successivamente rivelate come vere. Infatti Mark Zuckerberg ha ora ammesso che Facebook (Meta), insieme alle altre grandi aziende tecnologiche, è stata costretta a censurare la storia prima delle elezioni statunitensi del 2020 e anche successivamente pressata dall’amministrazione Biden/Harris per censurare storie sul covid che sono state erroneamente classificate come disinformazione.

Il problema è che lo stesso tipo di persone che decidevano cosa fosse e cosa non fosse disinformazione (generalmente persone di sinistra politica) erano anche quelle che venivano finanziate per produrre algoritmi di intelligenza artificiale (“IA”) per “imparare”: quali persone erano “diffusori di disinformazione”; e quali nuove affermazioni erano “disinformazione”.

Tra il 2016 e il 2022, ho partecipato a molti seminari di ricerca nel Regno Unito sull’uso dell’intelligenza artificiale e dell’apprendimento automatico per “combattere la disinformazione e la cattiva informazione”. Dal 2020, l’esempio del laptop di Hunter Biden è stato spesso utilizzato come esempio chiave di “apprendimento”, quindi gli algoritmi lo hanno classificato come “disinformazione” con sottoclassificazioni come “propaganda russa” o “teoria della cospirazione”.

Inoltre, ogni presentazione a cui ho assistito iniziava invariabilmente con, ed era dominata da, esempi di “disinformazione” che si sosteneva fossero basati su “bugie di Trump”, come quelle tra quelle che il Washington Post sosteneva fossero le “30.573 affermazioni false o fuorvianti fatte da Trump in 4 anni”.

Ma molte di queste presunte affermazioni false o fuorvianti erano già note per essere vere a chiunque al di fuori della bolla di lettura del Guardian/New York Times/Washington Post. Ad esempio, sostenevano che Trump aveva detto che “i neonazisti e i suprematisti bianchi erano persone molto perbene” e che chiunque negasse stava promuovendo la disinformazione, mentre persino l’estrema sinistra Snopes aveva sfatato questa affermazione nel 2017. Allo stesso modo, sostenevano che “la prova che Biden avesse la demenza” o che “a Biden piaceva annusare i capelli delle ragazzine” fosse disinformazione nonostante i numerosi video mostrassero esattamente questo, quindi, non credete ai vostri occhi bugiardi; in effetti, solo una settimana prima che la demenza di Biden non potesse più essere nascosta durante la sua esibizione in diretta al dibattito presidenziale, i media aziendali erano convinti che tali video fossero “trucchi a buon mercato” di disinformazione.

Ma gli accademici che presentavano questi Trump, Biden e altri esempi politici, ridicolizzavano chiunque osasse mettere in dubbio l’affidabilità degli oracoli auto-nominati che determinavano cosa fosse e cosa non fosse disinformazione. In una delle principali conferenze che si tenevano su Zoom, ho scritto nella chat: “Chiunque non odi Trump è il benvenuto a questo incontro?” La risposta è stata “No. I sostenitori di Trump non sono i benvenuti e se lo sei dovresti andartene subito”.

Purtroppo, la maggior parte degli accademici non crede nella libertà di pensiero, per non parlare della libertà di espressione quando si tratta di opinioni che sfidano la narrazione “progressista” su qualsiasi cosa.

Oltre alle storie di “disinformazione” legate a Biden e Trump che si sono rivelate vere, ci sono stati anche molteplici esempi di storie legate al Covid (come quelle che sostenevano tassi di mortalità molto bassi e mancanza di efficacia e sicurezza dei vaccini) classificate come disinformazione che si sono rivelate anch’esse vere. In tutti questi casi chiunque diffondesse queste storie veniva classificato come “diffusore di disinformazione”, “teorico della cospirazione” ecc. E sono questi tipi di ipotesi che guidano il modo in cui hanno funzionato gli algoritmi di “disinformazione” dell’IA sviluppati e implementati da organizzazioni come Facebook e Twitter.

Lasciatemi fare un esempio semplificato. Gli algoritmi generalmente iniziano con un database di affermazioni che sono pre-classificate come “disinformazione” (anche se molte delle quali si sono rivelate vere) o “non disinformazione” (anche se molte delle quali si sono rivelate false). Ad esempio, le seguenti sono state classificate come disinformazione:

“Hunter Biden ha lasciato un computer portatile con le prove del suo comportamento criminale in un’officina di riparazioni.”

“I vaccini anti-Covid possono causare gravi lesioni e morte.”

Il contrario di qualsiasi affermazione classificata come “disinformazione” è stata classificata come “non disinformazione”.

Un sottoinsieme di queste istruzioni viene utilizzato per “addestrare” l’algoritmo e altre per “testarlo”.

Quindi, supponiamo che la dichiarazione sul laptop sia una di quelle utilizzate per addestrare l’algoritmo e la dichiarazione sul vaccino sia una di quelle utilizzate per testare l’algoritmo. Quindi, poiché la dichiarazione sul laptop è classificata come disinformazione, l’algoritmo apprende che le persone che ripubblicano o mettono “mi piace” a un tweet con la dichiarazione sul laptop sono “diffusori di disinformazione”. In base ad altri post pubblicati da queste persone, l’algoritmo potrebbe classificarli ulteriormente come, ad esempio, “estrema destra”. È probabile che l’algoritmo scopra che alcune persone già classificate come “estrema destra” o “diffusori di disinformazione” (o persone a cui sono collegate) pubblicano anche una dichiarazione come: “I vaccini anti-covid possono causare gravi lesioni e morte”. In tal caso, l’algoritmo avrà “imparato” che questa affermazione è molto probabilmente disinformazione. Ed ecco fatto, poiché fornisce la classificazione “corretta” alla dichiarazione “test”, l’algoritmo è “validato”.

Inoltre, quando viene presentata una nuova affermazione di prova come “I vaccini anti-covid non fermano l’infezione da covid” (che era stata anche pre-classificata come “disinformazione”), l’algoritmo “imparerà correttamente” che si tratta di “disinformazione” perché ha già “imparato” che l’affermazione “I vaccini anti-covid possono causare gravi lesioni e morte” è disinformazione e che le persone che hanno affermato quest’ultima affermazione, o persone a loro collegate, hanno affermato anche la prima.

Il modo in cui ho delineato come il processo di intelligenza artificiale è progettato per rilevare la “disinformazione” è anche il modo in cui i “principali esperti di disinformazione al mondo” impostano il loro esperimento per “profilare” il “tipo di personalità” che è suscettibile alla disinformazione. Gli stessi metodi sono ora utilizzati anche per profilare e monitorare le persone che gli “esperti” accademici affermano essere “di estrema destra” o razziste.

Pertanto, un’enorme quantità di ricerca è stata (e viene ancora) spesa per sviluppare algoritmi “intelligenti” che semplicemente censurano la verità online o promuovono bugie. Gran parte dei finanziamenti per questa ricerca è giustificata dal fatto che la “disinformazione” è ora una delle più grandi minacce alla sicurezza internazionale. Infatti, nel gennaio 2024 il World Economic Forum ha dichiarato che “la disinformazione e la cattiva informazione erano i maggiori rischi globali a breve termine”. Anche la presidente della Commissione europea Ursula von der Leyen ha dichiarato che “la cattiva informazione e la cattiva informazione sono minacce più grandi per la comunità imprenditoriale globale rispetto alla guerra e al cambiamento climatico”. Solo nel Regno Unito, il governo ha fornito centinaia di milioni di sterline di finanziamenti a numerosi laboratori di ricerca universitari che lavorano sulla disinformazione. Nel marzo 2024, il solo Turing Institute, che ha diversi team dedicati che lavorano su questa e aree strettamente correlate, ha ricevuto 100 milioni di sterline di finanziamenti governativi aggiuntivi: ne aveva già ricevuti circa 700 milioni dalla sua fondazione nel 2015. Per ironia della sorte, il registro nazionale dei rischi del governo britannico del 2023 include come rischio cronico:

“Intelligenza artificiale (IA). I progressi nei sistemi di IA e nelle loro capacità hanno una serie di implicazioni che abbracciano rischi cronici e acuti; ad esempio, potrebbero causare un aumento di informazioni errate e disinformazioni dannose.”

Eppure continua a dare priorità ai finanziamenti per la ricerca sull’intelligenza artificiale per combattere questo rischio crescente di “dannosa disinformazione e cattiva informazione”!

Come Mike Benz ha chiarito nel suo recente lavoro e nelle interviste (supportate da prove dettagliate), quasi tutti i finanziamenti per le università o gli istituti di ricerca in tutto il mondo che svolgono questo tipo di lavoro, insieme ai “fact checker” che lo utilizzano, provengono dal Dipartimento di Stato degli Stati Uniti, dalla NATO e dal Foreign Office britannico che, sulla scia del voto sulla Brexit e dell’elezione di Trump nel 2016, erano determinati a fermare l’ascesa del “populismo” ovunque. È questo obiettivo che ha guidato la folle corsa dell’intelligenza artificiale per censurare Internet. Guarda questo video in cui Mike Benz ci guida attraverso un evento che ha avuto luogo nel 2019:

è stato ospitato dall’Atlantic Council, un’organizzazione di facciata della NATO, per formare giornalisti di organizzazioni tradizionali in tutto il mondo su come “contrastare la disinformazione”. Nota come chiariscono che “disinformazione” include per loro “malinformazione”, che definiscono come informazioni vere ma che potrebbero danneggiare la loro stessa narrazione. Spiegano come mettere a tacere tale “malinformazione”, in particolare dai post sui social media dell’allora presidente Trump prima delle elezioni del 2020. Nonostante le affermazioni secondo cui ciò non è accaduto (e in effetti tali affermazioni sono state classificate come disinformazione), i giornalisti coinvolti in seguito si sono vantati pubblicamente non solo di averlo fatto, ma che ha impedito la rielezione di Trump nel 2020.

La storia segreta della campagna ombra che ha salvato le elezioni del 2020, Time, 4 febbraio 2021

Aggiornamento: due articoli molto interessanti dei colleghi:

(Perché) la disinformazione è un problema? Association for Psychological Science, 23 ottobre 2022

Donald Trump è il motivo per cui ho lasciato Facebook dopo più di 10 anni, Jessica Rose, 30 agosto 2024

Informazioni sull’autore

Norman Fenton è professore emerito di Risk Information Management presso la Queen Mary University di Londra. È anche direttore di Agena, un’azienda specializzata nella gestione del rischio per sistemi critici. È un matematico di formazione il cui attuale focus è sul processo decisionale critico e, in particolare, sulla quantificazione dell’incertezza utilizzando modelli causali e probabilistici che combinano dati e conoscenza (reti bayesiane). L’approccio può essere riassunto come “dati intelligenti anziché big data”.

§§§

Aiutate Stilum Curiae

IBAN: IT79N0200805319000400690898

BIC/SWIFT: UNCRITM1E35

§§§

Condividi i miei articoli:

Libri Marco Tosatti

Tag: , , ,

Categoria:

Lascia un commento