Mentre l'espressione 'Four Horsemen of the Infocalypse' è stata a lungo utilizzata su Internet per riferirsi a criminali come spacciatori di droga, riciclatori di denaro, pedofili e terroristi, il termine 'Infocalypse' è stato introdotto nel mainstream relativamente di recente dal laureato del MIT Aviv Ovadya, che attualmente lavora come Chief Technologist presso il Center for Social Media Responsibility (UMSI). Nel 2016, al culmine della crisi delle fake news, Ovadya aveva espresso preoccupazione ai tecnologi della Silicon Valley per la diffusione di disinformazione e propaganda camuffate da vere notizie in una presentazione intitolata 'Infocalypse'.
Secondo la sua presentazione, le piattaforme Internet come Google, Facebook e Twitter guadagnano i loro ricavi, tutte orientate a premiare i clic, le condivisioni e le visualizzazioni piuttosto che dare la priorità alla qualità delle informazioni. Questo, ha sostenuto, sarebbe stato un vero problema il prima possibile, visto quanto è diventato facile pubblicare qualsiasi cosa si senta senza filtri. Con le principali società di Internet che ignorano in gran parte le sue preoccupazioni, Ovadya ha descritto la situazione come "Macchina sbandata fuori controllo" che tutti hanno semplicemente ignorato.
Mentre le sue previsioni si sono ora dimostrate spaventosamente accurate, ci sono altre cattive notizie per coloro che sono preoccupati per l'offuscamento dei confini tra la verità e la propaganda politicamente motivata. Secondo lui, l'IA sarà ampiamente utilizzata nei prossimi due decenni per campagne di disinformazione e propaganda. Per fermare quel futuro distopico, Ovadya sta lavorando in tandem con un gruppo di ricercatori e accademici per vedere cosa si può fare per prevenire un'apocalisse dell'informazione.
Uno di questi aspetti sono i deepfake oi video generati dall'intelligenza artificiale di celebrità trasformati in altri video, in gran parte porno. Reddit ha recentemente bandito almeno due di questi subreddit chiamati 'r / deepfakes' e 'r / deepfakesNSFW' che avevano già migliaia di membri e distribuivano falsi video pornografici di varie celebrità, come Taylor Swift, Meghan Markle e simili. Altre piattaforme, come Discord, Gyfcat, Pornhub e Twitter, nel frattempo, hanno anche bandito il porno face-swap non consensuale sulle loro piattaforme.
Al di là della violazione della privacy individuale, Ovadya afferma che tali video potrebbero avere un effetto destabilizzante sul mondo, se usati per guadagni politici. Possono "creare la convinzione che si sia verificato un evento" per influenzare la geopolitica e l'economia. Tutto ciò di cui hai bisogno è alimentare l'IA con il maggior numero possibile di filmati di un politico bersaglio e trasformarli in un altro video che dice cose potenzialmente dannose.
L'unico filo di speranza, tuttavia, è che le persone stanno finalmente ammettendo di aver sbagliato a escludere la minaccia dalle fake news due anni fa. Secondo Ovadya, “All'inizio era davvero brutto - pochi ascoltavano. Ma gli ultimi mesi sono stati davvero promettenti. Alcuni dei controlli e degli equilibri stanno cominciando a prendere posto ". Sebbene sia certamente positivo che i tecnologi stiano cercando di affrontare un problema che dovrebbe peggiorare nei prossimi anni, sarà interessante vedere quanto saranno preparati per l'imminente guerra dell'informazione quando ci sarà finalmente presentato lo scenario peggiore. , dato che, "Molti dei segnali di allarme sono già accaduti", secondo Ovadya.