Mens uttrykket 'Four Horsemen of the Infocalypse' lenge har blitt brukt på internett for å henvise til kriminelle som narkotikahandlere, hvitvaskere, pedofiler og terrorister, ble begrepet 'Infocalypse' relativt nylig brakt til mainstream av MIT grad Aviv Ovadya, som for tiden jobber som sjefsteknolog ved Center for Social Media Responsibility (UMSI). I 2016, på høyden av falske nyhetskrisen, hadde Ovadya uttrykt bekymring overfor teknologer i Silicon Valley om spredning av feilinformasjon og propaganda forkledd som reelle nyheter i en presentasjon med tittelen 'Infocalypse'.
I følge presentasjonen hans tjener internettplattformer som Google, Facebook og Twitter inntektene sine alle på å belønne klikk, aksjer og seertall i stedet for å prioritere kvaliteten på informasjonen. Det argumenterte han for å bli et reelt problem snarere enn senere, gitt hvor enkelt det har blitt å legge ut hva noen føler for uten filter. Da store internettbedrifter i stor grad ignorerer bekymringene hans, beskrev Ovadya situasjonen som “Bilpleie ute av kontroll” som alle bare ignorerte.
Mens spådommene hans nå har vist seg å være skremmende nøyaktige, er det flere dårlige nyheter for de som er bekymret for uskarphet av linjene mellom sannheten og den politisk motiverte propagandaen. Ifølge ham vil AI bli mye brukt de neste par tiårene for feilinformasjonskampanjer og propaganda. For å stoppe den dystopiske fremtiden jobber Ovadya sammen med en gruppe forskere og akademikere for å se hva som kan gjøres for å forhindre en informasjonsapokalypse.
Et slikt aspekt er deepfakes eller AI-genererte videoer av kjendiser som ble omgjort til andre videoer, i stor grad porno. Reddit forbød nylig minst to slike underreddits kalt 'r / deepfakes' og 'r / deepfakesNSFW' som allerede hadde tusenvis av medlemmer, og distribuerte falske pornografiske videoer av forskjellige kjendiser, som Taylor Swift, Meghan Markle og lignende. Andre plattformer, som Discord, Gyfcat, Pornhub og Twitter, har i mellomtiden også utestengt ansiktsbyttingsporno uten samtykke på sine plattformer.
Utover brudd på individets privatliv, sier Ovadya at slike videoer kan ha en destabiliserende effekt på verden hvis de brukes til politiske gevinster. De kan "skape troen på at en hendelse har skjedd" for å påvirke geopolitikk og økonomi. Alt du trenger er å mate AI med så mye opptak av en målpolitiker som mulig, og få dem til å spille på en annen video som sier potensielt skadelige ting.
Det eneste håpet er imidlertid at folk endelig innrømmer at de tok feil for å stenge trusselen fra falske nyheter for to år siden. I følge Ovadya, “I begynnelsen var det veldig dystert - få lyttet. Men de siste månedene har vært veldig lovende. Noen av kontrollene begynner å falle på plass ”. Selv om det absolutt er positivt at teknologer ønsker å løse et problem som forventes å bli verre de neste årene, vil det være interessant å se hvor godt de vil være forberedt på den kommende informasjonskriget når vi endelig blir presentert for det verste tilfellet , gitt at, “Mange advarselsskilt har allerede skjedd”, ifølge Ovadya.