Adobe gebruikt AI om deep fakes te ontmaskeren
In de VS is de laatste dagen veel te doen om deep fakes: nepvideo’s waarin bekende mensen iets lijken te zeggen wat ze nooit gezegd hebben. Bijvoorbeeld de video waarin Nancy Pelosi dronken lijkt, of die waar Marc Zuckerberg zijn eigen Facebook neerzet als misdaadsyndicaat, of die waarin Jon Snow zijn excuses aanbiedt voor het einde van Game of Thrones. Allemaal nep.
De moeilijk van echt te onderscheiden video’s zijn gevaarlijk omdat ze de twijfel over wat waar is en wat niet vergroten. Ook Adobe maakt zich zorgen om de ‘ethische implicaties’ van de geavanceerde software die ze zelf heeft ontwikkeld (maar niet als enige, er is bijvoorbeeld ook StyleGAN van Nvidia). Daarom ontwikkelt het bedrijf nu samen met de University of California in Berkeley software die met behulp van kunstmatige intelligentie beelden van echte gezichten kan onderscheiden van nepbeelden.
De software is nog lang niet uitontwikkeld, maar bij een recente proef herkende de software 99% van de bewerkte beelden als zodanig, waar een menselijke controlegroep niet verder kwam dan 53%. De software is zelfs in staat om de wijzigingen weer ongedaan te maken.
Of en wanneer de software het lab verlaat en beschikbaar komt voor factcheckers of het algemene publiek is nog lang niet duidelijk. Daarvoor is het te weinig getest, bovendien is er zware hardware nodig om de berekeningen uit te voeren.