DÍGITS I ANDRÒMINES
Misc 04/07/2019

Galeria de ‘deep fakes’

La tecnologia d’intel·ligència artificial, capaç de manipular imatges i vídeos, ens posa cada cop més difícil saber què és veritat i què no a la xarxa

i
Albert Cuesta
4 min
Galeria de ‘deep fakes’

Ja fa uns dies que Deep Nudes, la repugnant aplicació capaç de despullar virtualment qualsevol dona a partir d’una fotografia seva vestida, no es pot descarregar de la web del seu programador. L’individu diu que només l’havia creat per experimentar si el seu algoritme d’intel·ligència artificial aconseguia eliminar la roba del cos d’una persona i recrear en el seu lloc de manera realista els pits i els genitals que hi havia a sota. A més, afegia que si el programa només despullava dones és perquè a la xarxa hi ha molts més nus femenins que masculins per entrenar l’algoritme. També assegura que l’allau de visites que va rebre la seva pàgina -que va acabar caient per saturació de trànsit- li ha fet entendre que la seva creació no era del tot acceptable. Un mea culpa poc creïble si es considera que la web oferia als inversors la possibilitat d’adquirir l’algoritme o de contractar el seu programador, que a aquestes altures ja deu estar posant la seva habilitat al servei d’alguna de les empreses que es dediquen al porno. I que a sobre servirà de ben poc, perquè Deep Nudes va ser descarregada més de mig milió de vegades abans de ser retirada. D’ara endavant, estigueu preparats per veure despullada qualsevol dona, fins i tot del vostre entorn, encara que mai s’hagi tret la roba davant l’objectiu d’una càmera.

Deep Nudes és només el més recent dels casos de deep fakes, la manipulació d’imatges i vídeos per simular l’existència de persones, objectes i situacions inventades que comuniquin informació falsa. La manipulació i el retoc fotogràfic no són res nou: gràcies als efectes especials d’Industrial Light and Magic, a la pel·lícula Forrest Gump de Robert Zemeckis (1994) el protagonista interpretat per Tom Hanks apareixia compartint escenes amb tres presidents dels EUA (John F. Kennedy, Lyndon B. Johnson i Richard Nixon). La diferència és que ara s’ha disparat l’ús de les tècniques d’aprenentatge automàtic -una branca de la intel·ligència artificial- perquè la disponibilitat de grans quantitats d’imatges permet entrenar els algoritmes per tal d’obtenir resultats sintètics extremadament realistes, que gent malintencionada pot fer servir per influir en l’opinió pública aprofitant la credulitat dels internautes i el poder de propagació de les xarxes socials.

Competició entre algoritmes

A més de les dades, l’altre factor tecnològic que afavoreix l’increment dels deep fakes és l’ús de les anomenades xarxes generatives antagòniques (XGA), un sistema que posa a competir entre ells dos algoritmes, un que genera imatges i un altre que les examina per determinar si són prou realistes. Com que les dues aplicacions van aprenent dels errors, el resultat final acaba sent molt eficient.

Entre els primers exemples de XGA destaca la ponència que tres investigadors de l’empresa Nvidia, fabricant de xips gràfics, van presentar l’any passat sobre un procediment per crear rostres humans inexistents a partir d’un arxiu de fotografies de persones. Suposadament havia de servir per generar personatges de videojoc, però ja hem vist la tecnologia aplicada en altres casos: a la Universitat de Kyoto han creat un algoritme que genera imatges realistes de persones en moviment amb possibilitat de triar-ne els trets facials, el pentinat i la roba. Ja s’hi han interessat diverses empreses de moda i les seves agències de publicitat, que hi veuen la solució per prescindir dels models humans i les llargues sessions fotogràfiques per als seus catàlegs de temporada. Un cas insospitat de la temuda substitució de la mà d’obra per robots.

També fan servir les XGA al centre de recerca de Samsung a Rússia, on aconsegueixen vídeos animats a partir de retrats fotogràfics o fins i tot pintats. Veure en moviment els rostres de Salvador Dalí o Marilyn Monroe no ens sobta gaire, perquè ja els hem vist al cinema o la televisió, però observar com cobren vida una fotografia de l’escriptor Fiódor Dostoievski o la Mona Lisa de Leonardo da Vinci ja impressiona més.

Un altre exemple d’imatges sintètiques creades amb intel·ligència artificial són les fotografies de plats inexistents que a la Universitat de Tel Aviv generen a partir de la seva recepta escrita, gràcies a l’entrenament amb el text de 52.000 receptes i les fotografies de 24.000 plats reals. I en el camp del vídeo, els lectors que siguin tan poc hàbils com jo a l’hora de ballar han de saber que l’algoritme Everybody Dance Now de la Universitat de Califòrnia a Berkeley els permet superposar la seva imatge als moviments, posem, de Bruno Mars o d’una ballarina clàssica.

Tot i això, no sempre calen intel·ligència artificial i moltes dades per obtenir un deep fake convincent. El creador del vídeo en què l’actriu Jennifer Lawrence surt parlant amb la cara de l’actor Steve Buscemi va agafar dos vídeos de YouTube i els va passar per una aplicació comercial d’edició. I el desaprensiu que va propagar una entrevista en què Nancy Pelosi, presidenta del Congrés dels EUA, semblava estar beguda només va haver d’alentir un 25% el vídeo original i apujar després l’altura del so per compensar-ho.

Sigui com sigui, el problema dels deep fakes és la seva capacitat d’engany. És obvi que ningú es pot creure l’existència de la suposada Jennifer Buscemi, però veure el teu polític de capçalera sostenint posicions del tot oposades a les que manté habitualment pot afectar la teva opinió i canviar el sentit del teu vot. Per això, a part d’una educació crítica en el respecte de gènere, en el consum de la informació i del foment de la moderació a l’hora de difondre contingut, són tan importants les eines que els mateixos creadors dels algoritmes enganyosos estan començant a crear per detectar les falsedats. Així, al departament de visió per computador de la Universitat Estatal de Nova York, a Albany, ja detecten els vídeos deep fake buscant-hi anomalies com una freqüència de parpelleig inferior a la típica dels humans. I els investigadors d’Adobe han col·laborat amb els de Berkeley per identificar amb un 99% d’encert -els observadors humans només assoleixen el 53%- les fotografies de persones retocades amb el programa Photoshop de la mateixa Adobe. Amb tot el mal que ha fet, sobretot a les dones, la manipulació de fotografies en moltes revistes, té un punt de justícia poètica.

stats