El nou sistema d’IA de Samsung converteix fotos en vídeos

realistes-neurals-cap-parlants
Compartir

“Estem entrant en una era en la qual els nostres enemics poden fer que qualsevol persona digui el que ells vulguin, fins i tot si mai les han dit”. El desembre de 2017, un usuari de Reddit conegut com a DeepFakes demostrava, a través d’un gran nombre de vídeos porno falsos amb cares de famoses, el fàcil que era modificar la realitat a través de la intel·ligència artificial.

Arran d’aquells vídeos, cada vegada són més les persones que recorren a aquesta tecnologia amb l’objectiu de perfeccionar-la i utilitzar-la en diferents àmbits. Des del guionista Jordan Peele, qui advertia a través del rostre de Barack Obama que no ens creguem tot el que veiem fins a la start up japonesa DataGrid, capaç de generar imatges fotorrealistes de persones a partir de zero.

La Gioconda, Eintein i Dalí recobren vida

L’última d’elles ha estat el centre de recerca de Samsung a Moscou, que ha demostrat ser capaç de generar un vídeo a partir d’una foto. Tot això gràcies a un nou sistema d’intel·ligència artificial, batejat com a Realistic Neural Talking Head Models (realistes neurals caps parlants), mitjançant el qual podem controlar el rostre d’una tercera persona (sigui en la vida real o bé a través d’una fotografia o un quadre) en qüestió de segons.

I quina diferència aquesta tecnologia d’unes altres que s’han presentat amb anterioritat? Principalment en què no requereix l’ús de modelatge 3D i que a penes necessita una fotografia per a crear un model parlant. Per a això es basa en l’aplicació de punts de referència en els moviments d’un ‘rostre objectiu’ sobre un ‘rostre font’. En aquest cas, els investigadors ens mostren com funciona la tecnologia amb personatges com La Gioconda, Marilyn Monroe o Salvador Dalí.

Una tècnica cada vegada més perfeccionada

A continuació, el sistema crea una xarxa que assigna punts de referència als vídeos sintetitzats i avalua el realisme i la posa dels marcs generats. Segons expliquen els desenvolupadors d’aquesta intel·ligència artificial, tot això és possible gràcies a la gran base de dades de caps parlants amb diferent aparença de les quals disposen i al posterior metaprenentatge.

Després d’entrenar a una xarxa generativa antagònica (GAN) perquè processi els diferents rostres, aquesta és capaç de donar vida a tota mena d’obres en qüestió de segons. Per tant, el sistema desenvolupat per l’equip d’investigadors de Samsung ens demostra que cada vegada és més senzill alterar la realitat. Tan sols necessitem una fotografia i un missatge a compartir, per a aconseguir que personatges com Albert Einstein diguin el que nosaltres vulguem.

El nou sistema d’IA de Samsung converteix fotos en vídeos
Valoreu aquesta publicació

Gemma
Redactora d'YCOM. T'acosta el contingut que genera més conversa a la xarxa.
Etiquetes: