Изследователи от Университета Карнеги Мелън са създали метод за превръщане на едно видео в стила на друго. Вероятно това ви звучи малко странно, затова просто разгледайте видеоклипа по-долу. В него изследователите са взели клип с Джон Оливър и са го редактирали така, че да изглежда, че говори Стивън Колбърт. Друг пример е успехът им едно цвете съвършенно да имитира движението на друго.
Или с две думи: Софтуерът може да накара всекиго (или каквото и да е) да изглежда, че прави нещо, което всъщност никога не се е случвало.
“Мисля, че има много истории, които трябва да бъдат разказвани”, казва Аюш Бансал. Той и екипът му са създали инструмента, за да улеснят заснемането на сложни филми, чрез заместване на движението в прости, добре осветени сцени и копирането му в съвсем различен стил или среда.
“Това е един инструмент за художника, който задава първоначален модел, който свободно може да бъде подобрен”, каза той.
Как работи това?
Системата използва генеративни конфликтни мрежи (GAN), за да премести един стил на изображение върху друг, без наличие на особено много съответстващи данни. GAN обаче не са перфектни и създават много артефакти, които могат да объркат видеото, докато то се възпроизвежда.
В GAN се създават два модела: разграничител, който се учи да открие какво е в съответствие със стила на едно изображение или видео и генератор, който научава как да създава изображения или видеоклипове, които да съответстват на определен стил. Когато двата модела работят конкурентно генераторът се опитва да измами разграничителя, а разграничителят оценява ефективността на генератора. Така системата в крайна сметка научава как съдържанието може да бъде трансформирано в определен стил.
Изследователите създадоха също така и нещо, наречено Recycle-GAN, което намалява несъвършенствата чрез “не само пространствена, но и временна информация”.”Тази допълнителна информация, отчитаща промените във времето, допълнително ограничава процеса и води до по-добри резултати”, пишат изследователите.
Recycle-GAN очевидно може да се използва за създаване на така наречените “Deepfakes”, – когато нечестиви хора решат да симулират някой, който казва или прави нещо, което никога не е правил. Бансал и неговият екип са наясно с проблема.
“Това ни отвори очите, че подобни фалшификации ще бъдат създадени и ще имат такова въздействие. Намирането на начини за откриването им ще бъде важна цел, за да продължим да се движим напред “, каза Бансал.
Източник: TechCrunch