27 април, 2024

Доверието в интернет е нещо условно поради множеството фалшиви профили, преструващи се за други хора или пък откраднати снимки. Но се задават времена с изцяло фалшиво създадени личности, на базата на изкуствен интелект. Използвайки GAN (generative adversarial network) софтуер от Nvidia, New York Times създадоха AI система, която генерира портрети на хора, несъществуващи в действителност. Работи се лесно – само с малки промени и настройки, може да бъде избрана раса, пол, настроение и др. Но къде ни отвежда тази технология?

Изглежда, че използвайки услугите на сайта Generated.Photos, можем да закупим фалшив човек, на стойност от не повече от 3 долара. Също така се забелязва, че при всеки “рефреш” на сайта ThisPersonDoesNotExist.com, се появява ново и ново лице, което лесно можем да изтеглим и да използваме за нашите цели. Логично е да си представим колко точно опасно може да бъде това оръжие в социалните мрежи, използвано от грешните хора.

За да тестват всичко това, от New York Times създават своята AI система, която съзира във всеки портрет сложна математическа фигура, с определен набор от стойности, които могат да се променят – настроение, възраст, перспектива на снимката и т.н. Това става, когато се вкарат снимки на множество хора в компютър, който ги изучава и започва своя процес на хибридизация, с цел създаването на свой набор от личности.

Това явление според New York Times може да бъде опасно в бъдещ план, когато социалните мрежи се напълнят с изцяло фалшиви профили с фалшиви снимки, имитиращи реален живот – снимки от партита, пътешествия и т.н. Би било изключително трудно да се определи кой в интернет пространството е истински и кой е продукт на компютърното въображение.

Разбира се, ако се изправи AI срещу AI, потенциалните вреди могат да бъдат редуцирани. Например, компанията Clearview AI се е заела със събиране на милиарди публични снимки от интернет, така че да създаде приложение, което може успешно да разпознава снимки. Технологията е обещаваща, но такъв тип facial-recognition алгоритми са доказали, че са способни на сериозни грешки на този етап. Тук в NYT дават пример с image-detection система, разработена от Google, която през 2015 г. е разпознала двама чернокожи на снимка като горили. Освен това се е случвало и камери, използващи facial-recognition, да се припознават в грешен човек. Това е ставало и причина за правене на арести на изцяло невинни хора.

Определено AI навлиза все повече и приложенията му могат да са в голяма полза. Но вредното използване на фалшиви профили, създаването на фалшиви самоличности, подобно на deep fake, може да доведе до сериозни заплахи за демократичните процеси по света. Камил Франсоа, изследовател по дезинформираност, споделя пред NYT, че в началото технологията е била доста лоша като качество. “Когато се появи през 2014 г., изглеждаше като от играта Sims, но виждаме колко бързо се е усъвършенствала. А това значи, че ще става по-сложно с времето да се направи разликата между реалното и фалшивото”.

Тагове: , , , , , , , , , , , , , , , , , , , , ,
Author