Deepfakes 2.0: Ужасяващото бъдеще на AI и фалшивите новини

Deepfakes 2.0: Ужасяващото бъдеще на AI и фалшивите новини

Представете си, че се виждате в порно видео. Голи. Нарушени. Освен че не си спомняте за действието, за стаята, в която сте, партньора, с когото сте, или заснемането с камерата. Това е така, защото всъщност не се е случило, поне не на вас.



Или си представете как се виждате във видеоклип, в който казвате неща, които никога досега не сте казвали, противоречиви неща, такива неща, които могат да ви струват работата или да ви отчудят от семейството и приятелите. Гласът, който чувате, определено е ваш, както и обратите на фразата, но вие не си спомняте какво е казано и сте ужасени от това, което чувате.

Такива са възможностите, разкрити от небезизвестни програми като FakeApp, които позволиха на лошите актьори да насложат лицето на нищо неподозиращите жертви върху тялото на някой друг, предизвиквайки предвидима вълна от фалшиви знаменитости. Видеоклиповете се наричат ​​deepfakes и макар да се говори много за опасностите, които те налагат, реалните проблеми са далеч по-широки, отколкото може би си давате сметка.



Deepfakes са само първата стъпка във верига от технологични разработки, които ще имат един отделен край: създаването на AI клонинги, които изглеждат, говорят и действат точно както техните шаблони. Използвайки невронни мрежи и програми за дълбоко обучение, тези клонинги първо ще съществуват във видео и във виртуални светове. Независимо дали съзнателно участвате или не, те ще осигурят взискателни репродукции на израженията на лицето ви, акцента, маниерите на речта, езика на тялото, жестовете и движенията, надхвърляйки простото трансплантиране на лица, за да предложат изчерпателни, многоизмерни имитации.

В по-далечното бъдеще този напредък в машинното обучение ще бъде съчетан с напредъка в роботиката, позволявайки на физическите роботи да приемат изцяло формата и поведението на определени човешки същества, както живи, така и мъртви. В процеса естеството на индивидуалността и личността ще бъдат променени, тъй като се оказваме, че живеем заедно със собствените си клонинги и пълномощници, които ще действат от наше име като алтернативни версии на нас самите.

Това не еWestworldнаучна фантастика. Вече започва да се случва.

emma watson deepfake fake порно видео
Дълбоко фалшиво видео на Ема Уотсън

Единична опаковка

От гледна точка на имитиране на конкретни хора на некогнитивно ниво, технологията на ИИ е близо до възможността да създаде убедителни виртуални клонинги. „Изразът на лицето, гласът и движенията на тялото са три примера за това, което ИИ би могъл да направи днес, ако приемем, че разполагаме с правилния тип и количество данни“, обяснява Хюсеин Абас, професор в Университета на Нов Южен Уелс, чиито изследвания обхващат такива области като AI и обработка на изображения, интелигентна роботика и взаимодействие човек-компютър. „Технологията се нуждае от някои подобрения, но осъществимостта на принципите вече е доказана.“



Като пример за това как невронните мрежи и дълбокото обучение вече могат да направят нещо повече от просто копиране на нечие лице, изследователи от Калифорнийския университет, Бъркли наскоро развита програма, която може да научи танцовите движения на един човек и да ги копира на втори. Докато изследователите трябваше да моделират телата на двамата индивиди като фигури във видеоклиповете, които те създадоха, тяхната работа илюстрира как ИИ вече може да учи и възпроизвежда сложни човешки движения.

Както Абас посочва, такова възпроизвеждане „се различава от имитирането на познание, което представлява психичните процеси, породили поведението“. И все пак Аббас вярва, че способността да се имитира вътрешното, както и външното поведение, породено от конкретен човек, може да бъде толкова близо, колкото едно десетилетие. „Днес имаме няколко истории за успех в ограничен контекст в тази посока, но предвиждам, че може да ни отнеме още 10-20 години, преди да достигнем критичната точка, необходима на технологиите за изкуствен интелект, за да се сближат до състояние, в което масово разпределеният изкуствен интелект изглежда неразличим от човек по начина, по който действа и се държи. '



ИИ може също да имитира отделни човешки гласове с високо ниво на точност. През февруари китайската технологична фирма Baidu съобщи че е разработила програма за задълбочено обучение, която може да възпроизведе гласа на всеки човек, след като го е слушала само за минута, докато стартиращ в Монреал Lyrebird стана публично достояние с подобен подвиг през април 2017 г. И също толкова впечатляващо, базираният в Сан Франциско Лука стартира чатбот, наречен Реплики миналата година, която се учи от моделите на речта на потребителя (или по-скоро от текст), за да създаде двойна от тях в разговор.

Въпросът е, могат ли всички тези постижения в машинното обучение да се комбинират в една програма за изкуствен интелект, която или във видеоклипове, или във виртуален свят, действа като невероятно реалистичен клонинг на потребител или неволен субект?

„Трудно е да се предскаже“, казва Брайън Фендли, експерт по образователен ИИ и директор на учебните технологии и уеб услуги в Университета на Арканзас в Монтичело. „AI може да бъде подходящ за имитация на човешко поведение като реч, почерк и глас. Някой ден дори можем да обединим всичко в един пакет, който може да премине като вид клонинг. ...

„Виждам, че много експерти изхвърлят цифри за прогнози за ИИ, които са на 20 години напред. Мисля, че се движи по-бързо от това. '



Въглеродни копия

В рамките на следващите две десетилетия технологията за изкуствен интелект ще се развие до точката, в която ще бъдат възможни редица неща. От една страна, хората вероятно ще имат достъп до продукти и услуги, които ще им позволят да създават клонинги от себе си и от приятелите и семейството си за собствено забавление (или терапия ). Такива клонинги ще бъдат достъпни чрез цифрови интерфейси или виртуални игрови светове, така че да могат да взаимодействат с тях, сякаш са истинското нещо.

„Да, в рамките на около 10 години, смесването на технология от типа ботбот и технология в стил deepfake ще може да генерира правдоподобно аудиовизуално взаимодействие чрез технология в стил Skype, за която човек би повярвал, че е истински човек, поне за кратък период “, казва Нел Уотсън, експерт по изкуствен интелект и преподавател в отдела за изкуствен интелект и роботика на университета Singularity.

Уотсън признава, че все още е необходим значителен напредък, преди наистина убедителните клонове на хора с изкуствен интелект да станат редовна характеристика на технологичния пейзаж. Независимо от това, тя смята, че ще бъде по-лесно да се произвеждат възпроизведения на знаменитости, базирани на ИИ.

„Един важен аспект е необходимостта да имаме добри данни за обучение, от които да работим“, казва тя. „За знаменитост това е доста лесно, като се има предвид разнообразие от филмови и телевизионни участия, интервюта и т.н. ... Във видеоигратаDeus Ex Невидима война, има персонаж, NG Resonance, с който играчът може да взаимодейства в различни павилиони в нощни клубове и т.н. Този герой се захранва от AI, но се основава на истинска човешка звезда ... Вероятно ще видим подобни взаимодействия с псевдо-истински AI -мощни персонажи, виртуални версии на исторически герои и злодеи, които могат да попълнят тематични места (например Hard Rock Café или закусвалня на тема Americana, може би). '

За разлика от това, Уотсън предупреждава, че клонирането на неизвестни индивиди ще бъде значително по-трудно, но не и невъзможно. „Възпроизвеждането на частно лице ще бъде предизвикателство в сравнение с неговото умишлено сътрудничество. Днес има технологии, които могат лесно да заснемат 3D модели от 2D кадри или видео и да възпроизвеждат акцент и просодия, така че репликирането на личността и правдоподобната „искра на живота“ ще бъде най-голямото предизвикателство. “

Въпреки това е очевидно, че такива видеоклипове и симулации са възможни с достатъчно данни и в ерата на големи данни и повсеместни социални медии би било наивно да ги изключим напълно. И ако приемем, че достатъчно лични данни могат да бъдат събрани тайно, клонингите биха могли да бъдат използвани по същия начин, по който дълбоките фалшиви порновидео се използват за унижаване на различни хора сега, макар и с по-убедителен и обширен набор от имитиращи способности.

Deepfakes: Персонализирани фалшиви порно знаменитости с участието на Ема Уотсън.
Още едно видео от deepmake на Ема Уотсън

Изпратете клонингите

Д-р Дейвид Леви не само вярва, че клонингите с изкуствен интелект ще пристигнат през следващите две десетилетия, но и за тях ще има значителен потребителски пазар.

„В рамките на 20 години ще има колекция от налични технологии, които ще позволят на компаниите да произвеждат роботи по подобие на всяко човешко същество“, казва Леви, международен майстор по шах, който комбинира любовта си към шаха с интерес към компютрите, за да създаде последен -дневна кариера като автор и експерт по ИИ.

В климат, дефиниран от порнографски видеоклипове с дълбок фалшификат, подобна прогноза би могла да причини безпокойство за мнозина, предвид огромния потенциал за злоупотреба. Но, Леви, авторът на Любов и секс с роботи , вярва, че клонингите на роботите ще имат редица законни приложения.

„Една идея е, че ще бъде възможно да се създаде робот по подобие на любим човек, който е починал. Така че, ако сте женени за някого в продължение на 50 години и той умре, можете да получите негова реплика “, казва той. (Това отчасти може да е препратка към Bina48 , робот, построен от Дейвид Хансън от Hanson Robotics и Sophia слава през 2010 г. и основан на „клонирането на ума“, т.е.

Друга функция за роботизирани клонове, базирани на AI, е тази на прокси или stand-in (главно) за известни личности. Като пример Леви цитира Хироши Ишигуро, който е известен програмиран андроид версия на себе си, за да изнася лекции от негово име. „Вече съществува една бизнес сделка, по която Сторми Даниелс превръща нейния образ в секс робот от компания в този бизнес“, казва той, позовавайки се на лицензионна сделка подписан през юни между порнографската актриса и базирания в Калифорния производител на секс роботи Realdoll.

Леви признава, че подобни лицензионни сделки със сигурност няма да бъдат чашата на всяка знаменитост. „Но еднакво в реалния свят на бизнеса и хората, които се опитват да печелят пари, мисля, че някои известни хора ще си помислят:„ Това е хубава идея. “Това е малко като 3D версия за изпращане на снимка на някого. Мисля, че това ще бъде друго важно използване на тези технологии. '

Необходимостта от ясни етични насоки

Разбира се, някои експерти смятат, че ще трябва да чакаме много по-дълго за наистина убедителни двойници.

„Обикновената имитация ще отнеме само още няколко години“, казва Тоби Уолш, професор по компютърни науки и инженерство в Университета на Нов Южен Уелс. „Но за да мине като човек, това е тестът на Тюринг. Ще минат 50, 100 или дори повече години, преди компютрите да могат да отговарят на всички наши способности. '

Хюсеин Абас е още по-консервативен в оценката си кога ще се появи неразличим ИИ, дори ако се съгласи, че сравнително реалистичните виртуални клонове на ИИ са само на едно или две десетилетия. „[T] предизвикателствата не са само ИИ. Понякога предизвикателствата са механични ограничения върху тялото на робота, а понякога това са материалите, използвани за производството, например на лицето на робота, където тези материали нямат естествена текстура или еластичност, за да направят правилна имитация “, казва той. „Може да ни отнеме векове, преди да можем да получим същия този ИИ на робот с човешки размер, без да разчитаме на някаква външна връзка през интернет.“

Изследователите не знаят кога ще можете да вървите по улицата с клонинга си, но моментът да решим как да се справим и да се предпазим от такива медии е тук сега.

„Освен ако общността не продължи да настоява за ясни етични насоки и граници за използването на ИИ, ще бъде неизбежно да видим бъдещ сценарий, при който хората да се появяват във видеоклипове, правейки неща, които в действителност не са правили“, предупреждава Абас. „Вероятно това ще започне като забавни приложения, но тогава ситуацията може много бързо да се обърне.“

Други експерти са съгласни, че последиците от напълно реализираните имитатори на ИИ ще бъдат смесени, като някои резултати са нови и забавни, а други се оказват по-обезпокоителни. „Ще имаме починали актьори в холивудските филми“, казва Тоби Уолш. „А политиката ще бъде силно обезпокоена от фалшиви видеоклипове на политици, които казват неща, които никога не са казвали.

Предвид засищането на фалшиви новини, които вече циркулират, възможно е съществуването на убедителни фалшиви фалшификати, виртуални клонинги и дори клонинги на роботи само да влоши ситуацията. В действителност, ако не е придружено от морска промяна в начина, по който критично оценяваме медиите, това би могло само да засили днешната тенденция към политическа поляризация, при която все повече обитаваме филтърните балони, които потвърждават нашите пристрастия и предразсъдъци.

„Границата между това, което е реално и не е реално, се променя“, заключава Фендли. „Нашата умствена сила да се противопоставим на поставянето на човешки черти върху роботите и да не попаднем под влиянието на неща, които знаем, че не са реални, в крайна сметка ще се провали. Ще ни стане по-удобно да живеем в променена реалност заедно с роботи и мощни ИИ. '