Меню Затваряне

Deepfake и бъдещето на компютърните престъпления

Deepfake е технология за създаване на фалшиви видеа.

Повечето от вас знаят, че с подходящ софтуер като Photoshop може да се създаде фалшиво изображение на човек, сграда, пейзаж и т.н. Deepfake ви позволява да направите същото, но с видео.

С дийпфейк видеа могат да се слагат думи в устите на влиятелни хора и по този начин да се манипулира обществото. Ето един от по-известните примери за дийпфейк видеа с образа на бившия американски президент Барак Обама.

Това не е Обама; той никога не е снимал това видео. Образът му е генериран от софтуер с изкуствен интелект и манипулиран така, че да изглежда като истинско видео.

Дийпфейк навлиза все повече като потребителска технология. В началото на септември 2019 едно от най-сваляните мобилни приложения в Китай беше Zao. То позволява на потребителите да интегрират лицето си в сцена от популярен филм.

Въпреки че технологията не е перфектна, в някои от случаите резултатите са впечатляващи. Можете да видите някои от тях в следващото видео, където потребител е вградил лицето си в сцени от „Ромео и Жулиета“ с Леонардо Дикаприо.

Deepfake и връзката с компютърните престъпления

Дийпфейк видеата могат да са изключително ефективни при фишинг кампании. Те създават усещане за автентичност, а голяма част от потребители все още не могат да ги разпознават. Те нямат дори знанието, че е възможно видео изображения да се манипулират толкова успешно.

Дийпфейк може да намери приложение в т.нар. измами със служебен имейл(BusinessEmail Compromise). По данни на ФБР тези измами са най-доходоносното компютърно престъпление през 2018 и са генерирали печалби за 1.3 млрд. долара.

Ето как действа измамата.

1. Престъпникът проучва служител в компания, който отговаря за паричните трансфери (счетоводител или сходна позиция)

2. Престъпникът изпраща на служителя фалшив имейл, в който се представя за управителя на фирмата

3. В имейлът се нарежда на служителя да направи паричен превод до банкова сметка, която се контролира от престъпника

4. След като трансферът е направен, престъпникът изтегля парите, преди служителят да разбере измамата

Ако един фалшив имейл е достатъчен да заблуди служителя да направи подобно нещо, представете си с каква готовност ще преведе парите, ако види видео с нареждане от шефа си.

Технологията вече се използва от престъпниците

Тази тактика вече се използва успешно от хакерите, ако се вярва на The Wall Street Journal. Според изданието измамниците са използвали изкуствен интелект, с който са направили аудио дубликат на гласа на главния изпълнителен директор на германска компания.

По този начин те са успели чрез телефонно обаждане да наредят превеждането на около 250 хил. долара към контролирана от тях банкова сметка. Формално преводът е бил направен от британското звено на германската компания.

Изненадващо достъпна

Deepfake става все по-достъпна. Тези пичове твърдят, че могат да ви спретнат ваше собствено дийпфейк видео за около 10 долара. Трябва да качите две видеа на сайта им, а обработката им става в облака, вие само си дърпате готовия монтаж.

Не съм тествал качеството на услугата и едва ли крайният резултат ще е зашеметяващо автентичен, но технологията се подобрява с времето. В същото време цената й пада (вижте колко безплатни сайтове за манипулиране на снимки има сега в интернет), което ще я направи още по-достъпна в бъдеще.

Разбира се, автентичността на едно видео може да се установи лесно: така, както може да се установи дали една снимка е манипулирана с Photoshop. Но преди да се стигне до установяване на автентичност, потребителите ще трябва да свикнат с идеята, че манипулацията на видео е факт, с който вече може да се злоупотребява.

Related Posts

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *