Рубрика: Информатика
Совршено лажни видеа направени од вештачка интелигенција?
Автор: Ива Зафировска
Ова е само дел од статијата која во целост е објавена во

Емитер 4-6/2019.

Нарачајте го овој број или најавете се за да ја прочитате целата статија.


Прашањето што е вистината, во последно време не е само филозофско и мета­физички теоретско. Со напредокот на компјутерската технологија, обичниот човек тешко може да разликува лажна, фабрикувана видеоснимка од вистинита и реална. Први на удар на ваквите лажни видеа се личностите од јавниот живот, актерите и политичарите. Но тоа сигурно нема да запре таму. Само прашање на време е кога и вие ќе станете “главен актер” во некое лажно компримитирачко видео, само затоа што на соседот “случајно” сте му го зафатиле паркинг местото што тој го смета за свое.

Способноста на алгоритамот на вештачката интелигенција да креира наизглед реални снимки од кој било човек е тема што предизвикува голема популарност и кај обичните луѓе. На интернет можат да се пронајдат видеоснимки од луѓе кои прават нешто што никогаш не го правеле. Вистински луѓе, точен лик, речиси точни, фотореалистични снимки, но целосно невистинит настан. Може да се оживеат и слики.

Овие видеа се нарекуваат “дипфејк” (потполно лажни) и се направени со некоја одредена технологија, алгоритам на вештачка интелигенција. Секако, прво се појавиле во порно филмовите. Постои ептен добро развиен онлајн-пазар, на кој ликот од кој било човек можете да го залепите” на главата на порно-актерот или атерката. Меѓутоа, сега луѓето се загри­жени поради можноста овие снимки да можат да влијаат на политичкиот живот. За тие можности, Британската влада и Американскиот конгрес барале начин за негово регулирање.

* * * * *

Дипфејк видеото создадено од уметникот Бил Постерс

Клучни зборови:

Ова е само дел од статијата која во целост е објавена во Емитер 4-6/2019. Нарачајте го овој број за да ја прочитате целата статија, а ако веќе го имате купено електронското издание најавете се за да го прочитате.