Facebook i Microsoft daju 10 miliona dolara za automatsko otkrivanje deepfakea


Softverska zamena lica, poznata pod nazivnom "deepfake", stvara se korišćenjem gotovo svima dostupnih alata pokretanih veštačkom inteligencijom. Korišćenjem ove tehnologije moguće je zameniti lice glumca nekim drugim licem, kreirati video u kojem neko izgovara reči koje nije nikada izgovorio, nalazi se u situaciji u kojoj se nije našao, i slično.

O opasnostima deepfake videa već smo nešto detaljnije govorili, a o njima govori i tehnološka zajednica – pogotovo u kontekstu uticaja na javno mnijenje pre američkih predsedničkih izbora koji se održavaju krajem sledeće godine. Opasnost za društvo i demokraciju koja proizlazi iz lažnih vesti gotovo da je minorna u usporedbi sa potencijalnim opasnostima deepfakeova. Spoznali su to u Facebook-u i Microsoft-u pa su zajednički odlučili nešto da preduzmu po tom pitanju.

Ove su dve kompanije najavile, u saradnji sa nekoliko prestižnih američkih univerziteta, pokretanje takmičenja "Deepfake Detection Challenge" u kojem će pozvati developere i stručnjake da izrade algoritam za otkrivanje deepfake videa. Izazov će biti lansiran sledećeg meseca i trajaće do marta 2020. godine. Svim sudionicima bit će na raspolaganje stavljen set podataka za treniranje vlastitih AI modela, a na temelju kojeg će morati razviti algoritme za tačno prepoznavanje lažiranih i manipuliranih video isečaka.

Pobednik će biti odlučen prema efikasnosti modela koji je prikazan, a ukupni nagradni fond za celo takmičenje biće 10 miliona dolara. Krajnji cilj inicijative jest ostvariti napredak u otkrivanju lažnih videa i sprečavanju naprednog "petljanja" po video zapisima putem veštačke inteligencije.

Podeli
Pošalji
Podeli
Podeli
Pošalji
Pošalji

Komentariši! Budi prvi i započni diskusiju!
Broj komentara:
0

Postavi komentar

Vaš komentar:

 
Početna      Impressum      Pravila komentarisanja      Marketing      Kontakt
 

 
© 2009-2021 IT vesti - Sva prava zadržana. Zabranjeno je svako kopiranje sadržaja sajta bez pismene dozvole.