Odhalují falešná videa

Radiožurnál


Zachycují mimiku, mrkání, dech, napodobují hlas, a to už téměř dokonale. Řeč je o Deep fake videích, která můžeme na internetu vídat čím dál častěji, jak nám s rozpoznáváním falešných videí pomáhají technologie? Taky o tom vám povíme podrobněji v dnešním experimentu – Pořad z prostředí vědy a moderních technologií.

Doba, kdy umělá inteligence generovala 10 prstů na jedné ruce, je dávno pryč. Dnes už nám pro rozpoznání Deep Fakes nestačí pouhý pohled, proto je zapotřebí použít proti technologii jinou technologii, tu, která falešná videa dokáže spolehlivě odhalit. Teď na ní pracují vědci z Fakulty elektrotechnické, Českého Vysokého učení technického. Natáčela s nimi dnešní rosnička víkendového Radiožurnálu. Karolína Burdová.

mluvčí 2,
——————–
Uvidíme něco, co vypadá jako klasická scéna právě z těch televizních zpráv, ale ve skutečnosti to není, je to zcela syntetický obsah. Ti lidi vlastně nikdy neexistovali a nikdy neřekli to, co by řekli.

mluvčí 3,
——————–
Vypadá to autenticky. My vlastně vidíme moderátory televizních zpráv, opravdu máme pocit, že se díváme na něco opravdového, jak tady, ale my můžeme poznat, že je to Deep fake?

mluvčí 2,
——————–
No, velice těžko. Na první pohled to nepoznáme, ani na druhý, ani na zevrubný pohled, to je velmi obtížné poznat.

Karolína Burdová, redaktorka
——————–
Na Českém vysokém učení technickém se odhalováním Deep fakeů zabývá Jan Čech. Ukazuje mi video, které vytvořil nejnovější model od firmy Google.

mluvčí 2,
——————–
Je to pro synnematické účely, pro filmmakery, velice rychle vytvoříte film, na který se lidi můžou dívat a nebude to stát miliony dolarů, ale je to zneužitelné.

mluvčí 3,
——————–
Jak tedy složité nebo tedy spíše jednoduché, je takové video vytvořit?

mluvčí 2,
——————–
Představuj si, že člověk napíše text, co má na tom videu být a ono to prostě udělá něco.

mluvčí 3,
——————–
To znamená, že to zvládne i laik.

mluvčí 2,
——————–
Ano, ano. Je samozřejmě takovéto pro inženýring, že aby vás to poslouchalo, abyste dosáhla opravdu toho, co chcete, tak to vyžaduje určité úsilí, ale vlastně trošku zkušeností, to je možné dosáhnout.

Karolína Burdová, redaktorka
——————–
Paradoxně platí, že čím jednodušší je falešné video vytvořit, tím těžší je ho odhalit. Vzniká tak pomyslný závod mezi tvůrci Deep Fakeů a jejich detekcí. Podobně jako mezi viry a antiviry.

mluvčí 2,
——————–
Je to těžší a těžší. Kdybych měl jaksi extrapolovat. Ten trend bych řekl, že za chvíli už to bude zcela nemožné. Bude potřeba používat nějaký nástroj, abych to poznal, ale ten nástroj mi dává spolehlivost jenom zase na generátory, které zná, a programátor, které nezná, to vlastně poznat nedokáže.

Karolína Burdová, redaktorka
——————–
Podle Čecha to tak znamená jediné, ani ty nejlepší detektory zatím nefungují stoprocentně spolehlivě, jsou totiž natrénované hledat v obraze neviditelné stopy, ale i ony fungují jen tehdy, pokud už mají příklady podobných videí, na kterých se mohli takzvaně učit.

mluvčí 2,
——————–
Máme několik přístupů, máme sadů generovaných obrázků syntetických, sadů reálných, snažíme se rozpoznat, který je který, to funguje velice dobře, ale pokud nemám k trénovací sadě generátor, který pak chci detekovat, tak nemám šanci. Pak další věc je, že neučím model úplně od nuly, ale používám nějaký case found model, to je velký model, který viděl v zásadě celý internet a který poskytuje reprezentaci takovou, která je vhodná k detekci právě těchhle těch fejků.

Karolína Burdová, redaktorka
——————–
Vědci tedy ve zkratce proti umělé inteligenci využívají taky umělou inteligenci a snaží se s nejnovější technologií udržet krok. Deep Faky zkoumají vědci taky na Univerzitě Karlově ve výzkumu, kterého se zúčastnilo asi 3000 respondentů, zjistili, že Češi jsou v odhalování falešných videí poměrně úspěšní.

mluvčí 4,
——————–
Pouze 15 % jich selhává s tím, že tohle konkrétní měření máme naměřené víckrát, během roku a půl čtyřikrát a to číslo zůstává konstantní.

Karolína Burdová, redaktorka
——————–
Podle datového analytika Lukáše Kutila jsou v odhalování DeepSeek videí nejúspěšnější Češi ve středním věku.

mluvčí 4,
——————–
Lidé, kteří hůře identifikují Deep fake, jsou paradoxně ti nejmladší, jsou to lidé pod 24 let, tito lidé mají v podstatě mnohem méně kontextu pro sledování videí, než mají starší generace, kteří vyrostli ještě v analogové době.

Karolína Burdová, redaktorka
——————–
Rozpoznávání Deepfejků tedy bude podle expertů čím dál složitější. O to důležitější je zůstávat obezřetní a ověřovat informace z více zdrojů.

Deep fake videa můžou šířit dezinformace, ovlivňovat veřejné mínění, poškozovat reputaci lidí nebo být zneužité k vydírání a podvodům. Odhalovat je se snaží kromě vědců taky server Demagog. Cz. Zaměřuje se na ověřování výroků politiků a veřejně známých osobností a tím přispívá k boji proti dezinformacím. Mluvili jsme s jeho šéfeditorem Janem Frydrychovským.

mluvčí 3,
——————–
Rozpoznávání deep faku je vlastně čím dál tím složitější, jak vy pracujete, jak vy rozpoznáváte Deep fake?

mluvčí 5,
——————–
Ta technologie se vyvíjí, ty technologie jsou schopné vytvořit dneska Deep fake, který už je lidským okem naprosto nerozeznatelný, ale pořád většina těch Deep fakeů, se kterými my se setkáváme, je, řekněme, nekvalitních, takže tam jsou různé tzv. vizuální artefakty, prostě nějaké prvky, které nepůsobí přirozeně a jenom trošku. Zkušený člověk běžným okem jako pozná, že tam něco nesedí, že to video není autentické. Týká se to například nepřirozených pohybů rtů při mluvení nebo pohybu hlavy a v případě třeba obrázků generovaných umělou inteligencí, tam často můžeme vidět nepřirozené třeba tvary prstů na rukou a tak dál.

mluvčí 3,
——————–
Vy jste zmínil nějaké ty fígle, podle kterých můžeme rozpoznat Deep fake, jako třebaže zvuk není synchronní se rty, třeba to, jak se pohybuje pusa, nebo že je na videu vícero prstů, než by mělo být, ale je ještě nějaká jiná možnost, jak si jako běžný uživatel sociálních sítí můžu pomoct v rozpoznávání těchhle těch falešných videí.

mluvčí 5,
——————–
Když jako uživatel narazím na nějaké video, u kterého mám podezření, že se jedná o deepfake, tak je snadné řešení v tom, že si udělám snímek, respektive screenshot toho videa v nějakém konkrétním momentu, vlastně je celkem jedno, v jakém momentu a potom ten screenshot si pomocí zpětného vyhledávání obrázků například na Googlu vyhledám a tím se dostanu k dalším výskytům toho samého, videa, anebo ideálně k dalším výskytům toho autentického původního videa, ze kterého byl ten Deep fake vytvořený a potom si můžu porovnat to autentické video s tím Deep fakem a už tam poznám, které z nich je upravené a které ne.

mluvčí 3,
——————–
Ta technologie se čím dál zlepšuje. Co budete dělat pak, až už to nebude tak viditelné? To, že se jedná o Deep fake.

mluvčí 5,
——————–
Existují technické detekční nástroje, které s určitou mírou pravděpodobnosti dokážou říci například video bylo vygenerované pomocí umělé inteligence, ale ty nástroje nejsou dokonalé a zejména pracují s nějakou mírou pravděpodobnosti, že třeba řeknou, že na 80 % to video bylo vygenerované pomocí umělé inteligence, což ale pro nás není dostatečné. My bychom chtěli mít stoprocentní jistotu a v těchhle případech se budeme muset dívat na například analýzu šíření toho videa, kde se poprvé objevilo, kdo ho rozšířil, jakým způsobem rozšířil, jestli tam jsou nějaké znaky, třeba nějaké koordinované akce, jestli to například naráz rozšířilo více účtů, které jsou zjevně autentické.

mluvčí 3,
——————–
Jaká je podle vás budoucnost těchhle videí a fotografií Deep Fakeových?

mluvčí 5,
——————–
Myslím, že si budeme muset jako společnost zvyknout na to, že velká spousta obsahu na internetu je právě vytvořená pomocí umělé inteligence a tak jako jsme si zvykli na to, že fotky můžou být upravené pomocí Photoshopu a dalších nástrojů, tak si budeme muset zvyknout i na to, že to, co je na videu nebo to, co je na audionahrávce, nemusí odpovídat realitě, takže bude nutné být daleko více obezřetný. Velkou roli bude hrát nějaká mediální informační gramotnost, která samozřejmě musí začínat už ve školách, ale věřím, že jako společnost se s tím naučíme žít, protože už jsme se naučili žít s Photoshopem a s dalšími typy manipulací na internetu, tak doufám a věřím, že to zvládneme i s těmi videodeep faky.

Karolína Burdová, redaktorka
——————–
Uzavírá šéf, editor serveru Demagog. CZ Jan Frydrychovský.

Radiožurnál.

Buďte první, kdo vloží komentář

Přidejte odpověď

Vaše e-mailová adresa nebude zveřejněna.