Az alapszintű, képbehelyező kurzus messziről – a megtévesztő mozgóképes tartalmak fajtáival – indít, ezután megy rá a deepfake technológia bemutatására, hogy aztán a végén néhány tanácsot adjon az így készült videók felismeréséhez. Végigmentem a kurzuson – ennek a tanulságait foglalom most össze ebben a cikkben.

1. fejezet: A mozgóképeken alapuló manipuláció formái

A jelenleg négy nyelven elérhető kurzus első részében megismerhetjük a manipulált médiatartalmak különböző formáit:

Hiányzó/hamis kontextus | Azokról az esetekről van szó (és az összes közül ez a leggyakoribb jelenség), amikor a felvétel valódi, de nem azt ábrázolja, amit a mellé csatolt szövegben állítanak róla, vagy az adott történésnek csupán egy részletét mutatja meg. Ilyen például az, amikor egy természeti katasztrófa során régi/máshol készült felvételeket húznak elő, vagy amikor terrortámadás során egy járókelő az elkövetőt feltartóztató férfit videózza le, és küldi be úgy a médiának, mintha lenne egy felvétele a támadóról. Ezek a kép/történet-kombók lehetnek szándékosan megtévesztők, de előfordul, hogy a készítő csupán félreérti a helyzetet.

Szerkesztett videók | Itt egy kis vágással, a felvétel lassításával/gyorsításával, a hang módosításával vagy egy sima instagramos filterrel érik el azt, hogy a változtatásnak köszönhetően egy teljesen más történet áll elő. Erre is rengeteg példát hozhatunk: a Nancy Pelosit részegnek mutató felvételtől kezdve a gyakornokra “támadó” CNN-újságírón át az űrhajósnőnek beintő Donald Trumpig.

Footage of Nancy Pelosi deliberately slowed down to make her appear drunk

Video of Nancy Pelosi has been edited to give the impression that the Democratic House Speaker is drunk or unwell, in the latest incident highlighting its struggle to deal with disinformation. The viral clip shows Pelosi – who has publicly angered Donald Trump in recent days – speaking at an event, but it has been deliberately slowed down to give the impression she is slurring her words.

Megrendezett felvétel | Ebben az esetben nem utólag manipulálják a felvételt, hanem egy előre eltervezett és megjátszott eseményt filmeznek le. Elképzelhető, hogy már a felvétel készítése része a szándékos megtévesztésnek, például amikor egy megrendezett verekedéssel az utcai erőszak elharapózódását akarják illusztrálni. De olyan is előfordul, hogy egy művészi produkciót látnak el utólag hamis magyarázattal, mint például amikor egy dokumentumfilm felvételeit látva valaki azt kezdte terjeszteni, hogy a vízbe fúló migránsokat ábrázoló felvételek megrendezettek. És arra is volt már példa, hogy a megrendezett videóval valamilyen ügyre kívánták felhívni a nézők figyelmét – ilyen volt a horvát tűzoltók focivébé utáni vicces videója, amely a pirotechnika veszélyeire figyelmeztetett.

Croatia AMAZING Firefighters Can’t Watch last Penalty

Amazing

Számítógépes manipuláció (CGI) | Vagyis mindazon esetek, amikor a valóságosnak tűnő felvétel digitális manipulációs eszközökkel készül. Van, hogy e videók célja csupán annak prezentálása, hogy a felvétel készítője mire képes (utólag persze ezek a felvételek is kijátszhatók más célokra), de rosszindulatú megtévesztés is lehet a manipuláció motivációja. Ilyesmivel az oldalon legutóbb ebben a koreai vidámparkos videóban találkozhattatok, a hasonló megtévesztések leleplezésére szakosodott Captain Disillusion tolmácsolásában.

Quick D: Gyro Drop

Captain Disillusion takes us on a ride of a lifetime. Please consider supporting my videos on: http://www.patreon.com/CaptainDisillusion Special thanks to the students of Bongpyeong High School (봉평고등학교) Actors: 최지성 추연진 황성호 Camera: 전승현

Deepfake | Amikor a CGI kreativitásához hozzáadjuk a fejlett gépi intelligenciát és a gépi tanulást, a lehetőségek kibővülnek. A technológia segítségével újrateremthetővé válik például egy ember arca, hangja és mozgása, és gyakorlatilag bármit bárki szájába adhatunk, bármit megcsináltathatunk vele. Ma még ez egy erőforrásigényes technológia, és a kezdeti próbálkozások – néhány alaptrükk ismeretében – könnyen le is leplezhetők. Hogy érzékeljétek a lehetőségeket, ideillesztek egy alig több mint egyperces felvételt, amelyben Steve Buscemi arcát Jennifer Lawrence testébe helyezték.

Jennifer Lawrence-Buscemi on her favorite housewives [Deepfake]

Steve Buscemi + Jennifer Lawrence discussing her favorite/least favorite housewives on the Bravo channel. Trained on my custom model, trying to achieve more detail! https://github.com/deepfakes/faceswap Edit – OH MY GOD I HAVE MADE IT. Check out Steve Buscemi talking to Stephen Colbert about this video on his show!!! – https://youtu.be/hlYc08_Zr2c?t=288

2. fejezet: A deepfake működése és alkalmazása

A második fejezet elején megismerjük a deepfake működésének folyamatát:

– Első körben felvételeket táplálunk az alanyról a szoftverbe, amelynek neurális hálózata felismeri a mintázatokat, majd azok alapján olyan szabályokat hoz létre, amelyek segítségével újraalkothatja az alanyt.

– A hálózat ezek után létre is hozza ezeket az új tartalmakat az eredeti jelenetek helyettesítésére.

– Ezzel párhuzamosan egy másik neurális hálózat összehasonlítja az eredeti tartalmat az újonnan létrehozottal.

– És ami megfelel az eredeti mintájának, azt átengedi, ami nem, azt kiszűri.

A deepfake-et használhatjuk például:

Arcok kicserélésére | A folyamat során a mélytanulásos szoftver megismeri a forrás- és célarc jellemzőit, majd újragyártja a célarcot úgy, hogy a mozdulatokat és a keretet a forrásvideóból veszi.

Az arc újraanimálására | A mélytanulásos szoftver megismeri a cél- és a forrásarc mozgását, majd újragyártja a forrásarcot a célarc mozgása alapján. Ez a módszer alkalmas például arra, hogy egy angolul beszélő ember szájába francia szavakat adjunk úgy, hogy a manipulációt ne árulja el a száj mozgása.

Különböző részletek eltávolítására | A szoftver elemzi a háttér jellemzőit, majd kiszedi belőle a célobjektumot (még akkor is, ha az épp mozog), és a helyére új hátteret generál.

Kitalált arcok létrehozására | Ezzel a funkcióval már megismerkedhettetek az Urbanlegends.hu havi hoaxkvízeiben is. Facebookos hozzászólásaitok alapján hónapokon át az egyik legnehezebb az a feladat volt, amelyben ki kellett találni, hogy két arc közül melyik a valódi és melyik a számítógép által generált. Ha valaki kimaradt volna a jóból, ebben a minikvízben próbára teheti magát:

#1 A két kép közül az egyik valós embert ábrázol, a másik arcot számítógép készítette. Melyik arc az igazi?

A JOBBOLDALI. A figyelemfelhívó tippelgetős játékot a Washingtoni Egyetem kutatói készítették. Ebből a cikkből pedig megtudhatod, mire érdemes figyelni a képek megítélésekor. De 20-30 párosítás után önképzéssel is egyre jobb eredményeket érhetsz el.

#2 A két kép közül az egyik valós embert ábrázol, a másik arcot számítógép készítette. Melyik arc az igazi?

A BALOLDALI. A figyelemfelhívó tippelgetős játékot a Washingtoni Egyetem kutatói készítették. Ebből a cikkből pedig megtudhatod, mire érdemes figyelni a képek megítélésekor. De 20-30 párosítás után önképzéssel is egyre jobb eredményeket érhetsz el.

#3 A két kép közül az egyik valós embert ábrázol, a másik arcot számítógép készítette. Melyik arc az igazi?

A BALOLDALI. A figyelemfelhívó tippelgetős játékot a Washingtoni Egyetem kutatói készítették. Ebből a cikkből pedig megtudhatod, mire érdemes figyelni a képek megítélésekor. De 20-30 párosítás után önképzéssel is egyre jobb eredményeket érhetsz el.

#4 A két kép közül az egyik valós embert ábrázol, a másik arcot számítógép készítette. Melyik arc az igazi?

A BALOLDALI. A figyelemfelhívó tippelgetős játékot a Washingtoni Egyetem kutatói készítették. Ebből a cikkből pedig megtudhatod, mire érdemes figyelni a képek megítélésekor (itt például a hajszálakra, amit nagyon nehéz életszerűen generálni).

Beküldöm

3. fejezet: A deepfake felismerése

A befejező részben – amely lehetett volna kicsit konkrétabb, jobban illusztráltabb is – a készítők szerkesztőségeknek adnak szempontokat a videók ellenőrzéséhez. Ezt most nem részletezném újra, akit érdekel a téma, ebben a korábbi bejegyzésemben jóval részletesebb tanácsokat is kaphat a tartalom, a helyszín, az időpont és a közzétevő motivációjának feltérképezéséhez, és hogy ezekhez milyen eszközöket érdemes használni.

Ami konkrétan a deepfake videókat illeti, a Reuters az alábbi figyelmeztető jelekre hívja fel a figyelmet:

– a kép és a hang nincs tökéletes szinkronban,
– a beszélő szájának mozgása természetellenes,
– a tárgyak vagy emberek szélein szokatlan pixelmintázatok figyelhetők meg,
– a beszélő arca természetellenesen mozdulatlan,
– az alany egyáltalán nem, vagy épp természetellenesen pislog,
– a beszélő szeme tompa.

Jelenleg nincs olyan nyilvánosan elérhető eszköz, amely egy videóról egyértelműen megmondaná, hogy deepfake-ről van-e szó, de a fejlesztések folyamatosak. De még ha közzé is tesznek majd egy ilyen alkalmazást, a technológia a program publikálása után is folyamatosan fejlődni fog, így gyorsan kérdésessé válhat hatékonysága. Jó hír viszont, hogy gyakorlással – azaz manipulált videók elemzése révén – fejleszthető a deepfake felismerésének készsége.

A Reuters kurzusa egy éles teszttel zárul: újságíróként egy olyan városban kell dolgoznunk, ahol hetek óta rendszeresek az utcai összecsapások. Egy nap egy videót kapunk a WhatsAppon keresztül, amelyen három fegyveres katonát és néhány tüntetőt láthatunk. Az egyik tüntető hirtelen kiválik a többiek közül, futni kezd, amikor is az egyik katona lelövi. A tüntető a földre esik, majd nem sokkal később újabb egyenruhások jelennek meg, és testét elvonszolják.

A kérdés: te lehoznád ezt a videót? Megfejtés és tapasztalatok a Reuters online tanfolyamában.

Illusztrációk: Reuters – Manipulated Media

Ha tetszett a cikk, csatlakozz te is az Urbanlegends.hu-t támogató közösséghez! Tudj meg többet itt!