Az elmúlt két évben jó pár cikk figyelmeztette a technológiai cégeket (főként a közösségi média képviselőit), hogy csak az algoritmusokra támaszkodva nem tudják megoldani az álhírek jelentette problémájukat. Senki nem állította, hogy a technológia nem segíthet a helyzet orvoslásában: a hangsúly a legtöbb anyagban inkább az volt, hogy hiba lenne kizárólagosan ezektől az eszközöktől várni a megoldást – mert ennél komplexebb kérdésről van szó.

Ennek ellenére érdekes lehet, mit adhat hozzá a technológia a probléma rendezéséhez, és ehhez többek között Tim O’Reilly könyve, a WTF is közelebb vihet. A technológiai szektorban 40 éve aktív O’Reilly első nagy dobása az volt, hogy 1992-ben katalogizálta az akkor még csak néhány száz oldalból álló internetet. A szakember azóta is lelkes népszerűsítője a nyílt forráskódú szoftvereknek, a web 2.0-nak, továbbá az életünket forradalmian átrendező technológiáknak. Véleménye a technológiai fejlődés evangelistájaként természetesen nem elfogulatlan, de mindenképpen hasznos megismerni ezt az álláspontot is.

Kibújás a felelősség alól vagy az egyetlen járható út?

Könyvében O’Reilly teljes fejezetet szentel az algoritmusok médiára gyakorolt hatásának. Bemutatja az információs buborékhatást, vagyis azt a jelenséget, hogy a közösségi oldalak leginkább olyan tartalmakat dobnak fel, amelyekkel az adott felhasználók egyetértenek, megerősítve ezzel előítéleteiket, hosszú távon pedig növelve a társadalom megosztottságát. O’Reilly szerint az álhírek közösségi oldali elterjedése az algoritmusok rossz működésének köszönhető, amire már az üzemeltetők is rájöttek.

Leírja azt is, hogy a Google és a Facebook miért ódzkodnak annyira a tartalmak kézi moderálásától: ugyanis így szeretnének semleges platformként megmaradni. Erre azért van szükségük, mert ebbéli minőségükben mentesülnek a DMCA szerzői jogi törvény hatálya alól, vagyis nem vonhatók felelősségre az ő platformjaikon közzétett tartalmak miatt.

Sokan ezt a jogi felelősség alóli kibújásként értékelik, O’Reilly szerint viszont a gigászoknak a platformjaikon megjelenő tartalom hatalmas mennyisége miatt nincs más választásuk. A szakértő hisz abban, hogy a szolgáltatók a problémát az algoritmusok újratanítása révén tudják a leghatékonyabban kezelni. Ezek az eszközök ugyan nem váltják ki teljes mértékben az emberi értékítéletet, de szerinte igenis meghatározhatók olyan jelek, amelyek a gépeket hozzásegíthetik a tartalom értékeléséhez.

Miben lehet az algoritmus jobb az embernél a tényellenőrzés során?

Könyvében O’Reilly néhány példán keresztül be is mutatja azokat a jeleket, amelyekre az algoritmus támaszkodhat egy tény ellenőrzése során:

Van-e forrásmegjelölés? Ennek hiánya ugyan nem feltétlenül jelenti az adott tartalom megbízhatatlanságát, de további vizsgálódásra hívja fel a figyelmet.

Az idézett forrás tényleg arról számol be, mint amit a cikk állít? Az algoritmus O’Reilly szerint az embernél hatékonyabban képes végigkövetni a hivatkozások láncolatát a kiindulópontig, sőt a tartalmi egyezések százalékos arányát is meg tudja határozni.

Mennyire megbízhatók a források? Ennek megítélésében a Google-nek évtizedes gyakorlata van (még ha, teszem hozzá én, egy-egy algoritmusfrissítés néha félre is csúszhat).

A cikkben idézett számok statisztikailag megalapozottak? A matekozásban a jól beprogramozott gép megint csak jobban teljesít.

Mások mit írtak az adott témáról, eseményről? A gépek ügyesek a hasonló cikkek felkutatásában is, sőt azt is könnyen megállapítják, melyik volt az első a cikkek láncolatában, a feltöltő mióta aktív, miket és honnan posztol, milyen rendszerességgel, stb.

O’Reilly szerint kevés ember megy végig ilyen alaposan az ellenőrzés fent bemutatott útján, főként, ha egy nézeteit megerősítő cikkről van szó. Ilyen esetekben az emberek nagy része el sem olvassa a cikket, csak megosztja. Az algoritmus, amely mindezt a folyamatot az elejétől végigköveti, O’Reilly szerint akár arra is figyelmeztethetne:

“Biztos, hogy meg akarod osztani a cikket? Úgy tűnik, még el sem olvastad!”

A szakértő úgy véli, hogy az algoritmusnak nem szükséges az abszolút igazságot tudnia. De az embernél sokkal gyorsabban felfedezhet egy gyanús hírt, amit aztán – törlés helyett a hírfolyamban való hátrébb sorolással – nem reklámoz annyira felhasználói előtt. Ez O’Reilly szerint a szólásszabadságot sem sértené, ugyanis a szolgáltatókat semmi nem kötelezi, hogy aktívan promotáljanak mindenféle tartalmat.

Az álhír csak tünet. A probléma a kompromisszum hiánya?

Ennyit az álhírek elszaporodásáról és visszaszorításáról, amiről azonban O’Reilly is elismeri, hogy csak egy tünete a problémának. Henry Farrell politikatudományi professzort idézve leírja:

“A probléma nem az, hogy mi az igazság megtalálásának optimális megoldása tekintettel a technológiára és a korlátokra. Hanem (…) hogy mi a legjárhatóbb út egy fenntartható politikai kompromisszum megtalálása felé a heterogén egyénekből álló tömeg tagjai között, aki nem értenek egyet a megoldásban, és bizonyos esetekben még abban sem, hogy létezik-e a probléma egyáltalán.”

Nagyon rendben van ez a problémameghatározás, még ha kicsit nyakatekert is a megfogalmazása.

O’Reilly azonban vallja, hogy a technológia képes megválaszolni ezeket a kérdéseket is. Példaként egy tajvani online konzultációt említ, amelyet a pol.is nevű eszköz felhasználásával hajtottak végre. A pol.is észszerű egyeztetésekhez, a kompromisszum megtalálásához nyújt segítséget. A rendszer egymondatos véleményeket engedélyez, amelyeket mások is értékelhetnek, majd a maguk egymondatos álláspontjukat is kifejezhetik. Az ebből létrehozott véleménymátrixot aztán egy algoritmus elemzi, és segít felkutatni a leginkább támogatott álláspontokat.

A félresiklott média és az algoritmusok

Könyvében O’Reilly a média útvesztéséről is szót ejt. Véleménye szerint a hírek lebutulásában és a minőség csökkenésében nagy szerepet játszik az is, hogy a médiavállalatok megpróbálnak megfelelni a keresők és a közösségi oldalak által támasztott szabályoknak. Ennek oka elsődlegesen az, hogy hirdetésekből élő sajtótermékek a letöltés maximalizálásában érdekeltek, és ezt a forgalmat a keresők és közösségi oldalak szállítják is nekik – feltéve, ha az ő szabályaik szerint játszanak.

Ahogy O’Reilly írja: az előfizetői üzleti stratégia az olvasókat szolgálja ki, a hirdetési alapú pedig elsősorban a hirdetőket. És bár a komoly sajtótermékek az elmúlt években újra elmozdultak az előfizetői modell felé (sőt egyes új belépők már induláskor erre fogadnak), a korábban meghatározó média hatása így is visszaszorulóban van.

Ezért is gondolja azt O’Reilly, hogy az algoritmusok üzemeltetőinek a jövőben nemcsak a profitszerzésre, hanem a közérdekre is gondolniuk kell rendszereik finomhangolása során.

Fotó: Elijah O’Donnell / Unsplash.com

Köszi, hogy elolvastad a bejegyzést! Ha tetszett a cikk, és szereted az oldalt, csatlakozz te is havi egy kávé árával az álhírek elleni harchoz.