Ha katasztrófát okozhatnak az algoritmusok, akkor mit használjunk a jövőben?

Szűcs Ádám

Tim Cook, az Apple vezetője a Computers, Privacy, and Data Protection konferencián beszélt aggodalmáról, hogy egyesek bármi áron növelik a felhasználók elkötelezettségét. Azt állította, itt az ideje szembenézni annak a következményeivel, hogy algoritmusokat állítunk csatarendbe ennek érdekében. És a következmények ijesztőek is lehetnek.

Senkinek nem kell bemutatni a közösségi oldalak működését, sem a dilemmát ezzel kapcsolatban: mivel a machine learninggel támogatott algoritmusok egyetlen elemi érdeke, hogy minél több felhasználót minél több kattintásra késztessenek, a felhasználók – vagyis az emberek – “kattintógépekké” váltak. A mesterséges intelligencia nem ismeri az emberi természetet, de nagyon jól ki tudja használni azokat a viselkedésbeli hibákat és addikciókat, amiket felmutatunk, így pedig néhány év alatt már-már a katasztrófa szélére sodorták a társadalmat – vélik egyre többen.

Mielőtt a Facebook vált a legnépszerűbb hírmegosztó oldallá, egy átlagembernek semmiféle lehetősége nem volt, hogy az általa kitalált valótlan állításokkal bárhol feltűnjön, a saját közvetlen közösségén kívül. A híreket fogyasztó emberekben működött a rangsor, miszerint a megbízható hírforrások olyan médiumok, ahol profi újságírók igyekeznek a valóságról beszámolni, vagy a valóságot értelmezni úgy, ahogy épp a lap érdekeinek megfelel. Csakhogy a közösségi oldalakon már nincs ilyen megkülönböztetés: egy hír annál jobb és annál támogatottabb, minél többen kattintanak rá, osztják meg, lájkolják. Semmi más nem számít.

Ahogy telt az idő, egyre több ember jött rá erre, és kezdett olyan anyagokat gyártani, amiknek a valósághoz semmiféle közük nem volt, viszont terjedtek. Tulajdonképpen ez az emberi intelligencia felülemelkedése volt a mesterségesen, ha ebből a szempontból vizsgáljuk. Aztán a második hullámban már még profibb megoldások születtek: sok pénzzel támogatott, szerkesztőségnek tűnő álhírgyárak és trollseregek fogtak bele abba, hogy emberi csoportokat fanatizáljanak.

Ettől persze a Facebook lehetett volna az összeesküvés-elméletek megmosolyogtató melegágya, miközben a nagy lapok máshol osztják meg azokat a sztorikat, amik célja nem a nyilvánvaló “minden áron terjedés”. Csakhogy a nagy lapok ekkorra szintén mindannyian ott voltak a Facebookon, így egy átlagembernek teljesen összemosódott a valódi hír és az álhír. Fizikailag is, nem csak a saját, kisebb vagy nagyobb korlátokkal rendelkező felfogása eredményeként.

“Milyen következményei vannak annak, ha több ezer felhasználó csatlakozik egy szélsőséges csoporthoz, amit egy olyan algoritmus tart fenn, ami még több és több tagot szeretne látni?” — tette fel a kérdést Tim Cook. Itt nyilván arra utal, hogy nem csak az a probléma, hogy az álhírek terjedése akadály nélkül történik, hanem arra is, hogy a közösségi oldalak kizárják a valódi párbeszéd lehetőségét, hiszen egy idő után mindenki a saját véleményét látja megerősítve az oldalakon – hála az algoritmusok munkájának.

“Vajon a jövő olyan újításokhoz vezet minket, amelyek jobbá, teljesebbé és emberibbé teszik az életünket? Vagy oda vezet, ahol a figyelmünket minden más kizárására kondicionálják, a félelmeink és a szélsőségességek felszítására fordítják, hogy egyre invazívabban célzott hirdetéseket jelenítsenek meg számunkra?” — tette hozzá.

Láthatjuk tehát, hogy megváltozott a retorika a kérdésben.

Közösség dilemma helyett a nyakunkon a közösségi katasztrófa?

Ez pedig azért aggályos, mert jelenleg – nincs jobb. A mesterséges intelligenciára alapuló megoldások nem csak a közösségi oldalak esetében, de gyakorlatilag a közeljövőben az összes vállalat életében megtalálhatóak lesznek. Amint ügyfélszerzésre és – megtartásra a vállalatok elkezdik tömegesen használni a Facebookéhoz hasonló megoldásokat, mindenki, aki nem így tesz, lemarad.

Teljesen biztos, hogy egy cég sem dönt úgy, hogy inkább becsődöl, mint hogy az egyébként legális, de talán erkölcstelen algoritmusokat használná. Természetesen használni fogja. 

A törvény az, ami megakadályozhatná a cégeket ebben, csakhogy nagyon nehéz törvénybe foglalni, hogy milyen algoritmusok tiltottak is valójában. Mivel az öntanuló algoritmus természetszerűen látja meg a lehetőséget az emberi gyengeségekben, ezért valójában ő hozza meg a döntést, hogy ebbe az irányba megy, a programozók legfeljebb megpróbálhatják tiltani a dolgot. Csakhogy itt a következő probléma: vajon a programozók által leképzett tiltás megkerülhetetlen lesz? Vagy az öntanuló algoritmus megtalálja a kiskaput, amivel újabb emberi gyengeséget leplezhet le?

Az Apple aggodalma tehát valós, de egyelőre megoldhatatlan. A kérdésben még csak nem is feddhetetlen: a cég korábban megpróbálkozott saját közösségi megoldással és személyre szabott hirdetésekkel is, de ezek az erőfeszítései rendre elbuktak. Ezután a termékeik egyik legfontosabb előnyének éppen azt nevezték meg, hogy tiszteletben tartják a felhasználók magánszféráját, és nem gyűjtenek róluk adatokat, amiket – vagy amik segítségével – tovább értékesítenek. Amit inkább tehetne az Apple a retorika helyett, hogy megtalálja azokat az algoritmusokat, amik tiszteletben tartják az emberi magánszféra mellett az emberi gyengeségeket is. A kódot pedig open source-olja, és a kormányok rendelkezésére bocsátja, hogy lehessen rá hivatkozni vagy standardizálni.

Kérdése van?


Amennyiben a telekommunikációval kapcsolatos kérdése van, szeretne megismerni Bennünket, vagy segítségre van szüksége, írjon nekünk! Szívesen vesszük honlapunkkal, szolgáltatásainkkal kapcsolatos észrevételeit, javaslatait is.