Eredetileg arról szándékoztam írni, hogy mire vigyázzon az, aki olyan terméket vásárolt karácsonyra, amely valamilyen formában mesterséges intelligencia (MI) megoldásokon alapul. Meg olyasmiről, hogy eljön-e majd az az idő, amit a sci-fik előrevetítenek, amikor az MI átveszi felettünk az uralmat. Legtöbben a humanoid típusú, fegyvert viselő Terminátorra gondolnak ilyenkor. Aztán legyintenek, hogy attól még igen messze vagyunk. Közben azonban nem emberi formában, fegyverek nélkül, lopakodva, de életünk egy jelentős részén valójában talán már tényleg átvette az irányítást felettünk a mesterséges intelligencia bonyolult és szinte ellenőrizhetetlen algoritmusok formájában. És ehhez még vásárolni se kellett karácsonykor!

Azt hiszem, a fentebbi értékelés nem túlzó. Aki Google-t, Facebookot, YouTube-ot, Twittert és hasonló alkalmazásokat használ, az folyamatosan a mesterséges intelligencia algoritmusok befolyása alatt áll, akár tudatában van ennek, akár nem. Első gondolatunk az lenne, hogy a Google – bár tényleg fantasztikus, de mégis – „csak” egy hatékony, világméretű kereső; a Facebook és a Twitter egy társasági platform, a YouTube pedig egy videómegosztó. Azonban ezek a platformok üzleti alkalmazások, amelyek elsődleges funkciója a profit termelés, még ha eközben ténylegesen valamiféle számunkra hasznosnak ítélt szolgáltatást is kell nyújtaniuk. Üzleti modelljük miatt tulajdonosaik számára a legfontosabb cél, hogy a felhasználók minél gyakrabban és minél több időt töltsenek az alkalmazások használatával. Ezt egyrészt azzal lehet elősegíteni, hogy mindenféle jópofa funkcionalitást beépítenek. Azonban ennél is hatékonyabb figyelmünk felkeltése a folytatásra, a további keresésre, böngészésre, videónézésre. És itt jön kapóra az MI!

Az MI megoldásoknak egyértelmű célt kell kitűzni, valamint adatokat kell adni, hogy tanulni tudjanak. Nagyon sok adatot! Ezek alapján az MI mintegy konfigurálja magát olyan irányba, hogy ténykedése elősegítse a cél elérését. Ellentétben az előzetes tervek alapján táblákon megrajzolt és programkódra átültetett számítógép programokkal, az MI tanulása által létrejött, finomhangolódott algoritmus nagyrészt egy fekete doboz. Gyakran egész fantasztikusan megvalósítja a kitűzött célt, de valójában nem nyilvánvaló, hogy mindezt milyen belső döntési folyamatok során alakítja ki. Ennek következtében nem ritkán olyan mellékhatásai vannak, amelyekre senki sem számított, és amelyeket nem lehet egyszerűen megszüntetni a teljes algoritmus lenullázása nélkül. A fent említett platformok esetén is elég egyértelmű, hogy az MI algoritmusok fantasztikus hatékonysággal dolgoznak. Legalábbis ami a meghatározott célt jelenti: azt, hogy a felhasználók minél több időt töltsenek kereséssel, cseteléssel, megosztással és videónézéssel. De a mellékhatások itt is megjelentek!

Mindenki azt hitte, hogy az Internet megnyitja nekünk a világot. Tíz évvel ezelőtt még nagy meglepetést keltett Eli Pariser TeD előadása, amelyben elsők közt demonstrálta, hogy mennyire személyre szabott és zárt világokat – információs buborékokat – teremtenek nekünk az algoritmusok. Mindez úgy alakult ki, hogy a kitűzött cél elérésére az MI azt találta a legcélravezetőbbnek, ha mindenkinek mindig azt nyújtja, amit a leginkább szeretne hallani. Semmi véleménydiverzitás, ellenvélemény! Talán még Pariser se látta azonban akkor előre, hogy mindez nem csupán bezárkózáshoz, hanem polarizációhoz is fog vezetni. Ennek eredménye ma már nyilvánvaló a közbeszéd, a politika terén. Az MI nem csak buborékokba zárta az embereket, de egyre inkább meg is erősítette, áthatolhatatlanná tette ezen buborékok falait.

Akik mindezek mögött világméretű összeesküvéseket, a háttérhatalom ármánykodását látják, azok valószínűleg rossz irányban keresik a megoldást. Bármennyire is nem világmegváltónak, hanem hideg számítású üzletembernek tartjuk Mark Zuckerberget és társait, az valószínű, hogy nem látták előre, milyen társadalmi problémákat fognak okozni algoritmusaik. Nem rosszindulatú emberekről, idegen gyíklényekről, de még csak nem is a vesztünket akaró mesterséges intelligencia algoritmusokról van szó! Sokkal inkább arról, hogy az MI-nek ez az egyébként fantasztikus eredményekre is képes, részben öntanuló változata nagyon szűken tudja értelmezni a célokat.

A svéd filozófus, Nick Bostrom 2003-ban egy gondolatkísérletében azt vetette fel, hogy egy megfelelő képességekkel rendelkező gemkapocs-gyártásra tervezett mesterséges intelligencia az egész világot egy hatalmas gemkapocsgyárrá alakítaná át, ha nincs tisztában egy csomó más megkötöttséggel, elvvel, értékkel. Az említett MI megoldások a cél elérésének érdekében végzett algoritmustökéletesítéseik közben nem képesek figyelembe venni, hogy milyen nem szándékolt károkat okoznak.

Sokan gondolkodnak és dolgoznak azon, hogy a jelenlegi MI megoldások ilyen hibái megelőzhetők, illetve javíthatók legyenek; hogy valamiféle etikai megfontolásokat be lehessen építeni az MI-k tervezésébe és működésébe. Addig is annyit tehetünk, hogy az egyébként értéket is nyújtó platformok használata során tudatosan figyelünk az algoritmusok ilyen manipulációira, és igyekszünk ellenállni nekik. Ne vegyük ezt könnyedén! A mesterséges intelligencia bizonyos értelemben jobban ismer minket, motivációinkat, ösztöneinket, mint mi magunk.

 

Hraskó Gábor

Az INNObyte CCS Üzletágvezetője