Trendforduló az MI-fejlesztésekben

2019.05.30.
Trendforduló az MI-fejlesztésekben
Az ELTE Eötvös József Collegium informatikai műhelye május közepén rendhagyó műhelyszeminárium keretében látta vendégül Bárd Imrét, az ELTE egykori filozófus hallgatóját, a London School of Economics and Political Science doktoranduszát, aki Emberközpontú mesterséges intelligencia címmel tartott előadást.

A mesterséges intelligencia mint kutatási diszciplína megszületése az 50-es évek közepére tehető. 1956-ban, a Dartmouth Egyetem nyári workshopján mások mellett John McCarthy (Dartmouth College), Marvin L. Minsky (Massachusetts Institute of Technology), Nathaniel Rochester (IBM) és Claude Shannon (Bell Laboratories) lefektették az AI-kutatások alapjait. A szakértők akkor azt jósolták, hogy a tudomány néhány éven belül létrehozza az emberi képességek szintjét elérő mesterséges intelligenciát. A nyári egyetemnek otthont adó épületen a workshop 50. évfordulója alkalmából emléktáblát helyeztek el 2006 júliusában. Az ünnepségen az egykori résztvevők megállapították, hogy az eredeti célkitűzés túl optimistának bizonyult. Bár mostanra az életünk szinte minden területét áthatják a különböző algoritmikus, gépi tanulásra, illetve mesterséges intelligenciára épülő rendszerek,

az emberi képességek összességét megközelítő MI még ma sem létezik.

A mai definícióink az MI három típusát (narrow, general, super ) különböztetik meg.

A narrow AI-n (szűk vagy keskeny mesterséges intelligencia) olyan rendszereket értünk, amelyek egyetlen jól körülhatárolt feladatot képesek ellátni, mint például a sakkjáték, az arc-, beszéd- vagy képfelismerés. Az artificial general intelligence, vagy általános mesterséges intelligencia képes lenne bármilyen intelligenciát igénylő feladat elvégzésére, amire egy ember képes, hozzá hasonló szinten, tehát nem egyféle feladatra optimalizált. A mesterséges szuperintelligencia pedig az általános MI-nek egy olyan foka, amely mindenre képes, amire egy ember, csak sokkal jobban. 

A tudomány mindezidáig csak a keskeny MI-t tudta kifejleszteni. A jelenlegi mesterséges intelligencia rendszerek nem általánosak, nem alkalmazhatók más területen, mint amire kifejlesztették őket, tehát egy arcfelismerésre optimalizált MI-ből soha nem lesz önvezető autó – fogalmazott Bárd Imre

Az MI rendszerek fejlesztését egészen a közelmúltig főleg gazdasági és technológiai célkitűzések vezérelték, azonban számos, a közelmúltból vett példa igazolja, hogy

nagyobb figyelmet kell fordítani az etikai és biztonsági szempontokra.

2018-ban az IBM Watson szuperszámítógépe több esetben is dokumentáltan fals és kockázatos javaslatokat tett rákbetegek kezelésére. Ugyanebben az évben robbant ki a Cambridge Analytica-botrány, amikor kiderült, hogy a londoni székhelyű, adatelemzéssel foglalkozó cég Facebook-felhasználók millióinak személyes adatait gyűjtötte be, az adatokat ezután az Egyesült Államokban, Nagy-Britanniában és Mexikóban politikai kampányok megalapozásához használták fel az érintettek tudta és hozzájárulása nélkül. Szintén 2018-ban a Tesla egyik önvezető modellje egy útszéli betonkerítésnek ütközött Kaliforniában, miközben a gépjármű önvezető módban működött, a balesetben az autó 38 éves sofőrje életét vesztette. Az ilyen és ehhez hasonló esetek következtében 2016 óta a mesterséges intelligenciával foglalkozó tudósításokban egyre többször jelenik meg az „etika” kifejezés is. A téma kutatói közül egyre többen vállvetve dolgoznak azon, hogy a fejlesztésekben hangsúlyosabban jelenjen meg az igazságosság, átláthatóság és elszámoltathatóság hármas szempontrendszere.

Igazságosságon elsősorban azt értik, hogy az MI-rendszerek működése semmilyen társadalmi csoportot ne érintsen hátrányos, diszkriminatív módon. Ennek egyik eszköze, hogy jó minőségű, adekvát és valóban reprezentatív adatmintákat adjanak meg, amelyekből a rendszer helyes következtetéseket tud levonni. Ellenkező esetben a mesterséges intelligenciák is csak a jelenleg domináns társadalmi sztereotípiákat fogják reprodukálni, azonban már látszólag objektív, statisztikai és algoritmikus módszerekkel.

Az átláthatóság e témakörben a felhasználóknak azt a jogos igényét jelenti, hogy tisztában lehessenek azzal, hogy az MI-alapú rendszerek hogyan, milyen elvek és folyamatok révén hoznak döntéseket; a megadott adatokat hogyan elemzik és használják fel, majd ebből hogyan jön létre a kimeneti oldalon megjelenő eredmény. A probléma kettős:

a jelenleg leggyakrabban használt, neurális hálózatokra épülő rendszerek „fekete dobozként” működnek

és szinte lehetetlen megállapítani, hogyan dolgozzák fel az adatokat. Ezzel párhuzamosan gyakran érdekellentét merül fel a fejlesztő technológiai cég és a felhasználók között. A cégek üzleti érdekeiket védve nem szívesen hozzák nyilvánosságra technológiájuk működési mechanizmusát, ami különösen akkor taszíthatja kiszolgáltatott helyzetbe a felhasználót, ha a fejlesztő cég a közszférának, az állami szervezeteknek nyújt szolgáltatásokat például igazságszolgáltatási vagy egészségügyi területen. Ezekben a kontextusokban különösen fontos az MI-rendszerek működésének átláthatósága.

Az elszámoltathatóság, illetve számonkérhetőség egyrészt arról szól, hogy ki és milyen formában felelős egy MI-rendszer működéséből adódó kár esetén. Ennek jó példája a gyakran emlegetett önvezető autók témaköre, ezen belül az a kérdés, hogy ki tehető felelőssé abban az esetben, ha a mesterséges intelligencia döntése nyomán például személyi sérüléssel járó vagy halálos áldozatot követelő közlekedési baleset történik. A számonkérhetőség kapcsán merül fel az algoritmikus döntések megkérdőjelezéséhez vagy magyarázatához fűződő jog fontossága. Noha az új adatvédelmi törvények tartalmaznak ilyen irányú kezdeményezéseket, ezen a területen még nagyon sok tennivaló akad.

A mesterséges intelligencia alkalmazása ezen túl is számos problémát vet fel. Ezek egyike, hogy míg az algoritmusok átláthatatlanok maradnak, addig az emberek internetes böngészési szokásairól, fizikai tartózkodási helyéről, szociálismédia-használatáról vagy éppen érzelmi állapotáról árulkodó adattömeg teljesen transzparenssé válik. Ezzel hosszú távon

súlyosan korlátozódhat a döntési szabadság és az egyén kiszolgáltatottá válhat

akár a fejlesztő cégekkel, akár az állammal szemben. Ezt jól példázza az az egyelőre ártalmatlannak tűnő jelenség, hogy a Google által tulajdonolt Youtube videómegosztó oldalon a megtekintések 70 százaléka már nem a felhasználók által kiválasztott, hanem a rendszer által felajánlott tartalmakon generálódik. 

Mindezek fényében érdemes figyelembe venni Paul Nemitz, az Európai Bizottság Jogérvényesülési és Fogyasztópolitikai Főigazgatóság főtanácsosának elemzését a technológiai vállalatok kezében összpontosuló páratlan erőforrásokról. Ezeket a szakértő olyan tőkén, infrastruktúrán, adatmennyiségen és tudáson alapuló hatalmi gócpontként írta le, amelyek fölött csekély a demokratikus kontroll mértéke. A tőkekoncentráció példájaként említette, hogy a 2017-as adatokat vizsgálva az Alphabet bevétele meghaladta Puerto Rico teljes éves GDP-jét, az Apple-é Portugáliáét, az Amazoné Kuvaitét, a Microsofté pedig Szlovákiáét. Az infrastruktúra birtoklása például a Facebook esetében a közvélemény formálásának hegemóniáját jelentheti. A „privát szuperhatalmak” mellett azonban az állammal szembeni kiszolgáltatottság veszélye is fennáll. Ezt olyan alkalmazások mutatják meg, mint a Kína által bevezetett, arcfelismeréses technológiát is alkalmazó úgynevezett társadalmi kreditrendszer. Ez egyfajta megbízhatósági index szerint osztályozza az állampolgárokat, ami révén könnyen elnémíthatóak a politikailag nem kívánatos egyének. A közeljövőben a társadalmaknak olyan kihívásokkal is szembe kell nézniük, mint az automata fegyverrendszerek kérdése, az automatizáció révén fellépő munkaerőpiaci átalakulások, vagy az a problémakör, hogy a legtehetségesebb kutatók a magas fizetések miatt kizárólag magáncégeknél fognak elhelyezkedni, miközben a közszférában is szükség lenne a tudásukra és tapasztalataikra.

A kockázatok napvilágra kerülése az elmúlt években trendfordulót hozott a mesterséges intelligenciával kapcsolatos diskurzusban. Az akadémiai, az üzleti és a politikai szféra, valamint a civil szervezetek

egyre szélesebb körben alkalmazzák az emberközpontú megközelítést,

melynek kulcskérdése az, hogyan lehet az emberi igények kielégítése, valamint a közjó szolgálatának érdekében etikus és felelősségteljes módon folytatni az MI-fejlesztéseket. Az Európai Bizottság független szakértői csoportja április elején közzétette a mesterséges intelligencia hét etikai alapfeltételét, amelyek igyekeznek humánus kereteket szabni a közeljövő fejlesztéseinek. Emellett elindultak olyan pozitív kezdeményezések is, mint a Google nyílt forráskódú Tensorboard rendszerének What-if nevű alkalmazása, amelynek segítségével különböző változók módosításával tesztelhetők a neurális vagy deep-learning hálózatok által produkált eredmények anélkül, hogy belelátnánk forráskódjukba. Összességében, némi bizakodással, elmondható, hogy a mesterséges intelligencia fejlesztése mintha új fejezethez érne, amelyben erőteljesebben érvényesülnek az etikai és társadalmi szempontok. Kérdés, hogy sikerül-e az alapvető elvekkel kapcsolatban széleskörű, akár globális egyetértést kialakítani, vagy tovább erősödik a nemzetközi verseny, amelyben az etikai és biztonsági szempontok legjobb esetben is csak másodlagosak.

Az előadás után Bárd Imre és a közönség még több mint egy órán át boncolgatták a mesterséges intelligenciával kapcsolatos aktuális kérdéseket, kitérve az AI személyiségi jogi és egészségügyi-adatvédelmi vonatkozásaira, illetve arra a kihívásra, hogyan jelenhetne meg átfogó és minőségi tananyagokkal a felsőoktatásban is a mesterséges intelligenciával kapcsolatos új probléma.

Az Eötvös József Collegium informatikai műhelye 2004-ben alakult a célból, hogy a leendő kiváló szakembereket segítse szakmai fejlődésükben azáltal, hogy kiegészítő képzéseket nyújt és bevonja a műhely tagjait az egyetemen folyó kutatásokba. A műhelyszemináriumi óra keretében a hallgatók számolnak be önálló kutatásaikról, vagy meghívott előadók tartanak előadásokat szakmai témákban.