2025.11.10.
Focus on Open Science Konferencia
focus-on-open-science.png

Tanuljunk, hogy a gépek még jobban tudjanak tanítani minket - Beszámoló a Focus on open Science konferenicáról

2025. november 6-án került megrendezésre a Focus on Open Science rendezvénysorozat 42. eseménye, melynek Budapest adott otthon és témája a mesterséges intelligencia alkalmazása a szakkönyvtárakban és ennek nyílt tudományos vonatkozásai volt. 

Az esemény megnyitóján Monok István azt emelte ki, hogy a mesterséges intelligencia korában még inkább érdemes a tanulásra helyezni a hangsúlyt, amiből a gépek később tanulhatnak, így még jobban tudnak tanítani minket. Tiberius Ignat arról beszélt, hogy az AI alapvetően változtatta meg, ahogyan dolgozunk és gondolkodunk, mivel exponenciálisan nő a hozzáférhető információ mennyisége. A kutatóközösség feladata azt, hogy megtalálja a módot arra, hogyan lehet ezt integrálni a munkába.
 


A megnyitó után Karin Rydving Harnessing AI: Strategies for Research Libraries in Upholding Academic Freedom and Openness  című előadása következett, melyben a kutatókönyvtárak szerepének fontosságát emelte ki annak érdekében, hogy az akadémiai szabadság és nyitottság fennmaradjon. Ennek érdekében fontos lenne egy mesterséges intelligencia stratégia kidolgozása, amelyet mindenhol alkalmazni lehet.  A norvég felsőoktatásban elkezdték kidolgozni, hogy mi lesz is a könyvtárak szerepe a jövőben. Ehhez a könyvtárvezetők közösen gondolkodtak el arról, hogy milyen MI irányelvekre és útmutatásra van szükség. Legfontosabbnak az MI műveltség mutatkozott, de ezek mellett megjelent az akadémiai kiadói tevékenység és a szerzői jogok is. Ahhoz, hogy a változás hatékonyan valósulhasson meg, mindenképp szükség van a kritikai gondolkodás fejlesztésére.


Bokodi Szabolcs, a Soproni Egyetem stratégiai szakértője arról beszélt előadásában, hogyan változtatta meg a mesterséges intelligencia az egyetemük szervezeti stratégiáját. Az egyetem a kezdeteben alacsony MI tudatossággal rendelkezett, így első lépésben ki kellett dolgozni a digitalizáció keretrendszerét. Elméletük szerint a mesterséges intelligenciának a jövőben nem az üzleti életre, hanem az oktatára lesz a legnagyobb hatása. Ha egy egyetem eleve hátrányból indul, akkor az átalakulásnál mindenképpen figyelni kell arra, hogy legyen egy pontos elképzelés arról, hogy hová szeretnének eljutni. A Soproni Egyetemen szükséges volt egy olyan megközelítés bevezetése, amelyben az egyetem alapértékei és hagyományai erősödnek, nem pedig felváltásra kerülnek a mesterséges intelligencia által. Az egyetemen az okosegyetem modell kidolgozása három pillérre épül: az okos oktatás, az okos kutatás és az okos üzemeltetés. Az egyetemen cél volt, hogy képzéseket biztosítsanak, miután egy előzetes felmérés szerint többen használják az MI eszközöket naponta, mint amennyien elvégeztek egy ezzel kapcsolatos képzést. Ennek érdekében fontosnak tartják bevezetni egy egyetemi szintű MI szoftverre való előfizetés beszerzését, így nyíltan és transzparensen lehetne alkalmazni ezeket az eszközöket, később pedig CustomGPT támogatást is lehetne használni. Az előadás végén itt is elhangzott a kritikus gondolkodás fontossága, fontos, hogy minden esetben ellenőrizzük az információt.


 

Argie Kasprzik előadásában a mesterséges intelligencia veszélyeire hívta fel a figyelmet. Fontos megértenünk, hogy amennyiben egy termék ingyen van, úgy az adatainkkal fizetünk. A modellek tanításánál felhasználnak személyes adatok, nem törődve a magánszférával és a szerzői jogokkal. Az adatok mellett más költségei is vannak a nagy nyelvi modellek használatának, nagy mennyiségű elektromosságot, vizet és levegőt használ, illetve elektronikai hulladékot termel. A ChatGPT 4 modelljének tréningelése körülbelül 200 repülőútnak megfelelő erőforrást használt fel. A trendek azt mutatják, hogy 2030-ra négyszer több lesz a légszennyezés miatti asztmás megbetegedések száma a 2023-as adatokhoz képest. A mai rohanó világban egyre több vezető támogatja a mesterséges intelligencia alkalmazások használatát annak érdekében, hogy hatékonyabb legyen a munkavégzés és növekedjen a produktivitás. Itt kritikaként megjelent az információ minősége is, ugyanis a legtöbb nagy nyelvi modell még nem elég érett ahhoz, hogy hibátlan választ adjon.  Ezért szükség van arra, hogy az információkat minden esetben ellenőrizzük, így a végén nem biztos, hogy valóban időt spóroltunk az MI használattal. A további veszélyek között megjelent a kognitív adósság is. Egy kutatás során bebizonyosult, hogy a növekvő MI használat csökkenő neuronakivitáshoz vezet. Az előadó kihangsúlyozta, hogy az MI használata nem felétlenül rossz, de érdemes csak akkor és csak olyan szinten bevonni, ami feltétlenül szükséges, ezt is kizárólag transzparensen. Teljes mértékben soha ne támaszkodjunk ezekre az eszközökre, mielőtt elkezdjük használni, kérdezzük meg magunktól, hogy valóban szükség van-e rá és a beépített eszközöket lehetőség szerint kapcsoljunk ki, amikor nem használjuk aktívan.  Intézményként feladatunk, hogy növeljük a tudatosságot, helyén tudjuk kezelni a változásokat, és lehetőség szerint használjunk emberi szakértelmet.


Leslie D. McIntosh Resilient Knowledge: AI and the Future of Trusted Science című előadásában a kutatási integritás és a biztonság témaköre került a középpontba.  Manapság egyre gyakrabban találkozhatunk olyan tanulmányokkal, absztraktokkal, amelyeket a mesterséges intelligencia segítségével írtak és ezekben sokszor előfordulnak hallucinációk is. Ezek mellett egyre gyakoribb az, hogy adathalmazokat és képeket is generáltatnak MI alkalmazásokkal, amelyekről egyre nehezebb megmondani, hogy valóságosak-e vagy sem. Előfordult olyan eset is, ahol a kutatás támogatója is egy mesterséges intelligencia által hallucinált szervezet volt, ami a valóságban nem is létezett. Hogy kritikusan tudjuk ezt kezelni, fontos megérteni, hogy nem a mesterséges intelligencia fogja publikál a tanulmányt, nem ez fogja támogatni a kutatókat és nem fogja kikényszeríteni, hogy elfogadják az így létrehozott szellemi terméket. A Cambridge Dictionary a csalást fogalmát egyrészt úgy azonosítja, mint emberek megtévesztésével szerzett pénz, másrészt pedig aki azzal téveszti meg az embereket, hogy valaki másnak állítja be magát. Ezen fogalmak szerint a mesterséges intelligencia megjelölés nélküli alkalmazása nem számít illegálisnak. A jövőben szükség lesz arra, hogy a kutatási biztonság bekerüljön a jogszabályokba is, melyen az Európai Kutatási Térség már dolgozik. A tervek szerint a kutatás során létrehozott termékek a jelenlegi műkincs hitelesítési folyamathoz hasonló folyamaton mennek majd keresztül, a jogtalanul felhasznált művek pedig a művészeti családhoz hasonlóan lesznek büntetve.

 

A rendezvénysorozat következő eseménye 2026.02.03-án kerül megrendezésre online formában. További információk itt találhatók.