Sok múlik az emberen, mi lehet etikus az AI alkalmazása során
Az AI terjedése megkerülhetetlen, és minden területet érint. Ma már természetes, hogy mesterséges intelligencia által generált képeket, videókat, dokumentumokat látunk mindenhol, rengeteg felhasználási területe van a HR-től kezdve a hadipari technológián át az orvostudományig. De nehéz eligazodni abban, mi az, ami a szerteágazó AI felhasználás során etikus, és mi az, ami már nem fér bele az etikai normáinkba.
Az AI terjedése megkerülhetetlen, és minden területet érint. Ma már természetes, hogy mesterséges intelligencia által generált képeket, videókat, dokumentumokat látunk mindenhol, rengeteg felhasználási területe van a HR-től kezdve a hadipari technológián át az orvostudományig. De nehéz eligazodni abban, mi az, ami a szerteágazó AI felhasználás során etikus, és mi az, ami már nem fér bele az etikai normáinkba.
Hogyan ellenőrizzük azt, ki hozta létre a dokumentumot? Hogyan lehet egyáltalán bármit is ellenőrizni, ami a mesterséges intelligencia által kreált? Hol húzódnak a határok, meddig tudjuk kontrollálni a mesterséges intelligenciát?
Az EU 2024-ben fogadta el az AI Act-et
Az EU mesterséges intelligenciáról szóló 2024-es jogszabálya egyértelmű követelményeket és kötelezettségeket ír elő a mesterséges intelligencia fejlesztői és alkalmazói számára a mesterséges intelligencia konkrét felhasználásai tekintetében. Az EU célja, hogy a mesterséges intelligenciát szabályozza, keretekbe foglalja, hogy az MI rendszerek tiszteletben tartsák az alapvető jogokat, a biztonságot és az etikai elveket.
Négy féle kockázati szintet határoztak meg az AI kapcsán: nagyon magas kockázat, magas kockázat, limitált rizikó és alacsony rizikó.
Az AI rendszerek ráadásul sokszor személyes adatokat is gyűjtenek, és a felhasználók nem mindig elég óvatosak azok kiadásában. Ezeknek a nem megfelelő kezelése személyiségi jogi aggályokat vethet fel. Munkahelyi kérdésekben is gyakran előfordulhat az etikusság kérdése: mennyire etikus, ha egy HR folyamatban egy CV szűrés már automatizált és senki nem ellenőrzi az AI eszköz döntéseit?
Laczkó Gábor a Stylers Group managing partnere osztotta meg a gondolatait az AI kapcsán.
„Az EU törvénye is azt mondja ki, hogy az emberek rangsorolásánál, pl. hitelkérelem feletti döntésnél nem etikus a használata. Viszont, ha gyorsítja, egyszerűsíti vagy épp a kreatív munkát segíti, akkor mindenképp értéket teremt. Én mindig azt mondom, hogy az AI is emberrel kezdődik és emberrel ér véget. Tehát az ember dönt. Egy HR kiválasztási folyamatnál is azt látjuk, hogy ha az AI segít a CV-ket alkalmasságuk szerint szűrni, akkor az jó támpont lehet, de a teljes döntési folyamatot nem adhatjuk át neki. De az AI-t ellenőrizni nem lehet igazán.”
Pintér Róbert szociológus, a Corvinus Egyetem Adatelemzés és Informatika Intézet adjunktusa szerint most legalább akkora a hype a mesterséges intelligencia körül, mint a ’90-es évek elején az Internet körül volt: „Fontosnak tartom, hogy a mesterséges intelligencia eleve tervezésénél fogva etikusan működjön, ne lehessen vele visszaélni. Erre látunk törekvéseket is."
Az USA-ban már elérhető olyan AI rendszer, ami a bírók munkáját segíti annak révén, hogy a korábbi ítéleteket berakják egy szakértői rendszerbe és ezek támogatják a bírók munkáját, és az AI értékelése alapján gondolják át milyen büntetéseket érdemes kiszabni. De ez is felvet etikai kérdéseket Pintér Róbert szerint, hiszen, ha maga az adatbázis, amiből dolgozik, előítéletes döntéseket tartalmaz például az afro-amerikaiakkal szemben, akkor a mesterséges intelligencia felerősítheti ezt, ezért ilyen esetekben akár diszkriminatív is lehet.
„Egy, az egyetemen Horváth Ágnes vezetésével lezajlott kutatásból az látszott, hogy a részt vevő magyar fejlesztők nem igazán gondolkodtak el a munkájuk lehetséges negatív hatásain tágabb gazdasági és politikai vonatkozásain, inkább az AI pozitív vonulatát hangsúlyozzák. A Szilícium-völgyre is az a várakozás jellemző, hogy a mesterséges intelligencia majd megoldja a problémáinkat és nem generálja azokat. Inkább egy hurráoptimista állapotot láthatunk most.” – folytatja Pintér Róbert.
Még a ChatGPT berobbanása előtt sorra jelentették meg a nagy cégek, mint a Microsoft vagy a Google a saját AI etikai elveiket rögzítő anyagokat, mégpedig, hogy átláthatónak és transzparensnek kell lennie (Trustwothy AI elve). De ezek a szabályok sokszor csak addig működtek, amíg az üzlet vagy a hétköznapi élet felül nem írta őket. A Google esetén például 2018-ban több ezer alkalmazottnak kellett tiltakoznia, hogy a cég ne dolgozzon a Pentagon számára, mert a mesterséges intelligenciát hadászati célra is akarták használni, és ezzel ők nem értettek egyet.
„Ma ott tartunk, hogy nem tudjuk megmagyarázni, hogy a ChatGPT mi alapján jut egy bizonyos outputra az adott inputok alapján, tehát milyen adatok alapján jut bizonyos következtetésekre. Ma leginkább úgy lehetünk etikusak a mesterséges intelligencia kapcsán, ha felhasználóként figyelünk arra, hogy átnézzük, kiszűrjük a hibákat, amiket az AI generál, hogy legyen meg a folyamatban az emberi felügyelet.” – tanácsolja Pintér.
Laczkó Gábor szerint még a vállalatok is tanácstalanok az AI megfelelő alkalmazása tekintetében.
„Mi sok vállalattal dolgozunk, ők is leggyakrabban a generatív AI modelleket használják. Az üzleti életben adatkinyerésre, dokumentumfeldolgozásra koncentrálva használják. Van olyan ügyfelünk, aki 30-40 B2B árajánlatot készít naponta, és ez rengeteg idejét emészti ez fel. Mi lenne, ha korábbi adatok alapján megírná neki ezt az AI? Vagy egy másik példa, ha egy vállalathoz frissen belépett munkaerőt betanítanak, akkor a betanítását nem egy senior kolléga, hanem az AI tartaná, korábbi adatok alapján?”
Laczkó Gábor azt tapasztalja, sok még a bizonytalanság: „Az ügyfelink keresik a területeket, mire érdemes használni és mire nem, mi ebben is segítünk a vállalatoknak: kitalálni, hogy az ő területükön mire érdemes használni. Általában átbeszéljük a lehetőségeket a partnerekkel és átgondoljuk, mi az a terület, ahol hasznos lehet nekik. Exceleket, adatokat, dokumentumokat egyesítünk és taníttatjuk fel az AI-val és bevezetünk egy házon belüli generatív AI-t. Ezeket aztán kollégák támogatására, riportok kinyerésére, műszaki dokumentációra, adatrendszerezésre használják legtöbbször.”
Az egyetemeken is gondot okozhat az AI felismerése
„A Corvinuson létrejött egy mesterséges intelligenciával foglalkozó csoport, körülbelül hatan-nyolcan dolgozunk benne már közel másfél éve, január 1-től pedig már MI dékánunk is van. Nemrég jelent meg egy belső oktatási rendelkezés, ami rögzíti azt, hogy milyen elvek mentén szabad használni a mesterséges intelligenciát az oktatásban. Azt is figyeljük, hogy más, akár nyugat-európai egyetemeken hogyan kezelik ezt a kihívást, és mindenhol problémát jelent, hogy a hallgatók hajlamosak a mesterséges intelligencia által készített anyagot sajátjukként feltüntetni.” - vázolja Pintér Róbert az egyetemi helyzetet.
„Akkor jár el valaki etikusan, ha transzparens és a felhasznált forrásokat behivatkozza. Ugyanígy a mesterséges intelligencia használatát is jelezni kell, feltéve, hogy nem tiltja az oktató az adott feladat esetén a használatát, ez esetben nem szabad használni azt. De ez akkor működik jól, ha egy adott tárgy vagy anyag kapcsán az oktató vagy kutató is jelzi, hogy MI-t használt, azaz ezt nem csak a hallgatóktól várjuk el.” -teszi hozzá Pintér Róbert.
Léteznek már ugyan mesterséges intelligencia detektorok, amikkel ki lehet mutatni, hogyha illetéktelen felhasználás történt, de ezek nem teljesen megbízhatóak: vagy nem fognak meg valakit, vagy fals pozitívat is mutathatnak. Emiatt sok helyen úgy járnak el, ha felmerül a gyanúja annak, hogy valaki etikátlan módon használta fel a mesterséges intelligenciát, akkor elbeszélgetnek a diákkal. Vagy ezt megelőzendő, eleve egy jegy fontosabb része lesz a szóbeli elbeszélgetés.
„Akkor szokott számomra gyanússá válni egy beadandó, ha ismerem a diákom stílusát, és ahhoz képest minden mondat gömbölyű, de az egész szövegnek egészében nincs értelme, nincs benne konklúzió. Ezek a rendszerek is fejlődnek azonban. Most belefutottunk egy programba, ami azt ajánlja, hogy ennek használatával írja meg valaki a szakdolgozatát és a végén a „humanize” gombbal emberszerűvé teszi a szöveget. Aki ezzel vissza akar élni, vissza tud, de ez teljességgel etikátlan.” – vázolja a helyzetet Pintér Róbert.
Viszont a cél az, hogy a hallgatók megtanulják az AI rendszerek hatékony és etikus használatát, hogy később a munkahelyen is jól tudják alkalmazni azt.
„Nem csak azt szeretnénk elérni, hogy a hallgatók megtanulják az AI rendszerek etikus használatát, hanem a sikerhez jól és hatékonyan is kell tudni alkalmazni. A hallgatókra vonatkoztatva túl kell lépni azon a gyakorlaton, hogy az MI amolyan utolsó pillanatos mentsvár, érteni kell mire és hogyan lehet hasznosan alkalmazni – és az MI-t alkalmazó cégek is ezt várják el, mint alapképesség ezen a területen. Van egy órám, ahol a félév végén üzleti tervet kell a hallgatóknak készítenie. Egy diákom úgy adta be a dolgozatot, hogy a félév során folyamatosan beszélgetett a ChatGPT-vel és a jó kérdésekre értelmes válaszokat kapott, majd a végén abból ő készített egy végleges szöveget. Tehát folyamatosan közösen dolgozott a ChatGPT-vel és ebből egy egészen remek eredmény született, mert átgondolt és ötletes felhasználása volt a mesterséges intelligenciának.”
– mesélte a Corvinus Egyetem Adatelemzés és Informatika Intézet adjunktusa.
Nem vagyunk messze a sci-fitől
A technológiai szingularitás, az az esemény, amikor a technológia olyan mértékben fejlődik, hogy megjósolhatatlanná válik a további fejlődése. A fogalmat Ray Kurzweil (író, feltaláló, mesterséges intelligencia és egészség témakörökben ír) használta először, aki szerint a szingularitás felé tett egyik első lépés amikor annyira intelligens lesz a mesterséges intelligencia, mint az ember, Kurzweil ezt 2029-re várja.
Pintér Róbert szerint Kurzweil is techno optimista állásponton van, viszont ő is elismeri, hogy a szingularitásnak van egy olyan pontja, ami egzisztenciális veszélyeket is rejt, és ez akár az emberi faj evolúciójának végét is jelentheti. Egészen sci-fi szerű lehet az az állapot, amit Kurzweil jósol, szerinte ugyanis 2045-re a gépek és emberek egyesülhetnek egymással. De benne is megfogalmazódik a kérdés, hogy vajon mennyire jó ötlet nálunk okosabb gépeket létrehozni?
Fotó: Pixabay