A ChatGPT betiltása Olaszországban: miért történhetett ez?
A Reuters közlése szerint (cikk elérhető itt) az olasz adatvédelmi hatóság (Garante) nemrégiben megtiltotta illetékességi területén belül (Olaszország) a ChatGPT szolgáltatás nyújtását adatvédelmi jog szerinti nem-megfelelősége miatt. A technológiai iparágat a közelmúltban egyre inkább átjáró mesterséges intelligencia láz egyik zászlóshajója, az OpenAI által fejlesztett nyelvi modell rendkívül látványos előrelépést tett ezen a területen, azonban az olasz hatóság aggályai (fiatalkorú felhasználók elégtelen védelme) helyénvalóak lehetnek.
Jelenleg az Európai Unió élen jár a személyes adatok védelmét szolgáló jogi és nem jogi védelem kiépítésében, az ilyen fejlett rendszerek megfontolatlan használata pedig valós veszélyt jelenthet mind az egyedi felhasználókra, mind az emberi társadalmak egészére. Ettől függetlenül hangsúlyozni kell, hogy a szükséges intézkedések meghozatala esetén ezek az innovatív technológiák az egész emberiséget (és a jövő generációit) nagymértékben támogathatják, ezért a teljes tiltásuk hatalmas hátrányt jelentene. De mi is az a Mesterséges Intelligencia? Általánosan megfogalmazva olyan magasan fejlett, algoritmizált és adatalapú technológiák együttese, amelyeknek a célja az emberi munkaerő támogatása (augmentáció) vagy előre haladottabb esetben kiváltása (automatizáció). Ezen a területen általában olyan Információs és Kommunikációs Technológiai (ICT) eszközöket találunk, amelyek nem csak intelligens magatartásra képesek, hanem olyan feladatok elvégzésére is alkalmasak, amelyekhez alapvetően emberi intelligenciát szoktunk társítani.
Hogyan működnek az ilyen rendszerek? Egy algoritmizált folyamatot egyszerűen leírva úgy képzelhetünk el, mint egy dobozt, amibe képesek vagyunk információt betenni, azért, hogy valamilyen művelet által valamilyen következtetéshez jussunk hozzá. Az információ, amiket beteszünk (un. input adat) bármi lehet, a múltheti átlag hőmérséklettől kezdve, az elmúlt száz év bírósági gyakorlatán keresztül, egy hitelminősítés előtt álló személy pénzügyi helyzetéig. Az, hogy mi „esik ki” a dobozból a szoftver feladatától függően lehet egyedi vagy általános tartalom, például egy meteorológiai előre jelző rendszer a várható időjárást jósolhatja meg, a robotbíró létrehozhatja magát a bírósági határozatot, a hitelminősítés eredményeként pedig az igénylés elutasítása vagy elfogadása is megtörténhet. Hogy ez hogyan történik nagyban eltér a szoftver fejlesztésének körülményei szerint. A „tanulási folyamatban” részt vehetnek emberek (megerősített tanulás), de lehetséges a szoftvert öntanulásra is késztetni (mélytanulás). Jelenleg a külső szemlélő számára ezek a „dobozok” jellemzően feketék, vagyis nehezen átláthatóak. Ezt a helyzetet „Black Box Effect”-nek nevezzük, mert a belső folyamatok összetettsége miatt nehéz megmondani, hogy pontosan milyen kapcsolat áll fenn a bemeneti és kimeneti adatok között.
A terület minden előnyével és hátrányával együtt kétségtelenül meghatározó tényező mind a köz-, mind a magánszféra szereplői számára. Ez teszi ugyanis lehetővé az olyan kiemelkedő teljesítmények mindennapos használatát, mint a virtuális asszisztensek (pl. UNA, ami cégalapításban segíti a felhasználókat, illetve az említett ChatGPT) vagy az önvezető járművek (Project „Yeti” által bevezetett önvezető hókotrók, valamint a Tesla járművek Autopilot funkciója). A fejlődési cél szem előtt tartása mellett azonban nem szabad megfeledkezni a kockázatokról, amelyek különösen nagy hatást gyakorolhatnak például az emberi méltóságra és annak védelmére, a természetes személyek magánszférájába való aránytalan beavatkozás, valamint a személyes adataiknak nem megfelelő kezelése által.
Az itt olvasható kutatás célja elsődlegesen a közigazgatási rendszerek általi Mesterséges Intelligencia használat központi adatvédelmi aggályainak azonosítása volt, de vállalkozások számára is tartalmaz hasznosítható ismereteket.