Interjú Menyhárd Attilával és Várady Endrével a Portfólio.hu-n
A vezető internetes gazdasági portál a mesterséges intelligenciára (MI) vonatkozó szabályozás jelenéről és jövőjéről kérdezte kollégáinkat. A téma „hot topic”: az MI velünk él, jelen van a munkahelyeken, a gazdasági életben, a cégek életében, de jogi szempontból a szabályozása sokszor a bizonytalan és átláthatatlan szürke zónába esik. Menyhárd Attila szerint a cégeknek muszáj lesz kiigazodni az MI-vel kapcsolatos szabályok útvesztőjében, és ehhez egy új típusú, technológiai ismeretekre is kiterjedő gyakorlatias jogi támogatásra van szükség.
Így szabályozná a Chat GPT-t és a teljes mesterséges intelligenciát az EU
A VJT & Partners szakértőit az európai adatstratégiáról és a készülő MI rendeletről kérdeztük.
A mesterséges intelligencia (MI) lassan a mindennapjaink részévé válik és nagy változásokat hoz például a munkahelyen, az üzleti életben, a pénzügyekben, vagy az egészségügyben. Azonban még mindig sok a bizonytalanság a lefedhető területekkel, a felhasználás módjával, valamint az alkalmazásának korlátaival kapcsolatban. Az EU új jogszabálytervezete, amely a kérdéskör átfogó szabályozását kívánja megvalósítani, a biztonságot helyezi előtérbe, ugyanakkor társadalmi és iparági oldalról elvárás lenne, hogy ezzel együtt innovatív és hatékony is legyen. A Portfolio Menyhárd Attilát és Várady Endrét, a VJT & Partners Ügyvédi Iroda szakértőit kérdezte az MI-re vonatkozó szabályok jelenéről és várható jövőjéről.
Az EU már megkezdte a mesterséges intelligenciában (MI) rejlő lehetőségek és fenyegetések kezelésére szolgáló szabályrendszer előkészítését, amely középpontjában a technológia iránti bizalom kiépítése áll. Ugyanakkor a világ több pontján még kilátás sincs átfogó szabályozás megjelenésére, ez azt jelenti, hogy az EU a szabályozás szempontjából az élvonalba tartozik?
Menyhárd Attila: Az a kérdés, hogy a jogalkotó egyáltalán akar-e szabályozni, vagy inkább abból indul ki, hogy a problémák, konfliktusok úgyis megjelennek a társadalomban, és erre reflektálva a bíróságok döntéseket hoznak. Ez az amerikai megközelítés, ahol az MI-re épülő rendszerekre vonatkozóan egyelőre nincs szabályozási keretrendszer. Az európai jogalkotó ugyanakkor azt a megoldást választja, hogy megpróbál legalább egy keretrendszert adni, hiszen az iparági képviselők joggal várják annak megfogalmazását, hogy milyen irányba fejleszthetnek. Választás kérdése, hogy a jogalkotó értékalapú megközelítést követ, vagy inkább a szabadságot helyezi előtérbe arra alapozva, hogy az egyének vagy csoportok érdekei ugyan sérülhetnek, de a gazdaság így működik hatékonyabban. Sokan vetik fel a kérdést, hogy mi az oka, hogy a bigtech-ek (például az Apple, a Microsoft, a Meta) amerikaiak. Van okunk azt gondolni, hogy ebben szerepe van a jogi környezetnek, ugyanakkor azt is meg kell jegyeznünk: nem biztos, hogy a gazdasági hatékonyság a társadalmi jólét egyetlen mérőszáma.
Az európai adatstratégia egy sok jogszabályból álló csomag, ami részben közvetlenül alkalmazandó rendeletekből, részben pedig irányelvekből áll össze, amiket majd a nemzeti jogalkotónak kell átvennie. Mivel egy része még készül, picit olyan, mint egy puzzle, amiből bizonyos darabok már ki vannak rakva, van, ami még hiányzik, és vannak olyan elemei, ahol még teljesen homályos a kép. A legnagyobb érdeklődés az MI-t és a digitális piacokról, szolgáltatásokról szóló szabályozási környezetet övezi, amelynek ráadásul versenyjogi, adatvédelmi, fogyasztóvédelmi, szellemi tulajdoni és szerződési jogi aspektusai is vannak. Gazdasági szempontból a csomag egészével kapcsolatban az a központi kérdés, hogy az iparági szereplők hogyan tudnak majd megfelelni azoknak az elvárásoknak, amelyeket a szabályozás támaszt. Ehhez a jogalkotónak pontos, egyértelmű, közérthető szabályokat kellene alkotnia, amihez a szabályozási tárgyat is figyelembe véve a jövőt kellene előrejeleznie, megjósolnia, ami a dolog természetéből fakadóan nehezen kivitelezhető.
Milyen konkrét problémákat vet fel jogalkotói és jogalkalmazói oldalról, amikor a jognak ilyen rendkívül komplex, teljes iparágakat és az egész társadalmat átfogó kérdésekkel kell megbirkóznia?
M.A.: A problémák ott kezdődnek, hogy a legnagyobb fejlesztő cégek sem értenek egyet a legfontosabb kérdésekben, például abban, hogy a kész terméket kell vizsgálni, vagy már a gyártási folyamat során biztosítani kell az ellenőrzést. Ennek a technológiának átláthatónak, magyarázhatónak, és tisztességesnek kell lennie a fogyasztók felé. Az utóbbit még érti a jogász szakma, de hogy ez mikor átlátható, mikor magyarázható, és ezt mire kell modellezni, abban pillanatnyilag bizonytalanok vagyunk. Egyelőre túlságosan tágak a fogalmak.
Várady Endre: Gyakorlati megvalósítási szinten azt is nagy problémának tartom, hogy állandóan ellentmondásokba ütközünk. Meg kell felelni az átláthatóság követelményének, ugyanakkor mivel az MI a feketedoboz-elv alapján működik, nem látja senki, hogy mi van benne, így beszélhetünk-e egyáltalán átláthatóságról? A pontosság elve alapján az adatoknak pontosnak kell lenniük, miközben a gyakorlatban szinte kivitelezhetetlen, hogy az adatkészlet teljes körű és mindenben hibátlan legyen. De ott van az adatminimalizálás elve is, ami szerint csak a legszükségesebb adatokat szabad begyűjteni, ezzel szemben az MI úgy működik, hogy minél szélesebb, robosztusabb az adatkészlet, annál megalapozottabb döntést fog hozni.
Érezhető egyfajta társadalmi nyomás, főleg az érintettek részéről, hogy a szabályozás minél hamarabb készüljön el, lépjen hatályba. Ez a kapkodás nem vezethet túlszabályozott állapothoz?
M.A.: Érzékelhető a jogászok körében is egy frusztráció, hogy a technológia fejlődik, a jog pedig csak kullog utána, és át kellene venni a kezdeményező szerepet. Szerintem ez egy félreértés, a jogalkotó nem lát a jövőbe. Egy klasszikus példa szerint a parkosításnak kétféle megközelítése van. Az egyik, hogy kialakítjuk a parkot, letesszük a járdát, és utána rákényszerítjük az embereket, hogy azon járjanak. Vagy szabálykövetők lesznek, de a park nem fog megfelelni a gyakorlati igényeknek, vagy nem követik a szabályokat, és tönkreteszik az egészet. Ennek a másik útja, hogy letesszük a füvet, megnézzük, hogy az emberek hol járnak, és oda tesszük a járdát.
A mostani helyzet engem erre emlékeztet. Egy hatalmas problémahalmazt látunk, vagy ilyet jósolunk meg, de hogy mi lesz ebből valójában, azt nem tudni pontosan. Ha nincs szabályozás, az nem azt jelenti, hogy nincs jog és a társadalom egy vákuumba kerül, hanem azt, hogy a jog alulról fog építkezni, bírósági döntésekre épülve.
Ha a jogalkotó abból indul ki, hogy minden lehetséges visszaélést és jogsértést megpróbál megakadályozni, akkor túl fog szabályozni és végül lesz egy jogi keretrendszer, ami olyan alkalmazásokat is visszaszorít, amelyek társadalmilag hasznosak lennének. Az MI rendelet kifejezetten kockázatalapú megközelítést alkalmaz, tehát most is van erre esély. Például egy arcfelismerő rendszer használatát olyan esetben is tiltani vagy korlátozni fogja, amikor az nem okoz valós érdeksérelmet. Ha a kockázatok túlhangsúlyozottá válnak, akkor lehet, hogy olyanra is reagál a jogalkotó, ami nem lesz valóságos.
Én alapvetően mindig jobban hiszek az alulról felfelé építkező mechanizmusban. Ezzel a megközelítéssel viszont most az a probléma, és ez az egész jelenséghalmaznak is sajátossága, hogy itt minden tömeges. Ha bármilyen probléma adódik, bármilyen kockázat megvalósul, az tömegesen fog történni, ezért kockázatosabb lehet ez az alulról felfelé építkezés. Mondhatnánk, hogy jobb lenne, ha nem sietnénk annyira a szabályozással, azonban a jogalkotó nem biztos, hogy megengedheti ezt magának.
Az MI kapcsán érthető okokból az egyik kiemelt téma a felelősségi kérdések alakulása. Hogy látják, a mesterséges intelligencia esetében kinek kellene viselnie a termékfelelősséggel összefüggő innovációs kockázatot?
M.A.: Ennek van egy társadalmi síkja, amit a jogalkotónak valóban el kell döntenie. Ha a gyártó viseli az innovációs kockázatot, az visszafoghatja a fejlesztéseket, ha viszont a károsultra terheljük, az igazságtalan lehet, mert nem feltétlenül ő húzza annak a technológiának a hasznát. Ha megvásárolunk egy technológiát, ami számunkra nagyon kedvező, de a használata egy harmadik személynek kárt okoz, és azt a kárt ez a károsult viseli, az társadalmilag igazságtalan. A felelősségi kérdésben szereplőként ott van a gyártó, az üzembentartó, a felhasználó, és a károsult is a saját közrehatásával, ráadásul mindegyik viszony lehet szerződéses vagy szerződésen kívüli. A felelősségi kérdések kezelése a komplexitásuk miatt nehéz.
A termékfelelősségi szabályok alapvetően úgy vannak modellezve, hogy van egy termék, amit piacra dobnak, majd megnézik, hogy a forgalomba hozatalkor megfelelt-e a jogi elvárásoknak, kellően biztonságos volt-e. Az okoseszközökkel és a mesterséges intelligencia alkalmazásokkal nem ez lesz a helyzet, mert azok folyamatosan frissítést igényelnek. Ezért a gyártó feladata nem érhet véget ott, hogy az adott termék piacra került, mert nincs jó válaszunk arra, ha a termék vevője nem foglalkozik a frissítéssel, és ez harmadik személynek okoz kárt. Az önvezető autókra ezt egész jól lehet modellezni, mert ha nem cseréljük az olajat az autóban, és ott maradunk az út szélén, az a mi problémánk, de ha 15 év múlva egy önvezető autónak nem frissítik a szoftverét, lehet, hogy balesetet fog okozni vagy elgázol valakit. Ez például olyan kockázat, amit nem lehet rábízni a használóra.
A termékfelelősségi szabályok EU-s felülvizsgálata megkezdődött már, és a jog valószínűleg elsősorban a gyártóra terheli a felelősséget. A termékfelelősségi szabályokat olyan szempontból is felülvizsgálják, hogy azok jelenleg a termékekre vonatkoznak, a szolgáltatásokra nem. Valamilyen módon ki kell terjeszteni a digitális szolgáltatásokra, várhatóan egy teljesen új termékfelelősségi koncepció fog megjelenni. Mindazonáltal nehéz megjósolni a felelősségi kérdések pontos alakulását, mert a mostani helyzetet vetítjük egy jövőbenire, ahol viszont valószínűleg az érintett jogviszonyok is át fognak alakulni.
Az elszámoltathatóság és az etikus elvek érvényre juttatása új, eddig nem ismert akadályokba ütközik ezen a területen. Ennek kapcsán sokszor esik szó a “feketedoboz” hatásról, most is elhangzott, mint kockázati faktor, de mit is értünk pontosan ez alatt?
V.E.: Az MI-re rengetegféle definíció van, én mindig arra támaszkodom, hogy az MI-nek két alkotóeleme van. Az egyik az adat, ami, ha nem lenne, akkor az egész értelmetlen lenne. A másik pedig az algoritmus, amely begyűjti az adatokat, egy minta alapján feldolgozza, és tanulás útján mindig újabb és újabb következtetésre jut. Az algoritmus már nagyon hasonlít az emberi gondolkodásra, csak itt nem beszélhetünk emberi tudatról, de az algoritmikus gondolkodás már egy neurális hálózati összetevős gondolkodást foglal magába. Amiben az MI nagyon különbözik a korábbi technológiáktól, hogy teljesen kiszámíthatatlan, hogy a bemeneti adatok milyen kimeneti adatokat fognak produkálni, mi lesz a végkövetkeztetés és azt mi alapján hozta meg. Az MI önállóan gondolkodik és hoz döntéseket. Ez a feketedoboz hatás. És ami bizalmatlanságra adhat okot, az pont ez. Azáltal, hogy nem látunk bele, hogyan működik az MI, a hatóságok és felhasználók sem tudnak megfelelő kontrollt gyakorolni felette. Nem tudni, hogy így mennyire tud megvalósulni az elszámoltathatóság.
Másrészt az is nagy kérdés, hogy az MI alkalmazása során mennyire lesznek beépítve a működési modellbe az etikus elvek. Amikor az MI különböző döntéseket hoz, gyakran láthatjuk, hogy azok csak adatkészleteken alapulnak és az emberi erkölcsi momentumok nincsenek feltétlenül beépítve a folyamataiba. Például, ha egy adott számítással kapcsolatban a korábbi adatok csak férfiakra vonatkoznak, akkor születhet diszkriminatív döntés. A fő kérdés, hogy a gyakorlatban ezeket a bizalmatlansági elemeket mennyire lehet majd sikeresen kezelni.
Az etikával kapcsolatban alapvető probléma, hogy nagyon sokféle, sokszor előre nem látható életszituációra vonatkozóan igyekszik iránymutatást adni. A technológia hogyan tud megfelelni egy ilyen sokrétű elvárásnak? Az etikusság egyáltalán programozható?
M.A.: Robert Nozick azt írja, hogy azért nem tudunk utópiát megvalósítani, mert minden egyes embernek megvan a saját utópiája a világról, és ezek nagyban különböznek egymástól. Az etika is innen indul és nem mindegy, hogy melyik szakma oldaláról közelítjük meg. A jogászok számára akkor tud kézzel foghatóvá válni, ha valamilyen standardban le van írva. Erre rendszerint törekszenek is. Ilyenek például az etikai szabályzatok. Ezek az etikai normák részévé válnak a jognak, mert ha rákérdezünk arra, hogy valaki úgy járt-e el, ahogy az az adott helyzetben elvárható volt, akkor ennek megítélése során számít az is, hogy betartotta-e ezeket az etikai szabályokat. Ilyen szempontból az etika olyan, mint egy kicsit puhább jog. De amikor ez le van írva, és van mögötte egy szélesebb konszenzus, onnantól a működése a jogszabályokéhoz nagyon hasonlóvá tud válni. Az etikai elvek megfogalmazása során egyéni vagy kisebb társadalmi csoportok preferenciáiban is gondolkodhatunk. Ezen a területen valószínűleg korlátozottan várható, hogy az MI meg tud felelni az elvárásoknak. Annak tud megfelelni, hogy ne legyen diszkriminatív, azaz ne forduljon elő, hogy a működése valamilyen módon társadalmi kirekesztést eredményez.
V.E.: Ha le tudunk írni egy etikai szabályzatot, akkor azt le is tudjuk programozni. Jelenleg is tart a vita, hogy az MI tervezése és működtetése során a cégekben etikai bizottságokat állítsanak fel, amelyek feladata az lenne, hogy folyamatosan elemezzék, hogy különböző MI terméknél milyen etikai aggály merülhet fel, és javaslatot tegyenek egyben ezen aggályok kezelésére. Sokan úgy gondolják, hogy egy ilyen etikai bizottságban nem feltétlenül csak jogászoknak kellene ülni, hanem más szakembereknek is, pontosan azért, mert az etikai aggályok megértéséhez és a belőlük fakadó kockázatok kezeléséhez több nézőpontra is szükség van (például filozófiai, üzleti és technológiai nézőpontra is).
M.A.: Az is érdekes felvetés, hogy a jogellenesség vajon programozható-e. Amikor járművet vezetünk, előfordul, hogy egy veszélyhelyzetet azzal tudunk megoldani, hogy bevállalunk egy szabálytalanságot, például gázt adunk, még ha túl is lépjük a sebességhatárt. Abban mindenki egyetért, hogy ez helyes. Ilyen szempontból a szabálykövetésnek van egy relatív jellege. Megvannak a protokollok, a szabályok, de egy adott helyzetben pont abban látjuk a kockázatot, ha betartjuk őket. A lélekjelenlétet, bizonyos esetekben a zsenialitást látjuk abban, hogy valaki eltér a szabályoktól. Etikus lehet-e jogellenességet programozni az MI-be, főleg akkor, ha egy önvezető autóról van szó, ami nem mesterséges, hanem valós környezetben működik, ahol lehet, hogy ha nem vállalja ezt a jogellenességet, azzal akár veszélyhelyzetet idéz elő?
Nehéz elképzelni, hogy bizonyos kérdésben kizárólag egy ilyen rendszer döntsön a személyemmel kapcsolatban. Mi a helyzet a humán beavatkozás lehetőségével, mindig lesz emberi kontroll, vagy megvalósulhat a teljesen automatizált, MI vezérelt rendszer?
V.E.: Az MI rendelettervezet szerint az a lényeg, hogy a folyamatba be legyen építve, hogy az emberi beavatkozás bármikor megtörténhessen (például egy „stop” gomb megnyomásával), mert lehet, hogy az MI a teljes folyamatban kifogástalanul dönt, de nem tart ott a technológia, hogy hibák ne csúszhassanak be. Véleményem szerint a magas kockázatú MI rendszerekben feltétlenül szükséges a beavatkozás lehetőségének a fenntartása.
M.A.: Ez a rendelet hangsúlyozottan kockázatközpontú. Valószínűleg az életünk nagy részét a magas kockázatú rendszerek fogják érinteni, akár egy banki, vagy egy egészségügyi rendszerre gondolunk. Ez már önmagában is a kockázatot helyezi előtérbe, pedig a jog értékalapú, nem feltétlenül az a célja, hogy a kockázatokat elkerülje, hanem az, hogy bizonyos értékek a társadalomban érvényesüljenek. Ha a kockázatmentesség egy önálló értékké válik, akkor félő, hogy ez kerül a középpontba. Ennek az a következménye, hogy mindent kockázatkerülésre modelleznek. A biztonság és a hatékonyság nem tud egyszerre érvényesülni, nincs olyan, hogy valami nagyon gyors és közben nagyon biztonságos is, ahogyan olyan sincs, hogy valami dinamikusan fejlődik, de közben nem jelent kockázatot.
Az MI fejlődésének egyik alappillére maga az adat, amiből az MI tanul. A gazdaságunkban az adat egy új vagyoni elemként jelenik meg, a szabályozás legdinamikusabban fejlődő elemei is az adatok forgalmával, az adatok feletti jogosultságok allokációjával foglalkoznak. A GDPR-hoz képest mire számíthatunk ezen a területen, hogy alakul a szabályozás, hogyan érinti mindez a személyes adatok védelmét?
M.A.: A helyzet nem egyszerű, hiszen a jogi szabályok abban is eltérnek, hogy mit tekintenek adatnak. A készülő Data Act, ami a gazdasági és ipari tevékenység során előállított adatokkal foglalkozik, az információt általában is adatnak tudja tekinteni, a GDPR-nak viszont más a struktúrája, nagyon éles különbséget tesz az adat és azon információ között, amely már az adat felhasználásával lett előállítva.
Ugyanakkor a különböző típusú adat egymással is össze van kapcsolva. Például megadjuk az adatunkat, abból előállítanak egy további adatot, ami így már nem a mi adatunk, hanem egy valamilyen módon közös adat, amit továbbadnak és nagyon sokféleképpen felhasználnak. A személyes adat felhasználásával előállított nem személyes adat nagyon nagy gazdasági potenciált jelent. A szabályozásnak ezt is valahogy kezelnie kell
Foglalkoznunk kell azzal is, hogy ezeket az adatokat egyáltalán hol helyezzük el a jogrendszerben. Például el lehet-e az adatokat lopni. Polgári jogi szempontból milyen az örökös helyzete? Megkapja-e például az örökös az örökhagyó adatai feletti rendelkezési jogot? Erre az Infotörvénynek van egyébként egy speciális rendelkezése, próbálja kezelni ezt a helyzetet, de ezt csak a hatálya alá tartozó esetekben teheti meg.
Az adat-ökoszisztémát átfogó komplex szabályozás célja meghatározni az adat természetét, hogy az honnan tud valahova kerülni, ebből adódhat-e versenyelőny és azt ki lehet-e használni. Szerintem, ami ebből egy központi jogszabály lesz, az a Data Act, amely az adatok újra felhasználására biztosít jogi keretet. Például rendezi azt, ha egy vállalkozás adatot állít elő, amit utána átad egy fejlesztőnek, akkor hogyan alakul az adat feletti jogosultság. Ez hatalmas gazdasági lehetőséget rejt magában.
Például, ha egy mezőgazdasági vállalkozónak van egy traktorja, aminek a fedélzeti számítógépe adatokat gyűjt a termésről, az időjárásról, a talajról stb., akkor ezeket az adatokat nem a vállalkozó kapja meg, hanem a gép transzferálja egy központi adatbázisba, és az a vállalat gyűjti, amelyik a traktort értékesítette. A beérkező adatokat elemzik, így pedig létrejön egy adatmonopólium, majd az eredményeket eladják a gazdálkodónak. Mindeközben a jelenlegi számítások szerint csupán az adatok 20%-a hasznosul a folyamat során, vagyis egy csomó adat elveszik. A szabályozás ezt próbálja megnyitni, hogy aki adta az adatot, vissza is kaphassa, esetleg máshová is tudja továbbítani. Az adatok forgalmának felélénkülésétől hatalmas GDP-növekedést várnak.
A Data Act érdekessége, hogy nem terjed ki a számítástechnikai eszközökre. Ebből már most is tapasztalható feszültség, mert ha egy vállalkozó traktorjában működik a fedélzeti számítógép, az a Data Act hatálya alá fog tartozni, de ha a vállalkozónak van egy okostelefonja, és a számítógépet egy alkalmazáson keresztül arról kezeli, az már nem. Kérdés, hogy a szabályozás így el fogja-e érni a célját.
Az is kérdés, hogy a személyes adatok felhasználásával generált nem személyes adatok jogi sorsa hogyan alakul, ugyanis, ha megadjuk a hozzájárulást, akkor annak felhasználása piaci értékké válik. Arra számítok, hogy nem fog sérülni a személyes adatok védelme, de nem azokon lesz a hangsúly, hanem az adatok forgalomképességén és a gazdasági hasznosíthatóságán. Van tehát ez a mozaik, ahol az európai jogalkotó azt ígéri, hogy teljes lesz a konzisztencia, de mégis mindenki bizonytalan, hogy valóban zárni fog-e a rendszer, mert ezek a szabályok nem akarják felülírni a GDPR-t és egyelőre nincs megteremtve az összhang.
Azt, hogy a személyes adatnak értéke van és akár lehet egy szerződéses szituációban ellenszolgáltatás is, eddig a jogalkotó egyáltalán nem ismerte el? Vagy ez is abba a szürke zónába tartozik, ahol bizonytalan jogszabályi analógiákkal vezethető csak le egy ilyen tranzakció jogszerűsége?
M.A.: A szabályozás legitimál is. A digitális tartalmakról és a digitális szolgáltatásokról szóló irányelv például kimondja, hogy a hatálya alá tartoznak azok a szerződések is, amelyekben adattal fizettek. A jogalkotó ezzel elfogadja azt, hogy az adat transzferálható, és egyébként nem mondja azt, hogy ez személyes adattal nem történhet meg. Ebből nekem az következik, hogy személyes adattal is lehet fizetni, és ha valamivel fizetni lehet, annak a forgalomképessége aligha vitatható. Ha az európai jogalkotó definiálja, hogy akár személyes adattal is lehet fizetni, számomra azt jelenti, hogy a személyes adat veszít a személyes jellegéből, hiszen elfogadjuk, hogy ez egy ellenszolgáltatás. Szerintem egyébként nem jó a szöveg, mert valójában nem azt kellene mondani, hogy az adattal fizet, hanem hogy az adat felhasználásához való hozzájárulással fizet. Ebben az esetben jobban mozognánk azon a síkon, hogy a hozzájárulás visszavonható-e, és nem kell azt kimondanunk, hogy az adat, akár a személyes adat, forgalomképes jószággá vált. Viszont itt megint csak a GDPR-ral való összhang is kérdéses (ugyanis a GDPR szerint tilos a szolgáltatás nyújtásának feltételéül szabni az adatok átadásához való hozzájárulást).
Ha a hozzájárulás bármikor visszavonható, akkor hogyan lehet ezekre az adatokra kutatásokat, fejlesztéseket, hosszú távú üzleti döntéseket alapozni? Hogyan igazolható egy következtetés validitása, ha az azt megalapozó adathoz megszűnt a hozzáférés?
M.A.: Amikor a hozzájárulást visszavonják, az a forrásadat oldaláról kihúzhatja a talajt az eredményadat alól. Ma a kutatások során, ha nagyon precízek akarnak lenni a kutatók, akkor végig megtartják ezt a láncolatot, és számolnak azzal, hogy ha visszavonásra kerül a hozzájárulás, akkor megdől az abból levont következtetés is. Márpedig a talajt bármikor ki lehet húzni, mert nem tiltható meg, hogy a hozzájárulást visszavonják. Arra egyelőre nincs világos válasz, hogy ezekkel az adatokkal pontosan mi történhet, ha a hozzájárulást visszavonták, de az egész biztos, hogy aki felhasználja ezeket, nem fogja tudni ellenőrizni az adat validitását. Egy mesterséges intelligencia fejlesztése esetén például a tanítóadatok hitelessége válik ellenőrizhetetlenné, ami végső soron a mesterséges intelligencia kontrolljának a gátját jelentheti.
Mit tehetnek az érintett vállalatok, hogy felkészüljenek erre az új, és folyamatosan változó szabályozási környezetre? Milyen típusú jogi támogatásra lehet szüksége ezeknek a cégeknek, hogy valóban jogszerűen tudjanak eljárni?
M.A.: Arra számítunk, hogy nagyon nagy lesz az igény a jogi támogatásra minden olyan vállalat részéről amely a szolgáltatásai nyújtásához, a termékei előállításához, a belső működéséhez mesterséges intelligenciát használ, vagy éppen MI fejlesztéssel foglalkozik. A jogi támogatás egyszerűen szükségszerű annak érdekében, hogy amit csinál, annak a jogszerűségét egyáltalán vizsgálni tudja és a felelősségével járó kockázatokat képes legyen kezelni. Szerintem ez csak úgy fog tudni működni – és ezt mind a vállalati mind a kutatási környezetben egyre inkább tapasztaljuk – ha nem mechanikus tanácsadás történik, hanem újra és újra felmerül az igény arra, hogy azok a jogászok, akikkel egy ilyen MI-t használó vagy éppen MI-t fejlesztő cég dolgozik, folyamatosan együtt éljenek azzal, megértsék, hogy mit csinálnak a fejlesztők és hogyan működik az adott termék vagy szolgáltatás. Ehhez egy holisztikus, 360°-os, gyakorlatias jogi szemlélet szükséges .
Mi napi szinten foglalkozunk ezekkel a kérdésekkel, köszönhetően annak is, hogy a VJT & Partners részese egy nemzetközi együttműködésnek, amely többek között olyan globális MI szereplőnek is dolgozik, aki a digitális transzformáció mozgatóerejét képviseli a világban. De nem csak a vállalati környezetből, hanem a kutatói világból jövő inputokat is feldolgozzuk és folyamatos a kapcsolatunk olyan külföldi ügyvédi irodákkal, akik a saját országaikban az MI jogi tanácsadás élvonalába tartoznak.
Forrás: portfolio.hu