Cikk letöltése PDF-be

Absztrakt

A tanulmány a mesterséges intelligencia (MI) által okozott károk polgári jogi felelősségi kérdéseit vizsgálja, különös tekintettel a veszélyes üzemi felelősség dogmatikai alapjaira és analóg alkalmazhatóságára. Az MI autonóm működéséből fakadó átláthatatlanság és kauzalitási nehézségek következtében a felróhatóságon alapuló felelősségi rendszer nem biztosít hatékony kárrendezést. A veszélyes üzem logikáján alapuló, érdekalapú kártelepítés kiszámíthatóbb jogi keretet kínál, ugyanakkor potenciálisan hátráltathatja az MI elterjedését és ezáltal az innovációt.

1. Bevezetés

A jog és a digitalizáció kapcsán egyszerre beszélhetünk a jog digitalizációjáról és a digitalizáció jogáról.[1] Míg az előző a jogalkalmazás során igénybe vett technológiai segítséggel és az ebből fakadó újfajta kihívásokkal foglalkozik, addig az utóbbi többnyire a negyedik ipari forradalom következtében létrejött digitális termékek megjelenésével előállt, újfajta társadalmi helyzetekre keresi a megfelelő jogi választ. Tanulmányunkban a digitalizáció jogával, azon belül is a mesterséges intelligencia és az annak igénybevételével okozott károkért való felelősség kérdésével foglalkozunk.

Az OpenAI informatikai kutatólaboratórium 2022. november 30-án jelentette meg a ChatGPT nevű generatív mesterséges intelligenciát. A mindentudó internetes beszélgetőtárs nagyon rövid idő alatt páratlan népszerűségre tett szert, ennek köszönhetően pedig egyre szervesebb részévé kezdett válni az MI a hétköznapi életnek. A már régebb óta létező automatikus háztartási eszközök, vagy éppen a csak nagyon szűk körben elterjedt és komoly korlátozások alatt lévő önvezető autók ott voltak a lakosság tudatában, hatásuk azonban meg sem közelíti a ChatGPT által kiváltottat. A technológia bűvöletét ugyanakkor hamar az élet minden területén kérdések követték. Így van ez a jogtudományban is.[2]

Ugyan jelentős és jövőbe mutató technológiai vívmánynak tekinthető az autonóm mesterséges intelligencia, ez a tény önmagában nem indokolja, hogy egyfajta különleges magánjogi megítélésen gondolkodjuk. Az MI-vel való tudományos foglalkozás sokkal inkább azért lényeges, mert az autonóm mesterséges intelligencia olyan magasfokú önálló társadalmi cselekvésre képes,[3] amely újfajta kihívást jelent többek között a hagyományos, felróhatósági alapú kártérítési gondolkodásnak.

A jogásztársadalom feladata nem kevesebb, mint egy olyan jogi keretrendszer biztosítása, amelyben a károsult legalább olyan hatékonysággal tudja érvényesíteni az MI által okozott kár megtérítése iránti igényét, mint egy hagyományos deliktuális követelést.[4] Figyelemmel kell lenni ugyanakkor az innováció (már most is sokszor jól látható[5]) jótékony következményeire, amelyeket egy túlságosan korlátozó szabályozás nagyban vissza tud fogni. Végül védendő értékként kell megemlíteni a gazdaságot is, amely szintén csak egy kiszámítható és arányos szabályozás mellett tudja igazán kihasználni a mesterséges intelligencia által nyújtott lehetőségeket. Az emberi biztonság, a gazdasági stabilitás, valamint az innováció lehetőségének biztosítása rajzolja meg azt a keretrendszert, amelyen belül kell megtalálni a mesterséges intelligencia emberi közrehatástól független, de jogilag releváns társadalmi cselekvéseivel előállt újfajta kártérítési helyzetek megoldását.

Az alábbiakban egy, a szakirodalomban gyakran előforduló megoldást vizsgálunk: az MI-re alkalmazandó általános szigorú (a magyar jogban leginkább a veszélyes üzemihez hasonlítható) felelősséget. Ugyan a téma aktualitása lehetővé tenné, hogy ezenkívül még leg­alább két-három hasonló értékű, a tudományos gondolkodásban egyre többször felmerülő megoldási javaslatot értékeljünk, erre azonban a terjedelmi korlátok miatt jelen tanulmányban nem kerül sor. A veszélyes üzemi felelősség alkalmazásának vizsgálatával legfőbb célunk a gondolatébresztés, valamint annak elősegítése, hogy az újfajta társadalmi helyzetek magánjogi megítélésénél is bátran nyúljon a jogalkalmazó a több ezer éves polgári jogi dogmatikához.

2. A veszélyes üzemi felelősség logikájának ismertetése

A Polgári Törvénykönyvről szóló 2013. évi V. törvény (a továbbiakban Ptk.) a 6:535. §-tól foglalkozik a fokozott veszéllyel járó tevékenység körében okozott károkért való felelősséggel. A kártérítés általános szabályaitól eltérően, veszélyes üzem esetén nem beszélhetünk felróhatósági alapú felelősségről. Az új Ptk.-ban definiált (korábban csak a gyakorlatban alkalmazott) üzembentartói alakzattal a magyar jogalkotó elszakítja a felelősséget a tényleges cselekvéstől és egy érdek-, kockázatalapú szabályozást alkalmaz a fokozott veszéllyel járó tevékenység folytatására. Az a külföldi szakirodalmi megállapítás, amely szerint a felelősség csak olyan személyre terhelhető, akinek tényleges ráhatási képessége van az eseményekre,[6] ellentétes az 1952-óta működő magyar gyakorlattal.

3. A veszélyes üzemi felelősség alkalmazása önvezető autók esetén

Az önvezető autók példáján keresztül könnyen érzékeltethető a veszélyes üzemi szabályozás adaptivitása a mesterséges intelligencia alapon működő eszközök használatára.

Személygépjárművel okozott kár esetén, amennyiben a károkozó nem tudja bizonyítani, hogy a kárt olyan elháríthatatlan ok idézte elő, amely a fokozott veszéllyel járó tevékenység körén kívül esik, kártérítési kötelezettség terheli. A veszélyes üzemi felelősség azonban nem azt a személyt kötelezi, aki a tényleges cselekvést folytatja, hanem akinek érdekében az üzem működik[7] (a két személy egybe­esése lehetséges, de nem szükségszerű).

Az önvezető autókkal kapcsolatban sem lehet érdemi különbségről beszélni. Mivel már a klasszikus személygépjárművek esetén sem a kár tényleges okozója (a vezető személye) volt a meghatározó, hanem az üzembentartó, semmi sem indokolja eltérő szabályok alkalmazását. Az „üzembentartó” és a rajta keresztül a materiális tényállástól eltávolított és mindemellett objektivizált (nem felróhatósági alapú) hatályos veszélyes üzemi szabályozás tehát formálisan tökéletesen alkalmazható egy önvezető (természetes személy irányítását nélkülöző) autó károkozása esetén is.

A gépjármű veszélyes üzemi jellegét az adja, hogy potenciálisan alkalmas súlyos baleset okozására. Az üzembentartó minden esetben meghoz egy döntést, és a gépjármű kínálta előnyök (például: kényelem, gyorsaság, rugalmasság) élvezése mellett vállalja az ezzel járó fokozott kockázatokat is, és egyben a saját szigorított kárfelelősségét. Az önvezető autó esetében sincs ez másképpen. A különös kényelmi szolgáltatás ára, hogy lemond a gépjármű feletti közvetlen ráhatásról, a döntés következménye pedig, hogy az ennek okán bekövetkezett károkért vállalja a felelősséget.

4. Más által okozott károkért való felelősség a magyar jogban

A Ptk. azonban nem csak a különös veszéllyel járó tevékenység kártérítési szabályozásánál választja el a felelősséget a kár tényleges okozójától. A logika a veszélyes üzemmel megegyezően alakul (ebben a tekintetben) a munkavállalónak és a jogi személy tagjának a nem szándékos károkozása [Ptk. 6:540. § (1)–(2)bek.], valamint a vétőképtelen személy károkozása (Ptk. 6:544. §) esetén.

Ennek fényében jól látszik, hogy a magyar jogi gondolkodástól egyáltalán nem idegen a kártérítési felelősségnek a materiális cselekvőtől való eltávolítása, és a felróhatóságtól eltérő mérce alapján (pl. kárporlasztás, méltányosság) történő telepítése. Hasonló figyelhető meg a francia jogban, amely szerint a dolgok által okozott károkért azok őrzője felel.[8]

A mesterséges intelligencia deliktuális felelősségének tárgyalása során a német jogirodalomban is megjelennek hasonló megközelítések. Zech szerint például az MI technológiai működésének alapját jelentő neurális hálózatok viselkedésének kiszámíthatatlansága nagyon jól összevethető az állati viselkedés kiszámíthatatlanságával.[9] Ezért az öntanuló gépek esetében szóba jöhet az állatartói felelősséggel való analógia, annak ellenére is, hogy a szigorú felelősségi szabályok analógiaképességét még mindig széles körben elutasítják.[10] Ennél a példánál ugyan már nem beszélhetünk a szoros értelemben vett más személy által okozott károkért való felelősségről, jól látszik azonban, hogy a mesterséges intelligencia jövőbeli szabályozásához sokat lehet meríteni a már jelenleg is működő felelősségi alakzatokból.

5. Az üzembentartói alakzat kiterjesztésének főbb indokai

Az üzembentartói alakzat kiterjesztésének, és a veszélyes üzemi felelősség általános alkalmazásának legnagyobb előnye az, hogy egy már meglévő, jól működő jogintézménnyel adunk választ egy új társadalmi kihívásra.

A mesterséges intelligencia deliktuális felelősségével kapcsolatos legnagyobb kihívások annak autonómiájából és átláthatatlanságából fakadnak.[11] A hagyományos, felróhatóságon alapuló kártérítési jogi gondolkodás nem alkalmazható, ugyanis a fejlett MI-rendszerek aktív emberi ráhatás nélkül is tudnak hatékonyan működni (ennek során pedig adott esetben kárt okozni). A magánjognak erre a jelenségre kell választ találnia,[12] Magyarországon azonban (ahogy azt fent már ismertettük) nem idegen a felróhatóságtól eltérő mérce alapján történő kártelepítés.

A veszélyes üzem logikája tökéletes megoldást kínál az MI-károkkal kapcsolatos kauzalitás bizonyításának nehézségére,[13] esetleges lehetetlenségére: egyszerűen eltekint ettől. Az érdekalapú gondolkodás és kártelepítés így egy kiszámítható szabályozási keretet teremt.

A Ptk. 6:536. § (1) bekezdése analógiáját használva: az MI üzembentartójának az minősül, akinek érdekében a mesterséges intelligencia működik. Ennek az alakzatnak az alkalmazása által eltűnik a kár és a károkozó magatartása közötti okozati összefüggés követelménye, ami az MI-rendszerekkel okozott károk megtérítésének ideális és hatékony szabályozásához elengedhetetlen.

Fontos továbbá, hogy az okozati összefüggés mellett a felróhatóság követelményétől is eltekintsünk. A Ptk. 6:535. § (1) bekezdés 2. mondatában két kumulatív feltétel szerepel a kimentéshez: „Mentesül a felelősség alól, ha bizonyítja, hogy a kárt olyan elháríthatatlan ok idézte elő, amely a fokozott veszélyességgel járó tevékenység körén kívül esik.” A szigorított mentesülési szabályok alapján azt is terhelheti kártérítési felelősség, aki úgy járt el, ahogy az az adott helyzetben elvárható. Ugyanez szükséges az MI által okozott károk szabályozásához is, ugyanis a működésre való emberi ráhatás erős korlátozottsága következtében nem elvárható annak olyan szintű befolyásolása, amely meg tudna akadályozni egy esetleges károkozást. Az okozati összefüggés követelményének eltörlése, és ezáltal a materiális cselekménytől eltávolított, de a működésben érdekelt „üzembentartó” felelősségi alakzat alkalmazása önmagában nem elég, ugyanis a felróhatóságon alapuló kártérítési gondolkodás szinte minden esetben a károkozó kimentéséhez vezetne. A veszélyes üzem kimentési szabályainak alkalmazásával azonban ez a probléma is megszűnik.

Azok a – túlnyomórészt angolszász – szakirodalmi megközelítések, amelyek a szigorított (akár a magyar veszélyes üzemihez hasonlóan objektivizált) felelősséget kifogásolják, két fő érvet hangsúlyoznak.

Az egyik az eltérő jogi hagyományokra vezethető vissza, amely szerint nem tehető felelőssé senki felróhatóság hiányában.[14] Fontos látni, hogy ezen a téren nem elsősorban a szabályozási kimenetben, hanem az amögött álló gondolkodásban jelenik meg a különbség. Míg ugyanis a hazai veszélyes üzem a „ráhatás” helyett az „érdeket” tekinti kár­telepítő tényezőnek, addig a kizárólag felróhatósági alapon gondolkodó jogrendszerek a szigorú felelősség esetén is azt keresik, hogy ki az, aki leginkább hatni tud, vagy tudott volna az eseményekre (ilyen lehet a gyártó, a felhasználó vagy akár más személy). Az ezen gondolkodás mentén kijelölt kártérítési kötelezett felelőssége végül lehet kifejezetten hasonló, így elsőre talán nehéz megérteni azt az alapvető megközelítési különbséget, amellyel a szakirodalom a mesterséges intelligencia deliktuális felelősségét tárgyalja.

Az eltérő gondolkodásnak leginkább egy határokon átívelő, harmonizált szabályozás esetén lehet jelentősége, ugyanakkor fontos látni, hogy korántsem a magyar az egyetlen jogrendszer, amely ismeri a felróhatóság nélküli kártelepítés intézményét.[15]

A másik érv a technológiai innováció hátráltatása. Erre a későbbiekben térünk ki részletesebben.

6. Az üzembentartói alakzat kiterjesztésének következményei

Minden innovatív megoldáshoz hasonlóan a mesterséges intelligencia elterjedése miatt is új társadalmi kockázatok tűnnek fel.[16] Fontos, hogy a jogalkotó olyan szabályozási rendszerbe tudja helyezni ezeket a jelenségeket, amely a társadalom számára kiszámítható és megnyugtató, ugyanakkor nem hátráltatja az innovációt sem.

A mesterséges intelligencia esetében különösen jelentős szempont továbbá, hogy annak fejlődése szorosan összefügg az elterjedésének mértékével. Az MI önmagát fejleszti, ehhez pedig adatra (minél több használatra) van szüksége. Ezt hátráltathatja egy szigorú felelősségi szabályozás, amely visszafoghatja a felhasználói kedvet. Az érdekalapú kártelepítés ugyan egy kiszámítható és már ismert jogi választ adna az MI használatának következtében felmerülő káresetekre, félő mégis, hogy az objektív felelősség visszafogná a mesterséges intelligencia fejlődését, és így annak társadalmilag rendkívül hasznos lehetőségei is kiaknázatlanok maradnának.

A veszélyes üzemi alakzat kiterjesztésének következménye lehet továbbá a hagyományos, felróhatóságon alapuló kártérítési gondolkodás hosszú távú háttérbeszorulása. A technológia fejlődésének köszönhetően el fog érkezni az a pillanat, amikor az MI alapú eszközök annyival hatékonyabbak, megbízhatóbbak a hagyományos[17] eszközöknél, hogy az adott helyzetben általában elvárható magatartás a mesterséges intelligencia használata lesz. Ez annak ellenére bekövetkezhet, hogy például az egészségügyi intézmények nem minden esetben tudják megengedni a legújabb termékeket a piacon.[18] Mivel az autonóm mesterséges intelligenciával működő termékek kifejezetten drágák és (egy ideig még minden bizonnyal) csak korlátozott számban állnak rendelkezésre, egyes szakirodalmi megközelítések alapján nem lehet pusztán ennek mellőzése miatt terhelni valakit kártérítési felelősséggel, mert az lehetetlen és célszerűtlen lenne.[19] A német irodalomban azonban már megjelenik olyan vélemény, amely szerint elképzelhető, hogy a jelenlegi technológiai folyamatok az MI használati kötelezettségéhez fognak vezetni.[20]

A kérdésben álláspontunk inkább Schaubhoz közelít, amit tovább erősít, hogy a magyar joggyakorlatban már megjelent felróhatósági okként a legújabb technológia használatának mellőzése.[21] Ennek fényében korántsem elképzelhetetlen, hogy a technológia fejlődésével olyan állapothoz jussunk el, amelyben az adott helyzetben elvárható magatartás az MI használatát takarja.

Ebben az esetben azonban a hétköznapi felhasználónak két választása maradt: (1) mesterséges intelligenciát alkalmaz és a veszélyes üzemi felelősség vonatkozik rá, tehát nem tudja kimenteni magát a felróhatóság hiányával, (2) vagy mellőzi az MI használatát, az általános kártérítési szabályok vonatkoznak rá, de felróhatóan jár el (tehát szintén nem tudja kimenteni magát ennek hiányával).

7. A kártérítési jog szerepe a társadalomban

A kártérítési jognak hagyományosan három társadalmi funkcióját lehet elkülöníteni: a kompenzációt, a prevenciót és a büntetést.[22]

A felróhatósághoz kötött felelősség a kártérítési jog preventív és punitív jellegét erősíti. Amennyiben bekövetkezik az egy fejezettel korábban vázolt forgatókönyv, és a mesterséges intelligencia használatának általában elvárható magatartásként történő kvalifikációja háttérbe szorítja a felróhatóságon alapuló kárfelelősséget, a „büntető-kártérítési jogi” gondolkodás végleges elhagyásával jár majd együtt.[23]

A kártérítési jog punitív célja rendelkezik a legősibb jogtörténeti gyökerekkel, a büntető jelleg a XIX. század óta azonban egyre inkább háttérbe szorul.[24] A common law-országokban a punitiv damages intézmények köszönhetően, még a mai napig közvetlenül tapasztalható célról beszélünk,[25] a hagyományosan kontinentális jogrendszerekben azonban a túlkompenzáció tilalma[26] miatt már csak leginkább a jogintézmény körüli gondolkodásban található meg a „büntető jelleg”.[27]

A felróhatóság és a felelősség szétválasztásával eltűnik a „büntetendő” (károkozó) emberi magatartás a képletből, és egy érdekalapú, kockázattelepítő kártérítési jog keletkezik. Ennek a jelenségnek a megítélése nem célja a tanulmánynak, ugyanakkor ezen dogmatikai változás említése nélkül nem lehet teljes képet kapni a veszélyes üzemi felelősség kiterjesztésének (jogi) következményeiről.

8. Konklúzió – egy ideális szabályozás alapjai

A veszélyes üzemi felelősség alkalmazásának áttekintését követően egyszerre tűnik félig telinek és félig üresnek a pohár. Látszik, hogy a hagyományos kártérítési jogi dogmatika keretein belül is lehet egyfajta megoldást találni az MI elterjedésével felmerülő újfajta társadalmi helyzetekre, arra a kérdésre azonban továbbra sem lehet egyértelmű választ adni, hogy kell-e külön, és ha igen, hogyan kell szabályozni az MI működésével kapcsolatos deliktuális eseteket.[28]

Nem kell elvetni azt a lehetőséget sem, hogy a jogalkotó inkább nem tesz semmit,[29] és hagyja, hogy a bírói gyakorlat organikusan kialakítson egy megfelelő kártérítési keretrendszert az MI által okozott károkra is.

Véleményünk szerint, ha nem az MI által okozott károk összességét, hanem a mesterséges intelligencia használatának különböző lehetőségeit vizsgáljuk, akkor könnyebben megítélhető, hogy a jelenlegi szabályozáshoz képest van-e további jogalkotási feladat, vagy a hatályos jogszabályi környezet megfelelő keretrendszert biztosít a technológiai vívmányok következtében előállt újfajta társadalmi helyzetek kártérítési jogi kezelésére is.

Egy általános szabályozás ugyan elősegítheti a nemzetközi magánjogi jogegységesítést (és ezen keresztül megkönnyítené a határon átnyúló kártérítési igényérvényesítést is), az MI rendkívül eltérő felhasználási formái azonban nem teszik lehetővé, hogy minden helyzetre a leghatékonyabb, anyagi értelemben legigazságosabb követelményeket támassza.

A legfontosabb, hogy ne csak a lakosság, hanem a jogásztársadalom is tisztában legyen a mesterséges intelligencia működésének logikájával. Az MI-t jellemző autonómia és az önfejlesztés újfajta társadalmi (és ebből fakadó kártérítési) helyzeteket fog eredményezni, ezért a jogalkotónak és a jogalkalmazónak[30] is fel kell készülni ezekre. A technológia fejlődéséből fakadó kihívásokra nem annak előzetes szabályozásával lehet a leghatékonyabban felkészülni, hanem egy széles körű szakmai diskurzussal, amelyben minden résztvevőnek lehetősége van feltérképezni és végiggondolni az MI elterjedéséből fakadó deliktuális kérdéseket.

 


* PhD-hallgató (ELTE ÁJK, Polgári Eljárásjogi Tanszék). A 37. OTDK-n a tanulmány III. helyezést ért el a polgári jog III. tagozatban.

[1] Oster, Jan: Code is code and law is law – the law of digitalization and the digitalization of law, International Journal of Law and Information Technology, 2021, 29. 102.

[2] Veress Emőd – Székely János: A mesterséges intelligencia és a jogalkalmazás, Korunk, 2020/3. 94–100.

[3] Metzinger Péter: Application of set theory for a general private law assessment of Artificial Intelligence, (kézirat) 1.

[4] Wendehorst, Christiane: Liability for Artificial Intelligence, The Need to Address Both Safety Risks and Fundamental Rights Risks. in: Silja Voeneky – Philipp Kellmeyer – Oliver Mueller – Wolfram Burgard (eds.): The Cambridge Handbook of Responsible Artificial Intelligence Interdisciplinary Perspectives. Cambridge University Press, 2022. 187–188.

[5] Matulionyte, Rita – Nolan, Paul – Magrabi, Farah – Beheshti, Amin: Should AI-enabled medical devices be explainable? International Journal of Law and Information Technology, 2022, 30. 151–152.

[6] Shrestha, Sahara: Nature, Nurture, or Neither?: Liability For Automated and Autonomous Artificial Intelligence Torts Based on Human Design and Influences, George Mason Law Review, Vol. 29:1, (2021). 387.

[7] A két személy egybeesése nem szükségszerű lásd: Vékás Lajos – Gárdos Péter (szerk.): Nagykommentár a Polgári Törvénykönyvhöz, Wolters Kluwer, 2021, 6:536. § c) pont, online elérés.

[8] Code Civil 1242. cikk.

[9] Zech, Herbert: Künstliche Intelligenz und Haftungsfragen, ZfPW 2019. 214.

[10] Uo. 215.

[11] Wendehorst, Christaine i. m. 195.

[12] Metzinger Péter i. m. 2.

[13] Lai, Alicia: Artificial Intelligence, LLC: Corporate Personhood As Tort Reform, Michigan State Law Review, (2021). 628–631.

[14] Shrestha, Sahara i. m. 383.

[15] Lásd pl. francia fait générateur alakzat; Stefán, Ibolya: A mesterséges intelligencia-rendszerek felelősségi kérdései az uniós dokumentumok és a magyar szabályozás tükrében, Publicationes Universitatis Miskolcinensis, Sectio Juridica et Politica, Tomus XL/2 (2022). 373.

[16] Chamberlain, Johanna: The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective, European Journal of Risk Regulation, 14 (2023) 13.

[17] Nem mesterségesintelligencia-alapú.

[18] Hacker, Philipp – Krestel, Ralf – Grundmann, Stefan – Naumann, Felix: Explainable AI under contract and tort law: legal incentives and technical challenges, Artificial Intelligence and Law, (2020) 28. 420.

[19] Abbott, Ryan: The Reasonable Computer: Disrupting the Paradigm of Tort Liability, The George Washington Law Review, Vol. 86:1, 2018. 39.

[20] Schaub, Renate: Nutzung von Künstlicher Intelligenz als Pflichtverletzung? NJW, 2023. 2146.

[21]BH+ 2013.464

[22] Wagner, Gerhard: Funktionen des Delikttsrechts. in: Mathias Habersack (ed.) Münchener Kommentar zum Bürgerlichen Gesetzbuch, 6. Auflage. Verlag C. H. Beck, 2013. pp. 1781–1784.

[23] A büntetéssel ellentétben preventív gondolkodás a jogintézmény több elemében is megjelenik, így ezt nem veszélyezteti a felróhatóság háttérbeszorulása.

[24] Wagner, Gerhard i. m. 1783.

[25] Uo.

[26] Szalai Ákos: A kár jogi és közgazdaságtani fogalma – különbségek, párhuzamok, MTA Law Working Papers, 2017/3. 18–21.

[27] A hazai szakirodalom sem egységes a punitív szerep jelentőségét illetően. lásd: Fuglinszky Ádám: Kártérítési jog. HVG-ORAC, 2015. 40–43.

[28] Shrestha, Sahara i. m. 389.

[29] Soyer, Baris – Tettenborn, Andrew: Artificial intelligence and civil liability – do we need a new regime?, International Journal of Law and Information Technology, 2022, 30. 388.

[30] Whalen, Ryan: Defining legal technology and its implications, International Journal of Law and Information Technology, 2022, 30. 67.