Cikk letöltése PDF-be

1. Bevezető

A jogi vitákban (peres és alternatív vitarendezési eljárásokban) alkalmazható mesterséges intelligencia (MI) egyik – a felületes szemlélődő számára mindenféleképpen– ígéretesnek tűnő, és egyre több figyelmet érdemlő területe a kvantitatív alapú peres előrejelzésre szakosodott algoritmusok fejlődése. Ezeknek az algoritmusoknak a hatékonysága azon alapszik, hogy elvitathatatlan fölényben vannak az emberi megismerési folyamatokhoz képest: az MI képes az emberi megismerés számára észrevehetetlen, az egyes bíróságok és bírók működésére vonatkozó viselkedésmintákat azonosítani. A témát azonban egyre növekvő aggodalom és szkepticizmus övezi, amely abból ered, hogy az emberek és az algoritmusok közötti kapcsolat reflexív jellege könnyen azt eredményezheti, hogy kognitív torzításainkat tovább örökítjük az algoritmusainkra.

2. Az algoritmikus szuperprofilozók térnyerése a jog arénájában

Unásig ismételt tétel és talán már senki számára nem újdonság, hogy a technológia rohamléptekben változtatja meg a jogi szakmákat. Bár a változás forradalmi jellegét és gyorsaságát illetően lehetnek köztünk viták, jogászként mára mindannyian látjuk és tapasztaljuk, hogy a mesterséges intelligencia (MI) és a Legal Tech (jogi technológia) miként képes pozitív hatásokat kifejteni az igazságszolgáltatás és a jogérvényesítés területein. Az MI egyik legizgalmasabb és különösen az igazságszolgáltatás és a vitarendezés számára ígéretes alkalmazási köre az ún. kvantitatív alapú előrejelzés.

Az előrejelzések adása a jogvitákkal kapcsolatos gyakorlat egyik különösen hangsúlyos részét képezi, és az MI jelentős változásokat ígér ebben a körben. A téma propagálói az MI létjogosultságát ezen a területen azzal indokolják, hogy az empirikus tapasztalatok szerint a jogászok meglehetősen gyengén teljesítenek, amikor jogvitákkal kapcsolatban kell előrejelzésekbe bocsátkozniuk.[1]

Itt érdemes megjegyezni, hogy jogi típusú előrejelzések megalkotása során az automatizálás módja a közelmúltban markánsan eltolódott az adatalapú modellek és az adatvezérelt gépi tanulási technikák felé[2]. Vagyis egyre kevésbé érhetőek tetten arra irányuló ambíciók, hogy az MI-t a jogi előrejelzések kapcsán oly módon használjuk, hogy megpróbáljuk vele modellezni a logikán alapuló jogi következtetéseket. Ennek alapvető oka az, hogy a jogot meglehetősen nehéz (ha nem lehetetlen) logikai alapú rendszerekkel megragadni, és az MI-t komoly kihívások elé állítja annak modellezése és utánzása, hogy miként gondolkozik és érvel (vagy miképpen kellene gondolkoznia és érvelnie) egy jogásznak.[3] Ugyanakkor azoknak az adat­alapú modelleknek és az adatvezérelt gépi tanulási technikáknak, amelyek a jog szemantikai szempontú megértését szándékosan nem tűzik ki célul maguk elé, nem kell szembesülniük ezekkel a kihívásokkal. Egyelőre úgy tűnik, hogy ezek az algoritmusok képesek érdemben hozzájárulni a jogi előrejelzések sikerességéhez. Ennek köszönhetően a kvantitatív alapú előrejelzésekre szakosodott termékek egyre nagyobb teret nyernek a jogi piacon.[4]

A kvantitatív alapú előrejelzés lényege abban ragadható meg, hogy egy algoritmus statisztikai eszközöket alkalmazva nagy hatékonysággal képes előre jelezni a jogvita szempontjából lényeges eseményeket és körülményeket, úgy mint, hogy

  • miként fognak alakulni a jogvita (per, alternatív vitarendezés) költségei,
  • milyen hosszúra fog nyúlni az eljárás,
  • mely érvek vezethetnek sikerre és melyek nem, és
  • mi lesz az ügy végső kimenetele (pervesztesség/pernyertesség vagy elítélés/felmentés).[5]

A predikciós modell alapjául a korábbi ügyekből álló adathalmaz szolgál, amelyet az algoritmus az ügy jellemzői és az egyes lehetséges kimenetelek közötti összefüggések megtanulásához használ.[6] Érdemes megjegyezni, hogy az algoritmusok a bírósági ügyekben rendelkezésre álló konkrét adatok (például a bíró személye, az általa az ítéleteiben használt szavak, az általa hivatkozott precedensek, a jogvita jogi területe stb.) és az ügyek kimenetele közötti korrelációkat hivatottak kimutatni és előre jelezni, vagyis az egyes változók közötti okozatosságra nem lehet belőlük következtetni. Ahogy azt már fentebb is taglaltuk, ezek az előrejelzési modellek nem törekednek arra, hogy jogi ok-okozati összefüggéseket tárjanak fel, és meg sem próbálják utánozni azt a szemléletmódot és mechanizmust, amelyet egy jogász használna a jogvitával kapcsolatos előrejelzéshez. Ettől függetlenül ezek az eszközök értékes adatokat nyújthatnak olyan jelentős peres döntésekhez, mint hogy egyáltalán pereskedjünk-e vagy sem, illetve, hogy egy már folyamatban levő jogvita esetén érdemesebb-e inkább az egyezségre törekednünk. A Legal Tech vizionáriusai úgy látják, hogy ha ezeknek a modelleknek az előrejelzési pontossága továbbra is jelentősen növekszik, akkor ez végeredményben oda vezethet, hogy a bíróságok alternatívájaként elfogadhatjuk ezeket a jogviták megoldására is[7]. Bár amint láthatjuk, a kvantitatív alapú jogi előrejelzések alkalmazása igen sokrétű, ebben a cikkben mellőzzük ennek az utóbbi felvetésnek a taglalását. Ehelyett igyekszünk rávilágítani az algoritmusoknak egy igen sajátos jellemzőjére és az algoritmusok használata által felvetett egyes különös aggályokra.

A kvantitatív alapú jogi előrejelző rendszerekben rejlő egyik nagy potenciál, hogy a vitarendezési fórumok (bíróság/bíró/választottbíróság/választottbíró) múltbeli ítélkezési gyakorlatára vonatkozó adatok alapján olyan, az egyes bíróságok és bírók működésére vonatkozó mintákat képesek azonosítani, amelyek egyébként az emberi megismerési folyamatok számára láthatatlanok lennének, így többek között:

  • a bíró milyen esetjogra hivatkozik szívesen a döntéseiben,
  • miként szokott dönteni a bíró egy-egy adott tárgykörre vonatkozóan,
  • egy konkrét ügyvéd képes-e a pert győzelemre vinni egy konkrét bírónál,
  • milyen típusú érvekre nyitott a bíró stb.[8]

Az algoritmusok – egyfajta szuperprofilozóként – tehát képesek azonosítani a bíró viselkedésében jelen levő olyan tendenciákat, amelyek egyébként kívül esnének a jogászok kognitív képességein. Ez lehetővé teszi a peres felek számára, hogy az emberi agy kognitív korlátjait lebontva jobb stratégiai döntéseket hozzanak, és következtetéseket vonjanak le arra vonatkozóan, hogy egy-egy bíró mit preferál vagy mit nem az ítélkezés során és ily módon az ügyben tervezett lépéseiket az adott bíróhoz igazítsák. A kvantitatív alapú jogi előrejelző rendszerek befolyásolják a jogvitában részt vevők döntéseit, például azt, hogy pereskedjenek-e egyáltalán vagy egyezségre törekedjenek, milyen indítványokat nyújtsanak be, melyik lehet a legelőnyösebb fórum a vita eldöntéséhez.

Első ránézésére ez az újonnan jött többlettranszparencia lehetővé teszi a pereskedő felek számára, hogy megalapozottabb jogi döntéseket hozzanak, és hatékonyabban kezeljék a jogi folyamatokat. Azonban érdemes megvizsgálni azokat az aggályokat is, amelyeket ezeknek a szuperfelismerő algoritmusoknak a vitarendezésben történő alkalmazása felvet.

2.1. Kognitív torzítás alapú forum shopping: etikus-e a kognitív torzításokra épülő jogi stratégiaalkotás?

A jelenleg a kereskedelmi forgalomban elérhető kvantitatív alapú jogi előrejelző rendszerek egyre nagyobb része kifejezetten a bíróságok, vagy egyes bírók viselkedési tendenciáinak azonosítására és profilozására törekszik. Mint említettük, ennek van egy nyilvánvalóan pozitív hatása az ítélkezés átláthatósága szempontjából, ami a tisztességes eljárás egyik alapvető feltétele. Azonban ezeknek a rendszereknek az ilyen jellegű felhasználása felvet néhány etikai aggályt is, amelyek éppen a tisztességes eljáráshoz fűződő jogok sérelméhez vezethetnek.

A bírói döntéshozatal természeténél fogva kognitív folyamat, amely kitett a bíró attitűdjeinek, heurisztikáinak és kognitív torzításainak (úgy, mint a megerősítési torzítás, az utólagos éleslátás, összekapcsolási téveszme),[9] valamint számos más külső körülménynek: izraeli kutatók szerint például akár annak is, hogy a tárgyalás során a bírónak éppen milyen a glükózszintje.[10] Felhívjuk a figyelmet arra, hogy a bírói ítélkezésen belüli inkonzisztenciák egyik elsődleges okát éppen ezek a tényezők adják. Továbbá éppen ezek a tényezők azok, amelyek a humán alapú jogi predikciókat a nem egyértelmű megítélésű jogi ügyekben megnehezítik.

A fentiek ismeretében, vagyis hogy a bírók döntését számos heurisztika és kognitív torzítás befolyásolja, nem tűnik a valóságtól túlságosan elrugaszkodott elképzelésnek, hogy a bírók egyedi mintázatait felismerő algoritmusok lehetővé teszik a peres felek számára azt is, hogy rosszhiszeműen és etikátlanul kihasználják ezeket a heurisztikákat és kognitív torzításokat. Ez viszont egyértelműen ellentétben áll azzal a mindenekfelett álló kívánalommal, hogy a kognitív torzításokat és a bírók ebből eredő elfogultságát a lehető legtávolabb tartsuk az igazságszolgáltatástól.

A helyzetben rejlő veszély az, hogy minden olyan esetben, amikor a peres felek egy kvantitatív alapú jogi előrejelző rendszernek a bíró kognitív torzításaival kapcsolatos következtetésére alapozva hoznak jogi stratégiai döntéseket, akkor ez a peres felek számára egy olyan helyzeti előnyt biztosít, amely egyértelműen nem a jogi szabályokból vagy a jogi érvelés minőségéből meríti az erejét. Ez pedig akár egy kognitív torzítás alapú forum shoppinghoz is vezethet,[11] amely egyértelműen nem kívánatos és természeténél fogva etikátlannak és tisztességtelennek minősül. Azáltal tehát, hogy a bírói kognitív torzítások és magatartásminták az algoritmusoknak köszönhetően egyre inkább láthatóvá válnak, a pereskedő felek egyre inkább képesek lesznek kihasználni ezeket a mintázatokat, ami pedig a tisztességtelenség egy lehetséges forrását jelentheti. A kvantitatív alapú előrejelző rendszerek által biztosított többlettranszparencia ára tehát a tisztességtelen és etikátlan eljárások egyik újabb lehetséges módozata. Amit a peres felek nyernek a többlettranszparencia réven, elveszítik a kognitív alapú torzítás forum shopping vámján. Figyelemre méltó, hogy éppen a fenti okok miatt a francia jogalkotó 2019-ben törvény erejével tiltotta meg a bírók kvantitatív alapú előrejelző rendszerek által történő profilozását.[12]

2.2. Az MI örökölt kognitív torzításai: jóslataink fogságában

Az MI egyik fentebb részletezett, nyilvánvalónak tűnő előnye az emberi aggyal és megismeréssel szemben, hogy a különböző kognitív torzítások és illúziók nem korlátozzák a döntéseit; ezért úgy tűnik, hogy általánosságban véve az MI a döntéshozatalban fölényben van az emberekkel szemben. Mindazonáltal egyre nagyobb az azzal kapcsolatos aggodalom, hogy az MI képes eltanulni az emberi kognitív torzításokat.[13]

Ennek egyik legkézenfekvőbb magyarázata, hogy a mesterséges intelligencia tanulási folyamata már eleve kognitív torzításokat tartalmazó emberi döntésekből álló adathalmazon alapul. Ebben az értelemben hatványozottan igaznak bizonyul az a gyakran említett alaptétel, amely szerint a mesterséges intelligencia csak annyira lehet jó, amennyire azt az alapjául szolgáló adatok minősége engedi. Ha az algoritmus kognitív torzításokat tartalmazó elfogult emberi döntéseken alapul, akkor elkerülhetetlen, hogy az MI is tükrözze, sőt akár a valóságos mértékhez képest eltúlozza ezeket a torzításokat, és beépítse a jövőbeli döntéseibe és előrejelzéseibe.

Ebből a szempontból érdemes az MI-re mint naiv gyermekre tekintenünk, aki gondozóitól a szociális tanulás paradigmájával összhangban tanulja el a kognitív torzításokat. Ha tehát a kérdést tanulási kontextusba helyezzük, akkor az MI-t egy szuperintelligens, de eredendően naiv ágensnek kell tekintenünk, akivel kapcsolatban fennáll gondozói felelősségünk.

Lássunk egy praktikus példát, amely jól megvilágítja a problémát:

Tegyük fel, hogy egy a bank vezérigazgatója vagyunk, és van egy folyamatban lévő peres ügyünk az egyik lakossági ügyfelünkkel. Az eljárásban elérkezünk egy olyan ponthoz, amikor stratégiai döntést kell hoznunk, hogy megegyezzünk-e az ügyféllel vagy folytassuk a jogi harcot. Algoritmikus szuperprofilozóinkhoz fordulunk tanácsért, és azt az utasítást adjuk, hogy keressenek mintázatokat annak a bírónak az ítéleteiben, aki az ügyünkben eljár. Az MI arra a következtetésre jut, hogy a bírónk viselkedésében tetten érhetőek olyan mintázatok, amelyek arra utalnak, hogy a bíró negatív érzéseket táplál a bankok iránt. Az MI 57%-os súlyt rendel ehhez a változóhoz az ügy végkimenetele szempontjából. Tegyük fel, hogy ezen előrejelzés alapján azt a stratégiai döntést hozzuk, hogy ejtjük az ügyünket és egyezségi tárgyalásokat kezdünk az ügyféllel.

Döntésünk az MI-től kapott előrejelzés alapján – és szigorúan az ügyünkben elérhető előnyökre és hátrányokra koncentrálva – első ránézésre teljesen észszerűnek tűnik. Ha azonban tágabb kontextusba helyezzük a döntést, és figyelembe vesszük azt is, hogy mi szolgálja az MI megfelelő tanulási folyamatait, akkor látni fogjuk, hogy a döntésünk alapjaiban hibás. Először is, gondolatkísérlet jelleggel tételezzük fel, hogy lehetőségünk van leellenőrizni, hogy a mintázatok, amiket feltárt az algoritmusunk, valóban a bíró bankokkal szembeni negatív attitűdjeinek tudható be. Vagy másként megfogalmazva: tegyük fel, hogy lehetőségünk van megismerni az ún. ground trutht. Mint lentebb látni fogjuk, ez a szcenárió teljesen teoretikus, hiszen erre valójában nincsen lehetőségünk, azonban a gondolatkísérlet kedvéért most éljünk azzal a feltételezéssel, hogy szuperprofilozóink következtetése teljesen helytálló volt, és helyesen mutattak rá a bíró elfogultságára: vagyis ez a bíró valóban elfogult a bankokkal szemben, amikor a bankok és az ügyfelek közötti jogvitákról van szó. Figyelembe véve, hogy végül mi (mint a bank vezérigazgatója) úgy döntöttünk, hogy nem harcolunk tovább az ügyünkért, vagyis közvetve nem harcolunk a bírói kognitív torzítás és elfogultság ellen, a mesterséges intelligenciánk semmi mást nem tett, minthogy asszisztált abban, hogy a szóban forgó kognitív torzítást a bíróban és annak jogi döntéseiben állandósítsuk. Azzal, hogy ejtettük az ügyünket, csak egy újabb téglát illesztettünk be a bíró tudattalan visszaigazolási mechanizmusának falába. Amikor mi (vagy éppen egy másik bank) legközelebb hasonló döntési helyzetbe kerülünk ugyanezzel a bíróval, az elfogultság mintázata még jobban látható lesz a szuperprofilozóink számára, és az algoritmus a következő számítása során még jelentősebb súlyt fog rendelni ehhez a változóhoz. Így pedig végső soron egy véget nem érő spirálban találjuk magunkat, amelyben a mesterséges intelligenciánk az adott kognitív torzítást, heurisztikát vagy előítéletet erősíti.

Érdemes látnunk a helyzetben rejlő tragikus iróniát is: az események fenti láncolatában a mesterséges intelligenciánk előrejelzései önbeteljesítő jóslatokká alakulnak át és ezek a jóslatok válnak cselekedeteink és döntéseink mozgatórugójává. Amikor úgy döntünk, hogy egy algoritmus számunkra átláthatatlan és megfoghatatlan szisztémáján alapuló előrejelzéseire hagyatkozunk, a joggal és a jogvitákkal kapcsolatos percepciónk gyökeresen megváltozik és a jogvita egyszerű kockázatkezelési folyamattá alakul. Ez a kockázatalapú megközelítés bár kecsegtethet rövid távú előnyökkel, de hajlamos megfeledkezni a jog vitatható karakteréről és arról, hogy a jogállamiság lényege nem abban ragadható meg, hogy a jogkereső fél totális és abszolút jelleggel képes előre látni, hogy mi megengedett vagy mi nem. Ehelyett a jog központi tétele és a jogról alkotott helyes és egészséges percepció az, ahogy arra MACCORMICK is rámutatott, hogy „mindent, ami vitatható, hagyjuk vitatni”.[14] A jognak ez a vitatható karaktere a jogállamiság lényeges elemét képezi: az absztrakt módon megfogalmazott jogszabályok éppen a jogvita révén alakulnak át a konkrét körülményekre alkalmazható szabályokká.[15] A jog vitatható karakterének elfogadása együtt jár azzal a percepcióval, hogy a jogkereső egyéneket morális döntések meghozatalára alkalmas ágenseknek fogjuk fel, akik hajandóak hallatni a hangjukat és kivenni a részüket a jog alakítására irányuló társadalmi folyamatokból.[16]

Amikor túlzottan hagyatkozunk arra a meggyőződésünkre, hogy a jogvitánk ügyében már úgyis ítéletet hozott egy elfogult döntéshozó, aki egyébiránt figyelmen kívül hagyja a jogi érveinket, akkor ezzel súlyosan kompromittáljuk a jogvitákban és a jog alakításában részt venni akaró, jogkereső egyénről alkotott egészséges percep­ciónkat.[17] Ha pedig ennek a szellemében hozzuk meg jogi döntéseinket, akkor a hibás meggyőződésünk értelemszerűen végül visszaigazolást nyer, és szuperprofilozóink előrejelzései önbeteljesítő módon fognak működni: a mesterséges intelligencia elvárása a bíró elfogultsága kapcsán az elvárás megerősítéséhez, vagyis a bíró elfogultságához fog vezetni.

Érdemes emlékeztetni magunkat arra is, hogy bár az algoritmusok képesek a bírók viselkedése és a jogviták egyes jellemzői mint változók közötti összefüggések feltárására, de ezek a korrelációk nem szükségszerűen utalnak a bíró valódi kognitív torzítására vagy elfogultságára. Még ha a példánkban szereplő korreláció például pontos is, nincs lehetőségünk annak megállapítására, hogy ez csak véletlen egybeesés, vagy a bíró valóban elfogult a bankokkal szemben. Ennek az elképzelésnek a mentén haladva, az előítéletek és elfogultságok fentebb már vázolt, önmagukat visszaigazoló körforgásában találjuk magunkat.

3. Zárszó: amikor az MI pszichológushoz jár

A mesterséges intelligencia rohamos térnyerése kapcsán az egyik legtöbbször felmerülő aggodalom az, hogy egyes szakmák esetében az emberi tényező elveszíti létjogosultságát. A McKinsey jóvoltából már egy olyan online teszt is rendelkezésre áll „Will a Robot Take My Job?” címmel,[18] amely lehetővé teszi, hogy kiszámítsuk, mekkora az esélye annak, hogy robotok váltanak fel minket a szakmánkban. Ebből a szempontból a pszichológusi szakma az egyik kiemelten veszélyeztetett hivatásnak tekinthető, mivel az előrejelzések szerint a pszichológusok munkájának nagy részét gépek is el tudják végezni.

Mindazonáltal, ha igaznak fogadjuk el, hogy a mesterséges intelligencia képes eltanulni tőlünk kognitív torzításainkat, akkor az sem tűnik egy valóságtól túlságosan elrugaszkodott elképzelésnek, hogy az algoritmusoknak is szükségük lehet valamiféle kognitív tréningre annak érdekében, hogy az örökölt kognitív torzítások kiküszöbölésre kerüljenek (nevezzük ezt elfogultságleépítő tréningnek). Ennek fényében a pszichológusokat talán mégsem fenyegeti az állásuk elvesztésének veszélye, sőt olybá tűnik, hogy egy új lehetséges ügyfélkörrel gazdagodtak, hiszen szükség lesz az aktív közreműködésükre a MI kognitív torzításoktól történő megszabadítása során.

Vajda János
ügyvéd és kognitív pszichológus


[1] Goodman-Delahunty, Jane – Granhag – Par Anders – Hartwig, Maria – Loftus, Elizabeth F.: Insightful or wishful: Lawyers’ ability to predict case outcomes, Psychology, Public Policy, and Law 2010/2. p. 133–157.

[2] Trasberg, Henrik: Quantitative legal prediction and the rule of law. http://arno.uvt.nl/show.cgi?fid=149307 [2022.01.31] p. 3.

[3] Greenleaf, Graham: Review Essay: Technology and the Professions: Utopian and Dystopian Futures, UNSW Law Journal 2017/1. p. 312.

[4] Lindquist, Derick H. – Dautaj, Ylli: AI in International Arbitration: Need for the Human Touch, Journal of Dispute Resolution 2021/1, p. 42.

[5] Trasberg, Henrik i. m. p. 3.

[6] Ashley, Kevin D.: Artificial intelligence and legal analytics: new tools for law practice in the digital age. Cambridge University Press, 2017. p. 107.

[7] Vasdani, Tara: From Estonian AI judges to robot mediators in Canada, UK. https://www.lexisnexis.ca/en-ca/ihc/2019-06/from-estonian-ai-judges-to-robot-mediators-in-canada-uk.page [2022.01.31] Parker, Emma: Robot judges that determine guilt or innocence will be ’commonplace’ in 50 years. https://www.dailystar.co.uk/news/latest-news/robot-judges-determine-guilt-innocence-22868496 [2022.01.31] Biswas, Atanu. A robot in a judge’s chair. https://www.thestatesman.com/opinion/robot-judges-chair-1503031697.html

[8] Trasberg: Henrik i. m. p. 13.

[9] Peer, Eyal – Gamliel, Eyal: Heuristics and biases in judicial decisions, Court Review: The Journal of the American Judges Association 2013/49, p. 114–118.

[10] Danziger, Shai – Levav, Jonathan – Avnaim – Pesso, Liora. Extraneous factors in judicial decisions, Proceedings of the National Academy of Sciences 2011/17, p. 6889–6892.

[11] Trasberg: Henrik: i. m. p. 36–37.

[12] Livermore, Michael – Rockmore, Dan: France Kicks Data Scientists Out of Its Courts. https://slate.com/technology/2019/06/france-has-banned-judicial-analytics-to-analyze-the-courts.html [2022.01.31]

[13] Lindquist, Derick H. – Dautaj, Ylli: i. m. p. 47.

[14] MacCormick, Neil: Rhetoric and the rule of law: a theory of legal reasoning. OUP Oxford, 2005. p. 31.

[15] Trasberg, Henrik. i. m. p.16.

[16] Trasberg, Henrik. i. m. p.16.

[17] Kerr, Ian R.: Prediction, pre-emption, presumption: the path of law after the computational turn. In Hildebrandt, Mireille – de Vries, Katja. (eds.) Privacy and Due Process After the Computational Turn. Routledge, 2013. p. 91–120.

[18] Johnson, David: Find Out If a Robot Will Take Your Job. https://time.com/4742543/robots-jobs-machines-work/ [2022.01.31]