Botrány a bíróságokon: mesterséges intelligencia gyártott hamis jogi hivatkozásokat
Globál

Botrány a bíróságokon: mesterséges intelligencia gyártott hamis jogi hivatkozásokat

Az Egyesült Államokban először fordult elő, hogy egy szövetségi bíró kénytelen volt visszavonni döntését, miután kiderült, hogy az indokolásban szereplő jogi hivatkozásokat feltehetően mesterséges intelligencia generálta, méghozzá tévesen. Az eset nemcsak az érintett bíró számára kínos, hanem rávilágít egy gyorsan terjedő, de kevéssé szabályozott jelenségre: a jogi anyagokban egyre gyakrabban bukkannak fel MI-hallucinációk, vagyis meggyőzőnek tűnő, ám téves vagy fiktív hivatkozások – jogszabályokra, ítéletekre és forrásokra –, amelyek nem találhatók meg a hivatalos jogtárakban és bírósági nyilvántartásokban. Ha a bírósági dokumentumokban a tények és a fikció közötti határ elmosódik, annak nemcsak egy-egy ügy, hanem a jogbiztonság és az igazságszolgáltatás hitelessége láthatja kárát.
Az AI-forradalom legnagyobb innovációiról és a digitális transzformációról is szó lesz a Portfolio november 25-ei AI & Digital Transformation rendezvényén. Regisztráció és részletek itt!
Ez itt az on the other hand, a portfolio vélemény rovata.
Ez itt az on the other hand, a portfolio vélemény rovata. A cikkek a szerzők véleményét tükrözik, amelyek nem feltétlenül esnek egybe a Portfolio szerkesztőségének álláspontjával. Ha hozzászólna a témához, küldje el cikkét a velemeny@portfolio.hu címre. A megjelent cikkek itt olvashatók.

Mesterséges intelligencia generálhatta az ítélet tévedéseit

2025 júliusában egy bírósági döntés indokolása újra felszínre hozta a mesterséges intelligencia jogi felhasználásával kapcsolatos vitákat az Egyesült Államokban. Julien Xavier Neals, New Jersey állam szövetségi bírája visszavonta a CorMedix nevű gyógyszeripari vállalat elleni kereset elutasítására irányuló indítvány tárgyában hozott döntését, miután az alperes ügyvédei súlyos hibákat tártak fel az ítélet indokolásában. Az ügyvédek nem is az ítélet érdemi részét kifogásolták, hanem tételesen kimutatták, hogy

az indokolás tele van meggyőzőnek tűnő, de téves jogi hivatkozásokkal.

A döntésben hivatkozott három precedens kimenetele egyik esetben sem felelt meg annak, amit a bíró állított, több idézet pedig nem volt visszakereshető, mert a hivatkozások a hivatalos adatbázisokban nem szereplő forrásokra mutattak. A hibák jellegéből arra lehet következtetni, hogy azokat egy nagy nyelvi modell – például a ChatGPT – készítette.

A bíróság közleménye szerint az eredeti határozatot „tévedésből adták ki”, és hamarosan közzéteszik az új döntést. Bár nem ritka, hogy egy bíróság kisebb stilisztikai vagy nyelvhelyességi módosításokat hajt végre egy már közzétett döntésen, az olyan mértékű korrekció, mint a teljes bekezdések törlése vagy a határozat visszavonása, kifejezetten ritka.

Bár hivatalosan nem erősítették meg, hogy a bíró mesterséges intelligenciát használt volna, a hibák természete szinte teljesen megegyezik azokkal a hallucinációkkal, amelyek más ügyekben is megjelentek, amikor a jogászok MI-eszközöket alkalmaztak a jogi kutatás során. A botrány nemcsak az érintett bírót hozta kellemetlen helyzetbe, hanem újra napirendre tette a kérdést: milyen keretek között és milyen célra szabad mesterséges intelligenciára támaszkodni az igazságszolgáltatásban?

És ami még fontosabb:

miként garantálható, hogy a technológia ne rombolja le a jog egyik alappillérét, a jogbiztonságot?

Hallucinációkra épülő jogi beadványok

Bár a New Jersey-i eset első hallásra egyedi hibának tűnhet,

valójában egy gyorsan terjedő, globális jelenség része.

Az elmúlt két évben egymás után kerültek nyilvánosságra olyan ügyek, amelyekben ügyvédek, jogtanácsosok vagy éppen rendőrségi szakértők mesterséges intelligenciára támaszkodtak, és ennek következtében kitalált ítéletekre vagy tényállásokra hivatkoztak. 2025 májusában a Lacey kontra State Farm ügyben egy kaliforniai bíróság 31 000 dolláros bírsággal sújtott egy nagy presztízsű ügyvédi irodát, miután kiderült, hogy több beadványuk is tele volt fiktív hivatkozásokkal. A dokumentumok elkészítéséhez a Google Gemini alkalmazást, valamint kifejezetten jogi célra fejlesztett MI-modelleket is igénybe vettek, amelyek hamis forrásokat és érveket gyártottak.

Az ügyben eljáró Michael Wilner bíró az egész jogi szakma figyelmét felhívta a felelőtlen MI-használat veszélyeire. Ugyanebben a hónapban egy amerikai szerzői jogi perben, amelyet az Anthropic nevű MI-fejlesztő vállalat ellen indítottak, a cég egyik jogásza a saját MI-modelljükhöz, a Claude-hoz fordult hivatkozásért, amely téves szerző- és címmegjelölést tartalmazott. Az ügyvéd ezt változtatás nélkül benyújtotta a bíróságra, majd később elismerte, hogy az ellenőrzés elmaradása az ő hibája volt.

A probléma ugyanakkor nem korlátozódik az Egyesült Államokra. Izraelben egy pénzmosási ügyben a rendőrség nem létező paragrafusokra hivatkozott. A bíróság előtt kénytelenek voltak elismerni, hogy a jogi érvelést feltehetően MI generálta, és a hibát jóhiszemű tévedésként próbálták magyarázni. A bíróság ugyanakkor élesen bírálta az eljárást. Az eset nyomán a rendőrség belső vizsgálatot rendelt el annak érdekében, hogy a jövőben elkerülhetők legyenek a hasonló hibák. A hallucinációk mintázata minden esetben hasonló: a mesterséges intelligencia meggyőzően, jogászi stílusban fogalmaz, de a hivatkozott precedensek, paragrafusok és idézetek gyakran hibásak vagy kitaláción alapulnak.

Miért hallucinál az MI, és miért hisszük el, amit mond?

A mesterséges intelligencia jogi alkalmazásainak többsége ma már nagy nyelvi modellekre (Large Language Models – LLM-ek), épül, mint amilyen a ChatGPT, a Google Gemini vagy a Claude.

Működésük alapja a statisztikai mintázatok felismerése: ezek a rendszerek óriási mennyiségű szöveges anyagon tanulnak, és a feladatuk nem az, hogy ellenőrizzék az információ igazságtartalmát, hanem az, hogy a lehető legkoherensebb, emberi nyelvre emlékeztető választ adják. Ebből következik a hallucináció jelensége: a modell magabiztosan állít olyasmit, ami meg sem történt, illetve nem is létezett, legyen az jogszabály, tudományos forrás vagy bírósági ítélet. A meggyőző nyelvi stílus miatt a felhasználó – egy joghallgató, egy ügyvéd vagy akár egy bíró – hajlamos elhinni, hogy amit lát, az helyes. A jogi MI-piac vezető szereplői – például a Westlaw, a LexisNexis vagy a CoCounsel – marketinganyagaikban gyakran hangoztatják a hibamentességet, a hallucinációk elkerülését, sőt, olykor a hallucinációmentes működést is.

A Stanford Egyetem friss kutatása ugyanakkor rámutatott, hogy

még a kifejezetten jogi célra fejlesztett MI-eszközök is az esetek 17–33 százalékában téves vagy kitalált információt generálnak.

Ez azért veszélyes, mert a hibás adatot nem egy nyilvánvalóan amatőr forrásból, hanem egy professzionálisnak tűnő eszköztől kapja a felhasználó. Egy friss kutatás kimutatta, hogy az LLM-eredetű álhivatkozások már a tudományos irodalomban is terjednek, és a szakértői véleményeken keresztül a bírósági periratokban is megjelenhetnek, ha nincs szigorú DOI- és forrásellenőrzés.

A jelenség pszichológiai háttere is ismert: az emberek hajlamosak túlzott bizalmat szavazni a technológiának, különösen akkor, ha az gyorsan, magabiztosan és gördülékenyen kommunikál. Ahogy Maura Grossman MI-szakértő fogalmazott: „Azért bízunk meg a mesterséges intelligenciában, mert olyan meggyőzően és folyékonyan kommunikál, mintha minden válasza igaz lenne.” Ez a technológiai illúzió pedig a jog világában különösen kockázatos, hiszen a tévedésnek vagy a megtévesztésnek itt közvetlen jogi, erkölcsi és anyagi következményei lehetnek.  

Mi forog kockán a jog világában?

2025. június 6-án a londoni High Court King’s Bench Division elnöke, Dame Victoria Sharp formális figyelmeztetést tett közzé: aki bíróság előtt mesterséges intelligencia által generált, kitalált ügyekre hivatkozik, pénzbírságra, fegyelmi, sőt akár büntetőeljárásra számíthat. A jelzés mögött konkrét esetek álltak: egy ügyben a 45 hivatkozásból 18, egy másikban öt precedens bizonyult fiktívnek. Sharp bíró hangsúlyozta, hogy komoly következményei vannak az igazságszolgáltatásra és a közbizalomra nézve, ha a mesterséges intelligenciát nem megfelelően használják.

Véleménye szerint a jelenlegi etikai irányelvek és szakmai útmutatók nem nyújtanak elegendő garanciát a mesterséges intelligencia jelentette kihívások kezelésére, ezért szükség van arra, hogy a jogászi hivatás egésze nagyobb körültekintéssel járjon el, valamint szigorúbb szabályozásra és belső kontrollra kerüljön sor, hogy az ilyen eseteket megelőzhessék.

Az Egyesült Államok szövetségi bíróságain eddig több mint harminc bírói rendelkezés született a mesterséges intelligencia használatáról, bíróságonként rögzítve a felhasználás kereteit. Ezek többnyire azt hangsúlyozzák, hogy

a felek felelősséggel tartoznak a beadványok pontosságáért, beleértve az MI által generált tartalmakat is,

meg kell felelniük a szakmai és etikai normáknak, és jelezniük kell, ha MI-t vettek igénybe. Több rendelkezés a titoktartásra is kitér, előírva, hogy az MI-használat nem eredményezheti bizalmas információk jogosulatlan közlését, sőt, néhány bíróság kifejezetten tiltja az MI alkalmazását a beadványok előkészítésekor, ennek megszegése esetére szankciókat helyezve kilátásba. Brantley Starr texasi bíró az elsők között volt, akik ilyen szabályt bevezettek. 2023-ban részben az Avianca-ügyben napvilágra került MI-hallucinációk nyomán – az ilyen esetek jövőbeli elkerülése érdekében – előírta, hogy az előtte megjelenő felek tanúsítsák, hogy beadványaikban nem használtak generatív MI-t, vagy az MI által írt részeket humán kontrollnak vetették alá.  

A rendelkezés célja a tudatosság növelése volt, amíg a szakma tisztában nem lesz az MI torzításaival és „hallucinációival”, illetve a felelős használat határaival. Starr bíró – több kollégájához hasonlóan – azóta visszavonta saját rendelkezését, ami arra utal, hogy egyes szövetségi bírók szerint a szükséges tájékozottsági szintet mára sikerült elérni.

A feleknek – legyenek akár magánszemélyek, vállalatok vagy állami szervek – tudniuk kell, hogy a bíróság döntése tényeken, hiteles forrásokon és érvényes jogszabályokon alapul. Ha azonban a jogi érvelés alapjául szolgáló információ kitaláció, a teljes eljárás hitelessége sérül.

Már néhány nagy nyilvánosságot kapó botrány is elég ahhoz, hogy

az állampolgárok megkérdőjelezzék, vajon a bíróságok valóban a jogot és a tényeket képviselik-e, vagy egy átláthatatlan algoritmus javaslatait követik.

Ráadásul a felelősség kérdése is bonyolultabbá válik. Ha egy ügyvéd vagy bíró MI által generált tartalmat vesz át ellenőrzés nélkül, az nem mentesíti a szakmai mulasztás alól, épp ellenkezőleg. Az ügyvédi és bírói etikai kódexek világszerte egyre hangsúlyosabban rögzítik, hogy az MI használata nem csökkenti, hanem fokozza a szakmai gondosság követelményét. A veszély ugyanakkor nem korlátozódik az érintettekre vagy az egyes ügyek kimenetelére. Hosszabb távon az ellenőrizetlen MI-használat rendszerszintű problémát okozhat: a bírósági gyakorlatba olyan hibás érvek és hivatkozások épülhetnek be, amelyek évek múlva is hivatkozási alapként szolgálhatnak. Ez pedig már nem csupán egy-egy ítéletet, hanem a jogrendszer egészének integritását fenyegeti.

Mit mond a jog?

A mesterséges intelligencia jogi alkalmazásának gyors terjedése

szükségessé teszi a szabályozási keretek folyamatos fejlesztését.

Az Európa Tanács Igazságszolgáltatás Hatékonyságáért Felelős Európai Bizottsága (CEPEJ) 2018-ban tette közzé a mesterséges intelligencia igazságszolgáltatási rendszerekben való felhasználásáról szóló Etikai Chartát. A dokumentum öt alapelvet rögzít a mesterséges intelligencia bírósági alkalmazására vonatkozóan: az alapvető jogok tiszteletét, a diszkriminációmentességet, a minőség és biztonság követelményét, az átláthatóság, pártatlanság és tisztesség elvét, valamint a felhasználói kontrollt. A kötelező humán felügyelet előírása kifejezetten azt a célt szolgálja, hogy a döntéshozatal felelőssége továbbra is az emberi szereplőknél maradjon.

Az Európai Unió 2024-ben elfogadott mesterséges intelligenciáról szóló rendelete (AI Act) a világ első olyan átfogó jogi keretrendszere, amely az MI alkalmazásával kapcsolatos kockázatok kezelésére és az alapvető jogok védelmére irányul. A jogi környezetben használt bizonyos MI-eszközöket magas kockázatúként sorolja be, ami szigorú követelményeket von maga után az adatminőség, a kockázatkezelés, a dokumentáció és a humán felügyelet terén. Az általános célú MI-rendszerekre külön kategóriát (GPAI) hozott létre, amely speciális átláthatósági, értékelési, kiberbiztonsági és kockázatkezelési kötelezettségekkel jár.

Az AI Act a GDPR-hoz hasonlóan extraterritoriális hatályú: EU-n kívüli cégekre is kiterjed, ha MI-rendszert hoznak forgalomba vagy helyeznek üzembe az EU-ban, illetve ha az általuk alkalmazott, illetve szolgáltatott MI-megoldások kimeneteit az EU-ban használják. A rendelet fokozatosan, több lépcsőben válik kötelezővé 2025 és 2027 között. Az AI Act a GDPR-nál is magasabb bírságplafonokat határoz meg: a legsúlyosabb jogsértésekért akár 35 millió euróig, vagy a vállalkozás előző évi globális árbevételének 7%-áig terjedő pénzbírság szabható ki.

Az Egyesült Államokban széles körben alkalmazzák a Nemzeti Szabványügyi és Technológiai Intézet (NIST) AI Risk Management Framework (AI RMF) keretrendszerét, melynek célja, hogy az MI fejlesztése és használata során mérsékelhetők legyenek az olyan kockázatok, amelyek súlyos következményekkel járhatnak például jogi, pénzügyi vagy egészségügyi környezetben. A keretrendszer négy alapfunkciója – irányítás, a kockázatok feltérképezése, mérése és kezelése – egy folyamatos kockázatkezelési ciklust alkot, amely támogatja a nem várt vagy hibás MI-működés (pl. hallucinációk) korai felismerését, mérését, dokumentálását és a megfelelő emberi kontrollt vagy beavatkozást. Bár a keretrendszer nem jogszabály, ajánlásai iránymutatásként szolgálnak számos nagyvállalat és szakmai szervezet számára.

Mesterséges intelligencia a tárgyalóteremben

Világszerte egyre több bíróság automatizál adminisztratív és kutatási feladatokat: az iratkezeléstől és az ütemezéstől kezdve az egyszerű ügyek digitális előszűrésén és az online vitarendezési eljárásokon át a lakosságnak szánt tájékoztató chatbotokig. Mindez tehermentesíti a bírókat, akik így több időt fordíthatnak a bonyolultabb ügyekre. A bírósági technológiai szervezetek – például a National Center for State Courts (NCSC) – ugyanakkor hangsúlyozzák az átláthatóság, a torzítások kezelése és a kötelező emberi felügyelet jelentőségét, különösen akkor, ha az MI-rendszer döntési javaslatokat is ad.

A hatékonyság növelése csak addig legitim, amíg nem ássa alá a tisztességes eljárás garanciáit.

Az amerikai bírói fórumok útmutatói hasonló irányba mutatnak: az MI hasznos eszköz lehet a háttérfeladatok elvégzésére (pl. jogi kutatáshoz, jegyzetek és tervezetek készítéséhez vagy peranyagok rendszerezéséhez), ugyanakkor nem ajánlott bírói döntések meghozatalára vagy végleges határozatok megírására. A tartalomért és a pontosságért minden esetben az emberi döntéshozó felel. Követelmény a technológiai kompetencia és a kockázatok kezelése is, a torzítások és „hallucinált” hivatkozások kiszűrésétől az átláthatósági korlátok tudatos kezelésén át a bizalmas adatok védelméig.

Egy friss kutatás, amely a brit bírók mesterséges intelligenciához való viszonyát vizsgálta, azt állapította meg, hogy a generatív MI-t elsősorban háttérfeladatokra tartják alkalmasnak (pl. iratmunka csökkentése, kis értékű ügyek előszűrése, célközönségre szabott ítélet-összefoglalók elkészítése), míg az érdemi bírói döntéshozatal gépesítésével szemben továbbra is erős a szkepszis, mivel az erkölcsi mérlegelést, a ténymegállapítást és a személyes méltóságot érintő döntéseket véleményük szerint nem lehet gépre bízni.

Erre már volt is példa: 2023-ban Kolumbiában egy bíró, Juan Manuel Padilla, a ChatGPT-től kért tanácsot egy autista gyermek egészségügyi perében, és végül az MI javaslatával egybeeső döntést hozott. Később hangsúlyozta, hogy az MI csupán segédeszköz, ami nem helyettesíti a bírói mérlegelést. Az eset mégis széleskörű szakmai bírálatot váltott ki, mivel többen úgy vélik, hogy a ChatGPT alkalmazása bírói döntésekhez nem felelős és nem etikus. A kolumbiai legfelsőbb bíróság egyik tagja, Octavio Tejeiro hangsúlyozta, hogy a bíróknak nem szabad ilyen eszközöket segítségül hívniuk jogi ügyekben, mert azok nem helyettesítik az emberi szaktudást és ítélőképességet.

A közvélemény hozzáállása is óvatosságra int. Egy 2025-ös, 1800 fős vizsgálat szerint az emberek nagyobb hitlességet tulajdonítanak azoknak a bíróknak, akik saját szakértelmükre támaszkodnak, mint azoknak, akik mesterséges intelligenciát vesznek igénybe a munkájuk során, különösen büntetőügyekben. Bizonyos csoportok nyitottabbak az MI-támogatásra, ha az az elfogultság csökkentését szolgálja, de az emberi kontroll és az átláthatóság mind a társadalmi elfogadottság, mind a jogbiztonság szempontjából minimumkövetelmény.

Az üzenet egyértelmű: a bíróságokon az MI csak eszköz lehet, nem döntéshozó.

A gyorsaság és a költségcsökkentés addig számít előnynek, amíg nem vesz el abból, ami a jog lényegéhez tartozik: az elszámoltatható, emberi ítélőképességen nyugvó igazságszolgáltatásból.

A címlapkép illusztráció. Címlapkép forrása: Getty Images

Holdblog

Olcsó kacatból high-tech ipar

USA Innovates, China Replicates, Europe Regulates - szól a régi mantra. Sokan még ma is igaznak tartják, hogy Kína csak lopja a technológiát, másolja a... The post Olcsó kacatból high-tech ipar a

Ricardo

A Vaslady ébredése

Batman, Spiderman, Iron Lady. Mintha Thatcher valami szuperhős lenne a Marvel univerzumból, akinek az a szuperereje, hogy soha "nem hátrál meg". Meg azt mondja: "ha a mértéktelen [állami] költek

Kasza Elliott-tal

Clorox Company - elemzés

Kereskedési célpontokat keresgéltem, most éppen a magas ROIC, az elfogadható osztalékhozam és a chart alapon jó beszállási lehetőségek voltak a legfontosabb szempontjaim. Így találtam rá a C

KAPOSVÁR - Finanszírozás a gyakorlatban

KAPOSVÁR - Finanszírozás a gyakorlatban

2025. szeptember 30.

PÉCS - Finanszírozás a gyakorlatban

2025. szeptember 30.

Portfolio Private Health Forum 2025

2025. szeptember 30.

ZALAEGERSZEG - Finanszírozás a gyakorlatban

2025. október 1.

Hírek, eseményajánlók első kézből: iratkozzon fel exkluzív rendezvényértesítőnkre!
Ez is érdekelhet