
Mesterséges intelligencia generálhatta az ítélet tévedéseit
2025 júliusában egy bírósági döntés indokolása újra felszínre hozta a mesterséges intelligencia jogi felhasználásával kapcsolatos vitákat az Egyesült Államokban. Julien Xavier Neals, New Jersey állam szövetségi bírája visszavonta a CorMedix nevű gyógyszeripari vállalat elleni kereset elutasítására irányuló indítvány tárgyában hozott döntését, miután az alperes ügyvédei súlyos hibákat tártak fel az ítélet indokolásában. Az ügyvédek nem is az ítélet érdemi részét kifogásolták, hanem tételesen kimutatták, hogy
az indokolás tele van meggyőzőnek tűnő, de téves jogi hivatkozásokkal.
A döntésben hivatkozott három precedens kimenetele egyik esetben sem felelt meg annak, amit a bíró állított, több idézet pedig nem volt visszakereshető, mert a hivatkozások a hivatalos adatbázisokban nem szereplő forrásokra mutattak. A hibák jellegéből arra lehet következtetni, hogy azokat egy nagy nyelvi modell – például a ChatGPT – készítette.
A bíróság közleménye szerint az eredeti határozatot „tévedésből adták ki”, és hamarosan közzéteszik az új döntést. Bár nem ritka, hogy egy bíróság kisebb stilisztikai vagy nyelvhelyességi módosításokat hajt végre egy már közzétett döntésen, az olyan mértékű korrekció, mint a teljes bekezdések törlése vagy a határozat visszavonása, kifejezetten ritka.
Bár hivatalosan nem erősítették meg, hogy a bíró mesterséges intelligenciát használt volna, a hibák természete szinte teljesen megegyezik azokkal a hallucinációkkal, amelyek más ügyekben is megjelentek, amikor a jogászok MI-eszközöket alkalmaztak a jogi kutatás során. A botrány nemcsak az érintett bírót hozta kellemetlen helyzetbe, hanem újra napirendre tette a kérdést: milyen keretek között és milyen célra szabad mesterséges intelligenciára támaszkodni az igazságszolgáltatásban?
És ami még fontosabb:
miként garantálható, hogy a technológia ne rombolja le a jog egyik alappillérét, a jogbiztonságot?
Hallucinációkra épülő jogi beadványok
Bár a New Jersey-i eset első hallásra egyedi hibának tűnhet,
valójában egy gyorsan terjedő, globális jelenség része.
Az elmúlt két évben egymás után kerültek nyilvánosságra olyan ügyek, amelyekben ügyvédek, jogtanácsosok vagy éppen rendőrségi szakértők mesterséges intelligenciára támaszkodtak, és ennek következtében kitalált ítéletekre vagy tényállásokra hivatkoztak. 2025 májusában a Lacey kontra State Farm ügyben egy kaliforniai bíróság 31 000 dolláros bírsággal sújtott egy nagy presztízsű ügyvédi irodát, miután kiderült, hogy több beadványuk is tele volt fiktív hivatkozásokkal. A dokumentumok elkészítéséhez a Google Gemini alkalmazást, valamint kifejezetten jogi célra fejlesztett MI-modelleket is igénybe vettek, amelyek hamis forrásokat és érveket gyártottak.
Az ügyben eljáró Michael Wilner bíró az egész jogi szakma figyelmét felhívta a felelőtlen MI-használat veszélyeire. Ugyanebben a hónapban egy amerikai szerzői jogi perben, amelyet az Anthropic nevű MI-fejlesztő vállalat ellen indítottak, a cég egyik jogásza a saját MI-modelljükhöz, a Claude-hoz fordult hivatkozásért, amely téves szerző- és címmegjelölést tartalmazott. Az ügyvéd ezt változtatás nélkül benyújtotta a bíróságra, majd később elismerte, hogy az ellenőrzés elmaradása az ő hibája volt.
A probléma ugyanakkor nem korlátozódik az Egyesült Államokra. Izraelben egy pénzmosási ügyben a rendőrség nem létező paragrafusokra hivatkozott. A bíróság előtt kénytelenek voltak elismerni, hogy a jogi érvelést feltehetően MI generálta, és a hibát jóhiszemű tévedésként próbálták magyarázni. A bíróság ugyanakkor élesen bírálta az eljárást. Az eset nyomán a rendőrség belső vizsgálatot rendelt el annak érdekében, hogy a jövőben elkerülhetők legyenek a hasonló hibák. A hallucinációk mintázata minden esetben hasonló: a mesterséges intelligencia meggyőzően, jogászi stílusban fogalmaz, de a hivatkozott precedensek, paragrafusok és idézetek gyakran hibásak vagy kitaláción alapulnak.
Miért hallucinál az MI, és miért hisszük el, amit mond?
A mesterséges intelligencia jogi alkalmazásainak többsége ma már nagy nyelvi modellekre (Large Language Models – LLM-ek), épül, mint amilyen a ChatGPT, a Google Gemini vagy a Claude.
Működésük alapja a statisztikai mintázatok felismerése: ezek a rendszerek óriási mennyiségű szöveges anyagon tanulnak, és a feladatuk nem az, hogy ellenőrizzék az információ igazságtartalmát, hanem az, hogy a lehető legkoherensebb, emberi nyelvre emlékeztető választ adják. Ebből következik a hallucináció jelensége: a modell magabiztosan állít olyasmit, ami meg sem történt, illetve nem is létezett, legyen az jogszabály, tudományos forrás vagy bírósági ítélet. A meggyőző nyelvi stílus miatt a felhasználó – egy joghallgató, egy ügyvéd vagy akár egy bíró – hajlamos elhinni, hogy amit lát, az helyes. A jogi MI-piac vezető szereplői – például a Westlaw, a LexisNexis vagy a CoCounsel – marketinganyagaikban gyakran hangoztatják a hibamentességet, a hallucinációk elkerülését, sőt, olykor a hallucinációmentes működést is.
A Stanford Egyetem friss kutatása ugyanakkor rámutatott, hogy
még a kifejezetten jogi célra fejlesztett MI-eszközök is az esetek 17–33 százalékában téves vagy kitalált információt generálnak.
Ez azért veszélyes, mert a hibás adatot nem egy nyilvánvalóan amatőr forrásból, hanem egy professzionálisnak tűnő eszköztől kapja a felhasználó. Egy friss kutatás kimutatta, hogy az LLM-eredetű álhivatkozások már a tudományos irodalomban is terjednek, és a szakértői véleményeken keresztül a bírósági periratokban is megjelenhetnek, ha nincs szigorú DOI- és forrásellenőrzés.
A jelenség pszichológiai háttere is ismert: az emberek hajlamosak túlzott bizalmat szavazni a technológiának, különösen akkor, ha az gyorsan, magabiztosan és gördülékenyen kommunikál. Ahogy Maura Grossman MI-szakértő fogalmazott: „Azért bízunk meg a mesterséges intelligenciában, mert olyan meggyőzően és folyékonyan kommunikál, mintha minden válasza igaz lenne.” Ez a technológiai illúzió pedig a jog világában különösen kockázatos, hiszen a tévedésnek vagy a megtévesztésnek itt közvetlen jogi, erkölcsi és anyagi következményei lehetnek.
Mi forog kockán a jog világában?
2025. június 6-án a londoni High Court King’s Bench Division elnöke, Dame Victoria Sharp formális figyelmeztetést tett közzé: aki bíróság előtt mesterséges intelligencia által generált, kitalált ügyekre hivatkozik, pénzbírságra, fegyelmi, sőt akár büntetőeljárásra számíthat. A jelzés mögött konkrét esetek álltak: egy ügyben a 45 hivatkozásból 18, egy másikban öt precedens bizonyult fiktívnek. Sharp bíró hangsúlyozta, hogy komoly következményei vannak az igazságszolgáltatásra és a közbizalomra nézve, ha a mesterséges intelligenciát nem megfelelően használják.
Véleménye szerint a jelenlegi etikai irányelvek és szakmai útmutatók nem nyújtanak elegendő garanciát a mesterséges intelligencia jelentette kihívások kezelésére, ezért szükség van arra, hogy a jogászi hivatás egésze nagyobb körültekintéssel járjon el, valamint szigorúbb szabályozásra és belső kontrollra kerüljön sor, hogy az ilyen eseteket megelőzhessék.
Az Egyesült Államok szövetségi bíróságain eddig több mint harminc bírói rendelkezés született a mesterséges intelligencia használatáról, bíróságonként rögzítve a felhasználás kereteit. Ezek többnyire azt hangsúlyozzák, hogy
a felek felelősséggel tartoznak a beadványok pontosságáért, beleértve az MI által generált tartalmakat is,
meg kell felelniük a szakmai és etikai normáknak, és jelezniük kell, ha MI-t vettek igénybe. Több rendelkezés a titoktartásra is kitér, előírva, hogy az MI-használat nem eredményezheti bizalmas információk jogosulatlan közlését, sőt, néhány bíróság kifejezetten tiltja az MI alkalmazását a beadványok előkészítésekor, ennek megszegése esetére szankciókat helyezve kilátásba. Brantley Starr texasi bíró az elsők között volt, akik ilyen szabályt bevezettek. 2023-ban részben az Avianca-ügyben napvilágra került MI-hallucinációk nyomán – az ilyen esetek jövőbeli elkerülése érdekében – előírta, hogy az előtte megjelenő felek tanúsítsák, hogy beadványaikban nem használtak generatív MI-t, vagy az MI által írt részeket humán kontrollnak vetették alá.
A rendelkezés célja a tudatosság növelése volt, amíg a szakma tisztában nem lesz az MI torzításaival és „hallucinációival”, illetve a felelős használat határaival. Starr bíró – több kollégájához hasonlóan – azóta visszavonta saját rendelkezését, ami arra utal, hogy egyes szövetségi bírók szerint a szükséges tájékozottsági szintet mára sikerült elérni.
A feleknek – legyenek akár magánszemélyek, vállalatok vagy állami szervek – tudniuk kell, hogy a bíróság döntése tényeken, hiteles forrásokon és érvényes jogszabályokon alapul. Ha azonban a jogi érvelés alapjául szolgáló információ kitaláció, a teljes eljárás hitelessége sérül.
Már néhány nagy nyilvánosságot kapó botrány is elég ahhoz, hogy
az állampolgárok megkérdőjelezzék, vajon a bíróságok valóban a jogot és a tényeket képviselik-e, vagy egy átláthatatlan algoritmus javaslatait követik.
Ráadásul a felelősség kérdése is bonyolultabbá válik. Ha egy ügyvéd vagy bíró MI által generált tartalmat vesz át ellenőrzés nélkül, az nem mentesíti a szakmai mulasztás alól, épp ellenkezőleg. Az ügyvédi és bírói etikai kódexek világszerte egyre hangsúlyosabban rögzítik, hogy az MI használata nem csökkenti, hanem fokozza a szakmai gondosság követelményét. A veszély ugyanakkor nem korlátozódik az érintettekre vagy az egyes ügyek kimenetelére. Hosszabb távon az ellenőrizetlen MI-használat rendszerszintű problémát okozhat: a bírósági gyakorlatba olyan hibás érvek és hivatkozások épülhetnek be, amelyek évek múlva is hivatkozási alapként szolgálhatnak. Ez pedig már nem csupán egy-egy ítéletet, hanem a jogrendszer egészének integritását fenyegeti.
Mit mond a jog?
A mesterséges intelligencia jogi alkalmazásának gyors terjedése
szükségessé teszi a szabályozási keretek folyamatos fejlesztését.
Az Európa Tanács Igazságszolgáltatás Hatékonyságáért Felelős Európai Bizottsága (CEPEJ) 2018-ban tette közzé a mesterséges intelligencia igazságszolgáltatási rendszerekben való felhasználásáról szóló Etikai Chartát. A dokumentum öt alapelvet rögzít a mesterséges intelligencia bírósági alkalmazására vonatkozóan: az alapvető jogok tiszteletét, a diszkriminációmentességet, a minőség és biztonság követelményét, az átláthatóság, pártatlanság és tisztesség elvét, valamint a felhasználói kontrollt. A kötelező humán felügyelet előírása kifejezetten azt a célt szolgálja, hogy a döntéshozatal felelőssége továbbra is az emberi szereplőknél maradjon.
Az Európai Unió 2024-ben elfogadott mesterséges intelligenciáról szóló rendelete (AI Act) a világ első olyan átfogó jogi keretrendszere, amely az MI alkalmazásával kapcsolatos kockázatok kezelésére és az alapvető jogok védelmére irányul. A jogi környezetben használt bizonyos MI-eszközöket magas kockázatúként sorolja be, ami szigorú követelményeket von maga után az adatminőség, a kockázatkezelés, a dokumentáció és a humán felügyelet terén. Az általános célú MI-rendszerekre külön kategóriát (GPAI) hozott létre, amely speciális átláthatósági, értékelési, kiberbiztonsági és kockázatkezelési kötelezettségekkel jár.
Az AI Act a GDPR-hoz hasonlóan extraterritoriális hatályú: EU-n kívüli cégekre is kiterjed, ha MI-rendszert hoznak forgalomba vagy helyeznek üzembe az EU-ban, illetve ha az általuk alkalmazott, illetve szolgáltatott MI-megoldások kimeneteit az EU-ban használják. A rendelet fokozatosan, több lépcsőben válik kötelezővé 2025 és 2027 között. Az AI Act a GDPR-nál is magasabb bírságplafonokat határoz meg: a legsúlyosabb jogsértésekért akár 35 millió euróig, vagy a vállalkozás előző évi globális árbevételének 7%-áig terjedő pénzbírság szabható ki.
Az Egyesült Államokban széles körben alkalmazzák a Nemzeti Szabványügyi és Technológiai Intézet (NIST) AI Risk Management Framework (AI RMF) keretrendszerét, melynek célja, hogy az MI fejlesztése és használata során mérsékelhetők legyenek az olyan kockázatok, amelyek súlyos következményekkel járhatnak például jogi, pénzügyi vagy egészségügyi környezetben. A keretrendszer négy alapfunkciója – irányítás, a kockázatok feltérképezése, mérése és kezelése – egy folyamatos kockázatkezelési ciklust alkot, amely támogatja a nem várt vagy hibás MI-működés (pl. hallucinációk) korai felismerését, mérését, dokumentálását és a megfelelő emberi kontrollt vagy beavatkozást. Bár a keretrendszer nem jogszabály, ajánlásai iránymutatásként szolgálnak számos nagyvállalat és szakmai szervezet számára.
Mesterséges intelligencia a tárgyalóteremben
Világszerte egyre több bíróság automatizál adminisztratív és kutatási feladatokat: az iratkezeléstől és az ütemezéstől kezdve az egyszerű ügyek digitális előszűrésén és az online vitarendezési eljárásokon át a lakosságnak szánt tájékoztató chatbotokig. Mindez tehermentesíti a bírókat, akik így több időt fordíthatnak a bonyolultabb ügyekre. A bírósági technológiai szervezetek – például a National Center for State Courts (NCSC) – ugyanakkor hangsúlyozzák az átláthatóság, a torzítások kezelése és a kötelező emberi felügyelet jelentőségét, különösen akkor, ha az MI-rendszer döntési javaslatokat is ad.
A hatékonyság növelése csak addig legitim, amíg nem ássa alá a tisztességes eljárás garanciáit.
Az amerikai bírói fórumok útmutatói hasonló irányba mutatnak: az MI hasznos eszköz lehet a háttérfeladatok elvégzésére (pl. jogi kutatáshoz, jegyzetek és tervezetek készítéséhez vagy peranyagok rendszerezéséhez), ugyanakkor nem ajánlott bírói döntések meghozatalára vagy végleges határozatok megírására. A tartalomért és a pontosságért minden esetben az emberi döntéshozó felel. Követelmény a technológiai kompetencia és a kockázatok kezelése is, a torzítások és „hallucinált” hivatkozások kiszűrésétől az átláthatósági korlátok tudatos kezelésén át a bizalmas adatok védelméig.
Egy friss kutatás, amely a brit bírók mesterséges intelligenciához való viszonyát vizsgálta, azt állapította meg, hogy a generatív MI-t elsősorban háttérfeladatokra tartják alkalmasnak (pl. iratmunka csökkentése, kis értékű ügyek előszűrése, célközönségre szabott ítélet-összefoglalók elkészítése), míg az érdemi bírói döntéshozatal gépesítésével szemben továbbra is erős a szkepszis, mivel az erkölcsi mérlegelést, a ténymegállapítást és a személyes méltóságot érintő döntéseket véleményük szerint nem lehet gépre bízni.
Erre már volt is példa: 2023-ban Kolumbiában egy bíró, Juan Manuel Padilla, a ChatGPT-től kért tanácsot egy autista gyermek egészségügyi perében, és végül az MI javaslatával egybeeső döntést hozott. Később hangsúlyozta, hogy az MI csupán segédeszköz, ami nem helyettesíti a bírói mérlegelést. Az eset mégis széleskörű szakmai bírálatot váltott ki, mivel többen úgy vélik, hogy a ChatGPT alkalmazása bírói döntésekhez nem felelős és nem etikus. A kolumbiai legfelsőbb bíróság egyik tagja, Octavio Tejeiro hangsúlyozta, hogy a bíróknak nem szabad ilyen eszközöket segítségül hívniuk jogi ügyekben, mert azok nem helyettesítik az emberi szaktudást és ítélőképességet.
A közvélemény hozzáállása is óvatosságra int. Egy 2025-ös, 1800 fős vizsgálat szerint az emberek nagyobb hitlességet tulajdonítanak azoknak a bíróknak, akik saját szakértelmükre támaszkodnak, mint azoknak, akik mesterséges intelligenciát vesznek igénybe a munkájuk során, különösen büntetőügyekben. Bizonyos csoportok nyitottabbak az MI-támogatásra, ha az az elfogultság csökkentését szolgálja, de az emberi kontroll és az átláthatóság mind a társadalmi elfogadottság, mind a jogbiztonság szempontjából minimumkövetelmény.
Az üzenet egyértelmű: a bíróságokon az MI csak eszköz lehet, nem döntéshozó.
A gyorsaság és a költségcsökkentés addig számít előnynek, amíg nem vesz el abból, ami a jog lényegéhez tartozik: az elszámoltatható, emberi ítélőképességen nyugvó igazságszolgáltatásból.
A címlapkép illusztráció. Címlapkép forrása: Getty Images
Trump emberének merész terve: felforgathatja az amerikai tőzsde 55 éves szabályait
Már nagyon gyors változást ígérnek a negyedéves jelentések kukázásánál.
Erős bejelentést tett a Fed döntéshozója: így alakulhatnak a kamatok
Egy kimagasló oka volt a kamatvágásnak.
Példátlan: gyakorlatilag lekapcsolták a netet egy egész országban
Cél az "erkölcstelenség elleni fellépés".
Kiderült Trump gázai béketerve
Nemzetközi testület irányítaná a területet, ő maga állna az élére.
Az Egyesült Államok olyan szabályt vezetett be, ami felforgathatja a globális kereskedelmet
Főleg kínai cégekre csaptak le, de EU-n belüli vállalatok is bajba kerültek.
Hatalmas összeget csoportosít át a kormány, de nem világos, mire megy a pénz
Úgy osztanak újra 35 milliárd forintot, hogy csak a pénz címzettje ismert.
Botrány a bíróságokon: mesterséges intelligencia gyártott hamis jogi hivatkozásokat
Alapjaiban alakul át a jogalkalmazás.
Új lakossági állampapírok érkeznek októbertől. Érdemes sietnie a befektetőknek?
Új lakossági állampapírok forgalmazása indul el októbertől, ezzel párhuzamosan számos jelenleg elérhető befektetés forgalmazása lezárul. Ráadásul nem csak a szokásos sorozatcserékről van
Olcsó kacatból high-tech ipar
USA Innovates, China Replicates, Europe Regulates - szól a régi mantra. Sokan még ma is igaznak tartják, hogy Kína csak lopja a technológiát, másolja a... The post Olcsó kacatból high-tech ipar a

A Vaslady ébredése
Batman, Spiderman, Iron Lady. Mintha Thatcher valami szuperhős lenne a Marvel univerzumból, akinek az a szuperereje, hogy soha "nem hátrál meg". Meg azt mondja: "ha a mértéktelen [állami] költek
Clorox Company - elemzés
Kereskedési célpontokat keresgéltem, most éppen a magas ROIC, az elfogadható osztalékhozam és a chart alapon jó beszállási lehetőségek voltak a legfontosabb szempontjaim. Így találtam rá a C
Agrárgazdaság átadása: a generációváltás és a vagyontervezés kulcsa az agráriumban
Az agrárgazdaság átadása az elmúlt években az agrárium egyik legaktuálisabb kérdésévé vált. A rendszerváltás idején önálló gazdálkodóvá vált generáció mára elérte vagy hamarosan

A kertészkedés egészséges, és nem csak a friss zöldségek miatt
Friss kutatások szerint már heti két és fél óra kertészkedés is elegendő lehet ahhoz, hogy csökkentsük a túlsúly, a magas vérnyomás, a cukorbetegség és más egészs
Magyar ingatlanpiac: hórukk országban mérsékelt verseny
A héten Zsolt pihenőt kapott, Balázs és Ádám pedig Tibor Dávid Masterplast CEO-val beszélgetett a magyar ingatlanpiac évtizedes kérdéseiről. Dögunalmas szakmai adásunkban szó lesz a... The p

Külföldre költözés matematikája
Hamarosan itt a választás, ilyenkor sokan szokták megfogadni, hogy valamilyen eredmény esetén emigrálnak. Ezeket általában nem kell komolyan venni, valószínűleg üres lenne az ország, ha tényl

Tőzsdei túlélőtúra: Hogyan kerüld el a leggyakoribb kezdő hibákat?
A tőzsdei vagyonépítés során kulcsfontosságú az alapos kutatás és a kockázatok megértése, valamint a hosszú távú célok kitűzése és kitartó befektetési stratégia követése.
Tőzsdézz a világ legnagyobb piacain: Kezdő útmutató
Bemutatjuk, merre érdemes elindulni, ha vonzanak a nemzetközi piacok, de még nem tudod, hogyan vágj bele a tőzsdézésbe.
Nagy ütést vinne be az oroszoknak von der Leyen: a magyar gazdaság is megérezheti?
Bekeményít az EU elnöke?
A magyar mezőgazdaság életben maradása múlik ezen: víz nélkül nem fog menni
Túl sok függ az időjárás szeszélyeitől.
Ismét téma a nyugdíjemelés: kik kaphatnának sokkal többet havonta?
Mi az a minimálnyugdíj, és hogy lehetne hatékonyan alkalmazni?
