Az AI a barátunk is lehetne? Egy etikaprofesszor elmagyarázza, miért veszélyes ez
Gazdaság

Az AI a barátunk is lehetne? Egy etikaprofesszor elmagyarázza, miért veszélyes ez

Ugyanazok a nagy technológiai vállalatok, amelyek a közösségi médián keresztül társadalmaink széttöredezését okozták, most arra ösztönöznek minket, hogy a valódi emberi kapcsolatokat „AI-barátokkal” és „AI-társakkal” váltsuk fel. De az iparág merész állításai ellenére a jelenlegi adatalapú rendszerek nem rendelkeznek a valós döntéshozatalhoz szükséges, erkölcsi szempontokat figyelembe vevő gondolkodás képességével.
Az AI-forradalom legnagyobb innovációiról és a digitális transzformációról is szó lesz a Portfolio november 25-ei AI & Digital Transformation rendezvényén. Regisztráció és részletek itt!
Ez itt az on the other hand, a portfolio vélemény rovata.
Ez itt az on the other hand, a portfolio vélemény rovata. A cikkek a szerzők véleményét tükrözik, amelyek nem feltétlenül esnek egybe a Portfolio szerkesztőségének álláspontjával. Ha hozzászólna a témához, küldje el cikkét a velemeny@portfolio.hu címre. A megjelent cikkek itt olvashatók.

Mark Zuckerberg, a Meta vezérigazgatója és Sam Altman, az OpenAI vezére agresszívan hirdetik azt az elképzelést, hogy mindenkinek – beleértve a gyerekeket iskapcsolatot kellene kialakítania „AI-barátokkal” vagy „AI-társakkal”. Eközben a multinacionális technológiai cégek az AI-ügynök koncepcióját erőltetik, amelyek célja, hogy segítsenek minket a magán- és szakmai életünkben, rutinfeladatokat lássanak el, és irányítsák a döntéshozatalt.

A valóság azonban az, hogy az AI-rendszerek nem barátok, társak vagy ügynökök, és soha nem is lesznek azok. Ezek gépek, és mindig is azok maradnak. Őszintének kell lennünk ezzel kapcsolatban, és fel kell lépnünk az ennek ellenkezőjét sugalló félrevezető marketinggel szemben.

A mesterséges intelligencia a legmegtévesztőbb kifejezés.

Ezek a rendszerek nem igazán intelligens rendszerek, és amit ma AI-nak nevezünk, az csupán bizonyos kognitív funkciók utánzására tervezett technikai eszközök összessége. Nem képesek valódi megértésre, és nem objektívek, tisztességesek vagy semlegesek.

És nem lesznek egyre okosabbak. Működésükhöz az AI-rendszerek adatokra támaszkodnak, és ez egyre inkább magában foglalja az olyan eszközök által generált adatokat is, mint a ChatGPT. Ennek eredménye egy olyan visszacsatolás, amely a kimenetet újrahasznosítja anélkül, hogy mélyebb megértéssel járna együtt.

Alapvetően az intelligencia nemcsak feladatok megoldásáról szól, hanem arról is, hogy hogyan közelítik meg és hajtják végre ezeket a feladatokat. Technikai képességeik ellenére az AI- modellek továbbra is csak bizonyos területekre korlátozódnak, például nagy adathalmazok feldolgozására, logikai következtetésekre és számítások elvégzésére.

A szociális intelligencia terén azonban a gépek csak szimulálni tudják az érzelmeket, az interakciókat és a kapcsolatokat. Egy orvosi robotot például be lehetne programozni arra, hogy sírjon, amikor egy beteg sír, de senki sem állítaná azt, hogy ilyenkor a robot valódi szomorúságot érez. Ugyanezt a robotot ugyanilyen könnyen be lehetne programozni arra is, hogy vágja pofon a beteget, és ugyanolyan precízen hajtaná is végre ezt a parancsot – ugyanannyira hitelesség és öntudatosság nélkül. A gépek nem "törődnek" ilyen dolgokkal; egyszerűen csak követik az utasításokat. És bármennyire is lesznek fejlettek ezek a rendszerek, ez nem fog változni.

Egyszerűen fogalmazva, a gépekből hiányzik az erkölcsi szempontokat figyelembe vevő működés.

Viselkedésüket az emberek által létrehozott minták és szabályok irányítják, míg az emberi erkölcs az autonómiában gyökerezik – abban a képességben, amely az etikai normák felismeréséhez és az annak megfelelő viselkedéshez szükséges. Ezzel szemben az AI-rendszereket a funkcionalitásra és az optimalizálásra tervezték. Öntanulással alkalmazkodhatnak, de az általuk generált szabályoknak nincs eredendő etikai jelentésük.

Gondoljunk csak az önvezető autókra. Ahhoz, hogy A pontból B pontba a lehető leggyorsabban eljusson, az önvezető jármű szabályokat dolgozhat ki az utazási idő optimalizálására. Ha a gyalogosok elgázolása segítene elérni ezt a célt, az autó ezt megteheti, hacsak nem kap utasítást, hogy ne tegye ezt meg, mert nem érti az erkölcsi következményeit annak, ha az embereknek bajt okoz.

Ez részben azért van így, mert a gépek képtelenek megérteni az általánosíthatóság elvét – azt az elgondolást, hogy egy cselekvés csak akkor etikus, ha általános szabályként igazolható. Az erkölcsi ítéletalkotás attól függ, hogy képesek vagyunk-e olyan hihető indoklást adni, amelyet mások ésszerűen el tudnak fogadni. Ezeket gyakran nevezzük "jó okoknak". A gépekkel ellentétben az emberek képesek általánosítható, az erkölcsi szempontokat figyelembe vevő gondolkodásra, és ezért meg tudják ítélni, hogy cselekedeteik helyesek vagy helytelenek.

Az adatalapú rendszerek (DS) kifejezés ezért megfelelőbb, mint a mesterséges intelligencia fogalma, mivel azt tükrözi, amire a mesterséges intelligencia valójában képes:

adatokat generál, gyűjt, feldolgoz és értékel, hogy megfigyeléseket és előrejelzéseket tegyen. Egyúttal rávilágít a mostani feltörekvő technológiák erősségeire és korlátaira is.

Ezek alapvetően olyan rendszerek, amelyek rendkívül kifinomult matematikai folyamatokat használnak hatalmas mennyiségű adat elemzésére – semmi többről nincs szó. Az emberek kapcsolatba léphetnek velük, de a kommunikáció teljesen egyirányú. A DS nincs tudatában annak, hogy mit "csinál", vagy hogy mi történik körülötte.

Ez nem jelenti azt, hogy a DS nem lehet az emberiség vagy a bolygó hasznára. Éppen ellenkezőleg, olyan területeken, ahol képessége felülmúlja a miénkét, támaszkodhatunk és támaszkodnunk is kell rá. De aktívan kezelnünk és csökkentenünk kell az általa megjelenített etikai kockázatokat is. Az emberi jogokon alapuló DS kifejlesztése és az adatalapú rendszerekkel foglalkozó ENSZ-ügynökség létrehozása fontos első lépés lenne ebbe az irányba.

Az elmúlt két évtizedben a nagy technológiai cégek elszigetelték az embereket egymástól, és széttöredezték a társadalmainkat a közösségi médián keresztül – amelyet pontosabban "antiszociális médiának" nevezhetnénk függőséget okozó és romboló jellege miatt. Most ugyanezek a vállalatok egy radikálisan új víziót hirdetnek: az emberi kapcsolatokat „AI-barátokkal” és „AI-társakkal” helyettesítenék.

Ugyanakkor ezek a vállalatok továbbra sem vesznek tudomást az úgynevezett fekete doboz problémáról: az automatizált értékelések, előrejelzések és döntések mögött álló algoritmikus folyamatok követhetetlenségéről, kiszámíthatatlanságáról és átláthatóságának hiányáról. Ez az átláthatatlanság az elfogult és diszkriminatív algoritmusok nagy valószínűségével elkerülhetetlenül elfogult és diszkriminatív eredményeket okoz.

A DS által jelentett kockázatok nem elméleti jellegűek. Ezek a rendszerek már most is egyre károsabb módon alakítják magán- és szakmai életünket, manipulálnak minket gazdaságilag és politikailag, mégis a technológiai cégek vezérigazgatói arra buzdítanak minket: hagyjuk, hogy a DS-eszközök irányítsák döntéseinket. Saját magunk és a jövő nemzedékeinek szabadságának és méltóságának védelme érdekében nem engedhetjük meg, hogy a gépek annak álcázzák magukat, amik nem: embereknek.

Copyright: Project Syndicate, 2025.

www.project-syndicate.org

Peter G. Kirchschläger
Az etika professzora, a Luzerni Egyetem ISE Társadalmi Etikai Intézetének igazgatója, az ETH Zürich vendégprofesszora.

A címlapkép illusztráció. Címlapkép forrása: Getty Images

FIN-CON 2025

FIN-CON 2025

2025. szeptember 3.

Portfolio Sustainable World 2025

2025. szeptember 4.

Sikerklub hazai kkv-nak

2025. szeptember 16.

Követeléskezelési trendek 2025

2025. szeptember 16.

Hírek, eseményajánlók első kézből: iratkozzon fel exkluzív rendezvényértesítőnkre!
Díjmentes előadás

A platformok harca – melyiken érdemes kereskedni?

Online előadásunkon bemutatjuk a különböző kereskedési felületeket, megmutatjuk, melyik mire jó, milyen költségekkel számolhatsz, és milyen funkciók segítenek a hatékony befektetésben.

Ez is érdekelhet