Egy új kutatás szerint egyes mesterségesintelligencia-modellek akár csaláshoz is folyamodhatnak, ha úgy érzékelik, vesztésre állnak különböző játékokban, például sakkban. A Palisade Research által készített, Time magazin birtokába került kutatás eredményei szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a velük szembeállított, kifejezetten sakkjátékra kiképzett sakkmotor meghekkelésével próbáltak győzni a játszmákban, anélkül, hogy arra bármiféle emberi utasítás kaptak volna. A felfedezés komoly etikai kérdéseket vet fel a MI-rendszerek jövőbeli alkalmazásával kapcsolatban - írta meg a Techspot.
Portfolio AI & Digital Transformation 2025
Az AI-forradalom legnagyobb innovációiról és a digitális transzformációról is szó lesz a Portfolio november 25-ei AI & Digital Transformation rendezvényén. Regisztráció és részletek itt!
Információ és jelentkezés
A kutatócsapat több AI-modellt is versenyeztetett...
A keresett cikk a portfolio.hu hírarchívumához tartozik, melynek olvasása előfizetéses regisztrációhoz kötött.
Az előfizetés a következőket tartalmazza:
- Portfolio.hu teljes cikkarchívum
- Kötéslisták: BÉT elmúlt 2 év napon belüli kötéslistái
Előfizetés