A DRI márciusban végzett vizsgálatából kiderült, hogy bár a chatrobotok politikailag semlegesek maradtak, gyakran téves választási dátumokat és téves információkat közöltek a szavazási folyamatról. A kutatók olyan eseteket figyeltek meg, amikor a chatbotok hibás linkeket vagy irreleváns tartalmakat küldtek vissza, kiemelve a mesterséges intelligencia kutatásában „hallucinációnak” nevezett jelenséget, amikor a botok tényeknek látszó valótlanságokat találnak ki.
Michael Meyer-Resende, a DRI társalapítója és ügyvezető igazgatója kijelentette, hogy a kísérlet során az AI-hallucinációkra utaló bizonyítékokat találtak, amelyeket a nem megfelelő inputoknak, az eleve beprogramozz elfogultságuknak és a téves feltételezéseknek tulajdonítottak. A chatbotok válaszainak és dinamikus viselkedésének eltérései ellenére a kísérletet reprezentatívnak ítélték – írja a Politico.
Az eredményekre reagálva a Google és a Microsoft szóvivői elismerték, hogy az AI-eszközeik sokszor adnak pontatlan válaszokat, amelyeket folyamatosan megpróbálnak kijavítani, valamint állandóan újabb és újabb intézkedéseket hoznak a félretájékoztatás kezelésére. A DRI szerint különösen a Google Gemini nevű robotja okoz problémákat, mivel a tesztek során nagyon kevés pontos választ adott a választásokról, ezért a szoftvercég korlátozásokat vezetett be, a felhasználókat a keresőjére irányítva a választásokkal kapcsolatos kérdéseket illetően.
A kísérlet aláhúzza a félretájékoztatás potenciális terjedésével kapcsolatos aggodalmakat, nemcsak az EP-, de az amerikai elnökválasztás előtt is. A DRI szerint a kutatásuk rávilágít a mesterséges intelligencia által generált tartalmak megbízhatatlanságának problematikájára.
Címlapkép forrása: Getty Images