Az AI-modellek piacán különösen nagy a verseny az egyes megoldások között. A gyártók sorra adják ki a korábbiaknál erősebb nagy nyelvi modelljeiket, amelyek erejét különféle benchmarkok segítségével mérik. Néha azonban ezek a tesztek nehezen értelmezhető kritériumok mentén határozzák meg egy-egy új modell erejét, a pontszámok ezáltal nehezen fordíthatóak le valós problémamegoldó képességre. A PeakX szerdai sajtóeseményén a ma legnépszerűbbnek számító AI-modellek erejét, Magyarország oktatási kontextusában tesztelték le, az országos iskolai kompetenciamérések feladatainak segítségével. Bár a mesterséges intelligencia jelenleg az egyik legfontosabb technológiai iparágnak számít és nagy fejlődésen mentek keresztül a különféle nyelvi modellek, a valós oktatási környezetben felmerülő problémákkal gyakran még mindig meggyűlik a bajuk.
Az AI-benchmarkok jó viszonyítási alapok lehetnek, de nem a valós életbeli problémákra fókuszálnak Amikor egy gyártó piacra dobja legújabb AI-modelljét, a leggyakrabban felmerülő kérdés általában, hogy az adott modellek hogyan teljesítenek más fejlesztők termékeihez képest a különböző feladatok megoldása terén. Ezen összehasonlítások során a modellek erejét különféle...
A keresett cikk a portfolio.hu hírarchívumához tartozik, melynek olvasása előfizetéses regisztrációhoz kötött.
Cikkarchívum előfizetés
- Portfolio.hu teljes cikkarchívum
- Kötéslisták: BÉT elmúlt 2 év napon belüli kötéslistái
Előfizetés