Képzelje el, hogy van egy program, amelyik úgy tűnik, mintha nagyon okos lenne. Bármilyen kérdést feltesz neki, válaszol. Ha megkéri, hogy oldjon meg egy rejtvényt, elkezd „gondolkodni”, és még azt is elmondja, hogyan jut el a megoldáshoz. De vajon tényleg gondolkodik? Vagy csak eljátssza, hogy gondolkodik?
Az Apple kutatói (Shojaee és szerzőtársai, 2025) pont ezt próbálták meg kideríteni egy új tanulmányukban („A gondolkodás illúziója”). Ezeket a gondolkodó modelleket szoktál LRM-nek (Large Reasoning Model) nevezni.
Mi az az LLM?
Az LLM a „nagy nyelvi modell” (angolul Large Language Model) rövidítése. Ez egy olyan mesterséges intelligencia, amely hatalmas mennyiségű szövegen tanult, és képes válaszolni kérdésekre, szöveget írni, sőt még verseket vagy programkódot is készíteni. Ilyen például a ChatGPT. Ezek a modellek nem értik a világot úgy, mint az emberek, de nagyon jól el tudják játszani, hogy értik, amit mondanak – egyszerűen azzal, hogy azt válaszolják, ami a legvalószínűbb válasz a rengeteg betanult szöveg alapján.
Mi az az LRM?
Az LRM, vagyis a „nagy érvelő modell” olyan új típusú mesterséges intelligenciákat jelöl, amelyek nemcsak válaszolnak, hanem meg is próbálják megmagyarázni, hogyan jutottak el a válaszhoz. Ilyenkor lépésről lépésre leírják a gondolkodásukat. Ezt hívják „gondolatmenetnek” vagy „érvelésnek”.
Miért lenne izgalmas, ha valaki tényleg létrehozna egy sikeres LRM-et?
Azért, mert egy igazi, jól működő LRM már nem csak ismételgetné, amit máshol olvasott, hanem valóban képes lenne úgy gondolkodni, mint egy ember. Ha ez sikerülne, azzal elérnénk, hogy a gépek ne csak okosnak tűnjenek, hanem valóban megbízhatóak legyenek problémamegoldásban, döntéshozatalban vagy akár tanításban is. Ez lenne az első lépés a valódi mesterséges intelligencia felé.
Hogyan vizsgálták meg, hogy tényleg gondolkodnak-e az LRM-ek?
A kutatók olyan egyszerű, de egyre nehezebbé tehető rejtvényeket készítettek a gépnek (mint amikor logikai sorrendeket kell felismerni, vagy egyszerű szabályokat kell követni), amivel tesztelhették a gondolkodásuk hatékonyságát.
Ez azért fontos, mert így kontrollálni tudták, hogy mi a helyes válasz, és azt is, hogy mennyire nehéz a feladat. Így láthatták, hogyan változik a mesterséges intelligencia teljesítménye, amikor a rejtvények egyre bonyolultabbak lettek.
Háromféle nehézségi szint
- Könnyű feladatok: Itt a sima gépek (amelyek nem próbálnak „gondolkodni”, például az ismert LLM-ek) jobban teljesítettek.
- Közepesen nehéz feladatok: Itt azok a modellek voltak jobbak, amelyek gondolatmeneteket is leírtak (LRM), mintha magyaráznák, mit csinálnak.
- Nagyon nehéz feladatok: Itt mindegyik megközelítés elbukott. Akár próbált gondolkodni, akár nem.
A kutatók megfigyelték, hogy amikor a feladatok túl nehézzé váltak, a gépek nemcsak rossz válaszokat adtak, de még a „gondolatmenetük” is szétesett. Mint amikor valaki tanul, aztán hirtelen már nem is érti, mit mondott két perccel korábban.
Ráadásul a mesterséges intelligencia sokszor olyan dolgokat „gondolt”, amik nem is segítettek a megoldásban, csak úgy leírta őket, mintha okoskodna, de közben nem haladt előre.
A tanulság: a mesterséges intelligencia nem tud még igazán gondolkodni
Ez nem azt jelenti, hogy a gépek buták, sőt! Csak azt, hogy egyelőre még nem értik igazán, amit csinálnak. Okosnak tűnhetnek, főleg, ha nem túl nehéz a feladat, de amikor tényleg gondolkodni kéne, kiderül, hogy sokszor csak ismételgetnek dolgokat anélkül, hogy megértenék őket.
Ezért nagyon fontos, hogy tudatosan és módszertani szempontok alapján is átgondoltan használjuk az új AI megoldásokat. Például nagyon fontos, hogy a feladatot lebontsuk kisebb feladatokra és ebből tudatosan építsünk egy gondolatmenetet számára, ezzel is segítve a pontosabb és jobb válaszok elérését (Chain of Thoughts). Ugyanígy nagyon fontos technika, hogy a kapott választ alaposan megvizsgáljuk és értelmezzük akár az AI segítségével is, mielőtt kész tényként fogadnánk el.
A kutatók szerint, ha azt szeretnénk, hogy a mesterséges intelligencia igazi gondolkodó legyen, akkor még sokat kell dolgozni azon, hogy következetes, pontos és „okos” legyen.
Neszveda Gábor
Hivatkozások:
Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. Apple Machine Learning Research. https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
Borítókép: unsplash.com
The post Gondolkodik-e az AI, vagy csak úgy tesz? appeared first on Economania blog.