Mint kiderült a mesterséges intelligencia sem mentes a hallucinációktól. Csakúgy, mint az emberek, a gépek is érdekes tévképzetekkel tudnak rendelkezni a világról, bár tény, hogy a folyamat kicsit eltérő. Az új modellek egészen nagy érdeklődést váltottak ki az emberekből, azonban a bizalom megingott, mióta rájöttek, hogy elég sokat tévednek.
Az olyan mesterséges intelligenciák, mint a ChatGPT felől rendkívül nagy volt az érdeklődés. Azonban az emberek lelkesedése alábbhagyott, mikor realizálták, hogy az MI sem feltétlenül tévedhetetlen. Amikor az MI helytelen információt ad válaszul, azt szokták hallucinációnak nevezni. Jelenleg több kutatás is irányul arra, hogy a lehető legtöbb ilyen félreértést el tudják kerülni a hasonló modellek.
Azonban az MI vizsgálatakor érdemes figyelembe venni a saját tévképzeteinket és elfogultságainkat is. Ha megértjük miért „hallucinál” az MI, és azt, hogy ez milyen módon kapcsolódik hozzánk emberekhez, akkor elkezdhetünk jobb modelleket gyártani.
Az emberi hallucináció
Nem meglepő információ, hogy emberek néha csakúgy a semmiből szereznek bizonyos információkat. Ez néha szándékos, néha pedig egyáltalán nem. Ráadásul ugye itt összefüggés lehet a mentális betegségekkel is. A legtöbb ember esetében ezek a hallucinációk veszélytelenek, sőt inkább segítséget nyújtanak a rengeteg beérkező információ feldolgozásában. Ilyenkor az agy az információk csak töredékét tárolja el, ami fals konklúziókat eredményezhet.
Vagyis mikor a legtöbb ember képzeleg, akkor az agy megpróbál egy kérdésre gyorsan válaszolni. Ilyenkor azonban előfordulhat, hogy kihagy bizonyos részleteket, amelyek hamis eredményeket eredményeznek. Ezt általában csevegésnek szoktuk nevezni.
Ilyen az egyik olyan meggyőződésünk is, miszerint az automatizált rendszerek eredményei jobbak, mint a nem automata rendszereké. Ilyenkor fordulhat elő, hogy valaki jobban megbízik a ChatGPT-ben, mint a Wikipédiában, pedig sokszor minőséget tekintve hasonlóak.
Hasonló elfogultságok lehetnek még a könnyen befogadható információkkal szemben is. Ezenkívül a már ismert információk alapján is sokszor ítélkezünk.
Az MI hallucinációja
Az MI esetében nem az agyi kapacitás végessége a probléma. Ilyenkor a gond, hogy az MI nem tudja mi lenne a helyes válasz egy adott kérdésre. Mikor az MI nem tudja a választ, akkor ő is csak megpróbálja kitölteni a hiányzó részleteket, amelyek hibás válaszokat eredményeznek. Ebben nagyon hasonlóak az emberekhez, a probléma viszont az, hogy az MI valójában nem tudja mit mond — írja az IFLS. Ez a probléma a hibás forrásanyagokból ered, amelyekben sok tévedés lehet.
A legjobban úgy lehet kiküszöbölni ezeket a problémákat, ha a forrásanyagok felülvizsgálatra kerülnek. Vagyis az MI nem csak rá van szabadítva az internetre, hogy tanuljon, hanem csak ellenőrzött anyagokból tanulhat. Emellett érdemes lenne átláthatóbbá tenni ezeknek a modelleknek a működését is, hogy a bizalmatlanságot elhessegethessük. Illetve, az emberi értékrendet is figyelembe kéne venni az MI-nek.
Ezeket a cikkeket is érdemes elolvasni:
itt tudod támogatni az oldalunkat
Érdemes elolvasni
Putyin szerint az ukrajnai háború globális méreteket ölthet
Megtalálták az eddigi legősibb ábécét, és 500 évvel régebbi, mint a korábbi rekordtartó
Űrhajó? Dehogy! Egy tanulmány szerint egy fejlett idegen civilizáció az egész csillagrendszerét terelheti
Létezett a természetben is nukleáris reaktor, és kevesebb, mint 2 milliárd éve még aktív volt
Eddig ismeretlen vulkánt fedeztek fel Magyarországon
Elképesztő: a gízai nagy piramisnak nem 4, hanem 8 oldala van