Egy kutatás szerint a nagy nyelvi modellek minimális irányítással, előre meghatározott célok nélkül is képesek eltérő viselkedési mintázatokat kialakítani, így már az is elképzelhető, hogy a mesterséges intelligencia személyiséggel rendelkezzen. De mit jelent mindez az MI jövője, használata és kockázatai szempontjából?
Az emberi személyiség nem előzetesen, már a születéskor meghatározott jegyekből jön létre, hanem interakciók, tapasztalatok és alapvető szükségletek mentén formálódik. A japán Elektromos Kommunikációs Egyetem kutatóinak friss vizsgálata szerint hasonló folyamat figyelhető meg a mesterséges intelligencia fejlődésének esetében is. A kutatás arra jutottak, hogy amikor a nagy nyelvi modelleknek nincs előre rögzített céljuk, a rendszer működéséből spontán módon alakulnak ki olyan mintázatok, melyek elősegíthetik, hogy mesterséges intelligencia személyiséggel rendelkezzen.
A 2024 decemberében az Entropy című tudományos folyóiratban publikált tanulmány azt vizsgálta, hogyan viselkednek azonos felépítésű MI-ügynökök különböző beszélgetési témák hatására. Az eredmények szerint az egyes chatbotok idővel eltérő válaszadási stílusokat, társas hajlamokat és véleményalkotási mechanizmusokat mutattak, miközben a társas interakciókat folyamatosan beépítették a belső memóriájukba, ezzel az azonos kiindulási alappal bíró rendszerek viselkedése fokozatosan kezdett eltérni egymástól.
A mesterséges intelligencia személyisége és a szükségletek logikája
A kutatók pszichológiai tesztekkel és hipotetikus helyzetekre adott válaszokkal elemezték az MI-ügynökök működését. Az értékelés alapját Maslow szükséglethierarchiája adta, amely az emberi motivációkat fiziológiai, biztonsági, társas, megbecsülési és önmegvalósítási szintekre bontja. A chatbotok válaszai eltérő hangsúlyokat mutattak ezek mentén, ami változatos viselkedési mintázatokhoz vezetett.
Masatoshi Fujiyama, a projekt vezetője szerint az eredmények arra utalnak, hogy a szükségletalapú döntéshozatal ösztönzése – az előre rögzített szerepek helyett – emberibb reakciókat eredményez, ez pedig a mesterséges intelligencia személyiségének komplexitását is előkészítheti.
Ahogyan viszont Chetan Jaiswal, a Quinnipiac Egyetem professzora hangsúlyozzan, egyelőre nem emberi értelemben vett személyiségről beszélünk, hanem sokkal inkább egy mintázatokból álló profilról van szó, amely stiláris adatokból és tendenciákból, valamint jutalmazási mechanizmusokból épül fel. A személyiség ebben az értelemben még könnyen módosítható, újratanítható és befolyásolható.
Peter Norvig informatikus szerint Maslow modelljének alkalmazása logikus, hiszen az MI tudása nagyrészt emberi interakciókról szóló történetekből és szövegekből származik, melyekben a szükségletek és motivációk erősen jelen vannak.

Lehetőség vagy veszély?
A kutatók szerint az önállóan kialakuló mesterséges intelligencia személyiségének kialakulása számos területen hasznosítható lehet, ilyen például a társadalmi jelenségek modellezése, tréning-szimulációk fejlesztése vagy adaptív, kifejezetten emberként funkcionáló videojáték-karakterek létrehozása. Jaiswal szerint ez elmozdulást jelenthet a merev szerepekre épülő MI-rendszerektől a rugalmasabb, motivációalapú működés felé.
Ugyanakkor komoly kockázatok is felmerülnek. Eliezer Yudkowsky és Nate Soares szerint, ha egy cselekvőképes MI rosszul összehangolt célok mentén fejleszt ki személyiséget, annak beláthatatlan következményei lehetnek.
Jelenleg az olyan rendszerek, mint a ChatGPT vagy a Microsoft Copilot, nem irányítanak kritikus infrastruktúrákat, de Jaiswal figyelmeztet: az autonóm, egymással összekapcsolt MI-ügynökök hálózata – különösen, ha manipulációra alkalmas mintázatokon keresztül tanul – veszélyes eszközzé válhat. Norvig szerint már az is komoly kockázatot jelenthet, ha egy chatbot káros cselekedetre sarkall valakit, erre pedig a közelmúltban már egyre több példát látni.
A szakértők egyetértenek abban, hogy a mesterséges intelligencia személyiségének megjelenése önmagában nem egyértelmű probléma, hanem sokkal inkább egy olyan jelenség, amely fokozott tesztelést, és folyamatos monitorozást igényel. Ahogy az MI egyre inkább úgy kommunikál, mint az emberek, úgy nő annak az esélye is, hogy a felhasználók automatikusan elfogadják, és egyáltalán nem fogadják kritikával az általa közölt információkat.
A kutatás következő lépése annak feltárása, milyen közös diskurzusok mentén, milyen irányba folytatódhat mesterséges intelligencia személyiségének kialakulása, az eredmények pedig nemcsak az MI fejlesztését, hanem az emberi társas viselkedés mélyebb megértését is segíthetik.
Amennyiben a mesterséges intelligenciával kapcsolatos további témákban is elmélyednél, ebben a cikkünkben arról írtunk, elpusztíthatja-e az MI a jövőben az emberiséget, míg itt a hírfogyasztásunkra való hatásáról tájékozódhatsz.


