
Egy új tanulmány szerint a mesterséges intelligencia jobban megértheti az érzelmeket, mint mi
Egy nemrég készült tanulmány szerint az általános mesterséges intelligenciamodellek felülmúlták az embereket az érzelmi intelligencia terén, de a szakértők óvatosságra figyelmeztetnek.
A tudósok megállapították, hogy a mesterséges intelligencia jobban megérti az érzelmeket, mint mi – az átlagembernél sokkal jobb eredményt ért el a különböző érzelmileg terhelt helyzetek eloszlatására adott helyes válaszok kiválasztásában.
A Communications Psychology című folyóiratban május 21-én megjelent új tanulmányban a Genfi Egyetem (UNIGE) és a Berni Egyetem (UniBE) tudósai széles körben használt érzelmi intelligencia (EI) teszteket (STEM, STEU, GEMOK-Blends, GECo Regulation és GECo Management) alkalmaztak a gyakori nagy nyelvi modellekre (LLM), köztük a ChatGPT-4, ChatGPT-o1, Gemini 1.5 Flash, Claude 3.5 Haiku, Copilot 365 és DeepSeek V3.
A kutatók két dolgot vizsgáltak: egyrészt a mesterséges intelligencia és az emberi alanyok teljesítményének összehasonlítását, másrészt pedig azt, hogy képesek-e olyan új tesztkérdéseket létrehozni, amelyek megfelelnek az EI-tesztek céljainak.
Korábbi tanulmányokból származó, validált emberi válaszokat tanulmányozva az LLM-ek az érzelmi intelligencia tesztekben az emberi szakértők véleménye alapján 81%-ban választották ki a „helyes” választ, szemben az emberek 56%-ával.
Amikor a ChatGPT-t arra kérték, hogy új tesztkérdéseket készítsen, az emberi értékelők szerint ezek az erőfeszítések egyenértékű nehézség szempontjából megfeleltek az eredeti teszteknek, és tisztázták azt az érzést, hogy nem az eredeti kérdéseket fogalmazzák át. Az AI által generált és az eredeti tesztek közötti korrelációt „erősnek” minősítették, a korrelációs együttható 0,46 volt (ahol az 1,0 a tökéletes korrelációt, a 0 pedig a korreláció hiányát jelenti).
A mesterséges intelligencia veszélyesebb lehet, mint gondoltuk?
Az általános következtetés az volt, hogy a mesterséges intelligencia jobban „megérti” az érzelmeket, mint mi, emberek.
Amikor a Live Science nevű lap több szakértővel is konzultált, a válaszok közös témája az volt, hogy a módszertant szilárdan szem előtt kell tartani. Az általánosan használt EI-tesztek mindegyike feleletválasztós volt – aligha alkalmazható olyan valós forgatókönyvekre, amelyekben nagy a feszültség az emberek között, mutattak rá.
Érdemes megjegyezni, hogy az emberek nem mindig értenek egyet abban, hogy mit érez valaki más, és még a pszichológusok is eltérően értelmezhetik az érzelmi jeleket. Tehát az, hogy egy ilyen teszten »legyőzzük« az embert, nem feltétlenül jelenti azt, hogy a mesterséges intelligencia mélyebb belátással rendelkezik. Azt jelenti, hogy gyakrabban adta meg a statisztikailag várható választ
– mondta Taimur Ijlal pénzügyi ipari és információbiztonsági szakértő.
Más szakértő hozzátette, hogy a tanulmány által vizsgált képesség nem az érzelmi intelligencia, hanem valami más.

A mesterséges intelligencia rendszerek kiválóak a mintafelismerésben, különösen akkor, ha az érzelmi jelzések felismerhető struktúrát követnek, mint például az arckifejezések vagy a nyelvi jelek. De ezt az emberi érzelmek mélyebb »megértésével« egyenlővé tenni azzal a kockázattal jár, hogy túlértékeljük, mit is csinál valójában az AI
– mondta Nauman Jaffar, a mesterséges intelligenciával működő dokumentációs eszköz, a CliniScripts alapítója és vezérigazgatója, amelyet mentális egészségügyi szakemberek számára fejlesztettek ki.
A strukturált, kvantitatív környezetben végzett kvízek – ahelyett, hogy a mélyebb árnyalatokat értékelnék, amelyeket a valódi érzelmi megértés igényel – az AI ragyog, és néhány szakértő rámutatott egy döntő pontra: az AI jobban teljesít az érzelmi helyzetekről szóló teszteken, nem a pillanat hevében – ahogyan az emberek megtapasztalják azokat.
Jason Hennessey, a Hennessy Digital alapítója és vezérigazgatója – aki éveken át elemezte, hogyan dolgozzák fel a kereső és a generatív AI-rendszerek a nyelvet – a vizsgálatot a Reading the Mind in the Eyes teszthez hasonlítja. Ez egy gyakori eszköz az alanyok érzelmi állapotának felmérésére, és az AI ígéretesnek bizonyult. De ahogy Hennessey mondta, amikor az ilyen tesztekben olyan rutinszerű változók, mint a fotó megvilágítása vagy a kulturális kontextus változik, „az AI pontossága meredeken zuhan”.
Összességében a legtöbb szakértő kissé erőltetettnek találta azt az állítást, hogy az AI jobban „megérti” az érzelmeket, mint az ember.
Bizonyíték van azonban arra, hogy bár az AI inkább mintafelismerést használ, mint valódi érzelmi megértést, legalább egy példában felülmúlta az embert az érzelmi állapotok azonosításában és az azokra való reagálásban.
Az Aílton, a több mint 6000 brazil hosszú távú teherautó-vezető által használt beszélgető AI egy multimodális WhatsApp asszisztens, amely hangot, szöveget és képeket használt, és a fejlesztője, Marcos Alves, a HAL-AI vezérigazgatója és vezető tudósa szerint az Aílton körülbelül 80%-os pontossággal azonosítja a stresszt, a dühöt vagy a szomorúságot – körülbelül 20 ponttal az emberi társai felett, mindezt az érzelmi helyzetek kontextusában, ahogy a sofőrök valós időben interakcióba lépnek vele.
Egy esetben az Aílton gyorsan és megfelelően reagált, amikor egy járművezető 15 másodperces hangüzenetet küldött egy kollégája halálos balesete után, árnyalt részvétnyilvánítással válaszolt, mentálhigiénés forrásokat ajánlott fel, és automatikusan értesítette a flotta vezetőit.
Igen, a többszörösen megválaszolható szöveges matricák egyszerűsítik az érzelemfelismerést. A valódi empátia folyamatos és multimodális. De a kognitív réteg elkülönítése hasznos. Kiderül, hogy egy LLM képes-e észrevenni az érzelmi jeleket, mielőtt hozzáadná a szituációs zajt.
– magyarázta Alves, hozzátéve, hogy az LLM-ek azon képessége, hogy több milliárd mondatot és több ezer órányi beszélgetés hanganyagát képesek befogadni, azt jelenti, hogy képesek kódolni a mikrointonációs jeleket, amelyeket az emberek gyakran kihagynak.