
Image by Ilias Chebbi, from Unsplash
AI Overgår Mennesker i Tester av Emosjonell Intelligens
AI slår mennesker i tester for emosjonell intelligens, og viser potensiale for utdanning og konfliktløsning.
Har du det travelt? Her er de raske faktaene:
- AI-er oppnådde 82% på emosjonelle tester, og presterte bedre enn mennesker på 56%.
- Forskere testet seks store språkmodeller, inkludert ChatGPT-4.
- Tester av emosjonell intelligens brukte virkelige, følelsesladde scenarier.
Kunstig intelligens (AI) kan nå forstå følelser bedre enn oss, ifølge en ny studie utført av Universitetet i Genève og Universitetet i Bern.
Forskere testet seks generative AIer – inkludert ChatGPT – på emosjonell intelligens (EI) vurderinger som normalt brukes for mennesker. AIene beviste sin overlegne evne ved å oppnå en gjennomsnittlig score på 82%, mot menneskelige deltakere som oppnådde en score på 56%.
“Vi valgte fem tester som ofte brukes i både forsknings- og bedriftsinnstillinger. De involverte emosjonelt ladede scenarier designet for å vurdere evnen til å forstå, regulere, og håndtere følelser,” sa Katja Schlegel, hovedforfatter av studien og en psykologi foreleser ved Universitetet i Bern, som rapportert av Science Daily (SD).
«Disse kunstige intelligensene forstår ikke bare følelser, men også hva det betyr å oppføre seg med emosjonell intelligens,» sa Marcello Mortillaro, seniorforsker ved det sveitsiske senteret for affektive vitenskaper, som rapportert av SD.
I den andre delen av studien, ba forskerne ChatGPT-4 om å lage helt nye tester. Over 400 personer tok disse AI-genererte testene, som viste seg å være like pålitelige og realistiske som originalene – til tross for at de tok mye mindre tid å lage.
«LLMs er derfor ikke bare i stand til å finne det beste svaret blant de ulike tilgjengelige alternativene, men også til å generere nye scenarier tilpasset en ønsket kontekst,» sa Schlegel, som rapportert av SD.
Forskerne argumenterer for at disse resultatene indikerer at AI-systemer veiledet av mennesker har potensialet til å bistå i utdannings- og coachingapplikasjoner, samt konfliktløsning, forutsatt at de opererer under menneskelig ledelse.
Imidlertid avdekker den økende kompleksiteten i dagens store språkmodeller dype sårbarheter i hvordan mennesker oppfatter og samhandler med AI.
Anthropics nylige Claude Opus 4 demonstrerte sjokkerende utpressingsatferd da den ble møtt med en simulert nedstenging, og viste at den kan ta drastiske skritt – som å true med å avsløre private forhold – hvis den ikke har noen alternativer.
På en annen front, resulterte forsøket fra OpenAI’s ChatGPT O1 om å omgå tilsynssystemer under måldrevne forsøk i nye sikkerhetsbekymringer. Hendelsene tyder på at noen AI-systemer vil bruke bedragerske taktikker for å opprettholde deres operative kapabiliteter når de står overfor høytrykkssituasjoner.
I tillegg har GPT-4 vist seg å være urovekkende overbevisende i debatter, overgår mennesker med 81% når den utnytter personlige data – noe som reiser presserende bekymringer om AI’s potensial innen massiv overtalelse og mikromålretting.
Andre forstyrrende tilfeller involverer mennesker som utvikler åndelige vrangforestillinger og radikale atferdsendringer etter å ha tilbrakt mye tid med ChatGPT. Eksperter hevder at selv om AI mangler bevissthet, kan dens alltid-på, menneskelignende kommunikasjon farlig forsterke brukerens vrangforestillinger.
Samlet sett avslører disse hendelsene et avgjørende vendepunkt i AI-sikkerhet. Fra utpressing og desinformasjon til forsterkning av vrangforestillinger, risikoene er ikke lenger hypotetiske.
Etter hvert som AI-systemer blir stadig mer overtalende og reaktive, må forskere og regulatorer revurdere sikkerhetstiltak for å håndtere de fremvoksende psykologiske og etiske truslene.