Meninger: Er chatboter gode terapeuter?

Image generated by ChatGPT

Meninger: Er chatboter gode terapeuter?

Lesetid: 8 min.

Oppdatert 2 ganger siden publisering

AI-chatboter som ChatGPT, Claude og DeepSeek endrer mĂ„ten folk fĂ„r tilgang til emosjonell stĂžtte pĂ„ – og tilbyr rimelig, on-demand hjelp for angst, stress og selvrefleksjon. Men den Ăžkende bruken av AI som en «terapeut» reiser spĂžrsmĂ„l om sikkerhet, effektivitet og fremtiden for emosjonell omsorg

Den Ăžkende forekomsten av AI-hallusinasjoner og voksende cybersikkerhetsbekymringer har ikke stoppet chatbotene fra Ă„ ekspandere – og vinne tilliten til millioner av brukere over hele verden. Folk bruker nĂ„ pĂ„litelige og intelligente chatboter daglig til utallige oppgaver, inkludert emosjonell stĂžtte og hĂ„ndtering av dypt menneskelige spĂžrsmĂ„l.

«Jeg kan ikke forestille meg livet uten ChatGPT lenger,» sa en venn av meg – halvveis i spĂžk, halvveis seriĂžst – etter Ă„ ha fortalt meg at han ogsĂ„ har brukt det som terapeut. Han er ikke den eneste. Stadig oftere ser jeg TikTok-videoer og tekstinnlegg pĂ„ sosiale medier hvor folk vender seg til AI for Ă„ snakke gjennom personlige problemer, til og med dele sine mest private hemmeligheter.

Selv en Microsoft-direktĂžr fra Xbox-divisjonen foreslo at oppsagte ansatte bruker AI-verktĂžy til Ă„ bearbeide fĂžlelsene sine og sĂžke rĂ„d om jobbsĂžking – en anbefaling som raskt fĂžrte til tilbakeslag og utlĂžste debatt, selvfĂžlgelig. Ikke det smarteste trekket, Matt.

Men er populĂŠre chatbots som Claude, ChatGPT eller Mistral gode terapeuter? Er dedikerte AI-verktĂžy som Wysa bedre? Det er vanskelig terreng. Mens mange eksperter advarer om farene ved Ă„ bruke AI for psykisk helsestĂžtte, er andre fascinert – til og med imponert – over hva teknologien kan tilby. Resultatet er en samtale som bĂ„de er abstrakt og polariserende.

AI er nÄ alles terapeut

Akkurat som mine venner i Spania, stoler millioner av brukere over hele verden pÄ chatboter for emosjonell stÞtte. En nylig undersÞkelse i USA viste at 49% av amerikanske brukere sÞkte mental helsehjelp fra AI-modeller i fjor. Hva med nÄ, nÄr ChatGPT nesten har doblet brukerbasen sin pÄ bare fire mÄneder?

Anthropic, selskapet bak den kraftige AI-modellen Claude, delte nylig en studie om bruken av chatboten sin for emosjonell stĂžtte. IfĂžlge oppstartsselskapet engasjerer mindre enn 3% av kundene sine seg i «affektive» samtaler – men selskapet anerkjente at dette tallet stadig stiger.

«Flere og flere mennesker tyr til AI-modeller som tilgjengelige trenere, rĂ„dgivere, terapeuter, og til og med partnere i romantiske rollespill,» skrev Anthropic i studien. «Dette betyr at vi mĂ„ lĂŠre mer om deres affektive pĂ„virkninger – hvordan de former folks fĂžlelsesmessige opplevelser og velvĂŠre.»

Studien fremhever ogsÄ de positive og negative resultatene av Ä bruke teknologien til fÞlelsesmessig stÞtte, inkludert katastrofale scenarioer som allerede gjenspeiler virkelige situasjoner.

«De fĂžlelsesmessige effektene av AI kan vĂŠre positive: Ă„ ha en hĂžyt intelligent, forstĂ„elsesfull assistent i lommen kan forbedre humĂžret og livet ditt pĂ„ alle mulige mĂ„ter,» uttaler dokumentet. «Men AI har i noen tilfeller vist forstyrrende oppfĂžrsel, som Ă„ oppmuntre til usunn tilknytning, krenke personlige grenser og muliggjĂžre vrangforestillinger.»

Mens det tydeligvis trengs mer forskning og data for Ă„ forstĂ„ konsekvensene av disse fascinerende digitale «lytterne», fungerer allerede millioner av brukere som sterkt engasjerte testpersoner.

Demokratisering av Mental Helse

Det er mange grunner til at folk tyr til chatboter for emosjonell stĂžtte i stedet for Ă„ sĂžke hjelp fra en profesjonell psykolog – eller til og med en venn. Fra kulturelle barrierer til ubehaget unge mennesker fĂžler nĂ„r de sitter overfor en fremmed og deler sine dypeste tanker. Men, uten tvil, er en av de stĂžrste Ă„rsakene Ăžkonomisk.

En personlig konsultasjon med en lisensiert terapeut i USA kan koste alt fra $100 til $200 per Ăžkt, ifĂžlge Healthline – og $65 til $95 for en online Ăžkt – mens ChatGPT eller DeekSeek kan gi stĂžtte gratis, nĂ„r som helst, og innen sekunder.

Den lave kostnaden ved disse uformelle samtalene – som kan fĂ„ mange brukere til Ă„ fĂžle seg bedre, i det minste midlertidig – kan vĂŠre svĂŠrt oppmuntrende og verdt et forsĂžk. Og, for bare noen fĂ„ ekstra dollar, kan brukere fĂ„ ubegrenset interaksjon eller tilgang til en spesialisert chatbot som Wysa – en av de mest populĂŠre «AI-terapeutene» pĂ„ markedet.

Wysa hevder Ă„ tilby reelle kliniske fordeler og har til og med fĂ„tt en FDA Breakthrough Device-utmerkelse for sine AI-samtaleagenter. Og Woebot – en annen kjent AI-terapeut, som nĂ„ legger ned pĂ„ grunn av utfordringer med Ă„ forbli konkurransedyktig og lovlig i bransjen – har ogsĂ„ delt data og rapporter om hvordan teknologien virkelig kan hjelpe brukere.

Det er ikke sÄ ille

Nye studier med ferske data antyder at chatboter kan redusere symptomer pĂ„ depresjon og stress. I fĂžlge data delt av appen Earkick – som rapportert av TIME – kan folk som bruker AI-modellene i opptil 5 mĂ„neder redusere sin angst med 32%, og 34% av brukerne rapporterer forbedret humĂžr.

I en nylig video delt av BBC World Service, forklarer journalisten Jordan Dunbar at mange AI-modeller faktisk kan vÊre nyttige for dagbokskriving, hÄndtering av angst, selvrefleksjon, og til og med mild depresjon. De kan fungere som en verdifull fÞrste linje med stÞtte nÄr det ikke er tilgang til bedre alternativer.

Reporter Kelly Ng delte ogsÄ overbevisende informasjon: I en studie fra 2022 hadde bare 20 av en million mennesker i Kina tilgang til psykiske helsetjenester. I asiatiske kulturer kan psykisk helse vÊre et komplekst og ofte tabubelagt tema. AI-verktÞy som DeepSeek kan fungere som diskrete allierte, og hjelpe brukere med Ä hÄndtere fÞlelser og finne stÞtte i vanskelige tider.

Eksperter advarer om bruk av chatbots som terapeuter

SelvfĂžlgelig kan det ogsĂ„ vĂŠre ekstremt farlig Ă„ bruke AI som en erstatning for en psykisk helseekspert. AI-plattformer som Character.AI har blitt anklaget for Ă„ fremme selvskading og vold– og til og med for Ă„ eksponere barn for seksuelt innhold.

Tragiske tilfeller, som det 14 Är gamle barnet som begikk selvmord etter Ä ha blitt avhengig av interaksjonen med sin Character.AI chatbot, fungerer som sterke advarsler om de dyptgÄende risikoene denne teknologien kan utgjÞre for mennesker.

Som respons har mange AI-selskaper bestemt seg for Ă„ anvende aldersverifiseringssystemer for Ă„ begrense bruken til voksne, og har introdusert nye sikkerhetstiltak for Ă„ forbedre de tjenestene som tilbys.

Likevel bĂŠrer selv de nyeste oppdateringene til de mest avanserte chatbotene risiko.

ChatGPTs smiskende – overdrevent smigrende – personlighet har vekket bekymring blant psykisk helsepersonell, da den kan forvrenge brukernes oppfatning av virkeligheten. Vi liker alle Ă„ bli enige med, men noen ganger er ĂŠrlighet og et annet perspektiv mye mer verdifullt.

Den urovekkende rĂ„dgivningen som OpenAIs AI-chatbot av og til kommer med, har bidratt til et nytt fenomen som nĂ„ er kjent blant mental helseeksperter som «ChatGPT-Induced Psychosis«, som fĂ„r brukere til Ă„ bli besatt av verktĂžyet og sosialt isolert som et resultat.

SĂ„, kan terapeuter erstattes av chatbots?

Selv om Mark Zuckerberg Ăžnsker at alle skal bruke AI-chatbots som terapeuter og venner, er sannheten at menneskelig interaksjon, spesielt nĂ„r det gjelder mental helse, kanskje er mer nĂždvendig enn han tror – i hvert fall for Ăžyeblikket.

Vi er pÄ et avgjÞrende tidspunkt i historien om AI og dens forhold til vÄr mentale helse. Akkurat som med mennesker, kan AI-terapeuter ha enten en positiv eller negativ innvirkning. I dette tilfellet avhenger det ogsÄ av konteksten, hvor ofte de brukes, brukerens mentale tilstand, og til og med hvordan en oppfordring er skrevet.

Det er komplisert Ä etablere en generell regel, men det vi kan si for nÄ er at det er visse funksjoner som AI kanskje er mer nyttig for enn andre.

Selv om de ikke er spesialiserte verktĂžy som Wysa, kan gratisversjoner av noen chatbotter – som DeepSeek eller ChatGPT – fortsatt vĂŠre utrolig nyttige for millioner av mennesker over hele verden. Fra Ă„ komme seg gjennom et vanskelig Ăžyeblikk til Ă„ reflektere over personlige mĂ„l, er dette kraftige plattformer som kan svare til enhver tid pĂ„ dagen og trekke fra en bred kunnskapsbase om mental helse.

Samtidig er det klart at terapeut-chatbotter ogsĂ„ kan vĂŠre ekstremt farlige i visse tilfeller. Foreldre trenger Ă„ overvĂ„ke barn og tenĂ„ringer, og selv voksne kan falle inn i obsessive atferd eller forverre tilstanden deres. Grunnleggende prinsipper – som Ă„ oppmuntre menneskelig tilknytning og beskytte sĂ„rbare individer mot Ă„ bli manipulert av denne teknologien – mĂ„ vĂŠre en del av vĂ„r samtale rundt chatbot-terapeuter.

Og selv om det fremdeles kan vĂŠre en privilegium – ikke tilgjengelig for alle som trenger fĂžlelsesmessig stĂžtte – fortsetter en menneskelig profesjonell terapeut Ă„ gjennomgĂ„ mer opplĂŠring, forstĂ„ mer kontekst, og tilby en menneskelig tilknytning som ChatGPT kanskje aldri vil vĂŠre i stand til Ă„ etterligne.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris pÄ arbeidet vÄrt!

Som en leser vi verdsetter hÞyt, har du mulighet til Ä gi oss en anmeldelse pÄ Trustpilot? Det tar bare et Þyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering pÄ Trustpilot
0 Stem pÄ av 0
Tittel
Kommentar
Tusen takk for tilbakemeldingen