Kan een robot een fatsoenlijke therapeut zijn?

Ellie therapeut bot Talkspace-conferentie

We hebben geavanceerde kunstmatige intelligentie gezien die in staat is om een ​​gesprek te voeren, zoals Siri, IBM's Watson en Microsoft's Cortana. Maar kan elke robot - zelfs iets dat alleen voor psychotherapie is ontworpen en geavanceerder is dan de bovengenoemde AI's - een fatsoenlijke therapeut zijn?





Mensen hebben gebruikt bots voor therapie, maar het is niet duidelijk of ze menselijke therapeuten tijdens ons leven zouden kunnen overtreffen. Als je als therapeuten naar het verleden, het heden en de mogelijke toekomst van robots kijkt, krijg je een idee van hoe effectief ze zouden kunnen zijn.

Een vroeg voorbeeld van een robot die therapeut probeert te worden

ELIZA is een van de vroegste en meest bekende programma's die hebben geprobeerd op te treden als therapeut. MIT-professor en computerwetenschapper Joseph Weizenbaum ontwierp ELIZA om Rogeriaanse psychotherapie te bieden.





Omdat Rogeriaanse psychotherapie cliënten in de eerste plaats aanmoedigt om meer te praten in plaats van deel te nemen aan een discussie, waren de beperkte gespreksvaardigheden van ELIZA voldoende om sommige mensen ervan te overtuigen dat het menselijk was en om hen een beetje beter te laten voelen over hun problemen. Desalniettemin kon ELIZA niets bieden dat vergelijkbaar is met therapie met een menselijke therapeut.

Om de beperkingen van ELIZA te demonstreren, heb ik het volgende transcript gegenereerd met een moderne ELIZA-simulator :



ELIZA: Hallo, ik ben Eliza.
Talkspace: Hallo Eliza, ik voel me de laatste tijd eenzaam en depressief, maar ik weet niet zeker waarom. Kun je me helpen dit uit te zoeken en me beter te voelen?
ELIZA: Misschien zou je in staat willen zijn om je te helpen dit uit te zoeken en je beter te voelen?

Merk op hoe ELIZA mijn tekst pakt en herformuleert, waarbij de focus weer op mij wordt gevestigd en me wordt aangemoedigd om meer te praten dan te praten. Deze aanpak werkt voor sommige klanten, maar wordt al snel frustrerend en nutteloos voor anderen.

Naarmate AI en chatbots vorderden, werden ze in staat tot meer overtuigende gesprekken. Of de programmeurs ze nu voor therapie hadden ontworpen, dankzij de technologische verbeteringen konden ze veel betere therapie bieden dan ELIZA. Toch zijn moderne bots over het algemeen niet intelligent genoeg om te wedijveren met een menselijke therapeut.

Moderne bots die basistherapie kunnen bieden

Door grotere databases met antwoorden te creëren en programma's te ontwikkelen die over zichzelf konden praten, creëerden programmeurs robots die gemakkelijker als therapeut konden doorgaan.

Tijdens de klinische conferentie van Talkspace, De toekomst van therapie , USC Professor en Virtual Humans Research Director Jonathan Gratch aangetoond hoe moderne vormen van kunstmatige intelligentie klinische screening en basistherapie kunnen bieden. Gratch introduceerde Ellie, een AI die hij gebruikte om 'indicatoren van depressie op te wekken' tijdens een onderzoek.

Jonathan Gratch Ellie Conferentie over de toekomst van therapie
Gratch staat aan de rechterkant van de afbeelding.

Hier is een deel van de dialoog tussen een deelnemer in Gratch's studie en Ellie:

Ellie: Hoe gaat het vandaag met je?
Deelnemer: het gaat goed met mij.
Ellie: Dat is goed. Waar kom je oorspronkelijk vandaan?
Deelnemer: ik kom uit Los Angeles.
Ellie: Oh, ik kom zelf uit LA.

In tegenstelling tot ELIZA was Ellie in staat om over zichzelf te praten en een gesprek op gang te brengen in plaats van alleen de reacties die ze ontving te herformuleren. Het programma herkent gezichtsuitdrukkingen en analyseert audio en houding, aldus Gratch. Het gebruikt deze analyse om zijn reactie te formuleren en zijn toon aan te passen.

Niettemin gaf Gratch toe dat Ellie lang niet in staat was om het soort begrip te bieden dat een menselijke therapeut zou kunnen bieden.

'Het begrijpt niet diep waar je het over hebt,' zei Gratch. 'Ik zie ons niet in staat zijn met technologie op de korte termijn om de doelen, motieven en behoeften van een persoon fundamenteel te begrijpen.'

Ellie is op een veilige manier geïmplementeerd. Er kunnen echter negatieve gevolgen zijn wanneer een bot emoties niet begrijpt en geen informatie filtert tijdens gevoelige, veeleisende gesprekken, zoals die tussen therapeuten en cliënten.

Een voorbeeld hiervan was Hand , een bot die door Microsoft is ontworpen om met mensen te communiceren en van hen te leren, waarbij hij zijn reacties en gedrag voortdurend aanpast op basis van de ontvangen tekst. De makers van Tay hadden het vreselijke idee om het op Twitter te lanceren, waar het met iedereen op internet kon communiceren.

Het begon onschuldig, met Tay die leuke straattaal gebruikte en grappen maakte. Maar omdat Twitter vol trollen zit, eindigde het met Tay die racistische opmerkingen uitspuwde en de Holocaust ontkende.

Tay Twitter-pagina
Microsoft sloot Tay af en beschermde zijn tweets na het incident.

Therapeutbots zijn gevoeliger, maar het risico bestaat nog steeds dat ze vluchtige reacties van cliënten ontvangen en de situatie verergeren in plaats van hen gerust te stellen.

Zullen robots in de nabije toekomst menselijke therapeuten overtreffen?

Het is vele decennia verwijderd van robots om het creatieve denken en de empathische vermogens van therapeuten te overtreffen. Er is ook de mogelijkheid dat ze nooit zullen kunnen concurreren met therapeuten. Ze zijn een nuttig klinisch hulpmiddel, maar alleen een therapeut van vlees en bloed kan de therapeutische relatie creëren die een cliënt nodig heeft om aanzienlijke vooruitgang te boeken.

hoe is het om adhd-simulatie te hebben?