Wetenschapsblog – Een band opbouwen met een AI-coach

dinsdag 27 mei 2025

We maken een sprong in de tijd: stel dat een AI-coach net zo goed in staat is om effectieve coaching aan te bieden als een mens. De AI-coach is gevoed met alles wat we weten over coaching, variërend van welke methodieken effectief zijn tot welke vaardigheden en competenties nodig zijn voor effectieve coaching. Hoe reageren mensen op zo’n virtuele AI-coach? En kunnen mensen een band opbouwen met een dergelijke AI-coach? Met behulp van een doordacht experiment geeft recent onderzoek daarover eerste inzichten.

Eerder onderzoek liet al zien dat coaching chatbots prima in staat zijn om coachees te ondersteunen bij het realiseren van (eenvoudige) doelen. Verder bevindt AI-coaching zich nog in de beginfase. Op dit moment bestaat er bijvoorbeeld nog geen AI-coach die alle vaardigheden, kennis en competenties van een menselijke coach kan nabootsen. Mocht je dus willen weten hoe mensen zouden reageren op zo’n toekomstige AI-coach, dan is dat op dit moment nog lastig te onderzoeken. Toch vond Amber Barger een manier om antwoord te krijgen op deze vraag. Binnen onderzoek naar mens-computer interacties bestaat er namelijk een creatieve manier om te achterhalen hoe mensen reageren op (nog niet bestaande) intelligente systemen. Onderzoekers laten dan een mens het computersysteem bedienen, terwijl de gebruiker denkt dat het om een echt computersysteem gaat. De gebruiker wordt op die manier dus eigenlijk voor de gek gehouden. Deze onderzoeksopzet wordt ook wel de Wizard of Oz techniek genoemd, naar de machtige tovenaar uit de gelijknamige film die uiteindelijk slechts een gewone man achter een gordijn blijkt te zijn.  

Deelnemers aan het onderzoek van Barger dachten dus dat ze met een heuse AI-coach interacteerden in plaats van met een mens. De onderzoeker ontwikkelde hiervoor een slimme opstelling voor de coachgesprekken, waardoor deelnemers in de veronderstelling waren gecoacht te worden door een AI coach. In werkelijkheid werden zij echter gecoacht door een gecertificeerde coach. De coachgesprekken vonden plaats via Zoom. Maar: in plaats van dat de deelnemers op hun scherm de echte verschijning zagen van de coach kregen zij een avatar te zien, vergelijkbaar met wat je zou verwachten in een computerspel. Elke coach kreeg in Zoom (met behulp van een software programma) een eigen avatar die qua uiterlijke kenmerken leek op de desbetreffende coach. De avatar bootste tevens de gezichtsuitdrukkingen van de coach na. De stem van de coaches werd vervormd, en klonk wat “robotachtig”. De helft van de deelnemers aan het onderzoek kreeg tijdens de coaching zo’n avatar te zien, terwijl de andere helft van de deelnemers de daadwerkelijke coaches te zien kreeg op hun scherm. Het enige verschil tussen de twee groepen was dus dat de ene groep dacht gecoacht te worden door een AI-coach en de andere groep door een menselijke coach. De coaches zelf wisten overigens niet of de deelnemers hen als avatar zagen of als zichzelf. Sterker nog, zij wisten niet dat zij in sommige gevallen als avatar te zien waren in plaats van als zichzelf. Op die manier wilde de onderzoeker voorkomen dat de coaches zich anders zouden gedragen tegenover coachees die dachten gecoacht te worden door een AI-coach. 

Er vond via Zoom één coachgesprek plaats volgens een vaste structuur. Deelnemers waren studenten aan een universiteit in de Verenigde Staten die al eens eerder hadden meegedaan aan een leiderschapsprogramma waarin zij ook coaching hadden ontvangen. De onderzoeker verwachtte dat deelnemers die in de veronderstelling waren dat zij gecoacht werden door een AI-coach, een minder sterke band zouden ervaren met hun coach. Zij zagen immers geen echt mens op hun beeldscherm maar een avatar, die bovendien niet klonk als een echt persoon. De resultaten laten echter zien dat de band (ook wel werkalliantie genoemd) niet als minder sterk werd ervaren wanneer deelnemers dachten gecoacht te worden door een AI-coach. In beide groepen beoordeelden de deelnemers de werkalliantie als relatief hoog. Toch houdt de onderzoeker een slag om de arm: Het aantal deelnemers was aan de lage kant (ongeveer 50), waardoor de resultaten met voorzichtigheid moeten worden geïnterpreteerd.  

Ook zou je je kunnen afvragen of deelnemers misschien doorhadden dat zij niet werden gecoacht door een daadwerkelijke AI-coach, maar dat er een mens “achter de schermen” zat. De onderzoeker controleerde dit achteraf met behulp van verschillende vragen. Daaruit bleek echter dat deelnemers het idee hadden dat zij waren gecoacht door een AI-coach. 

Een aantal deelnemers werd na afloop geïnterviewd over hun ervaringen. Sommige deelnemers gaven aan in het begin wat te moeten wennen aan het interacteren met de avatar, maar al snel werden zij hierdoor niet meer afgeleid tijdens het gesprek. Wat opviel was dat coachees die een avatar te zien hadden gekregen tijdens het interview vaker opmerkingen maakten over de demografische kenmerken van deze avatar. Zo vroeg één van de deelnemers zich af waarom zij als zwarte vrouw gecoacht werd door een witte man met een bepaald accent. Dit soort opmerkingen zouden erop kunnen wijzen dat het personaliseren van een avatar voor een grotere tevredenheid zou kunnen leiden bij coachees. Verschillende deelnemers gaven inderdaad aan dat zij in de toekomst graag zelf de kenmerken van hun avatar zouden willen kiezen. Wat verder opviel in de interviews was dat deelnemers die dachten gecoacht te worden door de AI-coach positief verrast waren door de emotionele reacties van hun coach. Ook gaven sommigen aan dat zij zich veiliger voelden bij hun AI coach dan bij de menselijke coach door wie zij eerder werden gecoacht. 

De studie van Barger geeft eerste aanwijzingen dat het voor coachees geen probleem hoeft te zijn om gecoacht te worden door een niet-menselijke coach. Het lijkt er dus op dat mensen bereid zijn om zich te laten coachen door een AI-coach. Ook geeft deze studie aanwijzingen dat het personaliseren van zo’n toekomstige AI-coach gunstig zou kunnen zijn. Naar aanleiding van de resultaten raadt de onderzoeker beroepsorganisaties aan om zich actief bezig te (blijven) houden met het bieden van handvaten en richtlijnen voor het gebruik van AI binnen coaching. Daarnaast raadt zij opleiders aan om aandacht te besteden aan onder andere AI geletterdheid in hun trainingsaanbod voor coaches. Professionele coaches raadt zij tot slot aan om zichzelf goed te blijven verdiepen in ontwikkelingen op het gebied van AI. 
 

Wetenschapsblog

Gebruikte bronnen

Barger, A. S. (2025). Artificial intelligence vs. human coaches: examining the development of working alliance in a single session. Frontiers in Psychology, 15, 1364054.

Over Eefje

Dr. Eefje Rondeel (1982) is docent psychologie aan de Open Universiteit. Vanuit NOBCO is ze als co-promotor betrokken bij het dissertatieonderzoek naar effectieve bestanddelen van coaching. Samen met sociaal psycholoog Pieternel Dijkstra schreef ze het boek Evidence-based Coachen. Haar meest recente boek “Zin en Onzin over Coaching”, dat ze schreef met Master Practitioner coach en supervisor Aveline Dijkman, verscheen afgelopen jaar.