Presseinformation: Chatbots im Kundenkontakt – ein zweischneidiges Schwert
Nr. 112 - 14.07.2021
Göttinger Forschungsteam untersucht Wirkung nicht-menschlicher Gesprächspartner
(pug) Immer mehr Unternehmen setzen Chatbots im Kundenkontakt ein. Aufgrund der Fortschritte im Bereich der künstlichen Intelligenz und der natürlichen Sprachverarbeitung sind Chatbots in der Kommunikation oft nicht mehr von Menschen zu unterscheiden. Doch sollten Unternehmen ihren Kundinnen und Kunden offenlegen, dass sie mit Maschinen und nicht mit Menschen kommunizieren? Das haben Forscherinnen und Forscher der Universität Göttingen untersucht. Demnach reagieren Konsumentinnen und Konsumenten grundsätzlich eher negativ, wenn sie erfahren, dass ihr Gesprächspartner ein Chatbot ist. Macht der Chatbot allerdings Fehler und kann ein Kundenproblem nicht lösen, löst das Offenlegen eine positive Reaktion hervor. Die Ergebnisse der Studie sind in der Fachzeitschrift Journal of Service Management erschienen.
Bisherige Studien haben gezeigt, dass Konsumentinnen und Konsumenten negativ reagieren, wenn sie erfahren, dass sie mit Chatbots kommunizieren – offenbar gibt es eine grundsätzlich ablehnende Haltung dazu. In zwei Experimentalstudien untersuchten das Göttinger Team, ob dies immer der Fall ist. In Studien mit jeweils 200 Teilnehmerinnen und Teilnehmern wurden diese aufgefordert, sich in die Situation hineinzuversetzen, sie würden ihren Energieanbieter über einen Online-Chat kontaktieren, um ihren Stromvertrag aufgrund eines Umzugs auf die neue Adresse umzumelden. Im Chat begegneten sie einem Chatbot – jedoch wurde nur der Hälfte von ihnen die nicht-menschliche Identität des Gesprächspartners offenbart. In der ersten Studie wurde untersucht, wie sich dieses Offenlegen auswirkt, abhängig davon, wie wichtig der Kunde die Klärung seines Serviceanliegens empfindet. In einer zweiten Studie untersuchte das Team, wie sich das Offenlegen auswirkt – differenziert danach, ob der Chatbot in der Lage war, das Serviceanliegen des Kunden zu klären oder nicht. Um die Wirkungen zu untersuchen, wendete das Team statistische Analysen wie Kovarianz- und Mediationsanalyse an.
Das Ergebnis: Vor allem bei Serviceanliegen, die als besonders wichtig beziehungsweise kritisch empfunden werden, gibt es eine negative Wirkung, wenn transparent gemacht wird, dass der Gesprächspartner ein Chatbot ist. In diesem Fall wird das Vertrauen der Kundinnen und Kunden geschwächt. Interessanterweise zeigen die Ergebnisse jedoch auch, dass die Offenlegung der Chatbot-Identität in Fällen, in denen der Chatbot das Serviceanliegen des Kunden nicht klären kann, zu positiven Kundenreaktionen führt. „In diesen Fehlersituationen erleichtert die Offenlegung der Chatbot-Identität dem Konsumenten die Suche nach der Ursache für den Fehler“, sagt Erstautorin Nika Mozafari von der Universität Göttingen. „Einem Chatbot wird ein Fehler eher verziehen als einem Menschen.“ In diesem Fall kann somit die Kundenbindung sogar gesteigert werden.
Originalveröffentlichung: Mozafari, Nika, Weiger, Welf H. und Hammerschmidt, Maik (2021), "Trust me, I'm a bot – repercussions of chatbot disclosure in different service frontline settings", Journal of Service Management. https://doi.org/10.1108/JOSM-10-2020-0380
Kontakt:
Nika Mozafari, M. Sc.
Georg-August-Universität Göttingen
Professur für Marketing und Innovationsmanagement
Platz der Göttinger Sieben 3, 37073 Göttingen
Telefon: 0551 / 39-39-26546
E-Mail: nika.mozafari@wiwi.uni-goettingen.de