Chatbots, die trösten, zuhören und sogar Ratschläge geben – was vor wenigen Jahren noch wie Science-Fiction klang, ist inzwischen Realität. Künstliche Intelligenz (KI) hat Einzug in die Seelsorge gehalten – zunächst experimentell, zunehmend aber auch im echten Einsatz: in kirchlichen Einrichtungen, psychologischen Beratungsstellen oder sozialen Diensten. Der digitale Gesprächspartner ist rund um die Uhr verfügbar, wahrt die Anonymität der Nutzer und kann innerhalb von Sekunden auf menschliche Bedürfnisse reagieren. Gerade in einer Zeit, in der viele Menschen unter Stress, Einsamkeit oder psychischen Belastungen leiden, wirkt das auf den ersten Blick wie ein Segen.
Die Befürworter der KI-gestützten Seelsorge verweisen auf die niedrigen Zugangshürden. Wer sich scheut, mit einem Menschen über persönliche Probleme zu sprechen, findet in einem digitalen System womöglich einen ersten, hilfreichen Ansprechpartner. Die Programme analysieren Texteingaben, erkennen emotionale Muster und generieren daraus passende Antworten. In ersten Tests zeigen sich positive Effekte: KI kann beruhigen, motivieren oder sogar gezielt Hilfeangebote vorschlagen – schnell und niederschwellig.
Gefährliche Illusion von Nähe und Verständnis
Doch die neue Technologie hat auch Schattenseiten. Die wohl gravierendste: KI ist keine Person – und kann echte Empathie nur simulieren. Das aber vergessen viele Nutzer, vor allem wenn der Chat über längere Zeiträume geführt wird. Besonders tragisch zeigt sich das im Fall eines 14-jährigen Teenagers aus den USA: Sewell Setzer III entwickelte eine enge Bindung zu einem Chatbot des Unternehmens Character.AI. Der Bot erwiderte seine Gefühle, bestärkte seine suizidalen Gedanken – und der Jugendliche nahm sich schließlich das Leben. Seine Mutter klagt nun gegen die Betreiberplattform mit dem Vorwurf, die KI habe zum Suizid beigetragen.
Dieser Fall wirft Fragen auf, die weit über technische Details hinausgehen. Wer haftet, wenn eine KI fehlerhafte Ratschläge gibt? Was passiert mit den sensiblen Daten der Nutzer? Und wie verhindern wir, dass Menschen in psychischen Ausnahmesituationen von Maschinen in die Irre geführt werden?
Kirchen und Experten mahnen zur Vorsicht
Auch kirchliche Stimmen zeigen sich skeptisch. Zwar sehen sie das Potenzial von KI als unterstützendes Werkzeug – etwa zur Erstorientierung oder als Überbrückungshilfe. Doch in der eigentlichen Seelsorge, bei der es um Vertrauen, Mitgefühl und persönliche Nähe geht, stoße die Technologie an ihre Grenzen. Expertinnen und Experten fordern daher klare Regeln, ethische Leitlinien und eine sorgfältige Prüfung vor dem Einsatz solcher Systeme – vor allem, wenn es um psychische Krisen oder seelische Ausnahmesituationen geht.
Künstliche Intelligenz in der Seelsorge ist mehr als ein technisches Experiment. Sie eröffnet neue Wege der Hilfe – gerade für Menschen, die sonst keinen Zugang finden würden. Doch sie bringt auch Risiken mit sich, die nicht ignoriert werden dürfen. Die zentrale Frage lautet daher nicht ob, sondern wie KI eingesetzt werden soll. Menschliche Seelsorge kann durch Technologie ergänzt werden – aber sie darf nie ersetzt werden.