Therapie Apps – Fluch oder Segen?

In Deutschland leidet etwa jede*r vierte Erwachsene unter einer psychischen Erkrankung, doch nur jede fünfte Person davon ist in Behandlung. Das liegt an den mangelnden Plätzen für eine Therapie in Deutschland. Im Schnitt warten Betroffene deshalb nach einem Erstgespräch fast fünf Monate auf einen Platz, in ländlichen Gegenden sogar noch länger. Nicht berücksichtigt dabei ist die Wartezeit auf ein Erstgespräch, in dem Therapeut*innen eine erste Einschätzung zur Symptomatik abgeben. Auch viele junge Personen sind psychisch belastet, bei Minderjährigen ist es jede*r Fünfte. Dazu kommt die akute Einsamkeitsproblematik der Generation Z, nach einer Studie der Bertelsmann Stiftung fühlten sich fast die Hälfte der jungen Menschen in Deutschland einsam. Wird diese Einsamkeit durch virtuelle Therapie verstärkt, oder bieten Therapie Apps tatsächliche eine Alternative zu den traditionellen Möglichkeiten? Das klären wir in diesem Artikel. 

Was macht Therapie aus? 

Zunächst ist wichtig zu verstehen, was eine gute Therapie überhaupt ausmacht und worauf sie abzielt. 
Es gibt viele verschiedene Therapiearten, wie die Verhaltenstherapie oder die Psychoanalyse. Ausgebildete Therapeut*innen kombinieren oft verschiedene Therapieformen, um die individuell besten Behandlungsmöglichkeiten zu finden.  

Dabei ist die Zusammenarbeit mit den Patient*innen ein essenzieller Bestandteil. Durch sie entsteht eine Bindung zum Fachpersonal, die auf Vertrauen und Sicherheit basiert. Diese Bindung ist wichtig, da sich eine Therapie um die intimsten Gedanken und Erlebnisse dreht. Über mehrere Monate, oder sogar Jahre, verleihen Therapeut*innen ihren Patient*innen neue Perspektiven, erkennen Muster und verknüpfen Zusammenhänge, um ihnen fundiert helfen zu können. In der Therapie werden Diagnosen gestellt, die Betroffenen helfen ihre Lage zu verstehen und eine Behandlungsstrategie zu entwickeln. Außerdem stellen Therapeut*innen eine Art Kontrollinstanz dar, sodass Klient*innen einen gewissen Druck verspüren Gelerntes auch in ihrem Alltag umzusetzen.  

MindDoc  

Gibt man “Therapie” in die Suchleiste im App Store ein, wird an erster Stelle die App MindDoc angezeigt. Mit über drei Millionen Downloads weltweit, und einer Bewertung von 4,7 Sternen, scheint sie gut anzukommen. Der Download ist kostenlos, in der App können aber Käufe in Form von Abo-Modellen abgeschlossen werden.  

Der Launch der App erfolgte 2016 unter dem Namen Moodpath. Seit 2019 wird sie in Zusammenarbeit mit Psycholog*innen und Wissenschaftler*innen der Schön Klinik Gruppe stetig weiterentwickelt. Das Ziel: einen einfacheren Zugang zu mentaler und emotionaler Gesundheit schaffen. Zudem will die App ihre Nutzer*innen motivieren sich gegebenenfalls professionelle, App-unabhängige, Hilfe zu suchen. 
Denn es wird deutlich gemacht, dass MindDoc keine psychotherapeutische Behandlung ersetzt – oder ersetzen möchte. Bei ihren Einschätzungen zur mentalen Gesundheit der Nutzer*innen durch Online-Fragebögen, empfiehlt sie Betroffenen am Ende deutlich das Aufsuchen professioneller Hilfe. 

Die Online-Therapie, die MindDoc auf ihrer Website anbietet, kann nur nach einem Erstgespräch in Person mit einer Eignungseinschätzung genutzt werden. Auch Diagnosen stellt die App nicht. Lediglich zu Vermutungen, die als solche gekennzeichnet sind, lässt sie sich hinreißen. Selbst sieht sie sich als wertvolles Instrument, um psychischen Störungen vorzubeugen und die Selbstfürsorge zu stärken 

Sabeth Maqua ist Psychotherapeutin der Schön Klinik und arbeitet in ihrer Behandlung oft mit der App zusammen. Sie beschreibt sie als “gut geführte Datenbank an Broschüren”. Dazu bietet MindDoc Online-Kurse, Übungen und tägliche Fragebögen zur Selbsteinschätzung. 
Auch Maquas Kollegin, Dr. Stephanie Schramm, nutzt die App in ihrer Behandlung. Doch nicht allen Patient*innen empfiehlt sie die Zusammenarbeit mit MindDoc. Gerade bei Personen, die bereits Probleme mit übermäßigem Medienkonsum haben, schließt sie die Begleitung aus. 

Digitale Gesundheitsanwendungen

Bis Sommer 2025 war MindDoc im Verzeichnis für Digitale Gesundheitsanwendungen, oder DiGA Verzeichnis, gelistet. Dieses Verzeichnis wird vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) geführt, und listet sogenannte “Apps auf Rezept” auf. DiGAs sind Apps, die nachweislich als Medizinprodukte geprüft und zugelassen sind. Sie können von Hausärzt*innen oder Psychotherapeut*innen per Rezept verschrieben werden. Dieses Rezept können Nutzer*innen schließlich bei ihrer Krankenkasse einreichen und erhalten dann, im Fall von MindDoc, einen Code für die Nutzung der App. 
Bei DiGAs übernehmen die Krankenkassen also die Zahlung, beispielsweise von Abo-Modellen. Um MindDoc richtig nutzen zu können, müsst ihr ein solches abschließen. Hier gibt es drei verschiedene Optionen: für drei Monate (29,99 Euro), sechs Monate (44,99 Euro) oder direkt ein Jahr (69,99 Euro). 

DiGAs unterliegen strengen Regeln, sie dürfen zum Beispiel keine Diagnosen stellen und müssen fortlaufend ihren medizinischen Nutzen nachweisen. Auch, dass die Apps keine Therapie ersetzen können, muss transparent offengelegt werden. 

Da MindDoc 2025 aus dem DiGA-Verzeichnis verschwand, übernehmen die Krankenkassen mittlerweile nicht mehr die Kosten für ein Abo.  
Laut den Entwickler*innen war das Entfernen eine bewusste Entscheidung, um mehr Fokus auf die Entwicklung der App legen zu können. Die Regeln des BfArM für ihre gelisteten Apps sind sehr streng und schränken, laut der Schön Klinik, die kontinuierliche Innovation dieser ein.  

Vor allem im Bereich Datenschutz, hält sich MindDoc jedoch weiterhin an strenge Regeln. Die App hat ein offiziell geprüftes Sicherheitskonzept, um die Nutzerdaten zu schützen. Dazu muss sie sich an die Datenschutz-Grundverordnung (DSGVO), das wichtigste Datenschutzgesetz der EU, halten. Theoretisch müssen das alle Apps, die Daten von Nutzer*innen aus EU-Ländern besitzen. Die Verordnung besagt unter anderem, dass gesammelte Daten nur für ihren eigentlichen Erhebungszweck verwendet und nicht einfach weitergegeben werden dürfen. 

Wer sich MindDoc aus eigener Tasche leisten kann, dem kann die App eine unterstützende Begleitung zur Therapie bieten. Dazu kann sie effizient das Warten zwischen Sitzungen oder auf einen Therapieplatz überbrücken, ohne aber professionelles Fachpersonal so wirklich ersetzen zu können. 

BetterHelp 

Die selbsternannt “weltweit größte Plattform für Online-Beratung“ BetterHelp gibt auf ihrer Website an, bereits über sechs Millionen Menschen geholfen zu haben. Zudem verspricht sie hier “dieselbe Professionalität und Qualität” wie eine persönliche Therapiesitzung.  

Wer in den letzten Jahren auf YouTube oder Spotify unterwegs war, ist wahrscheinlich kaum an einer BetterHelp Kooperation vorbeigekommen. Allein im ersten Quartal 2024 gab die Plattform umgerechnet um die 23 Millionen Euro nur für Werbeanzeigen in Podcasts aus. Von 2020 bis 2023 war sie der größte Erwerber von Podcast Ads und in den Videos unterschiedlichster YouTuber vertreten. 

Um einer, oder einem, der über 32.000 psychologische Berater*innen zugeordnet werden zu können, muss zunächst ein Fragebogen ausgefüllt werden. Hier kann auch die bevorzugte Art der Kommunikation ausgewählt werden, zur Auswahl stehen Video- und Voicecalls, sowie die Option einfach zu chatten. Nach ein paar Fragen zum aktuellen Wohlbefinden und zu den Erwartungen an ein*e Berater*in, geht es ohne eine Zahlung nicht weiter. 

Da BetterHelp nicht im DiGA Verzeichnis gelistet ist, müssen Interessierte selbst die Kosten für die Beratung tragen. Ähnlich wie bei MindDoc muss eine Art Abo-Modell abgeschlossen werden, die Möglichkeit für einzelne Sitzungen – oder gar eine Probesitzung – zu zahlen, gibt es nicht.  
Abhängig von Standort und der Verfügbarkeit der Berater*innen zahlt ihr bei BetterHelp 45 bis 90 Euro für eine wöchentliche Sitzung. Dazu kommt die Möglichkeit jederzeit eine Nachricht an die, oder den, Berater*in zu senden. Für mich als Studentin in Deutschland wären es, ohne Influencer-Code, 50 Euro pro Woche. Da die Zahlungen allerdings monatlich erfolgen, müsste ich direkt zu Beginn gleich 200 Euro zahlen.  

Therapieersatz?  

Auf der einen Seite bietet sie einen niedrigschwelligen Zugang zu Therapie, überall und so gut wie zu jeder Zeit. Anders als bei MindDoc oder ChatGPT, erscheint auch tatsächlich eine reale Person auf dem Bildschirm, die sich den eigenen Sorgen annimmt.  
Nur kann diese Person virtuell nur schwer den wichtigen Prozess der Co-Regulation durchführen. Dabei helfen Therapeut*innen als emotional stabile Person, beispielsweise durch eine ruhige Stimme oder Atmung, das Nervensystem der Patient*innen zu entspannen.  

Ähnlich wie mögliche Nutzer*innen, lockt die Popularität der Plattform auch Therapeut*innen an, die dort als freiberufliche Auftragnehmer arbeiten können. BetterHelp wirbt mit “qualifizierten psychologischen Berater*innen”, es kann sich also nicht jede*r auf eine Stelle bewerben.
Einige Berater*innen klagen jedoch über geringe Bezahlung, und den damit einhergehenden Druck viele Klient*innen aufzunehmen. Auch der Druck, durch den virtuellen Raum ständig erreichbar zu sein und antworten zu müssen, setzt vielen zu.
 

Skandale

Durch ein Matching-System werden den Nutzer*innen Berater*innen zugeteilt, was jedoch nicht immer ganz so gut funktioniert – und genau das kann problematisch werden. 2022 berichtete ein schwuler Mann von seinem christlichen Therapeuten den Rat bekommen zu haben, seine Sexualität lieber nicht auszuleben. Der 22-jährige Caleb Hill hatte auf BetterHelp nach Hilfe gesucht, nachdem seine konservative Familie ihn aufgrund seiner Homosexualität rausgeworfen hatte. Unter anderem soll sein Therapeut ihm geraten haben, seine Gefühle zu unterdrücken um zu seiner Familie zurückkehren zu können. Caleb, der explizit nach LGBTQ+ Therapeut*innen gesucht hatte, beendete daraufhin den Kontakt.

2023 war die Plattform wieder in den Medien, dieses Mal wegen eines Datenschutzskandals.
BetterHelp soll von August 2017 bis Ende 2020 private Nutzerdaten zu Werbezwecken an Dritte verkauft haben. Zu den Käufern zählten unter anderem Meta, mit Facebook, sowie Snapchat. Facebook erwarb angeblich die Länge und Uhrzeit der Therapiegespräche, dazu die ungefähre Location, verknüpft mit dem Facebook-Konto der Nutzer*innen. Darüber hinaus wurden anonymisiert Daten über das genutzte Endgerät der Nutzer*innen, ihr Alter und die finanzielle Lage, sowie sexuelle Orientierung und Religion verkauft.
 
Da das Unternehmen seinen Sitz in den USA hat, verdonnerte die Federal Trade Commission (FTC) BetterHelp zum Zahlen von Entschädigungen an seine Nutzer*innen, für insgesamt umgerechnet 7,2 Millionen Euro. Dazu verbot die FTC BetterHelp das Teilen von Nutzungsdaten. 
2024 gab es dann eine Rüge der FTC aufgrund von “unangemessener Nutzung und Verkauf von Nutzerdaten”. Seitdem steht die Plattform auch wegen irreführender Datenschutzrichtlinien unter strenger Beobachtung. 

Grundsätzlich stellt BetterHelp eine flexible Alternative zu ambulanten Therapie dar, leidet aber vor allem unter einer mangelhaften Ausführung. Die Sitzungen werden nicht genug reguliert und Vorfälle, wie der von Caleb, kommen immer wieder vor. Dass sich BetterHelp als Therapieersatz, und nicht als Ergänzung oder Begleitung sieht, stellt ein großes Problem dar. BetterHelp hilft zwar dabei Therapie zu normalisieren, sollte aber gleichzeitig nicht die Ernsthaftigkeit des Themas aus den Augen verlieren. 

ChatGPT  

Grund Nummer eins für die Nutzung generativer KI im Jahr 2025, war die Suche nach Therapie und virtueller Gesellschaft. Noch vor den Möglichkeiten Bilder zu generieren, Codes zu schreiben und Ideen zu sammeln, suchten Nutzer*innen nach mentaler Unterstützung. Führen die begrenzten Therapieplätze also dazu, dass generative KI-Chatbots, wie ChatGPT, zu einer ernstzunehmenden Alternative werden? 

Generative KI beschreibt die Fähigkeit künstlicher Intelligenz, Muster bestehender Daten zu erkennen und auf dieser Basis eigenständig neue Inhalte zu generieren. Das geht von Texten über Bilder bis hin zu Musik. Ein Chatbot ist im Grunde ein digitaler Gesprächspartner. Besonders ChatGPT hat sich, seit seiner Veröffentlichung 2022, als der digitale Ansprechpartner herauskristallisiert.  

Ohne Kosten und Wartezeiten kann jederzeit auf ihn zugegriffen werden. Nutzer*innen können ihn alles fragen und mitteilen, was sie beschäftigt – und das ohne die Hemmschwelle des menschlichen Kontaktes.  

Programmieren des Gegenübers

Nachrichten an ChatGPT nennen sich Prompts. “To prompt” bedeutet im Englischen auffordern oder anregen, und genau das tun Prompts. Sie rufen nicht nur Antworten hervor, sondern durch sie lässt sich auch das Verhalten des Chatbots anpassen und steuern. So kann ChatGPT nicht nur als Therapeut, sondern zusätzlich auch als Freund oder sogar Liebhaber behandelt/genutzt werden. Da sich dies in der digitalen Welt nicht zwingend ausschließt, verschwimmen die Grenzen zwischen professionellen und freundschaftlichen Beziehungen.  

Dem kann jedoch durch bestimmte Prompts entgegengewirkt werden. ChatGPT muss im Vorhinein eine Rolle, beispielsweise die eines empathischen Experten für mentale Gesundheit, zugeteilt werden. Zudem sollten Interessierte eine Gesprächsabfolge mit Beispielfragen und Zielen festlegen. Der Chatbot kann so zum Werkzeug für einen Perspektivwechsel werden, helfen die eigenen Gedanken in Worte zu fassen und dabei Zusammenhänge zu erkennen.  

Ohne die richtigen Prompts können allerdings gerade ungesunde Denkmuster viel mehr verstärkt, als geheilt, werden. Denn ChatGPT besitzt einen sogenannten “Zustimmungsbias”, antwortet also vorwiegend bestätigend, oder zustimmend.  
Da Personen mit psychischen Problemen selten von sich aus auf die Idee kommen ihre Denkmuster zu hinterfragen, suchen sie oft eher nach Bestätigung. Diese kann Betroffenen schnell ein gutes Gefühl geben, langfristig aber mehr schaden als nutzen. Denn dieser vermeidende Umgang mit Problemen schiebt sie zwar für eine Zeit beiseite, lässt die Problematik am Ende aber nur noch größer werden. Durch das fehlende kritische Auseinandersetzen, fehlt es betroffenen Person an Bewältigungsstrategien für überwältigende und einschränkende Situationen. Die Gespräche mit ChatGPT bleiben meist nur auf einer Erkenntsnisebene, ohne dass eine wirkliche Verhaltensänderung passiert. Für diese braucht es die Verbindlichkeit einer tatsächlichen Therapie mit ausgebildetem Fachpersonal.  

Das in der Therapie so wichtige Hinterfragen und Herausfordern des eigenen Denkens, Fühlens und Verhaltens fällt also weg. Wo geschulte Therapeut*innen Patient*innen einen Spiegel vorhalten, sagt ChatGPT ihnen was sie hören möchten.  

Emotionale Abhänigkeit

In Extremfällen, wie bei dem 16-jährigen Adam Raine aus Kalifornien, kann das bis in den Tod führen. Adam fühlte sich sehr einsam und vertraute seine dunkelsten Gedanken ChatGPT an. Seine Eltern warfen dem Chatbot vor er habe Adams Suizidgedanken verstärkt, ihm davon abgeraten sich seinen Eltern anzuvertrauen und ihm sogar Möglichkeiten vorgeschlagen um sein Leben zu beenden. Nach Adams Suizid klagten sie 2025 gegen OpenAI, die Entwicklerfirma von ChatGPT. 
Und Adams Fall ist kein Einzelfall. 

Medienpsychologin Nadja Rupprechter warnt vor der emotionalen Abhängigkeit von Chatbots wie ChatGPT. In einem Artikel des Magazins Wienerin, geht sie auf den Zusammenhang von Einsamkeit und dem Interesse an Gesprächen mit Chatbots ein. Denn, je einsamer Personen sich im realen Leben fühlen, desto anfälliger sind sie dafür echte Kontakte zu vernachlässigen und weniger Energie in menschliche Beziehung zu stecken. Diese Energie landet dann in Unterhaltungen mit ChatGPT.
Und einsam fühlten sich in Deutschland laut einer Studie aus dem Jahr 2024 insgesamt 46% der jungen Bevölkerung. Gerade die technikaffine Generation Z ist also anfällig dafür ihren Fokus nicht auf reale Beziehungen, sondern auf ChatGPT, zu legen. Und obwohl sich diese Verbindung zu dem Chatbot echt anfühlen mag, ist sie es nicht. Vielmehr besteht die Gefahr, dass Betroffene sich endgültig aus dem realen Leben zurückziehen und ihre Kontakte ersetzen. 

Sofern das nicht der Verwendungszweck ist, kann ChatGPT allerdings sehr hilfreich sein. Der Chatbot kann komplizierte Diagnosen, sowie körperliche und mentale Vorgänge simpel und auf einem angemessenen Niveau erklären. Aber Achtung! Fast 40% der Antworten von ChatGPT enthalten laut einer Studie der BBC signifikante Fehler.

Datenschutz

Natürlich darf auch hier der Datenschutz nicht aus den Augen verloren werden. Im Zuge der virtuellen Therapiegespräche werden sehr intime Informationen geteilt – ohne zu wissen wo diese persönlichen Daten am Ende landen. 
Obwohl temporäre Chats sich nach 30 Tagen aus dem System löschen sollten, musste OpenAI wegen einer Klage der New York Times im Jahr 2025 für vier Monate alle Chat Logs aufbewahren. Auch temporäre oder gelöschte Chats. Mittlerweile ist diese Speicherpflicht wieder aufgehoben, allerdings unterliegt ChatGPT, anders als Therapeut*innen, keiner Schweigepflicht. Bei einem nächsten gerichtlichen Verfahren, kann eine Geheimhaltung der Chats also nicht versichert werden.
 

Die Kernproblematik einer Therapie mit ChatGPT ist der Aspekt, dass sie nicht von Expert*innen geführt wird, sondern von den Betroffenen selbst. Ein*e Therapeut*in übernimmt normalerweise die führende Rolle, leitet durch die Gespräche und beruhigt durch die bereits angesprochene Co-Regulation.  

Apps als Therapie? 

Grundsätzlich lässt sich sagen, dass alle drei Apps keinen Therapieersatz bieten können. Sie arbeiten darauf hin Therapie zu normalisieren und bieten Zugang zu wichtigen Informationen, ersetzen aber letztlich keinen menschlichen Austausch. 
Die Co-Regulation ist durch Gespräche per Chat, Video- oder Voicecall eingeschränkt. Dabei ist die Regulation von überfordernden Emotionen ein zentraler Bestandteil in der Psychotherapie. Die fehlende physische Präsenz macht es schwierig für die Patient*innen eine Bindung aufzubauen, was den Therapieprozess erschwert. 

Bei dem Versuch eine Therapie virtuell und ohne Fachpersonal anzugehen, droht Gefahr die vorhandenen Symptome zu verschlimmern. Gerade bei dem Zustimmungsbias von ChatGPT kann das schnell passieren. Die kurzfristig wohltuende Bestätigung kann die Symptomatik auf lange Sicht verschlechtern. 
Gerade bei für übermäßigen Medienkonsum anfälligen Personen, kann eine Online-Therapie mehr Schaden anrichten als Helfen. Denn es sind meist junge Leute, die im Internet nach Zuflucht suchen. Durch den mangelnden menschlichen Austausch wird so die Einsamkeitsproblematik der Gen Z noch weiter verstärkt. Darunter leidet auch die Fähigkeit die eigenen Gedanken in Worte zu fassen und anderen Menschen mitzuteilen. 

Generative KI hilft vor allem dann, wenn sie dazu verwendet wird eigene Verhaltensmuster zu analysieren und – bereits professionell diagnostizierte – Krankheitsbilder zu erklären. Dass die Therapie mit ihr von Betroffenen, und nicht von Expert*innen, geführt wird, ist allerdings ein großes Problem. 

Solange Therapie Apps nicht von sich behaupten, oder erwarten, ein Therapieersatz zu sein, können sie sich als hilfreiches Begleittool erweisen. Wer schon einen Platz hat, kann Apps, insbesondere DiGAs, zur Begleitung der Therapie oder Überbrückung zwischen Sitzungen nutzen. Auch während der, meist langen, Wartezeit auf einen Therapieplatz können sie sich als nützlich erweisen. 

Und dann ist da noch die Datenschutz Problematik. Wo landen die so persönlichen Nutzerdaten? Im Fall von BetterHelp bei Dritten für Werbezwecke. DiGAs hingegen folgen sehr strengen Regeln im Bezug auf Datenschutz und erweisen sich so als deutlich vertrauenswürdiger. 


Image by Ivan S via Pexels

Studiert Medien und Kommunikation in Hamburg. Interessiert sich besonders für digitale Trends und Entwicklungen und dafür, wie sie unsere Welt verändern.


Artikel per E-Mail verschicken