KI-Lüge im Netz: Ärzte haften für falsche Facharzttitel ihres Chatbots
Künstliche Intelligenz soll den Praxisalltag erleichtern und die Kommunikation mit Patienten modernisieren. Doch was passiert, wenn der digitale Helfer plötzlich anfängt, Unwahrheiten zu verbreiten? Mit dieser hochaktuellen Frage musste sich nun das Oberlandesgericht (OLG) Hamm befassen. In einem richtungsweisenden Urteil stellten die Richter klar: Medizinische Einrichtungen tragen die volle Verantwortung für die Aussagen ihrer eingesetzten KI-Chatbots.
Wenn der Chatbot Doktortitel erfindet
Auslöser des Rechtsstreits war eine Klage der Verbraucherzentrale Nordrhein-Westfalen gegen die Aesthetify GmbH aus Recklinghausen. Das Unternehmen, das von zwei bundesweit bekannten Medizinern betrieben wird, bot auf seiner Website einen Chatbot an. Dieser sollte Patienten bei der Terminbuchung helfen und erste Fragen in Echtzeit beantworten. Doch der digitale Assistent nahm es mit der Wahrheit nicht allzu genau.
Auf konkrete Nachfragen von Nutzern behauptete die Künstliche Intelligenz fälschlicherweise, die beiden behandelnden Ärzte seien Fachärzte für plastische und ästhetische Chirurgie sowie Fachärzte für ästhetische Medizin. Letzteren Facharzttitel gibt es in der deutschen Weiterbildungsordnung überhaupt nicht. Die Verbraucherschützer sahen darin eine massive Irreführung von Patienten und mahnten das Unternehmen ab.
Gericht: Betreiber können sich nicht hinter der Technik verstecken
Die Praxisbetreiber argumentierten, dass sie den Chatbot nach der Abmahnung zwar deaktiviert hätten, für die unzutreffenden Antworten der KI jedoch nicht haftbar gemacht werden könnten. Die unvorhersehbaren Halluzinationen eines Algorithmus seien ihnen nicht zuzurechnen. Das Oberlandesgericht Hamm sah das allerdings völlig anders. Die Richter urteilten, dass die Falschaussagen des Chatbots als unzulässige geschäftliche Handlungen zu werten sind, die dem Unternehmen direkt zugerechnet werden müssen.
Laut der Entscheidung gilt ein eingesetzter Chatbot rechtlich nicht als unabhängiger Dritter. Wer eine solche Technologie auf seiner Website integriert, um den Kundenkontakt zu pflegen, muss demnach auch für deren Fehler geradestehen – selbst dann, wenn das System ursprünglich mit korrekten Daten gefüttert wurde.
Wichtige Erkenntnisse aus dem Urteil
- Volle Haftung: Praxisinhaber und Geschäftsführer haften für sämtliche Falschaussagen ihrer digitalen Assistenten.
- Patientenschutz: Irreführende und erfundene Qualifikationsangaben durch KIs verstoßen gegen das Wettbewerbsrecht.
- Sorgfaltspflicht: Der Einsatz von Künstlicher Intelligenz entbindet nicht von der Pflicht, die Richtigkeit der kommunizierten Inhalte sicherzustellen.
Der Weg zum Bundesgerichtshof ist frei
Das Urteil aus Hamm ist noch nicht rechtskräftig. Da der Fall völlig neue juristische Fragestellungen zum Umgang mit Künstlicher Intelligenz und der Zurechenbarkeit von automatisiert generierten Inhalten aufwirft, hat der Senat die Revision zum Bundesgerichtshof (BGH) zugelassen. Bis die obersten Richter in Karlsruhe ein finales Machtwort sprechen, sendet die aktuelle Entscheidung jedoch bereits ein unmissverständliches Signal an alle Praxen und Kliniken: Der Einsatz von KI erfordert strenge Kontrollen, um rechtliche Konsequenzen und einen fatalen Vertrauensverlust bei den Patienten zu vermeiden.
Brauchen Sie Unterstützung bei der Pflege?
PflegeHelfer24 ist Ihr verlässlicher Partner. Entdecken Sie unsere Ratgeber oder lassen Sie sich kostenlos zu Pflegehilfsmitteln, Treppenliften und Zuschüssen beraten.

