Skandal um gefälschte Daten: Über 120 Studien zu Diabetes und Schlaganfall betroffen

Dominik Hübenthal
Gefälschte Daten in 120 Studien: Risiko durch fehlerhafte KI-Diagnosen

Ein beispielloser Datenskandal erschüttert aktuell die medizinische Forschung und wirft ein kritisches Licht auf den Einsatz von Künstlicher Intelligenz (KI) im Gesundheitswesen. Dutzende Studien zu Prognosemodellen für Volkskrankheiten wie Diabetes und Schlaganfall basieren offenbar auf frei erfundenen oder stark manipulierten Datensätzen. Besonders alarmierend: Einige dieser fehlerhaften KI-Modelle werden bereits im realen Klinikalltag eingesetzt, um das Krankheitsrisiko von Patienten zu bewerten.

Statistische Unmöglichkeiten entlarven Datensätze

Forscher der Queensland University of Technology in Australien haben in einer aktuellen Untersuchung mehr als 120 wissenschaftliche Publikationen identifiziert, die auf zwei fragwürdigen Open-Access-Datenbanken beruhen. Diese Datensätze, die auf einer bekannten Online-Plattform für Datenwissenschaften frei zugänglich waren, weisen laut den Experten massive statistische Anomalien auf.

So waren die Gesundheitsdaten verdächtig vollständig – ein Zustand, der in echten medizinischen Datenbanken durch fehlende Einträge oder unvollständige Patientenakten praktisch nie vorkommt. In einem Datensatz fanden sich beispielsweise bei 100.000 fiktiven Patienten lediglich 18 verschiedene Blutzuckerwerte. Solche Muster sind in der Realität schlichtweg unmöglich und deuten massiv auf eine künstliche Generierung oder Fälschung der Daten hin.

Lebensgefährliche Konsequenzen für Patienten

Die Auswirkungen dieses Skandals könnten weitreichend sein. KI-Modelle, die mit derart fehlerhaften Informationen trainiert wurden, liefern zwangsläufig unzuverlässige Ergebnisse. Dennoch haben diese Vorhersagemodelle bereits den Weg aus der Theorie in die Praxis gefunden. Berichten zufolge werden sie bereits in Krankenhäusern in Ländern wie Spanien und Indonesien eingesetzt. Zudem existieren öffentlich zugängliche Web-Tools, mit denen Privatpersonen ihr eigenes Schlaganfall- oder Diabetes-Risiko berechnen können.

Medizinethiker und Fachärzte warnen eindringlich vor den Folgen: Wenn Ärzte sich auf diese fehlerhaften Algorithmen verlassen, drohen Fehldiagnosen. Patienten könnten unnötige Medikamente verschrieben bekommen oder – noch schlimmer – dringend benötigte Behandlungen könnten ihnen vorenthalten werden.

Forderung nach strengeren Richtlinien für KI in der Medizin

Der Vorfall offenbart eine kritische Schwachstelle im zunehmend digitalisierten Gesundheitssektor. Bislang können zweifelhafte Datensätze über Open-Access-Plattformen relativ ungeprüft in die klinische Forschung und Praxis einfließen. Wissenschaftler und Ethiker fordern nun ein sofortiges Umdenken.

  • Transparenzpflicht: Die Herkunft von Trainingsdaten für medizinische KI-Modelle muss lückenlos nachgewiesen werden.
  • Strengere Publikationsregeln: Fachzeitschriften sollen Studien rigoros ablehnen, wenn die Datenquelle nicht zweifelsfrei verifiziert ist.
  • Rückruf fehlerhafter Tools: Algorithmen, die auf den betroffenen Datensätzen basieren, müssen umgehend aus dem klinischen Verkehr gezogen werden.

Für Pflegekräfte und Mediziner bedeutet dies vor allem eines: Wachsamkeit. Künstliche Intelligenz bietet enorme Chancen für die Früherkennung und Behandlung von Krankheiten. Doch solange die Datengrundlage nicht absolut verlässlich ist, bleibt die menschliche Expertise und die kritische Überprüfung von maschinellen Empfehlungen das wichtigste Instrument zum Schutz der Patienten.

Brauchen Sie Unterstützung bei der Pflege?

PflegeHelfer24 ist Ihr verlässlicher Partner. Entdecken Sie unsere Ratgeber oder lassen Sie sich kostenlos zu Pflegehilfsmitteln, Treppenliften und Zuschüssen beraten.