Skip to main content

Initiative Selbsthilfe Multiple Sklerose Kranker e. V.

Big Data: Schaden oder nutzen sie uns?

Christiane Fischer, Blickpunkt-Ausgabe 02/2023

Primum nil nocere – Vor allem nicht schaden: Dieser Grundsatz der hippokratischen Tradition soll immer oberste Maxime der Medizin sein und muss auch für den Umgang mit großen Datenmengen („Big Data“) gelten, deren vielfältige Nutzung im Gesundheitswesen erst noch am Anfang steht. Welche Chancen und Risiken in Bezug auf die unveräußerlichen Rechte des Individuums und seine oder ihre Selbstbestimmung liegen eigentlich in der Speicherung, Verarbeitung und Analyse von großen Datenmengen, wie sie in der Medizin anfallen? Stehen Big Data für den gesellschaftlichen Fortschritt oder führen sie eher zu einem Rückschritt?

Was sind Big Data?

Unter Big Data werden große und komplexe Datenmengen verstanden, die im Zuge der Digitalisierung auch im Gesundheitswesen immer stärker anfallen. Ihre Sammlung und gesteuerte Auswertung kann Aufschluss über Gesamtzusammenhänge geben – z. B. Probleme im Bereich Public Health wie die Ebola-Krise durch Forschung gelöst, Zusammenhänge von Gesundheit und ihren sozialen gesellschaftlichen Determinanten wie bei Tuberkulose erkannt und neue Ansätze zur gesundheitsförderlichen Gestaltung verschiedenster Lebensbereiche wie bei der Tabakepidemie erarbeitet werden.
Auf der anderen Seite gilt, dass nur ein strenger Datenschutz die Rechte des einzelnen Menschen und das Gemeinwohl garantiert – er ist für jeden freiheitlichen und sozialen Rechtsstaat konstitutiv. Im Gegensatz dazu stehen die Wünsche der (Gesundheits-)Wirtschaft nach einem immer umfassenderen Einblick in alle Lebensäußerungen der Menschen.

Unter welchen Bedingungen sind Big Data nutzbringend?

Big Data erweisen sich erst dann als nutzbringend für die Gesundheitsvorsorge und die Medizin, wenn der oder die Einzelne als Eigentümer*in seiner/ihrer personenbezogenen Daten zu jedem Zeitpunkt entscheiden kann, wem er oder sie diese in welchem Umfang zur Verfügung stellt. Das gilt auch im Fall der sogenannten Sekundärnutzung, also einer Nachnutzung der im Behandlungsfall dokumentierten klinischen Daten für Vorhaben, die eine andere Krankheit betreffen. Ein so verstandener Datenschutz muss eine absolute Ausschlussmacht gegenüber Dritten bedeuten; er ist ein sehr hohes Gut und deshalb auch regulatorisch und strafrechtlich abzusichern. Nur so kann die der informierten Einwilligung zugrundeliegende Selbstbestimmung gewährleistet werden.

Eine präzise gesetzliche Regelung ist notwendig

Der Datenschutz bedarf daher einer präzisen gesetzlichen Regelung im Bundesdatenschutzgesetz (BDSG). Darin sollten geeignete Schutzmechanismen und Gestaltungsstrategien festgeschrieben werden. Die Speicherung und Analyse personenbezogener Daten darf nur im eng definierten Rahmen und nur mit Einwilligung der Betroffenen erlaubt sein.
Schutzmechanismen müssen weiter Datensparsamkeit und Zweckbindung beinhalten und analoge Schutzräume darin festgeschrieben werden. Nur durch diese Instrumente wird der Ausbau des Persönlichkeitsschutzes und des Datenschutzes und somit die Implementierung einer bestmöglichen Datensouveränität und der Selbstbestimmung gewährleistet.

Chancen oder vermehrt Risiken?

Ob Big Data in diesem Sinn im Gesundheitsbereich eher Chancen oder vermehrt Risiken bieten, entscheidet sich daher an den nachfolgenden Bedingungen.

Keine zentrale Speicherung von Patient*innendaten

Patient*innendaten sind prinzipiell nicht auf zentralen Servern, sondern auf dezentralen Speichermedien in der Regel in der Hand der Patient*innen zu speichern. Ergänzend können die Daten verschlüsselt beim Hausarzt oder der Hausärztin gespeichert werden, die Entscheidung zur (auch begrenzten) Freigabe liegt allein in der Hand der Patient*innen. Insbesondere jegliche personenbezogenen Daten, einschließlich derer, die mit der elektronischen Gesundheitskarte (eGK) und durch die elektronische Patient*innenakte (ePA) erhoben werden, dürfen nicht zentral und nicht ohne strikte individuelle Zustimmung im Falle der Primär- und Sekundärnutzung gespeichert werden. Das schließt eine Opt-Out-Lösung (also die Notwendigkeit für gesetzlich versicherte Patient*innen, der Einrichtung einer ePA aktiv zu widersprechen, um die ansonsten für jede*n verbindliche Anlegung der Akte und die flächendeckende Nutzung der Daten zu unterbinden), wie sie für 2024 geplant ist, aus. Denn nach dem Vorsorgeprinzip ist der Datenschutz so nicht gewährleistet.

Zustimmung der Versicherten hat Priorität vor anderen, auch vor Forschungsinteressen

In diesem Sinne muss eine Einsicht Dritter in die dezentralen Datenspeicher ohne Zustimmung der Versicherten auch für die Sekundärnutzung verboten bleiben. Das betrifft auch den Austausch und die Integration von gesundheitsrelevanten Daten zwischen vielfältigen institutionellen Akteuren. Technologische Sicherheitsvorkehrungen müssen getroffen werden, wie eine effektive Anonymisierung und Pseudonymisierung, die eine Re-Identifizierung unmöglich macht.

Gesetzliche Regelungen statt freiwilliger Selbstkontrollen

Eine Absicherung für persönliche Daten darf nur durch gesetzliche und regulatorische Verpflichtung und nicht durch bisher gängige freiwillige Selbstkontrollen und Ko-Regulierungsmaßnahmen geschehen, damit offensichtlich wird, was erlaubt und was Missbrauch ist. Bleibt es bei dem Prinzip der Selbstregulierung, entwickeln Industrieverbände ihre eigenen Kodizes und schaffen eigene (Pseudo-)Verfahren, um auf Beschwerden nicht reagieren zu müssen.
Selbstregulierungsgremien wird die Verantwortung dafür übertragen, dass ihre jeweiligen Mitglieder sich an die Regeln halten und dass bei Bedarf – aber nur theoretisch – Abhilfemaßnahmen und Sanktionen angewendet werden. In der Praxis geschieht das jedoch fast nie.
Sich auf Ko-Regulierungsmaßnahmen wie auf wirtschaftsinterne Kontrollmechanismen bei der Vergabe eines „Datengütesiegels“ zu verlassen, ist als naiv zu bezeichnen. Nicht umsonst sind Patient*innendaten nach Warnungen des FBI auf dem Schwarzmarkt zehnmal teurer und damit wertvoller als Kreditkartennummern.

Öffentliche Forschung und Delinkage für eine bedarfs- statt marketingorientierte Forschung

Die Erprobung von innovativen Konzepten ist vorrangig durch öffentliche Forschung oder öffentlich kontrollierte Forschung durchzuführen. Nur dies gewährleistet die Umsetzung einer bedarfs- statt marketingorientierten Forschung und Entwicklung. Im Rahmen einer sogenannten Delinkage müssen die Gelder für Forschung und Entwicklung von den Ausgaben für den Verkauf entkoppelt werden. Unter Wahrung eines strengen Datenschutzes sind Patente und andere Monopole zu untersagen.

Recht auf Vergessen

Auf der technischen Ebene ist es ein Erfordernis des Datenschutzes, bereits in der Entwicklungsphase von Hardware, Software und Algorithmen Sicherheitslevel zu definieren und auf unterschiedliche Schutzgüter anzuwenden. Den Betroffenen muss die Einwilligung und ein „Recht auf Vergessen“ eingeräumt werden, um die personenbezogenen Daten nachzuverfolgen und gegebenenfalls in jedem Fall und ausnahmslos löschen zu lassen. Entsprechend hierzu sind die Hersteller zu verpflichten, schon bei der Planung und Herstellung neuer Produkte darauf zu achten, dass den Grundprinzipien des Datenschutzes ohne Ausnahme entsprochen wird und somit ein kompletter Schutz der Privatsphäre gewährleistet ist.

Bedingungen für eine Datenspende zur Vermehrung des Gemeinwohls

Die Schaffung der rechtlichen Möglichkeit für Individuen, ihre Daten für die medizinische Forschung zu spenden, sowie das freiwillige Zur-Verfügung-Stellen von personenbezogenen Daten darf nur unter Wahrung eines strengen und effektiven Datenschutzes mit konkreter Zweckbindung und nur für öffentliche Forschung geschehen.
Eine obligatorische Datenspende muss ausgeschlossen werden. Denn dies stellt einen missbräuchlichen Datenzugriff dar, der auch bei Sekundärnutzung strafrechtlich sanktioniert werden muss. Zur Vermehrung des Gemeinwohls ist dies unerlässlich und ergänzt die Forderung, Patient*innendaten primär auf dezentralen Speichermedien in der Hand der Patient*innen zu belassen.

Eigentum an Daten

Das Auskunftsrecht des Einzelnen über die zu seiner Person gespeicherten Daten reicht nicht mehr aus. Nur wenn transparent ist, welche Daten in die jeweiligen Auswertungen und Bewertungsprozesse einfließen, nach welchen Kriterien die Klassifikation erfolgt und wie sie Entscheidungen beeinflussen, lassen sich Aussagen zu deren Rechtmäßigkeit und ethischen Vertretbarkeit gewinnen. Das Eigentum an Daten, das eine Ausschlussmacht gegenüber Dritten beinhaltet, ist sicherzustellen.

Datenschutz und Selbstbestimmung vor Forschungsinteressen

Immer wieder werden Forschungsinteressen als Gegenargument zum Datenschutz aufgeführt. Dies ist bei einer bedarfsorientierten Forschung jedoch nicht der Fall. Die Erforschung insbesondere seltener und vernachlässigter Erkrankungen steht nur in einem scheinbaren Widerspruch zu einer Datensouveränität, da gesetzgeberische Regulierungsmaßnahmen den Bedarf unabhängig feststellen und Scheininnovationen somit verhindern.

Datenschutz und Selbstbestimmung sind gegenüber Forschungsinteressen höherwertigere Rechte. Datenschutz, also das Recht der oder des Einzelnen an seinen und ihren Daten, muss daher auch einen höheren Stellenwert gegenüber Forschungsinteressen behalten. Im Sinne des Vorsorgeprinzips ist die Vorab-Analyse möglicher Folgen neuer Verfahren auf den Datenschutz und die informationelle Selbstbestimmung geboten (Datenschutz-Folgeabschätzung).
Die technische Realisierung der Auswertung von Datenmassen muss demzufolge rechtlich eingeschränkt werden, sodass Anwendungen möglich sind, jedoch personenbezogener Missbrauch in jedem Fall verhindert wird. Analog dem Gendiagnostikgesetz muss es dezidierte Verbote von diskriminierenden Verwendungen personenbezogener Daten geben.

Fazit

Sollte ein umfassender Datenschutz, die Umsetzung effektiver Anonymisierungs- und Pseudonymisierungsstandards und das Recht auf Vergessen nicht gewährleistet werden können, wäre ein Verzicht auf die Nutzung von Big Data zu Forschungszwecken oder anderen Anwendungen die notwendige Folge.

Quelle