Digitales Empowerment
In der Corona-Pandemie hat sich die fortschreitende Digitalisierung der Alltagsund Berufswelt als entscheidende "Rückfallebene" erwiesen: Homeoffice, Online-Shopping, Online-Unterricht, Telemedizin, Videokonferenzen und selbst das Livestreaming von Gottesdiensten haben versucht, in den Zeiten strikter physischer Distanz durch virtuelle Kommunikation und Netzwerkbildung wenigstens ein halbwegs befriedigendes Maß an sozialer Nähe zu sichern. Dass sie reale leibliche Nähe nicht ersetzen können, ist vermutlich allen klargeworden. Noch stärker hat die Pandemie aber die dramatischen Folgen der digitalen Spaltung in der Gesellschaft offenkundig gemacht: Nicht jede Schülerin hatte einen stabilen Netzzugang, um dem Unterricht folgen oder wenigstens die Materialien herunterladen zu können. Und nicht jeder Senior konnte die Isolation seiner Alteneinrichtung durch ein virtuelles Mailing mit seinen An- und Zugehörigen ansatzweise durchbrechen. Denn er hätte zumindest einen barrierefreien Internetanschluss gebraucht, den - wie jüngst im Achten Altenbericht der Bundesregierung veröffentlicht - viele Einrichtungen der Altenhilfe offensichtlich nur vom Hörensagen kennen.
Nun ist Digitalisierung nichts Neues. Die Übersetzung, Speicherung und Übermittlung von Informationen im binären Code des "0" und "1" sind spätestens seit den 1960er-Jahren aus der EDV bekannt. Was die Art und Weise des Informierens, des Kommunizierens, des Konsumierens, des Netzwerkbildens, ja, auch der Gesundheitsvorsorge und selbst des Pflegens in den letzten Jahren allerdings revolutioniert hat, ist die galoppierende Geschwindigkeit, mit der immer größere Datenmengen in immer kürzerer Zeit verarbeitet werden können. Diese technische Errungenschaft entwickelt eine Eigenlogik, die sich tief in die persönliche Lebensführung eingeschrieben hat. Doch darin liegt auch das Problem jeder (kulturellen) Technikentwicklung: Wer nicht über sie verfügt oder verfügen kann, verliert schnell den (gesellschaftlichen) Anschluss. Trifft dies wesentliche Lebensbereiche wie Bildung, Arbeit, Wohnen, Gesundheit oder sozialer Nahraum, droht sozialer Ausschluss: die Exklusion.
Digitale Teilhabe - ein Grundrecht
Deshalb weisen mittlerweile die EU-Grundrechtecharta oder auch die Behindertenrechtskonvention die digitale Teilhabe als Menschen- beziehungsweise Grundrecht aus. Digitale Teilhabe ist mittlerweile eine unverzichtbare Bedingung dafür, dass gerade auch benachteiligte Menschen ihre gesellschaftliche Zugehörigkeit und dadurch ihre Würde als gleichberechtigter und anerkannter Mensch erfahren können.
Zur Teilhabe zählt freilich mehr als nur der technische Zugang zum Internet. Barrierefreier Zugang umfasst auch die Kompetenz, digitale Assistenzen zur Lebensführung zu kennen sowie diese in ihren Vorund Nachteilen einordnen und bei Bedarf auch nutzen zu können. Solche Kompetenz bedarf der materiellen wie immateriellen Förderung - nicht zuletzt durch soziale Professionen. Im Fokus muss dabei auch ein zentraler ethischer Zielkonflikt stehen: Insbesondere digitale Techniken entwickeln einen Sogeffekt, der ihre Nutzer(innen) zu beherrschen droht. Digitales Monitoring (AAL-Systeme, Electronic Care Surveillance) kann für ältere Menschen ein Segen sein, der sie länger in ihrer gewohnten Umgebung wohnen lässt; es kann sich aber zum Fluch einer gängelnden Totalkontrolle entwickeln, wenn es nicht bewusst in Kauf genommen wird oder sich einfach abstellen lässt. Gefordert ist aufseiten der Nutzer(innen) eine digitale Souveränität, die sich solchen und ähnlich subtilen Fremdbestimmungen zu widersetzen weiß.
Mittlerweile ist die Digitalisierung in eine neue Phase getreten. Unter den Stichworten Big Data und Künstliche Intelligenz geht es nicht mehr nur um die bloße Sammlung, Speicherung und Verbreitung von Daten und Informationen, sondern um die systematische Erzeugung, Aufbereitung und Mustererkennung von ungeheuren Datenmassen mit dem Ziel, neue Einsichten in bestimmte Zusammenhänge zu gewinnen und für unterschiedliche Zwecke zu nutzen: die präzisere Diagnose und Therapie von Krankheiten; personalisierte Werbung für potenzielle Konsument(inn)en; zielgerichtetes Profiling von Bewerber(inne)n für Qualifizierungskurse, Geldkredite oder Arbeitsstellen und vieles mehr. Die Aufbereitung solcher Datenmassen ist nur durch hochkomplizierte Algorithmen möglich. Mittlerweile sind viele solcher Aufbereitungsprozesse und die Anforderungen an deren "Rechenregeln" so komplex, dass die Algorithmen offen programmiert werden - offen für sich selbst steuernde ("autonome") Verbesserungen, deren Entwicklung von außen nicht mehr gesteuert oder rekonstruiert werden kann. So wird aus Big Data durch sogenannte Künstliche Intelligenz (= lernende algorithmische Systeme) Smart Data.
Smart Data birgt auch Risiken
Smart Data besitzt auch für das Gesundheits- und Sozialwesen enorme Potenziale. Gleichwohl stellt es vor erhebliche ethische Herausforderungen - gerade mit Blick auf Fragen der digitalen Souveränität und Selbstbestimmung. Zwei Beispiele:
Big/Smart Data funktioniert erst, wenn Massen von Daten von möglichst vielen Menschen bei möglichst vielen Gelegenheiten erhoben werden. Je mehr, desto besser. Wir kennen das von der Unzahl an Apps oder sozialen Netzwerken, die meist kostenlos zur Verfügung gestellt werden und die wir mit unseren persönlichen Daten bezahlen. Selbst wenn wir unterstellen, dass die Erhebung und Verarbeitung dieser Daten wirklich sinnvollen Zwecken dient, so beißt sich dieser "Datenhunger" mit den klassischen Prinzipien des Datenschutzes: Datensparsamkeit und unmittelbare Zweckbindung der Datenverarbeitung. Freilich sind diese beiden Prinzipien kein Selbstzweck; sie dienen dem Grundrecht auf informationelle Selbstbestimmung jeder Person. In Zeiten von Big/ Smart Data bedarf es - wie es der Deutsche Ethikrat vorgeschlagen hat - deshalb einer "Datensouveränität", um "auf der Basis persönlicher Präferenzen effektiv in den Strom persönlich relevanter Daten eingreifen zu können"1 . Dazu sind in allen relevanten Lebens- und Erhebungsbereichen eine Vielzahl rechtlicher wie technischer Regelungen erforderlich. Ein aufschlussreiches Beispiel liefert die jüngste Vergangenheit: Nahezu alle Webseiten nutzen "Cookies", die das konkrete Nutzungsverhalten jeder Nutzerin und jedes Nutzers auswerten - für technische Verbesserungen ebenso wie für Werbezwecke. Früher mussten die User pauschal solche "Cookies" akzeptieren, damit sie die Webseite nutzen konnten. Heute müssen die Webseiten den Nutzer(inne)n schon beim Aufrufen der Seite eine persönliche Auswahl ermöglichen - und zwar durch deren aktive Zustimmung und nicht erst über Abwahl auf vertrackten Hinterwegen. Das bedeutet Datensouveränität.
Entscheiden auf Basis von Algorithmen
Um Datensouveränität geht es auch in anderen Kontexten. In immer mehr menschlichen Entscheidungsprozessen (wie Kreditvergaben, Personalgewinnung oder Verwaltungsverfahren in Sozialbehörden) werden algorithmische Systeme eingebunden. Die Datenethikkommission der Bundesregierung hat die ethischen Implikationen untersucht und folgende Unterscheidung vorgeschlagen: algorithmenbasierte Entscheidungen, bei denen etwa einer Ärztin Diagnose oder Therapie vorgeschlagen werden, sie aber in ihrer Letztentscheidung frei ist. Algorithmengetriebene Entscheidungen würden ihr zwar verschiedene Optionen vorschlagen, innerhalb derer sie sich aber entscheiden muss. Bei algorithmendeterminierten Entscheidungen hätte sie keine andere Wahl; sie wäre lediglich die Erfüllungsgehilfin des Algorithmus. Bereits algorithmenbasierte Entscheidungen berühren die freie Entscheidung des Entscheiders; denn er gerät schnell unter Legitimationszwang, warum er von einer maschinell erstellten Handlungsempfehlung abweicht und doch einen Kredit vergibt oder eine Qualifizierungsmaßnahme gewährt. Vollständig ausgehebelt ist die menschliche Entscheidungsgewalt bei algorithmendeterminierten Entscheidungen. Wer ist dann für sie rechtlich und moralisch verantwortlich? Verletzt das nicht nur die Selbstbestimmung und Würde der Entscheiderin/des Entscheiders, sondern vor allem auch des von der Entscheidung betroffenen Menschen?
"Früher mussten die User pauschal die ,Cookies‘ akzeptieren
Schon deshalb hält die europäische Datenschutzgrundverordnung kategorisch am Grundsatz der menschlichen Letztentscheidung fest (Art. 22 DSGVO). Und die zivilgesellschaftlich initiierte europäische Digitalcharta fordert unmissverständlich: "Wer einer automatisierten Entscheidung von erheblicher Bedeutung für seine Lebensführung unterworfen ist, hat Anspruch auf unabhängige Überprüfung und Entscheidung durch Menschen." (Art. 5 [4]) Aber das ist nur die passive Seite von digitaler Souveränität. Zu ihrem "Aktivposten" gehören vor allem digitale Kompetenz und Teilhabe. Was nützt souveräne Entscheidungsgewalt, wenn es mangels Zugang nichts zu entscheiden gibt? Und was nützen der Zugang und die angebotenen Auswahlmöglichkeiten, wenn die digitalen Systeme von den Nutzer(inne)n nicht beherrscht werden können?
Auf dem Weg zum digitalen Empowerment
Die Datenethikkommission will jeden Einsatz digitaler Technik dem Prinzip der sozialen Nachhaltigkeit unterstellt wissen. Damit verbindet sie neben einer dauerhaft tragfähigen Gemeinwohlorientierung digitalisierter Techniken vor allem ihre partizipative und inklusive Gestaltung. Damit wird der digitalen Souveränität eine entscheidende Perspektive eröffnet: Teilhabe bedeutet nicht nur Teilnahme am digitalen Netzgeschehen durch entsprechende Zugänge ("access"), sondern vor allem auch Teilgabe der eigenen Nutzungsoptionen im Prozess der Ausgestaltung und Implementierung technischer Systeme ("design"). Die digitale Spaltung der Gesellschaft beginnt nicht erst bei den ungleich verteilten Chancen zur Nutzung, sondern bereits bei der mangelnden Einbeziehung relevanter Personengruppen bei der Entwicklung. Gerade ältere oder pflege- beziehungsweise assistenzbedürftige Menschen bleiben schon bei der Entwicklung digitaler Assistenzsysteme weitgehend außen vor. (Ähnliches lässt sich auch von Mitarbeiter(inne)n im Gesundheits- und Sozialwesen berichten, in deren Arbeitsfeldern digitale Techniken zur Anwendung kommen sollen.) So wird man nur schwerlich jenes "menschenzentrierte Design" gewährleisten können, das - wie allenthalben gefordert - neben der technischen Handhabbarkeit und der lebensweltlichen Nützlichkeit auch die Selbstständigkeit und das emotionale Wohlbefinden der Nutzer(innen) sicherstellen soll.
Digitale Souveränität gipfelt in dem, was soziale Professionen mit Empowerment verbinden: die Stärkung jener Gestaltungsmacht, mit der Menschen möglichst selbstständig bestimmen können, ob und vor allem in welcher Weise sie professionelle und eben auch digitale Assistenzen in ihre alltägliche Lebensführung einbinden oder nicht. Im Unterschied zum bloßen Kompetenz- oder Befähigungsansatz erinnert Empowerment unerbittlich daran, dass solche (digitale) Selbstständigkeit sich immer gegen teils erheblichen Widerstand behaupten muss. In der digitalisierten Lebenswelt sind dies vor allem die ungeheuren Sogeffekte (manchmal erschreckend) faszinierender Möglichkeiten, denen alle (und nicht nur besonders vulnerable Personen) erliegen können. So droht die Selbstständigkeit verlustig zu gehen.
Anmerkung
1. Deutscher Ethikrat (Hrsg.): Big Data und Gesundheit - Datensouveränität als informationelle Freiheitsgestaltung. Stellungnahme, Berlin, 2018, S.252 f
Corona-Prämie ist ein erster Schritt
Gut ausgerüstet ins digitale Neuland
Wirtschaftliche und digitale Strategien in der Covid-19-Pandemie
Über eine Rückkehr selbst entscheiden
Caritas für gleiche Bildungschancen
Europäische Digitalstrategie
Sanierungskonzept zeigt Wirkung und der Kapitalmarkt hilft
Vorsicht bei Digitalisierungsschub
Hinterlassen Sie einen Kommentar zum Thema
Danke für Ihren Kommentar!
Ups...
Ein Fehler ist aufgetreten. Bitte laden Sie die Seite erneut und wiederholen Sie den Vorgang.
{{Reply.Name}} antwortet
{{Reply.Text}}