Künstliche Intelligenz als Sozialarbeiterin
Der Begriff Künstliche Intelligenz (KI) löst bei vielen Menschen die Befürchtung aus, Roboter könnten bald die Herrschaft über die Menschheit erlangen. Allerdings liegen so hoch entwickelte digitale Intelligenzen noch in weiter Zukunft; es ist sogar unsicher, ob es jemals möglich sein wird, so komplexe Maschinen zu konstruieren. Die aktuellen Umsetzungen der KI sind im Vergleich zu solchen Superintelligenzen zwar deutlich weniger spektakulär; dennoch bieten sie Chancen und Risiken, die auch im Feld der sozialen Arbeit abgewogen werden müssen.
KI kann als die Befähigung von Computern verstanden werden, Aufgaben auf einem Niveau zu lösen, das mit menschlicher Leistung vergleichbar ist. Sie versucht, bestimmte Entscheidungsstrukturen menschlicher Intelligenz abzubilden beziehungsweise nachzuahmen. In vielen Aufgabenbereichen liegt dieses Ziel jedoch noch in weiter Ferne.1
Die Stärken von KI bestehen darin, Muster zu erkennen und komplexe Berechnungen anzustellen. Dabei greifen Computer auf Algorithmen zurück. Ein Algorithmus ist eine Berechnungsvorschrift, die nach Überprüfung der Daten zu einem Ergebnis kommt. Einfache Algorithmen sind Bestandteil jeder Computerprogrammierung. Sie lösen selbstständig und effizient Probleme. Der Grad ihrer KI hängt vom Grad der Selbstständigkeit, der Komplexität des Problems und der Effizienz des Lösungsverfahrens ab.2 Eine besondere Art von Algorithmen sind maschinelle Lernverfahren, die eingesetzt werden, um sehr große Datenmengen zu analysieren. Im Kern steht hier die Mustererkennung. Während klassische Algorithmen von ihren Entwickler(inne)n angepasst und weiter ausgearbeitet wurden, erfolgt die Anpassung von maschinellen Lernverfahren durch diese selbst.3
Chancen und Risiken von KI werden diskutiert
Im Fachdiskurs der sozialen Arbeit werden zum einen die möglichen Chancen der Anwendung künstlicher Intelligenz betont: Es wird darauf hingewiesen, dass sich die Qualität evident steigert und dass Angebote - ausgerichtet auf die mediatisierten Lebenswelten - neu konzeptioniert werden können.4 Zum anderen werden aber auch die möglichen Risiken im Sinne einer Deprofessionalisierung in den Blick genommen, etwa durch verzerrende Einflüsse und Vereinfachungen bei Entscheidungsprozessen der Fachkräfte.5 Neben dem grundsätzlichen kritischen Diskurs darüber, wie sich softwarebasierte Arbeitsweisen auf das professionelle Handeln von Fachkräften auswirken6 , werden im Kontext der neuen Technologien insbesondere auch die (professions-)ethischen Aspekte der Nachvollziehbarkeit und Transparenz von KI-Systemen sowie mögliche Verzerrungseffekte in den Mittelpunkt der Debatte gestellt. Für die Entwicklung und Implementierung von KI-Systemen wurden daher bereits verschiedene Leitfäden entwickelt, unter anderem das Ethik-Briefing der Medienethikerin Jessica Heesen und anderer7 , das insbesondere fordert, dass Transparenz und Nachvollziehbarkeit im gesamten Entwicklungsprozess gegeben sein müssen.
Mit KI-Systemen wird maschinell Wissen erzeugt, dessen Entstehung für den Menschen kaum noch nachvollziehbar ist.8 Durch die Offenlegung der Herkunft der Rohdaten kann die Nachvollziehbarkeit erhöht werden. In diesem Zusammenhang wird aus der KI-Blackbox eine KI-Whitebox, in der die Verarbeitung von Daten transparent und durch das System erklärbar wird.9 So kann auch dem Problem begegnet werden, dass KI-Systeme von den verwendeten Trainingsdaten Diskriminierungsstrukturen erlernen und so strukturelle Benachteiligung reproduzieren. Gerade bei der Verwendung von Originaldaten, wie zum Beispiel Fallakten10 oder einschlägigen Onlineplattformen11 als Trainingsdaten für KI-Systeme, muss sichergestellt werden, dass weder bestimmte Personengruppen über- oder unterrepräsentiert sind noch in den Daten diskriminierende Stereotype vorliegen. Die Anforderungen an Transparenz betreffen jedoch nicht nur die Frage lgorithmisierter Berechnungen, sondern auch die Mensch-Maschinen-Interaktion an sich, zum Beispiel beim Einsatz von Chatbots.12
Der wissenschaftliche Diskurs zeigt auf, dass der Einsatz von KI-Systemen in den Handlungsfeldern der sozialen Arbeit nicht mehr eine Frage nach dem "Ob", sondern nach dem "Wie" geworden ist.13 International werden beispielsweise bereits KI-Systeme im Bereich der Rückfallprognose von Straftäter(inne)n14 sowie zur Risikoprognose im Bereich des Kinderschutzes15 eingesetzt. Studien zeigen in diesem Zusammenhang sowohl das Potenzial von KI-Systemen hinsichtlich ihrer Treffsicherheit von Vorhersagen, weisen aber auch auf tiefergehende ethische Implikationen hin. Daher wird in zukünftigen Untersuchungen zu klären sein, ob KI-Systeme ethisch begründete Entscheidungen treffen können und wie eine digitale Operationalisierung ethischer Kategorien gelingen kann.16
Textanalyse in Feldern der sozialen Arbeit
Der Einsatz von KI-Systemen wurde in der sozialen Arbeit auch im Forschungskontext untersucht. Beispielsweise wurden maschinelle Lernverfahren genutzt, um die Themenstruktur in Fachzeitschriften beziehungsweise dem Fachdiskurs der sozialen Arbeit zu analysieren.17 Der Sozialwissenschaftler Robert Lehmann und andere18 trainierten maschinelle Lernverfahren zur computergestützten Analyse sozialwissenschaftlicher Texte in Form von Konversationen zwischen Beratenden und Ratsuchenden. Es zeigte sich, dass KI-Verfahren so weit trainiert werden können, dass sie feingranulare Sinnstrukturen in großen Textmengen differenzieren können. Mit einem ähnlichen Ansatz wurden die Möglichkeiten, aber auch die ethischen Implikationen der Nutzung maschineller Lernverfahren zur Analyse eines Selbsthilfeforums aufgezeigt.19 Zukünftig kann diese Technik vor allem bei Fragestellungen ein[1]gesetzt werden, die auf großen Textmengen basieren.
KI-basierte Interaktion ersetzt keinen menschlichen Kontakt
Für den direkten Einsatz von KI bei Klient(inn)en der sozialen Arbeit werden immer wieder Chatbots diskutiert. Dabei werden diese vor allem als Unterstützung oder Ergänzung bestehender Angebote gesehen, ohne dabei menschlichen Input zu ersetzen.20
Der Informatiker Jens Albrecht und andere21 entwickelten einen Prototyp eines Chatbots, der im weitesten Sinne psychosozial "berät". Dabei zeigten sich einige Herausforderungen in Bezug auf die Bereitstellung der Informationsbasis, doch selbst Studierende der sozialen Arbeit zeigten in den Begleitstudien eine große Akzeptanz der Technologie. Das deckt sich mit anderen Studienergebnissen: Studierende, die Symptome einer Angst- oder depressiven Störung aufwiesen, konnten mit einem Chatbot in ihren Anliegen unterstützt werden. Im therapiebegleitenden Einsatz wurden die benannten Symptome der Teilnehmenden signifikant verringert.22
Fazit: Risiken minimieren
Es zeigt sich, dass die tatsächlich verfügbaren Technologien aus dem Feld der künstlichen Intelligenz weit von den dystopischen Bildern der allmächtigen Roboter entfernt sind. Allerdings liegen mit den aktuell verfügbaren Technologien dennoch Werkzeuge vor, die in unterschiedlichen Settings der sozialen Arbeit verwendet werden können. Dabei ist es wichtig, ethische und professionelle Prinzipien von vornherein mitzudenken und so sicherzustellen, dass die Vorteile der neuen Technik den Klient(inn)en zugutekommen und die Risiken möglichst minimiert werden.
Anmerkungen
1. Vgl. Ertel, W.: Grundkurs Künstliche Intelligenz. Eine praxisorientierte Einführung. Heidelberg: Springer, 4. Auflage, 2016, S. 2 f.
2. Mainzer, K.: Künstliche Intelligenz - Wann übernehmen die Maschinen? Heidelberg: Springer, 2016, S. 3.
3. Ertel, a. a .O., S. 72, 123, 191.
4. Burghardt, J.; Lehmann, R.: Digitalisierung und Bewährungshilfe - Ein Überblick zum wissenschaftlichen Stand und zu Perspektiven der Digitalisierung von Beratungsprozessen. 2021, im Erscheinen; Schrödter, M.; Bastian, P.; Taylor, B.: Risikodiagnostik und Big Data Analytics in der Sozialen Arbeit. In: Kutscher, N. et al. (Hrsg.): Handbuch Soziale Arbeit und Digitalisierung. Weinheim: Beltz, 2020, S. 255-263.
5. Schierz, S.: Transformation der Bewährungshilfepraxis im Kontext von Digitalisierung und Risikoorientierung. In: Kutscher, N. et al., 2020, a. a.O., S. 565-574.
6. Bertsche, O.; Como-Zipfel, F.: Sozialpädagogische Perspektiven auf die Digitalisierung. In: Soziale Passagen, Volume 8/2017/Issue 2, S. 235-254.
7. Heesen, J. et al.: Ethik-Briefing. Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen. München: Lernende Systeme. Die Plattform für Künstliche Intelligenz, 2020.
8. Pietsch, W.; Wernecke, J.; Ott, M.: Philosophie und Wissenschaft im Zeitalter von Big Data. Wiesbaden: VS Verlag für Sozialwissenschaften, 2017.
9. Vgl. Lämmel, U.; Cleve, J.: Künstliche Intelligenz. Wissensverarbeitung - Neuronale Netze. München: Hanser Verlag, 2020, S. 26.
10. Lehmann, R.; Klug, W.: Die prozessorientierte Aktenanalyse. In: Begemann, M.C.; Birkelbach, K. (Hrsg.): Forschungsdaten für die Kinder- und Jugendhilfe. Qualitative und quantitative Sekundäranalysen. Heidelberg: Springer, 2019, S. 301-319.
11. Ghanem, C.; Eckl, M.; Lehmann, R.; Widerhold, J. P.: "Irgendwie fühle ich mich als Angehörige alleine gelassen". Eine automatisierte Analyse eines Onlineforums für Angehörige von Inhaftierten. In: Wunder, M. (Hrsg.): Digitalisierung und Soziale Arbeit - Transformationen, Beharrungen, Herausforderungen. Bad Heilbrunn: Klinkhardt-Verlag, 2021, im Druck.
12. Bendig, E.; Erb, B.; Schulze-Thüsing, L.; Baumeister, H.: Die nächste Generation: Chatbots in der klinischen Psychologie und Psychotherapie zur Förderung mentaler Gesundheit - Ein Scoping-Review. In: Verhaltenstherapie. 29, 2019.
13. Schrödter et al. 2020, a. a.O.
14. Lin, Z.; Jung, J.; Goel, S.; Skeem, J.: The limits of human predictions of recidivism. Science Advances, 6 (7), eaaz0652. American Association for the Advancement of Science, 2020.
15. Gillingham, P.: Can Predictive Algorithms Assist Decision-Making in Social Work with Children and Families? In: Child Abuse Review, 2019; Eubanks, V.: Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. London: St. Martin’s Press, 2018.
16. Gutwald, R.; Burghardt, J.; Kraus, M.; Reder, M.; Lehmann, R.; Müller, N.: Soziale Konflikte und Digitalisierung - Chancen und Risiken digitaler Technologien bei der Einschätzung von Kindeswohlgefährdungen. In: Ethikjournal, im Druck, vermutlich 2022.
17. Eckl, M.; Prigge, J.; Schildknecht, L.; Ghanem, C.: Zehn Jahre Soziale Passagen: Eine empirische Analyse ihrer Themen. In: Soziale Passagen 12/2020, S. 57-80; Eckl, M.; Ghanem, C.; Spensberger, F.: Mapping Discourses in Social Work Research - A Topic Modeling Approach. In: International Journal of Global Social Work 4(1) 2021.
18. Lehmann, R.; Albrecht, J.; Zauter, S.: Die computerun[1]terstützte Analyse sozialwissenschaftlicher Texte - Ergebnisse des Forschungsprojekts "Casotex". In: Freier, C. (Hrsg.): Gegenwart und Zukunft sozialer Dienstleistungsarbeit, Perspektiven Sozialwirtschaft und Sozialmanagement. Wiesbaden: Springer, 2021, S. 165-178, im Erscheinen.
19. Ghanem et al., 2021, a. a.O.
20. Waag, P.; Schiffhauer, B.; Seelmeyer, U.: Chatbots in der Beratung. In: Ernst, G.; Zühlke-Robinet, K.; Finking, G.; Bach, U. (Hrsg.): Digitale Transformation: Arbeit in Dienstleistungssystemen. Baden-Baden: Nomos, 1. Aufl. 2020, S. 181-192.
21. Albrecht, J.; Lehmann, R.; Zauter, S.: Digitale Assistenz in der psychosozialen Beratung. Projekt-Abschlussbericht, 2021, abrufbar TH Nürnberg unter Kurzlink: https://bit.ly/3FdUG48
22. Fitzpatrick, K. K.: Darcy, A.; Vierhile, M.: Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Mental Health, 4(2) 2017.
23. Drda-Kühn, K.; Hahner, R.; Schlenk, E.: Mit Smart[1]phone, Tablet und Sozialen Medien - Online-Beratung und -Therapie für die Generation der "Digital Natives". In: e-beratungsjournal.net , 14(1) 2018, S. 27-37.
EU-Außengrenze: Raus aus der Falle!
Das Telefon kann den persönlichen Kontakt nicht ersetzen
Vernetzte Beratung, unterstützt durch Künstliche Intelligenz
Etwas Kurzarbeit, viel Homeoffice
Männer dominieren weiterhin die Geschäftsführung der Träger
Hinterlassen Sie einen Kommentar zum Thema
Danke für Ihren Kommentar!
Ups...
Ein Fehler ist aufgetreten. Bitte laden Sie die Seite erneut und wiederholen Sie den Vorgang.
{{Reply.Name}} antwortet
{{Reply.Text}}