Foto von Prof. Dr. David Lätsch, Forscher und Dozent am Departement Soziale Arbeit.

Algorithmen im Kindesschutz – sinnvoll oder riskant?

David Lätsch ist promovierter Psychologe und als Forscher und Dozent im Bereich Soziale Arbeit tätig. Im Projekt «Prädiktive Chancenmodellierung» erforschte er zusammen mit dem Amt für Jugend- und Berufsberatung einen neuen Ansatz im Kindesschutz. Ziel dabei: die Entwicklung von Algorithmen und statistischen Modellen zur Vorhersage von Fallverläufen im Kindesschutz. Im Video und Interview erfahrt ihr, ob und wie Sozialarbeit und Algorithmen zusammenpassen und welche Erkenntnisse David Lätsch aus dem Projekt mitnimmt.

David, du hast das Projekt im April 2022 abgeschlossen. Was sind erste Ergebnisse, die du erarbeitet hast?

David Lätsch: Bei dem Projekt ging es ja darum, die Wirksamkeit von Interventionen im Kindesschutz vorherzusagen. Unsere wichtigste Erkenntnis: So weit sind wir noch nicht. Es braucht noch eine ganze Menge an Vorarbeiten.

Welche Vorarbeiten meinst du?

Die erste Knacknuss, der wir uns jetzt mit voller Kraft widmen, ist die Art und Qualität der Daten. Bisher wurden im Kindesschutz die Daten nicht so erfasst, wie wir es für unseren Ansatz brauchen. Zum Beispiel ist es für uns zentral, dass in den Daten zum Ausdruck kommt, was genau das Problem ist. Im Kindesschutz ist die Feststellung einer so genannten Kindeswohlgefährdung der Ausgangspunkt jeglicher Massnahmen durch die KESB. Aber wodurch genau ist das Kindeswohl in einem konkreten Fall gefährdet? Weil die Eltern das Kind vernachlässigen? Wenn ja: Worin genau besteht die Vernachlässigung? Informationen wie diese können strukturiert und quantifizierbar erfasst werden, wodurch die Fälle untereinander verglichen werden können. In dem von uns verwendeten Datensatz sind solche Informationen zwar teilweise vorhanden, aber nur in unstrukturierter Form, beispielsweise in den Sätzen eines Berichts oder eines Gutachtens. Die Art und Weise, wie diese Dokumente aufgebaut sind und in welcher Detailtiefe sie welche Informationen enthalten, unterscheidet sich von Fall zu Fall stark.

Das klingt herausfordernd. Wie geht es nun weiter?

Wie es in der Forschung immer funktioniert: Man trägt das Problem Schicht für Schicht ab. (Lacht.) Ich habe das Glück, dass die Fortsetzung der Arbeiten im Rahmen einer DIZH-Fellowship der ZHAW unterstützt wird. In der ersten Phase wenden wir jetzt algorithmische Verfahren der Textanalyse an, um aus unstrukturierten Daten strukturierte Daten zu machen. Zum Beispiel lesen die Algorithmen aus einem Abklärungsbericht heraus, ob körperliche Gewalt Teil der Kindeswohlgefährdung ist und wenn ja, von wem diese Gewalt ausgeht und gegen wen sie sich richtet. Dabei bin ich nicht allein. Eine wichtige Rolle spielt mein Kollege Dragan Stoll. Er hat uns, damals noch als Mitarbeiter des Amts, im früheren Projekt unterstützt und schreibt jetzt im laufenden Projekt seine Doktorarbeit.

In der ersten Episode vom Podcast «sozial» sprichst du von Transparenz und stellst diese der Präzision und Komplexität von Algorithmen gegenüber. Nun interessiert mich: Ist die Praxis denn überhaupt bereit für den Einsatz von Algorithmen?

Beim Amt für Jugend und Berufsberatung, mit dem wir zusammenarbeiten, nehme ich eine grosse Neugierde und Offenheit war, sonst wäre die Zusammenarbeit ja gar nicht möglich geworden. Gleichzeitig gibt es bei den Sozialarbeitenden, die die Fallarbeit machen, sicher eine gewisse Skepsis. Das ist gut und richtig so. Eine Schwierigkeit sehe ich aber darin, die Sozialarbeitenden von der Präzision unserer Vorhersagen zu überzeugen, selbst wenn diese tatsächlich präzise sind, präziser als alles bisher Dagewesene.

Wie meinst du das?

Ein grundlegendes Problem im Kindesschutz wie auch in vielen anderen Feldern der Praxis ist es, dass Menschen langfristige Verläufe nur schlecht vorhersagen können. Zum Teil hat das damit zu tun, dass sie die Fälle nicht lange genug im Blick behalten können. Eine Sozialarbeiterin, die heute einer KESB im Fall der Familie Müller diese oder jene Massnahme empfiehlt, erfährt in aller Regel nicht, wie sich ihre Entscheidung für die Familie auf Dauer auswirkt. Oft hat sich ihre Arbeit schon mit dem Abklärungsbericht erledigt, danach sieht sie die Familie nicht wieder. Und selbst wenn sie den Fall über Jahre begleiten kann, weiss sie ja letztlich nicht, ob der Verlauf tatsächlich mit ihrer Entscheidung zusammenhängt, die sie vor langer Zeit getroffen hat. Es könnte ja auch sein, dass ganz andere Dinge das Schicksal der Familie Müller prägen. Um Klarheit über diese Dinge zu bekommen, müsste die Sozialarbeiterin sehr viele Fälle lange begleiten und dabei in ähnlichen Fällen aus experimenteller Neugierde unterschiedliche Entscheidungen treffen, um die zeitlichen Folgen dieser unterschiedlichen Entscheidungen miteinander vergleichen zu können. Das geht nicht.

Und warum erschwert das eure Arbeit? Besteht nicht das Potenzial der Algorithmen gerade darin, dass sie auf diese umfangreichen Datensätze zurückgreifen, die der Sozialarbeiterin fehlen?

Genau. Das Problem ist aber, dass es Jahre brauchen würde, um zu zeigen, dass die algorithmischen Vorhersagen in den aktuellen Fällen tatsächlich präziser sind als die Prognosen der Sozialarbeitenden. Wir können nur zeigen, dass die Algorithmen die Fallverläufe in der Vergangenheit gut vorhersagen können, und zwar auch jene Fälle, für die sie nicht entwickelt worden sind. Dazu müssen wir ziemlich abstrakt argumentieren, mit Wahrscheinlichkeiten, mit Begriffen wie «richtig-positiv» und «falsch-negativ» und dergleichen. Demgegenüber sind einfache Ansätze des Prognostizierens, die sich nicht auf Forschung, sondern auf althergebrachte, simple Theorien abstützen, klar im Vorteil. Diese Vorhersagen sind zwar mutmasslich nicht präzise, aber transparent.

Puh. Klingt wie ein Teufelskreis.

Siehst du. (Lacht.) Ich bin allerdings optimistisch. Falls wir erfolgreich sind, wird uns die Praxis deswegen nicht gleich aus der Hand fressen. Sondern wir werden Überzeugungsarbeit leisten müssen. Diese Auseinandersetzung mit der Praxis liebe ich. Das unterscheidet die Fachhochschule vom Elfenbeinturm, und deswegen bin ich gerne hier. Also unten, auf dem Boden.

Drei Fragen an David Lätsch

Defaulttext aus wp-youtube-lyte.php
Auf dem Boden geblieben: David Lätsch erklärt die Zusammenhänge von Sozialer Arbeit und technischen Hilfsmitteln wie Algorithmen. Video: Fabienne Kirsch

Im Video sprichst du von fairen, auf Algorithmen basierenden Entscheidungen. Was ist überhaupt fair/gerecht?

Es gibt unterschiedliche Theorien der Gerechtigkeit. Das Spannende an den Algorithmen ist, dass man bei ihnen prinzipiell mathematisch beschreiben kann, wie gut sie die Anforderungen unterschiedlicher Gerechtigkeitstheorien erfüllen. Ein Beispiel: Mit Ausnahme der Rassisten sind sich wohl alle einig darin, dass die Hautfarbe eines Menschen keine Rolle dabei spielen darf, wie lange dieser Mensch nach einer Straftat ins Gefängnis muss. In den USA werden Algorithmen teilweise dazu eingesetzt, die Rückfallwahrscheinlichkeit von Straftätern zu prognostizieren, und diese Prognosen beeinflussen ihrerseits das Strafmass. Wenn man nun zeigen kann, dass ein Algorithmus bei ansonsten gleichen Merkmalen dem dunkelhäutigen Straftäter eine schlechtere Prognose gibt als dem hellhäutigen, dann ist das ungerecht. Und diese Ungerechtigkeit kann beseitigt werden, indem man das entsprechende Merkmal aus der Rechnung entfernt oder seinen Einfluss kompensiert. Versuch das mal bei einem Richter.

Läuft das auf die Folgerung hinaus, dass Algorithmen nur so fair sind wie die Menschen, die sie einsetzen?

In gewisser Weise ja. Um es mit Kant zu sagen: Die Algorithmen haben keine praktische Vernunft, die müssen wir ihnen schon selber beibringen. Ich glaube aber, dass es leichter sein wird, einem Algorithmus Vernunft beizubringen als einem einzelnen Menschen. Algorithmen sind buchstäblich berechenbar, Menschen nicht. Im besten Fall ähneln Algorithmen unseren demokratischen Institutionen: als Destillate unserer Vernunft. Dazu müssen sie allerdings die Kritik an ihnen nicht nur aushalten. Sie brauchen sie sogar.

Kindeswohlgefährdung: wenn Eltern oder andere Sorgeberechtigte die ihnen anvertrauten Kinder vernachlässigen, misshandeln oder missbrauchen
Interventionen: Die KESB kann Massnahmen zum Schutz von Kindern ergreifen, wenn das Kindeswohl gefährdet ist. Die im Zivilgesetzbuch ausdrücklich erwähnten Massnahmen sind:
– Ermahnung, Weisung, Aufsicht durch eine Fachperson
– Beistandschaft: eine Beistandsperson unterstützt die Eltern bei der Erziehung und Betreuung
– Aufhebung des Aufenthaltsbestimmungsrechts: Wenn keine andere Massnahme geeignet ist, kann das Kind von den Eltern getrennt und in einer Pflegefamilie oder geeigneten Institution untergebracht werden; dazu wird den Eltern nötigenfalls das Recht zur Bestimmung über den Aufenthalt des Kindes entzogen
– Entziehung der elterlichen Sorge: dem Kind wird ein Vormund zur Seite gestellt

Weiterführende Links:


Leave a Reply

Your email address will not be published. Required fields are marked *