Können digitale Algorithmen helfen, Kinder wie Gabriel Fernandez vor Missbrauch zu schützen?

Jedes Jahr werden rund 7 Millionen Kinder den Kinderschutzbehörden wegen möglichen Missbrauchs gemeldet. Wie bestimmen die Behörden jedoch, ob Kinder dies mögen? Gabriel Fernandez sind in großer Gefahr und bedürfen einer Intervention?





Viele Kinderhilfsbehörden verlassen sich auf die Risikobewertungen von Mitarbeitern, die darin geschult sind, Telefonleitungen zu managen, wenn mutmaßlicher Missbrauch gemeldet wird. Einige glauben jedoch, dass es einen besseren Weg gibt.

Die Hügel haben Augen wahre Geschichte

'Es gibt eine breite Palette von Literatur, die darauf hindeutet, dass Menschen keine besonders guten Kristallkugeln sind', so Emily Putnam-Hornstein, Direktorin der Kinder-Datennetz und ein außerordentlicher Professor am USC, sagte in der neuen Neflix-Doku-Serie 'The Trials of Gabriel Fernandez'. 'Stattdessen wollen wir einen Algorithmus trainieren, um herauszufinden, welches dieser Kinder zu einem Profil passt, bei dem das Langbogenrisiko auf eine zukünftige Systembeteiligung hindeutet.'



Fernandez war ein 8-jähriger Junge, der von ihm geschlagen und zu Tode gefoltert wurde Mutter und sie Freund trotz wiederholter Anrufe seines Lehrers und anderer bei Behörden, die mutmaßlichen Missbrauch melden. Die neue sechsteilige Serie untersucht Fernandez 'Leben und seinen schrecklichen Tod, wirft aber auch einen größeren Blick darauf systemische Probleme innerhalb des Kinderhilfesystems, das eine Rolle gespielt haben könnte.



Putnam-Hornstein argumentiert, dass eine Strategie zur effektiveren Identifizierung der Kinder mit dem größten Risiko darin bestehen könnte, speziell entwickelte Algorithmen zu verwenden, die Verwaltungsaufzeichnungen und Data Mining verwenden, um die Risikobewertungen für jedes Kind zu bestimmen.



'Wir haben tatsächlich ungefähr 6 oder 7 Millionen Kinder, die jedes Jahr in den USA wegen angeblichen Missbrauchs oder Vernachlässigung gemeldet werden. Historisch gesehen basiert die Art und Weise, wie wir einige unserer Screening-Entscheidungen getroffen haben, nur auf einer Art Darmbewertung', sagte sie. 'Die prädiktive Risikomodellierung sagt nur:' Nein, nein, nein, lassen Sie uns dies systematischer und empirischer angehen. '

Putnam-Hornstein und Rhema Vaithianathan, der Co-Direktor der Zentrum für Social Data Analytics konnten die Idee in Allegheny County, Pennsylvania, in die Praxis umsetzen. Das Paar verwendete Tausende von Überweisungen wegen Kindesmisshandlung, um einen Algorithmus zu entwickeln, der eine Risikobewertung für jede Familie ermittelt, die den Kinderschutzdiensten des Landkreises gemeldet wurde Zentrum für Gesundheitsjournalismus .



channon christian und christopher newsom fotos

'Es gibt ungefähr hundert verschiedene Faktoren, die betrachtet werden', erklärte Marc Cherna, Direktor der Abteilung für Human Services des Allegheny County, in der Doku-Reihe. 'Einige grundlegende Beispiele sind die Geschichte des Kindeswohls, die Geschichte der Eltern, sicherlich Drogenkonsum und Sucht, familiäre psychische Erkrankungen, Gefängnis und Verurteilungen, insbesondere wenn es Übergriffe und ähnliches gibt.'

Aufgrund des großen Anrufvolumens haben die Kinderhilfsbehörden im ganzen Land die Aufgabe zu bestimmen, ob eine Familie aufgrund der Beschwerde zur Untersuchung untersucht oder ausgesucht werden soll.

Im Jahr 2015 wurden laut Angaben 42% der landesweit 4 Millionen Vorwürfe, an denen 7,2 Millionen Kinder beteiligt waren, herausgefiltert Die New York Times .

Dennoch sterben Kinder weiterhin an Kindesmissbrauch.

Das in Allegheny County verwendete System wurde entwickelt, um durch Datenanalyse genauer vorherzusagen, welche Familien künftig wahrscheinlich an einem System beteiligt sind.

'Was Screener haben, sind viele Daten', sagte Vaithianathan der Times. 'Aber es ist ziemlich schwierig zu navigieren und zu wissen, welche Faktoren am wichtigsten sind. Innerhalb eines einzigen Anrufs bei C.Y.F. Vielleicht haben Sie zwei Kinder, einen mutmaßlichen Täter, Sie haben eine Mutter, Sie haben vielleicht einen anderen Erwachsenen im Haushalt - all diese Personen haben eine Historie im System, die die Person, die den Anruf überprüft, untersuchen kann. Aber das menschliche Gehirn ist nicht so geschickt darin, alle Daten zu nutzen und zu verstehen. “

Das Screening-Tool der Allegheny-Familie verwendet eine statistische Technik namens „Data Mining“, um historische Muster zu untersuchen und „zu versuchen, eine Vorhersage darüber zu treffen, was in einem bestimmten Fall passieren könnte“, sagte sie in der Doku-Reihe.

süßes junges jugendlich wird von ihrem Lehrer verführt und schließt sich einem Dreier an

Jeder Fall erhält eine Risikobewertung zwischen eins und 20, wobei jeder Fall entweder als risikoreich, mittelriskant oder risikoarm eingestuft wird.

Rachel Berger, eine Kinderärztin am Kinderkrankenhaus von Pittsburgh, sagte der Times im Jahr 2018, dass die prädiktive Analyse wertvoll ist, weil sie einen Teil der Subjektivität beseitigt, die normalerweise in den Prozess einfließt.

'Alle diese Kinder leben im Chaos', sagte sie. „Wie funktioniert C.Y.F. Finden Sie heraus, welche am stärksten gefährdet sind, wenn sie alle Risikofaktoren haben. Sie können nicht glauben, wie subjektiv die Entscheidungen zum Schutz von Kindern sind. Deshalb liebe ich Predictive Analytics. Es bringt endlich etwas Objektivität und Wissenschaft in Entscheidungen ein, die so unglaublich lebensverändernd sein können. '

Es gab aber auch Kritiker, die argumentierten, dass die Verwendung von Predictive Analytics auf Daten beruht, die möglicherweise bereits voreingenommen sind. Frühere Untersuchungen haben gezeigt, dass Minderheiten und Familien mit niedrigem Einkommen in den gesammelten Daten häufig überrepräsentiert sind, was laut der Doku-Reihe möglicherweise zu einer Tendenz gegenüber afroamerikanischen Familien oder anderen Minderheitenfamilien führt.

„Die menschlichen Vorurteile und DatenverzerrungenHand in Hand miteinander gehen', Sagte Kelly Capatosto, eine leitende wissenschaftliche Mitarbeiterin am Kirwan-Institut für das Studium von Rasse und ethnischer Zugehörigkeit an der Ohio State University, laut dem Center for Health Journalism. „Bei diesen Entscheidungen denken wir über Überwachung und Systemkontakt nach - mit der Polizei, den Kinderhilfswerken und allen Sozialhilfeagenturen. Es wird in (einkommensschwachen und Minderheiten-) Gemeinschaften überrepräsentiert sein. Es ist nicht unbedingt ein Hinweis darauf, wo diese Instanzen stattfinden. '

Erin Dalton, stellvertretende Direktorin des Büros für Analyse, Technologie und Planung des Allegheny County, räumte ein, dass Voreingenommenheit möglich ist.

Mein seltsamer Suchtsex mit dem Auto

„Natürlich sind unsere Systeme voreingenommen. Kindesmissbrauch wird von uns und unseren Daten nicht als Funktion des tatsächlichen Kindesmissbrauchs angesehen, sondern als Funktion dessen, wer gemeldet wird “, sagte sie in der Netflix-Serie.

Der Landkreis teilte dem Zentrum für Gesundheitsjournalismus jedoch mit, dass er festgestellt habe, dass der Erhalt öffentlicher Leistungen die Risikobewertung für fast alle Familien senkt.

T.Der Landkreis ist „sehr sensibel“ für diese Bedenken und führt derzeit eine Analyse des Systems durch, um festzustellen, ob Gruppen überproportional angesprochen wurden, sagte Cherna auch in der Doku-Reihe.

Das Allegheny County-System gehört dem County selbst, es wurden jedoch auch andere private Screening-Systeme kritisiert.

Das Illinois Department of Children and Family Services gab 2018 bekannt, dass es kein Predictive Analytics-Paket mehr verwenden wird, das von Eckerd Connects, einer gemeinnützigen Organisation, und seinem gemeinnützigen Partner MindShare Technology entwickelt wurde, auch weil das Unternehmen sich weigerte, Einzelheiten zu den Faktoren anzugeben wurden in ihrer Formel nach The Times verwendet.

Berichten zufolge hat das System Tausende von Kindern als dringend schutzbedürftig eingestuft, was mehr als 4.100 Kindern in Illinois eine Wahrscheinlichkeit von 90 Prozent oder mehr für Tod oder Verletzung bietet. Die Chicago Tribune im Jahr 2017 gemeldet.

Andere Kinder, die keine hohen Risikobewertungen erhielten, starben jedoch immer noch an Missbrauch.

'Predictive Analytics (hat) keinen der schlimmen Fälle vorhergesagt', sagte Beverly 'B.J.', Direktorin der Abteilung für Kinder- und Familiendienste. Walker erzählte der Tribune. 'Ich habe beschlossen, diesen Vertrag nicht fortzusetzen.'

Daniel Hatcher, Autor von „ Die Armutsindustrie: Die Ausbeutung der am stärksten gefährdeten Bürger Amerikas 'Verglich einige der Analysesysteme mit einer' Black Box 'und sagte in der Doku-Serie, dass es nicht immer klar ist, wie sie ihre Entscheidungen treffen.

untere 9. Station vorher und nachher

'Sie haben keine Möglichkeit herauszufinden, wie sie tatsächlich ein Maß an Pflege festlegen, das einen enormen Einfluss auf eine Person hat', sagte er.

Putnam-Hornstein räumte ein, dass die prädiktiven Analysesysteme nicht in der Lage sind, zukünftiges Verhalten zu bestimmen, glaubt jedoch, dass dies ein wertvolles Instrument ist, mit dem Screener fundiertere Entscheidungen darüber treffen können, welche Kinder dem größten Risiko ausgesetzt sind.

'Ich hoffe, dass diese Modelle unserem System helfen werden, der relativ kleinen Untergruppe von Empfehlungen, bei denen das Risiko besonders hoch ist, mehr Aufmerksamkeit zu schenken, und wir werden in der Lage sein, diesen Kindern und Familien vorbeugend mehr Ressourcen zu widmen', sagte sie an das Zentrum für Gesundheitsjournalismus. 'Ich möchte nicht, dass jemand die prädiktive Risikomodellierung verkauft. Es ist keine Kristallkugel. Es wird nicht alle unsere Probleme lösen. Wenn wir jedoch am Rande etwas bessere Entscheidungen treffen und die Fälle mit hohem Risiko identifizieren und diese aus den Fällen mit niedrigem Risiko heraussortieren und entsprechend anpassen können, könnte dies eine wichtige Entwicklung auf diesem Gebiet sein. “

Beliebte Beiträge