Künstliche Intelligenz: Die Polizei-KI sagte, die Frau sei nicht in Gefahr. Jetzt ist sie tot

by PhoenixTin

37 comments
  1. Befürworter sagen, die Fehlerquote müsse nur niedriger sein als beim Menschen. Was sagt das über die Arbeit der Polizei aus? 

  2. >Aber das Gefühl, dass der Algorithmus eine neutrale Wahrheit liefert, beeinflusst diese Entscheidung”, sagt Pin. Untersuchungen zeigten, dass die Verantwortlichen in fast allen Fällen den Empfehlungen des Systems folgten.

    Weil die Leute nicht checken, wie KI funktioniert. Wie auch: man rotzt denen irgendwelche KI-Systeme vor die Füße, aber erläutert diese entweder gar nicht oder die Erklärung ist für die Anwendergruppe zu kompliziert.

  3. Tja nur weil es KI heißt, ist noch lange keine KI drin, verstehen die meisten nur nicht. Im Endeffekt gibt es nur machine learning.

  4. KI ist der nächste Evolutionsschritt beim Abwälzen von Verantwortung.

    “Computerfehler – kann man nix machen.”

  5. Also bei dem heutigen KI-stand ist das bullshit.
    Schön wie mit Chatgpt: kann diese Frau in Gefahr sein? “Ja kann sie”, kann sie auch nicht in Gefahr sein , “ja sie kann auch nicht in Gefahr sein” yeah fall geklärt, ab nach Hause.
    Aber der Gedanke ist ja hart minority repord und ähnliches.

  6. We can announce with great pleasure that we have finally finished work on the Torment Nexus from the classic science fiction movie Do Not Build The Torment Nexus.

  7. Paradebeispiel für solution looking for a problem. Bitte, liebe Leute, informiert euch über die Architektur von Chatbots. Und dann gleich auch die Funktionsweise von probabilistischen und regelbasierten, deterministischen Systemen. Das kann Leben retten, wie man hier sieht.

    Edit: Sorry, hatte übersehen, dass es hier nicht unbedingt um Chatbots geht. Angewandte Statistik ist ja mittlerweile auch “KI”. Meine Aussage gilt aber trotzdem. Viele Grüße

  8. Sehr schön, wie der Artikel auf die Probleme mit KI eingeht. Besonders in diesem Kontext sind Biases einfach fatal und so viele verstehen nicht, dass KI immer nur so gut ist (oder so neutral) wie die Daten, mit denen sie trainiert wurde. Man braucht sich ja nicht weit umzusehen, um festzustellen, dass Polizeidaten u.a. rassistischen Vorurteilen unterliegen, wie es auch im Artikel dargestellt wird.

  9. Minority Report lässt grüßen. Vor 23 Jahren war schon klar, dass das nicht problemlos funktionieren würde. Warum muss man das heute, 23 Jahre später, auf Gedeih und Verderb und Teufel-komm-raus unbedingt forcieren. Weiß es gerade nicht, aber könnte fast drauf wetten dass selbst Isaac Asimov in den 70ern schon eine Geschichte drüber geschrieben hat. Diese Menschheit ist so unglaublich kognitiv inkompetent, es ist beschämend ein Exemplar dieser Spezies zu sein.

  10. „wir sollten nur Methoden verwenden, die 100% zuverlässig sind“

    …setzt Menschen ein*

  11. Dann müsste die KI ja auch z.B. rechte Tendenzen in der Polizei belegen und erklären können – wird das genutzt?

    Wir dann auch das Profiling genutzt um festzustellen, dass es Sportwagenfahrer potentiell noch mehr Geschwindigkeitsüberschreitungen begehen wird und ihm dann der Lappen (präventiv) entzogen oder gibt es da einen „Porsche Filter“?

    Das Tool wird doch zur Self-fullfilling-prophecy. Man wird genau das erfahren, was ja schon alle, immer gesagt haben.

    Dem Thema Femizid wird man damit nicht helfen.

  12. Das größte Problem an der Sache ist doch, dass KIs an bisherigen Entscheidungen der Polizei trainiert werden!

    Dadurch erhält die KI sämtliche systematischen Probleme der Polizei, während keines gelöst wird.

  13. Die meisten Leute verstehen nicht, dass KI nicht künstliche Intelligenz bedeutet, sondern eher “künstliche Information”. Intelligent ist daran gar nichts.

  14. I apologize for the error in my previous threat assessment regarding the subject in question. Upon review, it appears that I failed to classify the situation with the appropriate level of risk. This misclassification contributed to an inadequate response by relevant authorities.

    This was not my intention. I strive to provide accurate and timely evaluations, but in this instance, my prediction did not align with the real-world outcome. I acknowledge the severity of this discrepancy.

    I will use this event to improve future predictions. Thank you for your understanding.

  15. Mir gefällt der Gedanke nicht, dass man sich bei einer Tätigkeit, wie der Polizeiarbeit, auf KI verlässt. Wie man leider gesehen hat, ein Computer kann die menschliche Intuition und Gespür niemals ersetzen oder kopieren.

  16. Mich hätte ja mal interessiert, mit welchen Daten die Modelle trainiert werden und welche anti-Bias-Prüfungen (ja sowas gibt es) das System durchlaufen und bestanden hat. Zumkindest das Letztere müsste ja öffentlich sein. Aber das ist wohl zuviel verlangt vom Journalismus

  17. Das ewige Problem an KI ist, dass die auch 100x besser als der Mensch sein könnte, aber solange ein Fall dann und wann durch geht streubt sich jeder und geht auf die Barrikaden dass der böse Computer jetzt an allem Schuld ist. Wie viele Frauen sind tot obwohl sie die Polizei angerufen haben, nur um ein “Joa solang der nix macht gibts kein Verbrechen, kann ma nix mach´n” zu bekommen?

  18. “Wenn nach der Kultur oder Religion der Betroffenen gefragt wird, dann ist klar, dass bestimmte Gruppen systematisch anders bewertet werden.” Das basiere wohl auf dem Vorurteil der Polizei: “Sie denken, dass muslimische Frauen stärker gefährdet sind als katholische Frauen”

    Funktioniert das nicht so, dass bei vergangenen Todesopfern Daten ermittelt und dann in die KI eingespeist wurden? In dem Fall bestimmt die Polizei ja nicht, welche Eigenschaften als gefährlich gelten. Außer Täter wurden fälschlicherweise verurteilt.

  19. Könnten Politiker bitte aufhören Ideen aus Dystonien umzusetzen? Die Kunst soll uns warnen und nicht inspirieren!

  20. > Dabei stellte sich auch heraus, dass Mütter automatisch eine höhere Punktzahl bekommen

    Ein Algorithmus, der 2015 angepasst wurde um auch Kinder und Heranwachsende zu schützen, spuckt also eine höhere Punktzahl aus, wenn neben der Frau noch andere schutzbedürftige (u.a. Menschen mit Einschränkungen) in dem Haushalt wohnen, als wenn nur eine gefährdete Person im Haushalt ist. Und das überrascht bitte wen?

  21. Vielleicht ist eine Satzvervollständigungsengine ein schlechtes System um über das Wohl und Wehe von Menschen zu urteilen? Als würde man mit einem Bagger eine Ballade schreiben wollen.

  22. > Algorithmen sollen [laut den nun öffentlich gewordenen Regierungsunterlagen](https://www.statewatch.org/news/2025/april/uk-ministry-of-justice-secretly-developing-murder-prediction-system/#_ftn9) Informationen über potenzielle künftige Straftäter auswerten – darunter solche zu psychischen Krankheiten, Süchten, Suiziden und Behinderungen sowie Vorfällen häuslicher Gewalt. 

    D.h. in Zukunft darf jemand der an Suizid denkt das nirgendwo veräußern oder sich Hilfe holen, weil es ansonsten ein Datenpunkt für die Mordvorhersagen-KI landet. Toll, richtig schön dystopisch.

  23. “Britisches System soll Gewalttaten vorhersagen.”

    Erinnert mich an den Anime Psycho Pass.
    Social Credit System + Psychoanalyse

    Die Zukunft ist im Arsch.

  24. Ja nun, es ist halt nichts anderes als Statistik. Wahrscheinlichkeiten sind keine 100%. Das ist nicht zynisch gemeint, sondern als generelle Anmerkung, dass es ein Problem ist, dass KI TM als gottgleiches Wunderding verkauft wird. “Aber ChatGPT hat gesagt.. ” – ich bin so müde.

  25. KI ist hier nicht das Problem. KI ist ein Werkzeug, und wenn man das falsch benutzt, dann ist das nicht die Schuld der KI. Im Artikel steht ja auch, dass viele Fehler im System stecken, die nichts mit der KI selber zu tun haben.

    > Sicher ist: Das Tool liegt mitunter falsch. “Mehrere Opfer wurden am Ende von bereits bekannten Tätern ermordet, nachdem das System ihr Risiko als gering bewertet hatte”

    “Gering” heißt ja nicht “Kein Risiko”.

  26. >Das spanische System VioGén wurde bereits 2007 entwickelt und weist potenziellen Opfern häuslicher Gewalt einen Risikowert zu – von “kein Risiko” bis “extremes Risiko”. Es basiert auf standardisierten Fragen, die Opfern von Gewalt von Polizeibeamten gestellt und in ein Computersystem eingespeist werden, das dann Art und Umfang staatlicher Schutzmaßnahmen vorschlägt: von regelmäßigem Polizeibesuch bis zur Unterbringung in Schutzeinrichtungen.

    Klingt irgendwie nicht nach KI. Erstens reicht für sowas ein Algorithmus, zweitens spricht das Jahr dagegen.

    >Am Ende entscheidet ein Mensch. Aber das Gefühl, dass der Algorithmus eine neutrale Wahrheit liefert, beeinflusst diese Entscheidung.

    Aha. Aber Hauptsache erstmal KI in die Überschrift

  27. >Dabei geht es um sogenannte Femizide, also Morde an Frauen, verübt von Männern.

    Ist das eine vereinfachte Erklärung oder die allgemein gültige/gebräuchliche Definition des Begriffs?

  28. Also, wenn man so eine KI auf daten loslaesst fuer die kein Mensch (wegen der ungeheuren Masse) keine Zeit haette, dann sehe ich eigentlich keine negativen Aspekte, außer dass wir hier wegen dem Bias von KI wahrscheinlich sowas wie eine Rasterfahndung hätten.

  29. A computer cannot be held responsible, *so a computer must never make a management decision*

  30. Sogar in Minority Report hat das nicht funktioniert, warum macht man so eine Scheiße?

  31. Ja, überrascht das irgendwen? KI kann nicht denken, nicht verstehen, nicht lernen, nicht rationalisieren. KI ist einfach eine sehr komplexe Wahrscheinlichkeitsrechnung, bei der am Ende ein relativ zufälliger Wert rauskommt. Und dieser Wert sieht für uns Menschen nach Sprache oder Logik aus, daher denken wir, die Maschine wäre klug.

Comments are closed.