KI-Müll in US-Urteilen aufgeflogen

by DubioserKerl

7 comments
  1. >KI-Müll in Gerichtseingaben ist eine Plage. Nun sind auch Entscheidungen zweier US-Gerichte aufgeflogen. Ein Praktikant sei schuld, sagt ein erwischter Richter.

    Soso, ein Praktikant.

    (x) Doubt

  2. Ich wette wir haben jede Menge Lobbyisten, die sich im Bundestag Schlange für eine KI-freundliche Gesetzgebung einsetzen. Um den Innovationsstandort Deutschland zu sichern, Arbeitsplätze zu schaffen, etc.

    Dabei gehören jetzt auch Regeln aufgestellt, um eben auch die Grenzen jetzt aufzuzeigen – sonst werden die KI-Sonderfälle Stanndard:
    * KI-Urteile
    * KI-Support
    * KI-Krankenkassenentscheidung
    * KI-Amtsbescheide

    Hier werden dann die Kosten externalisiert, die andere Partei muss dann Sorgfalt für sich und das Gegenüber übernehmen.

    Bei ALG-II/Bürgergeld kann man schon sehen, wie Gerichtsprozesse quasi eingepreist sind. Die Mitarbeiter haben nicht genügend Zeit die Anträge korrekt zu bearbeiten, Kanzleien spezialisieren sich darauf fehlerhafte Anträge anzufechten und das Amt bezahlt die Gerichtskosten. KI ist dann nur der nächste Schritt.

  3. > Richter Wingate schiebt den Fehler auf einen juristischen Mitarbeiter, der das Große Sprachmodell Perplexity genutzt habe, […]
    >
    > Laut Neals soll gar ein Rechtswissenschaften studierender Praktikant Schuld tragen. Dieser habe ChatGPT genutzt, “ohne Genehmigung, ohne Offenlegung, entgegen nicht nur der Gerichtsregeln, sondern auch anwendbarer Regeln (seiner) Universität

    Ziemlich peinliche Worte für einen Richter.

    Erinnert an die Kollegen, die ihre heutigen Probleme auf den Code von
    ehemaligen Werkstudenten schieben.
    Die Werkstudenten sind nicht schuld, sondern wer auch immer den
    Scheiß damals gereviewet, abgenickt und gemerget hat!
    Dabei spielt es keine Rolle, ob die Werkstudentin ihre Aufgaben an ein
    LLM delegiert hat, denn gegeben saubere Arbeitsweise ihres Betreuers
    sollte Pfuscherei spätestens beim Code Review auffallen.

    Ich gehe davon aus, dass es in der Juristerei ein Äquivalent zu Peer Review
    gibt … Bin ich doch zu naiv?

  4. Wir sind mitten drin, dass Firmen und sicherlich bald schon Behörden ihre Prozesse komplett an KI auslagern.

  5. Wird leider auch hier noch passiert (bzw. passiert wahrscheinlich schon). Wenn die Möglichkeiten da sind, werden es zwangsläufig auch Leute benutzen. Hab letzt mitbekommen, wie sich ein Amtsrichter beschwert hat, das eine Frist in seiner Abteilung nicht eingehalten wird. Es gab diese Frist allerdings laut Gesetzestext nicht. Ratet mal, wer ihm diese angebliche Frist halluziniert hat…

  6. Vor ein paar Monaten hatte ein amerikanischer Anwalt auf reddit gepostet, dass in einem seiner Verfahren der Anwalt der Gegenseite eine Antwort auf einen seiner Anträge eingereicht hat, und er hat beim Durchlesen schnell gemerkt, dass die Antwort auch mit KI geschrieben wurde.

    Es wurden Fälle zitiert, die es nicht gibt. Wenn es den Fall doch gab, gab es die Referenz nicht. Wenn es die Referenz doch gab, gab es das Zitat nicht im Text. Die Antwort hat seinen ursprünglichen Antrag komplett zerlegt, aber mit vollkommen herbei halluzinierten Argumenten ohne jegliche Grundlage in der Realität. Und dann waren da noch die üblichen Hinweise wie Formfehler, plötzliche Auflistungen, Fettdruck, und die berüchtigten Geviertstriche, im Englischen em dashes (—), welche besonders gerne von KIs benutzt werden aber kaum von Menschen.

    Der Anwalt der Gegenseite war ein älterer Herr mit mehreren Jahrzehnten Erfahrung. Er war wohl sehr reumütig und ihm war die Sache extrem peinlich. Er meinte, er habe einen jüngeren und mittlerweile entlassenen Anwalt die Antwort ausarbeiten lassen und sie dann ohne Gegenkontrolle abgeschickt.

    [Thread mit Update auf BestOfRedditorUpdates](https://www.reddit.com/r/BestofRedditorUpdates/comments/1od8b6p/opposing_counsel_just_filed_a_chatgpt/)

  7. Ich bin für ein EU-weites KI-Verbot abseits von Unterhaltungszwecken. 

Comments are closed.