Ich fand das Paper nicht überzeugend, die Tests sind viel zu eng gefasst. Der “Mathematik”-Teil besteht nur daraus GPT 500-mal zu fragen “Ist X eine Primzahl”. Der Coding-Teil testet ob die generierte Antwort “direkt ausführbar” ist, wobei neuere GPT Versionen halt Code meistens als Markdown formatiert mit Annotation zur verwendeten Programmiersprache ausgeben. Das kann man natürlich nicht direkt ausführen, was in dem Paper auch diskutiert wird. Aber soweit ich es verstehe sind die dann nicht auf die Idee gekommen diese Art von Ausgabe auch zu akzeptieren.
Ich hab das Paper aber auch nur überflogen, und einen Teil den ich positiv anmerken würde ist das am Ende ein Github Repository mit den genauen Fragen verlinkt ist.
macht r/de doch schlauer und verlinkt nicht die Schrottpresse, sondern die Quelle.
Werbeschleudern geben allen Inhalten einen dramatisieren Spin.. Journalismus begreift sich als “Geschichtenerzähler” und das macht Leute dümmer.
>Lingjiao Chen†, Matei Zaharia‡, James Zou† †Stanford University ‡UC Berkeley Abstract
>
>
>
> GPT-3.5 and GPT-4 are the two most widely used large language model (LLM) services. However, when and how these models are updated over time is opaque. Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous questions, 3) generating code and 4) visual reasoning. We find that the performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time. For example, GPT-4 (March 2023) was very good at identifying prime numbers (accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions (accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5 (March 2023) in this task. GPT-4 was less willing to answer sensitive questions in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes in code generation in June than in March. Overall, our findings shows that the behavior of the “same” LLM service can change substantially in a relatively short amount of time, highlighting the need for continuous monitoring of LLM quality.
Sehr gut wir Gewinnen! Nehmt das aliens
Der wissenschaftliche Artikel, auf dem die Nachricht fußt, sagt doch nur, dass es Veränderungen im Antwortverhalten gibt, also die zeitliche Relibilität nicht gegeben ist. Das ist schon eine sehr andere Aussage, als Golem zu erwecken scheint.
Hab mal Versucht zum Spaß eine Literaturliste für meine Forschung über ChatGTP zu erstellen, alle Titel waren einfach erfunden. Trotzdem erwischen wir immer Studenten die über GPT Arbeiten schreiben.
da hängen vermutlich soviele Prompts vorne dran, ich bekomme auch nur noch schlechten Output, der sich wiederholt, falsch ist, einfach wirklich schlecht.
Bei so vielen Anfragen am Tag, würden meine Antworten auch schlechter werden.
9 comments
Menschheit in a nutshell.
Ich fand das Paper nicht überzeugend, die Tests sind viel zu eng gefasst. Der “Mathematik”-Teil besteht nur daraus GPT 500-mal zu fragen “Ist X eine Primzahl”. Der Coding-Teil testet ob die generierte Antwort “direkt ausführbar” ist, wobei neuere GPT Versionen halt Code meistens als Markdown formatiert mit Annotation zur verwendeten Programmiersprache ausgeben. Das kann man natürlich nicht direkt ausführen, was in dem Paper auch diskutiert wird. Aber soweit ich es verstehe sind die dann nicht auf die Idee gekommen diese Art von Ausgabe auch zu akzeptieren.
Ich hab das Paper aber auch nur überflogen, und einen Teil den ich positiv anmerken würde ist das am Ende ein Github Repository mit den genauen Fragen verlinkt ist.
macht r/de doch schlauer und verlinkt nicht die Schrottpresse, sondern die Quelle.
Werbeschleudern geben allen Inhalten einen dramatisieren Spin.. Journalismus begreift sich als “Geschichtenerzähler” und das macht Leute dümmer.
[https://www.smbc-comics.com/index.php?id=3732](https://www.smbc-comics.com/index.php?id=3732)
​
Paper:
[https://arxiv.org/pdf/2307.09009.pdf](https://arxiv.org/pdf/2307.09009.pdf)
​
Abstract:
>Lingjiao Chen†, Matei Zaharia‡, James Zou† †Stanford University ‡UC Berkeley Abstract
>
>
>
> GPT-3.5 and GPT-4 are the two most widely used large language model (LLM) services. However, when and how these models are updated over time is opaque. Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on four diverse tasks: 1) solving math problems, 2) answering sensitive/dangerous questions, 3) generating code and 4) visual reasoning. We find that the performance and behavior of both GPT-3.5 and GPT-4 can vary greatly over time. For example, GPT-4 (March 2023) was very good at identifying prime numbers (accuracy 97.6%) but GPT-4 (June 2023) was very poor on these same questions (accuracy 2.4%). Interestingly GPT-3.5 (June 2023) was much better than GPT-3.5 (March 2023) in this task. GPT-4 was less willing to answer sensitive questions in June than in March, and both GPT-4 and GPT-3.5 had more formatting mistakes in code generation in June than in March. Overall, our findings shows that the behavior of the “same” LLM service can change substantially in a relatively short amount of time, highlighting the need for continuous monitoring of LLM quality.
Sehr gut wir Gewinnen! Nehmt das aliens
Der wissenschaftliche Artikel, auf dem die Nachricht fußt, sagt doch nur, dass es Veränderungen im Antwortverhalten gibt, also die zeitliche Relibilität nicht gegeben ist. Das ist schon eine sehr andere Aussage, als Golem zu erwecken scheint.
Hab mal Versucht zum Spaß eine Literaturliste für meine Forschung über ChatGTP zu erstellen, alle Titel waren einfach erfunden. Trotzdem erwischen wir immer Studenten die über GPT Arbeiten schreiben.
da hängen vermutlich soviele Prompts vorne dran, ich bekomme auch nur noch schlechten Output, der sich wiederholt, falsch ist, einfach wirklich schlecht.
Bei so vielen Anfragen am Tag, würden meine Antworten auch schlechter werden.
Burnout
Chat gpt war dumm immer.