Volgens de cijfers van OpenAI vertoonde ongeveer 0,07 procent van de ChatGPT-gebruikers die in een bepaalde week actief waren, dergelijke signalen. De chatbot, gebaseerd op kunstmatige intelligentie (AI), zou dat soort gevoelige gesprekken kunnen herkennen, schrijft de BBC.

Bovendien schat het bedrijf dat 0,15 procent van de ChatGPT-gebruikers gesprekken met de chatbot voert over ‘mogelijke suïcidale plannen en intenties’. ChatGPT maakte onlangs nog bekend 800 miljoen wekelijks actieve gebruikers te hebben.

Eerder maakten we een video over het gebruiken van ChatGPT als huisarts:

Het bedrijf zegt samen te werken met experts om de chatbot te adviseren hoe te reageren op zulke signalen. Zo zou er een reeks reacties in ChatGPT zijn geïnstalleerd waarmee gebruikers wordt opgeroepen om hulp te zoeken in de echte wereld.

In een van de meest spraakmakende rechtszaken die onlangs tegen OpenAI zijn aangespannen, klaagde een getrouwd stel uit Californië het bedrijf aan vanwege de dood van hun 16-jarige zoon. Ze beweerden dat ChatGPT hem in april had aangemoedigd zelfmoord te plegen.