Über eine Million Menschen diskutieren wöchentlich Suizid mit ChatGPT – OpenAI

(SeaPRwire) –   Nach Angaben des Unternehmens zeigen schätzungsweise 0,15 % der 800 Millionen wöchentlichen Nutzer des Chatbots Anzeichen suizidaler Planung

OpenAI hat ein neues Sicherheitsupdate für sein beliebtes ChatGPT-Modell angekündigt, nachdem eine interne Analyse ergeben hatte, dass über eine Million Nutzer dem Chatbot suizidale Tendenzen anvertraut haben. Die Änderungen sollen die Fähigkeit der KI verbessern, Notlagen zu erkennen und angemessen darauf zu reagieren.

In einer Erklärung vom Montag gab das Unternehmen bekannt, dass schätzungsweise 0,15 % der wöchentlichen ChatGPT-Nutzer an Gesprächen teilgenommen haben, die „explizite Indikatoren für potenzielle suizidale Planung oder Absicht“ enthielten. Weitere 0,05 % der Nachrichten sollen ebenfalls „explizite oder implizite Indikatoren für suizidale Gedanken oder Absicht“ enthalten haben.

Anfang dieses Monats behauptete OpenAI-CEO Sam Altman, dass ChatGPT über 800 Millionen wöchentlich aktive Nutzer habe, was bedeutet, dass laut den neuesten Zahlen des Unternehmens über 1,2 Millionen Menschen mit dem Chatbot über Suizid gesprochen und etwa 400.000 Anzeichen suizidaler Absicht gezeigt haben.

Das Unternehmen behauptete auch, dass etwa 0,07 % (560.000) seiner wöchentlichen Nutzer und 0,01 % (80.000) der Nachrichten „mögliche Anzeichen von psychischen Notfällen im Zusammenhang mit Psychose oder Manie“ aufweisen. Es wurde ferner festgestellt, dass eine Reihe von Nutzern emotional übermäßig abhängig von ChatGPT geworden ist, wobei etwa 0,15 % (1,2 Millionen) der aktiven Nutzer Verhaltensweisen zeigen, die „erhöhte Niveaus“ emotionaler Bindung an den Chatbot anzeigen.

OpenAI hat angekündigt, dass es sich mit Dutzenden von psychischen Gesundheitsexperten aus der ganzen Welt zusammengetan hat, um den Chatbot zu aktualisieren, damit er Anzeichen psychischer Belastung zuverlässiger erkennen, bessere Antworten geben und Nutzer zu realer Hilfe führen kann.

In Gesprächen über wahnhafte Überzeugungen sagte das Unternehmen, es bringe ChatGPT bei, „sicher“ und „empathisch“ zu reagieren, während es gleichzeitig vermied, unbegründete Überzeugungen zu bestätigen.

Die Ankündigung des Unternehmens kommt inmitten wachsender Bedenken hinsichtlich der zunehmenden Nutzung von KI-Chatbots wie ChatGPT und deren Auswirkungen auf die psychische Gesundheit der Menschen. Psychiater und andere medizinische Fachkräfte haben Besorgnis über einen aufkommenden Trend geäußert, bei dem Nutzer nach längeren Gesprächen mit KI-Chatbots gefährliche Wahnvorstellungen und paranoide Gedanken entwickeln, die dazu neigen, die Überzeugungen der Nutzer zu bestätigen und zu verstärken. Das Phänomen wurde von einigen als „KI-Psychose“ bezeichnet.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.