Die chinesische KI DeepSeek ist zensiert. Doch da ist mehr: Stellt man chinakritische Fragen, steigt die Wahrscheinlichkeit, dass sie Code mit Sicherheitslücken ausgibt.

20. November 2025, 6:01 Uhr

42 Kommentare

Zusammenfassen

Schließen
Artikelzusammenfassung

Künstliche Intelligenz (KI) übernimmt wie ein Kind die Werte seiner Eltern, warnt der Leiter der KI-Entwicklung beim BKA. Chinesische KI-Modelle wie DeepSeek produzieren gefährlichen Code aufgrund fremder Wertvorstellungen. Die Zensur in China beeinflusst die Antworten von KI-Modellen und führt zu Sicherheitslücken. US-Modelle kämpfen ebenfalls mit Verzerrungen in den Antworten aufgrund der Trainingsdaten. Die Erziehung von KI-Modellen birgt Risiken und wirft ethische Fragen auf.

Diese Zusammenfassung wurde mithilfe von Künstlicher Intelligenz erstellt. Vereinzelt kann es dabei zu Fehlern kommen.

Gefällt mir

Gefällt mir

Gefällt mir nicht

Gefällt mir nicht

Send

DeepSeek: Das Logo von DeepSeek vor der chinesischen Flagge. Die staatliche Zensur wirkt sich auf die Antworten des Chatbots aus.

Das Logo von DeepSeek vor der chinesischen Flagge. Die staatliche Zensur wirkt sich auf die Antworten des Chatbots aus.
© [M] Andrey Rudakov/​Bloomberg/​Getty Images

Künstliche Intelligenz (KI) könne man sich durchaus wie ein Kind vorstellen, das die Vorstellungen und Werte seiner Eltern übernimmt. Das sagt Andreas Lezgus, der Leiter der Abteilung Architektur und strategische Programme des Bundeskriminalamtes (BKA), der auch für die KI-Entwicklung der Behörde zuständig ist. KI-Modelle, beispielsweise aus den USA oder aus China, soll das heißen, basieren eben auf völlig anderen Wertvorstellungen und politischen Konzepten als den unseren europäischen. Bei der Herbsttagung des BKA sprach Lezgus über die Gefahren, die daraus erwachsen können, wenn staatliche Behörden sich von Software aus solchen Ländern abhängig machen.