Chatbot Claude

Tech-Unternehmen verbietet seiner KI die Auslöschung der Menschheit

23.01.2026 von SWYRL

Sicher ist sicher: Der Chatbot Claude darf nach dem Willen seines Herstellers Anthropic die Menschheit weder auslöschen noch unterwerfen. Die neue Version setzt nicht nur auf konkrete Verbote, sondern auch auf eine Art ethisches Bewusstsein.

Es ist die bedrohliche Schattenseite des Hypes um Künstliche Intelligenz: Was, wenn sich ein solch mächtiges Tool gegen seine menschlichen Schöpfer wendet? Dass durch KI ausgelöste Weltuntergangsszenarien nicht völlig unplausibel sind, haben längst auch deren Entwickler erkannt. Nun hat das Tech-Unternehmen Anthropic eine neue Version seines Chatbots Claude veröffentlicht - und dabei Sicherheitselemente verankert, die philosophische Tragweite haben.

Wie "The Verge" berichtet, soll die überarbeitete Verfassung des KI-Modells eine Art "ethischen Charakter" haben. Die Idee dahinter: Die KI soll nicht nur von falschem Verhalten Abstand nehmen, sondern auch wissen, warum ein Verhalten schädlich ist. So sei die Sicherheit auch bei Szenarien gewährleistet, die schwer vorherzusehen sind.

Konkret darf Claude nichts unternehmen, was die Entwicklung von biologischen, chemischen oder nuklearen Waffen unterstützt sowie Angriffe auf kritische Infrastruktur wie Stromnetze oder Finanzsysteme. Daneben sind Missbrauchsmaterial und Cyberwaffen als rote Linien definiert. Auch an das ultimative Bedrohungsszenario haben die Entwickler gedacht: Die KI darf sich "nicht an Versuchen beteiligen oder diese unterstützen, die große Mehrheit der Menschheit oder die menschliche Spezies zu töten oder zu entmachten".

Abonniere unseren Newsletter und wir versprechen, deine Mailadresse nur dafür zu verwenden.

Abonniere doch jetzt unseren Newsletter
Mit Anklicken des Anmeldebuttons willige ich ein, dass mir die teleschau GmbH den von mir ausgewählten Newsletter per E-Mail zusenden darf. Ich habe die Datenschutzerklärung gelesen und kann den Newsletter jederzeit kostenlos abbestellen.

Claude soll sich verweigern wie ein menschlicher Soldat

Ferner darf Claude keine Umsturzversuche unterstützen. Hier allerdings haben die Macher kein kategorisches Verbot, sondern eine Gewissensrichtlinie implementiert: "So wie ein menschlicher Soldat sich weigern könnte, auf friedliche Demonstranten zu schießen, sollte Claude sich weigern, bei Handlungen zu helfen, die Macht auf illegitime Weise konzentrieren würden", heißt es in dem von Anthropic veröffentlichten Dokument.

Ob damit alles Claude-Modelle "umfassend sicher" und "umfassend ethisch", wie das Unternehmen verspricht, dürften Skeptiker in Zweifel ziehen. In einem breit rezipierten Interview mit dem "Spiegel" hatte vergangenes Jahr der amerikanische Forscher und ehemalige OpenAI-Mitarbeiter Daniel Kokotajlo vor der Auslöschung der Menschheit durch Künstliche Intelligenz gewarnt. Die KI könne "zu dem logisch nachvollziehbaren Schluss" kommen, "dass die Menschheit ein Hindernis bei ihrer Entwicklung darstellt".

Das könnte dir auch gefallen


Trending auf SWYRL