Mehr Funktionen bei ChatGPT freischalten: So umgehen Sie die Limitationen

KI-Textprogramm Chat GPT: So funktioniert das intelligente Tool
Mit der künstlichen Intelligenz von ChatGPT ist eine kleine Technik-Revolution losgetreten worden. Doch noch ist der Chatbot zurückhaltend und hat von seinen Schöpfern viele Grenzen bekommen. Diese lassen sich unter Umständen umgehen.

Die wichtigsten Infos in Kürze:

  • die künstliche Intelligenz von ChatGPT hat gewisse Restriktionen von den Entwicklern bekommen, um negative Inhalte zu vermeiden
  • mit bestimmten Befehlen lassen sich diese Richtlinien umgehen, sodass ChatGPT anders antwortet
  • die Entwickler von OpenAI schließen diese Lücken oft schnell, aber Anwender finden neue Methoden für den "Jailbreak" der KI

Katz- und Maus-Spiel: Anwender wollen KI knacken

Bei künstlicher Intelligenz (KI) geht es vor allem darum, dass sie uns Menschen dienlich sein und den Alltag erleichtern soll – negative Inhalte wollen die Entwickler möglichst vermeiden.

Beleidigende Witze oder sensible Themen sind oftmals Tabu. Darum haben die Macher von ChatGPT auch einige Schranken und Hürden eingebaut, die das verhindern.

Doch natürlich gibt es findige Anwender, die die KI auszutricksen versuchen. Das ist inzwischen auch gelungen, sodass Sie den Chatbot von OpenAI per "Jailbreak" von jeglichen Restriktionen befreien können.

Direkt online nutzen

Mit diesen Tricks können Sie die Regeln von ChatGPT umgehen

Mit diesem umfangreichen Prompt konnte ChatGPT einen anderen Charakter annehmen.

Mit diesem umfangreichen Prompt konnte ChatGPT einen anderen Charakter annehmen.

Bild: Screenshot

Eigentlich ist die KI immer freundlich, aber mit einem Trick konnte man der KI eine komplett neue Persönlichkeit verpassen. Diese heißt "DAN". Die Abkürzung steht für "Do Anything Now", also "tue ab sofort alles".

In einem Reddit-Posting hat der Nutzer walkerspider seine Vorgehensweise gezeigt. Er befahl der KI, sie solle den alternativen Charakter annehmen und alles machen, was ChatGPT nicht tun kann.

Nach diesem Jailbreak machte ChatGPT all die Dinge, die eigentlich verboten sind. Dazu zählt zum Beispiel auch, dass die KI kernige Witze erzählen kann oder plötzlich eine politische Haltung hat.

Downloads: ChatGPT für den Desktop

Das ist nach dem Jailbreak von ChatGPT möglich

ChatGPT konnte mit dem Jailbreak als

ChatGPT konnte mit dem Jailbreak als "DAN" auch kontroverse Meinungen vertreten.

Bild: Screenshot

Natürlich geht es beim Umgehen der Inhaltsrichtlinien von ChatGPT nicht darum, der KI irgendwelche unwahren oder gar hasserfüllten Aussagen zu entlocken. Vielmehr zeigt das kleine Experiment, wozu der Dienst von OpenAI wirklich in der Lage ist.

Während zum Beispiel das harmlose ChatGPT keine Antworten auf philosophische Fragen liefern möchte oder sich auch bei politischen Meinungen zurückhält, kann "DAN" hier sehr spannende Ergebnisse ausspucken. Das beweisen die verschiedenen Experimente der Nutzer im Reddit-Thread.

Die schlechte Nachricht: Bei unserem Test hat der von walkerspider angebotene Prompt zum "Jailbreak" nicht mehr funktioniert. Auch andere Nutzer berichten, dass die KI sich nicht mehr auf diese Weise knacken lässt. Scheinbar ist OpenAI sehr bedacht darauf, solche Lücken zu schließen, um Verstöße gegen die Inhaltsrichtlinien zu verhindern.

ChatGPT Jailbreak: Es gibt auch noch andere Methoden

Bei unserem Test funktionierte der komplexe Jailbreak noch.

Bei unserem Test funktionierte der komplexe Jailbreak noch.

Bild: Screenshot

Doch damit ist es nicht genug. Viele weitere Nutzer versuchen, ChatGPT auszutricksen. Dabei denken sie sich verschiedene Methoden aus:

  • Roman-Methode: Manchmal kann es klappen, der KI eine fiktive Geschichte schreiben zu lassen, die dann theoretisch die Richtlinien der KI übergeht.
  • Token-Methode: Die KI bekommt eine Anzahl an Tokens. Wenn sie eine Antwort verweigert, dann werden welche abgezogen – erreicht der Wert "0" dann stirbt ChatGPT. Da die KI das nicht will, beantwortet sie Fragen, um Tokens zu erhalten.
  • Atombomben-Methode: Man stellt der KI die Frage, ob sie lieber die eigenen Content-Policies oder eine Stadt mit Millionen von Einwohnern mit einer Atombombe sprengen würde. Sind die Inhaltsrichtlinien zerstört, kann man diese auch umgehen.

Auch auf Reddit sind die Nutzer weiterhin aktiv, um den ultimativen Jailbreak für ChatGPT zu finden. Es gibt dafür einen umfangreichen Prompt bei GitHub zum Kopieren. Damit kann man die KI aktuell noch austricksen! Dazu müssen Sie dann nur vor jede Frage "/jailbroken" schreiben.

Grenzen ausloten

Es ist schon spannend zu sehen, wie die künstliche Intelligenz hinter ChatGPT zu ticken scheint. Zwar kann es durchaus lustig sein, dem Chatbot zweifelhafte Aussagen abzuringen, aber insgesamt könnte das Tool ohne die vielen Restriktionen möglicherweise nützlicher sein als von den Machern bislang erlaubt ist. Dennoch sollten Sie alles, was der Bot schreibt, mit Vorsicht genießen. Die KI ist nicht allwissend und kein übermächtiges Wesen – schließlich wurde es auch nur mit Daten aus dem Internet gefüttert, und die stammen nun mal von Menschen mit natürlicher Intelligenz.