Microsoft meldet Jailbreak für GPT, Llama und Gemini
Microsoft meldet Jailbreak für GPT, Llama und Gemini
In den verschiedenen KI-Chatbots haben die Entwickler Sicherheitsfunktionen integriert, um verbotene, unmoralische oder gefährliche Antworten zu umgehen. Microsoft zeigt jetzt, wie sich diese Maßnahmen umgehen lassen.