In den letzten Jahren haben Fortschritte in der KI zur breiten Verfügbarkeit von Large Language Models (LLMs) geführt, die in verschiedenen Bereichen wie Textgenerierung, Websuche und Kundenbetreuung eingesetzt werden. Trotz ihres Erfolgs bleibt die Sicherheit dieser Modelle bisher zu Teilen auf der Strecke. Risiken wie die Generierung von Falschinformationen oder Hatespeech sind zwei Beispiele für den Missbrauch von LLMs. Der Vortrag beleuchtet dafür die Sicherheit von LLMs, stellt existierende Angriffsmethoden wie Prompt Injection vor und analysiert mögliche Verteidigungsstrategien anhand eines praktischen Beispiels.