Missbrauch vorprogrammiert: Auch Kriminelle können Text-KI für ihre Zwecke einsetzen

Missbrauch und Unzuverlässigkeit: KI-Chatbots haben Grenzen

Freitag, 26. Mai 2023 | 16:36 Uhr

KI-Chatbots können begeistern, sogar nützlich sein und Aufgaben übernehmen. Die Technologie dahinter birgt aber auch großes Missbrauchspotenzial. Was kommt da auf Nutzerinnen und Nutzer zu?

KI-Chatbots erzeugen Text von erstaunlich hoher Qualität: Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche, Geschichten in einem bestimmten Schreibstil – oder sogar funktionierenden Programmcode. Die Bots bearbeiten, prüfen, analysieren oder übersetzen aber auch beliebigen Text und Code.

Doch gleichzeitig birgt der Einsatz sogenannter großer Sprachmodelle, auf denen KI-Chatbots basieren, “neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen”. Zu diesem Schluss kommt das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Positionspapier.

Das Erstellen oder Verbessern von Schadsoftware oder das Erzeugen von Spam- und Phishing-Mails unter Ausnutzung menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst (Social Engineering) seien nur zwei Beispiele für bekannte Bedrohungen, die KI-Chatbots weiter verstärken können.

Dazu gesellen sich ganz neue Probleme und Bedrohungen durch KI-Sprachmodelle, die das BSI identifiziert hat. Etwa das große Risiko, dass Angreifer Eingaben von Nutzerinnen oder Nutzern heimlich in ein Sprachmodell umleiten, um den Chat zu manipulieren und Daten oder Informationen abzugreifen. Oder die Möglichkeit, Chatbots zur Produktion von Fake News, Propaganda oder Hassrede zu missbrauchen.

Ein Grundproblem von Chatbots ist, dass die zum Training des Sprachmodells verwendeten Daten und deren Qualität die Funktionalität beeinflussen. So sei es möglich, dass fragwürdige Trainings-Inhalte in KI-generierte Texte einfließen. Zudem könne man sich nie sicher sein, dass KI-generierte Inhalte aktuell oder faktisch korrekt sind.

Fazit: Nutzerinnen und Nutzer sollten kritisch bleiben. Durch sprachlich oft fehlerfrei generierten Text entstehe bei der Nutzung von KI-Sprachmodellen häufig der Eindruck eines menschenähnlichen Leistungsvermögens – und damit ein zu großes Vertrauen in KI-generierte Inhalte.

Von: APA/dpa