Was bedeutet Bedrohung der Integrität?
Der Experte William L. Scherlis von der Carnegie Mellon University definiert die Bedrohung der Integrität im Kontext von KI wie folgt: „Im Zusammenhang mit moderner, auf neuronalen Netzen basierender KI, einschließlich ML (Machine Learning) und generativer KI, beziehen sich Integritätsrisiken auf das Potenzial für Angriffe, die zu falschen Ergebnissen führen.“
Oder einfacher ausgedrückt: Selbst ein kleines Loch kann ein ganzes Schiff zum Sinken bringen. Manipulierte KI-Modelle können zu falschen Annahmen und Entscheidungen führen, bis hin zu einer Beeinträchtigung der geistigen Gesundheit ihrer Nutzer. Ein Beispiel ist, wenn ein solches kompromittiertes Modell um einen Gesundheitsratschlag gebeten wird: Eine vergiftete KI könnte dann das falsche Medikament oder ein gefährliches Hausmittel empfehlen, was für den Nutzer möglicherweise tödliche Folgen haben könnte.
Falsche Ergebnisse von LLMs und maschinellem Lernen können ebenfalls zu finanziellen Verlusten führen. Ein Bericht von KPMG beschreibt genau diese Risiken. Sie alle hängen stark von der Qualität der Daten ab. Um ein Modell richtig zu trainieren, sind Unmengen an Daten erforderlich. Andererseits reichen schon wenige Datensätze aus, um große Sprachmodelle zu manipulieren. Untersuchungen zeigen, dass bereits 0,001 Prozent korrumpierte Daten, die in die Trainingsdaten für ein KI-Modell eingebracht wurden, ausreichten, um anomale Ergebnisse zu verursachen.
