IT-Sicherheit: Trainingsschwächen bei Künstlicher Intelligenz
Maschinelles Lernen (ML) ist in vielen digitalen Anwendungsbereichen erfolgreich verbreitet, auch in der Computersicherheit. In der IT-Sicherheitsforschung werden Methoden der Künstlichen Intelligenz (KI) ebenso angewandt. Allerdings gibt es beim Training von KIs Schwächen, wie Forschende des Karlsruher Instituts für Technologie (KIT) und anderer internationaler Forschungseinrichtungen herausgefunden haben.
„Selbstlernende Algorithmen sind traditionellen Methoden oft überlegen. So wird ML zum Beispiel eingesetzt, um neuartige Angriffe auf Computersysteme zu untersuchen und Abwehrmaßnahmen an die Bedrohungen anzupassen“, sagt Christian Wressnegger von den KASTEL Security Research Labs am KIT. Ergebnisse könnten jedoch verzerrt werden, etwa durch die Fütterung der KI mit nicht repräsentativen Daten, die das reale Vorkommen von Viren falsch abbilden. „In App Stores der großen Anbieter kommen Apps mit Sicherheitsrisiken weniger oft vor als in alternativen Quellen mit geringeren Sicherheitsstandards“, erläutert der Juniorprofessor.
Außerdem müsse man berücksichtigen, dass Angreifende üblicherweise versuchen, Verteidigungsmaßnahmen zu umgehen oder sogar zu attackieren. „Ein lernendes Virenschutzprogramm beispielsweise, das auf solchen unvollständigen Daten trainiert wurde, könnte sich in der Praxis als unbrauchbar erweisen.“
Mangelndes Bewusstsein für richtige Anwendung Maschinellen Lernens
Wressnegger und sein Team haben gemeinsam mit internationalen Partnern 30 aktuelle Forschungsarbeiten untersucht, die ML für die IT-Sicherheit nutzen und auf prestigeträchtigen Computer- und Systemsicherheitskonferenzen veröffentlicht wurden. Alle hatten eine oder mehrere Fehlerquellen nicht berücksichtigt. „Es fehlt an Bewusstsein für die Schwierigkeiten, Maschinelles Lernen korrekt anzuwenden“, konstatiert der Experte für Cybersicherheit.
mex, 11.11.2022