von Nicolas Müller, wissenschaftlicher Mitarbeiter in der Abteilung Cognitive Security Technologies des Fraunhofer AISEC

KI als Cybersecurity-Mitarbeiter: Maschinelles Lernen für mehr Sicherheit

20.3.2019

Der momentane Entwicklungsstand bei neuronalen Netzen ermöglicht vor allem Anwendungen rund um Mustererkennung besonders gut. Darauf lassen sich die heutigen Einsatzfelder von Maschinellem Lernen größtenteils zurückführen. Die Erkennung von Mustern und Veränderungen in großen Datenströmen kann auch für die Cybersicherheit eine wertvolle Hilfe darstellen. Denn die stetig steigenden Datenmengen sind von Menschen nicht mehr zu überblicken. Es ist für Unternehmen schlicht nicht zu leisten, ihren gesamten Netzwerkverkehr permanent durch Mitarbeiter kontrollieren zu lassen. KI kann die Security-Spezialisten hier unterstützen.

Nicolas Müller, Fraunhofer AISEC

Die herkömmlichen Methoden in der Cybersecurity weisen einen gehörigen händischen Anteil auf: Bei der Netzwerksicherheit zum Beispiel überprüfen Menschen den Netzwerkverkehr auf verdächtige Veränderungen oder ihnen bereits bekannte Angriffsmuster. Auch die Signaturen von Viren legen Experten an. Das Problem dabei: Die Expertenarbeit lässt sich nicht skalieren. Und die verfügbaren Spezialisten sehen sich einem stetig steigenden Datenverkehr gegenüber – in der Kommunikation mit anderen Unternehmen, Partnern und Kunden, aber auch intern, als Folge der digitalen Transformation und Industrie 4.0.

Große Datenmengen und darin feststellbare Muster und Veränderungen stellen aber genau das dar, was heutigen KI-Lösungen sehr gut liegt. So lässt sich KI etwa einsetzen, um den Netzwerkverkehr zu beobachten und den Security-Experten als Filter eine Vorauswahl potenziell verdächtiger Vorfälle und Dateien zu erstellen. Denn eine KI kann lernen, wie ein „gesundes“ Netzwerk aussieht und dann, wenn sie Veränderungen feststellt, Alarm schlagen. So lässt sich KI als eine Art technischer Vorfilter nutzen. Ein Thema, das bei den kommerziellen Anbietern aber in der Breite eher noch am Anfang steht. In den kommenden Jahren dürfte sich das aber ändern.

 

Instrumente verstehen, um sie bestmöglich anwenden zu können

Der Einsatz entsprechender Instrumente verändert auch das Berufsbild der Security-Experten. Die neuen Tools erleichtern ihre Arbeit und ermöglichen ihnen einen besseren Überblick sowie eine deutliche Ausdehnung dessen, was sie mit Kontrollen abdecken können. Um sie anwenden zu können, benötigen sie aber zumindest ein Grundverständnis der Technologien. Dies sowohl dafür, was sie zu leisten vermögen – als auch dafür, wo ihre Schwächen liegen. Für den richtigen Grad an Vertrauen in Technologie stellt dieses Grundverständnis eine große Hilfe dar.

Entsprechendes Wissen können sich Experten durch Fortbildung aneignen: Im Eigenstudium, durch ein Aufbaustudium oder durch Seminare, wie sie die Fraunhofer Academy anbietet. Das Seminar „Maschinelles Lernen für mehr Sicherheit“ beispielsweise dient dazu, Teilnehmern mit Vorkenntnissen im Bereich Maschinellem Lernen die Cybersecurity-Aspekte zu vermitteln. Durchgeführt wird diese Schulung vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC im Rahmen des Lernlabors Cybersicherheit. Hier erfahren sie die Problemstellungen bei verschiedenen Anwendungsfällen und lernen, einfache Modelle selbst zu konzipieren sowie fortgeschrittenere Modelle zu verstehen und zu bewerten.

Gerade die Limitierungen der Systeme zu verstehen, ist für eine realitätsnahe Bewertung ihrer Einsatzzwecke entscheidend. In vielen Aspekten ist der Mensch neuronalen Netzen weit voraus. Penetrationstests etwa, mit denen Experten durch simulierte Angriffe untersuchen, wie gut der Schutz von Systemen funktioniert, erfordern (noch) das Gespür und die Erfahrung menschlicher Experten.

 

Sicherheit für KI

Es existiert noch ein weiteres Feld, das im Kontext von KI und Sicherheit von Bedeutung ist: Auch die KI-Modelle müssen gesichert werden. Denn es geht nicht nur darum, ein neuronales Netz zu trainieren, korrekte Entscheidungen zu treffen. Die Modelle müssen auch robust genug werden, um gegen Störungen unempfindlich zu sein. Diese treten nicht nur natürlich auf, sondern auch in Form gezielter Attacken. Forscher haben etwa belegt, dass sich automatische Bilderkennungssysteme bei autonomen Fahrzeugen durch Manipulationen an Verkehrsschildern täuschen lassen.

Auf einem Schild, das eigentlich eine Geschwindigkeitsbegrenzung anzeigt, wurden Aufkleber angebracht, die für das menschliche Auge keinen Unterschied machen – bei dem Bilderkennungssystem aber dazu führen, dass es das Schild als Stoppschild klassifiziert und dementsprechend abbremst.

Deshalb müssen neuronale Netze im Labor – ähnlich wie andere Systeme bei Penetrationstests – durch simulierte Angriffe geprüft werden. So lassen sich die Daten sammeln, die zeigen, wie Fehlklassifikationen entstehen und welche Modifikationen nötig sind, um die Modellrobustheit zu erhöhen. Damit KI-Systeme sicher entscheiden können.