Fünf Mythen über das Maschinenlernen im Bereich der Cybersicherheit

Das Maschinenlernen ist schon seit langem ein fester Bestandteil aller menschlichen Tätigkeitsfelder. Es spielt nicht nur in der Sprach-, Gesten, Handschrift- und Mustererkennung eine Schlüsselrolle – ohne das maschinelle Lernen sind vielmehr sowohl die moderne Medizin als auch zeitgemäße Bankgeschäfte, Bioinformatik sowie jegliche Qualitätskontrollen nur schwer vorstellbar. Selbst die Wettervorhersage kommt nicht ohne die Hilfe von Maschinen aus, die in der Lage sind zu lernen und zu kommunizieren.

Hier also die Warnung vor bzw. die Zerstreuung einiger Irrtümer, die mit der Anwendung von maschinellem Lernen in unserem Kerngeschäft zu tun haben – der Cybersicherheit.

Mythos Nummer 1: „Maschinelles Lernen im Bereich der IT-Sicherheit ist etwas Neues.“

Aus irgendeinem Grund ist gerade in letzter Zeit häufig die Rede von künstlicher Intelligenz in der Cybersicherheit. Wer nicht im Bilde ist, könnte sogar den Eindruck bekommen, dass es sich hierbei um etwas wirklich Neues handelt.

Historischer Hintergrund: Einer der Algorithmen für das maschinelle Lernen, das künstliche neuronale Netz, wurde in den 1950er Jahren entwickelt. Heute mag man sich darüber amüsieren, doch damals schien es, als wäre es möglich mit diesem Algorithmus schon sehr bald einen „starken“ künstlichen Intellekt zu entwickeln. Das heißt also einen, der in der Lage ist zu denken, der sich seiner selbst bewusst ist und nicht nur die Aufgaben zu lösen vermag, auf die er programmiert ist. Ihm gegenüber steht die „schwache“ künstliche Intelligenz – sie ist in der Lage, einige kreative Aufgaben zu lösen: Muster erkennen, das Wetter vorhersagen, Schach spielen und so weiter. Jetzt, 60 Jahre später, wissen wir, dass es noch ein weiter Weg zur Entwicklung „echter“ KI ist; und das, was wir heute künstliche Intelligenz nennen, ist tatsächlich maschinelles Lernen.

malanov_5myths_01

Quelle: http://dilbert.com/strip/2013-02-02

Nun, und auch in der Cybersicherheit ist Maschinenlernen nichts Neues. Die ersten Algorithmen dieser Klasse begann man vor etwa 10-12 Jahren zu integrieren. Als die Zahl der neuen Schädlinge sich alle zwei Jahre zu verdoppeln begann, wurde klar, dass die Virenanalysten nicht mit einer einfachen Automatisierung auskommen würden, sondern vielmehr eine qualitative Verschiebung notwendig war. Diese bestand in der Bearbeitung aller in der Virensammlung vorhandenen Dateien, um so eine Suche nach den Dateien zu ermöglichen, die den zu untersuchenden ähneln. Die endgültige Entscheidung über die Schädlichkeit einer Datei traf anfangs noch ein Mensch. Doch sehr bald schon wurde auch diese Aufgabe von einem Roboter übernommen.

Wie dem auch sei, an dem Einsatz von maschinellem Lernen im Bereich der Cybersicherheit ist überhaupt nichts Neues.

Mythos Nummer 2: „Maschinenlernen im Bereich der Cybersicherheit ist eine einfache Angelegenheit, alles ist schon fertig“

Für einige Anwendungsbereiche des Maschinenlernens gibt es tatsächlich schon ein Bündel fertiger Algorithmen. Beispielsweise die Suche nach Gesichtern auf Bildern, ihre Erkennung, die Erkennung von Emotionen, die Unterscheidung zwischen Hund und Katze – in diesen und in vielen anderen Fällen hat sich irgendjemand bereits viele Gedanken gemacht, Merkmale ausgewählt, den entsprechenden mathematischen Apparat hinzugezogen, Rechenressourcen eingesetzt und seine Erkenntnisse dann mit der Allgemeinheit geteilt. Und heute kann jeder Schüler diese Algorithmen anwenden.

malanov_5myths_02

Bestimmung des Qualitätsstandards eines Kekses nach Schokoladenanteil und Größe durch maschinelles Lernen
Quelle: http://simplyinsight.co/2016/04/26/an-introduction-to-machine-learning-theory-and-its-applications-a-visual-tutorial-with-examples/

Daraus resultiert die falsche Überzeugung, dass auch für die Aufgaben der Schädlingsdetektion bereits alles fertig und vorbereitet sei. Doch das ist es keinesfalls. Wir bei Kaspersky Lab haben mehr als zehn Jahre dafür gebraucht, eine Reihe von Technologien zu entwickeln und patentieren zu lassen. Wir hören nicht auf, an diesen Technologien zu arbeiten und sie weiterzuentwickeln, wir entwickeln neue Technologien, weil… schauen wir uns hierzu doch den nächsten Mythos an:

Mythos Nummer 3: „Maschinelles Lernen –einmalig erledigt, dann hat man seine Ruhe“

Es gibt einen grundlegenden Unterschied zwischen dem Detektieren von Malware und dem Еrkennen von Gesichtern/Kätzchen auf Fotografien. Die Gesichter von heute sind auch morgen noch Gesichter, es ändert sich nichts. In den allermeisten Bereichen, in denen maschinelles Lernen eingesetzt wird, ändert sich die gestellte Aufgabe nicht mit der Zeit. Bei Computerschädlingen jedoch ändert sich alles ständig und schnell. Denn Cybergangster sind Menschen mit einer konkreten Motivation (Geld, Spionage, Terrorismus …), ihre Intelligenz ist nicht künstlich, sie setzen sich zur Wehr und ändern die Schadprogramme absichtlich, um aus dem erlernten Modell auszubrechen.

Daher muss das Modell ständig umgeschult werden, manchmal muss es von Null an neu lernen. Es ist klar, dass eine Schutzlösung auf Basis eines beliebigen Modells ohne Updates der Antivirendatenbanken nicht auskommt, während die Malware fortwährend aktualisiert wird. Cyberkriminelle denken kreativ, wann immer es nötig ist.

Mythos Nummer 4: „Schutzsoftware kann beim Kunden weiterlernen“

Schutzsoftware bearbeitet beim Kunden ja schließlich Dateien, zumeist saubere, manchmal aber auch schädliche. Die Letztgenannten mutieren selbstverständlich, doch das Modell ist ja lernfähig.

Das funktioniert überhaupt nicht, denn über den Computer eines durchschnittlichen Kunden laufen unvergleichlich weniger Malware-Samples als in den Sammelsystemen der Antiviren-Labs angehäuft werden. Und wenn es keine Samples zum Lernen gibt, kann es auch keine Auswertung und keine „Weiterbildung“ geben. Und berücksichtigt man außerdem die bereits erwähnte „Kreativität“ der Virenschreiber, so wird eine Detektion mit Sicherheit verfälscht werden, so dass das Modell zu glauben beginnt, dass es sich bei Schädlingen um saubere Dateien handelt und schon „lernt es in die falsche Richtung“.

malanov_5myths_03

Mythos Nummer 5: „Man kann Schutzlösungen allein auf der Grundlage eines Modells unter Einsatz von maschinellem Lernen entwickeln, ohne andere Erkennungsmethoden hinzuzuziehen.“

Und warum, heißt es, braucht man überhaupt einen Schutz auf der Grundlage unterschiedlicher Technologien, warum legt man nicht alle Eier in einen Korb, da dieser Korb doch so klug und fortschrittlich ist? Ein Algorithmus für alles quasi.

Doch wie sieht es wirklich aus? Bei einem bedeutenden Teil der Schädlinge handelt es sich um Familien, die sich aus einer Vielzahl von Varianten ein und desselben Schadprogramms zusammensetzen. Die Familie Trojan-Ransom.Win32.Shade besteht beispielsweise aus 50.000 Verschlüsselungsschädlingen. An einer Vielzahl von Samples kann man das Modell schulen, und es erwirbt die Fähigkeit, künftige Bedrohungen zu erkennen (innerhalb der bekannten Grenzen, siehe Mythos Nummer drei). Das maschinelle Lernen funktioniert hier einwandfrei.

Doch häufig ist es auch so, dass eine Familie nur aus wenigen Samples oder auch nur aus genau einem besteht. Der Autor hatte dann einfach keine Lust, seine Kräfte mit der Schutzsoftware zu messen: Wenn sein Machwerk beispielsweise aufgrund seines Verhaltens schon im Augenblick seiner Entwicklung entdeckt wurde, gibt er vielleicht auf und verzichtet darauf, Widerstand zu leisten. Vielmehr verlegt er sich stattdessen darauf, nur die Nutzer anzugreifen, die keine Schutzlösung installiert haben oder diejenigen, die nicht über eine Verhaltenserkennung verfügen (also genau diejenigen, die alle Eier in einen Korb gelegt haben).

An solchen „Minifamilien“ lässt sich ein Modell nicht schulen – es gibt keine Verallgemeinerung (und darin liegt das Wesen des Maschinenlernens) auf der Grundlage von ein, zwei Beispielen. In diesem Fall ist es weitaus effektiver, die Bedrohung mit im Laufe der Zeit bewährten Methoden zu detektieren – aufgrund der Hashfunkion, nach Masken oder auf andere herkömmliche Weise.

Ein anderes Beispiel sind zielgerichtete Attacken. Die Autoren solcher Attacken tun sich nicht durch die massenhafte Produktion von immer neuen Schadprogramm-Exemplaren hervor. Sie entwickeln genau ein Exemplar für ein Opfer – und seien Sie versichert, dieses Exemplar wird nicht von Schutzlösungen detektiert (außer von eigens für diese Fälle vorgesehenen Lösungen, wie etwa Kaspersky Anti-Targeted Attack Platform). Auch in diesem Fall ist es also sinnvoller, nach der Hash zu detektieren.

Fazit: Es ist vernünftig, sich in verschiedenen Situationen verschiedener Tools zu bedienen. Ein vielschichtiger Schutz ist effektiver als ein Schutz auf einer Ebene, man darf keinesfalls auf etwas Effizientes verzichten, nur weil es gerade „out“ ist.

Das Problem des Polizeiroboters

Ein Letztes. Kein Mythos, eher eine Warnung. Heute richten Forscher ihre Aufmerksamkeit immer häufiger darauf, wie komplexe Modelle irren: In einigen Fällen sind die Entscheidungen, die sie treffen, vom Standpunkt der menschlichen Logik aus nicht nachzuvollziehen.

Das maschinelle Lernen ist vertrauenswürdig. Doch in kritischen Systemen (Autopilot in Flugzeugen oder Autos, Medizin, Notdiensten usw.) gelten sehr strenge Qualitätsstandards, es wird eine formale Verifizierung von Softwareprogrammen durchgeführt, doch beim maschinellen Lernen überlassen wir einen Teil des Denkens und der Verantwortung der Maschine. Daher ist es kritisch wichtig, dass hinter der Qualitätskontrolle des Modells respektierte Experten stehen.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.