Adversarial Machine Learning: IBM stellt Adversarial Robustness Toolbox vor

Tiefe neuronale Netze (DNN) erreichen bei verschiedenen Aufgaben im Bereich des Machine Learnings und der Künstlichen Intelligenz den neuesten Stand der Technik und bieten den KI-Entwicklern und Datenwissenschaftlern enorme Leistungen. Aber mit großer Macht kommt große Verantwortung: Denn in den falschen Händen kann die KI leider auch schnell missbraucht werden. Adverserial Machine Learning ist ein Forschungsfeld, das an der Schnittstelle von maschinellem Lernen und Computersicherheit liegt. Ziel ist es, den sicheren Einsatz von maschinellen Lerntechniken in kritischen Umgebungen wie Spam-Filterung, Malware-Erkennung und biometrischer Erkennung zu ermöglichen. Maschinelle Lerntechniken wurden ursprünglich für stationäre Umgebungen entwickelt, in denen angenommen wird, dass die Trainings- und Testdaten aus der gleichen (wenn auch möglicherweise unbekannten) Verteilung stammen. Tatsächlich kann ein böswilliger Hacker die Eingabedaten vorsichtig manipulieren, indem er bestimmte Schwachstellen von Lernalgorithmen ausnutzt, um die gesamte Systemsicherheit zu gefährden. In einem Szenario des Adverserial Machine Learnings werden die neuronalen Netze der KI-Systeme durch absichtlich modifizierte externe Daten ausgetrickst. Ein Angreifer verzerrt diese Eingaben so geringfügig, nur um die KI zu veranlassen, sie falsch zu klassifizieren. Gegen diese Manipulationen hat IBM nun auf der diesjährigen RSA die Einführung der Adversarial Robustness Toolbox angekündigt.

Die IBM Adversarial Robustness Toolbox (ART)

Die Adversarial Robustness Toolbox ist eine plattformunabhängige KI-Toolbox, die entwickelt wurde, um vor verschiedenen Arten von Angriffen auf KI-Modelle zu schützen. Diese von IBM Dublin entwickelte Open Source Toolbox soll Entwicklern und Forschern dabei helfen, gegnerische Angriffe auf das Machine Learning zu verhindern. Die IBM KI-Toolbox ist eine Bibliothek, die Angriffe, Abwehrmaßnahmen und Benchmarks enthält, um die Sicherheit zu verbessern. Verteidigungsmethoden zusammen mit Metriken tragen dabei zur Bewertung der Stabilität von Machine Learning Modellen bei. Die IBM KI-Toolbox kann die Robustheit eines tiefen neuronalen Netzwerks (DNN) messen, um Veränderungen in der Genauigkeit aufgrund eines Angriffs festzustellen. Es kann auch eine DNN mit Angriffs-Beispielen härten und die Laufzeiterkennung anwenden, um eventuell geänderte Eingaben zu kennzeichnen. So betonen Maria-Irina Nicolae und Mathieu Sinn von IBM Research:

“Adversarial attacks pose a real threat to the deployment of AI systems in security-critical applications. Virtually undetectable alterations of images, video, speech and other data have been crafted to confuse AI systems. Such alterations can be crafted even if the attacker doesn’t have exact knowledge of the architecture of the deep neural network or access to its parameters. Even more worrisome, adversarial attacks can be launched in the physical world: instead of manipulating the pixels of a digital image, adversaries could evade face recognition systems by wearing specially designed glasses, or defeat visual recognition systems in autonomous vehicles by sticking patches to traffic signs.”

Bisher haben die meisten Bibliotheken, die versucht haben, KI-Systeme zu stabilisieren nur Sammlungen von Angriffen zum Inhalt. Diese sind zwar hilfreich, aber Entwickler und Forscher müssen immer noch die entsprechenden Abwehrmaßnahmen ergreifen, um ihre Systeme tatsächlich zu verbessern. Mit der Adversarial Robustness Toolbox können nun mehrere Angriffe gegen ein KI-System gestartet werden, und Sicherheitsteams können die effektivsten Abwehrmaßnahmen als Bausteine für maximale Robustheit auswählen. Mit jeder vorgeschlagenen Änderung der Verteidigung des Systems wird die ART Maßstäbe für die Steigerung oder Verringerung der Effizienz setzen.

Eine der größten Herausforderungen bei einigen bestehenden Modellen zur Abwehr gegnerischer KI ist, dass sie sehr plattformspezifisch sind. Diese Problematik hat das IBM-Team behoben, indem sie die Adversarial Robustness Toolbox plattformunabhängig konzipiert haben. Ob man nun in Keras oder TensorFlow programmiert oder entwickelt, man kann die gleiche Bibliothek verwenden, in der man auch die Verteidigung aufbaut. Dabei erweist sich die Toolbox als Allround-Talent: Sie bewertet die Widerstandsfähigkeit eines DNNs, bringt ihm angepasste Abwehrtechniken bei und stellt eine Art interne Antivirenschicht bereit.

Hier erfahren Sie mehr über die Adverserial Robustness Toolbox.

Auf der diesjährigen RSA Conference hat IBM zudem weitere Innovationen im Bereich Cyber-Security angekündigt. Diese können Sie hier nachlesen.

Wie Sie Ihr Unternehmen gegen Cyberbedrohungen mithilfe von Security Technologien auf Basis von Künstlicher Intelligenz schützen, erfahren Sie hier.

Kommentare sind sehr willkommen