Künstliche Intelligenz

aus SecuPedia, der Plattform für Sicherheits-Informationen

Anzeige
Wechseln zu: Navigation, Suche

Künstliche Intelligenz (KI, englisch: artificial intelligence - AI) basiert auf der neuen Technologie der Schaffung intelligenter Maschinen. Durch maschinelles Lernen soll eine ähnliche Umwälzung wie bei der Entdeckung der Elektronik ausgelöst werden. Als ein Vorläufer gelten automatische Entscheidungssysteme (ADM). Auch die IT-Sicherheitsbranche könne betroffen sein, man denke nur an automatische Abwehrmechanismen im Angriffsfall.

Einzelheiten

Bild: Amazon Echo - Alexa Voice Service

KI basiert auf Algorithmen, die entweder vor Nutzung eine Traningsphase beinhalten oder während der Nutzung anhand der verarbeiteten Daten dazu lernen. Diese sogenannten lernenden Algorithmen sind beispielsweise logistische Regression, Entscheidungsbäume (Decision Trees) und - dschungel, Sentiment-Analysen sowie Vektoren- oder Bayes Machines (letzteres vorstellbar als ständiger Abgleich zwischen Hypothese und Wirklichkeit) und kommen auch jetzt schon bei modernen Spam-Filtern, automatischem Sprachverstehen und Assistenz (Siri, Cortana und Google Assistant sowie Alexa Voice Service) oder auch bei Folge-Kaufanimationen (analog zu: "Kunden, die diesen Artikel gekauft haben, kauften auch ....") zum Einsatz. Nutzer von Adobe Stocks können online mit der KI Adobe Sensei nach Fotos und Videos suchen. Microsoft nutzt KI auch bei der Wortvorhersage über die Smartphone-Tastatur (SwiftKey) und im Office 365 (Funktion Tap für Word und Outlook zum Holen passender Informationen aus anderen Dokumenten zum aktuellem Dokument). Auch ist Microsoft schon in den Chatbot-Hype (automatisierter Service, der über Chat-Schnittstelle mit Nutzern interagiert oder Informationen anbietet und z.T. KI nutzt; beispielsweise virtuelle Begrüßungen und Standard-Fragebeantwortung per Dialogfenster) eingestiegen. Dazu wird der Chatbot "Zo" und ein ganzes dahinterliegendes "Microsoft Bot Framework" mit Schnittstellen zu Skype (Skype Calling API), Cortana (Cortana Devices SDK), Kalender (Calender.help) und Übersetzung (Translator Live) bereitgestellt. Google setzt KI zusätzlich zur Wortergänzung und Übersetzen (Google Translate) und zur semantischen Suche (Rank-Brain) ein. Seit Oktober 2015 versucht Google so mit Rank-Brain, auf einfache Fragen sinnvolle Antworten zu geben. Rank-Brain lernt dabei zunächst offline, bei einem Treffer geht dieses neue Muster per KI-Update dann online. Facebook nutzt KI zur Prüfung aller Postings auf Regelverstöße und erweitert das Open-Source-Toolkit "Caffe" zu "Caffe2" zur Entwicklung von KI-Funktionen speziell für die Nutzung auf mobilen Endgeräten, wie Tablets und Smartphones. Die Firma Arago AG, mit einem der in Deutschland bekannten Köpfe im Bereich der KI - Chris Boos - an der Spitze, hat mit dem Programm HIRO gar eine Enterprise-Software entwickelt, die problemlösend und selbstlernend Systemadministratoren von der alltäglichen Arbeit befreien und dabei Automatisierungsraten von bis zu 90 Prozent erzielen soll. Salesforce will KI in ihr CRM integrieren (KI-Service Einstein). Dabei soll KI insgesamt zur sogenannten Autonomous IT führen, d.h. sich selbst heilende IT-Infrastrukturen mit automatisch angepasstem Ressourcenverbrauch und ständiger Selbstanalyse. SAP bündelt sein KI-Angebot in der Marke SAP Clea sowie über seine IoT-Plattform Leonardo.

Der größte Erfolg wird derzeit mit "neuronalen Netzen" erzielt. Diese neuronalen Netze durchlaufen vor der eigentlichen Benutzung eine Trainingsphase und ermitteln anhand der verarbeiteten Daten einen optimalen Systemzustand, der für weitere (ähnliche) Problemlösungen geeignet ist. Per Rückkopplung kann das System dann auch weiter "lernen". Hierbei wird versucht das menschliche Gehirn nachzubauen. Nervenzellen (Neuronen) und Verbindungen (Synapsen) werden technisch modelliert und mit Gewichten und Bias (Aktivitätsleveln) versehen. In mehreren Schichten hintereinander angeordnet werden dann im Rahmen einer Trainingsphase entsprechende Muster gespeichert, die bei jedem Trainingslauf verfeinert werden. Wird danach ein unbekanntes Objekt verarbeitet, kann so dieses ebenfalls durch Vergleich mit den gespeicherten Mustern erkannt werden. Damit ist der Erfolg von "neuronalen Netzen" an das Vorhandensein großer Datenmengen (Big Data) gekoppelt, aus der das System lernen kann. Big Data braucht wiederum die Cloud zum Abspeichern der gigantischen Datenmengen (logische Kette: Künstliche Intelligenz->Big Data->Cloud).

Bild: Prisma-App / FaceApp
Bild: Foto-Geolokalisierung per Webseite der Technischen Informationsbibliothek (TIB) am Beispiel des Bildes "Grabeiche in Nöbdenitz" aus Monumentale Eichen von Rainer Lippert
Bild: Deepfakes

Der größte praktische Nutzen der neuronalen Netze ist bei der Bild-, Handschrift- und Spracherkennung, maschinellen Übersetzung und (Foto)Suchen per (Bildverständnis)Suchmaschine, Signaldatenverarbeitung im Bereich von Gefahrenwarn- und Gefahrenmeldeanlagen (GWA und GMA) sowie Strategiespielen/Spieltheorie, wobei meist die Technik namens Convolutional Neural Network (CNN) zum Einsatz kommt. Die in Deutsch etwa „faltendes neuronales Netzwerk" zu übersetzende Technik hat ihren Namen aus der mathematisch angewandten diskreten Faltung. Die Foto-App Prisma (verfügbar für iPhones, Android- und Windows 10 Mobile -Smartphones, für Windows Phone gibt es die ähnliche App Vinci), die eine Zeit lang die App-Welt eroberte, benutzt solche neuronalen Netze. Aktuell sorgt die FaceApp, die Personen-Fotos in eine ältere, jüngere oder auch weibliche Version verwandelt, für ähnliche Aufmerksamkeit. Ein anderes Projekt der Leibnitz-Gesellschaft ermöglicht eine Foto-Geolokalisierung, wobei die Lokalisierungsentscheidung auf Grund von Häuser- und Fensterformen, Pflanzen etc. getroffen werden. Einen eher zweifelhaften Nutzen kann über die "FakeApp" erzielt werden, in dem man per Machine-Learning (Googles Open-Source-KI TensorFlow) Gesichter in Videos austauscht. Dies wurde zunächst vornehmlich dazu benutzt, Porno-Film-Darstellerinnen mit prominenten Gesichtern zu überblenden (Deepfakes[1]). Aber auch andere negative KI-Auswirkungen sind möglich, so kann KI genutzt werden, um Gesichtserkennungssysteme anzugreifen, Captcha-Aufgaben zu lösen oder Seitenkanalangriffe sowie Social Engineering durchzuführen. So wurde KI-basierte Software von einem Angreifer bereits genutzt, um die Stimme eines CEO zu imitieren (Voice-Deepfake[2]) und damit eine Geldsumme zu erbeuten. Beim 2.Mal konnte der CEO-Fraud-Angriff dagegen erkannt werden[3]).

Inzwischen erlaubt es die immer leistungsfähigere werdende Hardware (insbesondere die Grafikprozessor-Programmierung mit den massiv parallelisiert arbeitenden Grafikprozessoren von Nvidia der Serien "Tesla" und "Pascal" bzw. neuen Serie "Volta" statt seriell arbeitende "normale" Prozessoren) den Maschinen, die Inhalte von Videos zu erkennen und sogar Autos autonom zu steuern. Neu ist auch die Integration von KI-Chips in Smartphones beispielsweise zur Bilderkennung (wie mit dem Huawei Mate 10 Pro), die aber eigentlich nur lokale Berechnungen vorbelegen/zwischenspeichern (s.u.; und damit eigentlich nur den "Flaschenhals" der 1.Generation KI-Technik beseitigen). Zur KI-Programmierung wird, neben den schon erwähnten Frameworks "TensorFlow"/"Caffe" (die die Berechnungen automatisch an die verfügbare Hardware anpassen) und "Numpy"/"Pandas" (Auswertungsframeworks) als "Klammer" das experimentierfreudige und leicht zu erlernende Phyton genutzt.

Dagegen soll der Quantencomputer alle Varianten simulieren. Obwohl einige Ähnlichkeiten bei verwendeten Algorithmen (z.B. Gradientenabstieg für Optimierungsprobleme) bestehen, zeigt nachfolgende Tabelle die wesentlichen Technologie-Unterschiede auf:

Vergleich Neuronale Netze vs. Quantencomputer
Merkmal Neuronales Netze Quantencomputer
Basis
Simulationszustände
Praxiseinsatz
Haupt-Programmierung
dual (Bit)
endlich
ja
Phyton (Jupyter Notebook1)
mehrere (QBit)
unendlich
nein
Phyton (Jupyter Notebook1)

1Open-Source-Software zum Erstellen von Dokumentationen und Grafiken mit Programmschnipseln - dazu bietet sie im Browser eine Schleife für Eingabe, Ausführung und Ausgabe und baut dabei auf weit verbreitete Open-Source-Libraries auf (z.B. Programmiersprache Phyton)

Allerdings sind neuronale Netze ebenso wie Quantencomputer nicht für alle Problemlagen geeignet, derzeit gibt es für unterschiedliche Probleme verschiedene Lösungen. Neu ist die Zusammenschaltung von lernenden Algorithmen mit Quantencomputern bzw. -simulatoren. So können quantenbasiert Berechnungen bei Support-Vektor-Maschinen erfolgen. Um die linearen Grenzen zwischen zwei Teilmengen (z.B. Hund/Katze) zu bestimmen, werden mathematisch höhere Dimensionen benötigt, in die die einzelnen Datenpunkte transformiert werden müssen (Skalarprodukt). Durch einen speziellen Algorithmus (SVMQK - Support-Vektor-Maschine Quantum-Kernel-Algorithmus), der per Quantenschaltung ausgeführt werden kann, ist z.T. erst eine effiziente Ausführung möglich. So werden in diesem speziellen Fall KI und Quantencomputer quasi "verheiratet", d.h. in Reihe geschalten zur Problemlösung herangezogen. Ein anderes Beispiel ist der KI-Behandlungsvorschlag eines Kranken, auf den ein menschlicher Arzt nicht kommen würde. Mathematisch ist es ein Problem des Auffinden eines globalen Minimums, was Quantencomputer wie D-Wave heute schon beherrschen. Es ist zu erwarten, dass noch weitere solche Verfahrenskombinationen entdeckt werden.

Insgesamt ist man vom einem Generalisten-neuronalen Netz derzeit in der Forschung noch weit entfernt. Zumindest soll aber schon die automatisierte Suche nach Drohnen-Zielen möglich sein, wie jüngst im Zuge der Veröffentlichungen im Rahmen der NSA-Ausspähaffäre vermutet wird.

Taxonomie

Einteilung der KI nach eingesetzter Prozessortechnik

KI kann eingeteilt werden nach Vergangenheit, Gegenwart und Zukunft der eingesetzten KI-Prozessoren (spezielle Prozessoren zur Berechnung neuronaler Netze, siehe Grafik[4]):

  • 1.Generation - parallel arbeitende Rechenwerke, wobei der "Flaschenhals" die Speicheranbindung darstellte
  • 2.Generation - Prozessoren mit zusätzlichen schnelle Speicherchips
  • 3.Generation - Prozessoren für Long Short-Term Memory KI mit "Vergessens"-Komponente (s.u.)
  • 4.Generation - neuartige Prozessoren, die entwickelt werden aus dem Ergebnis 2er neuronaler, in Konkurrenz zueinander gesetzten Netze (s.u.)

Einteilung der KI nach Einsatzzweck/Grad der Autonomie

Neben der technischen Einteilung kann KI auch nach Einsatzzweck/Grad der Autonomie eingeteilt werden in:

  • Machine Learning (ML) mit klar umrissene einzelne Aufgaben ohne Autonomie, beispielsweise mit Industrierobotern; automatische Regelanwendung und -ausführung der zuvor definierten Regeln, beispielsweise bei automatischem Hacking
  • Deep Learning mit eigenständigen Lernen, wie in biologischen neuronalen Netzen (salopp gesagt ML mit Rückkopplung); dabei werden Wahrscheinlichkeitsberechnungen zur Entscheidungsfindung genutzt, wobei die konkrete Ausgabe und Muster gleichzeitig erlernt werden
  • Cognitive Computing (Assistent oder Ersatz menschlicher Aufgaben, wie teilweise schon die KI "Watson" von IBM) mit der Fähigkeit zur Anpassung im Sinnzusammenhang bzw. des Kontext-Verständnisses und der Bildung von eigenen Erklärungsmustern für die reale Welt

Einteilung der KI nach Körperlichkeit

  • leibliche künstliche Intelligenz, wie Industrie-, Haushalts-, Pflege- und Behandlungsroboter
  • körperlose künstliche Intelligenz, die auf reiner Softwareebene arbeitet und Arbeiten von Buchhaltern, Anwälten oder auch Architekten (teilweise) ersetzt - hier ist das Einsparpotential wesentlich höher, da der technische Aufwand geringer ist und die Stundenlöhne wesentlich höher als im Personalersatzbereich liegen

Angriffsflächen gegen KI[5]

  • Trainings-Datenbasis ("vergiftete Quellen")
  • das neurale Netzwerk selbst (falsche verwendete Gewichte und Bias)
  • Entscheidungsalgorithmus der KI (Entscheidung im selbst fahrenden Auto, ob Fahrer oder Fußgänger "geopfert" werden)
  • Entscheidungsbefugnis der KI (handelt KI eigenständig oder als Assistenz des Menschen)
  • Stärke der KI (Was ist, wenn KI anders entscheidet als der Mensch?)


Periodensystem der Künstlichen Intelligenz

Die Bitkom hat anlässlich des Digitalgipfels 2018 der Bundesregierung ein "Periodensystem der Künstlichen Intelligenz" veröffentlicht[6].


KI aus der Cloud

Bild: Emotion API "Cognitive Services" in der Azure-Cloud

Mittlerweile haben die großen Cloud-Anbieter KI als neues Angebot für ihre Kunden entdeckt. Amazon bietet mit "Amazon Machine Learning" einen Service an, der ohne große Kenntnisse in der KI nutzbar sein soll. Auch Microsoft integriert in seine Azure-Cloud solche Techniken ("Azure Machine Learning(ML)Studio" und "Cognitive Services"). Als Beispiel (Emotion API) kann man Gesichtsausdrücke in hochgeladenen eigenen Bildern hinsichtlich der Gefühle Abscheu, Ärger, Furcht, Glück, Traurigkeit, Überraschung, Verachtung und Neutralität bewerten lassen. Google hat eine Reihe neuer Schnittstellen (APIs) für seine KI-Dienste und Features angekündigt (Cloud Translation API - Übersetzungsdienst, Cloud Natural Language API - Semantische Suche, Cloud Vision API - Bilderkennung und -Analyse), die es auch für seine eigenen Dienste einsetzt (Vorschlag von Satzbausteinen bei Gmail, Fotooptimierung bei Google Photos, nutzer-individuell zusammengestellte Infos bei Google Maps und Google News). Hauptprodukt ist der KI-Service "Cloud Machine Learning Platform". HP offeriert einen KI-Dienst "Haven On Demand", der allerdings nur über die Microsoft Cloud Azure erreichbar ist. KI-Dienste gibt es auch von SAS. IBM schickt seine KI "Watson" sogar ins All zu internationalen Raumstation ISS, allerdings als schwerelos schwebender Droide CIMON mit ständiger Verbindung zur Cloud auf der Erde.

Zusammengefasst werden diese Aktivitäten schon unter dem neuen Begriff "ML as a Service".


Sicherheitsbereich

Auch im Sicherheitsbereich nimmt der KI-Einsatz, als unterstützender Bestandteil vieler IT-Sicherheitsanwendungen und Abwehrstrategien, zu. Dazu zählen etwa die Erkennung von Malware (z.B. die auf KI-Verfahren aufsetzende Antiviren-Software von Cylance), von Anomalien im Netzwerkverkehr und von Angriffen auf biometrische Identifikationssysteme, aber auch die Härtung von Kryptosystemen gegen Seitenkanalangriffe[7] und die sicherere Softwareentwicklung (z.B. Software Composition Analysis der Firma Veracode[8] oder auch DeepCode der ETH Zürich).

IBM will seine KI "Watson", künftig auch mit Sprachinterface Watson Assistant, den Sicherheitsanalysten als Helfer zur Seite stellen. Vectra Networks stattet seine Sicherheitsprodukte mit Methoden des maschinellen Lernens aus. McAfee will auch verstärkt die neue Technik aus lernenden Systemen und künstlicher Intelligenz in das Portfolio integrieren, um den Schutz präventiv wirksamer zu gestalten. Google schützt seine Gmail-Mails zukünftig auch per Machine Learning. Bei Microsofts neuer Sicherheitsfunktion "Windows Defender Advanced Threat Protection" (WDAPT) für Windows 10 ist der Einsatz einer KI (Künstliche Intelligenz) zu vermuten und wurde zwischenzeitlich bestätigt. Die Machine Learning-Komponente soll nach Angaben von Microsoft zusammen mit der automatischen und schnellen Verteilung von Sicherheitsupdates die Ausbreitung des Kryptotrojaners WannaCry für Computer mit Windows 10 gestoppt haben.

Sehr weit vorangeschritten bei der Implementation von KI in Sicherheitssoftware ist die Firma Splunk. Für die Anwendungsfälle der Suche nach Anomalien und Angriffsmustern sowie zur Fehlersuche wurde die Produkte ES 4.5 als SIEM-Lösung sowie UBA 3.0 entwickelt. Über intelligente Alarmsysteme werden die Fehlalarme minimiert, da Ausnahmen besser interpretiert werden können. Auch notwendig werdende Wartungen, die im Normalfall zu Betriebsunterbrechungen führen, werden vorausschauend erkannt und können so rechtzeitig eingeleitet werden. Aus historischen Entwicklungen kann zudem auf veränderte Marktbedingungen, unerwartete Marktanforderungen und resultierenden Fehlern bei der Lagerhaltung geschlossen werden.

Es wurden sogar schon bei Cyber-physischen Systemen nach Ansätzen zur Erkennung von ATPs per Support Vector Maschines (aus der Gruppe des Maschine Learning) gesucht. Weitere Einzelbeispiele sind:

  • CISCO-Forscher fanden heraus, dass sie mit einen Machine-Learning-System auch bei einem verschlüsselten Datenverkehr per https den Malware-Traffic mit einer hohen Verlässlichkeit von legitimem Datenverkehr unterscheiden konnte[9]. Grundlage dieser Unterscheidung waren ausschließlich unverschlüsselte Metadaten des verschlüsselten https-Verkehrs (Ports, Bytes In/Out, Dauer, Paketlängen, die Byte-Verteilung und vor allem die TLS-Header-Daten - sogenannte IP-Flow-Daten). So nutzte Malware besonders gerne selbst-signierte Zertifikate und das RC4-Verfahren, das ansonsten kaum noch zum Einsatz kommt. Die Ergebnisse sind deshalb so interessant, zeigen sie doch, dass eine Network Behavior Analysis ohne Aufbrechen von TLS-Verschlüsselung in Firmennetzen durchaus möglich ist.
  • Beim 16. Deutschen Sicherheitskongress des BSI wurde eine weitere Untersuchung zur Erkennung mobiler Malware bei Android-Smartphones mittels Machine-Learning vorgestellt (siehe Literatur). Auffällig ist, dass der Datenstrom infizierter Smartphones wesentlich mehr DNS-Datenpakete (auf UDP-Basis) im Vergleich zur Gesamtzahl der Datenpakete enthält. Bei nicht infizierten Smartphones ist dieses Verhältnis fast ausgeglichen. Das soll daran liegen, dass infizierte Smartphones unterschiedliche Webadressen ausprobieren, um ihre C&C Server im Internet zu erreichen. Besonders geeignete Algorithmen für die ML-Analyse sind für diesen Anwendungsfall Decision Trees und Random Forests mit einer Erkennungsrate von ca. 98%, der Algorithmus Logistic Regression eher nicht (damit kein lineares Klassifizierungsproblem). Auch hier wird nur der Datenstrom an sich betrachtet und es wäre damit geeignet für die Network Behavior Analysis.
  • Machine-Learning-Systeme kann man auch zur Erkennung von Infection-Proxies per statistischer Analyse und auch Netzwerktunneln verwenden[10]. Infection-Proxies und verursachen auf Grund der Zwischenspeicherung der übertragenen Datenpakete eine Verzögerung, die man per Auswertung der Paket-Inter-Arrival-Time (PIT) erkennen kann.
  • Auch die Detektion von Malware-Daten in Bilddateien (JPEG, PNG)[11] und das Erkennen von Spear-Phishing-Attacken[12] ist möglich. Dabei wird nach Anomalien in der Struktur einer Bilddatei (vektoriell zusammengesetzt aus den Header-/Kompressionsdaten sowie in Datensegmente verkleinerte Nutzdaten) bzw. in der Mailstruktur gesucht.
  • Die neuste Antiviren-Software von G Data soll das verdächtige Entpacken von Code im Arbeitsspeicher mit Methoden aus der KI-Forschung möglichst zuverlässig erkennen können[13].

Aktuell wird bereits Machine-Learning (inclusive der Unterdisziplinen Supervised beziehungsweise Unsupervised Learning sowie Decision Trees) im Bereich Cyber Threat Intelligence erfolgreich eingesetzt. Voraussetzung für den erfolgreichen Einsatz sind aber eine große und qualitativ hochwertige Datenbasis für das Training und die Zusammenarbeit im Team mit menschlicher Intelligenz[14]. Aktuell im Einsatz befindliche neuronale Netze zur Malware-Erkennung sind allerdings meist nur auf exe-Dateien trainiert und können daher kaum Malware auf Makrobasis erkennen. Sofern man in einer Windows-Unternehmensumgebung den kostenlosen AppLocker einsetzt und damit ausführbare Programme auf die gewünschte Anzahl begrenzt, ist der KI-Nutzen sehr begrenzt.

Das neue iPhone X von Apple arbeitet mit einer Gesichtserkennung, um das Smartphone zu entsperren. Damit der Nutzer die sogenannte Face ID nicht immer neu einrichten muss, wenn ihm beispielsweise ein Bart wächst, seine Frisur sich ändern oder er eine Brille aufsetzt, ist der iPhone-Chip mit einer neuronalen Komponente ausgestattet und trainiert worden, so dass er diese Veränderungen erkennen kann. Zusätzlich soll der Chip aus fehlgeschlagenen Erkennungen lernen, die der Nutzer durch die Eingabe des Passcodes korrigiert.

KI kann auch eingesetzt werden, um Manipulation automatisierter Gesichtserkennungssysteme, beispielsweise bei Grenzkontrollen, zu verhindern (sogenannter Morphing-Angriff, bei dem zwei Gesichtsbilder zu einem synthetischen Gesichtsbild verschmolzen werden, das dann die Eigenschaften beider Personen enthält und so ermöglicht, dass zwei Personen denselben Pass verwenden können)[15].

Allerdings verharrt der KI-Einsatz im Sicherheitsbereich noch auf der Machine-Learning Ebene. Ob jemals eine Weiterentwicklung erfolgen kann, wird auch durch das "No-Free-Lunch"-Theorem (s.u.) bestimmt werden. So ist z.B. IBMs Watson noch sehr fehleranfällig bei automatischem Einsatz (s.u. angeführtes Beispiel aus der Medizin).

Für Machine-Learning gibt es derzeit 2 Ansätze:

  • Anomalie-Erkennung - Lernphase ist hier das befristete passive Beobachten des Netzverkehrs; Alarme werden später dann generiert, wenn sich etwas Ungewöhnliches tut
  • Regelbasierende Erkennung - Einspeisen von Indicator of Compromise (IoC) und Verhaltensmustern, die möglichst jeden Angriff erkennen sollen

Es bedarf aber auch hier noch eines zusätzlichen menschlichen "Entscheiders". Das liegt zum großen Teil am Fehlen effektiver Trainingsdaten für die Deep-Learning Ebene; ein Training mit Machine-Learning Daten führt offensichtlich zu Erkennungsproblemen neuartiger Angriffe oder anomalie-bedingt zu hohen Raten an Fehlalarmen (Beispiel aus dem Botnetz-Umfeld bei der Erkennung von Level-3-Bots/Level-4-Bots[16]). Es steht so zu befürchten, das bis zum KI-Einsatz von Cognitive Computing die Sicherheit immer noch neuen Angriffen "hinterher läuft" oder durch Fehlalarme überdeckt wird. Derzeit ist, erst wenn ein neuartiger Angriff mit ausreichendem Datenmaterial stattgefunden hat und "trainiert" worden ist, eine regelbasierte Erkennung möglich. Abhilfe könnte hier eine Vereinigung der zwei o.a. Ansätze in ein Produkt schaffen, die die Einzel-Nachteile kompensiert, aber noch aussteht. Vielleicht gelingt es auch, so die Deep-Learning Grenze schneller zu überwinden.

Mitte 2016 fand dann ein Wettbewerb der DARPA statt, wo sich KI-Computer gegenseitig hackten[17]. Gegen menschliche Hacker hatten die KI-Maschinen allerdings (noch) keine Chance, da diese erheblich raffinierter und teilweise unfair mit Fallen agierten. Doch hat KI jetzt schon bei der Suche nach Software-Bugs quantitativ riesige Vorteile; die Bewertung der Qualität muss jedoch noch vielfach dem menschlichen Fachmann überlassen werden.

DsiN hat ein Informationsangebot für Künstliche Intelligenz gestartet, das dreizehn Anwendungsszenarien, darunter die Themen KI in der Betrugserkennung im Bankenbereich, Spamfilter mit KI sowie KI in der Abwehr von Cyberkriminalität, beinhaltet[18].

MITRE entwickelt (zusammen u.a. mit Microsoft, IBM, Nivida) eine weitere neue Matrize seines ATT&CK-Angriffsbeschreibungssystems für den Bereich Machine Learning[19]. Zudem wurde bereits ein theoretisches Generationen-Modell zur KI-Beshreibung entwickelt[20]. Tabelle: Charakteristika verschiedener Generationen des maschinellen Lernens

Trotz aller Euphorie gibt es bereits auch erkannte Grenzen der Angriffs-Erkennungsmöglichkeiten der KI. KI "lernt" bestimmte Muster in der Annahme, dass es ein vollständiges Abbild der Umwelt darstellt. Wenn aber unerwartete Ereignisse eintreten (z.B. Black Swan), versagt die Methode ("Overfitting", s.u.). Dabei bilden unerwartete Angriffe mit völlig neuen Eigenschaften ein nicht zu unterschätzenden Teil der Sicherheitswelt. Der Mensch kann dagegen auch bei unvollständiger Datenlage durch Beobachtung und Abstraktion richtige Entscheidungen fällen. Bewusst wurde beispielsweise die auf KI-Verfahren aufsetzende Antiviren-Software von Cylance ausgetrickst[21] durch Anhängen einer Zeichenkette an eine Virendatei. Die Zeichenkette sorgte als Korrektiv dafür, eigentlich gutartige Dateien von der Erkennung auszunehmen. Diese Angriffe müssen dann in die KI-Erkennung durch erweitertes Training neu integriert werden. Dieses Antrainieren dauert aber einige Zeit, so dass die schnell anpassbaren Signaturen bei reinen Angriffs-Signaturprüfungen ihren Wert auch künftig nicht verlieren. Auch wird so das altbekannte "Hase-Igel-Rennen" zwischen Malware-Autoren und Antiviren-Industrie weitergehen. Ebenso wäre vorstellbar, KI-Systeme zur Erhöhung der Sicherheit umzukehren und als Angriffswerkzeuge einzusetzen. So gibt es eine Webseite im Internet, die per KI gepostete Twitter-Daten untersucht, ob sie Einbrecher geradezu "einladen" (pleaserobme.com). Diese KI ließe sich sicherlich relativ leicht umkehren. Auch "Anti-SIEM"-Systeme wären denkbar, z.B. als CycleGANs (s.u.).

Weiterer Grenzen ergeben sich durch die bei der Bildung von mathematischen Korrelationen (mathematisch: Annäherung der Näherungsfunktion an die wirkliche Funktion) ggf. auftretende Problem eines chaotischen Verhaltens (Chaostheorie). Auch ist derzeitige KI nicht zu einer auch aus der Chaostheorie bekannten Selbstorganisation fähig. Zudem setzt wohl auch das "No-Free-Lunch"-Theorem Grenzen. Dieses Theorem (in der Übersetzung „kein kostenloses Mittagessen“ bzw. sinngemäß „nichts ist umsonst“) wurde bereits im Jahr 1995 von David Wolpert und William G. Macready entdeckt und besagt, dass kein einzelner Algorithmus die Summe aller anderen Algorithmen über alle möglichen Problemzonen hinweg übertrifft.


Mensch vs. KI

Bild: KI-Animation

Die Frage, ob KI sich zukünftig höher entwickeln wird als die menschliche Intelligenz (diese sogenannte Singularität soll nach der optimistischen Auffassung des Namensgebers Ray Kurzweil im Jahr 2045 erreicht sein), ist keine rein technische Entscheidung. Vielmehr kommt hier eine Gliederung in Anlehnung an das aus der Naturwissenschaft bekannte Antropologische Prinzip zum Einsatz. Lernt eine KI aus Trainingsdaten (wie heute bei neuronalen Netzen) die Lösung eines klar umrissenen Problems, spricht man von "schwacher KI". Sollte eine KI (fast) alle Probleme lösen oder gar eine Persönlichkeit entwickeln, ist "starke KI" erreicht. Allerdings kann bis heute noch keiner so richtig erklären, wie das menschliche Bewusstsein als Vorbild überhaupt funktioniert. Dazu gibt es derzeit 2 Haupttheorien. Bei der Global Workspace Theory (oder auch global neuronal workspace - GNW) scheint das Bewusstsein wie ein Tor (oder auch Info-Tafel mit begrenzter Kapazität) zu funktionieren, das Zugang zu jedem Teil des Nervensystems bildet. Das wäre auch künstlich nachbaubar. Dagegen erklärt die ITT (Integrated Information Theory) Bewusstsein als ein Netzwerk, dass in seiner Struktur Zusammenhänge zwischen Ursache und Wirkung codiert. Alle Eindrücke bilden so eine Einheit (Holoistik). Dann ist allerdings das Bewusstsein per Computersimulation nicht nachbaubar ("So wie eine Simulation der Gravitation eines Schwarzen Loches nicht die Raumzeit um den Computer verformt, kann die Programmierung eines Bewusstseins niemals eine bewusste Maschine hervorbringen."[22]).

Diskussionsstand Mensch vs. KI
Merkmal Mensch < KI Mensch > KI
Antropologisches Prinzip
Bewusstsein
Intitution
Algorithmus
Grenzen
Vollständigkeit
Starke KI
GNT
Widerspruch durch Alan Turing
-
-
-
Schwache KI
ITT
Lady Lovelace’s Objection
"No-Free-Lunch"-Theorem
Black Swan
Chaostheorie(Selbstorganisation)

Zudem fehlt es heutiger KI an Aufbausystematik (KI kann derzeit nicht aus einfachen Symbolen komplexe Symboliken aufbauen - z.B. aus Buchstaben ein Wort, Satz ....), Verstehen, Emotion, sozialer Intelligenz, Universibilität sowie nach der Lady Lovelace’s Objection-These die Fähigkeit zur Intuition und damit ebenfalls zu eigener Erkenntnis. Zudem ist die direkte Erkennung von Computergrafiken (insbesondere bei Computerspielen) ungelöst. In Summe über alle Betrachtungen (Tabelle s.o.) kann derzeit (noch) nicht von einer (baldigen) Überlegenheit der KI ggü. dem Menschen ausgegangen werden.

Heutige KI wird auf spezielle Anwendungsfälle durch händisch agierende Experten zugeschnitten; so kann ein KI-System zur Spracherkennung nicht zur Bilderkennung genutzt werden. Auf dem Spezialgebiet sind dann aber durchaus Erfolge erzielbar (und die Industrie möchte sich - im Gegensatz zur Forschung - am liebsten auf diese Bereiche konzentrieren), wird aber auf absehbare Zeit in einer Assistenzrolle (dieses Partnerschaftsmodell der Zusammenarbeit von Mensch und KI wird neuerdings auch KI-Augmentation genannt) verbleiben. So wurden in der Medizin bei der Bilderkennung zum Anfangsverdacht eines bösartigen Melanoms (per der vielberühmten IBM-KI "Watson") eine höhere Trefferrate erzielt als bei der Bilderdurchsicht durch Ärzte. Die Detail-Nachbereitung der entsprechenden Verdachtsbilder musste dann allerdings wiederum der menschliche Kollege übernehmen, so dass eine automatische Krebserkennung doch an Grenzen stößt. Viele ähnliche medizinische Pilotprojekte wurden auf Grund falscher Behandlungsempfehlungen auch schon wieder eingestellt. Insgesamt haben KI-Modelle bei Auswertung von Bildmaterial im Gesundheitsbereich insgesamt allerdings keine bessere Trefferrate als Ärzte (87% zu 86 %, nach "The Lancet Digital Health 10.1016/S2589-7500(19)30123-2, 2019"). Dagegen nutzen einige Versicherungen schon Bild- und Texterkennung zur Feststellung von Bildmanipulationen und kopierten Schadensberichten.

Derzeit kann auf Grund der mangelnden Rechner-Ressourcen in neuronalen Netzen nur bis zu einer bestimmten Stufe alle Varianten mit Rückkopplungen versehen werden. Mit dem sogenannten „Langen Kurzzeitgedächtnis“ - Long Short-Term Memory (LSTM) genannt, wird deshalb eine "Vergessens"-Komponente mit eingebaut. LSTM ermöglicht auf diese Weise im Gegensatz zu herkömmlichen neuronalen Netzen eine Art Erinnerung an frühere Erfahrungen - das "Kurzzeitgedächtnis". So kann man regulär trainierte, komplexe Netze nachträglich auf bis zu ein Zehntel der Originalgröße ausdünnen, ohne dass dadurch merklich schlechtere Ergebnisse erzielt werden. Dabei wird sich am Gehirn orientiert: Neugeborene haben vergleichsweise noch wenige Synapsen, die sich im Kindesalter stark erhöhen, um im Erwachsenenalter wieder abzufallen. Allerdings fehlt aber oft noch der effektive Entscheidungsmechanismus. Ein weiteres Problem ist das "Overfittig", bei dem das neuronale Netz nur das lernt, was gerade zu seinen Trainingsdaten passt, ohne das allgemeine Muster der Sache zu verstehen. Auf den Menschen übertragen lernt es quasi auswendig, ohne die Grundlagen zu verstehen, so dass bei unbekannten Daten es dann versagt.

Bild: Internetlogos

Facebook und Pinterest (Internetdienst, der eine weltweite Fotocommunity mit einer visuelle Suchmaschine verbindet) verwenden und experimentieren mit Generative Adversarial Networks (GAN). Hierzu werden 2 neuronale Netze in Konkurrenz zueinander gesetzt. Ein erster Test fand 2015 im Bereich der Bildergenerierung statt, wobei ein neuronales Netz einen Bilderfälscher und das zweite neuronale Netz den Detektiv spielt. Diese Netzkombination braucht dann keine Trainingsdaten mehr zum Lernen und es wird als Meilenstein auf dem Weg zu einer universellen "starken" KI (bzw. 4.KI-Generation bzw. "Cognitive Computing") gesehen. Derzeit werden sogenannte CycleGANs aufgebaut, die aus 2 GANs bestehen. Damit sollen Gemälde im Stil berühmter Künstler aus Urlaubsfotos ermöglicht werden. Dies erfordert allerdings ein zweistufiges Verfahren; zunächst wird aus dem Foto ein Gemälde erzeugt, welches dann wieder in ein Foto rückverwandelt wird (1.GAN). Danach wird bewertet, ob das rückverwandelte Foto noch realistisch aussieht und das Gemälde noch dem Stil des Malers entspricht (2.GAN). Solche KI-generierte Gemälde wurden auch schon bei Sotheby's und Christie's versteigert. Für Aussehen sorgte 2019 auch die Nachricht über ein erstes per KI geschriebenen Buch. Allerdings ist das per KI-Software "Beta Writer" geschriebenes "Buch" von Springer Nature und der Goethe- Universität in Frankfurt/Main mit dem Titel "Lithium-Ion Batteries" wohl eher eine maschinengenerierte Zusammenfassung von entsprechenden Fachartikeln mit automatisch erstellten Inhaltsverzeichnis und Referenzen. Zudem gibt es seit 2018 auch schon KI-generierte Musik.

Einige Experten gehen sogar davon aus, dass KI so ein eigenes Denkmuster entwickeln wird. Die gegenwärtige höherentwickelte KI auf Basis von Deep Learning ist ja schon jetzt so komplex, dass sie vom Menschen nicht mehr verstanden und deshalb als "Blackbox" angesehen werden muss. So erklären sich dann auch viele spektakulär durch KI geschlagene Go-Meister ihre Niederlagen damit[23], dass KI eben nicht wie ein Mensch spiele, sondern ganz eigene Herangehensweisen und Strategien verwende. Allerdings galt das zunächst nur bei Spielen mit vollständigen Informationen über die Spielmöglichkeiten des Gegners (z.B. Schach, wo schon 1997 der Weltmeister Kasparow von IBMs Deep Blue geschlagen wurde). Zwischenzeitlich konnte KI auch professionelle Spieler in Spielen mit unvollständigen Informationen schlagen (Poker, StarCraft).

Bild: KI-Animation

Im Frühjahr 2018 stellte Google seine Duplex-Technik vor. Im ersten Fall rief eine Frau einen Friseurladen zwecks Terminvereinbarung an, im zweiten Fall wollte eine Frau im Restaurant einen Tisch reservieren. Dabei waren alle Gesprächsteilnehmer bei den Telefonaten keine Menschen, sondern KI-gesteuerte Bots.

Aktuell kann sogar mit Verstorbenen wieder (rudimentäre) Gespräche führen. So verspricht die Firma Sidekik das Führen von Chats mit internationalen Promis (u.a. auch Steve Jobs). Die verwendete Technik beruht auf Deep Learning[24].

Zwischenzeitlich sind die Gesichtserkennungssysteme so ausgereift, so dass das Produkt von Clearview AI weltweite Überwachungsängste schürt. Dabei soll zum Abgleich eine Sammlung aus drei Milliarden Fotos, die ohne Erlaubnis von Facebook, Instagram, YouTube "und Millionen anderen Websites" heruntergeladen wurde, verwendet werden. Viele US-Polizeibehörden sollen die App mit großem Erfolg einsetzen[25].

Zur Diskussion über gesellschaftliche und soziale Aspekte der KI haben die großen IT-Unternehmen (Amazon, Apple, DeepMind, Facebook, Google, IBM, Microsoft) eine "Partnership on Artificial Intelligence to Benefit People and Society ", kurz Partnership on AI gegründet, der zwischenzeitlich weitere Unternehmen und Organisationen beigetreten sind (u.a. eBay, Human Rights Watch, Intel, McKinsey, SAP, Sony, Unicef).

Im Frühjahr 2019 hat die EU-Kommission 7 Anforderungen an KI-Entwicklungen veröffentlicht[26]:

  • Robustheit und Verfügbarkeit
  • Vertraulichkeit und Datenhaltungsregeln
  • Transparenz
  • Nichtdiskriminierung
  • Berücksichtigung der Gesamtgesellschaft
  • Rechenschaftslegung
  • Autonomie und Kontrolle

Auch die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und sechs weitere Länder haben sich auf erste KI-Grundsätze verständigt. Insbesondere müsse KI transparent gemacht und stets als solche erkennbar sein. Zudem müssten KI-Systeme stets stabil und sicher arbeiten, und potenzielle Risiken kontinuierlich untersucht und behandelt werden. Auch die Verantwortung, dass die KI nach den Prinzipien arbeite, muss entsprechend getragen werden[27].

National plant das deutsche Arbeitsministerium den Aufbau eines KI-TÜVs für Anfang 2020[28]. Die Bitkom hat zudem den Leitfaden „Anonymisierung und Pseudonymisierung von Daten für Projekte des maschinellen Lernens“ erstellt, da KI-Trainingsdaten auch personenbezogene Inhalte enthalten können und Anonymisierung/Pseudonymisierung als datenschutzkonforme Lösung hierfür gesehen wird[29].

Das diese Aktivitäten dringend notwendig ist, zeigt ein Beispiel aus der jüngeren KI-Geschichte: KI-Forscher haben ein KI-System so trainiert[30] , dass es aus Porträtfotos mit 91% homosexuelle Männer bei 5 Bilder erkannte, bei lesbischen Frauen 83% bei fünf Bildern. Dazu mussten die Forscher nicht einmal auf Deep Learning zurückgreifen, es reichte ein Feature-Vektor für die Gesichter (eine Art Gesichter-Fingerabdruck) zu berechnen und den mit logistischer Regression zu klassifizieren. In einem anderen Fall benutzte IBM öffentliche Flickr-Fotos zum Trainieren seiner Gesichtserkennung, ohne die Nutzer zu informieren. Kritiker sehen hier eine Verletzung der Privatsphäre[31].


Weblinks


Literatur


Einzelnachweis

  1. SecuPedia Aktuell: Mit KI und ML steigt Gefahr von Deepfake-Angriffen
  2. SecuPedia Aktuell: NTT Security: Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang
  3. SecuPedia Aktuell: Neue Variante bei CEO-Fraud: Fake President Fall mit Stimmimitation durch KI-Software
  4. Song Han (MIT): Folie „Evolution of NN Accelerators“ (https://www.heise.de/imgs/18/2/4/8/5/4/1/5/song1-a8100cad2e936c80.png). Aufgerufen am 21.08.2018
  5. Beitrag in der <kes> 4/2020 "Die KIste der Pandora" von Dr. Sebastian Broecker
  6. "Anlässlich Digitalgipfel: Bitkom veröffentlicht "Periodensystem der Künstlichen Intelligenz"" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 04.Dezember.2018
  7. Beitrag "Kryptowährungen und künstliche Intelligenz: Zweite Ausgabe des Deutsch-Französischen IT-Sicherheitslagebilds erschienen" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 21.Mai.2019
  8. Beitrag "Veracode nutzt ML-Techniken für sicherere Software Composition Analysis" vom 21.08.2019 von Heise-Online
  9. Beitrag "Cisco analysiert verschlüsselten Traffic, um Malware zu erkennen" vom 22.06.2017 von Heise-Online
  10. Beitrag in der <kes> 4/2017 "Automatisierte Erkennung von Infection-Proxies" von Nils Rogmann
  11. Beitrag "Neuer Ansatz zur Detektion von Malware-Daten in Bilddateien" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 15.August.2018
  12. Beitrag "Spear-Phishing: Braunschweiger IT-Experten entwickeln Schutz gegen E-Mail-Betrugsmasche" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 11.September.2018
  13. Beitrag "Antiviren-Software mit KI-Technik: G Data setzt auf DeepRay" vom 21.11.2018 von Heise-Online
  14. SecuPedia Aktuell: Threat Intelligence und die Grenzen künstlicher Intelligenz
  15. SecuPedia Aktuell: KI für die Anomalieerkennung: Manipulation automatisierter Gesichtserkennung verhindern
  16. Beitrag in der <kes> 3/2019 "The good, the bad and the ugly" von Michael Tullius
  17. Beitrag "Cyber Grand Challenge: Unsichere Computer heilten sich selbst" vom 05.08.2016 von Heise-Online
  18. "DsiN startet Informationsangebot für Künstliche Intelligenz" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 04.Dezember.2018
  19. Beitrag "Machine Learning: Microsoft, MITRE, IBM, Nivida & Co erstellen Bedrohungsmatrix" vom 23.10.2020 von Heise-Online
  20. Beitrag in der <kes> 1/2018 "Maschinelles Lernen und Cybersicherheit" von Sascha Dubbel
  21. Beitrag "Antivirus: Cylance-KI böse ausgetrickst" vom 24.07.2019 von Heise-Online
  22. Beitrag "Kognition was ist Bewusstsein?" in Spektrum der Wissenschaft 2.20
  23. Beitrag "Mensch gegen Maschine: Google-KI AlphaGo schlägt Lee Sedol 3:0" vom 12.03.2016 von Heise-Online
  24. Beitrag "Chatten mit Steve Jobs" vom 04.07.2019 von Heise-Online
  25. Beitrag "Erst heimlich, dann unheimlich" vom 20.01.2020 von Spiegel-Online
  26. Beitrag "Ethische Grenzen: Streit in der EU um Regeln für künftige KI-Systeme" vom 28.04.2019 von Heise-Online
  27. Beitrag "OECD einigt sich auf Grundsätze zur KI" vom 23.05.2019 von com-magazin.de
  28. Beitrag "TÜV für künstliche Intelligenz kommt" vom 12.11.2019 von SZ.de
  29. Maschinelles Lernen und Datenschutz: Bitkom veröffentlicht Leitfaden in Aktuelle Sicherheits-Meldungen – SecuPedia vom 09.Oktober.2020
  30. Beitrag "KI erkennt am Gesicht, ob Menschen schwul oder lesbisch sind" vom 08.09.2017 von Heise-Online
  31. Beitrag "IBM nutzte Flickr-Fotos für Gesichtserkennung, ohne Nutzer zu informieren" vom 13.03.2019 von Heise-Online


Siehe auch



Diese Seite wurde zuletzt am 23. Oktober 2020 um 14:51 Uhr von Oliver Wege geändert. Basierend auf der Arbeit von Doris Porwitzki, Ralf Schulze, Test Testung und Peter Hohl.