Künstliche Intelligenz

aus SecuPedia, der Plattform für Sicherheits-Informationen

(Weitergeleitet von AI)
Anzeige
Wechseln zu: Navigation, Suche

Künstliche Intelligenz (KI, englisch: artificial intelligence - AI) basiert auf der neuen Technologie der Schaffung intelligenter Maschinen. Durch maschinelles Lernen soll eine ähnliche Umwälzung wie bei der Entdeckung der Elektronik ausgelöst werden. Auch die IT-Sicherheitsbranche könne betroffen sein, man denke nur an automatische Abwehrmechanismen im Angriffsfall.

Einzelheiten

Bild: Amazon Echo - Alexa Voice Service

KI basiert auf Algorithmen, die entweder vor Nutzung eine Traningsphase beinhalten oder während der Nutzung anhand der verarbeiteten Daten dazu lernen. Diese sogenannten lernenden Algorithmen sind beispielsweise logistische Regression, Entscheidungsbäume und - dschungel, Sentiment-Analysen sowie Vektoren- oder Bayes Machines (letzteres vorstellbar als ständiger Abgleich zwischen Hypothese und Wirklichkeit) und kommen auch jetzt schon bei modernen Spam-Filtern, automatischem Sprachverstehen und Assistenz (Siri, Cortana und Google Assistant sowie Alexa Voice Service) oder auch bei Folge-Kaufanimationen (analog zu: "Kunden, die diesen Artikel gekauft haben, kauften auch ....") zum Einsatz. Nutzer von Adobe Stocks können online mit der KI Adobe Sensei nach Fotos und Videos suchen. Microsoft nutzt KI auch bei der Wortvorhersage über die Smartphone-Tastatur (SwiftKey) und im Office 365 (Funktion Tap für Word und Outlook zum Holen passender Informationen aus anderen Dokumenten zum aktuellem Dokument). Auch ist Microsoft schon in den Chatbot-Hype (automatisierter Service, der über Chat-Schnittstelle mit Nutzern interagiert oder Informationen anbietet und z.T. KI nutzt; beispielsweise virtuelle Begrüßungen und Standard-Fragebeantwortung per Dialogfenster) eingestiegen. Dazu wird der Chatbot "Zo" und ein ganzes dahinterliegendes "Microsoft Bot Framework" mit Schnittstellen zu Skype (Skype Calling API), Cortana (Cortana Devices SDK), Kalender (Calender.help) und Übersetzung (Translator Live) bereitgestellt. Google setzt KI zusätzlich zur Wortergänzung und Übersetzen (Google Translate) und zur semantischen Suche (Rank-Brain) ein. Seit Oktober 2015 versucht Google so mit Rank-Brain, auf einfache Fragen sinnvolle Antworten zu geben. Rank-Brain lernt dabei zunächst offline, bei einem Treffer geht dieses neue Muster per KI-Update dann online. Facebook erweitert das Open-Source-Toolkit "Caffe" zu "Caffe2" zur Entwicklung von KI-Funktionen speziell für die Nutzung auf mobilen Endgeräten, wie Tablets und Smartphones. Die Firma Arago AG, mit einem der in Deutschland bekannten Köpfe im Bereich der KI - Chris Boos - an der Spitze, hat mit dem Programm HIRO gar eine Enterprise-Software entwickelt, die problemlösend und selbstlernend Systemadministratoren von der alltäglichen Arbeit befreien und dabei Automatisierungsraten von bis zu 90 Prozent erzielen soll. Salesforce will KI in ihr CRM integrieren (KI-Service Einstein). Dabei soll KI insgesamt zur sogenannten Autonomous IT führen, d.h. sich selbst heilende IT-Infrastrukturen mit automatisch angepasstem Ressourcenverbrauch und ständiger Selbstanalyse. SAP bündelt sein KI-Angebot in der Marke SAP Clea sowie über seine IoT-Plattform Leonardo.

Der größte Erfolg wird derzeit mit "neuronalen Netzen" erzielt. Diese neuronalen Netze durchlaufen vor der eigentlichen Benutzung eine Trainingsphase und ermitteln anhand der verarbeiteten Daten einen optimalen Systemzustand, der für weitere (ähnliche) Problemlösungen geeignet ist. Per Rückkopplung kann das System dann auch weiter "lernen". Hierbei wird versucht das menschliche Gehirn nachzubauen. Nervenzellen (Neuronen) und Verbindungen (Synapsen) werden technisch modelliert und mit Gewichten und Bias (Aktivitätsleveln) versehen. In mehreren Schichten hintereinander angeordnet werden dann im Rahmen einer Trainingsphase entsprechende Muster gespeichert, die bei jedem Trainingslauf verfeinert werden. Wird danach ein unbekanntes Objekt verarbeitet, kann so dieses ebenfalls durch Vergleich mit den gespeicherten Mustern erkannt werden. Damit ist der Erfolg von "neuronalen Netzen" an das Vorhandensein großer Datenmengen (Big Data) gekoppelt, aus der das System lernen kann. Big Data braucht wiederum die Cloud zum Abspeichern der gigantischen Datenmengen (logische Kette: Künstliche Intelligenz->Big Data->Cloud).

Bild: Prisma-App

Der größte praktische Nutzen der neuronalen Netze ist bei der Bild-, Handschrift- und Spracherkennung, maschinellen Übersetzung und (Foto)Suchen per (Bildverständnis)Suchmaschine, Signaldatenverarbeitung im Bereich von Gefahrenwarn- und Gefahrenmeldeanlagen (GWA und GMA) sowie Strategiespielen/Spieltheorie. Auch die Foto-App Prisma (verfügbar für iPhones, Android- und Windows 10 Mobile -Smartphones, für Windows Phone gibt es die ähnliche App Vinci) , die gerade die App-Welt erobert, benutzt neuronale Netze. Inzwischen erlaubt es die immer leistungsfähigere werdende Hardware (insbesondere mit den massiv parallelisiert arbeitenden Grafikprozessoren von Nvidia der Serien "Tesla" und "Pascal" bzw. neuen Serie "Volta" statt seriell arbeitende "normale" Prozessoren) den Maschinen, die Inhalte von Videos zu erkennen und sogar Autos autonom zu steuern. Neu ist auch die Integration von KI-Chips in Smartphones beispielsweise zur Bilderkennung (wie mit dem Huawei Mate 10 Pro).

Dagegen soll der Quantencomputer alle Varianten simulieren. Obwohl einige Ähnlichkeiten bei verwendeten Algorithmen (z.B. Gradientenabstieg für Optimierungsprobleme) bestehen, zeigt nachfolgende Tabelle die wesentlichen Technologie-Unterschiede auf:

Vergleich Neuronale Netze vs. Quantencomputer
Merkmal Neuronales Netze Quantencomputer
Basis
Simulationszustände
Praxiseinsatz
dual (Bit)
endlich
ja
mehrere (QBit)
unendlich
nein


Allerdings sind neuronale Netze ebenso wie Quantencomputer nicht für alle Problemlagen geeignet, derzeit gibt es für unterschiedliche Probleme verschiedene Lösungen. Vom einem Generalisten-neuronalen Netz ist man derzeit in der Forschung weit entfernt. Zumindest soll aber schon die automatisierte Suche nach Drohnen-Zielen möglich sein, wie jüngst im Zuge der Veröffentlichungen im Rahmen der NSA-Ausspähaffäre vermutet wird.


Einteilung der KI nach Einsatzzweck/Grad der Autonomie

Neben der technischen Einteilung kann KI auch nach Einsatzzweck/Grad der Autonomie eingeteilt werden in:

  • Machine Learning (ML) mit klar umrissene einzelne Aufgaben ohne Autonomie, beispielsweise mit Industrierobotern
  • Deep Learning mit eigenständigen Lernen, wie mit neuronalen Netzen
  • Cognitive Computing (Assistent oder Ersatz menschlicher Aufgaben, wie die KI "Watson" von IBM)


KI aus der Cloud

Bild: Emotion API "Cognitive Services" in der Azure-Cloud

Mittlerweile haben die großen Cloud-Anbieter KI als neues Angebot für ihre Kunden entdeckt. Amazon bietet mit "Amazon Machine Learning" einen Service an, der ohne große Kenntnisse in der KI nutzbar sein soll. Auch Microsoft integriert in seine Azure-Cloud solche Techniken ("Azure Machine Learning(ML)Studio" und "Cognitive Services"). Als Beispiel (Emotion API) kann man Gesichtsausdrücke in hochgeladenen eigenen Bildern hinsichtlich der Gefühle Abscheu, Ärger, Furcht, Glück, Traurigkeit, Überraschung, Verachtung und Neutralität bewerten lassen. Google hat eine Reihe neuer Schnittstellen (APIs) für seine KI-Dienste und Features angekündigt (Cloud Translation API - Übersetzungsdienst, Cloud Natural Language API - Semantische Suche, Cloud Vision API - Bilderkennung und -Analyse). Hauptprodukt ist der KI-Service "Cloud Machine Learning Platform". HP offeriert einen KI-Dienst "Haven On Demand", der allerdings nur über die Microsoft Cloud Azure erreichbar ist.

Zusammengefasst werden diese Aktivitäten schon unter dem neuen Begriff "ML as a Service".


Sicherheitsbereich

Aber auch im Sicherheitsbereich nimmt der KI-Einsatz zum Erkennen von Angriffsmustern zu. IBM will seine KI "Watson" künftig auch Sicherheitsanalysten als Assistenz zur Seite stellen. Vectra Networks stattet seine Sicherheitsprodukte mit Methoden des maschinellen Lernens aus. McAffee will auch verstärkt die neue Technik aus lernenden Systemen und künstlicher Intelligenz in das Portfolio integrieren, um den Schutz präventiv wirksamer zu gestalten. Google schützt seine Gmail-Mails zukünftig auch per Machine Learning. Bei Microsofts neuer Sicherheitsfunktion "Windows Defender Advanced Threat Protection" (WDAPT) für Windows 10 ist der Einsatz einer KI (Künstliche Intelligenz) zu vermuten und wurde zwischenzeitlich bestätigt. Die Machine Learning-Komponente soll nach Angaben von Microsoft zusammen mit der automatischen und schnellen Verteilung von Sicherheitsupdates die Ausbreitung des Kryptotrojaners WannaCry für Computer mit Windows 10 gestoppt haben.

Sehr weit vorangeschritten bei der Implementation von KI in Sicherheitssoftware ist die Firma Splunk. Für die Anwendungsfälle der Suche nach Anomalien und Angriffsmustern sowie zur Fehlersuche wurde die Produkte ES 4.5 als SIEM-Lösung sowie UBA 3.0 entwickelt. Über intelligente Alarmsysteme werden die Fehlalarme minimiert, da Ausnahmen besser interpretiert werden können. Auch notwendig werdende Wartungen, die im Normalfall zu Betriebsunterbrechungen führen, werden vorausschauend erkannt und können so rechtzeitig eingeleitet werden. Aus historischen Entwicklungen kann zudem auf veränderte Marktbedingungen, unerwartete Marktanforderungen und resultierenden Fehlern bei der Lagerhaltung geschlossen werden.

Es wurden sogar schon bei Cyber-physisches Systemen nach Ansätzen zur Erkennung von ATPs per Support Vector Maschines (aus der Gruppe des Maschine Learning) sowie per Deep Learning gesucht.

CISCO-Forscher fanden heraus, dass sie mit einen Machine-Learning-System auch bei einem verschlüsselten Datenverkehr per https den Malware-Traffic mit einer hohen Verlässlichkeit von legitimem Datenverkehr unterscheiden konnte. Grundlage dieser Unterscheidung waren ausschließlich unverschlüsselte Metadaten des verschlüsselten https-Verkehrs (Ports, Bytes In/Out, Dauer, Paketlängen,die Byte-Verteilung und vor allem die TLS-Header-Daten). So nutzte Malware besonders gerne selbst-signierte Zertifikate und das RC4-Verfahren, das ansonsten kaum noch zum Einsatz kommt. Die Ergebnisse sind deshalb so interessant, zeigen sie doch, dass eine Network Behavior Analysis ohne Aufbrechen von TLS-Verschlüsselung in Firmennetzen durchaus möglich ist.

Machine-Learning-Systeme kann man auch zur Erkennung von Infection-Proxies per statistischer Analyse und auch Netzwerktunneln verwenden. Infection-Proxies und verursachen auf Grund der Zwischenspeicherung der übertragenen Datenpakete eine Verzögerung, die man per Auswertung der Paket-Inter-Arrivial-Time (PIT) erkennen kann.

Das neue iPhone X von Apple arbeitet mit einer Gesichtserkennung, um das Smartphone zu entsperren. Damit der Nutzer die sogenannte Face ID nicht immer neu einrichten muss, wenn ihm beispielsweise ein Bart wächst, seine Frisur sich ändern oder er eine Brille aufsetzt, ist der iPhone-Chip mit einer neuronalen Komponente ausgestattet und trainiert worden, so dass er diese Veränderungen erkennen kann. Zusätzlich soll der Chip aus fehlgeschlagenen Erkennungen lernen, die der Nutzer durch die Eingabe des Passcodes korrigiert.

Mitte 2016 fand dann ein Wettbewerb der DARPA statt, wo sich KI-Computer gegenseitig hackten. Gegen menschliche Hacker hatten die KI-Maschinen allerdings (noch) keine Chance, da diese erheblich raffinierter und teilweise unfair mit Fallen agierten. Doch hat KI jetzt schon bei der Suche nach Software-Bugs quantitativ riesige Vorteile; die Bewertung der Qualität muss jedoch noch vielfach dem menschlichen Fachmann überlassen werden.


Mensch vs. KI

Bild: Neuronale Netzwerkanimation

Die Frage, ob KI sich zukünftig höher entwickeln wird als die menschliche Intelligenz, ist keine rein technische Entscheidung. Vielmehr kommt hier eine Gliederung in Anlehnung an das aus der Naturwissenschaft bekannte Antropologische Prinzip zum Einsatz. Lernt eine KI aus Trainingsdaten (wie heute bei neuronalen Netzen) die Lösung eines klar umrissenen Problems, spricht man von "schwacher KI". Sollte eine KI (fast) alle Probleme lösen oder gar eine Persönlichkeit entwickeln, ist "starke KI" erreicht. Allerdings kann bis heute noch keiner so richtig erklären, wie das menschliche Bewusstsein als Vorbild überhaupt funktioniert. Auch fehlt er heutiger KI an sozialer Intelligenz.

Derzeit kann auf Grund der mangelnden Rechner-Ressourcen in neuronalen Netzen nur bis zu einer bestimmten Stufe alle Varianten mit Rückkopplungen versehen werden. Mit dem sogenannten „Langen Kurzzeitgedächtnis“ - Long Short-Term Memory (LSTM) genannt, wird deshalb eine "Vergessens"-Komponente mit eingebaut, hier fehlt aber oft noch der effektive Entscheidungsmechanismus. Ein weiteres Problem ist das "Overfittig", bei dem das neuronale Netz nur das lernt, was gerade zu seinen Trainingsdaten passt, ohne das allgemeine Muster der Sache zu verstehen. Auf den Menschen übertragen lernt es quasi auswendig, ohne die Grundlagen zu verstehen, so dass bei unbekannten Daten es dann versagt.

Facebook experimentiert derzeit mit Generative Adversarial Networks (GAN). Hierzu werden 2 neuronale Netzte in Konkurrenz zueinander gesetzt. Ein erster Test fand 2015 im Bereich der Bildergenerierung statt, wobei ein neuronales Netz einen Bilderfälscher und das zweite neuronale Netz den Detektiv spielt. Diese Netzkombination braucht dann keine Trainingsdaten mehr zum Lernen und es wird als Meilenstein auf dem Weg zu einer universellen "starken" KI gesehen.

Bild: Neuronale Netzwerkanimation

Zur Diskussion über gesellschaftliche und soziale Aspekte der KI haben die großen IT-Unternehmen (Amazon, Apple, DeepMind, Facebook, Google, IBM, Microsoft) eine "Partnership on Artificial Intelligence to Benefit People and Society ", kurz Partnership on AI gegründet, der zwischenzeitlich weitere Unternehmen und Organisationen beigetreten sind (u.a. eBay, Human Rights Watch, Intel, McKinsey, SAP, Sony, Unicef).

Das dies dringend notwendig ist, zeigt ein Beispiel aus der jüngeren KI-Geschichte: KI-Forscher haben ein KI-System so trainiert, dass es aus Porträtfotos mit 91% homosexuelle Männer bei 5 Bilder erkannte, bei lesbischen Frauen 83% bei fünf Bildern. Dazu mussten die Forscher nicht einmal auf Deep Learning zurückgreifen, es reichte ein Feature-Vektor für die Gesichter (eine Art Gesichter-Fingerabdruck) zu berechnen und den mit logistischer Regression zu klassifizieren.


Literatur


Weblinks


Siehe auch



Diese Seite wurde zuletzt am 13. Dezember 2017 um 11:32 Uhr von Oliver Wege geändert. Basierend auf der Arbeit von Peter Hohl.

Anzeigen