Künstliche Intelligenz

aus SecuPedia, der Plattform für Sicherheits-Informationen

Anzeige
Wechseln zu: Navigation, Suche

Künstliche Intelligenz (KI, englisch: artificial intelligence - AI) basiert auf der neuen Technologie der Schaffung intelligenter Maschinen. Durch maschinelles Lernen soll eine ähnliche Umwälzung wie bei der Entdeckung der Elektronik ausgelöst werden. Auch die IT-Sicherheitsbranche könne betroffen sein, man denke nur an automatische Abwehrmechanismen im Angriffsfall.

Einzelheiten

Bild: Amazon Echo - Alexa Voice Service

KI basiert auf Algorithmen, die entweder vor Nutzung eine Traningsphase beinhalten oder während der Nutzung anhand der verarbeiteten Daten dazu lernen. Diese sogenannten lernenden Algorithmen sind beispielsweise logistische Regression, Entscheidungsbäume und - dschungel, Sentiment-Analysen sowie Vektoren- oder Bayes Machines (letzteres vorstellbar als ständiger Abgleich zwischen Hypothese und Wirklichkeit) und kommen auch jetzt schon bei modernen Spam-Filtern, automatischem Sprachverstehen und Assistenz (Siri, Cortana und Google Assistant sowie Alexa Voice Service) oder auch bei Folge-Kaufanimationen (analog zu: "Kunden, die diesen Artikel gekauft haben, kauften auch ....") zum Einsatz. Nutzer von Adobe Stocks können online mit der KI Adobe Sensei nach Fotos und Videos suchen. Microsoft nutzt KI auch bei der Wortvorhersage über die Smartphone-Tastatur (SwiftKey) und im Office 365 (Funktion Tap für Word und Outlook zum Holen passender Informationen aus anderen Dokumenten zum aktuellem Dokument). Auch ist Microsoft schon in den Chatbot-Hype (automatisierter Service, der über Chat-Schnittstelle mit Nutzern interagiert oder Informationen anbietet und z.T. KI nutzt; beispielsweise virtuelle Begrüßungen und Standard-Fragebeantwortung per Dialogfenster) eingestiegen. Dazu wird der Chatbot "Zo" und ein ganzes dahinterliegendes "Microsoft Bot Framework" mit Schnittstellen zu Skype (Skype Calling API), Cortana (Cortana Devices SDK), Kalender (Calender.help) und Übersetzung (Translator Live) bereitgestellt. Google setzt KI zusätzlich zur Wortergänzung und Übersetzen (Google Translate) und zur semantischen Suche (Rank-Brain) ein. Seit Oktober 2015 versucht Google so mit Rank-Brain, auf einfache Fragen sinnvolle Antworten zu geben. Rank-Brain lernt dabei zunächst offline, bei einem Treffer geht dieses neue Muster per KI-Update dann online. Facebook erweitert das Open-Source-Toolkit "Caffe" zu "Caffe2" zur Entwicklung von KI-Funktionen speziell für die Nutzung auf mobilen Endgeräten, wie Tablets und Smartphones. Die Firma Arago AG, mit einem der in Deutschland bekannten Köpfe im Bereich der KI - Chris Boos - an der Spitze, hat mit dem Programm HIRO gar eine Enterprise-Software entwickelt, die problemlösend und selbstlernend Systemadministratoren von der alltäglichen Arbeit befreien und dabei Automatisierungsraten von bis zu 90 Prozent erzielen soll. Salesforce will KI in ihr CRM integrieren (KI-Service Einstein). Dabei soll KI insgesamt zur sogenannten Autonomous IT führen, d.h. sich selbst heilende IT-Infrastrukturen mit automatisch angepasstem Ressourcenverbrauch und ständiger Selbstanalyse. SAP bündelt sein KI-Angebot in der Marke SAP Clea sowie über seine IoT-Plattform Leonardo.

Bild: Prisma-App
Bild: Foto-Geolokalisierung per Webseite der Technischen Informationsbibliothek (TIB) am Beispiel des Bildes "Grabeiche in Nöbdenitz" aus Monumentale Eichen von Rainer Lippert

Der größte Erfolg wird derzeit mit "neuronalen Netzen" erzielt. Diese neuronalen Netze durchlaufen vor der eigentlichen Benutzung eine Trainingsphase und ermitteln anhand der verarbeiteten Daten einen optimalen Systemzustand, der für weitere (ähnliche) Problemlösungen geeignet ist. Per Rückkopplung kann das System dann auch weiter "lernen". Hierbei wird versucht das menschliche Gehirn nachzubauen. Nervenzellen (Neuronen) und Verbindungen (Synapsen) werden technisch modelliert und mit Gewichten und Bias (Aktivitätsleveln) versehen. In mehreren Schichten hintereinander angeordnet werden dann im Rahmen einer Trainingsphase entsprechende Muster gespeichert, die bei jedem Trainingslauf verfeinert werden. Wird danach ein unbekanntes Objekt verarbeitet, kann so dieses ebenfalls durch Vergleich mit den gespeicherten Mustern erkannt werden. Damit ist der Erfolg von "neuronalen Netzen" an das Vorhandensein großer Datenmengen (Big Data) gekoppelt, aus der das System lernen kann. Big Data braucht wiederum die Cloud zum Abspeichern der gigantischen Datenmengen (logische Kette: Künstliche Intelligenz->Big Data->Cloud).

Bild: Deepfakes

Der größte praktische Nutzen der neuronalen Netze ist bei der Bild-, Handschrift- und Spracherkennung, maschinellen Übersetzung und (Foto)Suchen per (Bildverständnis)Suchmaschine, Signaldatenverarbeitung im Bereich von Gefahrenwarn- und Gefahrenmeldeanlagen (GWA und GMA) sowie Strategiespielen/Spieltheorie. Auch die Foto-App Prisma (verfügbar für iPhones, Android- und Windows 10 Mobile -Smartphones, für Windows Phone gibt es die ähnliche App Vinci) , die eine Zeit lang die App-Welt eroberte, benutzt neuronale Netze. Ein anderes Projekt der Leibnitz-Gesellschaft ermöglicht eine Foto-Geolokalisierung, wobei die Lokalisierungsentscheidung auf Grund von Häuser- und Fensterformen, Pflanzen etc. getroffen werden. Einen eher zweifelhaften Nutzen kann über die "FakeApp" erzielt werden, in dem man per Machine-Learning (Googles Open-Source-KI TensorFlow) Gesichter in Videos austauscht. Dies wurde zunächst vornehmlich dazu benutzt, Porno-Film-Darstellerinnen mit prominenten Gesichtern zu überblenden (Deepfakes[1]). Aber auch andere negative KI-Auswirkungen sind möglich, so kann KI genutzt werden, um Gesichtserkennungssysteme anzugreifen, Captcha-Aufgaben zu lösen oder Social Engineering und Seitenkanalangriffe durchzuführen.

Inzwischen erlaubt es die immer leistungsfähigere werdende Hardware (insbesondere mit den massiv parallelisiert arbeitenden Grafikprozessoren von Nvidia der Serien "Tesla" und "Pascal" bzw. neuen Serie "Volta" statt seriell arbeitende "normale" Prozessoren) den Maschinen, die Inhalte von Videos zu erkennen und sogar Autos autonom zu steuern. Neu ist auch die Integration von KI-Chips in Smartphones beispielsweise zur Bilderkennung (wie mit dem Huawei Mate 10 Pro), die aber eigentlich nur lokale Berechnungen vorbelegen/zwischenspeichern (s.u.; und damit eigentlich nur den "Flaschenhals" der 1.Generation KI-Technik beseitigen).

Dagegen soll der Quantencomputer alle Varianten simulieren. Obwohl einige Ähnlichkeiten bei verwendeten Algorithmen (z.B. Gradientenabstieg für Optimierungsprobleme) bestehen, zeigt nachfolgende Tabelle die wesentlichen Technologie-Unterschiede auf:

Vergleich Neuronale Netze vs. Quantencomputer
Merkmal Neuronales Netze Quantencomputer
Basis
Simulationszustände
Praxiseinsatz
dual (Bit)
endlich
ja
mehrere (QBit)
unendlich
nein

Allerdings sind neuronale Netze ebenso wie Quantencomputer nicht für alle Problemlagen geeignet, derzeit gibt es für unterschiedliche Probleme verschiedene Lösungen. Vom einem Generalisten-neuronalen Netz ist man derzeit in der Forschung weit entfernt. Zumindest soll aber schon die automatisierte Suche nach Drohnen-Zielen möglich sein, wie jüngst im Zuge der Veröffentlichungen im Rahmen der NSA-Ausspähaffäre vermutet wird.

Einteilung der KI nach eingesetzter Prozessortechnik

KI kann eingeteilt werden nach Vergangenheit, Gegenwart und Zukunft der eingesetzten KI-Prozessoren (spezielle Prozessoren zur Berechnung neuronaler Netze, siehe Grafik[2]):

  • 1.Generation - parallel arbeitende Rechenwerke, wobei der "Flaschenhals" die Speicheranbindung darstellte
  • 2.Generation - Prozessoren mit zusätzlichen schnelle Speicherchips
  • 3.Generation - Prozessoren für Long Short-Term Memory KI mit "Vergessens"-Komponente (s.u.)
  • 4.Generation - neuartige Prozessoren, die entwickelt werden aus dem Ergebnis 2er neuronaler, in Konkurrenz zueinander gesetzten Netze (s.u.)


Einteilung der KI nach Einsatzzweck/Grad der Autonomie

Neben der technischen Einteilung kann KI auch nach Einsatzzweck/Grad der Autonomie eingeteilt werden in:

  • Machine Learning (ML) mit klar umrissene einzelne Aufgaben ohne Autonomie, beispielsweise mit Industrierobotern; automatische Regelanwendung und -ausführung der zuvor definierten Regeln, beispielsweise bei automatischem Hacking
  • Deep Learning mit eigenständigen Lernen, wie in biologischen neuronalen Netzen (salopp gesagt ML mit Rückkopplung); dabei werden Wahrscheinlichkeitsberechnungen zur Entscheidungsfindung genutzt, wobei die konkrete Ausgabe und Muster gleichzeitig erlernt werden
  • Cognitive Computing (Assistent oder Ersatz menschlicher Aufgaben, wie teilweise schon die KI "Watson" von IBM) mit der Fähigkeit zur Anpassung im Sinnzusammenhang bzw. des Kontext-Verständnisses und der Bildung von eigenen Erklärungsmustern für die reale Welt


Periodensystem der Künstlichen Intelligenz

Die Bitkom hat anlässlich des Digitalgipfels 2018 der Bundesregierung ein "Periodensystem der Künstlichen Intelligenz" veröffentlicht[3].


KI aus der Cloud

Bild: Emotion API "Cognitive Services" in der Azure-Cloud

Mittlerweile haben die großen Cloud-Anbieter KI als neues Angebot für ihre Kunden entdeckt. Amazon bietet mit "Amazon Machine Learning" einen Service an, der ohne große Kenntnisse in der KI nutzbar sein soll. Auch Microsoft integriert in seine Azure-Cloud solche Techniken ("Azure Machine Learning(ML)Studio" und "Cognitive Services"). Als Beispiel (Emotion API) kann man Gesichtsausdrücke in hochgeladenen eigenen Bildern hinsichtlich der Gefühle Abscheu, Ärger, Furcht, Glück, Traurigkeit, Überraschung, Verachtung und Neutralität bewerten lassen. Google hat eine Reihe neuer Schnittstellen (APIs) für seine KI-Dienste und Features angekündigt (Cloud Translation API - Übersetzungsdienst, Cloud Natural Language API - Semantische Suche, Cloud Vision API - Bilderkennung und -Analyse), die es auch für seine eigenen Dienste einsetzt (Vorschlag von Satzbausteinen bei Gmail, Fotooptimierung bei Google Photos, nutzer-individuell zusammengestellte Infos bei Google Maps und Google News). Hauptprodukt ist der KI-Service "Cloud Machine Learning Platform". HP offeriert einen KI-Dienst "Haven On Demand", der allerdings nur über die Microsoft Cloud Azure erreichbar ist. KI-Dienste gibt es auch von SAS. IBM schickt seine KI "Watson" sogar ins All zu internationalen Raumstation ISS, allerdings als schwerelos schwebender Droide CIMON mit ständiger Verbindung zur Cloud auf der Erde.

Zusammengefasst werden diese Aktivitäten schon unter dem neuen Begriff "ML as a Service".


Sicherheitsbereich

Auch im Sicherheitsbereich nimmt der KI-Einsatz, als unterstützender Bestandteil vieler IT-Sicherheitsanwendungen und Abwehrstrategien, zu. Dazu zählen etwa die Erkennung von Malware, von Anomalien im Netzwerkverkehr und von Angriffen auf biometrische Identifikationssysteme, aber auch die Härtung von Kryptosystemen gegen Seitenkanalangriffe[4]. Allerdings verharrt der KI-Einsatz im Sicherheitsbereich, bis auf wenige Ausnahmen (IBMs Watson), noch auf der Machine-Learning Ebene. Das liegt zum großen Teil am Fehlen effektiver Trainingsdaten für die Deep-Learning Ebene; ein Training mit Machine-Learning Daten führt offensichtlich zu Erkennungsproblemen und hohen Raten an Fehlalarmen (Beispiel aus dem Botnetz-Umfeld bei der Erkennung von Level-3-Bots/Level-4-Bots[5]). Es steht zu befürchten, das bis zum KI-Einsatz von Cognitive Computing die Sicherheit immer noch neuen Angriffen "hinterher läuft". Erst wenn ein neuartiger Angriff mit ausreichendem Datenmaterial stattgefunden hat und "trainiert" worden ist, ist eine Erkennung möglich.

IBM will seine KI "Watson", künftig auch mit Sprachinterface Watson Assistant, den Sicherheitsanalysten als Helfer zur Seite stellen. Vectra Networks stattet seine Sicherheitsprodukte mit Methoden des maschinellen Lernens aus. McAffee will auch verstärkt die neue Technik aus lernenden Systemen und künstlicher Intelligenz in das Portfolio integrieren, um den Schutz präventiv wirksamer zu gestalten. Google schützt seine Gmail-Mails zukünftig auch per Machine Learning. Bei Microsofts neuer Sicherheitsfunktion "Windows Defender Advanced Threat Protection" (WDAPT) für Windows 10 ist der Einsatz einer KI (Künstliche Intelligenz) zu vermuten und wurde zwischenzeitlich bestätigt. Die Machine Learning-Komponente soll nach Angaben von Microsoft zusammen mit der automatischen und schnellen Verteilung von Sicherheitsupdates die Ausbreitung des Kryptotrojaners WannaCry für Computer mit Windows 10 gestoppt haben.

Sehr weit vorangeschritten bei der Implementation von KI in Sicherheitssoftware ist die Firma Splunk. Für die Anwendungsfälle der Suche nach Anomalien und Angriffsmustern sowie zur Fehlersuche wurde die Produkte ES 4.5 als SIEM-Lösung sowie UBA 3.0 entwickelt. Über intelligente Alarmsysteme werden die Fehlalarme minimiert, da Ausnahmen besser interpretiert werden können. Auch notwendig werdende Wartungen, die im Normalfall zu Betriebsunterbrechungen führen, werden vorausschauend erkannt und können so rechtzeitig eingeleitet werden. Aus historischen Entwicklungen kann zudem auf veränderte Marktbedingungen, unerwartete Marktanforderungen und resultierenden Fehlern bei der Lagerhaltung geschlossen werden.

Es wurden sogar schon bei Cyber-physisches Systemen nach Ansätzen zur Erkennung von ATPs per Support Vector Maschines (aus der Gruppe des Maschine Learning) sowie per Deep Learning gesucht. Weitere Einzelbeispiele sind:

  • CISCO-Forscher fanden heraus, dass sie mit einen Machine-Learning-System auch bei einem verschlüsselten Datenverkehr per https den Malware-Traffic mit einer hohen Verlässlichkeit von legitimem Datenverkehr unterscheiden konnte[6]. Grundlage dieser Unterscheidung waren ausschließlich unverschlüsselte Metadaten des verschlüsselten https-Verkehrs (Ports, Bytes In/Out, Dauer, Paketlängen,die Byte-Verteilung und vor allem die TLS-Header-Daten - sogenannte IP-Flow-Daten). So nutzte Malware besonders gerne selbst-signierte Zertifikate und das RC4-Verfahren, das ansonsten kaum noch zum Einsatz kommt. Die Ergebnisse sind deshalb so interessant, zeigen sie doch, dass eine Network Behavior Analysis ohne Aufbrechen von TLS-Verschlüsselung in Firmennetzen durchaus möglich ist.
  • Beim 16. Deutschen Sicherheitskongress des BSI wurde eine weitere Untersuchung zur Erkennung mobiler Malware bei Android-Smartphones mittels Machine-Learning vorgestellt (siehe Literatur). Auffällig ist, dass der Datenstrom infizierter Smartphones wesentlich mehr DNS-Datenpakete (auf UDP-Basis) im Vergleich zur Gesamtzahl der Datenpakete enthält. Bei nicht infizierten Smartphones ist dieses Verhältnis fast ausgeglichen. Das soll daran liegen, dass infizierte Smartphones unterschiedliche Webadressen ausprobieren, um ihre C&C Server im Internet zu erreichen. Besonders geeignete Algorithmen für die ML-Analyse sind für diesen Anwendungsfall Decision Trees und Random Forests mit einer Erkennungsrate von ca. 98%, der Algorithmus Logistic Regression eher nicht (damit kein lineares Klassifizierungsproblem). Auch hier wird nur der Datenstrom an sich betrachtet und es wäre damit geeignet für die Network Behavior Analysis.
  • Machine-Learning-Systeme kann man auch zur Erkennung von Infection-Proxies per statistischer Analyse und auch Netzwerktunneln verwenden[7]. Infection-Proxies und verursachen auf Grund der Zwischenspeicherung der übertragenen Datenpakete eine Verzögerung, die man per Auswertung der Paket-Inter-Arrivial-Time (PIT) erkennen kann.
  • Auch die Detektion von Malware-Daten in Bilddateien (JPEG, PNG)[8] und das Erkennen von Spear-Phishing-Attacken[9] ist möglich. Dabei wird nach Anomalien in der Struktur einer Bilddatei (vektoriell zusammengesetzt aus den Header-/Kompressionsdaten sowie in Datensegmente verkleinerte Nutzdaten) bzw. in der Mailstruktur gesucht.
  • Die neuste Antiviren-Software von G Data soll das verdächtige Entpacken von Code im Arbeitsspeicher mit Methoden aus der KI-Forschung möglichst zuverlässig erkennen können[10].

Das neue iPhone X von Apple arbeitet mit einer Gesichtserkennung, um das Smartphone zu entsperren. Damit der Nutzer die sogenannte Face ID nicht immer neu einrichten muss, wenn ihm beispielsweise ein Bart wächst, seine Frisur sich ändern oder er eine Brille aufsetzt, ist der iPhone-Chip mit einer neuronalen Komponente ausgestattet und trainiert worden, so dass er diese Veränderungen erkennen kann. Zusätzlich soll der Chip aus fehlgeschlagenen Erkennungen lernen, die der Nutzer durch die Eingabe des Passcodes korrigiert.

Mitte 2016 fand dann ein Wettbewerb der DARPA statt, wo sich KI-Computer gegenseitig hackten[11]. Gegen menschliche Hacker hatten die KI-Maschinen allerdings (noch) keine Chance, da diese erheblich raffinierter und teilweise unfair mit Fallen agierten. Doch hat KI jetzt schon bei der Suche nach Software-Bugs quantitativ riesige Vorteile; die Bewertung der Qualität muss jedoch noch vielfach dem menschlichen Fachmann überlassen werden.

DsiN hat ein Informationsangebot für Künstliche Intelligenz gestartet, das dreizehn Anwendungsszenarien, darunter die Themen KI in der Betrugserkennung im Bankenbereich, Spamfilter mit KI sowie KI in der Abwehr von Cyberkriminalität, beinhaltet[12].

Für die in der IT-Sicherheit angewendete KI wurde bereits ein theoretisches Generationen-Modell entwickelt[13]. Tabelle: Charakteristika verschiedener Generationen des maschinellen Lernens

Trotz aller Euphorie gibt es bereits auch erkannte Grenzen der Angriffs-Erkennungsmöglichkeiten der KI. KI "lernt" bestimmte Muster in der Annahme, das es ein vollständiges Abbild der Umwelt darstellt. Wenn aber unerwartete Ereignisse eintreten (z.B. Black Swan), versagt die Methode ("Overfitting", s.u.). Dabei bilden unerwartete Angriffe mit völlig neuen Eigenschaften ein nicht zu unterschätzenden Teil der Sicherheitswelt. Diese Angriffe müssen dann in die KI-Erkennung durch erweitertes Training neu integriert werden. Dieses Antrainieren dauert aber einige Zeit, so dass die schnell anpassbaren Signaturen bei reinen Angriffs-Signaturprüfungen ihren Wert auch künftig nicht verlieren.

In eine ähnliche Richtung zielt das bei der Bildung von mathematischen Korrelationen (mathematisch: Annäherung der Näherungsfunktion an die wirkliche Funktion) ggf. auftretende Problem eines chaotischen Verhaltens (Chaostheorie). Auch ist derzeitige KI nicht zu einer, auch aus der Chaostheorie bekannten Selbstorganisation fähig.


Mensch vs. KI

Bild: Neuronale Netzwerkanimation

Die Frage, ob KI sich zukünftig höher entwickeln wird als die menschliche Intelligenz, ist keine rein technische Entscheidung. Vielmehr kommt hier eine Gliederung in Anlehnung an das aus der Naturwissenschaft bekannte Antropologische Prinzip zum Einsatz. Lernt eine KI aus Trainingsdaten (wie heute bei neuronalen Netzen) die Lösung eines klar umrissenen Problems, spricht man von "schwacher KI". Sollte eine KI (fast) alle Probleme lösen oder gar eine Persönlichkeit entwickeln, ist "starke KI" erreicht. Allerdings kann bis heute noch keiner so richtig erklären, wie das menschliche Bewusstsein als Vorbild überhaupt funktioniert. Auch fehlt es heutiger KI an Aufbausystematik (KI kann derzeit nicht aus einfachen Symbolen komplexe Symboliken aufbauen - z.B. aus Buchstaben ein Wort, Satz ....), Verstehen, Bewusstsein, sozialer Intelligenz und Universibilität. Zudem ist die direkte Erkennung von Computergrafiken (insbesondere bei Computerspielen) ungelöst. Heutige KI wird auf spezielle Anwendungsfälle durch händisch agierende Experten zugeschnitten; so kann ein KI-System zur Spracherkennung nicht zur Bilderkennung genutzt werden. Auf dem Spezialgebiet sind dann aber durchaus Erfolge erzielbar (und die Industrie möchte sich - im Gegensatz zur Forschung - am liebsten auf diese Bereiche konzentrieren), wird aber auf absehbare Zeit in einer Assistenzrolle verbleiben. So wurden in der Medizin bei der Bilderkennung zum Anfangsverdacht eines bösartigen Melanoms (per der vielberühmten IBM-KI "Watson") eine höhere Trefferrate erzielt als bei der Bilderdurchsicht durch Ärzte. Die Detail-Nachbereitung der entsprechenden Verdachtsbilder musste dann allerdings wiederum der menschliche Kollege übernehmen, so dass eine automatische Krebserkennung doch an Grenzen stößt. Viele ähnliche medizinische Pilotprojekte wurden auf Grund falscher Behandlungsempfehlungen auch schon wieder eingestellt. Dagegen nutzen einige Versicherungen schon Bild- und Texterkennung zur Feststellung von Bildmanipulationen und kopierten Schadensberichten.

Derzeit kann auf Grund der mangelnden Rechner-Ressourcen in neuronalen Netzen nur bis zu einer bestimmten Stufe alle Varianten mit Rückkopplungen versehen werden. Mit dem sogenannten „Langen Kurzzeitgedächtnis“ - Long Short-Term Memory (LSTM) genannt, wird deshalb eine "Vergessens"-Komponente mit eingebaut. So kann man regulär trainierte, komplexe Netze nachträglich auf bis zu ein Zehntel der Originalgröße ausdünnen, ohne dass dadurch merklich schlechtere Ergebnisse erzielt werden. Dabei wird sich, wie bei neuralen Netzen, am Gehirn orientiert: Neugeborene haben vergleichsweise noch wenige Synapsen, die sich im Kindesalter stark erhöhen, um im Erwachsenenalter wieder abzufallen. Allerdings fehlt aber oft noch der effektive Entscheidungsmechanismus. Ein weiteres Problem ist das "Overfittig", bei dem das neuronale Netz nur das lernt, was gerade zu seinen Trainingsdaten passt, ohne das allgemeine Muster der Sache zu verstehen. Auf den Menschen übertragen lernt es quasi auswendig, ohne die Grundlagen zu verstehen, so dass bei unbekannten Daten es dann versagt.

Bild: Internetlogos

Facebook experimentiert derzeit mit Generative Adversarial Networks (GAN). Hierzu werden 2 neuronale Netze in Konkurrenz zueinander gesetzt. Ein erster Test fand 2015 im Bereich der Bildergenerierung statt, wobei ein neuronales Netz einen Bilderfälscher und das zweite neuronale Netz den Detektiv spielt. Diese Netzkombination braucht dann keine Trainingsdaten mehr zum Lernen und es wird als Meilenstein auf dem Weg zu einer universellen "starken" KI (bzw. 4.KI-Generation) gesehen. Einige Experten gehen sogar davon aus, dass KI so ein eigenes Denkmuster entwickeln wird. So erklären sich viele spektakulär durch KI geschlagene Go-Meister ihre Niederlagen damit[14], dass KI eben nicht wie ein Mensch spiele, sondern ganz eigene Herangehensweisen und Strategien verwende. Allerdings galt das zunächst nur bei Spielen mit vollständigen Informationen über die Spielmöglichkeiten des Gegners. Zwischenzeitlich konnte KI auch professionelle Spieler in Spielen mit unvollständigen Informationen schlagen (Poker, StarCraft). Der Internetdienst Pinterest, der eine weltweite Fotocommunity mit einer visuelle Suchmaschine verbindet, verwendet ebenfalls ein GAN.

Bild: Neuronale Netzwerkanimation

Im Frühjahr 2018 stellte Google seine Duplex-Technik vor. Im ersten Fall rief eine Frau einen Friseurladen zwecks Terminvereinbarung an, im zweiten Fall wollte eine Frau im Restaurant einen Tisch reservieren. Dabei waren alle Gesprächsteilnehmer bei den Telefonaten keine Menschen, sondern KI-gesteuerte Bots.

Zur Diskussion über gesellschaftliche und soziale Aspekte der KI haben die großen IT-Unternehmen (Amazon, Apple, DeepMind, Facebook, Google, IBM, Microsoft) eine "Partnership on Artificial Intelligence to Benefit People and Society ", kurz Partnership on AI gegründet, der zwischenzeitlich weitere Unternehmen und Organisationen beigetreten sind (u.a. eBay, Human Rights Watch, Intel, McKinsey, SAP, Sony, Unicef).

Im Frühjahr 2019 hat die EU-Kommission 7 Anforderungen an KI-Entwicklungen veröffentlicht[15]:

  • Robustheit und Verfügbarkeit
  • Vertraulichkeit und Datenhaltungsregeln
  • Transparenz
  • Nichtdiskriminierung
  • Berücksichtigung der Gesamtgesellschaft
  • Rechenschaftslegung
  • Autonomie und Kontrolle

Auch die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und sechs weitere Länder haben sich auf erste KI-Grundsätze verständigt. Insbesondere müsse KI transparent gemacht und stets als solche erkennbar sein. Zudem müssten KI-Systeme stets stabil und sicher arbeiten, und potenzielle Risiken kontinuierlich untersucht und behandelt werden. Auch die Verantwortung, dass die KI nach den Prinzipien arbeite, muss entsprechend getragen werden[16].

Das diese Aktivitäten dringend notwendig ist, zeigt ein Beispiel aus der jüngeren KI-Geschichte: KI-Forscher haben ein KI-System so trainiert[17] , dass es aus Porträtfotos mit 91% homosexuelle Männer bei 5 Bilder erkannte, bei lesbischen Frauen 83% bei fünf Bildern. Dazu mussten die Forscher nicht einmal auf Deep Learning zurückgreifen, es reichte ein Feature-Vektor für die Gesichter (eine Art Gesichter-Fingerabdruck) zu berechnen und den mit logistischer Regression zu klassifizieren. In einem anderen Fall benutzte IBM öffentliche Flickr-Fotos zum Trainieren seiner Gesichtserkennung, ohne die Nutzer zu informieren. Kritiker sehen hier eine Verletzung der Privatsphäre[18].


Weblinks


Literatur


Einzelnachweis

  1. SecuPedia Aktuell: Mit KI und ML steigt Gefahr von Deepfake-Angriffen
  2. Song Han (MIT): Folie „Evolution of NN Accelerators“ (https://www.heise.de/imgs/18/2/4/8/5/4/1/5/song1-a8100cad2e936c80.png). Aufgerufen am 21.08.2018
  3. "Anlässlich Digitalgipfel: Bitkom veröffentlicht "Periodensystem der Künstlichen Intelligenz"" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 04.Dezember.2018
  4. Beitrag "Kryptowährungen und künstliche Intelligenz: Zweite Ausgabe des Deutsch-Französischen IT-Sicherheitslagebilds erschienen" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 21.Mai.2019
  5. Beitrag in der <kes> 3/2019 "The good, the bad and the ugly" von Michael Tullius
  6. Beitrag "Cisco analysiert verschlüsselten Traffic, um Malware zu erkennen" vom 22.06.2017 von Heise-Online
  7. Beitrag in der <kes> 4/2017 "Automatisierte Erkennung von Infection-Proxies" von Nils Rogmann
  8. Beitrag "Neuer Ansatz zur Detektion von Malware-Daten in Bilddateien" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 15.August.2018
  9. Beitrag "Spear-Phishing: Braunschweiger IT-Experten entwickeln Schutz gegen E-Mail-Betrugsmasche" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 11.September.2018
  10. Beitrag "Antiviren-Software mit KI-Technik: G Data setzt auf DeepRay" vom 21.11.2018 von Heise-Online
  11. Beitrag "Cyber Grand Challenge: Unsichere Computer heilten sich selbst" vom 05.08.2016 von Heise-Online
  12. "DsiN startet Informationsangebot für Künstliche Intelligenz" in Aktuelle Sicherheits-Meldungen – SecuPedia vom 04.Dezember.2018
  13. Beitrag in der <kes> 1/2018 "Maschinelles Lernen und Cybersicherheit" von Sascha Dubbel
  14. Beitrag "Mensch gegen Maschine: Google-KI AlphaGo schlägt Lee Sedol 3:0" vom 12.03.2016 von Heise-Online
  15. Beitrag "Ethische Grenzen: Streit in der EU um Regeln für künftige KI-Systeme" vom 28.04.2019 von Heise-Online
  16. Beitrag "OECD einigt sich auf Grundsätze zur KI" vom 23.05.2019 von com-magazin
  17. Beitrag "KI erkennt am Gesicht, ob Menschen schwul oder lesbisch sind" vom 08.09.2017 von Heise-Online
  18. Beitrag "IBM nutzte Flickr-Fotos für Gesichtserkennung, ohne Nutzer zu informieren" vom 13.03.2019 von Heise-Online


Siehe auch



Diese Seite wurde zuletzt am 3. Juli 2019 um 16:38 Uhr von Oliver Wege geändert. Basierend auf der Arbeit von Test Testung und Peter Hohl.