Artificial Intelligence - Intelligenz zu erzeugen ist harte Arbeit

Technologie
Technologievisionäre prognostizieren seit Jahrzehnten eine vollautomatisierte Zukunft. Der Computerwissenschaftler John McCarthy, der wesentlich an der Entwicklung der Disziplin der Artificial Intelligence (AI) beteiligt war, erklärte aber schon 1956: Die Schwierigkeit und Herausforderung liegt darin, „eine Maschine zu erschaffen, die sich so verhält, dass man dies intelligent nennen würde, wenn ein Mensch sich so verhielte“.

Artificial Intelligence ist heute in aller Munde, ein Hype-Begriff. Realistisch betrachtet, ist die Nachbildung der menschlichen Intelligenz aber bis heute nicht einfach. Der Trend steckt doch noch in den Kinderschuhen. In einer aktuellen Befragung von RadarServices sehen das 70% der IT-Sicherheitsspezialisten so. Es wird jedoch viel geforscht und erprobt. Laut einer Analyse von Research and Markets aus dem Jahr 2018 sollen sich die Investitionen bis 2025 auf geschätzte 191 Milliarden US Dollar belaufen. Daher haben auch die befragten Experten in der RadarServices-Studie hohe Erwartungen an die kommenden Jahre: 67% von ihnen sehen bis 2020 gute oder sogar sehr gute Fortschritte beim Einsatz von AI / Machine Learning im Bereich IT-Sicherheit. Für 2025 sind sogar 89% der Experten von einer großen Einsatzfähigkeit überzeugt.

Der dringende Bedarf an intelligenten Maschinen für den Cybersecurity-Einsatz ist nachvollziehbar: Einerseits besteht ein großer Expertenmangel und andererseits explodieren Cyberangriffe aufgrund der steigenden Zahl der mit dem Internet verbundenen Geräte. Artificial Intelligence soll helfen, Detection & Response zu automatisieren und effizienter im Vergleich zu anderer softwarebasierter Unterstützung zu machen.

Heute sind wir noch nicht an diesem Ziel angelangt

„Supervised learning / überwachtes Lernen“ nennt sich der aktuelle Status quo der auf dem Cybersecurity-Markt angebotenen AI. Ein Lernalgorithmus versucht also, eine Hypothese zu finden, die möglichst zielsichere Voraussagen trifft. Die Hypothese ist eine Abbildung, die jedem Eingabewert den vermuteten Ausgabewert zuordnet, zum Beispiel ob ein Code Malware enthält oder nicht. Dazu braucht der Algorithmus viele Datensätze, von denen er die gewünschten „Gesetzmäßigkeiten“ lernt und an anderen Daten wiederum anwenden kann. Die zentrale Voraussetzung für diese Art der Intelligenz: Das Set an Beispieldaten ist gut. Einerseits müssen malwarefreie Daten auch tatsächlich „sauber“ sein, ansonsten übersieht AI abnormale Datenpunkte. Andererseits muss sichergestellt sein, dass Cyberangreifer keinen Zugriff auf die „Trainingsdaten“ erhalten können, da sie malware- und malwarefreien Code miteinander vertauschen und so das System überlisten könnten.

In der IT-Entwicklung ist „Machine learning“ der nächste Schritt, um „künstlich“ Wissen aus Erfahrung zu generieren: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Es werden nicht einfach die Beispiele auswendig gelernt, sondern das System „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System durch Lerntransfer auch unbekannte Daten beurteilen oder aber durch Überanpassung am Lernen unbekannter Daten scheitern.

Erste Erfolge gibt es, zum Beispiel in einem der größten Kompetenzzentren für Forschung zur automatisierten IT-Risikoerkennung: Das Team im Hause RadarServices bringt sie direkt in die Praxis bei seinen Kunden ein. Allerdings bleiben die Experten auch realistisch: „Wir bleiben lieber auf der sicheren Seite und testen unsere Algorithmen über einen längeren Zeitraum, bevor wir sie als das einzige Analyseinstrument – ohne Experteneinbeziehung – einsetzen“ so Christian Polster, verantwortlich für Research und Technologieentwicklung bei RadarServices.

Der Computerwissenschaftler Donald Knuth fasste den Status quo generell so zusammen: „Artificial Intelligence schafft all das, wofür Denkleistung notwendig ist, scheitert aber daran das zu tun, was Menschen und Tiere automatisch ohne Denken schaffen.“