Machine Learning, Künstliche Intelligenz, Data Science, Data Mining, … Diese Begriffe haben sich im Laufe der Jahre geändert, aber wie viel ist wirklich neu und was gibt es eigentlich schon seit Jahrzehnten? Wird es maschinelles Lernen in 20 Jahren noch geben oder ist der Boom eines Tages einfach vorbei? Dieser Artikel soll realistisch und faktenbasiert klären, welche Geschichte diese Begriffe haben, wo wir aktuell in der Entwicklung stehen und wohin uns diese in der Zukunft führen könnte.

Am wichtigsten ist über Machine Learning zu wissen, dass es sich dabei im Grunde um nichts anderes handelt als algorithmische Umsetzungen von statistischen Prinzipien, die schon sehr lange bekannt sind. Der Satz von Bayes etwa wurde bereits 1812 veröffentlicht und bildet die Grundlage für vieles im Bereich Machine Learning, wie wir es heute kennen.

1950er bis 1970er Jahre: Die Grundlagen von Machine Learning

Allerdings reicht es für erfolgreiches maschinelles Lernen nicht aus, ein paar aussagekräftige Formeln zur Hand zu haben. Der Computer muss sie auch ausführen können. Deshalb springen wir in die 1950er Jahre, als die Grundlagen für genetische Algorithmen und neuronale Netze gelegt wurden und die ersten Computer tatsächlich lernen konnten. Offensichtlich konnten sie noch nicht viel lernen, weil sowohl die Rechenleistung als auch die verfügbaren Daten zu dieser Zeit extrem begrenzt waren. Die algorithmischen Mechaniken waren jedoch bereits weitgehend identisch mit denen, die wir heute verwenden. So sorgte das Thema damals schon für viel Aufregung: Schlagzeilen etwa über „elektronische Gehirne“ fanden ihren Weg in die Medien. Ähnlich wie heute fürchteten und begeisterten sich die Menschen für die potentielle Leistungsfähigkeit der Maschinen, was in den 1950er und 1960er Jahren bahnbrechenden Forschungen und Entdeckungen zur Geburt verhalf.

Da die Rechenleistung und die verfügbaren Daten im Vergleich zu heute noch gering waren, manifestierte sich allerdings ein gewisser Pessimismus gegenüber der Effektivität und den Möglichkeiten des maschinellen Lernens. Der sogenannte KI-Winter brach ein und dauerte mehr oder weniger die gesamten 1970er Jahre an. Die Fortschritte in der Forschung waren dementsprechend minimal und in der Wahrnehmung der meisten Menschen war die Zeit des maschinellen Lernens vorbei, weil es keine greifbaren Vorteile für die reale Welt gab. Erst nach den 70er Jahren wurde das maschinelle Lernen wieder populärer.

1980er Jahre bis Anfang 2000: Der KI-Hype wächst

Die 1980er und 1990er Jahre waren spektakuläre Jahrzehnte, getrieben von den (Wieder-)Entdeckungen der Backpropagation (endlich können neuronale Netze effizient aus Daten lernen), der Random Forests, der Support Vector Machines (beides sind bis heute beliebte und effektive Algorithmen des maschinellen Lernens) und vielem mehr. Von dort nahm das öffentliche Bewusstsein für diese Technologien stetig zu. In den 2000er Jahren wurden schließlich die ersten großen Open-Source-Bibliotheken für Machine Learning veröffentlicht und große Wettbewerbe veranstaltet. Die bekannteste Ausschreibung kam 2006 von Netflix, worüber auch die Medien ausführlich berichteten. Netflix versprach ein Preisgeld von 1.000.000 US$ für das Team, das die Prognosen des Streaming-Anbieters für künftige Filmbewertung am stärksten verbessern konnte.

In den folgenden Jahren begann der Hype. Maschinelle Lernverfahren und neuronale Netze wurden nicht nur bei Informatikern und Mathematikern, sondern in allen Bereichen und Branchen bekannt, bis sie die heutige Popularität erreichten.

Heute: Datenverfügbarkeit und Rechenleistung geben Machine Learning eine Chance

Was hat sich also geändert? Warum ist Machine Learning heute ein branchenunabhängiges Phänomen und warum war es früher nicht so? Was sich mit Sicherheit nicht geändert hat, ist die Methodik. Die Art und Weise, wie Algorithmen ausgewertet werden, und die mathematische Mechanik dahinter sind über die Jahrzehnte weitgehend gleichgeblieben. Die Algorithmen? Wir haben bedeutende Fortschritte gesehen, besonders im letzten Jahrzehnt. Die KI-Community ist stark gewachsen und hat neue und intelligentere Architekturen für neuronale Netze entwickelt und viele Frameworks und Algorithmen als Open Source veröffentlicht. Aber das sind eher die Symptome des Hypes als dessen Ursache.

Insbesondere zwei Dinge haben die jüngsten Entwicklungen beschleunigt: die Verfügbarkeit von Daten und kostengünstige Rechenleistung. Die meisten Firmen, mit denen ich bis dato zusammengearbeitet habe, haben frühestens in den späten 00er Jahren damit begonnen, Daten in großen Mengen zu sammeln. Viele Unternehmen haben den Wert ihrer Daten bis heute nicht erkannt und sammeln dementsprechend viele Daten nicht, die sich direkt monetarisieren ließen. Dementsprechend haben sie es sich nach wie vor noch nicht zur Priorität gemacht, sich auf eine datengetriebene Entscheidungsfindung umzustellen (data-driven decision making). Den Zenit im Bezug haben wir also längst noch nicht erreicht. Außerdem nützen alle Daten der Welt nichts, wenn die einzigen Computer, die für ihre Verarbeitung zur Verfügung stehen, dafür zu schwach sind. In den 1980er Jahren etwa konnte der leistungsfähigste Supercomputer der Welt gerade einmal 2,4 Gigaflops verarbeiten. Zum Vergleich: Der Laptop, auf dem ich diesen Text schreibe, verarbeitet etwa 61 Gigaflops. Das macht den Unterschied: Daten und passende Hardware stehen so kostengünstig zur Verfügung, dass jeder damit arbeiten kann.

Machine Learning bietet realen Mehrwert – dementsprechend sieht die Zukunft aus

Da dies die beiden wichtigsten Faktoren sind, die sich im Laufe der Zeit verändert haben, können wir nun ableiten, wie sich das Feld in den nächsten Jahren und wahrscheinlich auch Jahrzehnten entwickeln wird. Sicher wird die Menge der gesammelten Daten nicht abnehmen. Tatsächlich schätzt man, dass 90% der weltweit verfügbaren Daten allein in den letzten zwei Jahren generiert wurden. Dieser Trend wird sich noch jahrelang fortsetzen und etwas ähnliches wird für die Weiterentwicklung der Rechenleistung prognostiziert.

Seit Jahrzehnten gilt das Moore’sche Gesetz, das besagt, dass sich die Rechenleistung alle zwei Jahre etwa verdoppeln wird. Dieser Trend wird zwar nicht ewig anhalten, aber das Maximum haben wir noch lange nicht ausgeschöpft. Da sich also sowohl die Rechenleistung als auch die Menge der verfügbaren Daten zugunsten des maschinellen Lernens entwickeln, ist ziemlich sicher, dass auch Machine Learning in den kommenden Jahrzehnten noch eine wichtige Rolle spielen wird.

Andererseits wird sich die öffentliche Aufmerksamkeit irgendwann auf etwas anderes richten. Derzeit dringt die Technologie in viele Wirtschafts- und Forschungsbereiche vor. Investoren investieren zum Teil absurde Summen in alles, was mit Machine Learning zusammenhängt. Das Thema wurde in den letzten Jahren auf so ziemlich jeder Tech-Konferenz diskutiert und sogar eher theoretische Forschungsbereiche wie die formale Verifikation nutzen ihr Wissen, um ihr Feld voranzutreiben oder ihr Wissen auf ML-Algorithmen anzuwenden. Dieser Hype wird meiner Meinung nach nicht mehr lange anhalten, denn die Erwartungen zu vieler Interessengruppen sind so hoch, dass es unmöglich sein wird, sie zu erfüllen. Das bedeutet jedoch nicht, dass die Technologie an sich an Relevanz verlieren wird. Dafür ist der Mehrwert zu groß. Es wird sich irgendwann einfach weniger um einen Hype handeln als um ein Thema, das „nur noch“ von den wirklich daran interessierten Fachkräften besprochen wird. Man wird sich weniger um Marketing-Slogans kümmern, als darum, was sich wirklich mit digitaler Entscheidungsfindung erreichen und verbessern lässt. Meiner Meinung nach sind das tolle Aussichten.