Machine Learning

Rezensionen Literatur

Medien, Infrastrukturen
und Technologien der Künstlichen Intelligenz

von Christoph Engemann, Andreas Sudmann (Hg.)  –

im September 2018, 392 S., kart., zahlr. z.T. farb. Abb.-ISBN 978-3-8376-3530-0  Aus der Reihe ‚Digitale Gesellschaft‘ vom [transcript-verlag] REZENSION:

Der vorliegende Sammelband befasst sich mit dem zurzeit alles beherrschenden Thema, der „Künstlichen Intelligenz“ (KI), dem „ML“ (Machine Learning) und dem mit großen Hoffnungen auf einen Leistungssprung versehenen „DL“ = Deep Learning. Die Themen der Beiträge sind weit gestreut und umfassen, in vier Sektionen nicht ganz trennscharf, die Entwicklungsgeschichte der Ideen und deren Entwickler*innen, den Hoffnungen, die man in die praktische Ausführung und Anwendung setzt, ebenso mit den Befürchtungen, die man bei der Umsetzung und dem Einsatz dieser Ideen und Techniken hegt.

Um den thematischen Umfang des Bandes wenigstens Stichpunkartig zu erläutern, soll hier in verkürzter Form auf die Intentionen der Herausgeber in kurzen Hinweisen nachgegangen werden:

In der Einführung werden die Medien, die Infrastrukturen und die Technologien des Maschinellen Lernens zusammengefasst (9) und darauf hingewiesen, dass „in der noch jungen Geschichte der Erforschung Künstlicher Intelligenz(en) (fielen) Anspruch und Wirklichkeit oft weit auseinander fielen (9). Und dass aber auch „wie so oft in der jüngeren Vergangenheit basiert auch dieser Innovationssprung auf einem ganz bestimmten Ansatz der KI: den maschinellen Lernverfahren Künstlicher Neuronaler Netzwerke (kurz: KNN, seit ungefähr 2006 auch „Deep Learning“ genannt, kurz „DL“.(10) Die Definition für diese Verfahren ist die Aussage, dass das „Primäre“ Merkmal maschineller Lernverfahren ist, dass sie einen Computer in die Lage versetzen, aus Erfahrungen zu lernen, um bestimmte Aufgaben zu lösen und Vorhersagen zu treffen, ohne für diese Funktion explizit programmiert worden zu sein.(10) Deshalb, wie die Herausgeber vorgeben, „Auch aus diesem Grund möchte der vorliegende Band sich nicht darauf beschränken, den Fokus allein auf die Chancen, Risiken und Grenzen von KI-/ML-/DL-Technologien richten, auch wenn deren sorgfältige Erörterung ein Projekt darstellt, das weiterhin inter- bzw. transdisziplinär verfolgt werden sollte.(13)
Bis vor etwa 2015 stellten in zahlreichen anderen Fächern der Geistes-, Sozial- und Kulturwissenschaften sowohl Betrachtungen zu maschinellen Lernverfahren insgesamt als auch zu KNN ein Desiderat dar, mit einigen wenigen Ausnahmen (14), weil „Innerhalb des Faches Medienwissenschaft sind bis dato in erster Linie die historischen Anfänge der KI als Beitrag zur Entstehung moderner Computer und im Kontext der Kybernetik genealogisch rekonstruiert wurden.“ (14) und „Historische Abhandlungen zum Machine Learning gibt es nach wie vor kaum, erst recht nicht aus einer medienhistorischen Perspektive. Und tatsächlich ist ein solches historiographisches Projekt eine nicht unbeträchtliche Herausforderung, gerade wenn man Verfahren des ML im Kontext der übergeordneten Geschichte der KI stellt.“ (14) zur „Mediengenese und -genealogien des maschinellen Lernens und der Künstlichen Neuronalen Netzwerke.“ (18).
„Immerhin beginnt, wie u.a. Pamela McCorduck (2004 [1979]) gezeigt hat, die Vorgeschichte der KI und damit auch der maschinellen Lernverfahren bereits in der Antike. Zu denken wäre an die Mythen artifizieller Wesen, seien es die mechanischen goldenen Dienerinnen von Hephaistos, dem Gott des Feuers und des Handwerks in der griechischen Mythologie, oder Pygmalions Galatea. Seitdem hat sich die Vorstellung artifizieller Wesen mal mehr, mal weniger sichtbar in die kulturellen Erzählungen und Bilder der westlichen Welt eingeschrieben.“ (18)
„Indes sind all diese frühen Vorstellungen weit entfernt von dem, was man im 20. Jahrhundert als KI diskutieren wird: Mit der Heraufkunft des modernen Digitalcomputers änderte sich das Konzept der Maschine allerdings nochmals grundlegend.“

„Im Rahmen der vorliegenden Publikation wird es schwerpunktmäßig um eine Auseinandersetzung mit dem letztgenannten Paradigma gehen. Dabei soll versucht werden, die Engführungen und Tautologien der bisherigen Debatte zur Mensch-Maschine-Di?erenz zu vermeiden (zu den Gründen s.u.a. Dotzler 1989: 130). Entsprechend geht es im vorliegenden Band in erster Linie darum, die existierenden Praktiken des maschinellen Lernens gleichsam als für sich stehend zu begreifen sowie ihre medialen Voraussetzungen und Umgebungen theoretisch-historisch angemessen zu beschreiben.“ (19)

Der vorliegende Band gliedert sich in einer Struktur von insgesamt fünf Rubriken, welche – nicht immer ganz trennscharf – die hier versammelten theoretisch-historischen Zugri?e auf die Medien, Infrastrukturen und Technologien maschineller Lernverfahren erläutern.

Die erste Gruppe der Beiträge lässt sich unter der Rubrik »Epistemologien und Genealogien des maschinellen Lernens« zusammenfassen. Ihr erster Beitrag, verfasst von Bernhard Dotzler, zieht in Zweifel, inwiefern die mit dem Machine Learning einhergehende Rhetorik einer epistemisch-technischen Zäsur gerechtfertigt ist. Mit Verweis auf die von Alan Turing beschriebenen, nicht weiter zerlegbaren Grundoperationen der »machine computability«, argumentiert er, dass diese bis heute Basis jeglicher Künstlicher Intelligenz sei. An diese Debatte anknüpfend und tendenziell eine Gegenposition beziehend, stellt Andreas Sudmann die Grundlagen künstlicher neuronaler Netzwerke in ihrer historischen Entwicklung und aktuellen Fortentwicklung dar. Die Revolutionsrhetorik des Machine-Learning-Diskurses aufnehmend, erweitert er auf dieser Basis die Fragestellung nach dem Verhältnis von Medien und Revolutionen und zeigt, dass gängige Mediengeschichtsschreibungen des Computers hier revisionsbedürftig werden. Das Maschinen und Lernen bereits lange vor der aktuellen Konjunktur eine enge Beziehung aufwiesen, verdeutlicht Herman Rotermund in seinem Beitrag. Anhand der von Charles Babbage bereits in der ersten Hälfte des 19. Jahrhunderts entwickelten Mechanical Notation, zeigt er, dass mit der industriellen Revolution und ihrer Proliferation von Maschinen, das Problem ihrer Vereinheitlichung kritisch wurde. Eine kritische Re?exion der Epistemologien maschineller Lernverfahren ist Gegenstand des Beitrags von Luciana Parisi. Zu den Feinheiten maschinellen Lernens gehört ihrer Ansicht nach, dass in sie die historische Artikulation der Spannung zwischen Information und Energie, Muster und Zufälligkeit, Signal und Rauschen, logischen Prozeduren und Unberechenbarkeiten eingeschrieben ist.

Die zweite Sektion des Buches widmet sich den historischen Imaginationen und Diskursformationen zu (autonomen) Lernmaschinen. In einer breiten historischen Analyse widmet sich Stefan Riegers Beitrag den diskursiven Auseinandersetzungen mit dem Maschinellen. Wie Rieger zeigt, führt deren historisch keineswegs immer gleichermaßen negativ besetzte Semantik spätestens seit der Goethezeit zur dominanten Mechanophobie. Jeremias Herbergs Beitrag kritisiert und historisiert eine kybernetische Kontrollvorstellung in der Bildungspolitik: In einer diachronischen Perspektivierung der aktuellen Rede des maschinellen Lernens geht er der Wirkungsgeschichte kybernetischer Konzepte in der amerikanischen Bildungspolitik der sechziger Jahre nach. Der gemeinsame Beitrag von Thomas Christian Bächle, Christoph Ernst, Jens Schröter und Caja Thimm untersucht schließlich das maschinelle Lernen im Zusammenhang bzw. als Voraussetzung der Zuschreibung von Autonomie an Computersystemen.

In der dritten Sektion geht es um den allgegenwärtigen Begriff „Big Data“. Die herausragende Bedeutung von Big Data und Data Mining hat man in den Medien- und Kulturwissenschaften bereits zu einem Zeitpunkt re?ektiert, als man über maschinelles Lernen noch nicht viel wusste. Insofern ist der aktuelle Boom der KI auch ein neuer Anlass, erneut über die Rolle der Daten und die mit ihnen verbunden Praxen nachzudenken inwieweit die im Zuge des maschinellen Lernens notwendigen Datenpraktiken naive Vorstellungen von Daten als vorfindliche Informationen konterkarieren, arbeitet Daniel Cardoso Llach in seinem Beitrag auf. Dem kritisch unterbestimmten Status von Daten in einem sehr viel existenzielleren Kontext geht auch Jutta Weber in ihrem Beitrag nach. Ihre Untersuchung der medialen Infrastrukturen und Datenpraxen des ›War on Terror‹ fokussieren den unsicheren und unscharfen Status der Daten. Dem Status der Körperlichkeit in Machine Learning-Verfahren geht Christoph Engemann anhand der Rolle und Genese von Trainingsdatensätzen bei überwachten Lernverfahren nach. Dabei wird gezeigt, dass duratierte Trainingsdatensätze eine entscheidende Voraussetzung für funktionierende Machine Learning-Anwendungen sind, diese aber trotz Fortschritten in der Automatisierung immer noch weitgehend auf ein händisches Labeling der Daten rekurrieren (siehe auch Sudmann 2017c). Den Abschluss der Sektion über Datenpraktiken markiert der Beitrag von Lev Manovich. Letzterer schlägt den Begri? der »Media Analytics« vor, um mit ihm die von großen Plattformanbietern wie Facebook, Google und Net?ix entwickelten Verfahren zur computerisierten Analyse sowohl von Online-Content
als auch von dessen Nutzerinteraktionen zu bezeichnen. Die herausragende Bedeutung von Big Data und Data Mining hat man in den Medien- und Kulturwissenschaften bereits zu einem Zeitpunkt re?ektiert, als man über maschinelles Lernen noch nicht viel wusste. Insofern ist der aktuelle Boom der KI auch ein neuer Anlass, erneut über die Rolle der Daten und die mit ihnen verbunden Praxen nachzudenken, bevor, nachdem und während sie von Lernalgorithmen bearbeitet werden. Genau diese Perspektive nehmen die Texte der dritten Sektion des Bandes ein.

Eine vierte Sektion widmet sich Fragestellungen zur Materialität und Ästhetik lernender Maschinen. Der Beitrag von Hito Steyerl, „Ein Meer von Daten“ befasst sich mit der allgemeinen Vorstellung was Daten sind und in welcher Form Daten „konfektioniert“ werden, um diese einem lernenden System „verständlich“ zu machen, dass dann aus ihnen seine „Erkenntnisse“ gewinnen kann und soll. Welche „Fehler“ sich damit unerkannt in die Daten einschleichen und von welcher Qualität daraus die „Erkenntnisse“ sind, damit befasst sich der Beitrag.

Ein fünfter, abschließender Teil berichtet über kurze Interviews, die der Herausgeber Andreas Sudmann zum Thema mit aktiv tätigen und forschenden Wissenschaftlern in den angesprochenen Kategorien führte.

Dieser Band ist ein Novum innerhalb der veröffentlichten „papers“ zu diesen Themen, wegen seiner zum überwiegenden Teil in deutscher Übersetzung vorliegenden Beiträge, dabei wurden aber die meisten Zitate sprachlich im Original belassen. Es gab und gibt eine unübersehbare Anzahl von Veröffentlichungen zum Thema KI und den Randgebieten, aber die Kenntnisnahme der  überwiegend oder sogar ausschließlich in den Originalsprachen veröffentlichten Arbeiten mag kein großes Hindernis für das Studium der Inhalte sein, es macht sich doch einfacher und vermeidet Missverständnisse, wenn sie auch in der Sprache der Rezipienten vorliegen, Fachausdrücke und aufgenommene Zitate sind wohl davon ausgenommen. Der Band ist ohne Einschränkungen empfehlenswert, gerade auch für Interessenten aus den Randgebieten und Nachbardisziplinen, weil sich der Einfluss KI-Forschung zunehmend über mehr und einen sehr weiten und noch wachsenden Anwendungsbereich erstreckt.

Peter Dahms [www.OpernInfo-Berlin.de  / www.Dahms-Projekt.de]

Zur Ergänzung:
Wer sich über die Kultur- und Medienwissenschaftliche Beschäftigung hinaus mit dem „Machine Learning“ auch für die „handgreifliche“, die technische Umsetzung des Themas interessiert, dem sei die folgende Einführung zum Studium und eventuell auch zum Nachvollziehen der technischen Algorithmen empfohlen. (d.i. beispielhaft eines von sehr, sehr vielen aktuellen Veröffentlichungen zum Thema.)
Machine Learning kurz & gut“ aus O’Reillys Taschenbibliothek ISBN 978-3-96009-052-6 e1.von 2018.