Künstliche Intelligenz (KI) hat längst Einzug gehalten im Bereich der Kunst. Ob KI zu genuiner Kreativität in der Lage ist beziehungsweise sein wird, oder ob KI genuine Kreativität überhaupt erkennen könne, das wird noch verneint. An der Produktion von Kunst ist Künstliche Intelligenz aber bereits beteiligt. Denken wir etwa an das KI-Programm Experiments in Musical Intelligence (EMI) von Professor David Cope von der University of California in Santa Cruz. Dieses KI-Programm wurde mit Musik von Johann Sebastian Bach „trainiert“, nun produziert EMI 5.000 Choräle im Stile von Bach am Tag, inzwischen auch Musik im Stile von Beethoven, Chopin, Rachmaninov oder Stravinsky. Das (Fach)Publikum kann die originale Musik der Komponisten nicht von den Kompositionen der EMI unterscheiden. Oder denken wir daran, dass bei Christies im Jahr 2018 für sagenhafte 400.000 US-Dollar ein Werk versteigert wurde, das von einem programmierten Algorithmus kreiert wurde. Das Werk: “Portrait of Edmond Bellamy”

In einer Master Class auf der hub.berlin 2019, dem “Business Festival of Digital Movers and Makers”, habe ich Einblicke in das Projekt “Birds on Mars” erhalten: Eine Kooperation zwischen einem Maler, Roman Lipski, und dem Datenspezialisten Florian Dohmann.

Künstliche Intelligenz als Inspirationsquelle: Das Projekt „Birds on Mars“

Das Projekt beginnt damit, dass ein KI-basierter Algorithmus mit einem Landschaftsfoto gefüttert wird, dazu neun (9) künstlerischen Interpretationen des Malers Lipski. Das „Training“ des Algorithmus basierend auf Künstlicher Intelligenz (genannt: Die „Muse“) lässt sich wie folgt beschreiben. Zum einen geht es um Mustererkennung. Auf dem Foto sind die verschiedenen Bildelemente zu identifizieren. Hier ist ein Hund. Hier eine Katze. Dort ein Auto. Allein dieser Prozess erfordert ein neuronales Netz, wo sich die Bildanalyse in mehreren Stufen vollzieht (auch mithilfe einer sehr leistungsfähigen GPU: Graphical Processing Unit). Zum anderen analysiert die „Muse“ den „Stil“ des Malers Lipski. Wie wurde ein Bildelement künstlerisch umgesetzt, wie ist der Pinselstrich, die Farbgebung, der Kontrast und Vieles mehr.

[Exkurs] Ein Meilenstein in der Geschichte der Mustererkennung durch Künstlichen Intelligenz ist ein Projekt der Google X Labs. Im Jahr 2012 wurde ein Netzwerk von Computern mit etwa 10 Millionen Bildern gefüttert; nach drei Tagen gelang dem „Google Brain“, auf diesen Bildern nicht nur Menschen, sondern auch Katzen zu identifizieren. [Exkurs Ende]

In der KI „Muse“ kommt schließlich ein weiterer Schritt hinzu: Nämlich die Produktion von Bildern. Hierzu wird ein sogenanntes „Generative Adversarial Network (GAN)“ eingesetzt. Dieses besteht aus zwei Komponenten, dem „Generator“ und dem „Discriminator“. Der „Generator“ versucht hierbei Bilder im Stile von Lipski zu produzieren. Der „Discriminator“ bewertet diese Ergebnisse und verwirft diese – oder akzeptiert diese. Hier wird also eine Feedbackschleife zwischen zwei Instanzen implementiert, die den „Generator“ trainieren.

[Exkurs] Vor einiger Zeit ging der Fortschritt bei der Erzeugung von Fake-Menschenporträts durch die Medien, also: Computer-generierten Porträts, die verblüffend echt aussehen. Diese Menschen existieren jedoch nicht, vergleiche: ThisPersonDoesNotExist.com. Hier wurde eben diese Methode der „Generative Adversarial Networks“ eingesetzt. [Exkurs Ende]

Die „Muse“ wird auch vorgeführt in der Master Class. Die Bilder sind beeindruckend. Ich persönlich könnte keine Grenze ziehen zwischen den computergenerierten Bildern und der „echten, genuin kreativen Kunst“. Diese Frage stelle ich folglich dem Maler Lipski. Der Maler versteht meine Frage sofort. Und er warnt auch: Für angehende Künstler kann ein solcher „Dialog mit der Muse“ gefährlich sein, es gäbe noch keinen eigenen Stil, noch keine Differenzierungsfähigkeit. Man schaue auf die Bilder und denke „Alles ist cool“ (O-Ton Lipski). Das könne bei angehenden Künstlern auch Kreativität kaputt machen. Er selbst habe in einem Stadium seiner künstlerischen Entwicklung den Dialog mit der „Muse“ begonnen, als er bereits ein ausgereiftes Verständnis für Kunst und Kreativität ausgebildet hatte. Für Lipski liefert die „Muse“ folglich Ideen, ausgereifte Werke seien nicht dabei; nicht eine einzige von der „Muse“ generierte Produktion sei darum Teil einer Ausstellung (vgl. AirOnAir.de) – die Künstliche Intelligenz inspiriert also (nur), sie ersetzt den künstlerischen Prozess nicht. Und Lipski ergänzt: Das Schöne an der Arbeit mit der „Muse“: Man habe nicht das Gefühl, einen anderen Künstler zu beklauen.

Der Maler Lipski trainiert im Übrigen verschiedene Netzwerke: Jede „Muse“ bringt damit eine eigene Interpretation hervor, eine andere Art von Inspiration, eine andere Farbtonalität. Eine „Muse“ geht etwa eher ins Abstrakte, eine andere “Muse” bleibt eher im Bereich der gegenständlichen Malerei. Und noch ein interessanter Aspekt: Das Projekt begann mit dem Betrieb der „Muse“ auf einer Public Cloud. Aus Kostengründen migrierte das Team das Projekt schließlich on premise. Ein nicht unbekanntes Muster, das ein Branchenkenner prägnant wie folgt zusammenfasst: „Unternehmen gehen wegen der Kosten in die Cloud – und irgendwann wegen der Kosten wieder raus.“

Um in die Funktionsweise und mathematischen Grundlagen für Künstliche Intelligenz zu verstehen (mindestens intuitiv), empfehle ich den udemy-Kurs, den ich in nachfolgender BLOG-Serie beschrieben haben: Maschinenlernen für Product Owner, IT Projektmanager – Ein Crash Kurs

„Roman Lipski und Florian Dohmann sind Pioniere in dem neuen Feld der „künstlichen und künstlerischen Intelligenz“. Ihre Arbeiten zeigen auf eindrucksvolle Weise eine Möglichkeit der Mensch-Maschinen-Kollaboration auf: Inspiration.“
Professor Ludger Pfanz, Gründer und Leiter von Symposium Beyond

Sebastian Zang
Author

Der Autor ist Manager in der Softwareindustrie mit internationaler Expertise: Prokurist bei einem der großen Beratungshäuser - Verantwortung für den Aufbau eines IT Entwicklungszentrums am Offshore-Standort Bangalore - Director M&A bei einem Softwarehaus in Berlin.