Wir waren mit einer Live Coding Session Teil des KI-Festival Heilbronn! Auf Basis von Atmosphären-Daten von einem Vulkanausbruch haben wir mit einem generativen Netzwerk eine eindrucksvolle Live-Coding-Performance kreiert. Für uns Menschen unsichtbare Gas-Konzentrationen in der Luft wurden so sinnlich erfahrbar – mit der Hilfe von KI.
Wie funktioniert das Live Coding?
Im Vorfeld des Auftritts wurde ein generatives neuronales Netzwerk (GAN) auf Basis der Simulationsdaten des Vulkans Raikoke trainiert. So lassen sich mit KI-Bildgenerierung immer neue Ausbruchssequenzen erstellen. Die trainierte KI wurde von Tim verwendet, um live mit Musik-Coding die Visuals zu erzeugen und zu manipulieren. Sollten aufeinander folgende Bilder relativ ähnlich sein, ergaben sich sanfte Bewegungen und umso radikaler die durchs Coding eingeforderten Unterschiede, desto heftiger die visuellen Ergebnisse. In einem zweiten Schritt wurden die Obertöne von Anselm, bildlich gesprochen, durch die aktuellen Bilder hindurchgeschleust. Also war im ersten Schritt das Bild vom Ton abhängig und im zweiten Schritt der Ton vom Bild. Genau aus dieser Wechselwirkung ergeben sich die spannenden audiovisuellen Effekte – eine einzigartige Synthese von Klang und Bild.
Danke ans KI-Festival!
Wir freuen uns sehr, dabei gewesen zu sein und waren beeindruckt von der reibungslosen Organisation von allen Seiten. Unser besonderer Dank gilt dem Technik-Team vor Ort, für die entspannte und professionelle Zusammenarbeit! Anders wäre so eine Live Coding Session auch nicht zu leisten.