Chopin by Deep Neuronal Network

In den letzten Tagen haben wir unser Keras2-based WaveNet auf Musik von Chopin trainiert. Das Trainingsmaterial besteht aus zwei Stücken von Frederic Chopin, die vor sehr langer Zeit aufgenommen wurden und dessen Copyright daher abgelaufen ist.

Es ist noch ein sehr langer Weg, bis wir wirklich Musikstücke selber „komponieren“ können, aber die ersten Ergebnisse sind sehr ermutigend. Auf dem Weg dahin müssen wir auch herausfinden, warum unsere Multi-GPU-Version immer „Deadlocks“ verursacht. Daher trainieren wir derzeit auf nur einer einzelnen GPU (6 Stunden pro Epoch).

Unabhängig davon haben wir hier einige erste Ergebnisse: diese kurzen Stücke wurden von unserem DNN „komponiert“:

Das erste Beispiel ist ein 3-Sekunden-Stück nach 9 ‚Epochs‘ Training. Es klingt schon mal nach etwas, aber mehr ist da auch nicht 🙂

Das zweite Beispiel, ein 30-Sekunden-Stück, wurde nach 11 ‚Epochs‘ Training generiert. Es wird schon besser, aber es sind zu viele Pausen. Da ist noch ein Fehler im DNN.

Das dritte Beispiel ist schon 60 Sekunden lang. Es wurde nach 12 ‚Epochs‘ generiert. Klingt schon besser, but es ist noch ein langer, langer Weg (bitte bis zum Ende anhören, zwischendurch sind ziemlich lange Pausen).

Das vierte Beispiel ist ebenfalls 60 Sekunden, nach 13 ‚Epochs. Hmm, das ist schlechter als nach 13 ‚Epochs‘. Naja, lass uns weiter trainieren.

Unsere maximale Trainingszeit ist auf 1.000 ‚Epochs‘ gesetzt, aber so lange (= 6.000 Stunden = 250 Tage) können wir natürlich nicht trainieren.

In den nächsten Wochen werden wir versuchen, den Deadlock-Fehler zu finden und das ganze dann auf vier GPUs (auf zwei Rechnern) zu trainieren.

Auf jeden Fall ist es sehr, sehr spannend. Wenn die ersten wirklich guten Ergebnisse da sind, müssen wir zu Ludwig van wechseln. Dann wird es erst richtig spannend.

(Übrigens: http://data.m-ailabs.bayern/ wird der Server sein, auf dem wir zukünftig alle Trainings- und Beispieldaten, die wir veröffentliche dürfen, auch veröffentlichen werden…)