Dies ist eine alte Version des Dokuments!
Virtual DJ, neuer Name TBA
Hinweise von Stefan Born Entscheidend ist, dass sich (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind.
Für Bilder gibt es etwa das: http://academictorrents.com/details/71631f83b11d3d79d8f84efe0a7e12f0ac001460
Für Musik das (ein bisschen klein, kann sein, dass es bessere gibt): https://cs.nju.edu.cn/sufeng/data/musicmood.htm
Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben):
http://millionsongdataset.com/
Interessant auch https://github.com/neokt/audio-music-mood-classification https://neokt.github.io/projects/audio-music-mood-classification/
Stimmungsklassifikation von Bildern ist nicht ganz einfach. Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die _für andere Aufgaben_ trainiert wurden. (Typischerweise die Gewinner der großen ImageNet-Challenges, bei denen es um Bildklassifikation geht, AlexNet, ResNet,…) Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden. Ein typisches Beispiel ist hier:
https://arxiv.org/pdf/1705.07543.pdf
Das lässt sich alles mit den Paketen keras + tensorflow
realisieren. Damit's nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen.