Dies ist eine alte Version des Dokuments!
Hinweise von Stefan Born Entscheidend ist, dass sich (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind.
Für Bilder gibt es etwa das: http://academictorrents.com/details/71631f83b11d3d79d8f84efe0a7e12f0ac001460
Für Musik das (ein bisschen klein, kann sein, dass es bessere gibt): https://cs.nju.edu.cn/sufeng/data/musicmood.htm
Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben):
http://millionsongdataset.com/
Interessant auch https://github.com/neokt/audio-music-mood-classification https://neokt.github.io/projects/audio-music-mood-classification/
Stimmungsklassifikation von Bildern ist nicht ganz einfach. Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die _für andere Aufgaben_ trainiert wurden. (Typischerweise die Gewinner der großen ImageNet-Challenges, bei denen es um Bildklassifikation geht, AlexNet, ResNet,…) Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden. Ein typisches Beispiel ist hier:
https://arxiv.org/pdf/1705.07543.pdf
Das lässt sich alles mit den Paketen keras + tensorflow
realisieren. Damit's nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen.