Benutzer-Werkzeuge

Webseiten-Werkzeuge


Seitenleiste

ws1920:virtual_dj

Dies ist eine alte Version des Dokuments!


Hinweise von Stefan Born Entscheidend ist, dass sich (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind.

Für Bilder gibt es etwa das: http://academictorrents.com/details/71631f83b11d3d79d8f84efe0a7e12f0ac001460

Für Musik das (ein bisschen klein, kann sein, dass es bessere gibt): https://cs.nju.edu.cn/sufeng/data/musicmood.htm

Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben):

http://millionsongdataset.com/

Interessant auch https://github.com/neokt/audio-music-mood-classification https://neokt.github.io/projects/audio-music-mood-classification/

Stimmungsklassifikation von Bildern ist nicht ganz einfach. Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die _für andere Aufgaben_ trainiert wurden. (Typischerweise die Gewinner der großen ImageNet-Challenges, bei denen es um Bildklassifikation geht, AlexNet, ResNet,…) Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden. Ein typisches Beispiel ist hier:

https://arxiv.org/pdf/1705.07543.pdf

Das lässt sich alles mit den Paketen keras + tensorflow

realisieren. Damit's nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen.

ws1920/virtual_dj.1574345545.txt.gz · Zuletzt geändert: 2019/11/21 15:12 von a.heilrath