Hier werden die Unterschiede zwischen zwei Versionen gezeigt.
Beide Seiten der vorigen Revision Vorhergehende Überarbeitung Nächste Überarbeitung | Vorhergehende Überarbeitung | ||
ws1920:virtual_dj [2019/11/21 15:29] justanni |
ws1920:virtual_dj [2019/11/28 17:51] (aktuell) mariaring |
||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
- | **Virtual DJ, neuer Name TBA** | + | ========APOLLON======= |
- | **Hinweise von Stefan Born** | ||
- | Entscheidend ist, dass sich (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind. | ||
- | Für Bilder gibt es etwa das: | + | __Beschreibung des Projektnamens__ |
- | http://academictorrents.com/details/71631f83b11d3d79d8f84efe0a7e12f0ac001460 | + | |
- | Für Musik das (ein bisschen klein, kann sein, dass es bessere gibt): | + | -------------A = **Affective**------------- |
- | https://cs.nju.edu.cn/sufeng/data/musicmood.htm | + | |
- | Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben): | + | -------------P = **Personal**------------- |
- | http://millionsongdataset.com/ | + | -------------O = **Online**------------- |
- | Interessant auch | + | -------------L = **Located**------------- |
- | https://github.com/neokt/audio-music-mood-classification | + | |
- | https://neokt.github.io/projects/audio-music-mood-classification/ | + | -------------L = **Laudable**------------- |
+ | |||
+ | -------------O = **Overdue**------------- | ||
+ | |||
+ | -------------N = **Network**-------------- | ||
+ | |||
+ | |||
+ | |||
+ | __Projektbeschreibung__ | ||
+ | |||
+ | Unser Programm soll die "Grundstimmung" eines Gesichts erkennen und einen dazu passenden Song auswählen. | ||
+ | Wie wir dies genau umsetzen werden wir in den nächsten Wochen erarbeiten. | ||
+ | |||
+ | Idee: man schickt ein Selfie an unser Programm, das Programm analysiert die Stimmung und sendet einen dazu passenden Song aufs Handy. | ||
+ | Umsetzung über Telegram Bot? | ||
+ | |||
+ | |||
+ | __Projektteilnehmer*innen__ | ||
+ | |||
+ | * Sven Tonke | ||
+ | * Maria Ring | ||
+ | * Dominik Krug | ||
+ | * Rosa Brunner | ||
+ | * Annika Just | ||
+ | |||
+ | **[[Projekt-Dokumentationen]]** | ||
- | Stimmungsklassifikation von Bildern ist nicht ganz einfach. Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die _für andere Aufgaben_ trainiert wurden. (Typischerweise die Gewinner der großen ImageNet-Challenges, bei denen es um Bildklassifikation geht, AlexNet, ResNet,...) | ||
- | Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden. Ein typisches Beispiel ist hier: | ||
- | https://arxiv.org/pdf/1705.07543.pdf | ||
- | Das lässt sich alles mit den Paketen | ||
- | keras + tensorflow | ||
- | realisieren. Damit's nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen. |