Benutzer-Werkzeuge

Webseiten-Werkzeuge


ws1920:virtual_dj

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen gezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
ws1920:virtual_dj [2019/11/21 15:50]
justanni
ws1920:virtual_dj [2019/11/28 17:51] (aktuell)
mariaring
Zeile 1: Zeile 1:
-**Virtual DJ, neuer Name TBA**+========APOLLON=======
  
-Name wird noch geändert, da es bereits eine Software gibt, die so heißt! 
  
-__Projektteilnehmer*innen__+__Beschreibung des Projektnamens__
  
-Sven +-------------A ​  ​= ​  ​**Affective**-------------
-Maria Ring +
-Dominik Krug +
-Rosa Brunner +
-Annika Just+
  
 +-------------P ​  ​= ​  ​**Personal**-------------
  
 +-------------O ​  ​= ​  ​**Online**-------------
  
-__Projektbeschreibung__+-------------L ​  ​= ​  ​**Located**-------------
  
-Unser Programm soll die "​Grundstimmung"​ eines Gesichts erkennen und einen dazu passenden Song auswählen. +-------------L ​  ​= ​  ​**Laudable**-------------
-Wie wir das genau umsetzen werden wir in den nächsten Wochen erarbeiten.+
  
-__Protokoll 14.11.2019__+-------------O ​  ​= ​  ​**Overdue**-------------
  
-zu der Stimmung passende Musik auswählen +-------------N ​  ​= ​  ​**Network**--------------
-Stimmung verbessern / Titel zur Stimmung+
  
-Einteilung in zwei Teilprojekte:​ 
  
-Stimmungsanalyse 
-  * - Bildanalyse?​ 
-  * - Von was? 
-  * - Gesicht: emotionaler Gesichtsausdruck 
-  * - [[https://​en.wikipedia.org/​wiki/​Facial_expression_databases|Gesichtsdatenbanken]] 
-  * - Basis emotion theory nach Ekman 
  
-Musikausgabe +__Projektbeschreibung__
-  * - Genres werden Gefühlen zugeordnet +
-  * - Wie wird die Stimmung des Liedes bestimmt? +
-  *     - Valenz +
-  *     - Arousal: +
-  *     - Text des Liedes+
  
-  * - Schnittstelle?​ Also wie wird das Lied abgespielt? Damit man nicht 10000 Lieder auf dem PC hat +Unser Programm soll die "​Grundstimmung"​ eines Gesichts erkennen und einen dazu passenden Song auswählen. 
-  *     - Spotify, YouTube? +Wie wir dies genau umsetzen werden wir in den nächsten Wochen erarbeiten.
-  *     - Cloud anlegen, wo die Lieder drinnen sin? +
-  ​* ​    - Zunächst Auswahl aus bestimmten Liedern je Emotion/​Stimmung,​ also Anzahl limitieren…?​+
  
-Objekterkennung+Ideeman schickt ein Selfie an unser Programm, das Programm analysiert die Stimmung und sendet einen dazu passenden Song aufs Handy. 
-  * - Lied zum Objekt +Umsetzung über Telegram Bot?
-  * - Semantisch passend: also Objekt kommt dann auch im Song vor+
  
-Bravo Hits! 
-  * - Rating Daten erheben 
  
 +__Projektteilnehmer*innen__
  
-__Protokoll 21.11.2019__ +  * Sven Tonke      ​ 
- +  * Maria Ring 
-  * - Beschäftigung mit den Hinweisen von Stefan +  * Dominik Krug 
-  * - Anschauen ähnlicher Projekte, die bereits in Mathesis umgesetzt wurden +  * Rosa Brunner 
-  * - weitere Quellen suchen +  Annika Just
- +
-https://​medium.com/​themlblog/​how-to-do-facial-emotion-recognition-using-a-cnn-b7bbae79cd8f +
- +
-https://​www.ncbi.nlm.nih.gov/​pmc/​articles/​PMC6514572/​ +
- +
-https://​iopscience.iop.org/​article/​10.1088/​1742-6596/​1193/​1/​012004/​pdf +
- +
-https://​medium.com/​ai³-theory-practice-business/​ai-scholar-deep-learning-facial-expression-recognition-research-fcaa0a9984b6 +
- +
-https://​www.kaggle.com/​c/​challenges-in-representation-learning-facial-expression-recognition-challenge/​overview +
- +
- +
-https://​towardsdatascience.com/​face-detection-recognition-and-emotion-detection-in-8-lines-of-code-b2ce32d4d5de +
- +
- +
- +
-**Hinweise von Stefan Born** +
-Entscheidend ist, dass sich (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind. +
- +
-Für Bilder gibt es etwa das: +
-http://​academictorrents.com/​details/​71631f83b11d3d79d8f84efe0a7e12f0ac001460 +
- +
-Für Musik das (ein bisschen klein, kann sein, dass es bessere gibt): +
-https://​cs.nju.edu.cn/​sufeng/​data/​musicmood.htm +
- +
-Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben): +
- +
-http://​millionsongdataset.com/​+
  
-Interessant auch +**[[Projekt-Dokumentationen]]** ​
-https://​github.com/​neokt/​audio-music-mood-classification +
-https://​neokt.github.io/​projects/​audio-music-mood-classification/​+
  
  
-Stimmungsklassifikation von Bildern ist nicht ganz einfach. Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die _für andere Aufgaben_ trainiert wurden. ​ (Typischerweise die Gewinner der großen ImageNet-Challenges,​ bei denen es um Bildklassifikation geht, AlexNet, ResNet,​...) ​ 
-Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden. Ein typisches Beispiel ist hier: 
  
-https://​arxiv.org/​pdf/​1705.07543.pdf 
  
-Das lässt sich alles mit den Paketen 
-keras + tensorflow 
  
-realisieren. Damit'​s nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen. 
ws1920/virtual_dj.1574347831.txt.gz · Zuletzt geändert: 2019/11/21 15:50 von justanni