Benutzer-Werkzeuge

Webseiten-Werkzeuge


ws1920:21.11.2019

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen gezeigt.

Link zu dieser Vergleichsansicht

Nächste Überarbeitung
Vorhergehende Überarbeitung
ws1920:21.11.2019 [2019/11/28 22:09]
mariaring angelegt
ws1920:21.11.2019 [2019/12/01 22:15] (aktuell)
mariaring
Zeile 1: Zeile 1:
-Rating Daten erheben ​Protokoll 21.11.2019+__**Protokoll ​vom 21.11.2019**__
  
-Beschäftigung mit den Hinweisen von Stefan Anschauen ähnlicher Projekte, die bereits in Mathesis umgesetzt wurden ​weitere ​Quellen ​suchen ​https://​medium.com/​themlblog/​how-to-do-facial-emotion-recognition-using-a-cnn-b7bbae79cd8f+Beschäftigung mit den Hinweisen von Stefan 
 + 
 +Anschauen ähnlicher Projekte, die bereits in Mathesis umgesetzt wurden 
 +----------------------------------------------------------------------------------------------------------- 
 +__**Quellen:**__ 
 + 
 +https://​medium.com/​themlblog/​how-to-do-facial-emotion-recognition-using-a-cnn-b7bbae79cd8f
  
 https://​www.ncbi.nlm.nih.gov/​pmc/​articles/​PMC6514572/​ https://​www.ncbi.nlm.nih.gov/​pmc/​articles/​PMC6514572/​
Zeile 7: Zeile 13:
 https://​iopscience.iop.org/​article/​10.1088/​1742-6596/​1193/​1/​012004/​pdf https://​iopscience.iop.org/​article/​10.1088/​1742-6596/​1193/​1/​012004/​pdf
  
-https://​medium.com/​ai³-theory-practice-business/​ai-scholar-deep-learning-facial-expression-recognition-research-fcaa0a9984b6+https://​medium.com/​ai-theory-practice-business/​ai-scholar-deep-learning-facial-expression-recognition-research-fcaa0a9984b6
  
 https://​www.kaggle.com/​c/​challenges-in-representation-learning-facial-expression-recognition-challenge/​overview https://​www.kaggle.com/​c/​challenges-in-representation-learning-facial-expression-recognition-challenge/​overview
Zeile 13: Zeile 19:
 https://​towardsdatascience.com/​face-detection-recognition-and-emotion-detection-in-8-lines-of-code-b2ce32d4d5de https://​towardsdatascience.com/​face-detection-recognition-and-emotion-detection-in-8-lines-of-code-b2ce32d4d5de
  
-FAZITwir müssen uns erstmal mit neuronalen Netzwerken beschäftigen (Wie funktionieren diese, was können diese, Implementation in Python?)+Für Bilderhttp://​academictorrents.com/​details/​71631f83b11d3d79d8f84efe0a7e12f0ac001460
  
-Hinweise von Stefan Born Entscheidend ist, dass sich (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind. +Für Musik: https://​cs.nju.edu.cn/​sufeng/​data/​musicmood.htm
- +
-Für Bilder gibt es etwa das: http://​academictorrents.com/​details/​71631f83b11d3d79d8f84efe0a7e12f0ac001460 +
- +
-Für Musik das (ein bisschen klein, kann sein, dass es bessere gibt): https://​cs.nju.edu.cn/​sufeng/​data/​musicmood.htm+
  
 Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben): Mit Labels, die mehr das Genre betreffen (aber zumindest indirekt auch was mit Stimmungen zu tun haben):
- 
 http://​millionsongdataset.com/​ http://​millionsongdataset.com/​
  
-Interessant auch https://​github.com/​neokt/​audio-music-mood-classification https://​neokt.github.io/​projects/​audio-music-mood-classification/​+Interessant auch https://​github.com/​neokt/​audio-music-mood-classificationhttps://​neokt.github.io/​projects/​audio-music-mood-classification/​
  
-Stimmungsklassifikation von Bildern ist nicht ganz einfach. Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die _für andere Aufgaben_ trainiert wurden. (Typischerweise die Gewinner der großen ImageNet-Challenges, bei denen es um Bildklassifikation geht, AlexNet, ResNet,…) Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden. Ein typisches Beispiel ist hier:+--------------------------------------------------------------------------------------------------------- 
 +**__Zu beachten:__**
  
 +- Hinweise von Stefan Born: sollten (große) öffentliche Datensätze finden, bei denen Bilder, bzw. Musikstücke mit ästhetischen bzw. Stimmungs-Labels versehen sind
 +---------------------------------------------------------------------------------------------------------
 +**__Weitere Notizen:​__**
 +Stimmungsklassifikation von Bildern ist nicht ganz einfach. ​
 +Die funktionierenden Methoden beruhen darauf, neuronale Netzwerke auf Features zu trainieren, die ihrerseits aus den mittleren Schichten von neuronalen Netzwerken kommen, die für andere Aufgaben trainiert wurden. ​
 +
 +(Typischerweise die Gewinner der großen ImageNet-Challenges,​ bei denen es um Bildklassifikation geht, AlexNet, ResNet,…) Es kann sich lohnen, außerdem noch summarische Statistiken der Bildfarben o.ä. als Eingabe zu verwenden.
 +
 +Ein typisches Beispiel ist hier:
 https://​arxiv.org/​pdf/​1705.07543.pdf https://​arxiv.org/​pdf/​1705.07543.pdf
  
-Das lässt sich alles mit den Paketen keras + tensorflow+---> alles lässt sich mit den Paketen keras + tensorflow ​realisieren.  
 +Damit'​s nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen. 
 + 
 +--------------------------------------------------------------------------------------------------------- 
 +**__Fragen:​__** 
 + 
 +     Wie funktionieren neuronalen Netzwerke?  
 +     Was können neuronalen Netzwerke?​ 
 +     Wie würde die Implementation in Python aussehen? 
 +      
 +      
 +-------------------------------------------------------------------------------------------------------------------------- ​    
 + 
 +**FAZIT:** - Beschäftigung mit neuronalen Netzwerken nötig 
 + 
 +--------------------------------------------------------------------------------------------------------------------------  
 + 
 +Zur nächsten Dokumentation klicke hier:  [[28.11.19]]
  
-realisieren. Damit'​s nicht ewig dauert, braucht man eine GPU, es kann sich lohnen, die Modelle auf Google Colab zu rechnen. 
ws1920/21.11.2019.1574975354.txt.gz · Zuletzt geändert: 2019/11/28 22:09 von mariaring