Benutzer-Werkzeuge

Webseiten-Werkzeuge


ws1920:12.12.19

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen gezeigt.

Link zu dieser Vergleichsansicht

Nächste Überarbeitung
Vorhergehende Überarbeitung
ws1920:12.12.19 [2019/12/19 14:33]
mariaring angelegt
ws1920:12.12.19 [2020/03/19 14:49] (aktuell)
justanni
Zeile 1: Zeile 1:
  
 +**__Protokoll vom 12.12.19__**
  
-- Sammeln Erkenntnisse für Spotipy, +**__Tagesplan__**
-- Die Application muss bei Spotify registriert werden, dies wurde erledigt +
-- Nun ist APOLLON offiziel auch als Developer einer Application bei Spotify regitriert+
  
 +1. Erkenntnisse für Spotipy sammeln
  
--Diskusion über die Gesichtsdatenbanken+2. Application bei Spotify registrieren ​
  
-Emotions-Teil+3. Emotions-Teil, Gesichtsdatenbank,​ Tensor flow
  
-Festlegung Datenset:+4. Quellen
  
-Um unser neuronales ​Netzwerk ​zu trainieren und zu testen, brauchen wir einen gelabelten Datensatz. Als Label brauchen wir mindestens die Kategorien Angry, Sad, Happy und Relaxed (oder eben die Dimensionen Valenz und Arousal).  +5. Netzwerk ​Infos
-Der Datensatz sollte möglichst passend für unsere Anwendung sein. Wir wollen die Stimmung anhand eines Selfies analysieren,​ also geht es eher um “posed expressions”,​ und wir brauchen eigentlich auch keine Videos sondern stille Bilder. (Also Wild / Natural Datenbanken schließen wir damit aus, aber man könnte später auch schauen ob diese auch klassifiziert werden können)+
  
-Eine Internet-Recherche über mögliche Datensätze ergibt sehr viele Möglichkeiten für Gesichts-Datensätze mit Labels (Siehe auch Wikipedia Übersicht aus der ersten Sitzung)+--------------------------------------------------------------------------------------------- 
 +**__1. Erkenntnisse für Spotipy sammeln__**
  
 +- Zugangsschlüssel (token) wird gebraucht und registriert
 +---------------------------------------------------------------------------------------------
  
 +**__2. Application bei Spotify registrieren__**
  
 +- Application wurde bei Spotify registriert,​ APOLLON ist offiziel als Developer bei Spotify registriert
 +
 +---------------------------------------------------------------------------------------------
 +
 +
 +**__3. Emotions-Teil__**
 +
 +__Festlegung Datenset:__
 +
 +Um unser neuronales Netzwerk zu trainieren und zu testen, brauchen wir einen gelabelten Datensatz. Als Label brauchen wir mindestens die Kategorien Angry, Sad, Happy und Relaxed (oder eben die Dimensionen Valenz und Arousal).
 + 
 +Der Datensatz sollte möglichst passend für unsere Anwendung sein. 
 +Wir wollen die Stimmung anhand eines Selfies analysieren,​ also geht es eher um “posed expressions”,​ und wir brauchen eigentlich auch keine Videos sondern stille Bilder. ​
 +(Also Wild / Natural Datenbanken schließen wir damit aus, aber man könnte später auch schauen ob diese auch klassifiziert werden können).
 +
 +Eine Internet-Recherche über mögliche Datensätze ergibt sehr viele Möglichkeiten für Gesichts-Datensätze mit Labels (Siehe auch Wikipedia Übersicht aus der ersten Sitzung).
 +
 +---------------------------------------------------------------------------------------------
 +**__4. Quellen__**
  
 Posed: Posed:
Zeile 34: Zeile 56:
 https://​www.kaggle.com/​c/​challenges-in-representation-learning-facial-expression-recognition-challenge/​data https://​www.kaggle.com/​c/​challenges-in-representation-learning-facial-expression-recognition-challenge/​data
  
-Festlegung: Wir versuchen es erstmal mit diesem Datensatz! +--------------------------------------------------------------------------------------------- 
-(Bilder sind schwarz weiß und klein, viele Bilder) +**__4. Recherche__** ​(wie man anfangen könnte)
-Aber wir nehmen nur 4 Kategorien :) +
- +
-So, wie fangen wir nun an ein Netzwerk aufzusetzen?​ +
-Erstmal einen Plan machen, was unser Netzwerk machen soll! +
-(Siehe Notizen mit der Hand) +
- +
-Recherche, wie fängt man an? +
-Hier sind ein paar der gefundenen Ressourcen:+
  
 https://​www.freecodecamp.org/​news/​facial-emotion-recognition-develop-a-c-n-n-and-break-into-kaggle-top-10-f618c024faa7/​ https://​www.freecodecamp.org/​news/​facial-emotion-recognition-develop-a-c-n-n-and-break-into-kaggle-top-10-f618c024faa7/​
Zeile 55: Zeile 69:
 https://​machinelearningmastery.com/​tutorial-first-neural-network-python-keras/​ https://​machinelearningmastery.com/​tutorial-first-neural-network-python-keras/​
  
 +------------------------------------------------------------------------------------------
  
-Tensor flow +**__4. ​Projekt ​EmoPy__** (macht ​ähnliches wie wir)
- +
-Es gibt ein Projekt, welches so was ähnliches ​macht wie wir…. +
-Sehr spannend um mal reinzuschauen:​ +
- +
-Projekt EmoPy+
  
 https://​github.com/​thoughtworksarts/​EmoPy https://​github.com/​thoughtworksarts/​EmoPy
Zeile 70: Zeile 80:
 https://​thoughtworksarts.io/​blog/​recognizing-facial-expressions-machine-learning/​ https://​thoughtworksarts.io/​blog/​recognizing-facial-expressions-machine-learning/​
  
 +----------------------------------------------------------------------------------------
 +**__5. Netzwerk Infos__**
  
 +Plan, was unser Netzwerk machen soll:
  
 +Anhand eines Bildes soll die Emotion erkannt werden.
  
 +Festlegung: ​
 +- wir nehmen den Datensatz dass die vielen Bilder schwarz/​weiß und klein sind
 +- wir einigen uns auf 4 Kategorien ​
 +--------------------------------------------------------------------------------------------
  
-Schmierzettel:​ +Du willst zu dem nächsten Beitrag gelangen?
- +
--in der Dokumentation vom 05.12.19 ist ein Fehler, In 2. haben wir zwar eine Datenbank gehabt, jedoch war es keine "​Spotipy-Datenbank"​ sondern eine unabhängige.+
  
 +Hier kommst du zum nächsten Beitrag: [[09.01.20]]
  
ws1920/12.12.19.1576762437.txt.gz · Zuletzt geändert: 2019/12/19 14:33 von mariaring