Protokoll vom 12.12.19
Tagesplan
1. Erkenntnisse für Spotipy sammeln
2. Application bei Spotify registrieren
3. Emotions-Teil, Gesichtsdatenbank, Tensor flow
4. Quellen
5. Netzwerk Infos
1. Erkenntnisse für Spotipy sammeln
- Zugangsschlüssel (token) wird gebraucht und registriert
2. Application bei Spotify registrieren
- Application wurde bei Spotify registriert, APOLLON ist offiziel als Developer bei Spotify registriert
3. Emotions-Teil
Festlegung Datenset:
Um unser neuronales Netzwerk zu trainieren und zu testen, brauchen wir einen gelabelten Datensatz. Als Label brauchen wir mindestens die Kategorien Angry, Sad, Happy und Relaxed (oder eben die Dimensionen Valenz und Arousal).
Der Datensatz sollte möglichst passend für unsere Anwendung sein. Wir wollen die Stimmung anhand eines Selfies analysieren, also geht es eher um “posed expressions”, und wir brauchen eigentlich auch keine Videos sondern stille Bilder. (Also Wild / Natural Datenbanken schließen wir damit aus, aber man könnte später auch schauen ob diese auch klassifiziert werden können).
Eine Internet-Recherche über mögliche Datensätze ergibt sehr viele Möglichkeiten für Gesichts-Datensätze mit Labels (Siehe auch Wikipedia Übersicht aus der ersten Sitzung).
4. Quellen
Posed: MMI Facial Expression Data Base https://mmifacedb.eu
Faces DB http://app.visgraf.impa.br/database/faces/
Cohn-Kanade https://www.pitt.edu/~emotion/ck-spread.htm http://www.consortium.ri.cmu.edu/ckagree/
Fer von Kaggle: https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data
4. Recherche (wie man anfangen könnte)
https://medium.com/@lukaszlipinski/tensorflow-low-and-high-level-api-369494fc0341
https://medium.com/@jsflo.dev/training-a-tensorflow-model-to-recognize-emotions-a20c3bcd6468
https://medium.com/themlblog/how-to-do-facial-emotion-recognition-using-a-cnn-b7bbae79cd8f
https://machinelearningmastery.com/tutorial-first-neural-network-python-keras/
4. Projekt EmoPy (macht ähnliches wie wir)
https://github.com/thoughtworksarts/EmoPy
Hier ein zusammenfassender Artikel des Projekts: https://thoughtworksarts.io/blog/emopy-emotional-expression-toolkit/
https://thoughtworksarts.io/blog/recognizing-facial-expressions-machine-learning/
5. Netzwerk Infos
Plan, was unser Netzwerk machen soll:
Anhand eines Bildes soll die Emotion erkannt werden.
Festlegung: - wir nehmen den Datensatz dass die vielen Bilder schwarz/weiß und klein sind - wir einigen uns auf 4 Kategorien
Du willst zu dem nächsten Beitrag gelangen?
Hier kommst du zum nächsten Beitrag: 09.01.20