Benutzer-Werkzeuge

Webseiten-Werkzeuge


Seitenleiste

ws1920:12.12.19

Protokoll vom 12.12.19

Tagesplan

1. Erkenntnisse für Spotipy sammeln

2. Application bei Spotify registrieren

3. Emotions-Teil, Gesichtsdatenbank, Tensor flow

4. Quellen

5. Netzwerk Infos


1. Erkenntnisse für Spotipy sammeln

- Zugangsschlüssel (token) wird gebraucht und registriert


2. Application bei Spotify registrieren

- Application wurde bei Spotify registriert, APOLLON ist offiziel als Developer bei Spotify registriert


3. Emotions-Teil

Festlegung Datenset:

Um unser neuronales Netzwerk zu trainieren und zu testen, brauchen wir einen gelabelten Datensatz. Als Label brauchen wir mindestens die Kategorien Angry, Sad, Happy und Relaxed (oder eben die Dimensionen Valenz und Arousal).

Der Datensatz sollte möglichst passend für unsere Anwendung sein. Wir wollen die Stimmung anhand eines Selfies analysieren, also geht es eher um “posed expressions”, und wir brauchen eigentlich auch keine Videos sondern stille Bilder. (Also Wild / Natural Datenbanken schließen wir damit aus, aber man könnte später auch schauen ob diese auch klassifiziert werden können).

Eine Internet-Recherche über mögliche Datensätze ergibt sehr viele Möglichkeiten für Gesichts-Datensätze mit Labels (Siehe auch Wikipedia Übersicht aus der ersten Sitzung).


4. Quellen

Posed: MMI Facial Expression Data Base https://mmifacedb.eu

Faces DB http://app.visgraf.impa.br/database/faces/

Cohn-Kanade https://www.pitt.edu/~emotion/ck-spread.htm http://www.consortium.ri.cmu.edu/ckagree/

Fer von Kaggle: https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data


4. Recherche (wie man anfangen könnte)

https://www.freecodecamp.org/news/facial-emotion-recognition-develop-a-c-n-n-and-break-into-kaggle-top-10-f618c024faa7/

https://medium.com/@lukaszlipinski/tensorflow-low-and-high-level-api-369494fc0341

https://medium.com/@jsflo.dev/training-a-tensorflow-model-to-recognize-emotions-a20c3bcd6468

https://medium.com/themlblog/how-to-do-facial-emotion-recognition-using-a-cnn-b7bbae79cd8f

https://machinelearningmastery.com/tutorial-first-neural-network-python-keras/


4. Projekt EmoPy (macht ähnliches wie wir)

https://github.com/thoughtworksarts/EmoPy

Hier ein zusammenfassender Artikel des Projekts: https://thoughtworksarts.io/blog/emopy-emotional-expression-toolkit/

https://thoughtworksarts.io/blog/recognizing-facial-expressions-machine-learning/


5. Netzwerk Infos

Plan, was unser Netzwerk machen soll:

Anhand eines Bildes soll die Emotion erkannt werden.

Festlegung: - wir nehmen den Datensatz dass die vielen Bilder schwarz/weiß und klein sind - wir einigen uns auf 4 Kategorien


Du willst zu dem nächsten Beitrag gelangen?

Hier kommst du zum nächsten Beitrag: 09.01.20

ws1920/12.12.19.txt · Zuletzt geändert: 2020/03/19 14:49 von justanni