Hier werden die Unterschiede zwischen zwei Versionen gezeigt.
ss19:planaenderungen [2019/09/05 14:17] jheinlein angelegt |
ss19:planaenderungen [2019/09/05 15:10] (aktuell) jheinlein |
||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
- | zurück zu: [[plan]] | + | zurück zu: [[Plan]] |
===Planänderungen=== | ===Planänderungen=== | ||
- | - Wir haben uns Früh entschieden zuerst ein Bilderkennungsprogramm mit anderen Methoden zu schaffen, um die Konzepte zu verstehen. Dafür haben wir Kapitel 3 von Hands-On Machine Learning with Scikit-Learn & TensorFlow | Concepts, Tools, and Techniques To Build Intelligent Systems geschrieben von Géron Aurélien benutzt. Wir haben Classificationsmethoden angewandt, um das MNIST Dataset zu verwenden | + | - Wir haben uns früh entschieden, zuerst ein Bilderkennungsprogramm mit anderen Methoden (k-Nearest-Neighbours) zu schaffen, um die Konzepte zu verstehen. Dafür haben wir Kapitel 3 von Hands-On Machine Learning with Scikit-Learn & TensorFlow | Concepts, Tools, and Techniques To Build Intelligent Systems geschrieben von Géron Aurélien benutzt. Wir haben Klassifikationsmethoden angewandt, um das EMNIST Dataset zu verwenden. |
- | - Auch haben wir früh erkannt das wir eigentlich mehrere Datasets zusammensetzen werden müssen, da wir in unserem Projekt auch mathematische Formeln erlauben wollten. Das Programm sollte z.B. von uns später genutzt werden und wir werden für unsere Mitschriften solche mathemathischen Symbole verwenden müssen | + | - Auch haben wir früh erkannt das wir eigentlich mehrere Datensätze zusammensetzen müssen, da wir in unserem Projekt auch mathematische Formeln erkennen können wollten, welches für Vorlesungsmitschriften nötig wäre. |
- | - Da wir verschiedene Datasets benutzten mussten wir die Pixelanzahl vereinheitlichen und mussten dadurch auch lernen wie wir solch eine Verkleinerung erreichen könnten | + | - Da wir verschiedene Datensätze benutzten, mussten wir die Pixelanzahl der Trainingsbilder vereinheitlichen und mussten dazu auch lernen, wie wir solch eine Skalierung erreichen könnten. |
- | - Dazu kamm auch das Problem das wir erst später bedacht haben: Wie machen wir aus dem Bilderkennungsprogramm, also dem CNN ein Schrifterkennungsprogramm? Das programmieren wir ein Programm, welches ein Bild von z.B. einer Mitschrift bekommt und es in die einzelnen Wörter bzw. Symbole aufteilt. Das führte zur Überlegung ein weiteres Neuronales Netzwerk zu programmieren. Die Idee wurde jedoch schnell verworfen und wir haben ein Segmentierungsprogramm geschrieben. | + | - Dazu kam auch ein Problem, das wir erst später bedacht haben: Wie machen wir aus dem Bilderkennungsprogramm ein Schrifterkennungsprogramm? Dazu schreiben wir ein Programm, in welches ein Bild eines Textes bekommt und es in die einzelnen Wörter bzw. Zeichen aufteilt. Das führte zur Überlegung, ein weiteres Neuronales Netzwerk zu programmieren. Die Idee wurde jedoch schnell verworfen und wir haben ein einfaches Segmentierungsprogramm ohne CNN geschrieben. |
- | - Wir haben überlegt ein n-gram Verfahren einzubauen um die Genauigkeit des Programms zu verbessern, jedoch sind wir nicht so weit gekommen | + | - Wir haben überlegt ein n-Gram Verfahren einzubauen um die Genauigkeit des Programms zu verbessern und Erkennungsfehler des zu berichtigen, bzw Vorhersagen für wahrscheinlich folgende Zeichen zu treffen. Soweit gekommen sind wir jedoch nicht. |