changed READMe.md
parent
5122ca3936
commit
056ea8530f
40
README.md
40
README.md
|
@ -1,15 +1,37 @@
|
|||
# gnn
|
||||
|
||||
Code-Snippets für die Vorlesung "Grundlagen Neuronale Netze" im SS24.
|
||||
Lösungen für die Vorlesung "Grundlagen Neuronale Netze" (GNN) der Hochschule Mannheim (HSMA) im Sommersemester 2024 (SS24).
|
||||
|
||||
## Aufgaben
|
||||
|
||||
| Nr | Aufgabenstellung | Kommentar |
|
||||
|----|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------|
|
||||
| 1 | Verändern Sie die Lernregel so, dass es die Perzeptron Lernregel ist. | |
|
||||
| 2 | Verändern Sie den Backpropagation Algorithmus so, dass er den Gradientenabstieg vollständig mit iRProp− macht. | |
|
||||
| 3 | Implementieren Sie eine Restricted Boltzmann Machine als einfachste Form eines Autoencoders. Am Eingang sollen die MNIST Ziffern angelegt werden. Durch Aktivierung der Hidden Schicht und Rückaktivierung sollten die MNIST Ziffern wieder rekonstruiert werden können. Nun reduzieren Sie die Anzahl der Hidden Neuronen auf 100. Können die Ziffern trotzdem so rekonstruiert werden, dass man sie noch erkennen kann? | |
|
||||
| 4 | Implementieren Sie den zweidimensionalen Pooling Layer eines Convolutional Networks. Laden Sie dazu ein Schwarz-Weiß Bild und erzeugen Sie ein kleineres Bild indem Sie die Pooling Maske mit Stride 2 (heißt in Schrittweite 2) über das Bild schieben. | [Bild Quelle](https://commons.wikimedia.org/wiki/File:Young_tabby_cat_keeping_watch.jpg) |
|
||||
| 5 | | |
|
||||
| 6 | | |
|
||||
### Aufgabe 1
|
||||
Verändern Sie die Lernregel so, dass es die Perzeptron Lernregel ist.
|
||||
|
||||
### Aufgabe 2
|
||||
Verändern Sie den Backpropagation Algorithmus so, dass er den Gradientenabstieg vollständig mit iRProp− macht.
|
||||
|
||||
### Aufgabe 3
|
||||
Implementieren Sie eine Restricted Boltzmann Machine als einfachste Form eines Autoencoders. Am Eingang sollen die MNIST Ziffern angelegt werden. Durch Aktivierung der Hidden Schicht und Rückaktivierung sollten die MNIST Ziffern wieder rekonstruiert werden können. Nun reduzieren Sie die Anzahl der Hidden Neuronen auf 100. Können die Ziffern trotzdem so rekonstruiert werden, dass man sie noch erkennen kann?
|
||||
|
||||
### Aufgabe 4
|
||||
Implementieren Sie den zweidimensionalen Pooling Layer eines Convolutional Networks. Laden Sie dazu ein Schwarz-Weiß Bild und erzeugen Sie ein kleineres Bild indem Sie die Pooling Maske mit Stride 2 (heißt in Schrittweite 2) über das Bild schieben.
|
||||
|
||||
*[Bild Quelle](https://commons.wikimedia.org/wiki/File:Young_tabby_cat_keeping_watch.jpg)*
|
||||
|
||||
### Aufgabe 5
|
||||
Programmieren Sie ein rekurrentes Neuronales Netz aus zwei
|
||||
Neuronen mit Tangens hyperbolicus Transferfunktion: $o_j = \tanh(\sum_i w_{ji} o_i) = \dfrac{2}{1+ e^{-2\sum_i w_{ji} o_i}} - 1$ und folgenden Gewichten:
|
||||
|
||||
$w_{bias1} = -3.37, w_{bias2}=0.125\\$
|
||||
$w_{11} = -4, w_{12} = 1.5\\$
|
||||
$w_{21} = -1.5, w_{22} = 0\\$
|
||||
und den Anfangswerten $o_1 = 0, o_2 = 0$.
|
||||
|
||||
Zeichnen Sie den Output $o_1$ und $o_2$ der beiden Neuronen mit Hilfe
|
||||
von Matplotlib in ein zweidimensionales Diagramm.
|
||||
|
||||
## Sonstiges
|
||||
|
||||
Keine Gewähr auf Fehlerfreiheit!
|
||||
|
||||
Viel Erfolg bei GNN!
|
Loading…
Reference in New Issue