Neuronale Netze & Deep Learning

lock
Bevorstehend

Aufbau neuronaler Netze Aktivierungsfunktionen Backpropagation und Deep Learning. Praktische Ăśbung mit dem TensorFlow Playground.

Ziele dieses Moduls
  • Die SuS können den Aufbau eines neuronalen Netzes mit Schichten, Neuronen, Gewichten und Aktivierungsfunktionen beschreiben.
    Verstehen
  • Die SuS können am TensorFlow Playground demonstrieren wie Hidden Layers die Entscheidungsgrenze beeinflussen und Overfitting erkennen.
    Anwenden

Neuronale Netze: Aufbau und Funktionsweise

Ein Neuronales Netz ist die populärste ML-Methode. Es ist inspiriert vom menschlichen Gehirn besteht aber aus Matrizen-Multiplikation und Zahlen.

Das einzelne Neuron

Ein Neuron nimt Eingaben multipliziert sie mit Gewichten und wendet eine Aktivierungsfunktion an → das ergibt die Ausgabe.

Einfach gesagt: Eingaben rein → gewichten → aktivieren → Ausgabe raus.

Schichten (Layers)

  • Input-Layer: Nimt die Daten auf (z.B. Pixel eines Bildes)
  • Hidden Layer(s): Verarbeiten die Daten in mehreren Stufen
  • Output-Layer: Gibt die Vorhersage aus (z.B. «Katze: 95% Hund: 5%»)

Analogie: Stell dir einen Betrieb vor. Jede Schicht ist eine Abteilung die Informationen verarbeitet und an die nachste weitergibt. Je mehr Abteilungen desto komplexere Aufgaben konnen bewältigt werden.

Aktivierungsfunktion

Ohne Aktivierungsfunktion ware das Netz nur eine einzige lineare Abbildung – egal wie viele Schichten. Deshalb braucht jede Schicht eine nicht-lineare Funktion:

  • ReLU (Rectified Linear Unit): max(0, x) – alles Negative wird zu 0
  • Sigmoid: Quetscht Werte zwischen 0 und 1 (Wahrscheinlichkeit)

Backpropagation

So lernt das Netz:

  1. Das Netz macht eine Vorhersage
  2. Wir vergleichen mit dem richtigen Ergebnis
  3. Der Fehler wird rĂĽckwarts durch alle Schichten propagiert
  4. Die Gewichte werden angepasst um den Fehler zu reduzieren
  5. Diesen Prozess wiederholen wir tausende Male

Deep Learning

Viele Hidden Layers = Deep Learning. Tiefe Netze lernen hierarchische Merkmale: die erste Schicht erkennt einfache Muster (Kanten) die nachsten bauen darauf auf (Formen Gesichter Objekte).

Note

Einstieg: Demo am Beamer

Die Lehrkraft öffnet playground.tensorflow.org am Beamer. Ihr beobachtet live:

  • Wie Schichten aufgebaut sind
  • Wie sich die Aktivierung der Neuronen verändert
  • Wie der Trainingsfortschritt (Loss) sinkt
  • Wie sich die Entscheidungsgrenze formt

Gezeigte Einstellung: XOR-Problem – zuerst mit 1 Hidden Layer dann mit 2 Hidden Layers. Beobachtet: Warum braucht man Tiefe?

TensorFlow Playground

Challenge

Aufgabe · Entscheidungsgrenze verstehen (20 min)

Geht auf playground.tensorflow.org (oder arbeitet mit dem Screenshot-Handout falls kein Laptop verfĂĽgbar).

Schritt-fĂĽr-Schritt

  1. Datensatz «Circle» wählen. Trainiert mit 0 Hidden Layers. Was passiert? Warum?
  2. 1 Hidden Layer mit 4 Neuronen hinzufugen. Wie verändert sich die Entscheidungsgrenze?
  3. Notiert: Welche Merkmale (Features) braucht das Netz mindestens um die Kreise zu trennen?
  4. Bonus: Fugt Rauschen (Noise) hinzu. Was passiert mit der Genauigkeit? Warum?

Plenumsdiskussion (3 min)

Jede Gruppe präsentiert eine Beobachtung. Wir sammeln die Erkenntnisse an der Tafel.

Reflection

Was haben wir gesehen?

  • Ohne Hidden Layer: Das Netz kann nur lineare Grenzen ziehen – bei Kreisen reicht das nicht
  • Mit Hidden Layer: Das Netz lernt nicht-lineare Entscheidungsgrenzen
  • Mehr Schichten = komplexere Muster aber auch Gefahr von Overfitting
  • Rauschen stört das Training – das Modell muss robust genug sein um das Signal vom Rauschen zu trennen

Kernbotschaft: Die Architektur des Netzes (Anzahl Schichten Neuronen Aktivierungsfunktionen) bestimmt was es lernen kann.