Wie ich fand, ein interessantes Thema über neuronale Netzwerke

🔴 1943 — Warren McCulloch und Walter Pitts schaffen das erste mathematische Modell eines Neurons. Reine Theorie

🔴 1957 — Frank Rosenblatt baut den Perzeptron — das erste lernbare neuronale Netzwerk, arbeitet auf einem Militärcomputer

🔴 1969 — Minsky und Papert beweisen, dass der Perzeptron zu eingeschränkt ist. Das Interesse an dem Thema stirbt für Jahrzehnte

🔴 1986 — Hinton und Mitautoren wecken das Interesse an neuronalen Netzwerken wieder: sie schlagen den Algorithmus zur Rückpropagation des Fehlers (Backpropagation) vor

🔴 1990–2000er — Stille. Neuronale Netzwerke arbeiten, aber langsam und ineffizient. Wenig Daten, schwache Hardware

🔴 2012 — AlexNet (Hinton erneut) gewinnt den ImageNet-Wettbewerb. Die moderne Ära des tiefen Lernens beginnt

🔴 2014 — VGG16: tiefer, einfacher, mächtiger. Netzwerk mit 3×3 Faltungen und 16 Schichten wird zur Klassik und Grundlage vieler Modelle.

🔴 2017 — Architektur Transformer (Arbeit „Attention is All You Need“ vom Google-Team). Statt rekursiver Netzwerke — reines Attention (Self-Attention), was einen großen Anstieg in Geschwindigkeit und Qualität des Lernens brachte. Darauf basieren BERT, GPT, T5, LLaMA und fast alle modernen Sprachmodelle

🔴 2018+ — GPT, Midjourney, Sprach-KI, Bots, Agenten, Memes. Neuronale Netzwerke überall

Die Informationen stammen aus dem tg DeCenter