diff --git a/2024-09-13-hu/index.html b/2024-09-13-hu/index.html
index 33f704f..d9f2f45 100644
--- a/2024-09-13-hu/index.html
+++ b/2024-09-13-hu/index.html
@@ -42,14 +42,14 @@
13. September 2024
-
+
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung – Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.
-
+
-
+
---
@@ -60,7 +60,7 @@
![XKCD Comic No. 435 "Purity"](images/purity.png)
-Quelle: [XKCD, Randall Munroe](https://xkcd.com/435) / CC BY-NC 2.5
+Bildquelle: [XKCD, Randall Munroe](https://xkcd.com/435) / CC BY-NC 2.5
--
@@ -107,7 +107,7 @@
![Neuron](images/08_neuron.png)
-![Perzeptron](images/perzeptron.png)
+![Perzeptron](images/perzeptron.png)
--
@@ -120,15 +120,15 @@
--
-## Architekturen für neuronale Netze (1/2)
+## Architekturen für künstliche neuronale Netze
![Neural Network Zoo](https://www.asimovinstitute.org/wp-content/uploads/2019/04/NeuralNetworkZoo20042019.png)
-Quelle: [Fjodor van Veen & Stefan Leijnen](https://www.asimovinstitute.org/neural-network-zoo/)
+Bildquelle: [Fjodor van Veen & Stefan Leijnen](https://www.asimovinstitute.org/neural-network-zoo/)
--
-## Architekturen für neuronale Netze (1/2)
+## Architekturen für künstliche neuronale Netze
![Neural Network Zoo](https://www.asimovinstitute.org/wp-content/uploads/2019/04/NeuralNetworkZoo20042019.png)
@@ -136,21 +136,25 @@
## Anwendungsbeispiele
-![Spam](images/spam.png)
+![Spam](images/spam.png)
-
+
-![PlaNet](images/planet.jpg)
-T. Weyand, I. Kostrikov, J. Philbin (2016) PlaNet – Photo Geolocation with Convolutional Neural Networks. [doi:10.1007/978-3-319-46484-8_3](https://doi.org/10.1007/978-3-319-46484-8_3)
+![PlaNet](images/planet.jpg)
+
+Bildquelle: T. Weyand, I. Kostrikov, J. Philbin (2016) PlaNet – Photo Geolocation with Convolutional Neural Networks. [doi:10.1007/978-3-319-46484-8_3](https://doi.org/10.1007/978-3-319-46484-8_3)
+
-
+
-![CoverHunter](images/coverhunter.png)
-F. Liu, D. Tuo, Y. Xu, X. Han (2023) CoverHunter: Cover Song Identification with Refined Attention and Alignments. [doi:10.1109/ICME55011.2023.00189](https://doi.org/10.1109/ICME55011.2023.00189)
+![CoverHunter](images/coverhunter.png)
+
+Bildquelle: F. Liu, D. Tuo, Y. Xu, X. Han (2023) CoverHunter: Cover Song Identification with Refined Attention and Alignments. [doi:10.1109/ICME55011.2023.00189](https://doi.org/10.1109/ICME55011.2023.00189)
+
-
+
--
@@ -158,12 +162,14 @@
![Black Box](images/blackbox.svg)
-### Details, die wir auslassen
+### Details, die wir auslassen
- Festlegung Vokabular (Wörter, Silben, etc.)
- Abbildung auf Zahlen
- Architektur des neuronalen Netzes
- ... und noch einiges mehr
+
+
-![Embedding](images/wordembedding.png)
+![Embedding](images/wordembedding.png)
- ergibt *Pre-Trained (Large) Language Model* → **LLM**
- Extraktion von Vektoren für Wörter ergibt *Word Embeddings*
- semantische Ähnlichkeit durch Nähe im Vektorraum
- Eingabe für neuronale Netze
+
+
--
## Training: Fine-Tuning
@@ -207,7 +215,7 @@
--
-## Beispiele
+## Beispiele für LLMs
![LLM Evolution](images/llm_evolution.png)
@@ -216,12 +224,12 @@
Architektur und Modell
-S. Minaee, T. Mikolov, N. Nikzad, M. Chenaghlu, R. Socher, X. Amatriain, J. Gao (2024) Large Language Models: A Survey. [arXiv:2402.06196v2 ](https://arxiv.org/html/2402.06196v2)
-
-
+
+Bildquelle: S. Minaee, T. Mikolov, N. Nikzad, M. Chenaghlu, R. Socher, X. Amatriain, J. Gao (2024) Large Language Models: A Survey. [arXiv:2402.06196v2 ](https://arxiv.org/html/2402.06196v2)
+
---
+
+
--
## Und jetzt?
@@ -237,7 +247,12 @@
- was ein LLM ist
- wie es trainiert wird
- welche Arten von Aufgaben es gibt
-- welche LLMs es gibt
+- welche Beispiele für LLMs es gibt
+
+
+
+
+→ Was hat es mit dem *Manfred Lehmann unter den rhetorischen Stilmitteln* auf sich?
---
@@ -320,7 +335,7 @@
- wir kürzen ›Vossianische Antonomasie‹ als **Vossanto** ab
-![Vossanto Memory](images/memory.jpg)
+![Vossanto Memory](images/memory.jpg)
- Source → Modifier → Anzahl der Vossanto-Kandidaten nach jedem Schritt beim regelbasierten Verfahren
-
---
-
## 2. Automatisierte Verfahren
@@ -516,7 +511,7 @@
--
-## Erinnerung: Architekturen für neuronale Netze
+## Erinnerung: Architekturen für künstliche neuronale Netze
![Neural Network Zoo](https://www.asimovinstitute.org/wp-content/uploads/2019/04/NeuralNetworkZoo20042019.png)
@@ -526,22 +521,35 @@
### (B)LSTM ([Hochreiter und Schmidhuber 1997](https://doi.org/10.1162/neco.1997.9.8.1735), [Schuster/Paliwal 1997](https://doi.org/10.1109/78.650093))
+
+
- (Bidirectional) Long Short-Term Memory
- "Erinnerung" vorheriger Werte; Modellierung von Abhängigkeiten zwischen Eingaben
- bidirektional: in beide Richtungen
+
+
### Transformer ([Vaswani et al. 2017](https://proceedings.neurips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html))
+
+
+
- "Nachfolger" von (B)LSTMS
- verarbeiten Eingaben parallel
- integrierte Attention ermöglicht Fokussierung auf bestimmte Eingaben
- Grundlage von BERT und GPT
+
### CRF ([Lafferty et al. 2001]())
+
+
+
- Conditional Random Fields
- **kein** neuronales Netz
- probabilistisches Modell zur Modellierung von Beziehungen
+
+
--
## Verwendete vor-trainierte Modelle