Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Added sections 1, 2, 3, 4 & 7 of chapter 2 – German #538

Open
wants to merge 3 commits into
base: main
Choose a base branch
from
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
13 changes: 13 additions & 0 deletions chapters/de/_toctree.yml
Original file line number Diff line number Diff line change
Expand Up @@ -27,6 +27,19 @@
title: Quiz am Ende des Kapitels
quiz: 1

- title: 2. 🤗 Transformer verwenden
sections:
- local: chapter2/1
title: Einführung
- local: chapter2/2
title: Die Pipeline
- local: chapter2/3
title: Modelle
- local: chapter2/4
title: Tokenizer
- local: chapter2/7
title: Basislektion abgeschlossen!

- title: 3. Fine-tuning von vortrainierten Modellen
sections:
- local: chapter3/1
Expand Down
24 changes: 24 additions & 0 deletions chapters/de/chapter2/1.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,24 @@
# Einführung[[introduction]]

<CourseFloatingBanner
chapter={2}
classNames="absolute z-10 right-0 top-0"
/>

Wie du in [Kapitel 1](/course/chapter1) erfahren hast, handelt es sich bei Transformer-Modellen üblicherweise um sehr große Architekturen. Mit Millionen und bis zu über mehreren *Milliarden* Parametern ist das Trainieren und der Einsatz dieser Modelle äußerst kompliziert. Da fast tagtäglich neue Modelle mit anderen Implementierungen hinzukommen, ist es eine große Herausforderung alle Modelle auszuprobieren.

Die 🤗 Transformers Bibliothek wurde erstellt, um dieses Problem zu lösen. Mit ihr soll eine einzige API bereitgestellt werden, über die jedes Transformer Modell geladen, trainiert und gespeichert werden kann. Die Haupt-Features der Bibliothek sind:

- **Einfache Bedienung**: Das Herunterladen, Laden und Verwenden eines hochmodernen CL-Modells für die Inferenz lässt sich mithilfe von nur zwei Codezeilen erledigen.
- **Flexibilität**: Im Kern sind alle Modelle herkömmliche PyTorch `nn.Module` oder TensorFlow `tf.keras.Model` Klassen und können wie alle anderen Modelle auch in den jeweiligen Frameworks für maschinelles Lernen (ML) benutzt werden.
- **Einfachheit**: Es werden kaum Abstraktionen in der Bibliothek vorgenommen. Als Kernkonzept gilt, dass alles in einer Datei liegt: Die Berechnung des Vorwärtsalgorithmus eines Modells wird vollständig in einer einzigen Datei definiert, so dass der Code verständlich und bearbeitbar ist.

Dieses letzte Feature unterscheidet 🤗 Transformers deutlich von anderen ML-Bibliotheken. Die Modelle sind nicht in Modulen aufgebaut, bei denen es Abhängigkeiten zu anderen Komponenten gibt. Stattdessen hat jedes Modell seine eigenen Ebenen. Dadurch werden die Modelle nicht nur leichter zugänglich und verständlicher, sondern erlaubt es dir auch problemlos an einem Modell zu experimentieren, ohne andere zu beeinträchtigen.

Dieses Kapitel beginnt mit einem End-to-End-Beispiel, in dem wir ein Modell und einen Tokenizer zusammen verwenden, um die in [Kapitel 1](/course/chapter1) vorgestellte `pipeline()` Funktion besser zu verstehen. Als Nächstes besprechen wir die Modell-API: Wir schauen uns die die Modell- und Konfigurationsklassen genauer an und zeigen dir, wie du ein Modell lädst und wie es Eingaben in numerischer Form verarbeitet, um Vorhersagen auszugeben.

Dann schauen wir uns die Tokenizer-API an, die die andere Hauptkomponente der `pipeline()` Funktion ist. Tokenizer übernehmen die ersten und letzten Verarbeitungsschritte, die Umwandlung von Text in seine numerische Form für das neuronale Netzwerk und die Umwandlung zurück in Text, falls erforderlich. Abschließend zeigen wir dir, wie du mehrere Sätze gleichzeitig als vorbereitete Batch durch das Modell sendest, und beenden diesen Teil mit einem genaueren Blick auf die High-Level "tokenizer()" Funktion ab.

<Tip>
⚠️ Um von allen Funktionen des Model Hubs und der 🤗 Transformers zu profitieren, empfehlen wir dir ein <a href="https://huggingface.co/join">Konto zu erstellen</a>.
</Tip>
Loading