Generative KI Masterclass: Ein eigenes LLM bauen und trainieren

Total time
Location
At location, Online
Starting date and place

Generative KI Masterclass: Ein eigenes LLM bauen und trainieren

GFU Cyrus AG
Logo GFU Cyrus AG
Provider rating: starstarstarstarstar_border 7.9 GFU Cyrus AG has an average rating of 7.9 (out of 13 reviews)

Need more information? Get more details on the site of the provider.

Starting dates and places
placeKöln
18 May 2026 until 22 May 2026
computer Online: Zoom
18 May 2026 until 22 May 2026
placeKöln
17 Aug 2026 until 21 Aug 2026
computer Online: Zoom
17 Aug 2026 until 21 Aug 2026
placeKöln
16 Nov 2026 until 20 Nov 2026
computer Online: Zoom
16 Nov 2026 until 20 Nov 2026
Description

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Diese Masterclass vermittelt ein tiefgehendes Verständnis darüber, wie LLMs aufgebaut, trainiert und optimiert werden. Die Teilnehmenden lernen, eigene Transformer-Modelle zu entwickeln, die richtigen Datensätze aufzubereiten, Tokenizer zu trainieren und den gesamten Trainingsprozess von LLMs nachzuvollziehen. Neben dem Training von Modellen wird auch Feintuning, Evaluierung und Optimierung behandelt. Nach dem Kurs sind die Teilnehmenden in der Lage, ein eigenes kleines LLM zu trainieren, es zu evaluieren und in Anwendungen zu integrieren. 

Inhalt

Tag 1: Deep Dive - Architektur & Daten
1. Eigene LLM-Architektur
  • Transformer intern (Self-Attention, Multi-Head, Position Embeddings)

Read the complete description

Frequently asked questions

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Diese Masterclass vermittelt ein tiefgehendes Verständnis darüber, wie LLMs aufgebaut, trainiert und optimiert werden. Die Teilnehmenden lernen, eigene Transformer-Modelle zu entwickeln, die richtigen Datensätze aufzubereiten, Tokenizer zu trainieren und den gesamten Trainingsprozess von LLMs nachzuvollziehen. Neben dem Training von Modellen wird auch Feintuning, Evaluierung und Optimierung behandelt. Nach dem Kurs sind die Teilnehmenden in der Lage, ein eigenes kleines LLM zu trainieren, es zu evaluieren und in Anwendungen zu integrieren. 

Inhalt

Tag 1: Deep Dive - Architektur & Daten
1. Eigene LLM-Architektur
  • Transformer intern (Self-Attention, Multi-Head, Position Embeddings)
  • GPT-Style Decoder vs. Encoder-Decoder (T5, BART)
  • 2. Datenauswahl & Aufbereitung
  • Öffentliche Datensätze (The Pile, Books3, OpenWebText2)
  • Copyright & Cleanup (Duplikate, Filters)
  • Geschlossene/unternehmensinterne Daten (Datenschutz)
  • 3. Tokenisierung
  • Byte Pair Encoding (BPE), SentencePiece, ttoken
  • Vocabulary-Größe, Trade-offs
  • 4. Hands-on:
  • Erstes Skript: Tokenizer-Training auf einem Mini-Korpus
  • Großer Korpus? Wie man ihn vorbereitet (Chunking, Sharding, etc.)
Tag 2: Implementierung & Training-Pipeline
  • 1. Implementierung eines Mini-Transformers
    • PyTorch oder TensorFlow: Layer (Attention, Feedforward), GPTBlock / DecoderLayer
    • Konfigurationsparameter (Hidden Dim, Heads, Depth)
  • 2. Training-Setup
    • GPU/TPU-Einrichtung (lokal vs. Cloud)
    • Batch Size, Lernrate, Optimizer (AdamW)
    • Mixed Precision (FP16/BF16)
  • 3. MLOps-Tools
    • MLflow, ClearML oder Weights & Biases zum Tracken von Experimenten
  • 4. Hands-on:
    • Starte ein Trainingsskript für einen kleinen Datensatz (z. B. 50-100 MB Text)
    • Protokolliere Training Loss, evaluiere gelegentliche Samples
Tag 3: Feintuning, Evaluierung & RAG
  • 1. Weiterführendes Training
    • Feintuning vs. Training-from-scratch
    • RLHF (Reinforcement Learning from Human Feedback) - theoretischer Überblick
  • 2. Evaluierung
    • Perplexity, Token-Accuracy
    • Generische Metriken: BLEU, ROUGE, etc.
  • 3. Retrieval-Augmented Generation
    • Eigene RAG-Pipeline auf selbst trainiertem Modell?
    • Einbinden einer Vektordatenbank (Chroma, FAISS)
  • 4. Hands-on:
    • Feinjustriere dein Modell auf einen speziellen Datensatz (z. B. interne Doku)
    • Baue eine Mini-RAG-Demo (prompt + fetch + generation)
Tag 4: Fortgeschrittene Optimierung & Multimodale Erweiterungen
  • 1. Fortgeschrittene Optimierung
    • Gradient Accumulation, ZeRO, LoRA (Low-Rank Adaptation)
    • Parameter-Effiziente Methoden (QLoRA, 4-Bit/8-Bit Training)
    • Modellkompression, Distillation
  • 2. Multimodale Szenarien
    • Text/Bild (CLIP-Ansätze, Vision Transformer-Encoder + GPT-Decoder)
    • Kurzer Abstecher: Diffusion Models integrieren (für Image Generation)
  • 3. Hands-on:
    • Probier LoRA-Fine-Tuning oder 4-Bit-Quantisierung, um GPU-Speicher zu sparen
    • Experimentiere mit kleiner Bild/Text-Integration (z. B. Bild-Captions)
Tag 5: Production-Ready & Abschlussprojekt
  • 1. Deployment & Skalierung
    • Serving-Frameworks (FastAPI, Triton Inference Server)
    • Monitoring & Logging
    • Parallel-LLM-Setups (Fallback, Ensembles)
  • 2. Sicherheit & Governance
    • Prompt Injection-Verhinderung, Content Filtering
    • Datenschutz und On-Prem-Lösungen
  • 3. Abschlussprojekt
    • Wähle: 
      • Eigener GPT-Klon (kleines Modell)
      • RAG-System mit selbst trainiertem Modell
      • Multimodaler Mini-Prototyp (Text + Bild)
      • Stelle Ergebnisse vor, diskutiere Performance und Limitierungen
  • 4. Ausblick
    • Größere Modelle (Llama, Bloom)
    • HPC-Anforderungen, verteiltes Training
    • Kommerzielle vs. Open-Source-Varianten
There are no reviews yet.
    Share your review
    Do you have experience with this course? Submit your review and help other people make the right choice. As a thank you for your effort we will donate $1.- to Stichting Edukans.

    There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.