Professionelle KI-Entwicklung für Java-Experten
placeKöln 13 Apr 2026 until 16 Apr 2026 |
computer Online: Zoom 13 Apr 2026 until 16 Apr 2026 |
placeKöln 22 Jun 2026 until 25 Jun 2026 |
computer Online: Zoom 22 Jun 2026 until 25 Jun 2026 |
placeKöln 21 Sep 2026 until 24 Sep 2026 |
computer Online: Zoom 21 Sep 2026 until 24 Sep 2026 |
placeKöln 14 Dec 2026 until 17 Dec 2026 |
computer Online: Zoom 14 Dec 2026 until 17 Dec 2026 |
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Nach dieser Schulung können die Teilnehmer eigenständig anspruchsvolle KI-Funktionalitäten mit LLMs in Java-Anwendungen integrieren - inklusive Prompt Engineering, Agentensysteme, Embeddings und RAG-Architekturen -, um professionelle und produktionsfähige Lösungen zu realisieren, die technischen, wirtschaftlichen und rechtlichen Anforderungen gerecht werden.Inhalt
-
1. Einführung: KI, LLMs und Ihre Java-Anwendungen
- Klärung individueller Lernziele und Erwartungen der Teilnehmer.
- Was ist Künstliche Intelligenz (KI) eigentlich? Eine kurze Einordnung.
- Large Language Models (LLMs) entmystifiziert: Was steckt dahinter für Java Entwickler?
- Kernkonzepte von LLMs aus Entwicklersicht…
There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Nach dieser Schulung können die Teilnehmer eigenständig anspruchsvolle KI-Funktionalitäten mit LLMs in Java-Anwendungen integrieren - inklusive Prompt Engineering, Agentensysteme, Embeddings und RAG-Architekturen -, um professionelle und produktionsfähige Lösungen zu realisieren, die technischen, wirtschaftlichen und rechtlichen Anforderungen gerecht werden.Inhalt
- 1. Einführung: KI, LLMs und Ihre Java-Anwendungen
- Klärung individueller Lernziele und Erwartungen der Teilnehmer.
- Was ist Künstliche Intelligenz (KI) eigentlich? Eine kurze Einordnung.
- Large Language Models (LLMs) entmystifiziert: Was steckt dahinter für Java Entwickler?
- Kernkonzepte von LLMs aus Entwicklersicht (vereinfacht: Transformer, Attention).
- Die Evolution der LLMs und ihr wachsendes Potenzial für die Java-Anwendungsentwicklung.
- Typische Anwendungsfälle: Wann und wo ist der Einsatz von LLMs in Java-Projekten sinnvoll?
- LLMs im Vergleich zu menschlicher Intelligenz: Stärken, Schwächen und Synergien im Softwarekontext.
- Typische Limitierungen und Herausforderungen von LLMs (z.B. Bias, Halluzinationen ein erster Überblick).
- Chancen und neue Möglichkeiten durch LLM-gestützte Anwendungen im Java-Ökosystem.
- 2. LLMs anbinden: Provider, APIs und lokale Optionen für
Java
- Überblick über führende LLM-Provider (z.B. OpenAI, Anthropic, Google) und deren Plattformen.
- Auswahlkriterien für LLM-Provider in Java-Projekten (Modellperformance, Kosten, Datenprivacy, Java-Kompatibilität).
- Verbindungsmethoden zu LLM-Services aus Java-Anwendungen:
- Nutzung populärer Java-SDKs (z.B. LangChain4j, konzeptionell Spring AI - Fokus auf Prinzipien, nicht auf ein spezielles Framework).
- Direkte API-Nutzung (HTTP-Requests, Authentifizierung, Fehlerbehandlung).
- Praktische Nutzung gängiger LLM-APIs mit Java (z.B. Chat Completions).
- Self-Hosting von LLMs für Java-Anwendungen:
- Optionen, Werkzeuge (z.B. OpenLLM, vLLM, Hugging Face Transformers mit Inference Endpoints) und Überlegungen.
- Vor- und Nachteile des lokalen Betriebs (Hardwareanforderungen, Wartung vs. Kontrolle, Datenschutz).
- Verständnis von LLM-Modelleigenschaften und deren Einfluss auf die Auswahl
- (Architekturen, Fähigkeiten, Limitierungen, Parameter wie Größe und Token-Limits).
- 3. Effektives Prompt Engineering für Java-Entwickler
- Grundprinzipien des effektiven Prompt Designs: Klarheit, Spezifität, Kontext, Rollenzuweisung (Persona).
- Das "Setup" eines Prompts: Systemnachrichten, Kontextinjektion und Stilvorgaben.
- Die "Instruction" präzise formulieren: Aufgabenstellung für das LLM.
- Iterative Prompt-Entwicklung und Teststrategien im Java-Umfeld.
- Fortgeschrittene Prompting-Techniken:
- Zero-Shot, One-Shot und Few-Shot Prompting.
- Chain-of-Thought (CoT) Prompting zur Lösung komplexer Probleme.
- Step Decomposition: Aufgaben in kleinere, handhabbare Schritte zerlegen.
- Umgang mit Prompt-Beschränkungen (Token Limits) und dynamischer Kontextualisierung.
- Struktur und Formatierung von Prompts für optimale LLM-Verarbeitung (z.B. Delimiter).
- Kontextintegration aus Code und Dokumentation für Java-spezifische Aufgaben.
- 4. Output-Verarbeitung und Function Calling in Java
- Anfordern strukturierter LLM-Outputs (z.B. JSON, XML) und deren Verarbeitung in Java.
- Strategien zur Validierung, Bereinigung (Sanitization) und zum Mapping von LLM-Antworten auf Java-Datenstrukturen.
- LLM Function Calling (Tool Use): Konzept, Anwendungsfälle und
Implementierungsmuster in Java.
- Definition von aufrufbaren Java-Funktionen/Tools.
- Parameterübergabe, Ergebnisverarbeitung und Sicherheitsaspekte bei der
- Integration mit Java Business Logic.
- Entwurfsmuster für Real-Time LLM-Interaktionen in Java (z.B.
Chatbots, virtuelle Assistenten).
- Umgang mit Konversationshistorie und Session-Management.
- Techniken zur Latenzoptimierung (z.B. Streaming vs. Batching).
- 5. Fortgeschrittene LLM-Architekturen: RAG und
Vektordatenbanken mit Java
- Retrieval-Augmented Generation (RAG):
- Konzept, Architektur und typische Anwendungsfälle (z.B. Q&A über eigene Dokumente, aktuellere Informationen für LLMs).
- Komponenten einer RAG-Pipeline: Datenaufnahme (Ingestion), Aufbereitung (Chunking), Indexierung, Retrieval und Augmentierung der Prompts.
- Implementierungsmuster und Best Practices für RAG-Pipelines in Java-Anwendungen (Demonstration mit Spring AI als Beispiel).
- Text Embeddings:
- Grundlagen: Was sind Embeddings und wie repräsentieren sie semantische
- Bedeutung?
- Erzeugung von Text Embeddings mit LLMs über Java.
- Nutzung von Embeddings in Java für Aufgaben wie semantische Suche, Dokumentenähnlichkeit und Clustering.
- Arbeiten mit Vektordatenbanken in Java:
- Vorstellung des Konzepts von Vektordatenbanken und deren Java-Anbindung (allgemein).
- Speichern, Indexieren und Abfragen von Embedding-Sammlungen mit SQL-ähnlichen Konzepten.
- Orchestrierung komplexer LLM-Workflows in Java, die Retrieval, Generierung und Post-Processing kombinieren.
- Retrieval-Augmented Generation (RAG):
- 6. Multimodale LLM-Anwendungen mit Java entwickeln
- Einführung in Multimodale KI: Verarbeitung von Text, Audio, Bild und Video durch LLMs.
- Potenziale und Herausforderungen multimodaler Anwendungen im Java-Kontext.
- Verarbeitung von Bild- und Video-Input in Java:
- Grundlegende Techniken zur Vorverarbeitung (z.B. Resizing, Encoding).
- Integration mit Java-Bibliotheken für Bild-/Videoverarbeitung (z.B. konzeptionell
- OpenCV, JavaCV).
- Sprachverarbeitung in Java-Anwendungen:
- Integration von Speech-to-Text (STT) Pipelines (Audioaufnahme, Transkription).
- Integration von Text-to-Speech (TTS) Lösungen (Sprachsynthese, Stimmanpassung).
- Nutzung integrierter multimodaler LLMs aus Java-Anwendungen heraus (allgemeine Konzepte).
- Vergleich: Standalone STT/TTS-Lösungen vs. direkt integrierte multimodale LLMs.
- Best Practices für die Entwicklung multimodaler Anwendungen in Java
- (I/O-Management, Concurrency, UX-Design, Barrierefreiheit).
- 7. Entwicklung intelligenter Agenten mit Java und
LLMs
- Konzepte und Architekturen intelligenter Agenten (autonom, reaktiv, proaktiv, sozial; Typen: reaktiv, deliberativ, kollaborativ, lernend).
- Vorstellung von Frameworks und Bibliotheken für die Agenten-Entwicklung mit Java-Unterstützung (Überblick und Auswahlkriterien).
- Design und Implementierung LLM-basierter Agenten in Java:
- State Management und Gedächtnis (Kurzzeit, Langzeit).
- Prompt Engineering für Agenten-Aufgaben und Multi-Step Reasoning.
- Nutzung von Function Calling für Tool-Interaktion.
- Antwortvalidierung und Ergebnisverarbeitung.
- Model Context Protocol (MCP):
- Einführung in das MCP als Standard für Tool- und Datenintegration.
- Entwicklung eines eigenen MCP-Servers in Java (Beispiel).
- Clientseitige MCP-Integration in Java-Agenten zum Einbinden des eigenen Servers (Beispiel).
- Grundlagen der Agent-to-Agent Kommunikation und
Multi-Agenten-Systeme (MAS):
- Kommunikationsparadigmen (z.B. Peer-to-Peer, Publish/Subscribe).
- Überblick über Standardprotokoll-Konzepte.
- Koordinationsstrategien in MAS.
- Skalierbarkeits- und Managementaspekte für Java-Agenten (Threading, Ressourcen).
- 8. Betrieb und Optimierung von LLM-Anwendungen in Java
- Performance Tuning für LLM-basierte Java-Anwendungen:
- Techniken zur Reduktion von Inferenzlatenz (konzeptionell).
- Strategien zur Optimierung von Durchsatz und Speichernutzung (konzeptionell).
- Kostenmanagement und -optimierung:
- Strategien zur Kostenreduktion bei LLM-Nutzung (Modellauswahl, Prompt-Optimierung, Caching).
- Framework zur Berechnung und Schätzung von Kosten für LLM-Inferenz und -Deployment.
- Modell Fine-Tuning für spezifische Java-Anwendungsfälle:
- Grundlagen: Wann ist Fine-Tuning sinnvoll?
- Überblick über den Fine-Tuning-Prozess (Datenvorbereitung, Training, Evaluation - ohne tiefgehende ML-Kenntnisse).
- Parameter-effiziente Fine-Tuning Methoden (z.B. LoRA - konzeptionell).
- Umgang mit API Rate Limits und Quotas von LLM-Providern.
- Strategien zur Orchestrierung von LLM-Aufrufen und komplexen Workflows.
- Konzepte zur Multi-Provider-Nutzung (z.B. für Failover, Kostenoptimierung).
- Logging und Monitoring von LLM-Interaktionen und Performance in Java-Anwendungen.
- Performance Tuning für LLM-basierte Java-Anwendungen:
- 9. Herausforderungen, Sicherheit und Integration in
bestehende
- Java-Systeme
- Umgang mit typischen LLM-Herausforderungen:
- Erkennen und Mitigieren von Halluzinationen und Bias.
- Strategien zum Umgang mit veraltetem Wissen der Modelle.
- Robuste Fehlerbehandlung in LLM-basierten
Java-Anwendungen:
- Identifizierung und Kategorisierung gängiger LLM-Fehlermodi.
- Implementierung von Retry-Mechanismen und Fallback-Strategien.
- LLM-spezifische Sicherheitsrisiken und Gegenmaßnahmen in
Java:
- Prompt Injection: Angriffsvektoren und Verteidigungsstrategien.
- Schutz vor Data Poisoning und Model Theft (konzeptionell).
- Input-Validierung und Sanitization zur Absicherung von LLM-Interaktionen.
- Content Moderation und Output-Filterung zur Einhaltung von Richtlinien.
- Architekturmuster und Best Practices für die Integration von LLM-Funktionen in bestehende Java-Enterprise-Systeme.
- 10. Recht, Compliance, Testing und Ausblick für LLM-Anwendungen
in Java
- Rechtliche Rahmenbedingungen:
- Der EU AI Act: Relevanz, Risikoklassen und Anforderungen für die Entwicklung von LLM-Anwendungen in Java.
- DSGVO-Compliance: Datenschutzaspekte bei der Verarbeitung von (potenziell) personenbezogenen Daten mit LLMs in Java-Anwendungen.
- Testing und Evaluierung von LLM-basierten Java-Systemen:
- Methoden und Strategien zur Überprüfung von Genauigkeit, Kohärenz, Bias und Sicherheit der LLM-Outputs.
- Ansätze für Regressionstests und Integrationstests im Java-Kontext.
- Abgrenzung der Schulung (Zusammenfassung der Alleinstellungsmerkmale und des Fokus).
- Zukünftige Entwicklungen und Trends im Bereich LLMs und Java-Anwendungsentwicklung.
- Ethische Überlegungen und verantwortungsvoller Umgang mit LLM-Technologie.
- Raum für praktische Übungen und Projekte (z.B. Entwicklung eines RAG-basierten Chatbots, Implementierung eines Agenten, Testen einer LLM-Integration - je nach Zeit und Teilnehmerinteresse).
- Abschlussdiskussion, Feedback und nächste Schritte für die Teilnehmer.
- Rechtliche Rahmenbedingungen:
There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.
