Prompt Engineering für Softwareentwickler

Total time
Location
At location, Online
Starting date and place

Prompt Engineering für Softwareentwickler

GFU Cyrus AG
Logo GFU Cyrus AG
Provider rating: starstarstarstarstar_border 8.2 GFU Cyrus AG has an average rating of 8.2 (out of 15 reviews)

Need more information? Get more details on the site of the provider.

Starting dates and places
placeKöln
17 Aug 2026 until 18 Aug 2026
check_circle Starting date guaranteed
computer Online: Zoom
17 Aug 2026 until 18 Aug 2026
check_circle Starting date guaranteed
placeKöln
5 Nov 2026 until 6 Nov 2026
computer Online: Zoom
5 Nov 2026 until 6 Nov 2026
placeKöln
4 Feb 2027 until 5 Feb 2027
computer Online: Zoom
4 Feb 2027 until 5 Feb 2027
placeKöln
3 May 2027 until 4 May 2027
computer Online: Zoom
3 May 2027 until 4 May 2027
placeKöln
5 Aug 2027 until 6 Aug 2027
computer Online: Zoom
5 Aug 2027 until 6 Aug 2027
placeKöln
4 Nov 2027 until 5 Nov 2027
computer Online: Zoom
4 Nov 2027 until 5 Nov 2027
Description

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Nach Abschluss können die Teilnehmer Prompts gezielt formulieren, um Sprachmodelle für typische Entwicklungsaufgaben wie Codegenerierung, Debugging, Refactoring und Dokumentation einzusetzen. Sie beherrschen fortgeschrittene Techniken wie Few-Shot-Prompting, Rollenkonzepte, strukturierte Ausgaben und Prompt-Verkettung und können diese in ihrem Entwicklungsalltag anwenden.

Inhalt

  • 1. Grundlagen des Prompt Engineering für die Softwareentwicklung
    • Verstehen, wie Prompt Engineering als Schnittstelle zwischen natürlicher Sprache und Sprachmodellen funktioniert und warum die Qualität der Eingabe direkt die Brauchbarkeit des generierten Codes bestimmt
    • Die Besonderheiten des Promptings f…

Read the complete description

Frequently asked questions

There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Nach Abschluss können die Teilnehmer Prompts gezielt formulieren, um Sprachmodelle für typische Entwicklungsaufgaben wie Codegenerierung, Debugging, Refactoring und Dokumentation einzusetzen. Sie beherrschen fortgeschrittene Techniken wie Few-Shot-Prompting, Rollenkonzepte, strukturierte Ausgaben und Prompt-Verkettung und können diese in ihrem Entwicklungsalltag anwenden.

Inhalt

  • 1. Grundlagen des Prompt Engineering für die Softwareentwicklung
    • Verstehen, wie Prompt Engineering als Schnittstelle zwischen natürlicher Sprache und Sprachmodellen funktioniert und warum die Qualität der Eingabe direkt die Brauchbarkeit des generierten Codes bestimmt
    • Die Besonderheiten des Promptings für Entwicklungsaufgaben kennenlernen, bei denen syntaktische Korrektheit, logische Konsistenz und Einhaltung von Best Practices entscheidend sind
    • Die Anatomie eines effektiven Prompts verstehen mit den Elementen Rolle, Aufgabe, Kontext, Einschränkungen und Ausgabeformat sowie deren Zusammenspiel bei technischen Anfragen
  • 2. Codegenerierung durch strukturierte Prompts
    • Prompts für die Codeerstellung formulieren, die Programmiersprache, Framework, Stil und funktionale Anforderungen klar spezifizieren und dadurch sofort verwendbaren Code liefern
    • Few-Shot-Prompting  anwenden, bei dem Beispiele von Eingaben und gewünschten Ausgaben dem  Modell das erwartete Muster vermitteln und die Konsistenz der Ergebnisse erhöhen
    • Komplexe  Implementierungen in kleinere Teilaufgaben zerlegen und durch iteratives Prompting schrittweise aufbauen, anstatt alles in einer einzigen Anfrage zu verlangen
  • 3. Debugging und Fehleranalyse mit LLM-Unterstützung
    • Fehlerbehafteten Code zusammen mit Fehlermeldungen und erwartetem Verhalten präsentieren, damit das Modell die Ursache identifizieren und Korrekturen vorschlagen kann
    • Das Modell in die Rolle eines Code Reviewers versetzen, der systematisch nach Bugs, Anti-Patterns und potenziellen Problemen sucht und jeden Codeabschnitt kritisch kommentiert
    • Testfälle generieren lassen, die Randfälle, ungültige Eingaben und Grenzwerte abdecken, um die Robustheit des Codes zu prüfen und verborgene Fehler aufzudecken
  • 4. Refactoring und Codeoptimierung
    • Prompts für Refactoring formulieren, die Lesbarkeit, Wartbarkeit oder Performance als Ziel vorgeben und das Modell anweisen, konkrete Verbesserungen mit Begründung vorzuschlagen
    • Bestehenden Code in idiomatischere Konstrukte überführen lassen, etwa von imperativen Schleifen zu funktionalen Methoden oder von Callback-Strukturen zu async/await
    • Architekturelle  Verbesserungen anstoßen, bei denen das Modell Vorschläge für bessere  Strukturierung, Entkopplung oder Anwendung von Design Patterns liefert
  • 5. Dokumentation und Erklärung generieren
    • Inline-Kommentare,  Docstrings und API-Dokumentation automatisch erstellen lassen, indem das Modell den Code analysiert und verständliche Beschreibungen ergänzt
    • Unbekannten oder komplexen Code erklären lassen, um dessen Funktionsweise zu verstehen, etwa bei der Einarbeitung in fremde Codebasen oder Legacy-Systeme
    • README-Dateien,  Setup-Anleitungen und technische Dokumentation generieren, die  Installationsschritte, Abhängigkeiten und Nutzungsbeispiele klar  strukturiert darstellen
  • 6. System-Prompts und Rollenkonzepte
    • System-Prompts verstehen und gestalten, die das grundlegende Verhalten, die Rolle und die Einschränkungen des Modells für eine gesamte Konversation festlegen
    • Spezialisierte Rollen definieren, etwa einen erfahrenen Backend-Entwickler, einen  Security-Experten oder einen Code-Architekten, um domänenspezifisches  Wissen zu aktivieren
    • Die Trennung zwischen System-Prompt und Benutzer-Prompt nutzen, um wiederverwendbare Konfigurationen zu erstellen, die konsistente Ergebnisse über mehrere Anfragen hinweg liefern
  • 7. Strukturierte Ausgaben und Tool Calling
    • JSON-Schema oder andere Strukturvorgaben einsetzen, um maschinenlesbare Ausgaben zu erzeugen, die direkt in Anwendungen weiterverarbeitet werden können
    • Tool Calling und Function Calling verstehen, bei dem das Modell beschreibt, welche externe Funktion mit welchen Parametern aufgerufen werden soll, anstatt die Aktion selbst auszuführen
    • Prompt-Templates und Variablen nutzen, um wiederverwendbare Prompt-Strukturen zu erstellen, die dynamisch mit unterschiedlichen Eingaben befüllt werden
  • 8. Prompt-Verkettung und komplexe Workflows
    • Prompt Chaining anwenden, bei dem die Ausgabe eines Prompts als Eingabe für den nächsten dient und komplexe Aufgaben in eine Sequenz einfacherer Schritte zerlegt werden
    • Selbstreflexive Prompts einsetzen, bei denen das Modell seine eigene Ausgabe kritisch prüft, Fehler identifiziert und verbesserte Versionen liefert
    • Multi-Turn-Konversationen  strategisch führen, indem Kontext erhalten, Feedback eingearbeitet und  Anforderungen iterativ verfeinert werden
  • 9. Integration in Entwicklungsumgebungen und Produktionsbetrieb
    • LLM-Integrationen in IDEs wie Cursor, GitHub Copilot oder Codeium nutzen und deren  Prompting-Mechanismen verstehen, um die Autovervollständigung und  Code-Assistenz zu optimieren
    • Prompts wie Produktionscode behandeln, indem sie versioniert, getestet und  dokumentiert werden und Änderungen durch Evaluierungen auf  Qualitätseinbußen geprüft werden
    • Kosten- und Latenz-Optimierung betreiben durch effiziente Prompt-Gestaltung, Prompt Caching und die Wahl geeigneter Modelle für unterschiedliche  Aufgabentypen
  • Praxisübung: Einen vollständigen Entwicklungs-Workflow mit Prompt Engineering durchlaufen
    • Die  Teilnehmer bearbeiten eine Entwicklungsaufgabe von der Spezifikation  bis zur dokumentierten Lösung ausschließlich durch gezielte Prompts.  Zunächst wird eine Anforderung in einen strukturierten Prompt für die  Codegenerierung übersetzt und der erzeugte Code kritisch geprüft.  Anschließend wird das Modell als Code Reviewer eingesetzt, um  Schwachstellen zu identifizieren, und die vorgeschlagenen Verbesserungen werden durch Refactoring-Prompts umgesetzt. Die Teilnehmer generieren Testfälle für Randfälle und lassen Inline-Dokumentation sowie eine README-Datei erstellen. Es werden verschiedene Prompt-Varianten verglichen, um deren Auswirkung auf Codequalität und Vollständigkeit zu beobachten. Abschließend wird ein wiederverwendbares Prompt-Template erstellt, das die effektivsten Techniken kombiniert und für künftige Aufgaben im eigenen Entwicklungsalltag eingesetzt werden kann.

There are no reviews yet.
    Share your review
    Do you have experience with this course? Submit your review and help other people make the right choice. As a thank you for your effort we will donate $1.- to Stichting Edukans.

    There are no frequently asked questions yet. If you have any more questions or need help, contact our customer service.