Seminare
Seminare

Live-Online: Machine Learning 2.0: Transformer für Sprachverarbeitung und Bildgenerierung: Grundlagen, Konzepte und Erstellung von Transformer-Modellen für generative KI-Anwendungen

Webinar - Haufe Akademie GmbH & Co. KG

Die Transformer-Architektur bildet die technische Grundlage generativer KI-Modelle wie GPT, Claude und Gemini und hat diese durch ihren neuartigen technologischen Ansatz erst ermöglicht. Mit ihr können besonders große Datenmengen verarbeitet und kontextreiche Repräsentationen von Daten erzeugt werden – in Form von Sprache, Bildern, Videos und numerischen Daten. In diesem Training werden die Kernkonzepte der Transformer-Technologie sowie ihre Funktionsweise detailliert erörtert und in praktischen Anwendungsbeispielen demonstriert. Ziel ist es, ein tiefes Verständnis für Transformer-Modelle zu entwickeln, um selbst Modelle zu entwickeln, zu trainieren und in verschiedenen Kontexten einsetzen zu können. Das Online-Seminar konzentriert sich primär auf den Einsatzbereich Sprachverarbeitung, einschließlich Übersetzung, Zusammenfassung, Sentiment-Analyse und Frage-Antwort-Systeme. Zusätzlich wird ein Einblick in die Bilderkennung und -klassifizierung gegeben, um die Vielseitigkeit von Transformer-Modellen zu verdeutlichen.
Termin Ort Preis*
12.03.2025- 14.03.2025 online 2.249,10 €
23.06.2025- 25.06.2025 online 2.249,10 €
16.09.2025- 18.09.2025 online 2.249,10 €
09.03.2026- 11.03.2026 online 2.249,10 €

Alle Termine anzeigen

*Alle Preise verstehen sich inkl. MwSt.

Detaillierte Informationen zum Seminar

Inhalte:

1. Der Weg bis zur Transformer-Technologie


  • Warum sind Transformer eine bahnbrechende Entwicklung?
  • Einsatzmöglichkeiten für Transformer-Modelle
  • Der Weg bis zur Transformer-Technologie
  • Überwachtes und unüberwachtes Lernen
  • Die Zusammenhänge mit Deep Learning und Neuronalen Netzen


2. Voraussetzungen zum Verständnis von Transformern


  • Multi-Layer Perception (MLP) und Feed-Forward-Netzwerke (FNN)
  • Verlustfunktionen, Batch-Normalisierung und Encoder-Decoder-Architektur (ResNet)
  • Einführung in N-Gramm und Word2Vec
  • Recurrent Neural Networks (RNN) und Long Short-term Memory (LSTM)


3. Die Transformer-Architektur im Detail erklärt


  • Transformer für große Sprachmodelle (LLM) verwenden
  • Wort-Einbettungen, Positionsverschlüsselung, Self-Attention und Multihead-Attention
  • Verbinden der Bausteine des Transformers
  • Transformer-Modelle im Vergleich: BERT versus GPT
  • Transformer für die Erkennung und Generierung von Bilddaten
  • Architektur und Einsatz von Vision Transformern


4. Anwendung von Transformer-Modellen


  • Anweisungstuning und Strategien für effektives Prompt Engineering
  • Integration von Retrieval Augmented Generation (RAG) mit Transformer-Architekturen
  • Fähigkeiten von Transformern zur Generierung verschiedener Medientypen
  • Skalierbarkeit und adversariale (feindliche) Angriffe auf Transformer
Dauer/zeitlicher Ablauf:
3 Tage
Ziele/Bildungsabschluss:

Du erfährst alles über die technischen und mathematischen Grundlagen der neuen Transformer-Technologie und der Modelle, die damit entwickelt werden.


 


Du bekommst einen fundierten Eindruck davon, welche Möglichkeiten Transformer bieten und wo ihre Grenzen liegen.


 


Du verstehst, wie generative KI im Detail funktioniert und wie du generative KI in den Bereichen Text- und Bildgenerierung entwickelst.


 


Du lernst mit Retrieval Augmented Generation (RAG) ein Verfahren kennen, mit dem du mit Transformern externe Informationen verarbeiten kannst.


 


Du erhältst Einsichten in das Training, in die Evaluation, in die Anwendung und Integration von Transformer-Modellen.

Zielgruppe:

Dieses Training richtet sich an alle, die die komplexe Transformer-Technologie im Detail verstehen und im Rahmen von eigenen Projekten einsetzen möchten.


 


Developer, die Applikationen mit generativer KI entwickeln möchten, erfahren, wie die dahinter liegenden Datenmodellen aufgebaut sind und wie sie funktionieren.


 


Data Scientists und Data Analysts erfahren, wie Modelle mit der Transformer-Technologie erstellt werden und wie sie für Datenanalysen herangezogen werden können.


 


Software-Architekten und -Designer lernen die Konzepte kennen, die hinter generativer KI und großen Sprachmodellen stehen, und bekommen Impulse für Integration und Deployment.


 


Grundlegende Kenntnisse in mathematischer Algebra, Statistik und Machine-Learning-Konzepten werden vorausgesetzt.


 


Dieser Kurs ist ein wertvoller Baustein in der Qualifizierung zum Machine Learning Engineer, Data Engineer und Data Scientist.

Seminarkennung:
40860
Nach unten
Nach oben
Wir setzen Analyse-Cookies ein, um Ihre Zufriedenheit bei der Nutzung unserer Webseite zu verbessern. Diese Cookies werden nicht automatisiert gesetzt. Wenn Sie mit dem Einsatz dieser Cookies einverstanden sind, klicken Sie bitte auf Akzeptieren. Weitere Informationen finden Sie hier.
Akzeptieren Nicht akzeptieren









Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha



Bei der Verarbeitung Ihrer personenbezogenen Daten im Zusammenhang mit der Kontaktfunktion beachten wir die gesetzlichen Bestimmungen. Unsere ausführlichen Datenschutzinformationen finden Sie hier. Bei der Kontakt-Funktion erhobene Daten werden nur an den jeweiligen Anbieter weitergeleitet und sind nötig, damit der Anbieter auf Ihr Anliegen reagieren kann.







Um Spam abzuwehren, geben Sie bitte die Buchstaben auf dem Bild in das Textfeld ein:

captcha