Seminar - WissensPiloten GmbH
In der Schulung Machine Learning - Sprachverarbeitung mit Transformern und Hugging Face lernen Sie, wie man die neuesten NLP-Technologien (Natural Language Processing) effizient nutzt. Sie erhalten einen Überblick über die grundlegenden Konzepte der maschinellen Sprachverarbeitung und werden in die Transformer Architecturen und die Verwendung von Hugging Face für maschinelles Lernen eingeführt.
Termin | Ort | Preis* |
---|---|---|
25.11.2024- 27.11.2024 | Dresden | 1.660,05 € |
25.11.2024- 27.11.2024 | Düsseldorf | 1.660,05 € |
25.11.2024- 27.11.2024 | München | 1.660,05 € |
25.11.2024- 27.11.2024 | Frankfurt am Main | 1.660,05 € |
25.11.2024- 27.11.2024 | Hamburg | 1.660,05 € |
25.11.2024- 27.11.2024 | Bielefeld | 1.660,05 € |
16.12.2024- 18.12.2024 | Frankfurt am Main | 1.660,05 € |
16.12.2024- 18.12.2024 | Bielefeld | 1.660,05 € |
16.12.2024- 18.12.2024 | Düsseldorf | 1.660,05 € |
16.12.2024- 18.12.2024 | Dresden | 1.660,05 € |
16.12.2024- 18.12.2024 | Hamburg | 1.660,05 € |
16.12.2024- 18.12.2024 | München | 1.660,05 € |
27.01.2025- 29.01.2025 | München | 1.660,05 € |
27.01.2025- 29.01.2025 | Bielefeld | 1.660,05 € |
27.01.2025- 29.01.2025 | Frankfurt am Main | 1.660,05 € |
27.01.2025- 29.01.2025 | Hamburg | 1.660,05 € |
27.01.2025- 29.01.2025 | Düsseldorf | 1.660,05 € |
27.01.2025- 29.01.2025 | Dresden | 1.660,05 € |
24.02.2025- 26.02.2025 | Bielefeld | 1.660,05 € |
24.02.2025- 26.02.2025 | Dresden | 1.660,05 € |
24.02.2025- 26.02.2025 | Düsseldorf | 1.660,05 € |
24.02.2025- 26.02.2025 | Frankfurt am Main | 1.660,05 € |
24.02.2025- 26.02.2025 | Hamburg | 1.660,05 € |
24.02.2025- 26.02.2025 | München | 1.660,05 € |
24.03.2025- 26.03.2025 | München | 1.660,05 € |
24.03.2025- 26.03.2025 | Frankfurt am Main | 1.660,05 € |
24.03.2025- 26.03.2025 | Dresden | 1.660,05 € |
24.03.2025- 26.03.2025 | Hamburg | 1.660,05 € |
24.03.2025- 26.03.2025 | Düsseldorf | 1.660,05 € |
24.03.2025- 26.03.2025 | Bielefeld | 1.660,05 € |
28.04.2025- 30.04.2025 | Düsseldorf | 1.660,05 € |
28.04.2025- 30.04.2025 | München | 1.660,05 € |
28.04.2025- 30.04.2025 | Frankfurt am Main | 1.660,05 € |
28.04.2025- 30.04.2025 | Hamburg | 1.660,05 € |
28.04.2025- 30.04.2025 | Bielefeld | 1.660,05 € |
28.04.2025- 30.04.2025 | Dresden | 1.660,05 € |
26.05.2025- 28.05.2025 | Bielefeld | 1.660,05 € |
26.05.2025- 28.05.2025 | Düsseldorf | 1.660,05 € |
26.05.2025- 28.05.2025 | München | 1.660,05 € |
26.05.2025- 28.05.2025 | Dresden | 1.660,05 € |
26.05.2025- 28.05.2025 | Hamburg | 1.660,05 € |
26.05.2025- 28.05.2025 | Frankfurt am Main | 1.660,05 € |
NLP (Natural Language Processing) ist ein Forschungsfeld der künstlichen Intelligenz, das sich mit der Verarbeitung und Analyse natürlicher Sprache befasst. Seit den 1950er Jahren wurden Computerprogramme zur automatischen Übersetzung entwickelt, aber erst in den letzten Jahrzehnten hat das NLP erhebliche Fortschritte gemacht. Anfangs wurden regelbasierte Systeme verwendet, um grammatische und semantische Strukturen zu analysieren. In den 1980er und 1990er Jahren kamen statistische Modelle zum Einsatz, die auf maschinellem Lernen basierten. Seit den späten 1990er Jahren haben tiefe neuronale Netze wie RNNs (Recurrent Neural Networks) Fortschritte in der Verarbeitung von Sprache ermöglicht. In jüngerer Zeit haben Transformer-Modelle, die auf dem Attention-Mechanismus basieren, große Aufmerksamkeit erregt, insbesondere das BERT-Modell. Diese Modelle haben zu bahnbrechenden Fortschritten in der Sprachverarbeitung, wie Textklassifikation und Sprachverständnis, geführt.
Sprachverarbeitung mittels maschinellem Lernen ist ein schnell wachsender Bereich der Künstlichen Intelligenz. Neue Methoden werden entwickelt, um die Entscheidungsfindung zu verbessern und den Umgang mit Textdaten zu vereinfachen.
Die neuesten Durchbrüche im Bereich von ChatGPT und datenzentrierten Algorithmen haben traditionelle regelbasierte Algorithmen überholt. Anstelle strenger Regeln basieren diese Modelle auf großen Mengen an Daten und nutzen maschinelles Lernen, um die menschliche Sprache besser zu verstehen und zu generieren. Dadurch können sie nuanciertere Antworten liefern und sich an verschiedene Situationen anpassen.
In unserer Schulung erhalten Sie einen umfassenden Überblick über Natural Language Processing (NLP). Wir werden die Geschichte dieses Forschungsfeldes beleuchten und uns mit statistischem NLP beschäftigen, welches mithilfe von maschinellem Lernen Muster in großen Mengen an Textdaten erkennt. Sie werden verstehen, wie diese verschiedenen Ansätze im Laufe der Zeit entwickelt wurden und welchen Einfluss sie auf die NLP-Technologien von heute haben. Durch praxisorientierte Übungen werden Sie zudem lernen, wie Sie NLP-Modelle auf Ihre eigenen Projekte anwenden können.
Diese Schulung behandelt die grundlegenden Konzepte der Transformationsarchitektur und der Hugging Face-Sprachverarbeitung. Wir werden uns zunächst mit dem Aufbau dieses Frameworks vertraut machen, bevor wir uns den Tokenizern, Attention Mechanismen, Encoder Modellen (BERT), Decoder Modellen (GPT-2) sowie den Sequence-to-Sequence Modellen (BART, T5) widmen.
Transformers sind eine Art von Deep-Learning-Modell, das für Aufgaben der Verarbeitung natürlicher Sprache (NLP) wie Textklassifizierung, Beantwortung von Fragen und maschinelle Übersetzung immer beliebter geworden ist. Der Tokenizer ist eine der Schlüsselkomponenten in der Transformer-Architektur und für die Zerlegung eines Satzes in kleinere Einheiten, sogenannte Token, verantwortlich. Ein Token kann ein einzelnes Wort, ein Part-of-Speech-Tag, ein Interpunktionszeichen oder eine andere syntaktische Einheit darstellen.
In dieser Schulung lernen Sie die Verwendung von Transformern mit HuggingFace kennen. Sie werden entdecken, wie Sie auf das Model Hub zugreifen können, um vortrainierte Modelle für verschiedene NLP-Aufgaben zu nutzen. Des Weiteren werden Sie das Fine-Tuning existierender Modelle erlernen, um sie an Ihre spezifischen Anforderungen anzupassen.
Durch praktische Übungen werden Sie in der Lage sein, diese leistungsstarken Modelle effektiv einzusetzen und maßgeschneiderte Lösungen für Ihre NLP-Projekte zu entwickeln.
Als Beispiel werden wir aus dem Bereich der Musikverarbeitung Bach-Choräle generieren.
Übersicht Natural Language Processing (NLP):
Transformer Architektur:
Transformer mit HuggingFace: