Detaillierte Informationen zum Seminar
Inhalte:
Modul 1: Entwicklung generativer KI-Lösungen mit Azure OpenAI Service\n\nIn diesem Modul wird der Azure OpenAI Service vorgestellt. Es wird erläutert, wie man darauf zugreift, generative KI-Modelle erforscht und sie einsetzt. Es erklärt die Unterschiede zwischen Vervollständigungen und Chat und wie man Aufforderungen verwendet, um Vervollständigungen von Modellen zu erhalten. Darüber hinaus wird das Testen von Modellen in den Playgrounds von Azure OpenAI Studio und die Integration von Azure OpenAI in Anwendungen mithilfe von REST API und SDK erläutert. Das Modul befasst sich auch mit der Entwicklung von Prompts, der Generierung von Code und Bildern, der Implementierung von Retrieval Augmented Generation (RAG) und der Planung verantwortungsvoller generativer KI-Lösungen.\n\nModul 2: Entwicklung eigener Copiloten mit Azure AI Studio\n\nDieses Modul bietet eine Einführung in Azure AI Studio und stellt die wichtigsten Funktionen, Möglichkeiten und Anwendungsfälle vor. Es erklärt, wie Sie eine RAG-basierte Copilot-Lösung mit Ihren eigenen Daten erstellen und die Grundlagen der Entwicklung von Copiloten mit Prompt Flow. Das Modul behandelt die Integration eines fein abgestimmten Sprachmodells in Ihren Copiloten und die Bewertung seiner Leistung. Es wird betont, wie wichtig es ist, den Entwicklungslebenszyklus zu verstehen und LangChain in Prompt Flow zu verwenden.\n\nModul 3: Entwicklung von KI-Agenten mit Azure OpenAI und dem Semantic Kernel SDK\n\nDieses Modul konzentriert sich auf die Entwicklung von KI-Agenten mit dem Semantic Kernel SDK, beginnend mit dem Verständnis des Zwecks von Semantic Kernel und effektiven Prompting-Techniken. Es wird erklärt, wie man KI-Agenten mit Hilfe von nativen Funktionen Fähigkeiten verleiht und Plugins für Semantic Kernel erstellt. Das Modul behandelt auch die Bereitstellung von Status und Historie mit Kernel Memory, die Verwendung intelligenter Planer und die Integration verschiedener KI-Dienste mit Semantic Kernel. Darüber hinaus werden die Implementierung von Copiloten und Agenten, die Erledigung von Mehrschrittaufgaben und die Verwendung von Personas mit Agenten behandelt.\n\nModul 4: Überwachung und Bereitstellung von LLM-Anwendungen\n\nDieses Modul umreißt den Bereitstellungsprozess für LLM-Anwendungen, einschließlich einer Einführung in Azure Container Apps und wie LLM-Anwendungen darauf bereitgestellt werden können. Es wird erklärt, wie man Azure OpenAI für .NET Chat mit RAG mit Azure Container Apps skaliert und dynamische Sitzungen verwaltet. Das Modul behandelt auch die Überwachung und Verwaltung von LLM-Anwendungen, um eine optimale Leistung zu gewährleisten.
Teilnahmevoraussetzungen:
Kenntnisse in C# und Python sind nützlich.
Zielgruppe:
KI-Entwickler, die lernen möchten, wie man KI-Agenten erstellt, oder die eine oder mehrere angewandte Fertigkeiten erwerben möchten.