Storage Training

Storage Training
Kontakt | Standorte

 Sie sind hier: Home >> Workshops >> Künstliche Intelligenz >> AW234 MLOps Engineering on AWS

Finden:
Workshops 
  Automic (UC4) 
  AWS 
  Backup & Recovery 
  Brocade 
  Cloud 
  Commvault 
  Datenbanken 
  DevOps 
  Fujitsu 
  Governance, Risk & Compliance  
  Hochverfügbarkeit 
  Industrie 4.0 
  Künstliche Intelligenz 
  Linux/Unix 
  Microsoft 
  NetApp 
  NetApp für Partner 
  Netzwerke 
  SAP 
  Security & Datenschutz 
  Softwareentwicklung 
  Storage Solutions 
  Veeam 
  Virtualisierung 
  Web-Seminare 
  Zertifizierungen 

Training: AWS - Cloud - Künstliche Intelligenz - Zertifizierungen

AW234 MLOps Engineering on AWS

 

Kursbeschreibung (description):
Fachkräfte im Bereich Kundenservice und Datenanalyse lernen Techniken der Sentimentanalyse mit Sprachmodellen kennen. Vermittelt werden Embeddings, Zero Shot Classification und Clustering sowie deren Umsetzung mit Large Language Models wie OpenAI oder Aleph Alpha. Behandelt wird, wie Kundenfeedback und Social-Media-Inhalte zuverlässig analysiert und für gezielte Maßnahmen genutzt werden können.
Zielgruppe (target group):
Dieser Kurs AW234 MLOps Engineering on AWS richtet sich an:
  • MLOps Engineers, die ML-Modelle in der AWS Cloud produktiv setzen und überwachen möchten
  • DevOps Engineers, die für die erfolgreiche Bereitstellung und Wartung von ML-Modellen in der Produktion verantwortlich sind

Voraussetzungen (requirements):
Um an dem Kurs AW234 MLOps Engineering on AWS bei qSkills teilnehmen zu können, müssen Sie die folgenden AWS-Trainings besucht haben:
Eine Teilnahme an den folgenden AWS-Trainings ist im Vorfeld empfehlenswert:
  • The Elements of Data Science
  • oder vergleichbare Praxiserfahrung
  • Machine Learning Terminology and Process

Ziele (objectives):
In diesem Kurs AW234 MLOps Engineering on AWS lernen Sie:
  • Die Vorteile von MLOps zu erläutern
  • DevOps und MLOps zu vergleichen und gegenüberzustellen
  • Sicherheits- und Governance-Anforderungen für einen ML-Anwendungsfall zu bewerten und mögliche Lösungen sowie Gegenmaßnahmen zu
    beschreiben
  • Experimentierumgebungen für MLOps mit Amazon SageMaker einzurichten
  • Best Practices für Versionierung und Integritätssicherung von ML-Modellartefakten (Daten, Modell und Code) zu erklären
  • Drei Optionen zur Erstellung einer vollständigen CI/CD-Pipeline im ML-Kontext zu beschreiben
  • Best Practices zur Implementierung von automatisiertem Packaging, Testing und Deployment (Daten/Modell/Code) zu benennen
  • Zu demonstrieren, wie ML-basierte Lösungen überwacht werden
  • Zu demonstrieren, wie eine ML-Lösung automatisiert wird, die ein Modell testet, verpackt und bereitstellt, Leistungsabfälle erkennt und das Modell mit neuen Daten neu trainiert

Preis und Dauer (price and duration):
Dauer (duration): 3 Tage
Preis (price): 1995,- Euro zzgl. MwSt.

Eine Druckansicht dieses Workshops finden Sie hier.
Termine (dates):
Termine auf Anfrage.
Falls Sie einen Terminwunsch für diesen Workshop haben, werden wir dies gerne für Sie prüfen!
Inhalte (agenda):
  • Einführung in MLOps
    • Prozesse
    • Personen
    • Technologie
    • Sicherheit und Governance
    • MLOps-Reifegradmodell

  • Initial MLOps: Experimentierumgebungen in SageMaker Studio
    • MLOps in das Experimentieren bringen
    • Einrichten der ML-Experimentierumgebung
    • Demonstration: Erstellen und Aktualisieren einer Lifecycle-Konfiguration für SageMaker Studio
    • Praktische Übung: Bereitstellen einer SageMaker-Studio-Umgebung mit dem AWS Service Catalog
    • Workbook: Initial MLOps

  • Repeatable MLOps: Repositories
    • Datenmanagement für MLOps
    • Versionskontrolle von ML-Modellen
    • Code-Repositories im ML-Kontext

  • Repeatable MLOps: Orchestrierung
    • ML-Pipelines
    • Demonstration: Einsatz von SageMaker Pipelines zur Orchestrierung von Modellaufbau-Pipelines
    • End-to-End-Orchestrierung mit AWS Step Functions
    • Praktische Übung: Automatisieren eines Workflows mit Step Functions
    • End-to-End-Orchestrierung mit SageMaker Projects
    • Demonstration: Standardisierung einer End-to-End-ML-Pipeline mit SageMaker Projects
    • Verwendung von Drittanbieter-Tools für Wiederholbarkeit
    • Demonstration: Human-in-the-Loop beim Inferenzprozess
    • Governance und Sicherheit
    • Demonstration: Sicherheits-Best-Practices für SageMaker
    • Workbook: Repeatable MLOps

  • Reliable MLOps: Skalierung und Testing
    • Skalierung und Multi-Account-Strategien
    • Testing und Traffic Shifting
    • Demonstration: Einsatz von SageMaker Inference Recommender
    • Praktische Übung: Testen von Modellvarianten
    • Praktische Übung: Traffic Shifting
    • Workbook: Multi-Account-Strategien

  • Reliable MLOps: Monitoring
    • Bedeutung des Monitorings im ML
    • Praktische Übung: Überwachen eines Modells auf Datenabweichungen
    • Betriebliche Überlegungen zum Modellmonitoring
    • Behebung von Problemen, die beim Monitoring von ML-Lösungen erkannt werden
    • Workbook: Reliable MLOps
    • Praktische Übung: Erstellen und Troubleshooten einer ML-Pipeline