AI Solutions on Cisco Infrastructure Essentials

Seminar / Firmentraining

Zielgruppe

  • Netzwerk-Designer
  • Netzwerk-Administratoren
  • Speicherverwalter
  • Netzwerk-Ingenieure
  • Systemingenieure
  • Rechenzentrum-Ingenieure
  • Beratende Systemingenieure
  • Architekten für technische Lösungen
  • Cisco Integratoren/Partner
  • Außendienst-Ingenieure
  • Server-Administratoren
  • Netzwerk-Manager
  • Program Managers
  • Projektleiter

Voraussetzungen

Für diese Schulung gibt es keine Voraussetzungen. Es handelt sich um ein Grundlagentraining, das von Anfängern bis zu fortgeschrittenen Inhalten reicht. Vertrautheit mit Cisco Data Center Networking- und Computing-Lösungen ist von Vorteil, aber keine Voraussetzung. Es wird jedoch empfohlen, dass Sie über die folgenden Kenntnisse und Fähigkeiten verfügen, bevor Sie an dieser Schulung teilnehmen:

  • Cisco UCS-Rechenarchitektur und -betrieb
  • Cisco Nexus-Switch-Portfolio und -Funktionen
  • Kerntechnologien für Rechenzentren

Diese Fähigkeiten können in den folgenden Cisco-Lernangeboten erworben werden:

  • Implementing and Operating Cisco Data Center Core Technologies (DCCOR)
  • Implementing Cisco NX-OS Switches and Fabrics in the Data Center (DCNX)
  • Introducing Cisco Unified Computing System (DCIUCS)

Inhalte

  • Beschreibung von Schlüsselkonzepten der künstlichen Intelligenz mit Schwerpunkt auf traditioneller KI, maschinellem Lernen und Deep-Learning-Techniken und deren Anwendungen
  • Beschreiben Sie generative KI, ihre Herausforderungen und Zukunftstrends und untersuchen Sie dabei die Unterschiede zwischen traditionellen und modernen KI-Methoden.
  • Erläutern Sie, wie KI die Netzwerkverwaltung und -sicherheit durch intelligente Automatisierung, vorausschauende Analysen und die Erkennung von Anomalien verbessert.
  • Beschreibung der Schlüsselkonzepte, der Architektur und der grundlegenden Verwaltungsprinzipien von KI-ML-Clustern sowie des Prozesses der Beschaffung, der Feinabstimmung, der Optimierung und der Verwendung von vortrainierten ML-Modellen
  • Nutzen Sie die Möglichkeiten von Jupyter Lab und Generative AI, um Netzwerkoperationen zu automatisieren, Python-Code zu schreiben und KI-Modelle für eine höhere Produktivität zu nutzen.
  • Beschreiben Sie die wesentlichen Komponenten und Überlegungen für den Aufbau einer robusten KI-Infrastruktur
  • Bewertung und Umsetzung effektiver Strategien zur Platzierung von Arbeitslasten und Gewährleistung der Interoperabilität innerhalb von KI-Systemen
  • Untersuchung von Compliance-Standards, Richtlinien und Governance-Rahmenwerken, die für KI-Systeme relevant sind
  • Beschreibung nachhaltiger AI-Infrastrukturpraktiken mit Schwerpunkt auf ökologischer und wirtschaftlicher Nachhaltigkeit
  • Leiten Sie AI-Infrastrukturentscheidungen zur Optimierung von Effizienz und Kosten
  • Beschreiben Sie die wichtigsten Netzwerkherausforderungen aus der Perspektive der KI/ML-Anwendungsanforderungen
  • Beschreiben Sie die Rolle von optischen und Kupfertechnologien bei der Ermöglichung von AI/ML-Rechenzentrums-Workloads
  • Beschreiben von Netzwerkkonnektivitätsmodellen und Netzwerkdesigns
  • Beschreiben Sie wichtige Layer-2- und Layer-3-Protokolle für KI und Fog Computing für verteilte KI-Verarbeitung
  • Migrieren Sie KI-Workloads auf ein dediziertes KI-Netzwerk
  • Erläuterung der Mechanismen und Abläufe von RDMA- und RoCE-Protokollen
  • Verstehen der Architektur und der Funktionen von Hochleistungs-Ethernet-Fabrics
  • Erläuterung der Netzwerkmechanismen und QoS-Tools, die für den Aufbau leistungsstarker, verlustfreier RoCE-Netzwerke erforderlich sind
  • Beschreiben Sie ECN- und PFC-Mechanismen, stellen Sie Cisco Nexus Dashboard Insights für die Stauüberwachung vor und untersuchen Sie, wie sich verschiedene Stufen von KI/ML-Anwendungen auf die Infrastruktur von Rechenzentren auswirken und umgekehrt.
  • Einführung in die grundlegenden Schritte, Herausforderungen und Techniken des Datenaufbereitungsprozesses
  • Verwendung von Cisco Nexus Dashboard Insights zur Überwachung von AI/ML-Verkehrsströmen
  • Beschreiben Sie die Bedeutung von KI-spezifischer Hardware für die Verkürzung der Trainingszeiten und die Unterstützung der erweiterten Verarbeitungsanforderungen von KI-Aufgaben
  • Verständnis der für die Ausführung von KI/ML-Lösungen erforderlichen Computerhardware
  • Verstehen bestehender AI/ML-Lösungen
  • Beschreiben Sie die Optionen für virtuelle Infrastrukturen und ihre Überlegungen bei der Bereitstellung
  • Erläuterung von Datenspeicherstrategien, Speicherprotokollen und softwaredefiniertem Speicher
  • Verwenden Sie NDFC, um eine für AI/ML-Workloads optimierte Fabric zu konfigurieren.
  • Verwendung lokal gehosteter GPT-Modelle mit RAG für netztechnische Aufgaben