Zertifizierter Händler seit über 35 Jahren
Mo.–Fr. 8:30 – 17:00 Uhr: 0 21 91 - 99 11 00
Mo.-Fr. 8:30 - 17:00 Uhr: 0 21 91 - 99 11 00
Logo EDV-BUCHVERSAND Delf Michel
Software & Fachbücher vom Experten
Logo EDV-BUCHVERSAND Delf Michel
Software & Fachbücher vom Experten
Mo.-Fr. 8:30 - 17:00 Uhr: 0 21 91 - 99 11 00
0
Skalierbare KI/ML-Infrastrukturen
Evaluieren, Automatisieren, Praxis
Kubernetes- und OpenShift-Cluster mit NVIDIAs Datacenter-GPUs
Skalierbare KI/ML-Infrastrukturen

Skalierbare KI/ML-Infrastrukturen

Evaluieren, Automatisieren, Praxis

Kubernetes- und OpenShift-Cluster mit NVIDIAs Datacenter-GPUs

Rheinwerk Verlag
Autor:in
468 Seiten, Hardcover
Erschienen
12/2022
978-3-8362-7393-0
9783836273930
 
 
Best.-Nr.:
Skalierbare KI/ML-Infrastrukturen

Moderne KI/ML-Modelle stellen hohe Anforderungen an die Infrastruktur. Die Verarbeitung der Daten bei Deep Learning und Analysen ist hochkomplex und erfordert moderne, spezialisierte Recheneinheiten, wie sie NVIDIA mit den Datacenter-GPUs anbietet. Oliver Liebel zeigt in diesem Wegweiser, wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen.

Blick ins Buch: skalierbare-ki-ml-infrastrukturen

Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen, die im Unternehmenseinsatz und echten Business Cases bestehen.

Betrachtet wird der ganze Infrastruktur-Stack, mit Fokus auf effizienter Vollautomation: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.

Container-Cluster für Machine Learning und KI


Best Practices für Planung und Umsetzung

Wenn große Datenmengen verarbeitet werden müssen und teure Investitionen anstehen, ist durchdachte Planung unabdingbar. Mit Hintergrundwissen und fundierten Markteinschätzungen treffen Sie richtige Entscheidungen für zukunftssichere KI/ML-Projekte und haben alle Kostenfaktoren im Blick.


Setzen Sie auf Industriestandards

In enger Zusammenarbeit mit NVIDIA wurden die vorgestellten Setups getestet und evaluiert. Sie profitieren von dieser Praxiserfahrung und erfahren, wie Sie GPUs in Kubernetes- und OpenShift-Cluster integrieren.


Zuverlässig und automatisiert skalieren

Operator-gestützte Vollautomation ist ein Muss, um KI/ML-Infrastrukturen skalierbar, resilient und kosteneffizient zu betreiben. Zahlreiche Beispiele führen Sie durch praxisnahe Konfigurationen, die für aktuelle und zukünftige Anforderungen gerüstet sind.

Aus dem Inhalt

  • KI/ML: Grundlagen und Use Cases
  • Infrastruktur planen: Cloud, On-Premises oder Hybrid?
  • Technischer Background: KI/ML mit NVIDIA-GPUs
  • GPU-Modi: Passthrough-MIG, MIG-backed vGPU und vGPU
  • NVIDIA-GPUs auf vSphere On-Prem implementieren
  • NVIDIA AI Enterprise
Hier das ganze Inhaltsverzeichnis lesen.
  • KI/ML-Cluster mit Kubernetes und OpenShift
  • GPU-spezifische Operatoren
  • GPU-Cluster in der Cloud
  • Von CI/CD über GitOps zu MLOps
  • ML-Pipelines & AI End-to-End

Getestete Setups stehen zum Download bereit.

Leseprobe

Datacenter-taugliche GPUs werden nach wie vor in grafische Workloads eingesetzt, darüber hinaus gibt es aber zahlreiche verschiedene Möglichkeiten, deren Rechenleistung einzusetzen. Diese Leseprobe befasst sich mit dem technischen Hintergrund der GPUs im Hinblick auf mögliche skalierbare Bereitstellungsarten. Insbesondere die Partitionierung einer physikalischen GPU ist besonders effizient für Workloads, die die Rechenkapazität nicht vollständig auslasten würden.

Wer hat's geschrieben?

Bild von Autor:in Oliver Liebel

Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte, Partner von Red Hat und SUSE und steht in engem Kontakt mit NVIDIAs EGX-Abteilung. Er ist seit vielen Jahren als Dozent, Autor, Berater und Systemarchitekt für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Der Spezialist für skalierbare und GPU-beschleunigte Container-Cluster auf Kubernetes-/OpenShift-Basis, High-Availability Cluster, Verzeichnisdienste und Software-Defined Storage greift dabei auf eine 30-jährige Berufserfahrung zurück.

Weitere Bücher von Oliver Liebel (2)

Bild von Autor:in Oliver Liebel
Skalierbare KI/ML-Infrastrukturen
Evaluieren, Automatisieren, Praxis
Kubernetes- und OpenShift-Cluster mit NVIDIAs Datacenter-GPUs
Skalierbare KI/ML-Infrastrukturen
Skalierbare KI/ML-Infrastrukturen
Evaluieren, Automatisieren, Praxis
Kubernetes- und OpenShift-Cluster mit NVIDIAs Datacenter-GPUs
Rheinwerk Verlag
Autor:in
468 Seiten, Hardcover
Erschienen
12/2022
978-3-8362-7393-0
9783836273930
 
 
Best.-Nr.:
Skalierbare KI/ML-Infrastrukturen