Den KI-Trend in den Rechenzentren will Cisco mit neuem Servermodell und Konzepten für den eigenen KI-Cluster bedienen.
Vor rund 17.000 Teilnehmern bei der Amsterdamer Ausgabe seiner Hausmesse „Cisco Live” brachte Netzwerkspezialist Cisco einen ganzen Reigen von Ankündigungen rund um KI-Cluster aufs Podium. Den Anfang machte die Vorstellung des auf KI-Workloads optimierten neuen Rack-Servers UCS C845A M8 mit vier Höheneinheiten, den der Hersteller für Retrieval Augmented Generation und Inferenz-Aufgaben vorsieht.
Flexibel nachrüstbar
Der Server basiert auf Nvidias modularem Referenzdesign MGX und lässt sich flexibel bestücken: Er erlaubt die Ausstattung mit zwei, vier, sechs oder maximal acht Nvidia-GPUs. Das soll Kunden abholen, die zu Beginn noch nicht absehen können, wie viele GPUs sie für ihre KI-Projekte wirklich benötigen und deshalb Nachrüstmöglichkeiten wünschen.
Neben dem Einsatz für generative KI sieht der Hersteller den Server auch für Renderfarmen oder für anspruchsvolle VDI-Aufgaben gerüstet. Laut Datenblatt können Kunden derzeit zwischen Nvidias GPU-Modellen H100 NVL, H200 NVL oder L40S wählen, künftig erscheinende GPUs aber nachrüsten. Bei Systemen auf Basis von Nvidias H100/H200-NVL-Karten liegt ferner eine Fünfjahreslizenz für das von Nvidia kuratierte Open-Source-Softwarepaket AI Enterprise bei.
Den gesamten Artikel können Sie kostenlos auf Heise Online lesen.