Hewlett Packard Enterprise startet KI-Cloud für große Sprachmodelle

LAS VEGAS, den 20. Juni 2023 – HPE Discover 2023 – HPE GreenLake for Large Language Models (LLMs) ist das erste Angebot aus der neuen Supercomputer-Cloud von Hewlett Packard Enterprise (NYSE: HPE). Der Cloud-Dienst kann von Organisationen jeder Größe genutzt werden und wird in Partnerschaft mit dem deutschen KI-Unternehmen Aleph Alpha bereitgestellt. Damit steht Kunden ein praxiserprobtes und sofort einsatzbereites LLM für Anwendungsfälle zur Verfügung, die Text- und Bildverarbeitung und -analyse erfordern.

HPE GreenLake for LLMs ist die erste in einer Reihe von branchen- und domänenspezifischen KI-Anwendungen, die HPE über seine multimandantenfähige Supercomputer-Cloud auf den Markt bringen wird. Dazu gehören Klimamodellierung, Gesundheitswesen und Biowissenschaften, Finanzdienstleistungen, Fertigung und Transportwesen.

„Wir befinden uns mit KI in einem Wandel, der den Markt ebenso stark verändern wird wie das Web, Mobile Computing und die Cloud“, sagt Antonio Neri, President und CEO von HPE. „KI war einst die Domäne von staatlich finanzierten Institutionen und Cloud-Giganten. HPE macht sie jetzt mit einer Reihe von KI-Anwendungen allen zugänglich, beginnend mit großen Sprachmodellen, die auf HPEs bewährten und nachhaltigen Supercomputern laufen. Jetzt können Organisationen KI nutzen, um Innovationen voranzutreiben und Märkte zu verändern – mit einem On-Demand-Cloud-Service, der Modelle im großen Maßstab und auf verantwortungsvolle Weise trainiert, optimiert und betreibt.“

HPE ist globaler Marktführer im Supercomputing. Im vergangenen Jahr gelang dem Unternehmen mit Frontier, dem schnellsten Supercomputer der Welt, der Durchbruch der Exascale-Geschwindigkeitsgrenze.

Im Gegensatz zu General-Purpose-Clouds, die mehrere Anwendungen parallel ausführen, läuft HPE GreenLake for LLMs auf einer KI-nativen Architektur, die speziell für die Ausführung einer großen KI-Trainings- und Simulations-Umgebung entwickelt wurde. Das Angebot unterstützt KI- und HPC-Aufgaben auf Hunderten oder Tausenden von CPUs oder GPUs gleichzeitig. Das ist wesentlich effektiver, zuverlässiger und effizienter für das KI-Training und erlaubt die Entwicklung präziserer KI-Modelle. Kunden können damit ihren Weg vom Proof of Concept bis zum produktiven Einsatz beschleunigen und Probleme schneller lösen.

HPE GreenLake for LLMs beinhaltet den Zugang zu Luminous, einem vortrainierten großen Sprachmodell von Aleph Alpha, das in mehreren Sprachen angeboten wird: Englisch, Französisch, Deutsch, Italienisch und Spanisch. Kunden können dabei ihre eigenen Daten nutzen, um ein individuelles Modell zu trainieren und zu optimieren.

„Mithilfe von HPEs Supercomputern und KI-Software haben wir Luminous effizient und schnell trainiert – als großes Sprachmodell für geschäftskritische Abläufe beispielsweise in Banken, Krankenhäusern oder Anwaltskanzleien. Luminous kann als digitaler Assistent eingesetzt werden, um die Entscheidungsfindung zu beschleunigen und Zeit und Ressourcen zu sparen“, sagte Jonas Andrulis, Gründer und CEO von Aleph Alpha. „Wir sind stolz darauf, ein Launch-Partner von HPE GreenLake for Large Language Models zu sein und wir freuen uns, die Zusammenarbeit mit HPE zu erweitern, indem wir Luminous auf die Cloud ausweiten und es unseren Endkunden als Service anbieten, um neue Anwendungen für Geschäfts- und Forschungsinitiativen zu entwickeln.“

HPE Cray XD und HPEs KI/ML-Software als Grundlage der KI-Cloud

HPE GreenLake for LLMs wird auf HPE-Cray-XD-Supercomputern laufen – den weltweit leistungsstärksten und nachhaltigsten ihrer Art. Kunden müssen damit keine eigenen Supercomputer kaufen und betreiben, was in der Regel kostspielig und komplex ist und spezielle Fachkenntnisse erfordert. Das Angebot umfasst das HPE Cray Programming Environment, eine Software-Suite zur Optimierung von HPC- und KI-Anwendungen, mit Werkzeugen für die Entwicklung, Portierung, Fehlersuche und Optimierung von Codes. Darüber hinaus unterstützt die Supercomputing-Plattform die KI/ML-Software von HPE, darunter das HPE Machine Learning Development Environment zum schnellen Trainieren großer Modelle und die HPE Machine Learning Data Management Software zum Integrieren, Nachverfolgen und Prüfen von Daten mit reproduzierbaren KI-Funktionen, mit denen sich vertrauenswürdige und präzise Modelle bauen lassen.

HPE GreenLake for LLMs wird in Colocation-Rechenzentren betrieben – etwa bei der Firma QScale (Quebec), die eine spezielle Umgebung für Supercomputer bereitstellt, die mit nahezu 100 Prozent erneuerbarer Energie betrieben werden.1

Verfügbarkeit

HPE GreenLake for LLMs kann ab sofort geordert werden, zusätzliche Kapazität wird bis zum Ende des Jahres 2023 zur Verfügung gestellt. Das Angebot ist zunächst in Nordamerika verfügbar. Europa folgt Anfang 2024.

HPE kündigte außerdem eine Erweiterung seiner Server-Lösungen für die KI-Inferenz an. Die neuen Server der Familie HPE ProLiant Gen11 sind für KI-Anwendungen optimiert und mit Grafikprozessoren ausgestattet. Die Gen11-Systeme HPE ProLiant DL380a und DL320 beschleunigen die KI-Inferenz im Vergleich zu den Vorgängermodellen um mehr als das Fünffache.2 Weitere Informationen finden Sie unter HPE ProLiant Servers for AI.

HPE Services bietet ein umfassendes Dienstleistungsportfolio, das Strategie und Design, Betrieb und Management für KI-Initiativen umfasst.

Weitere Informationen zu HPE GreenLake for Large Language Models (LLMs) finden Sie unter: https://www.hpe.com/greenlake/llm