Geschätzte Lesezeit: 4 Min.
High Performance Computing: Das Fundament für die Zukunft der Künstlichen Intelligenz
Der Zulauf zu den Anwendungen der künstlichen Intelligenz (KI) in der Wirtschaft hält global und in Deutschland ungebrochen an. Komplexe Datenanalysen, digitale Businessmodelle, Hyperpersonalisierung: Die Geschäftsfelder der KI multiplizieren sich stetig weiter aus.
79 % der in einer Deloitte-Studie aus dem Jahr 2020 befragten Unternehmer sehen die KI-Technologie bereits als erfolgskritischen Faktor mit hoher Bedeutung für das eigene Geschäft. Ein zentraler Baustein für das Funktionieren der KI-Anwendungen in der Praxis ist die hohe Rechenleistung des High Performance Computing (HPC).
Anwendungsvielfalt mit großem Rechenbedarf
Prognosen zufolge wird der Umsatz mit technischen Lösungen aus dem Bereich der künstlichen Intelligenz weltweit bis 2025 auf über 31 Milliarden US-Dollar anwachsen. Grund für diese dynamische Entwicklung ist der vielfältige Nutzen von KI.
Sie unterstützt etwa das strategische Unternehmensmanagement bei der Entscheidungsfindung auf Basis umfassender Datenauswertungen, sorgt für neue Effizienz durch Prozessautomatisierung in der Industrie 4.0. oder bildet sogar gänzlich die Grundlage neuer digitaler Geschäftsmodelle, die sich durch eine hochpersonalisierte Produktpalette auszeichnen.
All diese Innovationen setzen freilich zwei Dinge voraus: eine solide und breit gestreute Datengrundlage sowie Rechnerstrukturen, die in der Lage sind, diese in hoher Detailtreue und angemessener Geschwindigkeit zu verarbeiten.
HPC: Die flexible Grundlage für hochkomplexe Datenanalysen
Hier kommt das High Performance Computing ins Spiel. Durch die Verbindung hochleistungsfähiger Prozessoren in Server-Clustern und gesteuert durch eine intelligente Management-Software schaffen HPC-Anlagen die Voraussetzung dafür, dass die heute in enormen Mengen generierten Daten gespeichert und vor allem vielschichtig verarbeitet werden können.
Laut dem Forschungsunternehmen idc verdoppelt sich das weltweite Datenvolumen alle zwei Jahre und wird im Jahr 2025 die Marke von 175 Billionen Gigabyte erreicht haben. Dies entspricht einem DVD-Stack in der Länge von 222 Erdumrundungen. Die Datenflut befördert die Qualität von KI-Anwendungen, die sich maßgeblich auf Big Data stützt. Dies jedoch doch nur, wenn sie durch High Performance Computing in einem produktiven Workflow nutzbar gemacht werden kann.
Neue Dimensionen der Datendiversität erschließen
Denn ein anspruchsvolles HPC-Rechnercluster für Big Data beschränkt sich nicht nur auf die Verarbeitung hoher Datenquantität, sondern muss auch in der Lage sein, die unterschiedlichen Formate an Informationsquellen, die die KI-Innovationen produzieren, intelligent zu verknüpfen.
Denn die immer häufiger eingesetzten modernen Algorithmen schließen eine große Bandbreite an Parametern wie Bilder, Texte, Skizzen und Zeichnungen in das Analyse-Universum mit ein. Weitere Datenkomplexität auf der Input-Seite ist mit dem Fortschritt der Sensorik auf dem Gebiet des Machine Learnings zu erwarten.
In der Medikamentenforschung werden die Effekte von Wirkstoffgaben mittlerweile in präzisen Kombinationen, Dosierungen und in Abhängigkeit von hyperpersonalisierten Patientendaten simuliert. Mit Hilfe von computergestützten Simulationen bei der Motorenentwicklung in der Automobilindustrie können heute verschiedene Designs auf ihre Leistungsfähigkeit unter Realbedingungen digital untersucht werden.
Früher ging mit derartigen Modellierungen ein großer Zeit- und Personalaufwand einher. Durch das High Performance Computing kann die Dauer für die Simulationsphasen in den Modellen von einigen Wochen auf wenige Stunden reduziert werden. Verschiedene Designs, Lösungswege und Ansätze können in schneller Abfolge ausprobiert werden, um schließlich das optimale Produkt zu identifizieren.
Auch bei Genanalysen im Zuge der Virusforschung in der Pandemie sind HPC-gestützte Rechenmodelle bereits zur Anwendung gelangt. Natural Language Processing setzt auf sensible Audiodatenverarbeitung, die mit High Performance Computing zuverlässig gewährleistet werden kann.
Weitere Durchbrüche sind auf dem Feld der künstlichen neuronalen Netzwerke etwa in der Krebsforschung zu beobachten. Hier ist es gelungen Netzwerke zu schaffen, welche sich autonom weiterentwickeln und selbst neue Lösungsmodelle entwickeln. Die Beispiele zeigen die Bandbreite der neuen technischen Möglichkeiten, die KI und HPC, in Kombination angewandt, eröffnen.
Die skalierbare Rechenleistung wie sie die HPC-Technologie bietet, erlaubt eine flexible Anpassung an den Bedarf für die immer weiter ausdifferenzierten KI-Anwendungen. Zudem sorgen neue Package-Lösungen für eine zeitnah implementierbare Daten-Infrastruktur, in der Soft- und Hardware mit dem Ziel der Optimierung des KI-Workflows, eng aufeinander abgestimmt sind.
Intensität und Effizienz: Das Datenzentrum für KI-Innovationen
Ein Vertreter aus der HPC-Wirtschaft, der sich mit einem derartigen qualitativ anspruchsvollen Ansatz global positioniert hat, ist die deutsche Northern Data AG. Mit stationären wie mobilen Rechnerzentren jeweils aus einer Hand, begegnet man der steigenden Nachfrage nach Rechenpower mit einem breiten Angebot.
Variabilität in der Skalierung der Rechenleistung und die Fähigkeit verschiedenartige Workflows parallel zu prozessieren, sind die Kriterien nach der die neue Datenarchitektur ausgerichtet ist. Neben den Multicore-Prozessoren in großer Packungsdichte, die für die hohe Rechenintensität sorgen, geht es auch um bestmögliche Effizienz beim Energieverbrauch. Um die entstehende Abwärme der Highspeed-Server auszugleichen, wird bereits bei der Planung das Strömungsverhalten der Luftmassen berücksichtigt.
Die modernsten Rechenzentren machen sich Umweltfaktoren am Standort zur Effizienzsteigerung zu Nutze. So etwa ein in diesem Jahr von der Northern Data AG übernommenes Rechenzentrum in Nordschweden, welches durch erneuerbarer Hydropower angetrieben, von den Kühlungseffekten durch die ganzjährig niedrigen Außentemperaturen profitiert. Die Verbesserung der Energiebilanz, die mit einem PUE-Wert (Power Usage Effectiveness) nahe eins ausgedrückt wird, reduziert die Kosten für die HPC-Leistung und damit für den Einsatz von KI-Innovationen.
Der Schritt in die Praxis: Die Implementierung von KI und die Bedeutung externer Expertise
Die Machbarkeitsstudien zur KI haben gezeigt: Die verbesserte Kostenbilanz und die zu erwartenden Produktivitätssteigerungen machen mittelfristig die strategische Ausrichtung auf KI für fast jedes Unternehmen unumgänglich, um im Wettbewerb der Zukunft zu bestehen.
Mit zu den größten Herausforderungen zählt freilich der Aufbau und die Wartung der komplexen Technik mitsamt des dahinter stehenden Computings. Der Ansatz, die eigene IT-Abteilung mit der Verknüpfung und Konfigurationen von einzeln bestellter Hard- und Software zur Steigerung der Rechenpower zu beauftragen, ist theoretisch möglich, aber angesichts der neuen HPC-Lösungen längst nicht mehr der Königsweg.
HPC-Anbieter wie die wachsende Northern Data AG besitzen Erfahrungswerte im Betrieb und der Wartung hochleistungsfähiger Server-Strukturen, mit denen ohne mehrjährige Spezialisierung schwer gleichzuziehen ist. Durch ein Outsourcing des HPC-Segments werden zudem Zeit- und Personalressourcen für andere IT-Entwicklungsschritte im Unternehmen verfügbar.
Die HPC-Datenarchitektur: Qualitätssprung bei der Digitalisierung
In der engen Verbindung von KI und HPC liegt großes Potential für leistungsstarke Zukunftsinnovationen. Denn je näher die digitalen Simulationen an die physische Realwelt rücken, je mehr Einflussfaktoren durch die Algorithmen auf Basis der HPC-Rechenkraft berechnet werden können, desto schneller können Innovationen auch ohne großen Materialaufwand geprüft und in der Folge verbessert werden.
Es ist zu erwarten, dass das Tempo auf dem Weg zu neuen Erkenntnisgewinnen noch mehr an Fahrt aufnehmen wird. Die zügige Entwicklung eines Impfstoffs in der Biotechnologie ist dafür nur ein Beispiel. Ähnliche Fortschritte sind in der Industrie, dem Smart Farming, dem autonomen Fahren oder im Bereich IoT schon jetzt absehbar.