Wählen Sie Ihre Sprache

Green Datacenter Racks

AI as a Service: Souveräne KI-Lösung aus der Schweiz

KI verspricht enorme Chancen: Effizienzsteigerung, Innovation und Sicherung der Wettbewerbsfähigkeit. Doch wie lassen sich KI-Modelle sicher nutzen, ohne dass regulatorische Vorgaben und Datenverarbeitung im Ausland zum Stolperstein werden?

Phoenix und Green haben dafür eine souveräne AI-Lösung lanciert, die lokal in der Schweiz betrieben und gehostet wird. Sie basiert auf den neuesten Nvidia-H200-GPUs und ermöglicht den Einsatz führender Sprachmodelle. Thomas Taroni, Verwaltungsratspräsident von Phoenix Technologies und Marco Stadler, Chief Sales Officer von Green, erklären, wie Unternehmen ihre KI-Projekte mit der neuen Lösung umsetzen.


Datensouveränität, Kontrolle und Compliance sind zentrale Themen beim Einsatz von KI. Thomas Taroni, wie adressiert ihr diese?

Thomas Taroni: Unternehmen wollen jederzeit die Kontrolle über ihre Daten haben. Damit das gewährleistet ist, muss die Verarbeitung lokal erfolgen. Denn: Werden Daten von einer KI genutzt, müssen sie für die Berechnung kurz entschlüsselt werden. Würde das im Ausland geschehen, wären sie potenziell angreifbar. Bei unserer Lösung werden keine Daten im Ausland verarbeitet.
 

Bild: Thomas Taroni, Phoenix, im Gespräch mit Green

Wenn es um KI geht, ist der Schutz der Daten keine Option, sondern der einzige Weg.

Thomas Taroni, Präsident von Phoenix Technologies


Und es geht noch einen Schritt weiter: Souveränität bedeutet aus meiner Sicht auch, frei in der Wahl der Technologie zu sein. Unsere Kunden haben die Freiheit, unterschiedliche Modelle einzusetzen, sei es DeepSeek, Granite, Llama, Apertus und weitere mehr. Sie wählen bei unserer Lösung passgenau das für sie am besten geeignete Modell.

 

Heute befinden sich viele Unternehmensdaten in der Public Cloud. Ist es dann sinnvoll, auf die neue AI as a Service-Lösung von Phoenix und Green zu setzen?
 

Die meisten Unternehmen arbeiten mit hybriden IT-Architekturen: Einzelne Workloads laufen in der Public Cloud, zusätzlich werden SaaS-Dienste globaler Anbieter genutzt, und weitere Systeme werden noch selbst betrieben oder in Private Clouds gehostet. Um Kosten zu optimieren, ist es sinnvoll, Datenquellen und Datenverarbeitung möglichst nahe zusammenzubringen, auch physisch. Dieser Aspekt ergänzt die Frage der digitalen Souveränität.

Green ist für viele Hyperscaler mit Datenregion Schweiz der bevorzugte Datacenter-Anbieter. Dadurch bietet sich die Möglichkeit, KI-Cluster mit der neuen AI-Lösung in unmittelbarer Nähe zu den relevanten Datenquellen zu betreiben. Besonders attraktiv ist das für Unternehmen, die ihre private IT-Infrastruktur bei Green hosten: Über kosteneffiziente Cross-Connects lassen sich Unternehmensumgebungen direkt mit souveränen AI-Services verbinden.

 

Bild: Marco Stadler, CSO von Green

Es ist sinnvoller, die AI zu den Daten zu bringen, als die Daten zur AI.

Marco Stadler, Chief Sales Officer von Green


Können lokale KI-Cluster technologisch mithalten?

Thomas Taroni: Ja, absolut. Das sogenannte Inferencing, also die Nutzung trainierter Modelle, erfordert keine Gigafactories, wie wir das vom Training der Large Language Models (LLM) her kennen. Was für uns zählt, ist die Fähigkeit, trainierte Modelle für Anwendungen effizient bereitzustellen. Dafür setzen wir die neuesten Nvidia H200 GPUs ein. Das sind die ersten dieser Chips, die in Europa produktiv laufen, in den Datacentern von Green.
 


Was müssen moderne Rechenzentren leisten, um solche Workloads zu betreiben?

Marco Stadler: Natürlich die klassischen Dinge: Hochverfügbarkeit, Sicherheit, Redundanz. Dazu kommt die immer höhere Leistungsdichte, die moderne GPUs erfordern. Die Entwicklung schreitet schnell voran: Wir müssen in unseren Datacentern hybride Kühlung, also eine Kombination aus Luftkühlung mit Flüssigkühlung bereitstellen können. Viele Datacenter, die vor ein paar Jahren gebaut wurden, sind nicht für moderne GPU-Cluster ausgelegt. Wir bei Green sind es.
 

Marco Stadler, CSO Green:
«Viele Datacenter, die vor ein paar Jahren gebaut wurden, sind nicht für moderne GPU-Cluster ausgelegt. Wir bei Green sind es.»

 

Bild: Marco Stadler (Green) und Thomas Taroni (Phoenix)


Warum hat sich Phoenix Technologies für eine Zusammenarbeit mit Green entschieden?

Thomas Taroni: Wir arbeiten seit über zwölf Jahren zusammen. Rackspace kann man fast überall kaufen. Aber eine hochverfügbare Umgebung, in der man ein KI-Cluster betreiben kann, ist selten. Dazu kommt: Kühlung und Stromversorgung binden die Cluster noch stärker an das Gebäude. Datacenter und KI-Infrastruktur wachsen also zusammen. Und für uns ist auch Connectivity entscheidend: Nur bei Green fanden wir die Möglichkeit, mit mehreren Geolocations und hochperformanter Vernetzung zu arbeiten. Für uns ist Green klar technologisch führend.


Welche Rolle spielt die Connectivity für Kunden?

Marco Stadler: Eine sehr wichtige. Es geht um private Direktanbindungen, aber auch um die Fähigkeit, riesige Datenmengen in Millisekunden zu transferieren. Ein KI-Cluster kann in Sekunden ein halbes Petabyte Output generieren – Bilder, Videos, Simulationen. Diese Datenmengen müssen transportiert werden, ohne dass Engpässe entstehen. Leistungsfähige Connectivity ist das A und O. Darum setzen wir auf direkte Cross-Connects und 100-Gigabit-Layer-2-Verbindungen zwischen Datacenter-Standorten.

 

Wenn ein Unternehmen mit grossen, unstrukturierten Datenbeständen ein KI-Projekt startet, was ratet ihr?

Thomas Taroni: Wir haben ein Programm mit sieben Schritten entwickelt. Die ersten drei nennen wir «Get ready for AI». Daraus teile ich gerne einige Erkenntnisse:
 


Checkliste: Von unstrukturierten Daten zur KI-Anwendung


Vorbereitung:

  • Datenbestände analysieren und bereinigen
  • Input/Output-Beziehungen verstehen: Die KI lernt auf Basis von Input und Output – nur so kann sie sinnvolle Antworten liefern und Zusammenhänge erkennen.
  • Guardrails definieren und setzen: Welche Werte und Regeln soll die KI einhalten?

Pilotieren:

  • Erste Use Cases auswählen und testen
  • Ergebnisse validieren, Mitarbeitende schulen

Skalieren:

  • Breite Nutzung im Unternehmen ermöglichen
  • Infrastruktur und Prozesse anpassen


Warum sind Guardrails so wichtig?

Thomas Taroni: KI kennt keine Ethik von Haus aus. Sie lernt nur aus den Daten, die wir ihr geben. Darum müssen wir Leitplanken definieren. Das bedeutet auch, dass die KI lernen muss, wie sie auf heikle Fragen reagiert. Sie darf nicht einfach unkontrolliert antworten. Guardrails sind wie Verkehrsschilder: Sie zeigen der KI, wie sie sich im Alltag bewegen darf. Erst wenn diese Regeln im Pilot funktionieren, können Unternehmen KI für alle Mitarbeitenden freischalten.

 

Sollte man zuerst eine Vision haben oder gleich mit Use Cases starten?

Marco Stadler: Beides. Unternehmen brauchen eine Vision. Aber sie müssen auch pragmatisch erste Schritte gehen. Ein einfacher Use Case hilft, Erfahrungen zu sammeln. Wichtig ist auch, die Mitarbeitenden von Anfang an einzubeziehen. Nur wenn sie befähigt werden, mit KI zu arbeiten, wird die Lösung angenommen.

Thomas Taroni: Genau. Projekte funktionieren nicht top-down. Es bringt nichts, wenn am Ende zwei Drittel der Belegschaft KI nicht effizient nutzen kann. Entscheidend ist, dass Mitarbeitende verstehen, wie sie Aufgaben mit KI lösen und wie sie gute Ergebnisse erzielen können.

 

Fazit

Die souveräne AI-Lösung von Phoenix und Green zeigt, dass Unternehmen heute nicht zwischen Sicherheit und Innovation wählen müssen.  Die neue souveräne KI bietet Kontrolle und Sicherheit, verbunden mit der Freiheit, die beste Technologie einzusetzen.


Die Entwicklung wird sich beschleunigen. Unternehmen, die jetzt starten, bauen Know-how auf und sichern sich ihren Vorsprung.

 

Sprechen Sie mit uns über AI as a Service:

+41 56 460 23 80 oder business@green.ch

 

Weitere lesenswerte Themen:

Copied to clipboard