Azure: KI-Modelle GDPR-konform hosten

Mit Azure AI Foundry können Unternehmen moderne KI-Modelle wie GPT-4.1 in der eigenen Azure-Region DSGVO-konform betreiben, mit vollständiger Kontrolle über Datenresidenz, Sicherheit und Governance. Eine Schritt-für-Schritt-Anleitung mit Azure AI Foundry.

Disclaimer: Dieser Artikel ersetzt keine vollständige Datenschutzprüfung, sondern stellt nur exemplarisch dar, wie die technische Einrichtung eines KI-Modells über Azure erfolgt.

Schritt 1: Einstieg über das Azure-Portal

Öffne das Azure-Portal und wähle AI Foundry im Microsoft Cloud Launcher. Die Azure AI Foundry ist Teil der Microsoft Cloud. Dies muss man einmalig einrichten, wofür man vom Azure-Admin entsprechende Berechtigungen braucht.

Azure Cloud Übersicht – Einstieg über AI Foundry

 

Schritt 2: Models + Endpoints aufrufen

Im linken Menü auf Models + Endpoints klicken. Hier werden alle bereitgestellten Modelle angezeigt. Dies ist der einfachste Weg, ein KI-Modell bereitzustellen, wenn man ungefähr weiss, welches man nutzen möchte. Hinweis: Anfangs ist diese Übersicht noch leer. Der Status „Succeeded“ bedeutet, dass das Modell erfolgreich bereitgestellt wurde.

Deployments: Übersicht der bereits deployeten Modelle in Azure AI Foundry

 

 Schritt 3: Neues Modell bereitstellen

Klicke auf + Deploy model. Man kann nun ein Base Model oder Fine-tuned Modell wählen. Für die meisten Anwendungsfälle genügt ein Basis-Modell. Die Optionen sind:

  • Deploy base model – Standardmodell aus dem KI-Katalog, z.B. gpt-4.1 ohne weiteres Finetuning
  • Deploy fine-tuned model – ein eigenes, fine-getunetes Modell. D.h. dass das Model mit eigenen Daten (z.B. Produktkatalog) nachtrainiert wird und genauer antworten kann.
Auswahl eines Basis- oder Fine-Tuned-Modells

Schritt 4: KI-Modell auswählen

Im Dialog Select a model nach „gpt“ suchen und z. B. gpt-4.1 auswählen. Auf der rechten Seite erscheinen Details zum gewählten Modell, so dass man hier gut die Eignung und wichtigsten Stärken des jeweiligen Modells einsehen kann. Beispiel:

  • Task: Chat completion (dies ist die klassische Antwortfähigkeit der LLMs)
  • Funktionen: Text- & Bildverarbeitung, JSON-Mode, Function Calling
  • Kontextgröße: bis zu 1 M Tokens (d.h. wie lange die Prompt-Eingabe und KI-Ausgabe maximal sein kann, ohne dass das LLM den Kontext verliert)
  • Sprache: Optimiert für mehrsprachige Nutzung (gut für internationale Use-Cases wie Sprachübersetzungen etc.)
Modellauswahl im Azure Model Catalog

Schritt 5: Deployment konfigurieren

Fülle im Dialog Deploy die folgenden Felder aus, um das Modell zu benennen und die Region zu wählen:

  • Deployment name: frei wählbar (z. B. gpt-4.1)
  • Deployment type: Data Zone Standard (empfohlen für DSGVO-Konformität)

Wie wählt man die Deployment-Region für das Azure-KI-Modell richtig aus?

  • GDPR beachten: Wähle eine Region innerhalb der EU Data-Zone (z. B. Deutschland, Frankreich, Niederlande), um die DSGVO-Richtlinien einzuhalten. Wichtig ist, dass man dafür die Region der AI Foundry (z.B. Germany West Central) sowohl als auch den Deployment Type (Data Zone Standard) richtig setzt. Wenn man als Deployment Type „Global Standard“ wählt, bedeutet dies, dass das Modell in anderen Regionen genutzt wird!
  • Achtung: Man kann aktuell nicht jedes KI-Modell in jeder beliebigen Region deployen, da Azure dies je Land verschieden unterstützt. Neueste Modelle sind oft nur in US-Region verfügbar und werden erst nach einiger Zeit in anderen Regionen unterstützt.
  • Region prüfen: Unter Deployment details kann man nun prüfen, ob die Deployment-Region korrekt ist, z.B. „Germany West Central“.

 

Deployment-Konfiguration mit EU Data Zone

Schritt 6: Deployment starten

Klicke auf Deploy. Nach kurzer Zeit erscheint dein Modell mit dem Status Succeeded in der Liste. Ab jetzt kann es über die Azure-API oder die Playgrounds genutzt werden. Die API-Zugangsschlüssel kann man jederzeit über die Ansicht „Models + Endpoints“ einsehen. Damit kann man das Modell jetzt z.B. in eingenem Code einbinden und direkt aus der Azure-Region nutzen.

Fazit & Ergebnis

Du hast jetzt ein Azure OpenAI-Modell erfolgreich DSGVO-konform in deiner europäischen Azure-Region bereitgestellt. So kann man die KI nutzen, ohne dass die Daten in ein ungewünschtes Land übertragen werden. Damit bleiben alle Daten innerhalb des EU-Datenraums – und du profitierst von Microsofts Sicherheits- und Compliance-Framework. Dieses bietet folgende Vorteile:

  • Datenverarbeitung in EU-Rechenzentren
  • Keine Datenweitergabe an Drittländer
  • Volle Transparenz & Kontrolle über Modelle, Endpunkte und Logs

So lassen sich die ausgereiften KI-Modelle von OpenAI und einigen Anbietern einfach und schnell mit datenschutzkonformem Azure-Hosting bereitstellen.

Weitere Informationen