Mit Azure AI Foundry können Unternehmen moderne KI-Modelle wie GPT-4.1 in der eigenen Azure-Region DSGVO-konform betreiben, mit vollständiger Kontrolle über Datenresidenz, Sicherheit und Governance. Eine Schritt-für-Schritt-Anleitung mit Azure AI Foundry.
Disclaimer: Dieser Artikel ersetzt keine vollständige Datenschutzprüfung, sondern stellt nur exemplarisch dar, wie die technische Einrichtung eines KI-Modells über Azure erfolgt.
Schritt 1: Einstieg über das Azure-Portal
Öffne das Azure-Portal und wähle AI Foundry im Microsoft Cloud Launcher. Die Azure AI Foundry ist Teil der Microsoft Cloud. Dies muss man einmalig einrichten, wofür man vom Azure-Admin entsprechende Berechtigungen braucht.

Schritt 2: Models + Endpoints aufrufen
Im linken Menü auf Models + Endpoints klicken. Hier werden alle bereitgestellten Modelle angezeigt. Dies ist der einfachste Weg, ein KI-Modell bereitzustellen, wenn man ungefähr weiss, welches man nutzen möchte. Hinweis: Anfangs ist diese Übersicht noch leer. Der Status „Succeeded“ bedeutet, dass das Modell erfolgreich bereitgestellt wurde.

Schritt 3: Neues Modell bereitstellen
Klicke auf + Deploy model. Man kann nun ein Base Model oder Fine-tuned Modell wählen. Für die meisten Anwendungsfälle genügt ein Basis-Modell. Die Optionen sind:
- Deploy base model – Standardmodell aus dem KI-Katalog, z.B. gpt-4.1 ohne weiteres Finetuning
- Deploy fine-tuned model – ein eigenes, fine-getunetes Modell. D.h. dass das Model mit eigenen Daten (z.B. Produktkatalog) nachtrainiert wird und genauer antworten kann.

Schritt 4: KI-Modell auswählen
Im Dialog Select a model nach „gpt“ suchen und z. B. gpt-4.1 auswählen. Auf der rechten Seite erscheinen Details zum gewählten Modell, so dass man hier gut die Eignung und wichtigsten Stärken des jeweiligen Modells einsehen kann. Beispiel:
- Task: Chat completion (dies ist die klassische Antwortfähigkeit der LLMs)
- Funktionen: Text- & Bildverarbeitung, JSON-Mode, Function Calling
- Kontextgröße: bis zu 1 M Tokens (d.h. wie lange die Prompt-Eingabe und KI-Ausgabe maximal sein kann, ohne dass das LLM den Kontext verliert)
- Sprache: Optimiert für mehrsprachige Nutzung (gut für internationale Use-Cases wie Sprachübersetzungen etc.)

Schritt 5: Deployment konfigurieren
Fülle im Dialog Deploy die folgenden Felder aus, um das Modell zu benennen und die Region zu wählen:
- Deployment name: frei wählbar (z. B. gpt-4.1)
- Deployment type: Data Zone Standard (empfohlen für DSGVO-Konformität)
Wie wählt man die Deployment-Region für das Azure-KI-Modell richtig aus?
- GDPR beachten: Wähle eine Region innerhalb der EU Data-Zone (z. B. Deutschland, Frankreich, Niederlande), um die DSGVO-Richtlinien einzuhalten. Wichtig ist, dass man dafür die Region der AI Foundry (z.B. Germany West Central) sowohl als auch den Deployment Type (Data Zone Standard) richtig setzt. Wenn man als Deployment Type „Global Standard“ wählt, bedeutet dies, dass das Modell in anderen Regionen genutzt wird!
- Achtung: Man kann aktuell nicht jedes KI-Modell in jeder beliebigen Region deployen, da Azure dies je Land verschieden unterstützt. Neueste Modelle sind oft nur in US-Region verfügbar und werden erst nach einiger Zeit in anderen Regionen unterstützt.
- Region prüfen: Unter Deployment details kann man nun prüfen, ob die Deployment-Region korrekt ist, z.B. „Germany West Central“.

Schritt 6: Deployment starten
Klicke auf Deploy. Nach kurzer Zeit erscheint dein Modell mit dem Status Succeeded in der Liste. Ab jetzt kann es über die Azure-API oder die Playgrounds genutzt werden. Die API-Zugangsschlüssel kann man jederzeit über die Ansicht „Models + Endpoints“ einsehen. Damit kann man das Modell jetzt z.B. in eingenem Code einbinden und direkt aus der Azure-Region nutzen.
Fazit & Ergebnis
Du hast jetzt ein Azure OpenAI-Modell erfolgreich DSGVO-konform in deiner europäischen Azure-Region bereitgestellt. So kann man die KI nutzen, ohne dass die Daten in ein ungewünschtes Land übertragen werden. Damit bleiben alle Daten innerhalb des EU-Datenraums – und du profitierst von Microsofts Sicherheits- und Compliance-Framework. Dieses bietet folgende Vorteile:
- Datenverarbeitung in EU-Rechenzentren
- Keine Datenweitergabe an Drittländer
- Volle Transparenz & Kontrolle über Modelle, Endpunkte und Logs
So lassen sich die ausgereiften KI-Modelle von OpenAI und einigen Anbietern einfach und schnell mit datenschutzkonformem Azure-Hosting bereitstellen.
Weitere Informationen
- 
Offizielle Azure AI Foundry Dokumentation — https://learn.microsoft.com/de-de/azure/ai-foundry/ 
 Umfassender Leitfaden zur Gestaltung, Anpassung, Bereitstellung und Verwaltung von KI-Anwendungen und Modellen in großem Maßstab.
- 
Anleitung zum Erstellen und Bereitstellen einer Azure OpenAI-Ressource in Azure AI Foundry — https://learn.microsoft.com/de-de/azure/ai-foundry/openai/how-to/create-resource 
 Schritt-für-Schritt-Anleitung zur Erstellung und Bereitstellung von OpenAI-Modellen auf Azure, einschließlich Voraussetzungen und Bereitstellungsoptionen.

Ralf Schukay liebt Analytics, Python & alles mit Daten. In seiner Freizeit spielt er Synthesizer (Nord, Novation), joggt und fährt Gravel Bike. Er arbeitet als Teamlead Analytics & Conversion mit einem fitten und netten Team in der Berliner Digitalagentur >MAI mediaworx<
 
					







