Allgemein verfügbar: AMD v6 vertrauliche VMs in neuen Regionen für Januar 2026
Generell verfügbar: AMD v6 vertrauliche VMs in neuen Regionen für Januar 2026
Vertrauliche virtuelle Maschinen der Serie DCa/ECa v6 auf AMD-Basis sind jetzt in 11 neuen Regionen allgemein verfügbar: Kanada Mitte, Kanada Ost, Norwegen Ost, Norwegen West, Italien Nord, Deutschland Nord, Frankreich Süd, Australien Ost, West USA, West USA 3, Deutschland West Mitte.
Dies kommt zu den 6 Regionen hinzu, die bei der Einführung dieser VMs angekündigt wurden: Korea Mitte, Südafrika Nord, Schweiz Nord, VAE Nord, UK Süd, West Central US.
Öffentliche Vorschau: Azure Virtual Network Routing Appliance
Azure Virtual Network Routing Appliance bietet private Konnektivität für Workloads über virtuelle Netzwerke. Durch den Einsatz spezieller Hardware bietet sie niedrige Latenzzeiten und hohen Durchsatz sowie eine optimale Leistung im Vergleich zu virtuellen Maschinen.
Sie wird in einem privaten Subnetz eingesetzt, wo sie als verwalteter Weiterleitungsrouter fungiert. Der Datenverkehr kann über benutzerdefinierte Routen (User Defined Routes, UDR) geroutet werden, was die Kommunikation von Speiche zu Speiche in herkömmlichen Hub & Spoke-Topologien ermöglicht.
Konfiguriert als Azure-Ressource, integriert sich nahtlos in das Verwaltungs- und Governance-Modell von Azure.
Public Preview: Claude Opus 4.6, verfügbar auf Microsoft Foundry
Claude Opus 4.6 ist jetzt in Microsoft Foundry verfügbar und bringt das fortschrittlichste Argumentationsmodell von Anthropic auf eine sichere, unternehmenstaugliche Plattform, die auf Azure aufbaut. Mit der Unterstützung von komplexer Codierung, Wissensarbeit und agentengesteuerten Workflows, einschließlich Long-Context-Reasoning und kontrollierter Computernutzung, können Kunden schneller von Experimenten zur Produktion übergehen und gleichzeitig Vertrauen, Sicherheit und operative Strenge aufrechterhalten. Diese Version ermöglicht es Unternehmen, KI für reale, wichtige Szenarien in den Bereichen Entwicklung, Analyse und Automatisierung einzusetzen.
Public Preview: Azure NetApp Files Elastic zone-redundant service level
Azure NetApp Files Elastic Zone-Redundant Storage (ANF Elastic ZRS) ist ein erweiterter Hochverfügbarkeits-Service-Level für Azure NetApp Files, der kontinuierlichen Datenzugriff ohne Datenverlust bietet, selbst wenn eine gesamte Azure Availability Zone offline geht. ANF Elastic ZRS basiert auf der zonenredundanten Storage-Architektur (ZRS) und der Compute-Infrastruktur von Azure und repliziert Dateidaten synchron über Availability Zones innerhalb einer Region. Durch die Beseitigung von Single Points of Failure wird sichergestellt, dass geschäftskritische Workloads online und geschützt bleiben, ohne dass eine spezielle Konfiguration oder manuelle Eingriffe erforderlich sind. Dies macht die Lösung ideal für Anwendungen, die eine kompromisslose Ausfallsicherheit und Datensicherheit innerhalb einer Region erfordern.
Azure NetApp Files Elastic ZRS bietet konsistente Performance für Metadaten-lastige Workloads in VMs und Containern und eignet sich daher hervorragend für KI-, Analyse- und Kubernetes/OpenShift-Umgebungen. Ganz gleich, ob Sie geschäftskritische Workloads, AKS und containerisierte Apps, Cloud-native Applikationen oder allgemeine Dateifreigaben ausführen, Azure NetApp Files Elastic ZRS bietet Kontinuität ohne Kompromisse, kosteneffiziente Skalierbarkeit und einen einfachen Betrieb. Sie können Volumes mit einer Größe von nur 1 GiB erstellen und haben so die Flexibilität, Ihren Storage für Workloads jeder Größe zu optimieren.
Public Preview: Azure Kubernetes Fleet Manager: Namespace-bezogene Ressourcenplatzierung
Die namensraumbezogene Ressourcenplatzierung, die jetzt in der Vorschau für Azure Kubernetes Fleet Manager verfügbar ist, bietet eine feinkörnige Kontrolle über die Auswahl und Weitergabe einzelner namensraumbezogener Ressourcen über mehrere Cluster hinweg.
Diese neue Fähigkeit bedeutet, dass es jetzt möglich ist, die intelligente Platzierung von Fleet Manager zu nutzen, wenn ein einzelner Namespace mehrere Anwendungen mit unterschiedlichen Lebenszyklen und Verteilungsanforderungen hostet oder wenn Teams, die verwaltete Fleet-Namespaces verwenden, eine auf spezifischen Clustereigenschaften oder Kapazitäten basierende Planung pro Workload benötigen.
Diejenigen, die Fleet Managers bestehende clusterbezogene Ressourcenplatzierung verwenden, werden vertraute Konstrukte wie Platzierungsrichtlinien und gestaffelte Rollouts vorfinden, so dass es ein einfacher Schritt ist, mit der namespacebezogenen Ressourcenplatzierung zu beginnen.
Generell verfügbar: Azure Container Storage v2.1.0 jetzt mit Elastic SAN-Integration und On-Demand-Installation
Azure Container Storage v2.1.0 ist jetzt allgemein verfügbar. Diese Version fügt native Elastic SAN-Unterstützung hinzu und führt ein schlankes On-Demand-Installationsmodell ein, um die Bereitstellung und den Betrieb von Kubernetes-Workloads auf Azure zu vereinfachen.
Unterstützung des Elastic SAN-Speichertyps
Mit der vollständigen Unterstützung von Elastic SAN als nativem Speichertyp können Sie skalierbare Volume-Gruppen bereitstellen und eine große Anzahl von Kubernetes-Volumes unter einer einzigen SAN-Ressource konsolidieren, was schnellere Attach- und Detach-Vorgänge, einen höheren Durchsatz und einen geringeren Management-Overhead für zustandsabhängige Workloads ermöglicht. Die neue Version umfasst außerdem eine optimierte Einrichtung, verbesserte Standardeinstellungen und eine erweiterte Automatisierung für die Erstellung von Elastic SAN und die Konfiguration von Volume-Gruppen.
Modulare On-Demand-Installation
Azure Container Storage v2.1.0 unterstützt jetzt eine modulare On-Demand-Installation, die es Ihnen ermöglicht, nur die für den ausgewählten Speichertyp erforderlichen Komponenten bereitzustellen. Dies reduziert den Cluster-Footprint, beschleunigt die Bereitstellung und vereinfacht das Lifecycle-Management.
Node Selector-Unterstützung für die Komponentenplatzierung
Darüber hinaus ermöglicht die Unterstützung von Node Selectors eine präzise Kontrolle darüber, wo Azure Container Storage-Komponenten ausgeführt werden, um die Leistung und Ressourcennutzung in Clustern mit dedizierten Storage Node Pools oder gemischten Topologien zu optimieren.

