Filterung von Containernetzwerkmetriken in Advanced Container Networking Services for (ACNS) for AKS
Öffentliche Vorschau: Filterung von Containernetzwerkmetriken in Advanced Container Networking Services (ACNS) für AKS
- Die Filterung von Container-Netzwerkmetriken in Azure Container Networking Services (ACNS) ist jetzt als öffentliche Vorschau verfügbar.
In containerisierten Umgebungen kann die Aufnahme übermäßiger Netzwerkmetriken zu überhöhten Speicherkosten und unübersichtlichen Dashboards führen, was es schwierig macht, die Effizienz der Beobachtung aufrechtzuerhalten. Azure Container Networking Services (ACNS) bietet jetzt eine Filterfunktion für Container-Netzwerkmetriken, die in der öffentlichen Vorschau verfügbar ist, um dieses Problem zu lösen.
Mit dieser neuen Funktion können Benutzer feinkörnige Filter auf Cilium-Ebene definieren, indem sie eine benutzerdefinierte Ressourcendefinition (Custom Resource Definition, CRD) verwenden, mit der die Sammlung von Metriken nach Namespace oder Pod eingeteilt werden kann. Durch das Filtern von Metriken, bevor sie Prometheus erreichen, können Unternehmen das Datenvolumen erheblich reduzieren, den betrieblichen Aufwand senken und die Übersichtlichkeit ihrer Beobachtungstools verbessern.
Allgemein verfügbar: MCP-Unterstützung für AI-Toolchain-Operator-Add-on in AKS
Die MCP-Unterstützung für das AI-Toolchain-Operator-Add-on ist jetzt allgemein verfügbar.
Das AI Toolchain Operator Add-on unterstützt jetzt KAITO Inferenz-Workspaces mit integriertem Tool Calling und Model Context Protocol (MCP) und adressiert damit zentrale Herausforderungen rund um dynamische Modellinteraktion und Echtzeit-Datenintegration.
Bisher hatten Entwickler Schwierigkeiten, LLM-basierte Dienste bereitzustellen, die auf externe Tools wie APIs oder benutzerdefinierte Funktionen zugreifen mussten, was häufig eine maßgeschneiderte Orchestrierung erforderte. Jetzt können Sie von der nahtlosen Integration von KAITOs vLLM-basierten Tool-Aufrufen mit unterstützten Modellen profitieren, zusammen mit MCP-Unterstützung für die Verbindung von Modellen mit externen Systemen in Echtzeit - um intelligentere, kontextbewusste KI-Dienste direkt in AKS zu ermöglichen.
Generell verfügbar: Lokale Redirect-Richtlinie in Azure CNI powered by Cilium für AKS
Lokale Umleitungsrichtlinien mit Azure CNI powered by Cilium für AKS sind jetzt allgemein verfügbar.
Kunden, die große AKS-Workloads ausführen, erleben häufig Latenz- und Leistungsengpässe aufgrund von knotenübergreifendem Traffic-Routing. Die neue lokale Umleitungsrichtlinie behebt dieses Problem, indem sie ein knotenlokales Service-Routing ermöglicht, das sicherstellt, dass der Verkehr wann immer möglich zu Pods auf demselben Knoten umgeleitet wird. Dies führt zu niedrigeren Latenzzeiten, verbessertem Durchsatz und erhöhter Zuverlässigkeit, was besonders für KI-Training und Microservice-basierte Anwendungen wichtig ist.
Generell verfügbar: Clusterweite Cilium-Netzwerkrichtlinie mit Azure CNI powered by Cilium für AKS
Die clusterweite Cilium-Netzwerkrichtlinie für AKS-Cluster mit Azure CNI powered by Cilium ist jetzt allgemein verfügbar.
Die Verwaltung konsistenter Netzwerkrichtlinien über Kubernetes-Namespaces hinweg war lange Zeit eine Herausforderung für Plattformteams, insbesondere in mandantenfähigen Umgebungen. Mit der allgemeinen Verfügbarkeit von clusterweiten Cilium-Netzwerkrichtlinien für AKS-Cluster, die Azure CNI powered by Cilium verwenden, können Kunden nun Netzwerkrichtlinien auf Clusterebene definieren und durchsetzen. Diese Erweiterung vereinfacht die Richtlinienverwaltung und stärkt die Isolierung zwischen den Mandanten durch die Nutzung der hochleistungsfähigen eBPF-Dataplane von Cilium.
Generell verfügbar: Azure NetApp Files Single File Restore aus Backup
Mit Azure NetApp Files Single File Restore from Backup können Sie einzelne Dateien aus dem Azure NetApp Files Backup Vault wiederherstellen, ohne ein ganzes Volume wiederherstellen zu müssen. Indem Sie nur die erforderlichen Dateien wiederherstellen, können Sie Zeit und Kosten für die Wiederherstellung von Daten sparen. Diese Funktion ist in allen von ANF unterstützten Regionen verfügbar.
Generell verfügbar: Layer 7-Richtlinie mit Advanced Container Networking Services (ACNS) für AKS
Um dem wachsenden Bedarf an granularer Datenverkehrskontrolle in Microservices-Architekturen gerecht zu werden, bietet Azure Container Networking Services jetzt Layer 7 Policy als allgemein verfügbares Feature. Diese Funktion ermöglicht es Kunden, feinkörnige Verkehrskontrollen auf der Anwendungsebene durchzusetzen und Protokolle wie HTTP, HTTPS, gRPC und Kafka zu unterstützen. Durch die Überbrückung von Lücken bei der Durchsetzung von Zero-Trust und der Isolierung von Microservices verbessert Layer 7 Policy die Sicherheitslage, bietet einen besseren Einblick in den Datenverkehr und vereinfacht die Richtlinienverwaltung - und das alles ohne Leistungseinbußen.
Generell verfügbar: DNS-Sicherheitsrichtlinie Threat Intelligence-Feed
Azure DNS-Sicherheitsrichtlinien Threat Intelligence-Feed ist jetzt allgemein verfügbar. Schützen Sie sich vor bekannten bösartigen Domänen mit dem von Microsoft verwalteten Threat Intelligence Feed.
Intelligenter Schutz
Fast alle Angriffe beginnen mit einer DNS-Abfrage. Die von Threat Intelligence verwaltete Domänenliste ermöglicht es Ihnen, Sicherheitsvorfälle frühzeitig zu erkennen und zu verhindern.
Kontinuierliche Updates
Der Feed wird von Microsoft automatisch aktualisiert, damit Sie vor neu entdeckten bösartigen Domänen geschützt bleiben.
Überwachen und Blockieren
Sie haben die Möglichkeit, die Aktivitäten im Modus "Nur Warnung" zu beobachten oder die verdächtigen Aktivitäten im Modus "Blockieren" zu blockieren.
Wenn Sie die Protokollierungsfunktion aktivieren, erhalten Sie Einblick in den gesamten DNS-Verkehr im virtuellen Netzwerk.
Generell verfügbar: Azure Sphere OS Version 25.10 ist jetzt verfügbar
Azure Sphere OS Version 25.10 ist ab sofort im Retail-Feed verfügbar. Diese Version enthält nur Updates für Azure Sphere OS; sie enthält kein aktualisiertes SDK. Wenn Ihre Geräte mit dem Internet verbunden sind, erhalten sie das aktualisierte Betriebssystem über die Cloud.
Diese Version enthält Aktualisierungen der Qualität und des zugrunde liegenden Build-Systems.
Allgemein verfügbar: Trusted Launch wird jetzt für Arm64 Marketplace Images unterstützt
Wir geben bekannt, dass Trusted Launch unterstützte Arm64-Images jetzt im Azure Marketplace verfügbar sind. Sie können nun den doppelten Vorteil der Kosten- und Leistungseffizienz von Arm64 zusätzlich zu den Sicherheitsvorteilen von Trusted Launch nutzen.
Arm64-VMs bringen Kosteneinsparungen, Energieeffizienz und hohe Leistung für Cloud-Workloads.
Trusted Launch VMs bieten grundlegende Rechensicherheit für Azure VMs, indem sie Secure Boot und vTPM-Funktionen aktivieren. Trusted Launch schützt das Betriebssystem vor Rootkits und Boot-Kits und ermöglicht eine Zertifizierung durch Messung der Boot-Kette der VM.
Public Preview: Azure NetApp Files Cache-Volumes
Azure NetApp Files Cache Volumes sind jetzt in der öffentlichen Vorschau verfügbar. Die Cache-Volumes sind eine neue Funktion, die auf der NetApp ONTAP FlexCache Technologie aufbaut und einen persistenten, leistungsstarken Cache in Azure für Daten bietet, die auf ONTAP-basierten Storage-Volumes außerhalb von Azure NetApp Files gespeichert sind. Mit dieser Funktion können Unternehmen aktive ("heiße") Daten näher an den Nutzern und Cloud-Applikationen zwischenspeichern und so die Datenzugriffsgeschwindigkeiten und den Durchsatz über WAN-Verbindungen drastisch verbessern. Mit Cache-Volumes können Sie On-Premises-Datensätze mit nahezu lokaler Performance auf Azure übertragen. Dies ist ideal für Szenarien wie die Ausführung von Rechenlasten in Azure oder die Zusammenarbeit von global verteilten Teams ohne Verzögerungen bei der Dateiübertragung.
Öffentliche Vorschau: Azure NetApp Files Migrationsassistent (Portalunterstützung)
Der Azure NetApp Files Migrationsassistent (mit SnapMirror) ermöglicht eine effiziente und kostengünstige Datenmigration unter Nutzung der integrierten ONTAP Replikations-Engine für einen nahtlosen Übergang von On-Premises oder CVO/anderen Cloud-Anbietern zu Azure NetApp Files (ANF). Diese Funktion bietet Vorteile, die auf das Ziel ausgerichtet sind, Migrationen von geschäftskritischen Applikationen und Daten nach Azure zu beschleunigen und zu vereinfachen. Die Funktion ist jetzt im Azure Portal verfügbar und befindet sich in allen Regionen in der Public Preview.
Die wichtigsten Vorteile
- Speichereffiziente Datenübertragung, die die Netzwerkübertragungskosten sowohl für Baseline- als auch für inkrementelle Updates reduziert
- Niedriges Cutover-/Downtime-Fenster, das schnellere und effizientere endgültige Updates gewährleistet und die Unterbrechung des Kundenbetriebs minimiert
- Volume-Migration mit dem Migrationsassistenten umfasst Quellvolume-Snapshots zum Schutz der Primärdaten sowie Verzeichnis- und Datei-Metadaten unter Beibehaltung der Sicherheitsattribute
Öffentliche Vorschau: Azure Monitor für Azure Arc-aktivierte Kubernetes mit OpenShift und Azure Red Hat OpenShift
Azure Monitor bietet ein komplettes Set von Diensten zur Überwachung des Zustands und der Leistung verschiedener Schichten Ihrer Kubernetes-Infrastruktur und der Anwendungen, die davon abhängen.
Azure Monitor unterstützt jetzt Azure Arc-enabled Kubernetes mit OpenShift und Azure Red Hat OpenShift mit Container Insights und Managed Prometheus.
Öffentliche Vorschau: 20 MB/s/TiB Performance Tier für Azure Managed Lustre
Azure Managed Lustre bietet jetzt einen neuen 20 MB/s/TiB-Performance-Tier in der Public Preview an, der für die Anforderungen von großen KI- und HPC-Workloads (High-Performance Computing) entwickelt wurde. Mit diesem Tier können Kunden Dateisysteme mit bis zu 25 PiB in einem einzigen Namespace bereitstellen, die eine Bandbreite von bis zu 512 GB/s bieten und bis zu 20 Milliarden Inodes für massive Dateianzahlen unterstützen.
Der 20 MB/s/TiB-Tier nutzt Lustres DNE2-Multi-MDS-Architektur und fügt pro 5 PiB einen MDS hinzu, um Directory-Striping über mehrere Metadaten-Ziele hinweg zu ermöglichen. Dies steigert die Metadaten-Operationen und liefert bei mdtest-Benchmarks über 5× höhere IOPS, während das Striping skaliert. Diese Lösung ist ideal für KI-Training und HPC-Workloads und gewährleistet einen hohen Metadatendurchsatz und eine effiziente Verarbeitung großer Datensätze.
Durch das Angebot einer Option mit geringerer Bandbreitendichte können Kunden ihre Kosten optimieren und gleichzeitig auf größere Namespaces skalieren, Arbeitslasten in einem einzigen, hochleistungsfähigen Dateisystem konsolidieren und ihre Architektur vereinfachen.
Allgemein verfügbar: CSI Dynamic Provisioning für Azure Managed Lustre
CSI Dynamic Provisioning für Azure Managed Lustre (AMLFS) ist jetzt allgemein verfügbar. Mit der dynamischen Bereitstellung können Kubernetes-Anwendungen AMLFS-gestützte persistente Volumes bei Bedarf über standardmäßige StorageClass- und PersistentVolumeClaim-Objekte anfordern - eine vorherige Bereitstellung von Volumes ist nicht erforderlich. Dies vereinfacht die täglichen Abläufe für KI/ML-Training, Simulationen und Analysen mit hohem Durchsatz, die auf POSIX-Dateisemantik und gemeinsamen Zugriff im großen Maßstab angewiesen sind.
Diese GA unterstützt Azure Kubernetes Service (AKS)-Cluster mit Kubernetes 1.21 und höher und verwendet den Azure Lustre CSI-Treiber. Dynamisches Provisioning wird ab der Treiberversion v0.3.0 unterstützt. Knotenpools müssen die Ubuntu Linux OS SKU verwenden.
Administratoren definieren eine StorageClass, die auf ein AMLFS-Dateisystem verweist; Entwickler binden dann PVCs, um automatisch AMLFS-Volumes zu erstellen. Der Treiber ist mit dem AMLFS-Client (Lustre 2.15.x) integriert und folgt der Kubernetes-CSI-Spezifikation.
Generell verfügbar: Azure Managed Lustre Unterstützung für Azure MCP Server
Azure Managed Lustre bietet jetzt eine vollständige Integration mit Azure MCP Server, und diese Fähigkeit ist allgemein verfügbar. Azure MCP Server ermöglicht es Entwicklern und Infrastrukturteams, Azure-Ressourcen - einschließlich Azure Managed Lustre-Dateisystemen - über natürlichsprachliche Eingabeaufforderungen zu verwalten und so den Betrieb von KI-Trainings- und HPC-Umgebungen (High Performance Computing) zu optimieren.
Mit dieser Integration können Sie Azure Managed Lustre-Dateisysteme direkt aus unterstützten IDEs (wie Visual Studio Code, Visual Studio und IntelliJ) oder über Automatisierungsskripte unter Verwendung des Model Context Protocol (MCP) erstellen, auflisten und verwalten. Die Azure Managed Lustre Tools für MCP Server unterstützen erweiterte Konfigurationsoptionen, einschließlich der Angabe von Netzwerk, Kapazität, Wartungsfenstern, Verfügbarkeitszonen und Verschlüsselungseinstellungen. Dies erleichtert die Bereitstellung und den Betrieb skalierbarer, hochleistungsfähiger Lustre-Dateisysteme für groß angelegte Simulationen, Modellschulungen und Feinabstimmungen.
Azure MCP Server bietet sicheren, rollenbasierten Zugriff und unterstützt eine breite Palette von Azure-Diensten, die eine einheitliche Verwaltung und Automatisierung für moderne KI- und HPC-Pipelines ermöglichen.
Public Preview: Auto-Import für Azure Managed Lustre
Die Auto-Import-Funktion für Azure Managed Lustre (AMLFS) ist jetzt in der öffentlichen Vorschau verfügbar. Auto-Import ermöglicht die nahtlose, richtliniengesteuerte Synchronisation von Daten aus Azure Blob Storage-Containern in AMLFS-Cluster, wobei neue, geänderte oder gelöschte Blobs automatisch in den Lustre-Namensraum übernommen werden. Diese Funktion unterstützt hybride Workflows, bei denen Daten in Blob generiert und in AMLFS konsumiert werden.
Kunden können Importrichtlinien pro Blob-Container-AMLFS-Cluster-Paar konfigurieren und dabei festlegen, welche Arten von Änderungen importiert werden und wie Konflikte gelöst werden. Diese Flexibilität unterstützt eine Reihe von Szenarien, einschließlich Post-Deployment-Ingestion, Pipelines für maschinelles Lernen und kontinuierliche Datensynchronisation für Analyse-Workloads. Auto-Import trägt zur Vereinheitlichung von objekt- und dateibasierten Workflows bei, ermöglicht die gemeinsame Nutzung von Daten nahezu in Echtzeit und reduziert den betrieblichen Aufwand, da manuelle Importskripte oder zwischengeschaltete Dateiserver überflüssig werden.
Die betriebliche Effizienz wird weiter verbessert, indem Kunden Konfliktlösungsrichtlinien auswählen und steuern können, ob Löschungen in Blob in AMLFS reflektiert werden. Diese Funktionen bieten eine native Integration mit Azure Blob Storage und dem Azure-Ökosystem.
Public Preview: Empfohlene Alerts für Azure Monitor Workspace
Azure Monitor bietet jetzt eine Ein-Klick-Aktivierung von empfohlenen Alarmen direkt im Azure Portal für den Azure Monitor Managed Service für Prometheus-Kunden. Diese Warnungen ermöglichen es Ihnen, die Ingestion-Limits für Azure Monitor Workspace zu überwachen und die Drosselung von Metriken zu vermeiden.
Public Preview: Azure Managed Redis-Integration mit Microsoft Foundry
Azure Managed Redis ist jetzt als Teil des Microsoft Foundry MCP-Toolkatalogs verfügbar und ermöglicht es Kunden, Redis als Wissens- oder Speicherspeicher für KI-Agenten zu nutzen. Diese Integration macht es einfach, Redis mit Foundry-basierten Agenten zu verbinden und ermöglicht semantische Suche, Langzeit- und Kurzzeitspeicher und schnelleres Reasoning für Multi-Agenten-Anwendungen - alles auf einer vertrauenswürdigen Azure-Infrastruktur.Erfahren Sie mehr:
Über Azure Managed Redis.
Über die Neuerungen in Azure Managed Redis.
Probieren Sie Azure Managed Redis-Beispiele auf GitHub
Öffentliche Vorschau: Azure API Management bietet Unterstützung für A2A-Agent-APIs
Wir kündigen die öffentliche Vorschau der A2A-API-Unterstützung in Azure API Management an. Mit dieser neuen Funktion können Unternehmen Agenten-APIs neben anderen API-Typen verwalten und steuern - KI-Modell-APIs, Model Context Protocol (MCP)-Tools und traditionelle APIs wie REST, SOAP und GraphQL.
Mit diesem Update können Kunden ihre etablierten API-Governance- und Sicherheitspraktiken auf das sich entwickelnde Agenten-Ökosystem ausweiten, den sicheren Zugriff verbessern, Richtlinien konsequent durchsetzen und die Beobachtbarkeit von KI-Agenten sicherstellen.
A2A-APIs in Azure API Management bieten eine erweiterte Mediation von JSON-RPC-Laufzeitoperationen mit robuster Richtlinienunterstützung, ermöglichen die Exposition von Agentenkarten für Agenten, Benutzer oder Clients und bieten eine umfassende Nachverfolgung, die mit der semantischen Konvention von OpenTelemetry GenAI abgestimmt ist.
Darüber hinaus haben Sie jetzt die Möglichkeit, A2A-APIs im Azure API Center zu registrieren, was eine organisationsweite Erkennung und Verwaltung von Agenten-APIs ermöglicht.
Public Preview: Azure Databricks Genie in Copilot Studio
Azure Databricks Genie ist jetzt in Microsoft Copilot Studio verfügbar und bietet Ihnen direkten Zugang zu intelligenten, unternehmensgerechten KI-Antworten über Ihren gesamten Azure Databricks-Datenbestand. Diese Integration ermöglicht unternehmensgerechte, konversationelle Analysen in Ihrem gesamten Datenbestand - kein Code erforderlich. Durch das Model Context Protocol (MCP) können Copilot Studio-Agenten jetzt umfassendere, genauere Antworten liefern, die auf Ihren tatsächlichen Geschäftsdaten basieren. Sie können mit Genie betriebene Agenten sofort in Microsoft Teams und Microsoft 365 veröffentlichen, um die Entscheidungsfindung zu beschleunigen und den Benutzern auf jeder Ebene mehr Möglichkeiten zu geben.
Die Einbindung von Azure Databricks Genie-Funktionen in die tägliche Zusammenarbeit hilft Ihren Teams, Zeit zu sparen, Fehler zu reduzieren und Hindernisse für erweiterte Analysen zu beseitigen. Die einheitliche Plattform verbessert Ihre Fähigkeit, schnell zu handeln und bessere Ergebnisse zu erzielen, und unterstreicht gleichzeitig den Wert der offenen, erweiterbaren Interoperabilität im gesamten Microsoft-Ökosystem.

