Technologie-Nachrichten: Die neuesten Updates vom 2026-03-25
Dieser Bericht ist eine Zusammenfassung der Technologie-Nachrichten vom 2026-03-25 und wurde ausschließlich auf Grundlage der Originaltexte der Quellen erstellt.
Dieser Bericht wurde automatisch von AnishoAI erstellt. Für die Automatisierung der Content-Erstellung Ihrer Webseite besuchen Sie anishoai.com für weitere Informationen und verfügbare Pläne.
Copilot als Werkzeug für wertvollere Arbeit bei KPMG Canada

Laut einem Bericht von news.microsoft.com ist Christine Andrew, Managing Director for AI Enablement bei KPMG in Canada, der Überzeugung, dass der eigentliche Wert von Microsoft 365 Copilot nicht nur in der Zeitersparnis liegt, sondern darin, die Konzentration auf strategischere und qualitativ hochwertigere Aktivitäten zu ermöglichen. Laut ihrer Aussage wurde vor dem Einsatz dieses Tools ein Großteil der Managementzeit für Planung, Durchführung und Berichterstattung aufgewendet, doch nun steht durch die Reduzierung dieser operativen Last mehr Zeit für tiefgreifendes Nachdenken über Markttrends, Risiken und Kundenbedürfnisse zur Verfügung.
Andrew nutzt Copilot in Teams intensiv für die Verwaltung von Meetings, die häufig zu zweit oder dritt gleichzeitig geplant sind. Darüber hinaus nutzt sie Copilot Chat als „intellektuellen Herausforderer“, um ihre Strategieentwürfe zu überprüfen und zu sehen, wie ein CEO mit einer anderen Perspektive reagieren würde. Bei der Vorbereitung einer kürzlichen Rede nutzte sie außerdem die Recherchefähigkeiten von Copilot zur Zielgruppenanalyse, was zu einer erneuten Einladung durch die Konferenzveranstalter führte.
Laut diesem Bericht startete Christine Andrew vor etwa drei Jahren das early-access-Programm von Copilot bei KPMG Canada mit nur 40 Lizenzen. Diese Zahl wurde später auf tausend Nutzer erhöht und schließlich 2025 für alle 12.000 Mitarbeiter des Unternehmens ausgerollt. Laut ihrer Aussage hat die tiefe Integration von Copilot in das Microsoft-Ökosystem die Nutzung im Vergleich zu anderen KI-Tools einfacher und sicherer gemacht. Heute wird die Nutzung wöchentlich verfolgt, Mitarbeiter sind verpflichtet, KI-bezogene Ziele festzulegen, und es wurden zahlreiche Schulungsprogramme durchgeführt.
Laut Andrew ging es bei der Ausweitung von Copilot nicht einfach darum, neuer Technologie zu folgen, sondern darum, Menschen von geringwertigen Aufgaben zu befreien, damit sie mehr Zeit zum Nachdenken, zur Kundenberatung und zur Lösung schwierigerer Probleme haben. Sie betont, dass Copilot den Arbeitstag nicht verkürzt, sondern die Art der Aktivitäten verändert, die in dieser Zeit ausgeführt werden.
Amazon Timestream for InfluxDB in drei neuen AWS-Regionen verfügbar

Laut Ankündigung von aws.amazon.com ist der Dienst Amazon Timestream for InfluxDB nun in den AWS Regions Mexico (Central), Japan (Osaka) und Brazil (Sao Paulo) verfügbar. Dieser Dienst ermöglicht es Entwicklern und DevOps-Teams, vollständig verwaltete InfluxDB-Datenbanken auf AWS für real-time- und time-series-Anwendungen mit open-source-APIs zu betreiben.
Timestream for InfluxDB bietet Funktionen wie hohe Verfügbarkeit mit Multi-AZ, read replica, verbesserte Haltbarkeit und multi-node-Skalierbarkeit. Laut Quellenangabe können Nutzer mit einer single-node-Konfiguration starten und bis zu einem Enterprise-Cluster mit 15 Neindes skalieren, ohne die Infrastruktur neu zu architektieren (re-architecting).
| Funktion | Beschreibung |
|---|---|
| Hohe Verfügbarkeit | Multi-AZ |
| Skalierbarkeit | single-node bis 15 Neindes Enterprise |
| Erstellungstools | Amazon Timestream for InfluxDB-Konsole, AWS CLI, AWS SDKs |
Nutzer können ihre InfluxDB-Datenbanken über die Amazon Timestream for InfluxDB-Konsole, AWS CLI oder AWS SDKs erstellen. Weitere Informationen finden Sie in der Dokumentation und auf der Preisseite dieses Dienstes.
Cloudflare stellt neue Dynamic Workers-Sandbox vor

Laut Ankündigung von blog.cloudflare.com hat Cloudflare eine neue Funktion namens Dynamic Worker Loader in der öffentlichen Beta für alle zahlenden Cloudflare Workers-Nutzer veröffentlicht. Diese Funktion ermöglicht es einem Cloudflare Worker, zur Laufzeit einen neuen Worker in einer eigenen Sandbox mit on-the-fly generiertem Code zu starten. Bereits im September hatte das Unternehmen das Konzept des Code Mode vorgestellt und gezeigt, dass die Umwandlung eines MCP-Servers in eine TypeScript API den Token-Verbrauch um bis zu 81% senken kann.
Laut diesem Bericht verwenden Dynamic Workers einen Sandbox-Mechanismus namens isolate – dieselbe JavaScript V8-Ausführungs-Engine, die in Google Chrome zum Einsatz kommt. Das Unternehmen gab bekannt, dass diese Technologie etwa 100x schneller als Container startet und beim Speicherverbrauch 10x-100x effizienter ist.
| Eigenschaft | Container | Dynamic Workers (isolate) |
|---|---|---|
| Startzeit | Hunderte Millisekunden | Wenige Millisekunden |
| Speicherverbrauch | Hunderte Megabyte | Wenige Megabyte |
Weitere Vorteile von Dynamic Workers sind die fehlende Begrenzung bei der Anzahl gleichzeitiger Sandboxes und deren Erstellungsrate. Der Dienst wird in allen Hunderten von Cloudflare-Standorten weltweit unterstützt, und einmalige Worker laufen in der Regel auf derselben Maschine und sogar demselben Thread, der sie erstellt hat. Was Programmiersprachen betrifft, unterstützen Dynamic Workers JavaScript, und laut Dokumentation ist auch die Verwendung von Python and WebAssembly möglich, wobei JavaScript für kurze AI-generated Codes schneller geladen und ausgeführt wird.
Auto-dismiss-Richtlinien in GitLab für das Schwachstellenmanagement

Laut Ankündigung von about.gitlab.com ermöglicht die Funktion auto-dismiss vulnerability policies in GitLab die automatische Verwaltung unnötiger Sicherheitsbefunde. Sicherheitsscanner erzeugen häufig Befunde aus Testcode, vendored-Abhängigkeiten, automatisch generierten Dateien und bekannten false positives, die tatsächliche Schwachstellen verdecken. Sicherheitsteams verbringen Stunden mit dem manuellen dismissen wiederkehrender und irrelevanter Befunde, was zu alert fatigue und einer geringeren Akzeptanz von Sicherheitsscans führt.
Mit dieser Funktion können Kriterien basierend auf Dateipfad, Verzeichnis oder Schwachstellenkennung (CVE oder CWE) definiert und in einer YAML-Datei gespeichert werden. Die Richtlinien werden automatisch auf jede default-branch pipeline angewendet. Laut Dokumentation werden bis zu 1.000 Schwachstellen pro Durchlauf verarbeitet. Auto-dismissed-Befunde enthalten einen dokumentierten Grund und einen Link zur zugehörigen Richtlinie und bleiben im Gegensatz zur Entfernung aus dem Scanner im Bericht erhalten, damit sie bei Änderung der Umstände überprüft werden können.
| Beispielrichtlinie | Beschreibung | Pfadmuster oder Kennung |
|---|---|---|
| Dismiss test code vulnerabilities | Auto-dismiss findings in test directories | test/**/*, tests/**/*, spec/**/*, __tests__/* |
| Dismiss vendored dependency findings | Findings in vendored code are managed upstream | vendor/*, third_party/*, vendored/* |
| Dismiss known false positive CVEs | Bestätigte CVEs als false positive | CVE-2023-44487, CVE-2024-29041, CVE-2023-26136 |
| Dismiss generated code findings | Generated files are not authored by us | generated/*, **/*.pb.go, **/*.generated.* |
| Dismiss CWEs mitigated by WAF | XSS and SQLi mitigated by WAF rules | CWE-79, CWE-89 |
Beispielsweise kann eine Richtlinie zur automatischen Abweisung von Schwachstellenklassen wie XSS mit der Kennung CWE-79 oder SQL Injection mit der Kennung CWE-89 definiert werden, die durch WAF abgedeckt sind. Außerdem wird ein Beispiel zur Risikoakzeptanz der Log4j-CVE-Familie mit dem Muster CVE-2021-44* bereitgestellt, das unter dem Titel Akzeptieren risk for log4j CVE family mit der Beschreibung Log4j CVEs mitigated by version pinning and WAF konfiguriert werden kann. Diese Funktion ist über Secure > Policies > New policy > Vulnerability management policy zugänglich und wird durch Merge the MR aktiviert.
Flexible KI-Fabriken zur Stabilisierung des Stromnetzes

Laut einem Bericht von NVIDIA hat Emerald AI in Zusammenarbeit mit NVIDIA, EPRI, National Grid und Nebius gezeigt, dass „energieflexible“ (power-flexible) KI-Fabriken ihren Stromverbrauch bei Spitzenlast automatisch reduzieren können. Diese Technologie könnte einen schnelleren Anschluss dieser Rechenzentren an das Stromnetz ermöglichen, ohne langfristige Infrastruktur-Upgrades zu erfordern, und einen Anstieg der Strompreise für normale Verbraucher verhindern.
Nach ersten Tests in Arizona, Virginia und Illinois verlegte das Team von Emerald AI im December die Emerald AI Conductor Platform in die neue KI-Fabrik von Nebius AI in London. In diesem Zentrum wurden reale Workloads auf einem Cluster aus 96 NVIDIA Blackwell Ultra GPUs ausgeführt, die über die NVIDIA Quantum-X800 InfiniBand-Plattform verbunden waren. EPRI und National Grid simulierten verschiedene Stressszenarien, darunter die Nachbildung des Energieverbrauchssprungs während des UEFA EURO 2020-Fußballspiels zwischen England und Deutschland. Bei diesem realen Ereignis hatte National Grid, das die Stromversorgung von England und Wales sicherstellt, einen Nachfragesprung von etwa 1 Gigawatt innerhalb weniger Minuten erlebt.
Laut diesem Bericht reduzierte der KI-Cluster erfolgreich seinen Stromverbrauch und fungierte als Puffer für den plötzlichen Energiesprung, ohne dass hochpriorisierte Aufgaben beeinträchtigt wurden. Emerald AI verzeichnete laut eigener Aussage eine 100%ige Übereinstimmung mit über 200 von EPRI und National Grid festgelegten Energieverbrauchszielen. Varun Sivaram, Gründer und CEO of Emerald AI, sagte: „Mit dieser Technologie werden KI-Fabriken zu nützlichen Assets für das Stromnetz.“ Steve Smith, Chief Strategy Officer von National Grid, erklärte ebenfalls, dass die Tests über die in Amerika durchgeführten Prüfungen hinausgingen und neben GPUs auch CPUs und der gesamte Stromverbrauch der IT-Ausrüstung getestet wurden. Nach vier erfolgreichen Tests sind Emerald AI und NVIDIA bereit für den realen Einsatz dieser Technologie in der Aurora AI Factory in Virginia.
Zusammenfassung
Die wichtigsten Trends von heute umfassen die Ausweitung von KI-Tools am Arbeitsplatz zur Konzentration auf strategischere Aktivitäten, die Entwicklung von Cloud- und Sicherheitsinfrastrukturen mit Automatisierungsfunktionen sowie Innovationen im Energieverbrauchsmanagement von KI-Rechenzentren. Unternehmen wie Microsoft, Cloudflare, GitLab und NVIDIA verfolgen mit neuen Lösungen gleichzeitig organisatorische Effizienz und infrastrukturelle Nachhaltigkeit.
Häufig gestellte Fragen
Welche Auswirkungen hat Microsoft 365 Copilot auf die Arbeitsweise von Führungskräften bei KPMG Canada?
Laut Christine Andrew hat Copilot die operative Last von Planung, Durchführung und Berichterstattung reduziert und mehr Zeit für tiefgreifendes Nachdenken über Markttrends, Risiken und Kundenbedürfnisse geschaffen. Darüber hinaus wird Copilot in Teams für die Verwaltung gleichzeitiger Meetings und Copilot Chat als intellektueller Herausforderer eingesetzt.
Was ist die Dynamic Worker Loader-Funktion bei Cloudflare und wie funktioniert sie?
Diese Funktion, die in der öffentlichen Beta für zahlende Cloudflare Workers-Nutzer verfügbar ist, ermöglicht es einem Worker, zur Laufzeit einen neuen Worker in einer eigenen Sandbox mit on-the-fly generiertem Code zu starten. Diese Sandbox verwendet den isolate-Mechanismus basierend auf der JavaScript V8-Engine von Google Chrome.
Welches Problem lösen die auto-dismiss-Richtlinien in GitLab?
Diese Funktion löst das Problem der alert fatigue bei Sicherheitsteams. Durch die Definition von Kriterien basierend auf Dateipfad, Verzeichnis oder Schwachstellenkennung (CVE oder CWE) in einer YAML-Datei werden unnötige Befunde wie false positives und Testcode automatisch abgewiesen (dismiss), wobei bis zu 1.000 Schwachstellen pro Durchlauf verarbeitet werden.
📚 Quellen
- 🔗 news.microsoft.com: For KPMG Canada’s Christine Andrew, Copilot isn’t just a time saver—it…
- 🔗 aws.amazon.com: Amazon Timestream for InfluxDB is now available in the Mexico (Central…
- 🔗 blog.cloudflare.com: Sandboxing AI agents, 100x faster…
- 🔗 about.gitlab.com: Manage vulnerability noise at scale with auto-dismiss policies…
- 🔗 NVIDIA: Blowing Off Steam: How Power-Flexible AI Factories Can Stabilize the G…
Möchten Sie den Content aller Produkte Ihrer Webseite mit einem Klick generieren?