Technologie-News

Technologie-Nachrichten: Die neuesten Updates vom 2026-03-25

Dieser Inhalt wurde mit Hilfe künstlicher Intelligenz erstellt und dient zu Informationszwecken. Bitte führen Sie vor dem Kauf Ihre eigene Recherche durch.

Dieser Bericht ist eine Zusammenfassung der Technologie-Nachrichten vom 2026-03-25 und wurde ausschließlich auf Grundlage der Originaltexte der Quellen erstellt.

Dieser Bericht wurde automatisch von AnishoAI erstellt. Für die Automatisierung der Content-Erstellung Ihrer Webseite besuchen Sie anishoai.com für weitere Informationen und verfügbare Pläne.

⁦Copilot⁩ als Werkzeug für wertvollere Arbeit bei ⁦KPMG Canada⁩

⁦Copilot⁩ ابزاری برای کار‌های ارزشمندتر در ⁦KPMG Canada⁩
🤖 KI-generiertes Bild

Laut einem Bericht von ⁦news.microsoft.com⁩ ist ⁦Christine Andrew⁩, ⁦Managing Director for AI Enablement⁩ bei ⁦KPMG in Canada⁩, der Überzeugung, dass der eigentliche Wert von ⁦Microsoft 365 Copilot⁩ nicht nur in der Zeitersparnis liegt, sondern darin, die Konzentration auf strategischere und qualitativ hochwertigere Aktivitäten zu ermöglichen. Laut ihrer Aussage wurde vor dem Einsatz dieses Tools ein Großteil der Managementzeit für Planung, Durchführung und Berichterstattung aufgewendet, doch nun steht durch die Reduzierung dieser operativen Last mehr Zeit für tiefgreifendes Nachdenken über Markttrends, Risiken und Kundenbedürfnisse zur Verfügung.

⁦Andrew⁩ nutzt ⁦Copilot in Teams⁩ intensiv für die Verwaltung von Meetings, die häufig zu zweit oder dritt gleichzeitig geplant sind. Darüber hinaus nutzt sie ⁦Copilot Chat⁩ als „intellektuellen Herausforderer“, um ihre Strategieentwürfe zu überprüfen und zu sehen, wie ein ⁦CEO⁩ mit einer anderen Perspektive reagieren würde. Bei der Vorbereitung einer kürzlichen Rede nutzte sie außerdem die Recherchefähigkeiten von ⁦Copilot⁩ zur Zielgruppenanalyse, was zu einer erneuten Einladung durch die Konferenzveranstalter führte.

Laut diesem Bericht startete ⁦Christine Andrew⁩ vor etwa drei Jahren das ⁦early-access⁩-Programm von ⁦Copilot⁩ bei ⁦KPMG Canada⁩ mit nur 40 Lizenzen. Diese Zahl wurde später auf tausend Nutzer erhöht und schließlich 2025 für alle 12.000 Mitarbeiter des Unternehmens ausgerollt. Laut ihrer Aussage hat die tiefe Integration von ⁦Copilot⁩ in das ⁦Microsoft⁩-Ökosystem die Nutzung im Vergleich zu anderen KI-Tools einfacher und sicherer gemacht. Heute wird die Nutzung wöchentlich verfolgt, Mitarbeiter sind verpflichtet, KI-bezogene Ziele festzulegen, und es wurden zahlreiche Schulungsprogramme durchgeführt.

Laut ⁦Andrew⁩ ging es bei der Ausweitung von ⁦Copilot⁩ nicht einfach darum, neuer Technologie zu folgen, sondern darum, Menschen von geringwertigen Aufgaben zu befreien, damit sie mehr Zeit zum Nachdenken, zur Kundenberatung und zur Lösung schwierigerer Probleme haben. Sie betont, dass ⁦Copilot⁩ den Arbeitstag nicht verkürzt, sondern die Art der Aktivitäten verändert, die in dieser Zeit ausgeführt werden.

⁦Amazon Timestream for InfluxDB⁩ in drei neuen ⁦AWS⁩-Regionen verfügbar

دسترسی به ⁦Amazon Timestream for InfluxDB⁩ در سه منطقه جدید ⁦AWS⁩
🤖 KI-generiertes Bild

Laut Ankündigung von ⁦aws.amazon.com⁩ ist der Dienst ⁦Amazon Timestream for InfluxDB⁩ nun in den ⁦AWS Regions⁩ ⁦Mexico⁩ (⁦Central⁩), ⁦Japan⁩ (⁦Osaka⁩) und ⁦Brazil⁩ (⁦Sao Paulo⁩) verfügbar. Dieser Dienst ermöglicht es Entwicklern und ⁦DevOps⁩-Teams, vollständig verwaltete ⁦InfluxDB⁩-Datenbanken auf ⁦AWS⁩ für ⁦real-time⁩- und ⁦time-series⁩-Anwendungen mit ⁦open-source⁩-⁦API⁩s zu betreiben.

⁦Timestream for InfluxDB⁩ bietet Funktionen wie hohe Verfügbarkeit mit ⁦Multi-AZ⁩, ⁦read replica⁩, verbesserte Haltbarkeit und ⁦multi-node⁩-Skalierbarkeit. Laut Quellenangabe können Nutzer mit einer ⁦single-node⁩-Konfiguration starten und bis zu einem ⁦Enterprise⁩-Cluster mit 15 Neindes skalieren, ohne die Infrastruktur neu zu architektieren (⁦re-architecting⁩).

Funktion Beschreibung
Hohe Verfügbarkeit ⁦Multi-AZ⁩
Skalierbarkeit ⁦single-node⁩ bis 15 Neindes ⁦Enterprise⁩
Erstellungstools ⁦Amazon Timestream for InfluxDB⁩-Konsole, ⁦AWS CLI⁩, ⁦AWS SDKs⁩

Nutzer können ihre ⁦InfluxDB⁩-Datenbanken über die ⁦Amazon Timestream for InfluxDB⁩-Konsole, ⁦AWS CLI⁩ oder ⁦AWS SDKs⁩ erstellen. Weitere Informationen finden Sie in der Dokumentation und auf der Preisseite dieses Dienstes.

⁦Cloudflare⁩ stellt neue ⁦Dynamic Workers⁩-Sandbox vor

⁦Cloudflare⁩ سندباکس جدید ⁦Dynamic Workers⁩ را معرفی کرد
🤖 KI-generiertes Bild

Laut Ankündigung von ⁦blog.cloudflare.com⁩ hat ⁦Cloudflare⁩ eine neue Funktion namens ⁦Dynamic Worker Loader⁩ in der öffentlichen Beta für alle zahlenden ⁦Cloudflare Workers⁩-Nutzer veröffentlicht. Diese Funktion ermöglicht es einem ⁦Cloudflare Worker⁩, zur Laufzeit einen neuen ⁦Worker⁩ in einer eigenen Sandbox mit ⁦on-the-fly⁩ generiertem Code zu starten. Bereits im ⁦September⁩ hatte das Unternehmen das Konzept des ⁦Code Mode⁩ vorgestellt und gezeigt, dass die Umwandlung eines ⁦MCP⁩-Servers in eine ⁦TypeScript API⁩ den Token-Verbrauch um bis zu 81% senken kann.

Laut diesem Bericht verwenden ⁦Dynamic Workers⁩ einen Sandbox-Mechanismus namens ⁦isolate⁩ – dieselbe ⁦JavaScript V8⁩-Ausführungs-Engine, die in ⁦Google Chrome⁩ zum Einsatz kommt. Das Unternehmen gab bekannt, dass diese Technologie etwa 100x schneller als Container startet und beim Speicherverbrauch 10x-100x effizienter ist.

Eigenschaft Container ⁦Dynamic Workers⁩ (⁦isolate⁩)
Startzeit Hunderte Millisekunden Wenige Millisekunden
Speicherverbrauch Hunderte Megabyte Wenige Megabyte

Weitere Vorteile von ⁦Dynamic Workers⁩ sind die fehlende Begrenzung bei der Anzahl gleichzeitiger Sandboxes und deren Erstellungsrate. Der Dienst wird in allen Hunderten von ⁦Cloudflare⁩-Standorten weltweit unterstützt, und einmalige ⁦Worker⁩ laufen in der Regel auf derselben Maschine und sogar demselben ⁦Thread⁩, der sie erstellt hat. Was Programmiersprachen betrifft, unterstützen ⁦Dynamic Workers⁩ ⁦JavaScript⁩, und laut Dokumentation ist auch die Verwendung von ⁦Python and WebAssembly⁩ möglich, wobei ⁦JavaScript⁩ für kurze ⁦AI-generated⁩ Codes schneller geladen und ausgeführt wird.

⁦Auto-dismiss⁩-Richtlinien in ⁦GitLab⁩ für das Schwachstellenmanagement

سیاست‌های ⁦auto-dismiss⁩ در ⁦GitLab⁩ برای مدیریت آسیب‌پذیری‌ها
🤖 KI-generiertes Bild

Laut Ankündigung von ⁦about.gitlab.com⁩ ermöglicht die Funktion ⁦auto-dismiss vulnerability policies⁩ in ⁦GitLab⁩ die automatische Verwaltung unnötiger Sicherheitsbefunde. Sicherheitsscanner erzeugen häufig Befunde aus Testcode, ⁦vendored⁩-Abhängigkeiten, automatisch generierten Dateien und bekannten ⁦false positive⁩s, die tatsächliche Schwachstellen verdecken. Sicherheitsteams verbringen Stunden mit dem manuellen ⁦dismiss⁩en wiederkehrender und irrelevanter Befunde, was zu ⁦alert fatigue⁩ und einer geringeren Akzeptanz von Sicherheitsscans führt.

Mit dieser Funktion können Kriterien basierend auf Dateipfad, Verzeichnis oder Schwachstellenkennung (⁦CVE⁩ oder ⁦CWE⁩) definiert und in einer ⁦YAML⁩-Datei gespeichert werden. Die Richtlinien werden automatisch auf jede ⁦default-branch pipeline⁩ angewendet. Laut Dokumentation werden bis zu 1.000 Schwachstellen pro Durchlauf verarbeitet. ⁦Auto-dismissed⁩-Befunde enthalten einen dokumentierten Grund und einen Link zur zugehörigen Richtlinie und bleiben im Gegensatz zur Entfernung aus dem Scanner im Bericht erhalten, damit sie bei Änderung der Umstände überprüft werden können.

Beispielrichtlinie Beschreibung Pfadmuster oder Kennung
⁦Dismiss test code vulnerabilities⁩ ⁦Auto-dismiss findings in test directories⁩ ⁦test⁩/**/*, ⁦tests⁩/**/*, ⁦spec⁩/**/*, __tests__/*
⁦Dismiss vendored dependency findings⁩ ⁦Findings in vendored code are managed upstream⁩ ⁦vendor⁩/*, ⁦third_party⁩/*, ⁦vendored⁩/*
⁦Dismiss known false positive CVEs⁩ Bestätigte ⁦CVE⁩s als ⁦false positive⁩ ⁦CVE-2023-44487⁩, ⁦CVE-2024-29041⁩, ⁦CVE-2023-26136⁩
⁦Dismiss generated code findings⁩ ⁦Generated files are not authored by us⁩ ⁦generated⁩/*, **/*.⁦pb.go⁩, **/*.⁦generated⁩.*
⁦Dismiss CWEs mitigated by WAF⁩ ⁦XSS and SQLi mitigated by WAF rules⁩ ⁦CWE-79⁩, ⁦CWE-89⁩

Beispielsweise kann eine Richtlinie zur automatischen Abweisung von Schwachstellenklassen wie XSS mit der Kennung CWE-79 oder SQL Injection mit der Kennung CWE-89 definiert werden, die durch WAF abgedeckt sind. Außerdem wird ein Beispiel zur Risikoakzeptanz der Log4j-CVE-Familie mit dem Muster CVE-2021-44* bereitgestellt, das unter dem Titel Akzeptieren risk for log4j CVE family mit der Beschreibung Log4j CVEs mitigated by version pinning and WAF konfiguriert werden kann. Diese Funktion ist über Secure > Policies > New policy > ⁦Vulnerability management policy⁩ zugänglich und wird durch ⁦Merge the MR⁩ aktiviert.

Flexible KI-Fabriken zur Stabilisierung des Stromnetzes

کارخانه‌های هوش مصنوعی انعطاف‌پذیر برای تثبیت شبکه برق
🤖 KI-generiertes Bild

Laut einem Bericht von ⁦NVIDIA⁩ hat ⁦Emerald AI⁩ in Zusammenarbeit mit ⁦NVIDIA⁩, ⁦EPRI⁩, ⁦National Grid⁩ und ⁦Nebius⁩ gezeigt, dass „energieflexible“ (⁦power-flexible⁩) KI-Fabriken ihren Stromverbrauch bei Spitzenlast automatisch reduzieren können. Diese Technologie könnte einen schnelleren Anschluss dieser Rechenzentren an das Stromnetz ermöglichen, ohne langfristige Infrastruktur-Upgrades zu erfordern, und einen Anstieg der Strompreise für normale Verbraucher verhindern.

Nach ersten Tests in ⁦Arizona⁩, ⁦Virginia⁩ und ⁦Illinois⁩ verlegte das Team von ⁦Emerald AI⁩ im ⁦December⁩ die ⁦Emerald AI Conductor Platform⁩ in die neue KI-Fabrik von ⁦Nebius AI⁩ in London. In diesem Zentrum wurden reale Workloads auf einem Cluster aus 96 ⁦NVIDIA Blackwell Ultra GPUs⁩ ausgeführt, die über die ⁦NVIDIA Quantum-X800 InfiniBand⁩-Plattform verbunden waren. ⁦EPRI⁩ und ⁦National Grid⁩ simulierten verschiedene Stressszenarien, darunter die Nachbildung des Energieverbrauchssprungs während des ⁦UEFA EURO 2020⁩-Fußballspiels zwischen ⁦England⁩ und ⁦Deutschland⁩. Bei diesem realen Ereignis hatte ⁦National Grid⁩, das die Stromversorgung von ⁦England⁩ und ⁦Wales⁩ sicherstellt, einen Nachfragesprung von etwa 1 Gigawatt innerhalb weniger Minuten erlebt.

Laut diesem Bericht reduzierte der KI-Cluster erfolgreich seinen Stromverbrauch und fungierte als Puffer für den plötzlichen Energiesprung, ohne dass hochpriorisierte Aufgaben beeinträchtigt wurden. ⁦Emerald AI⁩ verzeichnete laut eigener Aussage eine 100%ige Übereinstimmung mit über 200 von ⁦EPRI⁩ und ⁦National Grid⁩ festgelegten Energieverbrauchszielen. ⁦Varun Sivaram⁩, Gründer und ⁦CEO of Emerald AI⁩, sagte: „Mit dieser Technologie werden KI-Fabriken zu nützlichen Assets für das Stromnetz.“ ⁦Steve Smith⁩, Chief Strategy Officer von ⁦National Grid⁩, erklärte ebenfalls, dass die Tests über die in Amerika durchgeführten Prüfungen hinausgingen und neben ⁦GPU⁩s auch ⁦CPU⁩s und der gesamte Stromverbrauch der ⁦IT⁩-Ausrüstung getestet wurden. Nach vier erfolgreichen Tests sind ⁦Emerald AI⁩ und ⁦NVIDIA⁩ bereit für den realen Einsatz dieser Technologie in der ⁦Aurora AI Factory in Virginia⁩.

Zusammenfassung

Die wichtigsten Trends von heute umfassen die Ausweitung von KI-Tools am Arbeitsplatz zur Konzentration auf strategischere Aktivitäten, die Entwicklung von Cloud- und Sicherheitsinfrastrukturen mit Automatisierungsfunktionen sowie Innovationen im Energieverbrauchsmanagement von KI-Rechenzentren. Unternehmen wie Microsoft, ⁦Cloudflare⁩, ⁦GitLab⁩ und ⁦NVIDIA⁩ verfolgen mit neuen Lösungen gleichzeitig organisatorische Effizienz und infrastrukturelle Nachhaltigkeit.

Häufig gestellte Fragen

Welche Auswirkungen hat ⁦Microsoft 365 Copilot⁩ auf die Arbeitsweise von Führungskräften bei ⁦KPMG Canada⁩?

Laut ⁦Christine Andrew⁩ hat ⁦Copilot⁩ die operative Last von Planung, Durchführung und Berichterstattung reduziert und mehr Zeit für tiefgreifendes Nachdenken über Markttrends, Risiken und Kundenbedürfnisse geschaffen. Darüber hinaus wird ⁦Copilot in Teams⁩ für die Verwaltung gleichzeitiger Meetings und ⁦Copilot Chat⁩ als intellektueller Herausforderer eingesetzt.

Was ist die ⁦Dynamic Worker Loader⁩-Funktion bei ⁦Cloudflare⁩ und wie funktioniert sie?

Diese Funktion, die in der öffentlichen Beta für zahlende ⁦Cloudflare Workers⁩-Nutzer verfügbar ist, ermöglicht es einem ⁦Worker⁩, zur Laufzeit einen neuen ⁦Worker⁩ in einer eigenen Sandbox mit ⁦on-the-fly⁩ generiertem Code zu starten. Diese Sandbox verwendet den ⁦isolate⁩-Mechanismus basierend auf der ⁦JavaScript V8⁩-Engine von Google Chrome.

Welches Problem lösen die ⁦auto-dismiss⁩-Richtlinien in ⁦GitLab⁩?

Diese Funktion löst das Problem der ⁦alert fatigue⁩ bei Sicherheitsteams. Durch die Definition von Kriterien basierend auf Dateipfad, Verzeichnis oder Schwachstellenkennung (⁦CVE⁩ oder ⁦CWE⁩) in einer ⁦YAML⁩-Datei werden unnötige Befunde wie ⁦false positive⁩s und Testcode automatisch abgewiesen (⁦dismiss⁩), wobei bis zu 1.000 Schwachstellen pro Durchlauf verarbeitet werden.


📚 Quellen

Möchten Sie den Content aller Produkte Ihrer Webseite mit einem Klick generieren?

Besuchen Sie unsere Webseite — anishoai.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert