Technologie-Nachrichten: Die neuesten Updates vom 2026-03-16
Dieser Bericht ist eine Zusammenfassung der Technologie-Nachrichten vom 2026-03-16 und wurde ausschließlich auf Basis der Originaltexte der Quellen erstellt.
Dieser Bericht wurde automatisch von AnishoAI erstellt. Für die Automatisierung der Content-Erstellung Ihrer Website besuchen Sie anishoai.com für weitere Informationen und verfügbare Pläne.
KI-basierte Smart City; der nächste Schritt in der Entwicklung intelligenter Städte

Laut press.asus.com wurde das Konzept der AI City als nächste Stufe in der Evolution der Smart Cities vorgestellt. Während sich traditionelle Smart Cities auf Sensoren, Konnektivität und Datenintegration konzentrierten, integriert die AI City künstliche Intelligenz in das operative Gefüge der Stadt, sodass Systeme den Kontext verstehen, Veränderungen vorhersagen und Reaktionen koordinieren können. In diesem Zusammenhang betont das Konzept der Urban Sovereign AI die Fähigkeit einer Stadt, die Souveränität über ihre eigenen Daten, Rechenressourcen und AI-Modelle zu bewahren.
Laut diesem Bericht haben ASUS und Foxconn im Jahr 2026 ihre Zusammenarbeit begonnen, um Regierungen weltweit AI City-Lösungen anzubieten. Diese Architektur umfasst fünf Schichten:
| Schicht | Funktion |
|---|---|
| Sovereign Compute Layer | Sichere Infrastruktur bestehend aus Rechenzentren, Netzwerken und Edge-Computing mit niedriger Latenz und hoher Verfügbarkeit |
| Sovereign Model Layer | Lokale Modelle, optimiert für Sprache, Kontext und regulatorische Compliance |
| Platform Layer | Identitäts- und Zugriffsmanagement, systemübergreifende Integration, Cybersicherheit und Nachverfolgbarkeit von Entscheidungen |
| Application Layer | Operative Dienste in den Bereichen Transport, Energie, Sicherheit und Gesundheit |
| Innovation Layer | Gemeinsame Ressourcen und leistungsstarke Rechenkapazitäten für Entwicklung und Zusammenarbeit mit Industrie und Wissenschaft |
In Bezug auf die Governance umfasst das Operating Model Decision Rights, Identity Access Management nach Zero-trust-Prinzipien und Cross‑Agency Coordination. Zu den vorrangigen Bereichen zählen Adaptive Mobility (dynamisches Verkehrsmanagement und intelligentes Parken) und Responsive Energy. Anstatt beispielsweise Dashboards anzuzeigen, die volle Mülltonnen melden, prognostiziert eine AI City die Füllraten, leitet Teams um, koordiniert Ampeln und bestätigt die Aufgabenerfüllung.
Nessum von Panasonic; IoT-Konnektivität dort, wo Wi-Fi nicht hinreicht

Laut news.panasonic.com bietet die Technologieabteilung der Panasonic Holdings Corporation die Powerline-Kommunikationstechnologie (PLC) unter der Marke Nessum für B2B-Kunden an. Diese Technologie wurde 2002 unter dem Namen High Definition Power Line Communication (HD-PLC) entwickelt und zielt darauf ab, IoT-Netzwerke an Orten zu ermöglichen, an denen Wi-Fi und 4G/5G keine Abdeckung bieten können, wie etwa in Fabriken und Infrastrukturumgebungen.
Michimasa Aramaki von der Technologieabteilung der Panasonic Holdings Corporation, der die internationale Standardisierung und den Einsatz von Nessum leitet, erklärt, dass die Grundidee die gleichzeitige Übertragung von Strom und Kommunikation über eine einzige Infrastruktur war. Aramaki arbeitete zur Zeit der HD-PLC-Entwicklung in der Forschungs- und Entwicklungsabteilung von Panasonic im Silicon Valley und führte Feldtests in Mietwohnungen in California und Texas mit über hundert Ingenieuren durch. Die Standardisierung von HD-PLC unter der Bezeichnung IEEE 1901 wurde 2010 erreicht, doch die rasche Verbreitung von Wi-Fi veranlasste das Entwicklungsteam, von der Heimanwendung (B2C) auf Gebäude- und Industrieinfrastrukturen (B2B) umzuschwenken.
Die proprietäre Multi-hop-Technologie von Panasonic HD ermöglicht eine Abdeckung von mehreren Kilometern mit 1.024 Knoten. Laut Aramaki kommt Nessum an Orten zum Einsatz, an die Funkwellen nicht gelangen – etwa in Aufzügen, deren Metallwände Signale blockieren, in unterirdischen Anlagen sowie in Bergwerken und Tunneln. Er betont, dass selbst in Neintfällen wie Grubenunglücken stets Stromleitungen für Beleuchtung oder Bohrausrüstung vorhanden sind und durch den Anschluss von PLC-Modems an beiden Enden dieser Leitungen Fernüberwachung und Kommunikation ermöglicht werden. Zu den Partnerschaften von Nessum gehört die Zusammenarbeit mit dem globalen HVAC-Hersteller Daikin Industries, Ltd.
Bericht von Google.org über 5 Jahre Investitionen in digitale Kompetenzen

Laut einem von blog.google veröffentlichten Bericht hat das Programm Future of Work in 5 Jahren über $150 million in die Schulung digitaler Kompetenzen investiert. Das Programm hat in Zusammenarbeit mit 70 Organisationen in 41 europäischen Ländern Millionen von Menschen aus benachteiligten Gemeinschaften erreicht. Google.org hat nun mit Fokus auf das KI-Zeitalter vier zentrale Erkenntnisse aus dieser Erfahrung veröffentlicht und neue Initiativen wie den AI Opportunity Fund und AI Works for Europe ins Leben gerufen.
Laut diesem Bericht lautet die erste Erkenntnis „kontextbezogene Problemlösung“. So ergaben Untersuchungen der Organisation Generation, dass es eine KI-basierte Einstellungsvoreingenommenheit gegenüber mid-career-Arbeitnehmern gibt, woraufhin ein gezieltes Programm mit einer Beschäftigungsquote von 83% entwickelt wurde. Außerdem konnten zwei Schwestern namens Asmaan und Farzaneh, die aus Afghanistan nach Germany kamen, mit Hilfe von DigiCo technische und sprachliche Fähigkeiten erwerben und in ein Webentwicklungsprogramm einsteigen. Die zweite Erkenntnis ist die Balance zwischen Kompetenzaufbau und growth mindset; laut Bericht gab die Organisation TSL an, dass 69% der Teilnehmer des SkillPlus-Programms nach Kursende weiter lernten.
| Organisation | Kennzahl | Ergebnis |
|---|---|---|
| Generation | Beschäftigungsquote des gezielten Programms | 83% |
| INCO | Kursabschlussrate mit umfassender Unterstützung | 44% |
| TSL | Fortgesetztes Lernen nach Programmende | 69% |
| Czechitas | Anteil der Absolventen in der Mentoren-Community | 40% |
| Diia.Osvita (Ukraine) | Abdeckung der erwachsenen Bevölkerung | 52% |
Die dritte Erkenntnis ist der Aufbau langfristiger Infrastruktur; durch die Bereitstellung flexibler Budgets für lokale gemeinnützige Organisationen entstehen nachhaltige und widerstandsfähige Programme. Die vierte Erkenntnis ist die Einflussnahme auf Systeme; so entwickelte sich beispielsweise die Plattform Diia.Osvita in der Ukraine von einem lokalen Projekt zu einer nationalen Infrastruktur und deckt nun 52% der Erwachsenen ab. Laut diesem Bericht ermöglicht die Bereitstellung von risk-free-Budgets für gemeinnützige Organisationen das Testen innovativer Ideen, die in politische Modelle umgewandelt werden können.
Erweiterung der Cisco Secure AI Factory mit NVIDIA an den Netzwerkrand

Laut blogs.cisco.com hat Cisco auf der NVIDIA GTC-Veranstaltung angekündigt, die Cisco Secure AI Factory vom Rechenzentrum an den Netzwerkrand (edge) auszuweiten. Diese Architektur, die vor einem Jahr auf derselben Veranstaltung von Cisco and NVIDIA vorgestellt wurde, basiert auf Cisco AI PODs und Cisco Validated Designs und integriert Sicherheit in alle Schichten der KI-Infrastruktur.
Laut diesem Bericht ist Sicherheit derzeit das größte Hindernis für die Einführung von KI-Agenten (AI agents) in Unternehmen. Im Gegensatz zu einfachen Chatbots sind diese autonomen Agenten in der Lage, API-Aufrufe durchzuführen, auf Daten zuzugreifen und Entscheidungen zu treffen, wobei sie große Sprachmodelle (LLM) und kleine Sprachmodelle (SLM) für das Reasoning verwenden. Bei einem Angriff oder Ausfall dieser Modelle entstehen Risiken wie fehlerhafte operative Entscheidungen, Unterbrechung von Arbeitsabläufen und Verstöße gegen Vorschriften zum Schutz personenbezogener Daten (PII).
Cisco bietet mit Cisco AI Defense eine einheitliche Sicherheitslage unabhängig vom Ausführungsort der Agenten. Auf der GTC wurde beispielsweise eine neue Referenzarchitektur zur Vorhersage von Bestandsengpässen in Lagern auf Basis des NVIDIA Multi-Agent Intelligent Warehouse-Blueprints vorgestellt. In dieser Lösung fungiert Vaidio als visuelles Überwachungssystem für das Lager und aktiviert bei erkanntem Bestandsmangel über eine REST API einen Aible-Agenten auf Cisco Unified Edge, der SLM für die lokale Verarbeitung nutzt.
Apache Spark 4.1 senkt mit dem Real-Time-Modus die Latenz auf Millisekundenebene

Mit der Einführung des Real-Time Mode (RTM) in Apache Spark 4.1 kann die Structured Streaming-Engine Daten nun mit einer Latenz im Millisekundenbereich verarbeiten. Bisher bedeutete die Wahl einer Stream-Processing-Engine einen Kompromiss zwischen hohem Durchsatz mit Apache Spark und niedriger Latenz mit Apache Flink. Mit der Einführung von RTM ist es nun möglich, eine einzige Engine für beide Arten von Workloads zu verwenden, ohne zwei völlig unterschiedliche Systeme verwalten zu müssen.
Die bisherige Architektur von Structured Streaming basierte auf microbatch; eingehende Daten wurden in separate Stapel namens epoch aufgeteilt und verarbeitet. Dieser Ansatz funktionierte hervorragend für die Hochdurchsatzverarbeitung, da der feste Overhead auf viele Datensätze verteilt und die vektorisierte (vectorized) Ausführung die Effizienz steigerte. Das Verkleinern der Stapelgrößen stieß jedoch schnell an Grenzen; feste Kosten wie das Schreiben von Logs in den object storage, Statusaktualisierungen, logische und physische Planung sowie Task-Scheduling verursachten Latenzen von mehreren hundert Millisekunden bis hin zu einigen Sekunden.
Die Lösung des Entwicklungsteams war die Weiterentwicklung der microbatch-Architektur, ohne deren Vorteile aufzugeben. Im RTM-Modus fließen Daten kontinuierlich und ohne Unterbrechung durch die verschiedenen Verarbeitungsstufen. Die epoch-Intervalle wurden verlängert, um den checkpointing-Overhead zu verteilen, und an den epoch-Grenzen werden weiterhin Recovery-Barrieren (barriers) für die Fehlertoleranz eingesetzt. Außerdem arbeiten Verarbeitungsstufen, die zuvor sequentiell ausgeführt wurden, nun gleichzeitig; reducer beginnen sofort mit der Verarbeitung, sobald shuffle-Dateien bereit sind, ohne auf den Abschluss aller mapper zu warten. Diese Änderung hat die Ende-zu-Ende-Latenz deutlich reduziert.
| Eigenschaft | Microbatch Mode | Real-Time Mode (RTM) |
|---|---|---|
| Latenzniveau | Sekundenbereich | Millisekundenbereich |
| Datenfluss | Blockierend (blocking) | Unterbrechungsfrei (non-blocking) |
| Stufenausführung | Sequentiell | Gleichzeitig (concurrent) |
| Fehlertoleranz | exactly-once basierend auf lineage | exactly-once basierend auf lineage |
Zusammenfassung
Die wichtigsten Technologietrends von heute drehen sich um die Ausweitung künstlicher Intelligenz in städtische und unternehmerische Infrastrukturen; von der Zusammenarbeit zwischen ASUS und Foxconn zur Bereitstellung von AI City-Lösungen für Regierungen bis hin zur Erweiterung der Cisco Secure AI Factory mit NVIDIA an den Netzwerkrand. Zudem hat Apache Spark 4.1 im Bereich der Datenverarbeitung mit dem Real-Time-Modus die Latenz der Stream-Verarbeitung auf Millisekundenebene gesenkt und die Neintwendigkeit der Verwaltung zweier getrennter Systeme beseitigt.
Häufig gestellte Fragen
Welche Architektur umfasst die Zusammenarbeit von ASUS und Foxconn im Bereich der KI-basierten Smart City?
Die AI City-Architektur umfasst fünf Schichten, wobei der Sovereign Compute Layer eine sichere Infrastruktur einschließlich Rechenzentren bereitstellt und das Konzept der Urban Sovereign AI die Souveränität der Stadt über ihre eigenen Daten, Rechenressourcen und AI-Modelle betont.
Welches Problem löst die Nessum-Technologie von Panasonic im Bereich der IoT-Konnektivität?
Die Nessum-Technologie, die auf Powerline-Kommunikation (PLC) basiert, ermöglicht IoT-Netzwerke an Orten, an denen Wi-Fi und 4G/5G keine Abdeckung bieten können, wie etwa in Fabriken und Infrastrukturumgebungen, und ermöglicht die gleichzeitige Übertragung von Strom und Kommunikation über eine einzige Infrastruktur.
Welchen Vorteil bietet der Real-Time-Modus in Apache Spark 4.1 gegenüber der bisherigen Architektur?
Die bisherige Structured Streaming-Architektur basierte auf microbatch, doch der Real-Time Mode (RTM) hat die Verarbeitungslatenz auf Millisekundenebene gesenkt und ermöglicht die Nutzung einer einzigen Engine für beide Arten von Workloads – sowohl für Hochdurchsatz als auch für niedrige Latenz.
📚 Quellen
- 🔗 press.asus.com: AI City: The Next Stage in the Evolution of Smart Cities…
- 🔗 news.panasonic.com: Nessum: Bridging the IoT Communication Gap—Visualizing Future Social I…
- 🔗 blog.google: Google.org Future of Work: 5 years of impact and lessons for the AI er…
- 🔗 blogs.cisco.com: Cisco gives its Secure AI Factory with NVIDIA a secure multi-agent edg…
- 🔗 databricks.com: Breaking the Microbatch Barrier: The Architecture of Apache Spark Real…
Möchten Sie den Content für alle Produkte Ihrer Website mit einem Klick erstellen?