دسته‌بندی نشده

Technologie-Nachrichten: Aktuelle Updates vom 2026-04-26

{„@context“:“https://schema.org“,“@type“:“Article“,“headline“:“Technologie-Nachrichten: Aktuelle Updates vom 2026-04-26″,“inLanguage“:“de“,“datePublished“:“2026-04-26″,“dateModified“:“2026-04-26″,“description“:“Laut aws.amazon.com integriert Amazon Quick nun den KI-Assistenten Vee von Visier über das Model Context Protocol (MCP). Die am 24. April 2026…“,“keywords“:“Technologie, News, Technologie-Nachrichten, 2026-04-26″,“articleSection“:“Technology“,“isBasedOn“:[„https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-quick-visier-vee/“,“https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/google-cloud-next-26-recap/“,“https://blogs.cisco.com/developer/product-sprints-for-developer-oriented-portals-and-content“,“https://blogs.vmware.com/cloud-gefundenation/2026/04/24/cpu-disk-network-and-memory-workload-profiles-for-dvd-store-database-testing/“,“https://www.databricks.com/blog/openai-gpt-55-now-available-databricks-fully-governed-through-unity-ai-gateway“]}
{„@context“:“https://schema.org“,“@type“:“FAQPage“,“mainEntity“:[{„@type“:“Question“,“name“:“Wie können Nutzer in Amazon Quick auf Visiers Workforce-Daten zugreifen?“,“acceptedAnswer“:{„@type“:“Answer“,“text“:“Nach Einrichtung der Verbindung über Visiers Remote-MCP-Server können Nutzer in natürlicher Sprache Fragen zu Personalbestand, Fluktuation, Betriebszugehörigkeit und offenen Stellen stellen, ohne zwischen verschiedenen Tools wechseln zu müssen.“}},{„@type“:“Question“,“name“:“Welche neuen KI-Modelle hat Google auf der Cloud Next ’26 vorgestellt?“,“acceptedAnswer“:{„@type“:“Answer“,“text“:“Google präsentierte unter anderem Gemini 3.1 Pro für komplexe Arbeitsabläufe, Gemini 3.1 Flash Image (Nano Banana 2) für visuelle Inhalte, Lyria 3 für professionelles Audio sowie den neuen TPU 8t für den nötigen Rechenaufwand.“}},{„@type“:“Question“,“name“:“Welche Lastprofile bietet DVD Store 3.5 für Datenbanktests?“,“acceptedAnswer“:{„@type“:“Answer“,“text“:“DVD Store 3.5 stellt nun dokumentierte Lastprofile bereit, die prozessor-, netzwerk-, festplatten- oder speicherintensive Szenarien abdecken. Die Profile sind im offiziellen GitHub-Repository unter ds35/workload_profiles verfügbar und wurden auf einer VM unter VMware Cloud Foundation ESX 9.0 validiert.“}}]}

Dieser Bericht fasst die Technologie-Nachrichten vom 2026-04-26 zusammen und basiert ausschließlich auf den Originaltexten der Quellen.

🔑 Auf einen Blick

  • Amazon Quick integriert Visiers KI-Assistenten Vee
  • Google Cloud Next ’26: KI-Agenten im Fokus
  • Produktsprints für Entwicklerportale und Inhalte
  • DVD Store 3.5: Neue Lastprofile für Datenbanktests
  • GPT-5.5 und Codex jetzt auf Databricks verfügbar

Amazon Quick integriert Visiers KI-Assistenten Vee

Amazon Quick integriert Visiers KI-Assistenten Vee

Laut aws.amazon.com integriert Amazon Quick nun den KI-Assistenten Vee von Visier über das Model Context Protocol (MCP). Die am 24. April 2026 veröffentlichte Ankündigung richtet sich an HR-Verantwortliche, Finanzmanager und Operations-Führungskräfte, die künftig direkt in ihrem Amazon Quick-Arbeitsbereich auf Workforce-Intelligence-Daten von Visier zugreifen können, ohne zwischen verschiedenen Tools wechseln zu müssen.

Nach der Einrichtung der Verbindung über Visiers Remote-MCP-Server können Nutzer in natürlicher Sprache Fragen zu Personalbestand, Fluktuation, Betriebszugehörigkeit und offenen Stellen stellen. Die Antworten basieren dabei auf Visiers kontrolliertem Workforce-Datenmodell. Vee kann darüber hinaus aus automatisierten Quick Flows heraus aufgerufen werden, etwa um wiederkehrende Personalberichte zu erstellen oder Dokumente zu entwerfen.

Amazon Quick leitet relevante Anfragen intelligent an Vee weiter und liefert kontextualisierte Antworten zusammen mit unternehmensinternem Wissen – beispielsweise Budgets, Richtlinien und Pläne, die in Quick Spaces gespeichert sind. So soll jede Antwort das vollständige organisatorische Bild widerspiegeln.

Die Visier-Integration mit Amazon Quick ist in allen AWS Regions verfügbar, in denen Amazon Quick angeboten wird. Weitere Informationen finden sich im Integrationsleitfaden und auf der Integrationsseite von Amazon Quick.

Google Cloud Next ’26: KI-Agenten im Fokus

Google Cloud Next '26: KI-Agenten im Fokus

Auf der Google Cloud Next ’26 in Las Vegas hat Google den Beginn einer neuen Ära ausgerufen: Künstliche Intelligenz soll künftig nicht nur Arbeit unterstützen, sondern als eigenständiger Agent Aufgaben autonom erledigen. Herzstück der Ankündigungen ist die Gemini Enterprise Agent Platform – eine durchgängige Entwicklungsumgebung, mit der Unternehmen KI-Agenten erstellen, verwalten und skalieren können. Zur Verfügung stehen dabei Gemini 3.1 Pro für komplexe Arbeitsabläufe, Gemini 3.1 Flash Image (auch bekannt als Nano Banana 2) für visuelle Inhalte, Lyria 3 für professionelles Audio sowie Claude von Anthropic Opus 4.7. Mit Agent Studio als Low-Code-Oberfläche und dem No-Code-Werkzeug Agent Designer können auch Nutzer ohne Programmierkenntnisse eigene Agenten bauen.

Für den nötigen Rechenaufwand sorgen neue Hardwaregenerationen. Der TPU 8t wurde für das Training von KI-Modellen konzipiert, während der TPU 8i auf Inferenz optimiert ist und 80% bessere Leistung pro Dollar liefern soll. Ergänzend wird Google zu den ersten Anbietern der neuen NVIDIA Vera Rubin NVL72-Systeme gehören. Das eigens entwickelte Virgo Network verbindet Supercomputer untereinander, und Managed Lustre erreicht Übertragungsraten von 10 Terabyte pro Sekunde.

Komponente Details
Gemini 3.1 Pro Leistungsfähigstes Modell für komplexe Arbeitsabläufe
Gemini 3.1 Flash Image Bildgenerierung (auch Nano Banana 2 genannt)
Lyria 3 Professionelle Audioerzeugung
TPU 8t Optimiert für Modelltraining
TPU 8i Optimiert für Inferenz, 80% bessere Leistung pro Dollar
NVIDIA Vera Rubin NVL72 Neue GPU-Systeme im Angebot
Managed Lustre Bis zu 10 TB/s Datendurchsatz

Damit KI-Agenten auf relevante Unternehmensdaten zugreifen können, stellte Google die Agentic Data Cloud vor. Deren Knowledge Catalog ordnet und verknüpft Datenbestände automatisch mithilfe von Gemini. Das Cross-Cloud Lakehouse basiert auf Apache Iceberg und ermöglicht Abfragen über Cloud-Grenzen hinweg – selbst bei Daten in AWS – ohne diese verschieben zu müssen.

Im Bereich Sicherheit kombiniert Google seine Bedrohungsanalyse mit der Plattform von Wiz, das nun Teil von Google Cloud ist. Spezialisierte Agenten wie der Threat Hunting Agent, der Detection Engineering Agent und der Third-Party Context Agent sollen Bedrohungen proaktiv erkennen und Sicherheitsregeln eigenständig erstellen. Wiz unterstützt nun auch Databricks sowie weitere KI-Studios und Multicloud-Plattformen.

Produktsprints für Entwicklerportale und Inhalte

Produktsprints für Entwicklerportale und Inhalte

Laut blogs.cisco.com ist bei der Entwicklung von Entwicklerportalen die Geschwindigkeit bei der Entscheidungsfindung oft wichtiger als Perfektionismus. Statt monatelang an einem Feature zu arbeiten, sollte man mit einer konkreten und messbaren Hypothese starten – etwa, dass die Hälfte der Nutzer nach dem ersten API-Aufruf im Konversionstrichter abspringt oder dass die durchschnittliche Sitzungsdauer in der Cloud IDE unter 10 Sekunden liegt.

Nach jeder Veröffentlichung empfiehlt der Beitrag, den Erfolg anhand von Produkt-Market-Fit-Indikatoren zu messen. Dazu gehören beispielsweise Wachstum bei Nutzung und Registrierung mit Fokus auf Activation Rate and Return Verwendung, die Korrelation von Dokumentationsbesuchen und API-Anfragen sowie die sogenannte Time to First Hello World (TTFHW). Entscheidungen sollten laut Quelle durch drei Säulen validiert werden: Produktanalytik, Nutzerfeedback und geschäftliche Auswirkungen.

Indikator Richtwert laut Quelle
Time-to-Completion-Abweichung Ein Lab für 30 Minuten, das durchschnittlich eine Stunde dauert, zeigt zu viel Reibung
TTFHW (erste App, Integration oder API-Aufruf) unter 10 Minuten
Sitzungsdauer Cloud IDE (Problemindikator) unter 10 Sekunden
Time-to-Completion-Anstieg (Tutorials) 20 Minuten
Kritische Seiten (niedrige Sitzungsdauer) unter 15 Sekunden
Schwelle für Kurzzeit-Seiten unter 2 Minuten

Als praktisches Beispiel beschreibt der Beitrag die Einführung einer README-first Cloud IDE bei DevNet. Nutzerfeedback und Analysen zeigten, dass das standardmäßige VS Code-Startfenster ablenkend wirkte, insbesondere bei speziellen Umgebungen wie Cisco NSO-Containern. Die Lösung bestand darin, die README-Anleitung des Repositorys standardmäßig zu öffnen. Darüber hinaus werden Analyseevents wie etwa copy_for_ai oder download_openapi_doc empfohlen, um zu verstehen, wie Inhalte von Nutzern und KI-gestützten Entwicklungswerkzeugen konsumiert werden.

DVD Store 3.5: Neue Lastprofile für Datenbanktests

DVD Store 3.5: Neue Lastprofile für Datenbanktests

Das quelloffene Datenbank-Testwerkzeug DVD Store, das seit seiner Erstveröffentlichung im Jahr 2005 breit eingesetzt wird, unterstützt nun dokumentierte Lastprofile für unterschiedliche Belastungsszenarien. Die Software simuliert einen Online-Shop, in dem Nutzer sich anmelden, stöbern, bewerten und DVDs kaufen. Sie läuft auf SQL Server, Oracle, PostgreSQL und MySQL und nutzt gängige Datenbankfunktionen wie gespeicherte Prozeduren, Indizes, Fremdschlüssel, Volltextsuche, komplexe Mehrtabellen-Abfragen und Transaktionen.

Ursprünglich wurde DVD Store als prozessorintensive Arbeitslast konzipiert, doch schon immer ließen sich Parameter anpassen, um auch netzwerk-, festplatten- oder speicherintensive Profile zu erzeugen. Beispiele dieser Profile sind nun im offiziellen GitHub-Repository unter https://github.com/dvdstore/ds35/tree/main/workload_profiles bereitgestellt und erläutert.

Die Validierungstests wurden auf einer einzelnen virtuellen Maschine durchgeführt, die auf einem VMware Cloud Foundation (VCF) ESX 9.0 Server lief. Als Gastbetriebssystem kam Windows Server 2022 mit SQL Server 2022 zum Einsatz. Sämtliche Leistungskennzahlen wurden aus Sicht des ESX-Hosts mittels esxtop erfasst.

Lastprofil Veränderung gegenüber dem CPU-Profil
Festplattenintensiv 13x mehr IOPS
High IOPS 95x mehr IOPS, 7x mehr als festplattenintensiv
Netzwerkintensiv 15x mehr gesendete Mb pro Sekunde
Speicherintensiv 2,9x mehr aktiver Arbeitsspeicher

Alle Konfigurationsdetails zu den einzelnen Lastprofilen einschließlich der spezifischen DVD-Store-Parameter und Datenbankeinstellungen finden sich in der Datei ds35_workload_profiles.txt im GitHub-Projekt.

GPT-5.5 und Codex jetzt auf Databricks verfügbar

GPT-5.5 und Codex jetzt auf Databricks verfügbar

Laut databricks.com unterstützt Databricks nun GPT-5.5 nativ. Das Modell wird als OpenAI’s stärkstes Frontier-Modell für agentenbasierte Unternehmensanwendungen, komplexe Dokumentenanalyse und long-horizon Programmier-Agenten beschrieben. Sämtliche GPT-5.5-Nutzung auf Databricks wird über Unity AI Gateway gesteuert, das zentralisierte Sicherheit, Kostenkontrolle und Überwachung bieten soll – sowohl für die GPT-5.5-Modellinferenz als auch für Codex-Programmierworkflows von OpenAI.

Funktion Beschreibung
Genie Natürlichsprachliche Analyse-Oberfläche, die es Geschäftsanwendern ermöglicht, Unternehmensdaten in natürlicher Sprache abzufragen
Agent Bricks Custom Agents Bau eigener Agenten für komplexe multi-step Workflows – etwa Dokumentenanalyse oder Automatisierung von Geschäftsprozessen – mit Bereitstellung als Databricks Apps
Lakeflow Spark Declarative Pipelines für GenAI ETL Automatisierte Dokumentenverarbeitung mit KI-Transformationen wie Zusammenfassung, Extraktion oder Klassifikation

GPT-5.5 soll laut Quelle insbesondere bei der Verarbeitung komplexer, realer Dokumente wie gescannter PDFs, Tabellen und multi-format Daten zuverlässigere Ergebnisse liefern. Entwickler können GPT-5.5-gestützte Agenten mit ihren bevorzugten Werkzeugen und Frameworks erstellen und diese als vollständig verwaltete, serverlose Databricks Apps bereitstellen.

GPT-5.5 steht laut Databricks ab sofort auf AWS, Azure und GCP zur Verfügung. Unity AI Gateway dient dabei als zentrale Steuerungsebene für Sicherheit und Governance über alle Agenten, Abfragen und Programmier-Workflows hinweg.

Fazit

Die heutigen Technologie-Nachrichten zeigen einen klaren Trend zu KI-gestützten Agenten und Plattformintegrationen: Amazon Quick bindet Visiers KI-Assistenten Vee ein, Google stellt auf der Cloud Next ’26 seine Gemini Enterprise Agent Platform vor, und Databricks macht GPT-5.5 samt Codex nativ verfügbar. Ergänzend liefern Beiträge zu Produktsprints für Entwicklerportale und das aktualisierte DVD Store 3.5 praxisnahe Impulse für Softwareentwicklung und Datenbanktests.

Häufig gestellte Fragen

Wie können Nutzer in Amazon Quick auf Visiers Workforce-Daten zugreifen?

Nach Einrichtung der Verbindung über Visiers Remote-MCP-Server können Nutzer in natürlicher Sprache Fragen zu Personalbestand, Fluktuation, Betriebszugehörigkeit und offenen Stellen stellen, ohne zwischen verschiedenen Tools wechseln zu müssen.

Welche neuen KI-Modelle hat Google auf der Cloud Next ’26 vorgestellt?

Google präsentierte unter anderem Gemini 3.1 Pro für komplexe Arbeitsabläufe, Gemini 3.1 Flash Image (Nano Banana 2) für visuelle Inhalte, Lyria 3 für professionelles Audio sowie den neuen TPU 8t für den nötigen Rechenaufwand.

Welche Lastprofile bietet DVD Store 3.5 für Datenbanktests?

DVD Store 3.5 stellt nun dokumentierte Lastprofile bereit, die prozessor-, netzwerk-, festplatten- oder speicherintensive Szenarien abdecken. Die Profile sind im offiziellen GitHub-Repository unter ds35/workload_profiles verfügbar und wurden auf einer VM unter VMware Cloud Foundation ESX 9.0 validiert.


📚 Quellen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert