Willkommen!
Während technologisch KI-Systeme zunehmend autonom operieren und ganze Entwicklungszyklen ohne menschliches Zutun durchlaufen, formiert sich politisch eine Gegenbewegung. Regierungen beanspruchen Definitionshoheit über Infrastruktur, Unternehmen wie OpenAI werben aktiv für staatliche Eingriffe, und Nationen wie Japan oder Deutschland behandeln KI-Fähigkeiten als Souveränitätsfrage. Was oberflächlich wie industriepolitische Routine wirkt, dokumentiert einen Kontrollverlust etablierter Institutionen gegenüber einer Technologie, die sich schneller entwickelt als Governance-Strukturen nachkommen.
Damit das KI-Briefing für Sie maximal nützlich bleibt, freuen wir uns über Ihr Feedback. Teilen Sie uns gerne mit, welche Impulse für Sie am wertvollsten sind – und helfen Sie dabei, unser Briefing in Ihrem Netzwerk bekannt zu machen. Gemeinsam können wir eine Community aufbauen, die voneinander lernt und sich gegenseitig stärkt. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.
Was Sie in diesem Briefing erwartet
News: Claude Mythos entdeckt jahrzehntealte Schwachstellen ohne menschliche Hilfe, OpenAI fordert Industriepolitik für das KI-Zeitalter, Vercel setzt auf Agentic Infrastructure für KI-getriebene Software, KI ersetzt bei jedem fünften US-Arbeitnehmer bereits Tätigkeiten, Japan macht Physical AI zur Überlebensstrategie für schrumpfende Belegschaften, SpaceX verliert 5 Milliarden Dollar für KI-Infrastruktur & Deutschland und Kanada planen transatlantische KI-Fusion mit Staatsinteresse
Deep Dive: Hat Europa die Rechenleistung für seine KI-Strategie?
In aller Kürze: Meta-Mitarbeiter verbrannten in 30 Tagen über 60 Billionen Tokens, Zhipu AI legt mit GLM-5.1 den Fokus auf mehrstufige Automatisierung, Sierra erreicht 100 Millionen Dollar ARR in 21 Monaten mit sprachgesteuerten Agents, CoreWeave sichert sich weitere 21 Milliarden Dollar von Meta für GPU-Kapazität bis 2032 & Anthropic vereinbart mit Google und Broadcom mehrere Gigawatt TPU-Rechenkapazität ab 2027
Videos & Artikel: Ryan Greenblatt verdoppelt Wahrscheinlichkeit für vollautomatische KI-Forschung bis 2028 auf 30 Prozent, New Yorker legt interne Dokumente vor und zeigt Gründe für Sam Altmans Entlassung 2023, KI-Programmiertools führen zu Code-Schwemme und überfordern Prüfkapazitäten in Unternehmen, MIT entwickelt Iceberg Index zur Messung von KI-Exposition nach Tasks statt Jobs & KI-generierte Propaganda-Videos dominieren soziale Medien und prägen Wahrnehmung von Konflikten
Impuls: Werte als Wettbewerbsvorteil programmieren
Umfrage: Wenn Sie an Ihre Datenstrategie denken: Wo liegt das größte Hindernis für KI-Projekte konkret?
Monitoring Europe: Technologiesektor der Ukraine entwickelt sich vom Verteidigungsfokus zum robusten Innovations-Ökosystem
Praxisbeispiel: Anthropic Managed Agents zwischen Versprechen und Praxis
YouTube: Wenn KI-Pioniere über Macht, Motivation und die Zukunft der Menschheit sprechen

Sicherheit
Claude Mythos entdeckt jahrzehntealte Schwachstellen ohne menschliche Hilfe
Zusammenfassung: Anthropic hat Claude Mythos Preview vorgestellt, ein noch nicht veröffentlichtes KI-Modell, das bei der Identifikation und Ausnutzung von Software-Schwachstellen nahezu auf menschlichem Expertenniveau arbeitet. Das Modell fand bereits Tausende bisher unbekannte Sicherheitslücken in allen großen Betriebssystemen und Browsern. Um diese Fähigkeiten für defensive Zwecke zu nutzen, gründet Anthropic Project Glasswing, eine Initiative mit AWS, Apple, Google, Microsoft, NVIDIA und weiteren Tech-Konzernen. Anthropic stellt bis zu 100 Millionen Dollar an Nutzungsguthaben sowie 4 Millionen Dollar Direktspenden für Open-Source-Sicherheit bereit.
Autonome Exploit-Entwicklung: Mythos Preview identifizierte unter anderem eine 27 Jahre alte Schwachstelle in OpenBSD und eine 16 Jahre alte Lücke in FFmpeg, beide ohne menschliche Anleitung. Das Modell erreicht auf CyberGym eine 83,1 Prozent Erfolgsrate, verglichen mit 66,6 Prozent bei Claude Opus 4.6.
Doppelte Bedrohung und Chance: Anthropic warnt, dass solche Fähigkeiten bald auch außerhalb sicherer Entwicklungsumgebungen verfügbar sein könnten. Gleichzeitig ermöglicht das Modell Verteidigern, Schwachstellen in kritischer Infrastruktur vor Angreifern zu finden und zu schließen.
Eingeschränkte Verfügbarkeit: Mythos Preview wird nicht öffentlich zugänglich gemacht. Stattdessen erhalten ausgewählte Partner und über 40 Organisationen, die kritische Software entwickeln oder betreiben, zeitlich begrenzten Zugang für defensive Sicherheitsarbeit.
Warum das wichtig ist: Der Durchbruch verschiebt das Gleichgewicht in der Cybersicherheit grundlegend. Wenn KI-Modelle Schwachstellen schneller finden als menschliche Experten, sinken die Eintrittsbarrieren für Cyberangriffe dramatisch. Für Unternehmen ohne Zugang zu vergleichbaren Modellen entsteht ein strategischer Nachteil bei der Absicherung ihrer Systeme. Anthropics kontrollierte Freigabe an ausgewählte Partner schafft faktisch einen privilegierten Verteidigungskreis. Langfristig könnten solche Modelle die Machtverteilung im Cybersicherheitsmarkt neu ordnen und staatliche Regulierung beschleunigen. Die Frage ist nicht mehr, ob KI Cyberabwehr revolutioniert, sondern wer Zugang zu den wirksamsten Werkzeugen erhält.
Intelligence Orchestration
Unternehmen scheitern an fragmentierter KI-Adoption ohne zentrale Orchestrierung

Quelle: BlackMountain
Zusammenfassung: 81 Prozent der Unternehmen scheitern laut einer Salesforce-Studie an KI-Integration, weil Datenbestände isoliert in Insellösungen liegen statt zentral orchestriert zu werden. Eine Harvard-Studie mit fast 800 Entwicklern zeigt, dass Mensch-KI-Kollaboration den Output massiv steigert, jedoch nutzen Mitarbeitende oft ungenehmigt eigene Tools – sogenannte Schatten-KI. Zwei Drittel der Firmen finden solche unautorisierten Anwendungen, weniger als ein Drittel verfügt über Monitoring. BlackMountain argumentiert, dass der Übergang von "Human in the loop" zu "Human in the lead" entscheidend ist: KI als Teamkollege statt Tool, orchestriert durch Governance-Plattformen.
Datenfundament als Führungsaufgabe: Moderne KI-Adoption erfordert strukturierte interne Informationen plus externe Signale. Ohne zentrale Steuerung, klare Rollen und aktuelle Datenflüsse liefern Modelle suboptimale Ergebnisse – das "Garbage in, Garbage out"-Prinzip wird zum Managementproblem.
Schatten-KI birgt Compliance-Risiken: Beinahe die Hälfte der Unternehmen überprüft KI-Nutzung nicht oder reagiert nur auf Vorfälle statt proaktiv Leitplanken zu setzen. Fehlende Kontrolle gefährdet Datenqualität, Datenschutz und Cyber-Security.
Plattform-Governance als Erfolgshebel: Gartner-Umfragen zeigen, dass Unternehmen mit Orchestrierungsplattformen 3,4-mal häufiger KI erfolgreich steuern. Regulatorische Aufwände sinken um bis zu 20 Prozent, was Budgets für Wachstum freisetzt.
Warum das wichtig ist: Die Studie dokumentiert eine Verschiebung vom Technologie- zum Führungsproblem. Fragmentierte KI-Adoption ohne zentrale Orchestrierung führt zu steigenden Kosten bei sinkendem Mehrwert – ein strukturelles Risiko für die Wettbewerbsfähigkeit. Für Verantwortliche in der KI-Adoption bedeutet dies drei konkrete Handlungsfelder: Erstens müssen Governance-Strukturen vor weiterer Tool-Proliferation etabliert werden, um Schatten-KI-Risiken zu begrenzen. Zweitens erfordert produktive Mensch-KI-Kollaboration explizite Rollen- und Entscheidungsrechte statt impliziter Ad-hoc-Nutzung. Drittens wird die Konsolidierung interner Wissensbestände mit externen Marktsignalen zur Voraussetzung für Skalierung – eine Aufgabe, die IT-Abteilungen allein nicht lösen können, sondern vom CIO bis CHRO gemeinsam verantwortet werden muss.
Diese Anzeige basiert auf der Masterclass von BlackMountain, die im Rahmen der Transform 2026 in Berlin präsentiert wurde. Für den Erhalt der vollständigen Präsentationsunterlagen wenden Sie sich bitte per E-Mail an [email protected].
Industriepolitik
OpenAI fordert Industriepolitik für das KI-Zeitalter

Quelle: OpenAI
Zusammenfassung: OpenAI hat ein Strategiepapier mit dem Titel „Industrial Policy for the Intelligence Age" vorgelegt. Das Unternehmen warnt vor Superintelligenz und fordert staatliche Eingriffe, um den Übergang sozial verträglich zu gestalten. Kernforderungen sind ein öffentlicher Vermögensfonds, adaptive Sicherheitsnetze und Mitspracherechte für Beschäftigte. OpenAI selbst sieht Risiken der Machtkonzentration bei wenigen Firmen und stellt Fördermittel für weitere Forschung bereit.
Superintelligenz als Schwelle: OpenAI prognostiziert KI-Systeme, die selbst KI-gestützte Menschen übertreffen. Die Auswirkungen auf Arbeit, Wissen und Gesellschaft seien mit früheren Technologiesprüngen nicht vergleichbar. Das Dokument sieht einen Paradigmenwechsel in der Wirtschaftsorganisation voraus.
Vermögensfonds für alle Bürger: Das Unternehmen schlägt einen Public Wealth Fund vor, der allen Bürgern direkte Renditen aus KI-gestütztem Wirtschaftswachstum ermöglicht. Finanziert werden soll er durch KI-Firmen und Unternehmen, die KI einsetzen. Ziel ist breite Teilhabe unabhängig vom Kapitalzugang.
Forschungsförderung und Workshop: OpenAI stellt bis zu 100.000 US-Dollar Fördergelder und bis zu eine Million Dollar API-Credits für Forschungsprojekte zur Verfügung. Im Mai eröffnet ein Workshop in Washington, D.C., um die Vorschläge mit Regierungen und Zivilgesellschaft zu diskutieren.
Warum das wichtig ist: OpenAI versucht, die politische Debatte über KI-Regulierung aktiv mitzugestalten, bevor strengere Auflagen kommen. Der Vorstoß wirkt wie eine präventive Strategie, um den eigenen Handlungsspielraum zu sichern und gleichzeitig als verantwortungsbewusst wahrgenommen zu werden. Die Forderung nach einem Vermögensfonds könnte Umverteilungsdiskussionen befeuern, während adaptive Sicherheitsnetze und Audits neue Governance-Strukturen etablieren würden. Für Regierungen entsteht Druck, schnell Rahmenbedingungen zu schaffen. Wer die Standards setzt, definiert die Spielregeln der KI-Ökonomie für Jahrzehnte.
Infrastruktur
Vercel setzt auf Agentic Infrastructure für KI-getriebene Software

Quelle: Vercel
Zusammenfassung: Vercel beschreibt eine neue Infrastruktur-Generation, weil Coding Agents Software zunehmend selbst bauen, testen und ausrollen. Laut CPO Tom Occhino haben sich die wöchentlichen Deployments in drei Monaten verdoppelt. Mehr als 30 Prozent der Deployments werden inzwischen von Coding Agents angestoßen, das ist ein Plus von 1.000 Prozent in sechs Monaten. Claude Code steht für 75 Prozent dieser Agent-Deployments. Von Agents ausgerollte Projekte rufen 20-mal häufiger KI-Inferenzdienste auf als menschlich deployte.
Deployment wird zur Maschinen-Schnittstelle: Vercel positioniert immutable Deployments, Preview-URLs pro Commit und schnelle Rollbacks als Voraussetzung, damit autonome Entwicklungszyklen ohne manuelle Cloud-Konsole oder Terraform-Reibung funktionieren.
Agent-Workloads brauchen neuen Stack: Im Fokus stehen lange Laufzeiten, Orchestrierung, Modell-Routing, Budgetkontrollen, isolierte Ausführung und Missbrauchsschutz. Vercel bündelt dafür Bausteine wie AI SDK 6, AI Gateway, Workflows, Queues, Sandbox und Observability.
Infrastruktur soll selbst operativ handeln: Vercel skizziert eine Plattform, die bei Ausfällen oder Latenzspitzen Anomalien untersucht, Telemetrie abfragt, Logs und Code prüft und Fix-Vorschläge in Sandboxes vorbereitet, aktuell mit menschlicher Freigabe.
Warum das wichtig ist: Vercel rahmt den nächsten Cloud-Wettbewerb als Verschiebung von Developer Experience zu Agent Experience. Wenn Deployments, Tests und Betrieb zunehmend von Maschinen angestoßen werden, werden standardisierte, deterministische Schnittstellen zur Kernanforderung. Gleichzeitig verschiebt sich Wertschöpfung in die Schicht, die Modelle, Kosten, Ausführungssicherheit und Beobachtbarkeit integriert und damit Betrieb als Produkt verkauft. Für Unternehmen erhöht das den Druck, Agent-Workloads wie ein eigenes Plattformthema zu behandeln, statt sie nur als Funktion in bestehenden Anwendungen zu sehen.
Arbeitsmarkt
KI ersetzt bei jedem fünften US-Arbeitnehmer bereits Tätigkeiten

Quelle: Shutterstock
Zusammenfassung: Bei 20 Prozent der US-Vollzeitbeschäftigten hat KI laut einer Umfrage von Epoch AI und Ipsos bestehende Aufgaben ersetzt, während 15 Prozent neue Tätigkeiten übernahmen, die ohne KI nicht möglich gewesen wären. Die Hälfte der Erwachsenen nutzte KI in der vergangenen Woche, häufig über private Abos oder kostenlose Versionen statt Unternehmenslizenzen. Acht Prozent der KI-Nutzer setzten autonome Agents ein. Flankierend schätzt Goldman Sachs, dass KI in den USA netto rund 16.000 Jobs pro Monat verdrängt.
Nutzung verbreitet, Intensität meist niedrig: Rund 50 Prozent der KI-Nutzer verwendeten KI an zwei bis fünf Tagen pro Woche. An ihrem intensivsten Tag erledigten 62,5 Prozent jedoch nur ein bis zwei kurze Aufgaben, während etwa 6 Prozent Heavy-User sind.
Unternehmen finanzieren oft nicht mit: Etwa die Hälfte derjenigen, die KI für die Arbeit nutzten, griff auf private Abos oder Gratisangebote zurück. Das deutet auf eine Lücke zwischen tatsächlicher Nutzung und formaler Tool-Bereitstellung hin.
Agents sind noch Nische, aber sichtbar: 8 Prozent der KI-Nutzer setzten in der Vorwoche autonome Agents ein, während 49 Prozent KI für Websuche nutzten. Das zeigt eine frühe, aber messbare Verlagerung von Assistenz zu teilautonomen Workflows.
Warum das wichtig ist: Die Umfrage liefert ein seltenes Stimmungs- und Nutzungssignal aus der Breite des Arbeitsmarkts, das über Einzelbeispiele hinausgeht. Für Unternehmen ist vor allem die Diskrepanz zwischen produktiver Nutzung und fehlender organisatorischer Einbettung relevant, da private oder kostenlose KI-Nutzung Risiken bei Datenschutz, Vertraulichkeit und Kostensteuerung erhöht. Zudem deutet das Verhältnis von ersetzten zu neuen Aufgaben darauf hin, dass KI-Effekte in Teams bereits operativ spürbar sind und sich nicht mehr nur in Pilotprojekten abspielen. Für Politik und Sozialpartner werden Fragen der Qualifizierung und Aufgabenverschiebung damit kurzfristiger.
Physical AI
Japan macht Physical AI zur Überlebensstrategie für schrumpfende Belegschaften

Quelle: Shutterstock
Zusammenfassung: Japan treibt den Einsatz von KI-gesteuerten Robotern in Fabriken, Lagern und Infrastruktur voran – nicht aus Effizienzgründen, sondern aus demografischer Notwendigkeit. Das Wirtschaftsministerium strebt bis 2040 einen globalen Marktanteil von 30 Prozent an. Die erwerbsfähige Bevölkerung soll in den nächsten 20 Jahren um 15 Millionen schrumpfen. Unternehmen setzen Physical AI ein, um kritische Betriebsabläufe aufrechtzuerhalten. Die Regierung unter Premierministerin Sanae Takaichi stellt 6,3 Milliarden Dollar für KI-Fähigkeiten und Robotik-Integration bereit.
Verschiebung von Pilotprojekten zu Produktiveinsatz: Japanische Firmen zahlen mittlerweile für Roboter-Deployments statt für herstellerfinanzierte Tests. Automatisierte Gabelstapler, Inspektionsroboter in Rechenzentren und autonome Lagersysteme laufen über volle Schichten mit messbaren Betriebszeiten und Produktivitätskennzahlen.
Hybrides Ökosystem statt Winner-Takes-All: Etablierte Konzerne wie Toyota, Mitsubishi Electric und Honda liefern Skalierung und Kundenzugang, während Start-ups wie Mujin Orchestrierungssoftware entwickeln, die Hardware-unabhängig arbeitet. Investitionen fließen zunehmend in Integrations-Plattformen, digitale Zwillinge und Simulations-Tools statt in reine Hardware.
Hardware-Stärke trifft auf System-Risiko: Japan dominiert bei hochpräzisen Komponenten wie Aktuatoren und Sensoren mit 70 Prozent Weltmarktanteil in Industrierobotik. USA und China entwickeln jedoch schneller vollintegrierte Systeme mit Hardware, Software und Daten. Japanische Anbieter müssen KI-Modelle tiefer mit ihrer Hardware verzahnen, um den Vorsprung zu halten.
Warum das wichtig ist: Japan zeigt, wie Physical AI von einer Optimierungstechnologie zur systemkritischen Infrastruktur wird, wenn Arbeitskräftemangel strukturell wird. In alternden Industriegesellschaften – auch im DACH-Raum – liefert das konkrete Blaupausen für Deployment-Strategien jenseits von Effizienzgewinnen. Die Verschiebung von Vendor-Lock-in-Risiken hin zu herstellerunabhängigen Orchestrierungs-Schichten verändert Beschaffungslogik und ROI-Kalkulationen grundlegend. Wer Deployment, Integration und kontinuierliche Verbesserung kontrolliert, sichert sich langfristig verteidigbare Positionen – nicht Hardware-Hersteller allein. Unternehmen mit ähnlichen demografischen Herausforderungen sollten prüfen, ob ihre Automatisierungsstrategie auf bezahlte Produktiv-Deployments oder auf endlose Pilotphasen ausgerichtet ist.
SpaceX
SpaceX verliert 5 Milliarden Dollar für KI-Infrastruktur

Quelle: Shutterstock
Zusammenfassung: SpaceX hat 2025 nach Medienberichten knapp 5 Milliarden Dollar Verlust verzeichnet, während das Unternehmen massiv in Chips und Rechenzentren für xAI investierte. Die Ausgaben für KI-Infrastruktur erreichten 13 Milliarden Dollar und übertrafen damit die kombinierten Investitionen in Raketen und Satelliten. Trotz der Verluste erwirtschafteten die Geschäftsbereiche Raketenstart und Starlink ein bereinigtes EBITDA von knapp 8 Milliarden Dollar bei einem Gesamtumsatz von über 18,5 Milliarden Dollar.
Vertikale Integration als Wettbewerbsvorteil: SpaceX kontrolliert mit Chips, Modellen, Daten, Internetauslieferung und Raketentransport die gesamte Wertschöpfungskette. Analyst Gene Munster nennt das eine Chance, die kein anderes Unternehmen besitzt.
Partnerschaft mit Intel und Tesla: Das Projekt Terafab bündelt Chip-Fertigung über SpaceX, xAI und Tesla. Ziel ist der Aufbau skalierbarer Recheninfrastruktur für KI und das Weltraum-Ökosystem von Musk.
IPO könnte 1,75 Billionen Dollar Bewertung erreichen: Die geplante Emission soll über 75 Milliarden Dollar einbringen. Bis zu 30 Prozent der Anteile könnten an Privatanleger gehen – weit über dem üblichen Niveau.
Warum das wichtig ist: SpaceX positioniert sich nicht mehr nur als Raumfahrt- und Satellitenunternehmen, sondern als vollintegrierte KI-Plattform. Die Investitionen in xAI verschieben die strategische Ausrichtung von reinen Launch-Services zu einer souveränen KI-Infrastruktur, die von klassischen Cloud-Anbietern und Chip-Herstellern unabhängig ist. Das IPO wird voraussichtlich das größte der Geschichte und könnte dem gesamten Weltraumsektor Kapitalzuflüsse bescheren. Für Wettbewerber entsteht ein Problem, weil SpaceX Zugang zu allen Ebenen des Stacks hat – von Hardware bis Satellitenkonnektivität.
Fusion
Deutschland und Kanada planen transatlantische KI-Fusion mit Staatsinteresse

Quelle: Cohere
Zusammenfassung: Das deutsche KI-Startup Aleph Alpha und das kanadische Unternehmen Cohere verhandeln laut Handelsblatt über eine Fusion mit Sitz in beiden Ländern. Die Bundesregierung unterstützt den Deal aktiv und will Ankerkunde werden. Digitalminister Karsten Wildberger bezeichnet den Zusammenschluss als strategisch wichtig für deutsche Souveränität. Aleph Alpha hat sich nach enttäuschenden Marktresultaten als KI-Dienstleister für die öffentliche Hand positioniert und musste 50 Stellen abbauen. Cohere erzielte 2025 rund 240 Millionen Dollar Umsatz, bleibt aber deutlich hinter Anthropic und OpenAI zurück. Die Schwarz Gruppe, Investor bei Aleph Alpha, soll über ihre Tochter Schwarz Digits souveräne Cloud-Infrastruktur nach EU-Recht bereitstellen.
Souveränität als politisches Kernziel: Die Bundesregierung fordert, dass Entwicklung in Deutschland erfolgt und Infrastruktur unter europäischer Rechtsordnung ohne Drittstaaten-Zugriff läuft. Wildberger betont, KI sei nicht nur eine technische Frage, sondern zentral für deutsche und europäische Souveränität.
Schwarz Gruppe als Infrastruktur-Anker: Schwarz Digits, Digital-Tochter hinter Lidl und Kaufland, sitzt im Aleph-Alpha-Aufsichtsrat und kaufte im Januar Bosch-Anteile ab. Das Unternehmen soll Cloud-Umgebungen nach EU-Standards liefern – eine vertikale Integration von Modell bis Rechenzentrum.
Fragwürdige Marktposition beider Partner: Aleph-Alpha-Gründer Jonas Andrulis ist seit Oktober nicht mehr im Unternehmen und arbeitet an einem neuem Startup. Cohere positioniert sich als "kapital-effizient" und meidet "spekulative Exzesse", hat aber eine deutlich kleinere Marktposition als führende Labs.
Warum das wichtig ist: Die Fusion zeigt, wie Regierungen versuchen, durch industriepolitische Eingriffe nationale KI-Champions zu schaffen, wenn Marktdynamik gegen sie läuft. Aleph Alpha scheiterte am offenen Markt gegen US-Konkurrenz, wird nun aber durch öffentliche Aufträge und staatlich orchestrierte Konsolidierung am Leben gehalten. Das Modell ähnelt europäischen Airbus-Strategien – ob es bei schnelllebiger KI-Infrastruktur funktioniert, ist offen. Entscheidend wird, ob ein fusioniertes Unternehmen mit 240 Millionen Dollar Jahresumsatz gegen Anthropic, OpenAI oder Google konkurrieren kann, oder ob souveräne Infrastruktur vor allem Compliance-Anforderungen bedient, während echte Innovation woanders stattfindet. Im öffentlichen Sektor entsteht damit eine politisch präferierte Beschaffungsoption – mit allen Vendor-Lock-in-Risiken, die staatlich gestützte Quasi-Monopole mit sich bringen.

Europas Wettbewerbsfähigkeit
Hat Europa die Rechenleistung für seine KI-Strategie?
Während Brüssel von digitaler Souveränität spricht, kämpfen Frankfurts Stromnetze mit einer Last, für die sie nie gebaut wurden. Die Leerstandsquote in Europas führenden Rechenzentren ist auf 6,3 Prozent gefallen, 83 Prozent der im Bau befindlichen Kapazitäten sind bereits vermietet, bevor das erste Rack installiert ist. In Dublin verbrauchen Rechenzentren annähernd 80 Prozent des lokalen Stroms, in Frankfurt sind es 42 Prozent. Die Wartezeit für einen Netzanschluss in etablierten Hubs beträgt mittlerweile bis zu zehn Jahre. Das ist keine Infrastrukturkrise, die sich durch Fördergelder lösen lässt. Es ist eine physikalische Realität, die definiert, wo Europa in der globalen KI-Ordnung stehen wird. Die Frage ist nicht, ob der Kontinent über erstklassige Ressourcen verfügt, sondern ob er die materiellen Engpässe schnell genug überwinden kann, bevor die Entscheidung anderswo fällt.
Wie die Erschöpfung der FLAP-D-Märkte die europäische Geografie neu schreibt
Die fünf Rechenzentrumsmetropolen Frankfurt, London, Amsterdam, Paris und Dublin haben ihre installierte Kapazität seit 2019 von 1,8 auf 3,6 Gigawatt verdoppelt. Doch dieser Ausbau kann mit der Nachfrage nicht Schritt halten. Pre-Commitment ist nicht länger eine Strategie, sondern die einzige Möglichkeit, überhaupt noch relevante Kapazitäten zu sichern. Die Preise für erschlossene Grundstücke mit gesicherter Energieversorgung divergieren massiv. Primärmärkte verlangen Aufschläge vom Dreifachen gegenüber tertiären Standorten, im Vereinigten Königreich erreicht dieser Faktor sogar 8,8. Diese Spreizung reflektiert die strukturelle Unfähigkeit etablierter Hubs, schnell genug zu skalieren. Die Konsequenz ist eine geografische Neugewichtung. Über die Hälfte des prognostizierten KI-Wachstums wird in den nordischen Ländern und Tier-2-Märkten wie Madrid, Mailand oder Warschau erwartet.
Warum Megawatt zur knappsten Währung werden und Warteschlangen die Planung lähmen
KI-Workloads haben die primäre Wachstumsbeschränkung verschoben. Ein einzelner Trainingsknoten für große Sprachmodelle zieht heute 10 bis 12 Kilowatt, moderne KI-Cluster erreichen Leistungsdichten von 50 bis 100 Kilowatt pro Rack. Diese Dichte stellt regionale Stromnetze vor Herausforderungen, für die sie nicht konzipiert wurden. Der US-Betreiber ERCOT verzeichnete 2025 einen Anstieg der Lastanfragen um 300 Prozent auf 233 Gigawatt, wobei Rechenzentren über 70 Prozent dieser Anfragen ausmachten. Der globale Stromverbrauch von Rechenzentren wird sich voraussichtlich von circa 460 Terawattstunden im Jahr 2022 auf bis zu 1.050 Terawattstunden im Jahr 2026 erhöhen. In der EU wird ein Anstieg von 70 Terawattstunden 2024 auf 115 Terawattstunden bis 2030 erwartet. Um die Unsicherheit der Netzanbindung zu umgehen, entwickeln Betreiber eigene Energieinfrastrukturen und sichern sich über langfristige Power Purchase Agreements den Zugriff auf erneuerbare Energien.
Wie JUPITER Europa in die Exascale-Ära katapultiert, während NVIDIA die Hardware kontrolliert
Um die Abhängigkeit von außereuropäischen Kapazitäten zu verringern, hat die Europäische Union über das EuroHPC Joint Undertaking eine eigene Supercomputing-Infrastruktur aufgebaut. Das Aushängeschild ist JUPITER am Forschungszentrum Jülich, der erste europäische Exascale-Supercomputer. JUPITER wurde im Juni 2025 offiziell vorgestellt und belegt den vierten Platz in der weltweiten TOP500-Liste. Mit einer KI-Rechenleistung von 40 bis 80 ExaFLOP/s im 8-Bit-Modus macht JUPITER Europa zu einem ernstzunehmenden Akteur für KI-Training. JUPITER verfügt über rund 24.000 NVIDIA GH200 Grace Hopper Superchips, die über ein Quantum-2 InfiniBand-Netzwerk verbunden sind. Trotz dieser Erfolge bleibt Europa bei der zugrunde liegenden Chip-Technologie stark von US-amerikanischen Herstellern abhängig. Die Blackwell-Architektur bietet signifikante Vorteile. Die B200 verfügt über 208 Milliarden Transistoren, 2,6-mal mehr als die H100. Beim Training von Modellen wie Mixtral kann die B200 bis zu dreimal schneller sein.
Was passiert, wenn 29 Milliarden Euro mobilisiert werden, aber der Draghi-Bericht die Innovationslücke dokumentiert
Die Strategic Technologies for Europe Platform wurde als Reaktion auf den globalen Subventionswettlauf ins Leben gerufen. Bis März 2026 wurden über STEP etwa 29 Milliarden Euro mobilisiert. Durch die Umwidmung von Kohäsionsmitteln und die Hebelung von privatem Kapital strebt STEP Gesamtinvestitionen von bis zu 160 Milliarden Euro an. Für den nächsten langfristigen EU-Haushalt wurde die Einrichtung eines Europäischen Wettbewerbsfähigkeitsfonds vorgeschlagen, der mit einem Volumen von circa 450 Milliarden Euro ausgestattet sein soll. Im Bereich Digital Leadership sind 54,8 Milliarden Euro vorgesehen für KI-Forschung und Hochleistungsrechnen. Trotz massiver Anstrengungen zeigt der Vergleich mit den USA, wie weit Europa zurückliegt. Während 81 Prozent des globalen privaten Kapitals für KI in die USA fließen, erreicht die EU nur einen Bruchteil. In den USA sind 18 Regionen mit H100-Verfügbarkeit online, in der EU nur acht. Dieser Qualitätsunterschied hat direkte Auswirkungen auf die Produktivität.
Warum Inferenz zur europäischen Chance wird und Souveränität auf Skalierung trifft
Ein entscheidender Trend für die Jahre 2026 und 2027 ist die Verschiebung der KI-Workloads von Training hin zu Inferenz. Es wird erwartet, dass Inferenz bis Ende 2026 das Training als dominierenden Workload ablösen wird. Diese Entwicklung könnte eine Chance für Europa sein, da der Kontinent über ein dichtes Netz an mittelgroßen Städten verfügt, die für Edge-Rechenzentren prädestiniert sind. Geschwindigkeit beim Zugang zu Strom wird zum entscheidenden Wettbewerbsvorteil. Parallel dazu führt die Ambition der digitalen Souveränität zu einem Trend der Geopatriierung. Das Projekt Gaia-X hat sich zu einer operativen Realität entwickelt, über 15 europäische Datenräume sind mittlerweile auf Basis von Gaia-X-Standards operativ. Dennoch warnen Experten vor Sicherheitsrisiken durch Konzentration. Durch die Konsolidierung hochsensibler Daten bei kleineren Providern entstehen Honey Pots, die für staatlich gesteuerte Akteure attraktive Ziele darstellen. Europa muss einen Balanceakt zwischen rechtlicher Kontrolle und physischer Resilienz vollziehen. Die Maschinenräume sind bereit, doch ihre Leistungsfähigkeit hängt davon ab, die physikalischen Grenzen intelligent zu managen.


Quelle: Shutterstock
Tokenmaxxing: Meta-Mitarbeiter verbrannten laut interner Rangliste in 30 Tagen über 60 Billionen Tokens – dreimal mehr als alle je publizierten Bücher. Nvidia-CEO Jensen Huang fordert, Ingenieure sollten mindestens die Hälfte ihres Gehalts in Tokens investieren. Der Autor argumentiert, dass sequenzielles Token-basiertes "Denken" fundamental ineffizient ist: Menschen denken in Sensationen, nicht in Wörtern. Forscher wie Yann LeCun entwickeln Alternativen wie JEPA, die in kontinuierlichen Bedeutungsräumen statt Token-Sequenzen operieren. Verdacht: Meta könnte 60 Billionen Tokens bei Claude genutzt haben, um via Distillation sein neues Modell Muse Spark zu trainieren – Token-Ineffizienz wird zum Geschäftsmodell.
Zhipu AI: Der chinesische KI-Entwickler hat mit GLM-5.1 ein Modell vorgestellt, das speziell für langfristige Software-Engineering-Aufgaben optimiert ist. Anders als Vorgängermodelle, die nach ersten Erfolgen stagnieren, bleibt GLM-5.1 über Hunderte Iterationen produktiv: In einem Benchmark zur Vektordatenbank-Optimierung steigerte das Modell die Performance über 600 Durchläufe auf das Sechsfache des bisherigen Bestwerts. Bei GPU-Kernel-Optimierung erreichte es eine 3,6-fache Beschleunigung – hinter Claude Opus 4.6 (4,2-fach), aber deutlich vor GLM-5. Das Modell ist Open Source und soll Unternehmen ermöglichen, komplexe Entwicklungsaufgaben mit weniger menschlichem Eingriff zu automatisieren.
Sierra: CEO Bret Taylor prognostiziert das Ende buttonbasierter Software-Interaktion. Das KI-Agent-Startup hat mit Ghostwriter ein Tool lanciert, das via natürlicher Sprache andere Agents erstellt und deployed – Nutzer beschreiben Anforderungen, Ghostwriter baut den spezialisierten Agent. Taylor argumentiert, dass Enterprise-Tools wie Workday nur sporadisch genutzt werden und durch sprachgesteuerte Agents ersetzt werden sollten. Sierra erreichte 100 Millionen Dollar ARR in unter 21 Monaten und wird mit zehn Milliarden Dollar bewertet. Kritiker weisen jedoch darauf hin, dass "autonome" Agent-Implementierungen derzeit massiv auf "forward-deployed" Engineers angewiesen sind, die Agents kontinuierlich nachbessern und fine-tunen müssen – echte Autonomie bleibt vorerst Zukunftsmusik.
Core Weave: Meta hat zusätzliche 21 Milliarden Dollar für AI-Rechenkapazität bis Dezember 2032 bei CoreWeave gebucht – nach 14,2 Milliarden im September 2025. Der GPU-Cloud-Anbieter sitzt damit auf 87,8 Milliarden Dollar Auftragsbestand, wovon Meta 40,1 Prozent und OpenAI 25,5 Prozent ausmachen. Zwei Drittel der garantierten Umsätze hängen an zwei Kunden. CoreWeave hat 2,25 Gigawatt ungenutzte Stromkapazität unter Vertrag, deren Ausbau nach Nvidia-CEO Jensen Huangs Schätzung 113 Milliarden Dollar kosten würde. Das Unternehmen platziert 1,75 Milliarden Dollar Senior Notes und plant drei Milliarden in wandelbare Anleihen, um 30 bis 35 Milliarden Dollar Capex 2026 zu finanzieren – bei knapp vier Milliarden Cash im Bestand eine gewagte Wette auf GPU-Infrastruktur.
Anthropic: Das KI-Unternehmen hat mit Google und Broadcom eine Vereinbarung über mehrere Gigawatt TPU-Rechenkapazität ab 2027 unterzeichnet – die bisher größte Compute-Zusage des Unternehmens. Hintergrund: Die annualisierte Run-Rate stieg von rund neun Milliarden Dollar Ende 2025 auf über 30 Milliarden Dollar, über 1.000 Geschäftskunden zahlen jeweils mehr als eine Million Dollar jährlich – eine Verdopplung in unter zwei Monaten. Der Großteil der Infrastruktur entsteht in den USA und erweitert Anthropics 50-Milliarden-Dollar-Zusage vom November 2025. Anthropic trainiert Claude auf AWS Trainium, Google TPUs und Nvidia-GPUs – Amazon bleibt primärer Cloud-Partner. Claude ist damit das einzige Frontier-Modell auf allen drei großen Cloud-Plattformen verfügbar.

Kürzere Timelines: Ryan Greenblatt vom AI Alignment Forum hat seine Wahrscheinlichkeit für vollständige Automatisierung von KI-Forschung bis Ende 2028 auf knapp 30% verdoppelt. Haupttreiber: Opus 4.5, 4.6 und Codex 5.2 übertrafen Erwartungen, KI-Systeme bewältigen inzwischen Software-Aufgaben, die Menschen Monate bis Jahre kosten würden – darunter ein fast autonom geschriebener C-Compiler. Die 50%-Zuverlässigkeitsschwelle bei leicht verifizierbaren Aufgaben liegt 20-mal höher als erwartet. Kernmechanismus: KIs entwickeln Testsuiten und iterieren endlos. Limitierend bleibt fehlendes Urteilsvermögen bei komplexen Entscheidungen.
Sam Altman: Der New Yorker legt nach 18-monatiger Recherche interne Dokumente vor, die erstmals zeigen, warum Altman 2023 entlassen wurde. Die Investigation von Ronan Farrow und Andrew Marantz stützt sich auf über 100 Quellen und unveröffentlichte Memos. Diese belegen ein Muster widersprüchlicher Kommunikation gegenüber Investoren, Mitarbeitern und Regulierungsbehörden zu Sicherheitsfragen und Geschäftsmodell. Ilya Sutskever, der ein 6-Millionen-Angebot von Google ablehnte, führte die Absetzung mit der Begründung an, Altman sei ungeeignet, "den Finger am Knopf" zu haben. Die Recherche dokumentiert, wie OpenAI intern den Verkauf künftiger AGI-Technologie an China, Russland und USA als Auktionsmodell erwog – Mitarbeiter drohten mit Kündigung.
Code-Überflutung: KI-gestützte Programmiertools wie Cursor, Claude Code und Codex haben zu einer beispiellosen Code-Schwemme geführt. Ein Finanzdienstleister steigerte seine monatliche Code-Produktion von 25.000 auf 250.000 Zeilen – mit einem Prüfstau von einer Million Zeilen. Laut Google-Umfrage nutzen 90% der Entwickler KI-Tools. Die Folge: Unternehmen finden nicht genug erfahrene Ingenieure, um den Code auf Fehler und Sicherheitslücken zu prüfen. Einige Open-Source-Projekte haben Beiträge geschlossen. Meta-CTO Andrew Bosworth erklärte intern, Projekte mit früher Hunderten Ingenieuren seien nun mit Dutzenden machbar. Die Branche setzt auf mehr KI zur Lösung – etwa automatisierte Code-Review-Agenten.
Iceberg Index: MIT-Forschende haben ein Messinstrument entwickelt, das KI-Exposition nach Tasks statt Jobs bewertet. Der Index kartiert 151 Millionen US-Arbeitskräfte über 923 Berufe und gleicht deren Fähigkeiten mit 13.000 KI-Tools ab, gewichtet nach Lohnwert. Ergebnis: KI kann technisch 11,7 Prozent des US-Arbeitsmarkts abdecken (1,2 Billionen Dollar) – fünfmal mehr als die 2,2 Prozent im Tech-Sektor, auf den sich die Debatte konzentriert. Besonders exponiert sind hochbezahlte Wissensarbeiter in Finanz-, Verwaltungs- und Rechtsberufen. Standard-Wirtschaftsindikatoren wie BIP erklären weniger als 5 Prozent der regionalen Unterschiede – bestehende Policy-Instrumente erfassen das Risiko nicht.
KI-Propaganda: Im März 2026 fluteten KI-generierte Videos mit Donald Trump und Benjamin Netanjahu als Lego-Figuren soziale Medien – zugeschrieben dem iranischen Revayat-e-Fath-Institut, mutmaßlich verbunden mit den Revolutionsgarden. Das Weiße Haus konterte mit KI-Videos im Stil von Wii Sports und Call of Duty. Pressesprecherin Karoline Leavitt sprach von über zwei Milliarden Impressionen. Generative KI macht es billig, Propaganda massenhaft zu produzieren und staatliche Urheberschaft zu verschleiern. Die Wirkung ist weniger Überzeugung als Aufmerksamkeitsdominanz: Virale Inhalte prägen die Wahrnehmung von Konflikten stärker als journalistische Berichterstattung. Plattformen kämpfen mit der Frage, was als staatliche Manipulation gilt und was zulässig bleibt.

Buchtipp
Werte als Wettbewerbsvorteil programmieren

Quelle: Ullstein Verlag
Buchtipp der Woche: Ethische Intelligenz - Markus Gabriel
Inhalt: Markus Gabriel argumentiert gegen zwei verbreitete Positionen in der KI Debatte: den Alarmismus, der Technologie primär als Bedrohung rahmt, und den naiven Technikoptimismus, der Innovation mit Fortschritt gleichsetzt. Stattdessen entwickelt er die These, dass KI nicht nur effizienter oder profitabler machen soll, sondern menschliche Werte konkret, überprüfbar und wirtschaftlich wirksam organisieren kann. Besonders relevant ist die Idee, dass Europa gerade durch Werteorientierung konkurrenzfähig werden kann, wenn diese nicht als Regulierungslast, sondern als eigenständiges Geschäfts- und Gesellschaftsmodell verstanden wird.
Kontext: Markus Gabriel zählt zu den einflussreichsten jüngeren Philosophen im deutschsprachigen Raum und wirkt regelmäßig über die Universität hinaus in Wirtschaft und Politik. Sein Ansatz verbindet philosophische Grundlagenarbeit mit strategischen Fragen zu Innovation, Wettbewerb und Standortpolitik. Für Führungskräfte ist das Buch relevant, weil es Werteorientierung nicht moralisch isoliert, sondern als wirtschaftliche Ressource begreift und damit eine Position jenseits von Technikskepsis und unkritischem Fortschrittsglauben eröffnet.

Ihre Meinung interessiert uns
Wenn Sie an Ihre Datenstrategie denken: Wo liegt das größte Hindernis für KI-Projekte konkret?
- 🏝️ Insel-Problematik: Daten liegen fragmentiert in Abteilungssilos, Legacy-Systemen und Cloud-Diensten – eine zentrale Orchestrierung fehlt komplett.
- 🧹 Qualitäts-Defizit: Die Daten existieren theoretisch, sind aber inkonsistent, veraltet oder unstrukturiert – "Garbage in, Garbage out" blockiert jede sinnvolle KI-Nutzung.
- 🔒 Governance-Vakuum: Unklare Zugriffsrechte, fehlende Compliance-Prozesse und Schatten-Datenbanken machen jedes KI-Projekt zum rechtlichen Risiko.
- 🎯 Ziel-Diffusion: Es fehlt nicht an Daten, sondern an der Definition, welche Daten für welche KI-Anwendungsfälle überhaupt relevant sind.
Ergebnisse der vorherigen Umfrage
Was fehlt Ihrem Unternehmen am meisten für erfolgreiche KI-Adoption: technisches Know-how, Führungskräfte-Commitment oder eine klare Datenstrategie?
🟨⬜️⬜️⬜️⬜️⬜️ 🧠 Fachkräfte-Vakuum
🟩🟩🟩🟩🟩🟩 🎯 Strategisches Fundament
🟨🟨⬜️⬜️⬜️⬜️ 🔐 Daten-Chaos
⬜️⬜️⬜️⬜️⬜️⬜️ 💼 Führungsebene zögert

Europäische Souveränität
Technologiesektor der Ukraine entwickelt sich vom Verteidigungsfokus zum robusten Innovations-Ökosystem

Quelle: Shutterstock
Was ist das Problem? Europäische Investoren und Entscheider nehmen die Ukraine trotz nachweislicher Innovationskraft häufig nicht als ernstzunehmenden Technologiestandort wahr. Das Land erreichte 2025 mit 945 Millionen Euro Gesamtfinanzierung zwar die Top 10 in Europa – doch diese Zahl wird durch eine einzige Finanzierungsrunde von Grammarly über eine Milliarde Dollar verzerrt. Abseits dieser Ausnahme dominieren kleine Early-Stage-Runden unter zehn Millionen Euro, was auf eine ungleiche Kapitalverteilung und begrenzte Spätstufenaktivität hindeutet.
Wie wird es gelöst? Das ukrainische Ökosystem entwickelt sich zunehmend spezialisiert: Neben etablierten Software- und KI-Unternehmen wie Grammarly und Reface entsteht ein ausgeprägter Schwerpunkt in Verteidigungstechnologie, Robotik und sicherer Kommunikation. Unternehmen wie Swarmer (autonome Drohnenschwärme), Dropla Tech (KI-gestützte Minendetektion) und Teletactica (störresistente Kommunikationssysteme) adressieren konkrete militärische und duale Anforderungen. Parallel wachsen Healthcare-Plattformen wie Liki24 und HR-Software-Anbieter wie PeopleForce über die Landesgrenzen hinaus. Die Finanzierungsstruktur zeigt eine breite Pipeline im Pre-Seed- und Seed-Stadium sowie zunehmend alternative Finanzierungsformen wie Fremdkapital.
Warum das wichtig ist: Die Ukraine entwickelt Lösungen für Problemstellungen, die in Friedenszeiten abstrakt erscheinen, in einer multipolaren Welt jedoch an Dringlichkeit gewinnen: autonome Systeme unter elektronischer Kriegsführung, sichere Kommunikation in umkämpften Umgebungen, KI-gestützte Desinformationserkennung. Diese Technologien sind nicht nur für NATO-Staaten relevant, sondern adressieren auch Schwachstellen europäischer kritischer Infrastrukturen. Zudem demonstriert das Ökosystem Resilienz unter extremen Bedingungen – eine Eigenschaft, die für langfristige Partnerschaften und Lieferketten zunehmend wertvoll wird. Wer frühzeitig in diese Pipeline investiert oder kooperiert, sichert sich Zugang zu erprobten Dual-Use-Technologien und einem wachsenden Talentpool.
Handlungsempfehlung: Prüfen Sie strategische Partnerschaften oder Investitionen in ukrainische Deeptech- und Defence-Unternehmen, insbesondere in den Bereichen autonome Systeme, sichere Kommunikation und KI-gestützte Bedrohungserkennung. Nutzen Sie europäische Förderprogramme wie den European Defence Fund oder das Horizon-Europe-Programm, um gemeinsame Entwicklungsprojekte zu strukturieren. Evaluieren Sie gezielt Early-Stage-Unternehmen jenseits der bekannten Namen – die breite Pipeline bietet Zugang zu Innovationen mit hohem Reifegrad unter realen Einsatzbedingungen.
Ansprechpartner: Ukrainian Startup Fund
Impact: Zugang zu erprobten Dual-Use-Technologien und strategischen Verteidigungsinnovationen bis 2027
Relevant für:
Verteidigungsindustrie & Sicherheitsanbieter: ●●●
Drohnen- & Robotik-Hersteller: ●●●
Telekommunikation & sichere Netzwerke: ●●●
Investoren & Venture Capital (Deeptech, Dual-Use): ●●●
Kritische Infrastrukturen (Energie, Transport, Gesundheit): ●●○
Cybersecurity & Informationsschutz: ●●●
HR-Tech & SaaS-Plattformen: ●●○
Healthcare & Digital Health: ●○○

Bildschirmzeit
Anthropic Managed Agents zwischen Versprechen und Praxis
Problemstellung: Wer Agenten in Produktion bringen will, verliert Monate mit Infrastrukturarbeit: Server aufsetzen, API-Verbindungen konfigurieren, Sicherheitsregeln definieren. Anthropic hat mit „Managed Agents" eine Lösung angekündigt, die diesen Aufwand auf ein Zehntel reduzieren soll. Die Frage ist, ob das Versprechen hält und für welche Nutzergruppen sich der Einsatz lohnt.
Lösung: Managed Agents ermöglichen es, KI-Agenten direkt in der Anthropic-Cloud zu hosten, ohne eigene Infrastruktur aufbauen zu müssen. Nutzer definieren Aufgabe, Werkzeuge und Leitplanken des Agenten über eine Chat-Oberfläche oder Vorlagen, Anthropic stellt automatisch eine isolierte Cloud-Umgebung bereit. Die Anbindung externer Dienste erfolgt per OAuth oder über vorgefertigte MCP-Server, Zugangsdaten werden in einem teamfähigen Tresor gespeichert. Abgerechnet wird nach Laufzeit der Agenten-Sitzungen (8 Cent pro Stunde) plus API-Token-Kosten, nicht nach Infrastruktur.
Anwendungsbeispiele: Ein Competitive-Intelligence-Agent recherchiert automatisch Wettbewerbsinformationen und erstellt Berichte auf Basis von Web-Suchen. Ein Field-Monitor-Agent überwacht wöchentlich Entwicklungen in der Tech-Branche und sendet Zusammenfassungen direkt in ein ClickUp-Board. Ein Research-Agent nimmt To-dos aus einem ClickUp-Projekt entgegen, führt Recherchen durch, kommentiert die Aufgabe mit Ergebnissen und verschiebt sie nach Abschluss. Notion nutzt Managed Agents, um Teams Aufgaben direkt innerhalb der Plattform an Claude zu delegieren.
Erklärungsansatz: Managed Agents setzen auf dem bestehenden Agent SDK von Anthropic auf und nutzen dieselben Werkzeuge wie Claude im Code-Modus: Bash, Web-Suche, Dateizugriff. Die Neuerung liegt in der gehosteten Umgebung und der vereinfachten Konfiguration, nicht in erweiterten Fähigkeiten. Aktuell fehlen zentrale Automatisierungsfunktionen wie zeitgesteuerte Ausführung (Cron-Jobs) oder Event-Trigger, sodass Agenten manuell per API-Aufruf gestartet werden müssen. Für komplexere Workflows ist deshalb weiterhin externe Orchestrierung nötig, etwa über trigger.dev oder n8n.
Fazit: Managed Agents senken die Einstiegshürden für Teams, die bisher nur Claude Chat nutzen, erheblich. Für erfahrene Entwickler oder Unternehmen mit bestehender Agent-Infrastruktur bietet die Lösung derzeit kaum Mehrwert gegenüber selbst gehosteten Setups. Angekündigte Features wie persistentes Gedächtnis, Multi-Agenten-Orchestrierung und Erfolgskriterien könnten das ändern, sind aber noch nicht verfügbar.

Superintelligence
Wenn KI-Pioniere über Macht, Motivation und die Zukunft der Menschheit sprechen
Demis Hassabis, CEO von Google DeepMind, verfügt über eine technologische Macht, die der eines Staatschefs gleichkommt. Doch was treibt jemanden an, der an der Schwelle zur künstlichen Superintelligenz arbeitet? In einem Interview sprach Hassabis offen über seine Motivation, die er selbst als wissenschaftliche Quest beschreibt – den Versuch, durch KI die fundamentalen Fragen des Universums zu beantworten. Die Frage ist: Können wir einer Technologie vertrauen, deren Entwicklung von individuellen Visionen einzelner Menschen geprägt wird?
Für Hassabis ist KI kein Geschäftsmodell, sondern eine Lebensaufgabe. Seit 16 Jahren arbeitet er bei DeepMind an dem Ziel, das ihn bereits als Kind faszinierte: die Natur der Realität zu verstehen. Aufgewachsen zwischen einer baptistischen Mutter und einem atheistischen Vater, bezeichnet er sich selbst in erster Linie als Wissenschaftler. KI ist für ihn kein Gott, sondern ein Werkzeug – vergleichbar mit Teleskop oder Mikroskop – das der Menschheit helfen soll, Durchbrüche in Medizin, Energie und Umwelt zu erzielen. Diese wissenschaftlich-philosophische Perspektive unterscheidet seine öffentliche Argumentation von rein kommerziellen Narrativen.
Die Risiken sind Hassabis bewusst. Er räumt ein, dass die Wahrscheinlichkeit katastrophaler Folgen „nicht bei null" liegt, zeigt sich aber optimistisch, dass menschlicher Erfindungsreichtum die Herausforderungen meistern kann – vorausgesetzt, die besten Köpfe arbeiten mit genug Zeit und Sorgfalt daran. Das Problem: Die Realität entspricht nicht seiner Vision. Statt internationaler Kooperation im Geist eines „CERN für KI" tobt ein Wettrennen zwischen Unternehmen und Nationen. Die geopolitische Fragmentierung erschwert Zusammenarbeit genau dann, wenn sie am dringendsten wäre. Hassabis hofft, dass die wachsende Erkenntnis über die Tragweite von AGI zumindest zu Mindeststandards führen wird.
Die zentrale Spannung bleibt ungelöst: Wie kann vorsichtiger Fortschritt gelingen, wenn kompetitiver Druck dominiert? Hassabis' Mission ist klar – AGI sicher über die Ziellinie bringen, zum Wohle aller. Doch der Erfolg hängt nicht nur von wissenschaftlicher Expertise ab, sondern davon, ob sich konkurrierende Akteure auf gemeinsame Prinzipien einigen können. Das Video zeigt einen der einflussreichsten Technologen unserer Zeit im Spannungsfeld zwischen wissenschaftlichem Idealismus und den Realitäten eines globalen KI-Wettrüstens – und wirft die Frage auf, ob Vertrauen in Einzelpersonen ausreicht, wenn es um die Zukunft der Menschheit geht.
Werben im KI-Briefing
Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?
Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.
Und nächste Woche…
... werfen wir einen genauen Blick auf Cybersecurity im Zeitalter fortschrittlicher KI-Systeme. Mit Modellen wie Claude Mythos entwickelt sich nicht nur die Leistungsfähigkeit künstlicher Intelligenz rasant weiter – auch die Angriffsflächen und Bedrohungsszenarien verändern sich grundlegend. Wie können Unternehmen ihre Infrastruktur schützen, wenn KI selbst zum Werkzeug von Angreifern wird? Und welche neuen Verteidigungsmöglichkeiten eröffnen sich gleichzeitig durch den Einsatz intelligenter Systeme? Unsere Analyse beleuchtet die aktuellen Herausforderungen und zeigt auf, welche Strategien heute notwendig sind.
Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.



