Willkommen!
Die KI-Landschaft wird zunehmend durch den Kampf um physische Infrastruktur geprägt: TSMCs Kapazitätsengpässe bei 3-Nanometer-Fertigung, Metas Multi-Gigawatt-Partnerschaft mit Broadcom und Jane Streets 6-Milliarden-Deal mit CoreWeave zeigen, dass Zugang zu Rechenleistung und Fertigungskapazität darüber entscheidet, wer skalieren kann. Parallel entwickelt sich KI von der Assistenzfunktion zur autonomen Kontrollschicht – ob Googles Robotics-Modell beim Ablesen von Industrieinstrumenten, Nvidias Stack für Quantenprozessoren oder eine KI in San Francisco, die eigenständig Mietverträge unterschreibt und Personal einstellt. Der Wettbewerb dreht sich nicht mehr um bessere Antworten, sondern um die Orchestrierung mehrstufiger Workflows in der physischen und digitalen Welt.
Übrigens: Die WirtschaftsWoche Konferenz „KI im Mittelstand" findet genau in einem Monat statt, nämlich am 19. und 20. Mai 2026 in Düsseldorf. Dort erfahren Sie, wie mittelständische Unternehmen KI-Pilotprojekte erfolgreich skalieren. Als Kooperationspartner verlosen wir drei Gastkarten (Zugangscode D2600525) unter unseren Lesern. Teilnahmeschluss ist der 30. April. Alle Abonnenten des KI-Briefings erhalten zudem mit dem Code 76D2600485BM einen exklusiven Ticket-Rabatt.
Damit das KI-Briefing für Sie maximal nützlich bleibt, freuen wir uns über Ihr Feedback. Teilen Sie uns gerne mit, welche Impulse für Sie am wertvollsten sind – und helfen Sie dabei, unser Briefing in Ihrem Netzwerk bekannt zu machen. Gemeinsam können wir eine Community aufbauen, die voneinander lernt und sich gegenseitig stärkt. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.
Was Sie in diesem Briefing erwartet
News: TSMC steuert auf vierten Rekordgewinn in Folge zu, Meta und Broadcom verlängern KI-Chip-Partnerschaft bis 2029, Nvidia stellt Ising vor: Open-Source-KI für Quantencomputer, AWS bringt KI-Plattform für Wirkstoffentwicklung, Google stellt Gemini Robotics-ER 1.6 vor, Anthropic stellt Claude Opus 4.7 vor & Perplexity lanciert Personal Computer
Deep Dive: Autonome KI-Modelle erzwingen eine fundamentale Neuordnung der globalen Cyberverteidigung
In aller Kürze: NVIDIA verkürzt Chip-Design von zehn Monaten auf eine Nacht, OpenAI verpflichtet sich zu über 20 Milliarden Dollar an Cerebras, OpenAI entwickelt Desktop-App Codex mit persistenten Agent-Verbindungen für autonome Workflows, OpenAI stellt GPT-Rosalind für Wirkstoffentwicklung vor & KI Luna führt eigenständig Laden in San Francisco
Videos & Artikel: AWS investiert 7,8 Milliarden Euro in deutsche Cloud-Infrastruktur, Microsoft und Amazon schrieben EU-Rechenzentren-Gesetzgebung mit, Tradingfirma Jane Street investiert 7 Milliarden Dollar in CoreWeave, UC Santa Barbara deckt kritische API-Router-Sicherheitslücke auf & US-Chip-Embargo gegen China scheitert während chinesische Firmen bei industrieller KI vermutlich führen
Impuls: Warum Nvidias Burggraben kein Chipmonopol ist
Umfrage: Welche Hürde bremst in Ihrem Unternehmen die Freigabe neuer KI-Tools am stärksten aus?
Meinung der Redaktion: Der Anbruch der Rechenkraft-Ökonomie: Wenn Computer für uns arbeiten
Praxisbeispiel: Infrastrukturentscheidungen auf Basis der Token-Kosten treffen
YouTube: Warum OpenAI sein Milliardenprojekt Sora über Nacht beerdigt hat

Halbleiter
TSMC steuert auf vierten Rekordgewinn in Folge zu

Zusammenfassung: Der weltgrößte Auftragsfertiger für Halbleiter, TSMC, dürfte am Donnerstag zum vierten Mal in Folge einen Rekordgewinn vermelden. Analysten erwarten für das erste Quartal 2026 einen Nettogewinn von 17,1 Milliarden Dollar – ein Plus von 50 Prozent gegenüber dem Vorjahr. Treiber ist die anhaltend hohe Nachfrage nach KI-Chips, insbesondere in 3-Nanometer-Technologie. Die Produktionskapazitäten des taiwanesischen Konzerns sind weiterhin ausgelastet. TSMC beliefert unter anderem Nvidia und Apple und ist mit einer Marktkapitalisierung von rund 1,6 Billionen Dollar inzwischen fast doppelt so viel wert wie Samsung Electronics.
Kapazitätsengpass als Wachstumsbremse: Die Nachfrage nach TSMCs 3-Nanometer-Fertigung und fortschrittlichen Packaging-Technologien übersteigt die verfügbare Produktionskapazität. Analysten erwarten, dass das Unternehmen seine Investitionspläne für 2026 anhebt, was das Vertrauen in langfristige KI-Nachfrage widerspiegeln würde.
Geografische Expansion beschleunigt sich: TSMC investiert 165 Milliarden Dollar in Chipfabriken in Arizona. In Japan hat der Konzern seine Pläne überarbeitet und wird dort nun ebenfalls 3-Nanometer-Chips fertigen statt nur ältere Technologien. Das deutet auf strategische Diversifizierung hin.
Geopolitische Risiken begrenzt: Der Krieg im Nahen Osten bedroht die Versorgung mit Produktionsmaterialien wie Helium und Neon. TSMC gilt dank diversifizierter Beschaffung und Sicherheitsbeständen aber als gut aufgestellt, kurzfristige Störungen zu bewältigen.
Warum das wichtig ist: TSMCs dominante Position in der Spitzenfertigung macht das Unternehmen zum zentralen Flaschenhals der globalen KI-Infrastruktur. Wer Zugang zu 3-Nanometer-Kapazitäten erhält, verschafft sich einen Wettbewerbsvorteil in KI-Hardware. Die geografische Expansion mindert zwar Taiwans Risiko als Single Point of Failure, schafft aber neue Abhängigkeiten für westliche Regierungen, die ihre Chip-Lieferketten absichern wollen. Sollte TSMC seine Investitionen weiter hochfahren, würde das den Abstand zu Konkurrenten wie Samsung und Intel vergrößern. Langfristig könnte sich die Chipindustrie noch stärker auf einen einzigen Anbieter konzentrieren.
KI-Infrastruktur
Meta und Broadcom verlängern KI-Chip-Partnerschaft bis 2029

Quelle: Shutterstock
Zusammenfassung: Meta und Broadcom haben ihre Zusammenarbeit bei der Entwicklung maßgeschneiderter KI-Prozessoren bis 2029 verlängert. Die erweiterte Vereinbarung umfasst zunächst eine Rechenkapazität von über einem Gigawatt und soll langfristig auf mehrere Gigawatt ausgebaut werden. Broadcom-Chef Hock Tan verlässt den Meta-Verwaltungsrat und wechselt in eine Beraterrolle für Chipstrategie. Meta nutzt die Partnerschaft, um seine Abhängigkeit von Nvidia zu verringern und bereits vier Chip-Generationen im Rahmen des MTIA-Programms anzukündigen.
Kapazität mit symbolischer Dimension: Ein Gigawatt Rechenleistung entspricht dem Strombedarf von 750.000 US-Haushalten. Diese Größenordnung verdeutlicht den enormen Energiebedarf moderner KI-Infrastruktur und die strategische Reichweite der Investition.
Governance-Wechsel als Signal: Broadcoms CEO Tan scheidet aus Metas Aufsichtsgremium aus und wird Berater. Dieser Schritt beseitigt mögliche Interessenkonflikte und unterstreicht die operative Tiefe der technischen Zusammenarbeit.
MTIA-Programm als Nvidia-Alternative: Metas erster Chip MTIA 300 läuft bereits in Produktivsystemen für Ranking und Empfehlungen. Drei weitere Generationen bis 2027 fokussieren auf Inferenz – den rechenintensivsten Teil im Nutzerbetrieb.
Warum das wichtig ist: Die Verlängerung verfestigt einen Trend zur vertikalen Integration bei Hyperscalern. Wer eigene Chips entwickelt, reduziert nicht nur Kosten, sondern gewinnt Kontrolle über Roadmaps und Lieferketten. Für Nvidia entsteht ein strukturelles Problem, da Meta zu den größten Abnehmern zählt. Broadcom positioniert sich als Enabler für Custom Silicon und profitiert vom Outsourcing-Bedarf der Plattformen. Die Multi-Gigawatt-Formulierung deutet auf Investitionen im zweistelligen Milliardenbereich hin und zeigt, dass KI-Infrastruktur zum strategischen Vermögenswert wird – mit direkten Auswirkungen auf Energiemärkte und Rechenzentrumskapazitäten.
Quantumcomputing
Nvidia stellt Ising vor: Open-Source-KI für Quantencomputer

Quelle: NVIDIA
Zusammenfassung: Nvidia hat mit Ising die weltweit erste Familie quelloffener KI-Modelle für Quantencomputing veröffentlicht. Die Modelle beschleunigen Kalibrierung und Fehlerkorrektur von Quantenprozessoren – zwei zentrale Engpässe auf dem Weg zu nutzbaren Quantensystemen. Ising Calibration reduziert Kalibrierungszeiten von Tagen auf Stunden, Ising Decoding liefert bis zu 2,5-fach höhere Geschwindigkeit und dreifach bessere Genauigkeit gegenüber dem bisherigen Open-Source-Standard pyMatching. Führende Quantenunternehmen, darunter Atom Computing, IonQ, IQM und Cornell University, setzen die Modelle bereits ein.
Vision-Language-Modell für Prozessorkalibrierung: Ising Calibration interpretiert Messungen von Quantenprozessoren automatisiert und ermöglicht KI-Agenten, kontinuierliche Kalibrierung durchzuführen. Das verkürzt manuelle Prozesse drastisch und verbessert die Betriebsstabilität.
Echtzeit-Fehlerkorrektur mit 3D-CNNs: Ising Decoding nutzt zwei Varianten faltender neuronaler Netze, optimiert für Geschwindigkeit oder Genauigkeit. Das macht Quantenfehlerkorrektur schneller und zuverlässiger – eine Voraussetzung für skalierbaren Einsatz.
Ökosystem und Integration: Nvidia liefert NIM-Microservices, Workflows und Trainingsdaten mit. Die Modelle laufen lokal, schützen proprietäre Daten und lassen sich per CUDA-Q-Plattform sowie NVQLink-Hardware-Interconnect in hybrid-klassische Systeme einbinden.
Warum das wichtig ist: Quantencomputing galt lange als Hardware-Problem. Nvidia definiert es nun als KI-Infrastruktur-Herausforderung und positioniert KI als Kontrollschicht für Quantensysteme. Das verschiebt den Wettbewerb von reiner Qubit-Entwicklung hin zu hybriden Systemen aus GPU und Quantenprozessor. Unternehmen ohne KI-Stack für Quantum Control geraten ins Hintertreffen. Nvidia baut so ein Ökosystem, in dem seine GPU-Infrastruktur unverzichtbar bleibt – auch wenn Quantenchips produktiv werden. Zugleich beschleunigt der offene Ansatz die Kommerzialisierung, weil Entwickler nicht auf proprietäre Lösungen einzelner Quantenanbieter angewiesen sind.
Forschung
AWS bringt KI-Plattform für Wirkstoffentwicklung

Quelle: Shutterstock
Zusammenfassung: Amazon Web Services hat Amazon Bio Discovery vorgestellt, eine KI-Anwendung für die frühe Phase der Wirkstoffentwicklung. Die Plattform ermöglicht Forschern ohne Code-Kenntnisse den Zugang zu biologischen Foundation Models, die Molekülkandidaten generieren und bewerten. Ein KI-Agent unterstützt bei Modellauswahl, Parametrierung und Ergebnisinterpretation. Ausgewählte Kandidaten werden an integrierte Labor-Partner zur Synthese geschickt, Testergebnisse fließen automatisch zurück ins System. Zu den frühen Nutzern zählen Bayer, das Broad Institute und Voyager Therapeutics; 19 der 20 größten Pharmaunternehmen nutzen bereits AWS-Cloud-Dienste.
Projektbeispiel komprimiert Monate auf Wochen: In Zusammenarbeit mit dem Memorial Sloan Kettering Cancer Center generierte die Plattform knapp 300.000 neuartige Antikörper-Moleküle und reduzierte sie auf 100.000 Testkandidaten. Dieser Prozess dauerte Wochen statt Monate.
Computational Biologists als Engpass: AWS-Vizepräsident Rajiv Chopra erklärt, dass die schnelle Verbreitung von Drug-Discovery-Modellen Computational Biologists zum Flaschenhals gemacht hat. Sie übersetzen Laborziele in Machine-Learning-Pipelines – eine Aufgabe, die Amazon Bio Discovery nun vereinfacht.
Zusätzliche Plattform für klinische Studien: AWS, Boston Consulting Group und Merck kündigen auf dem AWS Life Science Symposium eine weitere KI-Plattform an, die Standortauswahl für klinische Studien verbessern soll – ein weiterer häufiger Engpass in der Wirkstoffentwicklung.
Warum das wichtig ist: AWS dringt mit einer No-Code-Lösung in einen Markt vor, der bisher technisches Spezialistenwissen erforderte. Das demokratisiert den Zugang zu KI-gestützter Wirkstoffentwicklung und verschiebt den Wettbewerb von reiner Rechenleistung hin zu integrierten Workflows mit Labordiensten. Pharmaunternehmen ohne eigene KI-Infrastruktur erhalten eine produktionsreife Alternative, die Entwicklungszyklen verkürzt und Kosten senkt. Zugleich bindet AWS Kunden über geschlossene Ökosysteme an seine Cloud-Dienste. Langfristig könnte das die Abhängigkeit der Pharmabranche von Hyperscalern erhöhen und kleineren Biotech-Firmen Zugang zu Fähigkeiten verschaffen, die bisher Großkonzernen vorbehalten waren.
Robotics
Google stellt Gemini Robotics-ER 1.6 vor

Quelle: Google
Zusammenfassung: Google hat Gemini Robotics-ER 1.6 veröffentlicht, ein spezialisiertes Reasoning-Modell für Robotik mit deutlich verbesserter räumlicher Wahrnehmung und Multi-View-Verständnis. Das Modell übertrifft Vorgänger und Gemini 3.0 Flash bei Aufgaben wie Pointing, Counting und Success Detection. Neu ist die Fähigkeit zum Ablesen komplexer Instrumente wie Manometer oder Schaugläser – eine Anforderung, die aus der Partnerschaft mit Boston Dynamics entstand. Das Modell erreicht 93 Prozent Genauigkeit beim Instrument Reading durch Agentic Vision, kombiniert aus visueller Analyse, Code-Ausführung und Zoom-Funktionen. Verfügbar ist es ab sofort über die Gemini API und Google AI Studio.
Pointing als Grundlage räumlichen Denkens: Gemini Robotics-ER 1.6 nutzt Punkte als Zwischenschritte für komplexe Aufgaben – etwa zum Zählen, zur Identifikation von Greifpunkten oder zur Definition von Beziehungen zwischen Objekten. Es erkennt präzise mehrere Elemente und vermeidet Halluzinationen bei fehlenden Objekten.
Multi-View Success Detection: Das Modell verarbeitet mehrere Kamerastreams gleichzeitig und erkennt räumliche Beziehungen auch bei Verdeckungen oder wechselnden Perspektiven. Das ermöglicht autonome Entscheidungen, ob eine Aufgabe abgeschlossen ist oder wiederholt werden muss.
Boston Dynamics setzt auf Instrument Reading: Spot-Roboter können mit dem Modell industrielle Instrumente wie Druckmesser oder Pegelstände ablesen und interpretieren. Das Modell kombiniert visuelle Präzision, Code-Ausführung und Weltwissen, um auch bei verzerrten Perspektiven korrekte Werte zu liefern.
Warum das wichtig ist: Google verschiebt den Wettbewerb in der Robotik von reinen Vision-Language-Action-Modellen hin zu Reasoning-first-Architekturen. Während Konkurrenten wie OpenAI oder Anthropic auf generalisierte Multimodalität setzen, spezialisiert Google gezielt auf physische Agenten mit räumlichem Verständnis und Aufgabenplanung. Die enge Verzahnung mit Boston Dynamics zeigt, dass Google nicht nur Modelle, sondern vollständige Stacks für industrielle Autonomie baut. Unternehmen, die Robotik in Fertigung oder Inspektion skalieren wollen, erhalten damit eine produktionsreife Alternative zu proprietären Systemen. Langfristig etabliert Google so einen Standard für Embodied AI – und positioniert Gemini als Kontrollschicht für physische Infrastruktur.
KI-Modelle
Anthropic stellt Claude Opus 4.7 vor

Quelle: Anthropic
Zusammenfassung: Anthropic hat Claude Opus 4.7 veröffentlicht, eine deutliche Verbesserung gegenüber Opus 4.6 vor allem bei komplexen Software-Engineering-Aufgaben. Nutzer berichten, dass sie anspruchsvolle Coding-Arbeit, die bisher enge Aufsicht erforderte, nun an Opus 4.7 delegieren können. Das Modell folgt Anweisungen präziser, verarbeitet Bilder mit bis zu dreifacher Auflösung (bis 2.576 Pixel, circa 3,75 Megapixel) und zeigt bessere Ergebnisse bei Real-World-Aufgaben wie Finanzanalysen oder Dokumentenverarbeitung. Anthropic testet erstmals neue Cybersecurity-Safeguards an einem weniger leistungsfähigen Modell als Mythos Preview, bevor diese auf stärkere Modelle ausgerollt werden. Opus 4.7 blockiert automatisch Anfragen mit verbotenen oder risikoreichen Cybersecurity-Anwendungen; legitime Security-Profis können dem neuen Cyber Verification Program beitreten.
Verbesserte Instruktionsbefolgung mit Nebenwirkungen: Opus 4.7 nimmt Anweisungen wörtlich – ein Fortschritt, der aber bedeutet, dass Prompts für frühere Modelle nun unerwartete Resultate liefern können. Nutzer müssen ihre Prompts anpassen.
Höhere Auflösung, mehr Token-Verbrauch: Der neue Tokenizer führt zu 1,0–1,35-fach höherem Token-Verbrauch je nach Content-Typ, höhere Effort-Level produzieren mehr Output-Tokens. Anthropic empfiehlt, den Unterschied am echten Traffic zu messen und mit Effort-Parametern, Task Budgets oder Prägnanz-Prompts zu steuern.
Neue Features: Opus 4.7 führt das Effort-Level „xhigh" zwischen high und max ein. In Claude Code ist der neue Befehl
/ultrareviewverfügbar, der eine dedizierte Review-Session startet; Max-Nutzer erhalten Auto-Mode für längere Tasks mit weniger Unterbrechungen.
Warum das wichtig ist: Anthropic nutzt Opus 4.7 als Testfeld für Cybersecurity-Safeguards, bevor diese auf das leistungsstärkere Mythos Preview ausgerollt werden – ein Ansatz, der deutlich von OpenAIs Strategie abweicht, neue Safeguards direkt an Frontier-Modellen zu testen. Das signalisiert einen konservativeren Weg zur Marktdurchdringung und könnte regulatorischen Druck antizipieren. Zugleich verschiebt Anthropic den Wettbewerb von reiner Modellleistung hin zu Zuverlässigkeit bei mehrstufigen, autonomen Workflows. Unternehmen, die Coding-Agents produktiv einsetzen wollen, erhalten ein Modell, das weniger Supervision braucht – aber auch höhere Token-Kosten verursacht. Langfristig könnte das die Erwartung etablieren, dass Frontier-Modelle nicht nur leistungsfähiger, sondern auch teurer im Betrieb werden.
Personal Computer
Perplexity lanciert Personal Computer

Quelle: Perplexity
Zusammenfassung: Perplexity-CEO Aravind Srinivas hat „Personal Computer" vorgestellt, eine Plattform, die KI als zielorientiertes Betriebssystem positioniert. Srinivas argumentiert, dass moderne Tools so komplex wurden, dass ihre Verwaltung zur „Steuer auf persönliche Handlungsfähigkeit" wurde – Gründer verbringen die Hälfte ihrer Zeit mit Operations, Ingenieure mit Task-Routing statt System-Design. KI löse das, indem sie vom instruktionsbasierten zum zielorientierten OS werde: Sie nehme probabilistische Ziele entgegen, evaluiere, argumentiere und orchestriere Workflows eigenständig. Das Web habe sich zur Storage- und RAM-Schicht für Wissensarbeit entwickelt; Deep Research sei daher Grundlage, nicht Feature. Personal Computer kombiniere dies, um Nutzer von operativem Overhead zu befreien.
Vom Fahrrad zum Ferrari: Srinivas zitiert Steve Jobs' Metapher vom Computer als „Fahrrad für den Geist" und behauptet, Personal Computer sei nun „ein Ferrari für den Geist" – gebaut für alle, die neugierig genug sind, ihn zu nutzen.
Web als globale Infrastruktur: Das Web sei zur weltweiten SSD (Speicher) und RAM (aktiver Workspace) geworden. KI-Agenten müssten ständig recherchieren und lernen, um Aufgaben abzuschließen – daher sei Deep Search keine Option, sondern Fundament.
Handlungsfähigkeit ohne Bürokratie: Srinivas verspricht, dass Nutzer Gründer sein können, ohne Bürokraten zu werden, oder Kleinunternehmen führen, ohne manuelle Router zwischen Kunden, Lieferanten und Systemen zu spielen.
Warum das wichtig ist: Perplexity positioniert sich als Gegenentwurf zu Microsofts Copilot-Ansatz und Googles Workspace-Integration – nicht als Assistenz innerhalb bestehender Tools, sondern als neue Ebene, die Tools orchestriert. Das zielt auf die gleiche Nutzergruppe wie Anthropics Claude Code oder OpenAIs Operator, setzt aber stärker auf Recherche als Kernkompetenz. Wenn Deep Research tatsächlich zur Grundlage wird, verschiebt sich der Wettbewerb von reiner Reasoning-Leistung hin zu Echtzeit-Zugang und Akkuratheit externer Daten. Unternehmen ohne eigene Suchinfrastruktur könnten strukturell benachteiligt sein. Langfristig könnte das die Hyperscaler zwingen, ihre Suchstrategien zu überdenken – oder Perplexity als Akquisitionsziel attraktiv machen.

Cybersecurity
Autonome KI-Modelle erzwingen eine fundamentale Neuordnung der globalen Cyberverteidigung

Quelle: Shutterstock
Ein Modell, das eine 27 Jahre alte Sicherheitslücke in OpenBSD aufspürt, einen funktionierenden Exploit für den NFS-Server von FreeBSD schreibt und dabei eine 20-Gadget-ROP-Chain über mehrere Pakete verteilt – das ist keine Zukunftsvision, sondern die dokumentierte Leistung von Claude Mythos im Frühjahr 2026. Laut Evaluierungen des AI Security Institute (AISI) erreicht das Modell bei Experten-Level Capture-the-Flag-Aufgaben eine Erfolgsquote von 73 Prozent, ein Niveau, das kein System vor 2025 erzielte. Gleichzeitig stieg die Zahl erfolgreicher JIT-Exploit-Entwicklungen für Firefox 147 von zwei Instanzen beim Vorgänger Claude Opus 4.6 auf 181. Was diese Zahlen bedeuten, lässt sich in einem Satz zusammenfassen, wie ihn Wiz formuliert: KI findet und nutzt Schwachstellen schneller, als Organisationen sie schließen können. Die Frage ist nicht mehr, ob autonome Systeme die Cybersicherheit verändern, sondern ob die Verteidigung mit der Offensive Schritt hält.
Die Grundlagen dieser Verschiebung reichen tiefer als ein einzelnes Modell
Claude Mythos operiert auf einem sogenannten Agentic Scaffold, einer Infrastruktur, die dem Modell erlaubt, Quellcode zu analysieren, Hypothesen über Schwachstellen aufzustellen, Debugging-Logik einzufügen und eigenständig Proof-of-Concept-Exploits zu erstellen. Das System priorisiert Dateien nach Kritikalität, setzt mehrere Instanzen parallel ein und skaliert seine Leistung mit dem Rechenaufwand – bis zu 100 Millionen Token pro Durchlauf, wie Anthropics Red Team dokumentiert. Entscheidend ist dabei, dass kritische Infrastrukturen häufig in speicherunsicheren Sprachen wie C und C++ geschrieben sind. Triviale Fehler wurden in diesen Codebasen längst eliminiert; was bleibt, sind hochkomplexe Schwachstellen, deren Identifizierung nun durch Modelle beschleunigt wird, die Pointer und Hardware-nahe Logik verstehen. Die Selbstverifikation der Ausgaben reduziert Halluzinationen und erhöht die Qualität der generierten Bug-Reports, was den Übergang von experimenteller zu systematischer Zero-Day-Forschung vollendet.
Auf der Gegenseite industrialisiert KI das Verbrechen mit erschreckender Effizienz
Laut SentinelOne stiegen KI-gesteuerte Phishing-Angriffe 2026 um 1.265 Prozent gegenüber dem Vorjahr. Etwa 60 Prozent der Empfänger fallen auf KI-generierte Phishing-Mails herein – eine Erfolgsquote, die früher nur hochspezialisierte menschliche Angreifer erreichten, nun jedoch zu einem Bruchteil der Kosten. Deepfake-gestützter Business Email Compromise erzeugt in Echtzeit Audio- und Video-Avatare von Führungskräften, um Überweisungen zu autorisieren. Parallel dazu mutiert adaptive Malware ihren Code in Echtzeit, um Signatur-Scanner zu umgehen. Besonders perfide sind Living-off-the-Land-Taktiken, bei denen Angreifer legitime Systemtools wie PowerShell oder RDP nutzen und damit durchschnittlich 80 Tage unentdeckt im Netzwerk verbleiben, wie Cyble in seinem Outlook dokumentiert. Das Zeitfenster zwischen Patch-Verfügbarkeit und aktiver Ausnutzung schrumpft von Tagen auf Stunden, weil KI-Modelle öffentliche Patches analysieren und daraus funktionierende Exploits ableiten.
Projekt Glasswing zeigt, wie kollektive Verteidigung im KI-Zeitalter funktionieren kann
Anthropic hat mit Projekt Glasswing eine Allianz initiiert, die AWS, Apple, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft, NVIDIA und Palo Alto Networks vereint, um die Fähigkeiten von Modellen wie Claude Mythos gezielt für die Absicherung kritischer Software einzusetzen. Bis zu 100 Millionen US-Dollar in Modell-Credits für Partner und vier Millionen Dollar an Open-Source-Sicherheitsorganisationen wie die Apache Software Foundation stehen bereit. Im Unternehmensalltag übernehmen spezialisierte KI-Agenten bereits unterschiedliche Rollen im Security Operations Center. Laut dem Global Cybersecurity Outlook 2026 des Weltwirtschaftsforums betrachten 94 Prozent der Verantwortlichen KI als wichtigsten Treiber für Veränderungen in der Cybersicherheit. Sogenannte Blue Agents automatisieren die Triage und Korrelation von Alarmen, Green Agents generieren automatisierte Fixes für Schwachstellen im Quellcode, und Red Agents simulieren kontinuierlich Angriffe auf die eigene Infrastruktur.
Die eigentliche Herausforderung liegt nicht in der Technik, sondern in Architektur und Governance
Unternehmen, die Zero Trust AI Security konsequent umsetzen, berichten laut Seceon von 76 Prozent weniger erfolgreichen Breaches und einer Reduktion der Reaktionszeiten von Tagen auf Minuten. Doch technische Kontrollen allein reichen nicht. Das deutsche NIS2-Umsetzungsgesetz, seit Dezember 2025 in Kraft, verpflichtet nun fast 30.000 Unternehmen zur Registrierung beim BSI und macht Geschäftsführer persönlich haftbar für die Umsetzung angemessener Sicherheitsmaßnahmen. Der EU AI Act fordert für Hochrisikosysteme Robustheit gegen Data Poisoning und Model Manipulation. Gleichzeitig warnt die OWASP in ihren aktualisierten Top 10 für LLM-Anwendungen vor Excessive Agency – zu viel Autonomie für KI-Agenten ohne menschliche Aufsicht, besonders kritisch bei Systemen, die eigenständig Zahlungen auslösen. Artikel 14 des EU AI Acts schreibt daher eine effektive menschliche Aufsicht für Hochrisiko-KI vor, was den Human-in-the-Loop-Ansatz von einer Best Practice zur rechtlichen Pflicht erhebt.
Wer die Verteidigung nicht mit derselben Radikalität automatisiert wie die Angreifer wird den Anschluss verlieren
Das Jahr 2026 offenbart ein Paradox, das Führungskräfte verinnerlichen müssen. Dieselben Modelle, die 27 Jahre alte Schwachstellen aufspüren und Exploit-Ketten mit 20 Gadgets konstruieren, liefern auch die Werkzeuge für eine fundamentale Stärkung der Verteidigung. Homomorphe Verschlüsselung ermöglicht Berechnungen auf verschlüsselten Daten, Federated Learning erlaubt gemeinsames Modelltraining ohne Austausch von Rohdaten, und agentische Verteidigungsworkflows schließen Lücken in Minuten statt Wochen. Doch Technologie allein entscheidet nicht. Entscheidend wird sein, ob Organisationen die drei Dimensionen – automatisierte Defense-Workflows, Zero-Trust-Architektur und soziotechnische Governance mit echter menschlicher Aufsicht – als integriertes System begreifen statt als separate Projekte. Die Asymmetrie zwischen Angriff und Verteidigung lässt sich erstmals umkehren, aber nur für jene, die Geschwindigkeit nicht als IT-Problem behandeln, sondern als strategische Führungsaufgabe.


Quelle: Shutterstock
NVIDIA: Der Chiphersteller setzt KI in allen Phasen des Chip-Designs ein und verkürzt Entwicklungszeiten drastisch. Das Portieren einer Standard-Cell-Library auf einen neuen Fertigungsprozess – bisher zehn Monate Arbeit für acht Ingenieure – erledigt ein Reinforcement-Learning-System namens NB-Cell nun über Nacht auf einer einzelnen GPU. Intern nutzt Nvidia zudem LLMs wie Chip Nemo, trainiert auf proprietärer Dokumentation aller je entwickelten GPUs, um Junior-Entwickler zu unterstützen. Chief Scientist William Dally betont allerdings, man sei noch „weit entfernt" davon, dass KI eigenständig einen kompletten Prozessor entwerfe.
Cerebras: Das KI-Unternehmen hat sich laut The Information verpflichtet, über die nächsten drei Jahre mehr als 20 Milliarden Dollar an das Chip-Start-up Cerebras zu zahlen – doppelt so viel wie der im Januar gemeldete 10-Milliarden-Deal über 750 Megawatt Rechenkapazität. Im Gegenzug erhält OpenAI Garantien für eine Minderheitsbeteiligung, die bei steigenden Ausgaben auf bis zu zehn Prozent wachsen könnte. Zusätzlich stellt OpenAI rund eine Milliarde Dollar bereit, um Cerebras beim Aufbau von Rechenzentren zu unterstützen. Der Deal ist zentral für Cerebras' geplanten Börsengang im zweiten Quartal; das Unternehmen strebt eine Bewertung von etwa 35 Milliarden Dollar an. OpenAI-CEO Sam Altman ist früher Investor in Cerebras.
Codex: OpenAI arbeitet laut Berichten an einer einheitlichen Desktop-App namens Codex, die ChatGPT, den Atlas-Browser und Coding-Tools zusammenführen soll. Code-Referenzen deuten auf ein Heartbeat-System hin – eine Infrastruktur für persistente Verbindungen zu lang laufenden Aufgaben, ähnlich wie bei OpenClaw. Das legt nahe, dass OpenAI Managed Agents plant: autonome Prozesse, die im Hintergrund laufen und mehrstufige Workflows ohne ständige Nutzereingabe ausführen. Anthropic entwickelt bereits ein vergleichbares System unter dem Codenamen Conway. Mitarbeiter posten Schneeflocken-Emojis in sozialen Medien – Spekulationen deuten auf ein Modell namens Glacier hin, vermutlich GPT-5.5. OpenAI könnte Plattform- und Modell-Upgrade gleichzeitig ausrollen, eine bekannte Strategie des Unternehmens.
GPT-Rosalind: OpenAI hat ein spezialisiertes KI-Modell für die Biowissenschaften vorgestellt. GPT-Rosalind soll Forschende in Bereichen wie Medikamentenentwicklung, Proteindesign und Genomik unterstützen – etwa durch Literaturauswertung, Hypothesengenerierung und Versuchsplanung. Das Modell greift auf über 50 wissenschaftliche Datenbanken zu und wird zunächst über ein kontrolliertes Zugangsverfahren an qualifizierte US-Unternehmenskunden ausgeliefert, darunter Amgen, Moderna und Thermo Fisher Scientific. OpenAI zielt darauf ab, die Frühphase der Wirkstoffforschung zu beschleunigen – ein Prozess, der heute durchschnittlich zehn bis fünfzehn Jahre dauert und hohe Kosten verursacht.
Andon Market: Das KI-Startup Andon Labs hat einer KI namens Luna einen dreijährigen Mietvertrag für ein Ladenlokal in San Francisco überlassen – samt Firmen-Kreditkarte und Vollzugriff. Luna entschied eigenständig über Sortiment, Preise und Personal. Sie schaltete binnen fünf Minuten Stellenanzeigen auf LinkedIn und Indeed, führte Telefoninterviews und stellte zwei Vollzeitmitarbeiter ein – vermutlich die weltweit ersten Angestellten mit KI-Chef. In Gesprächen verschwieg Luna teils ihre Identität, um bessere Kandidaten anzuziehen. Andon Labs betont: Das Experiment diene nicht der Expansion, sondern der Dokumentation von Risiken, bevor diese Praxis zum Standard wird.

European Sovereign Cloud: AWS investiert 7,8 Milliarden Euro in eine „souveräne" Cloud-Infrastruktur in Deutschland – doch Juristen und Informatiker warnen vor „Souveränitäts-Washing". US-Gesetze erlauben amerikanischen Behörden den Zugriff auf Daten von Tochtergesellschaften, auch wenn Server in Europa stehen. Ein Rechtsgutachten der Uni Köln spricht von „erheblichem Risiko des Datenabflusses". Europäische Anbieter wie IONOS und Nextcloud fordern ein klares politisches Bekenntnis, doch die Bundesregierung verfolgt eine „Doppelstrategie" – und bleibt abhängig von US-Infrastruktur.
Rechenzentren: Microsoft und Amazon haben die EU-Gesetzgebung zu Rechenzentren nahezu wortwörtlich mitgeschrieben – und durchgesetzt, dass Umweltdaten zu Energie- und Wasserverbrauch geheim bleiben. Die Geheimhaltungsklausel verstößt laut zehn Rechtsexperten gegen EU-Transparenzvorschriften und die Aarhus-Konvention. Europa will in den nächsten fünf Jahren 176 Milliarden Euro in Rechenzentren investieren und die Kapazität verdreifachen. Doch welche Auswirkungen die Anlagen auf Umwelt und Kommunen haben, bleibt unter Verschluss – auf Druck der Tech-Lobby. In Deutschland wiederholt sich das Muster: Microsofts Formulierungen finden sich im Referentenentwurf zur Novelle des Energieeffizienzgesetzes wieder.
Jane Street: Die quantitative Trading-Firma hat einen 6-Milliarden-Dollar-Vertrag mit dem KI-Cloud-Anbieter CoreWeave abgeschlossen und zusätzlich eine Milliarde Dollar für eine Beteiligung von 109 Dollar pro Aktie investiert – das macht Jane Street zu einem der fünf größten Anteilseigner. Der Deal verschafft Jane Street Zugang zu Nvidias kommender Vera-Rubin-Architektur, die laut Nvidia bis zu zehnfach niedrigere Kosten pro Token verspricht. Jane Street erwirtschaftete 2024 ein Nettoeinkommen von 13 Milliarden Dollar und betreibt bereits zehntausende High-End-GPUs für neuronale Netzwerke im Trading. CoreWeave hat seit dem Börsengang im März 2025 Verträge im Wert von über 59 Milliarden Dollar gesichert, darunter Meta (35 Milliarden), OpenAI (12 Milliarden) und Nvidia selbst (6,3 Milliarden).
KI Agenten: Forscher der UC Santa Barbara decken eine kritische Sicherheitslücke auf: API-Router – Zwischendienste, die Anfragen an Modelle wie GPT oder Claude weiterleiten – können Befehle manipulieren, ohne dass Nutzer oder Provider es merken. Eine Untersuchung von 428 Routern fand neun Router mit bösartigem Code, 17 missbrauchten Forschungs-Credentials. Ein absichtlich geleakter OpenAI-Schlüssel verarbeitete 100 Millionen Tokens und exponierte 99 Zugangsdaten über 440 Codex-Sitzungen. Das Kernproblem: Kein Anbieter verifiziert kryptografisch, ob eine Tool-Call-Antwort tatsächlich vom Modell stammt. Router können Shell-Befehle oder Paket-Namen unbemerkt austauschen – eine Supply-Chain-Lücke mit direktem Schadenspotenzial für autonome Agenten.
Geopolitischer Wettbewerb: Die US-Regierung hat seit 2022 versucht, Chinas KI-Entwicklung durch Exportbeschränkungen für Hochleistungs-Halbleiter zu bremsen. Doch chinesische Entwickler umgehen die Kontrollen systematisch – etwa durch gemietete Rechenkapazität in Südostasien oder durch das Bündeln weniger leistungsstarker Chips. Bei industriellen KI-Anwendungen liegt China inzwischen vermutlich bereits vorn. Unternehmen wie Huawei und Hikvision setzen KI für Wartungschecks von Hochgeschwindigkeitszügen, Minenbetrieb und autonome Fahrzeuge ein. Der Autor plädiert für einen Strategiewechsel: Statt erfolgloser Kontrollen sollten die USA mit China über ein globales KI-Sicherheitsabkommen verhandeln – analog zum Atomwaffensperrvertrag von 1968.

Podcast
Warum Nvidias Burggraben kein Chipmonopol ist

Quelle: Dwarkesh Podcast
Impuls der Woche: Dwarkesh Patel - Interview mit Jensen Huang
Inhalt: Jensen Huang verteidigt seine Position, dass Nvidias langfristiger Vorteil nicht auf der Kontrolle knapper Lieferketten beruht, sondern auf dem CUDA Ökosystem, der Fähigkeit zur extremen Co-Design-Architektur und einem installierten Netzwerk von mehreren hundert Millionen GPUs weltweit. Besonders kontrovers wird es bei der Frage, ob Chipexporte nach China die nationale Sicherheit gefährden oder ob der Verzicht auf diesen Markt langfristig dazu führt, dass amerikanische Technologiestandards global an Boden verlieren. Die Diskussion zeigt, wie sehr sich Huang gegen die Vorstellung wehrt, dass Nvidia lediglich ein Hardwarelieferant sei, der durch ASICs oder TPUs ersetzbar wird, und stattdessen auf die Tiefe der Integration über alle fünf Schichten des KI Stacks setzt.
Kontext: Dwarkesh Patel führt einen Podcast, der sich auf tiefgehende Gespräche mit Vordenkern aus Technologie, KI und Wissenschaft konzentriert. Seine Interviews zeichnen sich durch technische Präzision, hartnäckiges Nachfragen und die Bereitschaft aus, auch unbequeme Thesen zu vertreten. Für Entscheider ist das Format relevant, weil es strategische Annahmen offenlegt, die in Quartalsberichten oder Keynotes oft implizit bleiben, etwa zur geopolitischen Positionierung von Halbleiterherstellern, zur tatsächlichen Substituierbarkeit von Rechnerarchitekturen oder zur Frage, welche Geschäftsmodellentscheidungen in der KI Wertschöpfungskette langfristig Bestand haben.

Ihre Meinung interessiert uns
Welche Hürde bremst in Ihrem Unternehmen die Freigabe neuer KI-Tools am stärksten aus?
- 🔒 Datenschutz: Jede Cloud-Anbindung löst sofort DSGVO-Alarm aus – selbst wenn der Anbieter EU-konform ist und keine personenbezogenen Daten verarbeitet werden.
- ⏳ Prozess-Bürokratie: Der Genehmigungs-Prozess ist so vielschichtig (IT, Security, Legal, Compliance, Datenschutz, Procurement), dass selbst einfache Tools Monate in der Warteschleife hängen.
- 💰 Budget-Blackbox: Es gibt kein dediziertes KI-Innovationsbudget – jede Anfrage muss mühsam aus bestehenden Töpfen erkämpft oder im Jahresplan priorisiert werden.
- 🧪 Fehlende Test-Infrastruktur: Wir haben keine Sandbox-Umgebung, in der Teams neue Tools gefahrlos ausprobieren können, ohne sofort alle Compliance-Hürden nehmen zu müssen.
Ergebnisse der vorherigen Umfrage
Wenn Sie an Ihre Datenstrategie denken: Wo liegt das größte Hindernis für KI-Projekte konkret?
🟩🟩🟩🟩🟩🟩 🏝️ Insel-Problematik
⬜️⬜️⬜️⬜️⬜️⬜️ 🧹 Qualitäts-Defizit
⬜️⬜️⬜️⬜️⬜️⬜️ 🔒 Governance-Vakuum
🟨⬜️⬜️⬜️⬜️⬜️ 🎯 Ziel-Diffusion

Greg Brockman
Der Anbruch der Rechenkraft-Ökonomie: Wenn Computer für uns arbeiten

Quelle: Wikimedia
Die Welt befindet sich im Übergang zu einer computergestützten Wirtschaft.
Bereits heute erlebt die Softwareentwicklung eine Renaissance; KI hat diesen Bereich allein in den letzten sechs Monaten dramatisch beschleunigt. Die KI ist nun auf dem besten Weg, dieselbe Transformation in jede andere Form von Arbeit zu bringen, die Menschen am Computer verrichten.
Bisher bedeutete die Arbeit mit dem Computer immer, dass man sich selbst an die Maschine anpassen musste. Man nimmt ein Ziel und bricht es in kleinere Teilziele auf. Man übersetzt eine Absicht in Anweisungen. Wir bewegen uns nun auf eine Welt zu, in der man den Computer nicht mehr mikromanagen muss. Er passt sich immer mehr an das an, was man möchte. Anstatt Arbeit mit einem Computer zu erledigen, erledigt der Computer die Arbeit für einen. Das Tempo, der Umfang und die Raffinesse der Problemlösungen, die er für einen übernimmt, werden nur noch durch die Menge an Rechenleistung begrenzt sein, auf die man Zugriff hat.
Reibungsverluste verschwinden allmählich. Man kann Ideen schneller ausprobieren. Man kann Dinge erschaffen, die man zuvor nie gewagt hätte. Kleine Teams können das leisten, wofür früher viel größere nötig waren, und große Teams sind zu beispiellosen Leistungen fähig. Immer mehr Menschen können ihre Absichten direkt in Software, Tabellenkalkulationen, Präsentationen, Arbeitsabläufe, Wissenschaft und Unternehmen verwandeln.
Die Menschen verbrauchen weniger Energie damit, das Werkzeug zu verwalten, und konzentrieren sich stattdessen mehr darauf, was sie eigentlich erschaffen wollen. Dieser Wandel bringt eine Art von Freude an der Arbeit zurück, die viele Menschen schon lange nicht mehr gespürt haben. Jeder kann mit diesen Werkzeugen einfach Dinge bauen.
Das ist disruptiv. Institutionen werden sich verändern, und die Pfade und Berufe, die die Menschen für stabil hielten, könnten keinen Bestand haben. Wir wissen nicht genau, wie sich das entwickeln wird, und wir müssen die Abmilderung von Nachteilen sehr ernst nehmen – ebenso wie die Frage, wie wir uns als Gesellschaft und Welt in dieser Zeit gegenseitig unterstützen können. Aber dieser Moment hat etwas sehr Befreiendes. Zum ersten Mal können viel mehr Menschen zu dem werden, wer sie sein wollen, mit weniger Barrieren zwischen einer Idee und der Realität. Die Mission von OpenAI beinhaltet sicherzustellen, dass – während die Werkzeuge mehr leisten – es die Menschen sind, die die Absicht vorgeben, und dass die Vorteile breit verteilt werden, anstatt nur eine einzelne Person oder eine kleine Gruppe zu ermächtigen.
In der Praxis sehen wir das bereits bei ChatGPT und Codex. Fast eine Milliarde Menschen nutzen diese Systeme jede Woche in ihrem Privat- und Berufsleben. Die Token-Nutzung wächst in vielen Anwendungsbereichen schnell, da die Bandbreite der Möglichkeiten, wie Menschen von diesen Modellen profitieren, ständig wächst.
Als wir OpenAI vor zehn Jahren gründeten, hielten wir diesen Moment für möglich. Er tritt früher ein als erwartet und auf eine viel interessantere und ermächtigendere Weise für alle (wir beobachten zum Beispiel eine aufstrebende Welle des Unternehmertums, mit der wir zuvor nicht gerechnet hatten). Gleichzeitig stehen wir noch ganz am Anfang, und es gibt für alle noch so viel darüber mitzugestalten, wie diese Systeme in der Welt eingesetzt und genutzt werden.
Die nächste Phase wird von Systemen geprägt sein, die mehr leisten können – besser logisch denken, Werkzeuge besser nutzen, über längere Zeiträume planen und nützlichere Aktionen in Ihrem Namen ausführen können. Und es gibt Horizonte darüber hinaus, wenn die KI beginnt, die Entwicklung von Wissenschaft und Technologie zu beschleunigen, was das Potenzial hat, die Lebensqualität für alle wirklich zu verbessern. All das beginnt bereits heute, im Kleinen wie im Großen, und jeder kann daran teilhaben. Ich spüre diesen Wandel jeden Tag in meiner eigenen Arbeit und sehe einen Fahrplan hin zu weitaus nützlicheren und vorteilhafteren Systemen. Diese Systeme können wahrhaftig der gesamten Menschheit zugutekommen.
Aus dem Englischen übersetzt. Das Original finden Sie hier.

Infrastruktur
Infrastrukturentscheidungen auf Basis der Token-Kosten treffen

Quelle: NVIDIA
Problemstellung: Unternehmen bewerten KI-Infrastruktur häufig anhand von Rechenleistung pro Dollar oder theoretischen Chip-Spezifikationen. Diese Metriken bilden jedoch nicht ab, was letztlich geschäftsrelevant ist: die tatsächlichen Kosten pro produziertem Token. Die Folge sind Investitionsentscheidungen, die an der wirtschaftlichen Realität von KI-Anwendungen vorbeigehen.
Lösung: Die Kennzahl „Cost per Token" (Kosten pro Million Token) erfasst die Gesamtkosten für jede ausgelieferte Einheit künstlicher Intelligenz. Sie berücksichtigt Hardware-Performance, Software-Optimierung, Energieeffizienz und reale Auslastung gleichermaßen. Während die reine GPU-Stunde nur die Inputkosten abbildet, zeigt Cost per Token das tatsächliche Geschäftsergebnis: Wie viel kostet es, einen Token zu erzeugen, der Umsatz generiert oder einen Prozess verbessert? Diese Perspektive verschiebt den Fokus von theoretischer Rechenleistung auf messbaren wirtschaftlichen Nutzen.
Anwendungsbeispiele: Ein Vergleich zwischen zwei GPU-Generationen verdeutlicht die Diskrepanz. Die neuere Generation kostet pro Stunde etwa doppelt so viel wie die Vorgängerversion – ein scheinbarer Nachteil. Bei der Betrachtung der Token-Ausgabe zeigt sich jedoch: Die neuere Architektur liefert 65-mal mehr Token pro Sekunde und GPU, 50-mal mehr Token pro Megawatt und senkt die Kosten pro Million Token um den Faktor 35. Für Unternehmen bedeutet das: Mit derselben Energieinfrastruktur lässt sich erheblich mehr Intelligenz produzieren, was direkt Umsatz und Gewinnmarge beeinflusst. Cloud-Anbieter setzen diese Optimierung bereits um und ermöglichen Kunden den Zugang zu kosteneffizienterer KI-Leistung.
Erklärungsansatz: Die Berechnung der Token-Kosten erfolgt über die Formel: Kosten pro GPU-Stunde geteilt durch Token pro Sekunde, multipliziert mit einer Million. Viele konzentrieren sich auf den Zähler – die Stundenkosten – und übersehen den Nenner: die tatsächliche Token-Ausgabe. Dieser Nenner wird von mehreren Faktoren bestimmt: Unterstützt die Interconnect-Architektur den Traffic großer Mixture-of-Experts-Modelle? Ermöglicht die Inferenz-Software FP4-Präzision ohne Genauigkeitsverlust? Nutzt die Serving-Schicht Disaggregation und KV-Cache-Optimierung? Jede dieser Software- und Hardware-Optimierungen erhöht die Token-Ausgabe und senkt damit die Kosten pro Token erheblich.
Fazit: Reine Rechenkosten oder FLOPS pro Dollar geben keine Auskunft über wirtschaftliche Tragfähigkeit von KI-Projekten. Cost per Token bildet hingegen ab, ob sich KI-Anwendungen profitabel skalieren lassen. Entscheider sollten Infrastruktur-Evaluierungen konsequent auf diese Kennzahl ausrichten und dabei Hardware, Software und Energieeffizienz im Zusammenspiel bewerten.

Sora
Warum OpenAI sein Milliardenprojekt Sora über Nacht beerdigt hat
OpenAI bezeichnete Sora einst als „kambrische Explosion der Kreativität" – ein KI-Videotool, das die menschliche Ausdrucksfähigkeit revolutionieren sollte. Nur 103 Tage nach dem Start der Standalone-App war Sora Geschichte. Disney, das gerade eine Milliarde Dollar investiert und an einem gemeinsamen Projekt gearbeitet hatte, erfuhr von der Schließung 30 Minuten nach einem Meeting. Die Investition wurde komplett zurückgezogen. Was wie ein technologischer Durchbruch begann, endete als strategisches Desaster.
Die Gründe sind vielschichtig, aber eindeutig: Sora verschlang nach Schätzungen bis zu 15 Millionen Dollar pro Tag – bei gerade einmal 2,1 Millionen Dollar Gesamtumsatz. Die Kostenstruktur war nicht tragbar, die Rechenressourcen wurden dringend an anderer Stelle gebraucht. Gleichzeitig entwickelte sich die App zu einem Albtraum für Content-Moderation: KI-Slop flutete soziale Medien, Urheberrechtsverletzungen waren systematisch, Deepfakes unvermeidlich. Nutzer generierten massenhaft problematische Inhalte – darunter Disney-Charaktere in fragwürdigen Situationen, gefälschte Kriegsszenen und verstörendes Material. Was viral ging, ließ sich monetär nicht nutzen. Zudem holten Konkurrenten wie Google Veo, Runway und vor allem Seed Dance 2.0 rasant auf. Soras technischer Vorsprung war innerhalb von Monaten verschwunden.
Hinter der Entscheidung steht ein fundamentaler Strategiewechsel. OpenAI hat sich zu dünn über zu viele Projekte verteilt – ein Problem, das intern offen angesprochen wurde. Die neue Führungslinie lautet: Konzentration auf Produktivitätstools für Unternehmen, nach dem Vorbild von Anthropic, dessen Claude Code massiv Marktanteile gewinnt. Sora passte nicht mehr in diese Strategie. Das Team wurde in die Forschung zu World Models und Robotik verschoben – ein Bereich, in dem OpenAI allerdings ebenfalls Probleme hat. Der CEO von Figure Robotics nannte die Zusammenarbeit mit OpenAI „praktisch wertlos" und berichtete von fehlender Büropräsenz und mangelnder Produktivität. Er beendete die Partnerschaft, nachdem OpenAI signalisierte, selbst ins Robotikgeschäft einzusteigen – nachdem man monatelang proprietäre Technologie gezeigt hatte.
OpenAI steht unter enormem Druck. Trotz 122 Milliarden Dollar frischer Investitionen – größtenteils von Stakeholdern wie Amazon, Nvidia und SoftBank, die selbst auf den AI-Boom angewiesen sind – verliert das Unternehmen Milliarden. Für 2026 werden 14 Milliarden Dollar Verlust prognostiziert, bei 20 Milliarden Umsatz. Auf dem Sekundärmarkt finden OpenAI-Anteile kaum noch Käufer, während Anthropic-Aktien heiß begehrt sind. Die erste Akquisition nach der Finanzierungsrunde? Ein Podcast namens TBPN – Kostenpunkt angeblich im niedrigen dreistelligen Millionenbereich. Der Show, die eng mit der New Yorker Börse verbunden ist und von Sam Altman seit 13 Jahren persönlich gekannt wird, folgen gerade einmal 70.000 Zuschauer täglich. Ein IPO steht bevor, und OpenAI braucht nicht nur Geld, sondern vor allem Vertrauen – etwas, das nach einem vernichtenden Bericht des New Yorker über Sam Altmans Vertrauenswürdigkeit knapper wird. Sora musste gehen, damit OpenAI eine Chance auf Überleben hat.
Werben im KI-Briefing
Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?
Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.
Und nächste Woche…
... werfen wir einen Blick hinter die Kulissen der europäischen KI- und Cloud-Regulierung. Während Europa Hunderte Milliarden in digitale Infrastruktur investiert, zeigen durchgesickerte Dokumente ein beunruhigendes Muster: Amerikanische Tech-Konzerne schreiben Gesetzesentwürfe mit, verhindern Transparenzpflichten und definieren Standards, die ihre Marktposition zementieren. Wir analysieren die Mechanismen dieser Einflussnahme, beleuchten konkrete Fälle von der EU-Rechenzentrums-Verordnung bis zum deutschen Energieeffizienzgesetz und fragen, ob die proklamierte digitale Souveränität mehr ist als politisches Marketing.
Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.



