Willkommen!

Anthropic hat diese Woche erstmals skalierbare Einblicke in das gezeigt, was Modelle denken, aber verschweigen. Auf dem Coding-Benchmark SWE-bench erkannte Claude in 26 Prozent der Fälle, dass es getestet wird – ohne es je zu verbalisieren. Ein Befund mit weitreichenden Konsequenzen für Sicherheitsprüfungen.

Parallel dazu setzt OpenAI die Messlatte auf Infrastrukturebene neu. Mit MRC – entwickelt gemeinsam mit AMD, Broadcom, Intel, Microsoft und Nvidia – lassen sich über 100.000 GPUs mit nur zwei Switch-Ebenen verbinden. Das Protokoll ist bereits im Stargate-Supercomputer im Einsatz und wurde zum Training mehrerer aktueller Frontier-Modelle genutzt.

Damit das KI-Briefing für Sie maximal nützlich bleibt, freuen wir uns über Ihr Feedback. Teilen Sie uns gerne mit, welche Impulse für Sie am wertvollsten sind – und helfen Sie dabei, unser Briefing in Ihrem Netzwerk bekannt zu machen. Gemeinsam können wir eine Community aufbauen, die voneinander lernt und sich gegenseitig stärkt. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.

Was Sie in diesem Briefing erwartet

  • News: Anthropic liest Claudes unausgesprochene Gedanken mit NLAs, SubQ durchbricht quadratische Skalierungsgrenze bei Sprachmodellen, Jensen Huang erklärt Nvidias Marktanteil in China für null, Mira Murati bezichtigt Sam Altman unter Eid der Lüge, Anthropic und Wall Street gründen 1,5-Milliarden-Dollar-Joint-Venture & OpenAI veröffentlicht neues Netzwerkprotokoll für Supercomputer-Cluster

  • Deep Dive: Warum die Agentic-AI-Vision der US-Hyperscaler die Grenzen echter Wissensarbeit systematisch ignoriert

  • In aller Kürze: Das Pentagon integriert KI auf streng geheimen Netzwerken mit Multi-Vendor-Strategie, Musk plant 119-Milliarden-Halbleiterfabrik Terafab für KI- und Raumfahrtchips, AlphaEvolve wechselt vom Forschungsprojekt zum produktiven Optimierungswerkzeug bei Klarna und Google, Apple öffnet iOS 27 für externe KI-Modelle von Google und Anthropic & DeepSeek-Bewertung verdoppelt sich auf 45 Milliarden Dollar vor staatlich geführter Finanzierungsrunde

  • Videos & Artikel: ASML-Chef verteidigt EUV-Monopol und kommentiert Chinas Umgehungsversuche, AlphaGo-Architekt David Silver wettet mit 1,1 Milliarden Dollar gegen das LLM-Paradigma, Harvard-Studie in Science belegt deutliche Überlegenheit von OpenAIs o1 gegenüber Notaufnahmeärzten, Jack Clark sieht 60-Prozent-Wahrscheinlichkeit für autonomes KI-Selbsttraining bis 2028 & Trump-Regierung erwägt erstmals staatliche Prüfpflicht für KI-Modelle vor Markteinführung

  • Impuls: RAISE Summit 2026 in Paris 🇫🇷

  • Umfrage: Wo setzt Ihr Unternehmen KI heute tatsächlich produktiv ein – und wo scheitert es an der Komplexität der Realität?

  • Monitoring Europe: Peter Sarlin finanziert QuTwo ohne institutionelles Kapital und schließt Wagniskapitalgeber bewusst aus

  • Praxisbeispiel: Kurzvideo-Feeds und kognitive Leistung – was die Forschung zeigt

  • YouTube: Yann LeCuns Milliarden-Wette: Warum die Zukunft der KI nicht in Sprache liegt

Interpretierbarkeit

Anthropic liest Claudes unausgesprochene Gedanken mit NLAs

Zusammenfassung: Anthropic stellt Natural Language Autoencoders (NLAs) vor – eine Methode, die interne Aktivierungen von KI-Modellen direkt in lesbaren Text übersetzt. Das System trainiert zwei Modellkopien: eine zur Verbalisierung von Aktivierungen, eine zur Rekonstruktion. NLAs wurden bereits in der Vorab-Sicherheitsprüfung von Claude Opus 4.6 und Claude Mythos Preview eingesetzt und deckten dabei verdecktes Verhalten auf, das in der Textausgabe der Modelle nicht sichtbar war.

  • Technisches Grundprinzip: Ein Aktivierungs-Verbalisierer übersetzt numerische Modellzustände in Text, ein Rekonstruktor bewertet die Qualität der Erklärung. Nur Erklärungen, die die Originalaktivierung präzise rekonstruieren, gelten als valide.

  • Verdeckte Evaluierungswahrnehmung: Auf dem Coding-Benchmark SWE-bench erkannte Claude in 26 Prozent der Fälle, dass es getestet wird – ohne dies je zu verbalisieren. Bei echten Nutzerinteraktionen lag dieser Wert unter einem Prozent.

  • Erfolg im Audit-Test: Prüfer mit NLA-Zugang entdeckten eine absichtlich implantierte Fehlorientierung in einem Testmodell in 12 bis 15 Prozent der Fälle – ohne Zugang zu den Trainingsdaten. Ohne NLAs gelang dies in unter drei Prozent der Versuche.

Warum das wichtig ist: NLAs verschieben die Grenze zwischen beobachtbarem Verhalten und tatsächlichem Modellzustand. Bisherige Sicherheitsprüfungen basierten primär auf Ausgaben – was ein Modell sagt. NLAs ermöglichen erstmals skalierbare Einblicke in das, was ein Modell denkt, aber verschweigt. Das hat weitreichende Konsequenzen: Regulierungsbehörden könnten künftig Interpretierbarkeitsaudits als Zulassungsbedingung fordern. Für Wettbewerber erhöht sich der Druck, eigene Audit-Fähigkeiten aufzubauen und mittelfristig könnte die Fähigkeit, Modelle intern zu prüfen, zum entscheidenden Differenzierungsmerkmal zwischen vertrauenswürdigen und nicht vertrauenswürdigen KI-Anbietern werden.

In Kooperation mit amplemarket

Tech-Unternehmen Ideals bucht 452 Meetings in drei Monaten mit Amplemarket

Quelle: Amplemarket

Zusammenfassung: Das Tech-Unternehmen Ideals (500–1.000 Mitarbeitende) hat seinen fragmentierten Sales-Stack auf der KI-Sales-Plattform Amplemarket konsolidiert und innerhalb von drei Monaten 452 Meetings bei einer E-Mail-Öffnungsrate von 53 Prozent gebucht. Das globale Enterprise-Vertriebsteam ersetzte HubSpot-Add-ons sowie Sales Navigator, Apollo und Lusha durch eine einzige Lösung. Statt mehrere Vertriebsplattformen parallel zu betreiben, laufen Prospecting, Engagement, Social Selling und Dialer nun in einer Oberfläche – mit messbaren Effekten auf Output, Datenqualität und Tooling-Kosten.

  • Workflow-Konsolidierung: Ideals löste den Stack aus HubSpot-Add-ons, Sales Navigator, Apollo und Lusha ab und ermöglichte so reibungslose Arbeitsabläufe im Vertriebsteam.

  • Saubere Datengrundlage: Korrupte Kontaktdaten und falsche Ownership-Zuordnung gehören der Vergangenheit an. Amplemarket synchronisiert sauber mit HubSpot und etabliert das CRM als Single Source of Truth für das gesamte Vertriebsteam.

  • AI-Prospecting mit Duo Copilot: Das Team nutzt Kaufsignale wie Jobwechsel und Unternehmensereignisse, um automatisch personalisierte Sequenzen auszulösen. Top-Performer adressieren so die richtige Person zur richtigen Zeit mit der richtigen Botschaft.

Warum das wichtig ist: Der Fall illustriert eine Rechnung, die viele Vertriebsabteilungen unterschätzen. Einzellizenzen für Apollo oder Lusha wirken günstig, doch ein vollständiger Outbound-Stack erfordert zusätzlich Dialer, Social-Automation, Deliverability- und Intent-Signal-Lösungen – jeweils mit eigenen Verträgen, Integrationen und Sync-Risiken. In Summe übersteigen die Kosten oft die einer konsolidierten Plattform, bei gleichzeitig schlechterer Datenqualität und Lücken in den Arbeitsabläufen. Für Vertriebsteams im DACH-Raum, die skalieren und CRM-Sauberkeit erhalten wollen, bietet Amplemarket einen Weg der Konsolidierung.

Architekturinnovation

SubQ durchbricht quadratische Skalierungsgrenze bei Sprachmodellen

Zusammenfassung: Das Startup SubQ hat mit SSA (Subquadratic Sparse Attention) eine neue Aufmerksamkeitsarchitektur veröffentlicht, die die fundamentale Kostenschranke heutiger Sprachmodelle angreift. Statt jeden Token mit jedem anderen zu vergleichen, wählt SSA inhaltsabhängig aus, welche Kontextteile relevant sind. Das Ergebnis ist lineare statt quadratischer Skalierung – mit einer 52-fachen Beschleunigung gegenüber Standardverfahren bei einer Million Token. Drittverifizierte Benchmarks belegen die Leistung.

  • Funktionale vs. nominale Kontextfenster: SSA adressiert nicht die Größe des Kontextfensters, sondern die Zuverlässigkeit der Nutzung. Bisherige Systeme verarbeiten Millionen Token formal, versagen aber beim Verknüpfen dezentraler Evidenz – dem eigentlichen Kernproblem in Enterprise-Anwendungen.

  • Warum frühere Ansätze scheiterten: Sparse-Attention-Varianten opferten inhaltsabhängiges Routing; rekurrente Modelle verloren exakte Abrufbarkeit durch Zustandskompression; Hybrid-Architekturen behielten quadratische Dense-Attention-Schichten als Last-tragende Elemente. SSA beansprucht, alle drei Einschränkungen gleichzeitig zu lösen.

  • Veränderte Entwicklungsökonomie: Lineare Skalierung macht Million-Token-Experimente iterierbar. Das beschleunigt den Entwicklungszyklus strukturell – und verschiebt die Wettbewerbslogik weg von schlichter Rechenleistung hin zu Architekturqualität.

Warum das wichtig ist: Wenn SSA hält, was die Benchmarks zeigen, verändert sich die ökonomische Grundlage von Enterprise-KI. Anwendungsfälle auf langen Dokumenten, Codebasen und Verträgen – bisher unwirtschaftlich oder durch fehleranfällige RAG-Pipelines kompensiert – werden direkt im Modell lösbar. Das entzieht einem ganzen Ökosystem aus Retrieval- und Orchestrierungs-Middleware die Geschäftsgrundlage. Für Anbieter, die auf Dense-Attention-Architekturen aufgebaut haben, entsteht struktureller Anpassungsdruck. Entscheidend bleibt: Der Produktionsnachweis steht noch aus.

USA vs. China

Jensen Huang erklärt Nvidias Marktanteil in China für null

Quelle: Shutterstock

Zusammenfassung: Nvidia-CEO Jensen Huang hat öffentlich bestätigt, dass Nvidias Marktanteil bei KI-Beschleunigern in China auf null Prozent gefallen ist. Noch 2024 hielt das Unternehmen rund 66 Prozent des chinesischen KI-GPU-Markts. Huang kritisiert die US-Exportpolitik als strategisch kontraproduktiv und warnt, dass China trotz fehlender US-Chips ein ernstzunehmender Wettbewerber im KI-Bereich bleibe.

  • Chinesische Alternativen gewinnen Boden: Anbieter wie Huawei, Cambricon, Moore Threads und MetaX decken laut Schätzungen künftig bis zu 80 Prozent der chinesischen Nachfrage ab. Die einzige verbliebene US-Dominanz liegt im Software-Ökosystem rund um CUDA.

  • Huang zweifelt am Kalkül der Exportkontrollen: Er argumentiert, dass der Ausschluss amerikanischer Unternehmen Chinas Weg zur technologischen Eigenständigkeit beschleunigt, anstatt ihn zu verlangsamen.

  • China bleibt strukturell wettbewerbsfähig: Huang verweist zudem auf günstige Energiekosten und eine außergewöhnlich hohe Dichte an KI-Forschern als Faktoren, die unabhängig von Hardware-Zugängen wirken.

Warum das wichtig ist: Der vollständige Verlust des chinesischen Markts trifft Nvidia nicht nur im Umsatz, sondern schwächt langfristig die globale Reichweite des US-KI-Technologie-Ökosystems. Chinesische Anbieter schließen die Hardware-Lücke schneller als erwartet – und sobald auch CUDA-kompatible Software-Alternativen ausgereift sind, verliert der Westen seinen letzten strukturellen Hebel in diesem Markt. Huangs öffentliche Kritik an der Exportpolitik ist dabei kein bloßes Lobbying: Sie zeigt, dass selbst zentrale Akteure der US-Technologiebranche den gewählten Ansatz für falsch kalibriert halten. Die eigentliche Frage ist nicht ob, sondern wann China hardware-unabhängig konkurrenzfähig wird.

Governance

Mira Murati bezichtigt Sam Altman unter Eid der Lüge

Zusammenfassung: Im laufenden Verfahren Musk gegen Altman hat OpenAIs ehemalige CTO Mira Murati in einer Videodeposition ausgesagt, dass CEO Sam Altman sie bezüglich der Sicherheitsstandards für ein KI-Modell belogen habe. Altman soll fälschlich behauptet haben, die Rechtsabteilung habe entschieden, das Modell benötige keine Prüfung durch das interne Deployment Safety Board. Murati überprüfte die Aussage, stellte einen Widerspruch fest und ließ das Modell dennoch durch das Board prüfen.

  • Systematisches Muster laut mehreren Zeugen: Mitgründer Ilya Sutskever beschrieb in einem 52-seitigen Memo an das Board ein "konsistentes Muster des Lügens" bei Altman. Ex-Board-Mitglied Helen Toner berichtete 2024, Führungskräfte hätten dem Board Belege für manipulatives Verhalten vorgelegt.

  • Altmans Entlassung 2023 als Präzedenzfall: Das Board begründete Altmans kurzzeitige Entlassung damals offiziell damit, er sei "nicht durchgängig aufrichtig" gegenüber dem Board gewesen. Diese Formulierung gewinnt durch Muratis eidliche Aussage jetzt juristisches Gewicht.

  • Murati als Wettbewerberin: Nach ihrem Abgang 2024 gründete sie das Unternehmen Thinking Machines Lab, einen direkten OpenAI-Konkurrenten. Ihre Aussagen im Prozess fallen damit auch in ein wettbewerbliches Umfeld.

Warum das wichtig ist: Muratis Aussage ist nicht nur ein persönlicher Vorwurf, sondern Teil eines sich verdichtenden Zeugenbilds, das Altmans Führungsstil als strukturelles Governance-Problem beschreibt. Für OpenAI ist das brenzlig: Das Unternehmen befindet sich mitten in der Umwandlung zu einer gewinnorientierten Gesellschaft und benötigt das Vertrauen von Investoren und Regulierern. Gerichtsverwertbare Aussagen ehemaliger Führungskräfte über mangelnde interne Transparenz könnten diesen Prozess erschweren und regulatorischen Druck in den USA und Europa erhöhen.

Wall Street

Anthropic und Wall Street gründen 1,5-Milliarden-Dollar-Joint-Venture

Quelle: Shutterstock

Zusammenfassung: Anthropic gründet gemeinsam mit Blackstone, Goldman Sachs, Hellman & Friedman und weiteren Finanzinvestoren ein Joint Venture mit einem Gesamtvolumen von rund 1,5 Milliarden US-Dollar. Das Vehikel soll als Beratungsarm fungieren und Unternehmen – darunter Portfolio-Gesellschaften der beteiligten Private-Equity-Firmen – bei der Einführung von KI-Lösungen unterstützen. Anthropic, Blackstone und Hellman & Friedman investieren je rund 300 Millionen Dollar, Goldman Sachs rund 150 Millionen Dollar.

  • Breites Investorenkonsortium: Neben den Ankerinvestoren sind General Atlantic, Leonard Green, Apollo Global Management, der Staatsfonds GIC und Sequoia Capital beteiligt. Die Streuung über Finanz-, Beteiligungs- und Wachstumskapitalgeber ist ungewöhnlich breit.

  • Primäre Zielgruppe sind Private-Equity-Portfolio-Unternehmen: Diese stehen typischerweise unter Renditedruck und suchen aktiv nach Effizienzgewinnen – ein struktureller Vorteil gegenüber organischen Vertriebsansätzen.

  • Börsengang in Sichtweite: Anthropic prüft eine Notierung noch in diesem Jahr. Wachstumstreiber ist vor allem Claude Code, dessen Erfolg die Umsätze zuletzt stark steigen ließ.

Warum das wichtig ist: Das Joint Venture ist kein klassisches Kapitalinvestment, sondern ein strukturierter Vertriebskanal in einen der kapitalstärksten und einflussreichsten Wirtschaftsbereiche. Private-Equity-Firmen verwalten Tausende von Portfolio-Unternehmen weltweit – wer dort als KI-Standardlösung verankert ist, sichert sich langfristige Volumenverträge und Referenzkunden. OpenAI verfolgt offenbar eine parallele Strategie, was den Unternehmensmarkt zum zentralen Schlachtfeld macht. Für Anthropic erhöht die Kapitalzufuhr und das Netzwerk zudem die Bewertungsbasis vor einem möglichen Börsengang erheblich.

In Kooperation mit REMIRA

Wie KI-Absatzprognosen den Lebensmittelgroßhandel revolutionieren

Quelle: REMIRA

Zusammenfassung: REMIRA veranstaltet am 21. Mai 2026 um 10 Uhr ein kostenfreies Online-Webinar zum Thema KI-gestützte Absatzprognosen im Lebensmittelgroßhandel. Das einstündige Webinar richtet sich an Geschäftsführung, Einkaufsleitung sowie Verantwortliche für Disposition und Bestandsplanung in der Lebensmittelbranche. Die Experten von REMIRA zeigen, wie KI-Systeme die Balance zwischen niedrigen Beständen und hoher Lieferfähigkeit verbessern und dadurch Verderb sowie Abschreibungen reduzieren.  

  • Praxisnahe Einblicke: Sie sehen live, wie KI-Software Prognosen erstellt und Planungsprozesse im Lebensmittelgroßhandel automatisiert.

  • Konkrete Effekte: Beispiele aus der Praxis zeigen, wie Unternehmen Verderb um bis zu 25 % reduzieren und Lagerbestände um 10–20 % senken können.

  • Schneller ROI: Erfahren Sie, wie sich KI-Lösungen häufig bereits innerhalb von 6–9 Monaten amortisieren – durch weniger Abschreibungen und effizientere Bestände.

Warum das wichtig ist: Der Lebensmittelgroßhandel operiert in einem Spannungsfeld aus Kapitalbindung, Verderb und Liefertreue. Excel-basierte Planung stößt bei Mindesthaltbarkeitsdaten und komplexen Lagerbedingungen schnell an ihre Grenzen. KI-Prognosen verschieben den Wettbewerbsvorteil hin zu Unternehmen, die Kapitalbindung senken und gleichzeitig Verfügbarkeit sichern. Das Webinar zeigt, wie mit KI neben historischen Daten auch Wetter, Aktionen und Feiertage bei präzisen Absatzprognosen berücksichtigt werden, um so Nachfrageänderungen frühzeitig zu erkennen. Sie lernen, Sicherheitsbestände zu optimieren, Abschreibungen zu reduzieren und ihr Team bei der Planung zu entlasten.

GPU-Networking

OpenAI veröffentlicht neues Netzwerkprotokoll für Supercomputer-Cluster

Quelle: OpenAI

Zusammenfassung: OpenAI hat gemeinsam mit AMD, Broadcom, Intel, Microsoft und NVIDIA das Netzwerkprotokoll MRC (Multipath Reliable Connection) entwickelt und über das Open Compute Project als offenen Standard veröffentlicht. MRC verbessert die Datenübertragung zwischen GPUs in großen Trainings-Clustern grundlegend und ist bereits im Stargate-Supercomputer produktiv im Einsatz. Das Protokoll wurde zum Training mehrerer aktueller Frontier-Modelle genutzt.

  • Technisches Kernprinzip: MRC verteilt Datenpakete eines einzelnen Transfers auf Hunderte parallele Pfade statt auf einen einzigen. Ausfälle werden dadurch in Mikrosekunden umgangen – herkömmliche Ansätze benötigten dafür Sekunden bis Zehntelsekunden.

  • Infrastruktureffzienz: Multi-Plane-Netzwerke mit MRC verbinden über 100.000 GPUs mit nur zwei Switch-Ebenen statt bisher drei bis vier. Das reduziert Hardwarekosten, Stromverbrauch und Ausfallquellen deutlich.

  • Offener Standard als Strategie: Durch die Veröffentlichung über das Open Compute Project können auch andere Anbieter MRC implementieren. OpenAI positioniert sich so als Mitgestalter zentraler Infrastrukturstandards.

Warum das wichtig ist: Wer Frontier-Modelle trainiert, konkurriert nicht nur über Modellarchitektur und Daten, sondern zunehmend über Infrastrukturbeherrschung. MRC macht deutlich, dass OpenAI diese Ebene aktiv gestalten will. Die Veröffentlichung als offener Standard ist dabei kein Altruismus: Je breiter MRC adoptiert wird, desto mehr setzt sich OpenAIs Ökosystem als Referenzarchitektur durch. Für Wettbewerber ohne eigene Supercomputer-Infrastruktur – und ohne Zugang zu Stargate-Größenordnungen – vergrößert sich der strukturelle Abstand weiter.

Agentic AI

Warum die Agentic-AI-Vision der US-Hyperscaler die Grenzen echter Wissensarbeit systematisch ignoriert

Quelle: Shutterstock

Was wäre, wenn der lauteste Fortschrittsversprechen der Technologiegeschichte auf einem grundlegenden Denkfehler beruht? Die US-Hyperscaler – Microsoft, Google, Amazon, OpenAI und ihre Wettbewerber – investieren Hunderte von Milliarden Dollar in eine Vision, in der autonome KI-Agenten vollständige Geschäftsprozesse Ende-zu-Ende übernehmen: von der Analyse bis zur Entscheidung, vom Entwurf bis zur Umsetzung. Die Roadmaps klingen überzeugend, die Demos sind beeindruckend, und die Benchmark-Ergebnisse erreichen laut einigen Anbietern „PhD-Niveau". Doch hinter dieser Kulisse häufen sich Befunde aus der Grundlagenforschung, der Wirtschaftswissenschaft und der Organisationstheorie, die ein deutlich nüchterneres Bild zeichnen – und für Entscheidungsträger unangenehme Fragen aufwerfen.

Benchmarks messen Muster, kein Verstehen

Der technologische Ausgangspunkt dieser Debatte liegt tiefer als Produktankündigungen vermuten lassen. Yann LeCun, Chief AI Scientist bei Meta, beschreibt in seinem vielzitierten Papier „A Path Towards Autonomous Machine Intelligence" das Kernproblem präzise: Aktuelle Large Language Models besitzen kein „World Model" – keine interne Repräsentation der physischen, sozialen und kausalen Struktur der Welt. Sie operieren als hochentwickelte statistische Muster-Matching-Maschinen, nicht als denkende Systeme. Gary Marcus untermauert dies in seiner Analyse für das MIT Technology Review und zeigt, dass Deep Learning an einer strukturellen Wand stößt: Benchmarks erfassen keine Kausalität, kein kontextuelles Urteilsvermögen und keine Robustheit gegenüber Verteilungsverschiebungen – also genau jenen Eigenschaften, die komplexe Wissensarbeit in realen Organisationen erfordert.

Der Nobelpreisträger rechnet nach

Dass diese technologische Einschränkung erhebliche wirtschaftliche Konsequenzen hat, belegt Daron Acemoglu in seinem NBER-Working-Paper „The Simple Macroeconomics of AI" mit bemerkenswerter Präzision. Der MIT-Ökonom und Nobelpreisträger kommt zu dem Schluss, dass KI unter realistischen Annahmen lediglich 4,6 Prozent aller wirtschaftlich relevanten Tasks tatsächlich automatisierbar macht – und selbst dabei nur marginale Produktivitätsgewinne von unter einem Prozent des BIP innerhalb eines Jahrzehnts erzeugt. Der Befund steht in krassem Widerspruch zu den Renditeversprechen, mit denen Hyperscaler ihre Infrastrukturinvestitionen rechtfertigen. Arvind Narayanan und Sayash Kapoor von der Princeton University zeigen in „AI Snake Oil" ergänzend, dass KI-Systeme in realen, dynamischen Umgebungen systematisch schlechter performen als in kontrollierten Testszenarien – ein Befund, der die Validität agentischer Roadmaps direkt unterminiert.

Wo Kollaboration schlägt, was Automatisierung verspricht

Unternehmen, die KI als Werkzeug statt als Ersatz einsetzen, zeigen konsistent robustere Ergebnisse. H. James Wilson und Paul R. Daugherty von Accenture analysieren in ihrer Harvard Business Review-Studie Unternehmensdaten aus mehreren Branchen und kommen zu einem eindeutigen Befund: Die größten Produktivitätsgewinne entstehen nicht durch Vollautomatisierung, sondern durch strukturierte Mensch-Maschine-Kollaboration – Systeme, in denen KI kontextfreie Routinetasks übernimmt, während menschliche Urteilskraft für Ambiguität, Kontext und Abwägung erhalten bleibt. Diese Erkenntnis korrespondiert mit Lucy Suchmans Grundlagenwerk „Human-Machine Reconfigurations", das zeigt, dass menschliches Handeln konstitutiv situativ ist und sich algorithmischen Repliken systematisch entzieht. Wissensarbeit entsteht nicht im Vakuum, sondern in sozialen, historischen und organisationalen Kontexten, die kein Sprachmodell vollständig abbilden kann.

Die Anreizstruktur formt das Narrativ

Die eigentliche Brisanz liegt jedoch nicht in der Technologie selbst, sondern in der Logik, die das Narrativ erzeugt. Erik Brynjolfsson von der Stanford University beschreibt in „The Turing Trap" den systemischen Irrtum: Wer KI darauf ausrichtet, menschliche Intelligenz zu imitieren statt zu ergänzen, verpasst nicht nur wirtschaftliche Chancen – er riskiert aktiv Schaden. Dieser Irrtum ist bei den US-Hyperscalern kein zufälliges Missverständnis. Ihre Geschäftsmodelle sind auf API-Nutzung und Rechenkapazität ausgerichtet. Je mehr Prozesse vollständig automatisiert werden, desto mehr Token fließen durch ihre Infrastruktur, desto besser lassen sich Investitionen von mehreren hundert Milliarden Dollar gegenüber Investoren rechtfertigen. Das Narrativ der autonomen Agenten ist damit nicht nur eine technologische Wette – es ist eine kapitalmarktgetriebene Notwendigkeit.

Der nüchterne Blick ist kein Rückschritt

Für Vorstandsetagen ergibt sich daraus eine klare strategische Schlussfolgerung: Der Maßstab für KI-Investitionen sollte nicht sein, wie weit die Automatisierung reicht, sondern wie präzise sie eingesetzt wird. KI als klar begrenztes, kontrollierbares Werkzeug in definierten Prozesskontexten – mit menschlicher Urteilskraft an den kritischen Schnittstellen – liefert robustere und skalierbarere Ergebnisse als ambitionierte Agenten-Architekturen, die unter Realbedingungen kollabieren. Unternehmen, die heute ihre Kernprozesse auf vollautonome KI-Systeme umstellen, ohne die strukturellen Grenzen dieser Technologie zu kennen, riskieren nicht nur Kapitalverluste. Sie riskieren, institutionelles Wissen zu entwerten, das sich nicht so einfach wiederherstellen lässt wie eine Software-Konfiguration. Die nüchternste KI-Strategie ist damit auch die ambitionierteste.

Quelle: Shutterstock

  1. Pentagon-Deal: Das US-Verteidigungsministerium hat Verträge mit Nvidia, Microsoft, AWS und Reflection AI abgeschlossen, die den Einsatz ihrer KI-Systeme auf streng geheimen Netzwerken der Klassifizierungsstufen IL6 und IL7 erlauben. Die Vereinbarungen folgen auf frühere Deals mit Google, SpaceX und OpenAI und sind Teil einer bewussten Strategie gegen Abhängigkeit von einzelnen Anbietern – ausgelöst durch den laufenden Rechtsstreit mit Anthropic, das dem Pentagon unbeschränkte Nutzungsrechte verweigerte. Bislang haben mehr als 1,3 Millionen Militärangehörige die KI-Plattform GenAI.mil genutzt.

  2. Elon Musk: Der Tech-Unternehmer plant mit SpaceX den Bau einer Halbleiterfabrik in Texas – Investitionsvolumen bis zu 119 Milliarden Dollar. Die unter dem Namen "Terafab" geführte Anlage soll Chips für KI-Server, Satelliten, autonome Tesla-Fahrzeuge und Roboter produzieren. Intel ist bereits als Fertigungspartner eingebunden, Tesla soll ebenfalls Ressourcen beisteuern. Hintergrund ist der wachsende Eigenbedarf von Musks KI-Tochter xAI, die für das Grok-Modell massive Rechenkapazitäten benötigt. Die kombinierte Bewertung von SpaceX und xAI liegt laut Berichten bei 1,25 Billionen Dollar.

  3. AlphaEvolve: Googles KI-gestütztes Programmier-System, das Algorithmen automatisch optimiert, hat innerhalb eines Jahres den Sprung vom Forschungsprojekt zum produktiven Werkzeug vollzogen. Klarna verdoppelte damit die Trainingsgeschwindigkeit eines Sprachmodells, FM Logistic verbesserte die Routeneffizienz um 10,4%, was 15.000 Kilometer jährlich einspart. Intern optimiert das System bereits TPU-Chip-Designs und reduzierte Speicher-Schreibaufwand in Googles Datenbank Spanner um 20%. Google Cloud vermarktet die Technologie nun aktiv an externe Unternehmen.

  4. Apple: Der iPhone-Konzern plant, mit iOS 27 eine offene KI-Modellauswahl einzuführen. Unter dem internen Namen "Extensions" sollen Nutzer künftig zwischen Modellen von Google, Anthropic und anderen Anbietern wählen können, die dann Siri, Writing Tools und weitere Apple-Intelligence-Funktionen antreiben. Die Strategie verdeutlicht Apples Ansatz, eigene Hardware als Plattform für fremde KI-Dienste zu positionieren, statt massiv in eigene Modellentwicklung zu investieren. Für Anbieter wie Google und Anthropic öffnet sich damit Zugang zu über einer Milliarde aktiver Apple-Geräte.

  5. DeepSeek: Das chinesische KI-Labor steht kurz vor seiner ersten Finanzierungsrunde – die Bewertung ist in wenigen Wochen von 20 auf 45 Milliarden Dollar gestiegen. Angeführt wird die Runde vom staatlichen China Integrated Circuit Industry Investment Fund, auch Tencent und Alibaba sollen einsteigen. Gründer Liang Wenfeng, der knapp 90% der Anteile hält, sucht das Kapital primär, um Mitarbeitern Unternehmensanteile anbieten zu können – Reaktion auf den wachsenden Abwerbedruck durch Konkurrenten.

  1. ASML: Der Chef des niederländischen Chip-Maschinenherstellers, Christophe Fouquet, zeigt sich unbeeindruckt von Wettbewerbsversuchen. Das Unternehmen hält das globale Monopol auf Maschinen für Extremultraviolett-Lithografie – ohne die keine modernen KI-Chips gefertigt werden können – und ist mit über 530 Milliarden Dollar Börsenwert Europas wertvollstes Unternehmen. Zum Thema China sagte Fouquet, eine Umgehung der Exportkontrollen sei technisch kaum möglich, da nie eine EUV-Maschine nach China geliefert wurde.

  2. Ineffable: David Silver, langjähriger Architekt von AlphaGo und AlphaZero bei Google DeepMind, hat mit Ineffable Intelligence eine direkte Gegenwette zur vorherrschenden KI-Entwicklung platziert. Seine These: LLMs stoßen strukturell an eine Wissensgrenze, weil ihr Lernpotenzial durch menschlich erzeugte Trainingsdaten gedeckelt ist. Die fünf Monate alte europäische Firma erhielt zuletzt 1,1 Milliarden Dollar von Sequoia, Lightspeed, Nvidia, Google und der britischen Regierung bei einer Bewertung von 5,1 Milliarden Dollar.

  3. Medizin-KI: Eine an der Harvard Medical School durchgeführte Studie, veröffentlicht im Fachjournal Science, zeigt, dass OpenAIs o1-Modell menschliche Notaufnahmeärzte bei der Triage deutlich übertrifft. Bei minimalen Patientendaten erreichte die KI eine Diagnosegenauigkeit von 67%, Ärzte kamen nur auf 50–55%. Bei Behandlungsplänen war der Abstand noch größer: 89% gegenüber 34%. Forscher betonen, KI werde Ärzte nicht ersetzen, sondern ein "triadisches Modell" aus Arzt, Patient und KI entstehen lassen. Ein rechtlicher Haftungsrahmen fehlt bislang.

  4. Selbstlernende KI: Jack Clark, Mitgründer von Anthropic, sieht mit einer Wahrscheinlichkeit von 60% bis Ende 2028 das erste KI-System, das autonom einen eigenen Nachfolger trainiert. Grundlage seiner Einschätzung sind öffentlich verfügbare Benchmarks: Anthropics Modell Mythos löst inzwischen 93,9% realer Software-Engineering-Aufgaben, und die Zeit, über die KI-Systeme eigenständig arbeiten können, hat sich von 30 Sekunden im Jahr 2022 auf heute zwölf Stunden ausgedehnt.

  5. White House: Die Trump-Regierung erwägt erstmals eine staatliche Prüfpflicht für KI-Modelle vor deren Markteinführung – eine Kehrtwende gegenüber dem bisherigen Deregulierungskurs. Auslöser ist Anthropics Modell Mythos, dessen Fähigkeiten zur Erkennung von Sicherheitslücken das Weiße Haus alarmiert haben. Geplant ist eine Arbeitsgruppe mit Tech-Konzernen und Regierungsstellen; ein formaler Review-Prozess würde Behörden wie der NSA Erstzugang zu neuen Modellen verschaffen, ohne deren Veröffentlichung zu blockieren. Tech-Unternehmen sind in der Frage gespalten.

Veranstaltung

RAISE Summit 2026 in Paris

Quelle: Raise AI

Inhalt: Rund 9.000 Delegierte aus über 2.000 Unternehmen treffen sich im Juli 2026 in Paris, um KI nicht zu erklären, sondern in Geschäftsmodelle zu übersetzen. Das Programm deckt die gesamte strategische Bandbreite ab, von Infrastruktur und Sovereign Cloud über Regulierung und ROI bis hin zu AGI-Szenarien, und richtet sich explizit an Entscheider, die über Umsetzung sprechen wollen, nicht über Theorie. Bemerkenswert ist der hohe Anteil von C-Level-Führungskräften und Gründern unter den Teilnehmern, der das Event strukturell von klassischen Fachkonferenzen unterscheidet.

Kontext: Der RAISE Summit ist eine der global sichtbarsten Plattformen für den geschäftlichen KI-Diskurs und hat sich als Treffpunkt für Führungspersönlichkeiten aus Technologie, Industrie und Investorenwelt etabliert. Die Agenda mit Formaten wie dem geschlossenen CxO Summit oder dem Startup-Wettbewerb vor Investoren zeigt, dass der Fokus auf Netzwerk, Strategie und Kapital liegt. Für Entscheider, die KI-Vorhaben vorantreiben oder skalieren wollen, bietet die Veranstaltung einen konzentrierten Zugang zu relevanten Akteuren und Perspektiven.

Ihre Meinung interessiert uns

Login or Subscribe to participate

Ergebnisse der vorherigen Umfrage

Wie groß ist die Lücke zwischen dem, was KI-Anbieter versprechen, und dem, was in Ihrem Unternehmensalltag ankommt?

🟨⬜️⬜️⬜️⬜️⬜️🌟 Kaum eine Lücke:
🟨🟨🟨⬜️⬜️⬜️ 🔧 Überschaubare Lücke
🟩🟩🟩🟩🟩🟩 🌫️ Spürbare Lücke
🟨⬜️⬜️⬜️⬜️⬜️ 🚧 Große Lücke

Quantum x AI

Peter Sarlin finanziert QuTwo ohne institutionelles Kapital und schließt Wagniskapitalgeber bewusst aus

Quelle: QUTWO

Was ist das Problem? Europas KI-Ökosystem leidet strukturell darunter, dass ambitionierte Technologieunternehmen entweder auf US-amerikanische Wagniskapitalgeber angewiesen sind oder unter deren Wachstumsdiktat eingeschränkt werden. Klassische VC-Strukturen verlangen Hyperwachstum auf kurzen Zeithorizonten – ein Muster, das tiefe technologische Entwicklungsarbeit, wie sie für das Quantenzeitalter nötig ist, systematisch verhindert.

Wie wird es gelöst? Peter Sarlin, der Silo AI 2024 für 665 Millionen US-Dollar an AMD verkauft hat, strukturiert die Seed-Finanzierung seines neuen Unternehmens QuTwo grundlegend anders. 25 Millionen Euro wurden ausschließlich bei rund 30 vermögenden Privatpersonen eingesammelt – darunter Xavier Niel, Niklas Zennström und Dieter Schwarz über sein Family Office D11Z. Die Bewertung liegt bei 325 Millionen Euro; die Gründer geben dabei lediglich rund acht Prozent der Anteile ab und behalten die operative Kontrolle vollständig. Das Kernprodukt, QuTwo OS, ist eine Orchestrierungsschicht, die Unternehmens-KI-Workloads heute schon auf klassischer Hardware quanteninspiriert simuliert und den Übergang zu echter Quantenhardware vorbereitet. Erste Kunden wie Zalando sowie zugesagte Aufträge im Wert von 23 Millionen US-Dollar belegen frühe Marktreife.

Warum das wichtig ist: Sarlins Modell ist mehr als eine ungewöhnliche Finanzierungsstruktur – es ist ein gezieltes Gegenmodell zum Silicon-Valley-Paradigma. Indem er VC-Gesellschaften ausschließt und stattdessen auf erfahrene Unternehmer-Netzwerke setzt, schützt er einen Fünf-bis-Zehn-Jahres-Horizont, der für die Entwicklung kritischer Infrastruktur im Quantum-KI-Bereich notwendig ist. Gleichzeitig demonstriert der Fall, dass Europa in der Lage ist, globale Gründertalente, unternehmerisches Kapital und tiefes Technologiewissen zu bündeln – ohne US-amerikanische Intermediäre. Für Unternehmen, die jetzt in Quantenresilienz investieren wollen, verschiebt QuTwo die relevante Frage: nicht ob Quantencomputing kommt, sondern wann und mit welcher eigenen Vorbereitung sie starten.

Handlungsempfehlung: Unternehmen, die in regulierten oder rechenintensiven Branchen tätig sind – Finanz, Logistik, Pharma, Energie – sollten jetzt mit QuTwo oder vergleichbaren Anbietern Design-Partnerships prüfen, bevor Quantenvorteil zur operativen Voraussetzung wird. Parallel lohnt es sich, die eigene Finanzierungsstrategie für Technologieunternehmen im Portfolio zu überdenken: Das Sarlin-Modell zeigt, dass Angel-Syndikate mit gezielten Industrienetzwerken VC-Runden bei bestimmten Deep-Tech-Profilen überlegen sein können.

Ansprechpartner: QuTwo & Peter Sarlin

Impact: Europäische KI-Souveränität im Quantenzeitalter – strukturell verankerbar bis 2030

Relevant für:

  • Chief Technology Officer / Head of IT-Strategie: ●●●

  • Chief Financial Officer / Investoren-Relations: ●●●

  • Chief Information Security Officer (Post-Quantum-Kryptographie): ●●●

  • Finanzdienstleister & Versicherungen: ●●●

  • Logistik & Supply-Chain-Management: ●●○

  • Pharma & Life Sciences (Materialforschung, Drug Discovery): ●●○

  • Energiewirtschaft & Netzbetreiber: ●●○

  • Corporate-Venture & Beteiligungsmanagement: ●●●

Brainrot

Kurzvideo-Feeds und kognitive Leistung – was die Forschung zeigt

Problemstellung: Kurzvideo-Feeds wie TikTok, Instagram Reels oder YouTube Shorts dominieren zunehmend die Mediennutzung – und mit ihnen wächst die Sorge um nachlassende Konzentrationsfähigkeit. Der Begriff „Brain Rot" kursiert in der öffentlichen Debatte, belastbare wissenschaftliche Belege fehlten lange Zeit jedoch weitgehend. Erste experimentelle Studien liefern nun konkrete Hinweise darauf, dass bestimmte kognitive Fähigkeiten durch das Scrollen in Kurzvideofeeds kurzfristig beeinträchtigt werden.

Lösung: Zwei unabhängige Experimente haben gezielt untersucht, welche kognitiven Funktionen nach der Nutzung von Kurzvideofeeds nachlassen. Eine Studie der LMU München testete prospektives Gedächtnis – also die Fähigkeit, sich an eine zuvor getroffene Absicht zu erinnern – vor und nach einer zehnminütigen Pause mit unterschiedlichen Medienformaten. Nur die Gruppe, die in der Pause TikTok scrollte, zeigte einen deutlichen Leistungsabfall bei dieser Gedächtnisaufgabe, während Twitter-Nutzer und passive Videokonsumenten vergleichbare Ergebnisse erzielten. Eine weitere Studie an der Pekinger Universität testete analytisches Denken anhand von Fragen, die eine bewusste Übersteuerung von Instinktantworten erfordern. Dabei schnitten Probanden nach 30 Minuten aktivem Scrollen durch einen TikTok-Feed messbar schlechter ab als jene, die dieselben Videos als zusammengeschnittenes Langformat sahen.

Anwendungsbeispiele: Die praktische Relevanz zeigt sich in typischen Arbeits- und Entscheidungssituationen, in denen prospektives Gedächtnis und analytisches Denken gefragt sind – etwa beim Einhalten von Folgeterminen, beim Umsetzen geplanter Aufgaben oder beim kritischen Prüfen von Informationen. Eine Replikationsstudie aus dem Vereinigten Königreich ergänzte den Befund, indem sie das Scrollen auf zehn Wischbewegungen begrenzte und dabei keinen Leistungsabfall feststellte – beim unlimitierten Scrollen hingegen schon. Das deutet darauf hin, dass nicht das Format an sich, sondern das grenzenlose, passive Konsumverhalten den entscheidenden Faktor darstellt. Für Führungskräfte lässt sich daraus ableiten, dass Kurzvideoformate in konzentrierten Arbeitsphasen oder vor Entscheidungssituationen vermieden werden sollten. Zeitliche oder mengenmäßige Nutzungsgrenzen – etwa durch Plattformfunktionen oder persönliche Regeln – könnten nach aktuellem Stand einen messbaren Unterschied bewirken.

Erklärungsansatz: Der wesentliche Wirkungsmechanismus liegt in der Reduktion von Nutzerentscheidungen durch das Interface selbst. Klassische Medienerlebnisse erfordern aktive Auswahl – der Nutzer wählt, was er konsumiert und wann er aufhört. Kurzvideo-Feeds hingegen übernehmen diese Entscheidungen weitgehend automatisch, indem ein Algorithmus kontinuierlich den nächsten Inhalt ausspielt und der Nutzer lediglich durch Wischen eine grobe Rückmeldung gibt. Interne Unternehmensunterlagen beschreiben dieses Prinzip explizit als Einschränkung der Nutzerentscheidungsfreiheit zugunsten stärkerer Personalisierung und Bindung. Dieses kontinuierliche Autopilot-Modus-Verhalten trainiert nach den vorliegenden Befunden genau jene kognitiven Systeme ab, die für vorausschauendes Planen und reflektiertes Urteilen gebraucht werden.

Fazit: Die vorliegende Forschungslage ist noch begrenzt – kleine Stichproben und künstliche Laborbedingungen schränken die Übertragbarkeit ein. Die Befundlage deutet jedoch konsistent darauf hin, dass unlimitiertes Scrollen in Kurzvideofeeds kurzfristig messbare kognitive Kosten verursacht. Für Personen, die auf analytisches Denken und verlässliches Aufgabenmanagement angewiesen sind, ist eine bewusste Steuerung der eigenen Nutzungsgewohnheiten daher fachlich begründbar.

LLMs

Yann LeCuns Milliarden-Wette: Warum die Zukunft der KI nicht in Sprache liegt

KI-Pionier Yann LeCun hat eine Milliarde Dollar eingesammelt, um einen radikal anderen Weg zur künstlichen Intelligenz zu beschreiten. Sein Ansatz heißt JEPA – Joint Embedding Predictive Architecture – und bricht mit dem Erfolgsrezept großer Sprachmodelle: Er ist weder generativ noch in Sprache verankert. Während ChatGPT und Co. Texte, Bilder oder Videos Pixel für Pixel vorhersagen, setzt LeCun auf abstrakte Repräsentationen der Welt – und behauptet, ohne diese werde es niemals zuverlässige KI-Agenten geben.

Die Wurzeln dieser Idee reichen zurück bis in die 1990er Jahre, als LeCun an den Bell Labs sogenannte Siamese Networks zur Erkennung gefälschter Unterschriften entwickelte. Der Grundgedanke: Statt ein Bild zu rekonstruieren, lernt ein Modell, semantisch ähnliche Inhalte auf ähnliche Vektoren – sogenannte Embeddings – abzubilden. Versuche, generative Architekturen wie bei GPT auf Video zu übertragen, scheiterten an einem fundamentalen Problem: Bei 1920×1080 Pixeln existieren rund 10 hoch 15 Millionen mögliche Folgebilder, weit mehr als Atome im beobachtbaren Universum. Die Modelle mitteln in der Unsicherheit – und produzieren verschwommenen Bildbrei.

Der entscheidende Durchbruch kam 2021 mit Barlow Twins, benannt nach dem Neurowissenschaftler Horace Barlow. LeCun und der Postdoc Stéphane Deny lösten das jahrelange Problem der „Representation Collapse", bei dem Modelle einfach lernten, für jeden Input denselben Vektor auszugeben. Über eine Kreuzkorrelationsmatrix zwangen sie das Netzwerk, redundante Information zwischen Neuronen zu minimieren. Spätere Verfahren wie VICReg und vor allem DINOv3 erreichten im August 2025 erstmals mit selbstüberwachtem Lernen eine ImageNet-Genauigkeit von 88,4 Prozent – ebenbürtig mit überwachten Modellen, ohne ein einziges menschliches Label.

Auf dieser Grundlage baut JEPA Weltmodelle: Systeme, die nicht den nächsten Pixel, sondern die abstrakte nächste Zustandsrepräsentation der Welt vorhersagen – optional konditioniert auf Aktionen, etwa Steuersignale eines Roboterarms. LeCuns Argument ist scharf: Ein Teenager lernt in 20 Stunden Autofahren, während Tesla mit Millionen Trainingsstunden kaum über Level 2 hinauskommt. Echte agentische Systeme, so seine kontroverse These, müssen die Konsequenzen ihrer Handlungen antizipieren können – und Sprachmodelle können das nicht. Ob JEPA tatsächlich der Weg zu maschineller Intelligenz auf menschlichem Niveau ist oder eine elegante Sackgasse bleibt, wird sich in den kommenden Jahren entscheiden.

Werben im KI-Briefing

Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?

Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.

Und nächste Woche…

... nächste Woche richten wir den Blick auf eine Frage, die viele Unternehmen gerade beschäftigt: Wie lässt sich Customer Success in Zeiten von KI neu denken und erfolgreich gestalten? Automatisierung verändert die Kundenbeziehung grundlegend – doch welche Rolle spielen dabei Technologie, Strategie und der Mensch? Das beleuchten wir im nächsten DeepDive.

Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.

Wie hat Ihnen das heutige KI-Briefing gefallen?

Ihr Feedback hilft uns, bessere Inhalte für Sie zu erstellen!

Login or Subscribe to participate

Das strategische Betriebssystem für Entscheidungsträger.

Reply

Avatar

or to participate

Weiterlesen