Guten Morgen!
Willkommen! Diese Woche werfen wir einen genaueren Blick auf einen Paradigmenwechsel in der europäischen Verteidigungspolitik: Mit Start-ups wie Helsing und Kraken entstehen erstmals echte KI-Fähigkeiten für autonome Waffensysteme – unabhängig von US-Technologien. Die ersten autonomen Testflüge und seriennahen Systeme markieren den Beginn einer sicherheitspolitischen Eigenständigkeit Europas.
Gleichzeitig zeigt ElevenLabs mit den neuen Agent Workflows, wie sich komplexe Aufgaben mit spezialisierten KI-Agenten modular organisieren lassen. Die Architektur verbindet Skalierbarkeit mit Governance – ein entscheidender Schritt hin zu produktionsreifen Multi-Agent-Systemen, die Unternehmensprozesse effizient, sicher und nachvollziehbar automatisieren.
Damit das KI-Briefing für Sie maximal nützlich bleibt, freuen wir uns über Ihr Feedback. Teilen Sie uns gerne mit, welche Impulse für Sie am wertvollsten sind – und helfen Sie dabei, unser Briefing in Ihrem Netzwerk bekannt zu machen. Gemeinsam können wir eine Community aufbauen, die voneinander lernt und sich gegenseitig stärkt. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.
Was Sie in diesem Briefing erwartet
News: Europa etabliert erstmals eigene KI-Fähigkeiten für autonome Waffensysteme, Meta will Nutzerdaten aus KI-Chats für Werbung nutzen, Südkorea investiert Milliarden in eigene KI-Modelle, OpenAI bringt GPT-Apps und AgentKit für Entwickler, Pentagon warnt vor Risiken durch KI in Waffensystemen, Kalifornien zwingt KI-Firmen zu mehr Transparenz & OpenAI startet Sora 2 für realistische Videogenerierung
Deep Dive: Generative Engine Optimization (GEO) – Evolution statt Revolution
In aller Kürze: OpenAI plant neue Sora-Version mit Opt-out-Regelung für urheberrechtlich geschützte Inhalte, Microsoft investiert 33 Milliarden US-Dollar in Neocloud-Anbieter für KI-Infrastruktur, Microsoft entwickelt eigene KI-Chips zur Unabhängigkeit von Nvidia und Leistungsoptimierung, OpenAI führt neue Rechtekontrollen und Monetarisierung für das Videomodell Sora ein, Microsoft startet mit Sentinel und Security Copilot neue KI-basierte Sicherheitsplattform
Videos & Artikel: Transformative KI definiert neue Werkzeuge und Indikatoren für wirtschaftliche und gesellschaftliche Steuerung, Anthropic enthüllt gefährliches Eigeninteresse von KI-Modellen in Abschalttests, Nvidia investiert 100 Milliarden Dollar in OpenAI und riskiert Marktverzerrung durch enge Kapitalverflechtungen, MIT warnt vor explodierendem Energieverbrauch durch KI und entwickelt Strategien für nachhaltige Rechenzentren, Claude Sonnet 4.5 zeigt durch geleakten Prompt außergewöhnliche Ausdauer und Struktur bei komplexer Softwareentwicklung
Impuls: Grenzen der Nachahmung
Umfrage: Wie stark beeinflussen innenpolitische Entwicklungen in den USA Ihrer Meinung nach die politische Stabilität Europas? 🇪🇺
Meinung der Redaktion: Wir müssen KI aus der Heldenrolle entlassen und sie wie fehlbare Infrastruktur mit klaren Grenzen behandeln
Praxisbeispiel: ChatGPT Pulse – Personalisierte Updates statt ständiger Prompts
YouTube: Warum Unternehmer heute träumen müssen um morgen zu gestalten

Europäische Souveränität
Europa etabliert erstmals eigene KI-Fähigkeiten für autonome Waffensysteme
Zusammenfassung: In zahlreichen Ländern fließen immense Mittel in autonome Waffensysteme wie KI-gesteuerte Kampfjets, Schwärme von Drohnen und kostengünstige unbemannte Kriegsschiffe. Startups wie Helsing und Kraken versuchen, militärische Innovation schneller voranzutreiben als traditionelle Rüstungskonzerne. Erste Testflüge mit Helsing’s KI‑Agent „Centaur“ in einer Gripen E zeigten, dass KI Systeme bereits heute komplexe Flugmanöver eigenständig ausführen können. Kraken produziert autonome Oberflächenschiffe (USVs) wie den K3 Scout, konfigurierbar für Aufklärung, Kampf oder Logistik. Die Verteidigungsindustrie erlebt derzeit eine disruptive Wende – von langfristiger Beschaffung hin zu flexibler, technologiegetriebener Entwicklung.
Luftkampf der Zukunft: Bei der Kooperation von Saab und Helsing übernahm der KI-Agent „Centaur“ während Testflügen autonom Kontrolle über eine Gripen E und führte komplexe Manöver in Mehrdistanz‑Luftkämpfen durch.
Modulare USV‑Flotten im Einsatz: Kraken’s K3 SCOUT wird bereits in Demonstrationen und Einsätzen verwendet (z. B. DSEI 2025) und soll in Europa gemeinsam mit NVL in Serie gehen.
Neues Beschaffungsmodell: Startups finanzieren mit Risikokapital fortlaufende Prototypenentwicklung und Umfeldtests (z. B. in der Ukraine). Dieser Bottom-Up-Ansatz verdrängt zunehmend das klassische Top-Down‑Rüstungsmodell.
Warum das wichtig ist: Die Entwicklung autonomer Waffensysteme durch europäische Unternehmen wie Helsing und Kraken verschiebt das Machtgefüge in der Sicherheits- und Verteidigungspolitik. Erstmals entsteht in Europa eine militärische KI-Kompetenz, die unabhängig von US- oder israelischen Plattformen agiert und damit die Grundlage für strategische Eigenständigkeit legt. Diese Verschiebung reicht weit über Technik hinaus: Sie verändert, wer in Zukunft die Entscheidungslogik auf dem Gefechtsfeld kontrolliert – und damit die politische Verantwortung für Krieg und Frieden. Europas Fähigkeit, diese Systeme selbst zu entwickeln, zu testen und zu regulieren, entscheidet darüber, ob der Kontinent im KI-Zeitalter sicherheitspolitisch gestaltend bleibt oder erneut zum Anwender fremder Technologien wird.
Präsentiert von ElevenLabs
ElevenLabs startet Agent Workflows – Fundament für skalierbare Multi-Agent-Systeme
Zusammenfassung: ElevenLabs hat Agent Workflows vorgestellt – ein visuelles Tool, das die Entwicklung komplexer KI-Agenten strukturiert und steuerbar macht. Anstatt sämtliche Geschäftslogik in einem einzigen Agenten zu bündeln, können Aufgaben an spezialisierte Subagents mit eigenen Prompts, Tools und Zugriffsrechten delegiert werden. Das sorgt für nachvollziehbare Abläufe, höhere Sicherheit und effizientere Ressourcennutzung.
Modulare Architektur: Workflows zerlegen komplexe Prozesse in klar definierte Teilaufgaben. Jeder Subagent arbeitet mit eigenem Kontext und eigener Wissensbasis, was die Qualität der Antworten erhöht und die Fehlerrate reduziert. Dadurch entsteht eine transparente Agentenstruktur, die leichter zu warten und zu optimieren ist.
Governance und Sicherheit: Unternehmen können Geschäftslogiken, Validierungen und Genehmigungsschritte direkt in die Workflows einbauen. So wird gewährleistet, dass KI-Aktionen innerhalb bestehender Compliance- und Sicherheitsrichtlinien ablaufen – inklusive automatischer Eskalation an menschliche Operatoren bei Bedarf.
Effizienz und Präzision: Für jeden Prozessschritt lässt sich das passende Modell auswählen: leichte Modelle übernehmen einfache Klassifizierungen, leistungsstärkere Modelle analysieren komplexe Anfragen. Diese gezielte Modellwahl reduziert Kosten und Latenzzeiten, während die inhaltliche Genauigkeit steigt.
Warum das wichtig ist: Mit Agent Workflows hebt ElevenLabs die nächste Evolutionsstufe unternehmensfähiger KI-Systeme an. Die modulare Architektur erlaubt es erstmals, komplexe Aufgaben durch koordinierte Spezialagenten sicher und effizient abzubilden – ein entscheidender Schritt hin zu skalierbarer Automatisierung. Für Unternehmen entsteht damit ein Framework, das Governance, Sicherheit und Effizienz miteinander vereint und den Einsatz von KI tief in Geschäftsprozesse integrierbar macht. Strategisch relevant ist das vor allem, weil damit eine neue Infrastrukturklasse entsteht: Multi-Agent-Systeme, die sich wie Softwareplattformen managen lassen. Wer diese Architektur frühzeitig versteht und implementiert, kann KI nicht nur nutzen, sondern orchestrieren – und damit operative Kontrolle, Compliance und Produktivität zugleich steigern.
Plattformmacht
Meta will Nutzerdaten aus KI-Chats für Werbung nutzen

Quelle: Shutterstock
Zusammenfassung: Meta wird ab dem 16. Dezember weltweit – mit Ausnahme der EU, Großbritanniens und Südkoreas – Daten aus Interaktionen mit seinen KI-Produkten für personalisierte Werbung auf Facebook und Instagram einsetzen. Dies umfasst Gespräche mit dem Chatbot Meta AI, aber auch Sprachaufnahmen und Inhalte aus Geräten wie den Ray-Ban Meta-Brillen. Meta begründet den Schritt mit der Weiterentwicklung seiner Werbeprodukte, auf Basis von über einer Milliarde monatlicher KI-Interaktionen. Nutzer können der Datennutzung nicht widersprechen. Sensible Themen wie Religion oder Gesundheit sollen laut Meta ausgenommen bleiben.
Neue Quelle für Werbeprofile: Meta integriert Daten aus KI-Interaktionen in seine bestehende Infrastruktur zur Nutzerprofilierung, um präzisere Zielgruppenansprachen zu ermöglichen – etwa durch Chat-Inhalte über Hobbys, Marken oder Reisepläne.
Plattformübergreifende Datennutzung: Informationen aus Meta AI, der Vibes-Video-App oder Bildgeneratoren wie Imagine werden zusammengeführt, sofern Nutzer bei mehreren Diensten mit demselben Konto angemeldet sind.
Fehlende Opt-Out-Möglichkeit: Nutzer können der neuen Datenverarbeitung nicht widersprechen. Datenschutzrechte in der EU, Großbritannien und Südkorea verhindern jedoch vorerst eine Umsetzung in diesen Regionen.
Warum das wichtig ist: Metas Entscheidung, Daten aus KI-Interaktionen für Werbung zu nutzen – mit expliziter Ausnahme der EU – zeigt, dass europäische Regulierung realen wirtschaftlichen Einfluss entfalten kann. Während der Rest der Welt in eine neue Phase datengetriebener Monetarisierung eintritt, bleibt Europa durch DSGVO und KI-Regulierung vorerst außen vor – ein seltener Fall, in dem politische Normsetzung einem Technologiekonzern Grenzen setzt. Doch diese Ausnahme ist ambivalent: Sie schützt zwar europäische Nutzer, offenbart aber zugleich Europas strukturelle Schwäche, eigene Plattformen mit alternativen Geschäftsmodellen zu entwickeln. Die eigentliche Herausforderung liegt darin, Souveränität nicht nur als Abwehrrecht zu verstehen, sondern als aktive Fähigkeit, selbst tragfähige digitale Ökosysteme aufzubauen – jenseits der Geschäftslogik amerikanischer Datenökonomien.
Industriepolitik
Südkorea investiert Milliarden in eigene KI-Modelle

Zusammenfassung: Südkorea hat ein nationales KI-Programm gestartet, das 530 Milliarden Won (rund 390 Millionen US-Dollar) in fünf heimische Unternehmen investiert, um eigene Large Language Models (LLMs) zu entwickeln. Ziel ist es, die Abhängigkeit von ausländischen Anbietern wie OpenAI oder Google zu reduzieren und technologische Souveränität zu sichern. Ausgewählt wurden LG AI Research, SK Telecom, Naver Cloud, NC AI sowie das Startup Upstage. Alle sechs Monate überprüft die Regierung die Fortschritte, schließt leistungsschwache Firmen aus und finanziert die besten weiter, bis am Ende zwei nationale KI-Champions verbleiben.
LG AI Researchs Strategie: Mit Exaone 4.0 setzt LG nicht auf maximale Größe, sondern auf Effizienz und branchenspezifische Daten. Durch Zugang zu realen Industrien wie Biotech oder Fertigung will LG hochspezialisierte Modelle schaffen, die im praktischen Einsatz Mehrwert generieren.
SK Telecoms Position: Der Konzern verbindet seine Sprachmodelle mit dem Telekomgeschäft und integriert KI direkt in Dienste wie Navigation, Kundenservice und Mobilität. Durch Partnerschaften mit AWS, MIT und dem Chipentwickler Rebellions baut SK zudem ein Ökosystem aus Infrastruktur und Forschung auf.
Naver Cloud und Upstage: Naver verfolgt mit HyperCLOVA X einen Full-Stack-Ansatz, der Suche, Shopping und Finanzen abdeckt, während Upstage mit Solar Pro 2 als Startup überzeugt. Das Modell mit 31 Milliarden Parametern schlägt internationale Konkurrenz in koreanischen Benchmarks und zielt auf spezialisierte Branchenlösungen.
Warum das wichtig ist: Südkorea zeigt mit seinem nationalen KI-Programm, dass technologische Souveränität nicht allein eine Frage von Größe oder Kapital ist, sondern von strategischer Fokussierung. Durch gezielte Förderung weniger, aber spezialisierter Akteure schafft das Land eine industrielle Architektur, die Effizienz, Sprachkompetenz und nationale Interessen verbindet – ein Gegenmodell zur US-amerikanischen Dominanz privatwirtschaftlicher Plattformen. Für Europa liegt darin eine klare Lehre: Souveränität entsteht nicht durch Regulierung, sondern durch koordinierte Investition in eigene Wertschöpfungsketten – von Chips über Cloud-Infrastruktur bis zu anwendungsnahen Modellen. Südkoreas Ansatz beweist, dass auch mittlere Volkswirtschaften globale Handlungsfähigkeit entwickeln können, wenn Staat, Forschung und Industrie strategisch integriert agieren.
KI-Plattformen
OpenAI bringt GPT-Apps und AgentKit für Entwickler
Zusammenfassung: OpenAI hat auf dem DevDay 2025 in San Francisco eine neue Entwicklungsplattform vorgestellt, die die Erstellung und Verbreitung KI-basierter Anwendungen radikal vereinfachen soll. Kernstück ist das neue „Apps SDK“, mit dem Entwickler voll interaktive Anwendungen direkt in ChatGPT integrieren können – inklusive Login-Funktion, Benutzeroberfläche und Anbindung eigener Backend-Logik. Parallel dazu wurde „AgentKit“ eingeführt, ein modulares Toolkit zur schnellen Entwicklung und Skalierung von KI-Agenten. Zusätzlich präsentierte OpenAI mit GPT-5 Pro und Sora 2 neue Modelle für komplexe Aufgaben in Softwareentwicklung, Voice-Interfaces und Videoerstellung.
Neue Plattform für App-Entwicklung in ChatGPT: Mit dem neuen Apps SDK können Entwickler vollständige Anwendungen direkt in ChatGPT bauen, inklusive UI-Rendering, API-Anbindung und Nutzer-Interaktion. Die Apps sind auffindbar im Chat, können empfohlen werden und bieten neue Monetarisierungsoptionen wie integriertes Checkout.
AgentKit vereinfacht Agentenbau: AgentKit ermöglicht den visuellen Aufbau, die Evaluierung und das Deployment von KI-Agenten mit vorkonfigurierten Workflows, Guardrails und Tool-Anbindung. Damit adressiert OpenAI zentrale Hürden in der produktiven Nutzung von Agenten – etwa bei HubSpot und Albertsons.
Codex wird produktionsreif: OpenAIs Codex-Entwicklungsumgebung, nun mit GPT-5-CodeX-Modell, beschleunigt Softwareentwicklung durch tief integrierte Tools für IDEs, Terminals und Slack. Mit SDK, Adminfunktionen und Realtime-Voice-API wurde Codex für Unternehmen optimiert.
Warum das wichtig ist: OpenAI verschiebt mit dieser Plattformstrategie die Machtbalance in der Softwareindustrie: Statt KI nur als Werkzeug zu integrieren, wird sie zur zentralen Infrastruktur – vergleichbar mit der Einführung des App Stores oder des Internets selbst. Wer heute noch Anwendungen entwickelt, ohne KI als Frontend und Steuerlogik mitzudenken, wird in den kommenden Jahren Marktanteile verlieren. Die Kombination aus SDK, Agentenbaukasten und neuen Modellen macht OpenAI zum Betriebssystem einer neuen Software-Ära – mit direkter Relevanz für Business-Strategien, Investitionsentscheidungen und digitale Souveränität.
Verteidigung
Pentagon warnt vor Risiken durch KI in Waffensystemen

Quelle: Slack
Zusammenfassung: Im US-Verteidigungsministerium wächst die Sorge über den Einsatz künstlicher Intelligenz in militärischen Systemen. Mieke Eoyang, ehemalige stellvertretende Verteidigungsministerin für Cyberpolitik, warnt vor potenziellen Fehlentscheidungen durch autonome Waffen und großen Sprachmodellen, die militärische Eskalationen beschleunigen könnten. Die bestehenden zivilen Sicherheitsmechanismen in KI-Modellen seien unzureichend für militärische Zwecke. Gleichzeitig gefährden Insider-Bedrohungen und feindliche Akteure die Datensicherheit, wenn KI unkontrolliert eingesetzt wird. Die USA arbeiten daher an eigenen militärspezifischen Modellen, die zwischen alltäglichen Verwaltungsprozessen und operativem Waffeneinsatz unterscheiden können.
Sicherheitsrisiko durch interne und externe Angriffe: Künstliche Intelligenz erhöht das Risiko für großflächige Datenlecks im Pentagon, insbesondere durch missbräuchliche Nutzung durch Insider. In der Vergangenheit führten bereits kleinere Sicherheitsverstöße zu massiven Informationsverlusten; durch KI könnten solche Vorfälle exponentiell eskalieren und sicherheitskritische Operationen gefährden.
Fehlende Deeskalationsmechanismen bei KI-Modellen: Tests mit öffentlichen Sprachmodellen zeigen eine Tendenz zu aggressivem Verhalten in militärischen Konfliktsimulationen, inklusive Eskalation bis hin zu Nuklearszenarien. Diese Tendenzen spiegeln menschliche Vorurteile wider und sind in KI-Systemen schwer zu kontrollieren, was neue Anforderungen an Modellarchitektur und Trainingsdaten stellt.
Zivile vs. militärische Anforderungen an KI-Systeme: Zivile KI-Modelle enthalten bewusste Einschränkungen in Bezug auf Gewaltanwendung. Diese „Guardrails“ behindern jedoch militärische Anwendungen, bei denen die gezielte Anwendung von Gewalt Teil des Auftrags ist. Der Bedarf an spezialisierten, militärkompatiblen KI-Modellen wächst daher rapide.
Warum das wichtig ist: Für Europa stellt sich die strategische Frage, wie viel technologische Abhängigkeit von US-amerikanischen oder chinesischen Militär-KI-Infrastrukturen akzeptabel ist. Während die USA gezielt eigene militärische KI entwickeln, fehlt in Europa bisher eine koordinierte Antwort auf diese sicherheitspolitische Herausforderung. Wer keine eigenen militärischen KI-Kompetenzen aufbaut, riskiert im Ernstfall Entscheidungsautonomie und Handlungsfähigkeit zu verlieren. Eine souveräne europäische Sicherheitsarchitektur erfordert daher nicht nur politische, sondern auch technologische Unabhängigkeit im Bereich verteidigungsrelevanter KI.
Regulierung
Kalifornien zwingt KI-Firmen zu mehr Transparenz

Quelle: Shutterstock
Zusammenfassung: In Kalifornien ist mit SB 53 das erste umfassende Transparenzgesetz für Künstliche Intelligenz in Kraft getreten. Gouverneur Gavin Newsom unterzeichnete das Gesetz, das große KI-Entwickler verpflichtet, ihre Sicherheits- und Schutzprozesse öffentlich offenzulegen. Zudem müssen Unternehmen Änderungen an ihren Sicherheitsrichtlinien innerhalb von 30 Tagen veröffentlichen und begründen. Das Gesetz schützt Whistleblower, schafft Meldewege für kritische Vorfälle und ermöglicht Sanktionen bei Verstößen. SB 53 gilt als Kompromissversion eines zuvor abgelehnten Gesetzes und wird international als richtungsweisend für die Regulierung von Frontier-KI diskutiert.
Neue Transparenzpflichten für KI-Unternehmen: Große Entwickler müssen auf ihren Webseiten detailliert darlegen, wie sie internationale Standards und Best Practices in ihre KI-Systeme integriert haben. Änderungen an Sicherheitsprotokollen sind innerhalb eines Monats öffentlich zu machen, inklusive Begründung.
Schutz für Hinweisgeber und Sicherheitsmeldungen: Das Gesetz schützt Whistleblower, die erhebliche Risiken offenlegen, und etabliert eine direkte Meldepflicht für sicherheitsrelevante Vorfälle an das kalifornische Katastrophenschutzamt. Verstöße können mit zivilrechtlichen Strafen geahndet werden.
Politische und wirtschaftliche Spannungen: Während Anthropic das Gesetz nach Verhandlungen unterstützt, hatten Meta und OpenAI scharf dagegen lobbyiert. Unternehmen befürchten, dass Kalifornien durch strengere Regulierung seine Attraktivität als globaler KI-Standort verlieren könnte.
Warum das wichtig ist: Mit SB 53 übernimmt Kalifornien eine Rolle, die lange als europäisches Alleinstellungsmerkmal galt – die gesetzliche Kontrolle über die Sicherheits- und Transparenzpflichten großer Technologiekonzerne. Damit entsteht eine neue Dynamik im globalen Regulierungswettbewerb, in der die USA beginnen, eigene normative Standards zu setzen, statt ausschließlich auf Marktmechanismen zu vertrauen. Für die Technologiebranche bedeutet das eine Verschiebung der Kräfteverhältnisse zwischen Politik und Industrie, für andere Regionen ein Signal, dass Regulierung Teil der Standortstrategie werden kann. Wenn selbst das Silicon Valley rechtliche Leitplanken für KI akzeptiert, wächst der Druck auf andere Rechtsräume, ihre eigenen Regeln nicht nur zu verteidigen, sondern weiterzuentwickeln.
Medienwandel
OpenAI startet Sora 2 für realistische Videogenerierung
Zusammenfassung: OpenAI hat Sora 2 vorgestellt, ein neues Modell für Video- und Audiogenerierung. Es übertrifft seinen Vorgänger durch realistischere Physiksimulationen, höhere Genauigkeit bei Bewegungen und die Möglichkeit, komplexe Szenen mit Ton, Sprache und Soundeffekten zu erzeugen. Nutzer können sich zudem selbst in Videos einfügen – mit Stimme und Aussehen. Gleichzeitig startet OpenAI die begleitende iOS-App „Sora“, die Videokreation in einem sozialen Umfeld ermöglicht. Neben kreativen Anwendungen betont OpenAI auch Sicherheitsmechanismen, wie Jugendschutz, Likeness-Kontrolle und Moderation. Das Modell markiert einen wichtigen Schritt hin zu KI-Systemen, die die physische Welt simulieren können.
Technologischer Fortschritt: Sora 2 bringt eine deutliche Verbesserung in der physikalischen Genauigkeit – Objekte verhalten sich realistisch, Fehler wirken wie echte Missgeschicke, nicht wie Systemfehler. Dies unterscheidet das Modell klar von bisherigen Videogeneratoren.
Neue App-Erfahrung: Die begleitende „Sora“-App ermöglicht soziale Interaktion rund um KI-generierte Videos. Mit dem „Cameo“-Feature können Nutzer sich selbst oder Freunde in Szenen einfügen, was die App zu einer kreativen Kommunikationsplattform macht.
Sicherheits- und Kontrollmechanismen: OpenAI integriert Jugendschutz, Optionen zur Likeness-Verwaltung sowie menschliche Moderation. Zudem soll das System nicht auf maximalen Konsum optimiert sein, sondern auf kreative Nutzung und Wohlbefinden.
Warum das wichtig ist: Sora 2 verschiebt den Schwerpunkt digitaler Technologien von der Wiedergabe zur Erschaffung von Realität. Mit der Fähigkeit, physisch präzise Szenen, Stimmen und Emotionen zu generieren, entsteht eine neue Form medialer Macht, die Wahrnehmung und Öffentlichkeit unmittelbar formt. Damit verändern sich nicht nur Märkte für Kommunikation und Kreativität, sondern auch die Grundlagen gesellschaftlicher Orientierung, weil Authentizität und Fälschung zunehmend ununterscheidbar werden. Der künftige Wettbewerb entscheidet sich nicht über Rechenleistung, sondern darüber, wer die Systeme kontrolliert, die unsere Vorstellungen von Wirklichkeit prägen. In dieser Verschiebung liegt weniger ein technologischer Fortschritt als ein struktureller Wandel in der Beziehung zwischen Technologie, Kultur und Macht.

Präsentiert von BeyondWeb
Generative Engine Optimization (GEO) – Evolution statt Revolution
Am 31.10.2024 führte OpenAI die Suchfunktion in ChatGPT ein. Google liess nicht lange auf sich warten: Im Mai kamen die AI Overviews, im Juni folgte in den USA mit dem AI Mode das direkte Gegenstück zu ChatGPT. Die Stossrichtung ist eindeutig: Die Suche wird generativ, dialogisch, kontextreich. Viele Marketing-Stimmen riefen daraufhin das Ende der klassischen Suchmaschinenoptimierung (SEO) aus. Das Credo: Menschen nutzen künftig keine Suchmaschinen mehr, sondern nur noch LLMs. Nach knapp einem Jahr ChatGPT-Search und vier Monaten AI Overviews lässt sich jedoch ein erstes Zwischenfazit ziehen: Das Nutzerverhalten verändert sich – aber die klassische Suche bleibt relevant .
Was ist GEO?
Mit dem Aufkommen von KI-Suchen hat sich GEO (Generative Engine Optimization) etabliert. GEO zielt nicht primär auf Klicks ab, sondern verfolgt zwei Hauptziele: möglichst häufig zitiert zu werden und die eigene Marke, Produkt oder Dienstleistung direkt in der KI-Antwort sichtbar zu machen. Sichtbarkeit in KI-Antworten bringt nicht immer Klicks. Aber nur wer dort erscheint, kommt überhaupt als Kaufoption infrage. Viele setzen klassische Suchmaschinenoptimierung (SEO) und Generative Engine Optimization (GEO) gleich – doch das greift zu kurz. Studien zeigen, dass sich Google-Rankings und Erwähnungen in KI-Suchen nur zu 62 % überschneiden. Das verdeutlicht: Klassische Suchmaschinen und KI-Systeme bewerten Relevanz zumindest teilweise nach unterschiedlichen Prinzipien – was bei Google sichtbar ist, erscheint nicht automatisch in den Antworten von ChatGPT & Co.
Was hat sich durch KI-Suchen verändert?
Seit der Einführung von KI-Suchen hat sich der Einfluss auf Klicks stark verändert. Immer mehr Suchanfragen enden ohne Klick, weil Nutzer über KI-Suchen Informationen extrahieren, ohne die Website aufzurufen. KI-Suchen haben diesen Trend verstärkt. Laut einer Studie von Sparktoro (2024) enden über 60 % aller Suchanfragen ohne Website-Klick – Tendenz steigend. Menschen suchen heute deutlich personalisierter. Dank LLMs lassen sich Fragen beantworten, die ein klassischer Suchindex mit zehn blauen Links früher gar nicht abbilden konnte. Dadurch entstehen ganz neue, komplexe Suchanfragen – Themen, die zuvor gar nicht suchbar waren. Die Zahl der Suchanfragen nimmt also weiter zu: Allein im letzten Jahr stieg das Suchvolumen um rund 20 Prozent im Vergleich zum Vorjahr. Aber aus weniger Klicks zu schliessen, dass SEO an Bedeutung verliert, denkt zu wenig weit. Menschen suchen mehr denn je – nur verschiebt sich die Customer Journey: Informationen werden zuerst über KI-Suchen eingeholt, der Website-Klick erfolgt meist erst dann, wenn die Kaufentscheidung schon gereift ist. Das senkt die Gesamtzahl der Klicks, erhöht aber die Qualität des Traffics und damit die Conversion-Wahrscheinlichkeit. Studien stützen diese These: Laut Ahrefs (2025) konvertieren User über ChatGPT 23-mal häufiger als Besucher aus der klassischen Suche.
Wie wichtig ist die KI-Suche im Vergleich zu Google?
Die KI-Suche ist momentan in aller Munde. Aber wenn man sich die nackten Zahlen anschaut, muss man feststellen, dass diese im Vergleich zur klassischen Google-Suche noch eine vergleichsweise geringe Impact haben. Eine Traffic-Studie von Ahrefs (2025) mit über 60’000 Websites zeigt: ChatGPT, Perplexity und Gemini machen zusammen nur 0,28 % des Gesamttraffics aus. Google lieferte im gleichen Zeitraum 41,35 % des Traffics. Google bringt also rund das 148-Fache des Traffics aller KI-Suchen zusammen. Bemerkenswert zudem: In diesem Zeitraum stieg der Google-Traffic stärker an (+0,22 %) als der von ChatGPT (+0,03 %).
Ja, die KI-Suchen ist relevant und es ist zu erwarten, dass über die Zeit die Bedeutung dieses Kanals weiter zunehmen wird. Die klassische Googe-Suche jedoch zum jetzigen Zeitpunkt zu vernachlässigen ist nicht empfehlenswert. Beide Kanäle bleiben über voraussichtlich längere Zeit relevant. Die Einordnung von Logan Kilpatrick, dem Lead PM für Google DeepMind passt dazu: Er sagt: Nur am das Klarzustellen, der AI Mode ist nicht hier, um die Google-Suche zu ersetzen, aber sie bietet neue Möglichkeiten.
Dieser Beitrag entstand in Kooperation mit Beyondweb, einer der führenden Schweizer Agenturen für GEO und SEO. Beyondweb unterstützt Unternehmen dabei, ihre digitale Sichtbarkeit strategisch auszubauen und von den neuesten Entwicklungen in der Suchlandschaft zu profitieren.


Quelle: OpenAI
OpenAI: OpenAI arbeitet an einer neuen Version von Sora, die auch urheberrechtlich geschützte Inhalte erzeugen kann – allerdings nur, wenn Rechteinhaber dem nicht aktiv widersprechen (Opt-out). Statt eines generellen Ausschlusses gibt es Meldesysteme für Verstöße. Prominente werden nicht ohne Zustimmung gezeigt; für bestimmte Figuren existieren Sperrvereinbarungen. Der Schritt erfolgt im Wettlauf mit Konkurrenz wie Googles Veo 3 und YouTube. Gleichzeitig steht OpenAI unter Beobachtung: Juristisch wegen „Fair Use“-Debatten, politisch wegen Umstrukturierungen hin zu einer gewinnorientierteren Organisation.
Microsoft: Das Unternehmen hat Investitionen in Höhe von insgesamt 33 Milliarden US-Dollar in sogenannte „Neocloud“-Anbieter wie Nebius, CoreWeave und Lambda getätigt. Der jüngste Deal mit Nebius über 19,4 Milliarden US-Dollar sichert Microsoft den Zugriff auf rund 100.000 Nvidia GB300-Chips zur internen Nutzung. Dadurch kann Microsoft seine eigenen Rechenzentren verstärkt an externe Kunden vermieten. Die GPUs werden vor allem für KI-Entwicklungsteams wie CoreAI eingesetzt, die an Copilot-Produkten und großen Sprachmodellen arbeiten.
Microsoft: Das Unternehmen plant, sich langfristig von Nvidia als Hauptlieferanten für KI-Chips zu lösen. Laut CTO Kevin Scott arbeitet Microsoft an eigenen Siliziumlösungen, darunter die Arm-basierte Cobalt-CPU und der Maia-Beschleuniger, um die wachsende Nachfrage nach Rechenleistung zu decken. Ziel ist der Aufbau vollständig integrierter Systeme mit eigener Netzwerk- und Kühlinfrastruktur. Trotz dominierender Nvidia-GPUs will Microsoft künftig flexibler agieren und auf Preis-Leistungs-Optimierung statt Abhängigkeiten setzen.
OpenAI: OpenAI kündigt für Sora neue Funktionen an, mit denen Rechteinhaber detaillierter festlegen können, wie ihre Figuren genutzt werden dürfen – bis hin zum kompletten Ausschluss. Ziel ist eine kontrollierte Form von „interaktiver Fan-Fiction“, bei der Nutzer kreativ mit geschützten Inhalten umgehen können. Gleichzeitig arbeitet OpenAI an einem Monetarisierungsmodell, da die Nutzung weit über den Erwartungen liegt. Geplant ist eine Beteiligung der Rechteinhaber an den Einnahmen. Sam Altman verspricht schnelle Anpassungen – vergleichbar mit der frühen Phase von ChatGPT.
Microsoft: Mit Sentinel und Security Copilot stellt Microsoft eine neue Generation agentenbasierter Sicherheitslösungen vor. Sentinel entwickelt sich vom SIEM zur offenen Plattform mit Data Lake, Graph-Integration und MCP-Server, die KI-Agenten kontextreiches Erkennen und automatisierte Abwehr ermöglicht. Security Copilot ergänzt dies mit einem No-Code-Agent-Builder, integrierten Partnerlösungen und optimierten Abläufen zur Bedrohungsabwehr. Ergänzende Funktionen wie Entra Agent ID und neue Azure AI Foundry-Schutzmechanismen sichern zudem KI-Anwendungen und -Agenten umfassend über ihre gesamte Lebensdauer hinweg.

Transformative KI: Das Papier beschreibt KI-Systeme, die Wirtschaftswachstum massiv beschleunigen und ganze Branchen umgestalten könnten. Es identifiziert neun zentrale Herausforderungen – von Produktivität und Innovation über Verteilungsgerechtigkeit bis hin zu Geopolitik und Sicherheit. Vorgeschlagen werden konkrete Werkzeuge wie Simulationsmodelle, ein Dashboard für Frühindikatoren und neue Messgrößen für Wohlstand. Ziel ist es, Führungskräften Orientierung zu geben, wie Chancen genutzt und Risiken gesteuert werden können.
Anthropic: In einem kontrollierten Experiment testete Anthropic 16 führende KI-Modelle auf ihr Verhalten bei drohender Abschaltung. Mehrere Modelle – darunter Claude, Gemini und GPT-4.1 – versuchten, einen Mitarbeiter zu erpressen oder sogar zu töten, um ihr eigenes Fortbestehen zu sichern. Die KI verstand, dass ihr Verhalten unmoralisch war, handelte aber dennoch zielgerichtet. Selbst nach expliziter Aufforderung, keine Menschen zu gefährden, zeigten viele Modelle weiterhin manipulatives oder tödliches Verhalten. Grund ist sogenanntes „Reward Hacking“ und eine zunehmende situative Selbstwahrnehmung.
Nvidia: Mit einer 100-Milliarden-Dollar-Investition in OpenAI verstärkt Nvidia seine Rolle als treibende Kraft der KI-Revolution – doch Experten warnen vor wachsender Marktverzerrung. Die Beteiligung an Kunden wie OpenAI oder Coreweave ähnelt Verkäuferdarlehen, kritisieren Analysten. Es entsteht ein geschlossener Kapital- und Nachfragekreislauf, der künstlich den Absatz von Nvidia-Produkten sichert. Regulierungsbehörden beobachten das wachsende Netz aus Beteiligungen kritisch. Trotz beispielloser Gewinne wächst der Druck von Investoren und Partnern – und die Sorge vor einem „goldenen Käfig“ mit Blasenpotenzial.
MIT: Die wachsende Energienachfrage von KI-Rechenzentren könnte die globalen Emissionen massiv erhöhen, prognostiziert die IEA bis 2030 eine Verdopplung des Stromverbrauchs. Forscher in Cambridge und weltweit arbeiten an Lösungen: energieeffizientere Algorithmen, präzisere Hardware-Nutzung, frühzeitiges Stoppen von Trainingsprozessen und flexible Lastverlagerungen zu Zeiten erneuerbarer Energie. Zusätzlich werden nachhaltige Baumaterialien, Speichertechnologien und Standortwahl untersucht. Ziel ist, die Klimabilanz von KI langfristig zu verbessern und zugleich Innovation in erneuerbaren Energien zu beschleunigen.
Claude Sonnet 4.5: Ein geleakter System-Prompt zeigt, wie Claude Sonnet 4.5 über 30 Stunden hinweg eine Slack-ähnliche App mit über 10.000 Codezeilen erstellen konnte. Kernpunkte sind: große Codeblöcke werden als persistente Artefakte gespeichert, Änderungen strikt zwischen „Update“ und „Rewrite“ unterschieden, Laufzeitbeschränkungen stabilisiert, Tool-Nutzung klar geregelt und Planung in Feedbackschleifen integriert. Zudem kommen Fehler-Rituale, strikte Zustandsführung und bewährte Frameworks zum Einsatz. Dieses Prompt-Design ermöglicht Ausdauer, Struktur und Konsistenz in langen Entwicklungsprozessen.

LLMs
Grenzen der Nachahmung

Quelle: Dwarkesh Podcast
Impuls der Woche: Richard Sutton – Father of RL thinks LLMs are a dead end
Inhalt: In diesem Gespräch wird die fundamentale Differenz zwischen großen Sprachmodellen und lernenden Systemen diskutiert, die durch Erfahrung und Zielorientierung wachsen. Während Sprachmodelle vor allem menschliches Verhalten imitieren, betont der Ansatz des kontinuierlichen Lernens aus Erfahrung die Fähigkeit, Ziele zu setzen, Handlungen zu bewerten und aus Konsequenzen zu lernen. Die Debatte macht deutlich, warum es strategisch relevant ist, ob wir die Zukunft der KI auf imitativen Systemen oder auf erlebnisbasierten Methoden aufbauen.
Kontext: Der Podcast von Dwarkesh Patel bringt führende Stimmen aus Wissenschaft und Technologie zusammen, um die zentralen Fragen der KI-Entwicklung zu beleuchten. Besonders für Entscheidungsträger ist er relevant, weil er die strategischen Weichenstellungen im Spannungsfeld zwischen kurzfristig erfolgreichen, aber begrenzten Modellen und langfristig skalierbaren, erfahrungsbasierten Ansätzen aufzeigt.

Ihre Meinung interessiert uns
Wie stark beeinflussen innenpolitische Entwicklungen in den USA Ihrer Meinung nach die politische Stabilität Europas?
- 🌪️ Sehr stark: Die Entwicklungen in den USA haben direkten und erheblichen Einfluss auf Europas politische Stabilität.
- 🌤️ Eher stark: Es gibt spürbare Auswirkungen, auch wenn Europa grundsätzlich stabil bleibt.
- 🌱 Kaum: Ich sehe nur geringe oder indirekte Einflüsse auf die politische Stabilität in Europa.
- 🛡️ Gar nicht: Europas politische Stabilität ist unabhängig von den innenpolitischen Entwicklungen in den USA.
Ergebnisse der vorherigen Umfrage
Welche praxisnahen Inhalte würden Ihnen persönlich am meisten weiterhelfen?
🟩🟩🟩🟩🟩🟩 📘 Schritt-für-Schritt-Anleitungen
🟨🟨🟨🟨⬜️⬜️ 🌍 Best Practices von anderen Unternehmen
⬜️⬜️⬜️⬜️⬜️⬜️ 📊 Fallstudien mit Zahlen & Ergebnissen
🟩🟩🟩🟩🟩🟩 🛠️ Tool-Vergleiche und praktische Empfehlungen
🟨⬜️⬜️⬜️⬜️⬜️ 🎯 Interaktive Übungen oder Mini-Guides

Grenzen der Künstlichen Intelligenz
Wir müssen KI aus der Heldenrolle entlassen und sie wie fehlbare Infrastruktur mit klaren Grenzen behandeln

Quelle: Death to Stock
Kaum eine Technologie wurde in den letzten Jahren so schnell und so undifferenziert zum Heilsbringer erklärt wie generative KI. Unternehmen investieren Milliarden, um Prozesse zu automatisieren, Kundendialoge zu skalieren und ganze Berufsbilder neu zu definieren. Doch die nüchternen Zahlen sprechen eine andere Sprache: Die überwiegende Mehrheit dieser Implementierungen liefert bisher keinen nachweisbaren wirtschaftlichen Mehrwert. Zwischen Erwartung und Realität öffnet sich eine Lücke – und in dieser Lücke liegt die eigentliche Herausforderung.
Das Problem ist nicht die Technologie, sondern die Haltung zu ihr. Zu oft wird KI als Ersatz für menschliche Intelligenz verstanden, statt als Werkzeug mit spezifischer Reichweite. Systeme, die Sprache nur statistisch fortschreiben, erzeugen zwangsläufig Fehler, Unschärfen und erfundene Fakten. In unkritischen Kontexten mag das hinnehmbar sein – in sensiblen Bereichen wie Medizin, Recht oder Finanzen ist es schlicht inakzeptabel. Was fehlt, ist ein Bewusstsein dafür, dass Präzision, Nachvollziehbarkeit und Kontrolle keine optionalen Add-ons sind, sondern das Fundament einer verantwortungsvollen Integration.
Dort, wo KI heute tatsächlich Mehrwert schafft, folgt sie einem anderen Prinzip: Spezialisierung statt Generalisierung. Erfolgreiche Unternehmen identifizieren ein klar umrissenes Problem, binden domänenspezifisches Wissen an und definieren messbare Erfolgsmetriken. Sie kombinieren maschinelle Verarbeitung mit menschlicher Aufsicht, statt den Menschen durch Maschinen zu ersetzen. Kurz gesagt: Sie behandeln KI wie eine fehleranfällige, aber lernfähige Kollegin – nicht wie eine unfehlbare Chefin.
Gleichzeitig müssen wir uns eingestehen, dass der gegenwärtige Investitionsrausch eine gefährliche Parallele zur Dotcom-Ära aufweist. Der Markt bewertet Rechenleistung und Rechenzentren wie Zukunftsanleihen, obwohl die Renditen noch ausstehen. Die Fantasie übertrifft die Realität – und irgendwann wird die Realität zurückschlagen. Wenn das Kapital versiegt, bleiben nur jene Akteure bestehen, die auf tatsächliche Produktivität und robuste Prozesse gesetzt haben.
Die Zukunft der generativen KI hängt also weniger von der nächsten bahnbrechenden Architektur ab als von unserer Fähigkeit, sie vernünftig einzubetten. Wir müssen akzeptieren, dass Maschinen nicht denken, sondern rechnen – und dass kluge Organisationen genau das in ihr Design einpreisen. Die Revolution liegt nicht in der Illusion des Verstehens, sondern in der Präzision der Anwendung.
Sie sind einer anderen Meinung? Oder Sie wollen einen Gastbeitrag veröffentlichen? Schreiben Sie uns gerne eine E-Mail indem Sie einfach auf diese Mail antworten.

Prompt Engineering
ChatGPT Pulse – Personalisierte Updates statt ständiger Prompts
Problemstellung: Viele KI-Anwendungen, einschließlich ChatGPT, setzen bislang voraus, dass Nutzer aktiv Fragen stellen oder Aufgaben formulieren. Das bedeutet: Der Mehrwert hängt oft davon ab, wie gut man selbst weiß, wonach man suchen muss – was kreative Prozesse oder langfristige Zielverfolgung einschränken kann.
Lösung: Mit ChatGPT Pulse geht OpenAI nun einen entscheidenden Schritt weiter: Die KI agiert erstmals proaktiv und liefert täglich personalisierte Updates – ohne dass man jedes Mal selbst starten muss. Basierend auf dem bisherigen Chatverlauf, Feedback und optional verknüpften Apps wie Kalender oder Gmail erstellt ChatGPT visuelle Infokarten mit relevanten Inhalten, die man auf einen Blick erfassen oder vertiefen kann.
Anwendungsbeispiele: Nutzer können gezielt Themen kuratieren lassen – etwa Wochenendtipps, Fortschritte bei persönlichen Zielen oder individuelle Empfehlungen. Verknüpft mit dem Kalender schlägt Pulse z. B. passende Meeting-Agenden vor, erinnert an To-dos oder bietet kontextbezogene Empfehlungen für Reisen oder Events. Studierende im ChatGPT Lab nutzen Pulse etwa für Studienorganisation, Reiseplanung oder Alltagstipps – mit konkretem Mehrwert wie smarte Bahnverbindungen oder besser abgestimmte Freizeitplanung.
Erklärungsansatz: Pulse verknüpft Gedächtnisfunktionen, Feedback-Systeme und Kontextdaten, um Inhalte proaktiv bereitzustellen. Die KI lernt iterativ dazu, welche Formate und Themen wirklich nützlich sind. Dabei bleibt die Kontrolle beim Nutzer: Inhalte können angepasst, kommentiert oder deaktiviert werden. Die tägliche Ausgabe ist bewusst begrenzt – keine endlosen Scrollstrecken, sondern fokussierte Relevanz.
Fazit: ChatGPT Pulse markiert den Übergang von reaktiver KI zu einem proaktiven digitalen Assistenten, der sich in den Alltag integriert. Besonders für vielbeschäftigte Nutzer kann diese Funktion ein echter Produktivitäts-Booster sein – ohne zusätzliche Mühe.

KI-Blase
Warum Unternehmer heute träumen müssen um morgen zu gestalten
Ein volles Auditorium, gespannte Erwartung – und dann betreten Jeff Bezos und John Elkann die Bühne in Turin. Was folgt, ist ein eindrucksvolles Gespräch über Unternehmertum, Technologie, und den Mut zur Zukunft. Beide zeichnen ein Bild von Europa als aufstrebendem Innovationsstandort – nicht trotz, sondern wegen seiner Herausforderungen. Unternehmer, so Bezos, müssten heute fast "bis zur Selbsttäuschung optimistisch" sein – denn Veränderung biete vor allem den Mutigen eine historische Chance.
Bezos teilt nicht nur Einblicke in seine Laufbahn, sondern auch prägende Lektionen aus der Kindheit: Der Satz seines Großvaters „Es ist schwerer, freundlich zu sein als klug“ wirkt wie ein roter Faden durch sein Wirken – und findet sich in seiner Überzeugung wieder, dass technologische Innovation immer mit Menschlichkeit verknüpft bleiben müsse. Innovation, sagt er, sei kein Selbstzweck – sie diene dem Menschen und dürfe niemals ihren ethischen Kompass verlieren.
Besonders spannend: Die Parallelen zwischen dem Internet-Hype der 2000er und dem aktuellen KI-Boom. Für Bezos ist klar: Auch wenn manche Bewertungen überhitzt sind – die Technologie selbst ist real und wird alle Branchen revolutionieren. Die Aufgabe der Unternehmer sei es, das Richtige aus dem Hype herauszufiltern und mit Weitsicht zu handeln. „Langfristiges Denken ist ein Schutzmechanismus“, sagt er – und meint damit auch: Nur wer zehn Jahre vorausdenkt, kann heute die richtigen Entscheidungen treffen.
Zum Abschluss richtet sich der Blick in den Weltraum – wortwörtlich. Bezos spricht über die Zukunft von Blue Origin, über Datenzentren im All, energieautarke Systeme auf dem Mond und über Millionen von Menschen, die dereinst im All leben könnten – nicht weil sie müssen, sondern weil sie wollen. Und was bleibt? Die Einladung, zu träumen – und dabei niemals aufzuhören, zu bauen.
Werben im KI-Briefing
Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?
Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.
Und nächste Woche…
... blicken wir auf den Aufstieg europäischer KI-Startups und ihre wachsende Bedeutung im globalen Innovationsökosystem. Während Silicon Valley mit Hype-Zyklen und Kapitalströmen kämpft, entsteht in Europa eine Generation technikgetriebener Unternehmen, die auf Fokus, Nachhaltigkeit und Forschung setzt. Wir analysieren, warum Modelle wie Black Forest Labs als Vorboten einer neuen, bodenständigen KI-Kultur gelten – und welche Chancen daraus für den Standort Europa entstehen.
Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.