Guten Morgen!

Diese Woche rückte das Thema digitale Souveränität in den Fokus: SAP und OpenAI kündigten an, ab 2026 gemeinsam KI-Modelle wie ChatGPT in einer abgesicherten Cloud-Umgebung für deutsche Behörden bereitzustellen. Das Projekt „OpenAI for Germany“ soll europäische Governance mit amerikanischer Technologie verbinden – ein Balanceakt zwischen Innovation und Kontrolle.

Parallel setzt OpenAI seine weltweiten Infrastrukturpläne mit Investitionen in Milliardenhöhe fort. Die Partnerschaften mit NVIDIA, Oracle und SoftBank markieren einen neuen Maßstab globaler Machtverteilung – nicht durch Software allein, sondern durch die Kontrolle über Energie, Chips und Rechenzentren. Europa bleibt dabei vorerst Beobachter – mit wachsendem Handlungsdruck.

Damit das KI-Briefing für Sie maximal nützlich bleibt, freuen wir uns über Ihr Feedback. Teilen Sie uns gerne mit, welche Impulse für Sie am wertvollsten sind – und helfen Sie dabei, unser Briefing in Ihrem Netzwerk bekannt zu machen. Gemeinsam können wir eine Community aufbauen, die voneinander lernt und sich gegenseitig stärkt. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.

Was Sie in diesem Briefing erwartet

  • News: SAP und OpenAI starten "OpenAI for Germany", OpenAI und NVIDIA planen 10 Gigawatt KI-Infrastruktur, OpenAI startet 1-Billion-Dollar-Initiative für Supercomputer, Microsoft setzt auf 30 Milliarden in britische KI-Zukunft, Alibaba Aktien steigen nach Milliardenoffensive in KI, OpenAI baut mit SoftBank und Oracle neue Datenzentren & Apple bringt MCP für KI-Agenten auf iPhone und Mac

  • Deep Dive: Journalismus in Europa ringt um Zukunft zwischen KI Disruption und ökonomischem Druck

  • In aller Kürze: OpenAI misst Fachkräftekompetenz von KI mit neuem Benchmark GDPval, EU plant Drohnenabwehrsystem zur Sicherung der Ostflanke ab 2026, Microsoft plant Vergütungsmodell für Publisher zur KI-Inhaltsnutzung, Oracle verhandelt Milliarden-Clouddeal mit Meta zur KI-Versorgung & Google öffnet öffentliche Datensätze für KI über sprachgesteuerten Zugang

  • Videos & Artikel: DeepMind erweitert Sicherheitsrahmen zur Bewertung manipulativer KI-Fähigkeiten, Hinton warnt vor Superintelligenz und fehlender Strategie gegen KI-Folgen, ChatGPT wird zur zentralen Plattform für produktive Unternehmensanwendungen, DeepMind bringt KI-gesteuerte Roboter mit multimodaler Steuerung in reale Anwendungen & Apple plant neuen Siri mit KI-Plattform Veritas und startet ab 2026 durch

  • Impuls: Wettlauf um technologische Vorherrschaft

  • Umfrage: Welche praxisnahen Inhalte würden Ihnen persönlich am meisten weiterhelfen? 🤔

  • Monitoring Europe: Gründerzentren als Innovationshebel sichtbar machen 💡

  • Praxisbeispiel: Prompt-Overfitting vermeiden

  • YouTube: Warum der Berufseinstieg zur Stolperfalle für eine ganze Generation wird

Digitale Souveränität

SAP und OpenAI starten "OpenAI for Germany"

Quelle: Shutterstock

Zusammenfassung: SAP und OpenAI haben eine strategische Partnerschaft geschlossen, um ab 2026 ChatGPT und weitere KI-Technologien in einer abgesicherten Umgebung für deutsche Behörden bereitzustellen. Die Implementierung erfolgt über die Delos Cloud, eine von SAP betriebene Plattform für den öffentlichen Sektor. Damit reagiert SAP auf den steigenden Bedarf nach digitaler Souveränität, vor allem seit der Wiederwahl von Donald Trump. Ziel ist es, sensible Verwaltungsdaten in europäischen Infrastrukturen zu verarbeiten und gleichzeitig von den Fortschritten US-amerikanischer KI-Modelle zu profitieren. SAP plant Investitionen in Milliardenhöhe, um die nötige Rechenleistung und regulatorische Sicherheit zu gewährleisten.

  • Technologische Infrastruktur und Investitionen: SAP erweitert die Delos Cloud auf 4000 spezialisierte GPUs, um eine leistungsfähige Umgebung für KI-Anwendungen im öffentlichen Sektor zu schaffen. Die verwendete Hardware basiert auf Nvidia-Technologie, deren einzelne Komponenten bis zu 30.000 US-Dollar kosten können.

  • Zertifizierung und regulatorische Absicherung: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) zertifiziert derzeit die Delos Cloud für den behördlichen Einsatz. Besondere Schutzvorkehrungen bei Personal, Software und Betrieb sollen die strengen Anforderungen an öffentliche Infrastrukturen erfüllen.

  • Politische und geopolitische Einordnung: Die Partnerschaft wird vor dem Hintergrund wachsender Spannungen mit den USA bewertet. Zwar operiert SAP mit europäischer Cloud-Infrastruktur, doch bleibt OpenAI als US-Anbieter zentraler Technologiepartner. Kritiker sehen darin weiterhin eine strukturelle Abhängigkeit von außereuropäischen Anbietern.

Warum das wichtig ist: Die Partnerschaft von SAP und OpenAI zeigt schonungslos, wie abhängig Europa im Kern der KI-Technologien von den USA bleibt. Auch wenn Daten und Betrieb in der Delos Cloud europäisch kontrolliert werden, liegt die entscheidende Innovationsmacht – die Entwicklung und Steuerung der Modelle – weiterhin bei US-Unternehmen. Damit wird digitale Souveränität eher durch regulatorische Rahmung als durch technologische Eigenständigkeit erreicht. Für Europa bedeutet das: Man gewinnt kurzfristig Handlungsspielräume, bleibt aber in einer strukturellen Abhängigkeit, die sich in geopolitischen Krisen oder unter einer US-Regierung mit konfrontativerer Haltung jederzeit verschärfen kann. Solange Europa keine eigenen leistungsfähigen Modelle entwickelt, bleibt „digitale Souveränität“ mehr Versprechen als Realität – ein verwalteter Zugang zu fremder Technologie statt echter strategischer Unabhängigkeit.

Präsentiert von ElevenLabs

Kömpf24 ersetzt Wartezeiten mit KI-Agent „KIM“

Quelle: ElevenLabs

Zusammenfassung: Der E-Commerce-Anbieter Kömpf24 hat in Zusammenarbeit mit ElevenLabs einen digitalen Telefonagenten namens „KIM“ eingeführt, der Kundenanfragen vollautomatisiert bearbeitet. Durch die Integration dieser Conversational AI wurde die durchschnittliche Wartezeit im Kundenservice von 90 auf nur noch 15 Sekunden reduziert – ein Rückgang um 83 %. Gleichzeitig belaufen sich die Betriebskosten von „KIM“ auf lediglich 5,48 € pro Stunde. Das System basiert auf einem maßgeschneiderten, fast 29.000 Wörter umfassenden Prompt und ist tief in interne Prozesse integriert. Menschliche Servicekräfte werden dadurch entlastet und gezielt für komplexe Anliegen eingesetzt.

  • Herausforderung im Kundenservice: Kömpf24 betreibt über 20 spezialisierte Onlineshops mit monatlich rund 10.000 Anrufen, die bisher von nur drei Servicekräften betreut wurden. Die daraus resultierende Wartezeit von 1,5 Minuten pro Anruf stellte ein akutes Geschäftsrisiko dar, insbesondere hinsichtlich Kundenabwanderung und interner Belastung.

  • Technologische Umsetzung und Integration: „KIM“ verarbeitet telefonische Kundenanfragen mithilfe eines eigens trainierten Wissenspools, erkennt Anliegen kontextsensitiv und greift bei Bedarf automatisiert auf Systeme wie Zendesk oder Logistikdaten zu. Er erstellt Tickets, prüft Bestellungen und differenziert präzise zwischen Anliegen wie Beratung, Reklamation oder Lieferstatus.

  • Wirtschaftlichkeit und operative Wirkung: Die Implementierung reduzierte die Wartezeit drastisch und senkte gleichzeitig die Kosten pro Serviceeinheit signifikant. Die KI arbeitet durchgehend an 365 Tagen im Jahr, wodurch Skalierbarkeit und konstant hohe Servicequalität bei gleichzeitiger Ressourcenschonung erreicht werden.

Warum das wichtig ist: Dieses Fallbeispiel zeigt, wie generative KI in Kombination mit tiefgreifender Prozessintegration nicht nur Effizienzgewinne erzeugt, sondern als Enabler für skalierbare Servicearchitekturen dient. In gesättigten E-Commerce-Märkten wird differenzierte Kundenkommunikation zunehmend zum Wettbewerbsvorteil – besonders dann, wenn operative Skalierbarkeit ohne Qualitätsverlust gelingt. Der gezielte Einsatz unternehmensspezifischer Prompts statt generischer Bots könnte dabei zum neuen Standard werden.

Infrastruktur

OpenAI und NVIDIA planen 10 Gigawatt KI-Infrastruktur

Quelle: OpenAI

Zusammenfassung: OpenAI und NVIDIA haben eine strategische Partnerschaft angekündigt, um bis zu 10 Gigawatt Rechenzentrumsleistung für KI-Modelle bereitzustellen. Dafür stellt NVIDIA bis zu 100 Milliarden Dollar Investitionen in OpenAI in Aussicht, abhängig vom Fortschritt der Umsetzung. Die erste Gigawatt-Installation soll 2026 auf der neuen Vera-Rubin-Plattform erfolgen. Mit Millionen von GPUs will OpenAI die nächste Generation seiner Modelle entwickeln und langfristig den Schritt zur Superintelligenz vorbereiten. NVIDIA wird dabei als bevorzugter Infrastrukturpartner fungieren, während Microsoft, Oracle und SoftBank das Ökosystem ergänzen.

  • Investitionsdimension: NVIDIA plant bis zu 100 Milliarden Dollar in den Aufbau von OpenAIs KI-Infrastruktur zu investieren – eine Größenordnung, die globale Machtverhältnisse im Technologiesektor neu definiert und europäische Anbieter unter starken Druck setzt.

  • Technologische Abhängigkeit: OpenAI bindet sich eng an NVIDIA-Hardware, wodurch Europa in der Schlüsseltechnologie für generative KI weiterhin auf US-amerikanische Hardware und Cloud-Partner angewiesen bleibt, während eigene Initiativen wie SiPearl oder EPI noch in der Entwicklungsphase sind.

  • Skalierung der KI-Leistung: Mit 10 Gigawatt geplanter Rechenleistung entsteht eine Infrastruktur, die um Größenordnungen über europäischem Kapazitätsaufbau liegt. Dies schafft eine enorme Eintrittsbarriere für neue Wettbewerber und verstärkt die Abhängigkeit vom US-Ökosystem.

Warum das wichtig ist: Mit der geplanten Rechenzentrumsleistung verschiebt sich das Machtzentrum der globalen KI-Entwicklung weiter in Richtung einer US-dominierten Technologiedyade. OpenAI und NVIDIA bündeln Kapital, Infrastruktur und Modellentwicklung in einer Größenordnung, die alle europäischen Ambitionen in den Schatten stellt. Die strategische Tiefe liegt nicht nur in der technologischen Skalierung, sondern in der Schaffung faktischer Monopole auf Hardware, Rechenleistung und Talentbindung. Für Europa entsteht dadurch nicht nur ein wirtschaftlicher, sondern ein sicherheitspolitischer Handlungsdruck. Wer über Infrastruktur und Chips verfügt, kontrolliert die Geschwindigkeit und Richtung künftiger Innovationszyklen. Ohne eigene Kapazitäten verliert Europa nicht nur den Anschluss, sondern die Möglichkeit, technologische Entwicklungen überhaupt noch zu gestalten.

Infrastruktur

OpenAI startet 1-Billion-Dollar-Initiative für Supercomputer

Quelle: Shutterstock

Zusammenfassung: OpenAI hat in Texas den Startschuss für eines der ambitioniertesten Infrastrukturprojekte der Digitalgeschichte gegeben. Das Unternehmen plant ein globales Netz aus Rechenzentren mit einer erwarteten Gesamtinvestition von über einer Billion US-Dollar. Der erste Standort in Abilene, Texas, umfasst acht Datenzentren mit 900 Megawatt Leistung. Parallel entstehen fünf weitere Großanlagen in den USA in Kooperation mit Oracle und SoftBank. Insgesamt sollen über 20 Gigawatt an Rechenkapazität bereitgestellt werden – genug für rund 25 Millionen Haushalte. Ziel ist es, der wachsenden Nachfrage nach KI-Anwendungen wie ChatGPT gerecht zu werden.

  • Rechenzentrumsinfrastruktur in neuer Dimension: OpenAI will langfristig bis zu 100 Gigawatt Rechenleistung weltweit aufbauen, was einem Investitionsvolumen von bis zu fünf Billionen US-Dollar entspricht. Damit wird ein Maßstab gesetzt, der selbst die Wirtschaftsleistung großer Industrienationen übertrifft und eine bisher beispiellose Infrastruktur für KI schafft.

  • Strategische Partnerschaften für Geschwindigkeit und Kontrolle: Die Projekte entstehen in enger Zusammenarbeit mit Oracle und SoftBank. Während Oracle vor allem für Kapazität und Skalierung sorgt, hat SoftBank seine Beteiligung zuletzt reduziert. Die Standorte werden mit hochspezialisierten Nvidia-GPUs ausgestattet, die als Rückgrat der generativen KI gelten und strikte Sicherheitsvorgaben erfüllen.

  • Ressourcenbedarf und gesellschaftliche Auswirkungen: Allein der Komplex in Texas beschäftigt derzeit über 6.000 Bauarbeiter. Langfristig werden jedoch nur rund 1.700 permanente Arbeitsplätze geschaffen. Die Auswirkungen auf Stromnetze, Wasserverbrauch und lokale Infrastrukturen sind erheblich – und wecken insbesondere in Europa Fragen zur Nachhaltigkeit und Resilienz.

Warum das wichtig ist: OpenAIs Infrastrukturprogramm verschiebt das Machtgefüge der digitalen Welt entlang physischer Rechenzentren. Mit Investitionen in Milliardenhöhe entsteht eine neue globale Grundordnung, in der Zugang zu KI nicht mehr primär durch Software, sondern durch Kontrolle über Energie, Fläche und Halbleiter bestimmt wird. Europa steht diesem Prozess weitgehend als Beobachter gegenüber. Während politische Debatten über Standards und Governance geführt werden, schaffen US-Konzerne unumkehrbare Fakten in Beton, Kupfer und Silizium. Die digitale Souveränität Europas entscheidet sich nicht in Strategiepapieren, sondern an der Fähigkeit, innerhalb kürzester Zeit wettbewerbsfähige Infrastrukturen zu errichten. Wer diese Chance verpasst, wird nicht nur technologisch abhängig, sondern auch wirtschaftlich und politisch erpressbar.

Infrastruktur

Microsoft setzt auf 30 Milliarden in britische KI-Zukunft

Quelle: Shutterstock

Zusammenfassung: Microsoft investiert in den kommenden vier Jahren 30 Milliarden US-Dollar in den Ausbau seiner KI-Infrastruktur in Großbritannien. Mit 15 Milliarden davon entsteht das größte Supercomputersystem des Landes, ausgestattet mit mehr als 23.000 NVIDIA-GPUs in Zusammenarbeit mit Nscale. Die übrigen Mittel fließen in Betrieb, Forschung, Personal und Partnerschaften. Unterstützt von Premierminister Keir Starmer soll die Initiative die Wettbewerbsfähigkeit Großbritanniens in Schlüsselbereichen wie Finanzwesen, Gesundheitswesen und Telekommunikation stärken. Die Investition gilt als das bislang größte Engagement Microsofts in Großbritannien und als Meilenstein der transatlantischen Technologiekooperation.

  • Supercomputer und Infrastruktur: Microsoft baut das leistungsstärkste Rechensystem des Vereinigten Königreichs auf, das Unternehmen wie Barclays, Vodafone oder die London Stock Exchange Group für KI-basierte Anwendungen nutzen sollen.

  • Stärkung der britischen Wirtschaft: Neben Infrastrukturinvestitionen schafft Microsoft neue Arbeitsplätze, bildet Fachkräfte im Bereich KI aus und integriert Technologien wie Microsoft Copilot und GitHub Copilot in führende Unternehmen des Landes.

  • Politische Signalwirkung: Die Investition fällt in eine Phase enger Zusammenarbeit zwischen den USA und dem Vereinigten Königreich und wird von Reformen in Energie- und Regulierungsfragen flankiert, die ausländische Investoren anziehen sollen.

Warum das wichtig ist: Mit dem Aufbau des leistungsfähigsten KI-Rechenzentrums Großbritanniens verankert Microsoft seine Infrastruktur in einem strategisch relevanten Markt vor der Haustür der EU. Die Investition ist weniger Reaktion auf Nachfrage, sondern Ausdruck geopolitischer Standortpolitik. Großbritannien wird zum Testfall für eine neue Industriearchitektur, in der Infrastruktur, Regulierung und transatlantische Partnerschaften als Hebel für technologische Vormachtstellung eingesetzt werden. Für Europa entsteht dadurch ein verschärfter Handlungsdruck. Nicht nur der Zugang zu Rechenleistung, sondern auch die Frage, wer Standards und Kontrollmechanismen definiert, wird zunehmend außerhalb des Kontinents entschieden. Wer Infrastruktur baut, kontrolliert das Tempo der Innovation und die Richtung politischer Abhängigkeiten.

Geoökonomie

Alibaba Aktien steigen nach Milliardenoffensive in KI

Quelle: Shutterstock

Zusammenfassung: Alibaba hat angekündigt, seine Investitionen in Künstliche Intelligenz auf über 50 Milliarden US-Dollar auszuweiten. CEO Eddie Wu prognostiziert, dass die weltweiten KI-Investitionen in den kommenden fünf Jahren auf rund vier Billionen US-Dollar ansteigen werden. Alibaba will mit diesem Tempo mithalten und seine im Februar vorgestellten Pläne von 380 Milliarden Yuan für KI-Infrastruktur und Modelle noch erweitern. Neben neuen Qwen-Sprachmodellen baut das Unternehmen eigene Chips und expandiert seine Cloud-Rechenzentren nach Brasilien, Frankreich und in die Niederlande. Die Ankündigung trieb den Aktienkurs auf den höchsten Stand seit fast vier Jahren.

  • Expansion von Cloud und Infrastruktur: Alibaba kündigte den Bau neuer Rechenzentren in Brasilien, Frankreich und den Niederlanden an, um seine Cloud-Dienste global zu stärken. Damit erweitert der Konzern seine internationale Präsenz erheblich und positioniert sich stärker im Wettbewerb mit US-Anbietern.

  • Chips als strategische Säule: Mit seiner Halbleitersparte T-Head entwickelt Alibaba eigene KI-Beschleuniger, die unter anderem von China Unicom eingesetzt werden sollen. Gleichzeitig integriert das Unternehmen Nvidia-Tools in seine Cloud-Plattform, was eine Balance zwischen Eigenständigkeit und Kooperation signalisiert.

  • Marktreaktion und Investorenvertrauen: Alibabas Aktien stiegen in Hongkong um fast zehn Prozent, während auch andere chinesische Chipwerte zulegten. Investoren wie Cathie Wood sehen die KI-Offensive als Signal für nachhaltiges Wachstum und kehren nach Jahren der Vorsicht wieder in chinesische Tech-Titel zurück.

Warum das wichtig ist: Alibaba treibt die Entkopplung von westlicher KI-Infrastruktur mit einem strategischen Investitionsprogramm voran, das auf globale Skalierung und technologische Eigenständigkeit ausgerichtet ist. Die gleichzeitige Expansion in internationale Märkte und der Aufbau eigener Chips schaffen ein Betriebssystem chinesischer Prägung für den KI-Wettbewerb der nächsten Dekade. Der Fokus liegt nicht auf Innovationsführerschaft im engen Sinne, sondern auf industrieller Resilienz und geopolitischer Absicherung. Für Europa entsteht ein strukturelles Dilemma zwischen Integration in westliche Plattformstrategien und der Notwendigkeit, wirtschaftliche Handlungsspielräume gegenüber beiden Technologiemächten zu behaupten. Investitionsentscheidungen dieser Größenordnung verschieben die tektonischen Platten digitaler Wertschöpfung und engen die Spielräume für eine eigenständige europäische Industriepolitik weiter ein.

Rechenzentren

OpenAI baut mit SoftBank und Oracle neue Datenzentren

Quelle: Shutterstock

Zusammenfassung: OpenAI hat den Bau von fünf weiteren Datenzentren in den USA angekündigt. Das Unternehmen kooperiert dabei mit SoftBank und Oracle und investiert insgesamt über 400 Milliarden Dollar in die Infrastruktur. Die Standorte liegen in Ohio, Texas, New Mexico und einem noch unbestimmten Ort im Mittleren Westen. Oracle übernimmt die Finanzierung und den Bau von drei Zentren, während SoftBank für zwei Standorte Kapital über Banken und Schulden beschafft. Der Schritt ist Teil des „Stargate Project“, das insgesamt Investitionen von 500 Milliarden Dollar vorsieht und von Präsident Trump Anfang des Jahres mit angekündigt wurde.

  • Finanzierungsmodelle der Partner: Oracle kombiniert klassische Investitionen mit innovativen Finanzierungsstrukturen, während SoftBank den Weg über Bankkredite und Fremdfinanzierung wählt. Damit werden unterschiedliche Strategien sichtbar, um die enormen Kapitalanforderungen zu stemmen.

  • Globale Expansion von Rechenzentren: OpenAI reiht sich in eine Welle massiver Infrastrukturprojekte ein, die auch Amazon, Google, Meta und Microsoft vorantreiben. Zusammen planen die großen Tech-Konzerne bis Ende des Jahres über 325 Milliarden Dollar in Rechenzentren weltweit zu investieren.

  • Risiken durch Investitionsvolumen: Trotz Milliardenumsätzen gibt OpenAI ein Vielfaches für Rechenleistung aus. Experten warnen, dass sich das Unternehmen bei zu langsamem Marktwachstum erheblich verschulden könnte, da die Infrastrukturkosten langfristig enorme Fixlasten darstellen.

Warum das wichtig ist: Die nächste Phase der KI-Entwicklung wird nicht durch neue Modelle, sondern durch den Zugriff auf skalierbare Rechenleistung entschieden. Mit dem Aufbau neuer Datenzentren im dreistelligen Milliardenbereich verschiebt sich die Wertschöpfung in Richtung kapitalintensiver Infrastruktur. OpenAI positioniert sich nicht nur als Technologieanbieter, sondern als Betreiber strategischer Versorgungsknoten. Die unterschiedlichen Finanzierungsmodelle von Oracle und SoftBank zeigen, wie eng technologische Skalierung mit finanzmarktpolitischer Architektur verknüpft ist. Für Europa verschärft sich das Problem fehlender Kapitalallokation und industrieller Koordination. Wer Infrastruktur finanziert und betreibt, kontrolliert die Eintrittsbarrieren ganzer Innovationsfelder – und gestaltet damit die Spielregeln der nächsten technologischen Ordnung.

KI-Modelle

Apple bringt MCP für KI-Agenten auf iPhone und Mac

Quelle: Shutterstock

Zusammenfassung: Apple arbeitet daran, den von Anthropic entwickelten Model Context Protocol (MCP) in iOS, iPadOS und macOS zu integrieren. Mit den aktuellen Entwickler-Betas der Version 26.1 finden sich erste Hinweise auf eine systemweite Unterstützung. MCP gilt als aufkommender Standard, der es KI-Systemen erlaubt, direkt mit Datenquellen und Apps zu interagieren – ähnlich wie HTTP für das Web. Apple plant, diese Technologie über das App-Intents-Framework nutzbar zu machen, sodass KI-Agenten künftig ohne komplexe Schnittstellenprogrammierung Funktionen von Apps ausführen können. Dies könnte eine neue Ära agentischer KI auf Apple-Geräten einleiten.

  • Technische Grundlage: MCP bietet eine universelle Schnittstelle für KI-Systeme, die bislang oft isoliert von Datenquellen arbeiten. Statt aufwendig programmierter Integrationen kann ein Standard genutzt werden, über den Assistenten Informationen abrufen und Handlungen in Apps durchführen.

  • Apples Ansatz: Durch die Einbettung in das App-Intents-Framework erhalten Entwickler die Möglichkeit, App-Funktionen automatisch für KI-Modelle freizuschalten. Damit können Systeme wie ChatGPT oder Claude künftig eigenständig Aktionen in iPhone-, iPad- und Mac-Anwendungen ausführen.

  • Potenzielle Anwendungen: Nutzer könnten etwa KI-Assistenten mit Kalender, Notizen oder kreativen Tools verbinden, ohne zusätzliche Softwarebrücken zu benötigen. Für Unternehmen eröffnet dies Szenarien, in denen KI-Agenten direkt mit internen Apps, Datenbanken und Workflows interagieren.

Warum das wichtig ist: Mit der Integration von MCP in seine Betriebssysteme verankert Apple einen neuen Schnittstellenstandard direkt in der Infrastruktur des digitalen Alltags. Damit entsteht ein Betriebssystem, das nicht mehr nur Apps ausführt, sondern selbst zur Ausführungsumgebung agentischer KI wird. Wer über diese Standards verfügt, kontrolliert die Interaktion zwischen KI-Systemen und produktiven Anwendungen. Apple positioniert sich frühzeitig in einem entstehenden Wettbewerb um die Betriebsebene intelligenter Agenten. Für Unternehmen bedeutet das neue Möglichkeiten der Automatisierung, zugleich aber auch eine wachsende Abhängigkeit von proprietären Plattformregimen. Der offene Charakter von MCP täuscht nicht darüber hinweg, dass Infrastrukturentscheidungen künftig darüber entscheiden, wer produktive KI skaliert – und wer außen vor bleibt.

Medien

Journalismus in Europa ringt um Zukunft zwischen KI Disruption und ökonomischem Druck

Kann Journalismus in Europa überleben, wenn Künstliche Intelligenz Inhalte verarbeitet, ohne dass Verlage daran verdienen, und wenn klassische Geschäftsmodelle wie Werbung und Print kollabieren? Die Frage klingt dramatisch, doch sie trifft den Kern der aktuellen Entwicklung. Tech-Giganten experimentieren mit KI-gestützten Suchantworten, Chatbots liefern journalistische Inhalte in Sekunden – und Verlage erhalten oft nicht mehr als „percent of zero“. Zugleich ziehen sich immer mehr Journalistinnen und Journalisten aus dem Beruf zurück, während neue Modelle vom Spendenjournalismus bis hin zu „politically owned media“ entstehen. Vor unseren Augen verändert sich die Rolle des Journalismus radikal.

Die wirtschaftlichen und technologischen Umbrüche machen deutlich, dass der Journalismus im DACH-Raum und ganz Europa an einem historischen Scheidepunkt steht. Automatisiertes Scraping bedroht Erlöse, Paywalls bringen nur begrenzt Erfolg, und der Druck auf Redaktionen wächst. KI wird zur Routinekraft im Newsroom, aber auch zum Risiko für Arbeitsplätze und Qualität. Parallel entstehen Non-Profit-Modelle, Community-getragene Redaktionen und neue Finanzierungswege über Stiftungen oder Mitgliedschaften. All diese Bewegungen eint die Frage, wie professioneller Journalismus im digitalen Zeitalter nachhaltig existieren kann – und welche Werte er dabei hochhalten muss.

KI Systeme verändern die Wertschöpfung journalistischer Inhalte grundlegend

Die Verhandlungen von Google, Microsoft und OpenAI mit großen Verlagen verdeutlichen die Brisanz: Inhalte sind das Rohmaterial für KI-Systeme, aber ihr Wert wird oft nicht in den Kassen der Urheber sichtbar. Medienunternehmer wie Barry Diller warnen vor einem „katastrophalen Szenario“, in dem Journalismus sein Geschäftsmodell verliert. Während erste Lizenzgespräche laufen, drohen vielen Redaktionen massive Traffic-Verluste, weil Nutzer Antworten direkt im Chatbot erhalten. Langfristig braucht es klare Strukturen: sei es ein gesetzlich verankerter Schutz journalistischer Inhalte oder ein marktwirtschaftliches Abo-Modell, bei dem KI-Anbieter zahlen. Ohne eine Lösung steht nicht nur die Finanzierung, sondern auch die Unabhängigkeit des Journalismus auf dem Spiel.

Praxisbeispiele zeigen wie KI Effizienz steigert und zugleich Unsicherheit schürt

Die Funke-Mediengruppe arbeitet an personalisierten E-Paper-Ausgaben, die von KI automatisch aufbereitet werden könnten. Die Rheinische Post nutzt Systeme, die Routine-Seiten in der Zeitung nach festen Vorlagen erstellen. In der Schweiz werden sogar virtuelle Nachrichtensprecher getestet. Diese Beispiele verdeutlichen die Spannung: Einerseits entlastet KI die Redaktionen und eröffnet neue kreative Möglichkeiten, andererseits wächst die Angst vor Personalabbau. Der Deutsche Journalisten-Verband fordert klare Regeln, damit Effizienz nicht die journalistische Seele verdrängt. Die Balance zwischen Automatisierung und menschlicher Verantwortung wird zum entscheidenden Faktor – und könnte über das Vertrauen der Öffentlichkeit entscheiden.

Non Profit Modelle und politisch getragene Medienprojekte gewinnen an Gewicht

Während klassische Erlösmodelle erodieren, entstehen neue Strukturen: Mitgliedsbeiträge, Spenden und Stiftungsfinanzierungen tragen zunehmend investigativen und lokalen Journalismus. Projekte wie CORRECTIV oder „taz zahl ich“ zeigen, dass Leser bereit sind, Verantwortung zu übernehmen, wenn Inhalte Relevanz besitzen. Gleichzeitig wachsen politische oder unternehmensnahe Medienangebote, die Lücken füllen, wo traditionelle Verlage sich zurückziehen. Hier zeigt sich eine doppelte Dynamik: Mehr Vielfalt und neue Formen der Finanzierung, aber auch Risiken durch Abhängigkeiten und Einflussnahme. Transparenz über Geldflüsse und redaktionelle Unabhängigkeit werden in dieser neuen Medienlandschaft zu harten Währungen.

Relevanz verschiebt sich von Klickzahlen zu Wirkung in Gesellschaft und Politik

Die Zukunft des Journalismus entscheidet sich nicht allein an der Frage des Geldes, sondern an der Fähigkeit, Wirkung zu entfalten. Impact Journalism, konstruktiver Journalismus und neue Transparenzstandards gewinnen an Bedeutung. Leser reagieren positiv auf Inhalte, die Lösungen aufzeigen und Prozesse offenlegen – wie das Beispiel der Siegener Zeitung zeigt, die ihre Reichweite durch lösungsorientierte Berichte deutlich steigern konnte. Erfolg wird künftig weniger in Klicks und Page Impressions gemessen, sondern daran, ob Berichte Missstände aufdecken, Veränderungen anstoßen oder Vertrauen wiederherstellen. Der Journalismus kehrt damit zu seiner demokratischen Kernfunktion zurück.

Bis 2030 entscheidet sich ob Journalismus als Phönix oder als Schatten weiterlebt

Die kommenden Jahre sind entscheidend: Schafft es die Branche, Lizenzmodelle mit Tech-Konzernen zu etablieren, Non-Profit-Strukturen rechtlich abzusichern und KI-Tools verantwortungsvoll einzusetzen? Oder rutscht sie in Abhängigkeit von Plattformen und Geldgebern? Der Ausgang ist offen. Fest steht: Nur eine mutige Kombination aus Innovation, Diversifizierung und Rückbesinnung auf journalistische Werte kann das Überleben sichern. Zwischen KI-getriebenen Antworten und politisch gefärbten Medienblasen entscheidet sich, ob Journalismus weiterhin das Rückgrat demokratischer Gesellschaften bleibt. Jetzt ist die Zeit, neue Strategien zu wagen und die Zukunft aktiv zu gestalten.

Quelle: Google

  1. OpenAI: Das Unternehmen hat mit dem neuen Benchmark „GDPval“ untersucht, wie nah KI-Modelle an die Leistungen menschlicher Fachkräfte herankommen. GPT-5-high schnitt dabei in 40,6 % der getesteten Aufgaben mindestens gleichwertig zu Experten ab, Anthropics Claude Opus 4.1 erreichte 49 %. Getestet wurden 44 Berufe aus neun Schlüsselindustrien wie Gesundheit, Finanzen und Produktion. OpenAI betont, dass GDPval-v0 noch begrenzt sei, sieht die Fortschritte jedoch als wichtigen Schritt Richtung AGI und als Chance für Fachkräfte, sich stärker auf höherwertige Aufgaben zu konzentrieren.

  2. Europäische Union: Nach wiederholten Luftraumverletzungen durch russische Drohnen und mysteriösen Vorfällen in Dänemark plant die EU den Aufbau eines „Drohnenwalls“ entlang der Ostflanke. Das System soll unbemannte Flugkörper frühzeitig erkennen, verfolgen und abfangen können. Beteiligt sind vor allem osteuropäische Staaten, während Deutschland bislang zurückhaltend agiert. Auch die Ukraine bringt ihre Kriegserfahrungen ein. Erste Sensoren sollen kurzfristig installiert werden, ein vollständiges Netzwerk wird jedoch erst ab 2026 erwartet.

  3. Microsoft: Der Konzern arbeitet an einem Content Marketplace, über den Publisher für die Nutzung ihrer Inhalte in KI-Diensten wie Copilot vergütet werden sollen. Damit reagiert Microsoft auf Kritik der Medienbranche, die durch KI-Overviews, Chatbots und sinkenden Traffic Geschäftsmodelle gefährdet sieht. Während OpenAI und Perplexity auf Einzelverträge oder Pauschalzahlungen setzen, könnte Microsoft erstmals ein nutzungsbasiertes Modell etablieren. Details zu Vergütung, Reichweite und Partnern bleiben offen – auch ob andere KI-Anbieter eingebunden werden.

  4. Oracle: Nach dem kürzlich geschlossenen Mega-Deal mit OpenAI (geschätzt 300 Mrd. $) verhandelt Oracle nun mit Meta über eine mögliche Cloud-Vereinbarung im Umfang von rund 20 Mrd. $. Ziel ist es, Metas KI-Modelle mit großflächiger Rechenleistung zu versorgen. Die Gespräche unterstreichen Oracles Wandel vom Datenbankspezialisten zum zentralen Anbieter für KI-Infrastruktur. Mit wachsender Konkurrenz zu AWS, Azure und Google Cloud will Oracle seine Position im boomenden Markt festigen. Analysten beobachten jedoch kritisch die starke Abhängigkeit von wenigen Großkunden.

  5. Google: Das Unternehmen erweitert seine Data-Commons-Plattform mit einem MCP-Server, der öffentliche Datensätze über natürliche Sprache für KI-Systeme zugänglich macht. Damit sollen Entwickler, Datenwissenschaftler und AI-Agents verifizierte Informationen wie Zensus- oder Klimadaten leichter integrieren können, um Halluzinationen zu reduzieren und Modelle gezielter zu trainieren. Der Ansatz basiert auf dem offenen Model Context Protocol, das bereits von OpenAI, Microsoft und Anthropic genutzt wird. Erste Anwendungen entstehen etwa in Kooperation mit der NGO ONE Campaign für Gesundheits- und Finanzdaten in Afrika.

  1. DeepMind: Google DeepMind hat eine überarbeitete Version seines Frontier Safety Frameworks vorgestellt, das Risiken fortgeschrittener KI-Modelle systematischer erfassen und bewerten soll. Neu ist ein spezieller Risikobereich für manipulative Fähigkeiten, die Überzeugungen und Verhalten in sensiblen Kontexten beeinflussen könnten. Zudem wurden Protokolle gegen mögliche Fehlsteuerungen durch KI-Modelle ergänzt. Das Framework nutzt sogenannte Critical Capability Levels (CCLs), um Warnstufen festzulegen. Ziel ist ein proaktiver, wissenschaftlich fundierter Sicherheitsansatz im Vorfeld einer potenziellen AGI-Entwicklung.

  2. Geoffrey Hinton: Der KI-Pionier und „Godfather of AI“ warnt eindringlich vor den Folgen ungebremster technologischer Entwicklung. Durch globalen Konkurrenzdruck sei eine Verlangsamung kaum realistisch. Hinton sieht massive Risiken für den Arbeitsmarkt, insbesondere bei einfachen geistigen Tätigkeiten, und rechnet mit wachsender sozialer Ungleichheit. Superintelligente Systeme könnten dem Menschen in allen Bereichen überlegen sein – und gefährlich werden. Trotz technologischem Fortschritt fehlt es bislang an klaren politischen Strategien zur sicheren und gerechten Gestaltung dieser Zukunft.

  3. ChatGPT: Die Nutzung in Unternehmen wächst rasant, vor allem in IT, Finanz- und Profiservices, wo Programmierung, Datenanalyse und Recherche dominieren. In Fertigung unterstützt ChatGPT die digitale Transformation, während Gesundheitswesen wegen Datenschutz zurückhaltender bleibt. Hauptanwendungen in den ersten 90 Tagen sind Schreiben, Programmieren, Analyse und Forschung. Technische Teams nutzen fortgeschrittene Funktionen stärker, während Marketing, Vertrieb und Support auf Text- und Mediengenerierung setzen. Insgesamt entwickelt sich ChatGPT von einem Produktivitätstool zu einer plattformartigen Arbeitsgrundlage im Unternehmensalltag.

  4. DeepMind: Mit Gemini Robotics 1.5 und Gemini Robotics-ER 1.5 bringt das Unternehmen fortschrittliche KI-Agenten in die physische Welt. Die Modelle kombinieren multimodales Verständnis, Planung und Handlung, um Roboter komplexe, mehrstufige Aufgaben erledigen zu lassen. Während ER 1.5 als „Gehirn“ Aufgaben plant und Tools nutzt, setzt Robotics 1.5 diese in konkrete Bewegungen um und erklärt sein Vorgehen transparent. Beide Modelle lernen über verschiedene Robotertypen hinweg, erzielen Spitzenwerte bei Benchmarks und sind teils über die Gemini API verfügbar.

  5. Apple: Das Unternehmen hat eine interne iPhone-App namens Veritas entwickelt, die ChatGPT ähnelt und zur Vorbereitung des umfassenden Siri-Umbaus dient. Mit der App testet Apples KI-Team neue Funktionen wie die Suche in persönlichen Daten oder In-App-Aktionen. Der neue Siri, basierend auf der Plattform Linwood, soll ab März 2026 starten, nachdem es zu wiederholten Verzögerungen kam. Apple prüft hierfür auch Partnerschaften mit Google, Anthropic und OpenAI. Ziel ist eine starke Rückkehr im KI-Wettbewerb.

GeoTech

Wettlauf um technologische Vorherrschaft

Quelle: The All-In Podcast

Inhalt: Eric Schmidt warnt eindringlich vor einem strategischen Rückstand des Westens gegenüber China – insbesondere bei der Anwendung von KI in der Industrie und im Militär. Er skizziert ein mögliches Gleichgewicht der Abschreckung durch autonome Drohnenarmeen und fordert, dass offene KI-Modelle als geopolitisches Werkzeug begriffen werden. Besonders brisant: Seine Einschätzung, dass China dank offener Gewichte und anderer Hardwareprioritäten bereits entscheidende Vorteile im globalen KI-Wettlauf erzielt.

Kontext: Die Podcast-Folge ist Teil der „All-In“-Reihe, in der einflussreiche Persönlichkeiten aus Politik, Wirtschaft und Technologie regelmäßig über aktuelle Herausforderungen diskutieren. Das Format hat sich als zentrales Forum für strategische Zukunftsfragen etabliert und ist besonders relevant für Entscheider, die die globalen Dynamiken rund um KI, Wirtschaft und Sicherheit verstehen und mitgestalten wollen.

Ihre Meinung interessiert uns

Ergebnisse der vorherigen Umfrage

Welche dieser Rubriken bietet Ihnen aktuell den größten Mehrwert?

🟩🟩🟩🟩🟩🟩 🧠 Deep Dive
🟨⬜️⬜️⬜️⬜️⬜️ ⚡ Impuls
🟨🟨🟨⬜️⬜️⬜️ 🇪🇺 Monitoring Europe
🟨🟨⬜️⬜️⬜️⬜️ 🗣 Meinung der Redaktion
🟨🟨🟨🟨🟨⬜️ ⚙️ Praxisbeispiel
⬜️⬜️⬜️⬜️⬜️⬜️ 🎥 YouTube

Foundation

Gründerzentren als Innovationshebel sichtbar machen

Quelle: UnternehmerTUM

Was ist das Problem? Die Entstehung bahnbrechender Ideen in Deutschland bleibt oft isoliert – zu selten gelingt der Sprung von Geistesblitz zu marktfähigem Unternehmen. Ohne hochwertige Inkubationsstrukturen droht, dass Potenziale ins Ausland abwandern anstatt in heimischen Ökosystemen zu reifen.

Wie wird es gelöst? Erfolgreiche Modelle wie das Münchner Gründerzentrum UnternehmerTUM verbinden frühzeitige Talentförderung, technologische Infrastruktur und aktives Netzwerkmanagement. Mit Programmangebote von der Ideengenerierung bis zur Markteinführung werden Gründer durchgängig begleitet.

Warum das wichtig ist: Solche Zentren ermöglichen einen Strukturwandel im Innovationssystem: Sie erzeugen systemische Hebel, nicht nur Einzelfälle. In einem Europa, das technologisch aufholen will, sind sie zentrale Bausteine, um Start-up-Kraft mit Skalierungskapazität zu verbinden und Wertschöpfung im Inland zu sichern.

Handlungsempfehlung: Entscheider in Politik und Wirtschaft sollten lokale Gründerzentren strategisch ausbauen – etwa durch Beteiligungen, Infrastrukturförderung, Kooperationsnetzwerke mit großen Firmen und Anbindung an Hochschulen. Wichtig ist, nicht punktuell zu fördern, sondern ganzheitliche Ökosysteme aufzubauen.

Impact: Verdoppelung hochwertiger Deep-Tech-Start-ups in 5 Jahren

Relevant für:

  • Innovationsmanagement ●●●

  • Hochschul- und Forschungspolitik ●●●

  • Wirtschafts- und Technologiepolitik ●●○

  • Venture Capital / Mittelstand ●●○

  • Standortmarketing & Regionalentwicklung ●●○

  • Unternehmensstrategien & Open Innovation ●●○

Prompt Engineering

Prompt-Overfitting vermeiden

Quelle: Shutterstock

Problemstellung: Viele Unternehmen investieren viel Zeit in die Optimierung von Prompts für ein bestimmtes KI-Modell – nur um dann enttäuscht festzustellen, dass diese Prompts mit einem neuen, besseren Modell schlechter funktionieren. Der Grund: Prompts sind oft auf die spezifischen Eigenheiten eines Modells „überfitet“. Mit jeder neuen Modellgeneration ändern sich jedoch Formatpräferenzen, Positionseffekte und systembedingte Vorurteile – was bestehende Prompts ineffizient oder sogar kontraproduktiv macht.

Lösung: Wer das Beste aus neuen Sprachmodellen herausholen will, sollte Prompts systematisch überarbeiten. Dazu gehört es, sich an die bevorzugten Eingabeformate des Modells anzupassen (z. B. Markdown vs. XML), die Position von wichtigen Informationen im Prompt gezielt zu wählen (z. B. Anfang oder Ende), und die impliziten Modell-Biases zu erkennen – und aktiv mit ihnen zu arbeiten, statt gegen sie anzuprompten.

Anwendungsbeispiele: Beim Wechsel von GPT-4 zu Claude 3.5 zeigte sich, dass Claude deutlich besser auf XML-basierte Prompts reagiert – einfach, weil er mit dieser Struktur trainiert wurde. Auch bei Retrieval-Augmented Generation (RAG) kann der Kontext je nach Modell besser am Anfang oder am Ende stehen: Während GPT-Modelle vorn priorisieren, schneiden Qwen-Modelle mit Informationen am Ende besser ab. Ein weiteres Beispiel: Manche Modelle neigen zur Halluzination bestimmter Felder – anstatt dagegen anzuprompten, kann es effizienter sein, diese Felder sinnvoll in die Antwortlogik einzubauen.

Erklärungsansatz: Jedes Modell hat eigene Trainingsdaten, Architekturentscheidungen und Post-Training-Anpassungen (z. B. durch Reinforcement Learning with Human Feedback). Diese führen zu spezifischen „Default-Verhalten“. Wenn man versucht, diese Defaults per Prompt zu „überschreiben“, entstehen unnötige Komplexität und Tokenkosten – mit geringerer Erfolgsquote. Effektives Prompting bedeutet also, das Modellverhalten zu beobachten, gezielt zu evaluieren und Prompts entsprechend neu zu gestalten.

Fazit: Prompts sind keine universellen Werkzeuge, sondern fein abgestimmte Interfaces zwischen Nutzer und Modell. Wer neue Modelle nutzen will, sollte auch seine Prompts neu denken – nicht als lästige Pflicht, sondern als Chance auf bessere Resultate mit weniger Aufwand.

Arbeitsmarkt

Warum der Berufseinstieg zur Stolperfalle für eine ganze Generation wird

Nie war es schwieriger für Absolventinnen und Absolventen, den ersten Job zu finden. Der Einstiegsmarkt bricht weg – betroffen sind vor allem Berufseinsteiger, die zunehmend zwischen Künstlicher Intelligenz, wirtschaftlicher Unsicherheit und politischer Instabilität zerrieben werden. Der Begriff „Jobpokalypse“ beschreibt diese Entwicklung treffend: Unternehmen drosseln massiv die Zahl an Einstiegsstellen, während die Anzahl der Hochschulabsolventen weiter steigt.

Besonders deutlich wird der Wandel in Branchen wie Recht und Buchhaltung, wo KI bereits große Teile der klassischen Junior-Aufgaben übernimmt. Doch was passiert, wenn die Grundlagenarbeit wegfällt, auf der bisher Karrieren aufgebaut wurden? Unternehmen wie Simmons & Simmons setzen zwar verstärkt auf eigene KI-Tools, warnen aber zugleich davor, die Nachwuchsförderung zu vernachlässigen – denn ohne Einstiegspositionen fehlt bald das Fundament für Führungsrollen von morgen.

Rekrutierungsexperten beobachten bereits eine Talentlücke am Horizont. Wer heute nicht ausbildet, dem fehlen morgen die Führungskräfte. Die Gefahr: Überförderung des vorhandenen Personals ohne fundierte Ausbildung und langfristige Abhängigkeit von einem kleiner werdenden Mitarbeiterstamm. Statt tragfähiger Karrieren droht ein instabiles System, das sich langfristig selbst schwächt.

Die Zukunft der Arbeit steht auf dem Prüfstand. Ohne neue Ausbildungsmodelle oder mutige Investitionen in Nachwuchsprogramme verlieren wir mehr als nur den „Drudge Work“ der Einsteiger – wir verlieren das Rückgrat des Arbeitsmarkts von morgen.

Werben im KI-Briefing

Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?

Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.

Und nächste Woche…

... widmen wir uns dem aufkommenden Konzept der Generative Engine Optimization (GEO) – der Sichtbarkeit im Zeitalter KI-basierter Antwortsysteme. Wenn Large Language Models zum primären Zugang zu Wissen werden, müssen Inhalte so gestaltet sein, dass sie von diesen Systemen erkannt, zitiert und priorisiert werden. Wir analysieren, welche Content-Strategien, Strukturen und Metadaten in Zukunft über Relevanz und Reichweite entscheiden – und warum frühe GEO-Initiativen zum entscheidenden Wettbewerbsvorteil werden könnten.

Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.

Wie hat Ihnen das heutige KI-Briefing gefallen?

Ihr Feedback hilft uns, bessere Inhalte für Sie zu erstellen!

Login or Subscribe to participate

Das strategische Betriebssystem für Entscheidungsträger.

Reply

or to participate

Keep Reading

No posts found