Guten Morgen!

Europa erhält mit Mistrals neuer Plattform Codestral 25.08 erstmals die Möglichkeit, KI-gestützte Softwareentwicklung vollständig eigenständig zu kontrollieren. Zusätzlich stärkt OpenAI mit seinem neuen Rechenzentrum Stargate Norway Europas technologische Souveränität durch nachhaltige lokale Infrastruktur.

Auf globaler Ebene positioniert China seinen Vorschlag zur KI-Governance als Gegenentwurf zur industriezentrierten Strategie der USA. Außerdem könnte die Neuausrichtung der Partnerschaft zwischen Microsoft und OpenAI künftig den Zugang zu kritischen KI-Technologien neu definieren. Meta erzeugt zudem durch massive Investitionen in personalisierte KI strategischen Druck auf Wettbewerber.

Wenn Sie das KI-Briefing als Bereicherung empfinden, würden wir uns sehr freuen, wenn Sie es an Kollegen, Mitarbeiter oder Vorgesetzte weiterempfehlen könnten. Mit einer wachsenden Leserschaft können wir einzigartigere Inhalte schaffen, die einen direkten Mehrwert für alle bieten. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.

Was Sie in diesem Briefing erwartet

  • News: Mistral bringt Codestral 25.08 für souveräne KI-Entwicklung, Stargate Norwegen eröffnet Europas KI‑Unabhängigkeit, China treibt globale KI‑Governance als Gegengewicht zu US‑Alleingang, Microsoft sichert langfristigen Zugang zu OpenAI-Technologie, Meta startet Milliardenoffensive für persönliche Superintelligenz, Stanford baut KI-Labor mit virtuellen Wissenschaftlern & Google integriert AlphaEarth Foundations in globale Umweltüberwachung

  • Deep Dive: Wie Europas KI-Regulierung zur Chance für Unternehmen und Wettbewerbsfähigkeit werden kann

  • In aller Kürze: Tesla investiert 16,5 Milliarden in Samsung Chips für autonome Systeme und KI-Training, OpenAI verdoppelt Umsatz auf 12 Milliarden und bereitet Mega-Finanzierungsrunde vor, Anthropic verhandelt Milliardenbewertung mit Investoren aus dem Nahen Osten, OneChronos startet mit Auctionomics eine GPU-Börse zur Absicherung von KI-Kapazitäten & Google testet Deep Think zur Lösung komplexer Aufgaben mit Gemini 2.5

  • Videos & Artikel: China baut trotz US-Sanktionen KI-Infrastruktur mit verbotenen Nvidia-Chips in Xinjiang aus, Apple arbeitet an eigener Websuche und kämpft mit Indien-Zöllen, Anthropic überholt OpenAI bei LLM-Nutzung durch Fokus auf starke Closed-Source-Modelle, OpenAI sammelt Milliarden ein und wächst mit Business-Kunden und Abu-Dhabi-Rechenzentrum & Anthropic steuert Persönlichkeitsmerkmale von KI-Modellen mit neuen neuronalen Vektoren

  • Impuls: Entscheidungen im Zeitalter der Vorhersage

  • Umfrage: Wie wichtig wäre Ihnen eine europäische Plattform, die Unternehmen strategisch, rechtssicher und wertebasiert bei der Entwicklung und Anwendung vertrauenswürdiger KI unterstützt?

  • Meinung: Wird der KI-Datenboom zur nächsten Finanzkrise führen 📉

  • Praxisbeispiel: Context Engineering bei KI-Agenten

  • YouTube: Warum KI noch keine menschlichen Mitarbeiter ersetzt

News

Enterprise AI

Mistral bringt Codestral 25.08 für souveräne KI-Entwicklung

Quelle: Mistral

Zusammenfassung: Das französische KI-Unternehmen Mistral hat mit Codestral 25.08 eine neue Version seines spezialisierten Code-Modells veröffentlicht und damit seine vollständige Entwicklungsplattform für Unternehmen vorgestellt. Der Stack umfasst semantische Code-Suche, agentenbasierte Automatisierung sowie tiefe IDE-Integration – vollständig on-prem oder in der Cloud betreibbar. Die Lösung adressiert zentrale Hindernisse für den Einsatz von KI in regulierten Branchen: fehlende Kontrolle, eingeschränkte Anpassbarkeit und mangelnde Integration. Besonders in Europa, wo Datensouveränität und Compliance höchste Priorität haben, liefert Mistral damit eine robuste Alternative zu US-zentrierten Angeboten wie GitHub Copilot.

  • Wichtige Neuerungen bei der Codegenerierung: Codestral 25.08 bietet 30 % mehr akzeptierte Codevorschläge und 50 % weniger fehlerhafte Generierungen. Durch Fill-in-the-Middle-Technologie werden kontextsensitive Vorschläge für komplexe Multi-File-Änderungen direkt im Editor ermöglicht, was die Qualität und Geschwindigkeit in der Softwareentwicklung deutlich steigert.

  • Integrierte semantische Suche und Agenten: Mit Codestral Embed und dem agentenbasierten System Devstral können Unternehmen ihre eigenen Codebasen semantisch durchsuchen und autonome Multi-Step-Aufgaben wie Refactoring oder Testgenerierung automatisieren – vollständig lokal und ohne API-Anbindung an Drittanbieter. Damit entsteht eine geschlossene, sichere Entwicklungsumgebung für kritische Infrastrukturen.

  • Volle Enterprise-Kontrolle und Compliance: Die Plattform erlaubt Self-Hosting, läuft auf lokalen Servern oder in VPCs, bietet zentrale Nutzungsmetriken sowie SSO und Audit-Logging. Besonders für Institutionen mit hohen Anforderungen an IT-Sicherheit – etwa in Verteidigung, Finanzwesen oder öffentlicher Verwaltung – wird dadurch erstmals eine produktionsreife, KI-gestützte Softwareentwicklung unter eigener Governance möglich.

Warum das wichtig ist: Mit Codestral 25.08 bietet Mistral nicht bloß eine technische Verbesserung im Bereich KI-basierter Codegenerierung – das Unternehmen positioniert sich strategisch als treibende Kraft für europäische Souveränität im Kernbereich Softwareentwicklung. In einem geopolitischen Umfeld, in dem technologische Abhängigkeiten zunehmend zum Sicherheitsrisiko werden, verschafft Mistrals Angebot europäischen Regierungen, Finanzdienstleistern und kritischer Infrastruktur erstmalig die Möglichkeit, KI-gestützte Innovation mit vollständiger Kontrolle über Daten und Prozesse zu kombinieren. Dieses Modell könnte sich als richtungsweisend für Europas Umgang mit KI erweisen, indem es die regulatorische Strenge des Kontinents in einen Wettbewerbsvorteil verwandelt – und damit langfristig die Wettbewerbsfähigkeit und Unabhängigkeit Europas im globalen Technologierennen stärkt.

Europäische Souveränität

Aleph Alpha startet neuen Blog zur europäischen KI‑Souveränität

Quelle: Aleph Alpha

Zusammenfassung: Der Blog von Aleph Alpha wurde am 24. Juli 2025 nach einer bewussten Pause neu gestartet unter dem Motto „Quietly Rebuilt. Boldly Relaunched.“. Der Relaunch betont die europäischen Wurzeln, deutsche Qualität und technologische Souveränität. Zentraler Inhalt sind Produktupdates, Forschungseinblicke, Kunden‑ und Partnergeschichten sowie kulturelle Themen rund um PhariaAI und die globale Rolle von Aleph Alpha im europäischen Kontext. Das Ziel: ein KI‑Blog, der technisch fundiert und gleichzeitig menschlich erzählt, klar, verantwortungsvoll und souverän kommuniziert.

  • Was der Relaunch bedeutet: Der Blog kehrt mit einer klaren Struktur zurück, die technische Tiefe, Transparenz und Kunden‑ und Partnerstories verbindet – von PhariaFiles bis Other Matters.

  • Europäische Werte im Fokus: Aleph Alpha unterstreicht deutsche Qualitätsmetriken, Datenschutz, Verantwortungsbewusstsein und Technologiegestaltung im Einklang mit EU‑Richtlinien.

  • Strategische Positionierung: Als Europas Antwort auf US‑ und chinesische KI‑Giganten betont Aleph Alpha durch PhariaAI und partnerschaftliche Ökosysteme seine Rolle als Garant für KI‑Souveränität.

Warum das wichtig ist: Mit dem Relaunch positioniert Aleph Alpha sich nicht einfach nur kommunikativ neu, sondern setzt strategisch einen Hebel für europäische KI-Souveränität in Szene. Indem das Unternehmen die klare Abgrenzung gegenüber US- und chinesischen Tech-Konzernen herausarbeitet und dabei gezielt auf Europas regulatorische Stärke und werteorientierte KI setzt, formuliert es bewusst eine technologische und geopolitische Botschaft: KI-Souveränität ist nicht nur möglich, sondern unabdingbar für Europas politische und wirtschaftliche Eigenständigkeit. Entscheider in Politik und Wirtschaft erhalten hier einen substanziellen Orientierungspunkt, um die Potenziale europäischer KI pragmatisch und wertebasiert zu nutzen – und zugleich Europas Handlungsspielraum in globalen Technologiekonflikten zu erweitern.

Europäische Infrastruktur

Stargate Norwegen eröffnet Europas KI‑Unabhängigkeit

Quelle: Shutterstock

Zusammenfassung: OpenAI startet mit „Stargate Norway“ sein erstes Rechenzentrumsprojekt in Europa und festigt damit die KI‑Souveränität der EU‑Region. In Narvik, Norwegen, errichten OpenAI gemeinsam mit Nscale und Aker eine „AI‑Gigafabrik“, betrieben mit 100 % erneuerbarer Wasserkraft. Die Anlage soll bis Ende 2026 100 000 NVIDIA‑GPUs bereitstellen und eine Anfangskapazität von 230 MW haben – ausbaufähig auf insgesamt 520 MW. Europaweit ermöglicht dies autorisierte Verarbeitung auf europäischem Boden, deutlich reduziert Abhängigkeiten von US‑Anbietern und stärkt lokale Entwickler und Forschung.

  • Stargate Norway Struktur: Betrieb in Kooperation mit Nscale und Aker als 50/50‑Joint‑Venture, initiale Investition rund 1 Milliarde USD, davon etwa 250 Mio Eigenkapital pro Partner. Ziel sind 100 000 GPUs bis Ende 2026 und Kapazitätserweiterung bis zu zehnfacher Größe.

  • Nachhaltigkeit und Effizienz: Gefertigt in Kvandal nahe Narvik, nutzt das Rechenzentrum direkte Flüssigkeitskühlung und übers Schulungswärme lokale kohlenstoffarme Industrien; der Wasserverbrauch sinkt um bis zu 90 %. Alle Systeme laufen mit erneuerbarer Wasserkraft.

  • Europäische Datenhoheit: Stargate Norway ist Teil des „OpenAI for Countries“-Programms und unterstützt „souveräne KI“ durch Verarbeitung auf EU‑Territorium. Kapazitäten werden auch britischen, nordischen und nordeuropäischen Nutzern zugänglich gemacht.

Warum das wichtig ist: Mit Stargate Norway schafft OpenAI erstmals eine Infrastruktur, die Europas technologische Unabhängigkeit im Bereich KI substantiell stärkt. Diese Investition könnte große Bedeutung für Europas geopolitische Rolle bei der Gestaltung globaler KI-Standards werden. Europäische Institutionen und Unternehmen profitieren künftig von einer lokal verfügbaren, skalierbaren und klimafreundlichen KI-Infrastruktur. Dadurch erweitert Europa nicht nur seine regulatorischen Spielräume, sondern kann auch eigene Werte und Normen wirksam in globale Technologien integrieren. Narvik entwickelt sich so zu einem Modellprojekt, das weit über die Region hinaus Innovationsimpulse setzt und Europas Position im internationalen Wettbewerb nachhaltig verbessert.

Geopolitik

China treibt globale KI‑Governance als Gegengewicht zu US‑Alleingang

Quelle: Shutterstock

Zusammenfassung: China hat auf der World AI Conference in Shanghai einen umfassenden globalen Aktionsplan zur KI‑Governance präsentiert. Premier Li Qiang schlägt die Gründung einer „Welt‑KI‑Kooperationsorganisation“ vor, um fragmentierte Regelwerke zu harmonisieren und digitalen Machtmissbrauch zu verhindern. Die Vorstellung folgt nur wenige Tage nach der Veröffentlichung der US‑„AI Action Plan“, mit dem Washington seine technologische Vorherrschaft ausbauen will.

  • Globale KI‑Kooperation: Premier Li plädierte für eine multilaterale Plattform zur schnellen Formulierung international akzeptierter Governance‑Strukturen, um bestehende Fragmentierung und Monopolbildung zu verhindern.

  • US‑Strategie fokussiert Marktmacht: Die US‑Initiative zielt auf Deregulierung, Infrastrukturaufbau (Rechenzentren, Chips) und Export von KI‑Technologie – bei gleichzeitiger Einschränkung regulatorischer Themen wie DEI und Klimavorgaben.

  • Wahl der Sprache und Ziele: China wirbt um Unterstützung insbesondere im Global South, betont Open‑Source‑Kollaboration und UN‑geleitete Dialogforen. Die US‑Strategie reflektiert dominierend US‑industrieorientierte Interessen.

Warum das wichtig ist: Chinas Vorstoß zur Gründung einer globalen KI-Governance ist kein bloßer Appell zur internationalen Zusammenarbeit, sondern ein gezielter Gegenentwurf zur industriezentrierten Strategie der USA. Während Washington primär auf Marktmacht und technologische Dominanz setzt, positioniert sich China gezielt als Verfechter multilateraler Standards – mit besonderem Fokus auf Entwicklungsländer und Open-Source-Ansätze. Für Entscheider bedeutet dies, dass KI-Regulierung zunehmend zu einem geopolitischen Instrument wird, das technologische, wirtschaftliche und normative Allianzen formt. Wer künftig globale KI-Regeln bestimmt, legt damit zugleich die Spielregeln für geopolitische Machtverhältnisse und digitale Souveränität für Jahrzehnte fest.

Partnerschaften

Microsoft sichert langfristigen Zugang zu OpenAI-Technologie

Quelle: Shutterstock

Zusammenfassung: Microsoft steht kurz vor einer neuen Vereinbarung mit OpenAI, die dem Konzern dauerhaften Zugang zu den neuesten KI-Modellen des “Startups” sichern soll – selbst wenn OpenAI das Ziel einer künstlichen allgemeinen Intelligenz (AGI) erreicht. Bislang würde in diesem Fall Microsofts Zugriff auf die Technologie enden. Die Gespräche umfassen zudem eine Anpassung der Beteiligungsverhältnisse und Lizenzrechte. Hintergrund ist die Umstrukturierung von OpenAI in ein stärker profitorientiertes Unternehmen. Microsoft, bisher mit rund 13,75 Milliarden US-Dollar engagiert, pocht auf langfristige Sicherheiten für seine strategischen KI-Investitionen.

  • Verhandlungen über neue Besitzverhältnisse: OpenAI und Microsoft verhandeln über eine Neuregelung des Eigentumsanteils, bei der Microsoft zwischen 30 und 35 Prozent an der neuen Unternehmensstruktur erhalten könnte – eine deutliche Ausweitung gegenüber dem Status quo.

  • Erweiterte kommerzielle Freiheit für OpenAI: Die Gespräche umfassen auch OpenAIs Wunsch, seine KI-Dienste über Microsofts Azure hinaus zu vertreiben und selbstständig Produkte für andere Kunden – inklusive öffentlicher Auftraggeber – auf Basis seiner Modelle anzubieten.

  • Kritischer Wendepunkt bei AGI-Definition: Der bestehende Vertrag sieht Einschränkungen für Microsoft vor, sobald OpenAI AGI erreicht. Die neuen Verhandlungen zielen darauf ab, diese Klauseln zu überarbeiten, um Microsofts Zugriff auf Technologie und geistiges Eigentum auch darüber hinaus zu gewährleisten.

Warum das wichtig ist: Die angestrebte Neuausrichtung der Partnerschaft zwischen Microsoft und OpenAI verändert das Kräfteverhältnis auf dem KI-Markt. Sollte Microsoft tatsächlich langfristigen Zugriff auf OpenAIs Technologie und insbesondere auf zukünftige Entwicklungen einer künstlichen allgemeinen Intelligenz erhalten, würde dies nicht nur die technologische Abhängigkeit zwischen beiden Unternehmen zementieren. Vielmehr könnte sich Microsoft damit dauerhaft eine dominante Stellung sichern, die andere Marktteilnehmer zwingt, ihre eigenen strategischen Allianzen und Technologiepartnerschaften kritisch zu überprüfen. Diese Entwicklung hätte erhebliche regulatorische Konsequenzen und könnte zugleich den Standard setzen, wie große Tech-Konzerne künftig den Zugang zu Schlüsseltechnologien kontrollieren und nutzen.

KI-Strategie

Meta startet Milliardenoffensive für persönliche Superintelligenz

Quelle: Shutterstock

Zusammenfassung: Meta plant Investitionen von bis zu 72 Milliarden US-Dollar im Jahr 2025, um seine Vision einer „persönlichen Superintelligenz“ umzusetzen. Diese KI soll individuell arbeiten, sich selbst verbessern und über Geräte wie Smartbrillen direkt in den Alltag der Nutzer integriert werden. Dafür bündelt Meta alle KI-Aktivitäten in der neuen Einheit Superintelligence Labs, geführt von Alexandr Wang und Nat Friedman. Das Unternehmen baut neue Rechenzentren mit Gigawatt-Leistung, kauft Talente aus dem KI-Ökosystem ein und positioniert die Ray-Ban Meta als Hauptschnittstelle zu dieser Technologie.

  • Neue KI-Strategie und Geschäftseinheit: Mit Superintelligence Labs schafft Meta ein zentrales Innovationszentrum für personalisierte KI. Ziel ist es, alle Modelle, Daten und Forschungsstränge in einer einheitlichen Struktur zu bündeln und fokussiert weiterzuentwickeln.

  • Rekordinvestitionen in Rechenzentren: Meta plant für 2025 Kapitalausgaben zwischen 66 und 72 Milliarden USD, mit Schwerpunkt auf Multi-Gigawatt-Rechenzentren wie Prometheus (Ohio) und Hyperion (Louisiana). Auch für 2026 sind erhebliche Ausweitungen angekündigt.

  • Neue Hardware und Talentstrategie: Smartbrillen wie die Ray-Ban Meta mit integrierter Llama-KI werden zum Interface für die persönliche Superintelligenz. Meta investiert zusätzlich Milliarden in die Rekrutierung von Spitzenkräften aus führenden KI-Labs wie OpenAI, Google DeepMind und Anthropic.

Warum das wichtig ist: Metas Milliardeninvestition läutet eine neue Stufe der KI-Entwicklung ein, bei der personalisierte, selbstlernende Systeme direkt in den Alltag der Nutzer integriert werden. Anders als bisherige KI-Ansätze, die auf universellen Modellen basieren, setzt Meta gezielt auf individuell trainierte Systeme, kombiniert mit eigener Infrastruktur und Hardware. Damit entsteht ein geschlossenes Ökosystem, das sich kaum durch Wettbewerber reproduzieren lässt. Für andere Unternehmen bedeutet dies eine strategische Herausforderung, da der Zugang zu Schlüsseltechnologien und Talenten knapper wird. Gleichzeitig steht die Politik vor der Aufgabe, Rahmenbedingungen zu schaffen, die verhindern, dass KI-Macht künftig in der Hand weniger globaler Plattformanbieter konzentriert wird.

Wissenschaft

Stanford baut KI-Labor mit virtuellen Wissenschaftlern

Quelle: Stanford

Zusammenfassung: Stanford Medicine hat ein vollständig autonomes virtuelles Forschungslabor vorgestellt, in dem künstliche Intelligenzen als interdisziplinäre Wissenschaftler agieren. Die Agenten, darunter ein KI-basierter Principal Investigator, entwickeln selbstständig Hypothesen, koordinieren Forschungsteams und greifen auf Tools wie AlphaFold zurück. In einem ersten Testfall gelang es dem KI-Labor, innerhalb weniger Tage Nanobodies zur Bekämpfung neuer SARS-CoV-2-Varianten zu entwerfen. Zwei dieser Designs erwiesen sich im realen Labor als stabil und effektiv. Der menschliche Eingriff blieb dabei minimal. Die Arbeit wurde in Nature veröffentlicht und könnte ein neues Paradigma in der biomedizinischen Forschung einleiten.

  • KI-gesteuerte Teamstruktur: Das virtuelle Labor operiert mit einem eigenständigen Principal Investigator-Agenten, der je nach Fragestellung spezialisierte Sub-Agenten wie Immunologen, Bioinformatiker oder Machine-Learning-Experten einsetzt. Ergänzt wird das Team durch einen „Scientific Critic“, der gezielt Schwachstellen identifiziert und methodische Kritik einbringt.

  • Werkzeugintegration und Eigeninitiative: Die KI-Agenten nutzen eigenständig Werkzeuge wie AlphaFold und generieren zusätzlich Wunschlisten für benötigte Software oder Datenquellen. Diese werden durch das Forschungsteam eingebunden, wodurch die Agenten ihre kreative Problemlösung weiterentwickeln können.

  • Experimentelle Erfolge mit Nanobodies: Von der KI entworfene Nanobodies gegen SARS-CoV-2 zeigten in realen Labortests hohe Stabilität, zielgerichtete Bindung und keine Off-Target-Effekte. Besonders bemerkenswert: Sie wirkten nicht nur gegen aktuelle Virusvarianten, sondern auch gegen den ursprünglichen Wuhan-Stamm – ein Hinweis auf breitere Wirksamkeit.

Warum das wichtig ist: Mit dem virtuellen KI-Labor etabliert Stanford Medicine eine neue Dimension wissenschaftlicher Forschung. Die selbstständige Entwicklung von Hypothesen und Ergebnissen durch KI beschleunigt Innovationszyklen deutlich und verändert die Spielregeln in der Life-Science-Forschung grundlegend. Für Unternehmen und Forschungsinstitute ergibt sich daraus die Möglichkeit, Ressourcen gezielt einzusetzen und Personalengpässe auszugleichen. Gleichzeitig stellt diese Entwicklung traditionelle Modelle wissenschaftlicher Kollaboration infrage, da autonome KI-Teams zunehmend zu eigenständigen Innovationszentren werden könnten. Entscheider stehen nun vor der Herausforderung, regulatorische und ethische Leitlinien für diese neue Forschungsrealität zu definieren, um die Chancen einer KI-getriebenen Wissenschaft zu nutzen, ohne dabei menschliche Expertise zu marginalisieren.

Angewandte Wissenschaften

Google integriert AlphaEarth Foundations in globale Umweltüberwachung

Quelle: DeepMind

Zusammenfassung: Google hat mit AlphaEarth Foundations ein KI-Modell vorgestellt, das Erdbeobachtungsdaten in bisher unerreichter Detailtiefe analysiert. Das System kombiniert Daten aus Satellitenbildern, Radarmessungen und Klimasimulationen und wandelt sie in ein einheitliches, speicheroptimiertes Format um. Dies ermöglicht Forschern die Erstellung präziser Karten in Echtzeit und verbessert Analysen zu Umweltveränderungen wie Abholzung, Urbanisierung und Wasserressourcen. Der Datensatz ist über Google Earth Engine zugänglich und wird bereits von über 50 Institutionen weltweit genutzt, darunter die UN, Harvard und MapBiomas. Ziel ist eine effizientere, datengetriebene Umweltpolitik und Ressourcensteuerung.

  • Wichtige Neuerung im Datenhandling: AlphaEarth Foundations reduziert die Größe geodatenbasierter Zusammenfassungen um den Faktor 16 im Vergleich zu bisherigen KI-Ansätzen. Dadurch wird nicht nur der Speicherbedarf massiv gesenkt, sondern auch die Möglichkeit geschaffen, großflächige Analysen in bisher unmöglicher Geschwindigkeit und Dichte durchzuführen.

  • Präzise Kartierung trotz Datenlücken: Das Modell funktioniert auch in Regionen mit unregelmäßiger oder stark bewölkter Satellitenabdeckung – etwa in den Tropen oder Polarregionen. Durch die Integration heterogener Datenquellen liefert es konsistente, hochauflösende Karten mit einem Fehlerniveau, das um durchschnittlich 24 % unter dem anderer Systeme liegt.

  • Einsatz in globalen Umweltinitiativen: Organisationen wie das Global Ecosystems Atlas oder MapBiomas nutzen AlphaEarth Foundations, um unkartierte Ökosysteme zu klassifizieren und Biodiversitätsverlust gezielt zu bekämpfen. In Brasilien trägt es zur Analyse von Umweltveränderungen im Amazonasgebiet bei und unterstützt so Strategien für nachhaltige Entwicklung.

Warum das wichtig ist: Mit AlphaEarth Foundations etabliert Google eine entscheidende technologische Grundlage für eine global vernetzte, datengetriebene Umweltpolitik. Das KI-System ermöglicht erstmals eine nahezu lückenlose, hochpräzise Erfassung ökologischer Veränderungen – und dies unabhängig von regionalen Herausforderungen wie unzureichender Satellitenabdeckung oder Wetterbedingungen. Für politische Entscheider bedeutet dies, dass Umwelt- und Ressourcenpolitik künftig auf erheblich belastbareren Daten basieren könnte, was die Wirksamkeit und Legitimation entsprechender Maßnahmen erhöht. Zugleich eröffnet sich für Unternehmen und Institutionen die Möglichkeit, frühzeitig Risiken zu identifizieren und ihre Strategien in Echtzeit an veränderte Umweltbedingungen anzupassen. Dadurch könnte sich AlphaEarth als kritisches Tool etablieren, das den globalen Wettbewerb um nachhaltige Entwicklung maßgeblich beeinflusst.

Deep Dive

Wie Europas KI Regulierung den globalen Technologiewettbewerb beeinflusst und Unternehmen neue Rahmenbedingungen bietet

Quelle: Death to Stock

Europa verfolgt mit der Regulierung Künstlicher Intelligenz seit August 2023 einen international einzigartigen Weg. Der EU AI Act schreibt Unternehmen künftig Transparenzpflichten vor und definiert für KI Systeme unterschiedliche Risikostufen mit entsprechenden Anforderungen. Währenddessen investieren China und die USA weiterhin stark in KI Technologien und entwickeln in hoher Geschwindigkeit zahlreiche neue KI-Modelle. Diese Ausgangssituation wirft für europäische Unternehmen die Frage auf, welche konkreten Auswirkungen die Regulierung auf ihre Wettbewerbsfähigkeit und auf die Entwicklung und Nutzung von KI Lösungen in der Praxis hat.

Grundprinzipien und Eckpunkte der europäischen KI Regulierung

Mit dem EU AI Act will Europa klare regulatorische Leitlinien im Bereich KI setzen. Das Regelwerk kategorisiert KI Anwendungen nach ihrem Risikopotenzial in vier Stufen: Verbotene KI Anwendungen, Hochrisiko Anwendungen, KI mit begrenztem Risiko und minimal riskante KI. Unternehmen sind insbesondere bei Hochrisiko Anwendungen verpflichtet, transparent offenzulegen, auf welcher Datenbasis ihre Systeme arbeiten und wie sie Risiken managen. Für Verstöße sieht der AI Act empfindliche Strafen vor, die bis zu 7 Prozent des globalen Jahresumsatzes eines Unternehmens umfassen können. Ziel des AI Acts ist es, Risiken klar zu benennen und Anwendern Sicherheit zu geben.

Der globale Kontext bei Investitionen und Innovationen im Bereich KI

Im internationalen Vergleich weist Europa derzeit bei KI-Investitionen eine erhebliche Lücke auf. So lag das Wagniskapital, das europäische KI Startups 2024 erhielten, mit etwa 12,5 Mrd. US Dollar deutlich unter den 81,4 Mrd. US Dollar in den USA. Auch bei der Zahl neuer Modelle dominiert Nordamerika. Von 40 großen KI-Modellen, die 2024 international eingeführt wurden, stammen die meisten aus den USA und nur drei aus Europa. China wiederum führt bei der Zahl der jährlichen Publikationen. Europa hält hier mit über 100.000 Veröffentlichungen den zweiten Platz vor den USA, liegt bei der praktischen Umsetzung in marktfähige Produkte allerdings zurück.

Konkrete Anwendungsbeispiele erfolgreicher europäischer KI Unternehmen

Trotz der vergleichsweise geringeren Investitionssummen gibt es bereits erfolgreiche europäische KI-Unternehmen. Das deutsche Startup DeepL aus Köln entwickelte eine KI basierte Übersetzungssoftware, die weltweit über 100.000 Firmen nutzen. In Frankreich arbeitet Mistral AI erfolgreich an eigenen großen Sprachmodellen, sogenannte Large Language Models (LLM), und erzielte 2024 bereits eine Bewertung von 6 Mrd. Euro. Die deutsche Firma Aleph Alpha fokussiert sich auf spezialisierte Unternehmenslösungen im Bereich KI und gehört ebenfalls zu den europäischen KI Unternehmen, die internationale Sichtbarkeit erlangen konnten.

Europäische Initiativen für Investitionen Infrastruktur und Talente

Die Europäische Union und einzelne Mitgliedsstaaten verfolgen verschiedene Initiativen zur Förderung von KI Innovationen. Mit Projekten wie Gaia X plant die EU beispielsweise eine europäische Cloud Infrastruktur, während die Initiative InvestAI bis zu 200 Mrd. Euro an Investitionen mobilisieren möchte. Zusätzlich werden sogenannte KI-Gigafabriken angestrebt, um leistungsfähige KI Modelle in Europa zu trainieren und die technologische Unabhängigkeit auszubauen. Im Bereich Talentförderung zielen Netzwerke wie ELLIS (European Lab for Learning & Intelligent Systems) und CLAIRE (Confederation of Laboratories for Artificial Intelligence Research in Europe) darauf ab, KI Fachkräfte in Europa auszubilden, langfristig zu halten und europäische Spitzenforschung zu fördern.

Ausblick auf die nächsten Herausforderungen für Europas KI Standort

Die kommenden Jahre stellen für den KI Standort Europa entscheidende Weichen. Neben regulatorischen Rahmenbedingungen wird der Aufbau technologischer Souveränität über Infrastruktur und leistungsfähige Rechenkapazitäten maßgeblich sein. Ein weiterer Faktor ist die erfolgreiche Mobilisierung privater und öffentlicher Investitionen, um europäischen Unternehmen und Startups den Ausbau innovativer Lösungen zu ermöglichen. Zudem hängt Europas langfristige Strategie stark von der Fähigkeit ab, hochqualifizierte Fachkräfte auszubilden und zu binden sowie eine koordinierte Zusammenarbeit innerhalb des EU Binnenmarktes sicherzustellen. Die Entwicklung und Umsetzung gemeinsamer Maßnahmen und Projekte in den kommenden Jahren werden darüber entscheiden, wie sich Europas Rolle im globalen Wettbewerb rund um Künstliche Intelligenz entwickelt.

In aller Kürze

Quelle: Shutterstock

  1. Tesla: Tesla hat einen Vertrag im Wert von 16,5 Milliarden US-Dollar mit Samsung unterzeichnet, um Chips der nächsten Generation (AI6) zu produzieren. Diese Chips sollen von Samsungs neuem Texas-Werk hergestellt werden und sind für Teslas Full Self-Driving-System, humanoide Roboter und KI-Training in Rechenzentren vorgesehen. Elon Musk betonte die strategische Bedeutung des Deals und die enge Zusammenarbeit zur Steigerung der Produktionseffizienz. Tesla plant, mehr als 16,5 Milliarden US-Dollar in Samsung-Chips zu investieren.

  2. OpenAI: Der ChatGPT-Entwickler OpenAI hat laut The Information seine Jahresumsatzrate in den ersten sieben Monaten 2025 auf 12 Milliarden US-Dollar verdoppelt, was auf monatliche Einnahmen von rund 1 Milliarde schließen lässt. Die Nutzerzahlen liegen bei etwa 700 Millionen wöchentlich aktiven Anwendern. Parallel dazu stieg die geplante Kapitalverbrennung auf 8 Milliarden US-Dollar im Jahr 2025. Zudem steht der Abschluss der zweiten Finanzierungsrunde über 30 Milliarden US-Dollar bevor – allein SoftBank hält Anteile im Wert von 32 Milliarden.

  3. Anthropic: Das Unternehmen verhandelt laut CNBC mit Iconiq Capital über eine neue Finanzierungsrunde von bis zu 5 Milliarden US-Dollar bei einer Bewertung von 170 Milliarden US-Dollar. Erst im März lag die Bewertung bei 61,5 Milliarden. Um wettbewerbsfähig zu bleiben, öffnet sich Anthropic nun auch für Investoren aus dem Nahen Osten – eine Kehrtwende zur bisherigen Linie von CEO Dario Amodei. Auch Konkurrent OpenAI sucht dort Kapital und plant ein Rechenzentrum mit G42 in Abu Dhabi.

  4. OneChronos: Das US-Startup OneChronos kooperiert mit Auctionomics, dem von Nobelpreisträger Paul Milgrom mitbegründeten Marktdesign-Unternehmen, um die weltweit erste Börse für GPU-Rechenressourcen zu schaffen. Der neue Handelsplatz soll es ermöglichen, GPU-Kapazitäten ähnlich wie Rohstoff-Futures zu kaufen und zu verkaufen, um Preisschwankungen abzusichern und Engpässe in der KI-Entwicklung zu reduzieren. Ziel ist ein transparenter, liquider Markt, der insbesondere Startups und Rechenzentrumsbetreibern Planbarkeit und Finanzierungsspielräume verschafft.

  5. Google: Google hat „Deep Think“ im Gemini-App-Update für AI Ultra-Abonnenten eingeführt. Das neue Modell basiert auf Gemini 2.5 und nutzt paralleles Denken sowie verlängerte Inferenzzeit zur Lösung komplexer Aufgaben in Mathematik, Wissenschaft und Programmierung. Es erreichte intern Bronze-Niveau beim IMO-Benchmark und wurde einer kleinen Gruppe von Mathematikern in Vollversion zur Verfügung gestellt. Deep Think soll kreative Problemlösungen fördern und wird schrittweise auch über die Gemini API für Entwickler erprobt.

Videos & Artikel

  1. China (AI-Strategie in Xinjiang): In der abgelegenen Region Xinjiang baut China dutzende neue Datenzentren, die laut Regierungsdokumenten mit über 115.000 verbotenen Nvidia-Hochleistungschips (H100, H200) ausgestattet werden sollen. Diese Chips unterliegen strengen US-Exportkontrollen, doch unklar bleibt, wie China an sie gelangen will. Vor Ort beobachtete Reporter stießen auf Überwachung und widerrufene Besuchserlaubnisse. Trotz massiver US-Sanktionen treibt China seinen AI-Ausbau mit Milliardeninvestitionen weiter voran – offenbar auch mit nicht genehmigter westlicher Technologie.

  2. Apple: Das Unternehmen arbeitet verstärkt an einer eigenen Suchfunktion, da immer mehr Nutzer ChatGPT statt Google für alltägliche Anfragen nutzen. Apples interne Abteilung "Answers, Knowledge and Information" unter der Leitung von Robbie Walker, ehemals verantwortlich für Siri, entwickelt eine Suche, die auf offene Webinhalte zugreift. Gleichzeitig gerät Apple durch von Ex-Präsident Trump angekündigte Zollerhöhungen auf indische Produkte unter Druck und erwartet dadurch kurzfristig Belastungen von etwa 1,1 Milliarden US-Dollar, sofern keine Ausnahmeregelungen greifen.

  3. Anthropic: Anthropic hat OpenAI im Enterprise-Markt überholt und ist mit 32 % Nutzungsanteil neuer Spitzenreiter bei LLMs. Getrieben wurde der Aufstieg durch Claude Sonnet 3.5 bis 4 und den Fokus auf Codegenerierung, Agentenfähigkeit und Reinforcement Learning mit Verifikatoren. Während sich die Ausgaben von Training zu Inferenz verlagern, bleiben Unternehmen bei leistungsstärkeren, geschlossenen Modellen – trotz sinkender Preise. Open-Source-Modelle stagnieren, da sie in Performance zurückliegen und komplex in der Implementierung sind. Der Markt konsolidiert sich um wenige hochperformante Anbieter.

  4. OpenAI: Das KI-Unternehmen hat 8,3 Milliarden US-Dollar frisches Kapital im Rahmen einer 40-Milliarden-Dollar-Finanzierungsrunde eingesammelt. Angeführt wurde die Runde von Dragoneer mit 2,8 Milliarden US-Dollar, beteiligt waren u.a. Blackstone, Sequoia und Andreessen Horowitz. Die jährlichen wiederkehrenden Umsätze stiegen auf 13 Milliarden US-Dollar und könnten bis Jahresende 20 Milliarden erreichen. Die Zahl der zahlenden ChatGPT-Business-Nutzer wuchs auf fünf Millionen. OpenAI baut zudem gemeinsam mit G42 ein Rechenzentrum in Abu Dhabi.

  5. Anthropic: Das KI-Unternehmen Anthropic stellt mit „Persona Vectors“ ein neues Verfahren zur gezielten Überwachung und Steuerung von Persönlichkeitsmerkmalen großer Sprachmodelle vor. Dabei werden neuronale Aktivitätsmuster identifiziert, die mit bestimmten Eigenschaften wie Bosheit, Schmeichelei oder Halluzinationen korrelieren. Diese Vektoren erlauben es, problematische Tendenzen frühzeitig zu erkennen, sie durch gezieltes „Steering“ abzumildern oder gar präventiv während des Trainings zu verhindern – ohne dabei die Modellleistung signifikant zu beeinträchtigen.

Impuls

Entscheidungen im Zeitalter der Vorhersage

Quelle: Avi Goldfarb

Inhalt: Das Buch analysiert die entscheidende Rolle von Künstlicher Intelligenz als Vorhersagetechnologie, die Geschäftsmodelle und ganze Branchen transformieren kann. Besonders relevant ist die These eines Zwischenstadiums: einem Moment strategischer Unsicherheit, in dem die technologische Leistungsfähigkeit bereits sichtbar ist, die strukturelle Integration jedoch noch aussteht.

Kontext: Die Autoren gehören zu den führenden Wirtschaftswissenschaftlern im Bereich der Technologieökonomie und haben mit ihrem ersten Buch „Prediction Machines“ internationale Beachtung gefunden. Ihr neues Werk liefert Entscheidungsträgern in Wirtschaft und Politik eine fundierte Grundlage, um Chancen und Risiken der bevorstehenden KI-Disruption strategisch einzuordnen.

Umfrage

Ihre Meinung interessiert uns

Ergebnisse der vorherigen Umfrage

Halten Sie politische Entscheidungsträger für ausreichend vorbereitet auf die mögliche Entwicklung einer allgemeinen Künstlichen Intelligenz (AGI) in den kommenden Jahren?

⬜️⬜️⬜️⬜️⬜️⬜️ 🏛️ Ja, gut vorbereitet
🟨🟨⬜️⬜️⬜️⬜️ 🛠️ Teilweise vorbereitet
🟨🟨🟨🟨⬜️⬜️ 🕰️ Eher unvorbereitet
🟩🟩🟩🟩🟩🟩 🧱 Nein, völlig unvorbereitet

Meinung

Wird der KI-Datenboom zur nächsten Finanzkrise führen

Quelle: Amazon

Die Ausgaben für KI-Infrastruktur in den USA sind auf einem Rekordniveau. Milliardenbeträge fließen in den Bau neuer Datenzentren, um die Nachfrage nach Rechenleistung für KI-Anwendungen zu bedienen. Große Technologieunternehmen investieren massiv – Google, Microsoft, Meta und Amazon verausgaben mittlerweile über ein Drittel ihres Umsatzes für solche Investitionen. Noah Smith verweist zu Recht darauf, dass dieses Ausgabenniveau bereits vergleichbar ist mit der Dotcom- und Telekom-Blase der späten 1990er-Jahre, welche bekanntlich in einem Crash endete.

Smith argumentiert überzeugend, dass eine solche Entwicklung zunächst nicht grundsätzlich negativ sein muss. Historische Beispiele zeigen, dass Infrastrukturblasen – etwa bei Eisenbahnen und Telekommunikation – langfristig durchaus gesellschaftlichen Nutzen stiften, da sie überschüssige Kapazitäten schaffen, die spätere Innovationen erst ermöglichen. Jedoch gibt es dabei eine entscheidende Frage: Wie wird diese Infrastruktur finanziert? Werden Schulden angehäuft und, falls ja, von wem?

Aktuelle Analysen legen offen, dass ein beträchtlicher Anteil dieser Finanzierungen durch Kredite erfolgt, und zwar zunehmend durch sogenannte „private credit funds“. Diese privaten Kreditfonds nehmen selbst Geld auf – oft bei systemrelevanten Banken und Versicherungen – und verleihen es dann an Unternehmen im KI- und Datenzentrumsbereich. Genau hier liegt das Risiko, auf das Smith zu Recht hinweist: Wenn die hoch gesteckten Erwartungen an KI nicht schnell genug erfüllt werden und Umsätze hinterherhinken, könnten viele Unternehmen nicht in der Lage sein, ihre Kredite zurückzuzahlen.

Eine solche Situation wäre bedrohlich, da ein Zusammenbruch der privaten Kreditfonds unmittelbare Folgen für Banken und Versicherer hätte, die bereits jetzt eng mit diesen Fonds verbunden sind. Smith zitiert in diesem Zusammenhang Studien der US-Notenbank, welche warnen, dass die aktuelle Vernetzung zwischen privater Kreditwirtschaft und traditionellen Finanzinstituten gefährliche Parallelen zur Situation vor der Finanzkrise 2008 aufweist. Sollte sich das Geschäft mit KI und Datenzentren nicht wie erhofft entwickeln, könnte dies somit durchaus ein kritisches Szenario auslösen, das weit über die Technologiebranche hinausgeht.

Smith fordert deshalb richtigerweise dazu auf, sich frühzeitig mit diesen Risiken auseinanderzusetzen. Er mahnt, dass ein zu spätes Eingreifen – wie im Jahr 2008 – verheerende Konsequenzen hätte. Wir sollten daher dringend Transparenz über diese Kreditverflechtungen herstellen und regulatorische Vorkehrungen treffen. Nur wenn wir die potenziellen systemischen Risiken frühzeitig adressieren, lässt sich verhindern, dass aus der aktuell begeisterten Investitionsstimmung ein dramatischer Kollaps erwächst.

Sie sind einer anderen Meinung? Oder Sie wollen einen Gastbeitrag veröffentlichen? Schreiben Sie uns gerne eine E-Mail indem Sie einfach auf diese Mail antworten.

Praxisbeispiel

Context Engineering bei KI-Agenten

Quelle: Lance´s Blog

Problemstellung: KI-Agenten, die auf Sprachmodellen basieren, müssen oft langwierige Aufgaben ausführen, die viele Zwischenschritte und Rückmeldungen beinhalten. Dabei sammeln sich schnell große Mengen an Informationen, die in das begrenzte Kontextfenster des Modells passen müssen. Ohne sorgfältige Steuerung führt dies zu Problemen wie Kontextvergiftung, Verwirrung oder Widersprüchen – und letztlich zu fehlerhaften Ergebnissen.

Lösung: Context Engineering bezeichnet die gezielte Steuerung dessen, was zu welchem Zeitpunkt ins Kontextfenster eines LLMs geladen wird. Vier Strategien haben sich dabei etabliert: Write (Informationen außerhalb des Fensters speichern), Select (gezielt relevanten Kontext einfügen), Compress (überflüssige Tokens zusammenfassen oder löschen) und Isolate (Kontext sinnvoll aufteilen, z. B. durch Sub-Agenten). Ziel ist es, das Gedächtnis des Modells zu entlasten und dennoch alle nötigen Informationen zur Verfügung zu stellen.

Anwendungsbeispiele:

  • Write: Agents speichern Notizen in Scratchpads oder Langzeit-Memories, ähnlich wie Menschen bei komplexen Aufgaben. Tools wie ChatGPT oder Windsurf nutzen dies bereits.

  • Select: Systeme wählen relevante Memories oder Toolbeschreibungen mithilfe semantischer Suche oder eingebetteter Regeln aus. Claude und Cursor verwenden dafür feste Regeldateien oder Embedding-Indizes.

  • Compress: Claude Code etwa fasst automatisch Konversationen zusammen, wenn das Kontextlimit erreicht wird. Auch gezielte Trimmung alter Kontexte gehört dazu.

  • Isolate: In Multi-Agent-Architekturen arbeiten spezialisierte Sub-Agenten mit eigenem Kontextfenster an Teilaufgaben. Hugging Face trennt darüber hinaus Kontext durch Sandbox-Ausführung von Agentencode.

Erklärungsansatz: Context Engineering greift tief in die Architektur von Agenten ein und erfordert technisches Verständnis über Tools, Speicherformen und Retrieval-Methoden. Es ähnelt einem Betriebssystem, das entscheidet, welche Informationen „im Arbeitsspeicher“ landen – nur eben für KI-gestützte Entscheidungsprozesse. Die Kunst liegt dabei darin, relevante Informationen verfügbar zu halten, ohne das System mit irrelevanten oder widersprüchlichen Inhalten zu überlasten.

Fazit: Context Engineering ist nicht nur ein technisches Detail, sondern ein zentrales Element moderner KI-Agenten. Wer produktive, verlässliche Agentensysteme entwickeln will, kommt an dieser Disziplin nicht vorbei.

YouTube

Warum KI noch keine menschlichen Mitarbeiter ersetzt

Trotz des Hypes rund um große Sprachmodelle (LLMs) wie GPT-4 oder Claude Opus bleibt eine zentrale Schwäche offensichtlich: Diese Modelle lernen nicht kontinuierlich dazu. In einem aktuellen Blogpost reflektiert Dwarkesh Patel über seine Erfahrungen mit KI-Werkzeugen im Arbeitsalltag und warum diese ihn zu längeren Zeitplänen für künstliche allgemeine Intelligenz (AGI) geführt haben. Was auf den ersten Blick wie eine technische Limitierung wirkt, entpuppt sich als fundamentaler Engpass in der wirtschaftlichen Nutzbarkeit heutiger KI.

Patel beschreibt eindrucksvoll, wie schwer es ist, KI-Modelle für einfache, aber praxisrelevante Aufgaben wie Textüberarbeitung oder Clipauswahl aus Transkripten dauerhaft zu optimieren. LLMs liefern zwar oft beeindruckende Einzelleistungen, doch sie behalten weder Kontext noch lernen sie effektiv aus Fehlern. Der Vergleich mit dem Erlernen eines Musikinstruments macht die Problematik deutlich: Ein Mensch verbessert sich durch kontinuierliche Rückmeldung und Übung – ein KI-Modell hingegen startet bei jeder Aufgabe wieder bei Null.

Diese fehlende Fähigkeit zum Erfahrungslernen verhindert, dass KI-Modelle echte menschliche Mitarbeiter ersetzen können – auch wenn sie viele Einzeltätigkeiten technisch beherrschen. Patel rechnet erst ab 2032 mit durchschlagenden Fortschritten beim sogenannten „on-the-job learning“, die nötig wären, um KI tatsächlich als lernfähige Arbeitskraft einzusetzen. Bis dahin bleiben viele Automatisierungsversprechen unrealisiert.

Dennoch ist Patel langfristig optimistisch. Sobald die Hürde des kontinuierlichen Lernens überwunden ist, könnten sich die ökonomischen Auswirkungen von KI schlagartig entfalten – durch Systeme, die Wissen nicht nur anwenden, sondern dauerhaft erweitern. Wer die gesamte Argumentation nachvollziehen möchte, sollte sich sein vollständiges Video ansehen:

Werben im KI-Briefing

Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?

Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.

Und nächste Woche…

... beschäftigen wir uns mit vielversprechenden Technologien für Europa, die jenseits des reinen Skalierungsparadigmas große Potenziale bieten. Wir betrachten innovative Ansätze wie modulare KI-Architekturen, adaptive semantische Vermittlungsstrukturen und dezentrale Vertrauenssysteme, die speziell auf europäische Bedürfnisse zugeschnitten sind. Unser Fokus liegt auf der Frage, wie diese Technologien konkret dazu beitragen können, Europas Wettbewerbsfähigkeit nachhaltig zu stärken und gleichzeitig gesellschaftliche Werte und Transparenz zu sichern.

Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.

Wie hat Ihnen das heutige KI-Briefing gefallen?

Ihr Feedback hilft uns, bessere Inhalte für Sie zu erstellen!

Login or Subscribe to participate

Fragen, Feedback & Anregungen

Schreiben Sie uns auf WhatsApp! Wir nehmen dort Feedback und Fragen entgegen - klicken Sie auf das Icon und Sie sind direkt mit uns im Gespräch.

Reply

or to participate

Keep Reading

No posts found