Guten Morgen!
Die Dynamik im KI-Sektor bleibt auf einem Niveau, das die Grenze zwischen technologischem Fortschritt und globaler Neuausrichtung jede Woche neu zieht. Wir beobachten eine zunehmende Verzahnung von digitaler Intelligenz mit den harten Realitäten von Verteidigungspolitik und physikalischer Grundlagenforschung, was die strategische Bedeutung jeder einzelnen Meldung massiv erhöht.
Dabei festigt sich das Bild einer Ära, in der Rechenleistung und Algorithmen zur neuen Weltwährung werden. Die aktuellen Entwicklungen unterstreichen, dass der Erfolg nicht mehr nur an der reinen Modellleistung hängt, sondern an der Fähigkeit, diese Systeme in bestehende Machtstrukturen und industrielle Prozesse zu integrieren, während die ethischen Leitplanken der ersten Stunde unter dem Druck nationaler Interessen nachgeben.
Damit das KI-Briefing für Sie maximal nützlich bleibt, freuen wir uns über Ihr Feedback. Teilen Sie uns gerne mit, welche Impulse für Sie am wertvollsten sind – und helfen Sie dabei, unser Briefing in Ihrem Netzwerk bekannt zu machen. Gemeinsam können wir eine Community aufbauen, die voneinander lernt und sich gegenseitig stärkt. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.
Was Sie in diesem Briefing erwartet
News: Pentagon nutzte Claude bei Maduro-Einsatz, Pentagon erwägt Bruch mit Anthropic, GPT-5.2 liefert neuen Durchbruch in Teilchenphysik, Alibaba Qwen2 dominiert Open Source KI weltweit, OpenAI macht KI-Agenten zu digitalen Dauerläufern, Chipindustrie steuert auf historische eine Billion Umsatzmarke zu & Google Gemini 3 Deep Think treibt KI-Forschung und Technik voran
Deep Dive: Talent-Pipeline 2.0: Mit KI-Kompetenz gegen den Fachkräftemangel
In aller Kürze: Amazon plant Marktplatz für lizenzierte Verlagsinhalte als rechtssichere Trainingsdaten für KI Unternehmen, MiniMax stellt M2 5 als schnelles und kosteneffizientes Frontier Modell für produktive KI Agenten vor, LatamGPT entwickelt regionales Sprachmodell für kulturell präzisere KI in Lateinamerika, Disney wirft Bytedance mit Seedance 2 0 massenhafte Urheberrechtsverletzungen vor & OpenAI führt Lockdown Mode und Elevated Risk Kennzeichnungen zum Schutz vor Prompt Injection ein
Videos & Artikel: Nick Bostrom plädiert für zügige Entwicklung von Superintelligenz trotz kalkulierbarer Risiken, Google DeepMind präsentiert mit Aletheia autonomen KI Agenten für mathematische Forschung, KI Industrie erlebt seit 2025 exponentielle Fortschritte mit tiefgreifenden Folgen für Arbeitswelt und Wirtschaft, Google Research zeigt wie Gemini als kooperativer Forschungspartner wissenschaftliche Durchbrüche beschleunigt & KI verändert Medizin grundlegend und definiert Rolle von Ärztinnen und Ärzten neu
Impuls: Warum Urteile so stark schwanken
Umfrage: Wenn KI-Initiativen den "Proof-of-Concept"-Status verlassen: Welche operative „Black Box“ bereitet Ihnen bei der Skalierung aktuell die größten Kopfschmerzen?
Monitoring Europe: Europas KI Skalierung durch grüne Rechenzentren stärken
Praxisbeispiel: KI-gestützte Workflow-Automatisierung mit Google Workspace Studio
YouTube: Warum Künstliche Intelligenz viel verspricht aber noch erstaunlich oft versagt

Verteidigung & Kriegsführung
Pentagon nutzte Claude bei Maduro-Einsatz

Quelle: Shutterstock
Zusammenfassung: Berichten zufolge wurde das KI-Modell Claude von Anthropic im Rahmen der US-Militäroperation zur Festnahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt. Der Einsatz erfolgte über eine Partnerschaft mit Palantir, dessen Systeme beim Pentagon verbreitet sind. Obwohl Anthropic-Richtlinien den Gebrauch von Claude für Gewalt, Waffeneinsatz oder Überwachung verbieten, bestätigt das Unternehmen keine konkreten Details. Der Vorfall hat interne und politische Spannungen über die Nutzung von KI in sicherheitsrelevanten Einsätzen und über bestehende Regierungsverträge ausgelöst.
Einsatz im Militärkontext: Claude wurde offenbar über Palantir in die Planung oder Ausführung der Operation eingebunden, was die wachsende Rolle von KI in Pentagon-Projekten unterstreicht.
Richtlinien- und Vertragsstreit: Anthropic betont, dass Nutzungsregeln Missbrauch verhindern sollen, während das Verteidigungsministerium seine vertragliche Zusammenarbeit überprüft.
Politischer und wirtschaftlicher Druck: Die Debatte um Claude reflektiert breitere Spannungen zwischen KI-Sicherheitsbedenken, Regierungsstrategie und kommerziellen Interessen der AI-Branche.
Warum das wichtig ist: Die Nutzung von Claude in einer US-Militäroperation gegen Nicolás Maduro zeigt eine deutliche Verschiebung in der Machtverteilung zwischen Tech-Konzernen und dem Staat. Dass ein System, das eigentlich strengen ethischen Regeln unterliegt, über Partner wie Palantir für die Jagd auf einen Staatschef eingesetzt wurde, beweist die faktische Machtlosigkeit firmeninterner Verbote in militärischen Einsatzszenarien. Dieser Vorfall beendet die Ära der „neutralen“ KI-Entwicklung und zwingt die Branche zu der Erkenntnis, dass hochreine Sicherheitsprinzipien kaum standhalten, wenn nationale Interessen Priorität genießen. Letztlich wird dies die Auswahl künftiger Pentagon-Partner massiv beeinflussen und Anbieter bevorzugen, die weniger restriktive Vorgaben für staatliche Zwecke machen.
Digitalisierung
TRANSFORM 2026 bringt Digitalelite nach Berlin

Quelle: transform.show
Zusammenfassung: Die TRANSFORM kehrt am 18. und 19. März 2026 in die STATION Berlin zurück und versammelt über 5.000 Vordenkerinnen und Vordenker aus der deutschen und internationalen Digitalszene. Im Mittelpunkt stehen zukunftsweisende Technologien und strategische Trends für die digitale Wettbewerbsfähigkeit und Resilienz von Unternehmen. Thematisch reicht das Programm von Künstlicher Intelligenz, Cloud-Infrastrukturen und datengetriebenen Geschäftsmodellen über Automatisierung, digitale Prozesse und Sicherheit bis hin zu neuen Ansätzen in Marketing, Vertrieb, Führung und Organisationsentwicklung. Ziel der Veranstaltung ist es, konkrete Impulse für unternehmerische Innovation zu setzen und den Dialog zwischen Wirtschaft, Politik und Forschung zu stärken.
Digitale Wettbewerbsfähigkeit im Fokus: Die TRANSFORM 2026 adressiert zentrale Herausforderungen der Digitalen Transformation, vor denen viele Unternehmen weiterhin stehen. Mit einem klaren Fokus auf KI, Cloud, Automatisierung und Sicherheit werden praxisnahe Lösungsansätze vermittelt, die Unternehmen helfen sollen, ihre digitale Resilienz zu stärken und strategisch handlungsfähig zu bleiben.
Hochkarätige Impulsgeber aus Wirtschaft und Staat: Führende Persönlichkeiten wie Berlins regierender Bürgermeister Kai Wegner, Bayer-CEO Bill Anderson, Commerzbank-CEO Bettina Orlopp, Volkswagen-Vorständin Hauke Stars sowie Vertreter aus Sicherheits- und Behördenkontexten prägen das Bühnenprogramm und geben Einblicke in digitale Transformationsstrategien großer Organisationen.
Erweitertes Konferenzformat mit Praxisbezug: Neben dem kuratierten Hauptprogramm ergänzen zwei spezialisierte Konferenzen das Angebot. Die Digital Office Conference beleuchtet die Digitalisierung interner Prozesse, während Work & Culture den Wandel von Arbeitskultur, Führung und Organisationsstrukturen in den Mittelpunkt stellt.
Warum das wichtig ist: Digitale Transformation bleibt für viele Unternehmen ein ungelöstes Strukturthema und entscheidet zunehmend über langfristige Wettbewerbsfähigkeit. Die TRANSFORM 2026 positioniert sich als strategische Plattform, auf der technologische Trends mit unternehmerischer Umsetzung verknüpft werden. Der Austausch zwischen Konzernen, Mittelstand, Politik und Forschung schafft Orientierung in einem Umfeld wachsender Komplexität. Für Entscheider bietet die Veranstaltung die Möglichkeit, technologische Entwicklungen früh einzuordnen und ihre Organisationen gezielt auf nachhaltige digitale Wertschöpfung auszurichten.
Pentagon
Pentagon erwägt Bruch mit Anthropic

Quelle: Shutterstock
Zusammenfassung: Das US-Verteidigungsministerium prüft, die Zusammenarbeit mit dem KI-Unternehmen Anthropic zu beenden, nachdem Differenzen über den militärischen Einsatz von KI-Modellen offenkundig wurden. Pentagon-Vertreter verlangen laut Medienberichten uneingeschränkte Nutzung von KI für „alle rechtmäßigen Zwecke“, einschließlich potenzieller Anwendungen in autonomen Waffensystemen und Überwachung, was Anthropic ablehnt. Die Spannungen betreffen einen Vertrag im Volumen von bis zu 200 Mio. USD und markieren einen der markantesten Konflikte zwischen militärischen Anforderungen und ethischen KI-Richtlinien bislang.
Vertragsstreit um Einsatzgrenzen: Das Pentagon fordert laut Berichten das Recht, kommerzielle KI-Systeme ohne Einschränkungen durch Firmenrichtlinien nutzen zu dürfen, während Anthropic strikte ethische Schutzmechanismen verteidigt.
Politische und institutionelle Spannungen: Die Auseinandersetzung steht im größeren Kontext des US-Militärs, das KI-Tools zunehmend integrieren will, und eines Unternehmens, das sich selbst als Vorreiter für verantwortliche KI positioniert.
Potenzielle Folgen für den Technologiesektor: Ein Abbruch der Zusammenarbeit könnte nicht nur den Vertrag gefährden, sondern auch Signalwirkung für künftige Beziehungen zwischen öffentlichen Sicherheitsbehörden und privaten KI-Entwicklern haben.
Warum das wichtig ist: Die drohende Aufkündigung der Zusammenarbeit zwischen dem Pentagon und Anthropic verdeutlicht den fundamentalen Interessenkonflikt zwischen staatlicher Souveränität und privatwirtschaftlicher Ethik-Kontrolle. Wenn das US-Verteidigungsministerium die uneingeschränkte Nutzung von KI für alle rechtmäßigen Zwecke einfordert, rüttelt dies an der Geschäftsgrundlage von Unternehmen, die sich über moralische Leitplanken definieren. Dieser Bruch könnte eine Signalwirkung für die gesamte Branche haben und den Weg für Anbieter ebnen, die bereit sind, ihre Technologie ohne ethische Vorbehalte für militärische Machtprojektionen zur Verfügung zu stellen. Letztlich steht die Frage im Raum, ob der Staat die Kontrolle über die Anwendung von Schlüsseltechnologien zurückgewinnt oder ob private Akteure dauerhaft die Grenzen des militärisch Machbaren diktieren dürfen.
Physik
GPT-5.2 liefert neuen Durchbruch in Teilchenphysik

Quelle: Shutterstock
Zusammenfassung: Ein aktueller Preprint präsentiert erstmals nichtverschwindende Baumamplituden für bestimmte Gluon-Streuungskonfigurationen, die bislang als null galten. Die einfache Formel dafür wurde zunächst von GPT-5.2 Pro vorgeschlagen, bevor ein internes OpenAI-Modell sie formal bewies und mit etablierten physikalischen Methoden verifizierte. Dieser Fund könnte neue Einsichten in die Struktur der Quantenfeldtheorie eröffnen und den Einsatz von KI bei komplexen theoretischen Problemen bekräftigen.
Neuer physikalischer Befund: Die Konfiguration „ein negativer Helizitäts-Gluon und restliche positive Helizitäten“ erzeugt im sogenannten halb-kollinearen Bereich eine nichtverschwindende Streuamplitude, entgegen jahrzehntelanger Lehrmeinung.
KI-gestützte Formelentdeckung: GPT-5.2 Pro reduzierte mühsame manuelle Ausdrücke auf kompakte Formen und erkannte daraus eine allgemeine Formel für beliebige Teilchenzahl.
Formaler Beweis und Checks: Eine interne, gestufte GPT-5.2-Version entwickelte über ~12 Std. einen vollständigen Beweis, der die Formel als Lösung der Berends-Giele-Rekursion und konsistent mit Soft-Theoremen bestätigt.
Warum das wichtig ist: Dass GPT-5.2 eine jahrzehntelange Lehrmeinung der theoretischen Physik korrigiert, verschiebt die Grenze zwischen menschlicher Intuition und maschineller Berechnung. Die Entdeckung nichtverschwindender Streuamplituden bei Gluonen zeigt, dass KI komplexe mathematische Strukturen in der Quantenfeldtheorie erkennt, die der manuellen Forschung bisher entgangen sind. Für die Wissenschaft bedeutet dies einen radikalen Effizienzsprung, da theoretische Beweisführungen nun systematisch durch automatisierte Logik statt durch mühsame menschliche Herleitung beschleunigt werden.
Open Source
Alibaba Qwen2 dominiert Open Source KI weltweit

Quelle: Shutterstock
Zusammenfassung: Chinesische KI-Modelle gewinnen im Open-Source-Ökosystem rasant an Bedeutung, während westliche Labore ihre leistungsfähigsten Systeme zunehmend hinter APIs abschirmen. Eine Sicherheitsanalyse von SentinelOne und Censys, die 175.000 öffentlich erreichbare KI-Hosts in 130 Ländern untersuchte, zeigt: Alibabas Qwen2 ist global das zweitmeistgenutzte Open-Weight-Modell nach Meta Llama. In 52 Prozent aller Multi-Modell-Deployments läuft Qwen2 gemeinsam mit Llama. Westliche Anbieter wie OpenAI, Anthropic und Google veröffentlichen dagegen immer seltener frei nutzbare Gewichte. Chinesische Modelle sind explizit für lokale Installation, Quantisierung und handelsübliche Hardware optimiert – ein entscheidender Faktor für ihre weltweite Verbreitung.
Marktverschiebung: Qwen2 belegt stabil Rang zwei über alle Messmethoden hinweg und zeigt keinerlei Rangvolatilität. In 40.694 Multi-Modell-Systemen läuft es parallel zu Llama. Diese Ko-Dominanz deutet auf eine faktische Duopol-Struktur im offenen LLM-Markt hin, mit wachsendem chinesischem Einfluss.
Sicherheitsrealität: Fast die Hälfte der erfassten Hosts bietet Tool-Calling-Funktionen, kann also Code ausführen und externe Systeme ansteuern. 26 Prozent nutzen fortgeschrittene Reasoning-Modelle. Viele Systeme sind nicht authentifiziert, teils ohne klare Betreiberzuordnung, was Missbrauch erheblich erleichtert.
Governance-Umkehr: Während Plattformmodelle zentral überwacht werden können, verteilen sich offene Modelle unkontrolliert über tausende Netze weltweit. Abhängigkeiten konzentrieren sich upstream bei wenigen Modellanbietern, während operative Kontrolle und Haftung downstream fragmentiert sind.
Warum das wichtig ist: Die globale Dominanz von Alibabas Qwen2 zeigt ein Ende der westlichen Alleinstellung im Open-Source-Sektor. Da US-Labs ihre Modelle zunehmend hinter Bezahlschranken abschotten, füllen chinesische Anbieter die Lücke und schaffen eine faktische Duopol-Struktur mit Metas Llama-Modell. Die weite Verbreitung ungeschützter Instanzen verschärft zudem das Sicherheitsrisiko: Während die technologische Kontrolle bei wenigen Modellanbietern verbleibt, verteilt sich die operative Haftung unkontrolliert auf tausende private Netzwerke weltweit.
Technologie
OpenAI macht KI-Agenten zu digitalen Dauerläufern

Quelle: OpenAI
Zusammenfassung: OpenAI erweitert seine Responses API um drei zentrale Funktionen, die KI-Agenten deutlich leistungsfähiger machen sollen: Server-side Compaction, gehostete Shell-Container und Unterstützung des offenen Skills-Standards. Ziel ist es, das bisherige Problem der „Kontext-Amnesie“ bei langen Agentenprozessen zu lösen. Statt frühere Interaktionen zu löschen, verdichtet das System Kontexte serverseitig und ermöglicht Sitzungen mit Millionen von Tokens. Gleichzeitig erhalten Agenten eigene Debian-Container mit Terminal, persistentem Speicher und Netzwerkzugang. OpenAI positioniert sich damit nicht mehr nur als Modellanbieter, sondern als integrierte Infrastrukturplattform für langfristig laufende, produktive KI-Workflows.
Die Technik hinter dauerhaften Agenten: Anstatt Gesprächsverläufe bei Erreichen der Token-Grenze abzuschneiden, fasst das System frühere Aktionen komprimiert zusammen und erhält entscheidungsrelevante Informationen. Erste Praxistests zeigen stabile Langzeitsitzungen mit Millionen Tokens und zahlreichen Tool-Aufrufen ohne Qualitätsverlust.
Managed Infrastruktur aus einer Hand: Entwickler können automatisch bereitgestellte Debian-12-Umgebungen mit vorinstallierten Laufzeiten wie Python, Node, Java oder Go nutzen. Persistenter Speicher und Internetzugang erlauben komplexe Datenverarbeitung, ohne eigene Sandbox- oder ETL-Infrastruktur betreiben zu müssen.
Interoperable Agent-Fähigkeiten: OpenAI implementiert den SKILL.md-Standard, der auch von Anthropic unterstützt wird. Skills werden als portable, versionierbare Module definiert und lassen sich plattformübergreifend einsetzen. Unternehmen berichten von deutlich höherer Tool-Genauigkeit durch strukturierte, wiederverwendbare Skill-Pakete.
Warum das wichtig ist: Mit diesen Updates entwickelt sich OpenAI von einem reinen Modell-Anbieter zum vollständigen Infrastruktur-Hoster für autonome KI-Mitarbeiter. Durch die Kombination aus Langzeitgedächtnis (Compaction), eigenen Arbeitsumgebungen (Shell) und einem plattformübergreifenden Standard (SKILL.md) werden Agenten erstmals für komplexe, tagelange Geschäftsprozesse einsatzbereit. Dieser Schritt macht spezialisierte Drittanbieter für Sandbox-Umgebungen zunehmend überflüssig und zementiert OpenAIs Rolle als Betriebssystem der KI-Ära, in dem Agenten nicht nur antworten, sondern eigenständig produktive Infrastruktur verwalten.
Halbleiterindustrie
Chipindustrie steuert auf historische eine Billion Umsatzmarke zu

Quelle: Shutterstock
Zusammenfassung: Die weltweiten Halbleiterumsätze werden 2026 voraussichtlich erstmals die Marke von $1 Billion überschreiten – ein Rekord, den die Branche vor wenigen Jahren noch für unmöglich hielt. Treiber dieses Wachstums ist vor allem die starke Nachfrage nach KI-Infrastruktur, einschließlich spezialisierter Chips für KI-Training, Inferenz und Rechenzentren. 2025 erreichte der Markt bereits rund $792 Mrd. Umsatz, ein Plus von über 25 % gegenüber dem Vorjahr, wobei besonders Hochleistungs- und Speicherchips zulegten. Die Auslastung der Lieferketten ist hoch, doch die Branche bleibt unsicher, wie lange der aktuelle KI-Investitionszyklus anhält.
Wachstumssegmente: Advanced-Compute-Chips wie GPUs und dedizierte KI-Beschleuniger von Nvidia, AMD und Intel bleiben der größte Umsatztreiber, mit starken Zuwächsen bei Data-Center-Investitionen.
Memory- Nachfrage: DRAM und High-Bandwidth-Memory wachsen deutlich, da KI-Workloads enorme Datenmengen erfordern und Preissteigerungen am Markt beobachtet werden.
Risiken und Unsicherheiten: Trotz voller Auftragsbücher bleibt unklar, wie lange die aktuelle KI-Nachfrage anhält; Engpässe in der Lieferkette und Investitionsentscheidungen stellen Herausforderungen dar.
Warum das wichtig ist: Das Erreichen der Billionen-Dollar-Marke macht die Halbleiterbranche zur neuen Basis der Weltwirtschaft und beendet ihre Rolle als zyklische Nischenindustrie. Dass dieser Rekord vier Jahre früher als erwartet eintritt, unterstreicht die enorme Sogwirkung der KI-Infrastruktur, die mittlerweile mehr Kapital bindet als jede andere Technologie zuvor. Für die globale Wirtschaft bedeutet dies jedoch eine riskante Abhängigkeit: Da das Wachstum extrem einseitig von KI-Chips und Hochleistungsspeichern getrieben wird, könnte jede Sättigung im Rechenzentrumsmarkt die gesamte Branche in eine tiefe Korrektur stürzen.
KI-Modelle
Google Gemini 3 Deep Think treibt KI-Forschung und Technik voran

Quelle: Google
Zusammenfassung: Google hat ein größeres Update für Gemini 3 Deep Think veröffentlicht, eine spezialisierte Denk- und Schlussfolgerungs-Engine innerhalb seines KI-Ökosystems. Der Fokus liegt darauf, komplexe Aufgaben in Wissenschaft, Forschung und Ingenieurwesen zu lösen, die über die Fähigkeiten herkömmlicher Sprachmodelle hinausgehen. Die verbesserte Version erzielt herausragende Ergebnisse auf strengsten wissenschaftlichen und logischen Benchmarks, darunter ARC-AGI-2, internationale Mathematik- sowie Physik- und Chemie-Olympiaden. Sie wird für Google AI Ultra-Abonnenten in der Gemini-App verfügbar gemacht; ausgewählte Forscher und Unternehmen können über die API frühzeitig darauf zugreifen.
Leistungsbenchmarks: Die aktualisierte Deep-Think-Version erreicht neue Spitzenwerte, darunter 84,6 % auf dem ARC-AGI-2-Benchmark, eine Elo-Punktzahl von 3455 auf Codeforces sowie Gold-Medaille-Leistungen bei Mathematik- und Naturwissenschaftsolympiaden, was auf deutlich erweiterte abstrakte Schlussfolgerungsfähigkeiten gegenüber früheren KI-Generationen hindeutet.
Mehr als Theorie: Deep Think wurde bereits genutzt, um komplexe wissenschaftliche Publikationen zu analysieren, etwa das Erkennen subtiler logischer Fehler in peer-reviewten Arbeiten, und kann technische Aufgaben wie das Umwandeln von Skizzen in 3D-druckbare Modelle unterstützen.
Zugang und Verfügbarkeit: Die neue Deep-Think-Version ist zunächst Abonnenten des Premium-Dienstes Google AI Ultra in der Gemini-App vorbehalten, ergänzt durch ein Early-Access-Programm über die Gemini API für ausgewählte Forscher, Ingenieure und Unternehmen.
Warum das wichtig ist: Die Veröffentlichung von Gemini 3 Deep Think veranschaulicht den Übergang von der rein sprachlichen Vorhersage hin zur echten logischen Schlussfolgerung auf Expertenniveau. Dass eine KI nun Gold-Standard-Leistungen in Mathematik- und Physik-Olympiaden erbringt, transformiert sie vom Schreibassistenten zum vollwertigen Partner für die wissenschaftliche Grundlagenforschung. Für die Industrie bedeutet dieser Fortschritt eine radikale Beschleunigung technischer Entwicklungszyklen, da Deep Think komplexe logische Fehler in Fachpublikationen erkennt und abstrakte Skizzen direkt in präzise Konstruktionsdaten übersetzt.

In Zusammenarbeit mit 42 Vienna
Talent-Pipeline 2.0: Mit KI-Kompetenz gegen den Fachkräftemangel
Quelle: 42 Vienna
In der aktuellen Wirtschaftslandschaft stehen Unternehmen vor einem Paradoxon: Während die Versprechen von Künstlicher Intelligenz in der Theorie die Effizienz steigern sollen, scheitern viele Implementierungen in der Praxis an einem Mangel an qualifizierten Fachkräften. Viele Organisationen stecken noch in der Phase strategischer Grundsatzdiskussionen fest. Doch während andernorts noch debattiert wird, schafft der Digital Excellence Campus in Wien und Wels Fakten in der Tech-Ausbildung.
Ab April 2026 (42 Vienna) beziehungsweise Sommer 2026 (42 Wels) rollt der Digital Excellence Campus das neue Curriculum des 42 Common Core aus. Damit wird KI-Kompetenz – verknüpft mit der Programmiersprache Python – zum unverzichtbaren Fundament der Grundausbildung. Das Ziel ist klar definiert: Die Ausbildung einer neuen Generation von Digital Talents, die KI-Systeme nicht nur als Spielerei betrachten, sondern sie in reale, messbare Wertschöpfung übersetzen können.
Das neue Paradigma: Vom Coder zum KI-Architekten
Klassische Informatik-Ausbildungen fokussieren oft auf die reine Syntax und Logik des Programmierens. 42 in Österreich bricht dieses Silo auf. Das modernisierte Curriculum reagiert auf die Verschiebung des Marktes: Software-Entwicklung im Jahr 2026 bedeutet nicht mehr nur das manuelle Schreiben von Zeilen, sondern das Orchestrieren von intelligenten Systemen.
Im Zentrum stehen dabei moderne Architekturen wie:
LLM-gestützte Workflows: Die Nutzung von Large Language Models zur Automatisierung repetitiver Aufgaben.
Retrieval-Augmented Generation (RAG): Der Aufbau von Wissensarchitekturen, die Unternehmensdaten sicher und präzise für KI-Anwendungen nutzbar machen.
Agentic Systems: Die Entwicklung autonomer Agenten, die komplexe Aufgabenstellungen eigenständig innerhalb definierter Leitplanken lösen.
Durch die enge Kooperation mit der AI Factory Austria wird sichergestellt, dass die Ausbildung nicht im akademischen Elfenbeinturm stattfindet. Industrielle Anforderungen, reale Datensätze und die neuesten regulatorischen Entwicklungen auf EU-Ebene fließen direkt in die Projekte der Studierenden ein.
Die drei Säulen des Wettbewerbsvorteils
Für Unternehmen, die händeringend nach Personal suchen, bietet der neue 42-Ansatz drei entscheidende Vorteile:
1. Maximale Produktivität ab dem ersten Tag
Zeit ist im digitalen Wettbewerb die kritische Ressource. Absolvent:innen des 42 Curriculums beherrschen durch den Fokus auf Python und moderne Integrationsmethoden (wie Prompt Engineering auf Profi-Niveau) Tools, die ihre Entwicklungsgeschwindigkeit massiv erhöhen. Das bedeutet für den Arbeitgeber: Schnellere Release-Zyklen und signifikant reduzierte Entwicklungskosten pro Feature. Wer lernt, KI als Hebel einzusetzen, skaliert Lösungen in einem Tempo, das mit traditionellen Methoden unerreichbar bleibt.
2. Risikominimierung durch "AI Literacy" und Governance
Unkontrollierte „Schatten-KI“ ist ein Albtraum für jede IT-Sicherheit und Compliance-Abteilung. 42 in Österreich vermittelt daher nicht nur technisches Know-how, sondern auch ein tiefes Verständnis für die Grenzen und die notwendige Governance von KI-Systemen. Die Talente lernen, Innovationen verantwortungsbewusst vorantreiben – unter Berücksichtigung von Datenschutz, Bias-Vermeidung und ethischen Standards. Unternehmen gewinnen so Fachkräfte, die Sicherheit und Fortschritt miteinander versöhnen.
3. Direkter Praxistransfer statt Theorie-Ballast
Das pädagogische Modell von 42 basiert auf "Peer-to-Peer-Learning" und Projektarbeit. Es gibt keinen Code, der nur für die Schublade geschrieben wird. Partnerunternehmen erhalten frühzeitig Zugriff auf Talente, die bereits während ihrer Ausbildung an realen Use-Cases und komplexen Software-Architekturen gearbeitet haben. Diese anwendungsorientierte Lösungskompetenz ist es, die 42-Studierende von Absolvent:innen klassischer Bildungssysteme unterscheidet: Sie können Probleme nicht nur beschreiben, sie können sie lösen.
Warum jetzt gehandelt werden muss
Der globale Wettbewerb um die digitale Vorherrschaft wird nicht durch die Verfügbarkeit von KI-Tools alleine entschieden – diese sind mittlerweile ein Commodity-Gut, das jedem zur Verfügung steht. Der wahre Wettbewerbsvorteil entsteht durch Menschen, die diese Werkzeuge beherrschen und sie gezielt für die digitale Transformation ihres Unternehmens einsetzen können.
Während viele staatliche Bildungseinrichtungen aufgrund starrer Strukturen der technologischen Dynamik hinterherhinken, schließen 42 Vienna und 42 Wels diese Lücke proaktiv. Das Curriculum antizipiert die Anforderungen der Industrie von morgen.
Für Entscheidungsträger:innen in der Wirtschaft bedeutet das neue Programm von 42 in Österreich einen verlässlichen Zugang zu einer Pipeline von KI-kompetenten Fachkräften. Diese Talente bauen nicht nur digitale Systeme; sie gestalten sie langfristig tragfähig, sicher und effizient. In einer Welt, in der technologische Souveränität über den Erfolg ganzer Geschäftsmodelle entscheidet, ist die Investition in solche Talente die sicherste Versicherung für die Zukunft.
Fazit: Mit dem Start im April 2026 setzt 42 Vienna (und kurz darauf 42 Wels) einen neuen Standard für die Tech-Ausbildung in Österreich. Es ist der Weg weg vom reinen "Coding" hin zum wertschöpfenden "Engineering" im KI-Zeitalter.


Amazon: Der Konzern prüft laut Medienberichten den Start eines Marktplatzes, über den Verlage ihre Inhalte direkt an KI-Unternehmen lizenzieren können. Hintergrund sind anhaltende Urheberrechtsklagen und der wachsende Bedarf an rechtssicheren Trainingsdaten. Amazon soll bereits mit Publishern gesprochen haben, bestätigte Pläne jedoch nicht konkret. Das Modell ähnelt Microsofts „Publisher Content Marketplace“. Für Medienhäuser könnte ein skalierbarer Lizenzmarktplatz neue Erlösquellen schaffen, insbesondere angesichts sinkender Website-Traffic-Zahlen durch KI-generierte Zusammenfassungen.
MiniMax: Mit M2.5 präsentiert das Unternehmen ein neues Frontier-Modell für produktive Agentenarbeit in Coding, Tool-Nutzung, Recherche und Office-Szenarien. Das per großskaligem Reinforcement Learning trainierte Modell erreicht Spitzenwerte etwa auf SWE-Bench Verified und BrowseComp, arbeitet bis zu 37 % schneller als M2.1 und deutlich kostengünstiger als konkurrierende Modelle. Zwei Varianten bieten hohe Token-Geschwindigkeit bei niedrigen Preisen. Über das agent-native RL-Framework „Forge“ und integrierte Office-Skills positioniert MiniMax M2.5 als skalierbare, wirtschaftliche Infrastruktur für autonome digitale Arbeitskräfte.
LatamGPT: Ein Team um den chilenischen Informatiker Álvaro Soto hat mit über 30 Forschenden ein Sprachmodell entwickelt, das die kulturelle und sprachliche Vielfalt Lateinamerikas abbildet. Hintergrund sind Wissenslücken gängiger, vorwiegend mit Daten aus dem Globalen Norden trainierter KI-Systeme, die bei regionalen Themen fehleranfällig sind. LatamGPT soll technologische Unabhängigkeit stärken und in Bildung, Gesundheitswesen sowie Verwaltung eingesetzt werden. Ziel ist eine KI, die Geschichte, Literatur und gesellschaftliche Realitäten der Region präziser versteht und repräsentiert.
Bytedance: Disneys hat dem Konzern wegen seines neuen Videomodells Seedance 2.0 eine Unterlassungsaufforderung geschickt. Das Tool soll mithilfe einer „raubkopierten Bibliothek“ geschützte Figuren wie Spider-Man oder Darth Vader massenhaft reproduzieren. Disney spricht von einem „virtuellen Raubüberfall“ auf sein geistiges Eigentum. Auch SAG-AFTRA und die Human Artistry Campaign kritisieren die Nutzung von Stimmen und Erscheinungsbildern ohne Zustimmung. Rechtliche Schritte gelten jedoch als schwierig, da Bytedance nach dem Rückzug aus den USA kaum greifbar ist und chinesische Gerichte US-Urheberrechtsansprüche selten durchsetzen.
OpenAI: Das Unternehmen führt mit „Lockdown Mode“ eine optionale Hochsicherheitsfunktion in ChatGPT ein, um Prompt-Injection-Angriffe und Datenabfluss zu verhindern. Der Modus beschränkt deterministisch den Zugriff auf externe Systeme, etwa durch eingeschränktes Web-Browsing, und richtet sich an besonders schutzbedürftige Organisationen. Ergänzend kennzeichnet OpenAI bestimmte Funktionen mit „Elevated Risk“-Labels, um Nutzer transparent über erhöhte Sicherheitsrisiken bei Web- und App-Anbindungen zu informieren. Ziel ist mehr Kontrolle, Transparenz und Schutz bei zunehmend vernetzten KI-Anwendungen.

Nick Bostrom: In „Optimal Timing for Superintelligence“ analysiert Bostrom aus einer person-affektierenden Perspektive, wann die Entwicklung von Superintelligenz rational ist. Er argumentiert, dass der Status quo mit hoher Sterblichkeit und existenziellen Risiken kein sicherer Referenzpunkt sei. Selbst hohe Katastrophenwahrscheinlichkeiten könnten akzeptabel sein, wenn Lebensverlängerung und Qualitätsgewinne realistisch sind. Modelle mit Sicherheitsfortschritt, Diskontierung und Risikoaversion sprechen meist für eine zügige Entwicklung mit möglicher kurzer Pause kurz vor breiter Einführung: „swift to harbor, slow to berth“.
Google DeepMind: In „Towards Autonomous Mathematics Research“ stellt DeepMind den KI-Agenten Aletheia vor, der mathematische Forschungsprobleme iterativ generiert, überprüft und überarbeitet. Aufbauend auf Gemini Deep Think erreicht das System 95,1 % Genauigkeit auf IMO-Problemen und zeigt Leistungszuwächse bis hin zu PhD-Niveau. Aletheia lieferte autonome und kollaborative Beiträge, darunter eigenständig erzeugte Forschung zu „Eigenweights“ sowie Lösungen mehrerer Erdős-Probleme. Zugleich betonen die Autoren Grenzen, Halluzinationsrisiken und schlagen eine Taxonomie für Autonomie- und Signifikanzgrade KI-gestützter Mathematik vor.
KI-Industrie: Ein Gründer schildert drastisch beschleunigte Fortschritte seit 2025 und beschreibt neue Modelle wie GPT-5.3 Codex und Claude Opus 4.6 als Wendepunkt, an dem KI eigenständig komplexe Projekte umsetzt und sogar an ihrer Weiterentwicklung mitwirkt. Er warnt vor massiver Disruption wissensbasierter Berufe binnen weniger Jahre, verweist auf exponentielle Leistungszuwächse und eine mögliche „Intelligenzexplosion“. Zugleich betont er Chancen für Produktivität, Unternehmertum und Bildung, empfiehlt frühe, intensive Nutzung leistungsfähiger Modelle und fordert individuelle Anpassungsfähigkeit angesichts tiefgreifender ökonomischer und geopolitischer Umbrüche.
Google Research: In „Accelerating Scientific Research with Gemini“ dokumentieren Forschende anhand zahlreicher Fallstudien, wie Gemini-Modelle – insbesondere Deep Think – als kooperative Forschungspartner in Theoretischer Informatik, Mathematik und Physik eingesetzt werden. Die KI identifiziert Beweisideen, widerlegt Vermutungen, entdeckt Gegenbeispiele und findet mithilfe neuro-symbolischer Schleifen sogar geschlossene Lösungen komplexer Integrale. Zentrale Methoden sind iterative Verfeinerung, adversariales Self-Review, spektrale und analytische Querbezüge sowie automatisierte Code-Verifikation. Trotz hoher Leistungsfähigkeit bleibt menschliche Orchestrierung entscheidend.
Gesundheit: Fortschritte bei Diagnose, Bildauswertung und Patientenkommunikation stellen die Rolle von Ärztinnen und Ärzten zunehmend infrage. Während Systeme bei EKG-Analysen, Triage oder administrativen Aufgaben teils überlegen sind, sehen Mediziner ihre Kernkompetenzen in klinischer Erfahrung, kritischer Einordnung unvollständiger Informationen und menschlicher Empathie. KI kann Prozesse beschleunigen, Spezialisten entlasten und Versorgungslücken mindern, birgt jedoch Risiken wie Verzerrungen und Fehlanreize im Gesundheitssystem. Viele Experten erwarten daher einen strukturellen Wandel der Medizin – mit veränderten, aber weiterhin zentralen Aufgaben für Ärzte.

Buch
Warum Urteile so stark schwanken

Quelle: penguin.de
Inhalt: Das Buch lenkt den Blick auf ein unterschätztes Problem in Organisationen und Institutionen - die enorme Streuung von Urteilen bei identischen Fällen. Anhand eindrücklicher Beispiele aus Justiz, Medizin und Wirtschaft zeigen die Autoren, dass nicht nur systematische Verzerrungen, sondern vor allem zufällige Abweichungen zu gravierenden Fehlentscheidungen führen. Sie argumentieren, dass diese Form von Fehlurteil weit verbreitet ist, oft unsichtbar bleibt und massive Folgen für Fairness, Effizienz und Sicherheit hat.
Kontext: Daniel Kahneman, Olivier Sibony und Cass Sunstein zählen zu den einflussreichsten Stimmen in Verhaltensökonomie, Management und Rechtswissenschaft. Ihr Werk knüpft an die Debatte um systematische an und erweitert sie um eine statistisch fundierte Perspektive auf Entscheidungsqualität in Organisationen. Für Entscheiderinnen und Entscheider bietet das Buch einen strategischen Rahmen, um Urteilsprozesse systematisch zu überprüfen und robuster zu gestalten.

Ihre Meinung interessiert uns
Wenn KI-Initiativen den "Proof-of-Concept"-Status verlassen: Welche operative „Black Box“ bereitet Ihnen bei der Skalierung aktuell die größten Kopfschmerzen?
- 🌫️ Der "Return on AI" Nebel: Wir investieren in Lizenzen und Credits, haben aber keine harten Daten darüber, ob und wie viel Zeit/Geld tatsächlich effektiv eingespart wird.
- 🏝️ Isolierte Agenten-Silos: Verschiedene Abteilungen bauen ähnliche Lösungen parallel, ohne dass es eine zentrale Übersicht über existierende Assets oder Best Practices gibt.
- 📉 Qualitäts-Drift: Die Sorge, dass autonome Agenten unbemerkt an Genauigkeit verlieren oder halluzinieren, ohne dass ein Warnsystem sofort anschlägt.
- 💸 Die Kosten-Falle: Die Schwierigkeit, explodierende Token-Kosten präzise den verursachenden Projekten oder Teams zuzuordnen (Chargeback).
Ergebnisse der vorherigen Umfrage
Angenommen, Ihr Unternehmen skaliert auf dutzende KI-Agenten und Workflows: Welche Funktion einer zentralen Steuerungsebene (Orchestration Layer) wäre für Sie am entscheidendsten?
🟨🟨⬜️⬜️⬜️⬜️ 📊 Operational Transparency
🟨⬜️⬜️⬜️⬜️⬜️ ⚡ Multi-Model Performance
🟩🟩🟩🟩🟩🟩 📈 Value & Impact Analytics
🟨⬜️⬜️⬜️⬜️⬜️ 🔐 Enterprise Governance

Datacenter
Europas KI Skalierung durch grüne Rechenzentren stärken

Quelle: EcoDataCenter
Was ist das Problem? Europas KI-Unternehmen stehen im globalen Wettbewerb mit US-Anbietern, die von einem großen Binnenmarkt, massiver Kapitalverfügbarkeit und schneller Skalierung profitieren. Fragmentierte Nachfrage, nationale Beschaffungslogiken und begrenzte Rechenzentrumsinfrastruktur erschweren es europäischen Anbietern, vergleichbare Größenordnungen bei Modellentwicklung und Enterprise-Deployment zu erreichen.
Wie wird es gelöst? Mistral investiert 1,2 Milliarden Euro in KI-Rechenzentren in Schweden und setzt dabei auf einen 23-MW-Standort mit klimafreundlicher Energieversorgung, realisiert mit EcoDataCenter. Zugleich plädiert das Management für einen echten europäischen Binnenmarkt für KI, in dem Unternehmen und öffentliche Auftraggeber gezielt auf europäische Technologien setzen. Das Unternehmen, mit einer Bewertung von rund 11,7 Milliarden Euro, berichtet von einer Verzwanzigfachung des Wachstums binnen eines Jahres und erwartet mehr als eine Milliarde Euro Umsatz.
Warum das wichtig ist: Rechenkapazität ist der Engpassfaktor im KI-Wettbewerb, nicht allein Modellarchitektur. Wer Zugriff auf skalierbare, nachhaltige Infrastruktur hat, kontrolliert Kostenstrukturen, Innovationsgeschwindigkeit und Datensouveränität. Die Standortwahl Schweden unterstreicht, dass Europas Wettbewerbsvorteil in regulatorischer Verlässlichkeit, sauberer Energie und industrieller Nachfrage liegen kann. Wenn es gelingt, diese Faktoren in einen integrierten Markt zu überführen, entsteht ein Gegengewicht zur US-Dominanz, das nicht auf Protektionismus, sondern auf industrieller Koordination basiert.
Handlungsempfehlung: Prüfen Sie Ihre KI-Roadmap auf Abhängigkeiten von außereuropäischen Cloud- und Modellanbietern und evaluieren Sie gezielt europäische Alternativen mit eigener Infrastruktur. Nutzen Sie öffentliche Beschaffung, Konsortien oder langfristige Abnahmeverträge, um Skaleneffekte zu bündeln und strategische Rechenkapazität in Europa mit aufzubauen.
Ansprechpartner: Johan Wernvik & EcoDataCenter
Impact: Skalierbare europäische KI Infrastruktur bis 2028
Relevant für:
CIO und CTO: ●●●
Chief Digital Officer: ●●●
Chief Strategy Officer: ●●●
CFO: ●●○
Leiter Einkauf und Procurement: ●●○
Leiter Nachhaltigkeit: ●●○
Cloud und Infrastrukturverantwortliche: ●●●
Public Affairs und Government Relations: ●●○

Automation
KI-gestützte Workflow-Automatisierung mit Google Workspace Studio
Problemstellung: Viele Teams verbringen täglich wertvolle Zeit mit wiederkehrenden Aufgaben wie E-Mail-Benachrichtigungen, Status-Updates oder der Weitergabe von Informationen. Diese Prozesse sind oft manuell, fehleranfällig und schwer skalierbar. Klassische Automatisierungstools erfordern zudem technisches Know-how oder komplexe Konfigurationen, was den Einstieg zusätzlich erschwert.
Lösung: Google Workspace Studio ermöglicht es, Workflows mithilfe von Gemini in natürlicher Sprache zu erstellen. Nutzer können Automationen einfach beschreiben – beispielsweise „Benachrichtige mich, wenn mein Manager mir eine E-Mail sendet“ – und das System generiert automatisch einen passenden Workflow. Alternativ stehen vorgefertigte Templates für häufige Anwendungsfälle zur Verfügung oder es kann ein Workflow vollständig individuell von Grund auf erstellt werden. Der visuelle Flow-Editor bietet volle Kontrolle über Trigger, Aktionen und Variablen.
Anwendungsbeispiele:
Automatische Benachrichtigung in Google Chat, sobald eine bestimmte Person eine E-Mail sendet.
Tägliche Zusammenfassung ungelesener E-Mails, generiert durch Gemini und versendet zu einer festgelegten Uhrzeit.
Nutzung von Variablen, um Inhalte aus einem Schritt (z. B. Startzeit oder E-Mail-Inhalt) in nachfolgenden Aktionen weiterzuverwenden.
Anpassung und Erweiterung von Templates, um bestehende Prozesse schnell zu optimieren.
Vollständig individuelle Workflows mit definierten Triggern, mehreren Aktionsschritten und Testläufen, die reale Aktionen ausführen (z. B. Dokumente ändern oder Nachrichten versenden).
Erklärungsansatz: Workspace Studio kombiniert KI-gestützte Prozesslogik mit einer intuitiven Benutzeroberfläche. Der „Trigger“ definiert, wann ein Workflow ausgelöst wird, während die darauffolgenden Schritte konkrete Aktionen ausführen. Durch Variablen können Informationen dynamisch zwischen Schritten übertragen werden. Testläufe ermöglichen es, Workflows unter realen Bedingungen zu prüfen, bevor sie aktiviert werden. So entsteht eine flexible, KI-gestützte Automatisierungsumgebung ohne Programmieraufwand.
Fazit: Google Workspace Studio senkt die Einstiegshürde für Prozessautomatisierung erheblich. Ob per natürlicher Sprache, Template oder individueller Konfiguration – wiederkehrende Aufgaben lassen sich effizient automatisieren und intelligent erweitern. Ein starkes Tool für produktiveres Arbeiten im Google-Workspace-Umfeld.

Realitätscheck
Warum Künstliche Intelligenz viel verspricht aber noch erstaunlich oft versagt
Künstliche Intelligenz soll Arbeitsplätze revolutionieren, Krankheiten heilen und den Klimawandel bekämpfen. Doch eine neue Untersuchung stellt die Euphorie infrage. In einem direkten Vergleich mit realen Freelancern schnitten moderne KI-Modelle deutlich schlechter ab als erwartet. Trotz milliardenschwerer Investitionen zeigt sich, dass die Technologie im Alltag oft noch weit hinter menschlicher Leistung zurückbleibt.
In der Studie wurden 240 echte Aufträge von einer Freelancer-Plattform sowohl von Menschen als auch von KI-Systemen bearbeitet. Das Ergebnis ist ernüchternd: Das beste getestete Modell erreichte lediglich eine Erfolgsquote von 3,75 Prozent. In über 96 Prozent der Fälle lieferte die KI schlechtere Resultate als menschliche Arbeitskräfte. Häufige Probleme waren unvollständige Abgaben, fehlerhafte Dateiformate, Qualitätsmängel oder inkonsistente Ergebnisse. Besonders in komplexen, praxisnahen Aufgaben zeigte sich, wie groß die Lücke zwischen Anspruch und Realität noch ist.
Gleichzeitig offenbart die Analyse auch, wo KI tatsächlich überzeugt. Kreative Ideenfindung, einfache Werbeinhalte, Textarbeit, Datenrecherche oder bestimmte Programmieraufgaben zählen zu den Stärken. Doch selbst hier bleibt menschliche Kontrolle entscheidend. Experten wie Yann LeCun warnen zudem, dass das bloße Skalieren von Daten und Rechenleistung nicht automatisch zu echter Intelligenz führt. Die aktuelle Generation großer Sprachmodelle imitiert Sprache beeindruckend gut, versteht jedoch die Welt nicht wirklich.
Was bedeutet das für Wirtschaft und Arbeitsmarkt? Während manche Unternehmen bereits Personal durch KI ersetzt haben, prognostizieren Analysten eine mögliche Gegenbewegung. Die Technologie ist zweifellos nützlich, aber noch kein vollwertiger Ersatz für menschliche Expertise. Ob die milliardenschwere Bewertung vieler KI-Firmen gerechtfertigt ist oder eine Überbewertung vorliegt, beleuchtet das Video im Detail und liefert spannende Einblicke in eine Debatte, die unsere Zukunft prägen wird.
Werben im KI-Briefing
Möchten Sie Ihr Produkt, Ihre Marke oder Dienstleistung gezielt vor führenden deutschsprachigen Entscheidungsträgern platzieren?
Das KI-Briefing erreicht eine exklusive Leserschaft aus Wirtschaft, Politik und Zivilgesellschaft – von C-Level-Führungskräften über politische Akteure bis hin zu Vordenkern und Experten. Kontaktieren Sie uns, um maßgeschneiderte Kooperationsmöglichkeiten zu besprechen.
Und nächste Woche…
... werfen wir einen genaueren Blick auf die strategische Neuvermessung der digitalen Wertschöpfung durch „Agentic Economics“. Angesichts der Erosion klassischer Lizenzmodelle analysieren wir, wie der Kollaps des „Seat-based Pricing“ die kommerzielle und technologische Architektur der Software-Industrie radikal verändert. Wir beleuchten, warum die Beherrschung autonomer Agenten-Workflows zur neuen „Unit Economics“ wird und welche Weichenstellungen jetzt entscheidend sind, um Software-Effizienz nicht nur als prozessuales Versprechen, sondern als direkten Hebel für die operative Marge zu verankern.
Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.



