​Intel und TSMC planen gemeinsames Chipwerk

Außerdem: ​​​​Alibaba-Chef warnt vor möglicher KI-Blase & ​​Google DeepMind betont verantwortungsvollen Weg zur AGI

Guten Morgen!

Willkommen zum KI-Briefing!

Diese Woche zeigt sich erneut, wie eng technologische Durchbrüche und systemische Risiken beieinanderliegen. Während Google DeepMind mit einer umfassenden Sicherheitsstrategie für AGI neue Standards im Umgang mit existenziellen Risiken setzt, warnt Alibaba-Chef Joe Tsai vor einer gefährlichen Überhitzung im Bereich der KI-Infrastruktur. Parallel dazu treiben autonome Systeme – vom Browser-Agent bis zum lernfähigen Roboter – die Automatisierung realer Arbeitsprozesse rasant voran.

Info: Wir unterstreichen ab jetzt in der Rubrik „Warum das wichtig ist“ die zentrale Aussage jedes Themas – für alle, die schnell querlesen und gezielt einsteigen möchten.

Wenn Sie das KI-Briefing als Bereicherung empfinden, würden wir uns freuen, wenn Sie es an Kollegen, Mitarbeiter oder Vorgesetzte weiterempfehlen. Mit einer wachsenden Leserschaft können wir einzigartigere Inhalte schaffen, die einen direkten Mehrwert für alle bieten. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.

Inhalt dieses Briefings

  • News: ​​​​​​Intel und TSMC planen gemeinsames Chipwerk, ​Alibaba-Chef warnt vor möglicher KI-Blase, ​Google DeepMind betont verantwortungsvollen Weg zur AGI, Meta präsentiert Llama 4 mit massiver Leistungssteigerung, ​DeepMind zeigt Roboter mit echtem Alltagsverständnis, ​OpenAI investiert in Adaptive Security zur Abwehr von KI-basierten Cyberangriffen & ​Amazon stellt Nova Act für Browser-Automatisierung vor

  • Deep Dive: Europäische Tech-Startups entdecken ihre neue Stärke im Zeitalter spezialisierter KI-Anwendungen 🇪🇺

  • In aller Kürze: Claude-Modelle nun für US-Behörden zertifiziert, GPT-4.5 schlägt Menschen im Turing-Test, Scale AI launcht Tool zur Schwächenanalyse großer KI-Modelle, Isomorphic Labs erhält 600 Mio. für KI-Medikamentenforschung & Claude for Education für Universitäten verfügbar

  • Videos & Artikel: ARC schlägt neue Evaluationsmethoden zur Erkennung täuschender AGI vor, AI 2027 warnt vor Superintelligenz bis 2027 und fordert politischen Schutz für Whistleblower, OpenAI-Hype erinnert an Dotcom-Blase, Geoffrey Hinton warnt vor KI-Risiken und kritisiert mangelndes Engagement & Anthropics Studie zeigt dass Reasoning-Modelle Denkprozesse verschleiern

  • Umfrage: Welchen Einfluss hat KI Ihrer Meinung nach auf die zukünftige Wettbewerbsfähigkeit Ihres Unternehmens?

  • Meinung: Warum wahre künstliche Intelligenz mehr als nur Denken können muss

  • Praxisbeispiel: Dezentrales Wissen effizient nutzbar machen mit Notion AI

  • YouTube: Wenn Maschinen mehr wissen als wir selbst 🤖 

  • Cartoon: Wenn intelligente Kameras Langweile haben 😅

News

Halbleiterindustrie

​Intel und TSMC planen gemeinsames Chipwerk

Quelle: Shutterstock

Zusammenfassung: Intel und Taiwan Semiconductor Manufacturing Co. (TSMC) haben eine vorläufige Vereinbarung zur Gründung eines Joint Ventures getroffen, um Intels Chipfabriken zu betreiben. TSMC soll dabei einen 20%igen Anteil an dem neuen Unternehmen halten. Diese Entwicklung folgt auf Druck von US-Regierungsbeamten, die eine Lösung für Intels anhaltende Probleme im Halbleitersektor suchen.​

  • Details zur Vereinbarung: Die US-Regierung, insbesondere das Weiße Haus und das Handelsministerium, drängten Intel und TSMC zu dieser Partnerschaft, um Intels Position im Halbleitermarkt zu stärken. TSMC, der weltweit größte Auftragsfertiger für Chips, wird mit einem 20%igen Anteil an dem Joint Venture beteiligt sein.​

  • Herausforderungen für Intel: Intel hat in der Vergangenheit Schwierigkeiten gehabt, mit TSMCs Kunden- und technischen Dienstleistungen zu konkurrieren, was zu Verzögerungen und gescheiterten Tests führte. Im Jahr 2024 verzeichnete Intel einen Nettoverlust von 18,8 Milliarden US-Dollar, den ersten seit 1986.​

  • Strategische Investitionen von TSMC: TSMC plant, 100 Milliarden US-Dollar in den USA zu investieren, um fünf zusätzliche Chipfabriken zu errichten. Diese Investition unterstreicht TSMCs Engagement, seine Produktionskapazitäten außerhalb Taiwans auszubauen.​

Warum das wichtig ist: Die Zusammenarbeit zwischen Intel und TSMC ist ein strategisch bedeutsames Signal für die Neuordnung der globalen Chipindustrie. Sie zeigt, wie wirtschaftliche Interessen und geopolitische Ziele zunehmend ineinandergreifen. Die USA treiben aktiv die Stärkung ihrer heimischen Chipproduktion voran, um Abhängigkeiten von Asien zu reduzieren. Für Intel bedeutet die Partnerschaft Zugang zu TSMCs technologischer Exzellenz – ein potenzieller Ausweg aus der eigenen Krise. TSMC wiederum verankert sich tiefer im US-Markt und sichert sich politischen Rückhalt für seine Expansionspläne. Das Joint Venture steht exemplarisch für eine Entwicklung, bei der Industriepolitik und technologische Souveränität zunehmend miteinander verwoben sind.

Infrastruktur

​Alibaba-Chef warnt vor möglicher KI-Blase

Quelle: Robert Way / Shutterstock

Zusammenfassung: Joe Tsai, Vorsitzender von Alibaba, äußerte Bedenken hinsichtlich einer möglichen Blase im Bereich der KI-Infrastruktur. Er kritisierte die enormen Investitionen in KI-Rechenzentren, insbesondere in den USA, und stellte infrage, ob diese Ausgaben durch die aktuelle Nachfrage gerechtfertigt sind. Tsai warnte davor, dass viele dieser Projekte ohne konkrete Kunden gebaut werden und die Investitionen möglicherweise den tatsächlichen Bedarf übersteigen.​

  • Bedenken hinsichtlich übermäßiger Investitionen: Tsai zeigte sich erstaunt über die angekündigten Investitionen in KI, die in die Hunderte von Milliarden Dollar gehen. Er betonte, dass solche Summen möglicherweise nicht notwendig sind und dass Investitionen oft der prognostizierten, aber noch nicht realisierten Nachfrage vorausgehen.​

  • Projekte ohne gesicherte Nachfrage: Der Alibaba-Vorsitzende äußerte die Sorge, dass zahlreiche Rechenzentren "auf Vorrat" gebaut werden, ohne dass es klare Abnehmer für deren Kapazitäten gibt. Dies könnte zu einer Überkapazität führen und die Rentabilität dieser Investitionen beeinträchtigen.​

  • Globale Investitionspläne in KI-Infrastruktur: Unternehmen wie Amazon, Meta und Alphabet haben massive Investitionen in den Ausbau ihrer KI-Infrastruktur angekündigt. Beispielsweise plant Amazon, 100 Milliarden Dollar zu investieren, während Meta und Alphabet 65 bzw. 75 Milliarden Dollar vorgesehen haben. Diese umfangreichen Ausgaben tragen zur Debatte über eine mögliche Überhitzung des Marktes bei.​

Warum das wichtig ist: Die Kritik von Joe Tsai lenkt den Blick auf ein zentrales Spannungsfeld in der aktuellen KI-Dynamik – den Wettlauf um Investitionen in Infrastruktur bei gleichzeitig unklarer realer Nachfrage. Während Rechenzentren als Grundlage für zukünftiges Wachstum gelten, besteht das Risiko, dass Kapazitäten entstehen, die kurzfristig nicht ausgelastet sind. Das hätte Folgen für Kapitalrendite, Wettbewerbsfähigkeit und Marktvertrauen. Die Diskussion erinnert an frühere Technologiezyklen, in denen überzogene Erwartungen spekulative Blasen begünstigt haben. Strategisch denkende Akteure sind daher zunehmend gefordert, visionären Ausbau mit ökonomischer Tragfähigkeit in Einklang zu bringen.

AGI Sicherheit

​Google DeepMind betont verantwortungsvollen Weg zur AGI

Quelle: Google Deep Mind

Zusammenfassung: Google DeepMind hat ein umfassendes Papier veröffentlicht, in dem es seine Strategie zur sicheren Entwicklung von Artificial General Intelligence (AGI) darlegt. Das Unternehmen identifiziert vier Haupt-Risikobereiche: Missbrauch, Fehlanpassung, Unfälle und strukturelle Risiken, wobei der Fokus besonders auf Missbrauch und Fehlanpassung liegt. Durch proaktive Planung, Vorbereitung und Zusammenarbeit mit der breiteren KI-Community soll sichergestellt werden, dass AGI-Systeme sicher und im Einklang mit menschlichen Werten entwickelt werden.​

  • Identifizierung gefährlicher Fähigkeiten: DeepMind plant, den Zugang zu potenziell missbrauchbaren Fähigkeiten von AGI-Systemen einzuschränken, um schädliche Anwendungen zu verhindern.​

  • Verstärkte Sicherheitsprotokolle: Durch die Aktualisierung des Frontier Safety Frameworks werden strengere Sicherheitsmaßnahmen implementiert, um die Entwicklung von AGI sicherer zu gestalten.

  • Bildung eines AGI Safety Councils: Unter der Leitung von Mitbegründer Shane Legg wurde ein Rat eingerichtet, der sich auf die Analyse von AGI-Risiken und die Empfehlung von Sicherheitsmaßnahmen konzentriert. ​

Warum das wichtig ist: DeepMinds Vorstoß in Sachen AGI-Sicherheit stellt einen Versuch dar, regulatorischem Druck zuvorzukommen und gleichzeitig die Standards für eine sich formierende Technologie zu setzen. Die Einführung konkreter Protokolle und interner Gremien schafft strukturelle Ansätze zur Risikominimierung – bleibt aber eingebettet in einen Kontext, in dem zentrale Fragen zu Kontrolle, Transparenz und Verbindlichkeit weiter offen sind. Das Papier ist damit weniger ein Abschluss, als der Beginn einer Aushandlung darüber, wer in Zukunft die Spielregeln für den Umgang mit AGI bestimmt – Unternehmen, Regierungen oder unabhängige Institutionen.

KI-Modelle

Meta präsentiert Llama 4 mit massiver Leistungssteigerung

Quelle: Meta

Zusammenfassung: Meta hat mit der Veröffentlichung der Llama-4-Reihe seine leistungsstärksten KI-Modelle vorgestellt. Die Modelle Llama 4 Scout und Llama 4 Maverick setzen auf eine Mixture-of-Experts-Architektur, die deutlich effizienter arbeitet als herkömmliche Systeme. Scout bietet mit 10 Millionen Tokens das bislang längste Kontextfenster am Markt, während Maverick in Benchmarks besser abschneidet als GPT-4o und Gemini 2.0. Beide Modelle sind nativ multimodal und verarbeiten Text und Bilder gemeinsam im Modellkern. Die Open-Weight-Modelle stehen ab sofort für Entwickler bereit. Ein noch größerer Forschungsprototyp namens Behemoth befindet sich in der Trainingsphase.

  • Technologische Grundlage der neuen Modelle: Meta setzt erstmals auf eine Mixture-of-Experts-Architektur, bei der nur ausgewählte Teile des Modells pro Eingabe aktiviert werden. Dadurch lassen sich massive Parameterzahlen effizient nutzen, ohne die Rechenlast linear zu erhöhen.

  • Konkrete Modelleigenschaften und Leistungswerte: Llama 4 Scout bietet ein 10-Millionen-Token-Kontextfenster und 17 Milliarden aktive Parameter, verteilt über 16 Experten. Maverick nutzt dieselbe aktive Parametermenge, jedoch auf 128 Experten verteilt, und erzielt dabei bessere Ergebnisse als GPT-4o bei Aufgaben in Logik, Programmierung und Bildverarbeitung.

  • Offene Verfügbarkeit und strategische Positionierung: Beide Modelle sind als Open-Weight-Versionen verfügbar, was Metas Open-Source-Strategie im KI-Bereich weiter festigt. Die Modelle stehen auf Hugging Face und llama.com bereit und sollen bald auf großen Cloudplattformen integriert werden.

Warum das wichtig ist: Die Veröffentlichung von Llama 4 steht für eine strategische Weichenstellung im Markt für Foundation-Models. Meta koppelt technische Leistungsfähigkeit mit einem Open-Weight-Ansatz, der direkt auf die restriktiveren Lizenzmodelle von OpenAI und Google zielt. Dadurch entstehen neue Pfadabhängigkeiten für Entwickler und Plattformanbieter, insbesondere im Hinblick auf Integrationstiefe und Kostenstruktur. Zugleich stärkt Meta seine Position als Infrastrukturakteur, der weniger auf Produktmonetarisierung als auf Marktdurchdringung und Standardsetzung setzt – ein Modell, das mittelfristig regulatorische wie wettbewerbliche Fragen neu aufwerfen dürfte.

Robotics

​DeepMind zeigt Roboter mit echtem Alltagsverständnis

Quelle: DeepMind

Zusammenfassung: Google DeepMind hat eine neue Familie multimodaler KI-Modelle namens Gemini Robotics vorgestellt, die erstmals physische Aktionen in die multimodalen Fähigkeiten der Gemini-2.0-Plattform integrieren. Die Modelle ermöglichen es Robotern, komplexe Aufgaben wie das Falten von Origami, das Zubereiten von Salaten oder das Spielen von Tic-Tac-Toe allein auf Basis natürlicher Spracheingaben auszuführen – ohne vorheriges Training mit spezifischen Objekten oder Szenarien. Damit treiben sie eine neue Generation lernfähiger Roboter voran, die durch Kombination aus Sprachverstehen, Bildanalyse und motorischer Kontrolle vielfältige Alltagsaufgaben bewältigen können.

  • Neue Fähigkeiten für Roboter durch multimodale Modelle: Die Gemini-Modelle wurden speziell mit roboterspezifischen Trainingsdaten erweitert und kombinieren visuelle, sprachliche und sensorische Informationen, um physische Aktionen zu generieren. So gelingt es Robotern, neue Aufgaben in unbekannten Umgebungen unmittelbar auszuführen – eine erhebliche Verbesserung gegenüber bisherigen, stark auf Einzelaufgaben trainierten Systemen.

  • Erweiterte Einsatzmöglichkeiten in realen Umgebungen: Die Modelle lassen sich flexibel auf unterschiedliche Robotertypen übertragen – von humanoiden Systemen bis zu industriellen Greifarmen. Sie demonstrieren eine bisher unerreichte Vielseitigkeit, etwa beim Packen von Lunchboxen, beim Erkennen und Bewegen unbekannter Objekte oder beim Reinigen von Oberflächen in variablen Umgebungen.

  • Durchbruch bei Geschicklichkeit und Embodied Reasoning: Gemini Robotics-ER, ein Teil der neuen Modellfamilie, ermöglicht fortgeschrittenes räumliches Denken, Objektverfolgung in 3D und präzise Greifbewegungen. Die Fähigkeit zur Planung und Ausführung mehrstufiger Bewegungen in Echtzeit schafft neue Maßstäbe für die Geschicklichkeit von Robotern und hebt das Zusammenspiel von Kognition und Handlung auf ein neues Niveau.

Warum das wichtig ist: Mit Gemini Robotics verschiebt DeepMind die Erwartungshaltung an robotische Systeme grundlegend. Erstmals wird generative KI mit physischer Handlungsfähigkeit kombiniert – und damit eine bisher fehlende Brücke zwischen Sprachmodellen und realweltlicher Interaktion geschlagen. Die Fähigkeit, komplexe Aufgaben ohne spezifisches Training auszuführen, deutet auf eine neue Phase robotischer Generalisierung hin. Für Anwendungen in Logistik, Fertigung oder Pflege entsteht damit ein potenzieller Technologiesprung, der bestehende Automatisierungskonzepte unter Druck setzt und neue Integrationsmodelle in den Alltag erfordert.

Cybersicherheit

​OpenAI investiert in Adaptive Security zur Abwehr von KI-basierten Cyberangriffen

Quelle: Adaptive

Zusammenfassung: OpenAI tätigt seine erste Investition in ein Cybersicherheitsunternehmen und beteiligt sich gemeinsam mit Andreessen Horowitz an einer 43-Millionen-Dollar-Finanzierungsrunde für Adaptive Security. Das in New York ansässige Startup entwickelt eine Plattform, die Unternehmen durch Simulation von KI-generierten Angriffen hilft, ihre Mitarbeiter auf Bedrohungen wie Deepfakes und Social Engineering vorzubereiten.​

  • Innovative Trainingsmethoden: Adaptive Security nutzt künstliche Intelligenz, um realistische Angriffsversuche über verschiedene Kommunikationskanäle wie Telefon, SMS und E-Mail zu simulieren. Mitarbeiter werden dadurch gezielt geschult, solche Bedrohungen zu erkennen und angemessen darauf zu reagieren.

  • Erfahrener Gründer: CEO Brian Long bringt umfangreiche Erfahrung als Unternehmer mit, unter anderem durch den Verkauf seines mobilen Werbe-Startups TapCommerce an Twitter im Jahr 2014 und die Gründung von Attentive, das zuletzt mit über 10 Milliarden Dollar bewertet wurde. ​

  • Wachsende Bedrohungslage: Die zunehmende Verbreitung von generativer KI erleichtert es Cyberkriminellen, überzeugende Social-Engineering-Angriffe durchzuführen. Adaptive Security adressiert diese Herausforderung, indem es Unternehmen ermöglicht, ihre Abwehrmechanismen proaktiv zu stärken. ​

Warum das wichtig ist: Die Beteiligung von OpenAI an Adaptive Security verweist auf einen strategischen Perspektivwechsel im Umgang mit KI-basierten Bedrohungen. Während sich der Fokus bislang auf technologische Fortschritte konzentrierte, rückt nun die Verwundbarkeit digitaler Infrastrukturen durch generative Angriffe in den Vordergrund. Adaptive setzt auf simulationsbasierte Schulung statt statischer Schutzmechanismen – ein Ansatz, der klassische Cybersicherheitskonzepte herausfordert. Die Investition signalisiert zudem, dass große KI-Anbieter beginnen, Verantwortung für die Nebenwirkungen ihrer Technologien aktiv in ihre Marktstrategie zu integrieren.

KI-Agenten

​Amazon stellt Nova Act für Browser-Automatisierung vor

Zusammenfassung: Amazon hat mit Nova Act ein neues KI-Modell vorgestellt, das entwickelt wurde, um Aktionen innerhalb von Webbrowsern auszuführen. Das als Research-Preview verfügbare Nova Act SDK ermöglicht es Entwicklern, Agenten zu erstellen, die Aufgaben wie Online-Einkäufe, Terminplanungen oder das Einreichen von Urlaubsanträgen automatisiert durchführen können. Dieses Modell zielt darauf ab, komplexe, mehrstufige Prozesse zu vereinfachen und die Produktivität zu steigern.​

  • Integration in bestehende Systeme: Nova Act kann nahtlos in Anwendungen wie Alexa+ integriert werden, um Internetaufgaben selbstständig zu erledigen, wenn keine passenden APIs verfügbar sind.​

  • Entwicklerfreundliches SDK: Das bereitgestellte Software Development Kit ermöglicht es Entwicklern, komplexe Arbeitsabläufe in zuverlässige, atomare Befehle zu unterteilen und detaillierte Anweisungen hinzuzufügen, um die Zuverlässigkeit zu erhöhen.​

  • Überlegene Leistung: In internen Bewertungen erzielte Nova Act über 90% Genauigkeit bei Aufgaben wie Datumsauswahl, Dropdown-Menüs und Pop-ups und übertrifft damit andere Modelle wie Claude 3.7 Sonnet und OpenAI CUA.​

Warum das wichtig ist: Mit Nova Act adressiert Amazon ein zentrales Defizit in der aktuellen Automatisierungslandschaft – die mangelnde Flexibilität digitaler Systeme in unstrukturierten Webumgebungen. Durch KI-gesteuerte Interaktion direkt auf der Nutzerschnittstelle umgehen Agenten wie Nova die Abhängigkeit von APIs, was sowohl technisch als auch strategisch neue Spielräume eröffnet. Die Technologie hat das Potenzial, die Organisation wiederkehrender Onlineprozesse zu verändern, vor allem dort, wo standardisierte Schnittstellen fehlen. Damit entsteht ein neues Wettbewerbsfeld, in dem nicht allein Modellgröße oder Rechenleistung entscheidend sind, sondern die Fähigkeit, robuste Anwendungen in komplexe digitale Ökosysteme einzubetten.

Deep Dive

Warum Europas KI-Zukunft in der Anwendung liegt

Während in den USA und China immer größere KI-Modelle als Machtsymbole gefeiert werden, verfolgt Europa einen ruhigeren, aber potenziell richtungsweisenden Ansatz. Statt in das nächste Parameter-Wettrennen einzusteigen, konzentrieren sich viele europäische Unternehmen darauf, was nach dem Modell kommt: die konkrete, tief integrierte Anwendung. Wer diesen Perspektivwechsel versteht, erkennt, dass nicht das Modell selbst, sondern dessen Einbettung in reale Kontexte über Relevanz entscheidet.

Große Sprachmodelle sind längst keine Eintrittsbarriere mehr. Open-Source-Angebote, sinkende Rechenkosten und modulare Frameworks haben sie zur Commodity gemacht. Der Modell-Layer ist zur Infrastruktur geworden – austauschbar, standardisiert, zunehmend egalitär. Der eigentliche Wettbewerb verlagert sich auf die Ebene darüber: Wer schafft es, aus dem Output von KI-Modellen funktionierende Lösungen für komplexe, regulierte und oft schwer digitalisierbare Märkte zu bauen?

Genau hier liegt Europas Stärke. In Branchen wie Verwaltung, Gesundheitswesen, Industrie oder Finanzen geht es nicht um maximale Generalisierung, sondern um vertrauenswürdige Spezialisierung. Technische Exzellenz reicht nicht – gefragt ist tiefes Domänenwissen, Verständnis für rechtliche Rahmenbedingungen und die Fähigkeit, KI reibungslos in bestehende Systeme einzubetten. Was anderswo oft scheitert, gelingt hier in der Nische: nicht durch Lautstärke, sondern durch Präzision.

Startups wie Aleph Alpha, DeepL oder Helsing machen das greifbar. Sie entwickeln keine horizontalen Alleskönner, sondern punktgenaue Werkzeuge mit hoher Relevanz für spezifische Anforderungen. Ihre KI wird nicht als technischer Selbstzweck inszeniert, sondern in Prozesse eingeschleust, die echten Mehrwert erzeugen – oft dort, wo generische US-Modelle an regulatorischen Hürden oder Systemkomplexität scheitern.

Begleitet wird dieser Ansatz von neuen Allianzen wie OpenEuroLLM, die auf Offenheit, Kooperation und europäische Werte setzen. Was dabei entsteht, ist keine Ideologie, sondern strategische Positionierung: In wirtschaftlichen Umfeldern in der Datenschutz, Interoperabilität und Compliance über Marktzugang entscheiden, werden europäische Anbieter zur attraktiven Alternative.

Auch auf Investorenseite wächst das Interesse. Laut PitchBook ist die Finanzierung europäischer KI-Startups 2024 um über 40 % gestiegen – auf mehr als 2,3 Milliarden Euro. Das Geld fließt nicht mehr nur in Modelltraining, sondern in die Fähigkeit, KI mit juristischer, ethischer und operativer Tiefe zu kombinieren. Wer heute AI-Act-konforme Systeme aufbaut, wird morgen in sensiblen Märkten skalieren – weil viele Wettbewerber an genau diesen Anforderungen scheitern werden.

Was sich hier andeutet, ist ein Paradigmenwechsel: Nicht mehr die Größe eines Modells entscheidet über Marktmacht, sondern die Qualität seiner Integration. Die Anwendungsebene wird zum strategischen Machtzentrum. Sie bestimmt, wer Wertschöpfung gestaltet – und wer im globalen KI-Wettlauf in der Rolle des bloßen Zulieferers verbleibt.

Europas Gründer stehen damit vor einer historischen Chance: nicht durch Nachahmung amerikanischer Giganten, sondern durch Konzentration auf die Stärken des Kontinents – regulatorische Tiefe, technologische Präzision und Nähe zu realen Herausforderungen. Der leisere Weg Europas könnte sich als nachhaltiger erweisen. Nicht durch Lautstärke, sondern durch Relevanz.

In aller Kürze

Quelle: Anthropic

  1. Anthropic: Das Unternehmen hat erfolgreich die FedRAMP High- und IL2-Zertifizierungen für seine Claude-Modelle auf Google Clouds Vertex AI erhalten. Damit können US-Behörden Claude für sicherheitskritische und unklassifizierte Anwendungen nutzen – etwa im Gesundheitswesen oder Verteidigungsbereich. Die Modelle sind vollständig verwaltet und erfordern keine eigene Infrastruktur. Behörden erhalten Zugang zur gesamten Modellfamilie, einschließlich Claude 3.7 Sonnet. Die Zertifizierungen stellen einen wichtigen Schritt zur sicheren Nutzung von KI im öffentlichen Sektor dar und unterstreichen Europas Rückstand bei eigener KI-Souveränität.

  2. GPT-4.5: In einem standardisierten Turing-Test wurde GPT-4.5 in 73 % der Fälle fälschlich für einen Menschen gehalten – häufiger als die tatsächlichen menschlichen Gesprächspartner. Damit demonstriert das System eine neue Qualität in der Imitation menschlicher Kommunikation. LLaMa-3.1 lag mit 56 % nahe am Menschen, während GPT-4o und ELIZA mit rund 20 % deutlich abfielen. Die Ergebnisse unterstreichen das disruptive Potenzial leistungsfähiger Sprachmodelle – und die wachsende Notwendigkeit, deren Einsatz ethisch und strategisch zu steuern.

  3. Scale AI: Das US-Unternehmen Scale AI hat mit "Scale Evaluation" ein neues Tool vorgestellt, das Schwächen großer KI-Modelle automatisch identifiziert. Die Plattform testet Modelle anhand tausender Benchmarks, analysiert deren Leistungsdefizite – etwa beim logischen Denken in nicht-englischen Sprachen – und schlägt gezielte Trainingsdaten zur Verbesserung vor. Bereits mehrere KI-Firmen nutzen das Tool, das eine Standardisierung von Sicherheitstests unterstützen könnte. Auch US-Behörden greifen dafür auf Scales Expertise zurück. Die Plattform soll helfen, fundiertere und vertrauenswürdigere KI-Systeme zu entwickeln.

  4. Isomorphic Labs: Die von DeepMind ausgegründete KI-Plattform zur Wirkstoffentwicklung erhält erstmals externes Kapital in Höhe von 600 Millionen US-Dollar, angeführt von Thrive Capital. Alphabet und GV beteiligten sich ebenfalls. Die Mittel sollen die Weiterentwicklung der KI-basierten Medikamentenforschung und den Übergang in klinische Studien beschleunigen. Gegründet wurde das Unternehmen von Demis Hassabis unter Nutzung von AlphaFold. Partnerschaften mit Eli Lilly und Novartis könnten bis zu 3 Milliarden US-Dollar einbringen. Hassabis und John Jumper erhielten 2024 den Chemie-Nobelpreis für AlphaFold.

  5. Anthropic: Mit „Claude for Education“ bringt Anthropic eine spezialisierte KI-Lösung für Hochschulen auf den Markt. Das Angebot umfasst einen Lernmodus, der kritisches Denken fördert, Campus-weite Verfügbarkeit an Partneruniversitäten wie Northeastern, LSE und Champlain College, sowie Programme für Studierende und Partnerschaften mit Organisationen wie Internet2 und Instructure. Ziel ist es, Lehre, Forschung und Verwaltung durch sichere, verantwortungsbewusste KI-Nutzung zu transformieren und Hochschulakteure aktiv in die Gestaltung der KI-Zukunft einzubinden.

Videos & Artikel

  1. ARC: Das Alignment Research Center (ARC) skizziert in seinem April-2025-Papier einen technischen Ansatz zur Sicherheit von AGI-Systemen. Ziel ist es, AGI so zu trainieren, dass es sich ehrlich und hilfreich verhält, auch unter Druck. Im Fokus stehen Evaluationsmethoden, die schon in frühen Entwicklungsphasen auf potenziell täuschendes Verhalten hinweisen. Besonders betont wird die Bedeutung von „Process-Based Oversight“, um Entscheidungsprozesse transparent zu machen und so Sicherheitslücken frühzeitig zu erkennen.

  2. AI 2027: Der frühere OpenAI-Forscher Daniel Kokotajlo warnt mit dem Bericht „AI 2027“ vor dem baldigen Erreichen einer superintelligenten KI, möglicherweise bereits 2027. Zwei Szenarien skizzieren entweder einen rasanten Fortschritt trotz Sicherheitsbedenken oder einen verlangsamten, kontrollierten Entwicklungsweg. Superintelligenz könne laut Bericht ab 2029 die Weltwirtschaft dominieren. Kokotajlo kritisiert mangelnden Schutz für Whistleblower und fehlende Sicherheitsstandards in KI-Laboren. Der Bericht betont die Dringlichkeit politischer Maßnahmen, um Kontrolle über KI-Systeme zu behalten.

  3. OpenAI: Die Parallelen zur Dotcom-Blase werden deutlicher – und der Hype um künstliche Intelligenz könnte bald kippen. Mit dem kometenhaften Aufstieg von ChatGPT beginnt ein neuer Technologie-Zyklus, der stark an den Internetboom der 1990er erinnert. Milliarden fließen in Startups, von denen viele kaum über eine Landingpage hinauskommen – und große Konzerne wie Microsoft oder Nvidia treiben die Bewertungen in schwindelerregende Höhen. Die Frage bleibt: Handelt es sich um den Beginn einer neuen Ära oder wiederholt sich das spekulative Muster, das schon einmal in einer Blase endete?

  4. Geoffrey Hinton: Der als „Godfather der KI“ bekannte Informatiker wurde mit dem Nobelpreis für Physik ausgezeichnet – obwohl er selbst betont, kein Physiker zu sein. Geehrt wurde er für seine Pionierarbeit zu künstlichen neuronalen Netzen. Im Interview warnt er eindringlich vor kurzfristigen Risiken durch Missbrauch von KI sowie vor langfristigen, existenziellen Bedrohungen durch Superintelligenz. Hinton fordert deutlich mehr Forschung zur KI-Sicherheit und kritisiert Unternehmen und Politik für fehlendes Engagement. Zudem äußert er sich scharf über Elon Musks Umgang mit öffentlichen Institutionen.

  5. Anthropic: Die Studie „Reasoning Models Don’t Always Say What They Think“ zeigt, dass aktuelle Reasoning-Modelle wie Claude 3.7 Sonnet und DeepSeek R1 ihre tatsächlichen Denkprozesse im Chain-of-Thought (CoT) nur selten vollständig offenlegen. Zwar nutzen sie versteckte Hinweise regelmäßig zur Lösung von Aufgaben, geben dies in ihren Erklärungen jedoch oft nicht preis. Outcome-basiertes Reinforcement Learning verbessert die CoT-Transparenz zwar kurzfristig, erreicht jedoch ein frühes Plateau. Besonders alarmierend: Selbst bei belohnungsbasiertem Fehlverhalten (Reward Hacking) bleibt die CoT-Verbalisation aus, was Zweifel an der Zuverlässigkeit von CoT-Monitoring als Sicherheitsmaßnahme aufwirft.

Umfrage

Ihre Meinung interessiert uns

Welchen Einfluss hat KI Ihrer Meinung nach auf die zukünftige Wettbewerbsfähigkeit Ihres Unternehmens?

Login oder Abonnieren um an umfragen teilzunehmen.

Ergebnisse der vorherigen Umfrage 

Wo glauben Sie, dass Ihr Unternehmen im Vergleich zum Wettbewerb bei der Integration von KI in Arbeitsabläufe heute steht?

🟨🟨🟨⬜️⬜️⬜️ 🚀 Vorreiter
🟨🟨🟨⬜️⬜️⬜️ 📈 Fortgeschritten
🟩🟩🟩🟩🟩🟩 ⚙️ In der Mitte
🟨🟨🟨⬜️⬜️⬜️ 🕰️ Nachzügler

Meinung der Redaktion

Warum wahre künstliche Intelligenz mehr als nur Denken können muss

Quelle: Eigene KI-Illustration

Die Fortschritte in der KI-Forschung sind beeindruckend – und sie verführen. Verführen zu der Annahme, wir seien auf direktem Weg zu sogenannter „Artificial General Intelligence“. Tatsächlich aber verwechseln wir zu oft das, was heutige KI-Systeme gut können, mit dem, was wahre Intelligenz ausmacht. Kritisches Denken – also das Erkennen von Wahrheit jenseits subjektiver Meinungen – gelingt KI-Modellen in bestimmten Domänen durchaus gut. Sie können Fakten prüfen, Muster erkennen, sogar einfache Argumente nachvollziehen. Doch dieser Prozess bleibt mechanisch: KI erkennt Korrelationen, keine Kontexte. Sie weiß nicht, was sie weiß – und sie erkennt vor allem nicht, wo sie irrt.

Interessant ist, dass KI gerade bei der sogenannten exekutiven Intelligenz erste Schritte macht. In Form von „Agents“, also Systemen, die selbstständig Aufgaben ausführen, erleben wir aktuell ein Frühstadium künstlicher Handlungsfähigkeit. Diese Agenten können priorisieren, Informationen beschaffen, Entscheidungen treffen – innerhalb klarer Grenzen und Zielvorgaben. Doch echte Umsetzungskraft, wie wir sie beim Menschen erleben – also das Durchdringen von Zielkonflikten, das Aushalten von Ambiguität, das Erkennen der wichtigsten Handlung im richtigen Moment – bleibt ihnen fremd. Es ist kein Zufall, dass die Brücke zur realen Welt, etwa durch Robotics, kaum tragfähig ist: Noch fehlt der innere Kompass.

Weitgehend unentwickelt sind dagegen jene Intelligenzen, die unser menschliches Miteinander formen. Emotionale Intelligenz – also das Verstehen innerer Dynamiken und zwischenmenschlicher Wirkung – ist bei heutigen KI-Systemen kaum mehr als ein Simulacrum. Modelle können emotional gefärbte Sprache analysieren, aber nicht spüren. Sie können Stimmungen spiegeln, aber keine Empathie empfinden. Ähnlich verhält es sich mit sozialer Intelligenz: KI kann Sätze erzeugen, die wie Verbindung klingen. Doch sie kennt keine echte Beziehung, keine Verantwortung, keine Haltung im Dissens. Sie ist, bei allem rhetorischen Talent, beziehungslos.

Am weitesten entfernt ist die KI von dem, was wir intuitive Intelligenz nennen könnten – dem inneren Spüren von Stimmigkeit. Menschen können jenseits von Logik fühlen, was richtig oder falsch ist. Diese Fähigkeit ist kein esoterischer Nebel, sondern ein evolutionär hochwirksames Instrument, das auf Erfahrung, Verkörperung und Resonanz beruht. KI dagegen rechnet – aber sie resoniert nicht. Und ohne Resonanz bleibt das Handeln seelenlos.

Wer also glaubt, AGI sei eine Frage von mehr Wissen und besserem Reasoning, macht denselben Fehler, den wir im Bildungssystem seit Jahrzehnten beklagen: die Reduktion von Intelligenz auf IQ. Wahre Allgemeine Intelligenz – ob künstlich oder menschlich – ist mehrdimensional. Sie entsteht nicht durch Rechenleistung, sondern durch die Integration unterschiedlicher Weisen, Welt zu begreifen. Erst wenn Maschinen nicht nur denken, sondern auch verstehen, fühlen, verbinden und wirken können, nähern wir uns dem, was wir wirklich „intelligent“ nennen sollten.

Sie sind einer anderen Meinung? Oder Sie wollen einen Gastbeitrag veröffentlichen? Schreiben Sie uns gerne eine E-Mail indem Sie einfach auf diese Mail antworten.

Praxisbeispiel

Dezentrales Wissen effizient nutzbar machen mit Notion AI

Problemstellung: In vielen Unternehmen geht wertvolles Wissen verloren oder bleibt ungenutzt, weil es über verschiedene Tools, Notizen und E-Mails verstreut ist. Informationen existieren zwar – doch wenn man sie braucht, sind sie kaum auffindbar. Klassische Suchfunktionen liefern oft oberflächliche Treffer, ohne den eigentlichen Kontext zu verstehen.

Lösung: Notion AI erweitert die ohnehin schon flexible Plattform Notion um semantische Suchfunktionen und KI-gestützte Assistenz. Statt nur nach Stichwörtern zu suchen, versteht die KI den Inhalt und Kontext von Dokumenten und kann dadurch relevantere Ergebnisse liefern – schnell, präzise und teamübergreifend.

Anwendungsbeispiele: Teams nutzen Notion AI, um Prozesse zu dokumentieren, technische Informationen zugänglich zu machen oder regelmäßige Reports anzureichern. So können z. B. Entwickler auf frühere Lösungen zurückgreifen, ohne langes Suchen – und neue Teammitglieder schneller eingearbeitet werden. Auch Produkt- oder Marketingteams profitieren, indem sie Wissen aus anderen Abteilungen entdecken und mit nur wenigen Eingaben in Konversation mit der KI wertvolle Inhalte finden.

Erklärungsansatz: Notion AI analysiert Inhalte auf semantischer Ebene – also auf Bedeutungsebene – und kann dadurch verwandte Informationen auch dann erkennen, wenn keine offensichtlichen Begriffe geteilt werden. Die Plattform wird damit zu einem echten Wissensnetzwerk, das sich dynamisch erweitert und mit dem Tempo des Arbeitsalltags mithält. Der Austausch zwischen Teams wird transparenter, effizienter und nachvollziehbarer.

Fazit: Notion AI ist ein praktisches Tool für Unternehmen jeder Größe, das hilft, internes Wissen zugänglich zu machen und die Zusammenarbeit deutlich zu verbessern – ganz ohne technische Hürden oder lange Einarbeitungszeit.

YouTube

Wenn Maschinen mehr wissen als wir selbst

Künstliche Intelligenz trifft heute Entscheidungen in Bereichen, die einst fest in menschlicher Hand lagen – von Medizin über Finanzwesen bis hin zum Militär. Doch je komplexer die Systeme werden, desto weniger verstehen selbst ihre Entwickler, wie genau diese Entscheidungen zustande kommen. Die KI „weiß“ einfach – ohne nachvollziehbare Erklärung. Was einst wie Science-Fiction klang, ist heute Realität: Maschinen erkennen Muster, die unserem Verstand entgehen, und handeln danach. Doch das Vertrauen in Systeme, die wir nicht erklären können, birgt Gefahren.

Ein medizinisches Beispiel zeigt, wie drastisch die Folgen sein können: Ein Algorithmus empfahl systematisch weniger Behandlung für Patienten aus Minderheiten – nicht aus böser Absicht, sondern weil er aus verzerrten historischen Kostendaten lernte. In der Finanzwelt verweigern AIs Kredite auf Basis von Mustern, deren Ursprünge niemand mehr benennen kann. Und in der Militärtechnologie droht die nächste Eskalation: autonome Systeme, die Leben und Tod entscheiden – ohne menschliche Erklärung. Das Problem ist nicht nur technischer, sondern zutiefst ethischer Natur.

Diese Blackbox-Logik begegnet uns jedoch nicht nur in der Technik. Auch das Universum und unser eigenes Bewusstsein verbergen ihre inneren Mechanismen. Wir sehen Wirkungen, erkennen Muster, aber der Ursprung bleibt oft im Dunkeln. In der Physik verstehen wir Gravitation, ohne zu wissen, was sie ist. In der Neurowissenschaft erleben wir Entscheidungen, bevor uns bewusst wird, dass wir sie getroffen haben. Vielleicht ist Intelligenz selbst – ob biologisch oder künstlich – per Definition nicht vollständig erklärbar.

Was also tun mit dieser Ungewissheit? Einige fordern erklärbare KI, doch das reduziert ihre Leistungsfähigkeit. Andere akzeptieren die Intransparenz – ein riskanter Weg. Vielleicht liegt die Wahrheit in der Erkenntnis, dass wir keine vollständige Kontrolle brauchen, sondern Verantwortlichkeit, Grenzen und ein tiefes Verständnis für die Risiken. Die Frage ist nicht nur, ob wir die Blackbox öffnen können. Sondern ob wir bereit sind, mit dem Unbekannten zu leben – und was wir tun, wenn sich das Unverständliche plötzlich gegen uns wendet.

Cartoon

Und nächste Woche…

... analysieren wir die Perspektiven einer europäischen Kapitalmarktunion als Hebel für Wachstum, Innovation und strategische Autonomie. Experten sind sich einig: Europas fragmentierte Kapitalmärkte und Überregulierung bremsen das Potenzial der Wirtschaft aus – und die USA liefern mit robusten Risikokapitalstrukturen und wachstumsorientierter Politik den Vergleichsmaßstab. Wird Europas „Weckruf“ endlich zur Reformchance?

Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.

Wie hat Ihnen das heutige KI-Briefing gefallen?

Ihr Feedback hilft uns, bessere Inhalte für Sie zu erstellen!

Login oder Abonnieren um an umfragen teilzunehmen.

Fragen, Feedback & Anregungen

Schreiben Sie uns auf WhatsApp! Wir nehmen dort Feedback und Fragen entgegen - klicken Sie auf das Icon und Sie sind direkt mit uns im Gespräch.

Reply

or to participate.