🍓 OpenAI entwickelt Projekt "Strawberry" zur Verbesserung der KI-Fähigkeiten
Außerdem: Meta führt neue Multi-Token-Vorhersage in der KI-Entwicklung ein & Microsofts VALL-E 2 zeigt fortschrittliche, aber riskante KI-Sprachgenerierung
Guten Morgen!
Willkommen zum KI-Briefing!
Die Erkenntnisse dieser Woche vermitteln uns zunehmend ein Gefühl dafür, in welche Richtung wir uns als Gesellschaft im Lichte des technologischen Fortschritts bewegen. Während ChatGPT zu Beginn noch sehr beeindruckend wirkte, werden die derzeitigen Unzulänglichkeiten solcher KI-Systeme schnell offensichtlich. Umso spannender sind die Nachrichten, die uns diese Woche aus dem Hause OpenAI erreicht haben. Sowohl das Projekt “Strawberry” als auch die Stufenskala für die Fähigkeiten von KI-Systemen bieten einen interessanten Einblick in die zukünftige Entwicklung und die Herausforderungen, die noch vor uns liegen, um wahrhaftig nützliche KI zu entwickeln.
Obwohl OpenAI letzte Woche im Mittelpunkt stand, gibt es auch andere bedeutende Neuigkeiten. So scheiterte beispielsweise der Deal zwischen Oracle und x.AI, während ein erfolgreicher Deal zwischen AMD und der europäischen KI-Hoffnung Silo AI zustande kam.
Wenn Sie jemanden kennen, der ebenfalls vom KI-Briefing profitieren würde, leiten Sie die E-Mail gerne an Freunde oder Kollegen weiter. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.
Inhalt dieses Briefings
News: OpenAI entwickelt Projekt "Strawberry" zur Verbesserung der KI-Fähigkeiten, Fünfstufige Skala zur Bewertung von Fortschritten in der KI-Entwicklung von OpenAI entwickelt, Meta führt neue Multi-Token-Vorhersage in der KI-Entwicklung ein, Chinesische KI-Unternehmen profitieren von US-Sanktionen, Microsofts VALL-E 2 zeigt fortschrittliche, aber riskante KI-Sprachgenerierung & Zusammenarbeit zwischen OpenAI und dem Los Alamos National Laboratory zur Förderung der Biosicherheitsforschung durch KI
Deep Dive: Die Zukunft des Sprachmodells-Scalings: Mythen und Realitäten 🚀
In aller Kürze: Andreesen Horowitz investiert massiv in GPUs, Oracle-xAI Deal gescheitert, Amazon führt KI-Einkaufsassistenten Rufus ein, AMD übernimmt finnisches KI-Startup Silo AI, Thrive AI Health entwickelt AI-Gesundheitscoach-App 👨🏼⚕️
Umfrage: Wir möchten das KI-Briefing kontinuierlich verbessern und überlegen, die Sektion DeepDive zu ersetzen. Welcher Ersatz wäre Ihnen am liebsten?
YouTube: Ein Gespräch mit CEO Aidan Gomez über die KI-Entwicklungen bei Cohere
Cartoon: Betriebsgeheimnisse 🤣
News
OpenAI entwickelt Projekt "Strawberry" zur Verbesserung der KI-Fähigkeiten
Zusammenfassung: OpenAI arbeitet an einem neuen Projekt mit dem Codenamen "Strawberry", das die Denkfähigkeiten seiner KI-Modelle verbessern soll. Ziel des Projekts ist es, den KIs zu ermöglichen, selbständig im Internet zu recherchieren und komplexe Probleme vorausplanend zu lösen. Diese Entwicklung ist Teil von OpenAIs umfassenderer Strategie, die Denkfähigkeiten seiner Modelle zu verbessern, um menschenähnliche oder sogar übermenschliche Intelligenz zu erreichen. Wir gehen auf diesen Aspekt in der darauffolgenden Meldung noch genauer ein.
Details:
Projekt "Strawberry": Ein neues, streng geheimes Projekt von OpenAI zur Verbesserung der Denkfähigkeiten seiner KI-Modelle.
Autonome Forschung: Die KI-Modelle sollen in der Lage sein, selbständig im Internet zu recherchieren und komplexe Aufgaben zu planen und zu lösen.
Vergleich zu STaR: Das Projekt ähnelt dem "Self-Taught Reasoner" (STaR) Verfahren der Stanford University, bei dem KI-Modelle iterativ ihre eigenen Trainingsdaten erstellen, um ihre Intelligenz zu steigern.
Langfristige Aufgabenbewältigung: Ziel ist es, dass die Modelle Aufgaben mit langer Laufzeit planen und ausführen können.
Interne und externe Signale: OpenAI hat sowohl intern als auch extern angedeutet, dass es kurz vor der Veröffentlichung dieser neuen Technologie steht.
Warum das wichtig ist: Das Projekt "Strawberry" könnte einen bedeutenden Fortschritt in der KI-Entwicklung darstellen, indem es die Fähigkeit der Modelle zur autonomen Forschung und zur Lösung komplexer Probleme verbessert. Dies könnte die Einsatzmöglichkeiten von KI erheblich erweitern und die Notwendigkeit menschlicher Eingriffe bei der Datenanalyse und Problemlösung reduzieren. Wenn erfolgreich, könnte dieses Projekt OpenAI näher an das Ziel bringen, KI-Modelle mit menschenähnlicher oder übermenschlicher Intelligenz zu schaffen, was weitreichende Auswirkungen auf zahlreiche Branchen und Anwendungen haben könnte.
News
Fünfstufige Skala zur Bewertung von Fortschritten in der KI-Entwicklung von OpenAI entwickelt
Zusammenfassung: OpenAI hat eine interne Skala entwickelt, um den Fortschritt ihrer großen Sprachmodelle in Richtung Allgemeine Künstliche Intelligenz (AGI) zu messen. Diese Skala umfasst fünf Stufen, von denen aktuelle Modelle wie ChatGPT gerade mal auf Stufe 1 stehen. OpenAI behauptet, dass es sich der Stufe 2 nähert, bei der das System Probleme auf dem Niveau eines Menschen mit einem Doktortitel lösen kann. Diese neue Bewertungsskala wurde eingeführt, kurz nachdem OpenAI eine Zusammenarbeit mit dem Los Alamos National Laboratory bekannt gab, um die sichere Nutzung fortschrittlicher KI-Modelle zu erforschen.
Details:
Stufen der Skala: Stufe 1 - Aktuelle KI-Modelle wie ChatGPT, die Konversationsfähigkeiten haben. Stufe 2 - „Reasoners“, KI, die grundlegende Probleme auf dem Niveau eines Menschen mit einem Doktortitel lösen kann. Stufe 3 - „Agents“, KI, die über mehrere Tage hinweg Aufgaben im Namen des Nutzers erledigen kann. Stufe 4 - „Innovators“, KI, die neue Erfindungen entwickeln kann. Stufe 5 - AGI, die die Arbeit ganzer Organisationen übernehmen kann.
Entwicklung und Zweck: Die Skala wurde entwickelt, um Fortschritte auf dem Weg zur Allgemeinen Künstlichen Intelligenz (AGI) klarer zu definieren und messbar zu machen. OpenAI's Mission und Struktur sind darauf ausgerichtet, AGI zu erreichen. Dabei verpflichtet sich OpenAI, Projekte zu unterstützen, die AGI vor OpenAI erreichen und dabei sicherheitsbewusst vorgehen, anstatt mit ihnen zu konkurrieren.
Zusammenarbeit Los Alamos National Laboratory: Ziel ist es, die Fähigkeiten von GPT-4 in der Bio-Forschung zu testen und Sicherheitsfaktoren für den Einsatz durch die US-Regierung zu etablieren. Die Ergebnisse dieser Tests sollen auch zur Überprüfung anderer öffentlicher oder privater Modelle genutzt werden.
Sicherheitsbedenken: Im Mai kam es zur Auflösung des OpenAI-Sicherheitsteams nach dem Abgang wichtiger Führungskräfte. Dies führte zu Kritik, dass Sicherheitsprozesse zugunsten von Produktentwicklungen vernachlässigt wurden.
Warum das wichtig ist: Die Einführung der Skala und die damit verbundene Strukturierung des Fortschritts von OpenAI verdeutlichen die systematische Herangehensweise des Unternehmens an die Entwicklung von AGI. Dies könnte nicht nur die Transparenz und Nachvollziehbarkeit von Fortschritten verbessern, sondern auch dazu beitragen, Sicherheitsbedenken zu adressieren. Die internen und externen Herausforderungen, vor denen OpenAI steht, unterstreichen die Komplexität und die potenziellen Auswirkungen des Strebens nach AGI.
News
Meta führt neue Multi-Token-Vorhersage in der KI-Entwicklung ein
Zusammenfassung: Meta hat neue vortrainierte Modelle veröffentlicht, die einen neuartigen Ansatz zur Multi-Token-Vorhersage nutzen und damit die Entwicklung und Bereitstellung großer Sprachmodelle (LLMs) grundlegend verändern könnten. Diese Methode, die erstmals in einem Meta-Forschungspapier im April beschrieben wurde, zielt darauf ab, mehrere zukünftige Wörter gleichzeitig vorherzusagen, was die Leistungsfähigkeit der Modelle erhöht und die Trainingszeiten drastisch reduziert.
Details:
Neuer Ansatz: Anstelle der traditionellen Methode, bei der LLMs nur das nächste Wort in einer Sequenz vorhersagen, sagt Metas neue Technik mehrere zukünftige Wörter gleichzeitig voraus.
Effizienz und Nachhaltigkeit: Der Ansatz verspricht nicht nur eine verbesserte Leistung, sondern auch eine erhebliche Reduzierung des Rechenaufwands, was Kosten senkt und die Umweltbelastung verringert.
Breite Anwendungsmöglichkeiten: Diese Modelle könnten eine tiefere Sprachverständnis entwickeln, was Verbesserungen in Bereichen wie Code-Generierung und kreatives Schreiben ermöglicht.
Ethik und Sicherheit: Die Demokratisierung leistungsstarker KI-Werkzeuge birgt sowohl Chancen als auch Risiken, weshalb die Entwicklung robuster ethischer Rahmenbedingungen und Sicherheitsmaßnahmen notwendig ist.
Strategische Freigabe: Die Modelle sind unter einer nicht-kommerziellen Forschungslizenz auf Hugging Face verfügbar, was Metas Engagement für offene Wissenschaft unterstreicht und gleichzeitig Innovation und Talentakquise fördert.
Fokus auf Programmierung: Die erste Veröffentlichung konzentriert sich auf Aufgaben der Code-Vervollständigung, was den wachsenden Markt für KI-unterstützte Programmierwerkzeuge widerspiegelt.
Umfassender Ansatz: Neben den Sprachmodellen umfasst Metas Veröffentlichung auch Fortschritte in der Bild-zu-Text-Generierung und der Erkennung von KI-generierter Sprache.
Warum das wichtig ist: Metas Einführung der Multi-Token-Vorhersage markiert einen bedeutenden Fortschritt in der KI-Entwicklung. Diese Methode könnte nicht nur die Effizienz und Leistungsfähigkeit von Sprachmodellen verbessern, sondern auch die Zugänglichkeit und Nachhaltigkeit fortschrittlicher KI-Technologien fördern. Gleichzeitig wirft sie wichtige Fragen hinsichtlich der ethischen Nutzung und Sicherheit auf, die es zu adressieren gilt, um das volle Potenzial dieser Technologie verantwortungsvoll zu nutzen. Metas strategische Freigabe der Modelle unterstreicht die Bedeutung offener Wissenschaft und könnte die Innovationsgeschwindigkeit in der KI-Forschung weiter erhöhen.
News
Chinesische KI-Unternehmen profitieren von US-Sanktionen
Zusammenfassung: Beim jüngsten World AI Conference in Shanghai präsentierte SenseTime sein neues KI-Modell SenseNova 5.5, das vergleichbare Fähigkeiten wie OpenAIs GPT-4o aufweist. Da OpenAI ab dem 9. Juli den Zugang zu seinen Tools in China blockiert, ergreifen chinesische KI-Unternehmen wie SenseTime, Baidu und Tencent Cloud die Gelegenheit, neue Nutzer zu gewinnen, indem sie kostenlose Tokens und Migrationsdienste anbieten. Die Entscheidung der USA, OpenAI-Dienste in China zu blockieren, erfolgt vor dem Hintergrund zunehmender Spannungen und Exportbeschränkungen für fortschrittliche Halbleiter. Chinesische Kommentatoren sehen darin eine Chance für die heimische KI-Industrie, unabhängiger zu werden.
Details:
SenseNova 5.5: Das neue KI-Modell von SenseTime zeigt vergleichbare Fähigkeiten zu OpenAIs GPT-4o.
Angebote: SenseTime bietet 50 Millionen kostenlose Tokens und kostenlose Migrationsdienste an, um OpenAI-Nutzer anzuziehen. Auch Baidu und Tencent Cloud bieten ähnliche Anreize.
US-Blockade: Die USA blockieren den Zugang zu OpenAI-Diensten in China ab dem 9. Juli, was die chinesische KI-Gemeinschaft beunruhigt, aber auch Chancen für inländische Unternehmen schafft.
Wettbewerb und Innovation: Chinesische Unternehmen versuchen, die Leistungslücke zu US-Konkurrenten zu schließen, stehen jedoch vor einem möglichen Innovationshemmnis aufgrund von Preiskriegen und US-Sanktionen.
Unabhängigkeit: Staatliche Medien und Akademiker in China sehen die Blockade als Anstoß zur Unabhängigkeit und Innovation in der heimischen Technologiebranche.
Warum das wichtig ist: Die Blockade von OpenAI-Diensten in China markiert einen wichtigen Wendepunkt für die chinesische KI-Industrie. Während kurzfristige Schwierigkeiten und Bedenken hinsichtlich des Zugangs zu Spitzentechnologie bestehen, könnte dieser Schritt langfristig die Unabhängigkeit und Innovationskraft chinesischer Unternehmen stärken. Die Reaktion der heimischen KI-Unternehmen, Anreize zu bieten und die Lücke zu schließen, unterstreicht ihre Entschlossenheit, auf dem globalen Markt konkurrenzfähig zu bleiben. Die Entwicklung könnte die Geschwindigkeit der KI-Forschung und -Anwendung in China erhöhen und die Position des Landes in der globalen Technologiearena stärken.
News
Microsofts VALL-E 2 zeigt fortschrittliche, aber riskante KI-Sprachgenerierung
Zusammenfassung: Microsoft hat mit VALL-E 2 ein neues Text-to-Speech (TTS) System entwickelt, das in der Lage ist, menschliche Stimmen auf beeindruckend natürliche Weise nachzuahmen. Die enormen Fortschritte bei der Sprachqualität und -natürlichkeit haben die Entwickler jedoch dazu veranlasst, keine Veröffentlichung für die breite Öffentlichkeit zu planen, da sie die Risiken für potenziellen Missbrauch als zu groß erachten.
Details:
Technologie: VALL-E 2 nutzt neuralen Codecs und fortschrittliche Algorithmen wie "Repetition Aware Sampling" und "Grouped Code Modeling", um realistische Sprachausgabe zu erzeugen.
Leistungsfähigkeit: Das System kann mit nur wenigen Sekunden an Audioinput die Stimme eines Sprechers nachbilden, was laut den Entwicklern menschliche Parität erreicht.
Evaluation: Tests mit Datensätzen wie LibriSpeech und VCTK sowie dem Evaluierungsrahmen ELLA-V bestätigten die hohe Qualität und Genauigkeit der generierten Sprache.
Sicherheitsbedenken: Aufgrund möglicher Missbrauchsgefahren, wie dem Spoofing von Sprachidentitäten, wird VALL-E 2 nicht kommerziell verfügbar gemacht. Es bleibt ein reines Forschungsprojekt.
Warum das wichtig ist: Die Entwicklungen von VALL-E 2 markieren einen bedeutenden Schritt in der KI-Sprachsynthese, der potenziell weitreichende Anwendungen in Bildung, Unterhaltung und Barrierefreiheit haben könnte. Gleichzeitig zeigt der verantwortungsbewusste Umgang mit der Technologie, dass selbst die fortschrittlichsten Innovationen sorgfältig abgewogen werden müssen, um gesellschaftliche Risiken zu minimieren. Microsoft setzt hiermit ein Beispiel für ethische Verantwortung im Bereich der KI-Forschung.
News
Zusammenarbeit zwischen OpenAI und dem Los Alamos National Laboratory zur Förderung der Biosicherheitsforschung durch KI
Zusammenfassung: OpenAI und das Los Alamos National Laboratory (LANL) haben eine Partnerschaft geschlossen, um den sicheren Einsatz von künstlicher Intelligenz in Laborumgebungen zur Förderung der Bio-Forschung zu untersuchen. Diese Kooperation baut auf einer langen Tradition der Zusammenarbeit zwischen dem öffentlichen und privaten Sektor in den USA auf, um technologische Innovationen in essenziellen Bereichen wie Gesundheit und Biowissenschaften voranzutreiben. Ziel ist es, die Fähigkeiten von KI-Modellen wie GPT-4o in praktischen Laboraufgaben zu evaluieren und deren Nutzen sowie Risiken zu verstehen.
Details:
Partnerschaft: Zusammenarbeit zwischen OpenAI und LANL zur Untersuchung von KI in Laborumgebungen.
White House Executive Order: Erfordert die Bewertung der Fähigkeiten von fortschrittlichen KI-Modellen durch nationale Labore des Energieministeriums.
Ziel: Evaluation von GPT-4o in der Unterstützung von Laboraufgaben durch multimodale Fähigkeiten wie Sehen und Sprache.
Sicherheitsbewertungen: Untersuchung der biologischen Sicherheit von GPT-4o und seiner Echtzeitsysteme zur Unterstützung der Forschung.
Erweiterte Evaluierungen: Testen von GPT-4o in Laborumgebungen zur Bewertung der Aufgabenbewältigung von Experten und Anfängern bei biologischen Experimenten.
Multimodale Fähigkeiten: Integration von visuellen und sprachlichen Eingaben zur Unterstützung der Lernprozesse im Labor.
Fortschritte in der Biosicherheit: Kooperation zur Etablierung neuer Standards für KI-Sicherheitsbewertungen und Unterstützung wissenschaftlicher Forschung.
Warum das wichtig ist: Diese Partnerschaft unterstreicht das Potenzial von multimodalen KI-Modellen wie GPT-4o, wissenschaftliche Forschung zu unterstützen und gleichzeitig die Bedeutung der Zusammenarbeit zwischen öffentlichem und privatem Sektor zur Sicherstellung von Innovation und Sicherheit hervorzuheben. Die Ergebnisse dieser Evaluierungen könnten neue Standards für die Nutzung von KI in wissenschaftlichen Labors setzen und dazu beitragen, zukünftige Innovationen zu fördern, die der Menschheit zugutekommen.
Deep Dive Skalierung von KI-Systemen
Die Zukunft des Sprachmodells-Scalings: Mythen und Realitäten
In den letzten Jahren haben immer größere Sprachmodelle beeindruckende Fortschritte gezeigt, doch bleibt die Frage offen, ob diese Entwicklung ungebremst fortgesetzt werden kann. Viele Experten hoffen, dass das kontinuierliche Scaling von Modellen uns letztlich zur künstlichen allgemeinen Intelligenz (AGI) führen wird. Diese Sichtweise stützt sich jedoch auf einige Missverständnisse und Mythen über die bisherigen Forschungsergebnisse und die zukünftigen Herausforderungen. In diesem Deep Dive beleuchten wir die Mythen rund um das Scaling, die aktuellen Grenzen und die realistischen Erwartungen für die Zukunft.
Missverständnisse über Scaling-Gesetze
Die Forschung zu Scaling-Gesetzen zeigt, dass größere Modelle bei erhöhtem Training und größerem Datensatz eine bessere Performance erzielen. Diese Verbesserung misst sich hauptsächlich an der reduzierten Perplexität, also der Genauigkeit bei der Vorhersage des nächsten Wortes in einem Text. Viele interpretieren dies als Beweis dafür, dass das Scaling unendlich fortgesetzt werden kann und immer neue Fähigkeiten hervorrufen wird. Doch diese Sichtweise ist ein Missverständnis. Perplexität ist nicht gleichbedeutend mit den emergenten Fähigkeiten, die für den Endnutzer relevant sind. Emergenz ist unvorhersehbar und es gibt keine Garantie, dass sie bei weiterer Skalierung kontinuierlich neue Fähigkeiten hervorbringen wird.
Grenzen des Trainingsdatensatzes
Ein bedeutendes Hindernis für das fortgesetzte Scaling ist der Zugang zu qualitativ hochwertigen Trainingsdaten. Die Datenquellen, die derzeit verwendet werden, sind nahezu ausgeschöpft. Viele glauben, dass neue Quellen wie die Transkription von YouTube-Videos die Datenmenge erheblich erweitern könnten. Doch in der Praxis liefern diese Quellen nach Qualitätsfilterung und Deduplizierung nur einen marginalen Zuwachs. Zudem steigen die Kosten und der Aufwand für die Erschließung neuer Datenquellen erheblich, was das weitere Wachstum begrenzen könnte.
Der Druck auf die Modellgröße
Der Trend in der Industrie zeigt, dass der Fokus zunehmend auf kleinere Modelle mit längerer Trainingszeit gelegt wird, anstatt auf immer größere Modelle. Kleinere Modelle können durch intensiveres Training ähnliche Fähigkeiten wie größere Modelle erreichen, was die Kosten für die Nutzung und die Skalierbarkeit erheblich beeinflusst. Marktführer wie OpenAI und Google entwickeln Modelle, die trotz kleinerer Größe oder geringerer Kosten gleichwertige oder sogar bessere Fähigkeiten bieten als ihre Vorgänger. Diese Entwicklung deutet darauf hin, dass die Ära der immer größeren Modelle möglicherweise zu Ende geht.
Synthetische Daten: Ein begrenztes Potenzial
Synthetische Daten werden oft als Lösung für das Datenproblem gesehen. Die Idee ist, bestehende Modelle zu nutzen, um Daten für zukünftige Modelle zu generieren. Doch dieser Ansatz stößt auf erhebliche Einschränkungen. Synthetische Daten können spezifische Lücken füllen oder in spezialisierten Bereichen wie Mathematik oder Programmierung Verbesserungen bringen, aber sie sind kein Ersatz für hochwertige, menschliche Trainingsdaten. Die bisherigen Erfolge mit synthetischen Daten, wie bei AlphaGo, basieren auf streng regulierten und begrenzten Umgebungen, die sich nicht ohne Weiteres auf offenere und komplexere Aufgaben übertragen lassen.
Der Ausblick: Geschäftsentscheidungen und zukünftige Entwicklungen
Die Zukunft des Scaling von Sprachmodellen hängt weniger von technischen Möglichkeiten ab als von geschäftlichen Entscheidungen und Marktbedingungen. Historische Beispiele wie die Entwicklung von CPU-Taktfrequenzen und Flugzeuggeschwindigkeiten zeigen, dass technische Trends oft abrupt enden, wenn die Kosten oder der Nutzen weitere Fortschritte nicht rechtfertigen. In der aktuellen Landschaft der KI-Entwicklung sehen wir, dass die größten Fortschritte eher durch die Verbesserung der Datenqualität und effizientere Nutzung vorhandener Modelle erreicht werden, als durch reine Größensteigerung.
Fazit
Während das Scaling von Sprachmodellen in den letzten Jahren beeindruckende Fortschritte gebracht hat, ist es unwahrscheinlich, dass diese Strategie allein zur AGI führt. Die zukünftige Entwicklung wird stark von der Verfügbarkeit qualitativ hochwertiger Daten, den Kosten und der Marktnachfrage beeinflusst. Statt auf immer größere Modelle zu setzen, liegt der Fokus zunehmend auf effizienteren und kostengünstigeren Ansätzen. Synthetische Daten und verbesserte Trainingsmethoden werden wichtige Rollen spielen, aber sie können die grundlegenden Herausforderungen nicht vollständig lösen. Die Geschichte zeigt, dass technologische Fortschritte oft unerwartete Wendungen nehmen, und es bleibt abzuwarten, wie sich die KI-Landschaft in den kommenden Jahren entwickeln wird.
In aller Kürze
Andreesen Horowitz: Venture-Capital-Riese Andreesen Horowitz (a16z) investiert massiv in GPUs, darunter Nvidia H100s, um AI-Startups zu unterstützen. Unter dem Projekt 'Oxygen' hat a16z bereits tausende AI-Chips gesichert und plant, über 20.000 GPUs zu erwerben, um mit großen AI-Laboren zu konkurrieren. Diese Chips werden den Portfolio-Unternehmen unter Marktpreisen gegen Eigenkapital zur Verfügung gestellt. Die Video-Plattform Luma AI hat den Zugang zu GPUs als entscheidenden Faktor für die Wahl von a16z als Lead-Investor genannt. In den letzten zwei Jahren hat a16z die zweithöchsten Investitionen im Bereich generative AI getätigt, darunter xAI, Mistral und OpenAI. Durch den Zugang zu seltenen GPU-Ressourcen positioniert sich a16z als mehr als nur eine Kapitalquelle und könnte das AI-VC-Landschaft verändern, indem sie insbesondere kleineren Startups einen erheblichen Vorteil verschaffen.
Oracle-xAI: Der geplante Milliardendeal zwischen Oracle und Elon Musks KI-Startup xAI ist gescheitert. Musk kündigte an, nun ein eigenes Rechenzentrum mit 100.000 Nvidia H100 Hochleistungschips zu bauen, nachdem Oracle die geforderte Bauzeit als unrealistisch und die Stromversorgung als problematisch eingestuft hatte. Der Deal sollte eine bestehende Vereinbarung erweitern, bei der xAI Nvidia-Chips von Oracle mietet. xAI plant nun, schneller als die Konkurrenz zu werden, um wettbewerbsfähig zu bleiben. Oracle hat die angefragte Rechenkapazität inzwischen an einen anderen Kunden vergeben. Zudem soll Grok 2, trainiert mit 24.000 H100-Chips, nächsten Monat veröffentlicht werden. Musks neues System wird als der mächtigste Trainings-Cluster der Welt bezeichnet und soll bis Herbst 2025 betriebsbereit sein.
Amazon: Rufus, ein generativer KI-gestützter Einkaufsassistent, wurde in den USA in der Amazon Shopping App eingeführt und hilft Kunden, fundierte Kaufentscheidungen zu treffen, indem er Fragen zu Produktdetails, Kundenbewertungen und Community-Fragen beantwortet. Rufus bietet Produktempfehlungen, vergleicht Artikel und informiert über aktuelle Trends. Zudem unterstützt er bei Bestellabfragen und Lieferverfolgung. Rufus kann spezifische Fragen wie „Ist dieser Kaffeevollautomat leicht zu reinigen?“ beantworten und liefert umfassende Antworten, einschließlich vergleichender Analysen wie Gas- vs. Holzpizzaöfen. Seine Vielseitigkeit zeigt sich auch in allgemeinen Anfragen, etwa zur Zubereitung von Soufflés. Diese Funktionen könnten bald auch bei uns verfügbar sein und das Einkaufserlebnis erheblich verbessern.
AMD: Das kalifornische Unternehmen AMD hat bekannt gegeben, dass es das finnische KI-Startup Silo AI für rund 665 Millionen US-Dollar übernehmen wird. Diese Akquisition passt zu AMDs Strategie, umfassende KI-Lösungen basierend auf offenen Standards und globalen Partnerschaften anzubieten. Silo AI ist spezialisiert auf maßgeschneiderte KI-Modelle und -Lösungen für Großunternehmen und entwickelt seine Sprachmodelle auf AMD-Hardware. Der Abschluss der Übernahme wird in der zweiten Jahreshälfte 2024 erwartet, wobei das Team von Silo AI in die AMD Artificial Intelligence Group integriert wird.
Thrive AI Health: Unterstützt vom OpenAI Startup Fund und Thrive Global, entwickelt das Healthtech-Startup eine maßgeschneiderte AI-Gesundheitscoach-App, die auf persönlichen Daten und Verhaltensmustern basiert. Diese App bietet präzise Empfehlungen und fördert gesunde Gewohnheiten durch tägliche Microsteps. Ein AI-Gesundheitscoach kann etwa Diabetikern helfen, ihren Blutzucker zu kontrollieren, und bietet personalisierte Tipps statt generischer Ratschläge. Dies demokratisiert Gesundheit und mindert Ungleichheiten, indem er gesunde Verhaltensänderungen für alle zugänglich macht. AI könnte so zu einer grundlegenden Gesundheitsinfrastruktur werden und nicht nur körperliche, sondern auch geistige Gesundheit fördern. Kooperation zwischen Gesetzgebern, Gesundheitsdienstleistern und Einzelpersonen ist notwendig, um AI sicher und effektiv zu nutzen und den Datenschutz zu gewährleisten.
Ihre Meinung interessiert uns
Wir möchten das KI-Briefing kontinuierlich verbessern und überlegen, die Sektion DeepDive zu ersetzen. Welcher Ersatz wäre Ihnen am liebsten? |
|
Login oder Abonnieren um an umfragen teilzunehmen. |
Ergebnisse der vorherigen Umfrage
Würden Sie es als hilfreich erachten, wenn KI-Workshops in Ihrem Unternehmen angeboten würden?
🟩🟩🟩🟩🟩🟩 👍🏻 Sehr hilfreich
🟨⬜️⬜️⬜️⬜️⬜️ 😎 Hilfreich
⬜️⬜️⬜️⬜️⬜️⬜️ 😐 Weniger hilfreich
⬜️⬜️⬜️⬜️⬜️⬜️ 😡 Überhaupt nicht hilfreich
YouTube
Ein Gespräch mit CEO Aidan Gomez über die KI-Entwicklungen bei Cohere
In einer neuen Folge von MLST spricht Aidan Gomez, CEO von Cohere, über die aktuellen Fortschritte und Herausforderungen im Bereich der Künstlichen Intelligenz (KI). Nach ihrem jüngsten Build-Event in London gewährt Gomez einen tiefen Einblick in die Arbeitsweise und Philosophie seines Unternehmens.
Gomez betont die Bedeutung der Problemlösung im realen Geschäftsumfeld. Cohere konzentriert sich auf die Entwicklung von Modellen, die für die mehrsprachige, durch Abruf ergänzte Generierung (RAG) optimiert sind. Trotz beeindruckender Fortschritte gibt es weiterhin Herausforderungen, insbesondere im Bereich der politischen Rahmenbedingungen und der Akzeptanz von KI in Unternehmen. Gomez hebt hervor, wie wichtig es ist, dass KI-Startups in der Lage sind, mit größeren Unternehmen zu konkurrieren und gleichzeitig die gesellschaftlichen Risiken der KI zu mindern.
Ein wesentlicher Diskussionspunkt ist die Robustheit und Zuverlässigkeit von KI-Modellen. Gomez erklärt, dass Cohere intensiv daran arbeitet, ihre Modelle widerstandsfähiger gegenüber Veränderungen in den Eingabeaufforderungen (Prompts) zu machen. Dies umfasst die Verbesserung der Modellerstellung und die Nutzung synthetischer Daten, um die Schwachstellen der Modelle zu identifizieren und zu beheben.
Abschließend spricht Gomez über die kulturellen Unterschiede innerhalb der globalen Cohere-Büros und die Herausforderungen des Remote-Arbeitens. Er betont die Wichtigkeit eines engen Kontakts zwischen den Teams und einer starken Unternehmenskultur, die Fehler als Lernmöglichkeiten sieht.
Cartoon
Betriebsgeheimnisse 🙃
Und nächste Woche…
....werden wir möglicherweise eine neue Rubrik einführen, je nachdem, wie Sie in der Umfrage dieser Woche entscheiden. Unser Ziel bleibt es, Ihnen mit unserem KI-Briefing einen hilfreichen Kompass in einer immer schnelllebigeren Welt zu bieten.
Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.
Wie hat Ihnen das heutige KI-Briefing gefallen?Ihr Feedback hilft uns, bessere Inhalte für Sie zu erstellen! |
Login oder Abonnieren um an umfragen teilzunehmen. |