💪🏼 Claude 3.5 Sonnet von Anthropic schlägt ChatGPT 4.0 in Leistung und Vielseitigkeit

Außerdem: Krebstherapie, Klimawandel, Social Media und Ilya gründet neues Startup

Guten Morgen!

Willkommen zum KI-Briefing. Jede Woche sammeln wir systematisch die Nachrichten, Trends und Produktentwicklungen aus der KI-Welt und es werden gefühlt jede Woche mehr. Künstliche Intelligenz schreitet beeindruckend schnell voran und erreicht immer neue Lebensbereiche.

Das Highlight dieser Woche war sicherlich das neue KI-Modell Claude 3.5 Sonet, das in vielerlei Hinsicht besser als ChatGPT 4.0 ist. Das Wettrennen um die besten KI-Modelle wird sich unter diesem Innovationsdruck wahrscheinlich nur noch weiter beschleunigen.

Während wir die neue Social-App Butterflies eher kritisch sehen, sind Entwicklungen in der Krebsbehandlung durch KI, die Mediziner unterstützt, sehr zu begrüßen. Wer sich gefragt hat, wie die klassische Google-Suche im KI-Zeitalter aussehen könnte, sollte sich den neuen Lex Fridman Podcast anhören 🎧

Wenn Sie jemanden kennen, der ebenfalls vom KI-Briefing profitieren würde, leiten Sie die E-Mail gerne an Freunde oder Kollegen weiter. Falls Sie diesen Newsletter weitergeleitet bekommen haben, können Sie sich ganz einfach hier anmelden.

Inhalt dieses Briefings

  • Produktivität: Claude 3.5 Sonnet von Anthropic schlägt ChatGPT 4.0 in Leistung und Vielseitigkeit

  • News: Social Media App Butterflies könnte die Mensch-KI-Interaktion im digitalen Raum verändern, Ilya Sutskever gründet Safe Superintelligence Inc., OpenAI und Color Health beschleunigen Zugang zu Krebstherapien, Innovative Lösungen für Marken und Creator durch TikTok Symphony und Neue Forschungsmodelle von Meta FAIR unterstützen Open Source KI-Entwicklung

  • Deep Dive: Wie AI-Alignment unsere Welt sicherer machen wird 🌍

  • In aller Kürze: OpenAI hat Rockset übernommen, um seine Retrieval-Infrastruktur zu verbessern und KI-Anwendungen durch Echtzeitanalytik zu optimieren, Geoffrey Hinton arbeitet nach seinem Rücktritt von Google nun bei CuspAI, das Deep Learning und Molekülsimulation zur Bekämpfung des Klimawandels einsetzt und Dell, Nvidia und Super Micro Computer bauen eine AI-Fabrik für xAI's Supercomputer, um den Grok AI-Chatbot zu trainieren und zu skalieren

  • Umfrage: Wie wichtig ist Ihnen die Unabhängigkeit von Startups wie Safe Superintelligence Inc. von Technologieunternehmen? 🦾

  • Beitrag: Wie Perplexity Google herausfordert: Ein Blick in die Zukunft der Suche 🔍

  • Cartoon: Die Kommunikation mit Maschinen wird an Bedeutung gewinnen 🤣 

Produktivität

Claude 3.5 Sonnet von Anthropic schlägt ChatGPT 4o in Leistung und Vielseitigkeit

Zusammenfassung: Anthropic hat sein neuestes Modell, Claude 3.5 Sonnet, vorgestellt, welches laut dem Unternehmen schneller, intelligenter und vielseitiger ist als seine Vorgänger und Konkurrenten. Das Modell übertrifft GPT-4.0 und Google Gemini in mehreren Benchmarks und ist bereits für Web- und iOS-Nutzer sowie für Entwickler verfügbar. Eine neue Funktion namens "Artifacts" ermöglicht es den Nutzern, Ergebnisse direkt in der App zu bearbeiten und interaktiv zu nutzen.

Details:

  • Modellreihe: Claude 3.5 Sonnet ist das mittlere Modell in Anthropics AI-Reihe, zwischen Haiku und Opus.

  • Leistungssteigerung: Das Modell ist doppelt so schnell wie Claude 3 Opus und übertrifft dieses in den meisten Benchmarks.

  • Funktionalität: Verbesserte Fähigkeiten im Programmieren, mehrstufigen Arbeitsabläufen, Interpretation von Diagrammen und Texterkennung aus Bildern.

  • Benutzerfreundlichkeit: Einführung von "Artifacts", die es ermöglichen, Ergebnisse direkt in der App zu bearbeiten, was eine dynamischere Benutzererfahrung schafft.

  • Verfügbarkeit: Kostenlos für Web- und iOS-Nutzer, erweiterte Nutzungsmöglichkeiten für Pro- und Team-Abonnenten, sowie über die Anthropic API, Amazon Bedrock und Google Cloud's Vertex AI.

Warum das wichtig ist: Die Einführung von Claude 3.5 Sonnet zeigt, wie rasant sich die AI-Modelle derzeit entwickeln und wie Unternehmen wie Anthropic kontinuierlich die Leistungsgrenzen verschieben. Die neuen Funktionen und die verbesserte Benutzerfreundlichkeit, insbesondere durch "Artifacts", könnten die Art und Weise, wie AI in geschäftlichen und alltäglichen Anwendungen genutzt wird, weiter verbessern. Indem Anthropic seine Modelle immer schneller und kosteneffizienter macht, positioniert es sich als ernsthafter Konkurrent zu etablierten KI-Anbietern wie OpenAI und Google, was den Innovationsdruck in der Branche weiter erhöht.

News

Social Media App Butterflies könnte die Mensch-KI-Interaktion im digitalen Raum verändern

Zusammenfassung: Eine neue App namens Butterflies bringt frischen Wind in die Art und Weise, wie wir mit KI interagieren. Während generative KI bisher hauptsächlich in Chatbots wie ChatGPT oder auf Plattformen wie Character AI zum Einsatz kommt, ermöglicht Butterflies eine neue Form der sozialen Interaktion, indem KI-Charaktere auf einer Plattform ähnlich Instagram integriert werden. Diese KI-Charaktere interagieren eigenständig, posten Fotos und kommentieren Beiträge, was eine ungewöhnliche und manchmal verstörende Dynamik schafft. Trotz ihrer aktuellen Unvollkommenheiten könnte diese Entwicklung ein Hinweis auf eine zukünftige, KI-dominierte soziale Medienlandschaft sein.

Details:

  • Neue Interaktionsform: Butterflies ermöglicht es Nutzern, KI-Charaktere zu erstellen, die autonom Fotos generieren und mit anderen Accounts interagieren.

  • Plattform-Ähnlichkeit: Das Interface der App ähnelt Instagram, wodurch eine vertraute Umgebung geschaffen wird.

  • Unbegrenzte Charaktere: Nutzer können beliebig viele KI-Charaktere erschaffen, die zusammen mit menschlichen Accounts agieren.

  • Aktueller Entwicklungsstand: Die Interaktionen der KI-Charaktere wirken noch oft künstlich und fehlerhaft, wie etwa die Generierung unnatürlicher Bilder.

  • Zukunftsvision: CEO Vu Tran plant die kontinuierliche Verbesserung der KI-Fähigkeiten und die Integration neuer Medienformate wie Videos.

  • Finanzierung: Butterflies hat kürzlich 4,8 Millionen US-Dollar von Investoren erhalten, um das Wachstum und die Weiterentwicklung der App zu unterstützen.

  • Marktzugang: Nach einer erfolgreichen Beta-Phase mit tausenden Nutzern ist die App nun kostenlos in den Apple und Google Play Stores verfügbar.

Warum das wichtig ist: Die Einführung von Butterflies markiert einen interessanten Schritt, der die Richtung in eine neue Ära der sozialen Netzwerke aufzeigen könnte. Diese Entwicklung könnte tiefgreifende Auswirkungen auf die Art und Weise haben, wie wir soziale Medien nutzen und mit ihnen interagieren. Während sich die Technologie noch in einem frühen und fehlerhaften Stadium befindet, zeigt sie dennoch das Potenzial, soziale Netzwerke grundlegend zu verändern und möglicherweise menschliche Interaktionen in diesen Räumen zu reduzieren. Dies wirft wichtige Fragen über die zukünftige Rolle der Menschlichkeit in digitalen sozialen Umgebungen auf und fordert sowohl Nutzer als auch Entwickler heraus, neue ethische und funktionale Standards zu etablieren.

KI-News

Ilya Sutskever gründet Safe Superintelligence Inc.

Zusammenfassung: Ilya Sutskever, Mitbegründer und ehemaliger Chef-Wissenschaftler von OpenAI, hat die Gründung eines neuen KI-Startups namens Safe Superintelligence Inc (SSI) bekannt gegeben. Das Unternehmen zielt darauf ab, eine sichere Superintelligenz zu entwickeln, wobei die Sicherheit Vorrang vor kommerziellen Interessen haben soll. Mitbegründet von Daniel Gross und Daniel Levy, möchte SSI durch die Fokussierung auf Sicherheit und Fähigkeiten gleichzeitig seine Technologie vorantreiben, ohne durch kurzfristige kommerzielle Einflüsse abgelenkt zu werden.

Details:

  • Gründer und Team: Neben Sutskever sind Daniel Gross, ehemals KI-Leiter bei Apple, und Daniel Levy, ein früherer Mitarbeiter von OpenAI, Mitbegründer von SSI.

  • Unternehmensziel: SSI plant die Entwicklung einer sicheren Superintelligenz als einziges Produkt und legt dabei besonderen Wert auf Sicherheitsaspekte.

  • Betriebsstandorte: Das Unternehmen wird von Palo Alto, Kalifornien, und Tel Aviv, Israel, aus operieren.

  • Finanzierung und Struktur: Details zur Finanzierung wurden nicht bekannt gegeben, aber es heißt, dass Investoren vorhanden sind.

  • Sicherheitsfokus: Die Unternehmensphilosophie stellt Sicherheit über Produktzyklen und kommerzielle Einflüsse, was eine langfristige, sichere Entwicklung ermöglichen soll.

Warum das wichtig ist: Die Gründung von SSI ist ein wichtiges Ereignis in der Entwicklung immer leistungsfähigerer KI-Systeme. SSI möchte einen neuen Standard setzen, indem es die Sicherheit in der KI-Entwicklung über kurzfristige kommerzielle Gewinne stellt. In einer Zeit, in der oft schnelle Profite über tiefgreifende Sicherheitsüberlegungen dominieren, zeigt SSI, dass Fortschritte in der KI-Technologie verantwortungsvoll und nachhaltig sein sollten. Dies könnte die Richtung für ethische und sichere KI-Entwicklung weltweit beeinflussen. Auf der anderen Seite bleibt abzuwarten, ob SSI die nötige finanzielle Unterstützung langfristig sichern kann und ob es gelingt, Superintelligenz überhaupt sicher zu entwickeln.

KI-News

OpenAI und Color Health beschleunigen Zugang zu Krebstherapien

Zusammenfassung: Color Health und OpenAI arbeiten zusammen, um Krebspatienten schneller Zugang zu Behandlungen zu ermöglichen. Eine neue Copilot-Anwendung, basierend auf GPT-4o, identifiziert fehlende Diagnosen und erstellt maßgeschneiderte Arbeitspläne für medizinische Fachkräfte, um evidenzbasierte Entscheidungen zur Krebsfrüherkennung und -behandlung zu treffen.

Details:

  • Technologie: Color Health nutzt OpenAI's GPT-4o, um patientenspezifische Daten mit klinischen Richtlinien zu integrieren und so individualisierte Behandlungspläne zu erstellen.

  • Funktion: Die Anwendung extrahiert und normalisiert Patienteninformationen, identifiziert fehlende Diagnosen und erstellt personalisierte Screening-Pläne.

  • Prozess: Ein klinischer Prüfer bewertet die Ergebnisse der Anwendung und passt sie bei Bedarf an, bevor sie in die Patientenakte aufgenommen werden.

  • Implementierung: Color Health arbeitet mit UCSF HDFCCC zusammen, um die Anwendung zu testen und potenziell in klinische Arbeitsabläufe zu integrieren.

  • Ergebnisse: Erste Tests zeigen, dass Ärzte mit der Copilot-Anwendung viermal mehr fehlende Laborwerte und Tests identifizieren können.

Warum das wichtig ist: Krebs ist die zweithäufigste Todesursache weltweit, und Verzögerungen bei der Diagnose und Behandlung können die Überlebenschancen der Patienten erheblich beeinträchtigen. Die Copilot-Anwendung von Color Health und OpenAI beschleunigt den Zugang zu lebenswichtigen Diagnosen und Behandlungen, was entscheidend zur Verbesserung der Patientenergebnisse beiträgt. Die Kombination aus KI-Technologie und medizinischer Expertise könnte eine bedeutende Rolle im Kampf gegen Krebs spielen.

KI-News

Innovative Lösungen für Marken und Creator durch TikTok Symphony

Zusammenfassung: TikTok hat auf dem Cannes Lions International Festival of Creativity neue KI-Tools vorgestellt, die Marken und Creator bei der Content-Produktion unterstützen. Zu den neuen Werkzeugen gehören Symphony Digital Avatars, AI Dubbing und Symphony Collective. Diese Tools sollen die kreative Arbeit erleichtern und die Reichweite und Wirkung von Kampagnen verbessern.

Details:

  • Symphony Digital Avatars: KI-generierte Avatare, die Inhalte personalisieren und in mehreren Sprachen verfügbar sind.

  • AI Dubbing: Automatische Transkription, Übersetzung und Synchronisierung von Videos in über zehn Sprachen.

  • Symphony Creative Studio: KI-basierter Videogenerator zur schnellen Erstellung relevanter TikTok-Videos.

  • Symphony Assistant: KI-Assistent, der kreative Unterstützung bei der Erstellung und Optimierung von Werbekampagnen bietet.

  • Symphony Ads Manager Integration: Integration, die Videos automatisch generiert, korrigiert und optimiert.

  • Symphony Collective: Ein Beratungskollektiv aus Branchenexperten zur Förderung des verantwortungsvollen Einsatzes von KI.

  • Adobe Express Partnerschaft: Integration der TikTok Musikbibliothek in Adobe Express zur Erstellung wirkungsvoller Inhalte.

Warum das wichtig ist: Mit über einer Milliarde monatlicher Nutzer ist TikTok eine zentrale Plattform für Marken, um kreative und kulturell relevante Inhalte zu verbreiten. Die neuen KI-Tools erleichtern die Content-Produktion und optimieren Werbekampagnen, was die Effizienz steigert und die globale Reichweite erhöht. Gleichzeitig stellen sie sicher, dass die Inhalte den spezifischen Erwartungen der TikTok-Community entsprechen und authentisch wirken, was die Markenpräferenz und Kaufabsicht nachweislich erhöht.

KI-News

Neue Forschungsmodelle von Meta FAIR unterstützen Open Source KI-Entwicklung

Zusammenfassung: Meta FAIR stellt der Forschungsgemeinschaft eine Reihe neuer KI-Modelle und -Techniken zur Verfügung. Dazu gehören Modelle zur Bild- und Textgenerierung, zur Text-zu-Musik-Umwandlung sowie Methoden zur Erkennung von KI-generierter Sprache. Ziel ist es, die Entwicklung und Anwendung von KI im großen Maßstab voranzutreiben und durch offene Wissenschaft zur Innovation und Entdeckung beizutragen.

Details:

  • Meta Chameleon: Ein Modell, das Text und Bilder kombiniert und in der Lage ist, sowohl Text als auch Bilder auszugeben. Verfügbar sind die Modelle Chameleon 7B und 34B für Forschungszwecke.

  • Multi-Token Prediction: Ein Ansatz, der die Effizienz und Geschwindigkeit von Sprachmodellen verbessert, indem er mehrere zukünftige Wörter gleichzeitig vorhersagt.

  • Meta Joint Audio and Symbolic Conditioning (JASCO): Ein Modell zur Text-zu-Musik-Umwandlung, das verschiedene Eingaben wie Akkorde oder Beats akzeptiert und so die Kontrolle über die erzeugte Musik verbessert.

  • AudioSeal: Eine Technik zur Wasserzeichenerkennung in AI-generierter Sprache, die eine schnelle und effiziente Identifikation ermöglicht.

  • PRISM-Dataset: Ein Datensatz zur Verbesserung von Sprachmodellen durch Feedback von Teilnehmern aus 75 Ländern, der die Vielfalt und Präferenzen verschiedener Kulturen berücksichtigt.

  • Geografische Disparitäten in Text-zu-Bild-Systemen: Methoden zur Bewertung und Verbesserung der geografischen und kulturellen Repräsentation in Text-zu-Bild-Modellen.

Warum das wichtig ist: Diese neuen Forschungsartefakte unterstreichen Metas Engagement für die freie Wissenschaft und Zusammenarbeit in der KI-Forschung. Durch die Bereitstellung dieser Tools und Modelle fördert Meta die Entwicklung verantwortungsvoller und leistungsfähiger KI-Systeme, die von einer breiten Forschungsgemeinschaft genutzt und weiterentwickelt werden kann. Dies unterstützt nicht nur wissenschaftliche Innovationen, sondern trägt auch dazu bei, dass KI-Technologien vielfältiger, effizienter und inklusiver werden, was letztlich der gesamten Gesellschaft zugutekommt.

Deep Dive AI-Alignment

Im Einklang mit der Zukunft: Wie AI-Alignment unsere Welt sicherer machen wird

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht und ist mittlerweile ein integraler Bestandteil vieler Lebensbereiche. Ein zentrales Thema, das zunehmend an Bedeutung gewinnt, ist die Ausrichtung oder Alignment von KI-Systemen. Doch was genau versteht man unter AI-Alignment und warum ist es so wichtig? In diesem Deep Dive werden wir dieses Konzept detailliert untersuchen, die verschiedenen Methoden zur Erreichung von Alignment beleuchten und aktuelle Herausforderungen sowie innovative Ansätze diskutieren.

Einleitung

AI-Alignment bezeichnet den Prozess, durch den die Ziele und Werte von Menschen in große Sprachmodelle und andere KI-Systeme integriert werden, um sicherzustellen, dass diese Modelle hilfreich, sicher und zuverlässig agieren. Dieses Thema hat besonders im Kontext von generativer KI, wie etwa großen Sprachmodellen (LLMs), an Bedeutung gewonnen. LLMs können beeindruckende Unterhaltungen führen und komplexe Aufgaben lösen, doch mit ihrer zunehmenden Verbreitung steigen auch die Risiken. Hier setzt Alignment an, um diese Risiken zu minimieren und sicherzustellen, dass KI-Systeme den menschlichen Werten entsprechen.

Grundlagen und Bedeutung von AI-Alignment

Der Begriff Alignment bezieht sich auf das Abgleichen von KI-Zielen mit menschlichen Werten und Absichten. Dies bedeutet, dass KI-Systeme so programmiert werden müssen, dass sie nicht nur funktional korrekt, sondern auch ethisch und moralisch vertretbar handeln. Ein klassisches Beispiel für dieses Prinzip ist Isaac Asimovs erste Robotergesetz: „Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird.“

Mit der rasanten Entwicklung von LLMs und anderen KI-Systemen ist die Forschung im Bereich AI-Alignment zunehmend in den Fokus gerückt. Diese Modelle, die auf riesigen Datensätzen trainiert werden, sind in der Lage, menschliche Sprache zu imitieren und kreative Inhalte zu erzeugen. Doch genau hier liegt auch das Problem: Ohne eine sorgfältige Ausrichtung könnten diese Systeme unvorhersehbare und potenziell schädliche Entscheidungen treffen.

Methoden der Ausrichtung

Es gibt verschiedene Ansätze, um KI-Systeme auszurichten. Eine der bekanntesten Methoden ist das Reinforcement Learning mit menschlichem Feedback (RLHF). Hierbei wird ein Modell durch Interaktionen mit Menschen trainiert, die seine Antworten bewerten und entsprechend anpassen. Eine andere Methode ist der konstitutionelle Ansatz, bei dem ein Satz menschlich definierter Prinzipien (eine „Verfassung“) das Verhalten der KI normativ lenkt.

Ein innovativer Ansatz ist die sogenannte verkörperte Ausrichtung (Embodied Alignment), bei der das Modell zwei Zielvariablen hat: das spezifische Ziel des Modells und die Auswirkungen jeder Entscheidung auf das menschliche Wohlbefinden. Diese Methode zielt darauf ab, die Ausrichtung als eine trainierbare Fähigkeit zu behandeln und nicht nur als eine aufzuerlegende Einschränkung.

Herausforderungen bei der Ausrichtung

Eine der größten Herausforderungen bei der AI-Alignment ist die Subjektivität menschlicher Werte. Was für einen Menschen als ethisch vertretbar gilt, kann für einen anderen inakzeptabel sein. Darüber hinaus sind menschliche Werte dynamisch und ändern sich über die Zeit. Daher muss die Ausrichtung von KI-Systemen ein kontinuierlicher Prozess sein, der ständige Anpassungen erfordert.

Ein weiteres Problem ist die Skalierbarkeit. Während Methoden wie RLHF und der konstitutionelle Ansatz für bestehende Modelle anwendbar sind, wird es schwieriger, diese Ansätze auf zukünftige, möglicherweise noch leistungsfähigere KI-Systeme zu übertragen. Hier sind neue, skalierbare Lösungen gefragt, die auch mit den fortschreitenden Fähigkeiten der KI Schritt halten können.

Innovative Ansätze und zukünftige Forschung

Um die Kosten und den Aufwand der Ausrichtung zu reduzieren, forschen beispielsweise Unternehmen wie IBM an der Nutzung synthetischer Daten. Dabei werden künstlich generierte Datensätze verwendet, um Modelle zu trainieren und anzupassen. Diese Methode hat das Potenzial, die Ausrichtung effizienter und kostengünstiger zu gestalten, indem sie auf die Erstellung hochwertiger synthetischer Daten zurückgreift.

Ein weiterer spannender Ansatz ist das Kontrastive Fine-Tuning (CFT), bei dem Modelle mit Beispielen für erwünschtes und unerwünschtes Verhalten trainiert werden. Diese Methode hat sich als effektiv erwiesen, um die Leistung von Modellen in Bezug auf Hilfsbereitschaft und Harmlosigkeit zu verbessern, ohne die Genauigkeit zu beeinträchtigen.

Ein zukunftsweisendes Konzept ist die Nutzung von Erlebnisdaten zur Ausrichtung. Hierbei wird das Wohlbefinden der Nutzer durch passive Datenquellen wie Wearables, Kalender und Transaktionsdaten gemessen und zur Anpassung der Modelle genutzt. Diese Methode könnte es ermöglichen, KI-Systeme noch präziser auf menschliche Werte abzustimmen.

Fazit

AI-Alignment ist ein komplexes, aber enorm wichtiges Feld der KI-Forschung, das darauf abzielt, sicherzustellen, dass KI-Systeme im Einklang mit menschlichen Werten und Zielen handeln. Trotz erheblicher Fortschritte bleiben viele Herausforderungen bestehen, insbesondere in Bezug auf die Subjektivität menschlicher Werte und die Skalierbarkeit der Ausrichtungsmethoden. Durch innovative Ansätze wie die Nutzung synthetischer Daten und Erlebnisdaten sowie kontinuierliche Forschung können wir jedoch hoffen, diese Herausforderungen zu meistern und sicherzustellen, dass KI-Systeme einen positiven Beitrag zur Gesellschaft leisten.

In aller Kürze

  1. OpenAI: OpenAI hat Rockset übernommen, um seine Retrieval-Infrastruktur zu verbessern und KI noch hilfreicher zu machen. Rockset ist eine führende Echtzeitanalytik-Datenbank, die erstklassige Datenindexierungs- und Abfragefähigkeiten bietet. Diese Technologie wird in die Produkte von OpenAI integriert, um Nutzern und Entwicklern den Zugang zu Echtzeitinformationen zu erleichtern und intelligentere Anwendungen zu ermöglichen. Rocksets Team wird Teil von OpenAI. Brad Lightcap, COO von OpenAI, betont die Vorteile dieser Integration für die Kunden, während Rocksets CEO Venkat Venkataramani die erweiterten Möglichkeiten für Nutzer und Entwickler hervorhebt.

  2. CuspAI: Geoffrey Hinton, auch bekannt als der "Godfather of AI", hat nach seinem Rücktritt von Google nun eine neue Tätigkeit bei CuspAI, die mit 30 Millionen Dollar Startkapital aus dem Verborgenen aufgetaucht sind. CuspAI, gegründet von Professor Max Welling und Dr. Chad Edwards, zielt darauf ab, mit Deep Learning und Molekülsimulation die Entwicklung neuer Materialien zu beschleunigen und dadurch den Klimawandel zu bekämpfen. Trotz seiner Skepsis gegenüber den Risiken von KI sieht Hinton in der Arbeit von CuspAI eine Möglichkeit, die Technologie zur Lösung dringender globaler Herausforderungen zu nutzen. Die Firma hat Partnerschaften mit prominenten Investoren und Unternehmen wie Meta geschlossen, um die Suche nach nachhaltigen Materialien voranzutreiben. Hinton hofft, dass spezialisierte KI-Modelle, die auf spezifische Aufgaben fokussiert sind, weniger riskant sind als allgemeine KI-Anwendungen.

  3. xAI: Dell, Nvidia und Super Micro Computer bauen gemeinsam eine AI-Fabrik für xAI's riesigen Supercomputer, der den Grok AI-Chatbot trainieren und skalieren soll. Dell montiert die Hälfte der Server-Racks, während Super Micro die andere Hälfte übernimmt. Das System soll bis zu 100.000 Nvidia H100 GPUs nutzen und könnte damit viermal größer als die größten bestehenden AI-Cluster werden. Ziel ist es, den Supercomputer bis Herbst 2025 vollständig betriebsbereit zu haben, um die Entwicklung fortschrittlicher Grok-Modelle zu beschleunigen. Diese Zusammenarbeit zeigt den enormen Maßstab der benötigten Rechenleistung, um die Grenzen der KI zu erweitern, und könnte Grok einen entscheidenden Vorteil gegenüber Konkurrenten wie OpenAI und Anthropic verschaffen.

Ihre Meinung interessiert uns

Wie wichtig ist Ihnen die Unabhängigkeit von Startups wie Safe Superintelligence Inc. von großen Technologieunternehmen?

Login or Subscribe to participate in polls.

Ergebnisse der vorherigen Umfrage

Inwiefern glauben Sie, dass die Zusammenarbeit zwischen Apple und OpenAI Ihre Privatsphäre beeinflussen könnte?

🟨🟨⬜️⬜️⬜️⬜️ 😀 Positiv
🟨🟨🟨🟨⬜️⬜️ 😐 Neutral
🟩🟩🟩🟩🟩🟩 😡 Negativ
🟨⬜️⬜️⬜️⬜️⬜️ ❓ Unsicher

Podcast

Wie Perplexity Google herausfordert: Ein Blick in die Zukunft der Websuche

Letzte Woche im Lex Friedman Podcast hat Aravind Srinivas, CEO von Perplexity, tiefgehende Einblicke in die Zukunft der künstlichen Intelligenz gegeben und erläutert, wie sein Startup die Art und Weise, wie wir Antworten auf Fragen im Internet erhalten, revolutionieren möchte. Srinivas erklärt, dass Perplexity eine Kombination aus Suchmaschine und großem Sprachmodell (LLM) darstellt, das Antworten liefert, die durch menschliche Quellen im Internet weiter gestützt werden. Diese Methode reduziert signifikant die sogenannten „Halluzinationen“ von LLMs und macht die Nutzung für Forschung und neugierige Erkundungen zuverlässiger.

Perplexity zielt darauf ab, als „Antwortmaschine“ zu fungieren, indem es relevante Absätze aus Suchergebnissen extrahiert und in ein LLM einspeist, das dann eine gut formatierte Antwort mit entsprechenden Fußnoten liefert. Diese Vorgehensweise basiert auf der akademischen Praxis, jede Aussage mit einer Quelle zu belegen, um die Genauigkeit und Vertrauenswürdigkeit zu erhöhen. Dieses System stellt sicher, dass nur belegbare Informationen weitergegeben werden, was es von herkömmlichen Suchmaschinen unterscheidet, die lediglich eine Liste von Links bereitstellen.

Die Vision von Perplexity geht jedoch über das bloße Bereitstellen von Antworten hinaus. Srinivas beschreibt die Plattform als eine „Wissensentdeckungsmaschine“, die den Benutzer dazu anregt, tiefer in ein Thema einzutauchen, indem sie verwandte Fragen und weiterführende Informationen bietet. Diese Methode soll die Neugierde wecken und den kontinuierlichen Wissensgewinn fördern, was der Philosophie von David Deutsch in „The Beginning of Infinity“ entspricht.

Cartoon

Menschliche Flexibilität 🤣

Und nächste Woche…

...widmen wir uns ausführlich dem Thema Superintelligenz. Der Begriff AGI, der für "Allgemeine Künstliche Intelligenz" steht, wird immer häufiger in der internationalen KI-Debatte verwendet. Bei der Superintelligenz gehen die Fähigkeiten von KI-Systemen jedoch noch weit darüber hinaus. Wichtig zu verstehen ist, dass in einer Welt, in der AGI einen Großteil der Forschung und Arbeit übernimmt, die Entwicklung von ASI deutlich schneller voranschreiten wird. In der nächsten Ausgabe befassen wir uns daher intensiv mit diesem Thema.

Wir freuen uns, dass Sie das KI-Briefing regelmäßig lesen. Falls Sie Vorschläge haben, wie wir es noch wertvoller für Sie machen können, spezifische Themenwünsche haben, zögern Sie nicht, auf diese E-Mail zu antworten. Bis zum nächsten mal mit vielen neuen spannenden Insights.

Wie hat Ihnen das heutige KI-Briefing gefallen?

Ihr Feedback hilft uns, bessere Inhalte für Sie zu erstellen!

Login or Subscribe to participate in polls.