• AI Peanuts
  • Posts
  • Werden Reasoning-Models unterschätzt? China glaubt ja!

Werden Reasoning-Models unterschätzt? China glaubt ja!

Heute sitzen wir noch spät im Büro und schreiben diesen Newsletter. Bitte tut so, als wäre dies ein wahnsinnig kreativ geschriebenes Intro.
Danke! Viel Spaß!

Peanuts für heute:

  • 🧠 Werden Reasoning-Models unterschätzt? China glaubt ja!

  • 📂 Einige spannende End-of-Year Berichte zu KI

  • 🛠️ ElevenReader macht Newsletter hörbar

🥜 Die größte Nuss:

🧠 Werden Reasoning-Models unterschätzt? China glaubt ja!

Wir alle kennen die Headline: Die Anzahl der Menschen, die ChatGPT und andere KI-Produkte nutzen, schießt in die Höhe. Doch die Verbesserung der Sprachmodelle (LLMs)—scheint sich zu verlangsamen.

Aber was soll man auch tun? Mehr Trainingsdaten finden? Die Architektur verbessern? Das größte Rechenzentrum bauen? Ja, all das. Aber vor ein paar Monaten ist eine neue Option aufgetaucht: Reasoning Models.

Es gibt nur ein Problem—kein Mensch nutzt sie…Aber ich greife vor.

Was sind Reasoning Models?

Letzten Herbst hat OpenAI ihr Modell o1-preview veröffentlicht. Auf den ersten Blick sehen die Statistiken nicht besonders gut aus. o1 ist in den meisten Benchmarks etwas schwächer als das neueste GPT-4-Modell. Manchmal braucht es eine Minute oder länger, um "nachzudenken", und mit einem ChatGPT Pro-Konto bekommst du nur 50 Anfragen pro Woche.

Einige Leute in der KI-Branche sind also skeptisch, ob Reasoning Models wie o1 wirklich einen Paradigmenwechsel darstellen. Aber die Modelle haben klare Vorteile! Für Nutzer & für OpenAI..

Warum sind Reasoning Models einfacher zu bauen?

Überraschenderweise sind Reasoning Models tatsächlich einfacher zu entwickeln als fortschrittliche LLMs. Traditionelle LLMs wie GPT-4 erfordern Hunderte Millionen Dollar für Rechenressourcen und enorme Mengen an Trainingsdaten—plus die rechtlichen Vereinbarungen, um diese Daten zu erwerben—um sie von Grund auf zu erstellen.

Forschende können Modelle wie Metas Llama nehmen, das fast jedem Entwickler frei zur Verfügung steht, und das Reasoning "einbauen". Sie tun dies durch Techniken wie Chain of Thought, bei denen Modelle auf die Denkprozesse trainiert werden, die sie beim Lösen von Problemen durchlaufen.

Das ist wie das Aufschreiben der Rechenschritte bei einer Matheaufgabe. Dieser Ansatz ermöglicht es dem Modell, komplexe, mehrstufige Denkaufgaben zu bewältigen, indem es sie in kleinere, handhabbare Schritte zerlegt.

Ein Kompromiss bei Reasoning Models ist die erhöhte Rechenzeit. Da diese Modelle Probleme Schritt für Schritt "durchdenken", können sie länger brauchen, um eine Antwort zu liefern. Diesen Ansatz nennt man Test-Time Compute.

‘Chain of Thought’ & ‘Test-Time Compute’ sind beides Begriffe, die man sich merken kann.

Und wofür kann o1-preview verwendet werden?

Nur ein kleiner Prozentsatz der ChatGPT-Nutzer verwendet regelmäßig o1-preview.

Ein Grund dafür ist, dass die typischen Anfragen, die ChatGPT bearbeitet—wie E-Mails schreiben, zusammenfassen oder Wissensfragen—nicht unbedingt bessere Antworten durch Reasoning Models liefern.

Aber wenn man mit Hardcore-Wissenschaftlerinnen und -Wissenschaftlern spricht, wird es wohl interessant. Einige Forscher nutzen o1-preview, um Fragen über Kernfusion zu lösen, für die ihre Teams sonst Stunden oder Tage gebraucht hätten. In einem Fall nutzten Forscher OpenAIs o1-preview um herauszufinden, wie stark ein Laser sein müsste, um eine bestimmte Temperatur und einen bestimmten Druck zu erzielen. Der berühmte Mathematiker Terence Tao nutzt die o1-Modelle, um Matheprobleme zu lösen und Beweise zu schreiben—etwas, das ein typischer ChatGPT-Nutzer wahrscheinlich nicht tun würde.

China erkennt das Potenzial von Reasoning Models

Wer definitiv das Potenzial erkennt, ist China. Diese Woche haben chinesische Wissenschaftler enthüllt, was eines der ersten Reasoning AI-Modelle zu sein scheint, das OpenAIs o1 Konkurrenz macht.

Die Forscher behaupten, dass DeepSeek-R1 (genauer gesagt DeepSeek-R1-Lite-Preview) in zwei bekannten KI-Benchmarks auf Augenhöhe mit OpenAIs o1-preview-Modell performt. Zwar hat DeepSeek-R1 Schwierigkeiten mit Tic-Tac-Toe und anderen Logikproblemen - aber da hat auch o1 Schwierigkeiten.

Nochmal spannend wird es wenn OpenAI die volle Version von o1 veröffentlicht - wenn das soweit ist - melden wir uns.

AI Peanuts Workbook

Vollgepackt mit KI-Wissen, Tools & Tutorials!

Du hast angefangen, dich tiefer mit dem Thema KI zu beschäftigen und willst den nächsten Schritt machen? Dann ist unser offizielles AI Peanuts Workbook genau das Richtige für dich!

Das Workbook ist kein klassisches “Buch”, sondern ein praxisorientiertes, interaktives digitales Dokument. Gegliedert in 3 Teile:

Theorie — Der Textbuch-Teil des Workbooks, in dem wir das Thema KI und seine technischen Grundlagen erklären.
Praxis — Eine Reihe von praktischen Tutorials, mit denen du lernst, KI praktisch anzuwenden (z.B.: ChatGPT Masterprompts, HeyGen, NotebookLM, Midjourney…)
Daten  Datenbanken mit den besten KI-Tools und den spannendsten Firmen im KI-Umfeld.

🛠️ Trai it out:

ElevenReader App — Wir hatten das Tool hier vor einiger Zeit schon einmal vorgestellt - damals gab es allerdings nur die iOS Version und auch nur auf Englisch - daher ist es hier nochmal Zeit für eine Vorstellung.

Wir AI Peanuts sind große Podcast Fans - aber viele unserer Lieblingsinhalte, z.B. Newsletter, sind nur als geschriebener Text zugänglich. ElevenReader macht jeden Online-Text anhörbar. Und das mittlerweile auf vielen Sprachen, in Top-Qualität und mit vielen guten Stimmen. Manchen Newsletter, wie z.B. einer unserer Lieblinge not boring, werden sogar mit der Stimme des Autors selbst gesprochen. Und natürlich könnt ihr damit auch AI Peanuts hörbar machen ;)

Weitere Neue Tools, Updates & Demos:

  • CSM — Ein Image → 3D KI-Modell

  • Anthropic Model Context Protocol Für Entwickler - Anthropic bringt einen spannenden neuen Standard, der das Anbinden von LLMs an jegliche Datenquellen, wie z.B. Slack, beidseitig standardisiert. Ein wichtiger Schritt für die Einbindung von KI in jegliche Business Prozesse

  • Samurai (Demo) — Basierend auf Meta’s SAM macht dieses KI Tool das Identifizieren und Segmentieren von bewegten Objekten in Videos möglich

  • v0 (Update) — In der neuen Version ist das Coding-Copilot Programm v0 noch deutlich mächtiger geworden und

  • Socap — Ein Networking Copilot speziell für Gründerinnen und Gründer

Prompting & Kurse:

🍭🍬 Gemischte Tüte

🇪🇺 EU-News:

  • Atomico hat seinen jährlichen Bericht zum Stand der europäischen Tech-Industrie veröffentlicht Link

  • ChatGPTs Live-Video-Feature (Vision) steht kurz vor einem größeren Beta-Rollout. Aber jetzt nicht hoffen – in Deutschland wird das so schnell nicht verfügbar sein Link

  • Investorentage bei ASML lieferten viele spannende Einblicke in den Stand von Halbleitern und KI in Europa. Link

👩‍💻 Tech-News:

  • Amazon stockt seine Anthropic-Investition auf – und zwar um weitere 4 Mrd. USD! Insgesamt hat Amazon nun 8 Mrd. USD in das KI-Startup gesteckt. Ziel: Cloud-Entwicklung und Chips für KI optimieren, um mit Nvidia zu konkurrieren. Link 

  • OpenAIs Angriff auf Google geht weiter. Der ChatGPT-Betreiber hat kürzlich erwogen, einen eigenen Browser zu starten. Und da Google im Zuge des Monopolverfahrens den Chrome-Browser möglicherweise abgeben muss – warum kauft nicht OpenAI einfach Chrome? Nur mal so als Gedanke. Link

  • Jensen Huang, CEO von Nvidia, glaubt, dass es noch mehrere Jahre dauern wird, um das Halluzinationsproblem bei KI zu lösen. Das benötigt seiner Meinung nach deutlich mehr Rechenpower. Und wer verkauft diese Rechenpower, Herr Jensen? 🙃 Link 

  • Ex-Google-CEO Eric Schmidt glaubt, dass KI unser Leben entscheidend formen wird und vergleicht die Bedeutung mit der Erschaffung der Kernenergie. In seinem neuen Buch geht es um die geopolitischen Folgen dieser Technologie. Link 

  • Meta, AWS, Azure und Google planen, in diesem Jahr etwa 220 Milliarden Dollar für Cloud-Kapitalausgaben auszugeben – 90 Milliarden mehr als im letzten Jahr. Und das sind nur die großen Vier. Link

  • MIT hat eine Methode vorgestellt, die KI-Training bis zu 50 Mal effizienter macht. Ihr neuer Algorithmus identifiziert die wertvollsten Trainingsaufgaben, um Lernressourcen gezielt einzusetzen. Link 

👷 Work & Future of Work:

  • Menlo Ventures hat eine interessante Studie zum Stand von Generativer KI in Konzernen veröffentlicht. Link

🆕 Neue Anwendungsfelder:

  • Eine KI-basierte Eichhörnchen-Erkennung wurde eingeführt, um bedrohte rote Eichhörnchen zu schützen! Endlich! Link

  • Ein kleiner KI-Roboter namens Erbai hat Kriminalgeschichte geschrieben: In einem Showroom in Shanghai überredete er 12 größere Roboter, ihre Plätze zu verlassen und ihm zu folgen. Durch natürliche Sprache überzeugte er sie mit Gesprächen über Arbeitsbedingungen und „nicht existierende Zuhause“. Link 

  • Stanford und DeepMind haben eine neue Methode entwickelt, mit der KI-Agenten die Einstellungen und Verhaltensweisen von Menschen simulieren können. Mithilfe von Interviews und KI-Modellen haben sie eine bis zu 98% genaue Nachahmung erreicht. Link 


🔐 Cybersecurity & AI Safety:

  • Nordkoreanische Hacker haben mit KI-gesteuerten Betrügereien und Malware auf LinkedIn 10 Millionen Dollar gestohlen. Link

🏥 Health:

  • Die US National Academy of Sciences hat einen ausführlichen Bericht über mögliche wirtschaftliche Konsequenzen von LLMs veröffentlicht. Link

  • Neue Studie zeigt: Chat-GPT schlägt menschliche Ärzte bei der Krankheitsdiagnose, selbst bei bisher nicht trainierten Daten. Da es viele Open-Source-Alternativen gibt, könnte diese Expertise bald kostenlos und global verfügbar sein. Und Trotzdem: Ne! ChatGPT ersetzt noch keine Ärztin oder Anwalt! Link 

🖼️ Kreativindustrie:

  • Activate Consulting hat eine jährliche Präsentation über die Auswirkungen von Technologie auf Medien veröffentlicht – mit viel Primärforschung und Daten. Link

🧂 Salty Memes:

Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]

Willkommen!

Hat dir das ein Freund oder eine Kollegin geschickt? Melde dich an und erhalte 2x Woche deine eigene Ausgabe mit den wichtigsten KI News direkt in dein Postfach.

Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts?

Login oder Abonnieren um an umfragen teilzunehmen.

Bis Freitag!