- AI Peanuts
- Posts
- 🇨🇳 DeepSeek, Open Source und der Tag, an dem alles anders wurde
🇨🇳 DeepSeek, Open Source und der Tag, an dem alles anders wurde
Hallo Freunde!
In den letzten zwei Wochen gab’s den Deal: Teile AI Peanuts auf Social Media, schick uns den Link zum Post und du erhältst unseren o1-Prompting Guide. Der Deal steht weiterhin - also teilt fleißig! Der o1 Prompting Guide ist jetzt außerdem Teil des AI Peanuts Workbook (mehr Infos weiter unten). Alle von euch, die es bereits gekauft haben, haben automatisch Zugriff auf die neuen Inhalte!
Peanuts für heute:
🇨🇳 DeepSeek, Open Source und der Tag, an dem alles anders wurde
💹 4 Grafiken warum sich die Entwicklung von KI nicht verlangsamen wird
🛠️ Politische Meinungsbildung unterstützt durch KI


Anzeige
KI-Output: Fakten, Halluzinationen und Bias erkennen
Auch wenn KI-Tools beeindruckende Antworten liefern, ist es entscheidend, diese kritisch zu hinterfragen. Gerade bei komplexeren Fragestellungen bleibt der Mensch ein unverzichtbarer Teil des Prozesses.
Zwei wichtige Hinweise, worauf man achten sollte:
Plausible Falschinformationen: Bevor ein Chatbot zugibt, etwas nicht zu wissen, erstellt er oft eine scheinbar plausible, aber falsche Antwort. Besonders bei rechtlichen Details, Nennung von spezifischen Gesetzen oder Zitaten ist Vorsicht geboten – diese sollten stets überprüft werden.
Knowledge-Cutoff: KI-Modelle, die keinen Zugang zum Internet haben, basieren auf Daten bis zu einem bestimmten Zeitpunkt (Knowledge-Cutoff). Liegt dieser beispielsweise im Jahr 2023, kann das Modell keine Informationen über Ereignisse oder Entwicklungen liefern, die erst 2024 stattgefunden haben.
Wenn ihr KI-Tools in eurem Arbeitsalltag nutzt, solltet ihr wissen, worauf ihr bei der Überprüfung von Ergebnissen achten müsst. Eine hervorragende Einführung dazu bietet der Kurs Kritischer Blick auf KI-Ergebnisse von unserem Partner Herdt:

🥜 Die größte Nuss:

🇨🇳 DeepSeek, Open Source und der Tag, an dem alles anders wurde
Seit ziemlich genau zwei Jahren schreiben wir diesen Newsletter. Und heute hatten wir – die drei Autoren, Tim, Lukas & Robbie – einen Call, um über DAS Thema zu sprechen. Wir haben uns bewusst ein wenig Zeit gelassen, weil wirklich jede Stunde neue Entwicklungen eintreten. Aber wir sind uns einig: Das hier ist einer der drei wichtigsten Artikel, die wir je geschrieben haben.
Warum? Weil wir gerade möglicherweise einen der größten Wendepunkte in der Geschichte der künstlichen Intelligenz erleben. Auf einer Stufe mit der Veröffentlichung von ChatGPT oder der Erfindung des Transformers. Warum? Genau darum geht es in dieser Nuss.
Was ist passiert?
Für die treuen Leser & Leserinnen dieses Newsletters ist es keine Überraschung – aber für alle, die die letzten Tage unter einem Stein verbracht haben:
Ein chinesischer Hedgefonds hat ein State-of-the-Art Reasoning-Modell entwickelt, das OpenAI’s o1 schlägt – und angeblich wurden nur 5,5 Millionen Dollar für das Training ausgegeben. Dann wurde das Modell kostenlos und Open Source veröffentlicht. Ein Schock für die gesamte Tech-Industrie, besonders für OpenAI, die seit Monaten daran arbeiten, Investoren und Kunden davon zu überzeugen, dass KI teuer ist und es Dinge wie 500-Milliarden-Dollar-Rechenzentren braucht, um wettbewerbsfähig zu bleiben.
Aber die Kosten sind nicht mal das Einzige. Chinesische Unternehmen dürfen eigentlich keine modernen GPUs bekommen, weil sie unter die US-Sanktionen fallen. Und doch hat DeepSeek es geschafft, ein Modell zu trainieren, das mit OpenAIs besten Produkten konkurrieren kann.
Das Märchen vom größten Modell ist vorbei
Die letzten zwei Jahre liefen nach einer einfachen Erzählung:
Wer die meisten GPUs hat, gewinnt.
Wer die größten Modelle hat, dominiert den Markt.
Wer das beste Modell hat, kontrolliert die Zukunft.
Und dann kam DeepSeek – und das Narrativ brach in sich zusammen. Die Märkte reagierten sofort. Der Nasdaq fiel um 200 Punkte, NVIDIA verlor 17 % seines Werts – das entspricht 600 Milliarden US-Dollar an Marktkapitalisierung. Der größte Tagesverlust in der US-Börsengeschichte – JEMALS! Und das alles wegen eines chinesischen Open-Source-Modells.
Wichtig: Ein großer Teil dieses Wertes hat sich nach ein bis zwei Tagen wieder erholt. Aber der Schock saß tief. Tut vermutlich noch eine ganze Weile weh!
Wie konnte DeepSeek mit so wenig Geld so viel erreichen?
DeepSeek kam nicht aus dem Nichts. In den letzten Monaten gab es mehrere Veröffentlichungen, aber diesmal war das Modell qualitativ erstmals auf Augenhöhe mit den westlichen KI-Systemen. Weil es für chinesische Unternehmen schwer ist, an tausende GPUs zu kommen, mussten sie kreativ und extrem effizient sein.

DeepSeek hat eine neue Trainingsstrategie eingeführt, die sich von klassischen Modellen unterscheidet:
Statt nur auf gigantische vortrainierte Modelle zu setzen, kombiniert DeepSeek Pretraining mit Reinforcement Learning (RL). Hier ist kein Platz RL im Detail zu erklären - aber das holen wir nach!
Während sich die meisten US-Firmen auf riesige Modelle mit klassischen Skalierungsstrategien verlassen haben, hat DeepSeek das Training optimiert und mit neuen Methoden experimentiert.
Diese neue Form des RL-Trainings befindet sich noch in einem frühen Stadium – das bedeutet, dass mit relativ wenig Geld noch riesige Fortschritte erzielt werden können.
Wichtig ist aber: DeepSeek hat vermutlich nicht „für 5 Millionen Dollar erreicht, was OpenAI Milliarden kostet“. Die Firma hatte vermutlich Zugang zu 50.000 NVIDIA Hopper-Chips – die kosten rund 1 Milliarde Dollar. DeepSeek konnte die Kosten also senken, aber nicht um ein astronomisches Verhältnis, wie manche behaupten. Gerade auf LinkedIn liest man zu dem Thema die verrücktesten Takes, die sich aber oft nicht auf Fakten stützen.

Trotzdem ist der Effekt gigantisch: Microsoft und OpenAI sind in Panikmodus. Bei Meta gibt es mehrere „War Rooms“, in denen Ingenieure versuchen, herauszufinden, wie DeepSeek so effizient arbeiten konnte.
Hat DeepSeek betrogen? OpenAI & Friends erheben schwere Vorwürfe
Fast sofort nach dem Release begannen die ersten Spekulationen: DeepSeek muss doch irgendwas Illegales gemacht haben!
David Sacks, Trumps neuer „AI-Zar“, ging in die Medien und erklärte, dass er Beweise dafür habe, dass DeepSeek OpenAIs Modelle illegal genutzt hat, um ihr eigenes Modell zu trainieren. Das würde gegen die OpenAI-Nutzungsbedingungen verstoßen und wäre ein klarer Fall von sogenannter „Distillation“ – einem Verfahren, bei dem ein großes, teures Modell genutzt wird, um Wissen auf ein kleineres Modell zu übertragen. Auch OpenAI glaubt wohl an diese Vorwürfe!

Die Ironie ist hier fast schon absurd:
OpenAI hat das gesamte Internet gescraped, ohne um Erlaubnis zu fragen.
Elon Musk warf OpenAI vor, Twitter-Daten für das Training verwendet zu haben.
Autoren wie George R.R. Martin klagen wegen Copyright-Verletzungen.
Und jetzt, da OpenAI und Microsoft vermuten, dass DeepSeek mit ihren Daten gearbeitet haben könnte, drehen sie den Spieß um. Veröffentlichte Beweise gibt es bislang nicht. Es kursieren zwar Screenshots von DeepSeek-Antworten, die stark nach GPT-4 klingen, aber das könnte genauso gut daran liegen, dass GPT-Modelle inzwischen allgegenwärtig sind.
Microsoft behauptet zudem, in seinen Serverlogs auffällige Datenabfragen aus China entdeckt zu haben. Ob diese wirklich mit DeepSeek in Verbindung stehen, ist unklar.
DeepSeek ist nicht sicher – oder einfach nur geopolitisches Kalkül?
Ein weiteres großes Thema ist die Sicherheit von DeepSeek. Man hört immer wieder, dass bei der Nutzung des Modells alle Eingaben und Daten direkt nach China gesendet werden.
Das stimmt auch, solange man die offizielle Website oder App von Deepseek nutzt (die auch direkt auf Platz 1 der App Store Charts schoss). Da die Modelle aber Open Source sind, gibt es bereits zahlreiche Alternative Hoster, z.B auf Perplexity oder sogar komplett lokal mit Tools wie LM Studio.
Das wahre Problem für OpenAI & Co: Open Source gewinnt
Der größte Trend, der sich hier abzeichnet: Open Source setzt sich durch.
Das bedeutet:
Wenn KI-Modelle zur kostenlosen Commodity werden, dann liegt der wahre Wert nicht mehr in den Modellen selbst, sondern in den Produkten, die darauf aufbauen.
Die großen Tech-Unternehmen sind es gewohnt, durch ihre Infrastruktur einen Wettbewerbsvorteil zu haben – aber wenn jeder Zugriff auf leistungsstarke Open-Source-Modelle hat, zählt nur noch, wer die besseren Produkte baut.
Und genau das könnte für Unternehmen wie OpenAI oder Google zum Problem werden.
Bereits 2023 gab es ein geleaktes Google-Memo mit der Erkenntnis: „Wir haben keinen Wettbewerbsvorteil (Moat).“ Das galt damals für Open Source vs. Google. Aber jetzt ist klar: OpenAI hat auch keinen Vorteil gegen Open Source.
DeepSeek könnte dabei zum größten Katalysator werden. Selbst wenn es nicht für 5 Millionen Dollar das Unmögliche geschafft hat – es hat Innovationen vorangetrieben und gezeigt, dass China ein ernstzunehmender Player im KI-Rennen ist.
China hat bereits angekündigt, 1 Billion Yuan (137 Milliarden US-Dollar) in seine KI-Industrie zu investieren. Mit DeepSeek als Vorreiter könnte sich die Entwicklung rasant beschleunigen.
Fazit: Ein neues Kapitel in der KI-Geschichte
Egal, ob man DeepSeek als Gamechanger oder als Kopfschmerz für die großen US-Tech-Konzerne sieht – eines ist sicher: Das Rennen um KI hat gerade eine neue, unberechenbare Dynamik bekommen.
Die Frage ist nicht mehr, wer die größte Rechenpower hat.
Die Frage ist: Wer baut die besten Produkte?
Und genau das könnte für einige der etablierten Tech-Giganten zum Problem werden.

🛠️ Trai it out:
Wir arbeiten daran, die Tool-Section noch nützlicher zu machen, statt einfach nur Links zu listen. Daher wird es hier jetzt immer mal wieder kleine Tutorials geben, flankiert von spannenden Demos und einer kurzen Übersicht über weitere Tools.
Wir freuen uns über Feedback!
Politische Meinungsbildung mit KI-Unterstützung
In wenigen Wochen steht die Bundestagswahl an. Um eine fundierte Entscheidung für Parteien und Kandidaten zu treffen, ist es sehr wichtig, sich über die unterschiedlichen Positionen zu informieren und diese mit den eigenen Vorstellungen für eine gute Zukunft abzugleichen. Im Trubel der oft “lauten” klassischen Medienlandschaft ist das gerade bei hitzig diskutierten Themen nicht ganz leicht. Wir finden, das Thema eignet sich perfekt, um sich dabei von KI unterstützen zu lassen.
Allerdings sollte man dabei beachten, viele “klassische” Modelle haben keinen Zugriff auf aktuelle Informationen und neigen in einigen Fällen zum Halluzinieren (siehe dazu auch der Tipp unserers Partners Herdt weiter oben). Daher sollte man für die Recherche auf jeden Fall ein Modell mit Zugriff auf Websuche nutzen.
Am besten dafür eignet sich unserer Meinung aktuell Perplexity. Auch schon in der kostenfreien Version ohne Login sucht Perplexity nach Quellen im Internet, um seine Antworten auf deren Inhalt zu stützen und zeigt einem die Quellen als Link an.
Noch etwas besser funktioniert es natürlich mit der Pro Version und besonders gut, wenn man ein Reasoning Modell wie OpenAI o1 oder DeepSeek R1 auswählt.

Perplexity Pro mit zusätzlicher Auswahl eines Reasoning Modells
Jetzt kann einem Perplexity politische Fragen sehr gut auf Basis der aktuellen Nachrichten, aktuellen Websites der Parteien etc. erklären.

Besonders hilfreich wird es, wenn sich aus den Antworten weitere Fragen ergeben - man kann sich so sehr einfach tiefer in Themen einlesen, Rückfragen stellen, bei Bedarf tiefer in das Quellenmaterial einsteigen und sich so von der KI bei der politischen Information und Meinungsbildung unterstützen lassen.
Zusammengefasst:
KI-Tools können als Recherche-Sparringspartner bei der politischen Bildung dienen
Wichtig: Modell mit Zugriff auf aktuelle Informationen via Web Suche nutzen
Unsere Empfehlung: Perplexity (+ am Besten im Pro Modus mit Reasoning Modell)
Spannende Demos:

Tools kurz & knackig:

🍭🍬 Gemischte Tüte
🇪🇺 EU-News:
Frankreichs staatlicher KI-Chatbot Lucie wurde wegen zahlreicher Fehler gestoppt – nur wenige Tage nach dem Start, trotz umfangreicher Finanzierung durch Präsident Macron. Link
Von der Leyen kündigt an: Die EU Kommission möchte u.a. mit einer “Apply AI”-Initiative dafür sorgen, dass mehr Unternehmen in der EU KI nutzen. Too little too late? Link
👩💻 Tech-News:
Meta plant eine massive KI-Investition von 60 Milliarden USD für 2025, darunter den Ausbau seines GPU-Bestands auf 1,3 Millionen Chips sowie eine Erweiterung des KI-Teams. Link
Mark Zuckerberg spricht während Meta’s Earnings Call über Llama 4. Das Modell kommt als Omni-Modell mit reasoning- und Agentenfähigkeiten. Llama 4 Mini hat das Pre-Training abgeschlossen, und 2025 soll das Jahr des „AI Engineering Agents“ werden – mit Coding- und Problemlösungsfähigkeiten auf dem Niveau eines guten Mid-Level-Entwicklers. Link
OpenAI hat ChatGPT Gov angekündigt – eine Version von ChatGPT, die Regierungsbehörden in ihrer eigenen Cloud-Umgebung einsetzen können. Link
SoftBank ist in Gesprächen, um bis zu 25 Milliarden Dollar in OpenAI zu investieren. Damit wäre das japanische Unternehmen der größte Finanzinvestor des US-Riesen für künstliche Intelligenz. Link
4 Grafiken zeigen, warum sich die Entwicklung von KI wahrscheinlich nicht verlangsamen wird. Link
ChatGPT’s Canvas unterstützt jetzt OpenAI o1 und rendert sogar HTML und React für fortgeschrittene Projekte. Link
Apple hat Kim Vorrath als neue KI-Chefin ernannt. Sie soll Siri revolutionieren – Vorrath ist bekannt dafür, interne Herausforderungen im Unternehmen zu lösen und hochkomplexe Projekte zu leiten. Link
Bernard Arnault prüft eine mögliche Übernahme des angeschlagenen französischen KI-Unternehmens Mistral, da Frankreich seine „Spitzenstellung bei handwerklichen Produkten auch nach ASI“ (Artificial Superintelligence) behalten müsse. Link
Meta führt Gedächtnisfunktion für seine KI ein – WhatsApp und Messenger können sich bald an frühere Gespräche erinnern und personalisierte Antworten geben. Link
Reliance plant das „weltweit größte“ Rechenzentrum in Indien, mit geschätzten Kosten von 20–30 Milliarden Dollar. Link
OpenAI bringt das o3-Mini-KI-Modell für die kostenlose ChatGPT-Version. Plus-Abonnenten erhalten höhere Nutzungslimits. Link
Präsident Trump kündigt Zölle auf Halbleiterimporte aus Taiwan an – ein potenziell bedeutender Schritt für die Technologiebranche. Link
xAI entwickelt einen Sprachmodus für die iOS-App mit Grok und ElevenLabs-Modellen. Link
Ein neues, superkompliziertes Benchmark namens „Humanity’s Last Exam“ wurde entwickelt, um die Grenzen von KI-Modellen auszutesten. Kein Modell hat bisher mehr als 10 % erreicht. Link
Der chinesische Robotikhersteller UBTech plant die Massenproduktion von humanoiden Industrierobotern bis Ende 2025. Erste Einsätze sind in Fabriken von großen Unternehmen wie Foxconn und SF Express geplant. Trotz Fortschritten liegt der Fokus derzeit auf industriellen Anwendungen, da Haushalts-Humanoide noch nicht marktreif sind. Link
🆕 Neue Anwendungsfelder:
Das ist verrückt! Die Australian Open hatten nicht die vollständigen Übertragungsrechte für alle Matches. Deshalb nutzt der YouTube-Livestream KI, um Cartoon-Avatare aus Nintendo Wii Tennis zu generieren, die das Geschehen mit einer Verzögerung von zwei Minuten nachahmen. Das animierte Video, in dem Daniil Medvedev seinen Schläger ins Netz schlägt, könnte das beste generative KI-Output aller Zeiten sein. Link
Alphabet veröffentlicht eine neue ChromeOS-Funktion, mit der du dein Chromebook durch Kopfbewegungen und Gesichtsausdrücke steuern kannst. Das Feature richtet sich an Nutzer mit motorischen Einschränkungen. Link
🔐 Cybersecurity & AI Safety:
Ein weiterer OpenAI-Forscher hat gekündigt und warnt, dass KI-Labore „ein sehr riskantes Spiel mit der Menschheit“ treiben, während sie im Wettlauf um AGI voranschreiten. Link
Ein Softwareentwickler kaufte die Domain OGOpenAI.com günstig und leitete sie auf DeepSeeks Website weiter, um auf deren Open-Source-KI aufmerksam zu machen. Link
Clevelander Polizei setzte KI ein, um einen Durchsuchungsbefehl zu rechtfertigen – was in einem Mordfall zu erheblichen Schwierigkeiten geführt hat. Link
🖼️ Kreativindustrie:
Midjourney plant eine große V7-Veröffentlichung im Februar, begleitet von zwei kommenden Videomodellen. 3D-Funktionen und schnellere Verarbeitung sind ebenfalls in Arbeit. Link
Quartz hat im Stillen KI-generierte Nachrichtenartikel veröffentlicht. Link
Paul McCartney kritisiert geplante KI-Urheberrechtsänderungen im UK – er warnt, dass diese Musikern schaden und deren Werke ohne angemessene Bezahlung ausnutzen könnten. Link
🔥 Takes:


AI Peanuts Workbook

Vollgepackt mit KI-Wissen, Tools & Tutorials!
Du hast angefangen, dich tiefer mit dem Thema KI zu beschäftigen und willst den nächsten Schritt machen? Dann ist unser offizielles AI Peanuts Workbook genau das Richtige für dich!
Das Workbook ist kein klassisches “Buch”, sondern ein praxisorientiertes, interaktives digitales Dokument. Gegliedert in 3 Teile:
Theorie — Der Textbuch-Teil des Workbooks, in dem wir das Thema KI und seine technischen Grundlagen erklären.
Praxis — Eine Reihe von praktischen Tutorials, mit denen du lernst, KI praktisch anzuwenden (z.B.: ChatGPT Masterprompts, HeyGen, NotebookLM, Midjourney…)
Daten — Datenbanken mit den besten KI-Tools und den spannendsten Firmen im KI-Umfeld.

🧂 Salty Memes:


Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]
Willkommen!
Hat dir das ein Freund oder eine Kollegin geschickt? Melde dich an und erhalte 2x Woche deine eigene Ausgabe mit den wichtigsten KI News direkt in dein Postfach.
Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts? |
Login oder Abonnieren um an umfragen teilzunehmen. |

Bis Dienstag!