• AI Peanuts
  • Posts
  • 🔥 KI Showdown: Wie neue Strategien das AI-Race verändern

🔥 KI Showdown: Wie neue Strategien das AI-Race verändern

Das KI-Rennen gewinnt an Fahrt, und wir haben in unserem großen Bericht den aktuellen Stand zusammengefasst. Wie dieses Rennen ausgeht, entscheidet, wie sich die Industrie weiterentwickelt. Es bleibt spannend!

Peanuts für heute:

  • 🔥 KI Showdown: Wie neue Strategien das AI-Race verändern

  • 🔍️ Glean: ein Such-Chatbot für Unternehmen sorgt für Aufsehen

  • 🛠️ Context — Diese KI-Demo sollte jeder gesehen haben!

🥜 Die größte Nuss:

🔥 KI Showdown: Wie neue Strategien das AI-Race verändern

Seit einiger Zeit schien das Rennen um die Zukunft der KI schon klar zu sein: OpenAI und Microsoft führten, Google DeepMind dicht auf den Fersen, und Elon Musks xAI eher als frustrierter Zuschauer am Rand.

Aber die Umstände haben sich geändert. Elon Musk hat nicht nur Unterstützung von der US-Regierung – er ist ein Teil davon geworden. Unabhängig davon, wie man dazu steht, ist es Zeit für ein Update zum KI-Rennen, denn hier entscheidet sich, in welche Richtung sich die KI-Industrie entwickelt.

Google mit großen Schwierigkeiten.

Google hat kürzlich wohl Schwierigkeiten mit seinem KI-Modell Gemini gehabt, die gleichen Leistungssteigerungen zu erzielen, wie im letzten Jahr. Das hat die Forscher dazu veranlasst, sich auf neue Wege zu konzentrieren, um Verbesserungen zu erreichen.

Frühere Versionen von Googles Topmodell, Gemini, verbesserten sich schneller, wenn die Forscher mehr Daten und Rechenleistung für das Training nutzten. Aber diese Gleichung geht nicht mehr auf.

Das ist besonders besorgniserregend für Google, da die Gemini-Modelle deutlich weniger Entwickler und Kunden anziehen, als bspw. OpenAI. Das muss für Google besonders frustrierend sein, denn wir wissen alle, dass sie die Transformer-Technologie erfunden haben, die den GenAI-Ball erst ins Rollen gebracht hat.

Aber nicht nur Google, auch OpenAI und Anthropic kämpfen derzeit mit der Weiterentwicklung ihrer KI-Modelle. OpenAIs neues Modell "Orion" erfüllt dabei nicht die erwartete Performance, insbesondere beim Programmieren. Wachsende Kosten und der Mangel an qualitativ hochwertigen Trainingsdaten sind dabei die große Hürden.

Google muss und will seine Herangehensweise ändern. In den letzten Wochen hat DeepMind ein Team innerhalb seiner Gemini-Einheit aufgestellt, geleitet vom leitenden Forschungswissenschaftler Jack Rae und dem ehemaligen Character.AI-Mitgründer Noam Shazeer, das neue Techniken entwickeln soll, um die Modelle weiterhin in gutem Tempo zu verbessern.

Der entscheidende Faktor ist der Bau effizienter Rechenzentren.
OpenAI hat zu diesem Thema eine umfassende Roadmap für Amerikas KI-Infrastruktur präsentiert. Sie schlagen unter anderem die Einrichtung von "AI Economic Zones" und eine Modernisierung des Stromnetzes vor. Zudem wurde über den Bau eines gigantischen Rechenzentrums im Wert von 100 Milliarden Dollar gesprochen.

Das klingt nach viel, aber auch Anthropic-CEO Dario Amodei erwähnte im Podcast von Lex Fridman (Auch wenn er sehr lang ist - absolute Hörempfehlung!), dass es bis 2026 Cluster geben könnte, die mehr als 100 Milliarden Dollar kosten. Anthropic könnte das schaffen. Vor allem da wir wissen, dass die Führung von Anthropic auf ein offenes Ohr bei Amazon trifft, die eine zweite milliardenschwere Investition in Anthropic in Betracht ziehen.

In gewisser Weise führend ist aktuell ausgerechnet Elon Musk’s xAI.
Und dessen Ansatz versetzt die Konkurrenten in Aufruhr.

Elon Musk hat es nämlich geschafft, in Rekordzeit einen gigantischen Supercomputer für xAI zu bauen, indem er einige der Vorsichtsmaßnahmen beim Bau von Rechenzentren einfach ignoriert hat.

Musk und Nvidia sagen, dass das neue Rechenzentrum für xAI in nur 122 Tagen gebaut wurde. In einem Podcast sagte Nvidia-CEO Jensen Huang, dass ein GPU-Cluster dieser Größe normalerweise drei Jahre Planung und Design und ein zusätzliches Jahr für die Inbetriebnahme benötigen würden.

Musk hat diesen Prozess beschleunigt indem er bspw. mit dem Bau losgelegt hat, ohne genügend Strom aus dem Stromnetz gesichert zu haben, um das Rechenzentrum namens "Colossus" zu betreiben.

Der Supercomputer besteht aus 100.000 Grafikprozessoren von Nvidia. Musk hat mehrere Fotos aus dem Inneren des Rechenzentrums auf X veröffentlicht. Und letzten Monat hat ein Branchenanalyst ein Video auf YouTube veröffentlicht, nachdem er das "Colossus"-Rechenzentrum besichtigt hatte.

Obwohl Musk’s KI-Tools mit ihren konkreten Fähigkeiten noch weit hinter denen von OpenAI zurückliegen, hat die Geschwindigkeit, mit der er seinen Supercomputer gebaut hat, Sam Altman, den CEO von OpenAI, alarmiert.

Nachdem Musk auf X darüber gepostet hatte, geriet Altman wohl in einen Streit mit Verantwortlichen bei Microsoft und äußerte Bedenken, dass xAI schneller vorankommt als Microsoft.

Diese Sorge hat OpenAI erstmals dazu veranlasst, nach Alternativen zu Microsoft zu suchen. Seine Sorge ist berechtigt, da Elons Verbindungen und seine Beteiligung an der US-Regierung ihm einen Einfluss geben, von dem OpenAI nur träumen kann. Und Musk wird wahrscheinlich nicht zögern, seine Rivalen auszubremsen, wenn er kann.

Es ist eine riskante Wette!

Basierend auf dem einfachen Glauben, dass ein größerer Server-Cluster eine bessere KI hervorbringen kann. Ob das stimmt - wird sich noch zeigen.

Ein Unternehmen, das wir in diesem Rennen nicht vergessen sollten, ist Meta. Derzeit haben sie immer noch den größten Vorsprung beim Zugang zu Nvidia-GPUs. Angeblich haben sie Zugang zu 350.000 Nvidia-GPUs - deutlich mehr als ihr größter Rivale OpenAI. Allerdings hat Meta nun andere Probleme, da der Versuch der Federal Trade Commission, Meta als Firma aufzuspalten, diese Woche einen Schritt vorangekommen ist.

Also, wer wird das KI-Rennen gewinnen? Wir wünschten, wir wüssten es. Aber wir halten ein genaues Auge auf die Entwicklungen und ihr erfahrt es hier als Erste!

AI Peanuts Workbook

Vollgepackt mit KI-Wissen, Tools & Tutorials!

Du hast angefangen, dich tiefer mit dem Thema KI zu beschäftigen und willst den nächsten Schritt machen? Dann ist unser offizielles AI Peanuts Workbook genau das Richtige für dich!

Das Workbook ist kein klassisches “Buch”, sondern ein praxisorientiertes, interaktives digitales Dokument. Gegliedert in 3 Teile:

Theorie — Der Textbuch-Teil des Workbooks, in dem wir das Thema KI und seine technischen Grundlagen erklären.
Praxis — Eine Reihe von praktischen Tutorials, mit denen du lernst, KI praktisch anzuwenden (z.B.: ChatGPT Masterprompts, HeyGen, NotebookLM, Midjourney…)
Daten  Datenbanken mit den besten KI-Tools und den spannendsten Firmen im KI-Umfeld.

🛠️ Trai it out:

Context — Heute mal eine Tool Vorstellung, die man leider noch nicht einfach so ausprobieren kann, da es noch eine Waitlist gibt, bei echtem Interesse kann man aber eine Demo anfragen. Warum stellen wir es dann vor? Wir finden, jeder, der besser verstehen will, was KI für die Zukunft von Knowledge Work bedeuten kann, sollte sich diese Demo anschauen!

Context ist eine Art Copilot auf Steroiden. Mit seinen agentischen Fähigkeiten erledigt das Tool im Tandem mit einem Menschlichen Instructor einen komplexen Analyse Case, inklusive Recherche und Präsentations-Erstellung. Man bekommt ein Gefühl dafür, wie KI als Werkzeug in der Hand von intelligenten menschlichen Bedienern einen unfassbaren Hebel erzeugen kann. Science Fiction wird hier langsam aber sicher zu Science Fact.

Weitere Neue Tools, Updates & Demos:

  • Segwise Mobile Ad Campaign Monitoring mit KI

  • Koncile — Ein KI-OCR Tool für perfekte Datenextraktion aus Dokumenten

  • ElevenLabs Projects — Aus dem KI-Audio Tool wird immer mehr ein richtiges Toolset mit vielen weitreichenden Funktionen

  • BuildShip — Ein mächtiger NoCode KI-Workflow Builder

  • WindsurfFür Entwickler - Mehr als nur KI-IDE - Ein Code Editor mit agentischen Fähigkeiten

🍭🍬 Gemischte Tüte

🇪🇺 EU-News:

  • GEMA ist die erste Rechte-Verwertungsgesellschaft, die OpenAI wegen angeblicher Urheberrechtsverletzungen bei Songtexten verklagt. Die Klage wurde in München eingereicht. Link

  • Das Kölner Unternehmen DeepL hat DeepL Voice vorgestellt, einen Echtzeit-Übersetzungsdienst, der 13 gesprochene und 33 geschriebene Sprachen unterstützt. Der Fokus liegt zunächst auf textbasierter Ausgabe für Teams-Meetings und persönliche Gespräche. Link

👩‍💻 Tech-News:

  • ChatGPT hat die Art und Weise, wie Menschen online nach Informationen suchen, komplett verändert. Jetzt zieht das fünf Jahre alte Startup Glean in große Konkurrenten in einem verwandten Markt an: Such-Chatbots für Unternehmen. OpenAI, Google, Snowflake und Cohere sind aufmerksam geworden und planen, mit eigenen Produkten zu konkurrieren. Link

  • OpenAI-Mitbegründer Ilya Sutskever sieht das Ende des LLM-Skalierungs-Hypes und prophezeit eine neue „Ära der Entdeckungen“. Die Forschung konzentriert sich jetzt auf „Test-Time Compute“, bei dem mehrere Lösungen geprüft werden, bevor die beste ausgewählt wird – besonders nützlich für komplexe Aufgaben. Den Begriff „Test-Time Compute“ sollte man sich für die kommenden Monate merken. Link

  • Einer unserer aktuellen Lieblings-Podcasts: Wie ein anonymer Forscher den Weg der KI vorhersagte. Link

  • OpenAI-Mitgründer Greg Brockman ist nach monatelanger Pause zur Firma zurückgekehrt. Link

  • Apple plant wohl die Einführung eines sechs Zoll großen, KI-gesteuerten Wanddisplays für März. Es wird als Smart-Home-Zentrale mit FaceTime, Siri und KI-Features dienen. Zukünftige Versionen könnten Gerüchten zufolge sogar mit einem Roboterarm ausgestattet sein. Link 

  • OpenAI arbeitet an der Einführung eines KI-Agenten-Tools namens „Operator“, um Aufgaben für Nutzer zu automatisieren. Link 

  • KI ist extrem schnell darin, Daten zu verarbeiten – viel schneller als die menschliche Sprache kommunizieren kann. Während Menschen mit etwa 100-150 Wörtern pro Minute sprechen, kann KI Daten im Bereich Terrabytes pro Sekunde analysieren. Brauchen wir daher eine effizientere Sprache, um mit KI zu kommunizieren? Link 

  • Perplexity testet ab dieser Woche in den USA Werbung in Form von gesponserten Folgefragen. Link 

  • Qwen2.5-Coder erreicht das Level der Top-KI-Modelle bei Coding-Aufgaben. Teste es live unter "Artifacts", um deinen Code in Aktion zu sehen. Link 

  • OpenAI führt „Predicted Outputs“ ein, um die Antwortzeit der GPT-4o- und GPT-4o-mini-Modelle zu senken. Neue Tests zeigen, dass es 2-4x schneller Antworten liefert, ideal für Aufgaben wie Blog-Updates und ganz besonders für Code-Überarbeitungen. Link

👷 Work & Future of Work:

  • OpenAI veröffentlichte Richtlinien für Studierende, wie man ChatGPT nutzen kann, ohne es für ganze Aufgaben zu verwenden. Link

  • Microsoft hat 210 reale Anwendungsfälle veröffentlicht, wie Unternehmen KI heute nutzen, von kleinen bis hin zu großen Organisationen. Link 

  • Eine Slack-Umfrage mit über 17.000 Teilnehmern zeigt, dass die Begeisterung für KI in der Arbeitswelt nachlässt. 61 % der Befragten gaben an, weniger als 5 Stunden in die Einarbeitung in KI-Tools investiert zu haben. Möglicherweise spricht da aber auch Überforderung, bei all den Entwicklungen am Ball zu bleiben. Link 

🆕 Neue Anwendungsfelder:

  • Ein neues, graphbasiertes KI-Modell von MIT-Professor Markus J. Buehler findet überraschende Verbindungen zwischen scheinbar unzusammenhängenden Bereichen wie biologischen Materialien und Beethovens Musik. Klingt erstmal seltsam, aber diese neuartige Methode könnte zukünftige Durchbrüche in Wissenschaft, Kunst und Technologie ermöglichten. Link 

  • Ein Startup für generative KI bringt Kameras an den Rücken von Leuten an. Klingt wie eine moderne Version der frühen Twitch-Tage, oder damals JustinTV. Link

  • Wie bleibt man beim Chipsessen sauber? Nimm einen Roboter! Link

  • Roboter mit "Superaugen" können jetzt durch Wände und Rauch sehen, dank einer neuen LiDAR-ähnlichen Technologie. Link

🔐 Cybersecurity & AI Safety:

  • Anthropic verrät, wie Claude’s Sicherheitsmechanismen funktionieren. Ein Reddit-Nutzer löste mit dem Wort „Yo!“ überraschenderweise eine urheberrechtliche Warnung aus. Claude verwendet versteckte Eingabeaufforderungen, um potenzielle Probleme frühzeitig zu erkennen. Link 

  • Anthropic-Chef Dario Amodei sieht eine Chance für AGI bis 2027 (betont aber, dass man diese Aussage eigentlich nicht ohne den Kontext des sonst Gesagten “clippen” soll - also sorry ;)) und warnt vor zunehmenden Risiken. Er betont, dass Anthropic im Gegensatz zu OpenAI stark auf Sicherheit setzt, besonders wegen der potenziellen Risiken wie Missbrauch durch Cyber- oder Biowaffen. Link

  • Generative KI-Tools erleichtern es, akademische Daten zu fälschen, was die wissenschaftliche Integrität in Zukunft bedrohen könnte, warnen Experten. Link 

🏥 Health:

  • AlphaFold3, das mit dem Nobelpreis ausgezeichnete Werkzeug zur Modellierung von Proteinstrukturen, ist jetzt Open Source. Es kann nicht nur Proteine modellieren, sondern auch deren Interaktionen mit DNA, RNA und sogenannten Liganden, was die Medikamentenentwicklung erheblich beschleunigen könnte. Link 

  • Stanford-Forscher haben eine virtuelle Laborplattform veröffentlicht, auf der KI-Agenten gemeinsam mit Menschen neue Nanobodies zur Bekämpfung von COVID-Varianten entwickelt haben. Über 90 % der computergenerierten Moleküle waren stabil und funktionierten im Labor. Zwei von 92 entwickelten Proteinen zeigten besonders vielversprechende Ergebnisse. Link 

🧂 Salty Memes:

Wenn Berater denken, sie könnten jetzt coden..

Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]

Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts?

Login oder Abonnieren um an umfragen teilzunehmen.

Bis Dienstag!