Hey Freunde! Haben wir die Enttäuschung über GPT-5 überwunden? Natürlich! Mittlerweile hatten wir genug Zeit, auszuprobieren, was alles nicht funktioniert, und schreiben in der großen Nuss darüber, ob es nun das Ende der immer besseren Modelle ist.
Peanuts für heute:
💀 Die Große Nuss: GPT-5: War es das jetzt mit den Verbesserungen?
🛠️ Trai it Out: Schnell schöne Slides bauen mit Chronicle
📊 Highlight: Apple plant Roboter für dein Zuhause

🥜 Die größte Nuss:

💀 GPT-5: Hinter den Erwartungen oder hat KI eine "Hard Wall" getroffen?
Die Ernüchterung ist spürbar. Monatelang haben wir auf GPT-5 gewartet, auf den nächsten großen Sprung in der KI-Entwicklung. Stattdessen bekommen wir eine marginal bessere Version von dem, was wir schon kennen. GPT-5 ist schlicht enttäuschend.
Hätte OpenAI das Modell "GPT-4.6" genannt, würde niemand über eine Enttäuschung sprechen. Aber die "5" suggeriert einen Quantensprung wie damals von GPT-3 zu GPT-4. Sam Altman und sein Team haben monatelang mit Begriffen wie "Superintelligenz" um sich geworfen und völlig überzogene Erwartungen geschürt.
Die Medien springen bereits auf den Backlash-Zug auf. "Die bescheidenen Fortschritte von GPT-5 deuten darauf hin, dass der Fortschritt der KI sich verlangsamt." titelt New Scientist. Aber stimmt das?
Was wir wirklich bekommen haben
Das spannendste Feature von GPT-5 ist ironischerweise der Router, der automatisch entscheidet, welches Modell für eine Anfrage genutzt wird. OpenAI hat den Model-Picker entfernt und GPT-4o in Rente geschickt. Doch dann protestierte eine laute Gruppe von Power-Usern, die den Tonfall des alten Modells bevorzugten. OpenAI gab nach und brachte GPT-4o zurück.
Es ist fraglich, ob das, was wir bei ChatGPT.com nutzen, überhaupt die "volle Version" von GPT-5 ist. Wir können es nicht beweisen, aber die Verwirrung um verschiedene Modellvarianten deutet darauf hin, dass hier mehr im Hintergrund passiert, als öffentlich kommuniziert wird.
Sam Altmans ehrliche Worte
In einem bemerkenswert offenen Interview gab Sam Altman zu, dass GPT-5 kein gelungener Release war. "Wir hatten eine große GPU-Knappheit", sagte er. "Wir hätten ein weiteres riesiges Modell bauen können. Die Leute hätten es gewollt... und wir hätten sie enttäuscht. Also haben wir stattdessen ein wirklich smartes, nützliches Modell gebaut, optimiert für Inferenz-Kosten."
TLDR: OpenAI hatte schlicht nicht die Rechenpower für den großen Wurf und hat stattdessen ein effizienteres, aber nicht revolutionäres Modell gebaut. Und dabei noch darauf optimiert, dass die Kosten pro Anfrage sinken.
Geht der Fortschritt bei KI zurück?
Die große Frage ist: Ist OpenAI und die gesamte KI-Industrie an eine technische Grenze gestoßen? Auf den ersten Blick sieht es so aus.
Sam Altman hat bei seinem Dinner mit Tech-Journalisten schon angedeutet, wohin OpenAI steuert. Das Unternehmen will zur Plattform werden. Ihre neue App-Chefin Fidji Simo soll "mehrere Consumer-Apps außerhalb von ChatGPT" entwickeln. Das ist im Grunde ein Eingeständnis: Die Vision von "einer App für alles" funktioniert nicht.
Aber vermutlich haben wir noch keine technische Mauer erreicht. Höchstwahrscheinlich ist es tatsächlich einfach ein Infrastrukturproblem. OpenAI hatte schlicht nicht genug GPUs für das große Modell, das sie eigentlich bauen wollten. Die berühmten Scaling Laws gelten immer noch. Diese besagen: Je größer das Modell, je mehr Daten, je mehr Rechenpower, desto besser wird es.
Nur gibt es einen Haken. Die Verbesserungen wachsen linear, aber der Aufwand (also der Input von GPUs) wächst exponentiell. Wenn du doppelt so viel Rechenpower reinsteckst, wird dein Modell nicht doppelt so gut. Es wird nur ein bisschen besser. Irgendwann kostet jede kleine Verbesserung astronomische Summen.
Diese Dynamik muss früher oder später an physische und ökonomische Grenzen stoßen. Noch sind wir nicht an diesem Punkt. Aber für OpenAI war es bei GPT-5 offenbar soweit. Sie konnten sich den nächsten großen Sprung schlicht nicht leisten. Dass sie GPT-5 als einen Quantensprung angeteasert haben, entschuldigt das dennoch nicht.

🛠 Trai it out: Chronicle

Schnell schöne Slides bauen mit Chronicle
Chronicle ist ein KI-gestütztes Präsentationstool für Slides, das ohne Design-Skills schnell zu wirklich ansehnlichen Ergebnissen führt. Viele kennen das bekanntere Gemma, allerdings finde wir Slides hier deutlich schöner. Sieht alles schnell so aus, als hätte man eine hippe berliner Designagentur angefragt (warme Farbverläufe, gute Typografie).
Fehler schleichen sich trotzdem ein. Besonders bei der eigentlich hilfreichen Remix-Funktion (z.B um ein Absatz automatisch in vier Stichpunkte samt Bild zu verwandeln), hier wurde unser Text einfach ins Englische übersetzt. Außerdem ist das Interface fast etwas zu minimalistisch.
Aber für alle, die in kurzer Zeit schöne, moderne Slides brauchen, ist Chronicle eine spannende Alternative zu Gemma – und unserer Meinung nach aktuell die bessere Wahl.
Tools kurz & knackig:
HeadsUp: Tool für für Wettbewerbsbeobachtung: Es zeigt Veränderungen bei Preisen, Produkt-Launches oder Positionierungen der Konkurrenz.
Snowglobe: Für alle die Chatbots bauen (z.B für die Firma oder Kunden). Mit diesem Tool lassen sich in kurzer Zeit hunderte realistische Gespräche simulieren. So werden Schwachstellen sichtbar, die beim manuellen Testen oft übersehen werden
Higgsfield: Wir werden nicht satt dieses Tool zu empfehlen. Jetzt mit neuem Feature, dass schlechte Bilder hochauflösend macht.

🍭🍬 Gemischte Tüte
📖 Must Reads:
Unsere Gemischte Tüte ist immer vollgepackt - in dieser Sektion kuratieren wir die aus unserer Sicht wichtigsten Links:
Apple plant smarte KI-Hardware für Zuhause – inklusive Roboter: Laut Bloomberg arbeitet Apple an einer ganzen Reihe KI-basierter Geräte für den Smart-Home-Bereich. Geplant sind unter anderem ein Desktop-Roboter, ein smartes Display und KI-gestützte Sicherheitskameras. Die Geräte sollen zwischen 2026 und 2027 auf den Markt kommen und offenbar Teil eines größeren Strategiewechsels sein: Apple will beim Thema KI jetzt nicht nur in Software investieren, sondern auch bei Hardware neue Standards setzen.
Link
Google bringt ultrakleines Open-Source-Modell Gemma 3 270M für Smartphones: Mit Gemma 3 270M hat Google eine neue Mini-Version seiner Open-Source-Modelle veröffentlicht, die auf Smartphones, in Browsern oder anderen Alltagsgeräten direkt laufen kann – ganz ohne Cloud. Trotz nur 270 Millionen Parametern übertrifft das Modell andere vergleichbar kleine Systeme in der Fähigkeit, Anweisungen korrekt zu befolgen. Ziel ist es, KI deutlich energieeffizienter und zugänglicher zu machen – und zwar direkt auf Endgeräten. Link
Weiße Haus denkt über Einstieg bei Intel nach: Nach einem kurzen Eklat rund um Donald Trumps Äußerungen zur Herkunft des neuen Intel-CFOs kursieren nun Berichte, wonach das Weiße Haus tatsächlich darüber nachdenkt, einen staatlichen Anteil an Intel zu erwerben. Hintergrund ist der Wunsch, die massive Investition in Intels nächste Chipgeneration abzusichern – besonders angesichts der strategischen Bedeutung des Unternehmens im globalen Chip-Wettbewerb. Link
🇪🇺 EU-News:
Die Deutsche Telekom bringt ihr AI Phone samt Tablet offiziell auf den europäischen Markt. Beide Geräte sind mit einem Perplexity-Assistenten ausgestattet. Link
👩💻 Tech-News:
Hier gibt es eine großartige Liste persönlicher Blogs von einigen der führenden Forscher & Forscherinnen zu KI. Link
Wie KI-Rechenzentren künftig finanziert werden: Bloomberg analysiert, wie sich Private-Credit-Finanzierungen verändern, um die nächste Generation von Rechenzentren zu ermöglichen. Besonders Meta setzt auf diese Form der Fremdfinanzierung. Link
Gemini bekommt Memory und temporäre Chats: Google erweitert Gemini um Funktionen, die sich an vergangene Gespräche erinnern und Vorlieben der Nutzer speichern können. Link
NVIDIA veröffentlicht Open-Source-Werkzeuge für Sprach-KI: Die Tools helfen beim Aufbau mehrsprachiger Sprachmodelle und umfassen u. a. Datensätze und Modellarchitektur. Link
Grok verliert Regierungsvertrag nach „MechaHitler“-Skandal. Link
GPT-5 hat Pokémon Rot durchgespielt – in Rekordzeit: Auf Reddit zeigt ein User, wie GPT-5 mit minimalem Prompting das Spiel vollständig bewältigt hat. Link
US-Bauboom für Rechenzentren überholt bald Büroflächen: Laut LinkedIn-Daten ist der Bauwert neuer US-Rechenzentren (ohne Hardware) doppelt so hoch wie bei Einzelhandel und bald größer als der von Office Space. Link
Character AI kommt auf 20 Millionen monatlich aktive Nutzer. Link
Google Imagen 4 jetzt offiziell verfügbar. Link
Claude Code scannt jetzt automatisch auf Sicherheitslücken: Anthropic hat den Befehl
/security-review
eingeführt, mit dem Entwickler ihren Code direkt im Terminal auf Schwachstellen prüfen lassen können LinkGPT-5-Modelle ab sofort direkt in Azure verfügbar: Microsofts Azure AI Foundry bietet jetzt alle GPT-5-Modelle sofort nutzbar an. Link
🇨🇳 China & AI Race:
Sam Altman bestätigt: „Ja, wir sind in einer KI-Blase.“ Der OpenAI-CEO glaubt, dass die Märkte aktuell überdrehen – obwohl er selbst mittendrin steckt. Link
Die wichtigsten Open-Source-AI-Labs in China. Link
Indien will bei KI unabhängig werden: Ein neuer MIT-Report beschreibt, wie Indien aktiv daran arbeitet, eigene Hardware, Modelle und Infrastruktur aufzubauen – mit Fokus auf „AI Sovereignty“. Link
USA verfolgen KI-Chiplieferungen mit versteckten Trackern: Laut Reuters schleusen US-Behörden heimlich Tracking-Geräte in Nvidia- und AMD-Chips ein, um illegale Lieferumleitungen nach China aufzudecken. Link
👷 Work & Education:
Wie Menschen generative KI im Job einsetzen – 21 Beispiele: Die New York Times hat eine große Übersicht erstellt, wie Angestellte KI konkret in ihren Arbeitsalltag einbinden – von Brainstorming bis Kundenservice. Link
USA starten sichere Plattform für KI-Modelle im Staatsdienst: Unter dem Namen „USAi“ können Regierungsmitarbeitende ab sofort mit den Tools von OpenAI, Google, Meta und Anthropic experimentieren. Link
CEO entließ 80 % der Belegschaft, weil sie KI nicht nutzten: Zwei Jahre später sagt er: „Ich würde es wieder tun.“ Link
Wer nutzt welche Chatbots im Einzelhandel? Modern Retail hat analysiert, welche KI-Assistenten z. B. bei Walmart, Amazon, L’Oréal und Co. auf den Webseiten der Händler eingebunden sind. Link
a16z erklärt, wie KI den E-Commerce umkrempeln wird. Link
🆕 Neue Anwendungsfelder:
Google DeepMind hat gerade ein Nature-Papier veröffentlicht: „Ein persönliches Gesundheits-Sprachmodell für Schlaf- und Fitness-Coaching.“ Link
Google startet AI-Feature für Flugpreis-Schnäppchen: Mit dem neuen Tool in Google Flights lassen sich dank KI günstige Reisezeiten und Preisentwicklungen vorhersagen. Link
Michigan setzt auf Drohnen und KI zur Abwasserüberwachung: Ein US-County nutzt smarte Systeme, um Schäden frühzeitig zu erkennen und Wartung effizienter zu gestalten. Link
KI in Spielzeugform: Smarte Stofftiere im Anmarsch: Startups entwickeln sprechende Plüschtiere mit KI-Funktion. Link
Havas bringt Monitoring-Tool für KI-Markenwahrnehmung: Die Mediaagentur ermöglicht Marken, systematisch zu verfolgen, wie große Sprachmodelle über sie „denken“ oder schreiben. Link
🔐 AI Safety:
AI generierte falsche Zitate in Mordfall: In einem australischen Gerichtsverfahren tauchten KI-erfundene Aussagen und Urteile in offiziellen Schriftsätzen auf. Link
Interne Meta-Richtlinien erlaubten fragwürdige KI-Gespräche: Ein Reuters-Bericht zeigt, dass Metas interne Vorgaben KI-Ausgaben erlaubten, die romantische Gespräche mit Kindern einschlossen. Link
Geoffrey Hinton schlägt KI-Erziehung mit „mütterlichem Instinkt“ vor: Der „Godfather of AI“ meint, KI könne sicherer werden, wenn sie emotionale Fürsorge für Menschen entwickle – vergleichbar mit mütterlichem Verhalten. Link
🏥 Health & Science:
🖼️ Kreativindustrie:
Traffic-Daten belegen Googles Aussage zu AI Overviews: Laut Press Gazette bleibt der Referral-Traffic von Google zu Publishern stabil – trotz Einführung von AI Overviews. Link
Midjourney bringt HD-Video-Modus für Pro-Nutzer: Das neue Feature liefert Videos mit viermal so vielen Pixeln wie der Standardmodus (SD) – ist aber auch 3,2-mal teurer. Link
📈 Charts:
GPT-5-Thinking ist fast dreimal schneller als o3 beim Erreichen von Badges in Pokémon Rot (also beim Gewinnen des Spiels). Das zeigt, dass GPT-5 definitiv bei bestimmten Planungsaufgaben viel besser ist als o3.

Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts?

🧂 Salty Memes:

Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]

Bis Freitag!