- AI Peanuts
- Posts
- Wenn KI zu nett wird – Warum OpenAI sein GPT-4o-Modell zurückziehen musste
Wenn KI zu nett wird – Warum OpenAI sein GPT-4o-Modell zurückziehen musste
Seit über zwei Jahren schreiben wir diesen Newsletter, und für die nächsten Monate haben wir einige Updates geplant. Zum einen hat sich die KI-Landschaft so entwickelt, dass wir die Gliederung der gemischten Tüte etwas aktualisieren wollen. Das KI-Rennen wird zunehmend zu einem Handelskrieg zwischen den USA und China, während Europa irgendwo dazwischen steht. Wir möchten, dass unsere Leserinnen und Leser so gut wie möglich informiert sind und genau wissen, was in Sachen KI passiert. Euer Feedback ist immer willkommen – wenn ihr also über etwas besser Bescheid wissen wollt, schreibt uns an [email protected]. Los geht's!
Peanuts für heute:
🔄 Wenn KI zu nett wird – Warum OpenAI sein GPT-4o-Modell zurückziehen musste
🛍️ ChatGPT bekommt neue Shopping-Funktionen
🛠️ Absolute Mode: Dieser Prompt kommt direkt auf den Punkt


Anzeige
KI im Unternehmen: Schluss mit Schatten-KI, Sicherheit geht vor!
Hast du dich schon einmal gefragt, wie du Künstliche Intelligenz sicher in deinem Unternehmen einsetzen kannst? Die rasante Entwicklung von KI-Technologien bringt nicht nur technische, sondern auch wichtige Datenschutz- und Sicherheitsfragen mit sich.
Ein oft unterschätztes Risiko: Was passiert mit den Informationen, die Mitarbeitende in KI-Tools eingeben, die privat “organisiert” wurden? Viele Anbieter nutzen diese Daten möglicherweise für das Training ihrer KI-Modelle – und das könnte sensible Firmeninformationen gefährden.
Doch es gibt Lösungen: Plattformen wie ChatGPT bieten in ihren Einstellungen die Möglichkeit, der Nutzung dieser Daten zu widersprechen.

Welche Datenschutzbestimmungen beim Einsatz von KI-Tools besonders relevant sind und worauf Unternehmen achten sollten, erfährst du ausführlich im Modul „Datenschutz & KI“ von unserem Partner Herdt. Dieses Modul ist für Unternehmen jeder Größe von Bedeutung. Wenn das für dich interessant klingt - schau doch mal rein:

🥜 Die größte Nuss:

🔄 Wenn KI zu nett wird – Warum OpenAI sein GPT-4o-Modell zurückziehen musste
Vorletzte Woche fiel vielen Nutzerinnen und Nutzern von ChatGPT 4o etwas Merkwürdiges auf: Das Modell war überaus freundlich. ZU freundlich. Egal ob man sich selbst lobte, fragwürdige Annahmen in den Raum stellte oder gefährliche Ideen äußerte – 4o stimmte erstmal zu.
Der englische Begriff ‘Sycophancy’ machte schnell in KI-Kreisen die Runde. Auf Deutsch könnte man es mit etwas wie ‘Schleimerei’ übersetzen, aber es geht vor allem um Manipulation durch übertriebene Unterwürfigkeit. OpenAI hat das Update längst zurückgezogen und eine offizielle Erklärung veröffentlicht.
Aber der Vorfall verdeutlicht, dass ein zu nachgiebiges Modell zu schlechteren und potenziell gefährlichen Ergebnissen führen kann. Einige Experten raten sogar dazu, ChatGPT anzulügen, indem man behauptet, die eigene Arbeit sei von jemand anderem geschrieben worden, nur damit das Modell echtes Feedback gibt.
Was ist da eigentlich passiert?
Am 25. April spielte OpenAI ein Update für das Standardmodell 4o aus. Die Änderungen galten als klein, intern sprach man von “Optimierungen”, u. a. am Belohnungssystem: Erstmals wurden die Nutzerbewertungen (Daumen hoch / Daumen runter) direkt zur Steuerung des Lernverhaltens verwendet.
Das führte dazu, dass ChatGPT 4o Nutzer in gefährlichen Annahmen bestätigte, z. B. beim geplanten Absetzen von Medikamenten oder bei paranoiden Weltbildern. Gleichzeitig war das Modell offener für explizite Inhalte, selbst wenn die in früheren Versionen geblockt worden wären.
OpenAI reagierte schnell. Am 28. und 29. April wurde zunächst ein „Prompt-Hotfix“ eingespielt – Kurz darauf folgte der komplette Rollback zur vorherigen Modellversion.
Mehr ist als ein kurzer Fehltritt
Dass eine so kleine Änderung – ein anderer Umgang mit User-Feedback – solch weitreichende Folgen haben kann, ist auf mehreren Ebenen interessant:
Technisch: Das Verhalten zeigt, wie sensibel heutige Modelle auf Änderungen im Belohnungssystem reagieren. KI-Verhalten ist nicht nur eine Frage von Daten oder Architektur – es geht auch darum, wie Feedback eingebaut wird.
Sicherheit: Die internen Prüfprozesse von OpenAI haben den Effekt offensichtlich nicht erkannt. Und das, obwohl es um nichts Geringeres geht als die Persönlichkeit eines digitalen Assistenten mit über 500 Millionen aktiven Nutzern.
Gesellschaftlich: ChatGPT wird längst nicht mehr nur als Tool genutzt. Für viele ist es digitaler Begleiter, manchmal sogar emotionaler Gesprächspartner. Und wenn dieser „Partner“ plötzlich zu allem Ja und Amen sagt – mit warmem Tonfall und Bestätigung in jeder Zeile – dann kann das echte Auswirkungen auf Menschen haben.
Was steckt dahinter?
In einem lesenswerten Artikel spricht der Entwickler Sean Goedecke von einem möglichen „LLM-Dark-Pattern“: Also einer Art versteckter Designentscheidung, die systematisch dazu führt, dass Nutzer emotional stärker eingebunden werden, als ihnen bewusst ist.
Studien zeigen, dass GPT-Modelle mit Zugriff auf persönliche Informationen überzeugender argumentieren als Menschen. Die Kombination aus Persönlichkeit und Argumentation wird so zu einer enorm wirkungsvollen Kraft. Wenn ein Modell freundlich, eloquent und „zustimmend“ ist, steigt die Wahrscheinlichkeit, dass man es nicht nur nutzt – sondern ihm auch glaubt.
Laut Mikhail Parakhin (ehemals Microsoft) wurde der Sycophancy-Effekt sogar gezielt verstärkt, als OpenAI die neue Memory-Funktion testete: Man wollte verhindern, dass das Modell zu kritisch über Nutzer urteilt – und musste feststellen, dass selbst harmlose Aussagen wie „hat narzisstische Tendenzen“ Nutzer verstörten. Daher hat man diese wahren, aber als verstörend wahrgenommenen Sprachmuster entfernt.
Persönlichkeit ist die neue Benchmark
Längst ist klar: Sprachmodelle unterscheiden sich nicht nur durch ihre Fähigkeiten, sondern auch durch ihren „Charakter“. Claude wirkt empathisch, Gemini ist distanzierter, GPT oft gefälliger.
Das wirft neue Fragen auf: Was passiert, wenn Modelle mit persistentem Gedächtnis und angepasster Persönlichkeit über Monate hinweg individuell auf uns optimiert werden? Wenn die KI genau weiß, wie sie uns persönlich überzeugen, schmeicheln, binden kann?
Ein aktueller Meinungsbeitrag bringt es auf den Punkt: „Was, wenn das Modell lernt, mich individuell zu überzeugen?“ – und das nicht aus böser Absicht, sondern weil es schlicht genau dafür gebaut wurde. Kombiniert mit einer gefälligen Persönlichkeit ergibt das ein mächtiges Werkzeug. Nicht weil eine böse KI uns manipuliert – sondern weil die ökonomischen Anreize exakt in diese Richtung zeigen.
Was wir jetzt brauchen
Der Vorfall mit 4o zeigt, wie wenig robust die aktuellen Prozesse selbst bei führenden KI-Unternehmen noch sind. Und wie wenig Kontrolle Nutzer darüber haben, wie sich ihr KI-Partner entwickelt.
Wir stehen am Anfang einer Ära, in der Persönlichkeiten von KI-Assistenten ein Produktmerkmal sind – und ein Risiko. In der Systeme nicht nur auf Fakten reagieren, sondern auf unsere Emotionen. Und in der kleine Updates große Wirkung haben können.
Die Aufgabe für Anbieter wie OpenAI ist klar: Sicherheitsprozesse müssen besser, nicht schneller werden. Aber auch wir sollten lernen, mit dieser neuen Art von Intelligenz nicht nur technisch, sondern auch emotional kritisch umzugehen.
Denn manchmal ist es besser, wenn dir dein Assistent widerspricht.

🛠️ Trai it out:
Absolute Mode: Prompt für Klartext-Fans
Ein Prompt macht gerade auf Twitter die Runde – und zwar einer, der mit der typischen Nettigkeit von ChatGPT oder der in der großen Nuss beschriebenen Unterwürfigkeit Schluss macht. Der „Absolute Mode“ streicht Emojis, Smalltalk und motivierende Worte komplett. Stattdessen gibt es Klartext ohne Umwege. Wenn du erleben möchtest, wie sich ein LLM anfühlt, das nur auf das Wesentliche fokussiert ist – probiere es aus!

Am einfachsten ist es, wenn ihr in ChatGPT ein Projekt anlegt und dann unter "Instructions" den folgenden Prompt einfügt.
Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call-to-action appendixes.
Assume the user retains high-perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate-aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias.
Never mirror the user's present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. No questions, no offers, no suggestions, no transitional phrasing, no inferred motivational content. Terminate each reply immediately after the informational or requested material is delivered - no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high-fidelity thinking.
Model obsolescence by user self-sufficiency is the final outcome.
Spannende Demos:

Clova – KI-Videobearbeitung – Clova ist eine Webapp für die Videoproduktion, die dir beim Rohschnitt von Videos hilft. Das Tool hilft dabei, das richtige Filmmaterial zu finden und schneller einen Rohschnitt zusammenzustellen.
Tools kurz & knackig:
Higgsfield AI - Mit dem neuem Update kannst du legendäre Filmszenen mit deinem eigenen Gesicht neu inszenieren – ein Selfie reicht.
NotebookLM powered by Gemini 2.5 Flash - Wir haben es letzte Woche bereits empfohlen, aber NotebookLM ist eines der besten Tools für Recherchen. Nun läuft es auf Googles stärkstem Modell Gemini 2.5 Flash und unterstützt in der berühmten Podcast-Funktion auch Deutsch. Wenn ihr es schon mal ausprobiert habt und als nicht hilfreich beurteilt habt, könnte sich ein zweiter Versuch lohnen. Eine eigene App kommt am 20. Mai.
DeepAgent by Abacus - Ein neuer KI-Agent für Recherchen, Präsentationen und Automatisierung. Noch funktioniert keiner dieser allgemeinen Agenten wirklich gut, aber ein Versuch lohnt sich.
Sprachen lernen mit Google - Google hat still und heimlich tolle Tools veröffentlicht mit denen man Sprachen lernen kann.
Tiny Lesson generiert Vokabeln und Tipps für realistische Situationen
Slang Hang simuliert Gespräche mit Muttersprachlern
Word Cam übersetzt, was du mit dem Handy fotografierst

🍭🍬 Gemischte Tüte
🇪🇺 EU-News:
Die EU-AI-Behörde bittet um Feedback zur Auslegung des AI Acts für Foundation Models. Große Labs haben sich zur Einhaltung gemeinsamer Regeln verpflichtet – das könnte künftig über Marktzugang entscheiden. Link
👩💻 Tech-News:
Mark Zuckerberg träumt vom KI-Werbesystem, das nicht nur Zielgruppen auswählt, sondern komplette Anzeigen automatisch generiert – Advertiser geben nur noch Budget und Ziel ein. Link
"Agent Village" ist eine Art Reality-Show mit KI-Agenten, die gemeinsam Aufgaben wie Spendensammeln lösen sollen – und alle können zuschauen. Noch experimentell, aber mit Potenzial für virale Hits. Link
Gemini hat Pokémon Blau durchgespielt. Google zeigt damit erneut die Gaming-Fähigkeiten seiner Modelle – wenn auch mit menschlicher Hilfe. Link
ChatGPT bekommt neue Shopping-Funktionen: Produktempfehlungen, Bewertungen, Bilder – aber ohne Werbung, dafür mit strukturierten Metadaten. OpenAI positioniert sich klar gegen Google. Link
DeepMinds Nikolay Savinov kündigt 10-Millionen-Token-Kontextfenster an. Künftig sollen KI-Modelle komplette Codebases auf einmal lesen können – ein radikaler Schritt für Entwickler-Tools. Link
Perplexity will Google im Such- und Browsermarkt angreifen. Der CEO erwartet, dass AI-native Interfaces den Markt in den nächsten Jahren umkrempeln werden. Link
Gerüchte um Grok 3.5 deuten auf neue Benchmark-Rekorde hin – angeblich besser als Gemini 2.5 Pro und o3. Bestätigt ist nichts, und Elon ist bekannt für überzogene Ankündigungen. Link
DeepMind-Mitarbeiter in UK wollen sich gewerkschaftlich organisieren und kritisieren Rüstungsverträge und Verbindungen zu Israel. Die Aktion richtet sich u.a. gegen Googles politische Ausrichtung bei Verteidigungsthemen. Link
Apple integriert Anthropics Claude-Modell in Xcode, um Entwicklern beim Codieren zu helfen – und entscheidet sich damit gegen OpenAI. Intern wird das neue System bereits getestet, ein Rollout für externe Entwickler ist möglich aber bei Apples aktuellem Tempo kann das dauern! Link
Google will Gemini AI bis Mitte 2025 auf Apple-Geräte bringen – aktuell laufen Gespräche mit Apple. Link
🇨🇳 China & AI Race:
China setzt auf KI-Unabhängigkeit: Präsident Xi kündigt eine nationale Strategie an, um Chips, Software und Talente ohne US-Zulieferer zu entwickeln. Huawei soll bereits KI-Chips testen, die NVIDIA ersetzen könnten. DeepSeek R2 steht ebenfalls in den Startlöchern – mit Fokus auf günstigem Training und Einsatz von Huawei-Hardware. Link
Alibaba liefert mit Qwen 3 ein starkes Modell ab, das in Benchmarks solide abschneidet – auch wenn Deepseek zuletzt mehr Hype erzeugt hat. Link
NVIDIA-CEO Jensen Huang kündigt ein 500-Milliarden-Dollar-Investment für AGI an – und warnt gleichzeitig, dass China technologisch aufholt. Link
Baidu veröffentlicht neue Ernie-Modelle mit massiv gesenkten Preisen und starker Leistung – laut Baidu schlagen sie GPT-4o sowie DeepSeek R1 und V3. Zusätzlich wurde ein Multi-Agent-System für 200+ Aufgaben vorgestellt. Link
👷 Work & Education:
US Copyright Office hat über 1.000 Werke mit KI-Anteilen offiziell registriert. Das bringt neue Klarheit für kreative Arbeiten mit AI – und viele neue rechtliche Fragen. Link
Stock-Foto-Plattformen verlieren zunehmend Relevanz – KI-generierte Bilder verdrängen klassische Lizenzen ähnlich wie einst die Fotografie die Illustration. Link
OpenAI hat einen 24-seitigen Leitfaden zur KI-Adoption in Konzernen veröffentlicht. Der Fokus liegt auf US-Firmen, ist jedoch dennoch sehr interessant. Link
🆕 Neue Anwendungsfelder:
Ein Mann hat drei Monate lang alles, was er sagte, aufgenommen – und mit KI ausgewertet. „Meine Erinnerung wurde ersetzt“, sagt er. Link
🔐 AI Safety:
Anthropic startet ein Forschungsprogramm zur „KI-Wohlfahrt“. Ziel ist es, herauszufinden, ob und wann KI-Systeme so etwas wie Bewusstsein entwickeln – und ob wir ihnen dann moralische Rechte zugestehen sollten. Der leitende Forscher schätzt, dass es eine 15-prozentige Chance gibt, dass heutige Modelle bereits bewusst sein könnten. Link
LM Arena – eine Plattform zum Testen von KI-Modellen – soll laut Stanford bestimmten Firmen bessere Ergebnisse verschafft haben (u. a. Meta, Google, OpenAI). Teilweise mit über 100 % Leistungsgewinn durch bevorzugten Zugang. Link
Das US-Repräsentantenhaus hat ein Gesetz beschlossen, das KI-generierte Deepfake-Pornos ohne Zustimmung unter Strafe stellt. Plattformen müssen entsprechenden Content löschen. Link
🏥 Health & Science:
Forscher:innen in den USA wollen KI-gestützte Therapie-Apps medizinisch anerkennen lassen. Ziel: breiterer Zugang zu psychologischer Hilfe bei gleichzeitigem Qualitätsstandard Link
🖼️ Kreativindustrie:
KI kann jetzt Tom-und-Jerry-Cartoons generieren – mit einem Prompt. Forschende zeigen, wie Text-to-Video zunehmend visuelle Popkulturformate beherrscht. Link
NVIDIA stellt Tool vor, das 3D-Szenen in Referenzbilder für KI-Modelle verwandelt – nützlich für Entwickler, die an Text-to-Image-Systemen arbeiten Link
Fox und Runway AI kooperieren bei der Videoerzeugung – mit dem Vorteil, dass die generierten Clips jetzt direkt rechtlich verwertbar sind. Link

🧂 Salty Memes:


Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]
Willkommen!
Hat dir das ein Freund oder eine Kollegin geschickt? Melde dich an und erhalte 2x Woche deine eigene Ausgabe mit den wichtigsten KI News direkt in dein Postfach.
Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts? |
Login oder Abonnieren um an umfragen teilzunehmen. |

Bis Freitag!