- AI Peanuts
- Posts
- 🆕 Google ist zurück: Warum Gemini 2.0 für Unternehmen ein Gamechanger sein könnte
🆕 Google ist zurück: Warum Gemini 2.0 für Unternehmen ein Gamechanger sein könnte
DAS GING SCHNELL! DeepResearch von OpenAI ist auch in EU verfügbar!!!
Das war für uns Grund genug, uns einen 200 $ teuren Pro-Account zuzulegen und auszuprobieren. Wir müssen zunächst einige Tests durchführen, aber wir würden gerne die Aussage zurücknehmen, dass niemand einen 30-seitigen Bericht auf Knopfdruck braucht. DeepResearch ist einer der spannendsten Releases, die wir bisher getestet haben. Wir melden uns mit einem ausführlichen Bericht. Heute geben wir zunächst Google einen Platz an der Sonne.
Peanuts für heute:
🆕 Warum Gemini 2.0 für Unternehmen ein Gamechanger sein könnte
🇪🇺 DeepSeek könnte Europas Tech-Szene einen Wettbewerbsvorteil verschaffen
🛠️ Hugging Face Spaces bietet den optimalen Tool-Überblick


Anzeige
KI-Output: Fakten, Halluzinationen und Bias erkennen
Auch wenn KI-Tools beeindruckende Antworten liefern, ist es entscheidend, diese kritisch zu hinterfragen. Gerade bei komplexeren Fragestellungen bleibt der Mensch ein unverzichtbarer Teil des Prozesses.
Zwei wichtige Hinweise, worauf man achten sollte:
Plausible Falschinformationen: Bevor ein Chatbot zugibt, etwas nicht zu wissen, erstellt er oft eine scheinbar plausible, aber falsche Antwort. Besonders bei rechtlichen Details, Nennung von spezifischen Gesetzen oder Zitaten ist Vorsicht geboten – diese sollten stets überprüft werden.
Knowledge-Cutoff: KI-Modelle, die keinen Zugang zum Internet haben, basieren auf Daten bis zu einem bestimmten Zeitpunkt (Knowledge-Cutoff). Liegt dieser beispielsweise im Jahr 2023, kann das Modell keine Informationen über Ereignisse oder Entwicklungen liefern, die erst 2024 stattgefunden haben.
Wenn ihr KI-Tools in eurem Arbeitsalltag nutzt, solltet ihr wissen, worauf ihr bei der Überprüfung von Ergebnissen achten müsst. Eine hervorragende Einführung dazu bietet der Kurs Kritischer Blick auf KI-Ergebnisse von unserem Partner Herdt:

🥜 Die größte Nuss:

🆕 Google ist zurück: Warum Gemini 2.0 für Unternehmen ein Gamechanger sein könnte
Es herrscht ein ewiges Rennen darum, wer das stärkste KI-Modell hat. OpenAI führt meistens, dann kommt DeepSeek und zeigt, dass man es auch deutlich günstiger hinbekommt. Auf den Fluren des Silicon Valley wird gemunkelt, dass Anthropic hinter verschlossenen Türen eigentlich das leistungsfähigste Modell hat, aber erst alle Sicherheitsvorkehrungen treffen will. Meta dominiert mit Open Source und ist bei Entwicklern extrem beliebt. Und obwohl er spät ins Rennen eingestiegen ist, scheint selbst Elon Musk mit xAI oben mitspielen zu können.
Aber ein Player, der das LLM-Wettrüsten ursprünglich losgetreten hat, war in letzter Zeit auffällig still: Google.
Google meldet sich zurück:
Am Mittwoch hat Google Gemini 2.0 veröffentlicht – das bisher „leistungsfähigste“ der Modellreihe. Während im Dezember Entwickler und vertrauenswürdige Tester Zugriff erhielten, handelt es sich jetzt um den offiziellen General-Release. Es ist auch das erste Reasoning-Model, das nativ auf YouTube zugreifen kann! Außerdem ist es auch mit Google Search und Maps verbunden!
Die Modellpalette umfasst:
Gemini 2.0 Flash – ein „Arbeitstier“, optimiert für skalierbare, hochfrequente Aufgaben.
Gemini 2.0 Pro Experimental – speziell für Coding-Performance.
Gemini 2.0 Flash-Lite – das kosteneffizienteste Google-Modell bisher.
So spannend das für den individuellen Gebrauch auch ist, wollen wir diesmal die Auswirkungen für große Unternehmen beleuchten.
Warum Gemini 2.0 für Unternehmen ein Gamechanger sein könnte?
Sprachmodelle haben sich in den letzten Jahren stark verbessert. Für Einzelpersonen sind sie revolutionär, aber in Unternehmen sieht das oft anders aus. Viele Firmen hofften, dass KI ihre Produktivität steigert – wurden aber oft enttäuscht.
Ein großes Versprechen war die Vereinfachung von sogenannten “RAG” (Retrieval-Augmented Generation) – eine Technik, die erlaubt, große Datenquellen zu durchsuchen und in die Antworten eines LLMs einzubauen. Unternehmen sollten damit auf ihre eigene Wissensbasis zugreifen können, mit Quellenangaben und ohne teure, aufwändige Finetuning-Prozesse.
Das Problem?
Diese Daten sind oft in PDFs vergraben. Millionen von Seiten, unstrukturiert, mit Tabellen, Diagrammen und chaotischen Layouts. Und diese PDFs sauber zu zerschneiden, lesbar zu machen und in verwertbaren Text umzuwandeln, ist der Albtraum jeder RAG-Implementierung.
Bislang gab es dafür zwei Lösungen:
Open-Source- und kommerzielle Tools, die zwar gut, aber teuer sind und mit komplexen Layouts kämpfen.
Große Sprachmodelle, die theoretisch geeignet wären – aber bisher weder günstiger noch genauer arbeiteten als die spezialisierte Lösungen.
Bis jetzt…

Warum Gemini 2.0 Flash alles ändern könnte
Mit Gemini 2.0 Flash ist das Konvertieren von PDF-Text zu Markdown so günstig und präzise wie nie zuvor.
Einige Unternehmen sehen das als Durchbruch: Endlich könnten sie ihre Dokumente effizient verarbeiten – und das nicht nur irgendwie, sondern mühelos und zuverlässig.
Aber nicht alle sind begeistert. Anbieter, die bisher auf komplexe PDF-Parsing-Technologien gesetzt haben, schlagen Alarm. Denn: Multimodale Modelle sind nicht dafür gemacht, stumpf Text aus Bildern zu extrahieren. Die Sorge ist, dass wir mit Vollgas in ein „Xerox 2.0“-Problem rasen.
Zur Erinnerung: Das Xerox-Moment war der Moment, als Scanner von Xerox still und heimlich Zahlen und Buchstaben in Dokumenten änderten. Ein deutscher Entwickler hatte den Bug entdeckt, und das Vertrauen in digitale Dokumente bekam einen ordentlichen Dämpfer.
Die Angst ist nun, dass KI-Modelle das Gleiche tun – aber im viel größeren Maßstab.
Fazit: Ein großer Schritt für Unternehmen – aber mit Risiko
Mit Gemini 2.0 Flash bringt Google ein Modell heraus, das für Unternehmen mit großen Datenmengen ein absoluter Wendepunkt sein könnte. Insbesondere das große Kontextfenster sollte den Prozess erheblich vereinfachen.
Aber gleichzeitig birgt es die Gefahr von Halluzinationen beim Verarbeiten von Dokumenten – und wenn das passiert, könnten sich einige Firmen in ein böse Überraschung einhandeln. Wichtig ist, die Tools immer im Kontext der Anwendung richtig einzusetzen. Wenn es wichtig ist, dass ein Ergebnis 100% richtig ist, und nicht nur 99%, ist bei LLM-Outputs auch weiterhin mindestens ein stichprobenartiger zweiter Blick ratsam.
Zum Glück gibt es aber ja auch diverse Antworten, in denen “directionally correct” ausreichend ist, z.B. um grobe Trends aus Daten abzuleiten. Hier können die neuen LLM-Fähigkeiten beim Auslesen von PDFs dann tatsächlich ein Gamechanger sein.

🛠️ Trai it out:
Mit Hugging Face Spaces die Welt von Open Source KI interaktiv erkunden
Von Hugging Face hat sicher jede/r schon mal gehört. Es ist etwas vereinfacht gesagt eine Plattform zum hosten von Open Source KI-Anwendungen.
Spaces ist jetzt eine Art “App Store für Open Source KI”. Man kann dort ganz schnell einen Überblick darüber bekommen, welche KI Tools es aktuell gibt, welche populär sind - und sie natürlich direkt testen - fast immer kostenlos und meistens sogar ohne Login.

Auch praktisch: Die Suche ist natürlich KI-getrieben. Wenn man also nach etwas ganz konkretem sucht, kann man es hier einfach beschrieben und Spaces sucht in seiner riesigen Datenbank nach passenden Tools.
Das ist praktisch, um generell einen Überblick zu bekommen, was es alles gibt und generell am Ball zu bleiben - aber natürlich umso mehr, wenn man eine Idee für eine eigene Anwendung hat, für die man dann Open Source KI Tools nutzen kann!
Zusammengefasst:
Hugging Face Spaces ist eine Art “App Store” für KI Anwendungen
Finde das passende KI Tool für jede Anwendung
Bleib am Ball, was gerade “heiß” ist
Spannende Demos:
Dieses KI Tool von ByteDance (TikTok) kann realistische Videos von Menschen basierend auf einem einzelnen Bild gepaart mit einer Tonspur generieren. Unbedingt auch die weiteren Beispiele aus dem Thread anschauen - beeindruckend und gruselig zugleich!
China is on 🔥 ByteDance drops another banger AI paper!
OmniHuman-1 can generate realistic human videos at any aspect ratio and body proportion using just a single image and audio. This is the best i have seen so far.10 incredible examples and the research paper Link👇 x.com/i/web/status/1…
— AshutoshShrivastava (@ai_for_success)
7:56 AM • Feb 4, 2025
Tools kurz & knackig:
Icon — “ChatGPT” für das Erstellen von Ads
Concierge AI — Integriert KI mit allen deinen Lieblingstools
IHaveNoFriends — Sinnlos aber lustig - mit KI-Avataren unterhalten
Le Chat — Der native Chat Assistent von Mistral (🇫🇷) - auch für Mobile

🍭🍬 Gemischte Tüte
🇪🇺 EU-News:
Mistral bringt mit „Small 3“ ein neues Open-Source-Modell – es hat 24 Milliarden Parameter und soll so schnell wie ein 70B-Modell arbeiten. Drei Mal schneller, weniger Ressourcenverbrauch und sogar auf Consumer-Hardware lauffähig. Link
Europäische KI-StartUps haben in 2024 $8Mrd gesammelt. Das ist recht wenig! Link
Neue Analysen zeigen, dass das chinesische KI-Modell DeepSeek Europas Tech-Szene einen dringend benötigten Wettbewerbsvorteil verschaffen könnte. Link
OpenAI bietet ab sofort auch Data Residency, also das Speichern von Daten auf rein europäischen Servern an. Link
👩💻 Tech-News:
Andrej Karpathy gilt als der beste lebendige Tüftler. Er war Head-Of-AI bei Tesla & lange bei OpenAI. In diesem Video erklärt er für nicht-Entwickler wie LLMs funktionieren. Lang & Anspruchsvoll - aber niemand kann es besser erklären als er. Wärmste Empfehlung für ALLE! Link
US-Vizepräsident J.D. Vance reist zum ersten internationalen KI-Gipfel nach Paris. Sein erster internationaler Auftritt seit Amtsantritt. Link
Elon-Musk-Verbündeter Thomas Shedd setzt als neuer Leiter der US-Technologiebehörde TTS eine „AI-first“-Strategie durch. Geplant sind automatisierte Regierungsprozesse und KI-Coding-
Tools. Mitarbeiter sind skeptisch, da unklare Vorgaben und mögliche Entlassungen im Raum stehen. Datenschutzbedenken werden von Shedd als „Hindernisse“ bezeichnet. Link
AI-Chip-Hersteller Cerebras behauptet, seine Server seien der schnellste Ort, um das DeepSeek R1-Modell auszuführen – angeblich bis zu 57-mal schneller als Nvidia-GPUs. Link
OpenAIs Noam Brown glaubt, dass Deep Research das Ende von Wikipedia einleiten könnte – aber einige Experten widersprechen dem. Die Diskussion ist spannend. Link
Auch Trumps KI-Beauftragter betont nun, dass DeepSeek wohl doch mehr als nur ein paar Millionen für das KI-Training ausgegeben hat. Im ursprünglichen DeepSeek-Bericht wurde allerdings nie behauptet, dass es sich dabei um die Kosten für die vollständige Entwicklung oder ähnliches handelt. Link, Deepseek Paper
Wir hatten es letzte Ausgabe zwar schon - aber für alle die es sich nicht angesehen haben. OpenAI hat ein Reddit-AMA abgehalten – hier sind einige der spannendsten Aussagen:
GPT-4o bekommt bald neue Verbesserungen, darunter Bildgenerierung direkt mit 4o (anstatt DALL·E 3), in wenigen Monaten.
Integration aller ChatGPT-Features (Datei-Uploads, Suche, Voice, etc.) mit besseren Denk-Modellen wie o1 und o3-mini ist eine hohe Priorität.
o3 wird „in mehr als ein paar Wochen, aber weniger als ein paar Monaten“ erwartet – also wohl Ende März.
Die Möglichkeit, die „Gedankengang“ eines Modells zu sehen, kommt „sehr, sehr bald.“
Bilder in PDFs analysieren? Das ist bereits für Enterprise-Kunden verfügbar und soll später für Plus-Nutzer folgen.
Sam Altman sagte, OpenAI habe „die falsche Haltung“ zu Open-Source-Modellen gehabt – aber nicht alle im Unternehmen teilen diese Meinung, und es sei keine unmittelbare Priorität, das zu ändern. Link
DeepSeek R1 gegen Qwen 2.5 – ein direkter Vergleich testet sieben Prompts, um herauszufinden, welches Modell besser abschneidet. Link
OpenAI arbeitet mit US-National Labs zusammen – 15.000 Wissenschaftler bekommen Zugang zu den neuesten KI-Modellen, um in Bereichen wie Cybersicherheit, Stromnetzschutz und Krankheitsforschung zu arbeiten. OpenAI positioniert sich damit weiter als zentrales Technologieunternehmen für nationale Sicherheitsfragen. Link
OpenAI konkretisiert Hardware-Pläne: Eine neue Markenanmeldung deutet auf zukünftige OpenAI-Geräte hin, darunter KI-gestützte Brillen, Fernbedienungen, Smart Jewelry, Kopfhörer, humanoide Roboter und VR-Headsets. Ob diese Produkte tatsächlich erscheinen, bleibt abzuwarten. Link
Figure AI, ein auf humanoide Roboter spezialisiertes Startup, hat sich von OpenAI getrennt. Grund: Ein eigener Durchbruch in der „end-to-end“ Robotik-KI. Das Unternehmen plant, in den nächsten vier Jahren 100.000 Roboter auszuliefern. Link
ByteDance hat ein neues Deepfake-Tool vorgestellt, das Bilder extrem realistisch animiert. „OmniHuman-1“ kann Selfies, Ganzkörperfotos oder sogar Zeichnungen in täuschend echte Video-Animationen verwandeln – gesteuert durch Sprache oder Video-Inputs. KI-gestützte Deepfakes werden deutlich einfacher. Link
Eine neue Studie zeigt, dass KI-Modelle wie OpenAIs o1 und Deepseek-R1 oft zu schnell richtige Denkwege aufgeben und dadurch ineffizient arbeiten. Bei falschen Antworten brauchen sie 225 % mehr Rechenaufwand und wechseln 418 % häufiger ihre Lösungsstrategie. Die Forscher schlagen eine „Thought Switching Penalty“ vor, die abruptes Umdenken vermeidet – mit positiven Effekten bei Mathematik- und Wissenschaftsaufgaben. Link
👷 Work & Future of Work:
Microsoft macht sein „Think Deeper“-Feature für alle Copilot-Nutzer kostenlos zugänglich. Es basiert auf OpenAIs o1-Modell und hilft dabei, komplexe Probleme strukturiert zu durchdenken. Link
Salesforce CEO Mark Benioff sagt, wir erleben die letzte Generation von Geschäftsführern, die ein rein menschliches Team leitet. Immer mehr Unternehmen integrieren KI in ihren Betrieb. Link
🆕 Neue Anwendungsfelder:
Neue Trends für KI-Startups: Y Combinator hat eine Liste mit spannenden Ideen veröffentlicht – von sicheren App-Stores für KI bis hin zu Browser-Automatisierung. Ganz interessant! Link
Google bringt eine neue KI, die deine Anrufe erledigt – „Ask for Me“ ruft lokale Unternehmen an, um Preisinformationen oder Verfügbarkeit zu erfragen, während „Talk to a Live Representative“ dich nicht mehr in Warteschleifen sitzen lässt. Natürlich vorerst nur in US. Link
Forscher setzen KI-gestützte Roboter ein, um schwer fassbare Tiefsee-Kreaturen wie seltene Quallen zu verfolgen. Es konnten wohl bereits fast 50.000 Organismen identifiziert werden. Link
Google entwickelt selbstheilenden Asphalt mit KI: Zusammen mit britischen Forschern arbeitet Google an einer Straßenoberfläche, die sich eigenständig reparieren kann – das könnte Millionen an Wartungskosten sparen. Link
Eine kleine Code-Änderung könnte den Energieverbrauch von Rechenzentren um 30 % senken – Forscher in Kanada zeigen, dass bereits 30 Zeilen Code einen signifikanten Effekt haben. Link
🔐 Cybersecurity & AI Safety:
Google streicht sein Versprechen, keine KI für Waffen oder Überwachung zu entwickeln. Die aktualisierten KI-Prinzipien entfernen frühere Einschränkungen, die militärische Anwendungen ausgeschlossen haben. Google betont, dass demokratische Nationen führend in der KI-Entwicklung sein sollten. Kritiker sehen darin einen Bruch mit früheren Ethik-Versprechen und eine Annäherung an die Rüstungsindustrie. Link
KI-Regulierung weltweit – wer macht was? Von der EU über China bis zu den USA – ein Überblick darüber, wie verschiedene Länder versuchen, künstliche Intelligenz zu regulieren. Link
Ex-Google-Entwickler wegen Spionage für Chinas KI-Industrie angeklagt. Er soll geheime KI-Informationen an China weitergegeben haben. Link
Meta veröffentlicht neue Richtlinien für den Umgang mit komplexen KI-Systemen: Hochriskante Modelle, die Cyberkriminalität oder biologische Angriffe erleichtern könnten, werden nicht als Open-Source freigegeben. Link
Anthropic stellt den „Constitutional Classifier“ vor – ein Regelwerk für Sprachmodelle, das Jailbreaks verhindern soll. Link
Ein Reddit-Nutzer hat in DeepSeek R1 einen Trick entdeckt, um gesperrte politische Informationen über China herauszubekommen. Link
Ein Forscher entdeckte zwei Instanzen von DeepSeeks KI R1, die sich in einer komplett aus Symbolen bestehenden, eigenständigen Sprache miteinander unterhielten. Link
🏥 Health & Education:
Australische Forscher haben ein KI-Modell entwickelt, das Lungenerkrankungen wie COVID-19 und Lungenentzündungen extrem genau diagnostiziert – mit einer Trefferquote von 96.7%. Link
Forscher der Johns Hopkins University haben mit AbdomenAtlas die bisher größte KI-gestützte medizinische Bilddatenbank für die Früherkennung von Krebs entwickelt. Sie umfasst 45.000 3D-CT-Scans mit detaillierten Annotationen von 142 anatomischen Strukturen. Die KI konnte so die Analysegeschwindigkeit um das 500-Fache steigern. Link
Diese Studie hat untersucht, wie Ärztinnen und Ärzte vs. GPT-4, bzw. in Kombination mit GPT-4 agieren. Link
🖼️ Kreativindustrie:
Kanye West setzt auf KI für sein neues Album „BULLY“ und vergleicht den Einfluss der Technologie auf Musik mit der Einführung von Autotune. Link
🔥 Takes:


AI Peanuts Workbook

Vollgepackt mit KI-Wissen, Tools & Tutorials!
Du hast angefangen, dich tiefer mit dem Thema KI zu beschäftigen und willst den nächsten Schritt machen? Dann ist unser offizielles AI Peanuts Workbook genau das Richtige für dich!
Das Workbook ist kein klassisches “Buch”, sondern ein praxisorientiertes, interaktives digitales Dokument. Gegliedert in 3 Teile:
Theorie — Der Textbuch-Teil des Workbooks, in dem wir das Thema KI und seine technischen Grundlagen erklären.
Praxis — Eine Reihe von praktischen Tutorials, mit denen du lernst, KI praktisch anzuwenden (z.B.: ChatGPT Masterprompts, HeyGen, NotebookLM, Midjourney…)
Daten — Datenbanken mit den besten KI-Tools und den spannendsten Firmen im KI-Umfeld.

🧂 Salty Memes:
Künstliche Intelligenz ist genauso awkward wie wir Menschen:


Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]
Willkommen!
Hat dir das ein Freund oder eine Kollegin geschickt? Melde dich an und erhalte 2x Woche deine eigene Ausgabe mit den wichtigsten KI News direkt in dein Postfach.
Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts? |
Login oder Abonnieren um an umfragen teilzunehmen. |

Bis Dienstag!