• AI Peanuts
  • Posts
  • 🎥 OpenAI Sora veröffentlicht - oder doch nicht?!

🎥 OpenAI Sora veröffentlicht - oder doch nicht?!

Hallo Freunde! Was geht euch durch den Kopf, wenn ihr „LinkedIn“ hört? Langeweile? Fremdscham? Oder doch Bewunderung für moderne Business-Poesie? Laut einer Studie stammen mittlerweile 50% der Inhalte dort von KI. Also, statt klassischer Prahlerei gibt’s jetzt….KI-generierte Prahlerei – oder „slop“, wie die Amerikaner sagen. Wo es garantiert keinen Slop gibt? In unserem AI Peanuts Workbook – heute mit einem fantastischen Black-Friday-Angebot. Los geht’s!

Peanuts für heute:

  • 🎥 OpenAI Sora veröffentlicht - oder doch nicht?!

  • 🎬️ 

  • 🛠️ Luma Dream Machine mit neuem Update

🥜 Die größte Nuss:

🎥 OpenAI Sora veröffentlicht - oder doch nicht?!

KI-Video Modelle sind weiterhin eines der Top-Themen in 2024 wenn es um generative KI geht. Es gibt immer neue einfach zugängliche Tools mit immer beeindruckenderen Ergebnissen. Schon im Juni hatten wir einmal eine längere Übersicht über verschiedene Modelle geschrieben.

Und erst diese Woche gab es wieder ein Update des beliebten Tools Luma Dream Machine (siehe mehr Infos in der Tools-Sektion).

Losgetreten hat den Hype dieses Jahr in gewisser Weise OpenAI mit seinem Text-zu-Video Modell Sora. Die ersten Vorschau-Videos dazu erschienen im Februar und ließen auf ein fast schon revolutionäres neues Modell hoffen. Denn die Vorschau Videos waren in vielerlei Hinsicht beeindruckend. 

Doch: Bis heute blieb Sora unveröffentlicht und so konnten auch wir das Modell und seine Limitationen nie auf Basis von echter Nutzung einordnen, sondern immer nur auf Basis der kursierenden Demo Videos wie z.B. das Musikvideo von Washed Out oder die Toys”R”us Werbung.

Da man bei solchen Videos aber immer davon ausgehen kann, dass in gewisser Weise die besten Rosinen herausgepickt werden, war schwierig einzuschätzen, wie gut Sora denn jetzt wirklich funktioniert.

Das hat sich diese Woche zumindest ein bisschen geändert. Denn Sora wurde “geleaked”. Zumindest wanderte dieser Begriff durch die Tech-Headlines. Ganz richtig ist er nicht, denn der Sora Code war auch weiterhin verschlossen. Aber für wenige Stunden konnte man zumindest eine abgespeckt “Turbo” Variante des Modells diese Woche über die Plattform Hugging Face ausprobieren. Aber ohne, dass das so von OpenAI gewollt war.

Was ist passiert? 
OpenAI hatte einer ausgewählten Gruppe von Kunstschaffenden Zugang zu Sora gewährt, um das Modell zu testen. Eine Teilgruppe dieser Künstler entschied sich jedoch, aus Protest gegen OpenAIs Vorgehensweise ihren Zugang über ein Tool auf Hugging Face öffentlich zu machen. Ihre Kritik: OpenAI wäre nicht wirklich an Feedback interessiert, sondern würde als profit-orientiertes Unternehmen die Künstlerinnen und Künstler nur als PR-Stunt, als unbezahlte Tester und zum Generieren von Daten ausnutzen.

Die Kritik ist nicht neu – sie begleitet generative KI schon seit ihren Anfängen: Lassen sich Modelle einfach inspirieren, wie ein Künstler von anderen, oder ist das schon dreistes Kopieren? Eine Frage, die uns sicher noch lange beschäftigen wird. Trotzdem, niemand wird dazu gezwungen, Sora zu testen, und viele würden es wahrscheinlich als Privileg sehen, früher als andere Zugang zu einem mächtigen neuen Tool zu bekommen. Aber klar ist auch - OpenAI ist lange nicht mehr das wohltätige Non-Profit, das es einst war und es gibt durchaus offene Fragen, wenn es um die richtige Bewertung von KI-Kunst geht, gerade weil die Trainingsdaten oft aus “echter Kunst” bestehen.

Während der etwa dreistündigen Verfügbarkeit konnten viele Nutzer Videos mit Sora generieren. Die dabei entstandenen Clips bestätigten weitgehend den Eindruck der offiziellen Demos: Sora scheint tatsächlich beeindruckend gut in der Lage zu sein, komplexe Szenen mit korrekter Physik, konsistenten Bewegungen und hoher visueller Qualität zu erzeugen. Allerdings zeigten auch Vergleiche mit aktuellen Tools wie Runway, Kling, MinMax oder der Luma Dream Machine, dass es nicht unbedingt einen Qualitätsvorsprung von Sora gibt.

Wenn Sora mittlerweile also mindestens eingeholt wurde und die anderen Tools schon zugänglich sind, warum veröffentlicht OpenAI das Modell dann nicht offiziell? Mehrere Gründe erscheinen plausibel:

Sicherheitsbedenken: Die Fähigkeit, täuschend echte Videos zu erstellen, könnte bei einer breiten Verfügbarkeit missbraucht werden. Zwar ginge das auch mit anderen Modellen - aber für die Marke OpenAI steht einfach mehr auf dem Spiel als für andere.

Copyright-Fragen: Die generierten Videos könnten zu nah an bestehendem Material sein. Angesichts der diversen laufenden Klagen in diesem Bereich könnte es sein, dass man sich noch stärker absichern will, dass das Tool nicht einfach z.B. Simpsons- oder Disney-Clips generieren kann.

Kontrollierbarkeit: Es könnte Schwierigkeiten geben, das Modell zuverlässig von der Erstellung problematischer Inhalte (Gewalt, explizite Inhalte) abzuhalten. Auch hier Bedarf es oft sehr intensivem Modell-Training, um ungewollte Effekte zu verhindern.

Ressourcenintensität: Die Bereitstellung eines solchen Systems für die breite Öffentlichkeit könnte technisch oder wirtschaftlich noch nicht tragfähig sein.

Letztlich lässt sich über die wahren Gründe nur spekulieren. OpenAI selbst hält sich bedeckt und reagierte auf den unautorisierten Zugang lediglich mit einer prompten Sperrung. Die Debatte um den angemessenen Umgang mit solch leistungsfähigen KI-Systemen und die Rolle der kreativen Community in ihrer Entwicklung dürfte damit aber nicht beendet sein.

🚨AI Peanuts Workbook - Black Friday Sale🚨 

Vollgepackt mit KI-Wissen, Tools & Tutorials!

Du hast angefangen, dich tiefer mit dem Thema KI zu beschäftigen und willst den nächsten Schritt machen? Dann ist unser offizielles AI Peanuts Workbook genau das Richtige für dich!

Das Workbook ist kein klassisches “Buch”, sondern ein praxisorientiertes, interaktives digitales Dokument. Gegliedert in 3 Teile:

Theorie — Der Textbuch-Teil des Workbooks, in dem wir das Thema KI und seine technischen Grundlagen erklären.
Praxis — Eine Reihe von praktischen Tutorials, mit denen du lernst, KI praktisch anzuwenden (z.B.: ChatGPT Masterprompts, HeyGen, NotebookLM, Midjourney…)
Daten  Datenbanken mit den besten KI-Tools und den spannendsten Firmen im KI-Umfeld.

🛠️ Trai it out:

Luma Dream Machine (Neue Version) — Passend zur heutigen Story gibt’s hier ein KI-Video Tool, dass wir alle heute schon nutzen können. Und mit der neuen Version geht jetzt noch einiges mehr - z.B. Style-Referenzen von Bildern nutzen, Loop-Videos erzeugen, konsistente Charaktere nutzen und das Tool hilft zusätzlich beim Brainstormen von Video-Ideen, dient also auch als kreativer Sparrings-Partner. Einen Überblick über die Neuerungen gibt es hier.

Weitere Neue Tools, Updates & Demos:

  • Echomimic Open Source Video-Avatar Model (Alternative zu Heygen & co.)

  • Google GenChess — Mit KI 3D-Schachfiguren erzeugen. Aktuell nicht offiziell in DE, aber mit VPN nutzbar (Dafür eignet sich z.B. NordVPN (Affiliate Link - aktuell mit großem Black Friday))

  • ElevenLabs GenFM — EL’s Version von “NotebookLM”

  • Perplexity Shopping — Das beliebte Antwort-Tool hilft jetzt auch beim Online Shopping

  • AI Video Composer — Noch ein Video Tool - und zwar zum Editen mittels Prompts. Sogar Open Source.

🍭🍬 Gemischte Tüte

🇪🇺 EU-News:

  • Mistral expandiert in die USA: Der französische KI-Entwickler Mistral plant ein Büro im Silicon Valley. Ist das der Anfang vom Brain-Drain, den wir befürchtet hatten? Link 

👩‍💻 Tech-News:

  • Anthropic führt „Styles“ in Claude ein: Jetzt kannst du Textbeispiele direkt im Tool speichern, anstatt Deine Schreibvorgaben jedes Mal neu einzufügen. Du kannst also über Prompts hinweg deinem Schreibstil treu bleiben. Perfekt, wenn Du Claude für die Arbeit, Marken-Content oder kreatives Schreiben nutzt. Link 

  • Liest China etwa unseren Newsletter und weiß jetzt wie wichtig Reasoning-Models sind? Alibaba hat ein „Open Source“ Modell als Herausforderer zu OpenAIs o1 Reasoning-Modell veröffentlicht Link

  • Perplexity prüft den Einstieg in Hardware mit einem günstigen Gerät für sprachgestützte Q&A. Inspiriert durch Community-Feedback, zielt das Unter-50-Dollar-Gadget darauf ab, nahtlose KI-Interaktionen zu ermöglichen. Der Erfolg könnte sich jedoch als Herausforderung erweisen, angesichts der Pleiten ähnlicher Projekte. Link 

  • Trump denkt darüber nach, einen KI-Beauftragten im Weißen Haus zu ernennen, um die staatliche KI-Politik besser zu koordinieren Link

  • Ex-Android-Executives gründen KI-Agenten-Startup. Das Startup „/dev/agents“ will eine Plattform entwickeln, um KI-Agenten nahtlos auf Geräten wie Smartphones, Laptops und Autos laufen zu lassen. Mit dabei sind ehemalige Führungskräfte von Android, Oculus und Chrome OS. Ziel ist eine Revolution vergleichbar mit Androids Einfluss auf den Mobilmarkt. Link 

  • Zoom wird „AI-first“. Der Videokonferenz-Riese nennt sich jetzt „Zoom Communications“ und setzt voll auf KI. Unter anderem wurde die Zoom AI Companion 2.0 vorgestellt, die intensivere Integration und Automatisierung in den Arbeitsalltag bringen soll. Link 

  • Die neueste humanoide Roboter-Entwicklung von Figure führt autonome Aufgaben aus und beeindruckt mit Präzision und Flexibilität. Link 

  • Anthropic bringt eine Standardisierung namens Model Context Protocol, die es KI-Modellen erleichtert, mit externen Daten und Software wie GitHub zu interagieren. Das soll viele Integrationsprobleme bei LLM-Anwendungen lösen. Link 

  • Replit ermöglicht „Clone Mode“: Einfach einen Screenshot einer App machen, und die KI erstellt eine eigene Version davon. Link 

  • Geminis neues Feature erlaubt es, komplette Codeordner hochzuladen und gezielt Fragen zum Code zu stellen. Link 

  • Ein neues Open-Source-Python-Paket namens Aisuite macht es Entwicklern leicht, große Sprachmodelle von verschiedenen Anbietern zu nutzen Link

  • Uber baut eine Flotte von Gig-Arbeitern auf, die Daten für KI-Modelle labeln sollen Link

👷 Work & Future of Work:

  • LinkedIn wird von KI-Posts überschwemmt: Laut einer neuen Studie stammen über 50 % der längeren englischen Beiträge auf LinkedIn von KI. Wüsste gerne wie ausgerechnet die Studie KI-generierte Inhalte identifizieren kann. Link 

  • Ein Artikel auf TIME wirft die Frage auf: Was passiert mit menschlichen Arbeitsplätzen, wenn KI und Robotik fast alle Jobs günstiger erledigen können? Der Autor kritisiert, dass statt klare Antworten zu finden, nur behauptet wird, dass Automatisierung bisher immer mehr Jobs geschaffen hat, als sie vernichtet hat – ohne auf die eigentliche Problematik einzugehen. Valider Punkt! Link 

  • 93 % der Gen Z-Professionals nutzen KI am Arbeitsplatz – laut einer Umfrage von Google Workspace. Doch einige Unternehmen setzen auf Verbote und Einschränkungen, um Risiken zu minimieren. Link 

🆕 Neue Anwendungsfelder:

  • KI-EICHHÖRNCHEN GEHEN IN DIE ZWEITE RUNDE!!! (Liebste Grüße an unseren treuen Leser Linus an dieser Stelle!)Britische Umweltschützer setzen KI ein, um bedrohte Rote Eichhörnchen zu schützen. Ihr Modell trennt effizient Nahrung für Rote und Graue Eichhörnchen – mit 97 % Genauigkeit. Sorry aber so beginnen Eichhörnchen-Kriege!! Link 

  • Ein neues KI-Tool generiert realistische Satellitenbilder, die zukünftige Überschwemmungen simulieren Link

  • Forscher haben eine KI entwickelt, die das Verhalten von 1.000 Menschen in Simulationen mit erstaunlicher Genauigkeit nachahmen können soll. Die Anwendungsmöglichkeiten reichen von Verhaltensforschung bis hin zu Trainings für komplexe soziale Szenarien. Link 

  • KI optimiert jetzt die Rentabilität in der Schweinezucht. Link

🏥 Health:

  • Neuralink startet Machbarkeitsstudie mit Gehirn-Implantat und Roboterarm. Die Studie zielt darauf ab, Patienten durch Gedankenkontrolle Geräte steuern zu lassen. Erste Teilnehmer in den USA haben bereits beeindruckende Dinge wie Gaming und 3D-Design allein durch Gedanken durchgeführt. Auch in Kanada startet bald eine internationale Testreihe. Link 

🖼️ Kreativindustrie:

  • Nvidia stellt Fugatto vor – ein Modell, das Text in Soundeffekte, Stimmen oder Musik umwandeln kann. Es erkennt Nuancen wie Akzente und Emotionen und erlaubt kreative Eingaben, z. B. „Eine Trompete soll wie ein Hund bellen“. Link 

  • Luma Labs überarbeitet die Video-Erstellungsplattform Dream Machine: Neues UI, Bildgenerator, mobile App und Features wie die Einbindung spezifischer Farben oder Charaktere über mehrere Generationen hinweg. Link 

  • Das Startup Spines will 2025 mindestens 8.000 Bücher mit KI veröffentlichen – dank KI-gestützter Korrektur und Distribution dauert der Veröffentlichungsprozess nur drei Wochen. Link 

  • Nvidia sorgt mit Edify 3D für Aufsehen. Besonders beeindruckend: Es kann 3D-Bilder aus zweidimensionalen Inputs oder sogar Text generieren Link

🧂 Salty Memes:

Du hast Fragen, Anmerkungen oder brauchst unsere Hilfe?
Schreib uns einfach an:
[email protected]

Willkommen!

Hat dir das ein Freund oder eine Kollegin geschickt? Melde dich an und erhalte 2x Woche deine eigene Ausgabe mit den wichtigsten KI News direkt in dein Postfach.

Hilf uns dabei, besser zu werden! Was war schlecht? Was war gut? Wie fandest Du diese Ausgabe von AI Peanuts?

Login oder Abonnieren um an umfragen teilzunehmen.

Bis Dienstag!