- AI Peanuts
- Posts
- Die Ray-Ban Meta Smartglasses werden besser
Die Ray-Ban Meta Smartglasses werden besser
Hey ihr Lieben! Einiges passiert – wir steigen sofort ein.
Peanuts für heute:
🧠 Was kommt nach Transformern? Google arbeitet daran
🕶️ Die Ray-Ban Meta Smartglasses werden besser
🛠️ Adobe Firefly 3 generiert sehr gute Bilder

🥜 Die größte Nuss:

🕶️ Die Ray-Ban Meta Smartglasses werden besser
Vor einigen Wochen schrieben wir noch darüber, dass bisherige Hardware-Produkte mit KI-Funktionen kaum nützlich sind. Sie sind zu langsam, es fehlen sinnvolle Usecases oder ein Smartphone kann die Aufgaben deutlich schneller erledigen. Doch nun scheint sich das in Teilen zu ändern: Ein aktuelles Update für die Ray-Ban Meta Brille, auch wenn es noch kein Durchbruch ist, deutet an, was möglich sein kann. Hierzu gibt es ein interessantes Video von MKBHD.
Was kann die Brille jetzt? Die Meta Brille wurde multimodal. Das bedeutet, sie besitzt nun die Fähigkeit, verschiedene Arten von Informationen wie Fotos, Audio und Text zu verarbeiten. Der Hauptbefehl lautet: „Hey Meta, schau mal und ...“. Du kannst diesen Befehl mit Anfragen wie „Sag mir, was diese Pflanze ist“, „Lies ein Schild in einer anderen Sprache“, „Schreibe Instagram-Captions“, „Identifiziere ein Denkmal oder eine Sehenswürdigkeit und erzähle mir mehr darüber“ ergänzen. Die Brille macht ein Foto, die KI kommuniziert mit der Cloud, und man erhält eine Antwort. Und zwar deutlich schneller als bei dem Humane AI-Pin. Die Möglichkeiten sind zwar begrenzt, aber beeindruckend.
Diese KI-Funktion ist nur eine von vielen der Meta-Brille. Sie ist auch eine Livestreaming-Brille und somit eine hochwertige POV-Kamera. Zudem dient sie als Kopfhörer, die im Sound wohl nicht so schlecht ist. Wird man diese Brille ständig tragen? Sicherlich nicht! Wer trägt Nachts trägt schon ne Sonnenbrille. Dennoch markiert die Brille einen wichtigen Schritt in Richtung integrierter Wearable-Technologie. Wer hätte gedacht dass ausgerechnet Meta und Ray-Ban die ersten sein würden, die diesen Punkt erreichen? Wir mit Sicherheit nicht!
[Artikel]

🛠️ Trai it out:

Adobe Firefly 3 — Die neuste Version von Adobe’s Bildgenerierungstool ist da und kann nach einem Login gratis ausprobiert werden. Man kann damit durchaus sehr gute Ergebnisse erzeugen, die in vielen Punkten mit der Qualität von z.B. Midjourney mithalten können.
Die Weboberfläche ist intuitiv und kommt mit einigen nützlichen Features. So kann man Bilder z.B. auf Basis eines Referenzbilds erstellen, mit unterschiedlicher “Stärke” - oder den passenden Style (z.B. photorealistisch) einfach auswählen. Das macht Prompting deutlich weniger komplex.
Spannend ist Firefly vor allem in Kombination und durch die Integration mit den diversen anderen Adobe Tools!
Weitere Neue Tools, Updates & Demos:
PaddleBoat — KI-Rollenspiele als Sales Training
VideoGigaGAN — Ein neuer beeindruckender Video-Upscaler von Adobe Research
Anon — (Waitlist) Für Entwickler - macht das Anbinden von Tools ohne API via KI-Agenten einfacher
Dart — Ein KI-natives Projektmanagement Tool
Prompting & Kurse:

Das offizielle AI Peanuts Workbook — Die ultimative Ressource um das Thema KI von Grund auf zu Verstehen (z.B. wie funktioniert eigentlich ein LLM?) und mit Hilfe von Tutorials zu den beliebtesten Tools (ChatGPT, Midjourney, HeyGen uvm.) zum KI-Profi zu werden!

🍭🍬 Gemischte Tüte
👩💻 Tech-News:
Interessant! Man erinnere sich daran, wie die Transformer-Innovation alles in Sachen KI verändert hat. Googles DeepMind RecurrentGemma schlägt jetzt Transformer-Modelle. Link
Das KI Voice-Agent Startup Bland (hatten wir bereits als Tool-Vorstellung) hat eine geniale neue Werbekampagne. Link
Der OpenAI Researcher James Betker sagt, es kommt weniger auf die Modell-Architektur, als viel mehr auf das Datenset an. Link
Nvidia kauft Run:ai für 700 Millionen Dollar und festigt so seine Vormachtstellung im KI-Sektor. Link
Apple entwickelt angeblich seinen eigenen kundenspezifischen Siliziumchip für KI-Server. Link
OpenAI strebt nach Geschäften in Japan, da es ein Büro in Tokio eröffnet. Link
AMD tut sich mit Arm zusammen, um eine neue KI-Chipfamilie zu enthüllen, die Vorverarbeitung, Inferenz und Nachverarbeitung auf einem Chip durchführt. Aber man wird mehr als 12 Monate warten müssen, um die tatsächlichen Produkte zu bekommen. Link
Das KI-Search-Startup Perplexity wird in einer Finanzierungsrunde mit 1 Milliarde Dollar bewertet. Link
Zuckerberg sagt, es wird Jahre dauern, bis Meta mit generativer KI Geld verdient. Link
Eric Schmidt unterstützt Augment, das mit 252 Millionen Dollar Bewertung aus dem Stealth-Mode tritt und sich als Konkurrent zu GitHub Copilot positioniert. Link
👷 Work:
🆕 Neue Anwendungsfelder:
🖼️ Kreativindustrie:
Adobes nächstes großes Projekt ist eine KI, die Videos mit niedriger Auflösung auf das Achtfache ihrer ursprünglichen Qualität hochskalieren kann. Link
Eine ehemalige Amazon-Managerin behauptet, sie sei aufgefordert worden, das Urheberrecht im Wettlauf um KI zu ignorieren. Link
Drake disst erneut gegen Kendrick Lamar im neuen Track ‚Taylor Made Freestyle‘, unter Einsatz von KI-Versionen von 2Pac und Snoop Dogg. Link

🧂 Salty Memes:


Wir wollen uns verbessern! Wie hat dir diese Ausgabe gefallen? Welche Themen wünschst du dir für die Zukunft mehr? |
Login oder Abonnieren um an umfragen teilzunehmen. |

Bis Dienstag!