• AI Peanuts
  • Posts
  • Die Ray-Ban Meta Smartglasses werden besser

Die Ray-Ban Meta Smartglasses werden besser

Hey ihr Lieben! Einiges passiert – wir steigen sofort ein.

Peanuts für heute:

  • 🧠 Was kommt nach Transformern? Google arbeitet daran

  • 🕶️ Die Ray-Ban Meta Smartglasses werden besser

  • 🛠️ Adobe Firefly 3 generiert sehr gute Bilder

🥜 Die größte Nuss:

🕶️ Die Ray-Ban Meta Smartglasses werden besser

Vor einigen Wochen schrieben wir noch darüber, dass bisherige Hardware-Produkte mit KI-Funktionen kaum nützlich sind. Sie sind zu langsam, es fehlen sinnvolle Usecases oder ein Smartphone kann die Aufgaben deutlich schneller erledigen. Doch nun scheint sich das in Teilen zu ändern: Ein aktuelles Update für die Ray-Ban Meta Brille, auch wenn es noch kein Durchbruch ist, deutet an, was möglich sein kann. Hierzu gibt es ein interessantes Video von MKBHD.

Was kann die Brille jetzt? Die Meta Brille wurde multimodal. Das bedeutet, sie besitzt nun die Fähigkeit, verschiedene Arten von Informationen wie Fotos, Audio und Text zu verarbeiten. Der Hauptbefehl lautet: „Hey Meta, schau mal und ...“. Du kannst diesen Befehl mit Anfragen wie „Sag mir, was diese Pflanze ist“, „Lies ein Schild in einer anderen Sprache“, „Schreibe Instagram-Captions“, „Identifiziere ein Denkmal oder eine Sehenswürdigkeit und erzähle mir mehr darüber“ ergänzen. Die Brille macht ein Foto, die KI kommuniziert mit der Cloud, und man erhält eine Antwort. Und zwar deutlich schneller als bei dem Humane AI-Pin. Die Möglichkeiten sind zwar begrenzt, aber beeindruckend.

Diese KI-Funktion ist nur eine von vielen der Meta-Brille. Sie ist auch eine Livestreaming-Brille und somit eine hochwertige POV-Kamera. Zudem dient sie als Kopfhörer, die im Sound wohl nicht so schlecht ist. Wird man diese Brille ständig tragen? Sicherlich nicht! Wer trägt Nachts trägt schon ne Sonnenbrille. Dennoch markiert die Brille einen wichtigen Schritt in Richtung integrierter Wearable-Technologie. Wer hätte gedacht dass ausgerechnet Meta und Ray-Ban die ersten sein würden, die diesen Punkt erreichen? Wir mit Sicherheit nicht!

[Artikel]

🛠️ Trai it out:

Adobe Firefly 3 — Die neuste Version von Adobe’s Bildgenerierungstool ist da und kann nach einem Login gratis ausprobiert werden. Man kann damit durchaus sehr gute Ergebnisse erzeugen, die in vielen Punkten mit der Qualität von z.B. Midjourney mithalten können.

Die Weboberfläche ist intuitiv und kommt mit einigen nützlichen Features. So kann man Bilder z.B. auf Basis eines Referenzbilds erstellen, mit unterschiedlicher “Stärke” - oder den passenden Style (z.B. photorealistisch) einfach auswählen. Das macht Prompting deutlich weniger komplex.

Spannend ist Firefly vor allem in Kombination und durch die Integration mit den diversen anderen Adobe Tools!

Weitere Neue Tools, Updates & Demos:

  • PaddleBoat — KI-Rollenspiele als Sales Training

  • VideoGigaGAN Ein neuer beeindruckender Video-Upscaler von Adobe Research

  • Anon — (Waitlist) Für Entwickler - macht das Anbinden von Tools ohne API via KI-Agenten einfacher

  • Dart — Ein KI-natives Projektmanagement Tool

Prompting & Kurse:

  • Das offizielle AI Peanuts Workbook — Die ultimative Ressource um das Thema KI von Grund auf zu Verstehen (z.B. wie funktioniert eigentlich ein LLM?) und mit Hilfe von Tutorials zu den beliebtesten Tools (ChatGPT, Midjourney, HeyGen uvm.) zum KI-Profi zu werden!

🍭🍬 Gemischte Tüte

👩‍💻 Tech-News:

  • Interessant! Man erinnere sich daran, wie die Transformer-Innovation alles in Sachen KI verändert hat. Googles DeepMind RecurrentGemma schlägt jetzt Transformer-Modelle. Link

  • Das KI Voice-Agent Startup Bland (hatten wir bereits als Tool-Vorstellung) hat eine geniale neue Werbekampagne. Link

  • Der OpenAI Researcher James Betker sagt, es kommt weniger auf die Modell-Architektur, als viel mehr auf das Datenset an. Link

  • Nvidia kauft Run:ai für 700 Millionen Dollar und festigt so seine Vormachtstellung im KI-Sektor. Link

  • Apple entwickelt angeblich seinen eigenen kundenspezifischen Siliziumchip für KI-Server. Link

  • OpenAI strebt nach Geschäften in Japan, da es ein Büro in Tokio eröffnet. Link

  • AMD tut sich mit Arm zusammen, um eine neue KI-Chipfamilie zu enthüllen, die Vorverarbeitung, Inferenz und Nachverarbeitung auf einem Chip durchführt. Aber man wird mehr als 12 Monate warten müssen, um die tatsächlichen Produkte zu bekommen. Link

  • Das KI-Search-Startup Perplexity wird in einer Finanzierungsrunde mit 1 Milliarde Dollar bewertet. Link

  • Zuckerberg sagt, es wird Jahre dauern, bis Meta mit generativer KI Geld verdient. Link

  • Eric Schmidt unterstützt Augment, das mit 252 Millionen Dollar Bewertung aus dem Stealth-Mode tritt und sich als Konkurrent zu GitHub Copilot positioniert. Link

👷 Work:

  • Ein paar neue Prompts in der Anthropic Prompt-Bibliothek. Link

  • OpenAI führt neue Unternehmensfunktionen für KI ein. Jetzt umfasst es verbesserte Dateiabruffunktionen, die bis zu 10.000 Dateien pro Assistent verwalten können — ein deutlicher Anstieg gegenüber der bisherigen 20-Dateien-Grenze. Link

🆕 Neue Anwendungsfelder:

  • Wendy's verwendet FreshAI, um die Bestellaufnahme am Drive-thru zu automatisieren. Link

  • Die BBC investiert 6 Millionen Pfund in KI, um ihre Bildungsdienste zu transformieren. Link

🖼️ Kreativindustrie:

  • Adobes nächstes großes Projekt ist eine KI, die Videos mit niedriger Auflösung auf das Achtfache ihrer ursprünglichen Qualität hochskalieren kann. Link

  • Eine ehemalige Amazon-Managerin behauptet, sie sei aufgefordert worden, das Urheberrecht im Wettlauf um KI zu ignorieren. Link

  • Drake disst erneut gegen Kendrick Lamar im neuen Track ‚Taylor Made Freestyle‘, unter Einsatz von KI-Versionen von 2Pac und Snoop Dogg. Link

🧂 Salty Memes:

Wir wollen uns verbessern! Wie hat dir diese Ausgabe gefallen? Welche Themen wünschst du dir für die Zukunft mehr?

Login or Subscribe to participate in polls.

Bis Dienstag!