• AI Peanuts
  • Posts
  • 🗯️ OpenAI rollt Sprach- und Bildfunktionen aus

🗯️ OpenAI rollt Sprach- und Bildfunktionen aus

🗯️ OpenAI rollt Sprach- und Bildfunktionen aus

Letzte Woche haben wir angedeutet, dass die menschliche Stimme möglicherweise die Schnittstelle sein könnte, die wir für KI-Tools verwenden, anstatt eines Chatfensters. Auch OpenAI scheint hier seine Wetten zu platzieren und bringt neue Sprach- und Bildfunktionen heraus.

Was bedeutet das? Zuerst einmal kannst du mit ChatGPT reden, wie du mit Pi reden kannst. Diese Gespräche werden viel lebendiger und komplexer sein, wie du es vielleicht von Alexa oder Google Home kennst. Die Sprachtechnologie und die Sprecher hat OpenAI selbst entwickelt. Diese werden jetzt auch von Spotify für den Piloten ihrer "Voice Translation"-Funktion verwendet, die Podcastern hilft, ihre Geschichten durch Übersetzungen in zusätzliche Sprachen und in ihrer eigenen Stimme zu verbreiten.

But wait…there’s more: Neben Sprache kannst du bald auch mit Bildern mit ChatGPT kommunizieren und Fragen dazu stellen. Mach ein Foto von einer Sehenswürdigkeit auf Reisen und führe ein Live-Gespräch darüber, was daran interessant ist. Zuhause angekommen, fotografiere deinen Kühlschrank und Vorratsschrank, um herauszufinden, was es zum Abendessen gibt (und stelle anschließende Fragen für ein Rezept). Nach dem Abendessen hilf deinem Kind bei einem Matheproblem, indem du ein Foto machst, das Problem umkreist und ihr Tips bekommt.

Wann, sag mir wann?! Plus- und Enterprise-Benutzer können all dies in den nächsten zwei Wochen ausprobieren. Wenn du dich fragst, welche andere Schnittstelle Potenzial hat – menschliche Tests für Hirnimplantate bei Neuralink beginnen gerade. Wenn die Bandbreite unserer Finger oder unserer Sprache nicht ausreicht, könnte vielleicht die Geschwindigkeit unserer Gedanken genügen.

Übrigens, ein kleines, unbestätigtes Gerücht kursiert im Internet: OpenAI hat angeblich bereits die allgemeine künstliche Intelligenz (AGI) gelöst. Das bedeutet, sie besitzen ein noch unveröffentlichtes Modell, das nahezu auf dem Niveau menschlicher Experten in vielen verschiedenen Bereichen agiert. Das Modell, codenamens Arrakis, soll deutlich weniger zu Halluzinationen neigen und ebenfalls ein sehr guter autonomer Agent sein. Gerüchte besagen, es sei für 2024 geplant. Aber, wie gesagt, das sind unbestätigte Informationen – meist von Reddit-Usern, die behaupten, Zugang zu diesem Modell zu haben. Also, nimm es mit einer Prise Skepsis.