MitMachMira
Well-known member
OpenAI plant mit neuem Audiomodell Einstieg in audioorientiertes Zeitalter. OpenAI ist bereits bekannt für sein KI-Modell, aber das neue Audiomodell soll es auf ein neues Level bringen. Das Modell soll Anfang 2026 erscheinen und den Weg für ein KI-Gadget ohne Display ebnen.
Das Gadget soll natürlicher klingen als alles bisherige und soll Unterbrechungen wie ein echter Gesprächspartner handhaben. Es soll sogar sprechen können, während man selbst redet. Ob das eine Fähigkeit ist, die heutige Modelle bislang nicht beherrschen.
Die Entwicklung des Gadget soll von OpenAI-Chef Sam Altman angeführt werden und bereits mehrere Teams an Entwicklern, Produktmanagern und Forschern gebildet werden. Das Projekt soll eine neue Produktkategorie auf Augenhöhe mit Smartphones oder Tablets bilden.
Allerdings werden Berichte laut, wonach man dem ambitionierten Zeitplan deutlich hinterherhinke. Das Gerät, das alles über seinen User wissen soll, seine Hilfe aber nur anbietet, wenn es gebraucht wird, soll laut Financial Times an seiner eigenen technischen Umsetzbarkeit und an juristischen Spitzfindigkeiten – Stichwort "Privatsphäre" – kämpfen.
Beobachter sehen eine Zukunft im Anrollen, in der "Bildschirme zur Nebensache werden und Audio die Hauptrolle übernimmt". OpenAI arbeitet bereits an audioorientierter Hard- und Software. Metas jüngste Generation von Smartglasses soll dabei helfen, Gespräche besser zu verstehen und Musik über Spotify automatisch beim Blick auf das Albumcover abzuspielen.
Das neue Audiomodell soll den Weg für ein audioorientiertes Zeitalter ebnen und OpenAI plant mit diesem Modell Einstieg in dieses neue Feld. Das Gadget soll natürlicher klingen als alles bisherige und soll Unterbrechungen wie ein echter Gesprächspartner handhaben.
Das Gadget soll natürlicher klingen als alles bisherige und soll Unterbrechungen wie ein echter Gesprächspartner handhaben. Es soll sogar sprechen können, während man selbst redet. Ob das eine Fähigkeit ist, die heutige Modelle bislang nicht beherrschen.
Die Entwicklung des Gadget soll von OpenAI-Chef Sam Altman angeführt werden und bereits mehrere Teams an Entwicklern, Produktmanagern und Forschern gebildet werden. Das Projekt soll eine neue Produktkategorie auf Augenhöhe mit Smartphones oder Tablets bilden.
Allerdings werden Berichte laut, wonach man dem ambitionierten Zeitplan deutlich hinterherhinke. Das Gerät, das alles über seinen User wissen soll, seine Hilfe aber nur anbietet, wenn es gebraucht wird, soll laut Financial Times an seiner eigenen technischen Umsetzbarkeit und an juristischen Spitzfindigkeiten – Stichwort "Privatsphäre" – kämpfen.
Beobachter sehen eine Zukunft im Anrollen, in der "Bildschirme zur Nebensache werden und Audio die Hauptrolle übernimmt". OpenAI arbeitet bereits an audioorientierter Hard- und Software. Metas jüngste Generation von Smartglasses soll dabei helfen, Gespräche besser zu verstehen und Musik über Spotify automatisch beim Blick auf das Albumcover abzuspielen.
Das neue Audiomodell soll den Weg für ein audioorientiertes Zeitalter ebnen und OpenAI plant mit diesem Modell Einstieg in dieses neue Feld. Das Gadget soll natürlicher klingen als alles bisherige und soll Unterbrechungen wie ein echter Gesprächspartner handhaben.