
Die Nachricht klingt wie der Beginn einer neuen Ära: Jony Ive, langjähriger Chefdesigner von Apple, und Sam Altman, CEO von OpenAI, entwickeln gemeinsam ein neues Gerät – ein KI-Begleiter, der ohne Bildschirm auskommen und die Interaktion zwischen Mensch und Technologie grundlegend verändern soll. Statt Touchscreens, Apps und Dopaminschüben setzen die beiden Tech-Ikonen auf subtile Signale, kontextsensitive KI, haptisches Feedback und möglicherweise sogar Mikroprojektoren.
Doch zwischen all dem Zukunftspathos und ästhetischen Anspruch stellt sich eine grundsätzliche Frage: Ist dieses Gerät wirklich eine Revolution – oder eine raffinierte Fortsetzung bestehender Technologiemuster in neuem Gewand?
Der symbolische Startschuss für das Projekt fiel mit einer Zahl, die aufhorchen ließ: 6,5 Milliarden Dollar soll OpenAI für Ives Designfirma gezahlt haben – eine Bewertung, die jegliche Relation sprengt. Zum Vergleich: Apple zahlte für Beats Electronics 2014 „nur“ drei Milliarden Dollar, Google für das Smart-Home-Unternehmen Nest 3,2 Milliarden. Ob diese Summe der Wahrheit entspricht oder bewusst als narrative Überhöhung lanciert wurde, ist unklar. Fakt ist: Mit dieser Partnerschaft sichert sich OpenAI nicht nur gestalterisches Renommee, sondern auch einen direkten Zugang zur Hardware-Realität – und das in einer Zeit, in der KI-Software leicht kopierbar, aber Hardware strategisch entscheidend ist.
Ives Motivation klingt auf den ersten Blick glaubwürdig. Der Designer, der mit dem Apple iPhone, dem iPod und der Apple Watch selbst zentrale Reizverstärker der digitalen Gegenwart geschaffen hat, gibt sich heute selbstkritisch. Er beklagt öffentlich, wie sehr Bildschirme unser Leben dominieren, und spricht davon, ein Gerät schaffen zu wollen, das „sich nahtlos einfügt, statt Aufmerksamkeit zu verlangen“. Auch Altman betont, dass mehr als 100 Millionen KI-Begleiter entstehen könnten, die den Alltag still, aber intelligent begleiten.
Doch die Ambition, sich von klassischen Wearables, Smartphones oder AR-Brillen zu lösen, wirft neue Fragen auf. Wenn das Gerät tatsächlich – wie berichtet – um den Hals getragen wird, wie ein futuristischer iPod Shuffle, dann steht die Diskretion im Kontrast zur omnipräsenten Datenerhebung. Sensoren, Mikrofone, möglicherweise Kameras – all das wird benötigt, um die Umgebung, Stimmung und Absichten des Nutzers zu erfassen. Die technologische Subtilität wird zur Voraussetzung für eine neue, nahezu unsichtbare Überwachungsschnittstelle.
Tatsächlich lassen erste Spezifikationen aufhorchen. Analyst Ming-Chi Kuo – für gewöhnlich gut informiert, aber nicht unfehlbar – geht davon aus, dass das Gerät gänzlich ohne Bildschirm funktionieren wird. Stattdessen sollen akustische Signale, haptisches Feedback und möglicherweise sogar Mini-Projektoren Informationen übermitteln. Letzteres klingt bislang wie Science-Fiction, ist aber nicht ausgeschlossen. Die Vision: ein stiller, verständiger Assistent, der keine Aufmerksamkeit einfordert, sondern nur dann aktiv wird, wenn er gebraucht wird.
Diese neue Form von User Experience – weg vom ständigen Blick aufs Display, hin zu einem ständigen Hintergrundprozess – stellt einen radikalen Bruch mit bisherigen Gerätekategorien dar. Doch sie öffnet auch eine neue Debatte über Privatsphäre, Sicherheit und Nutzerautonomie. Wer entscheidet, welche Daten wann erhoben, verarbeitet oder gespeichert werden? Wie transparent ist der KI-Prozess für die Nutzer? Und: Welche Rechte hat ein Mensch gegenüber einem Gerät, das ihn besser kennen soll als er sich selbst?
Dass sich ambitionierte Ideen nicht automatisch durchsetzen, zeigen zwei aktuelle Flops: Humanes „AI Pin“ und der vielversprechend angekündigte, aber schlecht umgesetzte Rabbit R1. Beide wollten, was Ive und Altman nun besser machen wollen – ein screenfreies, KI-basiertes Erlebnis. Beide scheiterten – an Usability, Funktionsvielfalt und Marktreife.
Ive soll laut The Information diese Produkte intern als „sehr schlechte Produkte“ abgetan haben. Doch genau hier liegt das Risiko des eigenen Vorhabens: Wird das neue Gerät – trotz besserem Design und potenterem Backend – am gleichen Nutzerwiderstand zerschellen? Oder ist es am Ende lediglich ein smarteres Interface für bestehende Systeme, das dieselben Datenströme erzeugt – nur eben schöner verpackt?
Hinter all diesen Fragen steckt ein klares Ziel: OpenAI möchte sich nicht länger nur auf die Rolle eines Modellanbieters beschränken. Altman will das gesamte Ökosystem kontrollieren – Hard- und Software, Service und Anwendung. Dieses Streben erinnert an Apple, das mit geschlossenen Plattformen seine Marktposition abgesichert hat. Altman geht nun denselben Weg – und setzt dabei auf das Prestige eines Jony Ive, um dem Projekt Legitimität, Exklusivität und Gestaltungshoheit zu verleihen.
Die Massenproduktion sei laut ersten Insiderberichten für das Jahr 2027 geplant, der Marktstart für kurz danach. Wenn es gelingt, ein funktionierendes Gerät zu etablieren, das sowohl intuitiv nutzbar als auch gesellschaftlich akzeptiert ist, könnte OpenAI in eine neue Liga aufsteigen – vom KI-Zulieferer zum dominanten Plattformanbieter.
Die Idee eines tragbaren Geräts, das wie ein iPod Shuffle um den Hals getragen wird, ohne Display, aber mit haptischer und akustischer Rückmeldung, klingt innovativ – doch es gibt zentrale offene Fragen:
Privatsphäre: Wenn Mikrofone, Kameras und Sensoren dauerhaft unsere Umgebung analysieren, ist eine neue Überwachungstechnologie im Alltag angekommen. Wer garantiert, dass Daten nicht zentral gespeichert und ausgewertet werden?
Nutzerführung: Ohne visuelles Interface wird die Bedienung komplexer. Wie lässt sich z. B. ein OnlineCasino (Achtung: In Deutschland, Österreich, der Schweiz und vielen anderen Ländern dürfen nur Anbieter mit offizieller Zulassung durch die Glücksspielbehörden genutzt werden. Illegales Glücksspiel ist verboten – und kann ernste rechtliche und persönliche Folgen haben.) oder das Buchen eines Fluges über Portale wie fluege.de allein über akustische Rückmeldungen durchführen? Wie erfolgt die Bestätigung, ohne visuelle Kontrolle?
Soziale Akzeptanz: Schon Smart Glasses wie Google Glass scheiterten an der Angst vor permanenter Überwachung. Wird ein „sprechendes Gerät“ um den Hals im Alltag wirklich akzeptiert – oder eher als fremdkörperhafte Technik empfunden?
So faszinierend die Vision klingt, so entscheidend bleibt die Frage: Vertrauen die Nutzer diesem Gerät? Ein KI-Begleiter, der den Nutzer ständig beobachtet, analysiert und optimiert, braucht eine neue Art der Zustimmung. Es genügt nicht, den Bildschirm abzuschaffen, wenn im Hintergrund eine permanente Datenauswertung stattfindet – gerade in Zeiten zunehmender Sensibilität für digitale Autonomie und informationelle Selbstbestimmung.
Ive und Altman mögen ein Gerät erschaffen, das sich elegant anfühlt, leise kommuniziert und keine optische Dominanz mehr beansprucht. Doch ohne echte Transparenz über Datenflüsse, KI-Entscheidungen und Nutzerrechte bleibt ihr Produkt ein Manifest für eine technologische Zukunft, die erneut die Frage stellt: Wer hat die Kontrolle – der Nutzer oder das System?