
Ein Erfahrungsbericht von NETZ-TRENDS.de: Wer als journalistisches oder digitales Fachmedium wie NETZ-TRENDS.de mit einem der modernsten KI-Systeme der Welt arbeitet, erwartet Verlässlichkeit, Effizienz und Zugang zu den beworbenen Funktionen – besonders dann, wenn man für den Dienst monatlich 216,20 US-Dollar, also umgerechnet 184 Euro, zahlt. Das entspricht 2.208 Euro jährlich, privat getragen, nicht durch eine Firma.
Doch unsere Erfahrung mit dem Pro-Abo von ChatGPT ist inzwischen von wachsender Frustration geprägt - trotz der enormen Vorteile, die KI auch für uns bietet und das Leben ganz erheblich erleichtert und verbessert, wofür wir sehr dankbar sind.
Trotz angeblicher Priorisierung erleben wir regelmäßig: extrem lange Ladezeiten, teilweise minutenlanges Warten auf einfache Textantworten, sowie das abrupte Verschwinden zentraler Funktionen – insbesondere der für journalistische Arbeit so wichtigen Advanced Data Analysis (früher: Code Interpreter).
Statt zuverlässiger Unterstützung bekommen wir allzu oft: einen blinkenden Cursor – und wenig sonst.
Hin zu kommt: Wer einen neuen Chat beginnt, wird mit einem Modellmenü konfrontiert, das sich liest wie ein internes Entwicklerprotokoll. Zu sehen sind Namen wie GPT-4o, o3, o3-pro, o4-mini, o4-mini-high, GPT-4.1, GPT-4.1-mini – und seit Kurzem auch GPT-4.5, als sogenanntes „Research Preview“. Welche dieser Modelle aktiv sind, wann man sie wechseln sollte und warum – das bleibt völlig unklar. Auch als zahlender Pro-Nutzer erfährt man nicht, warum man jetzt besser die eine oder andere Version verwenden soll oder doch stets die höchste nummerierte, wobei sich dann die Frage anschließen würde: Warum sehen wir überhaupt noch die Versionen drunter?
Es gibt keine Erklärung, keine richtige Legende, keine nachvollziehbare Auswahlhilfe. Dass ausgerechnet ein Unternehmen wie OpenAI, das mit Künstlicher Intelligenz für Transparenz und Automatisierung steht, dieses zentrale Menü so unverständlich und beliebig lässt, ist kaum nachvollziehbar.
Seit mehreren Wochen fällt auf: Antworten dauern länger, Texte wirken oberflächlicher, und zentrale Funktionen wie die „Advanced Data Analysis“ erscheinen entweder gar nicht oder funktionieren nicht zuverlässig. Was OpenAI als Fortschritt verkauft – intern offenbar als „GPT-4.5“ – wirkt für viele Nutzer wie ein deutlicher technischer Rückschritt. Der Output ist langsamer, die Präzision schwankt, komplexere Aufgaben wie Tabelleninterpretationen oder analytisches Schreiben führen oft zum Absturz oder Abbruch. Von der beworbenen „höheren Rechenleistung für Pro-Nutzer“ ist nichts zu spüren.
Zusätzlich zur Modellverwirrung kämpfen viele mit den engen Speichergrenzen. Hat man einige größere Chats geführt oder Datenanalysen durchgeführt, meldet das System: Speicher voll – bitte löschen, um Erinnerungsfunktion zu aktivieren. Das führt nicht nur zu Datenverlust, sondern auch zu mangelnder Nachvollziehbarkeit – genau das Gegenteil dessen, was man bei einem Werkzeug für strukturiertes, langfristiges Arbeiten erwartet.
Wir nutzen ChatGPT für redaktionelle Prozesse, Themenanalysen, Datenvergleiche, Quellenchecks – also mit einem klaren professionellen Anspruch. Wenn aber ein Werkzeug, das uns produktiver machen soll, stattdessen Zeit kostet, aussetzt oder Tools nicht lädt, gerät der gesamte Arbeitsfluss ins Stocken.
Es bleibt die einfache Frage: Was genau bekommt man eigentlich für 2.208 Euro im Jahr?
OpenAI hat mit ChatGPT eine bahnbrechende Technologie geschaffen – das bestreiten wir nicht. Aber: Bahnbrechend reicht nicht, wenn die Zuverlässigkeit fehlt.
Wer einen Preis wie ein Premium-Anbieter aufruft, muss auch wie einer liefern. Und dazu gehört: stabile Performance, gute Datenanalyse und Widergabe, eine Speicherkapazität die nicht jeden zweiten Tag in die Knie geht. Unzählige Mal haben wir auch den prompt gegeben: Schreibe Texte ohne bulletpoints, aber mit einer Hauptüberschrift, Zwischenüberschrift, Fettungen von Zahlen, Daten, Fakten, Namen, Marken. Kein einziges Mal merkt er sich von einer auf die andere Stunde diese prompts. Es nervt!
Wir sagen offen: Für einen Jahrespreis von 2.208 Euro erwarten wir mehr – deutlich mehr:
Trotzdem steht außer Frage: KI-Tools wie ChatGPT und viele vergleichbare Anwendungen sind eine große Entlastung – für Einzelpersonen, Unternehmen und auch für kleinere Nachrichtenportale wie unseres. Sie ermöglichen uns, Themen zu bearbeiten, die wir personell und finanziell ohne KI-Unterstützung kaum realisieren könnten. Gerade für schlank aufgestellte Redaktionen ist das ein echter Fortschritt – trotz aller Kritik an Tempo und Zuverlässigkeit.
Und damit lockt das teure Chat GPT Abo: „Vielen Dank, dass du ChatGPT Pro abonniert hast! Dein Pro-Abo umfasst Folgendes: Alles in der Plus-Version. Uneingeschränkter Zugriff auf alle Reasoning-Modelle und GPT-4o. Uneingeschränkter Zugriff auf den fortgeschrittenen Audiomodus. Erweiterter Zugriff auf Deep Research, das eine mehrstufige Online-Recherche für komplexe Aufgaben durchführt. Zugriff auf die Research-Preview von GPT-4.5 und Operator. Zugriff auf den o1 pro-Modus, der über noch mehr Rechenleistung für die besten Antworten auf die schwierigsten Fragen verfügt. Erweiterter Zugriff auf die Videogenerierung mit Sora Zugriff auf eine Research-Preview des Codex-Agenten.