In den letzten zwei Jahren hat sich ein Großteil der öffentlichen Diskussion über KI auf eine Frage reduziert: Wie gut ist dieses Modell darin, Fragen zu beantworten?
Benchmarks. Bestenlisten. Reasoning-Scores. Halluzinationsraten.
Diese Frage wird langsam zur falschen – denn die interessantere Verschiebung ist nicht, wie gut Modelle *reden*, sondern ob sie an denselben Artefakten arbeiten können, die Teams bereits verwenden.
Also führten wir ein einfaches Experiment durch. Anstatt Rätsel, Knobelaufgaben oder synthetische Aufforderungen gaben wir einer KI etwas, das dem echten Leben näher kommt: Daten.
Der Aufbau: Analyst, nicht Chatbot
Die Idee war einfach: Behandle das System wie einen Analysten, nicht wie einen Chatbot.

Wir sammelten 20 Datensätze aus gewöhnlichen geschäftsähnlichen Situationen – wöchentliche Verkäufe, Kampagnenergebnisse, Churn-Tabellen, Umfrageexporte, Bestandsprotokolle, Produktmetriken. Keine spezielle Formatierung. Kein kuratiertes Benchmark-Paket. Nur die Art von unordentlichen Tabellen, die Leute täglich per E-Mail verschicken.
Dann baten wir um etwas Schwierigeres als eine Zusammenfassung:
„Sag uns, was hier zählt.“
Nicht „beschreibe die Spalten.“ Analysiere.
Das Ziel war zu sehen, ob KI über die konversationelle Unterstützung hinausgehen und sich wie jemand verhalten kann, der versucht, zu einer Schlussfolgerung zu gelangen.
Was wir erwarteten
Wir nahmen drei Ergebnisse an:
- Es würde Diagramme erstellen
- Es würde Trends beschreiben
- Es würde gelegentlich halluzinieren
Es tat alle drei. Aber das Ergebnis, das unsere Denkweise über die Kategorie veränderte, war anders.
Überraschung 1: Es begann nicht mit Visualisierung
Menschliche Analysten folgen oft einem vertrauten Pfad: Tabellenkalkulation öffnen, bereinigen, diagrammieren, dann interpretieren.
Das System spiegelte diese Reihenfolge nicht zuverlässig wider. Es begann damit, Unsicherheit aufzuzeigen – Fragen zur Saisonalität, Vergleichbarkeit über Regionen hinweg, Preisänderungen im Zeitfenster und andere kontextuelle Lücken, die bestimmen, ob ein Diagramm überhaupt ehrlich wäre.
Dieses Verhalten stimmt mit dem überein, was viele Teams heute Daten-Agenten nennen: Systeme, die mehr als einen Schritt des analytischen Workflows ausführen können, nicht nur eine einzelne Aufforderung beantworten.
Mit anderen Worten: Es zeichnete nicht nur. Es bildete Hypothesen.

Überraschung 2: Die Diagramme waren nicht der wertvollste Output
Wir erwarteten, dass Diagramme der wichtigste Nutzen sein würden. Das waren sie nicht.
Die Momente mit der größten Hebelwirkung traten auf, wenn das System erklärte, warum sich eine Zahl verändert hatte.
Beispiel aus einer Einzelhandelsdatei: ein Umsatzrückgang in einer Woche. Ein Mensch würde vielleicht bei „etwas ist gefallen“ stehen bleiben. Der Durchlauf verknüpfte den Rückgang mit fallender Conversion, einem Spike im mobilen Traffic und einem bestimmten Kampagnenstart – und lieferte dann eine kompakte Erklärung: Besucher mit geringer Absicht verwässerten die Conversion, nachdem die Kampagne breiteren Traffic angezogen hatte.
Das ist keine magische Vorhersage. Es ist schlussfolgern über Signale hinweg – und es stellte neu dar, worauf „KI-Analytik“ optimieren sollte.

Überraschung 3: Geschwindigkeit veränderte das Verhalten, nicht nur den Durchsatz
Klassische Analytik-Workflows haben Reibung: Anfrage, Warteschlange, Analyse, Meeting, Entscheidung.
Wenn Antworten in Sekunden statt in Tagen eintreffen, bewegen sich Menschen nicht nur schneller – sie stellen mehr Fragen. Kleinere, präzisere:
- „Was hat sich gestern geändert?“
- „Warum hat Region B Region A geschlagen?“
- „Was passiert, wenn Wochenenden ausgeschlossen werden?“
Der Engpass war selten das rohe Datenvolumen. Es waren die Kosten des Fragens. Sobald diese Kosten zusammenbrechen, steigen Neugier – und Iteration. Das verändert die Art und Weise, wie Teams insgesamt mit Daten umgehen.

Vom Assistenten zum Analysten
Chatbots helfen dir beim Schreiben. Suche hilft dir beim Finden. Analytische Systeme sollten dir bei der Entscheidung helfen.
Unternehmen experimentieren bereits mit autonomeren Systemen, die operative Daten und Workflows koordinieren. Was wir im kleineren Maßstab sahen, war die gleiche Richtungsverschiebung: KI bewegt sich vom Reagieren über das Interpretieren zum Lenken der Aufmerksamkeit.
Anstatt: „Hier ist das Diagramm, das Sie angefordert haben.“
Wird daraus: „Hier ist, was Überprüfung verdient – und warum.“
Die wirkliche Implikation
Jahrelang verließ sich die BI-Kultur stark auf Dashboards. Dashboards gehen davon aus, dass Benutzer bereits wissen, wonach sie suchen müssen, welche Ansicht wichtig ist und wie sie eine Änderung lesen.
Die meisten Teams scheitern nicht, weil sie nicht auf Daten zugreifen können. Sie scheitern, weil Verständnis teuer ist.
Das Problem der Branche war nie die Visualisierung allein. Es war Kognition unter Zeitdruck.
Was das für die Arbeit bedeutet
Die verbreitete Angst ist der Ersatz. Das Experiment deutete auf etwas Engeres hin.
Die KI hat die Rolle des Analysten nicht ausgelöscht. Sie ersetzte Warten, wiederholte Diagrammerstellung und den ersten Durchlauf mechanischen Vergleichs.
Was auf der menschlichen Seite blieb:
- Urteilsvermögen
- Entscheidungsfindung
- Kommunikation
- Kontext, den nur ein Stakeholder liefern kann
Der Job verschwand nicht. Er bewegte sich nach oben.
Eine andere Kategorie von Werkzeug
Wir stehen am Anfang einer Verschiebung hin zu dem, was man Denk-Infrastruktur nennen könnte – Software, die Muster aufdeckt, Anomalien erklärt, Aufmerksamkeit lenkt und den Weg von Daten zu Aktion verkürzt.
Die nächste Generation der Analytik wird nicht durch das hübscheste Standarddiagramm definiert.
Sondern dadurch, wie schnell ein Team sich bewegen kann:
Daten → Verständnis → Aktion

Abschluss
Lange Zeit bewerteten wir KI danach, ob sie wie ein Mensch antworten konnte.
Nach solchen Durchläufen ist ein besserer Test einfacher:
Hilft es Menschen, schneller zu verstehen – und mit genügend Nachvollziehbarkeit, um dem nächsten Schritt zu vertrauen?
Denn die dauerhafte Revolution sind nicht Maschinen, die klug klingen.
Sondern Maschinen, die Menschen entscheidungsfreudiger machen.
Dieser Wandel ist bereits im Gange – leise, in den Tabellenkalkulationen und Exporten, die Teams bereits haben.

