Zurück zum Blog
KI-Analytik5 Minuten Lesezeit

Als wir eine KI 20 reale Datensätze analysieren ließen, geschah etwas Unerwartetes

Wir tauschten Rätsel gegen unordentliche Geschäftstabellen. Die Überraschung waren nicht hübschere Diagramme – es war das Verhalten der KI, bevor sie sie zeichnete, und was das für die Analytik bei der Arbeit bedeutet.

Steven Cen, Praktiker für Datenvisualisierung

Steven Cen

Praktiker für Datenvisualisierung

Share:
Illustration eines Eulen-Analysten an einem Schreibtisch in der Nacht, verbunden durch leuchtende Linien mit Tabellenkalkulationen, Diagrammen und Code auf mehreren Bildschirmen
Die nützliche Frage verschiebt sich davon, wie gut ein Modell plaudert, hin dazu, ob es Analystenarbeit an echten Tabellen leisten kann.

In den letzten zwei Jahren hat sich ein Großteil der öffentlichen Diskussion über KI auf eine Frage reduziert: Wie gut ist dieses Modell darin, Fragen zu beantworten?

Benchmarks. Bestenlisten. Reasoning-Scores. Halluzinationsraten.

Diese Frage wird langsam zur falschen – denn die interessantere Verschiebung ist nicht, wie gut Modelle *reden*, sondern ob sie an denselben Artefakten arbeiten können, die Teams bereits verwenden.

Also führten wir ein einfaches Experiment durch. Anstatt Rätsel, Knobelaufgaben oder synthetische Aufforderungen gaben wir einer KI etwas, das dem echten Leben näher kommt: Daten.

Der Aufbau: Analyst, nicht Chatbot

Die Idee war einfach: Behandle das System wie einen Analysten, nicht wie einen Chatbot.

Isometrische Illustration eines Eulen-Analysten an einem aufgeräumten Schreibtisch mit Laptop, Tablet, beschrifteten CSV- und Umfragepapieren und schwebenden holografischen Dashboards
Isometrische Illustration eines Eulen-Analysten an einem aufgeräumten Schreibtisch mit Laptop, Tablet, beschrifteten CSV- und Umfragepapieren und schwebenden holografischen Dashboards

Wir sammelten 20 Datensätze aus gewöhnlichen geschäftsähnlichen Situationen – wöchentliche Verkäufe, Kampagnenergebnisse, Churn-Tabellen, Umfrageexporte, Bestandsprotokolle, Produktmetriken. Keine spezielle Formatierung. Kein kuratiertes Benchmark-Paket. Nur die Art von unordentlichen Tabellen, die Leute täglich per E-Mail verschicken.

Dann baten wir um etwas Schwierigeres als eine Zusammenfassung:

„Sag uns, was hier zählt.“

Nicht „beschreibe die Spalten.“ Analysiere.

Das Ziel war zu sehen, ob KI über die konversationelle Unterstützung hinausgehen und sich wie jemand verhalten kann, der versucht, zu einer Schlussfolgerung zu gelangen.

Was wir erwarteten

Wir nahmen drei Ergebnisse an:

  1. Es würde Diagramme erstellen
  2. Es würde Trends beschreiben
  3. Es würde gelegentlich halluzinieren

Es tat alle drei. Aber das Ergebnis, das unsere Denkweise über die Kategorie veränderte, war anders.

Überraschung 1: Es begann nicht mit Visualisierung

Menschliche Analysten folgen oft einem vertrauten Pfad: Tabellenkalkulation öffnen, bereinigen, diagrammieren, dann interpretieren.

Das System spiegelte diese Reihenfolge nicht zuverlässig wider. Es begann damit, Unsicherheit aufzuzeigen – Fragen zur Saisonalität, Vergleichbarkeit über Regionen hinweg, Preisänderungen im Zeitfenster und andere kontextuelle Lücken, die bestimmen, ob ein Diagramm überhaupt ehrlich wäre.

Dieses Verhalten stimmt mit dem überein, was viele Teams heute Daten-Agenten nennen: Systeme, die mehr als einen Schritt des analytischen Workflows ausführen können, nicht nur eine einzelne Aufforderung beantworten.

Mit anderen Worten: Es zeichnete nicht nur. Es bildete Hypothesen.

Eulen-Analyst liest ein offenes Buch mit der Bezeichnung Datensatz, mit Sprechblasen, die nach Mustern, Regionen, Zeitpunkten, Trends und Erkenntnissen fragen
Eulen-Analyst liest ein offenes Buch mit der Bezeichnung Datensatz, mit Sprechblasen, die nach Mustern, Regionen, Zeitpunkten, Trends und Erkenntnissen fragen

Überraschung 2: Die Diagramme waren nicht der wertvollste Output

Wir erwarteten, dass Diagramme der wichtigste Nutzen sein würden. Das waren sie nicht.

Die Momente mit der größten Hebelwirkung traten auf, wenn das System erklärte, warum sich eine Zahl verändert hatte.

Beispiel aus einer Einzelhandelsdatei: ein Umsatzrückgang in einer Woche. Ein Mensch würde vielleicht bei „etwas ist gefallen“ stehen bleiben. Der Durchlauf verknüpfte den Rückgang mit fallender Conversion, einem Spike im mobilen Traffic und einem bestimmten Kampagnenstart – und lieferte dann eine kompakte Erklärung: Besucher mit geringer Absicht verwässerten die Conversion, nachdem die Kampagne breiteren Traffic angezogen hatte.

Das ist keine magische Vorhersage. Es ist schlussfolgern über Signale hinweg – und es stellte neu dar, worauf „KI-Analytik“ optimieren sollte.

Eulen-Analyst zeigt auf einen Umsatzrückgang in einem Geschäfts-Dashboard mit Pfeilen zu Conversion, mobilem Traffic und Kampagnenzeitplan
Eulen-Analyst zeigt auf einen Umsatzrückgang in einem Geschäfts-Dashboard mit Pfeilen zu Conversion, mobilem Traffic und Kampagnenzeitplan

Überraschung 3: Geschwindigkeit veränderte das Verhalten, nicht nur den Durchsatz

Klassische Analytik-Workflows haben Reibung: Anfrage, Warteschlange, Analyse, Meeting, Entscheidung.

Wenn Antworten in Sekunden statt in Tagen eintreffen, bewegen sich Menschen nicht nur schneller – sie stellen mehr Fragen. Kleinere, präzisere:

  1. „Was hat sich gestern geändert?“
  2. „Warum hat Region B Region A geschlagen?“
  3. „Was passiert, wenn Wochenenden ausgeschlossen werden?“

Der Engpass war selten das rohe Datenvolumen. Es waren die Kosten des Fragens. Sobald diese Kosten zusammenbrechen, steigen Neugier – und Iteration. Das verändert die Art und Weise, wie Teams insgesamt mit Daten umgehen.

Geteilte Illustration: links chaotisches manuelles Reporting unter Stress; rechts ruhiger KI-gestützter Arbeitsplatz mit einer holografischen Eule und einem klaren Insights-Dashboard
Geteilte Illustration: links chaotisches manuelles Reporting unter Stress; rechts ruhiger KI-gestützter Arbeitsplatz mit einer holografischen Eule und einem klaren Insights-Dashboard

Vom Assistenten zum Analysten

Chatbots helfen dir beim Schreiben. Suche hilft dir beim Finden. Analytische Systeme sollten dir bei der Entscheidung helfen.

Unternehmen experimentieren bereits mit autonomeren Systemen, die operative Daten und Workflows koordinieren. Was wir im kleineren Maßstab sahen, war die gleiche Richtungsverschiebung: KI bewegt sich vom Reagieren über das Interpretieren zum Lenken der Aufmerksamkeit.

Anstatt: „Hier ist das Diagramm, das Sie angefordert haben.“

Wird daraus: „Hier ist, was Überprüfung verdient – und warum.“

Die wirkliche Implikation

Jahrelang verließ sich die BI-Kultur stark auf Dashboards. Dashboards gehen davon aus, dass Benutzer bereits wissen, wonach sie suchen müssen, welche Ansicht wichtig ist und wie sie eine Änderung lesen.

Die meisten Teams scheitern nicht, weil sie nicht auf Daten zugreifen können. Sie scheitern, weil Verständnis teuer ist.

Das Problem der Branche war nie die Visualisierung allein. Es war Kognition unter Zeitdruck.

Was das für die Arbeit bedeutet

Die verbreitete Angst ist der Ersatz. Das Experiment deutete auf etwas Engeres hin.

Die KI hat die Rolle des Analysten nicht ausgelöscht. Sie ersetzte Warten, wiederholte Diagrammerstellung und den ersten Durchlauf mechanischen Vergleichs.

Was auf der menschlichen Seite blieb:

  1. Urteilsvermögen
  2. Entscheidungsfindung
  3. Kommunikation
  4. Kontext, den nur ein Stakeholder liefern kann

Der Job verschwand nicht. Er bewegte sich nach oben.

Eine andere Kategorie von Werkzeug

Wir stehen am Anfang einer Verschiebung hin zu dem, was man Denk-Infrastruktur nennen könnte – Software, die Muster aufdeckt, Anomalien erklärt, Aufmerksamkeit lenkt und den Weg von Daten zu Aktion verkürzt.

Die nächste Generation der Analytik wird nicht durch das hübscheste Standarddiagramm definiert.

Sondern dadurch, wie schnell ein Team sich bewegen kann:

Daten → Verständnis → Aktion

Menschlicher Analyst und KI-Eulen-Assistent zeigen beide auf denselben Bereich eines gemeinsamen holografischen Dashboards mit Diagrammen
Menschlicher Analyst und KI-Eulen-Assistent zeigen beide auf denselben Bereich eines gemeinsamen holografischen Dashboards mit Diagrammen

Abschluss

Lange Zeit bewerteten wir KI danach, ob sie wie ein Mensch antworten konnte.

Nach solchen Durchläufen ist ein besserer Test einfacher:

Hilft es Menschen, schneller zu verstehen – und mit genügend Nachvollziehbarkeit, um dem nächsten Schritt zu vertrauen?

Denn die dauerhafte Revolution sind nicht Maschinen, die klug klingen.

Sondern Maschinen, die Menschen entscheidungsfreudiger machen.

Dieser Wandel ist bereits im Gange – leise, in den Tabellenkalkulationen und Exporten, die Teams bereits haben.

KI-DatenanalyseDatensätzeBusiness IntelligenceDatenvisualisierungAnalytikDaten-AgentenchartgenEntscheidungsfindung

Bereit, bessere Diagramme zu erstellen?

Setzen Sie diese Erkenntnisse in die Praxis um. Erstellen Sie professionelle Visualisierungen in Sekunden mit ChartGen.

ChartGen kostenlos testen