Bacho Foto - stock.adobe.com
Bewertung und Auswahl von Software zur Datenvisualisierung
Das Reporting von Datenanalysen erfordert klare und informative Darstellungen. Doch wie lässt sich hierfür die passende Software auswählen und was ist dabei zu beachten?
Um Entscheidungsträgern die Ergebnisse von Datenanalysen mit effizienten und visuellen Erzähltechniken zu vermitteln, müssen Business-Analysten das beste Tool zur Datenvisualisierung auswählen.
Datenvisualisierungsanwendungen gibt es eine Menge. Zu den gängigsten gehören Tableau, Power BI, Excel, Qlik, IBM Cognos und Sisense. Jedes dieser Tools kann nützlich sein – insbesondere, wenn ein Unternehmen seine Daten- und Analyseverfahren weiterentwickeln will, um seine Geschäftsanforderungen besser zu unterstützen.
Viele Analysten nutzen mehrere dieser Werkzeuge parallel: „Es gibt in einem Unternehmen nicht nur einen einzigen Anwendungsfall für Tools zur Datenvisualisierung. Tatsächlich haben die meisten Unternehmen mehr als eine Software, je nach dem Ziel für jeden Anwendungsfall“, sagt Kathy Rudy, Chief Data and Analytics Officer bei ISG, einem Technologieforschungs- und Beratungsunternehmen.
Mit Visualisierung Datengeschichten erzählen
Bei der Bewertung von Datenvisualisierungsanwendungen sollte immer das entscheidende Ziel im Auge behalten werden: den Entscheidungsträgern einen klaren Einblick in die Daten zu vermitteln.
„Der springende Punkt ist, dass Klarheit sowie die Farben und die Auswahl von Diagrammen zusammen mit der Kunst des Grafikdesigns dabei helfen, komplexe Informationen genauer und effektiver zu kommunizieren“, sagt Terri Sage, CTO bei 1010data, einem Anbieter von Analytical Intelligence für den Finanz- und Einzelhandelsmarkt.
Die Transformation von Datensätzen in Visualisierungen erfolgt mit Streu-, Kuchen- und Balkendiagrammen, mit Heatmaps und unter Verwendung verschiedener Farben. Dieser Umwandlungsprozess sollte immer das Ziel haben, die Datenergebnisse möglichst gut zu vermitteln.
Die Teams müssen deshalb ihre Präsentation so gestalten, dass sie die Prinzipien der menschlichen Wahrnehmung und Kognition berücksichtigen und lernen, wie man mit den Visualisierungen Datengeschichten erzählen kann.
Bei der Entwicklung von Datenvisualisierungen sollte möglichst der Input eines User-Experience- oder User-Interface-Designers sowie des Endbenutzers eingeholt werden. Auch wenn Analysten vielleicht nicht so gut mit Farben und Schriftarten umgehen können oder nicht den optimalen Grafiktyp für die Darstellung der Botschaft auswählen: Sie wissen in der Regel, welche Informationen vermittelt werden müssen.
„Den meisten Analysten ist bewusst, welche Geschichte sie mit den Daten erzählen möchten, welche KPIs wichtig sind und was gut aussieht – auch wenn sie es nicht selbst gestalten können“, sagt Rudy.
Beginnen Sie mit dem Kontext
Es kann hilfreich sein, verschiedene Anwendungen zu bewerten, indem man mit dem Kontext beginnt, in dem sie am besten funktionieren.
Microsoft Excel ist der Standard für schnelle Analysen und Diagramme, die zeitnah einen Nutzen bringen. Es hilft bei der Erstellung von Diagrammen, die statisch sind und vorhersehbare Ergebnisse haben. Rudys Team hat Diagrammgalerien erstellt, um Dateneingaben abzurufen, die in der Regel jedes Mal anders sind. In Excel können die Benutzer auch das Aussehen und die Darstellung von Schriftarten, Achsendefinitionen, Skalen und Farben ändern.
Tableau und Power BI eignen sich gut für die Erstellung von Dashboards auf der Grundlage von Benutzeranforderungen, die vollständig definiert sind und die aus Datenquellen wie CRM- und ERP-Software stammen. Diese Visualisierungsanwendungen können umfangreiche Informationen in vorformatierten Grafiken mit Drilldown und Drillup für die Navigation in Hierarchien liefern, um weitere Details zu erhalten. Sie bieten auch die Möglichkeit, Daten nach voreingestellten Kriterien wie Branche, Region, Kundentyp und Produkt zu filtern. Auf diese Weise erhält man statt tabellarischer Berichte visuelle Einblicke in die verknüpfte Datenquelle.
Eine Anwendung wie Sisense bietet erweiterte Funktionen für das Erstellen von Analysen und Diagrammen auf der Grundlage mehrerer Datensätze. Durch die Kombination von Datensätzen entstehen neue Möglichkeiten der Datenanalyse und der Gewinnung von Erkenntnissen.
Es lohnt sich auch, das Konzept von benutzerdefinierten Datenvisualisierungsanwendungen zu evaluieren – besonders dann, wenn eine umfangreiche Datenvorbereitung erforderlich ist. Wenn die Daten zum Beispiel detaillierte Berechnungen erfordern, um sie zu kuratieren und Erkenntnisse zu liefern, ist es möglicherweise am besten, Tools dafür auf dem benutzerdefinierten Weg zu erstellen. In diesem Fall würden Teams die Vorteile verschiedener Datenvisualisierungsanwendungen wie Python oder R Tools for Visual Studio nutzen, um ihren eigenen Datenanalyse-Workflow zu erstellen.
Dieser auf Programmierung basierende Ansatz erfordert mehr Ressourcen im Entwicklungsteam, kann Unternehmen aber auch dabei unterstützen, Visualisierungen für weniger gängige Szenarien zu implementieren, die von bestehenden Tools möglicherweise nicht abgedeckt werden.
Größe der zu visualisierenden Daten
„Bei der Bewertung von Tools zur Datenvisualisierung ist es hilfreich, mit einer ganzheitlichen Betrachtung der Anforderungen an die Visualisierung zu beginnen“, sagt Priya Iragavarapu, Vice President des Center of Data Excellence der globalen Unternehmensberatung AArete. „Die Größe der Daten und die Datenquelle, die visualisiert werden soll, ist eine äußerst wichtige Überlegung bei der Auswahl eines Tools. Auch die Frage, ob verschiedene Anwendungen für eine effektive Wirksamkeit miteinander kombiniert werden müssen, spielt eine Rolle.“
Wenn sich die Daten beispielsweise auf Cold Storage wie Amazon S3 befinden, kann die Leistung darunter leiden, selbst wenn Tableau diesen Connector bereitstellt.
„Tableau ist ein großartiges Visualisierungs-Tool, aber wenn man Tableau die Last der Abfrage aufbürdet, werden die Leistung und die Latenzzeiten beeinträchtigt“, sagt Iragavarapu.
In einem solchen Fall ist laut Iragavarapu Qlik das bessere Tool. Dieses verfügt über eine eingebaute Query Engine, um eine Abfrage auf einem großen Datensatz oder Cold Storage effizient auszuführen. Tableau ist zweifellos ein gutes Tool, aber die Teams müssen sich der Stärken und Schwächen der Tools bewusst sein, um die besten Ergebnisse zu erzielen.
Kriterien für die Bewertung von Datenvisualisierungssoftware
Zu den wichtigsten Überlegungen bei der Auswahl einer Software gehören:
- Benutzerfreundlichkeit und die Fähigkeit, Daten ansprechend zu visualisieren
- Art und Qualität der Visualisierungsausgabe
- Verfügbarkeit des Tools zur Ausführung auf Laptop, Tablet oder Server
- Kostenerwägungen für das Visualisierungs-Tool und gegebenenfalls Schulung
- Optionen für den Datenimport
- Art und Weise der Tool-Installation und die Frage, welche Systemanforderungen für die Installation bestehen
- Interaktivität der Visualisierungen
- Sicherheit des Tools in Bezug darauf, wie auf die Daten zugegriffen wird
Quelle: Terri Sage, CTO bei 1010data
Eine weitere wichtige Überlegung ist der Technologie-Stack des Unternehmens. Wenn ein Unternehmen stark in die Azure Cloud oder in das IBM-Ökosystem eingebunden ist, sollten die Teams mit Power BI beziehungsweise IBM Cognos beginnen, um die Arbeitsabläufe zu vereinfachen. Verfügt das Unternehmen hingegen nicht über eine solche einheitliche Strategie, kann es die Tools beliebig kombinieren.
Datenvorverarbeitung vor der Visualisierung
Die Teams müssen auch den Umfang der Vorverarbeitung berücksichtigen, die erforderlich ist, bevor die Daten visualisiert werden können. Idealerweise sollten Visualisierungsabfragen direkt Daten abfragen und in der Lage sein, Daten innerhalb des Tools zu filtern, zu sortieren und zu aggregieren. „Dies ist jedoch nicht immer praktikabel, wenn eine komplizierte Vorverarbeitung erforderlich ist“, sagt Iragavarapu.
Jedes Visualisierungs-Tool enthält entsprechende Werkzeuge für die Vorverarbeitung. Tableau beispielsweise verwendet Tableau Prep, damit die Benutzer ihre Daten für eine Visualisierung vorbereiten können.
Es ist auch wichtig zu bedenken, ob die Daten aufbereitet werden müssen, bevor die Benutzer überhaupt mit den Daten interagieren, und inwieweit die Benutzer sie für die Visualisierung vorbereiten müssen. Diese beiden Faktoren beeinflussen die Leistung der Visualisierung und die Geschwindigkeit, mit der die Daten für die Visualisierung zur Verfügung stehen.