Datenverwaltung
Datenverwaltung deckt ein breites Spektrum von Themen ab. Die Informationen zur Datenverwaltung helfen Firmen herauszufinden, wie man am besten Unternehmensdaten für operative oder analytische Zwecke einsetzt. Finden Sie heraus, wie Sie Datenmanagementplattformen bewerten können, und lesen Sie Fallstudien mit Best Practices, Tipps und Techniken. Lernen Sie außerdem die Vor- und Nachteile der einzelnen Datenmanagementmethoden kennen.
-
Feature
10 Dez 2024
Sync Computing optimiert Databricks-Cluster mit KI
Sync Computing hat sich auf die automatisierte Optimierung von Databricks-Clustern spezialisiert. Die Gradient Platform soll dabei Kosten senken und die Effizienz steigern. Weiterlesen
-
Tipp
05 Dez 2024
Amazon ElastiCache einrichten und optimal bereitstellen
Amazon ElastiCache ist ein verteilter In-Memory-Datenspeicher. Der Service bietet zwei Optionen: man kann mit einem Serverless-Cache beginnen oder einen Cache-Cluster entwerfen. Weiterlesen
-
Feature
14 Nov 2019
Promethium navigiert Analysten durch das Big-Data-Dickicht
Das noch junge Unternehmen Promethium möchte mit seiner Anwendung Daten einen Sinn verleihen und die Datenverarbeitung und -analyse beschleunigen. Weiterlesen
-
Definition
10 Nov 2019
Enterprise Application Integration (EAI)
Enterprise Application Integration (EAI) ist die Aufgabe der Zusammenführung von Datenbanken und Workflows, die mit Geschäftsanwendungen verbunden sind. Weiterlesen
-
Meinungen
08 Nov 2019
Datenvirtualisierung mit DataOps: Was steckt dahinter?
Die mittlerweile anfallenden Datenmassen können Firmen nur sinnvoll verarbeiten, wenn sie diese virtualisieren. DataOps bietet einen passenden Ansatz. Weiterlesen
von- Sanjeev Sharma, Delphix
-
Meinungen
30 Okt 2019
Machine-Learning-Modelle mit Feature Engineering entwickeln
Machine-Learning-Algorithmen müssen im Vergleich zu konventionellen Algorithmen Regeln selbst erlernen und umsetzen. Zuvor müssen die verwendeten Daten aber formatiert werden. Weiterlesen
von- Harry Underwood, OpenText
-
Meinungen
23 Okt 2019
Ist das Ende des Allround Data Scientists gekommen?
Jonathan Wilkins, Marketing Director bei EU Automation, beschreibt in diesem Artikel die veränderte Rolle des Data Scientists und wie diese heute arbeiten. Weiterlesen
von- Jonathan Wilkins, EU Automation
-
Feature
17 Okt 2019
Software für Robotic Process Automation (RPA) im Aufwind
Die Aussicht auf Kosteneinsparungen hat viele Unternehmen ermutigt, RPA-Software auszuprobieren. Fallbeispiele und wichtige RPA-Anbieter im Überblick. Weiterlesen
-
Meinungen
16 Okt 2019
KI und Ethik: Wie agieren virtuelle Assistenten objektiv?
Mit der zunehmenden Implementierung von künstlicher Intelligenz (KI) wird auch über ethische Fragen diskutiert. Können KI-Systeme unvoreingenommen handeln? Weiterlesen
von- Johan Toll, IPsoft
-
Feature
15 Okt 2019
Data Science Storytelling ist kritische Analytics-Fähigkeit
Data Science Storytelling entwickelt sich zu einer entscheidenden Fähigkeit bei der Datenanalyse. Ohne Storytelling neigen Datenanalysen zu verzerrten Ergebnissen. Weiterlesen
von- Anthony Scriffignano, Dun & Bradstreet
-
Feature
11 Okt 2019
Robotic Process Automation: Was lässt sich automatisieren?
Robotic Process Automation (RPA) boomt, doch der Hype kühlt ab. Eine kritische Bestandsaufnahme, wie weit die Technologie ist und wo sie zum Einsatz kommt. Weiterlesen
-
Tipp
30 Sep 2019
Wie man das passende Tool für die Datenintegration findet
Um aus dem kommerziellen und Open-Source-Angebot die richtige Datenintegrationsplattform auszuwählen, empfiehlt sich im Vorfeld ein Vergleich der Anwendungen Weiterlesen
-
Meinungen
25 Sep 2019
Auf welche Data-Lake-Technologien Unternehmen setzen sollten
Data Lakes auf Basis von Apache Hadoop sind bisher kein Erfolgsmodell geworden. Doch was sind die Gründe für das Scheitern? Und was kommt nach Hadoop? Weiterlesen
von- Martin Willcox, Teradata
-
Ratgeber
16 Sep 2019
Die Funktionen von Tools für die Datenintegration bewerten
Bei der Evaluierung von Datenintegrationssoftware sollte man prüfen, welche Funktionen das Unternehmen benötigt und welche Features nicht notwendig sind. Weiterlesen
-
Definition
25 Aug 2019
Konfigurationsmanagement
Konfigurationsmanagement ist ein Governance- und Entwicklungsprozess zur Sicherstellung der Konsistenz zwischen physischen und logischen Assets in einer Betriebsumgebung. Weiterlesen
-
Meinungen
16 Aug 2019
IT-Asset-Management setzt hohe Datenqualität voraus
Unzuverlässig und inkonsistent – so lassen sich Firmendaten beschreiben. Die Daten müssen daher für IT-Projekte, die eine hohe Datenqualität voraussetzen, aufbereitet werden. Weiterlesen
von- Thomas Reiber, Flexera
-
Meinungen
07 Aug 2019
Wie DataOps Datenschutz und Datenmanagement vereint
Eine unmittelbare Datenbereitstellung ist für Firmen notwendig, um in der digitalen Wirtschaft Schritt zu halten. Unternehmen müssen hierbei umdenken. Weiterlesen
von- Sanjeev Sharma, Delphix
-
Meinungen
31 Jul 2019
Warum KI nicht ohne Datenkompetenz funktioniert
Datenkompetenz entsteht nur, wenn alle Mitarbeiter in der Lage sind, mit Daten umzugehen. Wie Führungskräfte Datenkompetenz in Unternehmen etablieren. Weiterlesen
von- Christian Werling, ThoughtSpot
-
Feature
30 Jul 2019
Digitale Transformation: Wir brauchen mehr Flexibilität
Neue Geschäftsprozesse und die digitale Transformation werden die Arbeit in Unternehmen verändern. Celonis Co-CEO Alex Rinke erläutert im Interview die Auswirkungen. Weiterlesen
-
Tipp
18 Jul 2019
Welche Rolle Blockchain bei Data Governance einnehmen kann
Während die Blockchain als Grundlage für verschiedene Kryptowährungen ihren Anfang nahm, kann sie nun auch im Content Management von Vorteil sein. Weiterlesen
-
Meinungen
16 Jul 2019
Daten in der Cloud: Die Datengravitation überwinden
Der erste Schritt in die Cloud ist leicht. Doch je mehr Daten sich in einer Infrastruktur befinden, desto schwerer ist die Migration in eine andere Umgebung. Weiterlesen
von- Mathias Wenig, Veritas Technologies
-
Meinungen
11 Jul 2019
Datenintegration: Fünf Lösungen, die alle Hürden überwinden
Der Weg zur funktionierenden Datenintegration ist steinig: Datensilos und geringe Datenqualität sind nur einige der Hürden. Fünf Lösungen für fünf Hürden. Weiterlesen
von- Stefan Müller, it-novum GmbH
-
Ratgeber
09 Jul 2019
Plattformen für die Datenintegration erweitern ETL-Software
Datenintegrationssoftware wandelt Rohdaten in aussagekräftige Informationen um. Die Plattformen verwalten und vereinfachen die Datenverarbeitung. Weiterlesen
-
Meinungen
04 Jul 2019
Datenintegration im Supply Chain Management (SCM) optimieren
Standardisierte und automatisierte Software für Datenintegration ermöglicht den Beteiligten im Supply Chain Management mehr Transparenz bei ihrer Arbeit. Weiterlesen
-
Feature
27 Jun 2019
Moderne ETL-Tools für die Microservices-Datenintegration
Zwar bieten nicht alle ETL-Tools die für Microservices nötigen Datenintegrationsoptionen, doch moderne Anwendungen decken eine Vielzahl von Datenquellen ab. Weiterlesen
-
Meinungen
21 Jun 2019
Schritt für Schritt zu automatisierter Datenintegration
Standardsoftware für Business Integration ermöglich es, dass Fachabteilungen selbst einen Großteil der Geschäftsprozesse steuern können. Das entlastet auch die IT-Abteilung. Weiterlesen
-
Meinungen
18 Jun 2019
Big Data: Fundament für fortschrittliches Machine Learning
KI-Systemen benötigen Big Data, um zu lernen. Entscheidungen lassen sich damit sicherer treffen, da die Datenbasis größer ist und das System aus Analysen lernt. Weiterlesen
von- Daniel Metzger, Cloudera
-
Feature
17 Jun 2019
Open-Source-Suchmaschinen dringen in die Enterprise-Welt vor
Der Suchmaschinenmarkt entwickelt sich weiter und bietet mit Open Source und KI-Tools neue Optionen. Unternehmen sollten die Vorteile der Tools auskosten. Weiterlesen
von- Bill Trippe
-
Tipp
13 Jun 2019
Wie Entwickler Verzerrungen in KI-Algorithmen bekämpfen
Da KI alle Arten von Software durchdringt, sollten Tester einen Plan zur Überprüfung der Ergebnisse entwickeln. Entwickler sollten aber zuerst das Bias beseitigen. Weiterlesen
-
Feature
07 Jun 2019
Mit einer Smart Factory Roadmap zu Industrie 4.0
Die Entwicklung einer Smart Factory muss nicht von Grund auf neu beginnen. Unternehmen können auch mit vorhandenem Inventar eine intelligente Produktion aufbauen. Weiterlesen
-
Meinungen
27 Mai 2019
In-Memory Computing unterstützt bei digitaler Transformation
Die digitale Transformation eröffnet für viele Firmen neue Geschäftsmodelle. Eine Technologie, die diese dabei unterstützen kann, ist In-Memory Computing. Weiterlesen
von- Abe Kleinfeld, GridGain Systems
-
Meinungen
23 Mai 2019
Zehn Punkte für eine automatisierte Datenintegration
Unternehmen, die digitale Projekte vorantreiben, müssen zuerst an die Datenintegration denken. Diese zehn Punkte helfen bei der Auswahl der passenden Software. Weiterlesen
-
Definition
18 Mai 2019
Slice and Dice
Mit slice and dice wird in der IT das Zerlegen eines Informationsbestands in kleinere Teile verstanden. Es bedeutet aber auch, sie aus verschiedenen Blickwinkeln zu betrachten. Weiterlesen
-
Feature
09 Mai 2019
IT-Management- und Planungssoftware aus dem Silicon Valley
Die dreiteilige Artikelserie widmet sich erfolgreichen Unternehmen aus dem Silicon Valley. Im dritten Teil geht es um IT-Management- und Planungssoftware. Weiterlesen
-
Feature
06 Mai 2019
Trifacta Preparation Tools verbinden mehrere Datenquellen
Unterschiedliche Datenquellen sind im Gesundheitswesen weit verbreitet. Ein Start-up das Data Preparation Tool von Trifacta und entlastet damit Data Scientists. Weiterlesen
-
News
03 Mai 2019
Kostenloses E-Handbook: In-Memory-Technologien im Vergleich
Im kostenlosen E-Handbook stellt unser Autor die Features der aktuellen In-Memory-Lösungen von SAP, Teradata, Software AG, Oracle und GridGain vor. Weiterlesen
-
Meinungen
30 Apr 2019
Mit standardisierter Datenintegration zu besserer Vernetzung
Für produzierende Firmen ergeben sich mit 5G unendliche Möglichkeiten. Hierfür muss aber ein 5G-Sendemast in Reichweite und die Datenintegration gewährleistet sein. Weiterlesen
-
Feature
25 Apr 2019
Software für das Datenmanagement aus dem Silicon Valley
Das Silicon Valley gilt als Hotspot für Gründungen. Die dreiteilige Artikelserie widmet sich ausgewählten Firmen. Im zweiten Teil geht es um Datenmanagement-Technologien. Weiterlesen
-
Feature
18 Apr 2019
Neue In-Memory-Technologien aus dem Silicon Valley
Das Silicon Valley gilt als Mekka für Firmengründungen. Die dreiteilige Artikelserie widmet sich einigen dieser Unternehmen. Im ersten Teil geht es um In-Memory-Technologien. Weiterlesen
-
Meinungen
15 Apr 2019
Migration zu SAP S/4HANA: Die Datenqualität muss stimmen
Egal ob Greenfield- oder Brownfield-Projekt, bei der Migration zu S/4HANA spielt Datenqualität eine zentrale Rolle. Die wichtigsten Schritte des Datenmanagements. Weiterlesen
von- Frank Schuler, BackOffice Associates
-
Tipp
18 Mär 2019
Fünf Best Practices für die Verwaltung von Echtzeitdaten
Echtzeit-Datenintegration und traditionelle Datenintegration unterscheiden sich. Doch was muss man beachten? Best Practices für Echtzeit-Datenintegration. Weiterlesen
-
Feature
23 Aug 2018
Mit der MapR Data Platform ist die Datenmenge kein Problem
MapR hat sich mit seiner Converged Data Platform dem Big Data Management verschrieben. Im Interview erläutert Ted Dunning, was sein Unternehmen aktuell vorantreibt. Weiterlesen
-
News
11 Jul 2018
Kostenloser E-Guide: Big Data Management mit Apache Hadoop
Der E-Guide soll Unternehmen beim Einsatz von Apache Hadoop unterstützen. Darin werden Anwendungsszenarien und Problemlösungen für Hadoop vorgestellt. Weiterlesen
-
Definition
24 Jun 2018
Apache Flink
Apache Flink ist eine verteilte Data-Processing-Plattform für den Einsatz in Big-Data-Umgebungen, insbesondere die Analyse von in Hadoop-Clustern gespeicherten Daten. Weiterlesen
-
Definition
05 Jun 2018
Apache Hadoop YARN (Yet Another Resource Negotiator)
Apache Hadoop YARN (Yet Another Resource Negotiator) ist eine Cluster-Management-Technologie, die mit der zweiten Version von Hadoop eingeführt wurde. Weiterlesen
von- Craig Stedman, Senior Executive Editor
- Jack Vaughan, News and Site Editor
-
Feature
03 Apr 2018
Diese Start-ups zeigen Datenverarbeitung der Zukunft
Das Silicon Valley bringt erfolgreiche und weniger erfolgreiche Start-ups hervor. Fünf Daten-Management-Unternehmen, die den erfolgreichen Weg gehen möchten. Weiterlesen
-
Definition
29 Jan 2017
Maschinendaten
Maschinendaten sind digitale Informationen, die durch Computer, Mobilgeräte, eingebettete Systeme und andere vernetzte Geräte generiert werden. Weiterlesen
-
Definition
11 Dez 2016
Dimension
Dimensionen kategorisieren und beschreiben Data-Warehouse-Fakten und -Messwerte, so dass sie aussagekräftige Antworten auf Geschäftsfragen liefern. Weiterlesen
-
Definition
06 Nov 2016
Data Sampling (Datenauswahl)
Data Sampling ist ein statistisches Analyseverfahren, mit dem eine repräsentative Teilmenge von Daten ausgewählt, aufbereitet und analysiert wird. Weiterlesen
-
Tipp
18 Mai 2016
Big-Data-Management mit der Hadoop-Distribution von Hortonworks
Die Hortonworks Data Platform (HDP) besteht aus Anwendungen der Apache Software Foundation und bietet Funktionen für Datenerfassung und -analyse. Weiterlesen
-
Definition
26 Mär 2016
Amazon Redshift
Amazon Redshift ist ein vollständig verwalteter Data-Warehouse-Service. Amazon Redshift ist vor allem für analytische Workloads in der Cloud gedacht. Weiterlesen
-
Definition
20 Nov 2015
Amazon Elastic MapReduce (Amazon EMR)
Amazon Elastic MapReduce (EMR) ist ein Amazon Web Service (AWS) für Datenverarbeitung und Analyse. Amazon EMR basiert auf dem Hadoop-Framework. Weiterlesen
-
Definition
31 Okt 2015
Hadoop Data Lake
Ein Hadoop Data Lake ist eine Daten-Management-Plattform, die eine oder mehrere Hadoop-Cluster umfasst und für nicht-relationale Daten genutzt wird. Weiterlesen
-
Definition
30 Okt 2015
Apache HBase
Apache HBase ist eine Key-Value-Datenbank, die entwickelt wurde, um oberhalb des Hadoop Distributed File Systems (HDFS) als Teil von Hadoop zu laufen. Weiterlesen
-
Definition
03 Okt 2015
Data-Federation-Software
Die Data-Federation-Software ermöglicht es einem Unternehmen, Daten in einer virtuellen Datenbank zu sammeln und für Analysen zu verwenden. Weiterlesen
-
Definition
05 Sep 2015
Hadoop-Cluster
Ein Hadoop-Cluster ist ein Computer-Cluster, der für die Speicherung und Analyse von großen Mengen unstrukturierter Daten entwickelt wurde. Weiterlesen
-
Definition
04 Jul 2015
Dimensionstabelle
Eine Dimensionstabelle beschreibt über Attribute zentrale Kennwerte eines Data Warehouses. So lassen sich Antworten zu Geschäftsfragen finden. Weiterlesen
-
Antworten
16 Jun 2015
Anwendung eines Datenbank-Management-Systems und Data Warehouses im Vergleich
Datenbank-Management-Systeme (DBMS) und Data Warehouses unterscheiden sich im Hinblick auf Anwendung und Aufbau. Ein Vergleich beider Systeme. Weiterlesen
-
Definition
12 Jun 2015
Extract, Transform, Load (ETL)
Extract, Transform, Load (ETL) ist ein Prozess, bei dem Rohdaten aufbereitet und in eine Datenbank oder ein Data Warehouse geladen werden. Weiterlesen
-
Definition
15 Mai 2015
Echtzeitanalyse (Real-Time Analytics)
Echtzeitanalyse bedeutet, dass sämtliche verfügbaren Daten zu dem Zeitpunkt für Auswertungen genutzt werden können, zu dem sie benötigt werden. Weiterlesen
-
Definition
24 Jan 2015
Sternschema
Das Sternschema ist ein logisches Datenbankschema für Data-Warehouse-Anwendungen. Es besteht aus einer Faktentabelle und mehreren Dimensionstabellen. Weiterlesen
-
Definition
09 Feb 2014
SAP NetWeaver Business Intelligence
SAP Business Information Warehouse oder SAP NetWeaver Business Intelligence (SAP BI), ist ein BI-Paket, das für SAP-ERP-Anwendungen optimiert wurde. Weiterlesen
-
Definition
01 Jul 2006
Data Warehouse (Information Warehouse)
Ein Data Warehouse speichert die von verschiedenen Geschäftssystemen erfassten Daten, um sie in einer Datenbank zur weiteren Analyse bereitzustellen. Weiterlesen