ComputerWeekly.de-Definitionen
-
D
Datenadministration (Data Stewardship)
Datenadministration kümmert sich um die Datenqualität, ihre Bereitstellung und ihre Übereinstimmung mit den Vorgaben des Unternehmens.
-
Datenarchitekt (Data Architect)
Ein Datenarchitekt (Data Architect) ist als IT- und Datenspezialist für Design und Aufbau einer Datenarchitektur innerhalb eines Unternehmens verantwortlich.
-
Datenarchitektur
Eine Datenarchitektur dokumentiert die Daten einer Organisation, bildet Datenflüsse durch die IT-Systeme ab und enthält einen Plan für das passende Datenmanagement.
-
Datenarchivierung (Archivierung)
Bei der Datenarchivierung werden digitale Informationen langfristig auf günstigem Storage vorgehalten. Die Daten sind in meist inaktiv oder werden nur noch äußerst selten genutzt.
-
Datenaufbereitung (Data Preparation)
Bevor Anwender Daten analysieren können, müssen diese gesammelt, zusammengeführt, strukturiert und organisiert werden. Diese Prozess wird Datenaufbereitung genannt.
-
Datenbank
In Datenbanken werden in der Regel Zusammenstellungen von Datensätzen oder Dateien gespeichert, die Informationen aus verschiedenen Bereichen enthalten.
-
Datenbankadministrator (DBA)
Ein Datenbankadministrator (DBA) sorgt dafür, dass die Datenbanken eines Unternehmens und die zugehörigen Anwendungen funktionell und effizient arbeiten.
-
Datenbankmanagementsystem (DBMS)
Ein Datenbankmanagementsystem (DBMS) ermöglicht es Endanwender, Daten in einer Datenbank zu erstellen, zu schützen, zu lesen, zu aktualisieren und zu löschen.
-
Datenbankreplikation
Bei der Datenbankreplikation werden Kopien von Datenbankdaten angelegt, entweder für ein mögliches Restore oder um verteilte Datenbanken auf dem gleichen aktuellen Stand zu halten.
-
Datenbereinigung
Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren und die Daten entsprechend zu ändern, aktualisieren oder entfernen.
-
Datenbindung
Bei Datenbindung werden zwei Datenquellen gekoppelt und synchronisiert. Eine Änderung in einem Datensatz wird automatisch im gebundenen Datensatz aktualisiert.
-
Datendeduplizierung
Datendeduplizierung ist eine Methode, um Datenkapazitäten zu verringern und damit Speicherkapazitäten einzusparen, was wiederum Storage-Systeme länger und besser nutzbar macht.
-
Datendeduplizierungsverhältnis
Beim Datendeduplizierungsverhältnis gibt es eine Diskrepanz zwischen Herstellerangaben und Realität. Zahlreiche Faktoren bestimmen das Verhältnis.
-
Datendiebstahl (Data Breach)
Wenn sensible Daten eingesehen oder geklaut werden, spricht man von einem Datendiebstahl oder -missbrauch.
-
Datendurchsatz (Durchsatz)
Der Datendurchsatz ist eine Maßeinheit für die Geschwindigkeit des Datentransfers oder der Datenverarbeitung. Sie unterschiedet sich deutlich von Bandbreite und Latenzzeit.
-
Datenerfassung (Data Collection)
Die Datenerfassung beschreibt, wie Unternehmen wichtige Daten sinnvoll sammeln, um diese dann zu analysieren und für Entscheidungsprozesse zu nutzen, um die Firma voranzutreiben.
-
Datenerhebung (Datenerfassung)
Datenerhebung ist der systematische Ansatz zum Sammeln und Messen von Daten aus verschiedenen Quellen, um ein vollständiges und genaues Bild eines Bereichs zu erhalten.
-
Datenexfiltration
Die Datenexfiltration bezeichnet einen nicht genehmigten Abfluss von Daten, die auf einem Computer liegen. Das kann durch physischen Zugang zum Rechner oder per Software erfolgen.
-
Datenexploration
Datenexploration ist der erste Schritt der Datenanalyse, der den Einsatz von Anwendungen zur Datenvisualisierung und statistische Techniken umfasst.
-
Datenfeed
Ein Datenfeed ist ein fortlaufender Datenstrom, der den Benutzern aktuelle Informationen aus einer oder mehreren Quellen, zum Beispiel von einer Website, liefert.
-
Datenflussdiagramm (DFD)
Ein Datenflussdiagramm ist eine grafische Darstellung, die einen standardisierten Satz von Symbolen und Methoden verwendet, um die Abläufe einer Organisation zu beschreiben.
-
Datenhaltung (Data Retention)
Datenhaltung oder Data Retention beschreibt den Zeitraum, über den digitale Informationen verfügbar vorgehalten respektive gespeichert werden müssen.
-
Datenhygiene
Unter Datenhygiene fallen alle Funktionen, die die relative Fehlerfreiheit von Daten gewährleisten. Eine hohe Datenqualität ist für Firmen elementar.
-
Dateningenieur (Data Engineer)
Die Hauptaufgabe eines Dateningenieurs ist, Daten für analytische oder betriebliche Zwecke vor- und aufzubereiten. Dateningenieure arbeiten oft als Teil eines Analyseteams.
-
Datenintegrität
Datenintegrität ist die Gewissheit, dass die Informationen unversehrt sind und nur von denjenigen, die dazu berechtigt sind, aufgerufen oder verändert werden können.
-
Datenkatalog (Data Catalog)
Ein Datenkatalog ist eine Auflistung und Vorbereitung der Datenbestände einer Firma zu Analysezwecken. Das Tool wird in der Regel als Software von zahlreichen Herstellern angeboten.
-
Datenklassifizierung
Die Datenklassifizierung ist eine Art des Datenmanagements, bei der Daten nach vordefinierten Kategorien eingeteilt und gespeichert werden. Das erleichtert Verwaltung und Auffinden.
-
Datenkompetenz
Datenkompetenz ist die Fähigkeit, aus Daten aussagekräftige Informationen abzuleiten. Datenkompetenz erfordert ein gewisses Maß an mathematischen und statistischen Kenntnissen.
-
Datenmanagement
Datenmanagement umfasst den gesamten Prozess der Erfassung, Speicherung, Organisation und Pflege von Daten, die eine Organisation erstellt und gesammelt hat.
-
Datenmigration (Data Migration)
Datenmigration beschreibt den Prozess des Verschiebens digitaler Informationen von einem Speicherort an einen anderen. Das können Hardware-Systeme, VMs oder Cloud-Services sein.
-
Datenmodellierung
Datenmodellierung ist die schematische Darstellung von Datenflüssen in einem Diagramm. Datenmodelle dienen als Vorlage für den Entwurf einer neuen Datenbank oder Anwendung.
-
Datenpflege (Datenkuratierung)
Datenpflege umfasst das Erstellen, Organisieren und Pflegen von Datensätzen, so dass der Wert der Daten erhalten bleibt und die Daten für die Wiederverwendung verfügbar sind.
-
Datenpunkt (Data Point)
Ein Datenpunkt – virtuell oder physisch – ist die kleinste Einheit für Informationen. Ein Datenpunkt kann aus einer Analyse, Messung oder Untersuchung heraus definiert werden.
-
Datenqualität
Daten von schlechter Qualität werden oft als Grund für ungenaue Analysen und schlecht durchdachte Geschäftsstrategien angesehen. Daher ist hohe Datenqualität so kritisch.
-
Datenreduktion
Die Datenreduktion beschreibt den Vorgang, die anfallende Datenmenge vor dem Speichern in einer Storage-Umgebung möglichst weit zu reduzieren.
-
Datenresidenz (Data Residency)
Datenresidenz bezieht sich auf den geografischen Speicherort der Daten eines Unternehmens beziehungsweise den damit verbundenen regulatorischen Anforderungen.
-
Datensatz
In der heutigen IT begegnet man immer wieder dem Begriff Datensatz. Er steht für eine Sammlung an Daten, die in der Regel in einer vorgegebenen Weise formatiert sind.
-
Datenschatten (data shadow)
Ein Datenschatten ist die Gesamtheit der Daten, die im Laufe eines Lebens einer Person automatisch generiert, aufgezeichnet und nicht absichtlich erstellt und abgelegt werden.
-
Datenschutz-Folgenabschätzung (DSFA, DPIA)
Immer wenn neue Verfahren, Prozesse oder Lösungen eingeführt werden, sind Unternehmen verpflichtet gemäß der DSGVO eine Datenschutz-Folgenabschätzung (DSFA) durchzuführen.
-
Datenschutzkonferenz (DSK)
Die Datenschutzkonferenz hat die Aufgabe die Grundrechte in Sachen Datenschutz zu schützen und zu wahren. Das erfolgt durch Beschlüsse, Orientierungshilfen und Standardisierungen.
-
Datensilo
Datensilos sind ein Hindernis für effektives Arbeiten und gefährden die Datenintegrität.
-
Datenstruktur
Eine Datenstruktur ist ein Format für die Organisation und das Speichern von Daten. Beispiele sind Arrays, Dateien, Tabellen, Bäume oder Graphen.
-
Datentransformation
Datentransformation, eine Komponente der Datenaufbereitung, ändert das Format, die Struktur oder die Werte von Daten, um sie für die geschäftliche Nutzung zu optimieren.
-
Datenvalidierung
Unter Datenvalidierung versteht man die Überprüfung von Integrität, Genauigkeit und Datenstruktur von Daten, bevor sie für einen bestimmten Geschäftsprozess eingesetzt werden.
-
Datenverlust (Data Loss)
Datenverlust ist die willentliche oder unbeabsichtigte Zerstörung digitaler Informationen. Dies kann durch menschliches Versagen, IT-Ausfälle oder Cyberangriffe verursacht werden.
-
Datenvisualisierung
Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.
-
Datenvorverarbeitung (Data Preprocessing)
Bei der Datenvorverarbeitung werden verschiedene Schritte durchlaufen, um Rohdaten oder unstrukturierte Daten für die Datenverarbeitung aufzubereiten.
-
Datenwiederherstellung (Data Recovery)
Datenwiederherstellung ist der Prozess, verlorene, gelöschte oder beschädigte Daten erneut zur Verfügung zu stellen. Dafür lassen sich verschiedene Technologien nutzen.
-
Datenwiederherstellung (Data Restore)
Für eine Datenwiederherstellung nutzt der Admin ein Backup, um verlorene oder geschädigte Daten am Ausgangsstandort oder an anderer Stelle wiederherzustellen und verfügbar zu machen.
-
Datenwissenschaft (Data Science)
Datenwissenschaft wendet fortschrittliche Analysetechniken und wissenschaftliche Prinzipien an, um aus Daten wertvolle Informationen für den Geschäftsbetrieb zu gewinnen.
-
Datenübertragungsrate, Datentransferrate
Wie viele Daten sich innerhalb einer bestimmten Zeit übertragen lassen, wird mit der Datenübertragungsrate in Bits pro Sekunde beschrieben.
-
DCE (Distributed Computing Environment)
DCE ist das Akronym für Distributed Computing Environment. Damit lassen sich Computer und Datenaustausch in verteilten Systemen managen.
-
DDoS-Angriff (Distributed Denial-of-Service)
Bei einem DDoS-Angriff (Distributed Denial-of-Service) greifen mehrere kompromittierte Systeme ein Ziel an und verursachen dort eine Störung der Dienste und Verfügbarkeit.
-
DDR-SDRAM
DDR-SDRAM ist ein Memory-Typ, den es in vier verschiedenen Versionen gibt und der hohe Datentransferraten umsetzen kann.
-
Deadlock (Verklemmung)
Bei einem Deadlock (Systemblockade) fordert ein Programm Ressourcen an, die von einem anderen belegt werden und umgekehrt. Somit sperren sich beide Programme gegenseitig.
-
Debian
Debian ist ein freies Open-Source-Betriebssystem auf der Basis von Linux. Es ist eine der ältesten und beliebtesten Linux-Distributionen, die heute regelmäßig zum Einsatz kommen.
-
Debugging
Debugging ist das Identifizieren von Fehlern in einem Programmcode oder in einer Hardwareimplementierung sowie die Suche nach Lösungen, um sie zu beheben oder vermeiden.
-
Deception-Technologie
Deception-Werkzeuge und -Techniken sollen verhindern, dass ein Angreifer, der bereits in das Netzwerk eingedrungen ist, im Unternehmen Schaden anrichten kann.
-
Decision Model and Notation (DMN)
Decision Model and Notation (DMN) ist ein offizieller Notationsstandard für Entscheidungsregeln in Geschäftsprozessen, der von der Object Management Group (OMG) definiert wurde.
-
Deconvolutional Neural Network (DNN)
Ein Deconvolutional Neural Network (DNN) ist ein Convolutional Neural Network (CNN), das in umgekehrter Richtung funktioniert. Es ist eine eigenständige KI-Anwendung.
-
DECT (Digital Enhanced Cordless Telecommunications)
DECT ist ein Funkstandard für die digitale drahtlose Telefonie. Im Gegensatz zu Mobilfunk ist es für den persönlichen Gebrauch in Gebäuden und kleineren Gebieten konzipiert.
-
Dedizierte Leitung
Eine dedizierte Leitung gehört zu einem spezifischen Nutzer oder Kommunikationsendpunkt. Einer Firma steht so z.B. 24 Stunden eine Leitung zwischen zwei Punkten zur Verfügung.
-
Deduktion
Die Deduktion oder deduktives Denken ist in der Philosophie und in der Logik ein Prozess, bei dem eine Schlussfolgerung auf mehreren Prämissen basiert.
-
Deep Learning
Deep Learning ist eine Form des maschinellen Lernens und der künstlichen Intelligenz, welche die Art und Weise imitiert, wie Menschen bestimmte Arten von Wissen gewinnen.
-
Deep Packet Inspection (DPI)
Deep Packet Inspection (DPI) ist eine fortschrittliche Methode, um Datenpakete zu filtern. DPI arbeitet auf der OSI-Anwendungsschicht.
-
Deep Web
Das Deep Web ist der Teil des Internets, der nicht frei zugänglich für Suchmaschinen ist. Nach Schätzungen handelt es sich dabei um mehr als 99 Prozent der Inhalte im Internet.
-
Deepfake
Als Deepfake oder auch Deep Fake werden Audio-, Bild- oder Videofälschungen bezeichnet, die mit Unterstützung künstlicher Intelligenz und Deep Learning angefertigt wurden.
-
Default
Default steht für alle Standardeinstellungen und -vorgaben, die eine Software zum Beispiel verwendet, wenn vom Nutzer noch keine Änderungen daran vorgenommen wurden.
-
Defense in Depth
Defense in Depth ist eine Strategie, bei der verschiedenen Abwehrmethoden parallel oder in Stufen kombiniert werden, um die Sicherheit zu erhöhen und Angriffe zu erschweren.
-
Defragmentierung
Durch die Defragmentierung ist der Zugriff auf Daten schneller und Speicherplatz wird effizienter genutzt, da zusammenhängende Datenfragmente neu angeordnet werden.
-
Deklarative Programmierung
Bei der deklarativen Programmierung geben Entwickler im Gegensatz zur imperativen Programmierung, das Endergebnis an, statt die notwendigen Schritte zu definieren.
-
Delta-Differenzierung
Delta-Differenzierung reduziert Dauer und Platzbedarf von Backups.
-
Denial of Service (DoS)
Warum ein Dienst wegen eines Denial-of-Service (DoS)-Angriffs ausfällt und welches die bekanntesten Formen sind, erfahren Sie in diesem Artikel.
-
Denormalisierung
Die Denormalisierung ist bei relationalen Datenbanken ein Ansatz zur Verbesserung des Laufzeitverhaltens, insbesondere der Datenbank-Leseleistung.
-
DeOS-Angriff (Destruction of Service)
Ein DeOS-Angriff ist eine Cyberattacke, die auf die gesamte Infrastruktur einer Organisation abzielt, sowie insbesondere auf deren Fähigkeit, sich von dem Angriff zu erholen.
-
Deployment Image Servicing and Management (DISM)
Mit dem kostenlosen Windows Deployment Image Servicing and Management Tool (DISM) können Admins Windows-Images bearbeiten und reparieren oder beschädigte Systemdateien retten.
-
Deprecated (veraltet)
Deprecated (veraltet) beziehungsweise „nicht mehr unterstützt” bedeutet in der Regel, dass etwas zwar noch verfüg- oder einsetzbar ist, dies aber nicht mehr empfohlen wird.
-
Deprovisionierung
Bei der Deprovisionierung werden einem Mitarbeiter die Zugriffsrechte auf Ressourcen, Software und Netzwerkdienste entzogen, etwa aufgrund eines Positionswechsels.
-
Desktiptive Analyse (beschreibende Analyse)
Die beschreibende Analyse ist eine Form der Datenanalyse, bei der Daten aus der Vergangenheit untersucht werden, um einen Bericht über das Geschehen zu erstellen.
-
Desktop as a Service (DaaS)
Desktop as a Service (DaaS) ist ein Angebot in der Cloud, bei dem ein Provider eine virtuelle Desktop-Infrastruktur (VDI) für ein Unternehmen hostet und verwaltet.
-
Desktop-Management
Desktop-Management bezeichnet Strategien und Softwarepakete, die helfen, virtuelle und physische Arbeitsplätze im Unternehmen einzurichten, zu pflegen und zu entsorgen.
-
Desktop-Virtualisierung
Bei der Desktop-Virtualisierung wird ein nicht-persistenter Desktop über ein RDP für Benutzer bereitgestellt. Der Desktop ist meist eine VM, die auf einem Virtualisierungs-Host läuft.
-
Device as a Service (DaaS)
Bei Device as a Service wird den Kunden physische Hardware im Rahmen eines Abonnementmodells angeboten. Dazu können PCs, Tablets, Smartphones oder andere physische Geräte gehören.
-
DevOps
DevOps soll die Kommunikation und Zusammenarbeit von Entwicklungs- und anderen Teams in Unternehmen erleichtern und optimieren.
-
DevOps as a Service
DevOps as a Service ist ein Bereitstellungsmodell für Tools, die die Zusammenarbeit zwischen Softwareentwicklungs- und Betriebsteam eines Unternehmens erleichtern.
-
DevOps-Ingenieur
Ein DevOps-Ingenieur ist in Entwicklung, Deployment und Betrieb von Applikationen und IT-Infrastruktur involviert. Er arbeitet eng mit Entwicklern und Administratoren zusammen.
-
DevSecOps
Der Ansatz DevSecOps kombiniert Anwendungsentwicklung, Sicherheit und Betrieb in Verbindung mit einer automatisierten Integration und Bereitstellung CI/CD.
-
DHCP (Dynamic Host Configuration Protocol)
DHCP (Dynamic Host Configuration Protocol) verwendet man, um Computern IP-Adressen automatisch zuzuweisen, wenn sie sich mit einem Netzwerk verbinden.
-
Dial-up (Wählleitung, Einwahl)
Eine Dial-Up- oder Wählleitung ist eine Telefonleitung, die für begrenzte Zeit zu einer bestimmten Gegenstelle hergestellt und aufrechterhalten wird.
-
Diebstahl von Zugangsdaten
Beim Diebstahl von Zugangsdaten wird der Identitätsnachweis des Opfers gestohlen. Mit den gestohlenen Anmeldeinformationen hat der Angreifer die gleichen Rechte wie das Opfer.
-
Dielektrisches Material
Dielektrisches Material leitet Elektrizität kaum, kann aber ein elektrostatisches Feld gut aufrechterhalten. Es wird häufig in Kondensatoren und Transformatoren verwendet.
-
Differentiated Services (DiffServ, DS)
Per Differentiated Services, kurz DiffServ oder DS, lassen sich Netzwerkpakete priorisieren. DiffServ kann dies anhand von komplexen Richtlinien und Regelanweisungen erledigen.
-
Differenzielles Backup
Differenzielle Backups sichern nur die geänderten Daten seit des letzten Full-Backup und die Änderungen vorangegangener differenzieller Backups. Das spart Storage und Zeit.
-
Diffie-Hellman-Schlüsselaustausch
Diffie-Hellman ist ein Schlüsselaustauschprotokoll beziehungsweise eine Schlüsselvereinbarung, das eine sichere Kommunikation über öffentliche Netze wie das Internet ermöglicht.
-
Digital
Digital bezeichnet ein Verfahren, das Daten in zwei Zuständen erzeugt und verarbeitet: positiv und nicht-positiv. Diese werden durch 0 und 1 repräsentiert.
-
Digital Asset Management (DAM)
Digital Asset Management (DAM) unterstützt beim Organisieren, Speichern und Abrufen digitaler Medien sowie beim Verwalten digitaler Rechte und Genehmigungen.
-
Digital Linear Tape (DLT)
Digital Linear Tape ist eine Bandspeichertechnologie, die vor allem von KMUs eingesetzt wurde, aber mittlerweile nicht mehr häufig genutzt wird. Medien zwischen 20 und 160 GByte.
-
Digital Process Automation (DPA)
Digitale Prozessautomatisierung ist eine Automatisierungsmethode, bei der Software zur Aufgaben- und Prozessautomatisierung eingesetzt wird, um Workflows zu optimieren.
-
Digital Supply Chain (digitale Lieferkette)
Eine digitale Supply Chain (digitale Lieferkette) benötigt viele unterschiedliche Technologien: Vom Smart-Barcode bis zur integrierten Cloud-Plattform.
-
Digital Twin (Digitaler Zwilling, Digitaler Doppelgänger)
Beim Produktdesign, im Internet der Dinge sowie bei Produktsimulationen und -optimierungen kommen sogenannte digitale Doppelgänger, digitale Zwillinge oder digital Twins zum Einsatz.