Definitionen durchsuchen :

Definitionen nach Alphabet

D2D - DED

  • D2D2C (disk-to-disk-to-cloud) - D2D2C-Backup beschreibt einen Vorgang, bei dem Daten zuerst lokal gesichert und später verschlüsselt auf einen Cloud-Speicher übertragen werden.
  • DAB/DAB+ (Digital Audio Broadcasting) - Bei DAB (Digital Audio Broadcasting) und dem Nachfolger DAB+ wird das Radioprogramm digital übertragen.
  • Daemon - Ein Daemon ist in der Regel ein Prozess, der im Hintergrund läuft und und auf Anfragen reagiert.
  • Daisy Chain - Eine Daisy-Chain ist eine Verbindung von Computer- und Peripheriegeräten oder Netzwerkknoten in Reihe.
  • Dark Data - Dark Data sind ungenutzte Daten.
  • Dark Fiber - Dark Fiber bezeichnet Lichtwellenleiter, die zwar installiert sind, zum gegenwärtigen Zeitpunkt aber nicht genutzt werden.
  • Dark Storage - Dark Storage bedeuten Kapazitäten, die zugewiesen sind, aber nicht genutzt werden.
  • Darknet - Ein Darknet ist eine geroutete Zuweisung eines IP-Adressraums, die mit gängigen Mitteln nicht aufzufinden ist.
  • Darstellungsschicht (Presentation Layer) - Die Darstellungsschicht ist auch als Schicht 6 des OSI-Modells bekannt.
  • DAS (Distributed Antenna System) - Ein DAS ist ein Netzwerk an kleinen Antennen, die als Repeater fungieren.
  • DASD (Direct Access Storage Device) - DASD bezeichnet ein Speichergerät mit Direktzugriff.
  • Data Access Objects (DAO) - Data Access Objects (DAO) ist eine Programmierschnittstelle (API) in Microsoft Visual Basic für den Zugriff auf eine Microsoft Access-Datenbank.
  • Data Artist (Datenkünstler) - Ein Data Artist ist ein Datenanalyst, der Grafiken, Diagramme, Infografiken und andere visuelle Hilfsmittel erstellt, die helfen, komplexe Daten zu verstehen.
  • Data as a Service (DaaS) - Data as a Service, abgekürzt DaaS, ist eine Cloud-Computing-Technologie.
  • Data at Rest - Der Begriff Data at Rest bezieht sich auf Daten, die nicht kontinuierlich verändert werden.
  • Data Availability (Datenverfügbarkeit) - Datenverfügbarkeit ist die Fähigkeit, Daten bis zu einem bestimmten Leistungsniveau unter allen Umständen verfügbar zu halten.
  • Data Center (Rechenzentrum) - Ein Rechenzentrum ist eine physische oder virtuelle Lagerstätte für die Speicherung, Verwaltung und Verarbeitung von Daten und Informationen.
  • Data Center as a Service (DCaaS) - Data Center as a Service beschreibt die bedarfsgerechte Nutzung von IT-Kapazitäten eines Drittanbieters, der diese über ein WAN zur Verfügung stellt.
  • Data Center Bridging (DCB) - DCB soll das gesamte Rechenzentrum mit einer Ethernet-basierenden konvergenten Fabric vernetzen.
  • Data Center Infrastructure Efficiency (DCIE) - Data Center Infrastructure Efficiency (DCIE) ist eine Kennzahl zur Messung der Energieeffizienz eines Data Centers und wird in Prozent angegeben.
  • Data Center Infrastructure Management (DCIM) - Data Center Infrastructure Management (DCIM) ist die Annäherung von IT und Gebäude-Funktionen mit dem Ziel des ganzheitlichen Data-Center-Überblicks.
  • Data Center Resilience (RZ-Resilienz) - Data Center Resilienz definiert die Stabilität eines Rechenzentrums während eines Störfalles.
  • Data Dictionary - Ein Data Dictionary ist eine Sammlung von Beschreibungen der Datenobjekte in einem Datenmodell, um Programmierer und Entwickler zu unterstützen.
  • Data Driven Decision Management (DDDM) - Data Driven Decision Management ist Entscheidungsverfahren, bei dem Daten und Datenanalysen zurate gezogen werden, um geschäftliche Entscheidungen treffen zu können.
  • Data Encryption Standard (DES) - Der Data Encryption Standard (DES) ist ein weit verbreitetes symmetrisches Verfahren zur Datenverschlüsselung, das aber inzwischen als veraltet gilt.
  • Data Governance - Data Governance verwaltet die Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit der Unternehmensdaten, basierend auf internen Datenstandards und Richtlinien.
  • Data Gravity (Datengravitation) - Data Gravity, auch Datengravitation genannt, beschreibt den Prozess, wie große Datensammlungen Anwendungen, Services und andere Daten „anziehen“ und an sich binden.
  • Data in motion (data in flight) - Data in motion oder data in flight beschreibt digitale Informationen, die zwischen zwei Standorten transportiert werden.
  • Data Lake - Im Unterschied zu hierarchischen Data Warehouses speichern Data Lakes Daten in einer flachen Architektur.
  • Data Lifecycle Management (DLM) - Data Lifecycle Management (DLM) ist eine Methode, um Daten während ihres Lebenszyklus zu steuern.
  • Data Link Layer (Datenverbindungsschicht, Sicherungsschicht) - Im OSI-Modell (Open Systems Interconnect) entspricht die Datenverbindungsschicht (Data Link Layer) Layer 2 und sorgt für den korrekten Datenempfang.
  • Data Loss Prevention (DLP) - Die Strategie Data Loss Prevention (DLP) soll sensible oder kritische Informationen schützen.
  • Data Mart - Ein Data Mart ist ein Data Repository, das einer bestimmten Gruppe von Mitarbeitern (Knowledge Worker) in einer Organisation zur Datenanalyse dient.
  • Data Masking (Datenmaskierung) - Beim Data Masking handelt es sich um ein Verfahren zur Anonymsierung von Daten, um diese etwa zu Testzwecken zu verwenden.
  • Data Mining - Data Mining ist eine Technik, um in Daten bestimmte geschäftlich verwertbare Muster zu finden.
  • Data Plane (DP, Datenebene, Datenschicht) - Ein grundlegender Teil eines Netzwerks ist die Datenschicht (Datenebene, Data Plane, DP), die für den Transport des Anwender-Traffics zuständig ist.
  • Data Profiling - Data Profiling analysiert und bewertet mit statistischen Methoden die Datenqualität eines Datensatzes.
  • Data Protection - Data Protection umfasst alle Prozesse und Lösungen, die Datenverlust, -kompromittierung, versehentliche Löschungen und böswilligen Zugriff verhindern.
  • Data Protection Management (DPM) - Data Protection Management ist die Verwaltung aller relevanter Prozesse, die dafür nötig sind, dass alle Daten sicher gespeichert und einfach und schnell wiederherstellbar sind.
  • Data Retention Policy - Data Retention muss für jedes Unternehmen nach unterschiedlichen Regeln und Gesetzen aufgebaut werden.
  • Data Sampling (Datenauswahl) - Data Sampling ist ein statistisches Analyseverfahren, mit dem eine repräsentative Teilmenge von Daten ausgewählt, aufbereitet und analysiert wird.
  • Data Scientist - Ein Data Scientist verfügt über Kennntisse in Statistik, Künstlicher Intelligenz sowie Informatik und unterstützt Firmen bei der Auswertung von Daten.
  • Data Source Name (DSN) - In einer DSN sind Informationen über die Datenstruktur sowie Name, Verzeichnis, Treiber der Datenbank und je nach DSN-Typ auch ID und Passwort des Users enthalten.
  • Data Warehouse (Information Warehouse) - Ein Data Warehouse speichert die von verschiedenen Geschäftssystemen erfassten Daten, um sie in einer Datenbank zur weiteren Analyse bereitzustellen.
  • Data Warehouse Appliance - Eine Data Warehouse Appliance läuft auf einem vorkonfigurierten Server und bringt ein eigenes Betriebssystem sowie Datenbank-Management-System mit.
  • Data Warehouse as a Service (DWaaS) - DWaaS ist ein Outsourcing-Modell, bei dem ein Service-Provider die für ein Data Warehouse benötigten Ressourcen konfiguriert, verwaltet und wartet.
  • Data-Driven Disaster (Datenbasierter Störfall) - Ein datenbasierter Störfall wird durch ineffektive Datenanalyseprozesse oder mindere Datenqualität ausgelöst und kann schwerwiegende Auswirkungen zur Folge haben.
  • Data-Federation-Software - Die Data-Federation-Software ermöglicht es einem Unternehmen, Daten in einer virtuellen Datenbank zu sammeln und für Analysen zu verwenden.
  • Data-Governance-Richtlinie - Data-Governance-Richtlinien sind ein dokumentierter Satz von Policies, mit denen sichergestellt wird, dass die Datenbestände einer Organisation konsistent verwaltet werden.
  • Database as a Service (DBaaS) - Database as a Service (DBaaS) ist ein Cloud-basierter Ansatz zur Verwaltung von strukturierten Daten.
  • Database-Marketing (Datenbankmarketing) - Database-Marketing (Datenbankmarketing) ist zielgruppenorientiertes Direktmarketing auf der Basis detaillierter Kundeninformationen, die in Datenbanken verwaltet werden.
  • Datagramm - Ein Datagramm ist eine abgeschlossene, unabhängige Instanz an Daten, die genügend Informationen enthält, um von der Quelle zum Zielcomputer geroutet werden zu können.
  • Dateilose Malware - Dateilose Malware injiziert beispielsweise Code in laufende Prozesse, statt sich auf der Festplatte zu installieren.
  • Dateiserver (File Server) - Im Client/Server-Modell ist ein Dateiserver ein Computer, der Datendateien speichert und verwaltet, so dass andere Computer im selben Netzwerk auf die Dateien zugreifen können.
  • Dateisystem - Dateisystem sind integraler Bestandteil eines Betriebssystems und definieren, wie Dateien benannt und wo sie logisch gespeichert werden.
  • Daten - Diese Definition erklärt die Bedeutung von Daten,das heißtvon Informationen, die in eine Form übersetzt wurden, die eine effiziente Bewegung oder Verarbeitung unterstützt.
  • Daten-Exfiltration (Data Extrusion) - Die Daten-Exfiltration oder Data Extrusion bezeichnet einen nicht genehmigten Abfluss von Daten, die auf einem Computer liegen.
  • Datenabstraktion - Datenabstraktion reduziert einen Datenkörper auf das Wesentliche.
  • Datenadministration (Data Stewardship) - Datenadministration kümmert sich um die Datenqualität, ihre Bereitstellung und ihre Übereinstimmung mit den Vorgaben des Unternehmens.
  • Datenarchivierung (Archivierung) - Datenarchivierung ist die Sicherung und Ablage von Daten, auf die zwar wenig oder gar nicht mehr zugegriffen wird, die aber für einen längeren Zeitraum vorgehalten werden müssen.
  • Datenbank - Eine Datenbank ist eine Sammlung von Informationen, die so angeordnet sind, dass sie sich einfach abrufen, verwalten und aktualisieren lassen.
  • Datenbank-Administrator (DBA) - Ein Datenbank-Administrator (DBA) ist für die generelle Verwaltung von Datenbanksystemen verantwortlich.
  • Datenbankmanagementsystem (DBMS) - Ein Datenbankmanagementsystem (DBMS) ist eine Software, über die ein oder mehrere Anwender beziehungsweise Entwickler Daten in eine Datenbank erstellen und abrufen können.
  • Datenbankreplikation - Die Datenbankreplikation ist ein regelmäßiger Kopiervorgang, um Inkonsistenzen zu vermeiden.
  • Datenbereinigung (Data Cleaning) - Als Datenbereinigung wird die Analyse von Daten bezeichnet, um fehlerhafte Datensätze zu identifizieren.
  • Datendeduplizierung - Datendeduplizierung reduziert den benötigten Speicherplatz, indem es Dubletten und redundante Datenblöcke durch Zeiger ersetzt, die auf eine einzige Datenkopie referenzieren.
  • Datendeduplizierungsverhältnis - Beim Datendeduplizierungsverhältnis gibt es eine Diskrepanz zwischen Herstellerangaben und Realität.
  • Datendiebstahl (Data Breach) - Wenn sensible Daten eingesehen oder geklaut werden, spricht man von einem Datendiebstahl oder -missbrauch.
  • Datenerhebung (Datenerfassung) - Datenerhebung ist der systematische Ansatz zum Sammeln und Messen von Daten aus verschiedenen Quellen, um ein vollständiges und genaues Bild eines Bereichs zu erhalten.
  • Datenhaltung (Data Retention) - Datenhaltung oder Data Retention beschreibt den Zeitraum, über den digitale Informationen verfügbar vorgehalten respektive gespeichert werden müssen.
  • Datenhygiene - Unter Datenhygiene fallen alle Funktionen, die die relative Fehlerfreiheit von Daten gewährleisten.
  • Datenintegrität - Datenintegrität ist die Gewissheit, dass die Informationen unversehrt sind und nur von denjenigen, die dazu berechtigt sind, aufgerufen oder verändert werden können.
  • Datenlöschung - Bei der Datenlöschung geht es darum, digitale Informationen unwiederbringlich auf Medien zu zerstören, oft aufgrund rechtlicher Bestimmungen.
  • Datenmanagement - Datenmanagement versetzt Unternehmen in die Lage, ihren Informationskreislauf so zu steuern, dass sie größtmöglichen Nutzen aus ihren Daten ziehen.
  • Datenmigration (Data Migration) - Die Migration von Daten ist ein Umzug von Dateien auf andere Computer-Systeme, Daten-Formate oder Storage-Systeme.
  • Datenmodellierung - Bei Datenmodellierung handelt es sich um Formalisierung sowie Dokumentation von Prozessen und Ereignissen, die im Laufe der Konzeption und Entwicklung von Software auftreten.
  • Datenpunkt (Data Point) - Ein Datenpunkt – virtuell oder physisch – ist die kleinste Einheit für Informationen.
  • Datenqualität - Datenqualität bezeichnet die Bewertung von Daten in Bezug auf die Frage, wie gut Daten dafür geeignet sind, ihrem Zweck in einem bestimmten Zusammenhang zu erfüllen.
  • Datenreduktion - Die Datenreduktion beschreibt den Vorgang, die anfallende Datenmenge vor dem Speichern in einer Storage-Umgebung möglichst weit zu reduzieren.
  • Datensatz - In der heutigen IT begegnet man immer wieder dem Begriff Datensatz.
  • Datensilo - Datensilos sind ein Hindernis für effektives Arbeiten und gefährden die Datenintegrität.
  • Datenstruktur - Eine Datenstruktur ist ein Format für die Organisation und das Speichern von Daten.
  • Datenvirtualisierung - Bei Datenvirtualisierung geht es darum, Daten abzurufen, ohne deren technische Details zu kennen.
  • Datenvisualisierung - Datenvisualisierung ist das Übersetzen von Daten in grafische Elemente, die ein bestimmtes Verhältnis dieser Daten zueinander zum besseren Verständnis bildlich darstellen.
  • Datenwiederherstellung (Data Recovery) - Data Recovery oder Wiederherstellung von Daten ist ein Vorgang, um beschädigte oder verlorengegangene Daten von einem Backup zu rekonstruieren.
  • Datenübertragungsrate, Datentransferrate - Wie viele Daten sich innerhalb einer bestimmten Zeit übertragen lassen, wird mit der Datenübertragungsrate in Bits pro Sekunde beschrieben.
  • DBS (Direct Broadcast Satellite) - DBS (Direct Broadcast Satellite) bezieht sich auf ein Satellitensystem.
  • DCE (Distributed Computing Environment) - DCE ist das Akronym für Distributed Computing Environment.
  • DCML (Data Center Markup Language) - DCML steht für Data Center Markup Language und stellt einen einheitlichen Standard zur Beschreibung einer Rechenzentrumsumgebung zur Verfügung.
  • DDR-SDRAM - DDR-SDRAM ist ein Memory-Typ, den es in vier verschiedenen Versionen gibt und der hohe Datentransferraten umsetzen kann.
  • Deadlock (Verklemmung) - Bei einem Deadlock (Systemblockade) fordert ein Programm Ressourcen an, die von einem anderen belegt werden und umgekehrt.
  • Debian - Debian gehört zu den am weitesten verbreiteten Linux-Versionen und dient gleichzeitig als Grundlage für populäre Derivate wie Ubuntu-Linux.
  • Debugging - Debugging ist in der Programmierung und Entwicklung ein Prozess, bei dem ein Problem identifiziert, die Ursache isoliert und dann das Problem korrigiert oder umgangen wird.
  • Deception-Technologie - Deception-Werkzeuge und -Techniken sollen verhindern, dass ein Angreifer, der bereits in das Netzwerk eingedrungen ist, im Unternehmen Schaden anrichten kann.
  • Decision Model and Notation (DMN) - Decision Model and Notation (DMN) ist ein offizieller Notationsstandard für Entscheidungsregeln in Geschäftsprozessen, der von der Object Management Group (OMG) definiert wurde.
  • Decision-Support-System (DSS) - Ein Decision-Support-System (DSS) analysiert und bereitet Geschäftsdaten so auf, so dass Manager geschäftliche Maßnahmen leichter treffen können.
  • Deconvolutional Neural Network (DNN) - Ein Deconvolutional Neural Network (DNN) ist ein Convolutional Neural Network (CNN), das in umgekehrter Richtung funktioniert.
  • DECT (Digital Enhanced Cordless Telecommunications) - DECT ist ein Funkstandard für die digitale drahtlose Telefonie.
  • Dedizierte Leitung - Eine dedizierte Leitung gehört zu einem spezifischen Nutzer oder Kommunikationsendpunkt.
  • Deduktion - Die Deduktion oder deduktives Denken ist in der Philosophie und in der Logik ein Prozess, bei dem eine Schlussfolgerung auf mehreren Prämissen basiert.
ComputerWeekly.de
Close