TechTarget
Accès rapide :

Gestion des données et bases de données

Un ensemble de termes techniques portant sur les données, les entrepôts de données et la gestion des données.

ABS - U-S

  • abstraction de données - L'abstraction de données fait référence à la réduction d'un ensemble de données spécifique en une représentation simplifiée.
  • Apache Flink - Apache Flink est une plateforme de traitement distribué des données qui fonctionne dans le cadre d'applications de Big Data, et implique essentiellement l'analyse de données stockées dans des clusters Hadoop.
  • arbre décisionnel - Un arbre décisionnel ou arbre de décision est un graphique en forme d’arbre dont les ramifications illustrent les conséquences possibles d’une décision.
  • Automatisation de base de données - L'automatisation de base de données (data base automation, en anglais) consiste à utiliser des processus sans assistance et des procédures à mise à jour automatique, pour exécuter l'administration d'une base de données.
  • Avro (Apache Avro) - Apache Avro est un format de stockage orienté ligne de conteneurs d'objets pour Hadoop, ainsi qu'un framework d'appel de procédures à distance (RPC, Remote Procedure Call) et de sérialisation de données.
  • Collecte de données - Par collecte de données, on entend l'approche systématique qui consiste à réunir et à mesurer des informations en provenance de sources variées, afin d'obtenir une vue complète et précise d'un domaine d'intérêt.
  • Compression - La compression est une réduction du nombre de bits nécessaires pour représenter les données.
  • corrélation - La corrélation est une mesure statistique de la manière dont deux variables ou plus évoluent ensemble.
  • Data Catalog - Un catalogue de données (Data Catalog) est un outil de gestion des métadonnées.
  • Data Lineage (traçabilité des données) - La traçabilité des données, ou lignage des données (data lineage en anglais), désigne l'historique des données notamment les chemins empruntés tout au long de leur existence dans une entreprise.
  • Data warehouse (entrepôt de données) - Un entrepôt de données est un référentiel central qui accueille tout ou (grande) partie des données que les différents systèmes métier d'une entreprise collectent.
  • Datamart - Un Datamart est un référentiel qui contient des données collectées auprès de différentes sources, notamment opérationnelles.
  • données transactionnelles - Dans le contexte de la gestion de données, les données transactionnelles sont les informations enregistrées à partir des transactions.
  • DWaaS (Entrepôt de données Cloud) - L'entrepôt de données à la demande, en mode Cloud (ou DWaaS pour Data Warehousing as a Service) est un modèle d’externalisation dans lequel un prestataire de services configure et gère les ressources matérielles et logicielles requises par à un entrepôt de données (en anglais, le Data Warehouse), tandis que le client fournit les données et paie pour le service d'infogérance.
  • Gestion des données en tant que service (DMaaS) - La gestion des données en tant que service (Data Management-as-a-Service, DMaaS) est un type de service dans le cloud qui fournit aux entreprises un stockage centralisé pour des sources de données disparates.
  • gestion des décisions fondée sur les données (DDDM) - La gestion des décisions fondée sur les données (DDDM, Data-Driven Decision Management) constitue une approche de la gouvernance métier qui valorise les décisions soutenues par des données vérifiables.
  • Gouvernance des données - La gouvernance des données (GD, ou data governance – DG – en anglais) consiste en la gestion globale de la disponibilité, de l'exploitabilité, de l'intégrité et de la sécurité des données utilisées dans une entreprise.
  • Hive (Apache Hive) - Apache Hive est un système d'entrepôt de données open source.
  • In-memory data grid (grille de données In-Memory) - Une grille de données en mémoire, ou grille de données In-Memory (IMDG, In-Memory Data Grid), est une structure de données qui réside intégralement en mémoire vive, ou RAM (Random Access Memory), et qui est répartie sur plusieurs serveurs.
  • Ingestion de données - L'ingestion de données regroupe les phases de recueil et d'importation des données pour utilisation immédiate ou stockage dans une base de données.
  • loi normale - La loi normale, ou distribution normale, définit une représentation de données selon laquelle la plupart des valeurs sont regroupées autour de la moyenne et les autres s'en écartent symétriquement des deux côtés.
  • Master Data Management (MDM) - Le MDM (Master Data Management), est une méthode exhaustive permettant à une entreprise d'associer toutes ses données critiques à un seul et unique fichier, appelé « fichier maître », qui constitue un point de référence commun.
  • Matrice de confusion - La matrice de confusion, appelée également matrice d'erreur, est un tableau qui présente différentes prévisions et résultats de tests, en les comparant avec des valeurs réelles.
  • MySQL - Le système de gestion de base de données relationnelle (SGBDR) open source Oracle MySQL s'appuie sur le langage de requête structuré SQL (Structured Query Language).
  • Mébioctet (Mio, miB) - Un mébioctet (Mio, ou MiB en anglais) est une unité de mesure utilisée pour le stockage des données informatiques.
  • Oracle Autonomous Database - Oracle Autonomous Database est une technologie cloud destinée à automatiser une grande partie de la gestion de routine des bases de données Oracle.
  • Préparation des données - La préparation des données consiste à rassembler, combiner, structurer et organiser les données afin de pouvoir les analyser dans le cadre de programmes d'informatique décisionnelle (BI, Business Intelligence) et d'analytique métier (BA, Business Analytics).
  • SIG (système d'information géospatiale) - Les systèmes SIG (systèmes d'information géospatiale ou geographic information system - GIS - en anglais) permettent d'appréhender les aspects géographiques d'un ensemble de données.
  • Silo d'informations - Un silo d'informations est une division ou un groupe au sein d'une entreprise qui ne communique pas librement ou efficacement avec d'autres groupes.
  • Silo de données - Un silo de données est un référentiel de données fixes maintenu sous le contrôle d'un service déterminé de l'entreprise, et qui se trouve isolé du reste de cette dernière, à la manière d'un silo agricole qui isole le grain des éléments extérieurs.
  • Smart contract - Un smart contract (« contrat intelligent »), également appelé cryptocontrat, est un programme informatique qui contrôle directement le transfert de devises ou d'actifs numériques entre des parties sous certaines conditions.
  • Streaming des données (architecture de streaming des données) - Une architecture de données en flux (ou streaming data architecture) est une infrastructure des technologies de l'information qui met l'accent sur le traitement des données en mouvement et considère le traitement par lots de type extraction, transformation et chargement (ETL, Extract, Transform, Load) comme une simple opération dans un flux continu d'événements.
  • Structure de données - Une structure de données est un format spécial destiné à organiser, traiter, extraire et stocker des données.
  • U-SQL - Langage de requête de Microsoft, U-SQL se caractérise par la combinaison d'une syntaxe déclarative de type SQL et de la capacité de programmation de C#.

- ANNONCES GOOGLE

LeMagIT

Close