TechTarget
Accès rapide :

Business Intelligence, Analytique

Un ensemble de termes techniques portant sur la Business Intelligence, l'analytics et le Big Data ainsi que de définitions sur les data scientists, les technologies Hadoop, la visualisation et l'intégration de données et la qualité des données.

AD - YAR

  • ad hoc - Ad hoc est une locution adjectivale utilisée pour décrire une chose créée sur-le-champ et généralement destinée à un usage unique.
  • Algorithme - Un algorithme est une procédure ou une formule qui permet de résoudre un problème.
  • Algorithme évolutionniste ou évolutionnaire - Un algorithme évolutionniste ou évolutionnaire (AE) met en œuvre des mécanismes inspirés de la nature pour résoudre des problèmes comme le feraient des organismes vivants.
  • Ambiguïté lexicale - L’ambiguïté lexicale est la possibilité d’interpréter de plusieurs manières une phrase parlée ou écrite, ce qui en complique la compréhension, voire la rend impossible en l’absence d’informations complémentaires.
  • Ambiguïté structurelle - L'ambiguïté structurelle ou syntaxique fait référence aux différentes interprétations possibles d'un énoncé écrit ou verbal à cause de la manière dont les mots ou les phrases sont agencés.
  • Analyse ad hoc - L'analyse ad hoc est un processus d'informatique décisionnelle (BI) conçu pour répondre à une question métier unique et précise.
  • Analyse statistique - L'analyse statistique est une composante de l'analyse des données.
  • Analytique - L'analytique consiste à appliquer à un contenu numérique des méthodes d'informatique décisionnelle, BI (Business Intelligence), ainsi que d'analytique métier, BA (Business Analytics).
  • Analytique Big Data - L'analytique du Big Data est le processus qui consiste à examiner des ensembles de données volumineux contenant des types de données hétérogènes pour découvrir des schémas cachés, des corrélations inconnues, les tendances du marché, les préférences des utilisateurs et d'autres informations exploitables.
  • Analytique descriptif - L'analytique descriptif est une étape préliminaire du traitement des données qui consiste à synthétiser des données historiques pour en tirer des informations utiles voire les préparer en vue d'une analyse complémentaire.
  • Analytique prescriptif - L'analytique prescriptif est un type d'analytique focalisé sur la recherche de la meilleure approche pratique d'une situation.
  • Analytique prédictif - L'analytique prédictif est la branche de l’analytique qui s'intéresse à la prédiction de probabilités et de tendances futures.
  • Apache Kafka - Kafka est un système de messagerie de type publication/abonnement conçu pour remplacer les courtiers de message traditionnels.
  • Apache Pig - Apache Pig est une technologie open source qui fournit un mécanisme de haut niveau pour la programmation parallèle de tâches MapReduce à exécuter sur des clusters Hadoop.
  • Apache Storm - Storm est un système informatique distribué qui fonctionne en temps réel, de type FOSS (Free Open Source System), développé par l'Apache Software Foundation.
  • Apache ZooKeeper - ZooKeeper est une API open source qui permet la synchronisation de processus distribués sur de grands systèmes, afin que tous les clients émettant des demandes reçoivent des données homogènes.
  • Apdex (Application Performance Index) - L'Application Performance Index, également appelé Apdex, est une norme ouverte visant à simplifier le suivi des performances des applications.
  • arbre décisionnel - Un arbre décisionnel ou arbre de décision est un graphique en forme d’arbre dont les ramifications illustrent les conséquences possibles d’une décision.
  • Architecture Lambda - L'architecture Lambda est une approche hybride de la gestion du Big Data qui permet un traitement par lots et en quasi temps réel.
  • Azure HDInsight - Conçu pour l'analytique du Big Data, HDInsight, le service cloud de Microsoft Azure, aide les entreprises à traiter de gros volumes de données en continu (streaming) ou historiques.
  • BI (informatique décisionnelle) - L'informatique décisionnelle (BI) est un processus d'analyse des données qui vise à doper les performances métier en aidant à prendre des décisions plus avisées.
  • BI en libre-service - L'informatique décisionnelle en libre-service (ou également BI en Self-Service) est une approche de l'analytique qui permet aux professionnels d'accéder aux données de l'entreprise et de les exploiter même sans aucune expérience de l'analyse statistique, de l'informatique décisionnelle ou du data mining.
  • Big Data - Le terme Big Data décrit des ensembles de très gros volumes de données – à la fois structurées, semi-structurées ou non structurées – qui peuvent être traitées et exploitées dans le but d’en tirer des informations intelligibles et pertinentes.
  • Chief Data Officer - Un responsable des données, ou CDO (pour Chief Data Officer), est un cadre exécutif de l'entreprise, chargé de la gestion et de l'exploration des données.
  • Cluster Hadoop - Un cluster Hadoop est un type particulier de traitement informatique en grappe, conçu spécialement pour stocker et analyser de grandes quantités de données non structurées dans un environnement distribué.
  • corrélation - La corrélation est une mesure statistique de la manière dont deux variables ou plus évoluent ensemble.
  • Cube OLAP - Un cube OLAP est une base de données à plusieurs dimensions, optimisée pour les entrepôts de données et les traitements analytiques.
  • Data Exploration - Première étape de l'analyse des données, l'exploration des données (Data Exploration) consiste à synthétiser les principales caractéristiques d'un ensemble de données.
  • Data lake (lac de données) - Un lac de données (Data Lake) est un référentiel de stockage orienté objet qui consigne des données dans leur format natif tant qu'elles ne sont pas nécessaires.
  • Data Mining - Le Data Mining, consiste à rechercher des relations qui n'ont pas encore été identifiées.
  • Data science - La data science (littéralement « science des données ») est une discipline qui étudie les informations : leur source, ce qu'elles représentent et les méthodes permettant de les transformer en ressources utiles pour la création de stratégies métier et IT.
  • data science as a service (DSaaS) - Dans la délégation d'expertise en science des données (DSaaS, Data Science as a Service), les data scientists d'un prestataire externe récoltent, à l'aide d'applications d'analytique avancé, des informations exploitables par l'entreprise cliente.
  • Data Scientist - Le terme Data Scientist est un titre professionnel qui désigne un employé ou un consultant en informatique décisionnelle (BI, Business Intelligence) qui excelle dans l’analyse des données, particulièrement des grandes quantités de données, et ce afin d’aider une entreprise à en tirer un avantage concurrentiel.
  • Data Storytelling - La mise en récit (storytelling) des données (datas) est le processus qui consiste à traduire les analyses de données en langage courant dans le but d'orienter une décision ou une action.
  • Data Visualization (ou DataViz) - La visualisation de données décrit toute technologie qui représente visuellement des données pour faire ressortir des schémas, des tendances ou des corrélations qui risqueraient de passer inaperçus au sein de données purement textuelles.
  • Données non structurées - Les données non structurées sont une désignation générique qui décrit toute donnée extérieure à un type de structure (telle qu'une base de données).
  • Données semi-structurées - Les données semi-structurées sont des données qui n'ont pas été organisées en référentiel spécialisé, comme c’est le cas dans une base de données, mais qui comportent néanmoins des informations associées, des métadonnées par exemple, qui les rendent plus faciles à traiter que des données brutes.
  • ETL (et ELT) - L'ELT (Extract, Transform, Load) est un processus d'intégration des données qui permet de transférer des données brutes d'un système source vers une base de données cible.
  • Gestion des Big Data - La gestion des Big Data correspond à l’organisation, la gestion et la gouvernance d’un grand volume de données à la fois structurées et non structurées.
  • Hadoop - Hadoop est un framework open source qui repose sur Java.
  • Hadoop 2 - Apache Hadoop 2 (Hadoop 2.
  • Hadoop Distributed File System (HDFS) - HDFS est un système de fichiers distribué qui donne un accès haute-performance aux données réparties dans des clusters Hadoop.
  • Indicateur clé de performance (KPI) - Un indicateur clé de performance, ou KPI (Key Performance Indicator), est un élément de mesure métier utilisé pour évaluer différents facteurs essentiels à la réussite d'une entreprise ou d'un projet.
  • Informatique cognitive - L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé.
  • Loi de Murphy - A l'origine, la loi de Murphy s'énonçait comme suit : « S'il y a plus d'une façon de faire quelque chose, et que l'une d'elles conduit à un désastre, alors il y aura quelqu'un pour le faire de cette façon.
  • Machine Learning - L'apprentissage statistique (en anglais, Machine Learning) - ou dit encore apprentissage automatique - est un type d'intelligence artificielle qui confère aux ordinateurs la capacité d’apprendre sans être explicitement programmés.
  • MapReduce - MapReduce est un composant central du framework Hadoop.
  • Métadonnées - Les métadonnées sont des données qui en décrivent d'autres.
  • OLAP - Les systèmes OLAP sont des processus analytiques qui permettent d’extraire et de visualiser de manière sélective des jeux de données et de leur appliquer assez facilement différents points de vue.
  • Plateforme de découverte de données - Une plateforme de découverte de données (data discovery platform, en anglais) est un ensemble complet d'outils qui sert à détecter des modèles, et des valeurs aberrantes en dehors des modèles, au niveau des données.
  • Quant - Un analyste quantitatif (surnommé « Quant ») est un professionnel de la finance chargé de faire de prévisions en s’appuyant sur des mathématiques avancées et sur l'informatique.
  • R (langage) - R est un langage de script open source destiné à l'analytique prédictif et à la visualisation des données.
  • Régression logistique - La régression logistique est une méthode d'analyse statistique qui consiste à prédire une valeur de données d'après les observations réelles d'un jeu de données.
  • SAP HANA Vora - SAP HANA Vora est un moteur de traitement in-memory conçu pour rendre le Big Data issu d'Hadoop plus accessible et exploitable.
  • SAP Predictive Analytics - SAP Predictive Analytics est un logiciel d'informatique décisionnelle de SAP qui permet aux entreprises d'analyser d'importants jeux de données et d'anticiper les résultats et les comportements à venir.
  • Spark (Apache) - Apache Spark est une infrastructure de traitement parallèle open source qui permet d'exécuter des applications analytiques d’envergure, en utilisant des machines en clusters.
  • SQL-on-Hadoop - SQL-on-Hadoop est une classe d'outils d'application analytique qui combine une interrogation classique de style SQL à des éléments d'infrastructure de données Hadoop.
  • Thunder (Salesforce Thunder) - Thunder est le moteur de règles et le pipeline de traitement du Big Data de Salesforce.
  • Wave (Analytics Cloud) - La solution Salesforce Wave Analytics, également nommée Analytics Cloud, est une plateforme BI (Intelligence décisionnelle) de Salesforce.
  • YARN (Yet Another Resource Negotiator) - Apache Hadoop YARN (Yet Another Resource Negotiator) est une technologie de gestion de clusters.

- ANNONCES GOOGLE

LeMagIT

Close