TechTarget
Accès rapide :
Definition

Informatique cognitive

Cette définition fait partie de notre Guide Essentiel : Glossaire IT : Intelligence Artificielle (IA, AI)

L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé.

L'informatique cognitive fait intervenir des systèmes d'auto-apprentissage qui utilisent l'exploration de données (data mining), la reconnaissance de schémas et le traitement du langage naturel, pour tenter de reproduire le mode de fonctionnement du cerveau humain. L'objectif consiste à créer des systèmes automatisés capables de résoudre des problèmes sans nécessiter d'intervention humaine.

Les systèmes d'informatique cognitive utilisent des algorithmes d'apprentissage statistique (Machine Learning). Ils acquièrent continuellement des connaissances à partir des données qui leur sont transmises, en les décortiquant pour en tirer des informations. Ces systèmes affinent sans cesse leurs méthodes de recherche de schémas, ainsi que leurs modes de traitement des données, afin d'être en mesure d'anticiper de nouveaux problèmes et d'élaborer des solutions possibles.

L'informatique cognitive est utilisée dans de nombreuses applications d'intelligence artificielle (AI, Artificial Intelligence), notamment les systèmes experts, la programmation en langage naturel, les réseaux neuronaux, la robotique et la réalité virtuelle. L'expression est étroitement associée au système d'informatique cognitive d'IBM, Watson.

Cette définition a été mise à jour en février 2016

- ANNONCES GOOGLE

LeMagIT

Close