Que (nous) font les big data ?

Article de Jérôme Berthier dans la Revue internationale et stratégique 2018/2 (N° 110)

Que (nous) font les big data ?

Article de Jérôme Berthier dans la Revue internationale et stratégique 2018/2 (N° 110)

Extrait: "Le big data peut se définir comme la transformation d’un maximum de  données de toutes natures en informations susceptibles d’aider à la  prise de décision. Cette dernière pourra soit être générée  automatiquement par un robot – on parle alors d’intelligence  artificielle (IA) –, soit relever de l’homme et dès lors être basée sur  des faits réels, et non plus sur des croyances qui guident encore trop  souvent des dirigeants persuadés de la pertinence de choix s’appuyant  pourtant uniquement sur leurs ressentis.
Malgré une popularité  croissante, qui confère au terme de big data un caractère de nouveauté,  la plupart des techniques utilisées aujourd’hui sont connues depuis très  longtemps. Les experts s’accordent ainsi pour citer les travaux d’Alan  Turing, dans les années 1950, comme les premiers pas dans le  développement de l’IA. Le traitement automatique du langage naturel est  également né à la même période. L’apprentissage automatique – ou machine  learning –, pour sa part, est un terme inventé en 1959 par Arthur  Samuel. Et si l’apprentissage profond – deep learning – est une  technique révolutionnaire largement utilisée dans l’IA, elle a néanmoins  vu le jour dans les années 1980-1990, notamment développée par Yann  LeCun.
Toutefois, l’analyse complexe des données demeurait, jusqu’en  2005 environ, très difficile, pour ne pas dire impossible, car coûteuse  en ressources de calcul et en raison du faible nombre de données  numérisées. Par exemple, en 1956, le premier ordinateur à disque dur  commercialisé, IBM RAMAC 305, disposait d’une capacité de 5 méga-octets  seulement, pour un coût de 100 000 euros…"

Acheter l'article sur Cairn.info