Aujourd’hui, l’usage d’Internet et des nouveaux moyens de communication génère une quantité de données impressionnante. Grâce, notamment, au développement du Cloud Computing, les particuliers et les entreprises créent et stockent continuellement de plus en plus de ressources de tailles et de natures variées. Face à cette réalité, on regroupe désormais sous le nom de Big Data (“déluge de données” en français) aussi bien ces quantités de données que les problématiques et les solutions concernant leur gestion et leur utilisation. Même si les progrès en matière de stockage permettent aujourd’hui de conserver l’exhaustivité de ces données, la question de leur intérêt et de l’utilisation qui pourrait en être faite se pose de plus en plus.
D’après IDC, l’information totale produite chaque année par les entreprises devrait connaitre une croissance annuelle de 67% de 2007 à 2011, passant de 75 exaoctets à 580 exaoctets (1 exaoctets = 1 milliard de gigaoctets) »
Ce que IDC appelle l’univers numérique, c’est-à-dire la quantité d’informations numériques créée ou répliquée annuellement, va être multipliée par 44 en 2020 par rapport à son niveau de 2009, pour atteindre 35 zettaoctets (1 zettaoctet = 1000 milliards de gigaoctets)
Source : Qualité des données, quelle(s) vérités dans les entreprises (EBG, 2011)
Et si nous réussissions à faire parler cette multitude de données ? Si nous parvenions à en tirer des connaissances exploitables ? C’est le défi que se lancent un grand nombre de sociétés informatiques (Microsoft, Dell, IBM ou Oracle pour ne citer qu’elles), par l’intermédiaire de leurs spécialistes (les experts de l’analyse des données) et le développement de solutions logicielles innovantes. Continue reading