Le Big Data au service des Jeux Olympiques de Londres

 

Le Big Data, champion olympique ?

Le Big Data, champion olympique ?

Dans un article daté du 29 mai 2012, le Webzine IT News nous apprend que le Big Data sera massivement sollicité durant les Jeux Olympiques de Londres. Comme on peut s’en douter, un grand nombre de données structurées ou non structurées peuvent être récoltées durant ces événements.

Pour le sport en lui-même, les caractéristiques de milliers d’athlètes en compétition pour des centaines d’épreuves vont pouvoir être recoupées avec d’autres données, telles que la vitesse du vent, la température à une heure précise, etc. afin de produire des analyses toujours plus fines de la performance.

Du côté commercial, la récolte et l’analyse de données telles que le nombre de spectateurs aux épreuves, ce qu’ils ont acheté et où, etc. vont permettre à la ville de Londres de déterminer si l’organisation des Jeux Olympiques a été un bon investissement.

En outre, l’analyse et le stockage en temps réel des flux d’informations vont permettre de mieux coordonner les transports (Transport for London va utiliser des données anonymes de géolocalisation émanant de téléphones mobiles pour suivre les mouvements de foule et anticiper les demandes de transports) ou permettront aux autorités d’assurer une meilleure sécurité en analysant les vidéos des caméras de surveillance.

De plus, les connaissances issues de l’ensemble de ces données permettront de comprendre ce qui a fonctionné ou pas pendant ces Jeux afin de ne pas reproduire d’erreur lors de prochains grands événements sportifs.

Comme le remarque Irfan Khan, auteur de l’article, le Big Data fera partie des grands champions de ces Jeux Olympiques (même si on ne le verra pas en première page des journaux) !

Les solutions de « Big Data » au service de notre santé

Le Big Data au service de notre santé

Le Big Data au service de notre santé
Source : Nuance for healthcare, nuance.com

Aujourd’hui, l’usage d’Internet et des nouveaux moyens de communication génère une quantité de données impressionnante. Grâce, notamment, au développement du Cloud Computing, les particuliers et les entreprises créent et stockent continuellement de plus en plus de ressources de tailles et de natures variées. Face à cette réalité, on regroupe désormais sous le nom de Big Data (“déluge de données” en français) aussi bien ces quantités de données que les problématiques et les solutions concernant leur gestion et leur utilisation. Même si les progrès en matière de stockage permettent aujourd’hui de conserver l’exhaustivité de ces données, la question de leur intérêt et de l’utilisation qui pourrait en être faite se pose de plus en plus.

D’après IDC, l’information totale produite chaque année par les entreprises devrait connaitre une croissance annuelle de 67% de 2007 à 2011, passant de 75 exaoctets à 580 exaoctets (1 exaoctets = 1 milliard de gigaoctets) »

Ce que IDC appelle l’univers numérique, c’est-à-dire la quantité d’informations numériques créée ou répliquée annuellement, va être multipliée par 44 en 2020 par rapport à son niveau de 2009, pour atteindre 35 zettaoctets (1 zettaoctet = 1000 milliards de gigaoctets)

Source : Qualité des données, quelle(s) vérités dans les entreprises (EBG, 2011)

Et si nous réussissions à faire parler cette multitude de données ? Si nous parvenions à en tirer des connaissances exploitables ? C’est le défi que se lancent un grand nombre de sociétés informatiques (Microsoft, Dell, IBM ou Oracle pour ne citer qu’elles), par l’intermédiaire de leurs spécialistes (les experts de l’analyse des données) et le développement de solutions logicielles innovantes. Continue reading