L’état civil à Paris, une dataviz de Mapize et Bluenove présentée par Ferdinand Boas

MapizeVoir la Viz : http://paris.mapize.com/

L’histoire de cette datavisualisation est intimement liée à la mise à disposition par la ville de Paris d’immenses quantités de données, de manière ouverte , à partir de janvier 2011.

Mapize et Bluenove ont voulu être les premiers à produire une datavisualisation à partir de ces données ouvertes et ont réalisé leur projet en à peine 24h. Cela leur a permis de profiter des retombées médias liées à l’ouverture des données de la ville de Paris pour se faire connaître dans le monde de l’Open Data.

L’état civil a été choisi car il offrait à la fois des données géographiques et des métadonnées. La datavisualisation permet de mettre en évidence, sur la carte de Paris, le nombre de mariages, naissances, décès, notamment, une année donnée.

Par exemple, on constate évidemment beaucoup de naissances dans les arrondissements possédant une maternité. Cependant, en filtrant le paramètre « présence de maternités », on peut constater une vraie tendance : l’évolution du nombre de naissance à domicile.

Selon Jean-Philippe Clément, Chef de projet Open data pour la ville de Paris, la datavisualisation est un vrai plus pour donner accès aux données. En effet, les tableurs mis à disposition par la ville sont laids, austères et ne fournissent que de la donnée « brute ». La datavisualisation « transforme cette chenille en joli papillon » et permet au public d’interpréter les données.

Les projets de datavisualisation encouragent donc fortement à sortir le plus possible de données en Open Data afin de les utiliser, de les réutiliser et d’apprendre grâce à elles.

D’ailleurs, des entreprises possèdent également, en interne, des jeux de données très intéressants. Il serait intéressant de les libérer car, dans le fond, elles ne sont pas forcément toutes si sensibles que cela. La collectivité y gagnerait sûrement.

Le Véritomètre : une dataviz d’OWNI présentée par Marie Coussin

VéritomètreVoir la Viz : http://itele.owni.fr/

Le Véritomètre est un projet transverse de datajournalisme (impliquant des journalistes, graphistes, programmeurs, etc.) lancé par OWNI avec i-Télé pour vérifier les citations chiffrées des 6 candidats à la présidentielle.

Le recours à la datavisualisation permet aux internautes de vérifier eux-même les citations (pour cela, plus de 200 graphiques concernant les sujets les plus « brûlants » de la campagne ont été mis au point). Est-ce que ce candidat dit la vérité sur le chômage ? Ce dernier est-il vraiment en train « d’exploser » ? Cette hausse de x % est-elle vérifiable ? Etc.

La réalisation du Véritomètre

La principale difficulté est venue du fait qu’il fallait pouvoir mettre quotidiennement à jour les données et en ajouter au fil des interventions des candidats. Les journalistes ont donc appris a rentrer eux-mêmes les données sur une base de données MySQL afin d’être autonomes.

Afin d’être visibles aussi bien sur le Web que sur i-Télé, les graphes devaient être réalisés en HD et avoir une charte graphique forte, facilement reconnaissable.

Aujourd’hui, le Véritomètre est devenu une vraie base de données autonome, réutilisable et rendant compte d’une réalité politique. Maintenant que les présidentielles sont terminées, il pourrait se prolonger en se concentrant sur les paroles du Président et des ministres.

Data Tuesday Expoviz : le comparateur CO2 de Greenext / WeDoData

Comparateur CO2Wedodata est un jeune studio qui aide les collectivités et les entreprises à utiliser la datavisualisation pour rendre leurs données éloquentes. François Prosper nous a présenté sa datavisualisation sur les émissions de CO2, réalisée pour le compte de la société de conseil en intelligence écologique Greenext. L’objectif était de permettre au grand public de constater l’impact de sa consommation en termes de CO2.

Voir la Viz : http://www.greencode-info.fr/comparateur.html

En effet, depuis le protocole de Kyoto en 2007 visant à réduire les émissions de gaz à effet de serre, on parle beaucoup du CO2 mais on visualise encore peu son impact. Nous ne sommes pas vraiment au fait de notre propre empreinte écologique au cours d’une journée et de ses évolutions depuis 10 ans.

Pourtant, les retombées néfastes des rejets de CO2 sont une réalité pour l’environnement. Pour les limiter, il faut travailler tous ensemble.

Qu’est-ce que nous apprend la datavisualisation ?

Si les trois principaux facteurs de rejet de CO2 sont l’industrie, le transport personnel et le transport collectif aérien, il en existe un autre auquel nous ne sommes pas ou peu sensibilisés : notre alimentation. En effet, le transport, la transformation et les opérations liées à la fin de vie des produits alimentaires ont un vrai impact sur la nature en termes de rejet de CO2.

La question est donc de savoir comment mesurer cet impact dans notre assiette.

Aujourd’hui, le gouvernement impose que l’impact CO2 des produits soit mentionné à côté du prix ou des ingrédients. Cependant, cet affichage parle peu au public.

Avec le Comparateur CO2, il est possible de comparer les impacts en émission de CO2 des 34 types de produits les plus vendus en France, de la conserve de haricots verts à la pizza, en passant par la brique de lait demi-écrémé. Les données sont ramenées à des équivalences éloquentes : par exemple, on apprend que 100 grammes de sucre en morceaux représentent autant d’émission de dioxyde de carbone que 8h48 de télévision.

De quoi s’interroger et revoir le contenu de nos chariots dans les supermarchés !

Retour sur le Data Tuesday spécial DataViz

ExpovizOrganisés tous les mois, les Data Tuesdays sont des événements permettant aux « data players » (l’ensemble des acteurs concernés par les problématiques liées aux données) de se rassembler pour échanger autour de sujets tels que le Big Data, l’Open Data ou la Data Visualization.

A l’occasion d’Expoviz (première exposition française sur la data visualization), Coopératique s’est rendu au Data Tuesday spécial DataViz du 19 juin 2012, au Campus des Cordeliers, dans le 6ème arrondissement de Paris. Datajournalistes, graphistes et designers de l’information s’y étaient réunis pour nous présenter 7 de leurs réalisations en mode «Pecha Kucha» (présenter oralement 20 images en restant 20 secondes par image). Nous allons vous présenter ces réalisations dans les billets qui suivent.

And the winner is…Social Media Awards 2012

Social Media Awards 2012
Les lauréats des SMA 2012

Via Smartwords

Pas moins de 15 enseignants chercheurs et plus de 250 étudiants de l’ESG Management School et de l’Université Paris 1 Sorbonne se sont réunis pour préparer la remise des Social Media Awards, récompensant les entreprises déployant les meilleures stratégies sur YouTube, Twitter et Facebook. Ils ont sélectionné les nommés, classés dans deux catégories : « Young performers » (petites et moyennes entreprises) et « Major achievers » ( grandes marques). Ce panel académique a également été chargé de déterminer les critères d’attribution, aussi bien quantitatifs que qualitatifs, de ces récompenses. Ils ont pu s’appuyer pour cela sur un système de suivi en temps continu mis au point par BlogAngels.

Six trophées ont été décernés par un jury de 11 experts, plus un septième récompensant le « coup de cœur » du jury.

Charlott, doublement récompensé dans la catégorie Young performers

Charlott, site de vente en ligne de lingerie féminine, a remporté deux trophées. Le premier est venu saluer la mise en place, sur YouTube, de l’élection de « Miss Charlott 2012 », ambassadrice de l’enseigne choisie pour un an parmi les internautes ; le deuxième a récompensé la page Facebook de la marque. Celle-ci lui permet de communiquer directement avec ses clientes sur les nouveautés proposées dans la boutique, et joue le rôle de canal de recrutement de conseillères de vente et d’hôtesses pour la vente à domicile.

Intermède de Media Aces

Avant de remettre leurs trophées aux grandes marques, deux représentants de l’association des entreprises utilisatrices des médias sociaux, Media Aces nous ont proposé leur point de vue sur 10 des plus importantes tendances du moment en matière de Web 2.0 :

  • la place de plus en plus importante de l’iPad dans nos habitudes (les autres tablettes restant globalement inaperçues) ;
  • l’engouement pour le « content marketing »;
  • la curation de contenu ;
  • la socialisation des sites Web ;
  • l’appétit grandissant des clients pour davantage de relation ;
  • le développement des réseaux sociaux d’entreprise ;
  • le fait que les collaborateurs deviennent de plus en plus des ambassadeurs de leur société ;
  • les risques inhérents à la prolifération des plates-formes (peut-on vraiment réussir à être efficace partout ou faut-il faire des choix tactiques ?) ;
  • la révolution dans les RH (soutenue par Linkedin) ;
  • le fait que les médias sociaux deviennent « le baromètre de la bulle 2.0 ».

A l’évocation de ces tendances a fait suite une série de pistes de réflexions pour l’avenir :

  • sommes-nous dans une époque de maturité ou de confusion en matière de réseaux sociaux ?
  • La TV connectée va t-elle devenir la TV sociale ?
  • Le phénomène du BYOD (Bring your own device) dans les entreprises (c’est-à-dire le fait de travailler de plus en plus à son bureau avec son propre matériel, ses propres données et ses propres réseaux) va-t-il créer un amalgame entre nos données personnelles et nos données professionnelles ?
  • Trop de crowdfunding va-t-il tuer le crowdfunding (via la subvention par les internautes de projets plus ou moins ambitieux) ?
  • Le buzz au risque du bad Buzz ?
  • Que penser des connivences entre réseaux sociaux et politique (nous repensons au récent tweet de Valérie Trierweiler, compagne du président François Hollande) ?
  • Au vu de la valeur que commencent à prendre nos profils sur le Web, ne doit-on pas de plus en plus craindre pour leur sécurité ?
  • Sommes-nous guettés par la « fatigue sociale » (d’où l’intérêt d’apprendre à faire des « pauses digitales ») ?

En somme, un vaste débat plein de réflexion et passionnant pour tromper notre impatience de connaître les autres gagnants de la soirée.

Les meilleures stratégies des Major achievers

Samsung a remporté le trophée de la meilleure stratégie sur YouTube. La richesse des contenus de la firme électronique a été judicieusement mise en valeur sur le site de partage de vidéos.

Universal Music a arraché ensuite le trophée de la meilleure stratégie sur Twitter. Twitter est un excellent moyen pour les fans de suivre leurs artistes préférés. C’est ainsi qu’un concert impromptu de Justin Bieber a pu rassembler plus de 700 fans alors qu’il avait été annoncé moins d’une heure avant par l’intéressé sur Twitter.

Groupama a emporté le trophée de la meilleure stratégie sur Facebook grâce à la page de la célèbre « Cerise ». Celle-ci n’était malheureusement pas présente dans la salle pour aller chercher son prix sur scène, comme l’a fait remarqué Adeline Breton (@a2linebreton) sur son fil Twitter !

Avant de passer à la remise du très attendu grand prix Social Media Awards, l’assistance a eu une pensée émue pour le fameux« homme nu » de La Redoute. Incarnation à lui tout seul du « bad buzz », ce dernier n’a jamais récolté les lauriers de son « travail ».

Quoi qu’il en soit, les lauréats de la soirée sont la preuve qu’on peut remporter du succès sur le Web sans avoir recours à du « nude, du cute ou du trash », ingrédients classiques du buzz, pour reprendre l’expression de Yann Gourvennec, co-fondateur de Media Aces et Directeur Web, Médias Numériques & Sociaux d’Orange

Le grand prix spécial, « coup de cœur » du jury, est finalement attribué à Leroy Merlin : recourant le moins possible aux artifices de communication, la chaîne de magasins propose des contenus riches, sollicitant la participation de ses fans (photos et vidéos de leurs réalisations, partage d’astuces entre internautes…). Associant démarches globales et locales, la chaîne a par ailleurs 40 de ses 120 magasins en France qui disposent de leur propre page Facebook.

Le rassemblement sur scène des lauréats a clôturé l’événement. Celui-ci a été un franc succès… notamment sur les médias sociaux, puisqu’il a fait  partie le soir même du top 3 des discussions les plus actives sur Twitter en France.

Rendez-vous en 2013 pour la prochaine édition !

Big Data et mobiles : un déluge de données sous-exploité

Glenn Pingul

Glenn Pingul

Dans un article de forbes.com, Glenn Pingul annonce que nos terminaux mobiles ont généré près de 600 pétaoctets de données par mois en 2011 (soit plus de 600 millions de gigaoctets), soit huit fois plus de données que tout l’Internet en 2000 ! Ce chiffre sera multiplié par 100 d’ici 2015.

A travers le monde, on compte plus d’utilisateurs de mobiles que d’utilisateurs de la banque, et même de l’électricité. Difficile donc de passer à côté du phénoménal torrent de données créé par nos mobiles. Les as du marketing ne s’y trompent pas et comptent bien faire parler ce flot de données riche d’informations au sujet de leurs (potentiels) clients. Continue reading

Des solutions Big Data pour suivre automatiquement les patients

Big Data ApplianceLe Big Data est réellement devenu une activité industrielle, sur laquelle les acteurs historiques de l’informatique tentent de se positionner. En témoigne la « Big Data Appliance » d’Oracle, présentée lors de l’OpenWorld 2011 (le premier forum sur le Global Open Source en Europe). Il s’agit d’une solution alliant une plateforme matérielle à un ensemble de logiciels afin d’acquérir, organiser et charger dans une base de données Oracle une multitude de données dans le but de les analyser.

Parmi les champs d’application possibles de cette solution, la santé arrive en bonne place. En effet, selon Andy Mendelsohn, Senior VP chez Oracle, la « Big Data Appliance » permettra, par l’intermédiaire de capteurs, de surveiller des patients à distance, en faisant remonter leurs données en continu. Si l’analyse révèle une anomalie, il sera alors possible d’intervenir en urgence.

Par rapport aux solutions Oracle déjà existantes, l’innovation vient de la quasi-simultanéité entre la récolte de données, leur analyse et les conclusions que l’on peut en tirer. Grâce à cette simultanéité, peut-être sera t-il possible demain de connaître à l’avance les patients les plus exposés à une maladie, afin de la prévenir plutôt que la guérir. On peut imaginer, par exemple, que les campagnes de vaccination seront alors beaucoup plus ciblées et moins aléatoires que ce que nous connaissons.

Le Big Data au secours des médecins débordés

big data et santé

Illustration : http://blog.cakehealth.com

La récolte des données au sujet des patients a toujours existé, même avant l’ère du numérique. Chaque patient est sensé pouvoir accéder à son dossier médical, et tout ou partie de ses données de santé est d’ores et déjà enregistré dans des registres (auprès des hôpitaux, des médecins, des pharmacies, de la Sécurité Sociale, etc.). Ces données sont évidemment éloquentes en matière de suivi médical et peuvent donner de précieuses indications en cas d’intervention (quel est l’âge du patient ? A t-il déjà été opéré ? Est-il allergique ? Suit-il un traitement ? A-t-il une maladie chronique ? Etc.).

L’accès à l’historique d’un patient est pertinent pour lui prodiguer les meilleurs soins. Mais, au-delà de ces informations classiques, les structures de soin ont désormais accès à de nouvelles données issues principalement de la télé-médecine (vidéos de consultations en ligne, données de géolocalisation, signaux des capteurs liés aux maladies chroniques, etc.). La problématique du Big Data se pose donc bien au monde de la santé : que faire de toutes ces données et que peut-on leur faire dire ?

Aujourd’hui, les personnels de santé n’ont plus toujours les moyens de traiter les patients avec l’attention qui serait de mise. En raison de l’affluence dans les hôpitaux, les patients sont parfois auscultés bien trop vite par des médecins débordés. Il peut en résulter des erreurs de diagnostic menant à des complications, ou des omissions par les médecins de symptômes avant-coureurs d’une maladie. Dans ces deux cas, les patients sont amenés à revenir à l’hôpital et, parfois, dans des états plus sévères. La conséquence logique est la suivante : les salles d’attente ne se vident pas, les médecins et les personnels de santé sont de plus en plus débordés et le risque de commettre des négligences s’accroît. Un cercle vicieux se met ainsi en place.

Que vient faire le Big Data dans tout cela ? Selon le docteur Nicholas Morrissey, chirurgien au New York Presbyterian Hospital, il peut aider à limiter ce cercle vicieux grâce à la numérisation des données des patients et à leur analyse. Concrètement, Le Dr Morrissey travaille avec Microsoft afin que les ordinateurs soient capables de repérer et signaler instantanément des facteurs de risques chez les patients en « épluchant » l’ensemble de leurs données (tabagisme, antécédents, durée déjà passée à l’hôpital, etc.). En laissant le logiciel faire cette évaluation, les personnels de santé gagnent un temps précieux. Les diagnostics promettent aussi d’être plus fiables car des médecins pressés sont à même de manquer certains de facteurs.

Est-ce efficace ? Le docteur Morrissey l’affirme : depuis 2010, année à partir de laquelle cette technologie a été mise en œuvre dans son hôpital, le taux de formation de caillots sanguins potentiellement mortels a été réduit d’environ un tiers. Cependant, il souligne également qu’une étude plus approfondie de l’impact du logiciel est nécessaire pour le relier à cette baisse.

Le Big Data au service des Jeux Olympiques de Londres

 

Le Big Data, champion olympique ?

Le Big Data, champion olympique ?

Dans un article daté du 29 mai 2012, le Webzine IT News nous apprend que le Big Data sera massivement sollicité durant les Jeux Olympiques de Londres. Comme on peut s’en douter, un grand nombre de données structurées ou non structurées peuvent être récoltées durant ces événements.

Pour le sport en lui-même, les caractéristiques de milliers d’athlètes en compétition pour des centaines d’épreuves vont pouvoir être recoupées avec d’autres données, telles que la vitesse du vent, la température à une heure précise, etc. afin de produire des analyses toujours plus fines de la performance.

Du côté commercial, la récolte et l’analyse de données telles que le nombre de spectateurs aux épreuves, ce qu’ils ont acheté et où, etc. vont permettre à la ville de Londres de déterminer si l’organisation des Jeux Olympiques a été un bon investissement.

En outre, l’analyse et le stockage en temps réel des flux d’informations vont permettre de mieux coordonner les transports (Transport for London va utiliser des données anonymes de géolocalisation émanant de téléphones mobiles pour suivre les mouvements de foule et anticiper les demandes de transports) ou permettront aux autorités d’assurer une meilleure sécurité en analysant les vidéos des caméras de surveillance.

De plus, les connaissances issues de l’ensemble de ces données permettront de comprendre ce qui a fonctionné ou pas pendant ces Jeux afin de ne pas reproduire d’erreur lors de prochains grands événements sportifs.

Comme le remarque Irfan Khan, auteur de l’article, le Big Data fera partie des grands champions de ces Jeux Olympiques (même si on ne le verra pas en première page des journaux) !

Les solutions de « Big Data » au service de notre santé

Le Big Data au service de notre santé

Le Big Data au service de notre santé
Source : Nuance for healthcare, nuance.com

Aujourd’hui, l’usage d’Internet et des nouveaux moyens de communication génère une quantité de données impressionnante. Grâce, notamment, au développement du Cloud Computing, les particuliers et les entreprises créent et stockent continuellement de plus en plus de ressources de tailles et de natures variées. Face à cette réalité, on regroupe désormais sous le nom de Big Data (“déluge de données” en français) aussi bien ces quantités de données que les problématiques et les solutions concernant leur gestion et leur utilisation. Même si les progrès en matière de stockage permettent aujourd’hui de conserver l’exhaustivité de ces données, la question de leur intérêt et de l’utilisation qui pourrait en être faite se pose de plus en plus.

D’après IDC, l’information totale produite chaque année par les entreprises devrait connaitre une croissance annuelle de 67% de 2007 à 2011, passant de 75 exaoctets à 580 exaoctets (1 exaoctets = 1 milliard de gigaoctets) »

Ce que IDC appelle l’univers numérique, c’est-à-dire la quantité d’informations numériques créée ou répliquée annuellement, va être multipliée par 44 en 2020 par rapport à son niveau de 2009, pour atteindre 35 zettaoctets (1 zettaoctet = 1000 milliards de gigaoctets)

Source : Qualité des données, quelle(s) vérités dans les entreprises (EBG, 2011)

Et si nous réussissions à faire parler cette multitude de données ? Si nous parvenions à en tirer des connaissances exploitables ? C’est le défi que se lancent un grand nombre de sociétés informatiques (Microsoft, Dell, IBM ou Oracle pour ne citer qu’elles), par l’intermédiaire de leurs spécialistes (les experts de l’analyse des données) et le développement de solutions logicielles innovantes. Continue reading