L’observatoire des discours, une dataviz politique

L'Observatoire des discours

L’Observatoire des discours – Cliquez sur l’image pour voir la dataviz.

 

 

 

 

 

 

Billet mis à jour le 20/07/2013

L’Observatoire des discours est un outil sémantique, fruit de la collaboration entre les entreprises Linkfluence et Jean Véronis Technologies, pour Le Monde.fr. Il s’appuie sur un corpus incluant tous les discours politiques de la présidentielle 2007 , ceux de la présidentielle 2012, et l’ensemble des discours de Nicolas Sarkozy de 2004 à 2012. Il permet d’explorer leur contenu sur une durée choisie et d’y apposer un traitement sémantique (entre François Hollande et Nicolas Sarkozy, qui a le plus dit « je » de janvier à mai 2012 ? Quel thème a été le plus abordé ? Par qui ? Etc.).

Des filtrages aussi pointus qu’intuitifs sont possibles (par personnes citées, termes employés,  etc.).

Lors de la présentation de cette dataviz  à l’occasion du Data Tuesday spécial Expoviz du 29 juin 2012, Guilhem Fouetillou, cofondateur et dirigeant de Linkfluence, a mis en avant la question de la maniabilité. Celle-ci est très importante car c’est en maniant facilement les données qu’on accède à la multiplicité des points de vue. Ce n’est qu’à ce prix qu’on peut voir apparaître un objet dans toute sa complexité.

Retrouvez ci-dessous Guilhem Fouetillou nous présenter l’Observatoire des discours lors d’Expoviz :

L’indicateur du vivre mieux, une dataviz de l’OCDE

OCDE - L'indicateur du vivre mieux

OCDE – L’indicateur du vivre mieux

 

 

 

 

 

 

Billet mis à jour le 20/07/2013

La première vocation de cette datavisualisation réalisée par l’OCDE est de montrer que le PIB par habitant d’un pays ne représente pas tout.

Tout ne passe pas par l’argent. Le PIB par habitant n’est pas un indicateur suffisant pour rendre compte du bonheur ou du bien vivre de la population.

Des données aux fleurs

Pour concevoir cette datavisualisation, il a fallu sélectionner et récolter plusieurs types de données sur le progrès au sens large : logement, revenu, emploi, liens sociaux, éducation, environnement, etc. Le but était que les internautes puissent choisir les critères qui évoquent le mieux le bien vivre selon eux…et donc définir leur propre indicateur.

Au final, chaque pays est représenté par une fleur et il est possible de manipuler les critères jugés importants pour obtenir des tendances.

Retrouvez ci-dessous Jérôme Cukier de l’OCDE qui nous présente l’Indicateur du vivre mieux, lors d’Expoviz :

I love democracy : la démocratie en chiffres… et en datavisualisation

I love democracyVoir la Viz : http://ilovedemocracy.arte.tv/fr/

« I love democracy » est un projet de visualisation interactive des données réalisé par Dataveyes pour la chaîne de télévision Arte.

Ce projet accompagne une série de documentaires sur la démocratie dans sept pays du monde (Tunisie, Russie, Inde, Grèce, États-Unis, Turquie et Maroc). En phase avec le caractère très immersif de ces documentaires (caméra à l’épaule, parole donnée aux populations sur place, etc.), Arte voulait pouvoir présenter sur le Web des informations plus objectives, chiffrées. Le rôle de Dataveyes a été de transformer ces données chiffrées en « histoires », pour dégager des tendances qui se dégagent de séries de chiffres statistiques.

Quels indicateurs choisir ?

Arte a laissé à Dataveyes une grande liberté de choix pour les indicateurs. Le but était de parler de démocratie avec des indicateurs moins centrés culturellement que d’habitude (la France a une idée très arrêtée de la démocratie…).

A partir des statistiques de l’ONU ou de la Banque Mondiale, il a été possible de choisir des indicateurs originaux et éloquents en termes de liberté et de démocratie. En voici quelques uns :

En termes d’expérience utilisateur, les internautes peuvent s’approprier l’information en sélectionnant un pays sur une carte et en avançant donnée par donnée. En jouant avec les curseurs, l’utilisateur est actif et peut également comparer deux pays.

I love democracy est une dataviz à la fois instructive et ludique qui trouverait toute sa place dans un cours d’histoire contemporaine.

L’état civil à Paris, une dataviz de Mapize et Bluenove présentée par Ferdinand Boas

MapizeVoir la Viz : http://paris.mapize.com/

L’histoire de cette datavisualisation est intimement liée à la mise à disposition par la ville de Paris d’immenses quantités de données, de manière ouverte , à partir de janvier 2011.

Mapize et Bluenove ont voulu être les premiers à produire une datavisualisation à partir de ces données ouvertes et ont réalisé leur projet en à peine 24h. Cela leur a permis de profiter des retombées médias liées à l’ouverture des données de la ville de Paris pour se faire connaître dans le monde de l’Open Data.

L’état civil a été choisi car il offrait à la fois des données géographiques et des métadonnées. La datavisualisation permet de mettre en évidence, sur la carte de Paris, le nombre de mariages, naissances, décès, notamment, une année donnée.

Par exemple, on constate évidemment beaucoup de naissances dans les arrondissements possédant une maternité. Cependant, en filtrant le paramètre « présence de maternités », on peut constater une vraie tendance : l’évolution du nombre de naissance à domicile.

Selon Jean-Philippe Clément, Chef de projet Open data pour la ville de Paris, la datavisualisation est un vrai plus pour donner accès aux données. En effet, les tableurs mis à disposition par la ville sont laids, austères et ne fournissent que de la donnée « brute ». La datavisualisation « transforme cette chenille en joli papillon » et permet au public d’interpréter les données.

Les projets de datavisualisation encouragent donc fortement à sortir le plus possible de données en Open Data afin de les utiliser, de les réutiliser et d’apprendre grâce à elles.

D’ailleurs, des entreprises possèdent également, en interne, des jeux de données très intéressants. Il serait intéressant de les libérer car, dans le fond, elles ne sont pas forcément toutes si sensibles que cela. La collectivité y gagnerait sûrement.

Le Véritomètre : une dataviz d’OWNI présentée par Marie Coussin

VéritomètreVoir la Viz : http://itele.owni.fr/

Le Véritomètre est un projet transverse de datajournalisme (impliquant des journalistes, graphistes, programmeurs, etc.) lancé par OWNI avec i-Télé pour vérifier les citations chiffrées des 6 candidats à la présidentielle.

Le recours à la datavisualisation permet aux internautes de vérifier eux-même les citations (pour cela, plus de 200 graphiques concernant les sujets les plus « brûlants » de la campagne ont été mis au point). Est-ce que ce candidat dit la vérité sur le chômage ? Ce dernier est-il vraiment en train « d’exploser » ? Cette hausse de x % est-elle vérifiable ? Etc.

La réalisation du Véritomètre

La principale difficulté est venue du fait qu’il fallait pouvoir mettre quotidiennement à jour les données et en ajouter au fil des interventions des candidats. Les journalistes ont donc appris a rentrer eux-mêmes les données sur une base de données MySQL afin d’être autonomes.

Afin d’être visibles aussi bien sur le Web que sur i-Télé, les graphes devaient être réalisés en HD et avoir une charte graphique forte, facilement reconnaissable.

Aujourd’hui, le Véritomètre est devenu une vraie base de données autonome, réutilisable et rendant compte d’une réalité politique. Maintenant que les présidentielles sont terminées, il pourrait se prolonger en se concentrant sur les paroles du Président et des ministres.

Data Tuesday Expoviz : le comparateur CO2 de Greenext / WeDoData

Comparateur CO2Wedodata est un jeune studio qui aide les collectivités et les entreprises à utiliser la datavisualisation pour rendre leurs données éloquentes. François Prosper nous a présenté sa datavisualisation sur les émissions de CO2, réalisée pour le compte de la société de conseil en intelligence écologique Greenext. L’objectif était de permettre au grand public de constater l’impact de sa consommation en termes de CO2.

Voir la Viz : http://www.greencode-info.fr/comparateur.html

En effet, depuis le protocole de Kyoto en 2007 visant à réduire les émissions de gaz à effet de serre, on parle beaucoup du CO2 mais on visualise encore peu son impact. Nous ne sommes pas vraiment au fait de notre propre empreinte écologique au cours d’une journée et de ses évolutions depuis 10 ans.

Pourtant, les retombées néfastes des rejets de CO2 sont une réalité pour l’environnement. Pour les limiter, il faut travailler tous ensemble.

Qu’est-ce que nous apprend la datavisualisation ?

Si les trois principaux facteurs de rejet de CO2 sont l’industrie, le transport personnel et le transport collectif aérien, il en existe un autre auquel nous ne sommes pas ou peu sensibilisés : notre alimentation. En effet, le transport, la transformation et les opérations liées à la fin de vie des produits alimentaires ont un vrai impact sur la nature en termes de rejet de CO2.

La question est donc de savoir comment mesurer cet impact dans notre assiette.

Aujourd’hui, le gouvernement impose que l’impact CO2 des produits soit mentionné à côté du prix ou des ingrédients. Cependant, cet affichage parle peu au public.

Avec le Comparateur CO2, il est possible de comparer les impacts en émission de CO2 des 34 types de produits les plus vendus en France, de la conserve de haricots verts à la pizza, en passant par la brique de lait demi-écrémé. Les données sont ramenées à des équivalences éloquentes : par exemple, on apprend que 100 grammes de sucre en morceaux représentent autant d’émission de dioxyde de carbone que 8h48 de télévision.

De quoi s’interroger et revoir le contenu de nos chariots dans les supermarchés !

Retour sur le Data Tuesday spécial DataViz

ExpovizOrganisés tous les mois, les Data Tuesdays sont des événements permettant aux « data players » (l’ensemble des acteurs concernés par les problématiques liées aux données) de se rassembler pour échanger autour de sujets tels que le Big Data, l’Open Data ou la Data Visualization.

A l’occasion d’Expoviz (première exposition française sur la data visualization), Coopératique s’est rendu au Data Tuesday spécial DataViz du 19 juin 2012, au Campus des Cordeliers, dans le 6ème arrondissement de Paris. Datajournalistes, graphistes et designers de l’information s’y étaient réunis pour nous présenter 7 de leurs réalisations en mode «Pecha Kucha» (présenter oralement 20 images en restant 20 secondes par image). Nous allons vous présenter ces réalisations dans les billets qui suivent.

Big Data et mobiles : un déluge de données sous-exploité

Glenn Pingul

Glenn Pingul

Dans un article de forbes.com, Glenn Pingul annonce que nos terminaux mobiles ont généré près de 600 pétaoctets de données par mois en 2011 (soit plus de 600 millions de gigaoctets), soit huit fois plus de données que tout l’Internet en 2000 ! Ce chiffre sera multiplié par 100 d’ici 2015.

A travers le monde, on compte plus d’utilisateurs de mobiles que d’utilisateurs de la banque, et même de l’électricité. Difficile donc de passer à côté du phénoménal torrent de données créé par nos mobiles. Les as du marketing ne s’y trompent pas et comptent bien faire parler ce flot de données riche d’informations au sujet de leurs (potentiels) clients. Continue reading

Le Big Data au secours des médecins débordés

big data et santé

Illustration : http://blog.cakehealth.com

La récolte des données au sujet des patients a toujours existé, même avant l’ère du numérique. Chaque patient est sensé pouvoir accéder à son dossier médical, et tout ou partie de ses données de santé est d’ores et déjà enregistré dans des registres (auprès des hôpitaux, des médecins, des pharmacies, de la Sécurité Sociale, etc.). Ces données sont évidemment éloquentes en matière de suivi médical et peuvent donner de précieuses indications en cas d’intervention (quel est l’âge du patient ? A t-il déjà été opéré ? Est-il allergique ? Suit-il un traitement ? A-t-il une maladie chronique ? Etc.).

L’accès à l’historique d’un patient est pertinent pour lui prodiguer les meilleurs soins. Mais, au-delà de ces informations classiques, les structures de soin ont désormais accès à de nouvelles données issues principalement de la télé-médecine (vidéos de consultations en ligne, données de géolocalisation, signaux des capteurs liés aux maladies chroniques, etc.). La problématique du Big Data se pose donc bien au monde de la santé : que faire de toutes ces données et que peut-on leur faire dire ?

Aujourd’hui, les personnels de santé n’ont plus toujours les moyens de traiter les patients avec l’attention qui serait de mise. En raison de l’affluence dans les hôpitaux, les patients sont parfois auscultés bien trop vite par des médecins débordés. Il peut en résulter des erreurs de diagnostic menant à des complications, ou des omissions par les médecins de symptômes avant-coureurs d’une maladie. Dans ces deux cas, les patients sont amenés à revenir à l’hôpital et, parfois, dans des états plus sévères. La conséquence logique est la suivante : les salles d’attente ne se vident pas, les médecins et les personnels de santé sont de plus en plus débordés et le risque de commettre des négligences s’accroît. Un cercle vicieux se met ainsi en place.

Que vient faire le Big Data dans tout cela ? Selon le docteur Nicholas Morrissey, chirurgien au New York Presbyterian Hospital, il peut aider à limiter ce cercle vicieux grâce à la numérisation des données des patients et à leur analyse. Concrètement, Le Dr Morrissey travaille avec Microsoft afin que les ordinateurs soient capables de repérer et signaler instantanément des facteurs de risques chez les patients en « épluchant » l’ensemble de leurs données (tabagisme, antécédents, durée déjà passée à l’hôpital, etc.). En laissant le logiciel faire cette évaluation, les personnels de santé gagnent un temps précieux. Les diagnostics promettent aussi d’être plus fiables car des médecins pressés sont à même de manquer certains de facteurs.

Est-ce efficace ? Le docteur Morrissey l’affirme : depuis 2010, année à partir de laquelle cette technologie a été mise en œuvre dans son hôpital, le taux de formation de caillots sanguins potentiellement mortels a été réduit d’environ un tiers. Cependant, il souligne également qu’une étude plus approfondie de l’impact du logiciel est nécessaire pour le relier à cette baisse.

Le Big Data au service des Jeux Olympiques de Londres

 

Le Big Data, champion olympique ?

Le Big Data, champion olympique ?

Dans un article daté du 29 mai 2012, le Webzine IT News nous apprend que le Big Data sera massivement sollicité durant les Jeux Olympiques de Londres. Comme on peut s’en douter, un grand nombre de données structurées ou non structurées peuvent être récoltées durant ces événements.

Pour le sport en lui-même, les caractéristiques de milliers d’athlètes en compétition pour des centaines d’épreuves vont pouvoir être recoupées avec d’autres données, telles que la vitesse du vent, la température à une heure précise, etc. afin de produire des analyses toujours plus fines de la performance.

Du côté commercial, la récolte et l’analyse de données telles que le nombre de spectateurs aux épreuves, ce qu’ils ont acheté et où, etc. vont permettre à la ville de Londres de déterminer si l’organisation des Jeux Olympiques a été un bon investissement.

En outre, l’analyse et le stockage en temps réel des flux d’informations vont permettre de mieux coordonner les transports (Transport for London va utiliser des données anonymes de géolocalisation émanant de téléphones mobiles pour suivre les mouvements de foule et anticiper les demandes de transports) ou permettront aux autorités d’assurer une meilleure sécurité en analysant les vidéos des caméras de surveillance.

De plus, les connaissances issues de l’ensemble de ces données permettront de comprendre ce qui a fonctionné ou pas pendant ces Jeux afin de ne pas reproduire d’erreur lors de prochains grands événements sportifs.

Comme le remarque Irfan Khan, auteur de l’article, le Big Data fera partie des grands champions de ces Jeux Olympiques (même si on ne le verra pas en première page des journaux) !