Parmi les travaux récents de cartographie de l’information publiés en ligne, figure l’étude minutieuse et très instructive de Jean-Christophe Plantin à propos de la catastrophe de Fukushima (« Post-Fukushima Radiation Debate: Mapping The online Issue-Network »). L’angle choisi par Jean-Christophe (membre de la même équipe de recherche que moi et animateur du blog cartonomics) est celui des débats sur les méthodes et techniques de mesure de la radioactivité et de leurs interprétations possibles. Il s’agit d’un travail de type « cartographie des controverses scientifiques et techniques » où sont contextualisées et analysées aussi bien les sources « officielles » de la mesure de la radioactivité (gouvernement japonais, préfectures, AIEA…) que les sources alternatives composées d’organisations issues de la société civile japonaise que de bloggeurs indépendants. Pour ceux qui veulent « rejouer » les données de la cartographie, le fichier GEXF est accessible sur son blog ainsi que les principales URL analysées du point de vue de leur contenu comme de leurs liens hypertextes réciproques. Une lecture instructive du web japonais dédiée à une catastrophe dont on célèbre le tristement premier anniversaire.

Dans le même registre, je suis tombé sur l’excellente étude de Guillaume Ollivier (INRA), « Jalons pour une étude (con)textuelle du web » dont l’objectif est de réindexer des corpus à partir d’une analyse croisée liens-mots-clés sur le domaine de l’agroécologie. Comme souvent en sciences humaines, l’orientation est très qualitative et organisée autour d’une convergence entre « l’analyse relationnelle du web » (webométrie) et la « sociologie argumentative » que l’auteur combine dans l’analyse d’un set d’URLs.

Ces deux études illustrent l’essor actuel de la cartographie à base de graphes dans ce domaine émergent que sont les digital humanities. A l’intersection des sciences humaines et sociales et des sciences informatiques est très riche en apports méthodologiques, notamment en matière de définition des corpus et de modalités de traitement (souvent manuel) des données. L’équipe du programme TIC-Migrations dirigé par D. Diminescu a déjà produit des contributions de référence en matière, par exemple, de couplage d’outils comme Gephi avec des dispositifs supervisés et/ou manuels d’observation du web (comme le Navicrawler), des outils mobilisés dans des projets d’observations sociologiques de communautés de migrants en ligne.

Et puisque, puisque Gephi est concerné, je signale l’ouverture sur Udemy de deux supports de cours dédiés à Gephi, l’un en français et anglais (que l’on doit à Sébastien Heymann) et l’autre en chinois puisque, après les Etats-Unis, c’est maintenant aussi en Chine que se développent des communautés utilisatrices de l’application.

Par ailleurs, on trouvera mention faite à Gephi sur l’excellent hub de la DataViz DailyTekk dans la catégorie « Data Visualization Tools and Software ». Enfin, je ne résiste pas à la mention spéciale que je dois faire à Matthieu Totet que je ne connaissais pas il y a encore quelques jours et dont j’ai découvert la vidéo sur Youtube :

Evidemment, je l’ai venir illico-presto dans mon cours à l’Université de Technologie de Compiègne! Je reviendrai bientôt sur ce blog sur l’un des enjeux majeurs de la cartographie de l’information aujourd’hui qui consiste à traiter des données réseau distribuées, en temps réel, à partir de technologies ou de dispositifs eux-mêmes distribués.