Nourri de liens pointant vers des projets de visualisation de données temporelles, le post précédent pourrait laisser penser que le traitement du temps, après tout, relève essentiellement de solutions graphiques, autrement dit de l’ingéniosité technique. Pourtant, ces projets constituent, au contraire, d’excellentes introductions scientifiques à la question du temps, de ses mesures et des réseaux distribués. Car nous sommes loin de pouvoir déployer, et encore moins d’archiver, l’ensemble des signaux ou des informations qui pourraient permettre de comprendre la temporalité des réseaux distribués d’informations (ou même les grandes bases de données) et, donc, de les cartographier globalement et avec rigueur. Les capacités techniques limitées (y compris pour les grands systèmes comme les moteurs de recherche) n’expliquent pas à elles seules la difficulté à traiter du temps sur les réseaux : il s’agit aussi de verrous théoriques. Pour le « temps », comme pour le reste, le web ne se laisse pas cartographier facilement.

Tout d’abord parce que le « temps » admet des niveaux de mesures très différents d’un niveau à l’autre d’une architecture distribuée. Admettons que je veuille produire une cartographie sur les « acteurs importants de l’Intelligence Economique » sur le web francophone. Que dois-je mesurer ? Les évolutions, lentes, des sites web ? Produire un index des contenus ? Le rang qu’ils occupent sur Google ou Bing, et qu’il faut calculer chaque mois ?  La dynamique accélérée des blogs qui, presque tous les jours, voient leurs contenus modifiés, repris, cités, commentés ? L’effervescence des tweets (burst), la fulgurance des buzzs (qui demain auront disparu) et de toute la connectique sociale en réseau et en temps réel ? Selon les « couches » du système, l’ingénierie à déployer n’est pas la même et, il faut le supposer, les « patterns » (ou les propriétés) du temps y différent singulièrement. L’exploration des patterns temporels des grandes bases de données en IST pose exactement le même type de dilemme : le temps (régulier) des remises à jours annuelles dans le Web of Science n’est pas le temps de l’émergence d’une nouvelle discipline (sur une ou plusieurs décennies) ni non plus celui, plus concentré, des conférences scientifiques qu’il faut veiller dans certains domaines presque chaque mois. Ces questions sont incontournables pour un cartographe de l’information et que la beauté, ou l’originalité, d’une solution graphique ne peuvent masquer.

Un « technicien du temps » pourrait me dire que toutes ces difficultés, frappantes dans un projet de cartographie dynamique, peuvent être levées puisque, après tout, la mesure du temps (quelle que soit sa « densité », lent ou rapide) se ramène à des questions de fréquences et d’amplitude, ce que l’on appelle en ingénierie le « traitement du signal ». C’est ici que se construisent les fameuses « courbes » de mesures des phénomènes temporels qui permettent de les comparer, d’étudier l’apparition de « signaux faibles », de comprendre comment des buzzs sur la toile se chevauchent, se complètent, s’annulent ou se succèdent. Ces outils, classiques, sont utiles pour un monitoring global d’un corpus (à petite échelle de quelques dizaines d’URL comme à l’échelle de plusieurs millions) car ils permettent d’attester de phénomènes massifs et incontournables. Cependant, la plupart des projets de cartographie incluant le « temps » dans les données traitées posent des questions redoutables que l’analyse du signal ne peut résoudre. Par exemple comment distinguer dans une cartographie de l’information les phénomènes temporels liés à la circulation de l’information sur le réseau (propagation d’une nouvelle, cheminement de l’information, type de réception par les internautes, degré de reprise de l’information…) des phénomènes liés à la transformation du réseau lui-même (apparition/disparition de nœuds et/ou de liens) ? Et comment les deux dimensions se complètent-elles ? Dans le premier cas, c’est toute l’histoire du succès rencontré par « COSMETOX », le guide édité par GreenPeace sur les cosmétiques et les parabens, que des communautés entières de blogeuses (et de blogeurs !) ont repris, dupliqué, envoyé, disséminé sur le web. L’information du public sur les parabens circule d’autant plus intensément et largement qu’elle se propage sur des structures hypertextes déjà constituées (notamment à partir des adresses des blogrolls). Dans le second, on a pu constater combien le projet de loi ADOPI, en son temps, a conduit à la création d’une quantité importante de sites et de blogs critiques très vite constitués en communauté « de combat ».

Autre problématique que rencontre un cartographe : comment représenter ces moments de « crise » où synchroniquement une grande partie des éléments d’un réseau se réorganisent en de nouvelles configurations ? (exemple de la répartition des partis politiques, à priori stable et indépassable, et la question européenne). Nombre de chercheur en Web Sciences ont signalé qu’il se passait parfois sur internet le même phénomène qu’en chimie, ou en physique : la transition de phase où un élément (sous certaines conditions de chaleur ou de pression) passe d’un coup de l’état gazeux à l’état liquide, ou de l’état liquide à l’état solide. Si le web vit de tels événements (tiping point), est-ce à l’échelle locale ou globale ? Et comment les représenter à partir de structures de graphes, donc de cartographie (comme dans la perspective de l’Atelier de Cartographie) ? La question du « temps dans les réseaux » résume tout l’intérêt de la cartographie de l’information : un équilibre fragile et original entre théorie et solution technique, mesures et interfaces.