tim_oreilly-wikipedia.1192091652.jpg Web 2.0 est en pleine maturité. On commence à parler beaucoup de web 3.0 pour savoir de quoi il pourrait bien s’agir, comme je l’ai signalé il y a quelques jours .

Il se trouve qu’à l’occasion du livre que j’écris avec Dominique Piotet, nous avons réalisé (il y a quelques mois) une interview de Tim O’Reilly , le « père » de web 2.0, au cours de laquelle nous lui avons demandé qu’elle idée il s’en faisait. Voici un premier fragment du texte. Il sera suivi d’un second, puis actualisations provenant d’O’Reilly.

« J’ai en fait deux ou trois scénarios plausibles face auxquels je dirais « oui c’est suffisamment différent pour que je l’appelle web 3.0 ».

« Le premier repose plus sur un nouveau type d’intelligence artificielle (IA) qui émerge avec toute cette idée de tirer parti de l’intelligence collective (harnessing collective intelligence) qui caractérise web 2.0. C’est presque comme la vieille plaisanterie de Pogo , le personnage de la bande dessinée du même nom: « Nous avons rencontré IA et c’est nous ».

« Le fait est que Google est intelligent parce que nous y contribuons. C’est le génie du PageRank. Il ne s’agit pas seulement d’un algorithme qui étudie le document. Il étudie la conduite des gens en matière de liens. Sur Digg.com où les articles sont promus par le vote des gens, nous sommes explicitement mis au travail comme des composantes d’un programme.

« Quant à web 3.0 il y a deux histoires qui indiquent des points d’inflexion (tipping points). La première concerte la traduction chez Google. Ils ont récemment gagné une compétition de traduction automatique du chinois à l’anglais et de l’arabe à l’anglais organisée par Darpa (Defense Advanced Research Projects Agency) l’agence du Pentagone pour la recherche. Or ils n’ont personne parlant chinois ou arabe qui travaille sur ce projet. Ils n’ont même pas de nouveaux algorithmes. Ils ont simplement plus de données. Et ce qui ne marche pas quand les bases de données ont des millions de mots marche vraiment bien quand elles en ont des milliards.

« L’autre histoire m’a été racontée par Jeff Jonas fondateur de Systems Research & Development, une société de Las Vegas rachetée par IBM. Il a commencé dans les casinos en essayant de reconnaître les gens avec un software capable de dire quelque chose du genre: « Saviez-vous que le type qui est en train de gagner à la table 4 avait la même adresse il y a trois ans que le type qui distribue les cartes à la table 4? » Ils ont maintenant un contrat avec le Département de la sécurité intérieure. La dimension politique a de quoi faire peur, mais la technologie est vraiment cool.

« Ils ont construit une base de données avec 3 millions d’Américains. Elle contient 670 millions d’éléments d’informations. Quand ils ont un Tim O’Reilly et un T. O’Reilly. Ils ne savent pas si c’est la même personne. Ils ajoutent donc des données mais ils se sont rendu compte qu’à partir de 670 millions le système ne pouvait pas aller plus loin. Ils ont rajouté 30 millions de données supplémentaires et le système est revenu à 599 millions.

« Quant on les réunit, ces deux histoires disent qu’il y a des points d’inflexion dans l’échelle des données auxquelles nous sommes en train de parvenir et qu’à partir d’une certaine échelle on arrive à de nouveaux comportements. Si on ajoute cela à la notion d’intelligence artificielle on arrive à un niveau où nous pourrions avoir des surprises. C’est là un des scénarios possibles pour web 3.0. »

A suivre…

[MaJ le 12 octobre à 08h50: je viens de me rendre compte que je n’avais pas signalé clairement les propos d’O’Reilly. Voici qui est fait. J’espère que cela n’aura pas créé trop de confusion.]

J’enquête, je suis et j’analyse les technologies de l’information et de la communication depuis la préhistoire (1994). Piqué par la curiosité et l’envie de comprendre ce que je sentais important,...