Big data est à la mode. Tout le monde en parle. C’est le nouveau domaine où fleurissent les innovations. Les capital-risqueurs de Silicon Valley, moutonniers par excellence, n’investissent plus que dans ce secteur. Mais la question de l’impact sur les processus d’innovation est plus complexe.
Big data c’est le traitement de milliards de « data sets » (ensembles de données) recueillis par les appareils digitaux que nous utilisons consciemment (comme l’ordinateur) ou que nous alimentons inconsciemment (comme les caméras de surveillance). Activement, quand nous réalisons une transaction online ou passivement, quand nous nous déplaçons avec notre téléphone mobile.
Il y en a plus que nous ne saurions imaginer et tout change quand au lieu d’avoir des milliers ou des millions de « points de données » on a accès à des milliards et que nous pouvons les traiter dans un délai raisonnable, voir en temps réel.
Ainsi, le professeur Shigeomi Koshimizu mesure la façon dont nous posons nos postérieurs sur un siège de voiture : 360 points différents qu’il mesure sur une échelle de 1 à 256. Ça lui permet de dire avec 98% de succès si la personne qui s’assied est bien celle qui est sensée s’asseoir (utile pour détecter un voleur). La comparaison avec des données sur les accidents de voiture devrait lui permettre de repérer quand quelqu’un s’endort et de déclencher une alarme qui réduirait les accidents.
L’exemple est donné par dans un excellent article du numéro de mai-juin de Foreign Affairs. Les auteurs y expliquent d’une façon limpide trois points essentiels à comprendre.
- D’abord on ramasse tout ce qu’on peut. Les statistiques traditionnelles se voulaient un travail intelligent sur une petite quantité de données. Maintenant on prend tout.
- Ensuite, au lieu de chercher à choisir avec précision les données signifiantes on travaille volontiers avec des données en désordre ou qui apparemment ne veulent pas dire quand chose… comme la taille et le mouvement de nos postérieurs… mais qui permettent d’arriver à de très grandes quantités e données.
- Enfin, nous devons apprendre à penser différemment : il faut parfois renoncer à comprendre la cause des choses et accepter qu’on peut faire des merveilles en comprenant leurs relations. Ainsi l’entreprise de messageries UPS a mis des capteurs en certains points de ses véhicules dont elle sait que leur échauffement peut précéder une panne. UPS n’a pas besoin de savoir pourquoi il suffit d’avoir constaté la corrélation pour changer la pièce au garage plutôt que dans la rue.
La capacité de recueillir et de traiter de telles quantités de données permet d’envisager une grande variété de produits et de services nouveaux. Mais la question difficile est celle de l’impact d’une telle tendance sur les processus d’innovation.
L’analyse des données peut ouvrir le chemin à des innovations incrémentales en permettant de mieux comprendre, voir de prédire à partir d’éléments existants désirs et besoins des utilisateurs. Elle peut permettre de savoir comment ils réagissent aux innovations qu’on leur propose ce qui renforce l’importance de la phase d’expérimentation (à condition de pouvoir faire les tests avec un nombre suffisant de personnes).
Mais qu’en est-il des innovations disruptives ? Steve Jobs disait que « les gens ne savent pas ce qu’ils veulent jusqu’à ce qu’on le leur montre ». Peut-être manquait-il tout simplement de données.
Au final, la question posée me semble être : Quel est le pas de côté que l’on peut faire quand on a recours au big data ? Quelle est l’approche oblique qui fera naître l’association créative ? Les dirigeants de Xerox et le site suédois InnovationManagement.se semblent d’accord pour dire qu’il faut y ajouter le travail en profondeur de l’ethnographie.
Einstein nous avait prévenu quand il affichait sur le mur de son bureau de Princeton : « Tout ce qui peut être compté ne compte pas et tout ce qui compte ne peut pas être compté ».