Visiblement, nous ne partageons pas le même avis que certains acteurs du marché à ce sujet (Cf. VAD N°226 – Dossier Cross Canal « Les acteurs prennent la parole »). Une opinion qui semble répandue est que « les entreprises n’y sont pas prêtes ». Et ce, essentiellement parce qu’elles « empileraient » des outils divers sans intégration réelle des données. La solution serait chez les prestataires, prêts à bâtir les architectures d’intégration et d’analyse des données issues du cross chanel.
Cette opinion fait peu de cas de la forte capacité d’adaptation des entreprises. Et surtout elle fait l’impassesur les limites de l’agrégation de données hétérogènes et asynchrones, pour un usage opérationnel temps réel.
Car il y a la vie rêvée, celle ou le consommateur se plie au rythme des dataminers. Et la vie réelle, celle où l’achat non réalisé sur un site l’est dans les 3 mn suivantes sur un site concurrent ! Celle où la chasseuse de bonnes affaires sur E Bay le matin, se transforme en amatrice de pulls en cachemire haut de gamme en boutique l’après midi. A quoi sert de consolider des données, de les agréger et de leur donner du sens quand on arrive 3 jours, 3 semaines, 3 mois après la bataille et que l’on essaie d’additionner des éléments dissonants?
Chez Netwave, nous pensons que les entreprises sont culturellement tout à fait prêtes aux défis de la connaissance-client issus de la révolution digitale. La distribution en général - et le e commerce en particulier- vivent de l’innovation et la culture du changement y est la règle.
Et s’il y a bien un problème technique, c’est chez les offreurs de solutions qu’il se situe.
Selon une récente interview de G. Day et D. Reibstein, publiée par Knowledge@Wharton (25/11/2011), le nombre de données que les entreprises doivent traiter double tous les 18 mois et leur capacité de traitement, selon les projections les plus optimistes, n’augmente que de 3% durant la même période. A cette volumétrie que d’aucuns désignent sous le nom de Big Data (parlant même de Big Data Crash potentiel) se greffe le phénomène de la fragmentation de ces données et de leur hétérogénéité (phénomène Splinternet).
N’offrir comme seule réponse à ce redoutable défi que la construction d’immenses raffineries de traitement de ces données, avec des kilomètres de tuyauterie et des entrepôts de données toujours plus gigantesques, c’est se tromper de combat. La vraie question à régler est celle de l’essentialité (quelles données dois-je retenir et traiter en priorité ?) et celle de la célérité de traitement (à partir de quel moment le traitement d’une donnée est-il obsolète sur le plan opérationnel ?).
Le trop grand nombre de données à « collecter – gérer – exploiter » ainsi que la fugacité des comportements d’achats condamnent, sur le plan opérationnel - qui désormais se réduit à l’immédiat-, les outils déductifs et statistiques classiques du simple marketing comportemental.
Comme le dit Jean Pierre Malle, notre Directeur Scientifique, « Si l’homme qui analyse une situation « hors situation » fait appel à la déduction afin d’asseoir son raisonnement dans un espace de certitudes, il ne peut pas en être de même lorsqu’il analyse une situation « en situation » ».
A consommateur « plastique », c'est-à-dire fugace et multiforme, il y faudra des outils agiles assis sur des capacités d’analyse-interaction-correction temps réel plus que sur des potentiels d’analyse statistique « après coup ». La célérité devient plus importante que l’exhaustivité.
Ne menons pas la bataille d’hier : la balle est désormais plus dans le camp des offreurs de solutions que des entreprises dont la capacité d’early adoption n’a pas été mise en défaut au cours des dix dernières années. J’en veux pour preuve l’extraordinaire développement du e-commerce sous toutes ses formes, « e », « m », « f » et toutes celles qui s’inventent au quotidien.