Le Big Data est un phénomène marqué par l’explosion de la volumétrie des données notamment sur internet.
Cette volumétrie a une tendance à l’inflation non contrôlée. Selon une étude de deux universitaires de Philadelphie le volume de données disponible sur le net double tous les 18 mois alors que la capacité des entreprises à le traiter n’augmente que de 6%...
Les méthodes classiques de traitement de l’information aux fins de produire un sens commercialement exploitable à partir de ces données repose sur les postulats traditionnels du datamining et des logiques déductives:
- recueil-stockage-normalisation d’une exhaustivité de données sur un maximum d’individus,
- segmentation de ces individus sur la base du plus petit dénominateur commun,
- définition de probabilités de réaction applicables à ces ensembles d’individus,
- création a priori sur ces bases, de règles d’interaction applicables.
On finit par bâtir des usines à gaz tout en ayant toujours :
- un temps de retard sur la réalité, rançon obligatoire d’une modélisation préalable,
- une approche probabiliste, valide statistiquement sur une population et non sur un individu.
C’est dire combien les approches 1to1 et Temps Réel sont peu compatibles avec ces technologies datées…
Pour faire face à ce besoin de production de sens exploitable en temps réel sur un individu donné, il y faudra des approches réellement disruptives. Il faudra admettre que les logiques déductives ne sont pas les plus adaptées et qu’il convient de mettre en œuvre de nouvelles logiques susceptibles de favoriser l’acquisition de connaissance de manière moins contraignante et plus efficiente.
Ceci est d’autant plus vrai sur le web :
- où l’individu est majoritairement non identifié, c'est-à-dire que l’on ne peut disposer sur lui d’un historique d’exploitation,
- où les dynamiques individuelles comme collectives étant fractionnées, plastiques, éphémères, on ne peut se reposer sur des schémas permanents même à court terme,
- où le temps réel est plus qu’une exigence, une vraie dictature.
Jean Pierre Malle, Directeur Scientifique de Netwave, a conçu une technologie agile de traitement de l’information, l’Analyse Situationnelle Réflexe, reposant sur des processeurs d’IA de nouvelle génération. Elle permet de produire :
- en temps réel,
- un sens commercialement exploitable sur la base d’un grand volume de données,
- une interaction pertinente ne reposant pas sur une modélisation préalable,
- sur un individu donné,
- tout en respectant son anonymat,
- sans imposer à l’entreprise de monter de très coûteuses usines à gaz de datamanagement.
Il s’agit d’une technologie disruptive de traitement de l’information en temps réel en environnement Big Data.
Sa principale limite est qu’elle ne peut s’appliquer à des cas où l’erreur est immédiatement léthale pour l’individu ou l’organisation concernée, l’erreur faisant justement partie du processus d’acquisition de connaissance.
C’est sur ces bases que la plateforme de RT Recommending WebSAles Booster a été conçue – et fait ses preuves chaque jour- et ce sont ces bases qui en font une solution particulièrement pertinente pour tout ce qui est information à traiter en temps réel aux fins de générer une interaction, toujours en temps réel, pour le e-commerce face au phénomène Big Data.