Blog

3 axes pour travailler à l’ère du bigdata

Posted by Jean-Pierre Malle on 05/12/12 15:32

Travailler à l’ère du Big Data c’est se positionner selon 3 axes complémentaires.

 

Premier axe : le stockage de l’information.

 

Plusieurs entreprises et communautés de développeurs ont œuvré depuis quelques années sur ce volet. Des changements perceptibles sont apparus dans les principes de stockage de l’information. Le plus spectaculaire est l’abandon de l’intégrité des données. Durant des décennies les bases relationnelles ont fait recette car elles garantissent l’intégrité des données grâce à des mécanismes intégrés dans les moteurs des bases de données. Avec le Big Data les données manipulées seront parcellaires, parfois incohérentes. Dans ces circonstances, rechercher l’intégrité est un luxe bien inutile et pénalisant en termes de temps de traitement. Les systèmes NoSQL ont abandonné l’intégrité au profit de la performance.

 

Deuxième axe : le temps réel.

 

Le principe de stockage de la donnée pour un usage futur et encore inconnu cède la place en partie à un principe d’exploitation immédiate. Ce principe a pour avantage de limiter le stockage à l’essentiel après filtrage des flux de données. Les flux de données exploités en temps réels nécessitent une conception différente des systèmes d’information. Des techniques d’agrégation, d’unification et de transformation en continu doivent être mises en œuvre. Par exemple, le processeur d’analyse situationnelle en temps réel permet à notre solution WebSAles Booster de comprendre la situation d’un visiteur d’un site e-commerce en vue de lui adresser en temps réels des recommandations non intrusives. Ce système ne sauvegarde pas d’information sur l’internaute, il ne se nourrit que du flux.

 

Troisème axe : l’abstraction

 

C'est la capacité à transformer les données brutes pour en extraire des concepts de plus haut niveau. Dans les systèmes d’information décisionnels ou de business-intelligence, il est fréquent de recourir à une conservation longue de données brutes selon le principe « nous ne savons pas aujourd’hui quelle consolidation sera nécessaire demain ». A l’ère du Big-Data cette notion s’efface devant l’incapacité de restitution d’une masse d’information avec intégrité. Au contraire, en transformant la donnée en extension (chaque information prise individuellement) en une donnée en compréhension (l’intelligence portée par les données est extraite), la quantité à conserver se réduit encore et l’accès se renforce.

 

Mais nous n’avons rien inventé, ces 3 axes sont couramment exploités depuis des millions d’années par une machine exceptionnelle: le cerveau humain.

 

Notre cerveau ne nous fait pas sauvegarder chaque détail de chaque image ou de chaque son qu’il traite. Grace à des processus temps réel, le cerveau est capable de dégager des signaux faibles et des singularités pour nous permettre d’agir et réagir à la situation.

 

Notre cerveau transforme en permanence les informations qu’il perçoit pour en extraire de l’intelligence. Il rapproche ces concepts émergeants de ceux déjà connus, les intègre et les fusionne, les fait évoluer et enregistre les nouveaux, c’est le phénomène d’apprentissage. C’est l’avenir que nous projetons pour l’intelligence artificielle.

 

Jean Pierre MALLE, Directeur Scientifique Netwave

 

Topics: Big Data

Restez informé avec le récap hebdo

Catégories

Plus de catégories

Articles récents