Travailler à l’ère du Big Data c’est se positionner selon 3 axes complémentaires. Le premier axe concerne le stockage de l’information. Plusieurs entreprises et communautés de développeurs ont œuvré depuis quelques années sur ce volet. Des changements perceptibles sont apparus dans les principes de stockage de l’information. Le plus spectaculaire est l’abandon de l’intégrité des données. Durant des décennies les bases relationnelles ont fait recette car elles garantissent l’intégrité des données grâce à des mécanismes intégrés dans les moteurs des bases de données. Avec le Big Data les données manipulées seront parcellaires, parfois incohérentes. Dans ces circonstances rechercher l’intégrité est un luxe bien inutile et pénalisant en termes de temps de traitement. Les systèmes noSQL ont abandonné l’intégrité au profit de la performance.

Le deuxième axe concerne le temps réel. Le principe de stockage de la donnée pour un usage futur et encore inconnu cède la place en partie à un principe d’exploitation immédiate. Ce principe a pour avantage de limiter le stockage à l’essentiel après filtrage des flux de données. Les flux de données exploités en temps réels nécessitent une conception différente des systèmes d’information. Des techniques d’agrégation, d’unification et de transformation en continu doivent être mises en œuvre. Par exemple, notre processeur d’analyse situationnelle en temps réel ASB permet au produit WebSales Booster de Netwave de comprendre la situation d’un visiteur d’un site e-commerce en vue de lui adresser en temps réels des recommandations non intrusives. Ce système ne sauvegarde pas d’information sur l’internaute, il ne se nourrit que du flux.

Le troisième axe concerne l’abstraction, c’est-à-dire la capacité à transformer les données brutes pour en extraire des concepts de plus haut niveau. Dans les systèmes d’information décisionnels ou de business-intelligence, il est fréquent de recourir à une conservation longue de données brutes selon le principe « nous ne savons pas aujourd’hui quelle consolidation sera nécessaire demain ». A l’ère du Big-Data cette notion s’efface devant l’incapacité de restitution d’une masse d’information avec intégrité. Au contraire, en transformant la donnée en extension (chaque information prise individuellement) en une donnée en compréhension (l’intelligence portée par les données est extraite), la quantité à conserver se réduit encore et l’accès se renforce. Notre processeur d’analyse situationnelle cognitif ASC réalise ces transformations.

Mais nous n’avons rien inventé, ces 3 axes sont couramment exploités depuis des millions d’années par une machine exceptionnelle: le cerveau.
Notre cerveau ne nous fait pas sauvegarder chaque détail de chaque image ou de chaque son qu’il traite. Grace à des processus temps réel, le cerveau est capable de dégager des signaux faibles et des singularités pour nous permettre d’agir et réagir à la situation.

Notre cerveau transforme en permanence les informations qu’il perçoit pour en extraire de l’intelligence. Il rapproche ces concepts émergeants de ceux déjà connus, les intègre et les fusionne, les fait évoluer et enregistre les nouveaux, c’est le phénomène d’apprentissage.