Gouvernance des données

Pas d’intelligence artificielle sans données ! Je dirais même plus, pas d’I.A. de qualité sans le volume de données nécessaire. Se pose alors immédiatement le problème de l’intégrité de celles-ci. La solution à cette équation passe inéluctablement par des façons de faire, des cadres, des normes… bref des réglementations.

C’est pourquoi le premier élément à considérer dans le futur proche du Big Data est la gouvernance des données. Par conséquent, il est facile d’imaginer que le RGPD (Règlement général sur la protection des données) de l’Union européenne va continuer à prendre de l’importance, de même que les thèmes connexes de types sécurité ou catalogues de données.

Autre point non négligeable, les risques qu’ouvrent la mise en place de la 5G. On désigne par-là la cinquième génération des télécommunications sans fil. Pour résumer, cette nouvelle technologie va permettre d’émettre et de recevoir des volumes de données très élevés.

Cette puissance servira à soutenir le Big data ou à l’IoT (Internet of Things) et offrira ainsi des performances toujours plus grandes aux utilisateurs. En revanche, on peut se questionner sur le contrôle informatique face au volume de données à stocker, à gérer et à sécuriser.

Open Source

L’incroyable croissance enregistrée par les programmes open source est la véritable preuve que c’est l’avenir du Big Data. Et chez MultipleMedia, on connait ! Parmi les entreprises propulsées en partie par des solutions open source, citons Amazon, Facebook et même IBM.

Si l’on en croit les experts, « le marché va doubler avec les technologies open source ».

Les entreprises qui font de véritables progrès dans le monde des données sont aussi celles qui poussent le plus les solutions open source. Cela prouve non seulement leur efficacité, mais indique également l’orientation et les choix financiers desdites entreprises.

Pour Tomer Shiran, co-fondateur et PDG de Dremio : « en utilisant des projets open source, des standards ouverts et des services en mode infonuagique, les entreprises fourniront bientôt leurs premières itérations de Data-as-a-Service aux consommateurs de données dans les secteurs d’activité critiques ».

Le passé, le présent et l’avenir du Big Data sont fortement ancrés dans la technologie open source et c’est sa plus grande force sur le long terme. Cela signifie également que les entreprises et les particuliers auront facilement accès à des solutions performantes et actualisées sans craindre de payer le prix fort.

Cependant, selon Karthik Ramasamy, fondateur de Streamlio (Apache Pulsar, Heron et Bookkeeper), « les tensions vont s’exacerber au fur et à mesure que les principaux fournisseurs de plates-formes [infonuagique] vont se tourner vers l’écosystème open source. Les grands fournisseurs vont saper les communautés et les fournisseurs open source en lançant leurs propres services infonuagiques fermés basés sur l’open source sans contribuer à ces communautés ». Attention, « la mesure dans laquelle ces entreprises agissent en tant que “bons citoyens” dans l’open source mérite d’être surveillée ».

Edge Computing

C’est quoi, le Edge Computing ? On fait surtout référence ici aux capacités de calcul, en particulier autour de l’Internet des objets (IoT) et de l’IA, loin des technologies infonuagiques, mais plutôt sur le terrain, là où sont les capteurs de données. Cette innovation technologique vise à réduire le temps de latence entre la collecte de données, leur analyse et les mesures à prendre.

Sastry Malladi, Directeur Technique de FogHorn : « Alors que les projets d’IoT s’éloignent des approches centrées sur l’infonuagique, la prochaine étape dans l’évolution de l’intelligence artificielle et de l’IoT sera de convertir les algorithmes pour travailler à la périphérie dans un espace considérablement réduit. »

Selon Stephan Ewen, co-fondateur et directeur technique de Data Artisans, c’est « un excellent complément à la fois pour le prétraitement des données sur les appareils ou les passerelles, et pour l’exécution d’une logique événementielle en mode edge. »

Le Edge computing offre de meilleures performances que la technologie infonuagique, car il utilise moins de données entrantes et sortantes du réseau, pour des coûts moindres. Les entreprises peuvent également réduire leurs coûts de stockage et d’infrastructure si elles choisissent de supprimer les données collectées, mais inutiles.

Et si finalement on était mieux les pieds sur terre que la tête dans « le nuage » ?

big data