Que retenir du salon Big Data & AI Paris 2020 ?

Sep 18, 2020 | Actus DVC

Initialement prévu en mars, l’édition 2020 du Big Data et IA Paris est un des premiers salons IT post-covid à avoir ouvert ses portes : une occasion pour de nombreux professionnels du secteur de se retrouver et enfin échanger de vive voix. Des allées forcément clairsemées, loin des 20 000 visiteurs habituels mais une volonté d’adaptation de la part des organisateurs avec la tenue d’une version virtuelle du salon via une plateforme en ligne. Les visiteurs full pass disposent de quelques semaines pour accéder au replay de toutes les interventions mais vous pouvez plus simplement poursuivre la lecture de notre compte-rendu.

Alors, que retenir de ces deux jours de grand’messe autour de la data et l’IA?

 

La donnée : un enjeu national et international

Restituons rapidement le décor avant de nous intéresser aux problématiques business. Saviez-vous qu’en moyenne, 300 entreprises disposent de données vous concernant ? Que cela vous amuse ou vous inquiète, nous exhalons de la donnée en permanence et la valorisation de ces péta-octets d’informations constitue un levier de performance certain, peu importe le secteur ou le métier.

Qu’est-ce que le Big Data sinon de l’information ? L’information a toujours été un principe actif des relations internationales et de la conflictualité contemporaine. La donnée est devenue source de pouvoir et les cartes se redistribuent. Rappelons par exemple que la valorisation actuelle d’Apple dépasse toutes celles, cumulées, des sociétés du CAC 40.

Nouveau call-to-action

Aujourd’hui la maîtrise des méta-plateformes de données par les grandes puissances mondiales endosse un rôle aussi important que celui de l’armement. Comme l’a rappelé Cédric O (secrétaire d’état chargé du numérique) en ouverture, c’est un sujet pris à bras-le-corps par l’État français. En effet, le numérique représentera le 2e poste du plan de relance de 7 milliards d’euros.

Si l’Europe ne dispose pas de sa méta-plateforme pour lutter à armes égales contre les USA ou la Chine, la France œuvre à l’acculturation et au soutien de ses forces vives. La Direction Générale des Entreprises lance ainsi son projet « IA booster » à destination des PME et ETI, avec un soutien effectif de l’état via une aide directe et un accompagnement de bout en bout pour une transformation numérique par l’IA.

En somme, une volonté d’accélérer la transformation numérique pour les entreprises de tous les secteurs. Car si la France est régulièrement en pointe de la recherche fondamentale, elle peine parfois à créer des débouchés d’application ou de go-to-market.

 

Tendances et perspectives : quels cas d’usage Big Data ?

Plus près de vous, quid des applications concrètes du Big Data dans votre activité ? Quelles best practices se dégagent de l’utilisation de ces technologies depuis 5 ans ? Les nombreuses conférences ou ateliers proposés ont fait émerger plusieurs enjeux décisifs.

Au-delà du fétichisme et de l’effet de mode, Marc Fasquelle (Deputy Director for Digital Transformation Banque de France) a ainsi rappelé sa ligne de conduite : penser avant tout gouvernance, transversalité et finalité business.

L’on se rend compte que ce constat a été partagé – quasiment martelé – durant tout le salon par des intervenants de groupes du CAC 40 ou du secteur public (Société Générale, Enedis, Suez, SNCF, Google…). S’embarquer sans analyse stratégique préalable dans un choix de plateforme ou une migration Big Data ne pourra jamais porter les fruits escomptés. Une réflexion profonde sur les usages futurs de la donnée par le prisme de use case, à tous les niveaux de l’organisation, est indispensable. Plusieurs éléments sont donc à prendre de front dans ce type de projets.

Quel est le rôle du Chief Data Officer ?

Finalement, la préparation de la donnée est la réelle clef de voûte du process, représentant parfois jusqu’à 70% du temps de réalisation d’un projet.

Apparu il y a quelques années avec des contours propres à chaque entreprise, le rôle du Chief Data Officer ne cesse de gagner de l’importance. Selon le cabinet d’analyse Gartner, 90% des grandes organisations aurait désormais un CDO. On constate également que 28% seulement d’entre eux estiment leur rôle comme « réussi et reconnu », selon une étude de Harvard Business Review.

De notre point de vue, le rôle du CDO consiste à maximiser la valeur et la création de données, les harmoniser sur tout leur cycle de vie, créer un langage commun entre les organisations tout en embarquant et en responsabilisant les métiers dans leur usage. Une politique de gouvernance des données claire et structurée sera donc votre meilleure alliée dans un projet Big Data.

> À LIRE AUSSI : Chief Data Officer : une espèce en voie d’évolution ?

 

L’avenir est dans le cloud

A noter qu’au niveau des tendances techniques, les services cloud ne cessent de gagner du terrain avec un rôle d’accélérateur et aussi de simplificateur du côté du client. La gestion des montées de version, des ressources serveur, de la sécurité s’en trouve grandement facilitée. De par les revenus qu’ils en tirent, les grands opérateurs comme Azure ou AWS sont également plus enclins à maintenir leurs outils dans le temps. Typiquement, on voit par exemple les problèmes que peuvent causer des situations telles que le rachat de Hortonworks par Cloudera.

Comme l’a rappelé notre expert Big Data Benoît Petitpas lors de son atelier dédié à la fin prochaine du support d’Hortonworks et à ses options de sortie, il apparaît que l’avenir continue à se profiler dans le cloud, particulièrement en mode services managés plutôt qu’en Lift and Shift.

 

Sécurité, confiance et éthique dans la data

Avec l’intervention de Christopher Wylie, lanceur d’alerte de l’affaire Cambridge Analytica (50 millions d’utilisateurs dépouillées de leurs infos sur facebook et des conséquences politiques aux présidentielles américaines) la question de la sécurité ne pouvait être éludée lors de ce salon. Comme souvent, ce n’est pas vers la technologie mais vers l’usage des décisionnaires qu’il faut porter la vigilance.

L’Europe a mis en place la RGPD dans cette optique, après le scandale des écoutes de chefs d’États par les USA en 2013. Ce fut également une réponse aux inquiétudes légitimes d’usagers se posant des questions sur l’utilisation de leurs données. Basée sur un texte complexe de 200 pages, cette règlementation représente une contrainte forte, notamment pour les fonctions marketing mais la prudence n’est pas superflue. Rassembler une manne de données dans un data lake pour un usage futur non définie reste le conflit d’intérêt du Big Data : il faut donc pouvoir justifier de l’usage de vos données externes.

Entreprises publiques, distribution, santé… nombreux sont les secteurs sensibles et le vol des dossiers médicaux de 25% des habitants de Singapour en 2018 reste dans les mémoires. De l’avis de Patrice Bigeard (Agence Nationale de Sécurité Informatique) entraîner des algorithmes sur de grandes bases de données reste un des meilleurs axes de protection.

A l’échelle de l’entreprise, la question de la sécurité est tout aussi centrale, a fortiori lorsqu’une crise comme le Covid accélère les usages du télétravail, le recours au Cloud, l’effervescence de l’analytique en « self-service ». Ceci confirme la récurrence de cet enjeu chez nos clients.

 

IA & Data : initiatives et cas d’application concrets

L’IA, selon le consultant et auteur spécialiste Olivier Ezratty présent à l’ouverture du salon, est actuellement dans une phase de plateau, de maturation depuis que les applications et surtout les industrialisations ont passé un cap à partir de 2015.

Pour rappel, il ne faut pas considérer l’IA comme un bloc ou une discipline indivisible. Bien que l’algorithme en constitue le socle, le terme regroupe en réalité une variété de concepts et de technologies : IA générale, raisonnement, IA explicable, IA déterministe, traitement du langage (Natural Langage Understanding, Natural Langage Generation, chatbots, text-to-speech) Machine Learning… Ce dernier champ étant lui-même sujet à débat.

Au détour du salon Big Data, nous avons observé l’émergence de nouveaux acteurs technologiques qui proposent des solutions basées sur l’intelligence artificielle. Parmi eux, nous avons décidé d’approfondir l’offre de ThoughtSpot, un de nos partenaires technologiques.

L’outil de data visualisation proposé par ThoughtSpot intègre une technologie combinant un moteur de recherche type Google et du machine learning. Elle génère, à la volée, des rapports ou des graphiques à partir d’une simple recherche en langage naturel (texte). Ainsi, les utilisateurs finaux peuvent exploiter la donnée de façon simple, intuitive et contextualisée, sans effort d’adaptation.

De façon générale, les retours d’expérience commencent à émerger, en particulier de la part de grands groupes dont la vaste quantité de données à disposition favorise mécaniquement l’entraînement des algorithmes. Citons par exemple la rédaction automatique d’analyses financières en langage naturel pour une grande banque de crédit ou bien l’analyse et le tri d’emails à destination des services de vente, de SAV, de comptabilité voire la génération intégrale d’une commande à partir d’un courrier électronique pour une plateforme d’Ecommerce BtoB.

Les chatbots poursuivent également leurs avancées et les applications de détection d’anomalies ou de maintenance prédictive trouvent un débouché dans de nombreux secteurs. Les applications dans la santé sont en développement, certaines ayant clairement été accélérées par le Covid : matching du catalogue existant d’environ 25 000 médicaments avec le virus, criblage moléculaire mais aussi aide à la gestion des ressources hospitalières, prédiction d’évolution des maladies, analyse d’imagerie médicale…

Une chose est sûre : l’IA concerne et peut se déployer dans absolument tous les secteurs d’activité et tous les métiers. Elle est déjà présente dans 30% des organisations françaises et le budget national qui lui est alloué a triplé depuis 2018.

 

Quelles conclusions pour le salon Big Data 2020 ?

Finalement, après deux jours de conférences et d’ateliers d’un excellent niveau général, nous sommes confortés dans nos convictions : la valeur et les challenges résident vraiment dans la donnée elle-même. Les GAFA, y compris ceux qui n’hésitent pas à ouvrir bon nombre de leurs technologies en open source, ne s’y trompent pas. Vous n’aurez jamais leurs données. Elles demeurent le nerf de la guerre, que ce soit pour entraîner des IA, détecter des opportunités métiers ou être directement monétisée auprès de de fournisseurs ou partenaires.

La bonne nouvelle c’est que chaque organisation, même à l’échelle d’une PME, dispose de ses propres données. Il ne tient qu’à vous d’en tirer le meilleur usage et de les transformer en levier de performance pure.

En tant que cabinet de conseil et d’expertise en data, DataValue Consulting accompagne les entreprises dans la valorisation de la chaîne de valeur de la donnée. Qu’il s’agisse de cadrage, de définition de roadmap ou d’accompagnement projet, nous mettons notre expérience au service de vos challenges.

 

La rédaction vous conseille

> 10 raisons d’une migration cloud dans un projet Big Data

> Hadoop Migration : que faire de votre Hortonworks ?

Livre Blanc

Mise en œuvre d'une stratégie 
de qualité des données 

Livre Blanc

Feuille de route d'une stratégie
de Data Management 

Baromètre annuel de la data

Les priorités des décideurs
data en 2022 

Share This