DEV Community

Benjamin Marsteau
Benjamin Marsteau

Posted on

Retour sur le Salon de la Data 2024 de Nantes

Le Salon de la Data 2024 à Nantes a rassemblé une multitude de passionnés de la donnée, offrant une richesse d’échanges et de découvertes pour les experts et praticiens du domaine. Cette journée a été rythmée par des conférences variées, où astuces, défis et succès liés à la gestion des données ont été partagés.

Au fil des interventions, l’importance cruciale de la data est apparue comme la pierre angulaire des stratégies de transformation numérique, quels que soient les secteurs. Que ce soit pour optimiser la gestion du trafic maritime sur le Saint-Laurent, automatiser des processus chez Generali ou démocratiser l’accès aux jeux de données en entreprise, la donnée s’impose aujourd’hui comme un levier essentiel.

Image description

Cet article propose un tour d’horizon des conférences les plus marquantes et des enseignements à en tirer. Derrière des termes techniques tels que datasets, cloud, ou FinOps, se dessinent des solutions concrètes pour améliorer la performance des organisations. Certaines présentations ont même su ajouter une touche d’humour, prouvant que l’univers de la data peut être à la fois technique et ludique. Place maintenant à une rétrospective de cette journée riche en innovations !

Les 24 Heures du Mans carburent à la Data

La conférence “Les 24 Heures du Mans carburent à la Data”, animée par Jean-Jacques Foignet, met en lumière l’impact de FluxVision, un outil développé par Orange, sur l’analyse de la fréquentation lors de la célèbre course. Plutôt que de s’appuyer exclusivement sur les ventes de billets, FluxVision utilise les données des cartes SIM connectées au réseau mobile d’Orange pour suivre les mouvements des spectateurs pendant l’événement. Contrairement aux méthodes traditionnelles basées sur les applications ou les fonctionnalités des smartphones, cet outil capte uniquement les informations des utilisateurs transitant sur le réseau d’Orange, offrant ainsi une analyse des flux sans nécessiter de paramétrage particulier sur les appareils des visiteurs.

Image description

L’intérêt majeur de FluxVision réside dans sa capacité à cartographier en temps réel la provenance des spectateurs, en identifiant notamment les départements d’origine. Cette précision géographique permet de mieux comprendre le profil des participants en comparant les données recueillies aux prévisions basées sur les billets vendus. Par exemple, il devient possible de vérifier si les prévisions de fréquentation concordent avec les données effectives ou de repérer les départements ou régions sous-représentés.

Image description

Jean-Jacques Foignet a également souligné le rôle de cet outil dans l’optimisation des dispositifs de sécurité : les autorités locales peuvent ajuster leurs actions en temps réel grâce à la détection des zones de forte densité, permettant ainsi une gestion plus efficace des foules et une réactivité accrue en cas d’imprévu.

Cette présentation a démontré de manière concrète comment les données, souvent perçues comme abstraites, peuvent se révéler utiles dans le cadre de grands événements. Toutefois, certaines limites ont été relevées : les visiteurs non connectés au réseau d’Orange et ceux utilisant une carte eSIM ne sont pas pris en compte, ce qui limite la couverture de l’analyse.

IA-404 : Explication not found

Image description

La seconde conférence de la journée, “IA-404 : Explication not found”, présentée par Cécile Hannotte de Onepoint, explore les limites actuelles de l’intelligence artificielle. Elle démarre avec une anecdote percutante : demander à une IA de dessiner un chat ne pose aucun problème. En revanche, exiger d’elle une explication sur ce qui fait de son dessin un chat donne lieu à des réponses floues, souvent limitées à des définitions générales sans véritable justification. Cette incapacité à fournir des explications solides souligne le problème d’explicabilité des IA.

Cécile met en avant la vitesse fulgurante à laquelle progresse l’intelligence artificielle, au point que même les spécialistes peinent aujourd’hui à saisir certains processus décisionnels. Ce manque de transparence suscite des préoccupations, surtout dans des secteurs sensibles comme la médecine, où comprendre les recommandations est crucial. Elle cite l’exemple de Watson, l’IA développée par IBM pour assister les médecins dans leurs diagnostics : l’absence de justifications claires sur ses conseils a entravé son adoption. Une IA, si performante soit-elle, devient difficilement utilisable sans explications compréhensibles de ses choix.

Image description

Cette présentation met en lumière la rapidité impressionnante de l’évolution des IA, qui dépasse parfois la capacité humaine à en suivre les logiques internes. Cette réalité soulève des questions essentielles : comment accorder sa confiance à une technologie dont le fonctionnement reste en partie opaque ?

Image description

Grâce à un savant mélange de technique, de vulgarisation et d’humour, cette conférence a brillamment mis en exergue les défis posés par l’essor rapide de l’intelligence artificielle.

L’Implémentation Réussie d’une Data Factory chez Generali France

La conférence “L’Implémentation Réussie d’une Data Factory chez Generali France”, animée par Brahim Abdesslam et Richard Parent, a offert un éclairage sur les défis et les succès d’une transformation digitale de grande envergure. La gestion et la visualisation des données y ont joué un rôle central. Avec l’aide de Keyrus, Generali a instauré une Data Factory capable de démocratiser l’usage de l’intelligence artificielle et des outils de datavisualisation dans toute l’organisation.

Un point clé de cette mise en œuvre est l’importance de la préparation des données (data prep) et des outils de visualisation pour faciliter l’accès et l’efficacité de l’analyse. L’intégration de technologies avancées, telles que Snowflake pour la gestion du datalake et Hadoop pour le stockage, a permis à Generali d’augmenter significativement la vitesse de traitement. Le passage au cloud a même multiplié cette rapidité de traitement jusqu’à vingt fois, améliorant la capacité de l’entreprise à traiter des volumes importants de données en temps réel.

Trois projets majeurs ont illustré les effets de cette transformation. Outre les gains techniques, la Data Factory a permis de redéfinir le fonctionnement global de l’organisation. Une équipe dédiée a été formée pour faciliter l’adoption des nouvelles technologies au sein de Generali, tandis qu’un socle d’outils et de solutions uniformisé a simplifié les pratiques et les collaborations interservices.

Image description

Cette initiative illustre parfaitement comment une approche stratégique axée sur les données peut transformer une entreprise. Cependant, un discours moins axé sur le marketing et plus détaillé sur les choix et les implémentations techniques aurait été apprécié.

Regards croisés : comment le groupe IMA a mis en place une stratégie data gagnante ?

La conférence “Regards croisés : comment le groupe IMA a mis en place une stratégie data gagnante ?”, animée par Brice Guillermic, a mis en avant le concept de self-service des données. IMA a développé un système permettant aux équipes métiers d’accéder et d’utiliser les données de manière autonome, sans dépendance systématique vis-à-vis du service IT. Cette autonomie transforme la dynamique interne, les équipes métiers devenant maîtres de leurs données, ce qui accélère la prise de décision et renforce l’agilité.

L’introduction des jeux de données sous forme de modèles sémantiques constitue un autre point marquant. Cette structuration facilite l’accès aux données de manière uniforme et simplifiée pour l’ensemble des utilisateurs. En offrant des informations claires et standardisées, ce modèle garantit une cohérence et une fiabilité des données, essentielles pour des analyses précises.

Image description

La présentation a également souligné l’importance de l’implication des équipes métiers et de la maîtrise d’ouvrage (MOA) dès le début du processus. Cette collaboration favorise non seulement une adoption rapide des outils, mais assure aussi une meilleure pertinence des données pour l’utilisation quotidienne.

Cette conférence démontre la valeur d’une approche qui combine autonomie des équipes métiers avec des outils et des jeux de données bien structurés. Une telle stratégie pourrait être appliquée à d’autres organisations, en donnant aux utilisateurs finaux un contrôle accru sur leurs données, tout en préservant cohérence et qualité.

Vers un écosystème data unifié : Exemple de la navigation sur le Saint-Laurent (Québec)

La conférence “Vers un écosystème data unifié : Exemple de la navigation sur le Saint-Laurent (Québec)”, présentée par Alexandre Langlois, offre une perspective captivante sur la transformation digitale du secteur maritime. Ce projet d’envergure, mené sur plus de trois ans, a impliqué une vingtaine d’entreprises collaborant pour moderniser et unifier leur architecture de données. Le passage d’un système basé sur SSIS à une infrastructure entièrement cloud utilisant Azure et Databricks a été une étape clé de cette transformation.

Image description

Image description

L’utilisation de capteurs IoT, environ 14 à 15 par navire, permet de collecter des données en temps réel, couvrant divers aspects comme les conditions de navigation et la performance des moteurs. Ces informations enrichissent la gestion des opérations sur le Saint-Laurent en permettant aux acteurs d’anticiper les défis et d’optimiser les opérations maritimes. La qualité des données devient ici un facteur crucial dans un environnement aussi complexe.

Un autre aspect essentiel de ce projet est l’intégration des pratiques FinOps. Avec une infrastructure cloud de grande envergure et la participation de nombreuses entreprises, la maîtrise des coûts est un enjeu majeur. Alexandre Langlois a souligné que le succès du projet repose également sur une gestion rigoureuse des dépenses cloud tout en maintenant des performances optimales. Ce point montre l’importance de trouver un équilibre entre innovation technologique et maîtrise budgétaire dans des projets de cette ampleur.

Ce projet a aussi favorisé une meilleure collaboration entre les différents membres du consortium, en renforçant leur maturité analytique et en ouvrant la voie à de nouvelles initiatives d’innovation basées sur les données. Un exemple notable est la collaboration avec Viasat, qui a permis d’améliorer la connectivité des navires et, par conséquent, de renforcer la gestion du trafic maritime.

Image description

Cette conférence illustre comment une architecture de données bien pensée, associée à une gestion rigoureuse des coûts et des ressources, peut transformer un secteur entier. Ces principes pourraient inspirer d’autres industries à mieux exploiter leurs données et à stimuler l’innovation.

Conclusion

La journée au Salon de la Data 2024 a démontré que la donnée est bien plus qu’un simple buzzword. Derrière les outils sophistiqués et les architectures cloud complexes, de réelles transformations prennent forme, rendant les entreprises plus agiles, efficaces et innovantes. Que ce soit à travers l’amélioration des processus internes, l’optimisation des ressources ou l’automatisation par l’intelligence artificielle, les retours d’expérience présentés au cours des conférences ont illustré à quel point la data est devenue une boussole stratégique essentielle pour les organisations.

Un enseignement clé est que la maîtrise de la donnée ne se limite pas aux aspects technologiques. Elle repose aussi sur la capacité à rendre ces données accessibles et exploitables pour tous les utilisateurs, qu’ils soient experts ou métiers.

L’univers de la data continue d’évoluer et de surprendre, ouvrant la voie à de nouvelles perspectives et à une innovation toujours plus poussée.

Top comments (0)