Back Retour

La 7ème édition du salon DataJob s’est tenue le 12 novembre dernier à la Cité des Sciences et de l’Industrie de Paris. A l’initiative de Quantmetry et de Savvy, cet événement se présente comme « le carrefour dédié aux acteurs de la data pour échanger sur leurs projets, se rencontrer et recruter », trois excellentes raisons pour BGFi d’y participer.

Chiffres clés DataJob 2019

Une première pour BGFi

Cette année est particulièrement marquée par d’importantes évolutions tant sur notre marché que pour notre société. Nous avons donc choisi de participer à l’un des principaux salons du recrutement de Paris : DataJob. Comme son nom l’indique, il est spécialisé dans les métiers de la Data et réunit quelques 3000 visiteurs souhaitant se rencontrer e échanger le temps d’une journée.

Pour cette première participation, notre équipe était composée de spécialistes du recrutement, d’acteurs techniques et de commerciaux. Nous avons ainsi pu répondre aux interrogations des nombreux talents potentiels venus découvrir BGFi.

Photos stand BGFi

Tout au long de cette journée, nous avons comptabilisé près de 200 candidats intéressés principalement par des postes de Data Scientist ou de Data Engineer. Les processus de recrutement ont commencé, nous devrions pouvoir grandement renforcer nos équipes pour soutenir notre vision. Ces personnes ont particulièrement été réceptives à notre approche technologique.

En effet, 2019 a été marqué par un changement radical en termes de positionnement, nous nous sommes réinventés pour proposer une approche de la Data et de l’Analytics permettant d’accompagner nos clients tout au long de leur parcours pour devenir des entreprises Data-driven (=pilotées par la donnée).

Notre approche pour mettre en œuvre une stratégie Data-driven se déroule en plusieurs étapes :

  • L’étape Data Management pour traiter des sujets tels que la Gouvernance des données, la Qualité des données et la Sécurité des données.
  • L’étape Data Engineering pour construire des plateformes de données (ou plateformes analytiques) de la BI (Business Intelligence) hybride au Big Data (construction de Datawarehouse et de Data Lakes On-premise ou dans le Cloud).
  • L’étape Advanced Analytics pour explorer, analyser et visualiser, ou tout simplement exploiter, les données de clients dans le but de prendre les meilleures décisions jour après jour.

La Data Science au cœur des conférences

Outre les entreprises exposantes, pas moins de 60 intervenants ont animé 26 conférences et ateliers orientés technique et métier. De la Data Visualization à l’IA (Intelligence Artificielle) en passant par la Gouvernance des données, le programme des conférences de DataJob couvrait l’ensemble des problématiques actuelles et des évolutions technologiques du marché de la Data. Retour sur deux conférences qui nous ont particulièrement marqué.

Conférence de la Caisse des Dépôts à DataJob 2019

Conférence intitulée « Le passage du PoC à l’industrialisation d’un cas d’usage de Data Science » animée par Abdou Fall, Responsable DataLab Fabrique digitale, Guillaume Charrasse, Responsable du centre de compétences Data/IA et Karine Hoorens, Data Scientist du Groupe Caisse des Dépôts. Présents pour partager leur retour d’expériences, les trois acteurs de l’institution financière française ont commencé par présenter leur organisation reposant sur quatre pôles de compétences au service d’une stratégie « Use Case-driven » (=pilotée par les cas d’usage) de création de produits Data et IA :

  • DataLab : Data Science, NLP, Machine Learning, Big Data…
  • Métiers : Expertises métiers. « Les projets sont ceux des métiers ».
  • Filière IT : IT, Dev, Ops, Architecture, Big Data, Sécurité…
  • Studio Design : UX et UI Design. « L’objectif est de créer un produit qui va être industrialisé ».

S’en est suivie une présentation d’un cas concret et une explication du processus standardisé pour chacun de ces Use Cases :expérimentation, fabrication, industrialisation et amélioration. Pas moins de 100 cas ont été identifiés pour les années à venir, impliquant une montée en compétences des équipes sur les nouvelles technologies. Pour conclure, les trois intervenants ont résumé les bonnes pratiques à adopter au vu de leur expérience :

  • Co-pilotage IT/Métiers
    • Stratégie Test & Learn 
    • Métiers ambassadeurs des Use Cases
    • Retours d’expériences communs
  • Partage des succès et des échecs
    • Normaliser le code
    • Définir une métrique de performance pour chaque projet
    • Quantifier l’erreur de généralisation
    • Stratégie de feature selection

Nous avons également pu assister à l’intervention d’Alexandre Gramfort, chercheur à l’Inria (Institut national de recherche en informatique et en automatique qui a traité du sujet « Why does Open Source drive progress in Data Science ». Cette conférence avait pour but de présenter les apports des outils Open Source disponibles sur le marché dans une démarche de Data Science. Un exemple concret est la bibliothèque Scikit-Learn, référence dans le Machine Learning, développée par l’équipe Parietal et dont l’écosystème est stimulé par un consortium. Cette conférence a mis en exergue l’existence de solutions Open Source disponibles pour une stratégie Data-driven efficace et facilitant d’adoption.

Voici une synthèse des éléments (techniques) que nous avons retenus :

  • L’Open Source soutient le travail collaboratif à travers les contributions (permettant notamment une certaine reconnaissance de ses pairs)
  • Le code produit est partagé et vérifié par de nombreux acteurs, ce qui en fait une ressource de confiance
  • Des briques peuvent être construites par-dessus l’existant, l’enrichissement est donc constant et cohérent

Merci à nos équipes pour leur travail sur ce salon, merci à DataJob et à l’année prochaine !


Découvrez notre communauté
Cédric Antonini

Cédric Antonini

Marketing Solution Officer
Linkedin Profil Linkedin

Me tenir au courant des derniers articles publiés ?

Vous souhaitez en savoir plus sur BGFI ?