Salons Solutions - Big Data : donner envie aux métiers d’aller plus loin avec leurs données.

Cet article est tiré de différentes tables rondes du Salons Solutions.

Le fil rouge de ces rencontres ? Donner envie aux métiers d’aller plus loin dans l’usage de leurs données, une manière plus concrète d’exprimer ce que l’on peut aussi qualifier de “data-driven mindset”.

Faire circuler la data et démystifier l’IA

Pour Cédric Le Saveant , VP Digital Sourcing, il faut que les équipes puissent avoir accès aux données à tous les niveaux de l’entreprise. Depuis bientôt 4 ans, il insuffle chez Technicolor un vrai changement de culture coté acheteurs. Pour lui, c’est très clair : avoir de beaux dashboards c’est très bien, mais avoir un outil aussi interactif qu’un bot capable de répondre à vos questions sur les données, c’est un changement palpable. “C’est la donnée qui vient à vous, et ça change tout ! ”, précise celui qui veut rendre les outils de bureau aussi simple que ceux de notre vie quotidienne.

En effet, l’un des plus gros challenges quand on veut mettre la donnée au coeur de l’organisation c’est l’adoption de la solution, très liée à sa simplicité. William Marcy, directeur BI technique chez TVH Consulting, par d’expérience : une même solution, présentée avec un portail plus attractif, peut rencontrer le succès après l’échec. Il distingue donc deux types de BI : la BI pour les experts, et la BI pour les métiers. “On a des plateformes très avancées mais aussi très complexes qui correspondent seulement aux besoins de la première catégorie”, renchérit Matthieu Chabeaud, CEO du data-assistant askR.ai. “Pourtant, ce sont les utilisateurs de la BI métiers qu’il faut embarquer dans une aventure simple et humaine”.

“Il faut distinguer une BI métier et une BI expert, et reconnaitre que les plateformes très complexes ne répondent qu’aux besoins de la BI des experts.“

Matthieu Chabeaud, CEO askR.ai

Introduire le conversationnel dans la Business Intelligence, c’est finalement revenir à une communication tout de ce qu’il y a de plus basique ! Les technologies IA permettant de dialoguer et d’obtenir des informations de cette manière ne font que réintroduire un mode d’expression aussi basique qu’essentiel, rappelle Matthieu Chabeaud. C’est pour cette raison qu’il est particulièrement important de faire comprendre aux utilisateurs que l’IA n’est pas une boite noire qui agirait comme un humain aux motifs inconnus, mais bien d’algorithmes qui apprennent. Pour Thomas Binant de Géotrend, il faut donc donner aux équipes les moyens de se former et de comprendre les outils IA.

Sourcer l’innovation commence par apprendre à se servir de ses données.

Salons Solutions Big Data - Donner envie aux métiers d’aller plus loin avec leurs données.

Salons Solutions Big Data - Donner envie aux métiers d’aller plus loin avec leurs données.

Une autre difficulté dans l’adoption de nouveaux outils, c’est d’avoir des équipes IT / data tellement dans l’opérationnel qu’elles peuvent en négliger la recherche de nouveaux outils capables de leur simplifier la vie. Deux chemins s’ouvrent alors pour sourcer l’innovation : soit les métiers se mettent en quête de solutions par eux-même, soit on peut se faire accompagner par un cabinet de conseil. Quand on est une PME ancrée dans le quotidien, on peut dangereusement s’habituer à l’inconfort d’une solution qui “fait le job “ : c’est ce que Matthieu Chabeaud appelle le syndrome du fakir, ou comment ne même plus ressentir la douleur d’une situation à laquelle on s’est habituée !

Il est indispensable de mettre en place de la BI en collaboration avec le service IT. Si celui-ci est exclu, c’est à la fois peut-être par manque de vision du pain, mais aussi parce que les métiers ont soif de résultats immédiats qu’ils sont les mieux à même de cerner. Le service IT n’a pas toujours la cote, mais ne pas l’inclure dès le début c’est risquer de ralentir énormément les projets. Il faut plutôt lui permettre de “redorer son blason” en l’aidant à apporter une vraie valeur aux métiers, comme chez Renault où le projet de portail interne équipé d’un data-assistant a (littéralement) déclenché des applaudissements lors de son lancement… “C’était vous dire la formidable adéquation ressentie entre le problème et le nouvel outil proposé sur les données marketing !” s’amuse Matthieu Chabeaud.

Xavier Bouteiller de Datasulting rappelle néanmoins que la responsabilité des projets data repose sur la stratégie de l’entreprise : marketing, finance, système d’information ou parfois la direction elle-même. Quel que soit le cas de figure, il faut responsabiliser au maximum les utilisateurs, en faisant en sorte que les producteurs soient aussi consommateurs.

Ce qui est certain, c’est que des utilisateurs amenés à se servir régulièrement des données à disposition - que ce soit pour avoir des informations exactes sur un contrat ou un pilotage global de performance sur plusieurs années - sont plus à même de comprendre l’intérêt de solutions IA. La fréquentation des données ouvre en effet un chemin de reflexion globale : comment faire du prédictif afin de m’assister encore mieux dans mes décisions ? Certaines tâches pourraient-elles être automatisées via le Machine Learning?

Autonomie et responsabilisation sont donc les deux éléments indispensables pour emmener les utilisateurs beaucoup plus loin.

Passer des analytics simples aux analytics augmentés grâce au data-assistant askR.ai

--------résumé--------

Table ronde « Création de valeurs à partir des données : rien ne vaut la synergie BI, IA et Data Science ! Quelles plates-formes new gen du marché sont à la hauteur de ce challenge ? »

Animée par Pascal Minguet - Journaliste indépendant
Intervenants :

Table Ronde « Démocratiser les usages de l’analytique dans les PME ; donner envie aux métiers d’aller plus loin, en libre-service et de mettre la data au centre de leurs décisions : avec quelle méthode de transformation et surtout quels outils ? »

Animée par Pascal Caillerez - Journaliste - Atelier des Mots
Intervenants :

-------------------------

askR.ai : un data-assistant pour interroger Snowflake

Grâce à une architecture unique, cette jeune pousse bouscule les codes du Cloud et favorise les innovations comme askR.ai.

Fondé en 2013 par 3 français un peu frustrés par la lenteur des grands acteurs de bases de données pour lesquels ils travaillent à l’époque, Snowflake est le  premier data warehouse cloud-native. L’équipe a levé depuis sa fondation 923 millions de dollars, pour une valorisation actuelle de 3,5 milliards de dollars. 

Séparer le traitement des données du stockage, une intuition payante.

Pourquoi en à peine 6 ans l’entreprise s’est-elle imposé face à des concurrents aussi énormes que Amazon ou Microsoft ? Parce que l’architecture cloud a été pensée de manière à “décupler le nombre d’utilisateurs simultanées et le nombre de requête sans nuire aux performances”, précise Thibault Ceyrolle, président de Snowflake Europe.

Comment ? En séparant le stockage du traitement, c’est à dire en mobilisant les ressources des serveurs à la volée pour répondre à des requêtes particulières. Les données ne sont ainsi transférées qu’une seule fois, et la puissance des serveurs est totalement modulable. Ce modèle du paiement à l’usage, facturé à la seconde près, colle mieux aux besoins des entreprises de plus en plus exigeantes sur la scalabilité et la maîtrise des coûts offertes par le cloud.

>> Découvrir l’article “Le cloud est plus sécurisé que le on-premise “ <<

“No time to data”, une notion aussi importante pour Snowflake que pour le data-assistant askR.ai.

Le choix architectural de Snowflake améliore les performances de manière significative en réduisant le temps nécessaire aux requêtes. Rappelons que d’après Gartner, seulement 35% des collaborateurs utilisent la BI traditionnelle à cause de set-ups encombrants et d’une expérience utilisateur parfois déplorable.

askR.ai et Snowflake ont en commun de proposer une intégration extrêmement simple aux infrastructures existantes. Le but est de minimiser le set up et maximiser l’effet wahou avec la rapidité des requêtes effectuées. Snowflake se situe en amont de la chaîne de valeur data, plutôt du côté des data scientists capables d’appréhender toute sa puissance. askR.ai s’inscrit en aval, directement en contact avec les collaborateurs moins au fait des subtilités de l’architecture data. 

Pour Matthieu Chabeaud, CEO d’askR.ai, la connexion avec Snowflake était évidente. “Il s’agit d’un acteur assez révolutionnaire dans le milieu du cloud pour que les entreprises qui s’y intéressent envisagent, dans une vision stratégique globale, d’intégrer un data-assistant dans le quotidien des utilisateurs métiers. Nous avons donc travaillé tres rapidement à avoir un connecteur.” Snowflake est également multicloud, un choix qu’askR.ai partage puisque ce data-assistant est compatible avec Microsoft Azure , Google Big Query ou AWS.

Bref, dans une réflexion globale sur les solutions data innovantes, ces deux solutions apparaissent donc aussi incontournables que complémentaires.

 

Retail : ce que la data science apporte au pricing stratégique

Retail : ce que la data science apporte au pricing stratégique

Comment le passage d’une Business Intelligence traditionnelle à une vision prédictive transforme petit à petit le monde des plus grands retailers… en attendant que les ETI et PME s’y mettent.

Cet article appartient à une série plus globale Quels enjeux retail sont directement touchés par la revolution data ? (à venir)

Le potentiel du machine learning

L’apprentissage automatique, ou machine learning, est la capacité d’apprentissage d’un ordinateur sans programmation explicite préalable. Autrement dit, une fois lancé, un mécanisme de machine learning s’améliore seul, sans supervision permanente, à partir des données qui lui sont fournies. Plus les données sont nombreuses, plus l’apprentissage sera fin. C’est pour cette raison que l’optimisation des prix et des promotions dans le retail est très prometteuse : la fixation rationnelle des prix dépend totalement des données.

D’après PwC, les entreprises qui exploitent la puissance de l’IA pour optimiser les prix peuvent augmenter leur chiffre d’affaires net de 3 % à volumes identiques* !

Les entreprises peinent souvent à appliquer une tarification dynamique juste, en fonction de la demande, de la saison, de la région… Les facteurs possibles sont extrêmements nombreux et différents selon chaque retailer. La capacité du M.L. d’analyser une gros volume de données variées dans court laps de temps permet déjà de maximiser la marge sur un produit en fixant un prix optimal. Il peut également aider les décideurs à visualiser la propension de futurs acheteurs à payer, et à anticiper leurs réactions selon les variations de prix. D’après PwC, les entreprises qui exploitent la puissance de l’IA pour optimiser les prix peuvent augmenter leur chiffre d’affaires net de 3 % à volumes identiques* !

Amazon change 50 fois par an le prix d’un ventilateur

Il apparait évident que personne ne va changer le prix manuellement sur le site à chaque fois. Le secret d’Amazon, et de plus en plus d’acteurs retail pure player, ce sont les algorithmes de tarification dynamique : le système ajuste automatiquement les prix pour chaque client en fonction des données. Mais ce qui fait la vraie force d’Amazon par rapport à ses concurrents, finalement, ce sont les données de ses 200 millions de clients… Plus de données, plus d’efficacité dans l’apprentissage.

Le Monde -  Infographie Tarification dynamique - “ Les algorithmes font varier les prix, pour optimiser les profits”, par Julie de Brosse

Le Monde - Infographie Tarification dynamique - Les algorithmes font varier les prix, pour optimiser les profits”, par Julie de Brosse

L’optimisation des promotions

Le calcul exact de la rentabilité d’une promotion fait aussi partie des exercices périlleux d’une stratégie de pricing… Encore une fois, le nombre de facteurs joue beaucoup : perception de la marque, effet de pénétration réel ou cannibalisation. Le machine learning se révèle précieux dans l’analyse des données : achats précédents, analyse de la concurrence, durée de la promotion précédente, etc. Il pourra ensuite aider à déterminer quels clients verront leur loyauté renforcée par une promotion ou un coupon, ceux qui sont le plus susceptible de s’en servir, la durée idéale de vie du dit coupon. Bref, en fonction des objectifs, de modéliser directement en fonction des données à sa disposition afin d’aider les décideurs retail dans une stratégie plus ciblée.


askR.ai, le data-assistant des décideurs retail

Le principe de la Business Intelligence de mettre la donnée à disposition des décideurs pour favoriser la prise de décision ne change donc pas, même en passant de la BI à la data science. L’aspect prédictif, au contraire, offre un atout supplémentaires aux retailers de plus en plus data-driven pour appliquer une stratégie de pricing au plus près des attentes des consommateurs et meilleure génératrice de ROI.

 

Salesforce rachète Tableau : l'opération la plus rentable de l'année ?

Coup de tonnerre du 10 juin 2019 : dans la nuit, Salesforce annonce le rachat de Tableau pour la coquette somme de 15,7 milliards de dollars. Le géant de la relation client amorce avec cette acquisition un virage clair vers l’analytics.

Tableau s’intègre dans une stratégie Customer Data Centric

“Connecter l'ensemble des données de nos produits, c'est la demande numéro 1 de nos clients aujourd'hui, précise dans une interview le français Alexandre Dayon, chief strategy officer de Salesforce. Il s'agit du focus de l'année pour nous.” Tableau s’inscrit bien dans cette stratégie à 360° autour du client, en offrant un outil de data viz global que Salesforce peinait à mettre en place.Tableau sera compatible avec IA Einstein, mais sera redondant avec l’application de marketing intelligence de Salesforce : reste à savoir si l’un des deux devra s’effacer au profit de l’autre pour les clients de Salesforce…

Néanmoins, les plateforme de données sont absolument stratégiques et le seront encore plus : avec cette acquisition, Salesforce peut se positionner comme un acteur de la transformation digitale générale de l’entreprise et pas seulement comme CRM.

La puissance nécessaire pour concurrencer Power BI et Qlik, mais à quel prix ?

Les utilisateurs de Tableau conquis par l’aspect multi plateforme sont aussi assez méfiants quant à la direction hégémonique que pourrait prendre Salesforce. Si Tableau perd de son indépendance et qu’il faut en passer par une suite Salesforce, comme il y a une suite Microsoft, cela deviendra très vite lourd. Et ce malgré de nouvelles fonctionnalités comme Ask Data, qui permettent de faire des requêtes en langage naturel dans Tableau ( Cf article Ask Data, on a testé la recherche en NLP de Tableau )

Tableau n’a pas à l’origine été pensé pour le Cloud mais plutôt dans la logique logiciel/serveur, ce qui lui donne une agilité et une rapidité de déploiement très appréciées actuellement des métiers. Au contraire, Salesforce s’est déployé sur le modèle “ No Software”. Mais leur collaboration va permettre de rivaliser sérieusement avec les acteurs du cloud public qui avancent à marche forcée vers l’analytique avancé.

Rappelons en effet que Google a mis la main sur Looker pour 2,6 milliards il y a quelques jours, soulignant s’il en était besoin l’importance des outils d’analyse et de visualisation de données pour les plus grands fournisseurs de technologies. Bref, une nouvelle ère s’ouvre pour la BI : après la tendance self-service déclenchée par la vague de rachat de 2008, le conversationnel prédictif pour 2020 ?

Rédacteur : askR.ai est le premier data-assistant capable de répondre aux questions en langage naturel par le bon tableau, chiffre ou graphique.



Source :

https://www.journaldunet.com/solutions/dsi/1439888-le-crm-est-en-train-d-ecraser-le-marche-du-progiciel-de-gestion-integree

https://www.zdnet.fr/actualites/salesforce-s-empare-de-tableau-pour-157-milliards-de-dollars-pourquoi-c-est-important-au-dela-du-chiffre-39885833.htm

Data - 6 sujets clefs pour 2019

Le traitement des données est au coeur de la stratégie des entreprises. Gérer, stocker, redistribuer les informations sont autant d’étapes cruciales dans la création de valeur des entreprises. Petit tour d’horizon des tendances data qui méritent réflexion pour 2019.

(Et pour approfondir le sujet, découvrez aussi l’infographie Gartner Magic Quadrant BI & Analytics 2019)

1 - Généralisation du Machine Learning.

Le Machine Learning est de mieux en mieux appréhendé en entreprise. On comprend de mieux en mieux comment il peut décharger l’humain de tâches répétitives. Le rapport Gartner Magic Quadrant 2019 BI et Analytics précise que d’ici la fin de 2022, les tâches manuelles de gestion des données seront réduites de 45% grâce à l'ajout de ML et à la gestion automatisée.

“Les tâches manuelles de gestion des données seront réduites de 45% grâce à l'ajout de ML et à la gestion automatisée.”

Le deep learning va également permettre une meilleure détection des patterns : les prédictions vont s’affiner et la prise de décision de plus en plus s’automatiser…

2 - Humanisation de l’ Intelligence artificielle.

Cette meilleure capacité de prédiction amenant à l’automatisation des process de décisions ne va pas sans méfiance. La difficulté à justifier de résultats issus d’un apprentissage complexe représente un frein : cette opacité peut être une vraie source de méfiance pour les métiers. Il faut donc clarifier les objectifs et s’appliquer à décrire le plus pédagogiquement possible le travail effectué par l’IA et la méthode suivie par celle-ci …

Implanter durablement l’IA, c’est permettre aux métiers de mieux la comprendre pour se l’approprier. Mais c’est aussi lui donner, par exemple, un aspect plus familier : une interface conversationnelle permet d’obtenir des informations dans un contexte habituel, celui du jeu questions/réponses.

3 - NLP : Offrir une expérience conversationnelle grâce à la génération de requête data en langage naturel.

Pas de doute, cette tendance s’affiche en tête des classements pour 2019 ! Le Natural Language Processing, c’est à dire la capacité de comprendre le langage humain, Pour exemple, vous la retrouverez chez Smartview, ou chez Tableau.

La recherche en NLP était annoncé par Gartner en 2018 comme une des tendances phares de l’année, ce que les versions bêtas sortis par certains grands éditeurs de BI ont confirmé. (A ce propos, vous pouvez lire par exemple cet article sur le chatbot de Qlik)

Le NLP permet de comprendre les questions des utilisateurs et de sortir à la demande un tableau, un chiffre, un graphique… En dehors des barres de recherche NLP intégrées aux logiciels BI évoqués plus tôt, il existe des acteurs indépendants qui peuvent être directement intégrés à une base de donnée, quelque soit le type de données. C’est notamment le cas d’askR.ai, qui ne dépend d’aucun logiciel.

4 - Self-Service Data : passer de la data à l’action, plus facilement.

Pour 56% des Chief Data Officers, démocratiser la data à travers les différents services est le chantier prioritaire des 3 prochaines années.* (en savoir plus ici)

Pourquoi cette prioritisation ? Pourquoi ne pas penser d’abord qualité ou protection ? Parce que la présence d’un CDO implique évidemment que différents chantiers data sont en cours et coordonnés dans le même but. Les données doivent avant tout favoriser et accélérer la prise de décision pour créer de la valeur.

La data en libre service, c’est permettre aux utilisateurs d’accéder immédiatement à des données pertinentes : tableaux de bord, reporting, chatbot… Une information recherchée et instantanément trouvée est bien plus significative pour un utilisateur que la même donnée reçue passivement à un autre moment !

Une information recherchée et instantanément trouvée est bien plus significative pour un utilisateur que la même donnée reçue passivement à un autre moment !

5 - Data Curator : une mission incontournable, surtout sans CDO.

Vous connaissez déjà les métier de Data Scientist ou de Data Analyst : chargés de l’analyse profondes de données, ils ont pour objectif de créer des modèles ou de déceler des tendances. Le Data Curator, lui, est un intermédiaire entre les équipes de recherches et les équipes métiers : il doit rassembler, mettre en forme, sensibiliser à l’utilisation des données.

Intermédiaire et facilitatrice, la Data Curation est déjà apparue dans les entreprises, mais prend de l’ampleur au point de devenir une fonction à part entière. Le DC doit veiller aux chantiers de fond sur la qualité des données et les meilleures pratiques, mais aussi coordonner les efforts des Data Scientist en fonction des questions métiers.

Sans être encore tout à fait un métier à part entière, ce genre de missions fait déjà partie des tâches quotidiennes de beaucoup d’équipes… et continue de prendre de l’ampleur.

6 - Le Cloud, de plus en plus essentiel.

La migration vers le Cloud s’est accéléré ces dernières années, et cette transformation reste un enjeu essentiel dans la chaine de valeur des données dans l’entreprise. On voit émerger de nouveaux modèles, comme le cloud hybride combinant cloud privé et cloud “public”. Il s’agit à la fois d’améliorer la capacité de stockage mais aussi l’accessibilité des données puisque les plates-formes d’analyse de données reposent désormais sur des modèles en SaaS pour plus de flexibilité et de scalabilité.

Josh Parenteau, directeur de la veille stratégique chez Tableau, précise bien que « la migration vers le cloud booste l'agilité et offre de nouvelles possibilités d'application de la BI et de l'analytique.»

Cet article est extrait de “BI : quelles innovations pour les métiers à l’ère du Big Data ?”

 
 

* Infographie Informatika “ Un CDO, pour quoi faire ? “

Lauréats 2018 - askR.ai décroche le prix de la Jeune Pousse des ICC StartUp Awards à l’EDHEC !

Désignées comme start-up de moins de deux ans avec le plus fort potentiel de développement, askR.ai et Stockly posent fièrement.

ICC startUpAwards Gagnants askR.ai Stockly

Le Connected Day a pris fin jeudi 29 Novembre avec la cérémonie des ICC StartUp Awards, au coeur de l’EDHEC. L’objectif était de récompenser parmi les 8 nominées les plus prometteuses pour le secteur retail dans différentes catégories : start-up de l’année, coup de coeur du public, espoir à l’international et jeune pousse de l’année.

Les nominées avaient pu rencontrer les membres du jury lors d’un première session pitch chez SalesForces le jeudi 13 novembre. askR.ai avait à cette occasion fait le choix d’une démo en direct.

“ C’était un pari risqué, mais cela a fait une différence : askR.ai a répondu juste à toutes les questions et du premier coup “, s’amuse Matthieu Chabeaud, le fondateur de la start-up.

Vainqueur du DataViz Challenge Le Groupe La Poste, Coup de coeur du Jury du Hackaton Géodis et maintenant Lauréat Jeune Pousse 2018, la startup askR.ai a hâte de développer son potentiel. Elle met le NLP au service des métiers, simplifie la recherche d’information et facilite la prise de décision, pour une efficacité opérationnelle démultipliée. Un potentiel fort quand les données prennent de plus en plus d’importance pour les différents collaborateurs de l’entreprise !

Liste des lauréats ICC StartUpAwards 2018 ( à retrouver sur le site de l’Institut du Commerce Connecté )

Prix de la Start-Up de l’année 2018 :
Smartly.io

Prix de la Jeune Pousse ex aequo :
askR.ai, chat with your data !
Stockly

Prix de l’espoir à l’international :
Wynd

Coup de Cœur du Public :
Beamy