Les big data : une mine d'informations pour les entreprises

La maitrise des Big data représente-t-elle un avantage compétitif décisif pour les PME ?

Mémoire professionnel Maxime VIGIER – LP MCI Année 2014

Ce mémoire est publié avec l’autorisation de son auteur à titre de contribution à la connaissance, toute reproduction est interdite, le contenu de ce mémoire n’engage ni l’Université d’Evry Val d’Essonne, ni l’IUT d’Evry Val d’Essonne, ni l’Efreitech

 

Sommaire

3.1. Introduction

3.1.1. Un marketing et des entreprises bouleversés par l’explosion du web
3.1.2. Origine des Big data
3.1.3. Que sont les Big data ?
3.1.4. Le marché des Big data

 

3.2. Pourquoi déployer une solution Big data

3.2.1. Introduction
3.2.2. Vers un marketing temps réel
3.2.3. Optimiser la prospection
3.2.4. Les Big data au secours de la logistique
3.2.5. Fiabilité et contrôle de la production
3.2.6. Améliorer le service informatique
3.2.7. De nouveaux outils pour la prise de décisions
3.2.8. Quels résultats espérer des Big data
3.2.9. État de l’art

 

3.1. Introduction

33.3. Exemples d’utilisation des Big data dans les entreprises
3.3.1. Présentation
3.1.3. Que sont les Big data ?
3.3.2. Recorded Future
3.1.3. Que sont les Big data ?
3.3.4. Atout France

 

3.4. Les limites pour les PME

3.4.1. Le coût et le ROI
3.4.2. La pertinence des données
3.4.3. Des processus de fonctionnement à repenser
3.4.4. Le respect de la vie privé

 

3.5. Bilan et recommandations

4. Bibliographie et Webographie


 

3.1. Introduction

3.1.1. Un marketing et des entreprises bouleversés par l’explosion du web

Avec l’explosion du web ces dernières années beaucoup d’entreprises, dites historiques, ont dû s’adapter pour faire face à la e-transformation de leur secteur d’activité et à ce nouveau canal de distribution, de consommation et de partage de l’information. La consommation traditionnelle et de masse à laquelle étaient habituées les entreprises a disparu et laisse place à une consommation plus réfléchie, davantage comparative et où tous les internautes peuvent donner leur avis et échanger. internet a redonné du pouvoir au consommateur qui est devenu un « consomm'acteur ».
Le client est donc plus que jamais au cœur de la stratégie commerciale et marketing des entreprises et il devient important de l’identifier clairement et de le connaitre pour pouvoir le suivre entre les différents points de contact qu’il effectue avec une marque afin de lui proposer les bonnes offres au bon moment, que ce soit via un magasin physique, un smartphone, une tablette, un pc, sa télévision, et bientôt ses lunettes connectées, sa montre ou son bracelet connecté.
On parle de marketing one-to-one, une offre peut être générée pour un seul client en fonction de son historique de navigation, de la fréquence de ses passages dans une boutique, du temps qu’il a passé à regarder tel ou tel produit... Ce marketing one-to-one vise bien sûr à faire ressentir au consommateur qu’il est unique et précieux aux yeux de l’entreprise et pousser l’acte d’achat.
Pour arriver à ce tour de force pour une entreprise comme Amazon par exemple, on s’imagine bien que l’on ne peut pas suivre l’ensemble des personnes qui se connectent au site internet et analyser un à un leurs différents parcours. Il faut utiliser de puissants ordinateurs qui vont calculer tout cela et, grâce à des algorithmes prédéterminés, vont nous permettre de générer des offres ou compiler des informations à la volée en « quasi » temps réel.

3.1.2. Origine des Big data

Le développement d’internet et la multiplication des objets connectés à travers le monde s’accompagnent d’une croissance exponentielle des données créées sur internet. La multiplication des moyens de communication et d’échange n’y est pas étrangère ; en effet, les différents écrans nous suivent partout, tout au long de la journée. En 2011, il y avait près de 9 milliards de terminaux connectés dans le monde et ce chiffre devrait s’élever à 24 milliards en 2020(1), si l’on en croit cette étude de Valtech1. Outre les smartphones, tablettes et télévision connectées, les nouveaux objets connectés, tels que les voitures, les appareils électroménagers ou encore les montres connectées qui déferlent sur le marché devraient remonter une quantité phénoménale d’informations dans les années à venir.
Si l’on en croit les résultats d’une étude récente2, le monde a manipulé en 2012 plus de 2,8 zetaoctets d’informations soit 2,8 milliards de gigaoctets, ce chiffre est colossal, mais le plus intéressant dans cette étude est de savoir que seul 0,5% de ces 2,8 zetaoctets ont été analysés d’une manière ou d’une autre alors que l’étude estime que 25% d’entre elles représentent une valeur potentielle pour des entreprises.
Les informations disponibles sur internet ne sont plus seulement volumineuses, elles sont également très diverses, cela peut passer par des vidéos, de la musique, des photos... Elles ne sont pas structurées au sens au sens où elles ne se présentent pas sous la forme de lignes et de colonnes comme aime à être structuré le web. Ces données doivent donc être structurées avant d’être analysées et exploitées par les technologies actuelles. À titre d’exemple, chaque jour produit plus de vidéos que les cinquante premières années de la télévision(3), cela représente donc une masse d’informations à structurer gigantesque.
À l’heure actuelle, les humains sont les principaux responsables de ce volume d’informations. En effet, toutes leurs interactions avec les nouvelles technologies génèrent des données : téléchargement d’un fichier, consultation d’une vidéo, coup de téléphone, envoi de SMS, utilisation de GPS... ce n’est pas tant les interactions en tant que telles qui génèrent autant de données, mais c’est surtout l’ensemble des informations annexes (les métadonnées) et des communications « cachées » entre différents serveurs (publicitaires par exemple) qui ont lieu au même moment qui génèrent un flux impressionnant de données.
L’ensemble de ces milliards de données, c’est ce que l’on appelle communément les « Big data ». Les premières entreprises à avoir compris leur intérêt sont les géants du web actuel tels que Google, Yahoo, Microsoft, Facebook ou bien Amazon.
Du fait de leur succès ou de leur volonté de vouloir gérer une quantité très élevée d’informations, elles ont dû apprendre à maitriser ces Big data, car les outils et méthodes traditionnelles ne leur suffisaient plus, et ont pour cela développé des technologies en interne qui sont désormais, pour la plupart, disponibles dans des versions libres et gratuites (open source).


1 http://www.valtech-training.fr/assets/uploads/pdf/white-paper-cross-data-marketing-fr.pdf
2 http://www.emc.com/collateral/analyst-reports/idc-the-digitaluniverse-in-2020.pdf

3 Stratégie Big Data - Thomas Davenport - Edition Pearson


3.1.3. Que sont les Big data ?

Pour les résumer en une phrase, les Big data sont un ensemble de solutions alternatives aux solutions traditionnelles de bases de données et d’analyse afin de traiter un volume très important de données, en temps réel et avec une très grande diversité de sources et de formats.
Pour caractériser les Big data on peut utiliser trois critères principaux, appelés les 3V : Le volume, la vitesse et la variété.
Le volume est bien entendu un critère majeur, même s’il est relatif, ce qui est grand pour aujourd’hui ne le sera plus demain et ce qui est grand pour une entreprise est petit pour une autre. Qui dit volume, dit également capacité et coût de stockage, ce critère n’est plus un problème tant les coûts dans ce domaine ont drastiquement baissé. À titre d’exemple, on peut désormais stocker l’ensemble de la musique du monde(4) pour un coût de seulement 600$ par an.
La vitesse, il s’agit de la fréquence à laquelle les données sont créées, traitées et restituées. Il peut s’agir parfois de flux continu nécessitant des calculs en temps réel (dans le cas de génération de bannières publicitaires par exemple). Le flux de données ne s’arrêtant pas, il est inconcevable que le traitement des données connaisse un ralentissement ou prenne un retard qui lui serait impossible à rattraper. Par exemple, si une entreprise effectue une tâche planifiée tous les jours, il devient critique de passer au Big data lorsque celle-ci constate que cette tâche risque de prendre plus de 24 heures à être calculée et traitée. Pour donner un exemple, Facebook gère plus de 579 like par seconde rien que pour les pages des marques ou des organisations sur sa plateforme(5).
Enfin la variété : on entend par ce terme la variété des sources de données prises en compte et les différents formats. Les données qui peuvent être gérées par les Big data, et c’est là une grande partie de leur intérêt, peuvent être structurées ou non structurées (musique, image, vidéo, fichiers logs, métadonnées, capteurs..). Cette exploitation de différentes sources de données est une nouvelle source d’informations pour les entreprises qui leur permet de croiser des données qu’il était auparavant très difficile d’associer. On peut imaginer d’associer les commentaires laissés sur les réseaux sociaux par des internautes en leur attribuant une note sur l’aspect positif ou négatif du commentaire via l’analyse de texte, et le corréler aux ventes d’un jeu vidéo afin d’obtenir des prévisions de ventes, comme l’a fait Microsoft avec sa Xbox 360.
Ces 3V sont utilisés pour définir la présence ou la nécessité de faire appel à des traitements dits « Big data ». Cependant cette définition pose également un problème : Que se passe- t-il si une entreprise n’a qu’un ou deux V ? Ne doit-elle pas se considérer comme ayant besoin de recourir à des technologies Big data ?

4 McKinsey Institute, 2011, http://www.mckinsey.com/mgi/publications/big_data/pdfs/MGI_big_data_full_report.pdf

5 http://www.usine-digitale.fr/article/infographie-big-data-un-marche-a-100-milliards-de-dollars.N254184


C’est bien en raison de ce manque de précision que les entreprises doivent analyser précisément ce qui se cache derrière ce terme et définir la façon dont elles souhaitent exploiter leurs données afin de ne pas céder aux sirènes d’un mot à la mode dont elles ne comprennent pas réellement le sens et les enjeux pour leur entreprise.

3.1.4. Le marché des Big data

Le marché du Big data est très récent ; il a émergé vers la fin des années 2000 aux États-Unis. Ce marché, poussé par les géants du net américain, Google en tête, représentait déjà un chiffre d’affaires de 3,2 milliards de dollars en 2010, mais ce n’est rien à côté de ce qu’il est devenu aujourd’hui.
Selon le cabinet Transparency Market Research6 , il affiche un chiffre d’affaires de 8,9 milliards de dollars pour l’année 2013 et devrait connaitre une croissance annuelle proche des 40% dans les prochaines années. Ce même cabinet estime que ce marché générera 48,3 milliards de dollars d’ici 2018, une croissance insolente dans ces temps de crise où d’autres marchés s’effondrent complètement. En France, il est estimé à seulement 387 millions d’euros en 2013, mais c’est un des marchés les plus prometteurs du secteur de l’informatique.
Ces chiffres représentent une estimation basse, car si l’on en croit une autre étude du cabinet ABI Research(7), qui intègre dans son calcul les logiciels Big Data mais également les services gravitant autour, le marché était évalué à 31 milliards de dollars en 2013 et atteindra les 114 milliards de dollars en 2018, soit une progression annuelle de 29,6%. Ces chiffres englobent trois grandes familles de solutions : le matériel, le logiciel, et la partie service.

CA réalisé en 2013 par les 70 plus grandes entreprises du Big Data — Source L’usine Nouvelle


6 http://www.transparencymarketresearch.com/big-data-market.html

7 https://www.abiresearch.com/press/big-data-spending-to-reach-114-billion-in-2018-loo


 

Bien entendu nous retrouvons de grands noms de l’informatique tels que Microsoft, Cisco, Oracle, IBM (cf Annexe 3), mais des entreprises spécialisées dans le Big data ont également émergé telles que WibiData, Hadapt ou encore Domo. Toutes ces entreprises, pour l’essentiel basées aux États-Unis, ont effectué des levées de fonds impressionnantes, par dizaines de millions de dollars, pour pouvoir assurer le développement de leur entreprise, preuve que les investisseurs croient en ce marché du Big data. Une autre entreprise bien connue, IBM, n’a pas hésité à dépenser près de 20 milliards de dollars dans des rachats dans le secteur de l’analytique afin de s’assurer une place sur ce marché.
En France, le gouvernement croit également énormément dans les Big data pour relancer l’économie et l’emploi. En effet, par l’intermédiaire du ministre du redressement productif Arnaud Montebourg, il a annoncé(8) un plan en septembre 2013 afin de contrer les géants américains et compte bien faire figurer la France parmi les premiers pays fournisseurs de solutions et de services pour le Big data. Ce plan suggère notamment à l’État de soutenir financièrement le développement de startup dans ce secteur, d’assouplir la loi informatique et libertés afin de s’adapter aux nouveaux usages des données, et d’investir massivement afin de généraliser l’utilisation des Big data et de l’Open Data(9) pour l’ensemble de ses services publics.

3.2. Pourquoi déployer une solution Big data

3.2.1. Introduction

Un récent sondage, mené en 2013 auprès des lecteurs de la Harvard Business Review(10), a permis de donner des chiffres intéressants sur la pénétration des Big data dans les entreprises. 28% des sondés ont indiqué que leur entreprise « utilisait des solutions Big data pour améliorer les décisions commerciales ou pour créer de nouvelles opportunités d’affaires ». 23% ont répondu que leur entreprise avait une stratégie Big data et seulement 3,5% ont déclaré que leur entreprise « savait comment appliquer le Big data à leur secteur ». Si les directions informatiques des entreprises commencent toutes à se pencher sur la question, seules 34 % d’entre elles dans le monde se sont lancées dans un tel projet, selon Capgemini, la plupart ne sachant pas par où commencer et/ou ne voyant pas l’intérêt de mettre en place une telle structure d’analyse.
Les Big data ne sont pas qu’une simple amélioration de l’analytique tel que nous le connaissons actuellement ; il s’agit de repenser la façon dont les données sont analysées et restituées. Ce tableau résume assez bien les différences qui existent entre les deux :

8 http://www.lesechos.fr/tech-medias/hightech/0203622549314-un-plan-big-data-pour-contrer-les-geants-du-net1022096.php
9 http://fr.wikipedia.org/wiki/Donn%C3%A9es_ouvertes

10 Stratégie Big Data - Thomas Davenport - Edition Pearson


Big data

Analytique classique

Type de données

Formats non structurés

En lignes et en colonnes

Volume de données

100 téraoctets à plusieurs pétaoctets

Dizaines de téraoctets ou moins

Disponibilité des données

Flux constant

Pool statique

Méthode d’analyse

Apprentissage automatique

À base d’hypothèses

Type d’analyse

Vision prospective, recommandations

Vision rétrospective, « dans le rétroviseur »

Objectif premier

Optimisation de l’activité et anticipation

Support aux décisions internes et supervision de l’activité

Tout d’abord, il convient de savoir que toutes les industries et secteurs peuvent être concernés par la mise en place de Big data ; bien entendu, il existe des secteurs plus propices que d’autres tels que les assurances, les sociétés en ligne, les banques, les voyagistes, les transporteurs... Ces secteurs génèrent une quantité très importante de données et peuvent en extraire directement de la valeur afin d’améliorer leurs services ou proposer de nouvelles offres.
A contrario de ces secteurs, certains sont historiquement moins fournis en données, mais cela tend à changer avec la e-transformation de leur activité et l’augmentation du recours à des outils informatiques. On pense par exemple au secteur de la santé avec l’arrivée des dossiers médicaux informatisés ou bien aux sociétés BtoBtoC qui partagent de plus en plus d’informations avec leur intermédiaire (le deuxième B) afin d’améliorer leurs produits et obtenir la remontée d’informations dont ils ont besoin.
Certaines d’entre eux incluent directement des technologies de tracking (suivi) dans les objets qu’ils fabriquent afin de disposer d’informations sur les usages qui en sont faits et ne plus dépendre de leur intermédiaire en charge de la revente de ces produits.
La mise en place de Big Data peut bénéficier à tous les services de l’entreprise ; tout dépend de l’objectif que souhaite atteindre la société et du temps et de l’argent qu’elle désire y investir. Examinons l’ensemble des services d’une entreprise « standard » pour vérifier comment l’arrivée des Big data peut révolutionner les méthodes de travail de chacun d’entre eux.

3.2.2. Vers un marketing temps réel

Le marketing connait depuis bien longtemps l’utilisation de l’analytique traditionnel. Il utilise ces données pour prévoir et planifier ses différentes actions, mais l’arrivée du marketing prédictif, avec l’utilisation des Big data, lui permettrait d’obtenir une véritable connaissance du client et de pouvoir suivre son comportement sur différentes plateformes et canaux de distribution.

Il s’agit pour eux d’améliorer encore plus l’efficacité de leurs campagnes en prenant en compte des éléments extérieurs aux données disponibles en interne, via la surveillance des commentaires sur les réseaux sociaux par exemple. Ils seront ainsi à même de proposer des offres beaucoup plus ciblées ou d’analyser plus précisément le phénomène d’attrition de leurs clients afin de leur proposer des offres personnalisées ou corriger les éléments identifiés comme bloquants dans leur relation avec la marque. Certes, il est déjà possible de le faire avec l’analytique traditionnel, mais l’apport du Big data leur permettra de prendre en compte beaucoup plus de paramètres, de calculer davantage de probabilités en un minimum de temps et du même coup de gagner en réactivité. Il s’agit pour eux de passer du marketing prédictif au marketing temps réel.

3.2.3. Optimiser la prospection

Le service commercial des entreprises s’est considérablement amélioré ces dernières années avec l’arrivée de système de gestion de la relation client et de rapports clients beaucoup plus performants. Mais l’arrivée des Big data dans leur domaine permettrait d’atteindre une autre étape qui est celle de pouvoir prévoir plus efficacement l’aspect « chaud » de leur prospect. Via l’analyse des courriels ou bien des échanges téléphoniques, la mise en place d’un algorithme leur permettrait, par exemple d’attribuer une « note de chaleur » à chaque échange afin de produire une moyenne et surveiller l’évolution de cette note afin de proposer la bonne proposition commerciale au bon moment.

 

Cet outil pourrait également vérifier des conditions externes à l’entreprise ou au particulier prospect, tel que la météo ou des évènements de l’actualité afin d’évaluer les chances de pouvoir conclure la vente et du même coup améliorer l’efficacité du service commercial. Le Big data permettrait également de mieux connaitre l’activité des commerciaux, via les données de géolocalisation de leurs voitures ou de leurs portables qui pourraient être comparées avec leurs ventes. Mais cette méthode risque de connaitre une certaine réticence pour des raisons évidentes de vie privée et de son aspect un peu trop « Big Brother».

3.2.4. Les Big data au secours de la logistique

Le service logistique est sans aucun doute celui qui peut le plus être amélioré par l’utilisation des Big data. Le tracking a ici sa place sur l’ensemble de la chaîne, de la conception du produit jusqu’à son arrivée chez le client. Avec la démocratisation des technologies de suivi et d’identification, la masse de données disponibles dans ce secteur va exploser.

Récemment UPS, en utilisant les données collectées via les GPS de l’ensemble de ses véhicules, a revu l’ensemble de ses trajets pour la troisième fois de son histoire afin d’économiser de l’essence, et du temps11. Celui-ci calcule en temps réel le meilleur trajet pour le véhicule en fonction du contenu de son chargement. Cela évite au chauffeur de saisir une adresse et lui permet d’éviter l’ensemble des embouteillages. Cela a également permis à UPS de développer un nouveau service pour ses clients, MyChoice, qui leur permet de modifier l’heure et le lieu de livraison jusqu’à la dernière minute. L’entreprise gagne donc en flexibilité tout en offrant un service unique à ses clients.
Une autre technologie, ILC, permet de surveiller les conditions environnementales auxquelles sont soumis les produits tout au long de la chaîne logistique. Cette technologie qui produit énormément de données ne peut être analysée que via le Big data afin de les traiter en temps réel et signaler tout dysfonctionnement ou anomalie aux opérateurs afin qu’ils puissent déclencher des opérations de maintenance plus rapidement ou détecter le vol de marchandises.
Ce ne sont que quelques exemples de ce que peut apporter l’utilisation des Big data dans ce domaine. Il s’agit réellement d’un outil clé qui va permettre d’améliorer l’ensemble de la chaîne logistique de toutes les entreprises soucieuses de leur qualité de service, dans les années à venir.

3.2.5. Fiabilité et contrôle de la production

La production se rapproche du service de la logistique avec qui elle travaille en étroite collaboration. La robotisation des usines de productions qui ne cesse de progresser déporte de plus en plus les hommes à un travail de supervision de ces robots bardés de capteurs. Ces derniers sont désormais capables d’indiquer leurs performances et de signaler leurs besoins de maintenance en détectant l’usure de leurs propres composants. Toutes ces données doivent donc être traitées en temps réel afin de remonter les alertes rapidement et ne pas interrompre la chaîne de production.
Par exemple, General Electric a installé sur des turbines à gaz des technologies permettant le suivi en temps réel des conditions de fonctionnement des appareils(12). Si ses algorithmes détectent une anomalie, la commande de pièce et la mobilisation d’un technicien sont effectuées automatiquement afin de minimiser l’impact d’un arrêt de la production. Cette amélioration représente, pour les seules turbines à gaz, une économie de plus de 66 milliards de dollars en consommation de carburant sur les quinze prochaines années. Ces données génèrent 588Go de données par jour, pour avoir un ordre d’idée, cela représente sept fois le volume d’information généré par Twitter chaque jour.

11 http://www.bloomberg.com/news/2013-10-30/ups-uses-big-data-to-make-routes-more-efficient-save-gas.html

12 Stratégie Big Data - Thomas Davenport - Edition Pearson


En y associant les données de la logistique, il est donc possible pour ce service de gagner en efficacité et d’assurer une délivrabilité constante grâce à l’anticipation que lui permet le recours au Big data.

3.2.6. Améliorer le service informatique

Le service informatique, qui est la clé de voûte de toute solution Big data, peut également en bénéficier afin d’améliorer ses propres prises de décisions. Ainsi les deux domaines principalement impactés sont la fiabilité et la sécurité de l’infrastructure informatique.
Ce n’est pas une nouveauté, l’ensemble des outils informatiques produit une quantité de données phénoménale. Toutes ces données sont autant d’informations précieuses pour évaluer le bon déroulement d’une tâche ou le bon fonctionnement d’un matériel. Malheureusement, dans beaucoup de services informatiques, elles restent souvent enfouies dans les fichiers « logs » que génèrent ces outils et ne sont analysées que lorsqu’un problème survient afin d’en comprendre l’origine.
Les Big data permettraient d’améliorer la remontée d’information de par leur capacité à analyser en permanence des données structurées ou non ; elles sont capables de s’adapter à tous les types de reporting et peuvent ainsi signaler des anomalies avant que celles-ci n’impactent de façon plus grave l’ensemble du système.
De même pour la sécurité informatique, désormais les entreprises ne peuvent plus se contenter de réagir ; elles se doivent d’anticiper toute tentative d’intrusion. Pour cela, il faut mettre en place une surveillance accrue des zones sensibles du système informatique et monitorer toute activité qui pourrait paraitre suspecte grâce à un algorithme utilisant le Big data. La vitesse d’analyse et la capacité de compréhension de l’algorithme utilisant plusieurs centaines de paramètres est ici un élément crucial de l’avantage d’une solution Big data pour effectuer ce genre de monitoring.
Il semble évident, avec l’explosion de l’utilisation d’internet et des outils informatiques, que les sociétés qui sauront anticiper les problématiques de leur infrastructure informatique auront un avantage certain dans les années à venir sur celles qui ne font que constater les dégâts et réagir après coup.

3.2.7. De nouveaux outils pour la prise de décisions

Le cœur de la survie d’une entreprise repose sur les décisions que prennent les dirigeants. Avant la démocratisation d’internet dans les entreprises, les décisions étaient prises en fonction de paramètres très génériques sur le secteur dans lequel évoluait l’entreprise. Il était très dur de connaitre les stratégies des concurrents et voir ce qui se faisait dans le monde. Aujourd’hui cela a bien changé et il serait inconsidéré de prendre une décision sans avoir récupéré au préalable des éléments très précis sur l’état du marché dans le monde et avoir analysé finement la concurrence. Le genre d’applications qui offrent déjà ce genre de service sont appelées Informatique décisionnel ou Business Intelligence(13).
Mais désormais, la moindre information se doit d’entrer en ligne de compte dans les solutions de Business Intelligence. Celle-ci peut être sous forme structurée ou non, mais elle se doit d’être analysée et remontée afin de faciliter la prise de décisions. Elle doit
également être « fraîche » c’est-à-dire qu’il s’agit d’analyser en quasi temps réel l’état du marché et de l’entreprise. Les décideurs doivent disposer de l’ensemble des informations disponibles dans l’entreprise et à l’extérieur de celle-ci afin de prendre des décisions en corrélation avec l’état réel du marché.
Les éditeurs actuels de solutions de Business Intelligence ont de plus en plus de mal à suivre la cadence et à répondre aux attentes des entreprises dans ce domaine, d’autant plus que le Big data revient généralement moins cher sans toutes les contraintes que présentent ces anciens systèmes.
Les géants du web ont déjà positionné leurs produits, BigQuery chez Google ou Redshift chez Amazon, et proposent des solutions de Business Intelligence à la sauce Big data à des tarifs compétitifs en comparaison aux solutions traditionnelles (500€ par To/mois)

3.2.8. Quels résultats espérer des Big data

Après avoir vu ces cas d’utilisation selon les services de l’entreprise, il est temps de voir quel impact pourrait avoir concrètement la mise en place des Big data au sein d’une entreprise. Les technologies du Big data permettent aux entreprises d’atteindre des objectifs variés, mais il est important pour elles d’en cibler un en particulier lors du déploiement d’une infrastructure Big data.
Le premier d’entre eux est la réduction des temps d’exécution et d’analyse ; en effet, dans certaines entreprises, il peut exister des processus mettant énormément de temps à être traités du fait de la taille des données ou de la complexité du calcul. La technologie des Big data permet, grâce à son architecture distribuée (qui fonctionne sur plusieurs machines en parallèle), de gagner énormément de temps de traitement et donc de pouvoir complexifier encore plus les algorithmes de calcul en y incorporant de plus en plus de paramètres.
Prenons l’exemple de l’entreprise Macy’s, une célèbre chaîne de magasins américaine, celle-ci utilise un outil qui lui permet d’optimiser le prix de l’ensemble de ses 73 millions d’articles en se basant sur différents facteurs, notamment les prix pratiqués chez ses concurrents ou sur internet. Pour ce faire, elle utilisait un algorithme de calcul très lourd qui prenait 27 heures pour calculer l’ensemble des prix de ses produits. Désormais depuis sa migration vers une technologie Big data le calcul ne lui prend plus qu’une heure. Cela permet
à l’entreprise de rajouter plus de paramètres dans son calcul et représente même une
économie de 70% sur le coût du matériel dédié au calcul.

13 http://fr.wikipedia.org/wiki/Informatique_d%C3%A9cisionnelle


Le deuxième objectif est la réduction des coûts, comme nous l’avons vu avec le cas de Macy’s la mise en place d’une technologie Big data leur a permis de réduire leurs coûts en structure. Selon une estimation de Thomas Davenport(14), les coûts de stockage pour une année de 1 To de données sont de 37 000 dollars avec un SGBD (Système de gestion de base de données) classique, 5 000 dollars avec un système de stockage et seulement de 2000 dollars avec un cluster Hadoop (nous expliquerons au chapitre suivant ce dont il s’agit). S’il est possible d’économiser sur le coût du matériel, la mise en place d’une solution Big data exige tout de même l’embauche de « scientifique des données » ayant un salaire assez
élevé et d’autres frais annexes que nous verrons en détail dans le chapitre 3.4.
Enfin le développement de nouvelles offres et l’amélioration des offres existantes représentent l’aboutissement des objectifs, car il permettra à l’entreprise de dégager de nouveaux bénéfices et lui permettra de se détacher de ses concurrents via une offre unique. Google est le parfait exemple d’une entreprise ayant bâti l’ensemble de ses offres sur les technologies du Big data. Cependant le développement de nouvelles offres implique une certaine dose d’innovation et donc des coûts supplémentaires. On ne peut pas attendre du développement de ces offres une rentabilité à court terme, mais à long terme ils peuvent assurer une source de revenus supplémentaire pour l’entreprise.
Ce schéma résume bien les principaux usages qui sont faits du Big data de nos jours dans les entreprises :

Principaux usages des Big data dans les entreprises — Source Technavio Global SME Big Data Market 2014-2018

14 Stratégie Big Data - Thomas Davenport - Edition Pearson


3.2.9. État de l’art

Le mot Big data cache en réalité un ensemble de solutions technologiques qui permettent d’analyser et de traiter le contenu audio, vidéo et textuel. Ces technologies sont assez récentes et sont pour la plupart issues des grandes sociétés du web américain telles que Google, Yahoo ou encore Linkedin. Ces dernières ont dû créer pour leurs propres besoins un ensemble d’outils afin de traiter les masses de données qu’ils devaient analyser chaque jour. La plupart d’entre elles ont été rendues publiques via une licence Open Source ou données à la fondation Apache pour pouvoir être réutilisées et améliorées par la communauté, tout le monde bénéficie donc de ce cercle vertueux.
Le plus connu d’entre eux est assurément Hadoop. Créé en 2004 il s’agit d’un ensemble d’outils logiciels et d’un framework pour la distribution de données sur plusieurs ordinateurs. Le rôle d’Hadoop est donc de « simuler » un seul ordinateur en en reliant plusieurs, en effet il est inimaginable et hors de prix de donner à un seul ordinateur, même très puissant, des masses de données gigantesques à calculer. Il permet donc de faire abstraction du fait que des disques durs soient stockés sur des machines différentes et leur permet de travailler ensemble.
Hadoop embarque avec lui plusieurs technologies très connues du monde du Big data, dont MapReduce qui a été développé par Google et qui permet quant à lui de répartir le calcul de l’algorithme sur un ensemble d’ordinateurs reliés via Hadoop ; il n’a en charge que la partie du calcul.
Hbase fait également partie intégrante du système, il s’agit d’une base de données distribuée (c’est-à-dire répartie entre plusieurs machines) orientée colonne, qui à l’inverse d’une base de données classique, stocke les données par colonne et non par ligne. Cela permet des gains de performance et le système gagne en souplesse. Enfin pour programmer le système il existe deux langages de programmation Hive, développé par Facebook, et Pig, développé par Yahoo.
Comme nous pouvons le constater, Hadoop a été développé à partir de technologies issues des plus grandes entreprises du web. C’est ce qui lui assure aujourd’hui sa grande robustesse, sa puissance et en fait l’une des technologies les plus employées dans le monde du Big data. Il est en effet utilisé chez Facebook, Yahoo, Microsoft pour ne citer qu’eux15.
Toutefois, comme cela se produit fréquemment avec les solutions open source de nombreuses solutions commerciales dérivées ont vu le jour. On peut citer par exemple Cloudera, Hortonworks, ou encore MapR. Il existe également de nombreux outils « clés en main » permettant de faire du Big data à moindre coût, mais avec des fonctionnalités plus restreintes. Google Analytics est le plusonnu d’entre eux, il permet d’analyser le comportement de ses visiteurs et le corréler à un ensemble de paramètres. Cet outil est clairement un outil Big data, car il traite une quantité de données conséquente (corrélé au nombre de visites sur le site internet) et permet de les combiner à l’infini pour en extraire des statistiques.

15 http://wiki.apache.org/hadoop/PoweredBy


Canopy Labs est un autre exemple d’applications Big data permettant d’analyser le comportement d’un client et offre des prévisions afin d’établir de nouvelles campagnes et trouver de nouveaux produits qu’il serait susceptible d’acheter. Cet outil est gratuit jusqu’à 5000 clients, il permet à une entreprise de se débarrasser du côté complexe et technique du Big data pour se concentrer sur l’analyse des résultats.
Il existe de nombreuses solutions « clés en main » et ne demandant pas réellement de compétences techniques pour être déployées et qui pourraient permettre aux entreprises de commencer à se familiariser avec les Big data avant, pourquoi pas, d’envisager un déploiement interne pour répondre à des besoins plus poussés.
Beaucoup de sociétés de conseil se sont également précipitées sur ce marché afin d’apporter des solutions de consulting aux entreprises voulant déployer une solution Big data. Parmi elles, on retrouve notamment la société Française Capgemini qui a rapidement embauché des « scientifiques de données » pour faire face à la demande croissante des sociétés d’étudier la mise en place d’une structure Big data au sein de leur entreprise.
Il s’agit d’un marché en pleine expansion et nul doute que de nouvelles applications vont voir le jour d'ici peu, beaucoup plus simples à mettre en place, et que les prix des prestations de consulting vont diminuer drastiquement dans les années à venir avec l’arrivée de nouveaux acteurs sur ce marché.

3.3. Exemples d’utilisation des Big data dans les entreprises

3.3.1. Présentation

Nous allons maintenant nous intéresser à trois cas concrets d’utilisation du Big data au sein des entreprises. La première Recorded Future nous permettra de voir qu’une entreprise peut se créer à partir des technologies Big data. La seconde LinkedIn nous démontrera l’intérêt de transformer toute son infrastructure informatique pour passer à une structure Big data et l’impact que cela peut représenter pour la santé financière d’une entreprise. Enfin le dernier exemple nous permettra d’étudier le cas de l’intégration des Big data au sein d’une infrastructure plus traditionnelle sans bouleverser l’ensemble du service informatique.

3.3.2. Recorded Future

3.3.2.1. Présentation et problématique

Recorded Future est une entreprise créée en 2009 à Cambridge spécialisée dans l’intelligence artificielle sur internet qui compte moins de 50 salariés. L’objectif de son fondateur, Christopher Ahlberg, était de créer une société qui serait capable d’aider des analystes à prévoir les évènements futurs en utilisant les informations disponibles sur internet. Pour répondre à cette problématique, il était impératif de scanner le web entièrement et en permanence afin de pouvoir ensuite en extraire les informations utiles via des algorithmes prédictifs. L’utilisation d’une solution Big data s’est donc imposée naturellement dès la création de l’entreprise.

3.3.2.2. Réponse apportée par le Big data

Recorded Future a donc déployé une solution Big data afin de lui permettre de crawler le web. Elle a effectué une copie d’une grande partie d’internet dans le but de réaliser ses analyses. Au total c’est plus de 8 milliards d’évènements qui ont été indexés avec pour chacun d’entre eux des attributs qui en ont été extraits (par exemple le nom des personnes impliquées, la ville, des données chiffrées...).
Une fois cette extraction faite et grâce aux capacités du Cloud (notamment via les serveurs Amazon), d’autres outils Big data se chargent de calculer des modèles statistiques afin de déterminer la probabilité d’évènements à venir dans le monde en les associant à des lieux, des personnes ou encore des entreprises. L’entreprise se base également sur « l’intelligence collective » c’est-à-dire que plus les sources annonçant un évènement futur sont nombreuses, plus il y a de chances qu’il se réalise.
Voici un schéma récapitulatif simplifié du fonctionnement de Recorded Future :

Schéma simplifié du fonctionnement de Recorded Future — Source Recorded Future

3.3.2.3. Résultats

Tout cela n’aurait pas été possible sans l’utilisation des Big data ; la simple étape d’extraction des évènements aurait pris des jours à s’effectuer et n’aurait pas permis à la société de proposer des analyses en temps réel tenant compte des dernières informations disponibles sur internet.
Aujourd’hui, Recorded Future commercialise deux offres : l’une permet aux clients de fournir leur propre jeu d’informations à faire analyser par le système, c’est notamment le cas pour les services de renseignement qui disposent d’énormément de données ; la seconde consiste à utiliser les données récupérées sur internet et à les filtrer pour ne garder que celles considérées « importantes » pour le client. Ses clients principaux sont les organismes d’état, les services de sécurité des entreprises privées, des fonds spéculatifs ou encore des sociétés souhaitant analyser leur marché.
Aujourd’hui, l’entreprise Recorded Futur a déjà levé plus de 20 millions de dollars16 et compte parmi ses actionnaires Google ou encore la CIA17, preuve en est qu’ils croient beaucoup en l’avenir de ce « moteur de recherche du futur ».

3.3.3. LinkedIn

3.3.3.1. Présentation et Problématique

L’entreprise LinkedIn fondée en 2003 est un réseau social professionnel sur internet. Il permet notamment de gérer ses contacts professionnels, de remplir son CV en ligne, de chercher un emploi et de participer à des groupes de discussions pour rencontrer et
échanger avec d’autres professionnels. Au début de l’année 2014 le site comptait 300 millions d’inscrits, ce qui fait de lui le plus grand réseau social professionnel.
Le succès du site internet est dû à différents facteurs, mais les Big data en sont un très important. En effet le Big data est au cœur de l’entreprise qui compte désormais plus d’une centaine de « scientifiques de données ». Pour déployer de nouveaux services et de nouveaux produits, l’entreprise faisait face à un challenge. Comment exploiter les 2 milliards de recherches effectuées par ses membres par an18? Comment traiter 75 To de données par jour sur son infrastructure ? Et surtout quelle valeur extraire de ces données afin d’amener et de fidéliser encore plus de visiteurs sur son réseau ?


16 http://www.crunchbase.com/organization/recorded-future
17 http://www.wired.com/2010/07/exclusive-google-cia/
18 http://www.decideo.fr/Qu-est-ce-que-Big-Data-veut-dire-chez-LinkedIn_a5387.html


3.3.3.2. Réponse apportée par le Big data

 

Pour répondre à ces problématiques, l’entreprise a donc utilisé un ensemble de solutions Big data. En utilisant des technologies issues du Big data, Reid Hoffman cofondateur et président de LinkedIn a créé avec ses scientifiques de données une équipe produit qui est à l’origine des outils « les connaissez-vous ? », « les groupes que vous pourriez aimer » ou encore « qui a consulté votre profil ». Ces petits services, simples de prime abord, ont pourtant permis à la société d’acquérir des millions de nouveaux visiteurs et de les garder.
LinkedIn se sert également des Big data en interne pour le service ventes ou le service marketing. Ainsi elle a utilisé ses propres données afin de déterminer quelles sociétés seraient susceptibles d’acheter ses produits, ce qui a conduit au développement d’un outil de recommandation interne à destination des commerciaux et permettant de réunir toutes ces informations à un seul endroit. La mise en place de ces outils a fait décoller le nombre de ventes et s’envoler le taux de conversion des commerciaux.
Elle a également revu l’ensemble de son moteur de recherche afin de proposer des résultats plus personnalisés à ses membres en se basant sur leur historique de navigation, les activités et les centres d’intérêt de leurs contacts et d’autres paramètres tels que leur âge ou leurs centres d’intérêt. Toujours dans le même but d’améliorer et de cibler davantage les goûts de l’internaute afin d’augmenter la durée de sa visite sur le site et ainsi visualiser plus de publicités.

3.3.3.3. Résultats

Dans cet exemple il s’agit là d’une transition de l’analytique traditionnel vers un analytique Big data. Celui-ci a entièrement remplacé l’ancien système plus classique (SGBD traditionnel), car il n’était plus possible pour la société de fonctionner avec ce système si elle souhaitait s’enrichir de nouveaux services et proposer des produits innovants. Les ressources demandées pour le traitement de ces données et leur calcul auraient demandé trop de temps.
Ce changement de stratégie dans la façon de traiter les données a permis à l’entreprise de conforter son statut de leader des réseaux sociaux professionnels et lui permet d’afficher un chiffre d’affaires au premier trimestre 2014 de 473,2 millions de dollars, en progression de
46% par rapport à la même période l’année dernière (19) . Cependant, l’entreprise qui a fortement investi pour parvenir à ce résultat n’arrive toujours pas à tirer des bénéfices de son activité. La perte pour le premier trimestre 2014 était de 13.4 millions à comparer aux22,6 millions pour la même période l’année précédente. Tous les indicateurs sont donc dans le vert pour que l’entreprise commence à réaliser des bénéfices importants dans les années à venir.

19 http://www.commentcamarche.net/news/5864505-linkedin-un-chiffre-d-affaires-en-hausse-de-46-au-1er-trimestre


3.3.4. Atout France

3.3.4.1. Présentation et problématique

Atout France est une agence de développement touristique de la France, unique opérateur de l’État dans le secteur du tourisme. Elle existe depuis mai 2009 et a pour principaux objectifs d’adapter l’offre touristique française à la demande nationale et internationale, et d’accompagner les entreprises ou collectivités françaises dans leur rayonnement à l’international. Il ne s’agit pas à proprement parler d’un service public, mais plus précisément d’une entreprise qui agit exclusivement pour l’état français.
Le tourisme est un secteur qui se prête bien aux approches Big data. Avec plus de 83 millions de touristes en 201320, les données en France sont en effet nombreuses et très variées, on peut par exemple retrouver des images, des vidéos, des commentaires ou encore des informations plus structurées telles que les prix, les disponibilités...
Atout France souhaitait pouvoir étudier le comportement des touristes étrangers de la zone BRIC (Brésil, Russie, Inde, Chine). Qui sont-ils ? Dans quelles villes se rendent-ils ? Combien d’autres pays visitent-ils ? Ce ne sont que quelques une des questions que se posait Atout France sur ces touristes. Mais comment réunir ces informations le plus efficacement possible et de façon exhaustive afin de disposer d’un large panel ?
L’entreprise a donc décidé de faire appel à une société spécialisée dans la science des données, MFG Labs.

3.3.4.2. Réponse apportée par le Big data

MFG Labs a donc décidé de mettre en place un système de « social média monitoring » ou surveillance des réseaux sociaux. Cette méthode très connue dans le milieu des Big data consiste à surveiller sur les réseaux sociaux l’apparition de mots, de nom de produits ou encore de personnalités afin de pouvoir analyser les commentaires qui en sont faits. Ici cette méthode a été utilisée d’une autre manière, il a fallu enregistrer toutes les photos que publiaient les touristes originaires de la zone BRIC. Par la suite, ces documents ont été analysés pour en extraire les informations géographiques de la prise de vue et la date à laquelle elle a été effectuée. Ces informations ont permis d’établir une carte de France de
la présence de ces touristes sur le territoire.

20 http://www.planetoscope.com/tourisme/415-nombre-de-touristes-en-france.html


Carte de France représentant les zones visitées par des touristes de la zone BRIC sur une période de 2 ans, chaque point représente une photo (à gauche il s’agit de Paris) — Source MFG Labs

3.3.4.3. Résultats

Les résultats fournis ont permis par exemple de déterminer que les Russes accèdent à tout le territoire français. Les Brésiliens sont bien présents sur Paris et sur la Côte d’Azur, mais on a aussi déjà des indices de leur présence sur d’autres destinations. Enfin les Chinois, comme les Brésiliens, se rendent déjà dans d’autres régions, en Provence notamment.
En faisant appel à une société externe pour piloter le projet, Atout France n’a absolument rien changé de son infrastructure interne pour ce projet Big data. L’outil s’est intégré sur de nouveaux serveurs mis en place pour l’occasion et a cohabité avec la structure informatique déjà en place. Il s’agit typiquement d’un projet qui a apporté un plus à l’entreprise, car il lui a permis d’avoir une vision plus précise de l’attractivité des régions dans le territoire. Dans cet exemple il s’agissait d’une mission ponctuelle, mais nous pourrions imaginer de la
transformer en une application Big data temps réel afin de lui trouver de nouveaux usages.

 

3.4. Les limites pour les PME

Nous avons vu jusqu’à présent l’ensemble des apports et de nombreux exemples d’entreprises ayant mis en place les Big data. Pour la plupart d’entre elles, il s’agit de grandes entreprises disposant d’une assise confortable dans leur secteur et de fonds financiers conséquents. Il existe également des sociétés qui se sont créées autour des Big data elles n’ont donc pas forcement eu à faire coexister deux systèmes informatiques et à se préoccuper des conséquences de l’arrivée de cette nouvelle technologie sur le fonctionnement de leur entreprise.
Cependant la plupart des entreprises ne sont ni des grandes entreprises, ni des entreprises spécialisées dans le Big data et la manipulation de données. Mais comme nous l’avons vu tout au long de notre démonstration, ces dernières peuvent tout de même prétendre à pouvoir déployer une solution Big data au sein de leur services, mais avant de se lancer dans ce vaste chantier, elles devront particulièrement faire attention aux points suivants pour éviter de se retrouver face à des conséquences qu’elles n’avaient pas envisagées. Ces conseils sont également valables pour les plus grandes entreprises, mais ces dernières sont souvent mieux conseillées, car elles peuvent se faire accompagner par des professionnels et disposent de fonds leur permettant de faire face aux imprévus.

3.4.1. Le coût et le ROI

Il s’agit là du problème principal au déploiement des Big data, si l’on en croit une enquête réalisée en 2012 par le cabinet Markess21, 31% des entreprises avaient des difficultés à identifier les gains concrets ou le ROI des projets Big data, et 26% des entreprises déclaraient manquer de budget pour pouvoir songer au déploiement d’une solution Big data.
En 2011, Wikibon, une communauté de partage de connaissances a publié une étude qui compare les bénéfices financiers de deux environnements analytiques. Le premier fonctionne sur le schéma classique d’un analytique traditionnel tandis que le second repose sur des technologies Big data. Comme le montre le résultat de cette étude l’environnement Big data affiche de meilleurs résultats sur de nombreux points (cf Annexe 4). Il peut donc exister un véritable ROI pour les entreprises ayant correctement identifié leurs besoins et ayant défini un objectif clair avant de se lancer dans les Big data (cf chapitre 3.2.8).
Il est vrai que l’étude et la mise en place de la technologie Big data représente un certain investissement pour une entreprise, ce n’est pas tant par le coût du matériel, car comme nous l’avons vu précédemment les coûts sont moindres qu’avec une architecture classique. Il s’agit surtout des coûts de formation du personnel, qui n’est actuellement pas du tout formé à ces outils, ou de l’embauche de nouveaux salariés.
La mise en place d’une solution Big data requiert souvent l’embauche d’un scientifique de données ou Data Scientist. Le rôle du scientifique de données est essentiel, c’est lui qui va pouvoir analyser les données de l’entreprise et déterminer la façon d’en exploiter de la valeur. Il est aussi, dans les petites structures, chargé de créer l’algorithme informatique qui lui permettra d’exploiter les données.

21 http://www.markess.fr/demandedocument.php?refdoc=901


En effet cette technologie étant assez récente, il existe encore peu de véritables scientifiques de données issus d’un cursus scolaire. Il s’agit pour la plupart d’autodidactes, d’informaticiens spécialisés dans cette technologie ou encore de mathématiciens avec une casquette de développeurs. Le coût salarial d’un scientifique de données peut s’avérer très élevé, mais l’explosion du marché des Big data amène de plus en plus les étudiants dans ces cursus et d’ici quelques années il y aura assez de scientifiques de données sur le marché pour réduire le coût de leur salaire.
Il faut savoir, et nous l’avons vu précédemment, qu’il existe des outils Big data « clés en main » qui peuvent permettre à certaines entreprises de se lancer dans des projets internes.
Une autre solution serait de laisser une demi-journée chaque semaine aux salariés du service informatique, à l’instar de Google pour des projets personnels, afin qu’ils puissent se former, tester, expérimenter le Big data à leur rythme et qui sait, ils pourraient trouver une application et un usage aux données disponibles dans votre entreprise.
En attendant, il est certain que cette technologie va représenter un coût assez élevé pour les entreprises, mais d’ici quelques années avec la démocratisation du métier de scientifique de données on peut imaginer qu’il n’y ait plus de si grosses différences avec un schéma informatique plus classique et que les technologies Big data deviennent la norme.

3.4.2. La pertinence des données

Un autre point soulevé par les entreprises montre que celles-ci n’arrivent pas à identifier la valeur que peuvent avoir les données disponibles en interne. Il est souvent difficile de pouvoir dégager de la valeur de ses propres données, c’est pour cela qu’il faut fournir un maximum d’exemples concrets pour illustrer chaque concept ou chaque domaine d’application aux entreprises. Ces exemples ne sont là que pour guider la réflexion, il ne s’agit pas de reprendre les mêmes concepts dans son entreprise sans réfléchir au contexte. Chaque entreprise est différente, les données qu’elle possède sont différentes de ses concurrents, il n’y a donc pas de modèle universel.
Un appel à une entreprise spécialisée dans la gestion de projet Big data permettra peutêtre de mieux d’identifier les possibilités d’utiliser les données dans votre entreprise. En effet, une étude réalisée par Techaisle sur 3 360 entreprises révèle que « les plus forts taux de réussite (déterminés par la mise en place d’un projet Big Data fonctionnel en l’espace de six mois) ont été atteints lorsqu’un consultant ou une organisation externe avait été engagé(e) pour développer des démonstrations de faisabilité, conseiller sur l’architecture de données et développer finalement une solution d’analyse des big data. ».
Les petites et moyennes entreprises pensent souvent, à tort, qu’elles ne manipulent pas assez de données pour avoir besoin de recourir aux technologies du Big data. Il faut bien se rappeler que les Big data comprennent également l’analyse de la variété de données, c’est-à-dire l’analyse de photo, son et vidéo qui sont très compliqués avec des outils informatiques plus classiques. De même si l’entreprise a peur de ne pas disposer d’assez de données, il est possible d’aller en récolter sur des canaux extérieurs tels que les réseaux sociaux et de les confronter aux quelques données internes dont dispose l’entreprise. C’est ce qu’a fait Atout France comme nous l’avons vu au chapitre 3.3.4.

3.4.3. Des processus de fonctionnement à repenser

Les interactions, la hiérarchie et la prise de décision au sein de l’entreprise évoluent avec l’intégration des Big data. En effet, de nouveaux métiers font leur apparition dans l’entreprise comme les scientifiques de données ; les ressources humaines doivent donc s’adapter pour pouvoir cerner le profil de ce nouveau métier et pouvoir choisir le bon parmi les candidats. Ces analystes ont toute leur place au sein du service marketing, mais il faut faire attentionà ne pas compter que sur les données ; la créativité et l’expérience du service marketing ne doivent pas disparaitre au profit du « tout data ».
L’arrivée de ces Big data dans les différents services de l’entreprise (cf le chapitre 3.2) va surement provoquer quelques remous. Parfois les modes de travail sont à repenser entièrement, ce qui risque de déstabiliser certains employés, notamment les plus anciens, perturbés par l’arrivée de toutes ces nouvelles technologies. Il peut s’agir d’apprendre à utiliser un certain logiciel ou encore repenser le mode de fonctionnement interne d’un processus pour y intégrer le nouveau système Big data.
La transition doit donc se faire en douceur avec beaucoup de pédagogie ; il faut démontrer aux salariés que cela va améliorer leur performance au travail tout en optimisant les tâches parfois répétitives auxquelles ils sont confrontés. Il faudra former des « évangélistes » au sein de l’entreprise (souvent les plus adeptes des nouvelles technologies) afin qu’ils puissent à leur tour assister l’ensemble des salariés rattachés à leur pôle. Il ne faut pas négliger la formation à ces nouveaux outils, car un salarié mal formé à un outil peut faire perdre de l’argent à l’entreprise en perdant du temps à comprendre son fonctionnement et, pire, il peut rejeter l’adoption du même outil, car il n’arrive pas à en comprendre l’intérêt.
Bien entendu, tout cela dépend de la taille de la structure et l’on comprend aisément qu’une PME de 5 personnes n’agira pas de la même manière qu’une PME de 50 salariés lors du déploiement d’une solution Big data.

3.4.4. Le respect de la vie privée

Récemment, Vint Cerf « évangéliste en chef de l’internet » chez Google et l’un des pères fondateurs d’internet déclarait que « la vie privée pourrait bien être une anomalie » et qu’il « serait de plus en plus difficile de garantir la vie privée avec l’évolution des nouvelles technologies »22.
Il prenait l’exemple de sa propre jeunesse, dans son village de 3000 habitants où « il fallait se rendre à la Poste pour téléphoner, et où le facteur savait tout sur le courrier de tout le monde. Dans une ville de 3 000 personnes, il n’y a pas de vie privée. Tout le monde sait ce que chacun fait. » Désormais le facteur a donc été remplacé par le Big data et ses algorithmes.
L’une des remarques que l’on entend le plus lorsque l’on parle de Big data c’est l’inquiétude, légitime, qu’ont les internautes ou les clients face à la collecte en masse d’informations sur leur profil et leurs actions. D’après une étude de l’observatoire OrangeTerrafemina, menée en janvier 2014 sur les Big data et la vie privée en France23, il en ressort que 71% des internautes se disent « inquiets quant à la collecte de leurs données ». Cette inquiétude ne s’est pas arrangée avec la récente affaire PRISM24 de l’agence américaine de la NSA.
Cependant, en regardant de plus près cette étude, il en ressort que 81% des sondés sont «persuadés que les sites sur lesquels ils achètent transmettent leurs données personnelles à d’autres sociétés privées » ; malgré tout, ils semblent s’y résoudre et continuent d’acheter de plus en plus en ligne. Cette façon de penser montre bien une contradiction entre les actes et les convictions. Alors les internautes ne seraient-ils pas si peu soucieux que ça de l’utilisation que l’on peut faire de leurs données ?
Cette contradiction peut trouver une explication dans le fait que l’amélioration des algorithmes de recommandations a permis aux internautes de trouver une utilité à toute la manipulation et le tracking qui est fait de leurs actions. Des fonctionnalités comme « D’autres internautes ont aussi acheté » et « Vous pourriez aussi aimer » chez Amazon ou « Vous connaissez peut-être » chez LinkedIn ont rendu service plus d’une fois aux internautes et la plupart sont heureux de disposer d’outils aussi complets pour les guider dans leurs achats(25)
à travers une masse de produits ou leur permettre de retrouver des amis perdus de vue.
À côté de ces créations de services à forte valeur ajoutée pour les internautes, l’aspect intrusion dans la vie privée se voit davantage dans les publicités ciblées que l’on peut voir sur tous les sites internet après avoir visité un produit. D’après une étude du Pew Research Center26, 68% des internautes américains disent désapprouver les publicités choisies en fonction de l’historique de leurs recherches et de leurs visites sur les sites web. On ne souhaite pas forcément revoir les petites culottes que l’on est allé voir 2 semaines plus tôt sur tout l’internet. Et s’il s’agissait d’un cadeau de Saint Valentin, je vous laisse imaginer la surprise gâchée pour votre femme si elle venait à utiliser votre ordinateur.

22 http://www.clubic.com/internet/google/actualite-602430-vint-cerf-google-vie-privee-anomalie.html

23 http://www.terrafemina.com/culture/culture-web/articles/38642-big-data-et-vie-privee-le-vrai-du-faux-sur-la-collectede- vos-donnees-personnelles.html

24 http://fr.wikipedia.org/wiki/PRISM_%28programme_de_surveillance%29

25 Privacy and Big Data - Terence Craig, Mary E. Ludloff - Edition O'Reilly Media

26 http://www.pewresearch.org/daily-number/internet-users-dont-like-targeted-ads/

 

Aux États-Unis, à l’image de beaucoup de pays dans le monde, on considère que la donnée personnelle est un bien marchand. Les lois existantes visent essentiellement à favoriser l’économie ou à donner l’accès aux données aux institutions gouvernementales pour des raisons de sécurité. En Europe, à l’inverse, la donnée à caractère personnel est un bien à protéger. Le citoyen doit pouvoir, par exemple, s’opposer à une collecte, modifier une donnée incorrecte voire même la faire supprimer.
Face aux levées de boucliers des associations et des organismes chargés de la protection de la vie privée, il s’agit donc de donner une bonne image de ce que va faire l’entreprise des informations ainsi collectées. En France, la loi permet aux entreprises d’utiliser des données à des fins d’amélioration et d’étude de leurs services, mais il convient bien entendu de le déclarer auprès des internautes, d’anonymiser les données et de ne pas traquer un individu en particulier(27).
Il convient donc avant de démarrer un projet Big data de bien se renseigner sur le cadre juridique qui l’entoure et ne pas hésiter à s’informer auprès de la CNIL, notamment, pour bien encadrer son projet. Une contrainte de plus pour le déploiement des Big data au sein des sociétés qui n’ont pas forcément les moyens pour disposer de l’assistance de juristes, mais il ne s’agit là que d’un frein et non d’un obstacle infranchissable sur la route qui mène
au Big data.

27 http://mobile.pro.clubic.com/legislation-loi-internet/cnil/actualite-722201-cnil-conseils-tracking-clients.html

3.5. Bilan et recommandations

Comme nous l’avons vu tout au long de cette présentation et à travers les exemples donnés pour illustrer chaque point, les Big data sont une réalité économique et non pas un simple « Buzz word ».
Il s’agit là d’une nouvelle ère informatique qui s’ouvre et toutes les études montrent que de nombreuses entreprises réfléchissent activement à la place que pourraient avoir les Big data au sein de leur structure. Les offres et les produits autour des technologies du Big data sont en train de se développer à vitesse grand V et deviennent de plus en plus accessibles. Il va devenir de plus en plus simple de mettre en place une solution Big data, comme nous l’avons vu avec les solutions « clés en main » que proposent certains éditeurs.
Nous avons également abordé des exemples d’usages des Big data au sein des différents services d’une entreprise, mais ce n’était là que de simples exemples ; les applications sont beaucoup plus nombreuses et il ne faut surtout pas se borner à appliquer sans réfléchir les recettes qui ont marché dans d’autres entreprises. Il s’agit bien pour une entreprise de déterminer sa propre stratégie et de dégager une valeur de ses propres données.
Bien entendu, l’arrivée du Big data implique beaucoup de changement au sein des entreprises et celles-ci vont devoir s’adapter, mais n’est-ce pas là le fonctionnement même d’une entreprise, s’adapter en permanence à son marché et à son environnement afin de survivre, de se démarquer et d’engranger de plus en plus de bénéfices. L’entreprise doit avoir une vision à long terme et doit penser ses investissements pour les 10 à 15 ans à venir.
Investir dans les Big data à l’heure actuelle, c’est donner une chance à son entreprise de se démarquer de la concurrence, être innovant, proposer de nouveaux services, créer de la valeur à partir de données que l’on possède déjà, réduire les coûts sur le long terme, fonder ses décisions sur des données plus précises et améliorer le fonctionnement global de son entreprise.
Dans nos exemples, nous avons étudié les cas de grandes entreprises, de startup ou encore de moyennes entreprises. On le voit bien, les Big data peuvent s’appliquer à tous les types d’entreprises et ne concernent pas uniquement les grands groupes à la trésorerie bien remplie. Maitriser cette nouvelle technologie agrandit le champ des possibles pour des entreprises telles que les PME et leur permet d’aller titiller les grandes entreprises sur leur propre terrain, à moindre coût : l’analyse en masse de données. Elles peuvent ainsi créer des produits uniques qui pourront leur permettre de prendre un avantage certain sur leurs concurrents. Il s’agit là de profiter du fait que la concurrence réfléchisse encore à comprendre comment fonctionnent les Big data pour placer ses pions sur l’échiquier.
Ceci est particulièrement vrai pour les entreprises « pure player » qui n’officient que sur internet. Sur ce canal très concurrentiel et réactif, les entreprises se doivent de suivre de près les nouvelles technologies et elles ne disposent d’aucune excuse pour ne pas commencer à mettre en place des études sur des projets Big data, même basiques avec l’exploitation de données de Google Analytics, par exemple, pour commencer.
Certes, nous l’avons vu, il existe des freins qui font craindre aux entreprises l’intérêt d’un projet Big data au sein de leur structure, mais toutes les entreprises s’étant lancées dans le Big data sont passées par là et les résultats que nous avons vus sont souvent à la mesure des espérances attendues par celles-ci.
Il convient de maitriser aujourd’hui des technologies qui demain seront la norme dans toutes les entreprises. Ne pas passer aux Big data en 2014 serait comme ne pas déployer d’accès internet dans son entreprise à la fin des années 1990, ce serait prendre un retard
considérable face à ses concurrents et se fermer à de nouveaux marchés.

4. Bibliographie et Webographie

Bibliographie

[8] Livre blanc - Valtech - http://www.valtech-training.fr/assets/uploads/pdf/white-paper-cross- datamarketing-fr.pdf

[10], [17] , [19], [21] Stratégie Big Data - Thomas Davenport - Edition Pearson

[32] Privacy and Big Data - Terence Craig, Mary E. Ludloff - Edition O'Reilly Media

Webographie

[1] http://www.web-alliance.fr/referencement/comparatif-places-de-marche-infographie/

[2] http://www.toute-la-franchise.com/vie-de-la-franchise-A4462-dossier-toute-la-franchise- lemar.html

[3] http://www.latribune.fr/vos-finances/immobilier/20130911trib000784441/10-chiffres-cles-pour- [1] comprendre-la-situation-tendue-de-l-immobilier-en-france.html

[4] http://www.xerfi.com/communication/hp_site/06_04_10/E-commerce_equip_maison.pdf

[5] http://www.lsa-conso.fr/l-ameublement-en-pleine-zone-de-turbulences,138256

[6] https://www.google.fr/about/company/history/

[7] http://archive.wikiwix.com/cache/?url=http://www.itu.int/ITU- D/ict/statistics/&title=ITU%20%20Free%20statistics

[9] http://www.emc.com/collateral/analyst-reports/idc-the-digitaluniverse-in-2020.pdf

[11] McKinsey Institute, 2011, http://www.mckinsey.com/mgi/publications/big_data/pdfs/MGI_big_data_full_report.pdf

[12] http://www.usine-digitale.fr/article/infographie-big-data-un-marche-a-100-milliards- dedollars.N254184

[13] http://www.transparencymarketresearch.com/big-data-market.html

[14] https://www.abiresearch.com/press/big-data-spending-to-reach-114-billion-in-2018-loo

[15] http://www.lesechos.fr/tech-medias/hightech/0203622549314-un-plan-big-data-pour-contrer- lesgeants-du-net-1022096.php

[16] http://fr.wikipedia.org/wiki/Donn%C3%A9es_ouvertes

[18] http://www.bloomberg.com/news/2013-10-30/ups-uses-big-data-to-make-routes-more- efficientsave-gas.html

[20] http://fr.wikipedia.org/wiki/Informatique_d%C3%A9cisionnelle

[22] http://wiki.apache.org/hadoop/PoweredBy

[23] http://www.crunchbase.com/organization/recorded-future

[24] http://www.wired.com/2010/07/exclusive-google-cia/

[25] http://www.decideo.fr/Qu-est-ce-que-Big-Data-veut-dire-chez-LinkedIn_a5387.html

[26] http://www.commentcamarche.net/news/5864505-linkedin-un-chiffre-d-affaires-en-hausse-de46- au-1er-trimestre

[27] http://www.planetoscope.com/tourisme/415-nombre-de-touristes-en-france.html

[28] http://www.markess.fr/demandedocument.php?refdoc=901

[29] http://www.clubic.com/internet/google/actualite-602430-vint-cerf-google-vie- priveeanomalie.html

[30] http://www.terrafemina.com/culture/culture-web/articles/38642-big-data-et-vie-privee-le-vraidu- faux-sur-la-collecte-de-vos-donnees-personnelles.html

[31] http://fr.wikipedia.org/wiki/PRISM_%28programme_de_surveillance%29

[33] http://www.pewresearch.org/daily-number/internet-users-dont-like-targeted-ads/

[34] http://mobile.pro.clubic.com/legislation-loi-internet/cnil/actualite-722201-cnil-conseils- trackingclients.html

Enregistrer

Enregistrer

Enregistrer

Enregistrer