No Banner to display

From Big data to Big money

| 20 mai 2013 | 0 commentaire

Catégorie: Données, Entreprises, Institutions, Logiciels, Marché, Mobilité, Open Data, Premium, Reportages

Salon Big DataLa Big data n’en a pas fini de faire couler de l’encre et d’alimenter les conversations. La deuxième édition du salon Big Data Paris, organisée début avril, en est une bonne preuve. Si les retours d’expérience restent rares, un écosystème se met manifestement en place avec des offres plus précises. Les interrogations sur la qualité, la sécurité et la valeur des « grosses données » sont désormais tout aussi importantes que celles sur les outils de développement et de stockage.

Nous sommes submergés de données, c’est un fait. « Un simple capteur de température qui envoie une mesure codée sur 16 bits toutes les quinze secondes génère 68 méga-octets par an », comme le rappelle Alessandro Bassi, spécialiste de l’Internet des objets.

Principe d’utilité

La question est désormais de séparer le bon grain de l’ivraie, de dénicher les informations utiles. Utiles pour piloter ses activités, pour définir une stratégie, pour guider un client, etc. D’ailleurs, pour Zouheir Guedri, consultant chez PwC « la qualité d’une donnée, c’est la valeur qu’elle apporte, son potentiel d’utilisation. Elle peut se mesurer en termes de fraîcheur, d’exactitude, d’exhaustivité… » Certes, le sujet n’est pas nouveau mais il est exacerbé par le côté « Big » des flux et des bases que gèrent désormais les entreprises. Plusieurs intervenants du congrès ont tenu à tirer la sonnette d’alarme et incitent les entreprises à se mettre en ordre de marche pour évaluer la qualité de leurs données ainsi que celles de leurs partenaires. Car si 73 % des entreprises reconnaissent que la non-qualité des données est un frein à leur développement, elles ne sont pas capables d’en mesurer concrètement les effets. Pire, si 80 % des entreprises interrogées pensent que les données sont importantes, seules 15 % sont capables de leur donner une valeur. Pourtant, insiste Zouheir Guedri, « cette qualité peut être valorisée ». Ainsi, il rappelle que La Poste baisse ses tarifs de publipostage si les adresses qu’elle doit traiter sont normalisées avec un logiciel qu’elle a certifié.

Même les POI ont besoin d’être nettoyés

Factual« Les données sont au cœur de la nouvelle économie, c’est sur elles qu’il faut se focaliser » clame pour sa part Eva Ho, vice-présidente marketing de Factual. L’entreprise, fondée en 2007, se présente comme l’un des spécialistes de l’agrégation de données, notamment géolocalisées. Elle propose un réservoir de près de 68 millions de points d’intérêts (POI), sur une cinquantaine de pays (4,3 millions sur la France) qui vient alimenter de nombreuses applications et sites Internet comme Facebook, Trip Advisor, Foursquare ou Toyota. À partir des données recueillies sur les hubs de données, Factual définit un cœur d’information validé (le même nom de restaurant apparaît dans plusieurs bases, localisé à peu près au même endroit, etc.). Ce noyau, dûment géolocalisé et indexé, est ensuite enrichi par toutes les données qui peuvent y être rattachées (des avis sur Facebook par exemple). L’entreprise applique le même principe aux produits manufacturés (on n’imagine pas les confusions qui peuvent exister dans la description de couches Pampers, deuxième âge, peau sensible, paquet de 48 !). Elle met enfin ce savoir-faire au service des entreprises pour nettoyer leurs propres données et les qualifier. Un bon exemple de la valorisation des milliards d’informations qui circulent aujourd’hui sur la toile !

————————————————–

securiteBig Data et données personnelles

« Le gisement est inépuisable, tant que les fournisseurs de données auront confiance » rappelle Thierry Dor, avocat au cabinet Gide, Loyrette et Nouel. Les études montrent à la fois l’inquiétude croissante des utilisateurs d’Internet quant à l’utilisation de leurs données personnelles et la pérennité de leurs comportements. Cela n’empêchera pas le futur règlement européen (qui remplacera la loi de 1995) de mieux les protéger. Côté consommateur, le projet actuel impose la règle du consentement (opt-in), consacre l’adresse IP comme une donnée personnelle et introduit le droit à l’oubli. Côté exploitation des données, le principe de finalité du traitement restera acquis, ce qui sera complexe à gérer dans les approches Big data où de nombreuses données sont stockées en vue « d’éventuels » traitements. Alors qu’actuellement, seuls les responsables du traitement doivent respecter la loi, le nouveau règlement propose de l’étendre aux sous-traitants. Même si le texte est encore en discussion au Parlement européen, Thierry Dor recommande aux entreprises « d’anticiper et d’anonymiser les données dès leur récupération ». Car, en tant que règlement (et non pas directive), il s’imposera dans tous les pays de l’Union dès 2016. Enfin, s’il est voté et adopté d’ici la fin de l’année !

– Pour suivre le règlement, nombreux articles sur le site de la CNIL

———————————————–

La Big data fait recette

Alors que Big Data Paris avait accueilli six cents visiteurs et vingt-cinq exposants en 2012, ce sont quelque deux mille cinq cents participants qui se sont pressés cette année dans les allées du CNIT pour découvrir les offres d’une soixantaine d’exposants et assister aux nombreuses conférences organisées pendant deux jours. Si ça causait toujours Hadoop et No SQL entre développeurs, nombreux étaient ceux qui étaient venus pour parler valorisation des données.

– Interviews et présentations du salon Big Data Paris

Print Friendly, PDF & Email
Signaler un contenu

Laisser un commentaire

No Banner to display

No Banner to display