Pourquoi le Big data va révolutionner les DRH | Le Net Expert Informatique

Pourquoi le Big data va révolutionner les DRH

Le Big data se met au service des ressources humaines. Aujourd’hui, les plates-formes collectent des données sur les candidats partout sur Internet. Une technologie qui va totalement bousculer la gestion de carrières et dynamiter le recrutement. Pour le meilleur, mais aussi pour le pire.

 

 

Depuis quelques années, les éditeurs de logiciels de gestion des ressources humaines, notamment ceux qui offrent leur service dans le cloud, s’intéressent au Big data. Certains utilisent des bases de données in-memory, d’autres ont mis en place des technologies type Hadoop afin d’offrir à leurs utilisateurs des capacités avancées d’analyse et de reporting sur les données RH.

Non seulement, ceux-ci peuvent davantage croiser des données entre les formations, les compétences, les salaires, les absences, mais ils peuvent aussi injecter, dans leurs analyses, des données captées sur Internet et sur les réseaux sociaux.

Dans le recrutement, le Big data permet déjà aux entreprises d’aller chercher les meilleurs candidats non plus dans le vivier de CV qui leur sont adressés, mais directement sur les forums et les réseaux sociaux.

Alors, pourquoi s’embêter à lire des CV quand un algorithme peut jouer les chasseurs de tête ou détecter les salariés « à risque » ? Ces méthodes prédictives tout droit venues du marketing débarquent dans les RH. C’est une véritable révolution qui s’apprête à voir le jour dans la profession.

 

Lire la suite….

 

 


Contactez-nous

Denis JACOPINI
Tel : 06 19 71 79 12
formateur n°93 84 03041 84

 

 


Contactez-nous


 

Cet article vous plait ? Partagez !
Un avis ? Laissez-nous un commentaire !

 

 

 




Enjeux et défis du web profond | Le Net Expert Informatique

Enjeux et défis du web profond

Le web profond (Deep Web) désigne le sous-ensemble d’internet qui n’est pas indexé ou mal indexé par les grands moteurs de recherche comme Google, Yahoo ou Bing,…On sait que cet ensemble de données reste difficilement mesurable mais qu’il occupe un espace très supérieur à celui de l’ensemble des sites web bien indexés par les moteurs classiques. Certaines études avancent un ratio de 80% de Deep Web contre 20% de web de surface à l’image de la partie immergée d’un iceberg… 

 

Profond comme le web

Le contenu du deep web demeure hétérogène. On y trouve de grandes bases de données, des bibliothèques volumineuses non indexées par les moteurs en raison de leur tailles, des pages éphémères, mal construites, à très faible trafic ou volontairement rendues inaccessibles par leurs créateurs aux moteurs traditionnels.

D’après une étude récente de la Darpa, l’agence américaine en charge des projets de défense, plus de 60 millions de pages à vocation criminelle ont été publiées depuis deux ans dans les profondeurs du web. Les moteurs de recherche classiques, Google en tête, utilisent des algorithmes d’indexation dérivés du puissant Pagerank qui s’appuient sur une mesure de popularité du site ou de la page.

Cette approche qui a fait le succès de Google va de fait exclure les pages à faible trafic, éphémères ou furtives. Ce sont précisément ces pages qui sont utilisées par les acteurs de la cybercriminalité pour diffuser de l’information tout en restant sous les radars des grands moteurs. Lorsque cette information concerne une activité criminelle, c’est dans le Dark Web qu’elle sera dissimulée et rendue accessible aux seuls clients potentiels via des outils d’anonymisation spécialisés comme Tor. Le web profond réunit donc de la donnée légitime, souvent de haute qualité lorsqu’il s’agit de bases de données scientifiques volumineuses peu ou mal indexées par les moteurs.

Il réunit de la donnée sécurisée accessible seulement par mot de passe mais aussi de la donnée clandestine issue de trafics et d’activités criminelles. Cet ensemble informationnel hétérogène intéresse depuis longtemps les grands acteurs du numérique, chacun avec une motivation spécifique. L’accès au web profond constitue un élément stratégique du dispositif global de lutte contre la cybercriminalité qui reste l’une des grandes priorités de l’administration américaine. Les efforts pour obtenir des capacités de lecture du web profond se sont concrétisés avec le développement en 2014 du moteur de recherche Memex tout droit sorti des laboratoires de la Darpa.

 

 

Memex, le moteur Darpa

Dans son communiqué officiel publié le 9 février 2014 [1], l’agence Darpa décrit Memex comme « le moteur qui révolutionne la découverte, l’organisation et la présentation des résultats de recherche en ligne. Le programme Memex imagine un nouveau paradigme, où il est possible d’organiser rapidement et intelligemment un sous-ensemble de l’internet adapté à l’intérêt d’une personne ».

 

 

Le moteur est construit autour de trois axes fonctionnels:

  1. l’indexation de domaines spécifiques,
  2. la recherche de domaines spécifiques
  3. la mise en relation de deux premiers axes

 

Après plus d’un an d’utilisation en phase de test par les forces de l’ordre américaines, Memex a permis de démanteler un réseau de trafiquants d’êtres humains. Durant la finale du Super Bowl, Memex a servi pour détecter les pages associées à des offres de prostitution. Ses outils d’analyse et de visualisation captent les données invisibles issues du web profond puis tracent la graphe des relations liant ces données. De telles fonctionnalités s’avèrent très efficaces pour cartographier des réseaux clandestins de prostitution en ligne.

 

D’après les récents communiqués de la Darpa, Memex ne traite pour l’instant que les pages publiques du web profond et ne doit donc pas être associé aux divers outils de surveillance intrusifs utilisés par la NSA. A terme, Memex devrait offrir des fonctionnalités de crawling du Dark Web intégrant les spécificités cryptographiques du système Tor. On peut raisonnablement imaginer que ces fonctions stratégiques faisaient bien partie du cahier des charges initial du projet Memex dont le budget est estimé entre 15 et 20 millions de dollars… La Darpa n’est évidemment pas seule dans la course pour l’exploration du web profond. Google a parfaitement mesuré l’intérêt informationnel que représentent les pages non indexées par son moteur et développe de nouveaux algorithmes spécifiquement adaptés aux profondeurs du web.

 

 

Google et le défi des profondeurs

Le web profond contient des informations provenant de formulaires et de zones numériques que les administrateurs de sites souhaitent maintenir privés, hors diffusion et hors référencement. Ces données, souvent très structurées, intéressent les ingénieurs de Google qui cherchent aujourd’hui à y avoir accès de manière détournée. Pour autant, l’extraction des données du web profond demeure un problème algorithmiquement difficile et les récentes publications scientifiques des équipes de Google confirment bien cette complexité. L’Université de Cornell a diffusé un article remarquable décrivant une infrastructure de lecture et de copie de contenus extraits du web profond [2],[3].

 

L’extraction des données s’effectue selon plusieurs niveaux de crawling destinés à écarter les contenus redondants ou trop similaires à des résultats déjà renvoyés. Des mesures de similarités de contenus sont utilisées selon les URL ciblées pour filtrer et hiérarchiser les données extraites. Le système présenté dans l’article est capable de traiter un grand nombre de requêtes sur des bases de données non adressées par le moteur de recherche classique de Google [4].

 

A moyen terme, les efforts de Google permettront sans aucun doute de référencer l’ensemble du web profond publiquement accessible. Le niveau de résolution d’une requête sera fixé par l’utilisateur qui définira lui même la profondeur de sa recherche. Seuls les contenus privés cryptés ou accessibles à partir d’une identification par mot de passe demeureront (en théorie) inaccessibles à ce type de moteurs profonds.

 

 

Vers une guerre des moteurs?

Les grandes nations technologiques ont pris en compte depuis longtemps les enjeux stratégiques de l’indexation des contenus numériques. Peu bruyante, une « guerre » des moteurs de recherche a bien lieu aujourd’hui, épousant scrupuleusement les contours des conflits et les concurrences de souverainetés nationales. La Chine avec son moteur Baidu a su construire très tôt son indépendance informationnelle face au géant américain.

 

Aujourd’hui, plus de 500 millions d’internautes utilisent quotidiennement Baidu à partir d’une centaine de pays. La Russie utilise massivement le moteur de recherche Yandex qui ne laisse que peu de place à Google sur le secteur du référencement intérieur russe puisqu’il détient plus de 60% des parts du marché national. En 2014, Vladimir Poutine a souhaité que son pays développe un second moteur de recherche exclusivement contrôlé par des capitaux russes et sans aucune influence extérieure. Plus récemment, en février 2015, le groupe Yandex a déposé une plainte contre Google en Russie pour abus de position dominante sur les smartphones Android. Yandex reproche en effet à Google de bloquer l’installation de ses applications de moteur de recherche sur les smartphones fonctionnant sous Android. Les constructeurs sont contraints aujourd’hui à pré-installer sur leurs machines les Google Apps et à utiliser Google comme moteur par défaut sous Android…

 

 

Le moteur face aux mégadonnées

La course à l’indexation des contenus du web profond apparaît comme l’une des composantes stratégiques de la guerre des moteurs. Si la géopolitique des données impose désormais aux nations de définir des politiques claires de stockage et de préservation des données numériques, elle commande également une vision à long terme de l’adressage des contenus. La production mondiale de données dépassera en 2020 les 40 Zo (un zettaoctet est égal à dix puissance vingt et un octets). L’évolution de cette production est exponentielle: 90% des données actuelles ont été produites durant les deux dernières années. Les objets connectés, la géolocalisation, l’émergence des villes intelligentes connectées et de l’information ubiquitaire contribuent au déluge de données numériques. La collecte et l’exploitation des mégadonnées (le terme officiel français à utiliser pour big data) induiront le développement de moteurs polyvalents capables d’indexer toutes les bases de données publiques quelle que soient leurs tailles et leurs contenus.

 

Le moteur de recherche doit être considéré aujourd’hui comme une infrastructure de puissance stratégique au service des nations technologiques. Qu’attend l’Europe pour développer le sien?

_____________________________________

[1] La présentation du moteur Memex par l’agence Darpa
http://www.darpa.mil/newsevents/releases/2014/02/09.aspx

[2] « Google’s Deep-Web Crawl » – publication de l’Université Cornell
http://www.cs.cornell.edu/~lucja/publications/i03.pdf

[3] « Crawling Deep Web Entity Pages » – publication de recherche, Google
http://pages.cs.wisc.edu/~heyeye/paper/Entity-crawl.pdf

[4] « How Google May index Deep Web Entities »

How Google May Index Deep Web Entities

 

 


Contactez-nous


 

Cet article vous plait ? Partagez !
Un avis ? Laissez-nous un commentaire !

 

Source : http://www.huffingtonpost.fr/thierry-berthier/enjeux-et-defis-deep-web_b_7219384.html

Par Thierry Berthier

 

 




Big Data ou Big Brother ? la raison du numérique sur France Inter | Le Net Expert Informatique

Big Data ou Big Brother ? la raison du numérique sur France Inter

Emission « Un jour dans le monde » sur France Inter du mardi 5 mai 2015

 

Data, smartphones, GoogleGlass, Data marketing, SmartCities, QuantifiedSelf… autant d’expressions nébuleuses que de chiffres, que de données(data).

 

 

Maintenant qu’il est sortit de sa caverne, l’Homme veut contrôler, veut savoir. Et tout savoir. A coup de lunettes magiques, de montres multifonctions, d’abribus connectés, de capteurs géolocalisés, l’ère du numérique comme on l’appelle, met à notre disposition, mais surtout nous impose, des moyens de prises sur notre vie, sur la réalité. Et ceci en temps réel.

 

 


Big Brother is watching you © – 2015

 

 

Eric Sadin est l’invité d’Un jour dans le monde. Son dernier livre, La vie algorithmique (Editions l’échappée) revient sur ces nouvelles technologies qui nous donnent l’impression de contrôler le réel. Pour nous rendre service. Mais Eric Sadin soulève une question cruciale, alors que la loi sur le renseignement doit être votée aujourd’hui à l’assemblée, ne sommes-nous pas en train de confondre l’ère du Big Data, avec l’ère de Big Brother ?

 

 

Emission du mardi 5 mai 2015 sur France Inter

 

 


Contactez-nous


 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.franceinter.fr/emission-un-jour-dans-le-monde-big-data-ou-big-brother-la-raison-du-numerique

 

 




Données médicales publiques : que faut-il craindre ? | Le Net Expert Informatique

Données médicales publiques : que faut-il craindre ?

Données médicales publiques : que faut-il craindre ?

Une immense base de données pourrait bientôt être créée pour centraliser toutes nos données médicales. Faut-il s’en inquiéter ? 

Les députés débattront jeudi de l’article 47 du projet de loi santé. Cette discussion pourrait bien être déterminante pour la recherche médicale puisque le texte prévoit de rendre publiques les données médicales françaises. Les fiches d’hospitalisation mais aussi les feuilles de soins ou les causes de décès sont autant de documents qui, après avoir été rendues anonymes, pourraient être réunies à l’avenir dans le « système national des données de santé » (SNDS).

« Intéressant de disposer de ces données ». « Dans la démocratie sanitaire, l’open data permet à chacun d’accéder à des informations sur son médecin ou sur la qualité d’un établissement », explique à Europe 1 Emmanuel Hirsh, professeur d’éthique médicale à l’université Paris Sud. « C’est extrêmement intéressant de disposer de ces données. Mais les questions de santé sont des questions sensibles et la confidentialité doit être assurée ». Et de soulever une question primordiale : « que faut-il faire de ces informations sensibles si, à un moment donné, la confidentialité est rompue ? »

 

https://dailymotion.com/video/x2lxxab

 

« La Cnil est déjà dépassée ». « Un institut (le SNDS) va superviser ces données personnelles de santé. La Cnil (Commission nationale de l’informatique et des libertés) va également intervenir » pour donner ou non son feu vert, détaille Emmanuel Hirsh. « Mais on voit déjà que la Cnil est dépassée pour de nombreuses questions sur internet », s’inquiète une nouvelle fois le professeur d’éthique médicale. Il y a tout un ensemble de protections, de lois en France en matière de bioéthique. Mais dans la pratique, comment ça va se passer ? »

Quelles sont les dérives possibles ? Après avoir souligné une nouvelle fois le fort potentiel de recueillir toutes ces données, notamment pour la recherche médicale, Emmanuel Hirsh s’inquiète des mauvaises utilisations potentielles. « En matière génétique, par exemple, on aura à l’avenir beaucoup plus d’informations sur le devenir d’une personne, sur les maladies qu’elle développera dans son futur. Qu’est-ce qu’on va faire de ces données ? Il ne faudrait pas qu’elles soient détournées à des fins politiques », explique-t-il à Europe 1. Et de donner un conseil avant la discussion de la loi à l’Assemblée nationale : « il faut absolument renforcer les garde-fou et la partie éthique de la loi pour améliorer la démocratie sanitaire ».

 

 

 


Contactez-nous


 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.europe1.fr/sante/donnees-medicales-publiques-que-faut-il-craindre-2421231

Par Victor Dhollande-Monnier

 

 




Le logiciel qui prédit les délits | Le Net Expert Informatique

Le logiciel qui prédit les délits

Santa Cruz, en Californie, août 2012. Il est 12 h 30. Un policier arpente une rue tranquille qu’il n’a pas l’habitude de surveiller. Quelques minutes plus tard, il arrêtera deux hommes en flagrant délit : ils tentaient de voler un véhicule. Quelques mois auparavant, deux de ses collègues qui « planquaient » aux abords d’un parking du centre-ville avaient interpellé deux femmes qui cherchaient à forcer la portière d’un véhicule. Dans les deux cas, les policiers n’étaient pas là par hasard. Ils se doutaient qu’un délit allait être commis à cet endroit précis et ce jour-là.

 

 

L’informateur qui leur a transmis le tuyau n’était pas un indic à l’ancienne rencontré discrètement dans une impasse… mais un logiciel d’ordinateur.

La ville de Santa Cruz a été la première à se doter, en juillet 2011, du programme PredPol, l’abréviation de predictive policing, un algorithme conçu pour prédire où et quand un crime va se produire. Grâce à une base de données recensant les infractions passées, la formule mathématique – complexe et tenue secrète – permet d’aiguiller très précisément les forces de l’ordre.

Classé dans le Top 50 des inventions de l’année 2011 par le magazine Time, PredPol a conquis plusieurs villes américaines : Los Angeles, Memphis (Tennessee), Charleston (Caroline du Sud) et New York. Dans la Cité des Anges, entre novembre 2011 et mai 2012, ce dispositif a contribué à faire chuter de 33 % les agressions et de 21 % les crimes violents. A Santa Cruz, le nombre de cambriolages a diminué de 19 % sur les six premiers mois de l’année. Convaincue par ces chiffres prometteurs, la police du Kent, en Grande-Bretagne, teste le programme informatique depuis le 10 décembre. Une première en Europe !

 

 

APPROCHE SCIENTIFIQUE

Pour un peu, on se croirait propulsé dans le film de science-fiction de Steven Spielberg, Minority Report (2002), dans lequel des humains mutants prévoient les crimes à venir grâce à leur don de prescience. Sauf que l’approche « prédictive » est avant tout scientifique. « Nous pouvons avoir une idée de où et quand un crime va se produire, mais il est impossible de savoir qui va le commettre », insiste Jeff Brantingham. Avec l’aide d’un criminologue et d’un mathématicien, ce professeur d’anthropologie à l’université de Californie à Los Angeles (UCLA) s’est plongé, il y a près de sept ans, dans une vaste étude destinée à théoriser les mécanismes qui mènent au crime. « Nous avions l’intention de mener une enquête tout ce qu’il y a de plus académique, insiste le professeur. Mais, au fil de nos recherches, nous avons découvert qu’il était possible d’aller plus loin et de mettre au point un outil permettant une application concrète. » Si la ville de Santa Cruz a essuyé les plâtres – « au début, il fallait être un expert en informatique pour pouvoir s’en servir, et seuls les vols et les cambriolages étaient pris en compte », explique le chercheur –, aujourd’hui, PredPol est aussi facile d’utilisation qu’un logiciel de traitement de texte et « prédit » aussi les homicides ou encore les violences avec arme à feu.

« Nous avons eu plus de 200 demandes, émanant de nombreux pays », assure le professeur Brantingham. Inspiré des logiciels de prévention des séismes et accessible depuis un ordinateur, une tablette, ou même un smartphone, le système, qui s’actualise en temps réel, détermine des « points chauds », où le risque d’infraction est le plus élevé, afin de renforcer les patrouilles. »Désormais, le vrai défi n’est plus de réagir à un crime déjà commis mais de le prévenir en l’anticipant », nous affirmait, dès 2011, Bill Bratton, le superflic le plus connu des Etats-Unis, ancien chef de la police de New York et de Los Angeles, avec qui les chercheurs ont collaboré. Quitte à faire moins d’arrestations. « Au bon endroit au bon moment, la présence policière est dissuasive », insiste Jeff Brantingham. D’autant que, face aux restrictions budgétaires, les forces de l’ordre cherchent à faire autant, voire mieux, avec moins. « Nous devons réduire notre budget de 49 millions de livres en quatre ans, déplore le commissaire principal Jon Sutton, du Kent. Nous avons dû nous séparer de 1 500 personnes, dont 500 policiers. Ce logiciel ne les remplace pas, mais il nous permettra, je l’espère, de rester efficaces. »

 

 


Contactez-nous


 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.lemonde.fr/ameriques/article/2013/01/04/le-logiciel-qui-predit-les-delits_1812195_3222.html#krfabv65M4X9SzYj.99

Par Louise Couvelaire

 

 




En quoi le big data est-il une révolution ? | Le Net Expert Informatique

En quoi le big data est-il une révolution ?

S’il change notre manière de penser – ça a déjà commencé -, le big data transforme également la façon dont nous vivons. Cela touche aussi nos habitudes de travail. La prise de décision se démocratise sur le lieu de travail et beaucoup d’« experts » autoproclamés voient leur expertise remise en cause à la lumière du big data dont les perspectives et les prédictions s’avèrent bien plus exactes. 

Viktor Mayer-Schönberger est Autrichien et professeur de gouvernance et de régulation d’Internet au sein de l’Oxford Internet Institute de l’université d’Oxford (Royaume-Uni). Ses recherches portent sur le rôle de l’information dans l’économie en réseau, la confidentialité des données et le big data. Il est l’auteur d’une centaine d’articles et de plusieurs livres qui reçurent différentes distinctions dont Delete: The Virtue of Forgetting in the Digital Age, Princeton University Press, 2011 ; avec Kenneth Cukier et Big data : La révolution des données est en marche, Robert Laffont, 2014.

 

 

En quoi le big data est-il une révolution ?

Viktor Mayer-Schönberger : le big data est une révolution dans la manière dont nous autres, humains, comprenons et donnons du sens à la réalité qui nous entoure. Dans le passé, à cause des contraintes de collecte et d’analyse des données, nous avons dû étudier de petits sous-ensembles, des échantillons de réalité ; puis, extrapoler l’ensemble à « tout », en espérant que ce « tout » fonctionne identiquement à l’échantillon. Mais, cela nous limitait à l’utilisation d’un certain nombre de méthodologies, demandait beaucoup de soin quant à l’échantillonnage, imposait de savoir à quelle question l’on souhaitait répondre avant de collecter les données et ne nous permettait pas de nous centrer sur des détails.

 

 

De plus, nous nous concentrions sur la qualité de la donnée plutôt que sur sa taille. Notre capacité à collecter et analyser un grand nombre de données évolue et nous devenons capables de discerner la réalité « à l’échelle », dans toute sa complexité et son dynamisme. Dans un sens, ce mouvement ressemble au passage des Newtoniens vers le monde einsteinien de la gravité – une transformation de la façon dont nous donnons du sens au monde qui nous entoure. Et cette révolution touche tous les aspects de la vie, de la société et tous les secteurs de notre économie : la politique et la citoyenneté via les plateformes open data (des plateformes de données ouvertes) ; l’urbanisation et l’énergie à travers différents capteurs connectés ; le e-business grâce à l’accès à un nombre croissant de données sur ses consommateurs.

 

 


Regroupées massivement, les données numériques peuvent être décryptées pour mieux comprendre le monde qui nous entoure. © R2hox, Flickr, CC by-sa 2.0

 

 

Pouvons-nous prévoir le futur avec ces data ?

Dans une certaine mesure, on peut parler de prédictions. Nous l’avons déjà fait auparavant, nous le faisons aujourd’hui en extrapolant le passé ou le présent vers le futur. Cela fonctionne bien si les choses ne changent pas radicalement. Même si ces attentes envers les data tendent à nous dire le contraire, l’individu ne change pas si facilement.

 

 

Y a-t-il une limite à la quantité de données que l’on peut créer ?

Non, pour l’instant, aucune limite en vue. Bien sûr, il existe une barrière physique quant à la quantité d’informations qui peut être stockée dans l’univers. Mais cette barrière représente un ordre de grandeur tellement plus grand que ce que nous recueillons et analysons actuellement, qu’elle offre une perspective très importante de croissance. De plus, la chute des coûts de collecte et de stockage associée à de meilleurs outils analytiques rend le big data de moins en moins cher et de plus en plus simple d’usage.

 

 

Qu’est-ce qu’un « algorithmiste » et un data scientist ?

Les data scientists – parfois appelés quants (abréviation de quantitative analyst) – font de l’analyse quantitative. Les « algorithmistes » sont des quants qui ont rejoint une profession spécialisée et agissent comme des audits indépendants d’analyse des big data. La relation entre les data scientists et les « algorithmistes », c’est un peu comme avoir étudié le droit et être avocat ou notaire.

 

 

Le développement du big data a permis l'analyse de données massives. © Domaine public
Le développement du big data a permis l’analyse de données massives. © Domaine public

 

 

Quelles nouvelles compétences demande le big data ?

Le big data nécessite des capacités de collecte et de mutualisation des données (par exemple, à travers de nouveaux capteurs, en les récupérant sur Internet ou en ciblant la valeur dans des données possédées par d’autres, mais pouvant être mises sous licence) ; des compétences d’analyse des données (bien au-delà de la simple statistique) et de compréhension des limites de ces analyses. Ces nouvelles compétences sont déjà enseignées, partout dans le monde, dans des programmes d’études universitaires de pointe qui comportent également une formation pour les spécialistes de l’analyse quantitative.

 

 

Quelle est la valeur de ces data ?

Auparavant, la valeur de la data était limitée à l’objectif pour lequel elle avait été collectée. Dans le futur, cette valeur résidera dans les utilisations et réutilisations qui pourront être faites de ces données, même si cela n’était pas apparent au moment de leur collecte. La valeur de la donnée augmente donc avec notre capacité à extraire cette valeur.

 

 


Contactez-nous


 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.futura-sciences.com/magazines/high-tech/infos/dossiers/d/high-tech-big-data-boom-donnees-numeriques-1936/page/2/

 

 




Le danger de la société du Big Data

Le danger de la société du Big Data

Pour comprendre le monde de demain, il faut garder en tête une seule date : l’année 2002 ! C’est durant l’année 2002 que nos sociétés ont produit pour la première fois plus de données que l’humanité depuis sa création.

 

 

C’est fou mais aujourd’hui et demain davantage encore, tous les objets qui nous entourent communiqueront entre eux et donneront une foule d’informations numériques sur nous. Il y aura des puces insérées dans nos matelas qui mesureront nos cycles de sommeil, nos frigos qui nous alerteront sur les produits périmés ou les courses à faire, sans oublier nos puces bancaires qui sont déjà dans nos smartphones et qui mesureront le moindre achat ou paiement, que ce soit pour s’alimenter ou payer un parking. Bref, toutes ces données numériques, ces datas comme disent les professionnels, rendront notre vie transparente et nous serons nus comme des vers pour ceux ou celles qui détiendront ces informations, ces fameuses datas.

 


Tous les objets qui nous entourent communiqueront entre eux et donneront une foule d’informations numériques sur nous.


 

Aujourd’hui, personne n’en a cure, car bien souvent, on se dit que les informations qui sont données (ou seront données demain) sont inoffensives, voire même nous aident à vivre mieux. C’est vrai, par exemple, quand c’est une brosse à dents qui nous avertit que notre hygiène buccale laisse à désirer, c’est vrai aussi lorsqu’une puce, glissée sous notre peau, nous donnera de précieuses indications sur notre état de santé.

Tout cela et bien d’autres choses encore sont vraies mais pour autant, ce business du Big Data est également porteur de dangers… Et là, visiblement à part quelques intellectuels, personne ne semble s’en soucier. Qui peut dire si demain, notre mutuelle, notre banquier ou notre assureur ne regardera pas toutes ces données sur notre santé pour traquer les mauvaises habitudes des fumeurs, des buveurs, de ceux et celles qui mangent trop gras, ou trop salé ou qui ne sont pas abonnés à une salle de sport ou que sais-je encore.

Il ne faut pas se leurrer, la tentation sera trop grande pour ces assureurs ou ces banquiers de nous appliquer un tarif individualisé, un tarif en fonction de notre profil de risque exact. Si c’est le cas, c’est un changement de société radical qui s’annonce ! Cela serait la fin de la mutualisation des risques comme l’indique le journal Les Echos. En clair, les moins chanceux seront laissés au bord du chemin, sans couverture d’assurance ou alors à un tarif impayable.

Le danger de cette société du Big Data, c’est que si demain tout le monde se sent épié, plus personne n’osera prendre des risques… Cela sera une société immobile, que nous fabriquerons sans le savoir. C’est la raison pour laquelle, je le dis souvent, nous ne sommes pas seulement en crise, nous sommes dans une société en pleine mutation. Et nous percevons pour le moment qu’une petite partie de ces changements… C’est interpellant mais aussi très passionnant à comprendre.

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://trends.levif.be/economie/politique-economique/le-danger-de-la-societe-du-big-data/article-opinion-362781.html

Par Amid Faljaoui

 

 




Les 5 tendances du Big Data en 2015

Les 5 tendances du Big Data en 2015 - Solutions-Logiciels.com

Les 5 tendances du Big Data en 2015

L’analyse prédictive de Craig Zawada, Chief Visionnary Officer chez PROS, sur… l’analyse prédictive ! PROS est un groupe américain qui édite des technologies Big Data conçues pour répondre au problématiques d’aide à la vente (pricing, générer des devis, anticiper des fluctuations de prix, de devises…). La société est arrivée en France cette année à travers le rachat du français Cameleon Software.

 

 

1.       Le Big Data est mort vive le Big Data! En 2015, le buzz autour du mot “Big Data” va considérablement faiblir. En revanche, nous constaterons un intérêt grandissant pour les analyses prédictives et prescriptrives basées sur les données pour en faire de véritables actifs pour l’entreprise. Ce sont ces analyses qui permettent aux entreprises d’améliorer leurs prises de décisions quant à la relation client et à l’optimisation de leurs revenus. Les dirigeants ne cherchent pas forcément à recueillir plus de données, mais plutôt à leur donner de la valeur et les analyser pour identifier de nouvelles segmentations et créer des ventes supplémentaires.

 

 

2.       «La science des données » devient une science parmi d’autres. Au fils des ans, le terme de « science des données » a été associé aux outils et aux logiciels. En 2015, nous devrions observer un retour à ses racines scientifiques : écouter l’entreprise pour émettre des hypothèses, les tester grâce aux données, observer les résultats et recommander une solution. Nous verrons donc un retour aux principes fondamentaux de la méthode scientifique.

 

 

3.       Les Chief Data Officers (CDO) ne sont pas légion en dehors de la Silicon Valley, mais la gouvernance des données l’est. Les sociétés de la Silicon Valley reposant sur des données, comme Yahoo, ainsi que la ville de San Francisco ont ouvert la voie à l’émergence des CDO. Au-delà de ses frontières, vous trouverez peu ce type de profil. En 2015, la nécessité d’organiser la gouvernance des données se fera ressentir car les données ne sont plus une simple opportunité pour l’entreprise mais un véritable actif de l’entreprise.

 

 

4.       Aider les équipes commerciales grâce à l’analyse prédictive. Vendre n’a jamais été aussi complexe, et 2015 apportera son lot de nouveaux défis. Les entreprises qui investiront dans l’analyse prédictive et prescriptives seront armées pour mieux négocier et optimiser leur revenu. Selon l’enquête annuelle de PwC, les dirigeants ne sont pas confiants quant aux perspectives de croissance et investir dans leur base clients est la priorité n°1 pour l’année à venir.

 

 

5.       Les industries dont les produits dépendent du pétrole et de dérivés de pétrole vont connaître une pression croissante des prix représentant de véritables opportunités pour certaines entreprises ou bien des challenges pour celles n’y prêtant pas attention. Beaucoup de sociétés dont les produits sont fabriqués à base de dérivés du pétrole ou des polymères profitent de la fluctuation des cours pour augmenter leur rentabilité. Mais dans de nombreux secteurs, comme la chimie ou le transport, la volatilité des prix représente un grand défi et peut entraîner des baisses de rentabilité spectaculaire. En 2015, les prix seront très variables. Les fournisseurs doivent s’attendre à des fortes pressions de leurs clients pour indexer les prix en fonction de la fluctuation du marché. Les fournisseurs doivent connaître la rentabilité de chaque client afin de savoir s’ils peuvent ou non baisser leurs tarifs, et non leurs marges. L’intelligence consistera à maintenir de manière sélective des prix élevés, tout en restant rentable et compétitif.

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.solutions-logiciels.com/actualites.php?titre=Les-5-tendances-du-Big-Data-en-2015&actu=15228

 

 




La WPC participe au débat : le Big Data débouchera-t-il sur un Big Brother ?

La WPC participe au débat : le Big Data débouchera-t-il sur un Big Brother ? - De notre envoyé spécial à SÉOUL, Michel TOUMA - L'Orient-Le Jour

La WPC participe au débat : le Big Data débouchera-t-il sur un Big Brother ?

Parallèlement aux grands dossiers à caractère géopolitique, la World Policy Conference, dont les travaux de sa septième édition viennent de s’achever à Séoul, a planché sur un problème lié à un autre genre d’actualité : l’émergence du Big Data et ses conséquences économiques et politiques. 

 

La situation actuelle au Moyen-Orient ainsi que la place grandissante qu’occupe l’Asie dans le nouvel ordre mondial – dossiers liés à l’actualité internationale – ont été au centre de la 7e édition de la World Policy Conference (WPC) qui s’est tenue du 8 au 10 décembre à Séoul (voir L’Orient-Le Jour des 8, 9 et 10 décembre). Mais parallèlement, et dans le but d’élargir le débat et d’étendre les échanges de connaissances à un champ plus large que la sphère purement politique, les congressistes réunis dans la capitale coréenne ont planché dans le même temps sur des thèmes à caractère sociétal en rapport avec le changement climatique, l’énergie, l’environnement, les défis que pose le phénomène de Big Data, sans compter les rapports agroalimentaires entre l’Asie et l’Afrique. Autant de sujets liés aussi à l’actualité, mais une actualité d’un autre genre. Celle qui concerne les populations dans le détail de leur vie quotidienne et qui influe sur leur niveau de vie.

 

 

Le développement exponentiel de la révolution numérique est à n’en point douter l’un des principaux domaines qui touche de près le citoyen lambda. À l’ouverture de la session consacrée aux conséquences économiques et politiques du Big Data, le modérateur du débat, Nicolas Barré, directeur adjoint du quotidien Les Échos, indiquait, en guise d’entrée en matière, qu’en l’an 2000, un quart des données dans le monde étaient sous forme numérique. Aujourd’hui, cette proportion est quasiment de 100 pour cent. Et dans ce bouleversement vertigineux, l’Asie joue un rôle central. C’est du moins ce qu’affirme Chang Due Whan, président d’un géant médiatique en Corée du Sud, le Mackyung Media Group, qui possède, notamment, un quotidien, qui tire à un million d’exemplaires, ainsi que quinze de chaînes de télévision.

 

Évoquant les circonstances de cette révolution du XXIe siècle, Chang Due Whan souligne que la plupart des nouvelles inventions dans le domaine numérique viennent d’Asie. Il en déduit que cette zone sera la force motrice du secteur des appareils numériques, tels que les smartphones ou les phablets (combinaison du téléphone et de la tablette). Le développement dans ce domaine est tellement rapide que nombre d’utilisateurs estiment déjà que le PC est devenu obsolète et qu’il est de plus en plus évincé par la nouvelle génération de téléphones portables. Et dans ce cadre, souligne Chang Due Whan, la nouvelle technologie 5G va accroître considérablement le flux d’informations.

 

C’est précisément sur ce plan qu’intervient le problème du Big Data, en ce sens qu’il représente la capacité d’avoir accès, d’analyser et d’exploiter la quantité gigantesque de données disponibles, ce qui implique la création et l’utilisation efficace des outils permettant l’exploitation des données versées sur le marché un peu partout dans le monde. « Le Big Data est le nouveau pétrole », affirme à cet égard Chang Due Whan.

Le rythme de l’expansion de ce secteur d’activité a été mis en évidence par Luc-François Salvador, président exécutif pour l’Asie-Pacifique du groupe Capgemini, qui affirme que 90 pour cent des données actuelles ont été créées ces deux dernières années, et ce volume de données disponibles double chaque année. Conséquence prévisible : de nouveaux outils sont créés pour analyser et exploiter ces data. À titre d’exemple, Google a mis en place un système de gestion des maladies de manière à prévoir les dates, ou plus précisément les périodes, auxquelles apparaissent les grippes dans une région déterminée. Autre exemple dans ce domaine : au Japon, des chercheurs planchent sur l’analyse des données que l’on peut tirer de la façon de… s’asseoir ! La manière de s’asseoir devient ainsi une sorte de « signature » propre à la personne considérée.

 

 

La protection des données
Cette accumulation des données, notamment personnelles, à un rythme exponentiel, ainsi que la capacité grandissante d’analyser et d’exploiter de telles informations posent, à l’évidence, le problème de la protection des données personnelles et les craintes d’un fâcheux impact qui pourrait se manifester au niveau de la liberté de l’individu. Plusieurs intervenants ont évidemment soulevé ce point précis lors du débat. M. Salavador a ainsi relevé que le Big Data permet d’enregistrer des progrès énormes au niveau du traitement de certaines maladies ou aussi dans les projets d’urbanisme, mais dans le même temps, il pose le problème de la protection des données personnelles, ce qui implique la nécessité de concevoir les moyens dont devrait bénéficier le citoyen pour s’assurer une protection adéquate face au Big Data.

 

 

Cette question a été soulevée par un expert et consultant américain, Ben Scott, qui a affirmé qu’il se profile à l’horizon, du fait de ce problème, une perte de confiance de la population dans les gouvernements et les pratiques démocratiques, et, surtout, dans les outils informatiques, ce qui risque de pousser les individus à hésiter de trop s’engager dans l’utilisation des nouveaux outils ou applications numériques.

 

Un professeur universitaire américain, Joseph Nye, a relevé dans ce cadre que la capacité de traitement des données double chaque deux mois, de sorte que les citoyens vivant dans des pays démocratiques finissent par exprimer leurs appréhensions concernant l’exploitation des données personnelles. Certes, certaines personnes soulignent qu’au nom de la sécurité, face aux menaces terroristes, notamment, elles sont disposées à sacrifier de leur liberté ou de leur confidentialité. Cela pose, relève Joseph Nye, le problème de l’absence, au stade actuel, de contre-pouvoirs dans ce domaine.

 

 

Le Big Data risque-t-il ainsi de rendre quelque peu réel le danger de l’émergence d’un Big Brother ? Intervenant dans le débat, le député israélien de gauche Meir Sheetrit a apporté une nuance dans la nature du danger qui plane à cet égard, soulignant que le Big Data n’est pas exclusivement contrôlé par les gouvernements, mais il est aussi contrôlé et exploité surtout par les grandes entreprises, d’où la nécessité de protéger également les populations contre certaines grandes entreprises privées. Joseph Nye relèvera à ce propos que c’est dans la mesure où les données sont partagées entre plusieurs entreprises puissantes que le danger se fait plus grand au niveau de la confidentialité et de la liberté de l’individu.

Le débat sur ce plan est donc ouvert à l’échelle planétaire. Les experts et hauts responsables qui planchent sur la question feraient bien de proposer sans trop tarder des mesures concrètes en termes de protection des libertés individuelles avant que la situation dans ce domaine n’échappe à tout contrôle.

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.lorientlejour.com/article/900564/la-wpc-participe-au-debat-le-big-data-debouchera-t-il-sur-un-big-brother-.html

par Michel TOUMA

 




4 bonnes raisons d’aimer Google (par Phil Jeudy)

4 bonnes raisons d’aimer Google (par Phil Jeudy)

Oui, je sais. Je suis fou d’écrire ça. La mode est à l’anti-Googlisme. Partout, on veut se payer la tête de Google, son évasion fiscale, ses commercialisations de données personnelles, son lobbying Bruxellois, ses histoires de coeur, que sais-je.

 

 

Je visitais un entrepreneur Français de la Silicon Valley la semaine passée, et il me rappelait a priori des propos échangés il fut un temps :  » C’est une boite de merde, Google, hein ?! ». Bon, alors j’ai dit ça, mais là, je vais dire autre chose.

Google souffre d’un problème lié au temps modernes : la technologie est de plus en plus complexe, et passe de moins en moins vis à vis du grand public, parce qu’il faut s’arracher les cheveux pour montrer des choses qui parfois ne peuvent pas se voir facilement, à l’écran ou sur du papier journal.

Et je pense que, à l’image d’une presse politique plus intéressée d’une façon générale par des ronds-de-jambe d’arrière cour que de rendre une image fidèle de la situation du pays, la presse spécialisée se complait à prendre son audience pour des ignares, et tout ceci fait que l’on n’explique jamais assez comment les nouvelles technologies rendent service à leurs utilisateurs. Parler de quincailleries, et du dernier iPhone 12 et du Samsung 28, ça, c’est facile, y a qu’à comparer des chiffres. Mais se creuser la tête pour comprendre ce que fait une startup dans le domaine du cloud computing comme Docker, non Madame, y a trop de travail.

 

Amis lecteurs, on ne vous explique pas assez comment ça marche, Internet. Et d’ailleurs des sociétés comme Google ne le font pas suffisamment bien, c’est fort possible. Une compagnie mondiale, équipée d’agents commerciaux dans tous les pays, n’est pas la meilleure quand il s’agit de s’adresser aux marchés locaux, loin des « product managers » qui se creusent la tête pour vous servir les produits de demain. Vous ne parlez qu’à des vendeurs de soupe, des marchands de pub.

Je viens de rencontrer une équipe de journalistes français en visite professionnelle à San Francisco pour se poser des questions sur la société de Mountain View, avec des bons éléments de réflexion en tête. Ça nous change. Et franchement ça m’inspire ces quelques petits rappels qui me paraissent importants à garder en tête…

 

 

1. Les services de Google sont gratuits.
Si vous utilisez l’application Gmail de messagerie de façon normale, et que vous ne stockez pas trop de fichiers, vous ne payez rien. Vous ne payez pas pour utiliser la carte Google sur votre smarphone, pas plus que les fichier en ligne de Google Drive. Les requêtes sur le moteur de recherche ? Gratuites. Utiliser Blogger pour publier des histoires sur Internet, on ne paye pas. Utiliser un outil de traduction, stocker un nombre raisonnable de photos sur Internet ? Idem. Bloquer son téléphone Android qu’on vient de vous voler ? Service gratuit. Derrière la grande utilisation d’informations que Google opère selon leurs conditions générale d’utilisation, de vente et de tutti quanti, pleins d’outils à votre disposition au prix de 0 la tête à toto.

 

 

2. Vos données personnelles servent à améliorer des outils mis à votre disposition d’une façon générale gratuitement.
Internautes, Internautesses, on vous ment, on vous spolie. Derrière beaucoup d’anti-Googler, il y a une Arlette qui sommeille. Et qui oublie de vous dire aussi que l’utilisation de vos données personnelles servent à Google à perfectionner les outils mis à votre disposition. Il n’y a pas que la publicité que l’on vous sert en priorité, il y a toutes ses passerelles entre les produits Google : entre une recherche faite sur un ordinateur qui est mémorisée lorsque vous passez sur le browser de votre téléphone (si vous utilisez Chrome, cela va de soi), pour vous délivrer des informations sur mesure avec Google Now qui cherche à vous simplifier la vie (à défaut de pouvoir bien l’organiser, il y a encore du travail). Lorsque vous travaillez sur votre outil de messagerie, Google travaille à vous apporter le sucre alors que vous allez chercher votre café sur Internet. La meilleures façon de protéger vos données ? Tenez les loin d’Internet, votre meilleur outil de sécurité, ce sont vos doigts.

 

 

3. Google vous protège, dites lui merci.
Quand on regarde de près le mode connecté d’aujourd’hui, avec tous ces téléphones portables, routeurs, modems, ordinateurs portables, et bientôt votre lunettes, vos T-shirt connectés, le web est une grande passoire trouée. Estimez vous heureux que les hackers soient encore une race à part, organisée mais minoritaires, et essentiellement à but politique. Le jour où ces anonymes vont s’organiser par district et se soulever collectivement, vous allez vite réaliser à quel point vos données les plus fragiles sont accessibles. Mêmes les photocopieurs s’y mettent, des milliards de photocopies stockées sur des mémoires installées sur ces matériels par leurs fabricants se baladent en ce moment sur Internet. Des entreprises plus grosses que Google se font attaquer par des cyber-criminels en permanence, et bien que la nouvelle n’arrive pas à vos oreilles, car tout est fait pour éviter le scandale, la réalité est bien là : devant la grande abime d’un web où rien n’est vraiment caché, nous sommes tous à poil. Et bien Google, avec ses mots de passes, ses serveurs sécurisés, ses procédures, c’est un peu de protection dans un monde de brutes.

 

4. Google s’améliore. Dites aussi merci.
Je suis, par la force des choses, un « tout-Google ». Je dispose d’un matériel qui ne permet pas d’utiliser simplement des licenses de Microsoft, je me suis déjà fait voler un ordinateur (et perdu au passage des années-photos), et j’utilise les services au quotidien de produits poussés par quelques 50.000 et quelques employés. Google Voice reconnait mon anglais quoique polishé, l’accent est toujours bien là. Les outils de traduction sont encore plus simples à utiliser. Les outils de messagerie demande du temps d’adaptation, les résultats des requêtes sont de plus en plus visuels et agréables à consulter… L’impression générale est là : les outils marchent de mieux en mieux, et en plus de ça quelques acquisitions comme Waze pour le GPS, l’Uber embarqué dans la cartographie, le design, tout ça va dans le bon sens. Les outils de Google sur mobile vont à contre-pied de l’univers surfait des applications mobiles qu’on vous vend à gogo, tel le marchand de poisson pas frais de la BD d’Astérix, et c’est la bonne direction pour les années à venir : de la simplicité, pas de surf sur des écrans jamais assez grands… de l’interactif, du conversationnel. Quoi de plus normal sur un téléphone portable ! Faites dont l’expérience vous-mêmes, parlez lui donc, à votre smartphone, vous verrez bien.

 

Les problèmes de fonds restent entiers, tant d’un point de vue fiscal que légal, mais tout ce micmac reste bien éloigné des problèmes qu’un utilisateur de base comme moi peut avoir au quotidien.

Alors, verser un peu de rose et une petite dose de bonnes nouvelles dans un monde bleu et froid plein d’effroi, ça n’a jamais fait de mal.

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.huffingtonpost.fr/phil-jeudy/avantages-google_b_6292352.html
par Phil Jeudy