1

Les données personnelles solubles dans le livre numérique

Les données personnelles solubles dans le livre numérique

La sécurité des utilisateurs, autant que la confidentialité de leurs données personnelles, a été mise à mal dernièrement. Découvrir que la société Adobe, comme d’autres, collecte des renseignements sur les lecteurs et leurs ouvrages est choquant. Surtout que cet espionnage, et la violation de droits constitutionnels font écho à d’autres révélations de plus vaste ampleur. 

 


opensource.com CC BY SA 2.0

 

 

Andrew Roskill, CEO du service BiblioLabs, qui fournit les bibiothèques de prêt en contenus numériques, pose le problème de manière simple. Si l’actualité nous a appris à devenir méfiants, face aux surveillances multiples des réseaux, le contrôle de nos lectures est loin d’être supportable. Et plus encore, le livre numérique emprunté dans un établissement n’a pas vocation à devenir un ensemble de Big Data, que les sociétés pourront stocker et commercialiser.

 

Bien entendu, note-t-il, le modèle économique d’Amazon repose sur ce traitement des données personnelles. Le moteur de recommandation s’inspire sur les visites faites sur le site de vente, ainsi que les achats, le tout recoupé avec les données des autres clients. « Mais il y a une différence entre le comportement d’achat et celui de lecture, et nous aimons à penser que nos lectures restent confidentielles », poursuit-il.

 

Le sentiment de sécurité offert par le prêt de livres papier, et qui est garanti dans la législation américaine, devrait être reproduit dans l’univers dématérialisé. Ainsi, les révélations portant sur le comportement du logiciel d’Adobe, Digital Edition ont causé du tort au service de prêt numérique. Non seulement ADE surveillait les lectures, mais, surtout, les diffusait à ses serveurs sans aucun cryptage. Ce dernier point a été reconnu, et corrigé, mais le premier reste d’actualité.

 

« Certains fournisseurs ont tenté de faire valoir que la collecte de données personnelles est nécessaire pour améliorer l’expérience de l’utilisateur, que les serveurs ont besoin de données spécifiques à l’utilisateur pour synchroniser les ebooks à travers les dispositifs, permettant aux lecteurs de passer d’un lecteur à un autre, sans perdre le fil du récit », rappelle Roskill.

 

Sauf que pour assurer un suivi des lectures, d’un appareil à l’autre, il n’est pas du tout obligatoire de collecter les données personnelles des utilisateurs, affirme-t-il. Et il n’est pas vrai non plus que les éditeurs ou les libraires ont besoin de données individuelles pour suivre les comportements d’achats – et, éventuellement, orienter leur ligne éditoriale. Une agrégation de données suffirait amplement pour avoir une vue d’ensemble satisfaisante.

 

Bien entendu, les services de BiblioLabs proposent un anonymat maximal, promet-il, et garantissent une sécurisation des données transférées. « La confidentialité et la sécurité sont extrêmement importantes pour les bibliothèques et leurs usagers. » Parce que, ce qui prime, c’est la confiance que ces derniers accordent aux établissements, pour que les bibliothèques elles-mêmes puissent avoir envie de recourir aux services les plus respectueux. (via BookBusiness Mag)

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : https://www.actualitte.com/usages/les-donnees-personnelles-solubles-dans-le-livre-numerique-54229.htm

 




Comment stocker ses données en toute sécurité

Comment stocker ses données en toute sécurité

Comment stocker ses données en toute sécurité

L’actualité du piratage et du vol de grandes bases de données, de fichiers de clients, est hélas toujours très riche et risque de ne pas se tarir, au contraire (voir par exemple, cette très instructive « dataviz » des plus grandes bases de données piratées et la très riche collecte d’informations de La Quadrature du Net sur le « privacy nightmare », le cauchemar du respect de la vie privée).

 

Répétez après moi : je ne dois pas stocker toutes mes données au même endroit - Rue89 - L'Obs

 

Dernier en date, Domino’s Pizza, qui s’est vu dérober une base de 600 000 noms, prénoms, adresses postales, numéros de téléphone, courriels et parfois codes d’entrée d’immeuble. Ou Sony, comme le rapporte Courrier International et l’a raconté Rue89, qui s’est fait pirater des dizaines de milliers de documents…

 

Grosses données, grosses responsabilités
Dans une interview pour l’édition américaine du Huffington Post, Sandy Pentland, spécialiste des Big Data, ces énormes masses de données que collectent opérateurs et services web (cf. « Big Data, vers l’ingénierie sociale ? »), rappelle une règle de sécurité assez simple à l’intention des entreprises. Les organisations doivent apprendre qu’elles ne peuvent stocker leurs données à un seul et unique endroit.

 

Comment stocker ses données en toute sécurité
Capture d’écran de l’interview (HuffingtonPost.com)

 

Elles doivent les organiser par répartition, en séparant chaque type de données, en utilisant différents systèmes informatiques et différentes techniques de chiffrement. Avec la collecte des Big Data, viennent de grandes responsabilités pour éviter les « Big brèches », les « gros dommages », c’est-à-dire les risques de piratage informatique majeur. La restauration de la confiance du public après les révélations d’Edward Snowden est à ce prix.

 

 

Comme l’explique Sandy Pentland :

« Les ressources informatiques et humaines doivent toujours être redondantes et fragmentées afin d’éviter que des acteurs centraux trop puissants, qui peuvent être corrompus, ne puissent passer outre les précautions de sécurité standards. »

 

Il y a encore des progrès à faire ! Notamment et avant tout chez les fournisseurs de service de fichiers clients et de bases de données, qui souvent proposent des solutions bien trop centralisées…

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://rue89.nouvelobs.com/2014/12/09/repetez-apres-dois-stocker-toutes-donnees-meme-endroit-256466

par Hubert Guillaud

 




Twitter : les données des applications mobiles servent à mieux cibler les publicités

Twitter : les données des applications mobiles servent à mieux cibler les publicités

Technologie : Les annonceurs travaillant sur Twitter peuvent désormais exploiter les données d’utilisation des applications mobiles pour affiner leurs campagnes. Mais les usagers ont la possibilité de désactiver le suivi de leurs habitudes.

 

 

Il y a quelques semaines, Twitter annonçait qu’il allait commencer à collecter des informations sur l’usage des applications mobiles afin de rendre les contenus plus pertinents. Cela se traduit aujourd’hui par un nouvel outil mis à la disposition des publicitaires qui prend le nom de “tailored audiences” ou “public adapté”. Ces derniers vont désormais pouvoir cibler leurs réclames en se basant sur les données issues des applications mobiles : fréquence d’utilisation, nombre d’installations, achats in-app, inscriptions.

Par exemple, un annonceur pourra cibler une personne ayant installé son application mais qui ne s’est pas encore enregistré ou n’a pas fait d’achat. Mais Twitter a pris soin d’offrir à ses membres la possibilité de refuser ce ciblage en désactivant la fonction depuis les paramètres de leur application Android ou iOS. (Eureka Presse)

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.zdnet.fr/actualites/twitter-les-donnees-des-applications-mobiles-servent-a-mieux-cibler-les-publicites-39811067.htm

 




L’intelligence artificielle, notre futur Terminator?

L’intelligence artificielle, notre futur Terminator?

L’intelligence artificielle pourrait menacer à terme l’Humanité: il ne s’agit pas d’un film de science-fiction mais de la prédiction du célèbre physicien Stephen Hawking, qui relance le débat sur le risque de voir l’homme dépassé par les technologies qu’il a lui-même créées.

 

Interrogés par l’AFP, anthropologue, futurologues et experts en intelligence artificielle se montrent partagés sur les craintes d’Hawking.

Les craintes d’un homme apprenti sorcier sont anciennes et elles ont nourri nombre de romans et des films comme « 2001: Odyssée de l’espace » avec son ordinateur meurtrier Hal 9000 et plus récemment « Terminator », le robot exterminateur.

Mais aujourd’hui, c’est un astrophysicien très respecté, le Britannique Stephen Hawking, qui lance un pavé dans la mare. Atteint d’une dystrophie neuromusculaire, il s’exprime grâce à un ordinateur.

« Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles », reconnaît-il. « Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine », a-t-il déclaré cette semaine à la BBC.

Déjà, le milliardaire Elon Musk avait expliqué avoir investi dans des sociétés d’intelligence artificielle pour « garder un oeil » sur ce qui se passe dans ce domaine. « Nous devons nous assurer que les conséquences sont bonnes et non mauvaises », selon lui.

« Cela me fait plaisir qu’un scientifique des +Sciences dures+ dise cela. Je le dis depuis des années », déclare Daniela Cerqui, anthropologue à l’université de Lausanne.

« Nous déléguons à ces machines de plus en plus de prérogatives de l’humain, afin qu’elles soient plus performantes que nous. On va finir par devenir leur esclave », selon elle.

A l’inverse, Jean-Gabriel Ganascia, philosophe et expert en intelligence artificielle, juge « excessif » le « cri d’alarme » de Hawking.

« Le danger, c’est davantage l’homme qui se servirait de ces technologies pour asservir » d’autres humains, considère ce professeur à l’Université Pierre-et-Marie-Curie à Paris.

– Développer une intelligence artificielle « amicale »-

Nick Bostrom, futurologue à l’Université d’Oxford, pense que « la machine intelligente parviendra à dépasser l’intelligence biologique. Il y aura alors des risques existentiels associés à cette transition ».

« Les machines sont déjà plus fortes que nous. Je pense qu’elles finiront aussi par devenir plus intelligentes, même si ce n’est pas le cas actuellement », ajoute-t-il.

Au cours de ces dernières années, d’énormes progrès ont été réalisés dans le domaine de l’intelligence artificielle, en tant que capacité à traiter, à analyser des données et à répondre à des questions.

Mais on est « encore loin » de l’intelligence artificielle générale « complète », qui inquiète Stephen Hawking, souligne Anthony Cohn, professeur à l’université de Leeds (centre du Royaume-Uni). « Il faudra encore plusieurs décennies. »

Mathieu Lafourcade, spécialiste en intelligence artificielle et en traitement du langage à l’Université de Montpellier (sud de la France), juge « alarmiste » l’avertissement du physicien.

Mais il pense que « dans un futur hypothétique », il faudra peut être « s’en remettre » dans certains domaines aux machines car leurs capacités intellectuelles auront dépassé les nôtres. « La machine nous proposera une solution que nous ne serons pas à même de comprendre mais il faudra lui faire confiance », par exemple si elle nous recommande des mesures contre le réchauffement climatique, considère-t-il.

« Toutefois, si la machine débloque, il faudra se réserver la possibilité de la débrancher », souligne-t-il.

Stuart Armstrong, futurologue à l’université d’Oxford, relève que « les incertitudes sur le développement de l’intelligence artificielle sont extrêmes ».

« Le problème, c’est qu’il est extrêmement difficile de programmer des objectifs compatibles avec la dignité voire la survie de l’Humanité », dit-il.

« Il faudrait programmer presque toutes les valeurs humaines parfaitement dans l’ordinateur afin d’éviter que l’Intelligence artificielle n’interprète +éradique la maladie+ comme +tue tout le monde+ ou bien +garde les humains sains et saufs et contents+ comme +enterre tout le monde dans des bunkers avec de l’héroïne+ ».

« Il faut que les ingénieurs prennent ces problèmes au sérieux et trouvent des solutions pour développer une intelligence artificielle +amicale+, pleinement compatible avec les valeurs humaines », considère-t-il.

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.leparisien.fr/sciences/l-intelligence-artificielle-notre-futur-terminator-08-12-2014-4355179.php#xtref=https%3A%2F%2Fwww.google.fr%2F

 




Détecter et analyser les émotions sur internet

Détecter et analyser les émotions sur internet

Détecter et analyser les émotions humaines au départ de sites internet, c’est ce que propose Getsmily, une nouvelle spin-off de l’Université catholique de Louvain. « Avec plus d’un milliard de sites web sur la toile, le besoin pour les entreprises de nouer des liens forts avec leurs publics devient primordial. Et La construction de ces liens commence par la compréhension des comportements et des émotions de ces audiences. Les émotions nous animent au quotidien et guident nos actions, plus souvent qu’on ne le pense », confie David Frenay, le chercheur UCL à la base de la technologie et CTO de la startup.

 

 

Fruit de plusieurs années de travail au sein du laboratoire de vision par ordinateur du professeur Benoit Macq de l’UCL, cette technologie a séduit des investisseurs privés ainsi que le Fonds d’investissement VIVES II qui ont décidé d’injecter un demi-million d’euros dans la société. Les applications marketing rendues possibles grâce à la technologie UCL, unique en son genre, vont mener l’équipe de GetSmily à la conquête du world wide web. « La compréhension des émotions humaines et les leviers qui les activent sont des atouts majeurs pour le responsable marketing moderne. Le marketing reprend donc un rôle central au sein des entreprises qui sont résolument tournées vers l’avenir », confirme David Hachez, co-fondateur et CEO de GetSmily.

Lancée en septembre 2014, la spin-off GetSmily donne accès à un indicateur de performance émotionnelle novateur baptisé l’Emoscore. Celui-ci est obtenu grâce aux Emolytics (contraction des mots « emotions » et « analytics ») qui intègrent un algorithme unique et scientifiquement solide. La technologie a déjà séduit plusieurs entreprises telles que Foto.com, Europ Assistance, VOO, La Loterie Nationale, Sherpa, Quick Step, Lampiris ou encore Rossel Advertising.

GetSmily résulte d’un projet de recherche dans le domaine de la vision par ordinateur (vision artificielle), accompagné pendant deux ans par le Louvain Technology Transfer Office (LTTO). « Cette nouvelle spin-off démontre le rôle important que joue le LTTO pour assurer avec succès le transfert de technologie issu de la recherche UCL. Le soutien de la région wallonne (DG06), notamment par le biais de son programme First Spin-Off et du fonds proof-Of-Concept nous a permis de concrétiser ce projet qui offre de belles perspectives de développement », déclare Anne Bovy, co-directrice du LTTO et directrice de l’administration de la recherche de l’UCL. Les investisseurs qui rejoignent GetSmily vont lui permettre d’accélérer son développement international et aideront l’équipe à résoudre les challenges techniques qui s’annoncent. « Investir dans une startup du web confirme la volonté de notre fonds d’être un acteur dans ce secteur en pleine ébullition tout en soutenant le développement d’une spin-off de l’UCL », souligne Philippe Durieux, CEO de VIVES II.

 

 

A propos de GetSmily
Les Emolytics de GetSmily permettent aux propriétaires de sites internet de mesurer les émotions de leur audience ainsi que leurs comportements de surf. GetSmily, qui compte déjà 5 personnes à son bord, propose son produit Emolytics en 14 langues en mode SaaS (Software as a service) avec les plans Free, Start, Pro et Enterprise. Les données statistiques anonymes collectées sont traitées pour prendre forme dans un rapport. Ce dernier guide les entreprises dans la mesure de la qualité de la relation avec leurs audiences/publics, par l’intermédiaire d’un KPI unique appelé Emoscore, ainsi qu’à la prise de décision stratégique (marketing, communication, technique et/ou managériale).

 

Les fondateurs :
– David Hachez, CEO de GetSmily. Il a déjà à son actif quelques initiatives dont Raz*War, lancé en 2009 et repris par un fonds d’investissement privé en 2012

– David Frenay, ingénieur civil biomédical, master en physique et en gestion à l’UCL, bachelier en mathématique et médaillé aux Olympiades internationales. Il est à l’origine de la technologie de détection des émotions et occupe aujourd’hui le poste de CTO

 

A propos de VIVES – Louvain Technology Fund et du LTTO
– VIVES – Louvain Technology Fund est un fonds d’investissement technologique multi-sectoriel qui investit dans les spin-offs de l’UCL et dans les start-up en Belgique et dans les pays limitrophes. L’objectif du fonds est d’investir dans le développement de start-up, depuis la validation technologique jusqu’à la maturité commerciale. Les fonds (VIVES 1 de 15 millions d’euros et VIVES 2 de 43 millions d’euros) sont gérés par la Sopartec, la société de transfert de technologie de l’UCL. Infos : http://www.vivesfund.com.

 

– Le Louvain Technology Transfer Office (LTTO), regroupant la Sopartec et l’administration de la recherche de l’UCL, couvre l’entièreté du processus de transfert de technologie : financement des contrats de recherche, identification des inventions dans les laboratoires, protection et gestion de la propriété intellectuelle, maturation technologique et commercialisation (par le biais de licences et/ou spin-off). Plus précisément, la Sopartec coordonne la gestion des accords de licence et la maturation technologique des projets de spin-offs de l’UCL. Plus de 60 spin-offs, qui génèrent aujourd’hui, plus de 3.000 emplois, ont été créées en se basant en tout ou en partie sur des résultats des recherches menées à l’UCL. Il s’agit notamment de Ion Beam Application (IBA), IRIS Groupe, IBT, Telemis, Viridaxis, Promethera, GreenWatt, Keemotion, Iteos Therapeutics, DelfMens, Novadip Biosciences, etc. Infos : http://www.ltto.com.

 

 

Après cette lecture, quel est votre avis ?
Cliquez et laissez-nous un commentaire…

 

Source : http://www.bulletins-electroniques.com/actualites/77248.htm

 




Données c’est donner…

Données c’est donner…

Fondateurs de réseaux sociaux ou de sites de rencontre, tous tentent d’exploiter les data des internautes. Des manipulations s’opèrent, à l’insu des utilisateurs… Les questions d’éthique et de droit restent posées. 

 

En juin, Facebook révélait avoir mené une expérience psychologique sur près de 700 000 utilisateurs à leur insu.

L’idée: tester une potentielle «contagion émotionnelle».

Dans la foulée, le site de rencontre OKCupid affichait des «manipulations de profils» de ses internautes.

Christian Rudder, cofondateur du site, postait récemment un billet intitulé «Nous réalisons des expériences sur les êtres humains», affirmant : «si vous utilisez Internet, vous êtes l’objet de centaines d’expériences, à tout moment quel que soit le site.» De quoi faire frissonner.

 

OKCupid est un site basé sur des questions auxquelles l’on répond en tant qu’utilisateur, sur tous sujets – de la propreté du bac à douche, à la fellation ou encore à l’usage du LSD. Plus l’internaute répond, plus l’Algorithme Magique est susceptible de lui proposer l’âme sœur. Soit. Et de fait, sur une base aussi riche, il est possible d’envisager une pertinence ethno-sociologique à ces expériences in vivo qui posent bien entendu des questions éthiques. Peut-on utiliser les données d’innocents internautes qui viennent chercher une cour de récréation / une rencontre sur les réseaux sociaux ?

Ces thèmes ont été largement discutés. Ce qui choque, c’est la position «de plein droit» que s’accordent les géants du Net, s’affichant dans une normalité sur le thème: «Oui, nous utilisons vos données, et alors ?» Et alors… ? Bizarrement, c’est aussi ce que répondent nombre d’internautes quand ont les avertis de l’impact de leurs clics. Faites le test. Expliquez à une personne non avertie que ses données sont transmises à l’annonceur quand il en like la pub. Réponse probable : «Qu’est-ce qu’on s’en fout ?»

 

Pourtant quand le juriste-activiste autrichien Max Schrems a demandé à Facebook de lui envoyer une compilation de ses données, il a reçu un fichier de plus de mille pages contenant ses informations présentes sur le site, y compris celles qu’il pensait avoir supprimées. Il a déposé une plainte cet été, rappelant que les questions éthiques posées par ces intrusions impliquent d’abord une prise de conscience de l’individualité et du droit des internautes.

 

DATA EN MASSE
Avec respectivement 1,2 milliard et 4 millions d’utilisateurs, les américains Facebook et OKCupid bénéficient d’un corpus qui combinent âge, sexe, CSP, habitat (urbain, rural), habitudes de consommation, et même religion. Autant de données croisées qui feraient rêver n’importe quel statisticien.

Stéphanie ESTOURNET

 

 

Cet article vous à plu ? Laissez-nous un commentaire (Source de progrès)

 

Source : 
http://ecrans.liberation.fr/ecrans/2014/10/17/donnees-c-est-donner_1115973?xtor=rss-450

 




La France nomme un « administrateur général des données », le 1er en Europe

La France nomme un « administrateur général des données »

Nous l’avions annoncé le 26 mai dernier :http://www.lenetexpert.fr/france-nome-chef-protection-donnees-personnelles-les-administrations-cdo-chief-data-officer/

Henri Verdier vient d’être nommé administrateur général des données, la première fonction de ce type créée dans un pays d’Europe, afin de faire entrer le service public dans l’ère des données, selon un décret publié vendredi.

 

Le responsable, qui conserve ses fonctions de directeur d’Etalab, la mission chargée de l’ouverture des données publiques, est placé sous l’autorité du Premier ministre au sein du secrétariat général pour la modernisation de l’action publique.

« L’État doit savoir utiliser ses données pour s’améliorer, pour faire des économies, pour mieux piloter certaines politiques publiques », a expliqué Henri Verdier à l’AFP au cours d’une visite de start-up vendredi, avec Thierry Mandon, secrétaire d’État chargé de la Réforme de l’État.

« Il faut avoir des +data scientists+, des gens qui ont la culture de la donnée dans l’État, on va en recruter quelques uns pour faire de l’expérimentation. Il faut être sûr que celui qui prend une décision ait vraiment la donnée. Il faut être sûr qu’on les recueille bien », a-t-il poursuivi.

M. Verdier, membre fondateur en 2006 du pôle de compétitivité Cap Digital, sera chargé d’assurer l’ouverture des données, leur circulation et leur exploitation au sein de l’administration afin d’améliorer l’action publique. Il pourra aussi proposer au Premier ministre une position française dans les négociations internationales sur la politique de la donnée.

Thierry Mandon a souligné « l’intérêt économique » de l’ouverture des données publiques lors de sa visite dans les start-up Fivebyfive et Snips, spécialisées dans le traitement de la donnée.

Fivebyfive a mis au point des applications pour la SNCF lui permettant d’adapter son réseau de gares aux personnes à mobilité réduite, tandis que Snips a construit notamment un modèle permettant de prédire les risques d’accidents de la route à base de données comme la météo, la date, la topographie…

 

La France est le premier pays à mettre en place un administrateur général des données au niveau national, alors que cette fonction de « chief data officer » a été créée par certaines villes comme New York ou San Francisco ou entreprises comme Yahoo, CityGroup, Ogilvy.

 

Décret n° 2014-1050 du 16 septembre 2014 instituant un administrateur général des données

 

 

Cet article vous à plu ? Laissez-nous un commentaire (Source de progrès)

 

 

Source :  http://lentreprise.lexpress.fr/actualites/1/actualites/la-france-nomme-un-administrateur-general-des-donnees-le-1er-en-europe_1577573.html

 




Le travail du futur va s’appuyer sur le numérique et le partage de données

Le travail du futur va s’appuyer sur le numérique et le partage de données

Le travail et son environnement évolueront dans les années à venir avec l’utilisation grandissante de la technologie. Le partage des données avec son employeur constituera un enjeu.

 

Les avancées technologiques auront un impact conséquent sur le monde du travail dans les cinq à dix années à venir, c’est l’avis que partagent 53% des personnes interrogées par PwC lors de sa dernière étude portant sur le devenir du travail en 2022. 10 000 employés ont été interrogés en Allemagne, Chine, Etats-Unis, Inde et Royaume-Uni, ainsi que 500 professionnels des ressources humaines, afin de recueillir leur point de vue sur l’évolution de leur lieu de travail et le management de la main-d’œuvre. Si les innovations technologiques auront le plus gros impact sur la manière de travailler dans le futur, la gestion des ressources climatiques, économiques et démographiques influenceront également – quoique dans une moindre mesure – le travail des employés interrogés.

 

Le partage des données comme outil de performance
Point sensible mais nerf central, l’utilisation des données personnelles par l’employeur dans le but d’améliorer la performance des employés et mieux comprendre leurs motivations au travail. Presqu’un tiers des sondés n’y sont pas opposés dès lors que les données personnelles se résument à leur profil sur les réseaux sociaux ou leur profil de santé. Une proportion liée à l’arrivée dans la décennie à venir de la génération Y sur le marché du travail, et qui constituera la moitié de la main-d’œuvre d’ici à 2022. Cette génération est particulièrement à l’aise avec le partage de ses données pour l’amélioration de son mode de travail. A terme, à l’instar des commerçants qui collectent des informations sur leurs clients pour offrir une meilleure offre, les entreprises collecteront des données sur leurs employés.

 

L’impact du numérique, positif ou négatif ?
Plus de la moitié des sondés (64%) considèrent que les technologies constituent un moyen d’améliorer les perspectives d’emploi. L’utilisation du numérique a un impact sur les horaires de travail classiques qui se trouvent bouleversées. Cela apporte flexibilité au travail mais le revers de la médaille se ressent sur la séparation vie professionnelle/vie privée. Ainsi, 59% des sondés disent être joignables à tout moment afin de s’assurer un poste ou une embauche. Concernant les employés de la génération Y, 64% partagent cet avis. La technologie n’est pas seulement source d’opportunités, et certains la considèrent comme une menace puisqu’un quart des sondés pense que l’automatisation des tâches pourrait avoir un risque sur leur poste.

Par Eliane HONG 01 septembre 2014

 

Cet article vous à plu ? Laissez-nous un commentaire (Source de progrès)

 

Source : 
http://www.atelier.net/trends/articles/travail-futur-va-appuyer-numerique-partage-de-donnees_431005

 




ICReach, le moteur de recherche secret «à la Google» de la NSA

ICReach, le moteur de recherche secret «à la Google» de la NSA

ICReach, le moteur de recherche secret «à la Google» de la NSA

Certes, la NSA est une agence secrète, mais entre bons amis, elle concède volontiers de partager des informations. Et même beaucoup d’informations, comme le prouve l’existence d’ICReach.

 

Révélé par The Intercept, sur la base de documents d’Edward Snowden, ce programme de surveillance compile plus de 850 milliards de métadonnées récoltées dans le monde entier et les rend accessibles au travers d’un moteur de recherche « à la Google » auprès d’une vingtaine d’agences gouvernementales américaines. Comme par exemple la CIA (service secret), le FBI (police fédérale) ou le DEA (agence de lutte anti-drogue).

 

 

Plus d’un millier d’agents gouvernementaux américains ont ainsi accès à une véritable mine d’or informationnelle. En effet, ICReach compile non seulement des métadonnées téléphoniques, mais aussi des métadonnées relatives aux communications emails et aux messageries instantanées. Au total, ce moteur de recherche référence plus d’une trentaine de champs : temps et durée d’appel, numéros d’appel, protocole, IMEI (identifiant unique du smartphone), identifiant de la cellule mobile de réception, adresse email, identifiant chat, etc. Les données proviennent d’une multitude de bases de données gérées par la NSA, mais aussi par les partenaires du club « Five Eyes » (Royaume-Uni, Australie, Nouvelle-Zélande, Canada).

 

Les métadonnées surveillées par ICReach.
Ainsi, l’enquêteur pourra savoir qui communique avec qui et depuis quel endroit. Mais ce n’est qu’un début. En croisant toutes ces données, l’objectif est de pouvoir extraire les habitudes de vie quotidienne d’une cible : quels endroits elle fréquente, avec qui et à quel moment, etc. La NSA appelle cela « pattern of life analysis » (« analyse du mode de vie »).

Il est difficile de savoir combien de personnes peuvent être potentiellement surveillées par cet outil. Il concerne principalement des non-Américains, dans la perspective d’un « renseignement extérieur » (« foreign intelligence »). Ce qui est assez vague et peut aller de la guerre anti-terroriste à l’espionnage économique, en passant par la lutte contre la criminalité organisée.

Comme bon nombre de programmes de surveillance de la NSA, ICReach trouve son origine dans les attentats du 11 septembre, qui avaient révélé un manque de communication entre les différentes agences gouvernementales américaines. Un problème qui, visiblement, a été résolu. Attention, ICReach n’est pas à confondre avec XKeyscore, un autre moteur de recherche célèbre de la NSA. Mais celui-ci est davantage restreint au monde de l’espionnage. Par ailleurs, il ne cible que les données du web.

 

Cet article vous à plu ? Laissez-nous un commentaire (Source de progrès)

 

Sources : 
http://www.01net.com/editorial/625470/icreach-le-moteur-de-recherche-secret-a-la-google-de-la-nsa/#?xtor=EPR-1-NL-01net-Actus-20140826

https://firstlook.org/theintercept/article/2014/08/25/icreach-nsa-cia-secret-google-crisscross-proton/

 




Une manière de nous espionner sur Internet sans laisser de traces !

Tous traqués : AddThis nous suit à la trace... sans laisser de traces !

Une manière de nous espionner sur Internet sans laisser de traces !

Depuis plusieurs années, le mécanisme de suivi des internautes qui récupère votre « empreinte numérique » est utilisé par la société AddThis. Il serait installé sur plus de 5000 sites Web parmi les plus consultés, et surtout difficilement contournable. 

 

Atlantico, MetroNews, Letudiant, PAP, Telerama, Sports, Elle, LeGorafi… Ce sont autant de sites qui utilisent le fameux mécanisme d’empreinte numérique (la liste entière est consultable ici). Ce ne sont que quelques exemples français. Aux Etats-Unis, le site de la Maison-Blanche l’utilise également. S’il n’est pas tout à fait nouveau, il a été découvert assez récemment par des chercheurs des universités de Ku Leuven en Belgique, et de Princeton outre-Atlantique.

La nouveauté : il permet de traquer les internautes sans qu’ils s’en rendent compte et sans pouvoir y échapper. Car aucun mécanisme, une application tierce par exemple, ne permet de la contourner : le Graal pour les annonceurs, un fléau pour la vie privée ! Il existe toutefois des moyens d’y échapper, en bloquant le chargement des JavaScript sur votre navigateur, en utilisant NoScript par exemple, en choisissant Tor ou l’extension (expérimentale) Chameleon.

 

Le mécanisme de fonctionnement de l’empreinte numérique.
Cette technique d’empreinte numérique, décrite par des chercheurs californiens en 2012 (consultez le PDF du détail de la technique), est notamment proposée dans les outils de la société AddThis, qui fournit entre autres des boutons de partage vers les réseaux sociaux.

 

Le système est très simple en théorie. Lorsqu’un internaute se connecte sur un site Web, une requête est envoyée demandant au navigateur de « dessiner » une image invisible qui est ensuite transmise à AddThis par exemple. Il utilise la fonction Canvas de HTML5 (« canvas fingerprinting »). Et c’est grâce à cette image unique qu’il est possible de pister discrètement et individuellement chaque internaute.

 

 

Dans cet article, on peut y voir AddThis reconnaître avoir commencé à tester ce système depuis le début de l’année cherchant « une alternative aux cookies traditionnels ». Depuis la publication de l’article, certains sites ont fait marche arrière, à l’instar de YouPorn notamment.

Le PDG de l’entreprise estime que le mécanisme est tout à fait légal, même si les premiers résultats ne seraient pas satisfaisants, selon lui. AddThis se défend sur son blog, expliquant que le mécanisme est utilisé uniquement dans un but de R&D. Il nous tarde de connaître la réaction de la CNIL : un mécanisme divulgué à tous et incontournable semble difficile à imposer en toute légalité…

 

Cet article vous à plu ? Laissez-nous un commentaire (Source de progrès)

 

Références : 
http://www.linformaticien.com/actualites/id/33713/tous-traques-addthis-nous-suit-a-la-trace-sans-laisser-de-traces.aspx