LTAP - La reconnaissance faciale

La reconnaissance faciale au coeur du débat

C'est un vrai sujet de société C'est un vrai sujet de société C'est un vrai sujet de société C'est un vrai sujet de société C'est un vrai sujet de société C'est un vrai sujet de société


DATA TRANSITION s'intéresse à la Data gouvernance

La gouvernance par les données n’est ni un futur désirable ni une dictature éclairée, c’est factuellement les deux.
La spécificité de la gouvernance, c’est la décision.
Décider, c’est gouverner.

Les données ont toujours permis de décider, selon des critères plus ou moins obscurs, elles permettent de se faire une idée sur des situations ou des personnes et de pouvoir décider quand les choix sont multiples.

Les algorithmes d’aide à la décision s’appuient sur des collectes de données massives qu’on appelle BIG DATA et des chaînes de critères conditionnées qu’on appelle des ontologies.

L’intelligence artificielle se construit sur ces principes finalement très appréhendables pour nous. Elle copie notre fonctionnement en mieux car elle s’appuie sur beaucoup plus de données pour faire ces choix et va beaucoup mais alors beaucoup plus vite que nous.

Le deep Learning vient ajouter une dimension éducative en permettent à l’intelligence artificielle de choisir seule, donc de décider.

Les assurances, la banque, la santé, la justice, l’éducation, la publicité et le marketing sont les premières activités qui s’intéressent à cette aide à la décision. Ceux sont ces activités qui investissent dans son développement et en teste les évolutions.

Tout va donc très bien dans le meilleur des monde.

Et pourtant, confier des décisions majeurs pour nos vies à des machines semblent beaucoup plus compliqué que de les confier à des hommes.
Soudainement, il faut de l’encadrement, de l’éthique, de la surveillance.
Il est vrai qu’un juge a fait l’école de la magistrature pour apprendre à contextualiser ses décisions.
Il est vrai également qu’une machine n’est par une personne et qu’elle ne peut pas être jugée. On peut aussi se demander comment un juge pourrait contextualiser son jugement face à une décision prise sur un nombre de données qu’il serait incapable d’absorber et sur une méthode qui, par essence, n’est pas déchiffrable car le deep learning ne l’est pas.

Alors voilà, la gouvernance par la donnée est un futur désirable, on voit que le diagnostic de crise cardiaque est plus rapide et plus fiable de 20% quand il est fait par une intelligence artificielle que par les médecins.
Alors voilà, la gouvernance par la donnée est une dictature éclairée car même si la décision finale sera celle d’un humain, il va falloir s’habituer a ce que le processus qui y amène soit obscur.
Mais finalement, n’était-ce pas déjà le cas ?

Notre équipe possède un historique commun sur les questionnement de l’impact du numérique sur nos vies et nos sociétés.

Cette transition est d’une rapidité fulgurante et très sous estimée dans ses conséquences tant par nos acteurs économiques que par nos acteurs politiques, tout du moins en Europe.

Un des moyens de comprendre comment nos vies et nos sociétés vont s’articuler avec les impacts du numérique est de contrôler comment nous traitons toutes ces données que nous collectons avant de les laisser aux neurones digitaux d’intelligence artificielles qui vont nous gouverner.

Dans notre équipe, je ne suis pas la seule a être attachée à la protection des droits et libertés individuelles et collectives et a être force de proposition pour que le développement des nouvelles technologies ne soit pas oublié dans le scope de ces droits.

En revanche, je suis la seule a avoir choisi la loi informatique et libertés et maintenant le RGPD et autres textes comme un prisme de lecture particulièrement pertinent et créatif pour ce sujet essentiel.
DATA TRANSITION est né de cette volonté commune d’un « vivre ensemble » avec les données que nous produisons et dont les technologies s’emparent pour créer de la valeur, changer nos usages et pratiques et faire évoluer notre société, ces lois et nos modes de gouvernance.


Défendre les droits et les libertés, mon choix de carrière

La Privacy n’est pas un sujet nouveau et il s’inscrit dans la constitution des droits de l’homme et du citoyen.

Je vous cite l’article 1er de la loi Informatique et Libertés de 1978 :

L’informatique doit être au service de chaque citoyen.
Son développement doit s’opérer dans le cadre de la coopération internationale.
Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques.
Toute personne dispose du droit de décider et de contrôler les usages qui sont faits des données à caractère personnel la concernant, dans les conditions fixées par la présente loi.

C’est suite à une levée citoyenne que cette loi est née, une levée qui s’opposait à la centralisation des citoyens et citoyennes française dans un fichier centralisé baptisé SAFARI en 1974.
Cette une époque ou l’informatique faisait peur départ sa capacité naturelle à faire des listes consultables et potentiellement préjudiciables aux personnes si elles tombaient entre des mains gouvernementales décidées à faire des tri inquiétants pour les personnes listées.

Cette philosophie est celle dans laquelle je m’inscris à titre professionnel et personnel.

Elle demande la transparence aux états, à leurs représentations administratives ou politiques, aux entreprises et considèrent obligatoire pour les gouvernements de protéger la vie privée des citoyens, accessoirement consommateurs.

Le temps a passé et c’est plutôt l’inverse qui a été développé, faute de volonté politique, de sanctions dissuasives et de compréhension de l’impact des nouvelles technologies numériques sur le faire société.

Aujourd’hui , a nouveau, sous la pression des citoyens, la réglementation réaffirme cette philosophie en renforçant les sanctions pour contraindre toutes les organisations à plus de transparence.
Aujourd’hui, comprenant la perte énorme de marché, faute de l’avoir mis en œuvre plus tôt, l’Europe tente de sauver ce qui peut l’être encore de nos données européennes, devenues pétrole d’une économie dont nous ne tenons pas les rênes.

Cela tombe bien car, depuis 13 ans, c’est cette philosophie qui m’a permis de créer un réseau vaste et expert sur ce sujet.
Sujet qui touche à l’équilibre entre la liberté et la sécurité, le développement économique et le respect des droits et libertés des individus.
C’est une discipline très strictement encadrée, transversale et qui nécessite une créativité passionnante car son terrain d’activité est en permanente évolution.

La réglementation qui a été voté en 2014 a été un choc pour les professionnelles tant sa portée pour un marché quasiment inconscient de son action de régulation est d’une part, contraignante et d’autre part obligatoire pour quasiment tout le monde car elle touche un secteur devenu majeur qu’est la collecte des données personnelles.

Chez Data Transition, nous partageons une même vision de l’enjeu de la privacy pour le marché et le développement de l’économie numérique. Data Transition s’inscrit ainsi dans une opportunité improbable de marché à laquelle peut de prétendants pourront se targuer de la légitimité dont nous bénéficions.


L'économie numérique, sujet de préoccupation

Que vous soyez citoyen.ne ou expert.e en gouvernance des données, vous savez me dire quelles sont les entreprises les plus riches du Monde actuellement, leurs noms et leurs activités. L’économie numérique est un gros gâteau dont certains se sont assurés depuis longtemps les plus belles parts et mettent tout en oeuvre pour les conserver.

Voilà pourquoi la question de la gestion des données est au coeur des préoccupations stratégiques des entreprises mais également au coeur des préoccupations politiques de l’Europe. C’est également un sujet de préoccupation pour les individus que nous sommes, accessoirement conssomateur-trices.

L’injonction contradictoire en psychologie, c’est le choc entre deux injonctions qui plonge les individus en total désarroi et les rende totalement incapable d’agir.

Il y plusieurs moyens de sortir d’une injonction contradictoire. La première consiste à faire le déni d’une des injonctions.

Sur le sujet qui nous préoccupe, c’est clairement la protection de l’individu et de ses droits qui a été occultée.

Pourquoi ?

Simple, l’attrait de l’injonction à developper les opportunités de l’économie économique ont largement dépassé celui de respecter le droit à la vie privé.

Souvent par manque de connaissances et de compétences, quelquefois par pur choix du profit.

Cependant, la conscience de l’impact sur nos vies, nos sociétés que peut avoir le fichage à grande échelle inquiète de plus en plus les personnes.

On se demande ce que pourraient bien faire des gouvernements malveillants avec toutes ces informations.

En 2018, le RGPD répond à ces inquiétudes citoyennes. L’Europe s’implique car, elle aussi s’inquiète du pouvoir grandissant de ces grandes entreprises qui possèdent les informations sur les citoyen-nes qu’elle se doit de protéger.

En effet, le RGPD va être contraignant mais ce n’est pas une réglementation opportuniste, il s’inscrit dans la constitution des droits de l’homme et du citoyen et dans l’ article 9 du code civil.

C’est un rempart contre un risque qui dépasse largement la vision économique du numérique, c’est une réponse démocratique juridique au risque d’un régime tout simplement totalitaire que le fichage de chacun d’entre nous permet et autorise déjà et qu’il faut sérieusement encadrer et sanctionner les tentatives de s’y dérober.


Startups : comment gérer sa conformité ?

Startups : comment gérer sa conformité au RGPD ?

Une startup a la particularité de démarrer sur les chapeaux de roues et souvent avec beaucoup d’idées, d’outils de communication et collaboration. Elle se doit de communiquer vite et bien et de se rendre rapidement visible.

Une autre de ses particularités est de se servir du numérique pour développer ses produits et services. Si la Startup a pour modèle économique un socle de collecte de données important, il y a fort à parier que les données et informations personnelles en sont le cœur.

Comme toutes les organisations, ces entreprises devront produire un registre et gérer l’intégralité des projets de mise en conformité, en continu. Data Transition propose une approche de protection des startups sur les terrains qui l’occupent en priorité :

>  De quoi sont-elles responsables exactement ?

>  Que doivent-elles mettre en œuvre en termes de protection des données?

>  Leurs collectes de données sont-elles licites ?

>  Doivent-elles réfléchir rapidement à une politique de recueil du consentement ?

Il existe un outil qui répond aux obligations de la Privacy by Design. Cet outil doit être déclenché en fonction de certains critères pour des traitements mais il peut aussi couvrir une activité.

C’est dans ce cadre que Data Transition propose une analyse d’impacts aux Startups après avoir identifié leurs traitements. Cela permet d’encadrer l’activité et d’en maîtriser les risques majeurs, ceux qui pourraient entrainer un arrêt immédiat en cas de contrôle et mettre en péril l’avenir et le développement de l’organisation.


La CNIL lance un outil d’analyse d’impacts des traitements

Le 23 novembre, la CNIL a lançé l’application PIA, un outil d’analyse d’impacts des traitements.

A partir du site, on peut maintenant télécharger l’application ou l’installer sur un serveur interne et effectuer ses EIVP (Etude d’Impact sur la Vie Privée) ou PIA (Privacy Impact Assessment).

L’Etude d’Impact sur la Vie Privée (EIVP)

Introduite dans le Règlement Général sur la Protection des Données (RGDP), l’analyse d’impact est une méthode d’évaluation de risques dédiée à la protection de la vie privée. C’est un point important.

En effet, l’ensemble du RGPD a pour unique objectif la protection de la vie privée mais en réalité, techniquement, l’ensemble des obligations du RGPD vise à la protection des données et informations personnelles, dès le moment où elles sont collectées et jusqu’à leur suppression.

Tout comme la loi informatique et libertés, le RGPD encadre principalement la sécurité des données. Du point de vue juridique, il permet aux personnes concernées de solliciter l’accès à leurs données personnelles et de comprendre leur utilisation par l’entreprise ou l’organisme ayant collecté ce type d’information.

Pour répondre à ces obligations du côté des entreprises et des administrations, la déclaration des traitements (dans un Registre) et l’audit des traitements (la Privacy by design) permettent d’identifier les points d’amélioration à mettre en œuvre avant de lancer un traitement en production, ou s’il a déjà été lancé de pouvoir corriger les points faibles.

Dans le contexte de la Privacy, le RGPD s’inscrit dans le prolongement de la loi Informatique et liberté de 1978. Certaines obligations ont été renforcées et de nouvelles règles comme la portabilité ou le droit à l’effacement des données sont désormais de rigueur. Ainsi, les organisations les plus avancées sur cette discipline maîtrisent ce cadre et, depuis bientôt 40 ans, ont eu le temps de s’y préparer. En revanche, l’analyse d’impacts sur la vie privée, dite EIVP ou PIA sort de ce cadre.

Cette approche engage une réflexion sur la donnée parce qu’elle considère que les données ne sont pas neutres. Les données et informations peuvent avoir des impacts sur la vie des personnes concernées.

Dans une société en transition où l’on voit une explosion des données produites, cet outil force les producteurs à réfléchir aux enjeux des processus qu’ils mettent en oeuvre : c’est la dimension éthique et déontologique de la gestion responsable des données.

C’est la réponse qu’attendent les usagers et clients, en termes de confiance sur la posture des entreprises et organisations qui collectent leurs données.

Nous constatons que les acteurs de la conformité les plus chevronnés sont toutefois interrogés et questionnés par ce changement de paradigme qui engage une nouvelle forme de la modélisation de cette obligation “quasi philosphique”.

 

Le PIA, toute une histoire…

L’analyse d’impact est apparue il y a plusieurs années comme un processus d’amélioration continue. Elle nous vient des anglo-saxons et sa création n’est pas sans lien avec quelques gros scandales liés à des fuites de données. Plus largement, elle a été également pensée comme un moyen de rassurer les individus, tant en termes de sécurité que d’éthique. En parallèle de la protection des données, elle visait à prévenir les impacts sur la vie privée, consécutifs aux collectes et traitements des informations personnelles.

Elle s’organise en deux actes, un audit des impacts et une gestion des risques en mode projet, afin de mettre en oeuvre les réponses juridiques, organisationnelles et techniques ayant pour objectifs de réduire les menaces.

Dans le scandale du piratage des données du site de rencontres Ashley Madison, on aurait dû inscrire dans le PIA, l’impact psychologique sur un utilisateur de la divulgation de son adhésion aux services de l’entreprise auprès de son ou sa compagne.L’évaluation de ce PIA aurait du être maximale car le suicide aurait du apparaître comme un risque, le hacking de la base de données comme une menace.

Peut être certaines mesures plus drastiques auraient pu être prises, pour des raisons éthiques et financières… Depuis 2011, se cache derrière le fil tweeter @piawatch un expert du sujet : Eric Charikhane, titulaire du master de l’ISEP, sur la protection des données personnelles, qui en parlerait mieux que moi.

Aujourd’hui, le PIA est intégré au RGPD comme une obligation, il est déclenché dans trois situations: suite à un audit de traitement, dans des cas spécifiques encadrés ou à la discrétion du DPD*/DPO/CIL sur tout objet qu’il estime devoir être évalué.

Pour ceux et celles qui considèrent la Privacy comme un enjeu social et économique, le PIA est un outil de prédilection : c’est le seul qui permette de penser la protection de la vie privée en amont de toute action et dans le temps. Pour ceux qui voient la Privacy seulement du point de vue juridique, le PIA est un véritable bouleversement car il vient alourdir une suite de contraintes déjà considérées comme complexes.

 

La CNIL doit réagir !

Depuis le vote de la réglementation, par son approche plus technique que juridique, le PIA est une question brûlante.

Les acteurs de la conformité rechignaient à sa mise en oeuvre sans une feuille de route claire et voulaient savoir de l’autorité de contrôle “comment faire” avec cette obligation dans la vraie vie.

 

La CNIL répond à l’appel !

Grâce à un appel à contributions sur le PIA pour répondre aux besoins de compréhension des DPO, la CNIL vient de produire un outil gratuit et complet qui modélise les contraintes techniques et apporte une méthodologie claire.

La CNIL a donc choisi le PIA comme cheval de Troie. Elle aurait pu choisir la déclaration des traitements pour les responsables de traitements ou la déclaration des activités pour un Registre sous-traitant, qui sont également des questions pressantes et des actions à mettre en oeuvre bien avant les PIA.

 

L’application PIA de la CNIL : une approche questionnante

Choisir le PIA comme première application mise à disposition du marché, c’est donner un éclairage fort sur la protection de la vie privée qui est la finalité de la Privacy, alors que la protection des données personnelles n’en est qu’un moyen.

Aborder la mise en conformité par cet outil, c’est aller au coeur du problème et ensuite y intégrer progressivement l’ensemble des éléments nécessaires. A titre personnel, cette approche me séduit beaucoup car elle associe immédiatement la protection des données et celle de la vie privée. Elle permet un diagnostic des risques d’impacts et des non-conformités majeures dans un même espace d’audit déclaratif.

Il est à noter que :

Le législateur a défini des critères de déclenchement pour les analyses d’impacts, il ne considère pas que l’ensemble des traitements doivent être soumis au PIA.

Cela dit les professionnels prévoient que de nombreux traitements rentreront dans ces critères. Le législateur a défini que l’analyse d’impacts pouvait porter sur d’autres objets d’analyses qu’un traitement. Les professionnels prévoient que le PIA sera un excellent outil pour des projets qui engendreront de nombreux traitements comme au hasard la création d’un chatbot.

On peut se poser la question, la CNIL veut-elle faire du PIA la nouvelle déclaration des traitements ?

L’application PIA proposée par la CNIL est parfaite pour des analyses d’impacts de traitements mais elle ne répond pas à l’ensemble des cas décrits par le RGPD. En intégrant des éléments de formalités déclaratives des traitements, on peut faire le choix de déclarer ces traitements en analysant leurs impacts simultanément, ce qui est une approche intéressante mais cela sera-t-il considéré comme conforme en cas de contôle, c’est encore à vérifier.

Que l’on considère que le PIA puisse être une façon de déclarer les traitements ou pas, l’application PIA, aussi bien réalisée soit-elle, ne permettra pas aux DPO, peu ou pas formés, de produire un registre sans l’accompagnement de professionnels de la Privacy.

 

Dans quel contexte arrive le PIA ?

Historiquement, la Privacy n’est un enjeu que pour très peu d’organisations et d’entreprises et quand elle l’est, c’est sous l’unique prisme de la contrainte légale ou réglementaire, assez peu souvent sous le prisme de la valorisation d’un capital immatériel demandant l’inclusion des différentes parties prenantes.

Passer de cette approche réglementaire à une vision de gestion responsable d’un capital sensible va prendre du temps car il existe peu de DPO expérimentés sur le marché. En majorité, ils sont déjà en postes et ceux à venir cherchent à se former.

Les CILs et DPO qui n’ont pas été formés à la discipline de la Privacy ont souvent été recrutés sur des profils juridiques. Ils n’ont pas tous les compétences techniques, managériales d’accompagnement au changement, ou encore de communication et de pédagogie souvent indispensables à leurs missions.

CIL : Correspondant Informatique et Liberté

DPO : Data Protection Officer ou DPD : Délégué à la Gestion des Données

La proposition de la CNIL sur l’inclusion des formalités déclaratives des traitements dans le PIA risque de surprendre et déstabiliser beaucoup de nos jeunes acteurs de la conformité.

 

Get on the bus !

Aujourd’hui, le marché a besoin de comprendre et de connaître ce que signifie une gestion responsable des données. Les responsables de traitements ont besoin d’évaluer les enjeux de la mise en conformité. Garants de la conformité, les responsables de la Privacy doivent sensibiliser les responsables et gérer la mise en conformité de leurs organisations. Pour mener à bien leurs missions, les DPD (DPO) ont besoin d’accompagnement et d’outils.

Réunissant des professionnels de la Privacy depuis 14 ans, l’équipe de DATA TRANSITION a conçu des outils précis et adaptés à toutes les obligations du RGPD, pour répondre aux besoins métiers de toutes les formes et tailles d’organisations. En modélisant les contraintes et l’esprit de la loi dans les outils de My DT PRIVACY, notre approche métier de la conformité répond pleinement aux besoins du marché.

Nos outils sont articulables entre eux pour couvrir toutes les problématiques à résoudre, en permettant le pilotage des projets d’amélioration de la conformité avec l’ensemble des acteurs internes et externes.

Ils intègrent diagnostics, audits, bilans et alertes PIA, actions correctives et recommandations automatisées.

Afin de transférer le plus de connaissances possibles aux utilisateurs, nos logiciels DT Privacy intègrent une aide pédagogique permanente.

Pour accompagner les organisations et les acteurs de la conformité dans leurs démarches Privacy, quels que soient leurs besoins et leur niveau de maturité sur ce sujet passionant, l’équipe d’experts es-Privacy de DATA TRANSITION propose également des programmes de mentoring.


Un cruel manque de responsabilité

Un cruel manque de responsabilité

Explosion des Data Breaches en 2017

Le RGPD/GDPR impose la notification des failles de sécurité aux autorités de contrôles et aux personnes concernées.

Qu’est-ce que cela veut dire ?

Les informations personnelles, qui sont collectées au travers de tous types de supports et qui circulent par tous types de médias, doivent être protégées partout et tout le temps.

Pourquoi ?

On peut toujours arguer que les internautes délivrent nombre d’informations personnelles et qu’ils sont donc responsables de ce qui circule en ligne concernant leurs vies privées.

Oui et non !

D’une part, il existe de plus en plus d’espaces de collecte d’informations permettant d’identifier une personne où il est obligatoire de délivrer ces informations pour obtenir un service. Ceci concerne tout autant les entreprises privées, ayant une activité commerciale, que des organisations publiques (administrations). Pensons aux sites des Mairies, des impôts, de la délivrance de CI ou de Passeport et référons-nous simplement à l’injonction de dématérialisation qui règne depuis de nombreuses années dans les organisations, quelles que soient leurs activités.

D’autre part, et certains en parlent beaucoup mieux que moi, je pense par exemple à Louise MERZEAU (RIP) qui a expliqué comment les « oligarques du web » ont créé une illusion totalement intéressée en nous laissant croire qu’il existerait sur le WEB des zones de confiance (tous les espaces communautaires de valeurs, de pratiques, d’intérêts peuvent se reconnaitre).

Le RGPD/GDPR souhaite rééquilibrer ce rapport entre ceux qui donnent et ceux qui traitent.

Pourquoi ?

La fuite des données peut être impactante pour les personnes et pour les entreprises. Les scandales visibles viennent souvent des Etats-Unis où le niveau de confiance des citoyens dans leurs institutions et entreprises est beaucoup plus important qu’en Europe mais où, du même coup, le sentiment de trahison se manifeste beaucoup plus fortement.

Les plaintes collectives (ou Class actions) illustrent la colère des personnes dont les données n’ont pas été protégées et les montants financiers en jeu sont colossaux.

Une des dernières fuites concernant la société de crédit EQUIFAX a entrainé plus de 50 class actions et on estime à 70 milliards de $ le montant des dommages et intérêts. Fondée au XIXème siècle, cette société a vu son cours de bourse chuter de plus d’un tiers de sa valeur et elle pourrait cesser son activité.

Et nous ?

Nous avons moins confiance dans nos institutions et dans nos entreprises que les Américains : nous sommes donc moins déçus.
En revanche, nous avons plus confiance dans nos lois et la capacité de nos magistrats à les faire respecter.

C’est ici que le bas commence à blesser !

En effet, le courant va vers une « anglo-saxonisation » de nos référentiels et il s’impose doucement. La responsabilisation (ou Accountability) en est l’expression la plus forte.

Face à cette dynamique, celle de la plainte collective est un corollaire indispensable.

Il s’agit d’un devoir d’équilibre que doit imposer l’Europe via le règlement sur la e-Privacy, afin de contribuer à la confiance dans l’économie numérique.

Cela ne doit pas être une option négociable !


L'intelligence artificielle doit-elle être régulée ?

L’intelligence artificielle doit-elle être régulée ?

La réponse est oui, c’est urgent !

Cependant, il faut peut être s’interroger sur ce que produit aujourd’hui l’intelligence artificielle (IA) et identifier à quelle moment et dans quelle mesure cette production nécessite des encadrements juridiques et techniques contraignants (encadrements et sécurités) et dissuasifs (sanctions financières et juridiques) ?

Tout ce que produit cette intelligence n’est pas dangereux.

Si on utilise un bot pour sélectionner et retweeter des articles, même si on y ajoute un apprentissage sémantique et évolutif des mots dans les corps de textes ou une exclusion de certains textes d’auteurs ou de certains mots clés, au pire on fait de la partialité de point de vue et on impose une grille de lecture d’un sujet.
Toute la presse fait cela depuis longtemps et sans IA.

A l’extrême, je dirais que la société doit veiller à ce que toutes les grilles de lectures soient respectées et elle devrait financer celles qui ne répondent pas aux besoins “mainstream”…

Ce que produit l’IA et qui doit rapidement être régulé par la justice, c’est l’aide à la décision discriminatoire en positif ou en négatif.

Si mon assurance santé augmente ou baisse en fonction des données collectées sur mes habitudes alimentaires (frigo connecté), mes habitudes sportives (montre connectée), mes résultats (balance connectée) et au pire mes données de santé (dossier médical), je devrais avoir le droit de me soustraire à tous ces objets connectés et que si c’était le cas, on puisse m’expliquer comment cette décision impactante à été prise en me donnant les moyens de la contester et de me défendre. Je ne suis pas un numéro !

Que dire si mon mon grand-père est renversé par une voiture autonome et qu’une IA embarquée a pris cette décision pour ne pas renverser un enfant de 8 ans ?

Encore une fois, la PRIVACY et le respect de la protection de la vie privée permet d’analyser et de mesurer (PIA) l’impact de ces décisions automatisées sur nos vies privées , la justice peut ainsi mettre en place les processus d’analyse des responsabilités essentielles à la mise en oeuvre de ces systèmes et accessoirement avant leur mise en oeuvre.

Article original sur Medium.com


L'IA doit se nourrir d'erreurs et de controverses, c'est vital pour l'humanité

Si on ne veut pas que l’auto-alimentation efficiente des algorithmes détruisent le vivant, il faut juste penser à réinjecter le vivant dans le Numérique.

On peut le faire, on sait le faire, encore faut-il vouloir le faire et ne pas se laisser envouter par le chant des sirènes qui nous promettent un monde meilleur en limitant le risque, l’échec, l’erreur, le raté …

Il faut juste être vigilant pour que demeure l’hypothèse de Copernic ou les rêves devenus réalité de Jules Vernes.

--

Article original sur Medium.com


Les entreprises ne sont peut être pas suffisamment prêtes...

Les entreprises ne sont peut être pas suffisamment prêtes…

Une étude menée à l’échelle mondiale par Veritas Technologies révèle que les entreprises dans le monde pensent à tort être conformes au règlement général sur la protection des données (GDPR).

Cette étude se compose d’une infographie en Anglais et de sa traduction en Français.

Le périmètre n’est pas donné mais la méthode est assez claire, on demande aux entreprises si elles se sentent prêtent, puis on approfondit un peu les questions pour évaluer cette première réponse.

Pour les professionnels de la Privacy, rien de très surprenant, cette discipline a toujours été considérée comme une contrainte avant tout juridique à laquelle les avocats répondent principalement pour protéger les responsables légaux.

Très peu de responsables légaux considèrent la Privacy comme un levier de développement économique et une assurance de pérennité de ses activités. Quasiment aucun n’a inclus la Privacy comme un système de gestion des données, alors même que beaucoup investissent pour leur transformation digitale en faisant de la donnée le coeur de leur business model.

La discipline de la Privacy doit s’ouvrir à toutes les activités des entreprises, pour servir des stratégies innovantes souvent gourmandes en données, qui doivent respecter les règles pour être capitalisées, valorisées et rentables.