Défendre les droits et les libertés, mon choix de carrière

La Privacy n’est pas un sujet nouveau et il s’inscrit dans la constitution des droits de l’homme et du citoyen.

Je vous cite l’article 1er de la loi Informatique et Libertés de 1978 :

L’informatique doit être au service de chaque citoyen.
Son développement doit s’opérer dans le cadre de la coopération internationale.
Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques.
Toute personne dispose du droit de décider et de contrôler les usages qui sont faits des données à caractère personnel la concernant, dans les conditions fixées par la présente loi.

C’est suite à une levée citoyenne que cette loi est née, une levée qui s’opposait à la centralisation des citoyens et citoyennes française dans un fichier centralisé baptisé SAFARI en 1974.
Cette une époque ou l’informatique faisait peur départ sa capacité naturelle à faire des listes consultables et potentiellement préjudiciables aux personnes si elles tombaient entre des mains gouvernementales décidées à faire des tri inquiétants pour les personnes listées.

Cette philosophie est celle dans laquelle je m’inscris à titre professionnel et personnel.

Elle demande la transparence aux états, à leurs représentations administratives ou politiques, aux entreprises et considèrent obligatoire pour les gouvernements de protéger la vie privée des citoyens, accessoirement consommateurs.

Le temps a passé et c’est plutôt l’inverse qui a été développé, faute de volonté politique, de sanctions dissuasives et de compréhension de l’impact des nouvelles technologies numériques sur le faire société.

Aujourd’hui , a nouveau, sous la pression des citoyens, la réglementation réaffirme cette philosophie en renforçant les sanctions pour contraindre toutes les organisations à plus de transparence.
Aujourd’hui, comprenant la perte énorme de marché, faute de l’avoir mis en œuvre plus tôt, l’Europe tente de sauver ce qui peut l’être encore de nos données européennes, devenues pétrole d’une économie dont nous ne tenons pas les rênes.

Cela tombe bien car, depuis 13 ans, c’est cette philosophie qui m’a permis de créer un réseau vaste et expert sur ce sujet.
Sujet qui touche à l’équilibre entre la liberté et la sécurité, le développement économique et le respect des droits et libertés des individus.
C’est une discipline très strictement encadrée, transversale et qui nécessite une créativité passionnante car son terrain d’activité est en permanente évolution.

La réglementation qui a été voté en 2014 a été un choc pour les professionnelles tant sa portée pour un marché quasiment inconscient de son action de régulation est d’une part, contraignante et d’autre part obligatoire pour quasiment tout le monde car elle touche un secteur devenu majeur qu’est la collecte des données personnelles.

Chez Data Transition, nous partageons une même vision de l’enjeu de la privacy pour le marché et le développement de l’économie numérique. Data Transition s’inscrit ainsi dans une opportunité improbable de marché à laquelle peut de prétendants pourront se targuer de la légitimité dont nous bénéficions.


L'économie numérique, sujet de préoccupation

Que vous soyez citoyen.ne ou expert.e en gouvernance des données, vous savez me dire quelles sont les entreprises les plus riches du Monde actuellement, leurs noms et leurs activités. L’économie numérique est un gros gâteau dont certains se sont assurés depuis longtemps les plus belles parts et mettent tout en oeuvre pour les conserver.

Voilà pourquoi la question de la gestion des données est au coeur des préoccupations stratégiques des entreprises mais également au coeur des préoccupations politiques de l’Europe. C’est également un sujet de préoccupation pour les individus que nous sommes, accessoirement conssomateur-trices.

L’injonction contradictoire en psychologie, c’est le choc entre deux injonctions qui plonge les individus en total désarroi et les rende totalement incapable d’agir.

Il y plusieurs moyens de sortir d’une injonction contradictoire. La première consiste à faire le déni d’une des injonctions.

Sur le sujet qui nous préoccupe, c’est clairement la protection de l’individu et de ses droits qui a été occultée.

Pourquoi ?

Simple, l’attrait de l’injonction à developper les opportunités de l’économie économique ont largement dépassé celui de respecter le droit à la vie privé.

Souvent par manque de connaissances et de compétences, quelquefois par pur choix du profit.

Cependant, la conscience de l’impact sur nos vies, nos sociétés que peut avoir le fichage à grande échelle inquiète de plus en plus les personnes.

On se demande ce que pourraient bien faire des gouvernements malveillants avec toutes ces informations.

En 2018, le RGPD répond à ces inquiétudes citoyennes. L’Europe s’implique car, elle aussi s’inquiète du pouvoir grandissant de ces grandes entreprises qui possèdent les informations sur les citoyen-nes qu’elle se doit de protéger.

En effet, le RGPD va être contraignant mais ce n’est pas une réglementation opportuniste, il s’inscrit dans la constitution des droits de l’homme et du citoyen et dans l’ article 9 du code civil.

C’est un rempart contre un risque qui dépasse largement la vision économique du numérique, c’est une réponse démocratique juridique au risque d’un régime tout simplement totalitaire que le fichage de chacun d’entre nous permet et autorise déjà et qu’il faut sérieusement encadrer et sanctionner les tentatives de s’y dérober.


L'IA doit se nourrir d'erreurs et de controverses, c'est vital pour l'humanité

Si on ne veut pas que l’auto-alimentation efficiente des algorithmes détruisent le vivant, il faut juste penser à réinjecter le vivant dans le Numérique.

On peut le faire, on sait le faire, encore faut-il vouloir le faire et ne pas se laisser envouter par le chant des sirènes qui nous promettent un monde meilleur en limitant le risque, l’échec, l’erreur, le raté …

Il faut juste être vigilant pour que demeure l’hypothèse de Copernic ou les rêves devenus réalité de Jules Vernes.

--

Article original sur Medium.com


La justice prédictive ... l'ère des PreCogn arrive.

La justice prédictive … l’ère des PreCogn arrive.

Ce type d’annonce est toujours impressionnante, personnellement, elles me font peur.

Comment ne pas imaginer rapidement toutes sortes de décisions éminemment impactantes laissées à la libre appréciation de machines apprenantes et insensibles ?

La prédectivité, c’est quoi ?

On peut se souvenir des “precog” de Minority Report pour se faire une idée assez juste. Ces entités, humaines et jumelles accompagnées de leur maman étaient en capacité de prévoir en fonction de l’intégralité des comportements, histoire de vie, psychologie, émotions d’un individu ce qu’il/elle ferait dans une situation précise.

Elles avaient donc pour mission de tout collecter, d’analyser et de prévoir pour une élite policière les lieux, personnes et actes criminelles qui allaient se dérouler et qu’ils devaient donc pouvoir empêcher.

Comment faisaient-elles, nul ne le sait … et le suspense du film repose sur l’obligation de retrouver dans la mémoire d’une de ces entité, l’endroit exact ou une donnée enregistrée a été modifiée, entraînant une prévision erronée et donc une arrestation préventive non justifiée.

Je vous invite à revoir le film pour évaluer le combat pour retrouver cette donnée 🙂

Revenons à la réalité …

Les outils d’aide à la décision permettent aujourd’hui de regrouper immensément plus de données pour décider et ça c’est plutôt bien.

En matière de justice, le magistrat est le garant de la compréhension de l’éco-système pour émettre un jugement et une sanction a partir d’un fait délictuel et/ou criminel.

Ceci explique pourquoi à constat factuel égal, le jugement et les sanctions peuvent être différentes et ça c’est essentiel.

Permettre à ces magistrats d’accéder à une documentation beaucoup plus fine, profonde tant des jugements, sanctions donnés sur des faits similaires en pouvant même en mesurer les résultats sur les personnes concernées (quel type de sanction a éviter de la récidive, a permis de la réinsertion, quel type d’application de la peine a été la plus efficace etc) que d’accéder aux profils psychologique, psychiatriques, aux notes des acteurs (policiers, gendarmes mais aussi avocats) semblent très bien. Cela permettra une rapide construction d’un éco-système plus large, plus fiable et qui s’inscrit dans une évolution pour mieux décider, juger et sanctionner.

Mais, car il y a toujours un mais, nous entrons dans l’air de l’intelligence artificielle et des machines apprenantes qui sélectionnent, en fonction de ce qu’elles apprennent, les données qui leurs semblent pertinentes à nous soumettre pour nous aider à décider.

La loi dite “Lemaire” oblige à expliquer les algorithmes qui nourrissent ces processus de sélection et d’en identifier clairement les critères.

Le GDPR obligera à partir de mai 2018 a pouvoir en cas d’automatisation de décision concernant une personne à pouvoir permettre un recours de cette décision auprès d’un humain qualifié pour réviser le process de décision, le valider ou l’invalider en fonction de son analyse et de son expérience.

Et là, j’ai à nouveau un peu peur car pour permettre aux machines d’apprendre, on les entraîne en leur donnant de la nourriture sous forme de données, de liens entre ses données, d’options de réponses en fonction de ces liens et tourne tourne les itérations pour les rendre de plus en plus intelligentes.

Mais tout comme les “precog”, personne ne sait comment les machines apprennent 🙂

Article d’origine sur Medium.com