DATA TRANSITION s'intéresse à la Data gouvernance

La gouvernance par les données n’est ni un futur désirable ni une dictature éclairée, c’est factuellement les deux.
La spécificité de la gouvernance, c’est la décision.
Décider, c’est gouverner.

Les données ont toujours permis de décider, selon des critères plus ou moins obscurs, elles permettent de se faire une idée sur des situations ou des personnes et de pouvoir décider quand les choix sont multiples.

Les algorithmes d’aide à la décision s’appuient sur des collectes de données massives qu’on appelle BIG DATA et des chaînes de critères conditionnées qu’on appelle des ontologies.

L’intelligence artificielle se construit sur ces principes finalement très appréhendables pour nous. Elle copie notre fonctionnement en mieux car elle s’appuie sur beaucoup plus de données pour faire ces choix et va beaucoup mais alors beaucoup plus vite que nous.

Le deep Learning vient ajouter une dimension éducative en permettent à l’intelligence artificielle de choisir seule, donc de décider.

Les assurances, la banque, la santé, la justice, l’éducation, la publicité et le marketing sont les premières activités qui s’intéressent à cette aide à la décision. Ceux sont ces activités qui investissent dans son développement et en teste les évolutions.

Tout va donc très bien dans le meilleur des monde.

Et pourtant, confier des décisions majeurs pour nos vies à des machines semblent beaucoup plus compliqué que de les confier à des hommes.
Soudainement, il faut de l’encadrement, de l’éthique, de la surveillance.
Il est vrai qu’un juge a fait l’école de la magistrature pour apprendre à contextualiser ses décisions.
Il est vrai également qu’une machine n’est par une personne et qu’elle ne peut pas être jugée. On peut aussi se demander comment un juge pourrait contextualiser son jugement face à une décision prise sur un nombre de données qu’il serait incapable d’absorber et sur une méthode qui, par essence, n’est pas déchiffrable car le deep learning ne l’est pas.

Alors voilà, la gouvernance par la donnée est un futur désirable, on voit que le diagnostic de crise cardiaque est plus rapide et plus fiable de 20% quand il est fait par une intelligence artificielle que par les médecins.
Alors voilà, la gouvernance par la donnée est une dictature éclairée car même si la décision finale sera celle d’un humain, il va falloir s’habituer a ce que le processus qui y amène soit obscur.
Mais finalement, n’était-ce pas déjà le cas ?

Notre équipe possède un historique commun sur les questionnement de l’impact du numérique sur nos vies et nos sociétés.

Cette transition est d’une rapidité fulgurante et très sous estimée dans ses conséquences tant par nos acteurs économiques que par nos acteurs politiques, tout du moins en Europe.

Un des moyens de comprendre comment nos vies et nos sociétés vont s’articuler avec les impacts du numérique est de contrôler comment nous traitons toutes ces données que nous collectons avant de les laisser aux neurones digitaux d’intelligence artificielles qui vont nous gouverner.

Dans notre équipe, je ne suis pas la seule a être attachée à la protection des droits et libertés individuelles et collectives et a être force de proposition pour que le développement des nouvelles technologies ne soit pas oublié dans le scope de ces droits.

En revanche, je suis la seule a avoir choisi la loi informatique et libertés et maintenant le RGPD et autres textes comme un prisme de lecture particulièrement pertinent et créatif pour ce sujet essentiel.
DATA TRANSITION est né de cette volonté commune d’un « vivre ensemble » avec les données que nous produisons et dont les technologies s’emparent pour créer de la valeur, changer nos usages et pratiques et faire évoluer notre société, ces lois et nos modes de gouvernance.


Do Your Own Privacy !

Do Your Own Privacy !

Notre culture donne une place privilégiée à l’intelligence collective, l’open innovation et le principe d’itération et de prototypage que seul un hackathon bien réussi peut offrir.

Difficile de ne pas faire passer la Privacy, sujet oh combien collaboratif, stratégique et nécessitant imagination et créativité, au tamis de la puissance de productivité que représente le hackathon !

Nous proposons donc l’organisation de hackathons sur 2 jours pour hacker sa Privacy et la faire soi-même.

  • Proposer ses problématiques
  • Comprendre les enjeux de la Privacy
  • Comprendre la discipline, son fonctionnement, son articulation, sa transversalité et son efficacité
  • Acquérir des outils et des méthodes
  • Identifier des prototypes de résolution de problématiques
  • Bénéficier de mentorat et de conseils
  • Faire de l’intelligence collective et de la controverse
  • Décloisonner les compétences et les faire travailler ensemble
  • Repartir avec des solutions

Ces hackathons sont sponsorisés par une ou des entreprises hébergeuses, les participants peuvent être des entreprises concernées mais le hackathon sera également ouvert à certains profils publics.

La plateforme web qui pilote les hackathons sera en partie publique, en revanche l’accès aux prototypes restera accessibles aux participants et la priorité de la mise en œuvre des solutions d’open innovation seront prioritairement offerte aux entreprises sponsors.

Un exemple de nos hackathons :


La justice prédictive ... l'ère des PreCogn arrive.

La justice prédictive … l’ère des PreCogn arrive.

Ce type d’annonce est toujours impressionnante, personnellement, elles me font peur.

Comment ne pas imaginer rapidement toutes sortes de décisions éminemment impactantes laissées à la libre appréciation de machines apprenantes et insensibles ?

La prédectivité, c’est quoi ?

On peut se souvenir des “precog” de Minority Report pour se faire une idée assez juste. Ces entités, humaines et jumelles accompagnées de leur maman étaient en capacité de prévoir en fonction de l’intégralité des comportements, histoire de vie, psychologie, émotions d’un individu ce qu’il/elle ferait dans une situation précise.

Elles avaient donc pour mission de tout collecter, d’analyser et de prévoir pour une élite policière les lieux, personnes et actes criminelles qui allaient se dérouler et qu’ils devaient donc pouvoir empêcher.

Comment faisaient-elles, nul ne le sait … et le suspense du film repose sur l’obligation de retrouver dans la mémoire d’une de ces entité, l’endroit exact ou une donnée enregistrée a été modifiée, entraînant une prévision erronée et donc une arrestation préventive non justifiée.

Je vous invite à revoir le film pour évaluer le combat pour retrouver cette donnée 🙂

Revenons à la réalité …

Les outils d’aide à la décision permettent aujourd’hui de regrouper immensément plus de données pour décider et ça c’est plutôt bien.

En matière de justice, le magistrat est le garant de la compréhension de l’éco-système pour émettre un jugement et une sanction a partir d’un fait délictuel et/ou criminel.

Ceci explique pourquoi à constat factuel égal, le jugement et les sanctions peuvent être différentes et ça c’est essentiel.

Permettre à ces magistrats d’accéder à une documentation beaucoup plus fine, profonde tant des jugements, sanctions donnés sur des faits similaires en pouvant même en mesurer les résultats sur les personnes concernées (quel type de sanction a éviter de la récidive, a permis de la réinsertion, quel type d’application de la peine a été la plus efficace etc) que d’accéder aux profils psychologique, psychiatriques, aux notes des acteurs (policiers, gendarmes mais aussi avocats) semblent très bien. Cela permettra une rapide construction d’un éco-système plus large, plus fiable et qui s’inscrit dans une évolution pour mieux décider, juger et sanctionner.

Mais, car il y a toujours un mais, nous entrons dans l’air de l’intelligence artificielle et des machines apprenantes qui sélectionnent, en fonction de ce qu’elles apprennent, les données qui leurs semblent pertinentes à nous soumettre pour nous aider à décider.

La loi dite “Lemaire” oblige à expliquer les algorithmes qui nourrissent ces processus de sélection et d’en identifier clairement les critères.

Le GDPR obligera à partir de mai 2018 a pouvoir en cas d’automatisation de décision concernant une personne à pouvoir permettre un recours de cette décision auprès d’un humain qualifié pour réviser le process de décision, le valider ou l’invalider en fonction de son analyse et de son expérience.

Et là, j’ai à nouveau un peu peur car pour permettre aux machines d’apprendre, on les entraîne en leur donnant de la nourriture sous forme de données, de liens entre ses données, d’options de réponses en fonction de ces liens et tourne tourne les itérations pour les rendre de plus en plus intelligentes.

Mais tout comme les “precog”, personne ne sait comment les machines apprennent 🙂

Article d’origine sur Medium.com