L'intelligence artificielle doit-elle être régulée ?

L’intelligence artificielle doit-elle être régulée ?

La réponse est oui, c’est urgent !

Cependant, il faut peut être s’interroger sur ce que produit aujourd’hui l’intelligence artificielle (IA) et identifier à quelle moment et dans quelle mesure cette production nécessite des encadrements juridiques et techniques contraignants (encadrements et sécurités) et dissuasifs (sanctions financières et juridiques) ?

Tout ce que produit cette intelligence n’est pas dangereux.

Si on utilise un bot pour sélectionner et retweeter des articles, même si on y ajoute un apprentissage sémantique et évolutif des mots dans les corps de textes ou une exclusion de certains textes d’auteurs ou de certains mots clés, au pire on fait de la partialité de point de vue et on impose une grille de lecture d’un sujet.
Toute la presse fait cela depuis longtemps et sans IA.

A l’extrême, je dirais que la société doit veiller à ce que toutes les grilles de lectures soient respectées et elle devrait financer celles qui ne répondent pas aux besoins “mainstream”…

Ce que produit l’IA et qui doit rapidement être régulé par la justice, c’est l’aide à la décision discriminatoire en positif ou en négatif.

Si mon assurance santé augmente ou baisse en fonction des données collectées sur mes habitudes alimentaires (frigo connecté), mes habitudes sportives (montre connectée), mes résultats (balance connectée) et au pire mes données de santé (dossier médical), je devrais avoir le droit de me soustraire à tous ces objets connectés et que si c’était le cas, on puisse m’expliquer comment cette décision impactante à été prise en me donnant les moyens de la contester et de me défendre. Je ne suis pas un numéro !

Que dire si mon mon grand-père est renversé par une voiture autonome et qu’une IA embarquée a pris cette décision pour ne pas renverser un enfant de 8 ans ?

Encore une fois, la PRIVACY et le respect de la protection de la vie privée permet d’analyser et de mesurer (PIA) l’impact de ces décisions automatisées sur nos vies privées , la justice peut ainsi mettre en place les processus d’analyse des responsabilités essentielles à la mise en oeuvre de ces systèmes et accessoirement avant leur mise en oeuvre.

Article original sur Medium.com


L'IA doit se nourrir d'erreurs et de controverses, c'est vital pour l'humanité

Si on ne veut pas que l’auto-alimentation efficiente des algorithmes détruisent le vivant, il faut juste penser à réinjecter le vivant dans le Numérique.

On peut le faire, on sait le faire, encore faut-il vouloir le faire et ne pas se laisser envouter par le chant des sirènes qui nous promettent un monde meilleur en limitant le risque, l’échec, l’erreur, le raté …

Il faut juste être vigilant pour que demeure l’hypothèse de Copernic ou les rêves devenus réalité de Jules Vernes.

--

Article original sur Medium.com


La justice prédictive ... l'ère des PreCogn arrive.

La justice prédictive … l’ère des PreCogn arrive.

Ce type d’annonce est toujours impressionnante, personnellement, elles me font peur.

Comment ne pas imaginer rapidement toutes sortes de décisions éminemment impactantes laissées à la libre appréciation de machines apprenantes et insensibles ?

La prédectivité, c’est quoi ?

On peut se souvenir des “precog” de Minority Report pour se faire une idée assez juste. Ces entités, humaines et jumelles accompagnées de leur maman étaient en capacité de prévoir en fonction de l’intégralité des comportements, histoire de vie, psychologie, émotions d’un individu ce qu’il/elle ferait dans une situation précise.

Elles avaient donc pour mission de tout collecter, d’analyser et de prévoir pour une élite policière les lieux, personnes et actes criminelles qui allaient se dérouler et qu’ils devaient donc pouvoir empêcher.

Comment faisaient-elles, nul ne le sait … et le suspense du film repose sur l’obligation de retrouver dans la mémoire d’une de ces entité, l’endroit exact ou une donnée enregistrée a été modifiée, entraînant une prévision erronée et donc une arrestation préventive non justifiée.

Je vous invite à revoir le film pour évaluer le combat pour retrouver cette donnée 🙂

Revenons à la réalité …

Les outils d’aide à la décision permettent aujourd’hui de regrouper immensément plus de données pour décider et ça c’est plutôt bien.

En matière de justice, le magistrat est le garant de la compréhension de l’éco-système pour émettre un jugement et une sanction a partir d’un fait délictuel et/ou criminel.

Ceci explique pourquoi à constat factuel égal, le jugement et les sanctions peuvent être différentes et ça c’est essentiel.

Permettre à ces magistrats d’accéder à une documentation beaucoup plus fine, profonde tant des jugements, sanctions donnés sur des faits similaires en pouvant même en mesurer les résultats sur les personnes concernées (quel type de sanction a éviter de la récidive, a permis de la réinsertion, quel type d’application de la peine a été la plus efficace etc) que d’accéder aux profils psychologique, psychiatriques, aux notes des acteurs (policiers, gendarmes mais aussi avocats) semblent très bien. Cela permettra une rapide construction d’un éco-système plus large, plus fiable et qui s’inscrit dans une évolution pour mieux décider, juger et sanctionner.

Mais, car il y a toujours un mais, nous entrons dans l’air de l’intelligence artificielle et des machines apprenantes qui sélectionnent, en fonction de ce qu’elles apprennent, les données qui leurs semblent pertinentes à nous soumettre pour nous aider à décider.

La loi dite “Lemaire” oblige à expliquer les algorithmes qui nourrissent ces processus de sélection et d’en identifier clairement les critères.

Le GDPR obligera à partir de mai 2018 a pouvoir en cas d’automatisation de décision concernant une personne à pouvoir permettre un recours de cette décision auprès d’un humain qualifié pour réviser le process de décision, le valider ou l’invalider en fonction de son analyse et de son expérience.

Et là, j’ai à nouveau un peu peur car pour permettre aux machines d’apprendre, on les entraîne en leur donnant de la nourriture sous forme de données, de liens entre ses données, d’options de réponses en fonction de ces liens et tourne tourne les itérations pour les rendre de plus en plus intelligentes.

Mais tout comme les “precog”, personne ne sait comment les machines apprennent 🙂

Article d’origine sur Medium.com