Vie privée: une proposition de loi pour obliger l’administration à traiter nos données en toute transparence
Le citoyen doit avoir une vue claire sur les algorithmes qui fondent les décisions des autorités. Tel est le sens d’une proposition de loi déposée la députée Vanessa Matz (CDH).


Qu’y a-t-il sous le capot des algorithmes ? Quelles données moulinent-ils ? Selon quelles règles et à quelles fins ? Les Etats, Commission européenne en tête, ont coutume d’adresser ce type de questions à Facebook, Google ou Amazon, eux qui ont fait de nos traces de vie l’or noir de leur modèle économique. On oublie un peu vite que les autorités publiques elles-mêmes manipulent une masse gigantesque de données à caractère personnel. La main sur le cœur, elles affirment le faire à des fins de simplification et d’efficacité administrative. Pour autant, appliquent-elles à elles-mêmes ce devoir de transparence exigé aux Gafas ? L’actualité récente a montré qu’en la matière, l’opacité y régnait parfois en maître. De quoi, dans la foulée, fissurer ce contrat de confiance tacite entre les citoyens et l’Etat.

Découvrez la suite, 1€ pour 1 mois (sans engagement)
Avec cette offre, profitez de :
-
L’accès illimité à tous les articles, dossiers et reportages de la rédaction -
Le journal en version numérique -
Un confort de lecture avec publicité limitée
Pour poster un commentaire, merci de vous abonner.
S'abonnerQuelques règles de bonne conduite avant de réagir2 Commentaires
Bonne intention, et bon début... Cependant, si les algorithmes sont en principe lisibles et intelligibles, et peuvent donc être analysés (au besoin par des experts indépendants un peu outillés), ce n'est pas du tout le cas des résultats d'un moteur dit d' 'intelligence artificielle'. Contrairement à ce que voudrait faire croire son nom marketing, un tel moteur ne comporte aucune intelligence ! Il fonctionne par apprentissage aveugle sur un nombre (très) élevé d'exemples, par simple rétro-propagation d'erreurs, jusqu'à trouver les corrélations qui satisfont ses dresseurs... Tout biais dans les données d'apprentissage, ou chez les dresseurs, va immanquablement se retrouver dans ses résultats... mais ne sont pas 'publiables' tels quels. Et un moteur d'IA est tout à fait incapable de 'justifier' ces corrélations, qui ne sont nulle part inscrites dans son code ! La publication des 'algorithmes' ne résoudra donc qu'une toute petite fraction du problème, tout en aggravant l'obsession de collectes et de croisement d'informations... Tant qu'à légiférer, pourquoi ne pas consulter une des meilleures spécialistes sur ces questions, belge et prof à l'UNamur, A. Rouvroy ? Méfions-nous des solutions naïves !
Bonne proposition, le cdh à plus de créativité quand il est dans l'opposition visiblement Cela rétablirait un petit peu l'équilibre entre le citoyen et l'administration fiscale, quand on voit sur quelle base ils peuvent consulter le point central bancaire (je n'ai rien a cacher mais cela doit rester l'exception validée par un juge et pas sur une tocade d'un chef de service).... De même leur projet de loi d'utiliser le cloud pour les contrôles fiscaux c'est non aussi..(et étant salarié, je ne sais rien cacher donc a priori ça ne me touche pas mais cela crée un précédent)