Baisser la dépense publique en basant les choix sur l’analyse des données publiques, tel est le mantra répété jeudi 24 avril par Didier Migaud, le premier président de la Cour des comptes et Marylise Lebranchu, la ministre de la Décentralisation, de la Réforme de l’Etat et de la Fonction Publique, lors de la Conférence de Paris sur l’open data et l’open governement organisée par Etalab, la mission en charge de l’ouverture des données publiques.Cette première journée était d’ailleurs organisée à la Cour des comptes, qui a parmi ses magistrats le “open data friendly” Mohammed Adnène Trojette, auteur d’un rapport sur les redevances sur les données publiques.
Alors qu’il faut trouver 50 milliards d’économie, les donnée publiques permettraient de raboter avec équité, de façon rationnelle. Telle est, en substance, l’idée. Avec l’amélioration de la démocratie et le développement économique, c’est le troisième axe d’intérêt de l’open data a expliqué la ministre.
L’annonce, officialisée aujourd’hui, que la France rejoint l’open governement partnership(OGP), s’inscrit dans cette logique, entre autres : « L’OGP est un mouvement mondial, regroupant aujourd’hui 63 pays, qui s’attache à promouvoir la transparence de l’action publique et la gouvernance ouverte, à renforcer l’intégrité publique et combattre la corruption. Ce partenariat promeut l’usage des nouvelles technologies – en particulier d’Internet – pour renforcer la gouvernance des données publiques et promouvoir l’innovation notamment dans l’élaboration des politiques publiques », a défendu Marylise Lebranchu.
« Etalab est au sein du SGMAP, ce n’est pas un hasard », a-t-elle encore rappelé. Elle juge que « l’évaluation des politiques publiques n’est pas encore assez accessible aux citoyens », et que l’ouverture doit y pallier.
Ces propos prolongent ceux tenus lors de son audition au Sénat devant la mission commune d’information sur l’accès aux documents administratifs et aux données publiques, où elle avait recommandé de mettre en place une nouvelle fonction de “Chief data officier” au sein des administrations.
Une telle évolution du rôle de la donnée justifierait de s’appuyer sur un Etalab renforcé, alors qu’il dispose encore de moyens bien modestes : l’enjeu à moyen terme est de réformer en profondeur la culture des administrations mais aussi les SIG, souvent obsoletes.
Interrogée par La Gazette, la ministre n’a pas confirmé l’élargissement du périmètre d’action d’Etalab évoqué par ZDNet qui rapporte que « Marylise Lebranchu a laissé entendre que cette mission pourrait devenir prochainement un « Secrétariat général des données », aux côtés notamment du Secrétariat général pour la modernisation de l’action publique (SGMAP). L’institution dirigée par Henri Verdier prendrait ainsi du galon et deviendrait une sorte de « chief data officer », tel que l’on en trouve au Royaume-Uni par exemple. »
L’exemple britannique en renfort - Marylise Lebranchu et Didier Migaud avaient à leurs côtés un atout de poids pour appuyer ce credo : leur homologue anglais Francis Maude, secrétaire d’Etat au Secrétariat du Conseil des Ministres du Royaume-Uni depuis 2010. Il affirmait ainsi en 2012 que « (leur) engagement à la transparence n’est pas qu’une question de gouvernement ouvert et qui rend des comptes, aussi important cet aspect soit-il. C’est aussi une façon de s’assurer que nous menons le gouvernement le plus efficace possible et que nous obtenons les taxes au plus juste prix pour les contribuables. » Et d’illustrer par un exemple : « Introduire une plus grande transparence dans le domaine des biens de l’Etat fait partie de ce qui nous a permis d’économiser 90 millions de livres l’année dernière. » Il indiquait encore que « jusqu’à présent, nos économies totales s’élèvent à 3,75 milliards de livres ».
L’idée a été développée dans le cadre de la seconde table ronde de cette première journée, « Stratégies de données : Quand la donnée sert l’efficacité de l’organisation ». Elle mêlait des acteurs du privé, où les données « s’imposent comme un élément central des modèles opérationnels et économiques », et du public, invités à s’inspirer de ces « data-driven stratégies » s’appuyant sur ces nouvelles pratiques que sont les « Datasciences, l’analyse prédictive, le pilotage temps réel, les modèles d’allocation optimale des ressources ».
Mais ces principes soulèvent plusieurs enjeux : comment appliquer au service public des méthodes utilisées dans un secteur qui par définition vise d’abord à faire des bénéfices ? Quels savoir-faire ? Quelles limites à l’utilisation des données ? Comment ne pas tomber dans un biais bien connu des statisticiens, l’illusion d’objectivité des données, alors que ce sont des productions plus ou moins subjectives ? Comment bien utiliser la donnée ?
Si l’utilisation des données pour guider l’action publique n’est pas nouvelle, – c’est un des buts de l’Insee depuis 1946, par exemple, ou de la Cour des comptes depuis 1807 -, il s’agirait de systématiser cette approche. Les intervenants n’ont pas vraiment répondu à la question, mais plutôt évoqué des façons de faire, des retours d’expérience, inspirants ou pas.
« Quel problème pouvons-nous résoudre ? » - « Ne pas essayer de bien allouer ses ressources, en utilisant les données et les technologies, c’est être négligent », a ainsi déclaré Michael Flowers, de la Faculté des Sciences de la Ville à la New York University. L’ancien premier « directeur des analytiques » de la ville de New York est réputé pour avoir recouru au big data. Pour lui, cette approche « a le même potentiel que le web, la question maintenant est : quel problème pouvons-nous résoudre ? ». L’analyse des données fournit des indicateurs potentiels. « Ne théorisez pas sans fin, a-t-il encore conseillé, concentrez-vous sur la résolution des problèmes de la vraie vie l’un après l’autre. »
Gavin Starks, président de l’Open Data Institute, un organisme qui incube entre autres des start up, a invité à « ouvrir un espace démocratisé pour l’innovation », à une époque où le traitement massif des données est à porté de tout le monde : c’est aussi trouver des solutions à l’extérieur de l’administration.
Geoffroy Zbinden, vice-président Big Data & Business Intelligence d’Orange a évoqué la façon dont l’entreprise utilise la donnée pour influer sur la stratégie, en fonction du comportement du client. Et donné un exemple concret d’utilisation de « méthode de modélisation du comportement utilisé dans le privé » appliqué au public avec ce que fait la police de Santa Cruz pour mieux affecter ses effectifs en fonction d’une analyse prédictive de la délinquance.
Les promesses tant louées du big data ont toutefois été nuancées. Nicolas de Cordes, d’Orange a présenté avant la table ronde le projet D4D, pour « Data for Development », un projet big data sur des données anonymisées de téléphonie menée en Côte d’Ivoire, qui a abouti à 260 projets sur le transport, la santé, l’urbanisation… Une initiative couverte de prix mais « nous en sommes à la théorie, comment passer à l’mplémentation, tout est à faire ». Au passage, il ne s’agit pas d’open data mais d’« open innovation ».
Stéfan Gallissié, Chief Data Officer chez Ogilvy, a aussi expliqué « qu’on cherche encore les business models autour du big data. On cherche par exemple les cas qui amène un gain de productivité. »
Entre utilité réelle et engouement d’un temps, les retours d’expérience concrets permettront de juger sur le long terme de l’intérêt de la démarche.
Source : www.lagazettedescommunes.com/231866/lopen-data-atout-maitre-dans-la-course-aux-economies/