Dans cette seconde partie de l’interview que nous a accordée Thierry Bertrand, il nous livre son point de vue sur toutes une série de points. A commencer par la problématique des compétences. A la fois celles qui sont ou seront dévolues au DTIC en raison des nouvelles réformes institutionnelles, et celles qui concernent directement ses équipes. Les effectifs sont-ils au complet, manque-t-il de bras, de profils pour faire à la masse de travail?
Régional-IT: Au vu des transferts de compétences vers les Régions, avez-vous déjà une idée des projets à engager, des ressources à demander ou à mettre en oeuvre?
Thierry Bertrand: Je suis l’évolution des négociations politiques. Tout se situe encore au niveau de la discussion pour la mise en oeuvre des accords, à tous les niveaux d’instances. On est encore au stade des répartitions de masse, des grands processus. On n’en est pas encore au niveau qui me concerne plus directement: quand, avec quels moyens, que faut-il faire dans le détail… Mais ce sera un énorme défi. Lors des phases successives de réforme institutionnelle, cela ne s’est pas trop mal passé. Mais c’est vrai qu’à chaque fois, il faut changer, s’adapter, revoir des systèmes, intégrer des contraintes techniques, humaines, recommencer certains investissements technologiques… Cela nous mobilisera- nous et des personnes qui, je l’espère, pourront rejoindre notre équipe- de manière importante. Compte tenu de la place que prend l’informatique- et qui ne fera que croître puisque le but est de rechercher un meilleur rendement-, un gros travail est en perspective.
Des projets prendront-ils forme à court terme, dès cette année?
On va sans doute avoir des dates sur le transfert des matières fiscales. Une fois les décisions prises, il faudra aller vite pour les mettre en oeuvre. Puisque qui dit matières fiscales, dit recettes et donc moyens de fonctionnement. Un premier exemple est déjà la taxe de mise en circulation qui doit basculer en janvier 2013. Il faudra progresser pour respecter cette échéance.
Comment s’organise, dans ce cas précis, la transition informatique. Y a-t-il reprise de l’existant, nouveau cahier de charges?
“On devrait rapidement conclure que cela n’a pas de sens d’insourcer des choses non récurrentes, qu’on n’utilise pas souvent, qui réclament des niveaux d’expertise pointue et rare.”
Le marché a déjà été lancé et a été attribué pour le redéveloppement d’un nouveau système car le système fédéral était constitué d’éléments assez hybrides, représentatifs de couches historiques et d’adaptations successives (technologies mainframe, PC, de type tableur Excel…). Le projet se base pour partie sur une architecture existante (pour la perception de la radio-redevance) et, pour partie, un volet à développer. Avec une nécessaire étape de reprise des données. L’architecture a été définie. Les marchés ont été adjugés à Atos (pour la partie construite au départ d’un existant) et CSC (pour ses connaissances des environnements fiscaux), dans le cadre de contrats-cadre passés lors du phasing out du GIEI. La philosophie de l’architecture fonctionnelle mise en oeuvre est d’éviter le silotage, d’éviter un système de taxes qui s’appuierait sur des référentiels distincts. Tous les composants vont être mutualisés pour toutes les taxes, en tout cas pour les parties communes à toutes les taxes, à savoir les système d’enrôlement, de perception, de recouvrement, le référentiel de données. La partie distincte de ces systèmes, variable selon les taxes, sera celle qui fait le calcul des taxes en fonction de leurs spécificités propres.
L’architecture technique, elle, sera largement basée sur des solutions open source, pour des questions de prix, et parce que l’open source, dans le registre technique, est assez fiable. On peut s’appuyer sur une communauté et de bons outils et cela nous libère d’une dépendance trop forte vis-à-vis de certains éditeurs.
Les effectifs
Quels sont vos besoins en effectifs pour 2012?
Nous sommes actuellement 55 personnes, soit à peu près à 90% des effectifs-cible. Notre ministre [Rudy Demotte] et celui de la Fonction publique [Jean-Marc Nollet] nous ont soutenu pour que nous puissions nous approcher au plus près la cible. Mais on a été frappé de plein fouet par les tensions sur le marché de l’emploi pour des compétences de haut niveau. Or, le modèle de sourcing que nous avons choisi vise à internaliser les activités de pilotage, de contrôle, de gestion de la sécurité, la gestion de projet… qui sont celles qui réclament le niveau de qualification le plus élevé. Ces personnes sont rares. Surtout si on y ajoute un autre élément. A savoir, l’annulation par le Conseil d’Etat des échelles barémiques. On se situe donc assez bien en-dessous du marché en termes d’attractivité financière de ces emplois. Nous avons été assez actifs en termes de recrutement, ce qui nous a permis d’atteindre ce seuil des 90%, mais on a eu aussi des départs.
Avez-vous pu trouver les profils adéquats ou devez-vous en passer par de la formation?
Soit on se limite à des échelles barémiques de la fonction publique et on ne peut espérer attirer que du personnel frais émoulu des études. Soit on nous consent, compte tenu des priorités, spécificités et urgences, de recourir à des échelles barémiques normalement réservées à des emplois de promotion (autrement dit des personnes qui ont gravi quelques échelons de carrière). On peut alors s’appuyer sur des personnes de bon niveau, sans besoin de formation, qui sont opérationnelles de suite. Mais, comme par hasard, on n’a pu attirer de bons profils que là où on a accepté d’avoir des niveaux de salaires comparables [avec le marché].
La situation risque de perdurer en 2012?
Le défi est simple. Ou bien on a les moyens de s’offrir une courbe d’apprentissage que j’estime à 5 ans , pour être vraiment opérationnel. En sachant dès lors qu’une partie du personnel n’est pas productif à 100% et génère une charge de travail pour les autres. On assume alors cette surcharge, on définit un pool d’effectifs qui en tienne compte et on définit des objectifs qui intègrent cette montée en charge longue.
Ou bien on ne peut pas intégrer ces personnes à courbe d’apprentissage longue, pour des raisons de contraintes, de conjoncture. On demeure alors à 50 au lieu de 70.
Le calcul est simple. Il s’agit de comparer trois éléments:
– ce que cela coûte de n’atteindre nos objectifs que dans 5 ans
– ce que coûte un consultant externe, si on veut en atteindre les objectifs dès maintenant
– ce que coûterait de payer un peu mieux du personnel efficace immédiatement.
On devrait rapidement conclure que cela n’a pas de sens d’insourcer des choses non récurrentes, qu’on n’utilise pas souvent, qui réclament des niveaux d’expertise pointue et rare. L’outsouring permet d’adresser ce genre de besoins. Par contre, des choses correspondant à un problème récurent, à une technologie stable, mise en oeuvre à plusieurs endroits, sous-entendant une certaine pérennité, peuvent être internalisées. Si tout le monde raisonne de la sorte, la conclusion est de dire qu’il faut peut-être payer un peu mieux quelques personnes, sans pour autant exagérer- en nombre ou en barème. Quand je regard autour de moi, il y a des solutions. peut-être pas encore activées. mais mes interlocuteurs comprennent déjà qu’il faut avancer.
Eprouvez-vous le besoin d’avancer très vite?
Si on reste avec les effectifs actuels et si l’on doit composer avec les objectifs fixés, d’ailleurs nécessaires pour garantir un fonctionnement correct, on maintient une surcharge importante. Mes collègues ne l’accepteront plus longtemps. Ou bien il faudra en arriver à réduire les objectifs. Si quelqu’un tombe malade, je n’ai pas de réserve. On fonctionne en mettant les autres en surcharge. Et cette situation ne pourra plus durer très longtemps.
Une aide, en termes de ressources humaines, pourrait-elle venir de l’ETNIC (l’homologue du DTIC pur la Communauté française)?
“Une fois les décisions prises en matière de transfert des matières fiscales, il faudra aller vite pour les mettre en oeuvre. Car qui dit matières fiscales, dit recettes et donc moyens de fonctionnement…”
Un certain nombre de synergies ont été dégagées: travail de réflexion et d’analyse en commun, collaboration pour la négociation collégiale des contrats avec le partenaire historique (GIEI) pour la partie finances et gestion de personnel… Cela nous a permis de synchroniser nos positions et d’avoir du poids dans la négociation. Nous avons également échangé des informations pour la gestion des marchés publics, des compétences pour gérer le phasing out du GIEI dans la mesure où l’ETNIC maîtrisait mieux les principes de mise en concurrence, y étant confrontés depuis plusieurs années déjà. Des pistes de synergie sont également à l’étude au niveau des infrastructures (centres de sauvegarde, de DRP…). Nous opérons avec des centrales d’achats mutuelles pour les marchés-cadres. La Région wallonne est la centrale pour le réseau tandis que l’ETNIC opère comme centrale pour l’achat de PC.
Au-delà, on peut sans doute encore progresser dans ces collaborations. Mais cela reste un investissement que de s’expliquer, de faire des choix de convergence. Il faut avoir les ressources pour le faire. Et j’imagine mal l’ETNIC ayant du personnel non occupé et le mettant à disposition du DTIC.
Banque Carrefour d’échange de données authentiques
Où en est, d’un point de vue informatique, la mise en oeuvre d’une “Banque Carrefour” régionale?
Le projet de “Banque Carrefour” est passé en gouvernement en décembre 2011. Nous avons eu quelques réunions de travail internes. Nous aurons, sous l’égide du Cabinet Demotte, des réunions de travail avec nos collègues de la Communauté pour déterminer un plan d’actions. Le gouvernement a posé les bases de fonctionnement de cette Banque Carrefour: Région et Communauté ont été chargées de s’entendre pour la définition d’un modèle de collaboration sur laquelle s’appuierait la Banque Carrefour. Les aspects de promotion, de vie privée, d’autorisations, de labellisation, de sémantique, de définition de données seront pris en charge dans un pôle administratif. Le pôle technique devrait consister en une cellule d’animation et de coordination réunissant les deux acteurs techniques (l’ETNIC et le DTIC). Le modèle de collaboration doit encore être défini.
Pour ce qui est de la mise en oeuvre, la volonté est de mettre en place quelque chose de dimensionnable (scalable). Il faut donc prévoir une infrastructure et des solutions qui soient aisément redimensionnables pour tenir compte d’une croissance de charge. Sur base des gisements de données identifiés comme étant disponibles tout de suite et proches d’une publication, les deux pôles devront donc faire une estimation raisonnable du taux de croissance afin de justifier les investissements correspondants à prévoir en infrastructure. Cela ne servirait à rien de dimensionner une infrastructure pouvant supporter des millions des flux si leur mise en oeuvre doit durer deux ans. La difficulté se situera sans doute dans la définition d’une infrastructure minimale pouvant assumer les flux de gisements de données identifiées et dans la justification d’un investissement mesuré par rapport au retour immédiat à escompter de la mise en oeuvre des flux.
Open Data
Quel regard jetez-vous sur la problématique des ‘open data’, autrement dit la mise à disposition, des entreprises ou des particuliers, de données qui sont actuellement la “propriété” des pouvoirs publics?
La réflexion, en la matière, est encore préliminaire. Compte tenu des enjeux, mes priorités sont davantage tournées vers la collecte et l’exploitation des données, plutôt que vers leur publication à l’extérieur. D’autant que cette publication suppose une réflexion sur la qualité de ces données et la disponibilité qu’on peut leur donner. Si je regarde ce qui se fait par exemple en France ou dans d’autres pays, les services publics y vont avec une prudence énorme et on retrouve des données- cartographiques, bases de données de type Ravel, etc- que nous publions déjà, qui sont des produits des activités des secteur publics, qui sont dans le droit fil de leur mission de service public. On le fait donc déjà, mais ce n’est peut-être pas bien regroupé.
Je me tiens au service de celui qui voudrait publier ses données. Mais je ne me sens pas promoteur ou porteur de cette démarche, à la recherche de données dont les utilisateurs auraient l’usage, qu’ils ne penseraient pas à publier mais que je les inciterais à faire. La démarche de collecte, de définition de conditions à remplir, de sensibilisation relève surtout du Secrétariat général, qui a un rôle de coordination transversal. Ce n’est pas le rôle d’un département informatique. J’ajoute encore que, pour une partie, l’open data et la Banque Carrefour vont se croiser puisque la vocation de la Banque Carrefour est d’échanger des flux de données. et ce pourrait être entre et avec des acteurs privés.
En termes de sécurité et d’organisation de ces données, quels moyens devront-ils être mis en oeuvre?
Il faut sans doute s’attendre à une surcharge et à de nouveaux moyens à mettre en oeuvre. L’effort principal se portera certainement sur la qualité des données. Quand les données ne sont pas publiées, elles peuvent être silotées, on peut passer des conventions verbales ou non verbales fixant les degrés de qualité, de fiabilité. Dès qu’on publie, on assume une responsabilité sur la qualité. Le travail n’est pas le même, il n’est pas uniquement technique. Le travail de qualification est une étape du projet de Banque Carrefour: où la donnée est-elle la plus proche du service qui la gère et donc authentique? comment la qualifier? la mesurer en termes de qualité? la labelliser? la certifier? Tous ces mécanismes doivent exister quand on publie des données vers l’extérieur. C’est donc une problématique davantage liée à l’organisationnel… et à des moyens. Les moyens à consacrer relèvent plutôt d’un choix politique. De gros investissements devront être faits à commencer pour le travail de réflexion en amont.
Master Plan TIC
En juin 2011, le ministre Marcourt dévoilait le Master Plan TIC et demandait à l’Administration, notamment, de livrer un avis sur le contenu de ce plan. Quels ont été vos commentaires, comment percevez-vous ce Plan?
Globalement, du point de vue des informaticiens, c’est une manière de mettre en évidence l’importance de disposer d’une IT efficace. Ce sont de bonnes propositions. Il y a peut-être quelques considérations un peu excessives, dont certaines ont d’ailleurs été corrigées.
Je pense par exemple que la couverture à 100% de l’ensemble des bâtiments de la Région en Wi-Fi n’a pas de sens. Certains pays comme l’Allemagne commencent à mettre en exergue la problématique sanitaire de l’utilisation de micro-ondes sur le lieu de travail. En ce qui nous concerne, on souhaiterait arriver à un résultat qui est de fournir de la connectivité là où c’est utile plutôt que d’avoir de la connectivité à tout crin, même dans des endroits où on n’en a pas besoin. Nous ne désirons pas nous inscrire dans un schéma de technologie pour la technologie.
Autre point figurant dans le Master Plan TIC: l’usage des réseaux sociaux et l’intérêt à faire en sorte que les fonctionnaires soient ouverts aux réseaux sociaux. La Région doit certes se positionner comme entreprise sur les réseaux sociaux puisque c’est un moyen de promotion, de capter des compétences en attirant des jeunes vers le secteur public. Mais cela concerne les activités de communication ou de recrutement, pas l’activité quotidienne des travailleurs de l’entreprise. Il y a donc là confusion.
Par ailleurs, les moyens d’action et le planning n’ont pas été clairement identifiés. Nous y voyons donc un recueil de choses dont la plupart doivent être mises en oeuvre mais sans savoir très bien quel est l’ordre de priorité de ces actions. Elles s’inscrivent toutefois, pour la plupart, dans nos préoccupations: WiFi, développement du travail mobile… Cela nous porte et nous facilite le travail pour inscrire des projets dans une stratégie. Pour dégager des moyens d’actions, c’est indiscutablement un plan qui est mobilisateur.
Découvrez-nous sur Facebook
Suivez-nous sur Twitter
Retrouvez-nous sur LinkedIn
Régional-IT est affilié au portail d’infos Tribu Médias.