Un rapport fondé sur l'expérience des 16 premiers
organismes
Contexte
Il existe plus de 65 organismes, conseils et commissions au sein du
gouvernement fédéral. Conscient de la réalité particulière des petits
organismes, le SCT a établi un processus visant à faciliter la mise en oeuvre
de la modernisation de la fonction de contrôleur : une structure de gouvernance
à deux niveaux a été créée (le Comité directeur des chefs d'organismes
sur la modernisation et le Conseil de modernisation des petits organismes), des
fonds ont été réservés au profit des petits organismes et des documents d'orientation
ciblant la collectivité ont été créés. Un guide, destiné aux consultants
responsables de l'évaluation de la capacité dans les petits organismes,
énonce les principes pour l'application de l'outil de diagnostic standard.
Seize petits organismes ont décidé d'amorcer la modernisation de la
fonction de contrôleur en 2001-2002. Ils ont reçu du financement aux fins de l'évaluation
de la capacité et ont maintenant terminé l'exercice. Parmi les 16
organismes, 11 sont des entités fédérales judiciaires ou quasi-judiciaires,
et les autres sont des organismes administratifs. En moyenne, les organismes
sont dotés de 90 ETP et d'un budget de 10,5 millions de dollars, l'échantillon
comportait d'importantes variations. Par exemple, certains organismes sont
dotés de 10 ETP et d'un budget de 1,5 millions de dollars, alors que d'autres
fonctionnent avec 270 ETP et un budget de fonctionnement de 24 millions de
dollars.
Le SCT comptait apprendre de l'expérience de ces 16 organismes initiaux au
plan de l'efficacité et de l'efficience du processus d'évaluation de la
capacité pour les petits organismes, notamment en ce qui concerne l'applicabilité
de l'outil d'évaluation général à l'environnement particulier des
petits organismes. Par conséquent, le présent rapport sommaire présente les
résultats globaux émanant de l'analyse des données d'entrevues. Mme Lise
D. Labelle, CMC, a mené les entrevues auprès des gestionnaires de projet des
16 organismes, entre le 26 mars et le 7 mai 2002. Le coordonnateur de projet qui
agissait à titre de bureau de projet pour le regroupement de quatre petits
organismes a également été interrogé.
Au sujet de l'efficience du processus d'évaluation de la capacité dans
les petits organismes
En général, les évaluations de la capacité ont été complétées dans
des délais raisonnables, c'est-à-dire, en moyenne, pendant une période de
quatre mois à compter de la réunion initiale avec les participants à l'évaluation
jusqu'au rapport final. Par ailleurs, la période intensive d'entrevues, de
séances de groupes de réflexion et de groupes de discussion pour valider les
résultats des évaluations de capacité ne s'est échelonnée que sur un mois
à un mois et demi, permettant ainsi de maintenir la lancée essentielle à ce
type d'initiatives de changement. La majorité des organismes ont organisé
des séances d'information pour lancer le projet, et environ la moitié ont
également prévu de la formation sur la modernisation de la fonction de
contrôleur et l'évaluation de la capacité afin de sensibiliser les
participants.
L'information au sujet de la capacité des petits organismes a été
recueillie soit par l'entremise d'entrevues (44 % des organismes), de
groupes de réflexion (25 %, surtout les plus petits organismes) ou d'une
combinaison des deux (31%). Les entrevues ont été menées auprès des cadres
supérieurs et les groupes de réflexion étaient destinés aux gestionnaires
opérationnels et spécialistes fonctionnels. Le choix des instruments était
tributaire de la culture des organismes, tout particulièrement de l'ouverture
du style de gestion. Il ne semble pas que ce choix ait influer sur l'efficacité
de l'évaluation de la capacité. Des groupes de réflexion ont validé les
résultats de l'évaluation de la capacité. La plupart des organismes (87 %)
ont obtenu un consensus suite à des discussions ou un vote à main levée, mais
deux organismes (13 %) ont suivi les discussions d'un vote électronique. Ils
ont trouvé l'expérience stimulante et agréable. En moyenne, les organismes
ont affecté 25 % de leur force aux évaluations de la capacité, y compris l'équipe
de la haute direction et des représentants des gestionnaires opérationnels et
des spécialistes fonctionnels.
Au sujet de l'efficacité du processus d'évaluation de la capacité dans
les petits organismes
Les 16 petits organismes ont reconnu avoir retiré de la valeur de l'évaluation
de la capacité. La plupart des organismes estimaient que l'exercice les avait
confrontés avec la réalité. Bien que les surprises furent peu nombreuses dans
le cadre de l'évaluation, la majorité des organismes croyaient que l'exercice
leur avait apporté une objectivité et une rigueur les incitant à agir par
rapport à certaines vulnérabilités souvent connues. Des cadres fonctionnels
ont affirmé que l'évaluation leur avait donné les arguments recherchés
depuis longtemps pour convaincre la haute direction de s'attaquer à des
questions importantes. Le processus a également permis aux gestionnaires et
employés qui y ont participé de connaître d'autres secteurs de leur
organisation et, dépassant les cloisonnements, de percevoir l'organisme comme
un ensemble et son horizon à long terme, au lieu de se concentrer uniquement
sur les exigences opérationnelles à court terme.
Au sujet de l'application de l'outil de diagnostic général dans les
petits organismes
Comme la modernisation de la fonction de contrôleur est une initiative
pangouvernementale, le SCT a décidé d'imposer l'utilisation d'un outil
de diagnostic unique et uniforme (outil de l'OCPN) à l'ensemble des
ministères et organismes fédéraux, afin d'assurer la cohérence de la
méthode et de permettre de comparer les résultats des évaluations de la
capacité. Cependant, les consultants ont été appelés à faire preuve de
jugement dans l'application de cet outil dans le cas des petits organismes,
compte tenu que la fonction de contrôleur y est parfois assumée de manière
plus informelle.
Les 16 organismes ont rapporté que l'outil avait été pleinement
appliqué et que ses 33 critères avaient été évalués de manière
ponctuelle. La plupart des répondants (81 %) étaient généralement satisfaits
de l'outil. Selon eux, l'intégralité de l'outil les a forcés à
regarder au-delà des frontières naturelles et à explorer des moyens
différents et nouveaux de gérer. Bien qu'ils aient été intimidés par l'outil
au départ, l'aide fournie par les consultants leur a permis de mieux en
apprécier la profondeur et de procéder à une autoévaluation de leurs
fonctions de gestion qu'ils auraient été incapables de faire de leur propre
chef. Les consultants ont élaboré des questionnaires d'entrevue adaptés à
chacun des organismes, tout en maintenant l'intégrité de l'outil. Ils ont
été en mesure d'expliquer chaque critère de l'évaluation par des
exemples pertinents.
Toutefois, même les répondants satisfaits ont fait remarquer que, pour
plusieurs critères, les définitions des échelles (un à cinq) n'étaient
pas adaptées aux petits organismes. En effet, elles tenaient pour acquis que
seuls les structures, systèmes et processus formels et complexes pouvaient
donner lieu à des pratiques de gestion efficaces et modernes. Néanmoins, un
« 1 » sur l'échelle d'évaluation pour un critère donné peut
être un reflet positif des pratiques de gestion d'un petit organisme où il
ne serait pas souhaitable ou rentable de passer à un « 2 » ou
au-delà. Bien que les rapports des évaluations de la capacité soulignent qu'aucune
amélioration n'est prévue par rapport à un tel critère, les petits
organismes étaient tous très préoccupés de l'interprétation que le public
et les politiciens feraient de ces résultats. De plus, si le SCT a l'intention
de résumer les résultats à l'échelle du gouvernement, il en ressortira que
les petits organismes sont mal gérés, ceci à cause de la rigidité de l'échelle.
Les 19 % des répondants qui n'étaient pas satisfaits de l'outil de l'OCPN
estimaient que celui-ci était trop laborieux et qu'il n'était ni
convivial, ni adapté aux petits organismes du fait qu'il récompensait la
bureaucratie. Fait intéressant à mentionner, les trois répondants qui
représentaient les organismes insatisfaits à l'égard de l'outil
travaillaient tous avec le même cabinet de conseils. Ce dernier est d'ailleurs
le seul parmi les quatre cabinets à avoir reçu une mauvaise note des petits
organismes pour son travail lié à l'évaluation de la capacité. Par
conséquent, même si l'outil pourrait probablement être amélioré, la
manière dont il a été présenté et géré par les consultants lors de l'évaluation
de la capacité a clairement constitué un facteur déterminant de la perception
des petits organismes à l'égard de l'outil.
La plupart des organismes ont fait remarquer que l'échelle aurait dû
prévoir une catégorie « sans objet » dans le cas de critères
portant notamment sur les « partenariats » ou la « satisfaction des
clients », compte tenu que ces critères ne s'appliquent pas à certains
organismes, comme les tribunaux judiciaires et administratifs. D'autre part,
il est possible que les résultats des évaluations de la capacité ne soient
pas uniformes d'un organisme à un organisme du fait que les consultants n'appliquaient
pas la même méthode pour déterminer le pointage, lorsque l'outil n'était
pas adapté au type d'activités de l'organisme ou que l'échelle ne
tenait pas compte de la valeur des processus et systèmes informels. Les petits
organismes semblaient être d'accord avec la proposition que, tout en
respectant le principe de l'uniformité, l'outil d'évaluation -
critères, questions et échelle - demeurent plus ou moins inchangés, mais
que les objectifs soient définis en fonction des organismes de taille
importante, moyenne ou petite, afin de tenir compte des différences quant au
niveau de formalité nécessaire à la fonction de contrôleur.
|