Baromètre qualité des sites de SSII

Par Élie Sloïm, le 15 mai 2012, dans .

Les SSII (Sociétés de Service en Ingénierie Informatique) occupent une place de choix dans le paysage de l’informatique française. À ce titre, elles sont de plus en plus souvent amenées à développer des sites Web. Un dicton populaire indique que les cordonniers sont les plus mal chaussés. Temesis, société spécialisée sur la qualité et l’accessibilité des sites Web a souhaité vérifier si ce dicton s’applique également pour les sites web des SSII.

Nous avons donc testé trois pages de 34 sites de SSII sur 112 critères qualité et accessibilité. Les résultats de notre première vague d’analyse (effectuée en avril 2012) montrent déjà de fortes disparités et, pour beaucoup d’entités, la possibilité d’une forte marge d’amélioration.

Classement des sites de SSII - podium

Le niveau de conformité varie entre 80% pour Steria et 53% pour Bull Services, bon dernier de cette première édition du classement. Les analyses seront refaites dans quelques semaines, nous verrons alors si ce classement évolue ou reste inchangé.

L’étude a été effectuée avec l’outil Opquast Reporting qui permet d’analyser la qualité des sites et de générer des statistiques complètes sur des parcs de sites. Pour la société Temesis, à l’origine de cette étude, l’enjeu est bien sûr de sensibiliser les professionnels à la qualité Web, mais aussi de mettre en évidence l’intérêt et les fonctionnalités de l’outil Opquast reporting. Dans les prochaines semaines, Temesis diffusera de nouveaux baromètres concernant d’autres catégories de sites. Nous pourrions notamment vérifier si les sites de SSII s’en sortent mieux ou pas que les sites des autres catégories.

Informations pratiques :

Articles liés

7 commentaire(s)

  1. Par Olivier Nourry, le 15 mai 2012 à 17 h 32 min :

    Idée intéressante, qui suscite pour moi une interrogation: la qualité d’un site se mesure-t-elle uniquement sur des critères perçus par l’utilisateur? Quand on dépouille un cahier des charges, on trouve en général plus d’exigences techniques (taux de disponibilité, redondance, sécurité, etc.) que d’exigences “utilisateurs”. On est bien d’accord que c’est dommage, mais je ne pense pas que l’on puisse réduire le travail fait sur un site par une SSII à sa seule dimension front-end.
    Cette réflexion mise à part, je ne pense pas que le développement front soit le métier naturel des SSII, mais plutôt celui des agences web, webdesigners, et équivalents, tandis que les SSII sont plus intéressées par le back-end, la partie “ingé” en définitive. Du coup elles ne sont pas vraiment les mieux placées pour réaliser un site vitrine, fut-ce le leur (je parie même que certaines le sous-traitent, sans étât d’ame). Pour avoir à une époque travaillé sur le site d’une de ces entreprises (qui n’est plus en ligne, ouf!!), je sais aussi que c’est un travail perçu surtout comme une charge qui consomme de la capacité de prod, on cherche donc à en faire le moins possible, et en tous cas, à ne pas en faire autant que pour les clients. C’est sûrement un mauvais calcul, mais c’est comme ça…
    Ce résultat ne me surprend donc pas vraiment, ni ne me choque. J’attends avec plus de curiosité un baromètre sur les sites de boites dont le web, coté front, est le véritable coeur de métier. Pour voir où en est la diffusion des bonnes pratiques chez ceux qui devraient les connaitre par coeur…

  2. Par Victor Brito, le 15 mai 2012 à 21 h 00 min :

    Olivier, tu as suggéré une excellente idée que celle d’évaluer la qualité des sites Web des agences dont c’est le métier. C’est là qu’on pourra réellement savoir si les cordonniers sont encore plus mal chaussés ou pas. 😉

    Là-dessus, la balle est dans le camp de Temesis.

  3. Par Claire Bizingre, le 15 mai 2012 à 23 h 30 min :

    ou encore analyser les sites développés par ces SSII.

  4. Par Olivier Nourry, le 16 mai 2012 à 11 h 35 min :

    @Claire,
    oui, ça parait plus pertinent a priori. Mais là encore, on n’aura qu’une vue biaisée de la capacité de la SSII à produire un site de qualité. C’est une alchimie complexe, qui commence par la pertinence de la demande initiale et finit par l’investissement dans la maintenance des contenus, en passant par la compétence et l’engagement de l’équipe (presta et client), la nature de la relation entre client et presta, du degré d’initiative autorisé au presta, bref, tout un ensemble de facteurs tous nécessaires, mais jamais suffisants en eux-mêmes.
    Prenons un exemple: si le site est carré à la livraison, mais que les contributeurs le sabotent en faisant n’importe quoi, parce que le client n’a pas voulu (ou pas pu) allonger les 2 jours de prise en main proposés au départ… Qui est responsable?
    Autre exemple: si l’appel d’offres a imposé un CMS qui gère les intertitres de façon catastrophique, et que le presta l’a subi… Qui est responsable? Le résultat sera que, d’un commun accord, cette fonctionnalité sera sacrifiée, car on ne saura plus équilibrer le bénéfice utilisateur et le coût d’adaptation.
    Au final, sur ce baromètre le presta récupérerait une sale note, alors que c’est le client qui devrait assumer les conséquences…
    Le Web, c’est le règne du sur-mesure, une activité plus proche de l’artisanat que de l’industrie, avec de multiples intervenants tous susceptibles de semer la pagaille et d’altérer la qualité finale. Isoler un acteur pour le rendre responsable de tout me parait inapproprié, car ignorant de la nature première d’un projet Web, et des conditions de sa génèse.

  5. Par Claire Bizingre, le 16 mai 2012 à 12 h 32 min :

    @Olivier
    Oui, tout à fait d’accord avec ces propos et les exemples mis en avant sont très bien choisis (également rencontrés personnellement sur le terrain).
    D’où l’intérêt d’analyser plusieurs sites développés par le même prestataire et de voir si les défauts sont présents systématiquement ou non pour se faire une meilleure idée.
    Dans ce cas, pour un prestataire, lancer les tests sur un échantillon de sites de référence et analyser les résultats obtenus.

  6. Par Elie, le 16 mai 2012 à 12 h 52 min :

    Bonjour à tous,
    Je pense que nous ferions une grave erreur en essayant de faire dire à un baromètre comme celui-ci des choses qu’il ne dit pas.

    Tout d’abord, nous nous sommes limités à des tests automatiques. La vision de la qualité est donc partielle.

    Ensuite, nous avons effectivement testé des sites de SSII. Ces résultats ne disent sans doute absolument rien sur la capacité de ces SSII à développer des bons sites. En revanche, cette étude nous dit beaucoup d’autres choses :

    – Il existe des différences notables entre les sites.

    – les sites de SSII peuvent eux-aussi être soumis à ce type d’évaluation, comme ceux de leurs clients, et si la qualité Web n’est pas encore dans la culture des SSII, il faut absolument qu’elle y rentre le plus rapidement possible.

    – Nous commençons par de l’automatique, mais il faudrait aller beaucoup plus loin.

    Pour le classement des agences Web, pourquoi pas, ce serait amusant.

  7. Par Olivier Nourry, le 16 mai 2012 à 12 h 58 min :

    @Claire
    oui, ça améliorerait la pertinence.
    En fait, il faudrait être capable d’isoler ce qui relève purement du savoir-faire du presta, en modulant cela avec le budget, la contrainte planning, et le taux de respect des exigences initiales telles qu’émises par le client.
    Et par là-dessus, introduire un facteur “équipe”, car pour une structure produisant plusieurs centaines de sites par an, un échantillon est surtout représentatif de ce que les équipes impliquées ont fait, pas forcément de la production dans son ensemble.
    En conclusion, un baromètre tel que celui-ci, pour intéressant qu’il soit, doit à tout prix être remis dans le contexte, et placé en perspective avec l’ensemble des constituants d’un projet Web, dont la partie visible par l’utilisateur final n’est jamais que la surface émergée.

Les commentaires sont fermés.