A propos de l’Indice ESG (Devoir de Vigilance)

Les données métriques au cœur de l’analyse de risque

Un indice composite

L’ESGI (Indice Environnemental, Social et de Gouvernance) ou Indice Devoir de Vigilance est une mesure unique qui englobe trois enjeux majeurs dans le domaine de la responsabilité sociale : l’environnement, les droits humains et la santé & la sécurité des personnes. Un score global est calculé au moyen d’une moyenne géométrique pondérée comme suit : environnement (30%), droits humains (50%) et santé & sécurité des personnes (20%).

Une couverture maximale est assurée à chaque sous-indice :
    • Environnement: 180 pays
    • Droits Humains: 189 pays
    • Santé & Sécurité des personnes: 184 pays

Un résultat global ESG est calculé pour tout pays bénéficiant d’un résultat dans chacun des trois sous-indices, soit pour 177 pays.

Indicateurs

Chaque sous-indice comprend plusieurs indicateurs:

Environnement

La mesure relative à l’environnement se compose du statut de ratification des conventions clés (à savoir le protocole de Kyoto et l’accord de Paris) ainsi que de l’indice de performance environnementale.

Droits humains

L’évaluation des risques liée aux droits humains est notamment mesurée en fonction du statut de ratification de 18 conventions clés, d’indicateurs de droits sociaux (niveau d’esclavagisme, de travail des enfants, d’éducation, d’accès au logement etc.), d’indicateurs de droits civils et politiques (liberté de la presse, droits des minorités, etc.) et d’indicateurs de droits collectifs (niveau de paix, droit à l’autodétermination des peuples etc.)

Santé & Sécurité des personnes

Le dernier sous-indice, santé et sécurité, est caractérisé par des indicateurs de santé (tels que l’espérance de vie, l’accès à l’eau potable) et des indicateurs de sécurité (sécurité au travail, protection sociale). Un ajustement pour l’inégalité spatiale (zones urbaines / zones rurales) est également appliqué.

Sources

L’Indice ESG s’appuie sur de nombreuses entités pour la collecte de données brutes, à savoir :

    • L’ONU
    • Le BIT
    • La Banque Mondiale
    • Le Forum Economique Mondial (FEM)
    • L’Organisation Mondiale de la Santé (OMS)
    • Freedom House
    • La Walk Free Foundation
    • Fund for Peace
    • Le Cato Institute
    • Gallup
    • Le Ministère des Affaires Etrangères des Etats-Unis
    • Reporters sans Frontières
    • Les Universités de Yale et Columbia
    • L’Institute for Economics and Peace
    • La Conférence Syndicale Internationale
    • Le Heidelberg Institute for International Conflict Research
recherche & Developpement

Sonia Thurnherr
Lead Data Scientist

Cadre général

La France a récemment adopté une loi pionnière sur la responsabilité sociale et environnementale des entreprises, relative au devoir de vigilance des sociétés mères et des entreprises donneuses d’ordre (n ° 2017-399). Les entités concernées sont tenues de cartographier et évaluer leurs risques en matière d’environnement, de droits humains, de santé et de sécurité des personnes. Plus d’un an de R&D en interne ont été nécessaires pour offrir une solution sur mesure et en rapport avec les nouvelles exigences légales.

L’Indice ESG (ESGI) est construit sur la base de référentiels internationaux tels que la Déclaration Universelle des Droits de l’Homme (DUDH), le Pacte mondial de l’ONU, les 8 conventions fondamentales de l’OIT et la Conférence des Nations Unies sur l’Environnement et le Développement (CNUED). Il constitue une mesure unique axée sur les comportements socialement responsables.

Vintage world map with magnifying glass

Méthodologie

L’Indice ESG repose sur 45 bases de données open source, produites exclusivement par des organisations bénéficiant d’une reconnaissance internationale.

La construction du ESGI suit une méthodologie stricte:

Un certain nombre de critères sont pris en compte lors du processus de sélection, détaillés dans la méthodologie technique téléchargeable.
Données manquantes
Les données manquantes sont traitées au cas par cas en fonction de la structure des jeux de données.
    • Dans le cas de séries de données chronologiques présentant des tendances visibles, nous procédons à une extrapolation linéaire à partir des cinq dernières années disponibles. Cette méthode permet d’estimer les paramètres sur la base de valeurs réelles.
    • La deuxième approche utilisée est celle du LOCF (« Last Observation Carried Forward ») Cette approche statistique courante dans le traitement des données de séries chronologiques consiste à imputer la dernière observation disponible. De la même manière que pour la première méthode, seules les cinq dernières années disponibles sont considérées dans l’imputation.
    • La dernière approche est celle de l’imputation multiple par PMM (« Predictive Mean Matching » ). Cette approche nous permet de préserver les distributions et garantit la plausibilité des valeurs imputées puisqu’elles reposent sur des observations réelles (Vink et al., 2014 [1]). L’imputation par PMM génère une valeur aléatoire d’un donneur, basée sur la proximité des valeurs prédites du donneur avec celles du receveur. Cela implique que les régressions ne sont pas utilisées pour générer les valeurs imputées mais plutôt pour déterminer le donneur (Schenker, N. & Taylor, J.M.G., 1996 [2]).
[1] Vink, G., Frank, L. E., Pannekoek, J., and van Buuren, S. (2014). Predictive mean matching imputation of semicontinuous variables. Statistica Neerlandica. 68(1). 61-90 [2] Schenker, N., & Taylor, J. M. G. (1996). Partially parametric techniques for multiple imputation. Computational Statistics & Data Analysis, 22(4), 425–446
Supression (« Case deletion »)
Pour certaines variables, aucune imputation par PMM n’est effectuée et seules les vraies valeurs sont prises en compte dans l’analyse. Ce choix est dû à la structure des données et au manque de corrélation avec d’autres variables. En cas de valeur manquante, l’algorithme redistribue proportionnellement le poids correspondant aux variables mesurant le même indicateur.
Standardisation
A l’exception des variables binaires, toutes les bases de données sont testées pour leur asymétrie éventuelle, transformées et recodées si nécessaire. La moyenne et l’écart type sont calculés et toutes les variables sont ensuite normalisées pour l’obtention du score agrégé. La méthode de normalisation privilégiée ici est celle des z-scores, appliquant une moyenne de 0 et un écart type de 1.
Agrégation
Le processus d’agrégation convertit toutes les données sur une échelle allant de 0 à 100, où 0 représente le risque le plus faible et 100 le risque le plus élevé. Le score global de chaque pays est ensuite calculé en fonction des pondérations précédemment présentées.
Mesure d’incertitude
Sur la base des n jeux de données obtenus suite au processus d’imputation multiple, l’erreur standard et un intervalle de confiance à 90% sont calculés pour chaque variable afin de refléter la variance autour des différents scores.