TourMaG.com, le média spécialiste du tourisme francophone
TourMaG.com, 1e TourMaG.com, 1e

logo TourMaG  




Prévisions économiques : le risque de faillite des entreprises reste très mal mesuré

L’intelligence artificielle a permis faire progresser la performance des modèles


Actuellement, les banques utilisent des techniques de scoring pour déterminer la santé des entreprises. Le principe est simple : il s’agit de qualifier une entreprise au travers de ses états financiers et de déterminer une limite de risque au travers d’un indicateur synthétique portant sur le secteur dans son ensemble. On compare le résultat de l’entreprise avec cette limite pour savoir si à court terme l’entreprise va faire ou non faillite.


Rédigé par Eric Séverin, Professeur des Universités Finance - Comptabilité Lille le Lundi 9 Novembre 2020

une meilleure capacité à prédire l’avenir, une meilleure allocation des fonds/ Crédit Flikr.com
une meilleure capacité à prédire l’avenir, une meilleure allocation des fonds/ Crédit Flikr.com

Cette approche n’est pas nouvelle et a connu des évolutions et améliorations depuis de nombreuses années.

À la fin des années 1990, l’apparition de l’intelligence artificielle a conduit à développer des outils capables de traiter de la complexité et de multidimensionnalité des données. Ces méthodes qualifiées, de non linéaires, ont permis de faire progresser la performance des modèles.



Avec de tels outils, les établissements financiers peuvent d’une part, allouer les fonds vers les entreprises rentables capables de créer de la valeur, et, d’autre part, se dégager d’entreprises non viables. Néanmoins, ces outils restent imparfaits et malgré les avancées, on constate une limite indépassable qui conduit à ne prédire correctement l’état de santé des entreprises que dans 90 % des cas. Or, les erreurs restantes conduisent les banques à prendre de mauvaises décisions qui in fine ne sont pas économiquement optimales.



Trois éléments peuvent expliquer cette imperfection : la fiabilité de l’information comptable, sa qualité et son historique.



Manipulations comptables



Tout d’abord, pour ce qui est de la fiabilité de l’information, la quasi-totalité des modèles de faillite utilise les données comptables en raison de leur disponibilité et de leur standardisation. Ces informations se veulent objectives et les signes de faiblesse d’une entreprise s’incarnent dans les états financiers. Or, cette approche est limitée, et cela pour plusieurs raisons.



Premièrement, cela suppose une parfaite qualité de l’information. Pourtant, les entreprises sont parfois incitées à manipuler leurs résultats à la hausse (par exemple pour cacher leur faiblesse) ou à la baisse (par exemple pour baisser leur niveau de taxation). Ces pratiques sont de nature à détériorer l’information qui « nourrit » les modèles de prévision.



Toutes les faiblesses liées à la non-fiabilité des documents comptables ont une réelle influence sur les modèles de prédiction de défaillance. En effet, si l’on considère que les ratios utilisés dans les modèles de faillite sont la résultante de la qualité des données, alors les modèles de prédiction sont faussés et leur utilité pratique peut être limitée.



Ce problème de gestion de résultats – qui peut aller jusqu’à la fraude dans les cas extrêmes – conduisent à brouiller l’image de la firme. La représentation de la firme au travers des données comptables n’est donc plus totalement avérée. Plusieurs études récentes mettent en évidence que la prise en compte de la manipulation comptable permet de gagner en précision dans la prédiction de la faillite.



Événements imprévisibles



Deuxièmement, la réalité d’une entreprise ne s’exprime pas uniquement au travers des chiffres comptables. D’autres éléments imprévisibles peuvent venir expliquer la défaillance des entreprises, par exemple à des problèmes de santé du dirigeant – en particulier pour les TPE – ou à des difficultés d’ordre relationnel. Cela peut s’exprimer aussi au travers de la gouvernance. Ainsi, la dualité des PDG et la concentration des propriétaires sont significativement et négativement corrélés avec la défaillance des petites entreprises.



Par ailleurs, les variables de gouvernance améliorent considérablement les taux de précision des prévisions des modèles de faillite. Il convient donc de garder à l’esprit que des données plus qualitatives (souvent plus difficiles à obtenir et à mesurer) restent d’une grande importance et que notre incapacité à les circonscrire explique les limites de nos outils de prédiction.



Troisièmement, il est rare qu’une société fasse faillite subitement. Des chocs externes imprévisibles peuvent conduire à la mort d’une société. L’exemple actuel de la crise sanitaire en est la pleine illustration. Même si les filets de sécurité mis en place par l’État ont permis de limiter les effets dévastateurs de la Covid-19, il n’en reste pas moins vrai que l’extrême vulnérabilité des entreprises conduira à de nombreuses faillites.





Au-delà de ces événements imprévisibles, les faillites sont des processus où progressivement l’entreprise doit faire face à des difficultés de plus en plus fortes sans pouvoir évoluer et les surmonter. Ces chemins de faillite appelée trajectoires de faillite sont maintenant bien circonscrits par les chercheurs.



En conséquence, si la qualité des données compte, leur quantité et leur évolution (les variables comptables étant considérées comme des symptômes de difficultés de l’entreprise) sont tout aussi importantes car ces données permettent de mieux comprendre la dynamique de la dégradation.



Les utilisateurs ne veulent pas payer plus



On peut alors se demander pourquoi ces éléments, sources de précision, ne sont pas ou peu utilisés par les banques et les établissements de crédit. Plusieurs raisons peuvent être avancées.



La première tient dans le coût de collecte et de traitement de l’information. Le retraitement de l’information nécessite des compétences difficiles à obtenir. La collecte de l’information est chronophage et la quantité des données à traiter induit des temps de calculs longs qui ne permettent pas aux banques de pouvoir agir avec la réactivité voulue.



La seconde tient dans les utilisateurs des modèles. La fonction score est bien connue et les résultats qu’elle génère permettent une analyse robuste alors que les méthodes nouvelles sont parfois vues comme des boites noires envers lesquelles peut apparaître un sentiment de défiance. Souvent, il apparaît que les méthodes classiques sont presque aussi performantes que des méthodes plus sophistiquées utilisant un grand nombre de données.



L’avantage retiré est trop faible par rapport au coût supporté par les institutions financières. Ces dernières acceptent donc des taux d’erreurs plus élevés pour des raisons de profit !



En conséquence, c’est à la recherche de progresser encore pour qu’elle puisse fournir des vecteurs plus économes et puissants. Cela aurait pour conséquence une meilleure capacité à prédire l’avenir, une meilleure allocation des fonds et au-delà une meilleure progression du développement économique.The Conversation



Eric Séverin, Professeur des Universités Finance - Comptabilité, Université de Lille et David Veganzones, PhD en Sciences de gestion, ESCE International Business School



Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.




Lu 3849 fois

Notez

Nouveau commentaire :

Tous les commentaires discourtois, injurieux ou diffamatoires seront aussitôt supprimés par le modérateur.
Signaler un abus

Dans la même rubrique :
< >



































TourMaG.com
  • Instagram
  • Twitter
  • Facebook
  • YouTube
  • LinkedIn
  • GooglePlay
  • appstore
  • Google News
  • Bing Actus
  • Actus sur WhatsApp
 
Site certifié ACPM, le tiers de confiance - la valeur des médias