Analyse Technique

Formation Financière : Tout ce qu’on doit connaître du consensus de marché

Le premier consensus électronique est apparu en 1976 aux États-Unis sous le nom de IBES. Puis un système international a vu le jour en 1987 et, au même moment, a été lancé, en France, le consensus JCF Group. Mais des différences majeures subsistent entre les États-Unis et l’Europe. Alors que les normes comptables américaines obligent les sociétés à publier un BNA GAAP trimestriel (GAAP Earning) intégrant les éléments exceptionnels, les règles IFRS n’imposent pas la publication d’un BNA IFRS.La volatilité des estimations reste supérieure en Europe, faute d’accord sur la définition de bénéfice récurrent que publient également les sociétés américaines et qui sert de base pour les earnings surprise.

PLUS DE DETAILS EN SUIVANT :

Pour être éfficients et attirer les investisseurs à long terme, particulièrement sur les actions, les marchés financiers ont besoin d’information et de transparence.

Jusqu’aux années 50, les états financiers publiés une fois par an étaient la seule information disponible.

Avec la dissémination du capital dans un public de plus en plus large, la pression a augmenté sur les sociétés cotées pour rendre publiques des informations sur leur performance. Les analystes financiers sont devenus un élément essentiel en se concentrant sur les facteurs clés qui expliquent le prix des actions. Ils sont aussi devenus les contacts privilégiés des sociétés qu’ils suivent pour véhiculer les aspects fondamentaux de ces compagnies. Il était logique pour ces analystes de fournir des prévisions sur les ventes et profits en plus des forces et des faiblesses de ces sociétés. La mesure alors la plus communément utilisée pour la valorisation était le P/E (Price/Earnings), très utile et basé sur les prévisions des profits futurs. Les prévisions des analystes étaient souvent plus pertinentes que celles des sociétés à cause de leur connaissance approfondie du secteur et des impacts macroéconomiques.

Avec l’expansion des marchés financiers, le nombre d’analystes suivant une valeur s’est multiplié et, avec lui, le casse-tête de l’investisseur faisant face à diverses opinions et prévisions. Le gérant des années 60 maintenait religieusement sur son calepin les nouvelles estimations pour juger du degré de consensus. Puis, le premier consensus électronique est apparu en 1976, établi par Lynch, Jones & Ryan sous le nom de IBES et couvrant les États-Unis. Le système pour l’international a été créé en 1987. Au même moment en France, le consensus  JCF Group a été lancé pour couvrir le marché français.Il appartient aujourd’hui au groupe américain FactSet.

Du fait de leur origine respective, le consensus FactSet/JCF prenait mieux en compte les caractéristiques des marchés européens, alors qu’IBES s’avérait plus pertinent sur le marché américain. Aujourd’hui, les deux systèmes d’information présentent des caractéristiques similaires avec des variations méthodologiques et de contrôle de qualité, ainsi que dans la rapidité de mise à disposition de l’information (JCF /FactSet est passé au temps réel).

Des filtres pour contrôler la qualité des données

Le consensus des analystes est au départ une simple compilation de la moyenne (JCF a ajouté la médiane) des estimations des analystes. Mais cette moyenne subit un premier filtre, car seules sont retenues les estimations datant de moins de 100 jours. On estime ainsi qu’une absence totale de commentaire ou de suivi d’une valeur par un analyste sur une telle période rend son estimation périmée.

Les filtres les plus importants appliqués concernent le contrôle de qualité détecté par les machines et repris par les opérateurs. Inversion de chiffre, erreur de monnaie, forte révision de l’estimation, bénéfice avec ou sans élément exceptionnel… L’estimation peut être tout à fait légitime, comme dans le cas d’un profit warning de la société.

Europe, États-Unis : de grandes différences

Aux États-Unis, l’accent principal est mis sur les bénéfices nets par action (BNA) trimestriels qui créent un énorme volume d’échanges sur les marchés à la saison des parutions.

À partir de la bulle Internet, au moment où les valorisations par les bénéfices ne pouvaient plus se faire, le chiffre d’affaires est devenu un élément important du système des prévisions. Pour certaines sociétés, on parle d’un multiple des ventes. On s’intéresse aussi à la croissance en volume organique, hors effet acquisition. L’utilisation majeure du consensus vise l’appréciation du « earnings surprise » pour savoir si la société a battu les prévisions établies par les analystes, ce qui normalement provoque une hausse immédiate des cours. Outre l’annonce de leurs résultats, les sociétés fournissent des prévisions pour le trimestre suivant et pour l’exercice fiscal en cours, des données prévisionnelles parfois plus importantes que les résultats du trimestre écoulé.

Il existe une très longue tradition sur la définition du bénéfice par action aux États-Unis avec le classique « GAAP earning » (notre IFRS) et le « non Gaap earning » encore appelé « Street earning ». C’est ce dernier que prévoient les analystes, car il exclut les éléments exceptionnels « polluants ». C’est généralement la société elle-même qui choisit de communiquer sur cet indicateur de sa propre performance. Les analystes sont quasiment obligés de s’y adapter, même si les plus mettent en avant les faiblesses d’une telle prévision. La volatilité des estimations des analystes autour de ce chiffre va être relativement faible, sauf pour des sociétés en pleine ébullition, ce qui a été le cas récent du secteur financier en pleine déroute. On trouve par ailleurs une rigueur dans le calcul du BNA , car celui-ci doit tenir compte du nombre d’actions existantes et potentielles (convertibles, stock-options…). Récemment, le FASB (Financial Accounting Standards Board) a obligé les sociétés à inclure le coût des stock-options dans leur calcul du bénéfice.

Ce système n’a toujours pas d’équivalent systématique en Europe, sauf pour des grands groupes cotés des deux côtés de l’Atlantique. En effet, tous les pays européens ne disposent pas d’une législation contraignant les sociétés à des résultats trimestriels (c’est le cas pour la France, sauf pour le CA). On trouve couramment des résultats semestriels et l’événement majeur reste la publication des résultats annuels.

Néanmoins, chaque parution de résultats, même d’un simple CA, est l’occasion de cadrer la prévision annuelle.

Plusieurs investisseurs pensent que le marché européen est unique.

Jusqu’à l’avènement récent de l’IFR S, chaque pays avait ses propres règles comptables, ce qui rendait les comparaisons extrêmement difficiles.

Malheureusement, les règles IFRS ne sont pas allées suffisamment loin pour obliger les compagnies à publier un BNA IFRS, comme c’est le cas pour le BNA Gaap. Une des grosses difficultés avant la mise en place des IFR S était le traitement de la survaleur. Certains analystes l’intégraient, d’autres pas. Très tôt, le consensus JCF /FactSet a résolu cette question en recueillant les estimations avec et sans survaleur et en retenant comme consensus de base l’estimation excluant la survaleur. Les règles IFR S ont donné raison à cette stratégie puisque la survaleur n’est applicable qu’en cas de perte par rapport à la valeur de marché. On a vu à l’époque de la bulle Internet 50 milliards de dollars s’évaporer dans une société américaine de télécom, inclus dans les chiffres Gaap, mais exclus des bénéfices non Gaap.

Les éléments exceptionnels (ce que les Américains appellent « one time items ») représentent une grande source de volatilité dans les estimations des analystes. Ils peuvent être négatifs (frais de restructuration) ou positifs (plus-values sur cession d’actifs). Ils font partie intégrante des résultats IFR S et Gaap, mais les analystes doivent les retraiter pour donner une idée correcte de la capacité bénéficiaire « récurrente » de la société. Aux États-Unis, c’est la société qui va décider du contenu du bénéfice non Gaap. En Europe, c’est souvent l’analyste qui donne son appréciation sur le traitement d’un élément de caractère exceptionnel. Il en résulte une volatilité plus importante des estimations en Europe qu’aux États-Unis. Ainsi, l’écart type moyen des estimations du S&P500 d’une année future était à 8 %, quand celui du DJ Stoxx 600 était à 15 %. Même après les parutions de résultats, le chiffre diffère entre analystes en raison du traitement différent des éléments exceptionnels. Pour aider l’investisseur à mieux appréhender les résultats, le consensus JCF /FactSet a introduit le concept de « classes d’estimations » qui sont homogènes par rapport au traitement d’éléments exceptionnels. Le consensus sera alors basé sur la classe la plus fréquemment utilisée par les analystes.

D’importants progrès

Pour mieux apprécier la capacité financière des compagnies et leur comparabilité, JCF/FactSet a été le pionnier en 1996 à diversifier les données recueillies par le consensus, avec l’addition de l’Ebit, l’Ebitda, la survaleur et la dette nette qui ont permis d’élargir les ratios de valorisation des sociétés avec une meilleure comparabilité. JCF /FactSet calcule également un consensus « post événement » qui retient uniquement les estimations données après une parution.

Ainsi, dans la journée de publication des résultats d’une société, on voit se profiler les changements concernant le prochain trimestre ou année. Le consensus est passé au temps réel : l’estimation de l’analyste peut être répercutée dans l’heure suivant sa diffusion, avec son impact sur la moyenne.

Mais malgré les énormes progrès accomplis hors États-Unis, il reste encore des améliorations à apporter pour rendre les estimations plus comparables et basculer à un système universel de trimestriels similaire aux États-Unis en vue d’une meilleure transparence.

Capter les signaux d’achat

Les données du consensus sont largement utilisées par la communauté financière dans la gestion des actifs et par les banques d’investissement.

À la base de toute discussion sur la valorisation d’une entreprise, elles sont aussi largement utilisées dans la gestion quantitative pour capter des signaux d’achat.

Même si les estimations ne sont pas toujours homogènes, les révisions des estimations sont une donnée clé pour juger de la fiabilité des prévisions.

Une société dont les estimations sont revues à la hausse a toutes les chances de surprendre positivement lors de l’annonce des résultats. Le ratio révisions à la hausse sur révisions à la baisse permet de déceler des valeurs qui vont surperformer leur secteur.

On utilise également le momentum des bénéfices pour la sélection de valeurs. L’utilisation de plusieurs données de consensus et données comptables permet de détecter des valeurs décotées par rapport à des ratios financiers permettant au gérant habile de générer de l’Alpha.

Jacques Chahine revue d’analyse financière oct09

EN COMPLEMENTS INDISPENSABLES : Finance comportementale et prévisions des analystes sur les profits anticipés (cliquez sur le lien)

Comment échapper aux ravages du consensus…. (cliquez sur le lien)

————————————————————

La saison des résultats rythmée par les rumeurs aux Etats-Unis

Alors que la saison des résultats bat son plein aux Etats-Unis, les prévisions véhiculées par des bruits de couloir (« whisper numbers »), souvent plus élevées que les prévisions « officielles » des analystes financiers, ont une influence grandissante sur le marché boursier.

Si la fiabilité de ces chiffres fait débat, leur influence n’est en revanche pas remise en cause.

Après deux périodes de résultats marquées notamment par les réductions de coûts destinées à limiter l’impact de la crise, les investisseurs ont hâte de renouer avec une croissance forte après l’envolée des marchés boursiers.

Wall Street accorde donc sa préférence aux chiffres véhiculés par des bruits de couloir à l’occasion de la publication des résultats du troisième trimestre, plutôt que de faire confiance aux prévisions des analystes et des entreprises.

« Les investisseurs ont revu leurs attentes à la hausse et ne vont pas se contenter des prévisions officielles, voilà pourquoi les bruits de couloir jouent un rôle si important dans le cadre de la publication des résultats du troisième trimestre », a déclaré Marc Pado, économiste de marché chez Cantor Fitzgerald.

Les investisseurs réagissant aux résultats trimestriels avec en tête ces rumeurs de prévisions, certaines entreprises ont vu leur action baisser malgré des résultats supérieurs au consensus officiel.

L’action Goldman Sachs par exemple a baissé après la publication d’un bénéfice par action (BPA) de 5,25 dollars. Les analystes interrogés dans le cadre de l’enquête Thomson Reuters I/B/E/S attendaient un BPA de 4,24 dollars, mais des rumeurs avaient laissé entendre que le BPA pourrait atteindre six dollars.

L’action IBM a également baissé après la publication d’un bénéfice trimestriel plus élevé que prévu la semaine dernière.

ORIGINE DES BRUITS DE COULOIR

Les bruits de couloir autour des résultats des entreprises juste avant la publication sont peu à peu devenus des prévisions non officielles. La veille de l’annonce, ces rumeurs circulent à tout va dans le marché.

Si le consensus officiel est élaboré par des analystes professionnels chargés de suivre une entreprise particulière, les rumeurs sur les résultats proviennent de la salle des marchés.

Les traders s’interrogent entre eux sur le montant estimé des résultats, et ces chiffres arrivent rapidement aux oreilles des analystes et même de particuliers.

L’envolée des marchés boursiers est en partie à l’origine de cette évolution, les investisseurs, euphoriques après la hausse de 60% des principaux indices américains en sept mois, nourrissant des espoirs importants pour la saison des résultats.

« C’est exactement le contraire de ce qui se passait l’année dernière », a déclaré Jon Najarian, co-fondateur de optionmonster.com, un site internet relayant des informations financières.

« Avec la hausse de 60% (des marchés boursiers) depuis le point bas atteint en mars, les prévisions relayées par des bruits de couloir sont extrêmement optimistes et donc plus difficiles à battre. »

MANQUE DE CONFIANCE

Ces rumeurs circulent aussi parce que les traders ne font pas confiance aux prévisions affichées par les entreprises et par les analystes qui les suivent.

Les entreprises ont tendance à donner des estimations situées dans le bas de la fourchette de leurs prévisions, pour tenter de doper l’action lors de la publication des résultats.

Les analystes se montrent eux aussi prudents, et cela se voit dans le nombre de bonnes surprises au moment de la publication.

Sur les 122 entreprises du S&P 500 qui avaient publié leurs résultats au 21 octobre, 76% ont fait mieux que les prévisions des analystes interrogés dans le cadre de l’enquête Thomson Reuters I/B/E/S. La moyenne historique est plus proche de 60%.

« Les gens savent que les analystes de Wall Street ne veulent pas contrarier les entreprises avec leurs prévisions. Le marché y a cru pendant un temps mais il a commencé à se poser des questions au vu du nombre d’entreprises dont les résultats étaient supérieurs aux prévisions », a déclaré Stephen Massocca, directeur chez Wedbush Morgan.

Reuters 23.10.09 |  Angela Moon

———————————————————–

La faillite de Lehman est aussi celle des analystes bancaires

 L’effondrement de la banque d’affaires américaine Lehman Brothers avait pris tous les analystes bancaires par surprise le 15 septembre 2008, révélant une forme de faillite intellectuelle qui ne les a pourtant guère poussés depuis à faire leur examen de conscience. Ceux qui ont osé émettre une recommandation à l’achat sur les valeurs bancaires avant leur remontée depuis mars dernier se comptent sur les doigts de la main. Et aucun n’avait poussé à vendre Lehman Brothers avant sa faillite retentissante il y a un an.

« Il y a une maladie de la conformité à Wall Street », déplore Robert Lutts, responsable des investissements de la société de gestion Cabot Money Management. Même les stars de l’analyse bancaire, comme Meredith Whitney, connue pour avoir la première alerté sur les difficultés de Citigroup en 2007, ou Mike Mayo, fameux pour ses pronostics baissiers sur le secteur, n’ont anticipé ni la chute de Lehman, ni le spectaculaire redressement des valeurs bancaires depuis le printemps. Moins d’un analyste bancaire sur deux serait parvenu à faire mieux que l’indice des banques commerciales et des banques d’investissement en 2008 si leurs recommandations avaient été suivies, selon StarMine, une filiale de Thomson Reuters spécialisée dans la mesure de la pertinence des conseils des analystes financiers. Et la proportion n’est guère plus élevée cette année.

Suivre son propre secteur d’activité pourrait a priori constituer un avantage, mais les analystes bancaires doivent aussi composer avec les risques pour leurs perspectives de carrière que leur feraient courir des positions trop tranchées, surtout dans un sens négatif. Il peut aussi être difficile de dénoncer la paille dans l’oeil de son concurrent au risque de ne pas voir la poutre dans le sien: comment dénoncer les pratiques de certains établissements ou critiquer leur stratégie quand la banque qui vous emploie adopte les mêmes?

Trou noir

« C’est toujours mieux de faire des prévisions qui semblent raisonnables au moment où vous les faites », a estimé dans un courriel Henri Blodget, l’analyste vedette des années de la bulle internet, aujourd’hui animateur du site d’informations financières « The Business Insider ». « Les analystes qui ne prennent pas de risque et se moulent dans le consensus font en revanche de longues, paisibles et très profitables carrières », écrit-il. Henri Blodget, mis en cause pour avoir chaudement recommandé de nombreuses valeurs internet à l’achat tout en émettant des doutes en privé sur leur valorisation, demeure l’incarnation des dérives de l’analyse financière. La situation s’est certes améliorée ces dernières années, mais lentement. En 2008, les recommandations à la vente ne représentaient encore que 8% des conseils des analystes contre seulement 1% en 2000, selon les données Thomson Reuters. Et sur 20 analystes couvrant le secteur bancaire américain l’année dernière, seuls neuf ont formulé des recommandations permettant de dégager une performance positive. Couvrir l’activité des banques est certes devenu de plus en plus difficile. Les produits dérivés complexes et l’importance de l’effet de levier ont rendu plus imprévisibles encore les résultats des banques.

« Les banques sont devenues un véritable trou noir. Il n’y a aucun moyen de vraiment analyser aucune de ces institutions et de savoir ce qu’il faut vraiment regarder », reconnaît Ethan Eisler, analyste chez Hexagon Securities. Mais il y a aussi des analystes qui parviennent à faire mieux que le marché. Jeff Harte de Sandler O’Neill + Partners’ et Guy Moszkowski de Bank of America ont formulé les meilleures recommandations depuis le début de l’année, selon Starmine. Et Harte comme Moskowski avaient déjà battu le marché l’année dernière. 

Reuters

6 réponses »

Laisser un commentaire