Innovation Technologique, scientifique ou financière

The Economist : la technologie a joué un rôle central dans la crise

Qu’est-ce qu’une banque ? Pour certains, c’est une immense entreprise de gestionnaires de risque. Pour d’autres, c’est un conglomérat d’actifs. Mais, pour bon nombre, une banque, c’est avant tout une entreprise technologique.

PLUS DE DETAILS EN SUIVANT :

Parlez-en aux gens de la Banque  Royaled’origine canadienne. Le 2 juin 2004, un bug  anodin plonge la plus grande banque du pays dans une crise sans précédent. Pendant une semaine, l’institution luttera pour réanimer ses systèmes informatiques. La banque a littéralement été paralysée pendant 24 heures. À certaines succursales, on a fait des retraits comme dans le bon vieux temps : en les consignant à la main ! Les dirigeants de la Royale ont été traumatisés par cet événement. Et ils n’ont pas été les seuls : tous les banquiers canadiens ont scruté attentivement les efforts de leurs collègues pour se sortir de cette crise.

Les banques, à l’échelle planétaire, dépensent annuellement plus de 500 G$ US en technologies de l’information. C’est plus du cinquième du chiffre d’affaires mondial de l’industrie informatique.

Or, peu de gens ont mis en lumière le rôle des technologies de l’information dans la crise économique, indique The Economist dans un texte intitulé « Silo but deadly ».(cliquez sur le lien)

Le magazine constate que les réseaux informatiques des grandes organisations comportent souvent des faiblesses structurelles. Ceux des grands acteurs de l’industrie financière sont particulièrement en mauvais état. Car les banques ont été les premières entreprises à se doter d’ordinateurs, puis de réseaux informatiques, notamment des premiers superordinateurs, ou mainframes. L’innovation et les fusions et acquisitions entraînent souvent la nécessité de renouveler l’infrastructure technologique. Or, ce ne fut pas nécessairement le cas dans les banques.

The Economist cite l’exemple de Citigroup, dont l’informatique est singulièrement fragmentée en plusieurs sous-systèmes. Le besoin de répondre aux exigences de conformité et le caractère planétaire des grandes banques ajoute à la complexité de leurs technologies.
Mais ce qui a compliqué les choses, ce sont les besoins dans les marchés financiers. La nécessité des contrats de contrepartie (hedging) pour protéger des actifs, le commerce des dérivés et la conception de produits financiers de plus en plus sophistiqués ont nécessité le développement d’applications complexes, souvent conçues pour une seule catégorie d’actifs. Ce développement s’est fait rapidement. Ailleurs, c’est sur les PC des traders, à partir de chiffriers comme Excel, que les financières introduisaient l’innovation.

Il en résulte d’énormes problèmes quant à la qualité des données financières sur lesquelles les banques doivent s’appuyer pour modéliser leurs risques. Dans un tel contexte, les chiffres échappent à toute logique. Certains gestionnaires ne font pas confiance aux données de leurs collègues d’autres services !

Un paysage aussi fragmenté rend assez périlleuse l’évaluation de l’exposition au risque d’une institution financière dans son ensemble. Avec les normes dites de Bâle 2, certaines banques ont, à coups de dizaines de millions, introduit de nouveaux systèmes pour faire ce genre de calcul. Mais, dans bien des cas, ces calculs étaient effectués une fois par jour. Et certaines données ne voulaient rien dire.

Puis, la crise a frappé. Il a fallu plusieurs jours à certaines banques avant d’obtenir un portrait de leur exposition véritable aux risques et à leurs obligations. Pourtant, connaître son exposition face à une contrepartie ne devrait prendre que quelques minutes, affirme The Economist. La filiale européenne de Lehman Brothers fut particulièrement frappée par ce genre de problème quelques jours avant la chute de ce géant.

Le contexte technologique a donc exacerbé la crise financière, selon les spécialistes contactés par le magazine. Car les banques ont dépensé des milliards pour permettre de négocier plus rapidement, mais pas pour se doter d’une plus grande transparence. « Les banques avaient de bons outils pour créer un levier, mais de moins bons pour en évaluer le risque », constate The Economist.

Le magazine fait aussi état de certaines distorsions inquiétantes. Il donne l’exemple d’une banque britannique où un nombre disproportionné d’astronautes avait fait une demande de prêt, tout simplement parce que ce type d’emploi figurait en premier sur le menu. À l’autre bout de la chaîne informatique, des modèles imprécis de risque ont pu donner un sentiment de fausse sécurité aux dirigeants des banques. Un changement s’impose dans l’informatique des banques, disent les spécialistes.
Il semble que peu de banquiers aient compris le message. À l’échelle mondiale, seulement un très petit groupe d’institutions financières s’est équipé de coûteux systèmes intégrés dotés de technologies permettant de mieux quantifier le risque et comportant même des systèmes d’alerte.

Retour vers le futur

La situation évolue toutefois, souvent de façon surprenante. Ainsi, The Economiste annonce qu’une technologie autrefois considérée comme dépassée, le mainframe, revient à la mode.

Dans le texte intitulé « Back in fashion » (cliquez sur le lien), le magazine écrit que « la mère de tous les ordinateurs » ne semble pas si dépassée.

Il relate ainsi la réaction amusée des geeks (le nouveau surnom donné aux passionnés d’informatique, autrefois connus sous le vocable de nerds) lorsque la Première Banque nationale de Namibie a annoncé l’achat de son premier mainframe. Après coup, bon nombre ont applaudi l’institution financière, qui a participé à ce qui est désormais considéré comme une nouvelle tendance.

The Economist rappelle que jusque dans les années 1980, les mainframes ont dominé le monde de la finance et des grandes organisations. Depuis, on les a graduellement remplacés par des réseaux de PC utilisant des technologies achetées à des tiers. Mais il y a encore environ 10 000 mainframes en exploitation dans le monde, principalement dans l’industrie financière. Si vous souscrivez une police d’assurance ou retirez une somme d’argent à la banque, il y a de bonnes chances que le traitement de la transaction ait été fait par un mainframe.

Les banques adorent cette technologie, considérée fiable et puissante du point de vue du stockage et du traitement de l’information. Les applications, souvent conçues maison, datent de plusieurs décennies. Le déplacement de ces programmes souvent gigantesques vers d’autres plateformes informatiques coûterait une fortune. Mais les spécialistes de cette technologie se font rares, car les jeunes informaticiens ont été formés sur des PC. En conséquence, les principaux fournisseurs de mainframes, comme IBM, se sont lancés dans des partenariats avec les universités pour former une relève.

L’avenir de cette technologie semble malgré tout prometteur. Car l’industrie financière des pays émergents, comme l’Inde et la Chine, en est devenue une cliente assidue. Et la tendance de « l’informatique dans les nuages » (cloud computing), de plus en plus à la mode, ajoute des clients à la technologie des mainframes. L’informatique dans les nuages fait appel à des applications et des données situées à l’extérieur des appareils des utilisateurs, mais auxquelles on accède par Internet.
L’avenir technologique de l’industrie financière mondiale passe donc, en partie, par une technologie qui a été développée il y a 50 ans.

Laisser un commentaire