Un prix Nobel adjugé et vendu !
Le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel, plus communément appelé prix Nobel d’économie, a été attribué lundi 12 octobre aux Américains Paul Milgrom et Robert Wilson pour leurs apports à la théorie des enchères. Cette théorie, dont on a pu entendre parler à l’occasion des attributions des fréquences 5G, semble être au cœur de la micro-économie.
Qu’est-ce que la théorie des enchères ?
La théorie des enchères est une branche de la microéconomie qui étudie le fonctionnement des enchères, c’est à dire les ventes au plus offrant. Il existe une multitude de types d’enchères différentes, et chacune répond à un certain problème.
Il existe plusieurs types d’enchères :
Les plus connues, celles auxquelles on pense immédiatement en entendant « vente aux enchères », sont les enchères anglaises, qui sont
- ouvertes : les acheteurs connaissent en temps réel les mises de leurs concurrents,
- Ascendantes, les prix montent, le commissaire-priseur commence avec un prix de départ auquel il ajoute à chaque tour un incrément minimal,
- Au premier prix: l’offre la plus élevée est le prix de vente.
Pour aller plus loin, l’enchère anglaise peut également être :
- Inversée (dans ce cas c’est l’acheteur qui propose un prix, et qui le baisse à chaque tour jusqu’à ce qu’il ne reste plus qu’un vendeur prêt à vendre à ce prix, il s’agit donc d’une enchère descendante), dans une situation où il y a un acheteur pour une multitude de vendeurs.
- Au second prix(dans ce cas, le prix de vente est égal à la deuxième offre la plus élevée), on parlera alors d’enchère japonaise.
L’autre grand type d’enchère est l’enchère hollandaise qui est ouverte, descendante (le vendeur commence à un prix excessivement élevé et le baisse à chaque tour jusqu’à ce qu’un acheteur soit preneur) et au premier prix mais qui, comme l’anglaise, connaît des variantes (e.g. inversée ou anglo-hollandaises).
Enfin, il existe également des enchères scellées, où les offres privées ne sont pas connues des autres acheteurs. Elles sont alors statiques (il n’y a qu’un tour, on ne parle plus d’enchère ascendante ou descendante) mais peuvent être au premier ou au second prix (on parle alors d’enchères de Vickrey).
Il s’agit là seulement des principales formes d’enchères, cette liste n’est absolument pas exhaustive tant il est possible d’ajouter ou modifier certaines modalités ou mécanismes. L’important est de comprendre que chaque forme présente ses avantages et ses limites mais surtout répond à une certaine situation et une certaine exigence de la part du vendeur ou de l’acheteur. Par exemple, une enchère anglaise est adaptée dans une situation de symétrie de l’information entre les acheteurs lorsque le vendeur veut maximiser son gain (et serait en théorie équivalente à l’enchère scellée au second prix), et une enchère hollandaise est adaptée (et en théorie équivalente à une enchère scellée au premier prix) dans une situation ou le vendeur est neutre face au risque et les vendeurs averses au risque et veulent remporter l’enchère à tout prix, par exemple dans le cas d’une œuvre d’art dont la valeur subjective pour l’acheteur est supérieure à sa valeur vénale.
L’étude théorique de ces mécanismes est assez récente. L’américain Lawrence Friedman est, au milieu des années 1950, le premier à s’y intéresser, avec une approche assez naïve. Ses travaux ont le mérite de poser le problème de la maximisation du gain (pour les acheteurs) et son modèle, qui repose sur les probabilités classiques et dans une certaine mesure sur les statistiques (il y a en effet la nécessité d’estimer certaines valeurs à l’aide de données historiques- les enchères passées), est largement utilisé pour les attributions de droits de forages pétroliers aux États-Unis, ce pour quoi il fut d’ailleurs développé. Cette vision des enchères a une limite : elle suggère que les actions des acteurs sont déductibles de leurs actions passées et qu’ils n’établissent pas de stratégie selon les informations qu’ils possèdent et par rapport à leurs concurrents.
S’il est question de stratégie, il n’est pas étonnant de voir entrer en scène la théorie des jeux, l’étude des interactions stratégiques entre agents dans un jeu. C’est William Vickrey (comme dans les enchères de Vickrey) qui introduit cette dimension à la théorie des enchères. Il est maintenant question pour un acheteur de s’interroger sur les stratégies de ses concurrents et d’adapter sa stratégie en conséquence. Si chacun des acteurs détermine une stratégie dominante (c’est à dire qui offre des gains espérés supérieurs aux autres stratégies), on arrive à ce qui est connu dans le lexique de la théorie des jeux comme un équilibre de Nash, où chaque acteur (ou joueur) prévoit correctement le choix des autres (car, en tant qu’agent rationnel, chacun va chercher à maximiser son gain). Avec cette approche, il est possible de prédire les comportements des acheteurs et d’adapter le mécanisme d’enchère, notamment pour faire en sorte que le prix de vente soit le vrai prix. Ainsi, Vickrey propose les enchères scellées au second prix dans laquelle la stratégie dominante pour les acheteurs est d’offrir un prix égal à leur estimation du bien vendu, car un prix inférieur diminue leur chance de remporter l’enchère et un prix supérieur peut mener à un achat à perte.
Cette approche repose sur quatre hypothèses qui ne sont pas toujours vérifiées dans la réalité : les acteurs sont neutres face au risque, ils disposent de la même information, leurs évaluations privées sont indépendantes mais dépendent de la même loi de probabilité et le prix de vente ne dépend que des offres individuelles des acheteurs. Dans la réalité, il existe une aversion au risque (qui pourrait pousser un acheteur à surmiser), une dissymétrie de l’information (dans le cas des enchères de droits de forages pétroliers par exemple, chaque compagnie a ses propres croyances sur la quantité de pétrole dans une concession donnée), les évaluations privées ne sont pas toujours indépendantes (il peut y avoir une corrélation entre les évaluations, par exemple une offre élevée d’un joueur peut pousser les autres à revoir leurs évaluations à la hausse, au risque d’une malédiction du vainqueur où l’acheteur final paye trop pour remporter l’enchère) et enfin, le prix de vente peut être affecté par un prix minimal ou des droits d’entrée. Ce modèle théorique peut cependant être adapté afin d’arriver, dans une réalité imparfaite et ou la collusion entre acteurs est possible, à des mécanismes d’enchères optimaux (ou du moins les meilleurs possible). C’est d’ailleurs ce qui a valu à Milgrom et Wilson leur prix Nobel.
L’apport de Milgrom et Wilson
Les deux économistes se sont intéressés aux modèles d’enchères existant. Robert Wilson a développé un cadre d’analyse pour les objets ayant une valeur commune, c’est à dire qui ne dépend pas de la subjectivité des acheteurs (comme c’est le cas pour l’art par exemple, on parle alors de valeur privée). Pour ce type d’objets, quand le nombre de joueurs est grand, et partant du principe que la vraie valeur s’approche de la moyenne des évaluations individuelles, le risque de malédiction du vainqueur est très élevé. Wilson démontre donc que les joueurs ont tendance à revoir à la baisse leurs évaluations. La distinction entre valeur privée et commune étant la plupart du temps assez floue (on est souvent quelque part entre le tout commun, comme les matières premières, et le tout privé, comme l’art), la question de la crainte de la malédiction du vainqueur se pose souvent dans des termes plus nuancés. Ce fut l’un des objets d’étude de Milgrom, qui a montré que les évaluations étaient moins tirées vers le bas dans les enchères anglaises que dans les enchères hollandaises.
Leur plus grande contribution à la théorie des enchères reste néanmoins, selon le comité qui leur a décerné ce prix Nobel, les nouveaux formats d’enchères qu’ils ont développé pour des situations très complexes, notamment pour la vente de fréquences radio aux opérateurs télécom aux États-Unis. Jusque dans les années 1990, l’attribution de fréquence relevait du beauty contest : les opérateurs devaient convaincre les autorités qu’ils feraient le meilleur usage de tel bloc de fréquences, un procédé qui coûtait cher en lobbying mais qui ne permettait pas de grosses recettes pour le gouvernement. Avec la multiplication du nombre d’opérateurs, le beauty contest est vite devenu intenable, le Congrès a donc décidé d’allouer les blocs par loteries locales, au grand dam des opérateurs nationaux qui se retrouvaient avec des réseaux discontinus. Comme le beauty contest, ce système n’est absolument pas Pareto-optimal (c’est à dire qui permet un état où améliorer la situation d’un acteur détériore forcément celle d’un autre). De plus, les recettes pour le gouvernement restaient bien trop minces, alors que la dette publique grossissait et que les marchés secondaires des opérateurs (qui se revendaient entre eux leurs fréquences pour arriver à des réseaux continus) atteignaient des volumes de l’ordre des milliards de dollars. C’est pourquoi en 1993 on a décidé que l’allocation des fréquences se ferait au moyen d’enchères. La tâche n’est pas des moindre : comment permettre une allocation optimale des fréquences et en même temps maximiser les recettes de l’État. Notons que les fréquences ont à la fois une valeur commune et une valeur privée (dépendant pour chaque acheteur des autres fréquences qu’il possède). De plus, si les enchères se font régions par régions, la valeur réelle d’une fréquence vendue lors d’une enchère dépend de l’issue d’enchères futures. L’incertitude étant très grandes pour les opérateurs, leurs enchères seront bien en dessous de la valeur réelle. Ainsi, pour répondre à ces problèmes, Milgrom et Wilson ont mis en place un nouveau format d’enchère, le SMRA (Simultaneous Multiple Round Auction), qui met en vente toutes les fréquences simultanément en commençant à un prix bas et permettant de multiples enchères afin de pallier l’incertitude et la crainte d’une malédiction du vainqueur. Le système s’est exporté depuis dans de nombreux pays et a rapporté, seulement dans le cadre des enchères de la FCC (Federal Communications Commission), plus de 120 milliards de dollars en vingt ans pour ce qui aurait été vendu pour une bouchée de pain dans le système du beauty contest.
Une théorie intimement liée à l’essence de la micro-économie
La théorie des enchères s’intéresse donc aux stratégies des acheteurs et à la manière à un prix final qui reflète le mieux la valeur réelle de l’objet vendu. La microéconomie, elle, est l’étude de la prise de décisions d’agents économiques en ce qui concerne l’allocation de ressources et leurs interactions (en tant que consommateurs, producteurs, offreurs, demandeurs…). Difficile donc de ne pas voir une grande proximité entre ces deux domaines, si le premier est une branche du deuxième, il semble en être la plus essentielle aussi bien parce que la dimension théorie des jeux est aussi centrale dans les enchères (rappelons que ce domaine des mathématiques a été touché du doigt pour la première fois par Cournot, qui sans le nommer met en lumière la notion d’équilibre de Nash dans son analyse des duopoles) que parce que la théorie des enchères s’intéresse tout compte fait à la meilleure façon d’allouer une ressource.
En effet, un marché n’est-il pas finalement une enchère, à la fois ascendante et descendante, standard et inversée ? Et la loi de l’offre et la demande, sûrement la plus fondamentale de la micro-économie, n’établit-elle pas que l’optimum de Pareto (maximisant le gain du producteur et des consommateurs) s’atteint lorsque le marché concurrentiel détermine un prix d’équilibre, comme un reflet de la valeur réelle de la théorie des enchères ? Un marché concurrentiel serait donc une macro-enchère, les producteurs fixent les prix mais les prix évoluent dans le temps selon les réactions des autres agents sur le marché. Les interactions entre acheteurs se font le plus souvent par signaux, et l’objectif fondamental de chaque joueur est toujours de maximiser son utilité. La théorie des enchères s’intéresserait donc à des cas particuliers et pratiques, mais pose (et répond) au fond les mêmes questions que la micro-économie dans son ensemble, en particulier celle de l’organisation d’un marché maximisant le bien-être de tous les acteurs.
Enfin, la question de l’allocation des ressources prend doublement son sens dans le contexte des enchères, notamment lorsqu’il s’agit de la mise en vente d’un bien public afin qu’il soit au mieux exploité par des acteurs privés. En effet, pour l’acheteur il s’agit d’allouer une somme pour obtenir un objet. Mais pour le vendeur, il s’agit aussi d’allouer au mieux ces ressources, partant du principe que le plus offrant (donc celui qui a l’évaluation la plus haute) est celui qui pense pouvoir en tirer la plus grande richesse. De même, il ne s’agit pas toujours pour l’État-vendeur de maximiser ses recettes, mais plutôt de maximiser l’utilité publique. C’est d’ailleurs ce qui fut décidé lors des enchères de fréquences 5G en France, le mécanisme choisi a permis d’éviter les ententes entre opérateurs mais aussi d’éviter les surenchères afin que le prix plus élevé ne se répercute pas dans les tarifs proposés aux consommateurs et que les opérateurs puissent continuer à investir dans d’autres domaines (notamment la couverture 4G encore incomplète en France). Ainsi, cette théorie des enchères et les procédés qui en découlent sont un outil d’allocation des ressources pour les pouvoirs publics, qui permet tout en allouant lesdites ressources, de répondre à certaines exigences et atteindre certains objectifs.