Trois observations du lancement d’une nouvelle étude consensuelle de la National Academy of Sciences sur la mesure des inégalités économiques aux États-Unis

""

Un nouveau panel de l’Académie nationale des sciences s’est réuni publiquement pour la première fois cette semaine pour discuter de la manière dont les agences statistiques devraient unifier et améliorer la mesure des inégalités de revenu, de richesse et de consommation aux États-Unis. Cette étude de consensus débattra de la manière dont ces concepts doivent être mesurés, comment harmoniser ces concepts connexes, dans quelle mesure il doit être possible de les désagréger par géographie et par caractéristiques démographiques, comment ils pourraient être construits à partir de données actuelles ou à venir créé, et plus encore.

Jonathan Fisher d’Equitable Growth a offert une liste de souhaits en six points avant l’événement qui couvre certaines des possibilités discutées lors de la première convocation du nouveau panel NAS. Mais ce n’est que le début des travaux du panel, qui devraient se terminer en 2023.

La première réunion publique comprenait des présentations par trois éminents économistes. Angus Deaton est professeur à l’Université de Princeton et co-auteur du prix Nobel de Morts du désespoir aux côtés d’Anne Case, professeur d’économie et d’affaires publiques Alexander Stewart 1886, émérite à l’Université de Princeton. Emmanuel Saez est économiste à l’Université de Californie à Berkeley, professeur, lauréat de la médaille John Bates Clark et lauréat d’une bourse MacArthur Genius. Raj Chetty est professeur à l’Université de Harvard et également lauréat de la médaille John Bates Clark et lauréat MacArthur qui a transformé l’économie empirique avec ses recherches sur les mégadonnées.

Les trois économistes ont présenté aux côtés de représentants d’agences statistiques américaines, qui ont parlé de leurs projets actuels de données de distribution. La première réunion a mis en évidence trois débats qui seront probablement au cœur des travaux du panel.

Combien de conjectures est acceptable?

La réunion a commencé sur une note technique, Deaton exprimant une hésitation sur ce que nous pourrions appeler la modélisation statistique pour créer des statistiques gouvernementales, qui comprend des techniques telles que l’imputation et l’estimation assistée par modèle. Il a spécifiquement mentionné un domaine de recherche connu sous le nom de comptes de distribution du revenu national, popularisé par les économistes Thomas Piketty de la Paris School of Economics et Saez et Gabriel Zucman de l’UC Berkeley. La recherche sur les comptes de distribution cherche à prendre un concept de revenu agrégé, tel que le produit intérieur brut, le revenu national ou le revenu personnel, et à le répartir entre les personnes ou les ménages d’une économie.

Une étape courante dans la production de tels comptes est appelée « mise à l’échelle ». Les chercheurs commencent par une enquête ou une source de données administratives qui fournit des informations sur les revenus, parmi lesquelles les déclarations de revenus de l’IRS ou la Current Population Survey. Ils additionnent tous les revenus dans leurs données de base pour obtenir un agrégat pour l’économie. Mais, pour des raisons connues et inconnues, ces totaux agrégés sont presque toujours inférieurs au total enregistré dans les comptes nationaux. Pour les réconcilier, les chercheurs augmentent simplement l’échelle, en gonflant les salaires ou les revenus d’entreprise de chaque personne dans leurs données d’un montant défini afin que le nouvel agrégat dans l’ensemble de données corresponde à ce qui est rapporté dans les comptes nationaux.

C’est l’approche adoptée par le Bureau of Economic Analysis des États-Unis dans sa série de données prototypes sur la distribution du revenu personnel. Deaton craint à juste titre que la mise à l’échelle soit un peu un pansement qui ignore quelles pourraient être les causes sous-jacentes de ces écarts agrégés. De meilleures données sources, utilisant une combinaison de données administratives et de données d’enquête, devraient être exploitées pour essayer d’expliquer pourquoi ces lacunes existent. Cependant, il peut être difficile d’éliminer complètement ces lacunes.

Deaton a également exprimé son scepticisme à l’égard d’autres hypothèses couramment formulées dans la construction des comptes nationaux de distribution. Ces hypothèses doivent être examinées, mais Deaton est trop pessimiste. Il y a plusieurs raisons pour lesquelles nous devrions être disposés à utiliser la modélisation statistique pour construire des statistiques officielles.

L’argument le plus convaincant est peut-être que ces pansements statistiques sont déjà utilisés dans bon nombre de nos statistiques fédérales et ce depuis que le gouvernement fédéral a commencé à les enregistrer. Une fraction importante du produit intérieur brut et d’autres agrégats des comptes nationaux sont déjà imputés parce qu’il n’y a pas d’autre base pour les estimer. Les premières estimations de ces mesures comprennent davantage d’informations imputées, car elles sont publiées avant que toutes les données ne soient reçues et elles sont révisées plusieurs fois.

La modélisation peut apporter des contributions incroyablement utiles à nos statistiques nationales. Prenons l’exemple de la récente publication expérimentale d’estimations du Bureau of Labor Statistics des États-Unis qui étendent l’enquête sur les offres d’emploi et la rotation du personnel aux zones statistiques métropolitaines. Ces estimations ne sont pas possibles, compte tenu de la taille des échantillons JOLTS existants. La version expérimentale de l’agence utilise une technique de modélisation connue sous le nom d’estimation sur petits domaines pour créer des estimations pour ces petites zones géographiques. Cela lui permet de rapporter des statistiques pour de petites zones géographiques sans ajouter de suréchantillons coûteux à l’enquête elle-même. C’est extrêmement précieux pour les organismes statistiques, où les ressources sont souvent limitées.

Nous ne devons pas non plus laisser la peur de l’imputation et de la modélisation nous empêcher de rapporter des concepts importants. La logique sous-jacente des comptes nationaux distributionnels est convaincante : l’intégration de microdonnées dans nos agrégats économiques permet aux organismes statistiques de tenir pleinement compte du revenu économique et de répondre aux questions sur qui bénéficie de la croissance économique. Connaître les réponses à ces questions est un bien public incontournable.

Aucune mesure économique n’est sans erreur. Le rôle de nos agences statistiques est d’équilibrer l’utilité d’une mesure pour informer le public et orienter la politique par rapport à la quantité d’erreur qui pourrait être présente. Les agences statistiques devraient continuer à étudier les estimations assistées par modèle car, dans de nombreux cas, ce sont les seules options pour construire une métrique. De plus, cette recherche peut fournir des informations précieuses sur les sources d’erreur dans nos sources de microdonnées et de macrodonnées.

À quel point le gouvernement fédéral devrait-il être ambitieux?

Étroitement liée au débat sur l’imputation se pose la question de savoir à quel point les agences fédérales doivent être ambitieuses. Au cours de la seconde moitié de la réunion, nous avons entendu un certain nombre d’économistes d’agences statistiques parler de projets sur lesquels ils travaillent et qui élargiront considérablement la capacité statistique des États-Unis. J’ai beaucoup écrit sur le produit historique de distribution du revenu personnel du BEA, présenté par Dennis Fixler du BEA, le seul produit d’une agence statistique qui tente de mesurer l’inégalité en utilisant une définition complète du revenu.

Jonathan Rothbaum du US Census Bureau a présenté les efforts de son équipe pour relier les données administratives et d’enquête afin de créer des bases de données plus complètes sur les résultats économiques. Et les statisticiens du Bureau américain des statistiques du travail et des statistiques du revenu, l’agence statistique de l’IRS, ont également présenté des projets impressionnants pour améliorer la mesure de la consommation et du revenu.

Il y a toujours plus à faire, et la réunion a mis en évidence certains domaines de travail qui seraient tout à fait nouveaux pour les agences statistiques. Chetty de Harvard, par exemple, a plaidé pour un indicateur national de la mobilité. Cela peut être légèrement en dehors de la compétence du panel, mais le travail du panel pourrait rendre une telle mesure plus réalisable.

Cette métrique serait probablement controversée, cependant. Il existe relativement peu d’ensembles de données longitudinales permettant une observation directe de la mobilité aux États-Unis. Chetty utilise à la place des données transversales et quelques hypothèses astucieuses pour générer des estimations de la mobilité dans le temps. Jonathan Davis et Bhashkkar Mazumder de la Federal Reserve Bank de Chicago utilisent un ensemble de données longitudinales – l’Enquête longitudinale nationale sur la jeunesse – et trouvent des tendances similaires, ce qui appuie les méthodes de Chetty.

La mobilité peut également sembler à certains économistes comme ne faisant pas partie du champ traditionnel des statistiques fédérales. Néanmoins, je suis d’accord avec Chetty, qui a fait remarquer que fournir des mesures officielles de la mobilité serait « incroyablement précieux pour le discours public ». Les résidents américains devraient savoir si l’économie du pays met le rêve américain de plus en plus hors de portée, comme le démontrent les recherches de Chetty. Ce sont des informations précieuses qui permettront aux électeurs d’être mieux informés et plus aptes à demander des comptes à leurs élus. C’est tout aussi important pour les élus eux-mêmes qui, espérons-le, veulent renforcer l’une des valeurs fondamentales de la nation.

Mesurer la consommation est difficile

La consommation a été, à certains égards, le moins discuté des trois concepts de mesure abordés par ce panel. Le Bureau of Labor Statistics a brièvement présenté certains de ses travaux visant à moderniser l’Enquête sur les dépenses de consommation, mais peu de choses ont été dites. Deaton de Princeton a suggéré que se concentrer sur la richesse était primordial. Chetty a plaidé pour la mobilité, ce qui signifie généralement le revenu ou la richesse, bien qu’il ait mentionné qu’il serait utile de mesurer la mobilité à l’aide de la consommation. Saez de l’UC Berkeley s’est largement concentré sur la richesse et le revenu.

Il y a un débat actif sur la question de savoir si l’inégalité de consommation est plus ou moins importante que l’inégalité de richesse et de revenu. À certains égards, ce débat attend de meilleures données, car mesurer la consommation est très difficile, et la plupart des économistes conviendraient probablement que de ces trois concepts, nous en savons le moins sur la consommation. L’Enquête sur les dépenses de consommation a connu des problèmes liés à la façon dont les gens répondent aux questions qui compliquent l’interprétation.

La pointe de la recherche sur la consommation dans le milieu universitaire utilise les données de transaction des banques et des sociétés de cartes de crédit pour suivre ce que les gens dépensent. Des sources telles que Earnest Research permettent au bénéficiaire d’Equitable Growth, Jacob Robbins de l’Université de l’Illinois à Chicago, par exemple, de suivre la façon dont la consommation a réagi à une vague de restrictions de vente au détail pendant la pandémie.

Malheureusement, de nombreux obstacles empêchent les agences gouvernementales d’utiliser ce type de données dans la production de statistiques officielles. Ces ensembles de données ne sont pas représentatifs de l’ensemble de la population américaine, car ils ne suivent que les utilisateurs de cartes de crédit et les personnes disposant de comptes bancaires. Ils n’incluent pas les transactions en espèces et peuvent manquer des transactions si un ménage utilise plus d’un fournisseur de carte de crédit. Les ensembles de données sont chers, un problème pour les agences fédérales à court d’argent. Et l’élaboration des conditions d’utilisation avec les banques et les sociétés émettrices de cartes de crédit peut être un défi de taille.

Enfin, rien ne garantit qu’un jeu de données privé sera cohérent dans le temps. Le fournisseur de données ou le producteur sous-jacent des données (banques et sociétés de cartes de crédit) pourrait apporter des modifications à la collecte de données qui rompent les séries chronologiques. La cohérence des séries chronologiques est l’une des plus grandes réalisations du système statistique fédéral, offrant aux chercheurs des traitements tels qu’une série de données ininterrompue de 74 ans sur les taux de chômage mesurés à peu près de la même manière à chaque période.

En fin de compte, les statistiques gouvernementales pourraient s’appuyer sur une combinaison de données d’enquête et de transactions, ou peut-être sur des changements importants dans la façon dont l’enquête sur les dépenses de consommation est administrée pour améliorer la précision des répondants et développer un ensemble plus complet de données sur la consommation américaine pour mesurer cet aspect de l’inégalité économique américaine.

Le travail à venir

L’Académie nationale des sciences a réuni un panel exceptionnel d’universitaires pour examiner ces questions. Equitable Growth est particulièrement fière qu’il y ait sept bénéficiaires d’Equitable Growth, un membre du comité directeur d’Equitable Growth et trois membres actuels ou anciens de notre conseil consultatif de recherche sur le panel.

Le travail de ce panel est extrêmement important. Comme plusieurs orateurs l’ont fait remarquer, l’inégalité aux États-Unis signifie de plus en plus que les riches et les pauvres vivent des vies radicalement différentes. Ce panel, et le travail de nos agences statistiques fédérales, conduiront à une meilleure compréhension de l’inégalité qui informe les résidents américains et fournit des informations exploitables aux décideurs politiques.

Vous pourriez également aimer...