19 janvier 2018

L'industrie francaise vit sa révolution 4.0 (janvier 2018)

...

12 janvier 2018

Les nouveaux mystères de la productivité (janvier 2018)

Le ressort majeur de la croissance, la productivité, tourne au ralenti. Après avoir accusé l'offre et la demande, les économistes regardent ce qui se passe dans les entreprises. L'énigme persiste.

Avant, la voiture tenait une moyenne de 90 kilomètres à l'heure. Mais depuis l'accident, elle va plutôt à 50. Ca se traîne... C'est exactement ce qui se passe aujourd'hui dans l'économie mondiale. Avant la crise, la productivité du travail progressait de près de 2 % l'an dans les pays avancés (1,8 % précisément, chiffres OCDE). Depuis 2009, elle n'avance plus que de 1 % par an. Et ce ralentissement ne vient pas seulement de la crise. Il a commencé il y a près d'un demi-siècle, comme le montrent des travaux exhaustifs de la Banque de France. Or, la productivité est un ressort essentiel de l'activité. C'est le premier moteur de la croissance. Ses toussotements se répercutent sur toute l'économie et les voyageurs, les électeurs, le sentent bien. Mais le conducteur, le gouvernant, n'y peut pas grand-chose, au moins à court terme, c'est-à-dire à l'horizon de son mandat électoral. Quant aux mécaniciens, l'économiste, il se perd en conjectures.

Le débat a été lancé il y a cinq ans déjà, par Robert Gordon. Ce spécialiste de l'université de Northwestern estimait que le ralentissement est inéluctable, car les nouvelles technologies du XXIe siècle apportent moins de gains de productivité que les anciennes du XIXe. Un robinet d'eau est plus utile qu'un smartphone. Ce à quoi les économistes du MIT Erik Brynjolfsson et Andrew McAfee ont rétorqué que les effets positifs des technologies de l'information commençaient à peine à apparaître. Des historiens comme Joel Mokyr ont rappelé que les innovations majeures diffusent lentement leurs effets. L'électricité a vraiment changé la vie des décennies après l'invention de l'ampoule par Thomas Edison.

De son côté, le professeur de Harvard Larry Summers a insisté sur la demande plutôt que l'offre. Reprenant le concept de « stagnation séculaire » forgé en 1937 par l'un de ses prédécesseurs à la prestigieuse université de Boston, Alvin Hansen, il estime qu'une panne d'investissement plombe les gains de productivité et détraque les taux d'intérêt.

Problème de mesure

Mais ces explications ne suffisent pas. Les économistes se sont donc interrogés sur la mesure. Et si les gains de productivité étaient trop nouveaux pour être détectés par les outils statistiques traditionnels ? Aux Etats-Unis par exemple, les Etats où la densité de brevets déposés est la plus forte sont ceux où les gains de productivité sont les plus faibles. L'économiste Philippe Aghion, professeur au Collège de France, a publié des travaux estimant la « croissance manquante » dans plusieurs pays.

En France, la production mesurée par le PIB aurait ainsi récemment progressé de 0,6 % de plus chaque année que ne l'indiquent les comptes nationaux de l'Insee. C'est loin d'être négligeable. Mais les économistes s'accordent à dire que le problème de mesure n'explique pas tout le ralentissement constaté. Il faut donc aller plus loin, voir ce qui se passe sous le capot - c'est-à-dire dans les entreprises. Trois pistes ont été avancées.

D'abord, il y aurait trop de crédit. Avec les politiques monétaires très accommodantes menées depuis la crise financière, des entreprises peu productives survivent en empruntant de l'argent. Trois chercheurs de l'OCDE, Müge Adalet McGowan, Dan Andrews et Valentine Millot, ont publié un article au titre frappant : « Les morts-vivants ? Entreprises zombies et productivité. » Ils montrent que dans un secteur donné, « une part plus élevée du capital piégée dans des firmes zombies est associée avec un investissement plus faible et de moindres créations d'emploi par les entreprises non zombies » . Les mauvaises entreprises chassent les bonnes. La productivité en souffre.

Ensuite, il n'y aurait pas assez de concurrence. Après des années de croissance et de fusions, les grandes entreprises dominent de nombreux marchés. Jason Furman, qui fut chef des conseillers économiques du président Barack Obama, donne des chiffres impressionnants sur les Etats-Unis. Dans le commerce de détail, les cinquante premières firmes du secteur ont porté leur part du marché de 26 à 37 % en quinze ans. Les nouvelles entreprises (créées il y a moins de cinq ans) emploient aujourd'hui à peine plus de 10 % des salariés, contre 40 % en 1980. Or la concurrence est un aiguillon essentiel de l'innovation et de la productivité.

L'un des chercheurs de l'OCDE qui avait travaillé sur les firmes zombies, Dan Andrews, a regardé avec deux autres de ses collègues, Chiara Criscuolo et Peter Gal, les différences de productivité au sein d'un même secteur. Ils montrent que les firmes les plus productives n'ont cessé de progresser, tandis que les autres ont carrément stagné. Des inégalités croissantes entre entreprises expliqueraient donc le ralentissement de la productivité. Ce qui pourrait s'expliquer par les performances des plates-formes électroniques comme Amazon, qui réalisent des progrès inaccessibles à leurs rivaux. Mais d'autres chercheurs ont relevé que les entreprises les meilleures changent souvent d'une année sur l'autre...

Enfin, il n'y aurait pas assez de compétences. Ou pour être plus précis, les compétences de la population active sont loin d'être celles qui seraient nécessaires pour exploiter le potentiel de la révolution technologique. Des chercheurs évoquent aussi les compétences des managers. Cette piste-là a été pour l'instant moins explorée par les économistes. Mais là aussi, les parallèles historiques sont utiles. A la fin du XIXe siècle, quand la deuxième révolution industrielle prenait son essor, Jules Ferry et les républicains ont rendu l'école gratuite puis l'instruction obligatoire. Aujourd'hui, rien n'indique pareille mobilisation éducative, sauf peut-être en Corée du Sud ou dans les pays nordiques. C'est sans doute l'une des barrières aux gains de productivité. Les mécaniciens de l'économie n'ont pas fini de chercher.

       

VITTORI Jean-Marc, « Les nouveaux mystères de la productivité », Les Échos, jeudi 11 janvier 2018, n°22611, p. 9.

09 janvier 2018

Objectifs et dangers de la flexibilité du marché du travail (janvier 2018)

Si la flexibilité du travail permet d'absorber les chocs et d'accélérer la rotation des emplois, elle s'accompagne d'effets pervers à prendre en compte.

Au moment où la flexibilité du marché du travail est accrue en France, il faut s'interroger sur ses objectifs. À court terme, la flexibilité doit entraîner une réaction plus forte de l'emploi et des salaires aux chocs, donc faire supporter une partie plus importante du coût de ces chocs par les salariés. Peut-on accepter que les salariés portent ainsi une part plus importante du risque d'entreprise dans les périodes de difficulté ? Second objectif : à long terme, la flexibilité doit permettre d'accélérer la rotation des emplois des entreprises anciennes, peu efficaces, vers les entreprises nouvelles, plus efficaces. La difficulté ici est que dans la période contemporaine, les emplois créés sont de moins bonne qualité que les emplois détruits en raison de la réallocation de l'emploi entre secteurs d'activité.

Dans une optique de court terme, la flexibilité du marché du travail permet aux entreprises d'ajuster plus facilement à la baisse l'emploi et les salaires réels lorsqu'il y a des chocs conjoncturels défavorables. On a vu dans la crise de 2008-2009 cet ajustement plus violent de l'emploi et des salaires aux États-Unis par rapport à la zone euro : en 2009, l'emploi recule de 5 % par an et le salaire réel de 2 % par an aux États-Unis, ce qui est considérable. Ceci a permis qu'il y ait aux États-Unis un moindre recul des profits des entreprises en 2007-2008-2009, d'où un redressement plus rapide de l'investissement : l'investissement des entreprises repart fortement dès 2010 aux États-Unis, seulement en 2014 dans la zone euro.

Il s'agit donc, avec la flexibilité du marché du travail, de permettre que les salariés portent une partie plus importante du risque d'entreprise dans les périodes de difficulté. Mais la question posée est celle du caractère asymétrique ou symétrique de ce partage des risques : si les salariés supportent une partie plus importante du risque d'entreprise dans les périodes de difficulté, bénéficient-ils symétriquement des périodes de bonne situation des entreprises ?

Quand on compare l'évolution des profits et celle des salaires réels, on voit la faiblesse des hausses de salaire réel, malgré le niveau élevé des profits aux États-Unis depuis 2011, dans la zone euro depuis 2013 : les salariés ne sont pas beaucoup associés à la prospérité des entreprises, ils le sont de plus en plus à leurs difficultés.

Effets pervers

Dans une optique de long terme, la flexibilité du marché du travail a comme objectif d'accélérer la rotation des emplois des entreprises anciennes, peu productives, peu efficaces, vers les entreprises nouvelles, plus productives, plus efficaces. Ceci est la source « schumpetérienne » de la croissance : le transfert des emplois vers les entreprises plus efficaces, soit d'un secteur d'activité à l'autre, soit à l'intérieur d'un secteur d'activité. Mais dans la période contemporaine, on observe que les emplois crées sont de moins bonne qualité, ont un niveau de productivité plus faible que les emplois détruits. Ceci vient en particulier du remplacement des emplois dans l'industrie manufacturière par des emplois de services, en particulier dans les services domestiques peu sophistiqués, avec une productivité du travail plus faible dans l'industrie que dans les services. Dans la zone euro, par exemple - mais la situation est similaire aux États-Unis -, l'emploi industriel a reculé de 14 % en 15 ans, l'emploi dans les services domestiques (distribution, loisirs, services à la personne...) a progressé de 13 %. Le niveau de productivité du travail dans les services domestiques est inférieur de près de 50 % au niveau de la productivité du travail dans l'industrie.

Le danger est donc que la rotation des emplois, si elle est accrue par la flexibilité, conduise à une baisse accélérée de la sophistication des emplois et du niveau global moyen de la productivité du travail. Ce qui précède concerne la réallocation entre secteurs d'activité des emplois, leur transfert vers les services domestiques peu sophistiqués ayant des effets défavorables sur l'efficacité globale de l'économie.

La situation semble être différente en ce qui concerne la réallocation entre entreprises à l'intérieur d'un secteur d'activité. Des travaux de recherche récents montrent en effet que la difficulté de la réallocation des facteurs de production (qui dans le cas de l'emploi, peut être corrigée par la flexibilité) explique l'écart croissant de productivité entre les entreprises les plus efficaces (à la frontière efficiente technologique) et les autres entreprises.

Les objectifs de la flexibilité sont donc clairs, mais il faut faire attention aux effets pervers. À court terme, la flexibilité a comme objectif de faire supporter aux salariés une partie plus importante du risque d'entreprise, mais il faut vérifier que symétriquement les salariés bénéficient de la bonne santé des entreprises, ce qui n'est pas guère le cas aujourd'hui. À long terme, la flexibilité a comme objectif d'accélérer la rotation des emplois vers des entreprises plus efficaces, mais il faut prendre garde à ce que, aujourd'hui, la qualité des emplois détruits (en particulier dans l'industrie) est supérieure à celle des emplois crées (en particulier dans les services domestiques), au moins lorsqu'il s'agit de la réallocation des emplois entre branches (secteurs d'activité).

      

ARTUS Patrick, « Objectifs et dangers de la flexibilité du marché du travail », Le Point, lundi 8 janvier 2018, n°201801.

02 janvier 2018

N'oublions pas l'intelligence collective (janvier 2018)

Vouloir engager une réflexion nationale sur l'intelligence artificielle est un piège politique que le gouvernement se tend à lui-même. Pour l'éviter, il vaut mieux chercher la synthèse de l'intelligence artificielle et de l'intelligence collective

Le premier ministre a confié au député et mathématicien Cédric Villani une mission sur l'intelligence artificielle (IA) pour l'éclairer et « ouvrir le champ à une ­réflexion nationale . L'enjeu est de taille. Mark Zuckerberg, le fondateur de Facebook, et Eric Schmidt, président exécutif de Google, pensent pouvoir, grâce à l'IA, « réparer tous les problèmes du monde .

Ce courant de pensée est puissant, mais critiqué pour ses dérives « solutionnistes . Demander à l'IA de ­résoudre le problème des sans-abri reviendrait à lui laisser les effacer en temps réel dans nos lunettes de ­réalité augmentée. Si perfectionnée soit-elle, l'IA ne sait pas contextualiser les problèmes pour les élucider, et se précipite trop tôt sur de fausses solutions. C'est pourquoi Elon Musk, fondateur de Tesla, craint un scénario à la Terminator : « Jusqu'à ce que les gens voient vraiment des ­robots tuer des personnes, ils ne sauront pas comment réagir, tellement ça leur paraîtra irréel. » Pour contrer ce funeste destin, il a créé la société Neuralink, destinée à augmenter nos capacités cérébrales grâce à de minuscules composants électroniques entrelacés entre nos 86 milliards de neurones.Un deuxième courant de pensée « transhumaniste », lui-même critiqué pour être un remède pire que le mal.

occasions ratées

A l'inverse, l'intelligence collective (IC) veut augmenter la coopération entre les humains. Un rêve ancien resté inachevé. L'intelligence est ­certes interconnectée avec Internet et collaborative avec Google et les ­réseaux sociaux, mais elle est encore peu collective. Ce développement s'est toujours heurté aux limites du bénévolat, de la gouvernance partagée ou de l'organisation hiérarchique. A chaque fois qu'une dynamique d'invention collective s'est mise à bouillonner, pour lancer la machine à vapeur ou la micro-informatique, elle s'est figée dès les premiers succès. Les contributeurs se disputent la propriété des fruits de l'IC et, lorsqu'ils essaient de résoudre le ­dilemme entre propriété privée ou commune, ils s'enlisent dans le clivage capitalisme-communisme.

Le thème de l'IA conduit mécaniquement aux thèses solutionniste et transhumaniste, et son inverse l'IC conduit aux antithèses capitaliste et communiste. Bloquée dans ces oppositions, la pensée ressasse les craintes du chômage, de colonisation numérique, de fuite des cerveaux, d'impossibilité de régulation et de perte de souveraineté. Elle ­sécrète ainsi un poison anxiogène qui intoxiquera toute réflexion ­nationale. Le gouvernement, qui n'aura aucun argument solide face à ces craintes, dépensera son énergie à ne pas se laisser contaminer. On ­exhortera l'IA à être plus « verte » et responsable, on durcira les contrôles administratifs, on dispensera quelques saupoudrages pour adoucir le mal, et on finira par ranger le tout dans le tiroir des occasions ratées.

Pourtant notre histoire a déjà été confrontée à ce type de situation. Pour faire émerger une nouvelle ­intelligence du monde, Descartes établissait au XVIIe siècle la prééminence du raisonnement. Isaac ­Newton lui opposait celle de l'observation, constatant qu'une pomme est attirée par la Terre comme les ­planètes par le Soleil. Cette querelle de deux sciences incomplètes a alimenté de vains débats pendant presque un siècle. Il a fallu attendre les Lumières pour inventer la synthèse du raisonnement et de l'observation par la science moderne. Alors seulement celle-ci a pu se développer pour résoudre les grands problèmes de son temps - la misère, les épidémies et la mortalité infantile.

nouvelle science

De même, aujourd'hui, la réflexion doit se focaliser sur la synthèse naissante des intelligences IA + IC. Celle-ci se dessine grâce à un foisonnement de jeunes expériences pour mieux coordonner les automobilistes et ­accroître la sécurité routière. Pour partager images médicales et expertises, et améliorer la prévention des risques. Pour enrichir et simplifier la coopération entre les équipes marketing et leurs clients, entre élèves et professeurs. Pour mesurer, sur les plates-formes « décentralisées », la valeur de chaque ­contribution, lui ­attribuer des parts de copropriété et sortir du travail gratuit habituellement récolté par les GAFA [Google, Apple, Facebook et Amazon] . Pour ­gérer les oeuvres collectives et les big data comme des ­copropriétés massives, dépasser les vieux clivages idéologiques sur la propriété et sortir du tout-gratuit lorsque les GAFA les ­monétisent. Pour mesurer de multiples indicateurs de qualité de vie, les inclure dans les statistiques officielles et gouverner une économie enfin durable. Aucun de ces enjeux n'est accessible à l'IA ou l'IC pris séparément.

En traitant le sujet tel qu'il lui a été confié, l'aboutissement de la mission sur l'IA sera anxiogène pour la réflexion nationale. En ouvrant son sujet à la synthèse de l'IA et de l'IC, la mission Villani pourra orienter les Français et les Européens vers l'avènement d'une nouvelle science ­capable de faire face aux grands problèmes contemporains. Seule une telle vision pourra offrir une alternative aux courants de pensée ­dominants de l'IA et correspondra à nos valeurs, davantage portées par l'intérêt collectif.

      

Vincent Lorphelin, Christian Saint-étienne, Denis Jacquet, Fabrice Imbault, Jean-Paul Betbèze et Jean-Philippe Robé, « N’oublions pas l’intelligence collective », Le Monde, mardi 2 janvier 2018, p. SPA6.

23 décembre 2017

" Ma priorité, c'est l'emploi " (décembre 2017)

L'époque où l'on pensait que la solution au problème du chômage procédait de la simple habileté budgétaire des dirigeants politiques est révolue. Tout dépend en réalité d'une série de décisions émanant d'une multitude d'acteurs économiques que le marché associe. Le rôle de l'Etat est de les encourager, pas de se substituer à eux.

Auditionné par le Sénat avant sa reconduction - début décembre - à un troisième mandat à la tête de Pôle emploi, Jean Bassères déclarait ceci : « Je suis frappé de voir que beaucoup d'employeurs, quand on leur demande leurs difficultés de recrutement, évoquent les comportements, il faut qu'on travaille cela. Aujourd'hui, beaucoup d'emplois sont dans les services et, dans les services, ce qui compte c'est le savoir-être. »

Ces propos traduisent chez ce spécialiste du marché du travail une approche microéconomique que l'on peut associer à la notion de « mobication » . Celle-ci a été introduite, il y a quelques années, par des économistes danois afin de compléter, voire de remplacer, la « flexisécurité » .

Dans la flexisécurité, les salariés renoncent à des protections portant sur leur période de travail, notamment sur les conditions de licenciement, en échange de protections pendant les périodes éventuelles de chômage. Dans la « mobication », la réorganisation des droits des salariés ne se fait pas entre les périodes d'emploi et celles de chômage, mais par l'introduction des devoirs dans la gestion de leur carrière. Le pilier de la « mobication » est un système de formation très développé qui ne se contente pas de transmettre des savoir-faire - « skill » en anglais - mais qui apprend à combiner compétence technique et bonne volonté relationnelle pour créer des savoir-être - dont l'acquisition se traduit en anglais par « education » .

Le recours de plus en plus fréquent à la théorie de la « mobication » pour fonder l'analyse du marché du travail tend à clore la période où cette analyse était strictement macroéconomique.

Cette période débute en 1947 avec la publication d'un livre fondateur, intitulé « Economic Policy and Full Employment » . Ce texte a pour auteur Alvin Hansen, un professeur de Harvard, qui fut à la fois un théoricien reconnu du keynésianisme et unconseiller de Franklin Roosevelt et d'Harry Truman.

Pour lui, l'acteur primordial du marché du travail n'est ni le salarié ni l'entreprise, mais l'Etat. Faisant le bilan des années 1930, il dénonce l'erreur des gouvernements de l'époque qui ont cru n'avoir le choix qu'entre la passivité, qui conduit à la détresse sociale, et la nationalisation partielle ou totale de l'économie, dont les expériences soviétique ou fasciste ont montré que, si elle assure le plein-emploi, ce n'est qu'au prix de la disparition des libertés.

Selon Hansen, il est possible d'échapper à ce dilemme. Pour atteindre le plein-emploi, il faut et il suffit que l'Etat maintienne un haut niveau de demande globale en utilisant la politique budgétaire. Hansen érige la politique budgétaire au rang de panacée, capable de guérir les deux maux que sont le chômage et l'inflation. Pendant les phases de récession, on augmente les investissements publics, ce qui nourrit la demande et accroît le stock de capital sur lequel se construit la reprise de l'offre. Symétriquement, pendant les phases de surchauffe et d'inflation, on absorbe l'excès de demande en augmentant les impôts.

Hansen a fourni aux dirigeants politiques des années 1950-1960 les idées et les outils leur permettant de défendre des slogans tels que « ma priorité, c'est l'emploi » . C'est ainsi, par exemple, qu'après le choc pétrolier de 1973, Valéry Giscard d'Estaing, alors ministre de l'Economie et des Finances, n'hésita pas à affirmer : « Le gouvernement fera le nécessaire à temps pour vous protéger du chômage. Il en a la volonté et il en a les moyens. »

Depuis, les déconvenues se sont succédé. L'échec des politiques de relance de 1975 a commencé à ébranler les certitudes keynésiennes. Loin d'assurer le retour à la croissance celles-ci ont amplifié la stagflation naissante, combinaison d'accélération de l'inflation et d'accroissement du chômage.

En 1994, l'OCDE publie sa stratégie pour l'emploi en 10 points. La politique macroéconomique cesse officiellement d'être l'alpha et l'oméga de la lutte contre le chômage. Elle ne fait l'objet que du premier point et sous forme plus ou moins de mise en garde. L'OCDE recommande en effet d' « élaborer une politique macroéconomique qui favorise la croissance et qui, conjuguée à des politiques structurelles appropriées, la rende durable, c'est-à-dire non inflationniste » .

Dans le préambule de la Constitution de 1946 repris par celle de 1958, il est écrit : « Chacun a le devoir de travailler et le droit d'obtenir un emploi. » Pour les rédacteurs, inspirés par le keynésianisme en pleine ascension intellectuelle, ce devoir et ce droit n'avaient pas de lien particulier, puisque c'est à l'Etat qu'il appartenait de donner à ce droit une réalité effective.

Aujourd'hui, en s'appuyant sur ce que dit Jean Bassères, on peut soutenir que le savoir-être conditionne davantage la croissance que la demande globale, si bien que ce devoir et ce droit sont intimement liés. Les dirigeants politiques sont obligés de constater que la solution au problème du chômage ne viendra pas de leur habileté budgétaire, mais des décisions d'une multitude d'acteurs économiques que le marché associe.

Cela ne signifie pas pour autant que l'Etat peut se retirer dans la passivité de l'entre-deux-guerres. Il doit d'abord retrouver la sagesse des médecins qui, conscients de ne pas détenir la panacée, s'imposent de respecter le principe : « primum non nocere » . Cela veut dire que l'Etat doit cesser de décourager les créateurs de richesse et d'emplois en les matraquant d'impôts. Il doit surtout trouver le moyen de s'associer à la promotion du savoir-être.

       

DANIEL Jean-Marc, « Ma priorité, c’est l’emploi », Les Échos, mercredi 20 décembre 2017, n°22597, p. 13.

17 décembre 2017

Aux États-Unis, la neutralité du Web est un débat économique (décembre 2017)

L'économiste Elie Cohen rappelle les combats des opérateurs de télécoms américains pour réguler eux-mêmes les débits et l'accès à Internet, et estime que la différenciation des flux de données est inévitable

Aux Etats-Unis, l'agence fédérale des communications, la Federal Communications Commission (FCC), rompant avec son combat permanent, devrait renoncer le 14 décembre à la neutralité du Net. Ajit Pai, récemment nommé par Donald Trump à la tête de cette agence, vient de décider d'abandonner les pouvoirs conquis par ses prédécesseurs pour faire respecter cette neutralité. La transmission de données sans restriction ni altération, sans prise en compte de la nature du service, de son origine ou de sa destination, n'est donc plus l'objectif que s'assigne la FCC. L'idéal d'un Internet ouvert, sans dif­férenciation de la tarification d'accès, sans privilège accordé aux détenteurs des tuyaux, est abandonné.

Alors qu'elle pouvait jusqu'ici sanctionner les propriétaires des réseaux - les opérateurs de télécoms et les câblo-opérateurs - en cas de violation de ces principes, la FCC substitue une pâle obligation de transparence. Comme il l'a fait pour les questions environnementales, Donald Trump détruit l'oeu­vre législative de son prédécesseur en plaçant à la tête du régulateur un de ses ennemis les plus motivés (Ajit Pai a été au service de l'opérateur Verizon). Une fois dans la place, celui-ci met en cause la doctrine de l'institution et, face au chaos créé, évoque la possibilité de modifier la législation.

Pour bien comprendre la portée de cette décision, rappelons qu'en juin 2016 la cour d'appel de Washington confirmait la légitimité des règles de neutralité du Net, établies par la FCC en 2015 et contestées devant les tribunaux pendant dix ans par les opérateurs de réseaux. En cela, elle maintenait l'interdiction faite à ces fournisseurs d'accès Internet (FAI) de bloquer l'accès à certains sites, de freiner certains conte­nus malgré les protestations depuis 2005 des opérateurs de télécoms, qui y voient un avantage indu accordé à Google et autres fournisseurs de contenu.

Cette décision de l'administration Obama mettait un terme provisoire à dix ans de procès générés par les ambiguïtés de la loi sur les télécommunications de 1996.

Les opérateurs et leurs rentes

Pour les fournisseurs d'accès Internet, la querelle avec la FCC portait sur trois enjeux majeurs. D'une part, la croissance exponentielle des débits sur les réseaux oblige les opérateurs à des investissements continus qui profitent aux producteurs de contenus pour un coût minime. D'autre part, pour promouvoir certains services comme la ­télémédecine ou les véhicules autonomes, les opérateurs ont besoin de garantir la qualité et la fiabilité de leurs réseaux et, pour cela, il peut parfois être nécessaire d'effacer certaines applications perturbatrices. Enfin, comment ces opérateurs peuvent-ils se différencier s'ils ne sont pas capables d'offrir des services et des contenus exclusifs? Pour eux, il faut rétablir l'égalité avec les plates-formes de contenus en permettant des accès différenciés, en ­mettant à contribution des offreurs de contenus et en rétablissant l'incitation à investir dans les réseaux.

Ce débat a pris un tour violent et procédurier aux Etats-Unis, non pas tant à cause de la volonté de préserver la liberté inentamée de l'internaute créatif, mais à cause d'un combat entre monopoles de fait. A la différence de l'Europe, les Etats-Unis n'ont pas connu un fort développement de la concurrence dans l'accès au réseau. Pour l'essentiel, celle-ci se joue, au niveau local, entre un câblo-opérateur et un opérateur de télécoms, chacun cherchant à préserver sa rente de situation. L'action du régulateur est décisive, car elle permet d'ouvrir le jeu, et le principe de neutralité du Net l'est tout autant, car il permet de réaliser ce que la concurrence ne permet pas.

Les premiers affrontements entre monopoles locaux et sociétés Internet sont venus d'entreprises comme Bit Torrent, qui offrait de la vidéo forte consommatrice de bande passante sans en payer le prix. Mais, avec le temps, ce sont les Google et autres GAFA qui ont pris le dessus et qui sont devenus les vrais rivaux des opérateurs de réseaux, leur taillant même des croupières avec des services comme WhatsApp. En protégeant longtemps les monopoles de la nouvelle économie (de la Silicon Valley) au nom de la neutralité du Net, les régulateurs américains jusqu'à l'arrivée de Trump ont de fait arbitré contre les monopoles de l'ancienne économie (câblos ou télécoms, Verizon ou ATT).

Une hiérarchisation des offres?

La situation est quelque peu différente en Europe, en particulier parce que l'offre d'accès est plus fragmentée et que l'on constate une moindre intégration verticale contenant-contenu.

En 2015, l'Union européenne a adopté des règles de neutralité du Net, obligeant les opérateurs de télécoms, com­me Orange ou Deutsche Telekom, de traiter de manière égale le trafic de toutes origines. Les fournisseurs Internet peuvent certes ralentir des flux de données, mais uniquement pour améliorer une qualité médiocre et non pour différencier des offres commerciales. Les régulateurs nationaux peuvent, dans ce cadre, forcer les sociétés d'accès à respecter les règles et, au besoin, leur imposer des amendes.

Le débat porte donc en Europe, non pas tant sur l'égal accès ou sur la discrimination dans l'accès, mais sur les services spécialisés qui, pour des raisons de qualité et de fiabilité, peuvent jus­tifier des débits plus rapides garantis, mais sans altérer la qualité moyenne. Pour les défenseurs intransigeants de la neutralité du Net, cette possibilité de différencier l'offre est une porte ouverte à la hiérarchisation des offres et à la modulation tarifaire. Mais on voit bien qu'elle permet le dévelop­pement de l'emprise des GAFA et leur enrichissement continu.

Bataille entre monopoles anciens et nouveaux aux Etats-Unis, concurrence entre opérateurs fragmentés en Europe, avec, dans les deux cas, un triomphe des GAFA, faut-il vraiment défendre la neutralité d'Internet telle qu'elle est pratiquée?

Cette neutralité, entendue comme accès pluraliste et non discriminatoire au réseau, est à préserver absolument. Néanmoins, la différenciation des flux de données pour des raisons techno­logiques et économiques est inévitable. Par exemple, le développement du véhicule autonome nécessitera une qualité de service et un accès au réseau ­irréprochables. Et comme elle est incapable de traiter les monopoles de la nouvelle économie (faut-il scinder ou non les GAFA?), la régulation a de beaux jours devant elle pour fixer les règles du jeu de l'avenir.

      

COHEN Élie, « Aux États-Unis, la neutralité du web est un débat économique », Le Monde, jeudi 14 décembre 2017, p. 25.

05 décembre 2017

Emploi : pourquoi l'impact de la robotisation et de l'ubérisation ne sont pas ceux que vous croyez (décembre 2017)

Si les deux phénomènes sont préoccupants, il faut se garder d’un certain catastrophisme : après tout, ces techniques et technologies sont ce que nous en faisons.

Atlantico : Dans une note publiée ce 24 novembre, l’économiste Patrick Artus indique que les débats publics actuels révèlent deux idées reçues, sur la destruction de l’emploi d’une part, et du salariat d’autre part, par les nouvelles technologies et l’intelligence artificielle. Pourquoi s’agirait-il d’idées reçues ?

Patrick Artus : En ce qui concerne les destructions d’emplois, nous avons beaucoup de données, et de travaux d’études sur celles-ci, et on voit très bien que l’installation d’un robot au sens large dans une entreprise à 3 effets. Le premier effet est de détruire des emplois localement, les emplois robotisés disparaissent. Le deuxième effet est de rendre l’entreprise plus efficace, ce qui lui permet de gagner des parts de marché, des clients etc... et va donc grandir plus vite, ce qui est créateur d’emplois. Et le troisième effet est la création d’emplois autour de l’entreprise, dans son bassin d’emploi, parce que l’entreprise distribue plus de revenus, donc génère plus de consommation, a besoin de services nouveaux. Et quand on fait la somme de ces 3 effets, 1 négatif direct, et 2 positifs indirects, on obtient un léger effet positif. Les robots créent globalement de l’emploi. Simplement, les emplois créés sont souvent de plus mauvaise qualité que ceux qui ont été détruits. On détruit des emplois dans l’industrie pour créer des emplois dans les services, dans la distribution, dans la logistique, et on arrive à une situation ou s’il n’y pas de perte globale d’emplois, il y a une situation de dégradation de la qualification moyenne des emplois.

Le second sujet est celui du salariat. Mais il y a une confusion entre autonomie et salariat. On peut très bien être non salarié et ne pas être autonome ; un chauffeur Uber n’est pas très autonome en réalité, il dépend de l’application d’Uber, d’Uber pour sa rémunération. Et l’on peut être salarié et être totalement autonome. Par exemple, Google donne une énorme autonomie à ses salariés dans le travail. Autant, dans le monde d’aujourd’hui, nous avons besoin de gens qui sont autonomes dans leur travail, autant ceci ne nécessite absolument pas qu’il ne soit pas salarié. Aux États-Unis 95% des emplois sont salariés et la proportion de salariés ne cesse de progresser. Il y a donc une anomalie française et anglaise qui est celle de la hausse des non-salariés mais il faut voir qu’elle est plutôt liée au détournement du code du travail. Les chauffeurs Uber sont non-salariés parce que cela arrange Uber de ne pas avoir à s’occuper de leur protection sociale etc... Mais il n’y a pas de raison technologique au fait qu’ils ne soient pas salariés.

Puis, en regardant plus largement les pays qui sont les plus robotisés, on constate qu’il n’y a pas de lien avec le chômage. En prenant l’exemple extrême qu’est la Corée, on constate qu’elle a deux fois plus de robots par emploi que l’Allemagne qui en a elle-même deux fois plus que la France, ce qui montre un niveau de robotisation extrêmement élevé. Et malgré ce chiffre, la Corée est un pays qui a une industrie de grande taille, qui gagne des parts de marché à l’exportation, qui ne perd pas d’emplois dans l’industrie, qui est radicalement au plein emploi, qui fait des gains de productivité extrêmement rapides. Il n’y a aucune corrélation négative entre le taux d’emploi et le degré de robotisation, au contraire, la corrélation est légèrement positive. Il n’y a donc aucune évidence empirique que les pays qui ont fait un très grand effort de robotisation sont des pays qui ont des problèmes de chômage. Ils peuvent avoir des problèmes de déformation de la structure des emplois mais la France, qui a un taux de robotisation faible, a un niveau de chômage structurel extrêmement élevé, un problème de commerce extérieur, un taux d’emploi qui est assez faible.

Rémi Bourgeot : Dans la perspective d’une comparaison internationale, il apparaît clairement que les pays dont les économies reposent le plus sur la robotisation sont loin d’être frappés par un chômage plus important. Bien au contraire, ces pays ont tendance à connaître des taux de chômage très faibles. Le Japon est un exemple notable, avec 3 robots industriels pour 100 travailleurs dans le secteur manufacturier (contre 1.3 en France et 1.8 aux Etats-Unis) et un taux de chômage structurellement très faible, actuellement inférieur à 3% de la population active.

Cela ne signifie naturellement pas que ces pays échappent à toutes difficultés économiques et qu’ils sont étrangers aux déséquilibres qui caractérisent l’économie mondiale. Notons que ces comparaisons ne visent évidemment pas à démontrer un lien direct de cause à effet : les pays qui se robotisent plus vite que les autres gagnent en compétitivité et en parts de marché et réduisent simultanément leur taux de chômage, qui est par ailleurs aussi influencé par l’évolution démographique, notamment au Japon. En toute logique, si tous les pays se robotisaient au même rythme, l’absence de ces gains de compétitivité se traduirait par un impact plus significatif sur le chômage. Ces comparaisons, si elles ne peuvent naturellement pas établir un lien direct, permettent néanmoins de récuser le raisonnement selon lequel « robotisation égale chômage » ou plus généralement l’idée que l’effondrement de l’emploi industriel serait inéluctable du fait de l’évolution technologique. C’est l’objet de l’analyse de Patrick Artus et il a parfaitement raison.

La robotisation (et en fait tout ce qui relève de la modernisation technologique de façon beaucoup plus générale) détruit des emplois. Elle en créée d’autres, en général en moins grand nombre, mais cela dépend considérablement du cadre scientifique, social et économique (notamment commercial) dans lequel s’opère la modernisation technologique à l’échelle nationale et internationale. On peut par exemple remplacer des ouvriers par des machines importées, et dans ce cas la perte d’emplois est beaucoup plus brutale que dans les pays qui développent simultanément leurs compétences en robotique et dans toutes les technologies qui y sont liées, dont l’intelligence artificielle. Les écarts de compétitivité dans la fabrication de machines-outils ou de robots sont considérables. Les pays qui, non seulement se robotisent lentement, mais qui en plus ne développent pas de compétence dans la construction de robots ni dans la mise au point de processus robotisés, sont dans une impasse.

Le scandale provoqué par le rachat par un groupe chinois du constructeur allemand de robots KUKA illustre la conscience de cette question dans certains pays, tout comme de celle, progressivement, de l’intégration géographique des processus de conception et de production, après quarante années d’éclatement.

Pour faire court, la robotisation est un pari gagnant pour les sociétés qui s’efforcent d’en maîtriser les différents aspects et de créer des emplois plus avancés. Les pays qui suivent un simple credo administratif reposant sur une technophilie abstraite et peu renseignée tout en reléguant les populations scientifiques profitent beaucoup moins de la révolution industrielle en cours. On redécouvre la différence fondamentale entre la connaissance des secteurs économiques et des technologies sous forme de fiches, de « matrices » ou d’éléments de langage et la profondeur d’une intuition scientifique et technologique véritable. Il s’avère que les pays dont les systèmes politiques sont susceptibles de laisser travailler les créateurs, ingénieurs et scientifiques en tous genres ont aussi tendance à avoir une approche très concrète de l’inclusion sociale et à ne pas accepter le fléau du chômage de masse au nom d’utopies administratives.

Peut-on voir dans ces idées reçues, soit un prétexte pour justifier des réformes du type revenu universel, ou comme une « excuse » permettant de justifier les taux de chômage actuels qui seraient ainsi une « fatalité » ?

Patrick Artus : Il y a une exploitation dans certains cas. On rencontre lors de conférences, des économistes et des sociologues plutôt de de gauche je dirais, qui défendent la thèse que, effectivement (comme Benoît Hamon lors de la présidentielle) l’intelligence artificielle va conduire au chômage de masse et que donc il n’y aurait que deux solutions possibles qui sont soit le partage du travail soit le revenu universel de base. A nouveau, cela est faux dans la mesure ou la robotisation ne conduit absolument pas au chômage de masse. Parfois le point de repli de ces personnes est de dire « d’accord, la robotisation ne créée pas de chômage mais comme les emplois qu’elle créée sont souvent des emplois dans les services qui ne sont pas formidables, nous allons considérer que ce ne sont pas des emplois », et que donc il y a du chômage. Alors, on peut dire ce que l’on veut, mais cela relève du détournement idéologique. Et puis après, il y a quelque chose de non idéologique, mais qui est dangereux, et qui est de dire que si vous croyez par erreur que le digital nécessite à un passage à une société non salariée, vous allez réfléchir à une réforme complète de votre protection sociale pour couvrir les non salariés à partir de la protection sociale des salariés. Ce qui est une réforme extraordinairement compliquée et qui est en réalité totalement inutile. Cela part d’un bon sentiment, par exemple donner une protection sociale aux chauffeurs d’Uber et à partir de là on veut réformer l’ensemble de la protection sociale. Alors que la chose normale serait de faire en sorte que les chauffeurs d’Uber soient salariés. Il n’y aucune raison qu’ils ne le soient pas; ils travaillent pour un seul employeur.

Rémi Bourgeot : Ces idées reçues visent évidemment à expliquer que si la mondialisation n’est finalement pas aussi heureuse que le prétendaient les gourous des années 1990 (dont certains se sont reconverties en grande conscience sociale), c’est parce que la modernité technologique est dure pour les populations peu éduquées, etc.

On constate une tendance forte depuis la crise financière à produire des lois historiques bancales qui permettraient d’expliquer nos maux économiques, qu’il s’agisse des inégalités (dont la croissance correspondrait à l’écart irréductible sur le long terme entre rendement du capital et croissance économique) ou du chômage qui serait un dommage collatéral de la modernisation technologique. La prétention historique de l’économisme post-crise financière a quelque chose de tragique, en ce qu’elle vise souvent à nier les responsabilités liées au déraillement de nos modèles de croissance et au chômage de masse. On constate cette tendance à couvrir les erreurs politiques d’un fatalisme pseudo-historique teinté d’inéluctabilité technologique. C’est encore cette approche qui permet de nier les conséquences économiques et financières des déséquilibres commerciaux considérables qui continuent de se creuser dans le monde et très près de chez nous en Europe.

Dans ce contexte, l’idée très vague du revenu universel, qui pourrait avoir une certaine validité, joue surtout le rôle de cerise sur le gâteau dans la déresponsabilisation non pas tant des travailleurs que des responsables politiques peu désireux d’interroger les crédos bureaucratiques.

La technologie peut détruire l’emploi comme elle peut en créer. Dans un cadre politique inerte où règne un primat administratif absolu, la technologie a tendance à évoluer en fait lentement et ses évolutions ont effectivement tendance à détruire de l’emploi. Historiquement la technologie, en premier lieu sous la forme de la mécanisation, a plutôt été vue comme un outil d’émancipation des sociétés humaines au-delà des clivages idéologiques et une fois atténués les aspects les plus sombres de la première révolution industrielle. Les étapes qui sont en train d’être franchies par l’automation, en particulier en ce qui concerne l’intelligence artificielle, pose la question du rôle de l’Homme dans le processus de production et renvoie en réalité à des questions d’ordre philosophique, pour ne pas dire spirituel. La société administrative qui a émergé au cours des dernières décennies, et qui connait en France une forme aiguë, a le plus grand mal à mettre au point un modèle économique à même d’intégrer l’activité humaine dans cette nouvelle donne technologique, qui offre pourtant des opportunités radicalement nouvelles. L’impression 3D, par exemple, de par son extrême flexibilité, pourrait, couplée aux moyens numériques, changer l’approche même de la création matérielle et réhabiliter l’artisan comme l’inventeur. L’idée de la sortie du travail est une utopie liée au refus de penser des modes de travail véritablement nouveaux. Son principe même, influencé par une vision consumériste et mécanique de la société, est probablement incompatible autant avec la notion de démocratie qu’avec celle de croissance économique.

Si la robotisation et l’automatisation ne sont pas en cause, quels sont les risques principaux qui pèsent actuellement sur l’emploi et le salariat ?

Patrick Artus : La désindustrialisation. L’industrie se concentre dans un nombre plus petit de pays, qui ont soit un avantage de compétitivité soit un avantage de niveau de gamme. En Europe, c’est l’Allemagne, ailleurs ce sont la Chine, la Corée ou le Mexique sur le continent américain. Or, si l »’industrie se concentre dans un petit nombre de pays, les autres se désindustrialisent. Et la désindustrialisation est extrêmement dangereuse parce que ce sont des emplois plus qualifiés que la moyenne, des salaires plus élevés que la moyenne, et c’est ce qui permet d’équilibrer le commerce extérieur. Donc je pense que la vraie menace sur nos sociétés c’est la désindustrialisation mais malheureusement nous sommes bien dans une situation ou on assiste à ce processus de concentration de l’industrie dans un nombre plus réduit de pays.

Rémi Bourgeot : Sur le plan macroéconomique, le chômage de masse est fondamentalement lié aux déséquilibres économiques, commerciaux et financiers en particulier quand les crises qui en découlent ne sont pas résolues. Les conditions d’emploi ont eu tendance au cours de la décennie écoulée à se détériorer partout dans le monde développé, si l’on regarde les conditions réelles (part des salaires dans l’économie, stabilité de l’emploi de façon générale). Mais on voit dans la catégorie des pays qui connaissent un chômage massif ceux qui ont développé des déséquilibres productifs importants (révélés par un déséquilibre commercial important à un moment ou un autre, en général avant la crise) et l’absence de réponse à la crise. Cela caractérise évidemment les pays du Sud de la zone euro qui ont vu leur compétitivité décliner tout au long de la première décennie de la monnaie unique, en raison de leur inflation structurellement plus élevé et de la politique allemande de compression des coûts salariaux. Une fois la crise déclenchée, l’absence de réponse monétaire pendant de longues années et de résolution de la crise bancaire, sur fond de surévaluation de l’euro, a nourri l’envolée du chômage et son maintien à des niveaux élevés, et surtout la détérioration dramatique des conditions réelles d’emploi. Sur le plan macroéconomique, le principal risque sur l’emploi réside donc dans les déséquilibres de compétitivité et le nivellement par le bas généralisé qui tend non seulement à déstabiliser les systèmes économiques mais entretient un cycle de compression de la demande, dont l’inflation basse n’est qu’un symptôme. La dissociation entre conception, production et consommation entretient une dynamique qui mine les principes mêmes de fonctionnement du capitalisme. Le chômage est directement lié à la situation d’atonie simultanée de la productivité et de la demande, malgré la reprise conjoncturelle actuelle.

On voit dans la plupart des pays enfermés dans le chômage de masse une déconnexion plus marquée qu’ailleurs entre les diverses strates de l’appareil administratif et l’économie réelle, en particulier en ce qui concerne les catégories reléguées. L’absence de réaction véritable aux crises économiques dans un certain nombre de pays illustre directement la gravité de la crise politique qui y sévit en profondeur. Une fois dépassées un certain nombre d’illusions économiques, le chômage de masse est avant tout le symptôme d’une érosion démocratique.

      

ARTUS Patrick, « Emploi : pourquoi l’impact de la robotisation et de l’ubérisation ne sont pas ceux que vous croyez », Atlantico, lundi 4 décembre 2017.

Les humanités vont revenir au premier plan (décembre 2017)

Pour l'ancien ministre de l'Éducation nationale, il faut « équiper nos élèves pour qu'ils soient complémentaires et pas victimes de la machine ».

« Quand AlphaGo, l'ordinateur de Google, a battu le champion du monde de jeu de go, on aurait dû comprendre que l'impact de l'intelligence artificielle (IA) serait infiniment plus lourd que prévu. Les ordinateurs chinois de dernière génération traitent 93 millions de milliards d'opérations par seconde. En 2020, ils traiteront 1 milliard de milliards d'opérations par seconde, tandis que l'humanité produira 1 000 milliards de milliards de data chaque semaine, une masse d'informations que le cerveau humain sera totalement incapable d'embrasser, ce qui rendra l'IA incontournable dans tous les domaines de la vie humaine.

Nombre de métiers seront impactés. Par exemple, la voiture, le train et le camion autopilotés détruiront inévitablement des millions d'emplois partout dans le monde. Ce n'est qu'une question de temps, d'autant que l'IA ne boit pas, ne dort pas, ne fait pas grève et ne commet qu'un nombre infime d'erreurs... D'autres métiers apparaîtront, bien sûr, mais nous ne savons pas encore lesquels.

La grande question qui vient est donc celle de l'éducation. Quelles compétences et quels savoirs transmettre à nos enfants pour qu'ils restent utiles dans le monde de l'intelligence artificielle ? L'IA va bouleverser l'éducation. Le revenu universel de base conduirait au désastre d'une société où les deux tiers de la population deviendraient économiquement superflus, au risque de perdre l'estime de soi. Il faut, par conséquent, équiper nos élèves pour qu'ils soient complémentaires et pas victimes de la machine. On aura évidemment besoin de scientifiques, et les mathématiques vont redevenir une discipline utile, pas simplement un mode de sélection, mais il faut aller là où la machine n'ira pas, vers les relations humaines. Les métiers qui associent la main et le cerveau seront peu remplaçables (cuisinier, kiné, jardinier...). À l'hôpital, l'infirmière survivra au généraliste, et le généraliste au spécialiste. Les humanités que le ministère de l'Éducation nationale voulait éradiquer vont revenir au premier plan, car on aura comme jamais besoin de culture générale et de services. »

     

FERRY Luc, « Les humanités vont revenir au premier plan », Le Point, mardi 5 décembre 2017, n°201711.

Qu'est-ce qu'être objectif ? (novembre 2017)

La question concerne bien des métiers, à commencer par ceux des journalistes et des magistrats. Deux conceptions de l'objectivité se sont affrontées dans la pensée moderne. La première est développée dans les années 30 par la « Théorie critique » , une doctrine philosophique fondée par deux penseurs allemands, Horkheimer et Adorno, des héritiers de Marx. Elle tient que l'objectivité consiste à expliciter les motifs qui sous-tendent inconsciemment ou non nos opinions et nos jugements de valeur ; la seconde est exposée dans la philosophie de Karl Popper, mais aussi dans l'éthique de la discussion de Jürgen Habermas, auquel Emmanuel Macron s'est récemment référé : au contraire de la première, elle place l'intersubjectivité, le dialogue et, par conséquent, la prise en compte du point de vue d'autrui au coeur de la recherche de l'objectivité.

Reprenons. C'est d'abord à Horkheimer qu'il revient d'avoir développé la première conception de l'objectivité dans un petit texte intitulé Théorie traditionnelle et Théorie critique . La Théorie critique, pour Horkheimer, trouve son apogée dans la psychanalyse et le marxisme. Comme dans ces doctrines, elle tente de parvenir à l'objectivité en dévoilant l'inconscient sous-jacent à ces symptômes que sont à ses yeux les opinions communes. Par opposition, la théorie traditionnelle est celle qui se croit naïvement pure, désintéressée, complètement autonome et impartiale par rapport aux intérêts économiques, car radicalement coupée de la société. La Théorie critique tente alors de lui faire prendre conscience du fait qu'en réalité elle est secrètement animée, voire inconsciemment téléguidée par des intérêts économiques et sociaux qui la poussent dans telle ou telle direction sans qu'elle s'en aperçoive. Si on applique l'idée aux journalistes, on dira que quoi qu'ils en disent parfois, ils ont forcément leurs partis pris, leurs options politiques, l'essentiel étant dans cette première perspective de les tirer au clair et de les reconnaître publiquement.

Pour Popper, cette vision de l'objectivité est à la fois inquisitoriale et absurde. En effet, si on la pousse jusqu'au bout, on tombe dans le scepticisme car, par définition même, jamais vous ne pourrez être absolument certain d'avoir tiré au clair tous les déterminants, tous les intérêts potentiellement cachés derrière une idée quelle qu'elle soit. On pourra toujours faire l'hypothèse qu'il y a encore des motivations inconscientes non mises au jour, à côté desquelles on est passé. Dans ces conditions, l'objectivité véritable ne consiste plus à essayer de tirer au clair l'inconscient social du commentateur, comme dans la Théorie critique, mais à poser clairement la question de savoir si le point de vue qu'on défend s'expose à la discussion publique, s'il peut être contesté, s'il offre vraiment les meilleurs arguments, etc. En quoi, dans la conception poppérienne de l'objectivité, on ne s'intéressera plus à la fameuse question soixante-huitarde, « d'où parles-tu ? » , on ne s'intéressera pas à l'origine sociale, à la position économique, historique, politique ou autre de la personne qui émet une opinion, mais à l'opinion en tant que telle. Ce qu'on doit considérer chez son interlocuteur, ce n'est pas ce qui l'anime plus ou moins consciemment, c'est l'idée elle-même, pas les méandres forcément obscurs par lesquels il en est arrivé à la formuler, mais ce qu'il dit. L'important, c'est la discussion qui va s'engager autour de son opinion et ce sont les tests qu'on inventera pour la falsifier, pour essayer de la réfuter, qui comptent désormais.

C'est en ce sens qu'on a affaire ici à une « objectivité sans sujet » , ce qui signifie aussi quelque chose d'essentiel sur le plan moral, à savoir qu'on peut critiquer les idées sans critiquer les personnes qui les portent : on n'est pas obligé de se haïr, on n'est pas obligé de se détester parce qu'on est en désaccord, au contraire, on peut chercher ensemble à s'approcher autant que possible de la vérité. La discussion rationnelle, ou même seulement raisonnable, n'est pas la poursuite de la guerre par d'autres moyens, ni la continuation de la lutte des classes, voilà ce que veut dire Popper : on peut détruire un raisonnement, une opinion, la réfuter sans détruire le bonhomme qui est derrière, ce qui est in fine infiniment plus démocratique que la conception marxiste qui cherche toujours à disqualifier les idées des autres en les réduisant à de simples reflets symptomatiques des intérêts économiques inavouables et des tensions sociales qu'ils dissimulent.

      

FERRY Luc, « Qu’est-ce qu’être objectif ? », Le Figaro, jeudi 9 novembre 2017, n°22783, p. 19.

27 novembre 2017

Le digital n'est pas une révolution industrielle et n'est pas favorable à la croissance (novembre 2017)

Partons des conditions pour qu’une évolution technologique soit une révolution industrielle :

Il faut une nouvelle technologie (une innovation) de rupture qui fasse apparaître un bien ou service nouveau qui devient un bien de grande diffusion, produit à grande échelle, acheté par beaucoup de personnes ;

Et dont la production utilise beaucoup l’emploi.

Dans les pays de l’OCDE aujourd’hui :

Le digital est une innovation de rupture ;

Le digital est diffusé très largement ;

Mais, et c’est là qu’il y a un problème, au lieu de créer de nombreux nouveaux emplois, le digital emploie peu de personne et a conduit à la bipolarisation du marché du travail entre emplois très qualifiés et emplois peu qualifiés.

    

LES CONDITIONS HABITUELLEMENT RETENUES POUR QU’UNE ÉVOLUTION TECHNOLOGIQUE SOIT UNE RÉVOLUTION INDUSTRIELLE

Pour qu’une évolution technologique soit une révolution industrielle, on demande usuellement :

Qu’elle corresponde à une technologie nouvelle (à une innovation) de rupture (c’est-à-dire qui change profondément les techniques de production, à la différence des innovations incrémentales)

Qu’elle fasse apparaître un bien ou un service nouveau, produit en grand nombre, à grande échelle, acheté par un grand nombre de personnes (l’exemple usuel est l’automobile entre les deux guerres mondiales aux Etats-Unis et après la Seconde Guerre mondiale en Europe ;

Et que la production de ce bien ou service de grande diffusion utilise un emploi de grande taille, change fortement la structure des emplois, ce qui a été aussi le cas de l’automobile.

       

LE NUMÉRIQUE, LE DIGITAL, PRÉSENTENT-ILS AUJOURD’HUI DANS LES PAYS DE L’OCDE LES CARACTÉRISTIQUES D’UNE RÉVOLUTION INDUSTRIELLE ?

Pour simplifier, nous définissons l’OCDE comme l’ensemble Etats-Unis+Royaume-Uni+zone euro+Japon. Le numérique (le digital) présente-t-il les caractéristiques d’une révolution industrielle qui ont été décrites plus haut ?

Le numérique (digital) est-il une innovation de rupture ou une innovation incrémentale ? Le numérique (le digital) ne change pas la nature des biens et services mais change profondément la manière dont ils sont distribués ou achetés (avec les plateformes Internet, le e-commerce). Il apporte aussi de nouveaux services (moteurs de recherche, réseaux sociaux, Intelligence artificielle).

On peut considérer que le numérique (le digital) est une innovation de rupture.  

    

Le numérique (digital) est-il répandu sous une grande échelle ? La reprise est certainement positive, comme le montre la diffusion d’Internet.

     

Le numérique (digital) emploie-t-il une partie importante de la population active ? C’est ici qu’apparaît la difficulté. L’emploi dans les Nouvelles Technologies reste en effet faible.

De plus, on sait que les robots (l’Intelligence artificielle) conduisent à la bipolarisation des marchés du travail : le nombre d’emplois intermédiaires (en particulier dans l’industrie) diminue, ces emplois sont remplacés par un petit nombre d’emploi très qualifiés, par un grande nombre d’emploi peu qualifiés dans les services domestiques.

Le numérique (le digital) ne crée donc certainement pas une dynamique du marché du travail favorable à la croissance.

       

SYNTHÈSE : À CAUSE DES EFFETS SUR L’EMPLOI, ON DOIT DONC CONCLURE QUE LE NUMÉRIQUE (LE DIGITAL) N’EST PAS UNE RÉVOLUTION INDUSTRIELLE

Le numérique (le digital) :

Est une innovation de rupture ;

S’est considérablement développé, en touchant presque tous les ménages et toutes les entreprises dans les pays de l’OCDE ;

Mais, au lieu de créer de nombreux emplois nouveaux, a contribué à la polarisation du marché du travail entre emplois très qualifiés et emplois peu qualifiés.

C’est une dernière caractéristique qui ne donne pas au digital le statut de révolution industrielle.

     

ARTUS Patrick, lundi 27 novembre 2017.

- page 1 de 8