Grand Emprunt Rue de Lille — Le télétravail des champs — Andromède, galaxie jumelle ? — Choisir, c’est dire non — Au pied d’un ascenseur — Coqophonie — Sortir du pays des licornes
Le triangle des paradoxes
4 novembre 2011, 16 h 00 — Bureau du Directeur Général Adjoint de la Caisse des Dépôts.
Réunion au sommet entre la Mission PIA, la Direction des Finances et deux représentants du Commissaire Général à l’Investissement. Nom de code : Andromède. Sujet : la gouvernance industrielle du projet et plus précisément la rémunération du dirigeant pressenti pour en être le CEO.
Il est difficile aujourd’hui de situer les Investissements d’Avenir dans leur contexte de départ, pour la simple raison que le dispositif semble désormais durablement installé dans le paysage, et est devenu un de ces nombreux acronymes caractérisant les divers outils et leviers d’action (extra) budgétaires de la puissance publique. Cette dérive temporelle illustre précisément un des paradoxes profonds de l’économie numérique et du rôle de l’État dans ce domaine.
Au commencement était la crise financière de 2008, partie des États-Unis et rapidement exportée vers les autres économies, comme l’Oncle Sam sait si bien le faire avec sa régulation, ses bons du Trésor et les errements de son secteur financier qui venait de s’illustrer avec les subprimes. Le sauvetage de la zone Euro et la nécessité de la relance sont largement documentés dans les manuels d’histoire politique et économique. La crise était d’une ampleur jugée unique, la réponse se devait de l’être également : un plan de relance massif était annoncé à l’été 2009, une commission bi-partisane installée et co-présidée par deux anciens Premiers ministres. Elle rendit ses conclusions en novembre 2009.
Celles-ci préconisaient un dispositif unique, tant par son ampleur que par son financement et ses modalités. Le Grand Emprunt mobilisait en effet 35 milliards d’Euros, dédiés à des Investissements d’Avenir, et comptabilisé à ce titre hors du déficit « maastrichien ». La France était déjà « hors des clous » en la matière, cette approche extrabudgétaire permettrait au pays de rester compatible avec le cadre européen, du moins facilement. Et puis, à l’époque, 35 milliards, ça « claquait », parce que ça faisait (encore) beaucoup. Les modalités d’emploi des fonds du Grand Emprunt, en partie dictées par ce cadre de financement, furent tout aussi innovantes : une partie significative de l’enveloppe, soit 23 milliards, était constituée de « dotations non consomptibles », c’est-à-dire de fonds placés sur un compte au Trésor, et dont seuls les intérêt, estimés à 3,14 %, permettraient de financer des projets ; le reste, soit 12 milliards, était confié à des opérateurs de l’État164, dont la Caisse des Dépôts, qui à elle seule concentrait huit milliards d’investissements directs.
La ventilation entre missions, programmes, actions et opérateurs est à la fois documentée et complexe. Elle incluait même le recyclage de programmes déjà lancés165. Les rapports de la Commission de Surveillance (dite « Juppé / Rocard ») et de la Cour des Comptes permettraient d’en suivre l’évolution. L’horizon de temps du programme était de dix ans environ, au terme desquels les fonds mobilisés seraient retournés directement ou indirectement à l’État. Selon Christine Lagarde, les 0,3 % de croissance supplémentaires suscités par le Grand Emprunt et les recettes fiscales induites, devaient en assurer l’autofinancement.
La gouvernance de ce programme hors-norme l’était tout autant : elle combinait à la fois sagesse politique et pragmatisme. Sur le plan politique, le tandem Juppé-Rocard était garant d’une approche non partisane. Le recours à des opérateurs de l’État, dont la durée de vie excède par nature celle de tout gouvernement, permettait d’assurer la continuité en cas d’alternance. L’histoire donnerait presque raison à ce choix. Afin d’éviter toute tentation des ministères d’y loger le financement de programmes courants sans peser sur le déficit budgétaire, la coordination et l’exécution du programme furent confiées à une petite équipe directement rattachée à Matignon, dont le seul rôle était de garantir la finalité comme le bon emploi des 35 milliards. Le Commissariat Général à l’Investissement (CGI) fut créé le 22 février 2010, avec René Ricol pour premier Commissaire Général. À la fois proche du Président de la République, venant du secteur privé, et bénévole, René Ricol s’entoura d’une équipe très légère, aux compétences reconnues dans chacun de leurs secteurs respectifs. Un documentaire de 52 minutes décrit l’esprit de mission qui animait ces Hommes du Grand Emprunt166, tournés vers l’action et capables de prendre des décisions très rapides. Y compris de débrancher ce qui ne marchait pas.
Puis courant 2011, crise de la dette aidant, le terme de « Grand Emprunt », jugé trop anxiogène, fut progressivement remplacé en « Programme d’Investissements d’Avenir », flanqué de deux acronymes indissociables : « PIA167 » et « CGI ». Le politique cherche à renommer autant comme il cherche la renommée…
La Caisse des Dépôts était donc un des opérateurs du PIA. Si « la vieille dame de la Rue de Lille » quasi bicentenaire conduit des missions difficiles à décrire, chaque Français place en elle une confiance à la mesure des immenses fonds dont elle a la responsabilité. C’est une des raisons pour laquelle lui avaient été confiés les deux tiers des 12 milliards non sanctuarisés du PIA. Elle jouissait également d’un savoir-faire reconnu dans l’investissement direct et indirect (en fonds de fonds) via sa société de gestion CDC Entreprises. La CDC était enfin créditée d’une certaine réputation en matière numérique, notamment en régions, où elle avait financé de nombreux dispositifs pour les collectivités locales et leurs infrastructures. C’est sans doute la raison pour laquelle lui fut confiée l’enveloppe du PIA consacrée aux technologies numériques. On doit le montant substantiel de cette enveloppe à une jeune femme : polytechnicienne, titulaire d’un MBA du Collège des Ingénieurs, la secrétaire d’État à la prospective et à l’économie numérique avait fait preuve d’anticipation et de ténacité à l’occasion des négociations sur l’emploi des fonds du Grand Emprunt. Nathalie Kosciusko-Morizert arracha 4,25 milliards d’euros pour l’économie numérique.
Répartie sur plusieurs sujets et modes de financements, cette action fut donc confiée à la CDC. Elle comprenait des cofinancements pour le déploiement du Très Haut Débit, principalement la fibre optique, dans tous les territoires, et en particulier ceux pour lesquels les opérateurs télécom n’avaient aucune appétence en raison de leur faible densité. 70 % des coûts d’infrastructure télécom restent en effet des coûts de génie civil et, contrairement au siècle précédent, il n’y avait plus de monopole d’État capable d’assurer seul le déploiement national d’une telle infrastructure, et de l’opérer ensuite à un tarif unique permettant, via une péréquation tarifaire, d’assurer une parfaite égalité des citoyens devant l’accès à Internet.
Un milliard d’euros fut dédié au Programme National Très Haut Débit, qui cofinancerait les réseaux d’initiative publique négociés entre les Régions et l’État, selon un cahier des charges très précis. Ils furent complétés d’un milliard de prêts, proposés aux opérateurs télécom qui souhaiteraient accélérer leurs déploiements propres. Seul Free se rendit Rue de Babylone discuter le sujet avec le CGI et la CDC mais n’alla pas plus loin. L’objectif était de déployer la fibre sur le territoire pendant la durée du PIA : dix ans et quelques aménagements après (incluant les raccordements par satellite ou en 4G pour les zones les plus reculées, qui ne pouvaient attendre), l’objectif a été peu ou prou atteint, et a sans nul doute contribué au succès du confinement à la campagne, à la découverte du télétravail des champs et à une hausse sensible des prix des résidences secondaires en zone fibrée… Les autres volets consacrés à l’économie numérique incluaient le cofinancement de programmes de recherche collaboratifs, dont la contrepartie en cas de succès serait soit une redevance sur le chiffre d’affaires généré, soit un remboursement des aides. On y trouvait également un important volet de soutien au capital-risque et aux start-up.
L’approche pouvait paraître incongrue de prime abord, et fit réagir le Kommentariat de manière parfois virulente168. La démarche répondait pourtant à une asymétrie temporelle fondamentale, qui structure toute l’industrie du financement en capital-risque : les sociétés de gestion sont considérablement plus fragiles que les fonds confiés à leur gestion. Dans ce métier très particulier du Venture, la plupart des fonds ont des durées de vie de dix à douze ans une fois souscrits, et rémunèrent leur gestionnaire en frais de gestions périodiques et souvent décroissants dans le temps, complétés d’un éventuel carried interest lors d’événements de liquidité, acquisition ou mise en bourse, par nature imprévisibles. La plupart des équipes de gestion lissent l’activité en levant et en gérant plusieurs fonds de maturité différents, qui se chevauchent, mais cela ne suffit pas lorsqu’une crise financière vient tarir le flux des souscriptions pendant trop longtemps. Lever un nouveau fonds est une opération méticuleuse, réfléchie, qui exige de synchroniser les intentions de souscription de nombreux acteurs afin de les convertir en versements effectifs dans la courte période correspondant au closing. Tout est affaire de confiance et d’entraînement, au sens du momentum anglo-saxon. Si à l’inverse le closing tarde, toute la place le sait rapidement, si bien qu’au-delà de 18 à 24 mois sans bouclage, l’équipe de gestion entre en zone de risque, en termes de réputation mais aussi financiers. La société de gestion devient alors plus fragile que certaines des start-up financées par ses fonds précédents. Ainsi, une crise financière prolongée, dans laquelle le marché du capital-risque est asséché, peut avoir raison d’une partie significative de ses équipes de gestions dont les partnerships se défont rapidement. Réciproquement, il n’y a rien que les souscripteurs détestent le plus qu’une équipe qui n’a pas fait ses preuves, individuellement et collectivement. L’expression « First time fund, first time team », n’est pas qu’une simple excuse opposée à un projet de fonds par les souscripteurs potentiels approchés par l’équipe : le capital-risque est financé par des acteurs averses au risque, et rien n’est plus rassurant qu’un track record (un historique de performance) en la matière, qui qualifie autant les partners que l’équipe qu’ils constituent dans la société de gestion. Or l’historique de performance d’une équipe se mesure sur la durée de vie d’un fonds et demi : c’est dans cet horizon de temps que seront établies ses capacités à lever un fonds, à l’investir, à générer des sorties (exits), à retourner aux souscripteurs une performance au moins égale à celle stipulée dans le règlement du fonds, et à lever le fonds suivant. Il faut donc, en simplifiant, à peine deux ans pour démanteler un partnership d’investisseurs en capital-risque performant, et 15 ans pour en reconstituer une de performance comparable. Voilà la raison du soutien indispensable apporté par le PIA à ce secteur, qui sinon aurait fait perdre une décennie au moins à l’écosystème des start-up tricolores. 600 millions d’euros furent ainsi mobilisés sur l’amorçage en fonds de fonds, 300 millions pour les start-up numériques en co-investissement direct, 150 millions pour les écotechnologies… À chaque fois, il ne s’agissait pas de « faire à la place de », mais de venir compléter des tours de table qui, sans la puissance publique, n’eussent pu se boucler, ou pas assez rapidement. Les souscriptions (de fonds) ou les co-investissements (dans les start-up) n’étaient pas systématiques mais censés en revanche être opérés pari passu, et ainsi assurer les alignements d’intérêts avec les autres parties en jeu.
Voici le premier des trois paradoxes de l’économie numérique, qui oppose le temps long et temps court. Il fut résolu notamment par la gouvernance du programme et l’agilité des équipes de René Ricol, qui démontra pendant un temps son efficacité, y compris lors de l’alternance présidentielle, survenue en 2012. La continuité fut assurée en grande partie, avec quelques ajustements à la marge, par exemple en renommant le « Programme National Très Haut Débit » en « plan France Très Haut Débit », ou encore le « FSN PME » devenu « Fonds Ambition Numérique » (ou FAN). Les dispositifs de financement dans l’économie numérique s’accommodèrent également de la mise en œuvre rapide d’une des promesses de campagne du nouveau Président : la banque publique d’investissement. Pour l’activité de financement en haut de bilan, l’État et la Caisse des Dépôts y apportaient les 50 % du Fonds Stratégique d’Investissement qu’ils détenaient chacun. Le bas de bilan était constitué d’Oséo, dont la CDC avait pris 27 % du capital quelques années auparavant à la demande… de l’État169 ! En vue de compléter le dispositif et de parvenir à détention à parité, la Caisse des Dépôts apporta sa filiale CDC Entreprises. La préfiguration de l’ensemble fut confiée à Nicolas Dufourcq, la Banque Publique créée fin 2012, et son premier Conseil d’Administration tenu à Dijon en février 2013. L’impact initial était minime pour les fonds du PIA dévolus à l’économie numérique : la Caisse des Dépôts devenait simplement souscripteur, pour le compte de l’État, de plusieurs centaines de millions d’euros d’argent public (vos impôts et les miens), investis dans des fonds de capital-risque gérés par sa principale filiale Bpifrance170.
Des premières années du PIA, je retiendrai ici deux aventures majeures : l’une est un désastre, l’autre un succès. Commençons par le désastre et revenons au point de départ de ce chapitre : Andromède.
Dès 2009, le Premier ministre en exercice avait souligné la nécessité d’un partenariat public-privé dans le Cloud Souverain. Ancien titulaire du portefeuille des télécommunications à la fin du siècle précédent, auteur de la privatisation de France Télécom, François Fillon était de ce fait plus affûté et vigilant, sur ce sujet du moins, que la plupart des autres hommes politiques. Le PIA allait fournir un cadre au projet Andromède, réservant une enveloppe de 135 à 150 millions destinés à être co-investis aux côtés de plusieurs industriels : la participation de l’État ne devait pas excéder 33 %, ce qui permettait d’envisager un projet industriel ambitieusement doté.
Une alliance vit le jour, regroupant Orange pour l’infrastructure, Thalès pour la sécurité, et Dassault Systèmes pour les applications logicielles. Elle entama des discussions avec le CGI. Dassault Systèmes qui était très actif, avait déjà identifié un futur dirigeant, et même négocié un package avec l’impétrant. La réunion du 4 novembre 2011 avait principalement pour objet la discussion dudit package entre futurs actionnaires publics. J’y avais été convié ès qualité d’ancien CEO de start-up, pour donner mon avis sur la rémunération du dirigeant déjà pressenti. Outre des éléments de salaire fixe et variable très généreux, le package comprenait également un accès au capital d’autant plus discutable que le niveau de risque était faible : la société était déjà capitalisée et n’avait donc aucun besoin d’aller lever de l’argent auprès de fonds de capital-risque. Le mode d’attribution des stock-options du dirigeant n’était pas non plus corrélé à des performances futures. Je fis donc part de ma surprise et de mes réserves. Cet accroc au plan déjà ficelé par Dassault Systèmes, qui s’était sans doute déjà engagé auprès de son futur poulain, fut peut-être un des déclencheurs d’un premier rebondissement : le 23 décembre, Bernard Charlès, P.-D.G. de Dassault Systèmes, annonça par voie de presse qu’il claquait la porte du Cloud Souverain. Il affirmait également tenir à la disposition de ceux qui seraient éventuellement intéressés l’ensemble de ses travaux et réflexions déjà produits sur le sujet.
Tandis qu’Orange et Thalès convenaient avec l’État qu’ils pouvaient poursuivre le projet sans troisième partenaire, Dassault Systèmes annonça le 30 janvier 2012, cette fois sur BFM, son intention de déposer avec d’autres acteurs un projet concurrent. L’opportunité intéressait en effet SFR qui vint à son tour présenter son projet dans le bureau du Directeur Général adjoint de la CDC. La motivation de l’opérateur était si grande que le sponsor qui nous rendit visite n’était autre que Jean-Bernard Lévy, alors patron de Vivendi, maison-mère de SFR. Dassault Systèmes ne parvint pas à s’en satisfaire et les discussions s’enlisèrent. Une troisième et dernière fois, Bernard Charlès devança toute annonce officielle et annonça début avril 2012, dans La Tribune, qu’il se retirait définitivement d’Andromède. Le Cloud Souverain a déjà fait couler pas mal d’encre sans avoir mobilisé le moindre euro ou produit le moindre octet.
SFR chercha alors un autre partenaire industriel ; Atos avait déjà signé avec les américains VMware (pour la virtualisation) et EMC (pour le stockage) en vue de lancer sa propre offre, Canopy. SFR se replia sur Bull et déposa son projet. Il y avait désormais deux Andromède jumeaux à instruire pour la CDC. Construits peu ou prou sur le même cahier des charges, combinant chacun un opérateur télécom, un industriel et les pouvoirs publics français, ils étaient sur le papier à peine différenciés. Orange et Thalès proposaient de démarrer de zéro (from scratch) en mobilisant les salles du datacenter qu’Orange achevait à Val de Reuil, tandis que SFR projetait d’être plus rapidement opérationnel en apportant à son offre plusieurs de ses datacenters existants, immédiatement disponibles, même s’ils reposaient sur des architectures « à l’ancienne », à base de virtualisation américaine et à l’efficacité énergétique discutable.
Au printemps 2012 donc, nous n’avions plus un mais deux candidats Andromède quasi-identiques et un négociateur absent. Qui choisir ? Cette question de choix fut rapidement occultée par une autre, celle de savoir qui allait choisir. Le peuple français venait en effet de trancher entre les deux candidats à l’élection présidentielle, et de donner incidemment à la gouvernance du PIA l’occasion de démontrer sa robustesse. Cette dernière ne pouvait se permettre de finaliser le processus de sélection du Cloud Souverain avant le changement de gouvernement. La nouvelle équipe en place découvrit donc, dans la corbeille du PIA, le choix suivant : lancer zéro, un ou deux projets de Cloud Souverain, financés en partie par des fonds publics et dimensionnés à l’identique. L’un était porté par l’opérateur public dominant, l’autre par son challenger privé de toujours. Aucun dossier ne pouvait objectivement être qualifié de nettement meilleur que l’autre. L’équation était donc politique.
Le gouvernement privilégia la continuité et écarta l’option « on arrête tout ». L’hypothèse d’en retenir un, en vue de concentrer les efforts pour atteindre plus rapidement une taille critique, apparut progressivement insurmontable : en choisir un, c’était dire « non » à l’autre. Ce mot fait rarement partie du vocabulaire en politique. Et puis, retenir les deux projets pouvait se défendre, du moins « facialement », lorsque le gouvernement ou une de ses administrations feraient appel au Cloud Souverain pour leurs propres projets d’infrastructure : le passage par une consultation publique permettrait alors de réduire tout risque de recours. Ceci supposait cependant que la puissance publique fît appel à ces opérateurs de confiance dont elle avait appelé la création de ses vœux, jusqu’à en financer le démarrage, ce qui eût semblé logique et cohérent.
Après tout la CIA n’avait-elle pas hésité à confier un contrat de 600 millions de dollars à Amazon ? L’autre argument, pour se rassurer, était celui d’un terrain de jeu à couvrir largement et assez vaste pour que les deux impétrants n’entrassent pas en compétition frontale dès le début… La décision fut prise à l’été par la ministre déléguée aux PME, à l’Innovation et à l’Économie numérique : ce serait donc deux.
La version « SFR + Bull » d’Andromède fut ainsi créée fin août 2012, et ses premières offres dévoilées début septembre : Numergy recyclait essentiellement les infrastructures et les offres de SFR, la « souveraineté » étant promise par Bull pour les clients « critiques » le temps que l’opérateur de Cloud Souverain pût construire la trentaine de datacenters promis et déployer son propre socle logiciel à base d’open source…171 La version « Orange + Thalès » d’Andromède était, elle, dévoilée en conférence de presse le 2 octobre 2012, en présence de la ministre déléguée. Cloudwatt déploierait à Val de Reuil une infrastructure entièrement nouvelle, sur base d’OpenStack172 ; d’ici là, une offre de stockage en direction des PME était lancée et promue à grand renfort de publicité par un Teddy Riner posé sur un nuage.
La suite fut moins glorieuse, et illustra le paradoxe temporel évoqué précédemment : les projets de Cloud Souverain n’allaient pas assez vite aux yeux de la puissance publique, qui se détourna de leurs enjeux de construction dans la durée (oubliant au passage qu’AWS ne s’était pas construit en un jour…), et omit de leur confier des projets stratégiques comme de se comporter en client stratégique. L’État faisait les yeux doux à un autre acteur, totalement indépendant, qui s’était construit tout seul, maîtrisait sa chaîne de valeur de bout en bout au point de concevoir ses propres serveurs, et disposait d’une offre. Certes celle-ci était limitée à de l’hébergement de machines, et en aucun cas ne rivalisait avec la flexibilité du cloud en matière de réservation dynamique de capacités, mais son fondateur était sympathique et sa success story incontestable. Une étoile était née dans les yeux des pouvoirs publics, elle s’appelait OVH. Elle s’attira rapidement les faveurs du Kommentariat, fournissant ainsi du carburant à ceux qui contestaient la mobilisation d’argent public dans les deux incarnations d’Andromède. Point de commande publique, un soutien politique aussi bref que ténu : difficile dans ce contexte de construire et déployer dans la durée.
Des difficultés de gouvernance vinrent rapidement complexifier l’équation. Si Cloudwatt et Numergy pouvaient être considérées comme des start-up, parce qu’elles investissaient le capital levé dans des moyens et compétences afin de construire une plateforme et une offre ultra-scalables à terme, elles étaient chacune dirigées par des vétérans de l’industrie, plus habitués aux grandes entreprises et à leurs réflexes qu’aux environnements agiles et sans cesse reconfigurés.
Au cas d’espèce de Cloudwatt173, la gouvernance connut une péripétie supplémentaire et probablement fatale. En juin 2012, celui qui avait défendu la candidature de SFR comme actionnaire industriel du « deuxième Andromède », quitta la maison mère de l’opérateur avant même le lancement de Numergy. Quelques mois plus tard, Jean- Bernard Lévy était nommé CEO de Thalès en remplacement de Luc Vigneron, lâché par ses deux actionnaires Dassault Aviation et… l’État. Or Thalès jouissait au sein de Cloudwatt du double rôle d’actionnaire et de fournisseur clé tout à la fois. La société vendait en effet ses outils matériels et logiciels assurant la sécurisation « souveraine » du cloud hébergé dans les datacenters d’Orange. Les contrats et prestations de Thalès, financés par les capitaux libérés à la création de Cloudwatt, avaient été négociés en amont sans aucune remise particulière. Ils furent exécutés et facturés, dès les débuts de la construction de sa plateforme, malgré des difficultés d’intégration. La grogne s’amplifia : la construction d’une plateforme OpenStack complète prenait du temps et l’offre « d’attente » que constituait la Cloudwatt-box ne rencontra pas le succès escompté, malgré la campagne de publicité savamment orchestrée par son directeur marketing, ancien de Last Minute et d’AltaVista, et as de l’optimisation programmatique. Le CEO lui-même était de plus en plus contesté. Puis, alors même que le montant total des capitaux engagés par les trois partenaires était convenu, connu et publiquement annoncé depuis la fondation, Thalès commença à menacer de ne plus libérer le capital appelé par Cloudwatt auprès de ses trois actionnaires et à conditionner le versement de l’appel de fonds prévu début 2014, au remplacement de son dirigeant. À cette date, les montants libérés par Thalès dans Cloudwatt étaient alors du même ordre que les contrats reversés par cette dernière au plus minoritaire de ses actionnaires174. Orange de son côté continuait de commercialiser ses offres flexible computing, et faisait ainsi concurrence à la co-entreprise, au motif recevable que l’offre de ce dernier n’était toujours pas prête et ne lui rapportait de ce fait aucun revenu en tant que fournisseur de connectivité. Dès fin 2013, commencèrent à circuler au sein de la sphère publique des hypothèses de rapprochement entre les deux acteurs, qui n’avaient pas plus en commun qu’une carpe et un lapin. De guerre lasse, Orange rachetait le 20 mars 2015, les parts de Thalès et de la CDC et absorbait Cloudwatt, alors même que son infrastructure technique, développée de zéro, était tout juste devenue opérationnelle.
Numergy n’était pas en reste. Sa gouvernance allait également connaître des péripéties d’une autre nature, pour conduire à une issue semblable. Vivendi mit en effet en vente sa filiale SFR début janvier 2014, puis entra en négociations exclusives avec Altice et Patrick Drahi pour près de 12 milliards : le deal fut bouclé sept mois plus tard. Entre-temps, le 26 mai 2014, Atos surprenait les observateurs en lançant une OPA « amicale » sur Bull, qui s’acheva sur un succès le 11 août. L’actionnariat du deuxième Andromède avait donc profondément changé en sept mois. Un an après, Numergy était placée sous procédure de sauvegarde avant d’être absorbée par SFR début 2016.
L’histoire industrielle d’Andromède avait donc duré à peine 3 ans. Un ambitieux projet, lancé dans le cadre d’un programme d’investissements publics à 10 ans, un partenaire privé changeant deux fois d’avis en quelques mois, conduisant à l’avènement de deux consortiums entre lesquels on choisit finalement de ne pas choisir, un changement de gouvernement, de multiples changements de gouvernance, une impatience croissante envers l’absence de résultats à court terme, et quasiment aucune commande publique. Les horizons de temps n’avaient cessé de s’entrechoquer et le paradoxe temporel de se manifester.
Ce paradoxe temporel de l’économie numérique, que mettait en lumière la (més) aventure du Cloud Souverain, peut se formuler comme suit : « L’économie numérique est caractérisée par des cycles d’innovation bien plus rapides que le rythme d’assimilation de la société, mais ses écosystèmes ne peuvent se développer et prospérer sans un cadre stable sur une durée longue. » C’est pourtant cette recherche de stabilité dans la durée que visait le Programme d’Investissements d’Avenir, et dont le politique, en tant que «Maître des Horloges», devait être le garant crédible : toute stimulation des acteurs économiques privés suppose de la visibilité sur le temps long, qu’il s’agisse du cycle des fonds d’investissement ou des incitations permettant de faire émerger de nouvelles filières comme cela est le cas dans le secteur des énergies renouvelables. Garantir une stabilité fiscale ou des tarifs de rachat sur la durée de vie d’une centrale photovoltaïque permet aux entrepreneurs de se concentrer sur leur risque d’exécution et aux banquiers de les financer.
Qu’en avons-nous retenu ? Qu’en avons-nous appris ? Les projets Gaia-X et Bleu récemment lancés laissent espérer le meilleur ou craindre le pire. La mésaventure du Cloud Souverain incitait pour l’heure à la pédagogie envers l’État ; identifier des paradoxes, c’est prendre le risque de placer son interlocuteur face à ses contradictions, mais en plus poli. L’aventure de La French Tech allait nous donner l’occasion de compléter cette panoplie de paradoxes en ajoutant au temporel deux autres dimensions.
« La French Tech » est désormais une expression courante, utilisée dans le discours politique comme dans la presse économique. Elle désigne tout ce qui de près ou de loin fait la fierté, à juste titre, de notre start-up nation. Cette fierté fut jusque très récemment incarnée avec brio par une ambassadrice de choc175, symbolisée par un coq rouge qu’arborent à l’occasion nos représentants publics, et mesurée par les chiffres sans cesse croissants des montants investis dans la Tech française, sans oublier les baromètres d’attractivité qui nous situent désormais sur les podiums et « dans la cour des grands ». Une présence médiatique sur tous les réseaux sociaux complète ce dispositif d’enthousiasme collectif, qui se retrouve, lorsque qu’un virus ne s’en mêle pas, dans un lieu totem qui ne lui appartient pas mais où elle est bienvenue : Station F.
« La French Tech » : ces trois mots ont une histoire, cette histoire a un contexte, au cœur duquel se nichent deux paradoxes qui viendront compléter celui qui tend les horizons de temps.
Au commencement était Tech City. Messieurs les Anglais avaient tiré les premiers, avec ce programme d’attractivité visant à consolider et à concentrer la scène Tech britannique et ses start-up dans la capitale du Royaume Uni. En janvier 2010, 85 jeunes pousses avaient déjà élu domicile autour du Silicon Roundabout176, un rond-point d’Old Street à Shoreditch, dans l’est de Londres et les pouvoirs publics anglais rêvaient de transformer ce quartier en cluster d’innovation numérique. Le potentiel des clusters, entendus comme des regroupements d’entreprises travaillant dans le même domaine, avait été théorisé dans les années 1990, par Michael Porter (Professeur à Harvard et gourou éminent du management), comme levier essentiel de succès pour l‘économie d’un pays. De tels clusters existaient déjà, le plus souvent organisés autour d’un grand groupe rassemblant autour de lui l’écosystème de ses sous-traitants ainsi que des écoles ou centres de recherche, dont deux exemples connus en France seraient l’aéronautique à Toulouse avec Airbus ou le silicium à Grenoble avec le CEA.
Les clusters qui émergeaient au début des années 2010 étaient totalement différents : on passait du suffixe Valley au préfixe Silicon177, cette fois à l’initiative des start-up qui attiraient ensuite des investisseurs, et surtout au sein de métropoles et non plus d’anciens vergers. La plupart des start-up qui s’y implantaient étaient nées après la crise financière, et symbolisaient de ce fait le renouveau et le redémarrage de l’économie via les entrepreneurs. Ces derniers profitaient de sous-locations très modérées dans des quartiers peu prisés, de préférence faciles d’accès par les transports en commun et donc connectés avec les investisseurs présents en centre-ville. De plus, les développeurs, que les loyers des grandes métropoles avaient éloignés du cœur de celles-ci, pouvaient envisager des aventures professionnelles d’autant plus attractives qu’ils accédaient, au-delà de leur bureau, à un réseau de collègues, de pairs et de potentiels recruteurs qui se brassaient au gré des meetups dans les brasseries et pubs alentour.
L’enjeu de la géographie se rappelait à l’histoire, alors même que la plupart des start-up en question produisaient essentiellement du code, c’est-à-dire un bien intangible non localisé et à coût de transport nul. Le paradoxe géographique de l’économie numérique pointait le bout de son nez… Les ingrédients des prochains clusters ne tenteraient pas d’imiter pâlement la recette singulière qui avait permis à la Silicon Valley de conquérir le monde de la Tech : aux grandes universités, les budgets de recherche militaire, les géants industriels, impossibles à répliquer, se substituaient désormais les métropoles, leurs réseaux télécom et de transports, leur style de vie plus urbain que celui des campus et des condominiums étalés entre San Francisco et San José. Il n’y a jamais loin de la géographie à la politique, ce que l’expression floue « d’attractivité des territoires » n’avait jamais aussi bien souligné. Au-delà des start-up et des investisseurs au premier rang desquels Index Ventures, le Silicon Roundabout attira à lui le premier ministre lui-même. David Cameron se rendit sur les lieux en novembre 2010, et y annonça son plein et entier soutien à cet écosystème émergent qui émanait sui generis. Étrillant les démarches dirigistes de ses prédécesseurs, l’homme du 10 Downing Street allait mobiliser non des fonds publics mais la notoriété du gouvernement anglais et de son chef, en vue de proclamer à la face du monde que Londres était devenue le paradis des start-up et le lieu de prédilection pour y fonder la sienne. Des mesures d’attractivité furent annoncées : visas pour les fondateurs en provenance de l’étranger, simplifications d’accès aux marchés publics pour les start-up et l’annonce de l’arrivée prochaine dans le quartier des géants américains de la Tech qui y implanteraient des antennes.
La compétition avait démarré. Au même moment, Berlin voyait éclore son propre écosystème de startuppers, attirés par des loyers très bas (on s’y logeait pour 300 euros par mois), des infrastructures de transport modernes et accueillantes (on pouvait sans problème entrer dans un métro avec son vélo quand il n’y avait pas de piste cyclable), et une culture cosmopolite et branchée (on n’était jamais loin d’une discothèque géante où achever une journée de travail intense). Déjà des start-up emblématiques comme SoundCloud donnaient à l’écosystème berlinois le cachet et la crédibilité suffisante pour y attirer de jeunes développeurs en recherche d’aventure.
Il fallait voir plus grand. David Cameron envoya son conseiller Rohan Silva, technophile averti, dans la Silicon Valley pour y « vendre » le cluster de Shoreditch et convaincre un grand nom d’y installer des bureaux. Il revint avec la promesse de Google d’y déployer un campus178. Tout était prêt pour une opération de communication massive, qui permettrait d’attirer investisseurs étrangers, grandes entreprises établies et jeunes diplômés que la fièvre des start-up n’avait pas encore commencé à gagner.
Par contagion, d’autres firmes comme Vodafone, Facebook, Intel ou McKinsey acceptèrent à leur tour de s’engager à y investir à long terme. Le 4 novembre 2010, David Cameron prononça son discours sur Tech City179, marquant le coup d’envoi « officiel » de la compétition qu’allaient se livrer les métropoles européennes pour attirer capitaux et talents autour de leurs écosystèmes de start-up numériques. Boris Johnson, alors maire de Londres, apporta immédiatement son soutien plein et entier au projet : ce coup de génie tactique allait bénéficier aux deux leaders politiques pour un temps et à la scène anglaise pour bien plus longtemps. Sa prééminence comme tête de pont européenne pour les start-up, les fonds et les géants de la Silicon Valley (on ne parlait pas encore de GAFA à l’époque), ainsi que le nombre de réussites affichées (le rachat de DeepMind par Google, les licornes FarFetch ou Transferwise), furent indiscutés pour les années qui suivirent. Le Silicon Roundabout subit le sort de tout catalyseur : le quartier de Shoreditch connut un net reflux à partir de 2014, en raison de la hausse substantielle des prix immobiliers déclenchée par son succès180.
À l’automne 2012, comme en écho au succès des Jeux Olympiques et du duo Cameron-Johnson, la presse française se mit à parler de Tech City de plus en plus régulièrement et le gouvernement à s’en trouver contrarié d’autant. Nous avions un problème. Il fallait réagir. Quand le gouvernement français a un problème, il commande un rapport : la seule question est de savoir à qui. La ministre déléguée aux PME, à l’Innovation et à l’Économie numérique, le proposa à la Caisse des Dépôts, qui accepta cette mission après cinq minutes de discussions au pied d’un ascenseur avec celle qui m’avait recruté. Le nom initialement choisi pour cet ensemble de recommandations à venir était : Paris Capitale Numérique. Paris Capitale Numérique : titre fondé et peu anodin pour ce futur rapport qui consacrait, d’une part, le glissement métropolitain déjà observé à Londres ou Berlin, perceptible à New York, et en frémissement dans la Silicon Valley dont de plus en plus d’acteurs installaient des bureaux, quand ce n’était pas leur siège, en plein cœur de San Francisco.
Il permettait, d’autre part, à la puissance publique de se «raccrocher» à une initiative privée qui se préparait déjà dans le XIIIe arrondissement de la capitale, conduite par un entrepreneur à succès qui finançait à lui tout seul le démarrage de très nombreuses start-up. Jouxtant le faisceau des voies ferrées issu de la Gare d’Austerlitz et de l’important programme immobilier « Paris Rive Gauche » en cours de construction, à deux pas de la Bibliothèque François Mitterrand et trois du Campus universitaire des Grands Moulins, la Halle Freyssinet était un immense bâtiment abandonné depuis 2006, sur une emprise appartenant à la SNCF, et dont cette dernière ne savait quoi faire. Elle portait le nom de son concepteur Eugène Freyssinet, Polytechnicien et Ingénieur des Ponts et Chaussées, à qui l’on doit l’invention du béton précontraint et son brevet déposé en 1928, comme le nom d’une filiale du Groupe VINCI. La Halle des Messageries de fret de la gare d’Austerlitz fut construite la même année et mise en service en mars 1929. Menacée un temps de démolition à la demande de la SNCF, puis classé en 2012, ce lieu suscitait l’intérêt de Xavier Niel qui voulait le racheter et le réhabiliter pour y incuber les start-up financées via son fonds Kima Ventures et Jérémie Berrebi. Le gouvernement, qui appuyait un projet qu’il n’aurait pas besoin de financer, voyait ainsi d’un bon œil son insertion au cœur d’un dispositif d’attractivité.
Soutenu à la CDC par la Directrice de la Mission PIA et épaulé par ma collègue Maud Franca, je me mis donc au travail. La mission de notre petite équipe consistait à rédiger un rapport, à remettre au Premier ministre pour le 30 juin 2013, en liaison permanente avec Fleur Pellerin et son cabinet. Sa préparation fut guidée par une conviction, faire œuvre objectivement utile ; une exigence, être en résonance avec les attentes de l’écosystème numérique français ; et un impératif, garantir la liberté du contenu par sa confidentialité. Faire œuvre objectivement utile supposait de partager expériences et convictions de la manière la plus pédagogique possible et de nous assurer que nos recommandations seraient suivies. Se concentrer sur un très petit nombre de recommandations faciles à énoncer et à mémoriser permettrait peut-être d’éviter l’écueil du catalogue de mesures dans lequel chacun arrache la page qui lui convient en oubliant le reste. Quand d’autres programmes accouchaient de 34 plans, nous ferions simple. Et puisqu’il est communément admis que l’empan verbal est de l’ordre de sept, nous n’irions pas (trop) au-delà181.
Être en résonance avec les besoins et attentes de tout l’écosystème exigeait d’y avoir des relais capables de nous remonter les enjeux réels et les pistes les plus prometteuses. Il nous fallait une gouvernance externe. Garantir la confidentialité était enfin un défi auquel j’étais personnellement sensible en raison de mes expériences précédentes, mais qui me semblait également une marque du respect due aux décideurs publics. S’emparer du contenu du rapport et le traduire en décisions serait d’autant plus facile qu’ils ne seraient pas distraits par des fuites et les éventuelles polémiques qu’elle susciteraient au sein du Kommentariat. Ces deux dernières contraintes posaient une contradiction flagrante : s’entourer d’un conseil d’experts semblait indispensable mais fragilisait d’emblée le dispositif en raison de l’inévitable effet de cour qui accompagnerait sa désignation, comme du risque de fuites volontaires ou involontaires auxquelles ses membres seraient exposés. Il fallait donc un advisory board d’un genre nouveau : il serait donc shadow. Le Shadow Advisory Board de Paris Capitale Numérique aurait pour nom de code « SAB PCN 13 » et pour gouvernance les principes suivants :
– Ses membres seraient choisis intuitu personae avec comme seule réponse possible d’accepter ou de refuser et comme obligation de ne pas l’évoquer. Ceci garantirait une totale liberté de choix et rehausserait le niveau de confiance.
– Ni l’existence ni la composition de ce comité ne seraient rendues publiques : il n’y avait rien à gagner du fait « d’en être » et pas à grogner du contraire. Impossible de jouer des coudes, ni de tenter de s’imposer via des soutiens « extérieurs ».
– Sans visibilité, sans exposition publique, les membres du SAB étaient donc totalement libres de leur parole et pouvaient déplaire dedans comme dehors, à leur guise. La dernière exigence formulée était de nous signaler tout ce qui leur semblait incomplet, stupide voire desservant l’écosystème. Le rapport devait servir à tous, sauf à ceux qui en conseillaient l’élaboration !
Le SAB PCN 13 fut constitué182, se mit au (télé) travail et se réunit deux fois physiquement. Une première à Bercy pour un déjeuner en présence de la ministre et de son cabinet, dont il ne sortit ni selfie, ni tweet. La seconde se tint le 7 mai 2013, précédée d’un déjeuner au soleil près de la CDC, lors duquel furent définitivement stabilisés le plan et le contenu des sept recommandations. La méthode avait porté ses fruits : si l’existence de ce rapport était connue au cours de son élaboration, jamais rien de son contenu ne fuita, pas même dans FrenchWeb, avant sa remise au Premier ministre le 29 juin 2013. Il semblait répondre aux attentes également avec plus de 35 000 téléchargements depuis le site de la CDC, sans compter celui du Gouvernement183.
Le projet connut cependant quelques péripéties, cristallisées pour l’essentiel dans l’intitulé initial de la mission. Outre-manche, Tech City avait commencé à Londres. L’initiative serait ensuite étendue à d’autres villes du Royaume-Uni à partir de 2015, et rebaptisée alors Tech City UK. Dès le premier jour, l’annonce de David Cameron avait été soutenue par Boris Johnson et la coopération entre le Premier ministre et le Maire de Londres sans faille. Il en alla autrement en France. L’Hôtel de Ville se rappela très rapidement au bon souvenir de Matignon et de Bercy en objectant sèchement à tous que seul Paris peut décider de ce que Paris doit être. Valorisant l’antériorité de nombreuses initiatives intra- muros et refusant catégoriquement d’y associer qui que ce soit, le Maire de l’époque exigea et obtint que le nom de la Mission changeât et ne fît plus référence à la capitale du pays. La posture triompha du bon sens : la mission devint « Quartiers Numériques », traduite en « Digital Districts » qui, pour un Anglo-Saxon, évoquait plus l’interlope que des souvenirs de romance. Le projet pivotait vers la labellisation par le Gouvernement de plusieurs clusters régionaux, tout en accordant à Paris un statut particulier qui serait décidé et labellisé par Paris lui-même. Il fallait également sauver le soldat Niel, et s’assurer coûte que coûte que la Halle éponyme restât dans l’orbite du projet et en portât surtout l’étendard. La Mairie de Paris était clé dans le montage184, qu’il ne fallait à aucun prix menacer. Le Gouvernement avait également imaginé que la Caisse des Dépôts prît une part minoritaire dans l’opération185, alors même que Xavier Niel pouvait intégralement financer les travaux de rénovation, pour peu qu’il obtînt un permis de construire une fois le lieu libéré d’un encombrant statut de monument historique récemment acquis. Une réunion surréaliste se tint à la Caisse des Dépôts, dans le bureau du Directeur Général, au cours de laquelle Pierre-René Lemas et Xavier Niel se seraient amusés du fait que ce dernier n’avait pas besoin d’argent, mais était toutefois prêt à ne pas déplaire au Gouvernement. Ce à quoi le premier aurait répondu que la CDC n’avait pas de raison particulière ni d’intérêt pour investir dans son projet, mais qu’il était dans ses principes de ne pas déplaire au Gouvernement. Les discussions se poursuivirent sur le montant et la forme juridique d’un tel soutien. Le principe fuita dans la presse sans plus de précisions et le soufflé retomba… jusqu’à l’inauguration de Station F, le plus grand incubateur au monde, en présence du Président de la République… suivant. Voilà toute l’ironie de certains retards de travaux !
Cette histoire illustre le paradoxe géographique des écosystèmes numériques, qui se combine avec le paradoxe darwinien, que nous avions formulé avec toute la pédagogie possible pour sensibiliser les pouvoirs publics au caractère nécessairement émergent des projets et start-up numériques, combiné à la sélectivité accélérée et amplifiée par le financement des meilleurs via du capital- risque (et donc la disparition de nombreux acteurs) : la sélectivité est la norme et être sélectif c’est dire « non »…
La synthèse du rapport Les Quartiers Numériques posait ces trois paradoxes comme suit :
« La crise de 2008 a révélé une diversité d’approches et de réponses gouvernementales, entre les grands blocs économiques d’une part, mais plus finement encore au sein de ces mêmes blocs ; une partie des mesures et réponses apportées par les États membres de l’Union européenne avaient pour finalité de restaurer leur compétitivité et de défendre l’attractivité de leurs sites, de leurs territoires, ou de leurs marchés.
Les grands acteurs de l’économie numérique pratiquent depuis longtemps l’arbitrage entre marchés, territoires de production et cadres fiscaux, en tirant parti de la compétition à laquelle se livrent certains États à travers leur régime de TVA, leur fiscalité des entreprises, ou leur marché du travail. Cette compétition a évolué ces dernières années pour élargir son champ aux entrepreneurs, aux talents et aux fonds d’investissement.
…/…
Si la bataille de l’attractivité numérique se livre entre nations, leurs métropoles en sont les fers de lance, en raison d’un premier paradoxe caractéristique de ce secteur en perpétuelle révolution. Ce paradoxe est celui de « l’hyperlocalité » des écosystèmes numériques, très concentrés géographiquement alors même qu’Internet permet de tout concevoir, développer, optimiser et vendre à distance ! Si les données et la puissance de calcul sont désormais dans le cloud, un investisseur de Sand Hill Road continuera d’investir majoritairement dans un rayon de trente minutes en voiture autour de ses bureaux…
San Francisco présente ainsi, et de loin, la plus grande densité de fondateurs et cofondateurs. La compétition passe donc par les capitales et leur capacité à attirer talents, entrepreneurs locaux et étrangers et fonds d’investissements puissants.
Ces derniers sont indispensables à la résolution du deuxième paradoxe qui régit l’économie numérique : la combinaison d’un processus non dirigé, itératif, à rétroactions courtes, qui permet l’exploration permanente des possibles à développer et des marchés à transformer, processus dont émergent constamment de nouveaux projets sous la forme de start-up.
Cette absence de dirigisme est compensée par une capacité d’intervention rapide et massive des acteurs du capital-risque. En effet, dès qu’un projet innovant commence à manifester une certaine traction, ces investisseurs y injectent des montants considérables en vue, par « darwinisme accéléré », de faire apparaître un ou deux champions par catégorie et financer très tôt leur déploiement mondial dès le marché américain conquis. C’est le cas de l’Israélien Waze, qui en moins de cinq ans est parvenu à conquérir le marché du GPS communautaire sur smartphone : environ 50 millions d’utilisateurs, 55 millions de dollars d’investissement, conduisant au rachat de la société par Google pour un montant évoqué de 1,1 milliard de dollars en numéraire alors que la société compterait moins de cent employés.
Ce phénomène se déroule sous nos yeux à vitesse croissante, plus vite que la plupart d’entre nous ne parviennent à le penser (qui aurait prédit en 2007 que Nokia perdrait sa souveraineté logicielle en cinq ans seulement ?), et défie par sa vitesse nos bases de temps usuelles, qu’il s’agisse du temps administratif, du temps de la régulation, voire du temps législatif. Pour autant, et c’est là un troisième paradoxe de ce secteur en marche, la plupart des arbitrages qui fondent les choix d’implantation des acteurs de l’économie numérique, qu’ils soient entrepreneurs, investisseurs en capital-risque ou multinationales, ne s’opèrent pas tant sur les divers paramètres de l’attractivité d’un territoire, que sur la stabilité du cadre de cette attractivité. Brad Feld, cofondateur de Mobius Venture Capital et auteur du livre Startup Communities : Building an Entrepreneurial Ecosystem in Your City, explique qu’un écosystème de start-up se construit sur un horizon de temps de vingt ans…
Entrer (ou revenir) dans la compétition à laquelle se livrent les nations à travers leurs capitales numériques, c’est donc accepter de se laisser interroger par ces trois paradoxes, et de s’engager dans une démarche objective fondée sur : l’hyperlocalité des écosystèmes existants et futurs, la capacité à combiner émergence et forte sélectivité, et une extrême réactivité. Cette démarche doit s’inscrire dans un cadre politique et administratif offrant un alignement exemplaire des échelons nationaux et territoriaux, et une volonté inscrite dans la durée. »
Ni cette ouverture, ni les trois paradoxes n’ont pris une ride. La synthèse se poursuivait par l’énoncé de nos recommandations avant l’envoi suivant :
« La mise en œuvre complète ou partielle des recommandations de ce rapport nécessitera un investissement de long terme, une détermination appuyée aux échelons national et territorial, et une mobilisation de moyens de promotion et de communication soutenue dans la durée. Seule une démarche ambitieuse, coordonnée et incarnée permettra de faire émerger avec succès des écosystèmes dynamiques et réactifs, de permettre leur financement et le succès de leurs champions, et ainsi de rappeler au monde que les octets, eux aussi, sont “made in France”. »
Des sept recommandations que nous avions formulées, une seule, fiscale, ne fut pas retenue ; la CDC avait prouvé son indépendance ! Sous l’impulsion de Fleur Pellerin, fut imaginée une marque désormais entrée dans le langage courant. Un coq rouge en devint le logo, dont les lignes évoquaient l’origami, et qui de nos jours est encore arboré, lors des grandes occasions, par tous jusqu’aux plus hauts représentants de l’État. La Caisse des Dépôts avait eu l’intuition de l’opportunité pour elle de produire et porter ce rapport. Sa principale filiale Bpifrance allait s’en saisir pour elle et préparer la gestion d’un Fonds d’Accélération souscrit par sa maison-mère pour le compte de l’État. Quelques jours à peine après la remise du rapport, était annoncée une enveloppe de financements publics dédiée : 25 millions pour la promotion et l’attractivité, et 200 millions dédiés à la souscription dans des accélérateurs de start-up dans le cadre… d’un deuxième Programme d’Investissements d’Avenir. Ce qui devait être une démarche exceptionnelle de financement hors déficit maastrichtien, conduite sur dix ans et évaluée à l’issue de cette période à l’aune d’un retour sur investissement avait été rattrapé par «une certaine idée de la France» et notre addiction pour l’addition.
Le paradoxe géographique fut peu ou prou résolu par accident : le processus de labellisation se devait d’être à la fois sélectif et inclusif, le label lui-même n’étant pas défini par un choix politique formel, mais obtenu par l’atteinte d’un nombre suffisant de critères d’éligibilité au rang desquels la taille critique de l’écosystème de start-up dont pouvaient se prévaloir les villes candidates. Être sélectif supposait de dire « non », et de prendre ainsi le risque de mécontenter les Présidents de Région qui ne pouvaient prétendre à leur animal en origami rouge. La réforme des Régions vint à point nommé, réduisant le nombre de celles-ci et, par un heureux hasard dont seuls les Présidents ont le secret, de permettre à chacune de disposer de sa «Métropole French Tech».
Restait le paradoxe temporel. Il n’apparut pas clairement ab initio en raison de l’énergie et de la vitesse de déploiement de nos efforts d’attractivité. Le coq rouge était partout. On se pressait à Las Vegas pour jouer des coudes au CES, les médias amplifiaient formidablement ce vent de fraîcheur qui soufflait enfin sur la scène française, la France était de retour. Le chant du coq revigoré se propageait par-delà l’hexagone, fédérant des communautés d’entrepreneurs français à New York, Londres ou San Francisco. Les géants de la Tech revenaient voir, se pressant à l’Élysée lors des sommets organisés pour eux, ou dans les conférences comme VIVATech montées grâce au génie et à l’entregent de Maurice Lévy. Google, Facebook, Samsung, Huawei s’implantaient à Paris. Certes, il ne s’agissait pas encore de leurs sièges européens mais tout de même de laboratoires de recherche, notamment en Intelligence artificielle, qui permirent quelques inaugurations en grande pompe émaillées de déclarations sur l’attractivité, le savoir-faire, et le génie français, au service de la création d’emplois186.
La « coqophonie » croissante, portée et relayée avec enthousiasme par la Ministre et ses successeurs suscita l’intérêt des investisseurs étrangers. Station F ouvrit, tenant sa promesse de plus grand incubateur de start-up au monde, et permettant aux startuppers du monde entier de venir s’y installer grâce aux loyers très modérés proposés dans les banlieues alentour. À un jet de RER du campus, les bastions communistes d’Ivry et Vitry-sur-Seine avaient contenu jusqu’alors la spéculation immobilière. Le génie de Xavier Niel est également immobilier…
Un formidable engouement s’empara des investisseurs, soutenus par Bpifrance qui se positionnait comme co- investisseur sur un nombre croissant de dossiers, aux côtés de fonds d’investissement dont la banque publique était souvent souscripteur. Le montant des fonds annuellement investis en capital-risque dans des start-up françaises tripla en cinq ans, pour atteindre 5,5 milliards d’euros en 2020 malgré la crise sanitaire, avant de doubler en 2021. Si le nombre de deals reste à peu près constant, le montant des tours de table tire l’ensemble à la hausse : sept levées de fonds dépassaient 40 millions d’euros en 2017187, quarante- sept dépassaient 50 millions d’euros en 2021. Le cheptel de licornes doubla lui-même sur la seule année 2021, avec douze nouvelles entrées, et 2022 démarre en fanfare ! La progression des montants levés par la French Tech est aussi exponentielle que méritée : trois observations viendront utilement tempérer l’exubérance parfois irrationnelle trahie par les tweets décorés d’emojis188 (🦄🚀🇫🇷🐓…) confectionnés par les communicants de leurs auteurs.
Une première observation tient à une comparaison : si en 2021, nous avons « fait fois deux » en montants investis dans nos start-up, nos amis ultra-rhénans et ultra-manchots ont « fait fois trois », signe s’il en était de l’abondance de liquidités cherchant où se placer. La Silicon Valley injectait sur la même période environ trois fois plus de fonds que la France dans ses start-up, mais chaque trimestre… Dans un podium, la différence de hauteur entre les marches est parfois plus significative que leur ordre dans un escalier.
Deuxièmement, la mobilisation sans précédent de la puissance publique, à travers Bpifrance, est à la fois une contribution déterminante du démarrage et du succès actuel de la French Tech, tout en en demeurant une composante indispensable : l’écosystème n’est pas encore totalement autoporteur. Tant que les fonds publics servent d’accélérateur et d’amplificateur, le système est vertueux. Indispensables, ces fonds deviendraient toutefois la signature d’une dépendance à laquelle, il me semble que, nous devrions rester d’autant plus vigilants que le caractère exceptionnel du Programme d’Investissements d’Avenir a déjà disparu des mémoires et que l’acronyme PIA décrit désormais une composante supplémentaire du soutien public à l’innovation.
Le troisième bémol nous ramène au paradoxe temporel. Si la capacité de nos start-up à lever de plus en plus de fonds, à des valorisations sans cesse croissantes, est un réel succès, il s’agit d’un marqueur d’étape dans une course de haies à la hauteur sans cesse croissante et qu’il faudra franchir ; ce n’est qu’à l’arrivée qu’on saura qui est allé au bout de la course. Qu’elle soit seule ou en troupeau, une licorne est une fiction ou plus précisément le marqueur de l’opinion que se fait, à l’occasion d’un tour de financement, l’ensemble des investisseurs qui y ont participé. Qu’il s’agisse d’une bonne nouvelle est indéniable : une licorne reflète la promesse, pour ces investisseurs, d’un développement accéléré et d’une valorisation future encore supérieure, qui sera concrétisée lors du tour de financement suivant ou de la « sortie ». Mais c’est également une double contrainte, à la fois sur la valorisation future, mais aussi, et parfois surtout, sur son horizon de réalisation. En effet, les fonds de Venture Capital investissent de l’argent, qui ne leur appartient pas, pour une durée (dé) finie, de l’ordre de quelques années, qui est celle du véhicule via lequel ils ont investi. Dès lors, leur obsession, dès le lendemain duclosing d’un tour auquel ils sont entrés, devient de savoir quand et comment ils vont pouvoir sortir, et à combien. De ce fait, une valorisation trop élevée, qui pèserait par trop sur le « quand » comme le « combien » peut devenir un handicap. La gourmandise est parfois mauvaise conseillère et le timing fait souvent tout : Partech s’en souvient. Le fonds de Venture, qui avait investi en 2001, dans In-Fusio, un éditeur bordelais de jeux pour mobiles fondé trois ans plus tôt par le serial entrepreneur Gilles Raymond, avait refusé une offre de rachat de 360 millions d’euros, jugée insuffisante. Le refus d’une deuxième offre à 240 millions d’euros conduisait quelque temps plus tard à la fermeture de l’entreprise et au retour de quelques dizaines de milliers d’euros à ses investisseurs… Pour détourner un adage américain, « valuation is an opinion, cash out is a fact » : pas de licornes sans exits, c’est-à-dire sans ces « événements de liquidité » que constituent les entrées en bourse ou les acquisitions par des sociétés tierces. Dans les deux cas, l’opération doit s’effectuer à une valorisation significativement supérieure à celle du dernier tour de financement afin que les derniers investisseurs qui ont fait ou rejoint une licorne puissent eux aussi en (faire) bénéficier (leurs souscripteurs et le carried interest des partners de leur fonds).
Or jusqu’ici, la French Tech et le Kommentariat se sont réjouis de l’entrée d’un nombre croissant de start-up dans l’enclos des licornes, dont presque aucune n’en est pour l’heure ressortie. « Nous » nous étions fixé un objectif de vingt-cinq et il vient d’être atteint189. Mais nos plus anciennes success stories restent en attente de cotation ou d’acquisition, et même si certaines sont déjà rentables, la nature même de leurs investisseurs exige qu’elles puissent en sortir. Certes les opérations secondaires, qui étaient l’exception en 2013-2014, se sont multipliées pour permettre la liquidité partielle ou totale des « historiques », mais rien ne vaut un dénouement clair et net pour tous les VC. Or le front des sorties reste nettement plus calme que celui des entrées. Les licornes historiques, qu’elles soient avérées ou prématurément proclamées, restent à ce stade des opinions et des espoirs. Et même si toutestart-up n’a pas vocation à atteindre ce statut convoité et contraignant d’animal mythique, les exits de la French Tech restent des exceptions. 2021 n’a connu que deux introductions en Bourse : OVH, hébergeur de renom très largement autofinancé depuis sa fondation a réussi la sienne, tandis que Believe connait un sort plus terne. Sur le front des acquisitions la lettre d’Avolta Partners, qui recense tous les deals, mentionne chaque semaine des sorties de plus en plus nombreuses mais dont les montants ne sont étrangement jamais communiqués. Quelques rares exemples heureux sont venus égayer ce tableau, comme
l’acquisition de Netatmo par Legrand, pour un montant (non divulgué) de 300 millions d’euros, environ. C’était en novembre 2018, il y a plus de trois ans…
Aujourd’hui quelle grande société européenne serait désormais prête à débourser plusieurs milliards pour une de nos licornes ? Les seuls acquéreurs vraisemblables viendront d’ailleurs (comme cela fut le cas pour Zenly…) et susciteront certainement des réactions indignées invoquant notre souveraineté numérique, de la part de tous y compris des pouvoirs publics.
Qui trop encense la licorne parfois récolte le poney.