Intervention de Alain POUYAT

Réunion du jeudi 8 novembre 2018 à 10h00
Office parlementaire d'évaluation des choix scientifiques et technologiques

Alain POUYAT, président de Diginotech, membre de l'Académie des technologies :

Les réseaux précédents avaient plafonné à 4 000 ou 5 000 abonnés. Radiocom 2000 était un réseau analogique pour le transport de la voix. La seconde génération de téléphonie mobile, le GSM, est lancée en 1992 par un consortium européen composé d'industriels et d'opérateurs. Le GSM devient une norme européenne puis mondiale. Seuls deux pays ne l'adoptent pas, les États-Unis et le Japon, qui développent leur propre norme 2G. Le GSM est une technologie entièrement numérique, consacrée essentiellement à la téléphonie puis à la transmission de données avec le GPRS qui fournit un débit de 40 kilobits par seconde, comme à la radio. Le EDGE lancé deux ans plus tard offre un débit de 200 kilobits par seconde, donc cinq fois supérieur. Il est encore utilisé aujourd'hui, notamment par des médecins.

Les Japonais ont été surpris par le succès du GSM. Avec l'appui de leur opérateur historique Docomo, le premier opérateur mondial avec 60 millions de clients à l'époque, ils ont proposé une troisième génération nommée UMTS. Ce standard est adopté par de nombreux pays sauf les États-Unis et les pays sous influence américaine comme la Corée du Sud. Il a été déployé en Europe en 2003. Avec un débit proche de 300 kilobits par seconde, il n'y avait cependant pas beaucoup de différence entre l'UMTS et le réseau 2G EDGE. À la septième année d'existence de l'UMTS, le mégabit a été atteint, mais les opérateurs pensaient déjà à déployer la 4G. L'UMTS apparaît rétrospectivement comme un réseau de trop.

La 4G est déployée en France en 2013, avec trois ans de retard par rapport à la Corée du Sud et aux États-Unis. Ce réseau est immédiatement très performant en raison de l'adoption du protocole IP. Il bénéficie de la robustesse et de l'efficacité de ce protocole. C'est un standard mondial. Pour la première fois, les réseaux radios et filaires sont homogènes, ce qui permet à tous les services existants de trouver leur place sur les réseaux radios. La 4G connaît un grand succès. Par ailleurs, de nouvelles technologies comme les antennes multiples, l'ADS fréquence, et les radios logicielles et la possibilité de remplacer les équipements de télécommunications par des systèmes logiciels ont été déployées simultanément à la 4G. Le mégabit transformé en 4G coûte dix fois moins cher que le mégabit transformé en 3G, en raison de la grande performance de la nouvelle technologie.

À chaque décennie correspond une génération de système de télécommunication : la première génération durant les années 1980, la deuxième durant les années 1990, la troisième durant les années 2000. Les années 2010 sont celles de la 4e génération de téléphonie mobile. La 5e génération est naturellement attendue pour les années 2020.

Le point majeur concerne les ruptures portées par chaque génération. La première génération a porté le cellulaire, la deuxième le numérique, la quatrième la norme IP, pour la première fois dans le monde entier. Il n'y a pas d'autre 4G que celle de la norme IP. La 3G aura pour sa part été le produit d'un affrontement d'industriels entre l'Europe et le Japon, mais aussi entre la culture vieillissante des télécommunications, qui refusent la norme IP en 3G alors qu'elle gagne tous les réseaux fixes. En fait, on a assisté à un choc de culture entre la culture vieillissante des télécommunications et le dynamisme du monde d'internet avec son pragmatisme.

La 4G trouve des limites aujourd'hui, dont la difficulté de couvrir les grandes manifestations dans les stades ou les concerts. La latence s'élève à 40 millisecondes en 4G contre, par exemple, 100 à 200 millisecondes dans la technologie précédente, mais elle ne permet pas les applications en temps réel. Il s'agit, par ailleurs, de relever le défi de l'internet des objets, qui regroupe avion connecté, maison connectée, ville connectée, compteurs d'eau, bonbonnes de gaz délivrant les données de la localisation et leur taux de remplissage, suivi des bovins dans les élevages, etc. Cette évolution suppose d'avoir un réseau très ouvert, faisant de l'indoor profond, relevant peu de données mais à une fréquence régulière, à des coûts très faibles, de l'ordre de quelques euros par an et par objet. Nous avons créé des réseaux spécifiques à cette fin avec deux startups françaises à Grenoble et Toulouse, qui ont élaboré les standards LoRaWAN et Sigfox. La vocation de la 5G consiste à couvrir tous ces besoins. Le bas débit en 5G est à bas coût, tandis que le très haut débit permet un temps de réponse très court.

Les mobiles ont énormément évolué. Ils sont devenus la « télécommande » de la vie quotidienne, un instrument de paiement, une télévision de poche avec de la VOD ou de la SVOD comme Netflix. La publicité sur les mobiles a dépassé cette année la publicité sur les réseaux fixes en volume. Les particuliers passent en moyenne cinq heures par jour sur leur mobile, contre quatre heures devant la télévision.

Pour répondre à ces nouveaux besoins, l'autorité nationale et les industriels se sont concertés pour concevoir la 5e génération. Il s'agit de raisonner en partant des applications verticales. Par exemple, la ville intelligente, la ville connectée ou la ville durable supposent que tout soit relié et que les données soient partagées. Une autre application vise à aider la voiture pour limiter les risques d'accident, ce qui suppose que la voiture communique avec des infrastructures tierces et sans latence.

La 5G s'oriente de deux manières, d'une part, dans la continuité et le prolongement de la 4G actuelle avec de meilleures performances, d'autre part, pour répondre à des besoins de débit supérieur au gigabit ou pour traiter des problèmes de densité importante des utilisateurs. Cela nécessite de mobiliser la bande passante disponible. Les bandes de fréquence attribuées aux opérateurs toutes fréquences confondues atteignent à peine 100 mégahertz. Le bon débit suppose d'avoir une bande passante supérieure à 1 000 mégahertz. La 5G s'oriente vers la très haute fréquence, ce qui constituera la rupture majeure de cette technologie.

Ce sujet constitue un enjeu important étant donné que nous n'avons pas une grande maîtrise de ces types de fréquence au niveau civil. Il faudra gérer de telles innovations en quelque sorte en terre inconnue, sans passer à côté d'opportunités industrielles. Enfin, il faut se poser la question de la sécurité de ces réseaux. La 5G sera totalement virtualisée : tout sera logiciel, donc pourra se localiser n'importe où, dans un cloud, au-delà du pays, en Chine, aux États-Unis ou en Irlande, ce qui suppose d'assurer la cybersécurité. Il n'y aura pas de 5G si nous ne maîtrisons pas la cybersécurité. Il n'y aura pas de transformation de la société numérique si la cybersécurité n'est pas maîtrisée.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.