Rapport de Mission
Mission confiée par Christian Pierret, Secrétaire
d'Etat à l'Industrie
à Jean-François Abramatic
dans le cadre du programme d'action gouvernemental pour la
société de l'information.
Site Web : http://mission-dti.inria.fr
© 1999 - Mission Développement Technique de l'Internet
Mission " Développement technique de l'internet "
Lettre de mission à M. Jean-François ABRAMATIC
Ministère de l'Economie, des Finances et de l'Industrie
Le Secrétaire d'Etat à l'Industrie
Paris, le 18 mars 1998
Monsieur le Directeur,
Le gouvernement a décidé de faire de l'entrée de la France dans la société de l'information l'une des priorités à son action. Le développement de la société de l'information constitue en effet une opportunité majeure pour créer de nouveaux emplois, ouvrir de nouveaux marchés et renforcer la compétitivité de notre économie. A cet égard, le Ministre de l'Economie, des Finances et de l'lndustrie a confié une mission sur le commerce électronique à M. Francis LORENTZ qui a remis son rapport en janvier dernier. Le développement des technologies de l'information et de la communication et des nouveaux réseaux d'information offrent des perspectives prometteuses en matière de formation, d'éducation, mais aussi dans les domaines culturels et sociaux. C'est pourquoi le gouvernement souhaite faciliter l'essor d'Internet en France, en s'assurant que les infrastructures nationales seront capables de faire face et d'anticiper la demande grandissante de services de télécommunications Internet dans l'avenir.
Compte tenu de l'expérience que vous avez acquise, à la fois comme directeur du développement et des relations industrielles de l'Institut national de recherche en informatique et en automatique (INRIA) et comme président du " World wide web consortium " , le gouvernement a décidé, dans le cadre du programme d'action pour la société de l'information, de vous confier une mission d'étude sur l'infrastructure Internet en France. Le programme d'action gouvernemental pour la société de l'information a défini un ensemble de priorités à l'action des pouvoirs publics en ce domaine.
Il importe que ces priorités et les mesures identifiées dans le programme s'appuient sur les technologies les plus avancées et une infrastructure adaptée. Je souhaiterais que vous procédiez à une évaluation approfondie de l'état des infrastructures sur lesquelles reposent le développement d'Internet : situation de la boucle locale, des réseaux de transport de données et de nos interconnexions avec les réseaux internationaux, évolution du débit et risques de saturation des réseaux, perspectives ouvertes par l'émergence d'infrastructures alternatives et d'usages alternatifs des infrastructures existantes.
Par ailleurs, le développement des contenus doit utiliser les langages et outils les plus modernes pour garantir la meilleure accessibilité et permettre l'exploitation la plus efficace. Je souhaiterais que vous dressiez les perspectives ouvertes par l'émergence des nouveaux standards en matière de représentation d'information et de connaissance. L'une des caractéristiques d'Internet tient à la large diffusion de logiciels libres d'emploi, qui constitue l'une des clés de sa croissance exponentielle et favorise des coopérations nouvelles entre les utilisateurs, scientifiques ou non. Je souhaiterais que vos recommandations tiennent compte de cette dimension particulière d'Internet.
En vous appuyant notamment sur les services du Ministère de l'Economie, des Finances et de l'Industrie et en particulier la Direction Générale des Stratégies Industrielles et la Direction des Postes et Télécommunications, vous veillerez à consulter tous les acteurs économiques compétents, opérateurs de télécommunications et industriels, mais également l'Autorité de Régulation des Télécommunications et les représentants des associations d'utilisateur d'Internet.
Je souhaite que vous me remettiez vos premières conclusions au mois de juin 1998. Je vous prie d'agréer, Monsieur le Directeur, l'expression de ma considération distinguée.
Christian PIERRET
La mission « Développement Technique de l'Internet » a été lancée au printemps 1998.
Après avoir brièvement entamé ses travaux, la mission a été suspendue jusqu'au début 1999 pour des raisons à la fois personnelles et professionnelles.
Avec l'accord du Secrétariat d'Etat à l'Industrie, les travaux ont repris en janvier 1999 avec une nouvelle équipe.
De manière à permettre un débat ouvert, l'équipe a prêté une attention particulière à l'architecture du site Web à partir duquel le rapport est engendré "automatiquement".
L'équipe espère ainsi encourager et faciliter les échanges dès l'ouverture du site.
Jean-François Abramatic.
TABLE DES MATIÈRES
Synthèse | 1 | ||
---|---|---|---|
Rapport | |||
Partie A : Moteurs du Développement Technique de l'Internet | |||
Applications et Usages | 15 | ||
Technologies et Standards | 29 | ||
Partie B : Composants Techniques de l'Internet | |||
Réseaux de Transport | 41 | ||
Boucle Locale | 57 | ||
Interconnexions | 71 | ||
Services d'Infrastructure | 77 | ||
Équipements | 91 | ||
Partie C : Environnement Economique et Politique | |||
Modèles Economiques | 95 | ||
Réglementations | 107 | ||
Glossaire des Acronymes | 113 | ||
Annexes | 123 |
DÉVELOPPEMENT TECHNIQUE DE L'INTERNET |
|
Synthèse |
|
|
Le rapport a pour objet, à la fois de proposer les grandes lignes d'un état des lieux du développement technique de l'Internet dans le monde et en France, et de suggérer un premier ensemble de recommandations pour accélérer ce développement sur le territoire national. Il est écrit avec l'objectif d'alimenter un débat. Il ne prétend, en aucune manière, donner les solutions mais plutôt suggérer des voies de travail.
La mission "Développement Technique de l'Internet" fait partie du Programme d'Action Gouvernemental pour la Société de l'Information (PAGSI). Le rapport met donc l'accent sur les aspects techniques alors que d'autres rapports ont traité les aspects usages (commerce électronique, par exemple) ou réglementaires. Il doit être lu comme un élément du débat fondamental relatif au positionnement de la France dans le développement de la société de l'information.
Organisation du rapport
Le rapport comporte trois parties :
La première partie identifie les moteurs qui entraînent le développement technique de l'Internet. La variété des applications et des usages que l'Internet peut accueillir est le moteur principal comme en témoigne le rôle joué par les applications les plus connues, le courrier électronique et le World Wide Web dans la diffusion de l'Internet. L'évolution et la standardisation des technologies de l'information (matérielles et logicielles) est le second moteur puisqu'elle rend efficientes des applications par le seul progrès des caractéristiques techniques des composants (fibre optique, processeurs et mémoires, boîte à outils logiciels, ...).
La seconde partie décrit les composants techniques de l'Internet. Les cinq chapitres couvrent les réseaux de transport, la boucle locale, les interconnexions, les services d'infrastructure, les équipements.
La troisième partie met l'accent sur l'environnement économique et politique. La recherche des modèles économiques appropriés, le rôle joué par les réglementations sont évoqués dans leurs relations avec le développement technique de l'Internet.
La synthèse et les chapitres sont composés d'une présentation du contexte international, d'une appréciation de la situation en France et d'un ensemble de recommandations.
L'Internet est la plateforme de la convergence entre l'informatique, les télécommunications et l'audiovisuel
L'Internet est un moyen de communication (stockage et/ou transmission d'informations) au même titre que l'écriture, l'imprimerie, la radio et la télévision, le téléphone et le fax. C'est le premier moyen de communication qui ait été conçu dans l'ère numérique. C'est le premier moyen de communication qui associe télécommunications et informatique dès sa conception. Le terme de "convergence" est souvent associé à l'émergence de l'ère du numérique. Cette convergence est relative à trois composantes : les télécommunications, l'informatique et l'audiovisuel. Si l'Internet cherche à intégrer les signaux audiovisuels, ces signaux, dépendant du temps, n'ont pas été pris en compte lors de la conception de l'Internet. Toutefois, les progrès technologiques en matière de support de communications (fibre optique), de composants (processeurs, mémoires), de bibliothèques logicielles (système d'exploitation, protocoles) permettent d'affirmer désormais que la convergence aura lieu sur une infrastructure Internet.
Un moyen de communication en constante évolution
Bien que conçu il y a plus de vingt-cinq ans, l'Internet est encore en pleine évolution. Cette évolution est sans doute appelée à durer. En effet, les choix de conception de l'Internet ont repoussé l'intelligence aux extrémités du réseau (c'est à dire dans les ordinateurs qui servent d'interfaces avec les utilisateurs ou ceux qui stockent et délivrent l'information). Cette caractéristique permet à l'Internet de tirer parti "en temps réel" des progrès des matériels et logiciels informatiques. C'est cette capacité à évoluer qui permet d'envisager d'exploiter l'Internet pour des usages qui n'avaient pas été pris en compte lors de sa conception.
Un moyen de communication piloté par les applications
Evoquer le développement technique de l'Internet exige donc d'utiliser une approche dynamique où chacun doit être prêt à modifier en permanence les éléments constitutifs de son réseau. En particulier, l'équilibre entre l'offre et la demande penche du côté de la demande puisque de nouvelles applications peuvent être développées "aux extrémités" et exiger l'adaptation de l'infrastructure. Le développement du World Wide Web (ou Web) est l'exemple le plus récent et le plus spectaculaire de ce phénomène. Les applications du Web dans le domaine du commerce électronique ne faisaient pas partie des objectifs initiaux de son développement (plutôt dirigé vers le travail coopératif). Ce sont pourtant les perspectives en matière de commerce électronique qui motivent (en majorité) aujourd'hui les investissements financiers exceptionnels consentis pour développer produits et services.
Un moyen de communication qui associe développement et déploiement
Enfin, l'Internet fournit lui-même l'infrastructure pour le déploiement de nouvelles applications logicielles (eg logiciels libres ou versions prototypes des éditeurs de logiciels). Les mécanismes de diffusion de nouvelles applications ont, en effet, été mis en place depuis l'origine de l'Internet et font désormais partie de la culture du "net". Ce rapprochement entre développement et déploiement raccourcit la boucle qui lie idées, prototypes, produits et services. Depuis les protocoles de base jusqu'aux applications, le paradigme du Développement Technique de l'Internet (que les pionniers ont décrit par la devise : "rough consensus and running code") favorise l'innovation par rapport à la préservation des positions acquises.
La croissance de l'Internet est provoquée par les applications. Si le courrier électronique est la plus ancienne application, sa charge sur l'infrastructure est restée modeste jusqu'à ce jour, étant donné le type (principalement du texte) des données échangées. Le Web a facilité l'accès à des images et, surtout, accéléré la navigation d'un service d'information à un autre. Les débits engendrés par l'usage du Web ont donc rapidement représenté la part la plus importante du trafic de l'Internet (aujourd'hui, un peu plus de 60%). Le déploiement futur d'applications impliquant le transfert de données audiovisuelles (téléphone, vidéoconférence, télévision) engendrera de nouveaux types de trafic et provoquera des demandes nouvelles sur l'infrastructure (bande passante mais aussi qualité de service temps-réel). Dans un autre domaine, on peut imaginer qu'une fois déployés les services d'infrastructure, le commerce électronique demandera de fournir aux utilisateurs une qualité de service largement supérieure à celle qui est disponible actuellement.
Comme toute technologie, l'Internet peut être utilisé pour le meilleur, le pire, le moyen ou le médiocre. Les applications disponibles déterminent les usages et, par conséquent, les modèles culturels associés. A titre d'illustration, le Web a été développé comme outil de travail coopératif par Tim Berners-Lee, au CERN, pour aider les physiciens des hautes énergies à collaborer à travers l'Europe. Les premières versions de logiciels permettaient à l'utilisateur de publier aussi bien que de naviguer, donnant aux fonctions de création (écriture) et d'apprentissage (lecture) le même poids. Le succès de Mosaic, le premier navigateur multiplateformes développé au NCSA (National Center for Supercomputing Applications), a rendu dissymétriques lecture et écriture, la fonction navigation étant seule supportée. Plus récemment, une évolution connue sous le nom de technologie "push" a voulu imposer un modèle de diffusion où l'utilisateur s'abonne et reçoit sans effort les informations sélectionnées par le fournisseur de service. Ce rapide historique montre comment la disponibilité d'outils logiciels peut conduire à des usages bien différents et ouvrir ou fermer des opportunités essentielles. Par exemple, on n'enseigne pas les mêmes choses aux élèves si les outils mis à leur disposition permettent de créer des services ou s'ils permettent seulement de parcourir des services créés par d'autres. En fonction du choix éducatif choisi, l'infrastructure technique nécessaire ne sera pas la même.
Le développement de nouvelles fonctionnalités de l'Internet est assuré par des organisations construites à cet effet. Les plus connues sont l'IETF (Internet Engineering Task Force) et le W3C (World Wide Web Consortium). Ces organisations associent laboratoires de recherche, industriels, fournisseurs de services, utilisateurs, pour conduire l'évolution de l'Internet et de son application aujourd'hui majeure, le Web. Dans tous les cas, les nouvelles fonctionnalités sont mises au point "directement" sur l'Internet. Les premières versions de logiciels mettant en oeuvre les innovations sont déployées librement. Les exemples les plus célèbres sont le Web initial (issu du CERN à Genève), Mosaic, Apache, le serveur Web le plus employé encore à ce jour, malgré la présence d'offres commerciales multiples et prestigieuses. L'usage de logiciels libres préside ainsi à la mise au point puis au déploiement des nouvelles caractéristiques et nouvelles applications sur l'Internet. Etre un acteur du développement de l'Internet exige de participer aux travaux de cette communauté qui construit collectivement l'Internet de demain.
Enfin, la faisabilité de ces nouvelles applications, le réalisme de ces nouveaux usages, l'efficacité de ces nouveaux protocoles et formats sont largement dépendants de l'évolution des performances et fonctionnalités des composants matériels et logiciels des équipements d'informatique et de télécommunications. L'Internet a été conçu pour pouvoir tirer parti des progrès accomplis dans chacun de ces domaines. Par exemple, les développements techniques qui permettent d'utiliser, en 1999, les objets mobiles (téléphones cellulaires, assistants personnels) ou les télévisions comme terminaux d'accès à l'Internet sont rendus possibles par l'intégration et la baisse des coûts de revient des composants de base de ces matériels. De même, les progrès accomplis dans les technologies de télécommunication permettent d'envisager le déploiement d'infrastructures offrant des bandes passantes supérieures de plusieurs ordres de grandeur à celles qui sont disponibles aujourd'hui.
L'Internet utilise ou peut utiliser tous les réseaux de télécommunications existants ou à venir. Pour suivre le slogan "IP over everything", Internet bénéficie de tous les progrès technologiques en matière de télécommunications. On a vu ainsi, au fil du temps, apparaître Internet sur le réseau téléphonique (fixe et mobile), l'infrastructure télévision, la fibre optique, les communications satellites, etc. Les infrastructures réseaux sont en général fournies par les opérateurs de télécommunications, leur développement est stimulé par les mesures de dérégulation mises en place à travers le monde. Ces couches basses ne posent pas, à moyen terme, de problèmes majeurs dans les pays industrialisés où l'existant et ce que l'on peut attendre de la concurrence devraient fournir les bases nécessaires au développement technique de l'Internet. A court terme, des différences notables apparaissent cependant, d'un pays à l'autre, en matière de modèle économique, de maturité de la compétition et de réglementation.
De nombreuses solutions techniques sont en train d'émerger, permettant de choisir la solution appropriée aux problèmes très variés posés par le déploiement local de l'Internet (métropoles, zones industrielles, ..., habitat dispersé) :
L'influence de réglementations conçues avant l'Internet est aujourd'hui particulièrement forte. Les progrès en qualité de service que l'on pourrait attendre des développements techniques sont souvent ralentis par des réglementations peu favorables aux initiatives nouvelles.
Réseau de réseaux, l'infrastructure de l'Internet se construit grâce aux interconnexions entre les réseaux élémentaires mis en place par les fournisseurs de services ou les grandes organisations disposant de leur propre infrastructure. La topologie de l'Internet, en perpétuelle évolution, est la caractéristique essentielle qui détermine le service rendu, sa qualité, sa performance. Si les questions techniques soulevées par ces interconnexions font l'objet de travaux significatifs pour améliorer les performances, les principaux problèmes à ce niveau tiennent aux modèles économiques pratiqués. Les concepts de "peering" (échange de trafic sans compensation financière) et de "transit" (échange de trafic avec compensation financière) aboutissent à une situation où les fournisseurs de services disposant du plus grand nombre de serveurs "intéressants" sont en situation d'imposer leur "loi économique". Ceci aboutit actuellement à un profond déséquilibre entre les Etats-Unis (où l'on trouve, par exemple, 80% des sites Web) et le reste du monde. Par ailleurs, au fur et à mesure que la capillarité de l'infrastructure technique de l'Internet se densifie, le besoin de développement d'interconnexions locales augmente pour tirer le meilleur parti de la bande passante disponible.
Bâti sur une infrastructure matérielle, l'Internet est cependant fondamentalement une infrastructure logicielle. En particulier, la plupart des fonctionnalités nouvelles (qui constituent donc des opportunités pour de nouveaux acteurs) peuvent très souvent être fournies grâce à une offre logicielle. Les services indispensables au déploiement réel, c'est à dire à la construction de la société de l'information, sont :
Ces services se développent de manière distribuée, indépendamment les uns des autres. Ils contribuent tous, cependant, à augmenter la confiance que l'utilisateur peut avoir envers l'infrastructure Internet.
Le déploiement de l'Internet a été à l'origine du développement d'une offre variée de produits. Un marché largement dominé par l'industrie américaine s'est ainsi créé. La valeur ajoutée se trouvant souvent entre le réseau et l'usager final, cette industrie a pris une importance considérable malgré sa jeunesse grâce à son déploiement dans le grand public. Les opportunités existent cependant d'apporter de nouvelles solutions ou fonctionnalités au gré du déploiement de nouvelles applications.
L'histoire des technologies et de leur impact sur la société a permis de développer un modèle séquentiel où l'idée naît et murit dans un laboratoire, où le transfert de technologie permet à un entrepreneur de développer un produit ou un service, où l'adoption par le marché fait l'objet, enfin, du déploiement commercial. Dans le cas de l'Internet, idée, recherche, prototypage, produits, services, applications et usages s'entremêlent, accélérant la mise au point des produits et leur adoption par les utilisateurs. Cette caractéristique a, bien évidemment, des conséquences essentielles sur le développement technique de l'Internet.
Le fait que l'évolution de l'Internet "n'appartient à personne" ou "appartient à tout le monde" pose des questions de type nouveau à ceux qui cherchent à développer une nouvelle activité économique. On a souvent répandu l'idée fausse que l'Internet était gratuit. La vérité est que les modèles économiques font, eux-mêmes, l'objet d'innovations et l'on voit des sociétés majeures changer de modèle économique à plusieurs reprises en quelques années. Sous un autre angle, les relations entre fournisseurs de services en termes d'interconnexion font l'objet de négociations où la créativité est de mise. Enfin, la mise en place des services d'infrastructure (annuaires, nommage, sécurité, protection du consommateur, ...) n'a pas encore trouvé de modèle économique suffisamment convaincant pour permettre le déploiement massif. Ce sont donc non seulement des produits et services qu'il convient d'inventer mais également des mécanismes de marché.
Parmi les questions que l'on peut se poser figurent les arbitrages entre
Dans un environnement aussi évolutif, la fonction de réglementation est un défi permanent. La jeunesse des technologies pousserait à attendre le déploiement alors que les conséquences sociétales déjà perceptibles poussent à intervenir rapidement. Une attention particulière doit alors être accordée au réalisme des réglementations envisagées. L'Internet étant sans frontière (et donc sans douanes), une législation ne peut être mise en oeuvre sans tenir compte de l'existence ou non de législations dans les autres pays. De plus, la rapidité du déploiement exige des règlements une capacité de passage à l'échelle dont le rythme dépend du marché et non des capacités de l'administration chargée de l'application de la loi. Un soin particulier doit être accordé aux expérimentations avant de finaliser les réglementations. Enfin, le dialogue et la médiation doivent être préférés, à ce stade, à la régulation et à l'application trop directe de règles conçues pour un environnement désormais bouleversé par l'émergence de l'Internet.
Le développement technique de l'Internet est facilité par l'ouverture à la concurrence des télécommunications, désormais largement engagée à travers le monde. Par ailleurs, le rôle d'infrastructure pour la société de l'information associe le développement de l'Internet à d'autres réglementations relatives à des questions aussi variées que
De manière générale, la construction de l'environnement réglementaire de la convergence est un défi majeur présenté à la communauté internationale. L'Internet a atteint un stade de développement suffisant pour que les interactions entre l'environnement réglementaire et le développement technique constituent désormais un des facteurs décisifs dans la poursuite de la dynamique de déploiement.
Un retard qui s'accroît
Le développement technique de l'Internet en France a pris du retard par rapport aux Etats-Unis mais aussi par rapport à la Grande-Bretagne, l'Allemagne, les Pays-Bas et la Scandinavie, l'Australie ou Hong Kong. Les efforts entamés récemment permettent aux utilisateurs français d'apprécier les bénéfices que l'utilisation de l'Internet peut apporter. Cependant, ces efforts sont insuffisants pour combler le retard accumulé. Par de nombreux aspects, le retard se creuse. Le développement de l'Internet dans les autres pays connaît en effet une accélération nourrie par le déploiement des PC dans les foyers, par la détermination des chefs d'entreprise (souvent encouragés par des tarifs de liaisons avantageux) et par un environnement réglementaire qui met, en première priorité, le déploiement de l'Internet.
Favoriser l'émergence d'un marché européen
L'intégration européenne offre des opportunités nouvelles qui pourraient permettre de combler une partie du retard (par exemple le passage à l'Euro peut être favorable au déploiement du commerce électronique). De plus, l'Europe bénéficie d'atouts dans des domaines (téléphonie mobile, télévision numérique, carte à puces) où l'Internet ne fait que ses premiers pas. Enfin, l'Europe approche l'évolution de la législation relative aux technologies de l'information (directives) de manière coordonnée. Cela peut créer des opportunités de marché pour les services d'infrastructure en particulier (sécurité, protection du consommateur, étiquetage du contenu, ...).
Prendre en compte le développement de l'Internet dans le processus de dérégulation
La dérégulation des télécommunications est une condition nécessaire au déploiement de l'Internet. Cependant, la France, en particulier, et l'Europe, en général, vivent simultanément le développement de l'Internet et le processus de dérégulation des télécommunications. Cette situation n'a pas présidé au développement de l'Internet aux Etats-Unis. Le financement fédéral américain a en effet permis la naissance puis le déploiement de l'Internet dans les milieux académiques, créant une première infrastructure et, surtout, une génération de compétences américaines sans équivalent aujourd'hui en Europe. C'est à partir de cette infrastructure, de ces compétences... et d'une application conçue en Europe, le Web, que l'économie américaine à la recherche d'une nouvelle frontière a entrepris de développer de nouveaux marchés. Si l'Europe et la France se contentent de faire jouer la règle unique du marché au nom du respect de la dérégulation, l'avantage américain est tel que l'écart devrait continuer à se creuser en faveur des nouveaux entrants (MCI WorldCom, Cisco, AOL/Netscape, Yahoo, ...) ou des leaders reconvertis (Microsoft, Sun, IBM, ...).
Aujourd'hui, la priorité opérationnelle donnée à la mise en oeuvre de la dérégulation des télécommunications constitue un frein au déploiement de l'Internet, par exemple dans le développement de la boucle locale (forfait deuxième ligne, usage du câble, déploiement de l'ADSL, ...).
Demain, des questions de même nature se présenteront dans le domaine de l'audiovisuel.
La France a vécu un indiscutable départ en matière d'usage de l'Internet au cours de l'année 1998. Cette évolution encourageante s'est traduite au niveau
Cependant, cette évolution permet seulement de maintenir l'écart avec les autres pays européens (Grande-Bretagne, Allemagne et Scandinavie). Le fossé se creuse avec les Etats-Unis où la généralisation des usages a créé une dynamique sans équivalent dans le monde.
Cette situation a pour conséquence de rendre de plus en plus importante la dépendance technologique (achat de produits américains) et culturelle (adoption des paradigmes d'usages américains).
L'Internet est encore dans sa phase d'"adolescence" et de très nombreux développements sont en cours dans le monde pour généraliser son positionnement comme infrastructure de la société de l'information. Le développement de ces nouvelles technologies est conduit par des organisations souvent créées à partir d'initiatives américaines.
La participation effective de la France à ces travaux est encore largement insuffisante malgré certains résultats significatifs tels que la position des chercheurs français dans le développement d'IPv6 ou l'hébergement à l'INRIA de la composante européenne du W3C. Si la recherche publique française est présente dans les travaux de l'IETF, du W3C, ..., la participation industrielle est trop insuffisante pour envisager un retour proche dans le peloton de tête des pays qui influent sur l'évolution technique de l'Internet.
Cette évolution technologique est concomitante avec le développement des standards. Le paradigme de conception de nouvelles fonctionnalités adopté par l'IETF et repris par W3C demande à chaque nouvelle spécification la preuve de deux mises en oeuvre interopérables pour que celle-ci puisse prétendre au rang de standard ou de recommandation. Cette vision très opérationnelle du développement de standards donne aux pays disposant de la maîtrise technologique un effet de levier exceptionnel.
La France (à l'exception notable des centres de recherche publics) a trop longtemps ignoré les technologies et standards de l'Internet pour disposer aujourd'hui de cette maîtrise technologique. L'appel à propositions 1999 du RNRT (Réseau National de Recherche en Télécommunications) propose d'engager une action spécifique pour susciter des projets de recherche et développement.
Des opportunités apparaissent par ailleurs au moment où la convergence des technologies de l'information demande à la communauté technique de l'Internet de s'ouvrir à d'autres domaines tels que la téléphonie mobile ou l'audiovisuel. Les positions plus fortes de la France et de l'Europe dans ces domaines peuvent être exploitées si les communautés acceptent de s'investir dans les travaux des organisations internationales compétentes.
La France bénéficie d'un réseau de télécommunications moderne. Par ailleurs, la concurrence engagée à la suite des mesures de dérégulation permet d'envisager la multiplication de l'offre et une baisse des coûts. Enfin, la concurrence joue également pour les liaisons vers l'étranger. L'Internet peut donc s'appuyer en France sur une infrastructure compétitive. Les investissements importants consentis devraient permettre que cette infrastructure demeure au meilleur niveau mondial. Il reste que les modèles économiques utilisés tardent à évoluer et que les tarifs pratiqués (pour les lignes louées par exemple) sont encore trop élevés pour permettre le déploiement d'une offre présentant, à un prix donné, des débits comparables à ceux disponibles dans les pays les plus avancés, aux Etats-Unis, en particulier, où la concurrence joue à plein.
La variété des solutions techniques appelle des initiatives diversifiées pour acquérir une maîtrise technologique aujourd'hui insuffisante et une compréhension de l'éventail des possibles. La complexité des réglementations et la multiplicité des organes de régulation impliqués limitent la mise en place des expérimentations indispensables. Dans ce contexte, les collectivités locales ont du mal à exercer leur rôle. Le retard de la France se creuse sur ce domaine difficile et critique pour le déploiement généralisé de l'Internet pour tous.
Le dispositif d'interconnexion doit être observé à trois niveaux : national, local et international.
Niveau national
Comme dans tous les pays, les premiers éléments de l'infrastructure Internet ont été mis en place sous la responsabilité du réseau national de l'enseignement et de la recherche, en France Renater. C'est ainsi que le GIX (point d'interconnexion national) permet encore, en 1999, aux fournisseurs de service Internet de mettre en place leurs politiques d'interconnexions. Géré par Renater pour des raisons historiques, le GIX n'a pas vocation à être l'unique point d'interconnexion national. Un deuxième point d'interconnexion national, PARIX, a été ouvert en 1998 par France Telecom.
Niveau local
La capillarité de l'Internet en France atteint à peine le niveau qui justifie économiquement le déploiement de points d'interconnexion locaux. De plus, les initiatives locales de nature publique (par exemple métropole régionale), ne sont pas encouragées par les conditions imposées par la dérégulation. Un seul point d'interconnexion régional a été mis en place, à Grenoble.
Niveau international
Les connexions européennes, américaines et internationales, en général, sont bien sûr particulièrement importantes puisque l'Internet est une infrastructure mondiale. La jeunesse de l'offre de services sur le territoire national rend les termes de l'échange défavorables pour les fournisseurs d'accès nationaux. Par exemple, Renater est devenu inutilisable, en 1996-1997, lorsque la demande d'accès aux sites américains s'est soudainement développée. La situation s'est largement améliorée depuis 1998 grâce à des investissements supplémentaires et à la baisse des prix issue de la concurrence. Des efforts additionnels sont cependant indispensables pour permettre à la communauté nationale de disposer d'un environnement comparable à celui de ses pairs à travers le monde. Enfin, les connexions européennes présentent, à leur échelle, des caractéristiques d'insuffisance en termes de densité d'interconnexions.
Ces services sont largement couverts par le marché et sont en forte croissance depuis 1998.
Le rôle de l'AFNIC est désormais reconnu par la communauté. La place de la France dans les discussions autour de l'ICANN a été significative.
Le marché joue le rôle important. L'avance prise par les sociétés américaines est un exemple de l'avantage acquis par la présence initiale sur le marché. La particularité des sites francophones donne une chance à des offres françaises.
L'annonce de la modification de la loi sur la cryptologie a eu un effet très positif sur la reconnaissance internationale que la France est déterminée à prendre sa place sur l'Internet. Ceci crée des opportunités de marché qui sont à saisir. Ceci crée aussi un devoir de diligence dans l'établissement des règles d'application de la loi. Le retard dans la détermination et la publication de ces règles pourraient rendre difficile leur application concrète (situation de fait accompli).
L'expérience de la CNIL et la disponibilité de la directive européenne fournissent les bases d'une politique encore à mettre en oeuvre.
La lenteur du déploiement des bureaux d'étiquetage donne le temps nécessaire à l'établissement d'une politique.
Le marché des équipements est bien entendu mondial. Il s'agit d'un marché en très forte évolution où les opportunités sont nombreuses. L'avance prise par le marché américain est telle que toute initiative prise par une société européenne doit être confrontée au déploiement aux Etats-Unis pour accéder aux volumes nécessaires à la rentabilité. Il reste que des compétences acquises peuvent être mises à profit pour construire des offres originales (cartes à puce, terminaux intelligents par exemple).
Le retard en France s'explique, en partie, par l'application directe de modèles économiques hérités du monde des télécommunications.
L'usage du réseau téléphonique comme accès local induit une facturation de l'accès à l'Internet dépendante du temps. Si la boucle locale est fournie par le câble ou l'ADSL, la facturation est forfaitaire. Aux Etats-Unis, au Canada, en Australie, la communication téléphonique est facturée au forfait. Cette situation, si elle a conduit parfois à des excès, a eu un effet décisif dans l'adoption de l'Internet par le grand public. L'annonce de l'offre "forfaitaire" de France Telecom (limitée à vingt heures par mois), en mai 1999, est un premier pas encore insuffisant dans cette direction.
Au deuxième trimestre 1999, plusieurs offres d'abonnements gratuits sont apparues. Cette approche est bien adaptée aux usages limités dans le temps. La gratuité ne porte, en effet, que sur l'abonnement forfaitaire et la facturation au temps de la communication téléphonique locale est maintenue.
Comme pour le minitel à son lancement, la mise à disposition gratuite de terminaux est une pratique en cours d'expérimentation.
De même que le modèle économique issu des services téléphoniques prévaut aujourd'hui pour la boucle locale, les modèles issus de l'audiovisuel ont été transposés aux services disponibles sur l'Internet (en particulier le financement par la publicité). Il est clair que, dans ce cas, le retard en matière d'usage grand public en France se traduit par un retard en capacité de financement selon ce modèle. D'autres modèles sont à l'étude dans le monde. La pratique courante de la carte à puce, en France, est certainement un atout au moment d'envisager des modèles économiques alternatifs.
La faiblesse des investissements publics et privés sur l'Internet dans les vingt dernières années a des conséquences de toutes natures. Il convient de se poser la question de mesures exceptionnelles pour combler les retards. On peut, en guise de référence, étudier les investissements publics massifs déployés aux Etats-Unis AVANT de transférer au marché la responsabilité du déploiement généralisé ainsi que ceux mis en place pour les cinq années à venir au niveau du financement public de la recherche en technologies de l'information (croissance d'un milliard de dollars en cinq ans).
Le développement technique de l'Internet se heurte à un ensemble de réglementations développées pour le domaine des télécommunications ou de l'audiovisuel. Ces réglementations n'ont pas pris en compte, lors de leur conception, les bouleversements que l'Internet engendre. Cette situation n'est pas propre à la France. Tous les pays sont confrontés au défi d'adapter leurs règles à la situation nouvelle ainsi créée. Il reste que la flexibilité dont chaque pays fera preuve sera un élément déterminant de la place que le pays occupera dans le déploiement de l'Internet et donc de la société de l'information.
Les pouvoirs publics ont fait du développement de l'Internet une priorité pour l'entrée de la France dans la société de l'information. Toutefois, comme l'évolution et le déploiement de l'Internet s'effectuent de manière essentiellement décentralisée, la place des pouvoirs publics est délicate à préciser et doit relever d'un positionnement original. Par exemple, les idées de "plan" ou de "gouvernance" doivent être laissées de côté en faveur d'une approche reposant sur
En tout état de cause, le succès ne viendra qu'avec l'engagement des forces du marché et l'adoption par les entreprises et le grand public.
***
Les recommandations sont formulées pour atteindre trois objectifs.
Créer des produits et services
L'Internet est encore largement un domaine d'opportunités. La création de nouveaux contenus et de nouveaux services est ouverte aux initiatives nouvelles. Pour participer de manière significative au développement technique de l'Internet, il faut également être présent aux endroits où l'Internet de demain se conçoit.
Construire la confiance
La confiance des utilisateurs implique la satisfaction de besoins essentiels (sécurité, respect de la vie privée, ...). Les logiciels et services d'infrastructure doivent permettre de répondre à ces besoins. Pour les opérateurs techniques (opérateurs de télécommunications, fournisseurs d'accès, hébergeurs, ...), le manque d'informations quantitatives sur le fonctionnement de l'Internet (qualité de service, trafic, applications utilisées, ...) rend difficile le dimensionnement de leur offre. Le développement d'un réseau d'observatoires doit permettre de remédier à cette situation. Enfin, l'évolution de l'environnement réglementaire doit être adapté pour lever les incertitudes nées de l'émergence de l'Internet.
Augmenter les performances
Les efforts sur la boucle locale sont prioritaires pour offrir, à court terme, un accès performant aux utilisateurs. Dès que le déploiement de nouvelles boucles sera engagé, les interconnexions locales devront progresser pour optimiser l'acheminement des contenus de proximité. Enfin, le déploiement d'applications audiovisuelles demandera l'évolution de l'infrastructure du réseau de transport (accroissement des bandes passantes, adaptation des protocoles).
Favoriser le développement
Développer les formations d'enseignement supérieur
Enrichir la culture de l'Internet et des technologies de la convergence
Permettre la recherche et le développement de nouvelles applications par
Favoriser l'utilisation de toutes les technologies
Avec pour objectif de généraliser, à terme de cinq ans, les accès locaux avec les performances suivantes :
Développer une culture de l'interconnexion Internet en encourageant la transparence
Construire la confiance en s'appuyant sur la décentralisation des responsabilités
Connexion et hébergement
Adressage et nommage
Sécurité
Protection de la vie privée et des données personnelles
Etiquetage du contenu
Mettre l'accent sur les atouts, éliminer les freins
Permettre la coexistence de modèles économiques différents
Reconnaître l'Internet comme la plateforme de la convergence entre l'informatique, les télécommunications et l'audiovisuel
DÉVELOPPEMENT TECHNIQUE DE L'INTERNET |
|
Partie A : Moteurs du Développement Technique de l'Internet |
|
|
Des applications toujours plus exigeantes
Depuis sa création dans les années 70, l'Internet s'est construit au fur et à mesure de la disponibilité des standards et a évolué au rythme des applications et des contenus qui l'utilisent :
Les applications audiovisuelles sont promises à un déploiement extrêmement rapide dans les années à venir. Consommant aujourd'hui de l'ordre de 2% de la bande passante de l'Internet, elles devraient compter selon le cabinet Datamonitor pour plus de 6% d'ici à 2003.
Répartition du trafic Internet mondial par type d'applications, selon
Datamonitor
La part de bande passante occupée par les applications Web et audiovisuelles va donc continuer de s'accentuer. En termes de croissance du volume total d'informations transmises sur l'Internet, l'impact est spectaculaire : le volume de trafic Internet devrait dépasser le volume de trafic téléphonique dès l'an 2000 (à noter que le dépassement a déjà eu lieu pour les communications intercontinentales), et continuerait sa progression à un rythme de croissance de 1000% par an.
Prévisions des trafics mondiaux comparés Internet et
téléphonie vocale, selon Datamonitor
Ces chiffres, dont il faut retenir les ordres de grandeur, traduisent un besoin toujours plus marqué des applications pour une infrastructure réseau plus performante. Loin de s'inverser, cette tendance va encore s'accentuer dans les prochaines années avec la banalisation sur l'Internet d'applications très exigeantes envers l'infrastructure, comme par exemple la téléphonie, la vidéo-conférence, la diffusion ou la consommation à la demande de musique ou de films.
Ces dernières applications ne réclament pas seulement une augmentation de bande passante, mais une évolution significative des caractéristiques de l'Internet qui, initialement, n'a pas été prévu pour les supporter : en particulier la disponibilité du réseau, la gestion du temps et la garantie d'acheminement, notions souvent regroupées sous la dénomination qualité de service, doivent être prises en compte par les protocoles Internet. Les développements techniques correspondants sont en cours et il ne fait déjà aucun doute pour les analystes que, poussée par la demande, cette évolution aura lieu dans les toutes prochaines années. Par exemple, le cabinet Frost & Sullivan prévoit que les marchés mondiaux des services, des logiciels clients et des passerelles de téléphonie sur IP atteindront respectivement 1,8 G$, 90 M$ et 1,8 G$ à l'horizon 2001. Le rapport de Jean-Claude Merlin du Conseil Général des Technologies de l'Information, publié en octobre 1998, analyse les faits et les perspectives de la téléphonie sur IP.
Des contenus toujours plus diversifiés
Au début de l'Internet, les contenus étaient principalement dédiés à la recherche universitaire américaine puis mondiale (description des activités et des organisations, forums de discussion, archives de listes de diffusion, rapports de recherche, thèses, spécifications techniques, logiciels). L'introduction du Web a permis une explosion des contenus mesurable par la croissance exponentielle du nombre de machines connectées :
Source: Network Wizards, Internet Domain
Survey, janvier 1999
Les types de contenus se sont rapidement diversifiés :
La mise en ligne d'informations et de contenus était au départ motivée par un idéal de partage de l'information (période universitaire) puis par un souci de communication (le site Web participant à l'image de marque, le Web comme moyen d'échange), enfin par un désir de rentabilité (financement par la publicité, mise en place du commerce électronique) : les différents types de contenus coexistent toujours sur Internet, de même qu'y coexistent des modèles de communication basés sur la consultation volontaire des informations ou sur la diffusion de contenus (courriers électroniques, technologie "push", flux multimédia en direct). Cette richesse a fait le succès des "méta-contenus" tels que les annuaires, les moteurs de recherche et les portails.
Des usages toujours à inventer
Les usages que l'on peut faire de l'Internet sont essentiellement déterminés par les applications et les contenus disponibles, comme le montre l'histoire du World Wide Web, l'application majeure de l'Internet aujourd'hui : inventée par Tim Berners-Lee au CERN pour permettre le travail collaboratif entre physiciens en 1989, les spécifications et les premières implémentations développées permettaient aussi bien l'édition de documents que leur consultation. Le logiciel Mosaic qui a révélé le Web au monde entier en 1993 n'intégrait que la fonction de consultation (navigateur). Le résultat est qu'encore aujourd'hui, il est extrêmement aisé de consulter de l'information sur le Web mais toujours difficile d'en éditer le contenu. Pour le plus grand nombre, l'usage initial a été détourné du fait de la disponibilité sur le marché d'une application à succès, fruit de la recherche publique en informatique américaine (Mosaic a été créé au NCSA) et de la dynamique industrielle américaine (Mosaic a donné naissance à Netscape Communications Inc., et indirectement à une multitude d'autres sociétés de technologie).
L'analyse de l'histoire donne lieu à un constat et à une perspective :
Internet est stratégique dans - et pour - tous les domaines de la recherche, scientifique ou non : il sert un objectif déterminant de cette activité qui est la possibilité de rendre disponible et d'avoir accès à de l'information originale et récente. Le Web est né de ce besoin, puisqu'il s'agissait à l'origine du projet de partager de l'information dans la communauté des physiciens des hautes énergies.
En ce qui concerne le cas particulier de la recherche en sciences et technologies de l'information, en plus d'être un formidable outil de travail, l'Internet est un remarquable sujet d'études et un laboratoire d'expérimentation en grandeur réelle absolument unique.
Le monde des entreprises s'est très vite approprié le Web pour un premier usage déterminant : la vitrine de communication. Une PME ou une grosse entreprise est instantanément devenue capable d'atteindre un très large public avec une très grande facilité. Comme il a été expliqué précédemment, c'est d'ailleurs cet usage qui a tiré le développement technique de l'Internet ces dernières années, et qui a conduit avec un pragmatisme très anglo-saxon à quasiment exclure tout développement qui n'aurait pas servi cet usage.
Le deuxième usage clé de l'Internet dans l'entreprise est dans son système interne d'information, dans la perspective d'une diminution substantielle de ses coûts de fonctionnement et d'un accroissement de sa réactivité. Bien que rencontrant de réelles difficultés de mise en oeuvre à la fois techniques et organisationnelles, les entreprises concèdent à cet usage des investissements considérables à travers le développement des Intranets (Internet à l'intérieur de l'entreprise) et Extranets (accès à l'Intranet depuis l'extérieur de l'entreprise). En permettant l'interfonctionnement des systèmes d'information des entreprises avec ceux de leurs partenaires et fournisseurs, le commerce électronique inter-entreprises favorise la fluidité et l'efficacité des échanges.
Le troisième usage stratégique de l'Internet pour l'entreprise concerne sa relation aux clients, et touche par là-même le coeur de sa mission : la génération du chiffre d'affaires (la vente) et sa pérennisation (le support client). Comme l'a souligné Francis Lorentz dans ses rapports remis au gouvernement en janvier 1998 et février 1999, le commerce électronique n'en est qu'à ses débuts. La tendance est inéluctable, la croissance forte, et cet usage est extrêmement porteur d'innovations et de changements dans toutes les dimensions de l'Internet : techniques, sociales et réglementaires.
A des degrés divers et des échéances diverses, les trois usages de l'Internet dans les entreprises vont rester dans les années à venir des moteurs primordiaux de croissance et d'innovation.
L'usage de l'Internet dans les administrations est comparable à celui des entreprises, avec la dimension commerciale en moins :
La communication externe, sous forme de kiosque d'information, poursuit un objectif similaire à celui du Web vitrine des entreprises : renseigner les administrés sur les services disponibles et sur les modalités d'accès à ces services.
Le système interne d'information de l'administration, comme celui de l'entreprise, tire parti des capacités étendues de communication interne (courrier, pages Web statiques, pages Web dynamiques à partir de bases d'informations...). Un décloisonnement des services est alors possible, avec un confort et une efficacité d'utilisation accrus pour les employés et une amélioration du service rendu pour les administrés. Les liaisons sécurisées inter-administrations ou inter-régionales d'une même administration participent de ce décloisonnement, à travers des techniques de type "Extranet". L'usage de mécanismes de téléprocédures entre les différents acteurs (administrations, organismes publics, entreprises, particuliers) est un important facteur d'efficacité et de réduction de coûts dans de nombreux domaines (santé, impôts...).
La relation personnalisée avec les administrés, critère essentiel de rapprochement entre l'État et le citoyen, gagne en dimensions grâce à l'usage des technologies Internet : la rencontre physique entre l'administré et le représentant de l'administration peut être prolongée par la relation réseau. Le service peut être rendu plus loin, jusque chez l'administré, et plus souvent. Grâce à l'avènement des techniques sécurisées (authentification réciproque, confidentialité des échanges...), la relation contractuelle va pouvoir se déployer par l'intermédiaire du réseau, ce qui se traduit en particulier par un gain de temps réutilisable, par exemple, pour la personnalisation de la relation.
Il faut également noter le caractère d'exemplarité de la relation de tout citoyen avec ses administrations, participant beaucoup à l'éducation d'un large public.
Considéré à juste titre comme un vecteur pédagogique très important, l'Internet utilisé dans l'éducation participe à l'ouverture de l'école et l'université au monde extérieur. Tout d'abord par l'accès aux multiples informations de sources nationales et internationales qu'il permet, en particulier à des données de références et à de l'information d'actualité. Ensuite par le nouveau type de communications qu'il permet, de nature collaborative : forums, échanges entre écoles, relations entre élèves, partages entre enseignants... Enfin, le caractère interactif de ce média permet d'envisager de nombreuses possibilités de télé-enseignement (diffusion de cours, accès des élèves éloignés des matériels éducatifs, travail collaboratif...) pouvant avoir un impact positif sur l'aménagement du territoire et la réduction des coûts.
Par sa transversalité et son universalité, l'Internet a un impact potentiel très fort sur l'ensemble des méthodes utilisées et sur l'organisation même de la structure éducative.
La numérisation de l'information est désormais systématique dans l'ensemble des activités culturelles (qu'il s'agisse de la numérisation des oeuvres artistiques elles-mêmes ou des supports de communication associés aux activités culturelles) : archiver et publier sur l'Internet peuvent alors accompagner naturellement l'ensemble de la vie culturelle et permettent ainsi de multiplier l'audience potentielle, aussi bien dans l'espace que dans le temps. Cette présence culturelle sur Internet (qui peut se faire à un coût marginal assez faible) est une opportunité pour rendre accessible une bonne partie du patrimoine culturel et faire largement connaître les initiatives dans le domaine.
L'enjeu majeur est alors d'éviter de laisser l'Internet devenir un outil d'homogénéisation et d'utiliser l'ensemble de ses possibilités pour valoriser les différences culturelles et démultiplier les initiatives locales.
L'ensemble des usages décrits ci-dessus ont une composante grand public, qu'il s'agisse des accès aux informations et services mis à disposition par les entreprises, les administrations ou les organismes culturels ou des communications et transactions permises par l'Internet. S'y ajoutent les usages de plus en plus nombreux de l'Internet par les médias traditionnels (presse et édition, audiovisuel) pour relayer et compléter leurs activités : en Amérique du Nord, une part croissante de la population équipée s'informe en premier lieu via l'Internet puis utilise en complément un autre média.
Par les navigations sur le Web, par la disponibilité des archives, par l'accès à l'information mondiale et par l'interactivité qu'il peut faciliter, l'Internet peut s'adapter aux rythmes et préférences de chacun, renouvelant ainsi potentiellement l'intérêt du public et autorisant une innovation en termes d'usages. Enfin, le domaine des loisirs, qu'il s'agisse de les organiser ou de les pratiquer en ligne, constitue à lui seul un formidable facteur de diffusion des techniques Internet, par la mise en relation qu'il permet entre passionnés d'un même domaine, par la disponibilité de jeux informatiques enrichis par l'interaction en-ligne, et par les forums thématiques disponibles...
Il faut toutefois noter que l'Internet reste parfois difficilement accessible pour certaines catégories de la population : y accéder est encore relativement cher, bien que le prix des équipements et des abonnements soit devenu comparable à ceux de l'audiovisuel ou du sport, et demande encore une phase d'apprentissage importante pour maîtriser les aspects techniques, pour comprendre le domaine et ses usages, et pour naviguer naturellement.
Peu de contenus en ligne
La France semble en retard en premier lieu par son faible taux de représentation : un indicateur en est le nombre de domaines français enregistrés sous le nom de domaines national ".fr" qui ne représente que 3% du nombre de domaines européens déclarés. On obtient un indicateur plus significatif si l'on ajoute les domaines français déclarés sous le nom de domaines ".com", et la France ne compterait alors toujours que pour 6% du nombre de domaines européens déclarés :
Europe | Allemagne | Angleterre | Danemark | Pays-Bas | France | Italie | Suisse | Suède | Autriche | Espagne | |
Domaines nationaux |
963 780 | 244 838 | 165 451 | 70 969 | 63 000 | 32 972 | 52 335 | 54 953 | 32 469 | 32 092 | 12 969 |
% en Europe | 100% | 25% | 17% | 7% | 7% | 3% | 5% | 6% | 3% | 3% | 1% |
Domaines en .com |
263 184 | 34 379 | 71 398 | 8 019 | 13 978 | 37 403 | 17 721 | 9 908 | 21 155 | 4 182 | 21 173 |
% en Europe | 100% | 13% | 27% | 3% | 5% | 14% | 7% | 4% | 8% | 2% | 8% |
Total domaines |
1 226 964 | 279 217 | 236 849 | 78 988 | 76 978 | 70 375 | 70 056 | 64 861 | 53 624 | 36 274 | 34 142 |
% en Europe | 100% | 23% | 19% | 6% | 6% | 6% | 6% | 5% | 4% | 3% | 3% |
Ces indicateurs suggèrent qu'après avoir été le berceau mondial des services télématiques (avec près de 17000 serveurs vidéotex et 15 millions de terminaux minitel), la France serait aujourd'hui l'un des pays industrialisés au monde les moins producteurs d'information sur Internet.
Jusqu'en 1998, l'usage courant de l'Internet par la communauté de la recherche française a été sérieusement handicapé par une interconnexion limitée du réseau Renater, le réseau de l'enseignement et de la recherche, avec les autres réseaux de recherche européens d'une part, et surtout avec les réseaux nord-américains. La situation s'est considérablement améliorée en 1998 avec l'ouverture de conduits supplémentaires vers les Etats-Unis et par la mise en service du réseau européen TEN-155. Toutefois, la connectivité aujourd'hui disponible ne permet toujours pas d'envisager vraiment l'utilisation d'Internet comme banc de test d'applications expérimentales, à l'instar de celles envisagées dans le programme "Next Generation Internet" américain.
De façon générale, les entreprises françaises sont encore peu présentes sur Internet.
Concernant les grandes entreprises, selon une étude menée fin 1998 par le Benchmark Group, seulement 27% des 1500 premières entreprises françaises ont un site Web en français, et 7% d'entre elles ont un site Web international. 70% font de la communication institutionnelle, 56% présentent des informations utiles à leurs clients, et 13% font du commerce électronique. Ces données sont à comparer à une étude de PricewaterhouseCoopers portant sur les 446 compagnies américaines ayant connu la plus forte croissance ces cinq dernières années : 85% d'entre elles donnent des informations détaillées sur leurs produits ou services, et 32% proposent en ligne la vente de produits ou de services. Toujours selon cette étude, 77% des entreprises américaines à forte croissance ont un site Internet, 14% en préparent un pour les 12 mois à venir, et 94% y font de la publicité (contre 6% des grandes entreprises françaises selon le Benchmark Group).
Concernant les PME, une étude de l'UFB Locabail parue en janvier 1999, portant sur les entreprises européennes de 6 à 200 salariés, conclut que seulement 13% des PME françaises possèdent un site Web, contre 41% en Angleterre. Une autre étude, réalisée par SVP en octobre 1998 auprès de 400 PME françaises de 20 à 500 salariés, conclut que 16,8% de ces entreprises disposent de leur propre site Web. Ces deux études s'accordent à dire que seulement 40% (UFB Locabail) à 47% (SVP) de ces PME sont connectées à l'Internet.
L'usage de l'Internet par les entreprises françaises n'en est donc qu'à ses débuts. Il reste à la majorité de ces entreprises à comprendre et exploiter toutes les dimensions du Web et de l'Internet vis à vis de leur activité. Il s'agit non seulement de rattraper leur retard en termes de connexion à l'Internet et de présence sur le Web, mais également d'y développer de vrais services à valeur ajoutée pour leurs clients (commerce électronique, support technique, etc.) sous peine de voir leur compétitivité s'éroder de façon spectaculaire dans les années à venir.
L'usage de l'Internet dans l'administration française, annoncé avec force par le Premier ministre dans son discours d'Hourtin en août 1997, est aujourd'hui bien engagé. La priorité a été donnée à la mise en ligne d'informations utiles aux particuliers et aux entreprises ainsi qu'à la mise à disposition des formulaires administratifs, accessibles à travers des portails : le site Vos Droits édite 2000 fiches d'information accessibles à travers plus de 800 mots-clés ou par recherche libre, le site du Cerfa propose les fiches signalétiques détaillées des formulaires administratifs et en propose un grand nombre en téléchargement, et l'annuaire des sites de l'administration française permet de rechercher une administration par son nom, son secteur d'activité ou par recherche libre.
En plus de l'utilité effective de ces usages pour les administrés, il faut en noter le caractère d'exemplarité, qui milite clairement en faveur de la banalisation des usages de l'Internet chez les particuliers et dans les entreprises. L'étape suivante est sans doute la prise en compte du potentiel des Intranet/Extranet dans les relations intra- et inter-administrations, et l'extension des téléprocédures dans les relations de l'administration avec ses administrés. On peut alors s'attendre à un impact maximal en matière d'organisation, de décloisonnement et de transversalité, conduisant à une meilleure efficacité des services et une meilleure relation avec les administrés.
Le Ministère de l'Education Nationale, de la Recherche et de la Technologie (MENRT) mène une politique volontariste, dénommée "démarche éducative globale", en faveur de l'utilisation des nouvelles technologies de l'information et de la communication dans l'enseignement. Cette politique, annoncée le 17 novembre 1997, vise à explorer les potentialités de ces nouvelles technologies pour les activités des élèves, les échanges entre les enseignants, et le télé-enseignement.
Objectifs du MENRT pour l'an 2000 :
- Chaque élève, de la maternelle à l'université, pourra accéder, dans un cadre pédagogique, à une activité sur support numérique ou audiovisuel classique : manipulation et dessin informatique dès la maternelle, courrier électronique dès le cours élémentaire, accès au Web dans le cours moyen, travail en réseau dès le collège, adresse personnelle dès le bac.
- Chaque étudiant, chaque enseignant, chaque classe, pourra disposer d'une adresse électronique.
- L'ensemble des informations - administratives et pédagogiques - nécessaires à un enseignant pourra être accessible par réseau numérique.
La mise en oeuvre de cette politique volontariste est amorcée. Citons en particulier le réseau Educnet, permettant de partager connaissances et compréhension des usages des nouvelles technologies dans l'éducation, et les serveurs des académies, hébergeant notamment les sites des établissements d'enseignement qui le souhaitent. Toutefois, le succès global de cette politique reste encore conditionné par deux facteurs :
Le programme d'action gouvernemental pour la société de l'information (PAGSI) comporte un volet de mesures spécifiques à l'usage des nouvelles technologies de l'information et de la communication dans le domaine culturel. Le ministère de la Culture et de la Communication met en oeuvre cette politique qui s'articule autour de quatre points :
A l'occasion de son discours d'ouverture de la fête de l'Internet du 19 mars 1999, Catherine Trautmann donnait quelques chiffres montrant de réelles avancées dans l'usage culturel de l'Internet : par exemple le fait qu'un visiteur sur huit, au Louvre, ait au préalable préparé sa visite sur le site Internet, ou que 500 000 personnes par mois consultent en moyenne une demi-heure le site "culture.gouv.fr".
L'heure est donc maintenant à la généralisation de la diffusion par Internet de la richesse du patrimoine culturel français : citons à titre d'exemple que le site Internet du Louvre permet de consulter 600 photos d'oeuvres majeures, alors que la totalité des dessins et estampes du musée du Louvre, soit plus de 65 000 photos et 130 000 textes, sont disponibles, à titre onéreux, en consultation dans le CyberLouvre (l'espace multimédia du musée).
Le grand public français est encore en attente du développement massif des usages cités ci-dessus pour banaliser l'utilisation de l'Internet comme il a banalisé l'utilisation du minitel. Il est clair que l'existence de nombreux services sur le minitel a rendu le consommateur français particulièrement exigeant en termes de coût et de facilité d'utilisation des équipements, de disponibilité et d'originalité des contenus, de sécurité et de confidentialité des transactions, etc.
Selon l'AFTEL, les internautes français seraient, début 1999, près de 4 millions. Différentes études effectuées au printemps 1998 par les cabinets IDC et Médiangles faisaient alors état de plus de 2,5 millions d'Internautes français. A titre de comparaison, l'Allemagne compterait en mars 1999 près de 8,5 millions d'Internautes selon le cabinet GFK, et l'Angleterre aurait dépassé les 10 millions d'Internautes en décembre 1998 selon le NOP Research Group.
L'étude IDC de janvier 1999 sur l'Europe de l'Ouest confirme ces ordres de grandeur :
Pays | Internautes (en millions) |
---|---|
Allemagne | 10,29 |
Royaume-Uni | 8,92 |
France | 4,04 |
Italie | 3,09 |
Suède | 2,52 |
Pays-Bas | 2,48 |
Espagne | 2,00 |
Finlande | 1,59 |
Danemark | 1,13 |
Suisse | 1,05 |
Norvège | 1,03 |
Autriche | 0,90 |
Belgique | 0,82 |
Portugal | 0,46 |
Irlande | 0,31 |
Grèce | 0,27 |
Total Europe de l'Ouest | 40,90 |
A titre de comparaison avec les Etats-Unis, Intelliquest rapportait fin avril 1999 plus de 83 millions d'adultes (de 16 ans et plus) utilisateurs réguliers d'Internet, et 41 millions supplémentaires envisageant de le devenir, dont 17 millions dans les 12 prochains mois.
Des usages nombreux et variés sont des clés essentielles du développement de l'Internet en France. Favoriser par tous les moyens le développement d'applications et de contenus sur l'Internet va permettre d'ouvrir le champ à ces usages, correspondant à des modèles socioculturels variés et adaptés à tous les types d'utilisateurs français. Les recommandations générales sont de :
Favoriser le développement
Développer les formations d'enseignement supérieur
Ces recommandations doivent être déclinées pour tous les types d'usages : recherche, entreprises, administrations, éducation, culture et grand public. Les actions associées qui peuvent être assumées par les pouvoirs publics différeront donc en conséquence. On peut en suggérer quelques exemples, sans s'y limiter :
En premier lieu, la communauté de la recherche française doit s'approprier l'outil efficace que constitue l'Internet pour communiquer et partager l'information afin de :
Cette généralisation de l'usage d'Internet doit s'appliquer non seulement aux domaines de l'informatique et des télécommunications mais à l'ensemble des activités de recherche (physique, mathématiques, biologie, médecine, écologie, sciences humaines...). Au delà de la communauté française, le caractère international de l'Internet doit permettre de fédérer et renforcer l'ensemble de la recherche des pays francophones.
D'autre part, le développement des applications auteurs est certainement un rôle que la recherche en informatique française, au premier niveau mondial dans le domaine de la conception logicielle, pourrait assumer avec talent. L'incitation peut revêtir différentes formes : allocations de recherche spécifiques, concours, incitation à la création d'entreprises, vulgarisation des principes de développement de logiciels libres, ...
Former les formateurs à l'usage et à la création des sites Internet des entreprises pourrait être assuré au niveau des structures publiques et para-publiques, nationales et régionales, en rapport avec les entreprises et en particulier avec les PME : mairies, chambres de commerce, Conseils Régionaux, APCE, etc.
Le développement des bonnes pratiques de création, d'usage et d'administration des sites Internet, Intranet et Extranet pourrait être une priorité dans l'administration française. Par le caractère d'exemplarité et du fait de la vaste audience adressée par l'administration, cette mesure pourrait avoir un impact maximal sur l'ensemble des catégories socio-professionnelles françaises.
C'est sans doute dans l'éducation que l'effet de levier peut être maximal, avec des retours à long, moyen et court termes du fait d'effets cumulés sur les enfants, les adolescents, les parents, et les enseignants. Citons en particulier :
La formation des formateurs, en particulier les enseignants, à la création et à l'utilisation des sites Internet et intranet, pourrait être une priorité majeure. Pour cela, les formations devraient adresser tous les étages de la chaîne de l'enseignement, y compris et en priorité les inspections académiques, les IUFM, les médiapôles, etc., chaque étage ayant pour mission de démultiplier au maximum son action de formation pour finalement atteindre chaque enseignant. Inversement, favoriser l'équipement et les initiatives individuelles de chaque enseignant en faveur de sa propre formation permettrait d'atteindre le but plus rapidement.
Les écoles et les universités pourraient être des acteurs exemplaires dans le développement des sites francophones et multilingues. Des travaux tels que exposés, devoirs et autres comptes rendus d'études pourraient être menés, délivrés et évalués sous forme électronique.
La capacité des organismes culturels à développer des sites francophones et multilingues vulgarisant et pérennisant le patrimoine français sur l'Internet est déterminante. C'est à ce prix que la culture française, et plus largement les valeurs françaises, garderont la place importante qu'elles ont toujours su occuper au niveau mondial.
Des centres de ressources locaux favorisant la formation et le développement de contenus pourraient être généralisés dans les structures administratives locales, en particulier dans les mairies.
Une dynamique technologique originale
Le développement technique de l'Internet bénéficie d'une dynamique originale. Cette dynamique repose sur les progrès technologiques accomplis dans les domaines des télécommunications et de l'informatique ainsi que sur le développement et le déploiement accélérés des standards qui définissent l'Internet et ses applications.
L'Internet a été conçu pour rendre indépendantes
Le coeur de l'Internet repose ainsi sur le protocole IP (Internet Protocol) qui assure cette indépendance. Chaque développeur d'applications n'a pas à connaître les éléments de l'infrastructure qui permettront d'acheminer les informations. Les développeurs de l'infrastructure n'ont pas à connaître les applications qui seront mises en oeuvre. Ce choix d'architecture explique le nombre et la richesse des applications et usages de l'Internet (voir Chapitre Applications et Usages). Il explique également la grande variété des supports sur lesquels l'Internet se déploie.
Sans chercher l'exhaustivité, quelques technologies-clés sont décrites pour montrer le potentiel de développement technique dont dispose l'architecture de l'Internet.
Dès le début des années 1990, les réseaux de transport terrestres et sous-marins sont passés de technologies radio (réseaux hertziens, cuivre sous-marin, satellites) à des technologies optiques (fibres, amplificateurs) caractérisées par une plus forte intégration, une meilleure immunité aux bruits, une consommation d'énergie diminuée, des débits considérablement accrus et des coûts diminués d'au moins un ordre de grandeur.
L'utilisation puis les progrès des technologies laser (émission, amplification et réception) et du verre (fibre multimode puis monomode) ont permis aux débits de base de passer de 34 Mbit/s (faisceaux hertziens) à 155 Mbit/s pour les premières fibres et d'atteindre aujourd'hui 2,5 Gbit/s, voire 10 Gbit/s. Il convient de souligner qu'à ces débits, les équipements de routage IP doivent évoluer pour tirer parti d'une telle bande passante.
Le maintien, pendant la transmission, d'un rapport signal/bruit acceptable imposait l'utilisation fréquente (tous les 10 à 40km, le pas de régénération) d'éléments chargés d'extraire le ou les flots de données sous forme électrique, de les remettre individuellement en forme (suppression des bruits, correction des erreurs, amplification) et de les réémettre sous forme de signal optique. La fonction d'amplification est aujourd'hui assurée par des amplificateurs purement optiques, séparés par des distances plus grandes (de l'ordre de la centaine de km), capables de traiter simultanément plusieurs flots de données multiplexés dans un même signal optique (WDM, Wave Division Multiplexing) sans complexification accrue. La régénération, qui reste nécessaire sur les très grandes distances, peut être placée directement dans les routeurs de l'ossature du réseau IP.
Les progrès en termes de régénération conjugués aux progrès autour de la fibre optique (nappes de 100 à 400 fibres, enfouies à quelques centimètres de profondeur, plus faiblement alimentées) favorisent la viabilité économique des nombreux projets de réseaux locaux ou intercontinentaux à haut-débit (dix à cent fibres, chacune capable d'écouler 16 à 40 fois 2,5 Gbit/s) et garantissent leur évolution dans le temps. Les facteurs de multiplexages, prévus autour de 300 pour DWDM, associés à un débit de base passant à 10 Gbit/s (OC-192), autorisent un facteur multiplicatif d'environ 100 au niveau du débit.
Le débit de base passe à 10 Gbit/s et le facteur de multiplexage
passe à 300
Aujourd'hui, des architectures électroniques matérielles de commutation spécifiques à la technologie SONET-SDH permettent de constituer des boucles redondantes à partir des fibres point à point, d'y insérer ou d'en extraire des flots locaux (Add and Drop Multiplexors, ADM) et d'agréger les boucles entre elles (Digital Cross Connect, DXC) pour en augmenter la portée ou la redondance.
À l'avenir, la commutation optique, et surtout l'extraction optique qui semble, au mieux, à l'état de prototype de laboratoire, pourrait remplacer l'architecture matérielle SONET-SDH. Les routeurs IP - ayant évolué entre temps vers le tera-bit/s - accèderaient alors directement à l'architecture entièrement optique pour un nouveau gain en termes de prix et de débit de base.
D'autres technologies radicalement différentes pourraient arriver à maturité pour prendre ensuite le relais de la technologie optique actuelle. On peut citer en exemple :
Une industrie en évolution rapide
L'évolution technologique des réseaux de transport se fait par ère correspondant à des changements radicaux des mécanismes mis à contribution (radio, fibre et SDH, tout optique, effets quantiques). Elle suit également la loi de Moore (doublement des débits effectifs tous les x mois) à l'intérieur de chaque ère.
L'innovation suit un cycle plus classique que celui des technologies logicielles de l'Internet. Les laboratoires de recherche publics et privés (Bell Labs, Alcatel) mènent les recherches de base. Des sociétés de technologie (Cienna, Tellabs, Photonetics) développent des savoir-faire éventuellement repris par les grands équipementiers (Lucent Technologies, Alcatel, Nortel, Cisco).
L'évolution rapide et soutenue des processeurs et des mémoires joue un rôle fondamental dans le développement de l'Internet : elle permet d'accompagner - voire de motiver - la demande, toujours croissante, en puissance de traitement et de transmission de l'information.
1971 | 1974 | 1978-79 | 1985 | 1989-90 | 1993 | 1995 | 1997 | 1999 | 2000-01 | |
Architecture (bits) | 4 | 8 | 8/16/32 | 16/32 | 16/32 | 32 | 32/64 | 32/64 | 32/64 | 64* |
Transistors (millions) | 0,002 | 0,01 | 0,03 | 0,270 | 1,2 | 2,8-3,1 | 2,6-5,5 | 5,5-7,5 | 9,5 | 15-30* |
Horloge (MHz) | 0,74 | 2 | 5-8 | 16-25 | 25-40 | 50-60 | 100-166 | 200-300 | 450-600 | >1000* |
Exemples | Intel 4004 |
Intel 8080
Motorola 6800 |
Intel 8086
Motorola 68000 |
Intel i386DX
Motorola 68020 |
Intel i486DX
Motorola 68040 SPARC |
Intel Pentium
PowerPC 601 Super SPARC |
Intel PentiumPro
PowerPC 603e Ultra SPARC |
Intel PentiumII
PowerPC G3 Ultra SPARC-II |
Intel PentiumIII
PowerPC G4* Ultra SPARC-III* |
Intel Merced*
Ultra SPARC-IV* |
note: * = annoncé |
Les besoins en puissance concernent tant les équipements applicatifs (serveurs d'applications, PC, terminaux...) que les équipements d'infrastructure (serveurs de connexion, routeurs, passerelles...). A titre d'exemple, chaque image du film d'animation Toy Story aurait demandé 35 heures de calcul sur une station en 1990 mais seulement 7 minutes en 1999. Côté équipement d'infrastructure, on estime que chaque noeud du réseau devra transmettre 10 fois plus d'information qu'aujourd'hui en 2001, et 40 fois plus en 2005. La demande sur ces équipements est considérable si l'on rappelle que chaque Mégabit d'information transmis par seconde (Mbps) nécessite approximativement 1 million d'instructions par seconde (Mips).
Compte tenu de l'évolution, pourtant rapide, des composants matériels, on constate que le gain en puissance brute ne suffit pas à répondre à ces demandes : les constructeurs doivent intégrer dans leurs architectures des modules et des instructions spécifiques permettant de les adapter aux nouveaux usages. C'est ainsi que l'on voit apparaître des processeurs de traitement dotés en standard d'instructions graphiques (MMX, 3D Now!, ...) et que de nouvelles architectures sont annoncées pour des processeurs spécialisés réseau (network processors) à très haute intégration et faible coût.
L'architecture de l'Internet a été conçue pour tirer le meilleur parti des composants matériels et logiciels. C'est ainsi qu'au fur et à mesure des progrès des matériels génériques, de plus en plus de fonctions sont mises en oeuvre en logiciel (routage, nommage, piles protocolaires, sécurité, chiffrement, applications).
L'usage intensif du logiciel est un moteur fondamental de l'Internet : une idée, un protocole ou une fonction peuvent être prototypés rapidement et testés avant d'être réalisés par un matériel spécifique, seulement si les performances ou les coûts l'exigent. Ainsi, il est possible d'acheter un ordinateur généraliste doté d'une carte réseau et, à l'aide de logiciels uniquement, le transformer en routeur, en coupe-feu, en serveur d'information, en station de radio, en lecteur de musique, en salle de jeu virtuelle, en vidéothèque, en téléphone, en magnétoscope. Il est bien sûr possible de s'en servir également pour naviguer sur le Web.
A l'inverse, on observe aussi le retour d'équipements dédiés (serveurs Web de type "boîte noire", navigateurs Web sur téléphone portable, minitel-internet, lecteurs de musique rechargeables, équipements domotiques, ...) qui restent en général compatibles avec un logiciel équivalent s'exécutant sur un ordinateur.
Des composants logiciels à tous les niveaux de l'architecture
Des couches les plus basses de l'infrastructure aux applications mises à la disposition de l'usager, les logiciels remplissent des fonctions très variées :
Chaque classe a un modèle de développement particulier :
Quelques exemples :
Quelques exemples :
Le rôle des organisations de standardisation s'étend pour inclure la notion d'architecture des logiciels. Deux exemples :
L'architecture de l'Internet exploite de nombreux standards issus du monde des télécommunications ou de l'informatique. Plus récemment, les standards du monde de l'audiovisuel ont commencé à prendre leur place sur l'Internet. Les deux organisations (IETF, W3C) qui constituent les moteurs d'évolution de l'Internet sont présentées. Les organisations de standardisation qui prennent en compte l'évolution de l'Internet sont évoquées.
L'IETF est "une communauté vaste et ouverte de concepteurs de réseaux, d'opérateurs, de vendeurs et de chercheurs soucieux de l'évolution de l'architecture d'Internet et de son opération pérenne", et le lieu de standardisation des technologies de l'Internet. Ses groupes de travail sont organisés en 8 thèmes ou domaines ("area") représentatifs des classes de travaux en cours :
Les directeurs de thème sont membres de l'Internet Engineering Streering Group (IESG) qui approuve les documents provisoires (Internet Draft) ayant atteint une maturité suffisante pour devenir RFC (Request For Comment) et précise ceux des RFC qui constituent les standards de l'Internet ainsi que leur niveau de recommandation. L'IESG est chargé de la direction technique de l'IETF.
Le sujet et le mandat des groupes de travail (une centaine aujourd'hui) sont proposés lors des trois réunions annuelles de l'IETF puis élaborés entre le groupe provisoire et le directeur de thème pour être ensuite approuvés par l'IESG. Le groupe de travail est limité dans la durée et dans l'objet. Les membres du groupe sont des personnes, ingénieurs et chercheurs, plus que des représentants formels d'organisations. Ils travaillent principalement par courrier électronique, audio et vidéo-conférence Internet et aussi lors de sessions plénières à l'occasion des réunions de l'IETF. Ils s'appuient sur le credo de l'IETF ("rough consensus and running code") pour élaborer des propositions étayées par des mises en oeuvre effectives ("running code") et rencontrant un consensus suffisant ("rough consensus") parmi les participants.
Le projet Internet (Internet draft) est la concrétisation provisoire des travaux du groupe et doit - dans les six mois de sa parution - être approuvé en tant que RFC par l'IESG ou être amendé et proposé à nouveau, ou être retiré de la publication. De nombreux RFC - souvent purement informatifs - n'ont pas vocation à devenir un standard. Les standards peuvent être obligatoires (Required), recommandés (Recommended), facultatifs (Elective), d'utilisation limitée (limited use) ou déconseillés (Not Recommended). Ils passent de l'état standard proposé (Proposed Standard) à projet de standard (draft standard) puis standard (Standard) selon leur degré d'évolution et de déploiement.
Le Consortium international World Wide Web (W3C) rassemble un peu plus de 330 organisations à travers le monde. Il est hébergé, en Amérique, par le laboratoire d'informatique du Massachusetts Institute of Technology (MIT-LCS), en Europe, par l'INRIA (Institut National de Recherche en Informatique et Automatique), en Asie par l'Université de Keio. Le consortium a pour mission de "mener le Web à son meilleur potentiel", c'est-à-dire développer un espace d'informations universel où l'utilisateur puisse conduire ses activités
Le Web tiendra ses promesses lorsque
Pour atteindre ces objectifs, le W3C doit
Cette approche originale du développement technique associe les acteurs du marché, les concepteurs de technologies et les besoins du grand public.
Parmi les réalisations les plus significatives du consortium, on peut citer
Il convient également de mentionner les efforts en vue d'intégrer le Web dans le mouvement vers la convergence, en partenariat avec le WAP Forum pour les questions relatives à la mobilité et avec les organisations de standardisation du monde de l'audiovisuel.
Plusieurs organisations nationales, professionnelles ou internationales de normalisation contribuent au processus de standardisation d'éléments de l'infrastructure Internet. Ainsi l'IEEE (Institute of Electrical and Electronics Engineers) est le lieu privilégié de la normalisation des réseaux locaux (Ethernet à 10, 100 et 1000 Mbit/s, Hiperlan, Firewire, ...). L'ETSI (European Telecommunications Standards Institute) mène une activité de standardisation dans des domaines avancés des télécommunications (téléphonie mobile de 3ième génération, terminaux, voix sur IP, sécurité, réseaux intelligents, ...). Les technologies traditionnelles des télécommunications, dont les technologies optiques et SDH, sont normalisées à l'UIT (Union Internationale des Télécommunications) qui reprend également dans sa nomenclature des normalisations issues, entre autres, de l'IEEE (réseaux locaux) et des Bell Labs (SONET). Forums et consortiums s'attachent à définir avec célérité des fonctionnalités spécifiques (ADSL Forum, ATM Forum, QoS Forum, par exemple).
Une contribution limitée jusqu'à présent
La France s'est engagée avec retard dans le développement technique de l'Internet. Malgré des contributions techniques lors de l'émergence des techniques de routage par paquets, puis la présence significative de la communauté de la recherche française dans les travaux de conception, l'Internet n'a trouvé sa place dans la stratégie des entreprises de l'offre ou de la demande que très récemment. Ce retard se traduit par un déficit important en termes de compétences. Le positionnement meilleur sur les autres technologies de la convergence (télécommunications et audiovisuel) peut permettre de saisir les opportunités nouvelles.
Dans le domaine de la technologie optique, la France est présente grâce aux laboratoires de recherche privés tels que le Centre de recherche d'Alcatel, le CNET et la collaboration Opto+ entre Alcatel et le CNET, ou publics tels que le Laboratoire d'Optique Appliquée (commun à l'ENSTA et Polytechnique) et aux sociétés de technologie telles que Photonetics. Les équipementiers, essentiellement Alcatel, occupent une place internationale significative au niveau optique, fibre (fourniture de fibre, câbles sous-marins et navires câbliers) et équipements SDH.
La France, comme le reste de l'Europe, est quasiment absente du marché des principaux composants matériels utilisés en informatique traditionnelle. Des compétences françaises sont toutefois présentes sur le marché de l'informatique embarquée, avec un certain succès. On peut citer en particulier :
Le développement technique de l'Internet étant piloté par les extrémités (usages, applications et équipements), ces compétences ont devant elles de réelles opportunités de positionnement au niveau international.
La dynamique technologique des composants logiciels a été accélérée à travers le monde (en Californie, en particulier) par la création de sociétés de technologie. Durant les années 80, une première génération de sociétés a vu le jour en France (citons par exemple Business Objects, Ilog, Chorus). Parmi ces exemples, certaines (Business Objects, Ilog) sont maintenant cotées au Nasdaq, d'autres (Chorus) ont intégré de grands groupes (Sun Microsystems). Business Objects par sa migration vers XML, Ilog par ses composants graphiques, Chorus en fournissant un noyau de machine virtuelle Java, sont des acteurs industriels du développement technique de l'Internet. Les opportunités ouvertes par la convergence devraient permettre à des compétences du monde des télécommunications et de l'audiovisuel de créer une nouvelle génération de sociétés de technologie sur des sujets tels que la téléphonie sur IP (Aplio), la télévision sur le Web (CanalWeb) ou les terminaux Web grand public (Netgem). Certaines de ces sociétés parient sur l'utilisation de logiciels libres, Linux notamment (Netgem, Cyberdesk).
Le déficit de compétences françaises est particulièrement apparent dans les organisations de standardisation de l'Internet (IETF, W3C). Bien que l'hôte du W3C en Europe soit hébergé à l'INRIA et que les société françaises aient été impliquées dès l'origine à la mise en place du consortium, la participation aux travaux est significativement insuffisante pour espérer atteindre une place de leader. De même, les contributions françaises aux travaux de l'IETF (IPv6, UDLR...) ou de l'IEEE (Hiperlan) sont souvent dues au bon niveau de la recherche publique sans que cela ne se soit traduit par des résultats de nature industrielle, jusqu'à présent.
Enrichir la culture de l'Internet et des technologies de la convergence
La recherche en technologies de l'information est désormais devenue une priorité dans tous les pays du monde. S'agissant des technologies de l'Internet, la France doit, en plus, faire face à une situation où le retard accumulé demande des mesures d'urgence. L'augmentation du financement public de la recherche doit être réparti entre les laboratoires publics et privés de manière à couvrir les aspects les plus avancés aussi bien que les expérimentations proches du déploiement. L'effort doit aussi être conduit en accord avec la culture de l'Internet. Encourager le développement de logiciels libres est un moyen de créer un réseau de compétences rompu aux pratiques de la communauté de l'Internet. Le stade de développement de l'Internet soulève de nombreuses questions à caractère multidisciplinaire (techniques, économiques et sociales). La France a les ressources pour rassembler une communauté apte à fournir des solutions réalistes aux questions de fond posées au développement de l'Internet.
Au fur et à mesure que les compétences nationales se développeront, la participation aux organisations et aux manifestations internationales devra être soutenue pour permettre à la communauté française d'apporter sa contribution.
DÉVELOPPEMENT TECHNIQUE DE L'INTERNET |
|
Partie B : Composants Techniques de l'Internet |
|
|
Diversité des technologies et concentration des acteurs
Dès l'origine, le protocole de communication IP a été conçu pour tirer parti de tout support de transmission d'informations ("IP over everything") et constituer des réseaux qui, mis bout à bout, constituent des réseaux plus vastes. Ceux-ci, interconnectés à leur tour, forment l'Internet, sur lequel sont déployés les services.
Pour cela, l'essentiel de l'intelligence - dont le protocole TCP et les
applications de diffusion - nécessaire au fonctionnement du
réseau est déporté dans les noeuds terminaux plutôt
que dans les commutateurs intermédiaires, moins aisément
reprogrammables par les expérimentateurs. Seules les
propriétés communes des réseaux sous-jacents sont
sollicitées sans privilégier a priori leurs
caractéristiques propres, partant du principe qu'aucun ne suffit
à lui seul mais que chacun apporte sa contribution dans
l'interconnexion. Les mécanismes d'acheminement se contentent d'une
obligation de moyens (best effort) plutôt que d'une obligation de
résultat (qualité de service, Quality of Service, QoS).
Les groupes de travail de l'IETF définissent l'encapsulation propre
à chaque support sous-jacent, les mécanismes de bout en bout
garantissant la stabilité d'Internet et assurant la qualité de
service si nécessaire.
Entre 1994 et 1998, l'Internet est passé du statut de plate-forme préfigurant le réseau à très haut débit ( le "Gigabit network" de la loi cadre Gore, l'autoroute de l'information ) à celui de candidat déclaré.
Evolution comparée des débits Internet et
téléphoniques dans le monde
Source : NSFnet, MCI cité par Pluris.com
En Amérique du Nord :
Le réseau vBNS de MCI et NSF - http://www.ncs.gov/Image-Files/exhibit2-6.gif
En Europe :
Prix des lignes louées par Mbit/s et par km en dollars US sur le
marché spot de Band-X
Taking account of distance in monthly leased line prices - Source : OCDE,
DSTI/ICCP/TISP(99)4
Le réseau TEN 155 de Dante, à 155 Mbit/s en Europe
Source Dante, http://www.dante.net/ten-155/ten155net.gif
Les opérations de pose de fibres terrestres ou sous-marines en cours en 1999 portent sur des débits de 20 à 80 Gbit/s à des coûts de l'ordre de 500 à 1000 millions de dollars (50 à 80 mille dollars le km)
Le trafic IP devient prépondérant, son coût ne cesse de
baisser
D'autres sources (Qwest) évoquent des croissances annuelles de 5% pour la voix, 80% pour ATM et Frame Relay, 100 à 150% pour les réseaux privés virtuels et 300% pour Internet.
Un certain nombre de problèmes techniques sont actuellement rencontrés dans l'infrastructure Internet :
Les contraintes de type temps réel ne faisaient pas partie du cahier des charges initial, leur absence a pu sembler constituer un handicap pour les services usant de la voix et de l'image non différées et donc disqualifier IP comme protocole unique du réseau à très haut débit. Deux approches tentent d'y remédier. L'une appuie IP sur ATM et ses mécanismes de qualité de service. L'autre enrichit IP des mécanismes nécessaires.
C'est sur des prévisions qui, à l'époque, voyaient
dans l'augmentation du trafic téléphonique la source principale
de croissance que se sont basés les opérateurs existants de
télécommunication, aux Etats-Unis et surtout en Europe, pour
investir massivement dans ATM comme technologie de leurs réseaux
à 155 Mbit/s à partir de la première moitié des
années 90. Malheureusement, si ATM est approprié lorsque le
trafic est constitué majoritairement de voix, il est inadapté
lorsque le trafic est majoritairement constitué de données, ce
qui est et sera de plus en plus le cas avec l'explosion du trafic lié
à l'Internet.
Une opportunité stratégique apparaît, favorable aux
opérateurs émergents qui s'appuient sur une unification autour
de IP, réputé plus adapté au transport de données.
Les opérateurs historiques se trouvent pris en porte-à-faux par
des investissements élevés et des offres inadaptées.
Evolution des modes d'encapsulation de IP - Source Datamonitor
IP peut s'appuyer dans un premier temps (en 1998) directement sur SDH ou
SONET (Packet Over Sonet, POS). Les mécanismes de
contrôle et de routage de SDH devraient progressivement être
absorbés dans IP vers le début des années 2000. Dans le
même temps, IP devient le mécanisme de transport de la voix dans
le coeur des réseaux.
L'augmentation des fonctionnalités de commutation réalisables
directement de manière optique conduira à terme IP à
être le protocole unique, soit directement sur fibre optique à
40 Gbit/s et au delà, soit sur de multiples sous-canaux (WDM)
à des débits binaires moins élevés (2,5 et
10 Gbit/s).
C'est l'approche favorisée outre-atlantique par les opérateurs
émergents pour les débits dépassant le Gbit/s
(Qwest, Level3, IXC, et Sprint).
Dans le même temps, l'ATM Forum effectue un travail de même type pour assurer le transport par ATM de tout type de protocole (Multi Protocol Over ATM, MPOA). Une initiative récente du "Quality of Service Forum" (QOSF) vise à harmoniser les positions des différentes communautés. Cette initiative est complémentaire de la volonté de la communauté de l'ATM Forum de mieux prendre en compte le phénomène IP sous peine pour ATM d'être remis en cause par d'autres solutions comme le Gigabit Internet (voir à ce sujet la proposition RMOA RealTime Multimedia Over ATM destinée à permettre le transport par ATM de flux IP audio, vidéo et voix sur des réseaux longue distance).
Les investissements réalisés par les opérateurs
historiques laissent entrevoir le maintien sur le moyen terme des
architectures de transport ATM et des architectures dans lesquelles IP devient
de plus en plus proche de la couche physique.
L'évolution sur le long terme dépendra donc du besoin effectif
en matière de mécanismes de qualité de service et de
l'augmentation de la bande passante « brute »
disponible :
Tout à fait séparément de IP, d'Internet et du monde des télécommunications, les professionnels de l'image et de la diffusion, les détenteurs des contenus et les fabricants d'équipements ont normalisé les mécanismes et protocoles (MPEG) de traitement, de codage, de compression et d'acheminement des flots d'images de la télévision numérique pour les satellites et réseaux câblés qu'ils déploient.
Pour l'Internet, le déploiement de MPEG est à la fois une opportunité et un défi. D'une part IP cherche à tirer parti des supports de communication existants équipés de MPEG ("IP over everything", IP sur MPEG), d'autre part IP - protocole du réseau intégré haut-débit - se pose comme candidat au transport des images numériques ("IP for everything", IP à la place de MPEG).
Les travaux du groupe de spécifications DVB (Digital Video Broadcasting) ont conduit à la mise en place d'une famille de protocoles qui constitue le fondement de la diffusion télévisée en Europe. La base technologique mise en place à cette occasion représente une vraie opportunité pour l'Europe dans ce domaine. Le succès rencontré par les normes issues de ces travaux au niveau international, où elles sont en concurrence avec les normes américaines ATSC, positionne avantageusement l'industrie européenne de l'audiovisuel.
Le transport de données est prévu dans l'architecture DVB depuis un flux asynchrone de données jusqu'à un accès Internet complet, et permet donc le transport des paquets IP sur une infrastructure câble, satellite et hertzienne. Pour la voie de retour depuis l'abonné vers le réseau, si les spécifications sont figées concernant le câble, il n'en est pas de même dans le cas du satellite. Cependant la tendance générale de DVB est d'avoir recours à un transport s'effectuant par le biais d'ATM.
Face à la solution proposée par DVB, on trouve la solution DOCSIS, promue par les câblo-opérateurs américains par l'intermédiaire de leur laboratoire commun, les Cable-Labs. Il est important de souligner que, même si les spécifications DVB pour la diffusion ont convaincu nombre de diffuseurs, la vitesse de déploiement des solutions d'accès Internet sur le câble aux Etats-Unis conduit de plus en plus à préférer DOCSIS. Même si la partie n'est pas encore jouée, les solutions techniques DOCSIS ont pris une longueur d'avance et on voit apparaître, y compris en Europe, des choix mixtes de la part des opérateurs : diffusion audiovisuelle DVB, service Internet sur le câble DOCSIS.
A plus long terme, il est évident que MPEG ne constituera pas un moyen privilégié de transport d'IP sur les réseaux de télécommunications. En revanche, sur la boucle locale, les architectures large bande existant aujourd'hui sont majoritairement des infrastructures audiovisuelles (satellite et câble, principalement). Les travaux préliminaires du consortium industriel DVB ont donné à l'Europe un avantage technologique, en télévision numérique d'abord, mais également en transport de données sur les infrastructures audiovisuelles.
C'est donc avec les trois candidats que sont IP, ATM et MPEG qu'il faut envisager - à un terme qui dépasse celui du présent rapport - la convergence voix, données, images.
IP sur SDH / SONET sur fibre optique - Source Datamonitor
Couplée avec SDH / SONET (Synchronous Data Hierarchy de l'ITU, SONET
de Bell Labs), c'est la technologie reine des réseaux terrestres et
sous-marins de transmission de données. La fibre optique a permis de
remettre à plat, en l'intégrant, le câblage traditionnel
des opérateurs de télécommunication et d'en diviser le
prix au moins par dix.
Une paire de fibres écoule un flot de bits à des débits
compris entre 622 Mbit/s et 2,5 Gbit/s, un multiplexage en
fréquence (Dense Wave Division Multiplexing, DWDM) permet
d'écouler 16 flots ou plus sur la même fibre, multipliant
d'autant le débit global.
La paire est doublée dans un même câble pour permettre une
architecture en boucle, redondante, palliant certaines classes de panne. De
plus en plus, le trajet physique du câble prend lui aussi la forme d'une
boucle pour permettre des réparations automatiques et rapides
(inférieures à la seconde) en cas de dommages physiques
graves.
Des équipements (Add/Drop Multiplexors, ADM) extraient ou
insèrent le trafic d'abonné dans la boucle de dimension
métropolitaine. D'autres équipements (Digital Cross Connect,
DXC), regroupent les boucles selon diverses topologies (étoile, bus,
arbre, boucle de boucles), pour étendre le champ géographique du
réseau (réseau longue distance) et apporter de nouvelles formes
de robustesse dans le fonctionnement. Des contraintes de supervision limitent
en pratique le réseau global d'un même opérateur à
une centaine de boucles.
Les propriétés de multiplexage de SDH permettent de regrouper,
dans un flot dont le débit est celui de la fibre (par exemple à
2,5 Gbit/s), des flots à 155 Mbit/s ou des flots à 622
Mbit/s transportant à leur tour des flots à 155 Mbit/s
éventuellement porteurs - dans le cas de SONET - de flots à 43
Mbit/s. Les flots véhiculent de l'ATM transportant de l'IP (IP sur ATM
sur SDH) ou directement de l'IP (IP sur PPP sur SDH).
L'augmentation du débit est possible par augmentation du débit binaire de base (passage de 2,5 à 10 Gbit/s ou plus) ou plus vraisemblablement dans l'immédiat par utilisation de facteurs de multiplexage DWDM plus élevés, 64 semblant réaliste en 1999 pour obtenir 40 Gbit/s sur des boucles posées en 1999. Un saut technologique (Effet Soliton) devrait ensuite permettre d'atteindre un débit de base de l'ordre du Tera-bit/s (mille milliards de bits par seconde).
Les évolutions du génie civil, de leur côté, doivent permettre la pose de nappes de centaines de fibres dans des tranchées réduites à 10 cm x 2 cm, l'enfouissement plus efficace de tronçons sous-marins, l'utilisation de robots-poseurs ou remplisseurs de fourreaux, et contribuer ainsi à mettre à disposition des capacités mesurées en Tera-bit/s.
Technologie reine pour l'acheminement et la diffusion d'images
télévisées, le satellite est - du point de vue de
l'Internet - plutôt une technologie de multiples niches.
Dans la variété géostationnaire (GEO) utilisée
dans les réseaux de transport, un même satellite "voit" un tiers
de la surface du globe. L'empreinte utile au sol de chacune de ses antennes de
réémission ("transpondeur") est limitée par
l'atténuation rapide du signal à la périphérie,
atténuation qu'on compense par une amplification plus
élevée (au prix d'une durée de vie plus brève pour
le satellite) ou par des antennes au sol plus grandes. En moyenne, cette
empreinte couvre une fraction de continent. L'ensemble des stations au sol
visibles par un même transpondeur partage la capacité de ce
transpondeur, capacité qui est de l'ordre de 40 à 80 Mbit/s.
Les circuits satellite utilisés en transport dans l'Internet sont
souvent complétés par une voie de retour terrestre (plus rapide,
la capacité peut être plus faible). L'antenne d'émission
est localisée à proximité du fournisseur d'accès.
Dans un mode d'utilisation, le circuit satellite est complété de
boucles locales : les antennes de réception placées dans
les zones d'ouverture du service sont raccordées à chaque client
par une boucle locale terrestre ; ce mode permet des débits de
dizaine de Mbit/s entre antennes de quelques mètres. Dans un autre mode, le circuit satellite inclut la boucle
locale : l'antenne de réception, de dimension plus modeste (40
à 120 cm), est placée directement chez le client, sans boucle
locale ; le débit est compris entre 64 kbit/s et 2 Mbit/s.
Sur un plan technique, l'utilisation du satellite dans les réseaux de transport de l'Internet est handicapée par :
L'avenir économique de cette utilisation est rendu incertain du fait
des débits plus faibles du satellite (le débit total d'un
satellite atteint au mieux le Gbit/s pour un coût total aux
environs de 500 millions de dollars, comparable au coût d'un câble
transatlantique à 40 Gbit/s et capable d'évoluer vers
160 Gbit/s) et qui évoluent plus lentement que les débits
des réseaux terrestres en fibre. Il souffre également de
l'engorgement endémique du spectre de fréquences.
Enfin, il est handicapé en France par la nécessité
d'obtenir une licence d'opérateur de télécommunication
pour l'utiliser - en IP - dans le sens émission.
A l'inverse, il est adapté à compenser - au moins dans les
premiers temps - l'absence d'infrastructure terrestre qui est le lot des zones
d'activité émergeant très rapidement, des zones
industrielles des pays en voie de développement et des océans.
Il est aussi adapté pour des dessertes temporaires ou
itinérantes (expositions). Il est bien sûr adapté aux
applications de diffusion.
Pour ces raisons, des efforts de recherche importants sont en cours à
l'IETF pour définir ou adapter les mécanismes
permettant de l'intégrer - au moins partiellement - dans l'Internet et
profiter de l'opportunité qu'il constitue comme technologie de
niches.
La même technologie SDH que pour le réseau de transport en
fibre est utilisée pour exploiter des fibres optiques installées
dans des fourreaux posés, partagés ou concédés
(égouts, métro, fleuves et canaux, ...) réalisant
des doubles anneaux sécurisés à insertion/extraction
à 155 Mbit/s, 622 Mbit/s ou 2,5 Gbit/s. Les extensions de
topologies sont réalisées de la même manière que
pour le réseau de transport.
Les anneaux sont équipés de modules d'insertion/extraction (ADM)
réalisant la desserte d'immeubles ou d'abonnés à 43
Mbit/s (34 Mbit/s en Europe) ou 155 Mbit/s. Ces dessertes sont, si
nécessaire, démultiplexées - par des équipements
non SDH - en conduits à 1,5 Mbit/s aux Etats-Unis ou 2 Mbit/s en
Europe, mis à la disposition de l'abonné.
C'est précisément cette technologie qui est utilisée par les opérateurs de télécommunication pour la boucle locale de leurs offres « ligne spécialisée » et « téléphonie d'entreprise ».
Le coût élevé de réalisation de la desserte d'immeubles ou d'abonnés délimite en pratique une zone de pertinence économique s'étendant sur quelques centaines de mètres de part et d'autre du trajet de la boucle, avec un impact fort sur le placement de la boucle et des équipements de raccordement. Hormis les quartiers d'affaires denses, le réseau métropolitain ne couvre pas le tissu urbain dans sa totalité et doit alors être complété par les boucles locales des opérateurs historiques.
Dans le cadre de l'Internet, l'offre des fournisseurs de réseau métropolitain est vue - par les fournisseurs d'accès à l'Internet - comme une technique leur permettant de réaliser des dessertes point à point vers leurs clients, à un débit permanent compris entre 2 Mbit/s et 155 Mbit/s et au delà.
Le réseau capillaire du FAI vers ses clients est en IP (dans PPP) ou en ATM. Le service fourni par le routeur d'abonné peut être IP stricto sensu, ou IP dans ATM, ou encore une offre double de IP dans ATM et d'ATM. L'offre sur ATM peut être complétée par d'autres services non IP (voix, données, images). Occasionnellement, Frame Relay est encore utilisé à la place d'ATM.
Les réseaux radio terrestres et les réseaux câblés sont plutôt une technologie de boucle locale. Les réseaux électriques ne semblent pas constituer une technique suffisamment mature pour le réseau de transport.
Infrastructure de télécommunications moderne, mais compétition insuffisante
Le Réseau National d'Interconnexion de Renater au 14/5/1999
Source : Renater,
http://www.renater.fr/Reseau/pic-topologie-RNI.gif
France Telecom déploie depuis 1990 son réseau de transport en fibre, pour les besoins de la téléphonie et des données. Celui-ci est suffisamment moderne dès l'origine pour tirer parti des évolutions technologiques des dix dernières années (augmentation du débit de base, SDH, WDM). Ce réseau assure une couverture géographique importante du territoire national. Les services de transport de données s'appuient encore essentiellement sur ATM.
Dès 1995, la déréglementation a permis (dans le cadre
de partenariats ou de filliales) à des titulaires historiques de droits
de passage d'utiliser ces droits pour poser des réseaux de transport en
fibre pour la téléphonie puis pour les données. C'est le
cas de la SNCF, à l'origine dans Hermes puis avec Télécom
Développement, de sociétés d'autoroute, d'Euro-Tunnel,
des voies navigables.
Ultérieurement, des opérateurs étrangers et des
fournisseurs de réseaux métropolitains (Colt) ont
déployé leur réseaux, soit par réutilisation de
l'existant (Hermes, partiellement avec les autoroutes et les voies navigables)
soit par création ex nihilo (l'opérateur hollandais KPN,
WorldCom, Carrier 1, Viatel, ...).
Ces réseaux fournissent le plus souvent un service ATM sur SDH sur WDM
à des débits de base compris entre 155 Mbit/s et 2,5 Gbit/s, IP
directement sur WDM restant encore l'exception (KPN-Qwest). Ils visent le
marché de la communication des multinationales (téléphone
et données) et de la revente de minutes de téléphone et
de capacité aux FAI.
Leur couverture géographique est plutôt restreinte aux grandes
métropoles économiques ou situées sur des trajets
pan-européens (voir annexe 1).
Enfin, à partir de 1998, les nombreux projets de réseaux
mondiaux voient leur segments transatlantiques prolongés par des
boucles physiques traversant l'Europe pour desservir les grandes
métropoles (Global Crossing, Viatel - Circe, KPN-Qwest).
L'infrastructure potentielle d'une concurrence à venir est en place.
Plusieurs FAI (InternetWay, EUnet, ...) constituent leurs réseaux internationaux, les complètent ou les sécurisent, avec des circuits satellites (fournis par Eutelsat, Sirius, Telenor, ...) terminés en Europe ou aux Etats-Unis (directement sur MAE-East dans l'offre de Sirius).
Easynet et France Telecom (expérimental) proposent aux particuliers et PME une voie descendante (de l'Internet vers le client) par satellite grâce à une antenne de 60 cm qui conjugue réseau de transport et boucle locale (voir également le chapitre "boucle locale").
Le MENRT/DT a démarré à la rentrée de 1998 une expérimentation nouvelle utilisant la communication par satellite. La phase pilote devrait permettre de contribuer à développer les usages, évaluer l'apport des raccordements satellite haut débit dans le cadre de multiples projets éducatifs, tant en formation initiale que continue, désenclaver des zones rurales ou mal desservies, ouvrir à l'international la culture française. La diffusion de contenus vers 300 établissements scolaires, incluant des services de cache, miroir, news, mbone, ... s'appuie sur des liens satellite fournis par Eutelsat.
Les offres de réseaux métropolitains disponibles en France portent principalement sur les services traditionnels de télécommunications pour les entreprises, peu offrent un service IP ou une couche ATM permettant d'accéder à un ou plusieurs FAI (Colt Telecom, réseau de Paris - La Défense, ...). Plusieurs réseaux régionaux de Renater comportent une plaque métropolitaine généralement réservée à un groupe fermé d'utilisateurs (Vikman, RéMip, Rerif, ...)
Le niveau des investissements demandés pour fournir les infrastructures longue distance répondant à la demande conduit à l'organisation d'alliances préfigurant le contrôle des dorsales Internet par un petit nombre d'acteurs. Les raisonnements économiques ne peuvent plus être conduits à l'échelon national mais à l'échelon européen. Ceci impose cependant de s'assurer du bon niveau de « couverture » en France, qu'il s'agisse d'investissements privés (les points d'accès aux dorsales des FAI sont aujourd'hui tous concentrés à Paris) ou d'investissements publics (participation active de la France aux différentes initiatives de la Commission Européenne).
A ce titre, il y a un objectif certain d'aménagement du territoire et de promouvoir la création de plaques régionales haut débit susceptibles de fédérer une demande, capable elle-même d'attirer l'établissement d'un point de présence d'un opérateur de dorsales dans un panorama où les investissements privés se multiplient. Il faut, en effet, tenir compte du fait que le niveau d'interconnexion d'une zone géographique est en train de devenir un critère d'installation important pour une entreprise, et pas seulement dans le domaine des NTIC.
Permettre la recherche et le développement de nouvelles applications par
Combler le retard de déploiement de l'Internet en France implique de disposer à la fois d'un réseau opérationnel résolument moderne et, simultanément, de rendre possibles les recherches et expérimentations sur les hauts débits futurs ; par exemple sur le modèle de la trilogie vBNS / Internet 2 / NGI, ouvert aux initiatives de toutes origines.
Par ailleurs, il est important de doter les métropoles régionales de l'infrastructure qui les rendra attractives pour les entreprises.
Capillarité, variété, universalité : IP sur tous supports et pour tous.
La boucle locale met en relation l'utilisateur de l'Internet et les points d'accès du fournisseur d'accès, points d'entrée du réseau de transport. Toute technologie permettant cette mise en relation peut être mise à contribution.
Technologies disponibles pour la boucle locale
L'objectif - au niveau de la boucle locale et à l'horizon de 3 à 5 ans - est de passer d'environ 64 Kbit/s à quelques mégabit/s pour le particulier, du mégabit/s aux 43 mégabit/s (34 mégabit/s en Europe) pour la PME et du 43 mégabit/s aux 155 ou 622 mégabit/s pour les plus grandes entreprises, et ce à prix constant pour l'utilisateur.
Le réseau de transport permet un fort multiplexage des flux des utilisateurs de l'Internet, entreprises ou particuliers. A l'inverse, la boucle locale, parce qu'elle est dédiée à chaque utilisateur, implique d'affecter - en beaucoup plus grand nombre il est vrai - des équipements en partie (réseaux téléphoniques, réseaux radio, CATV) ou en totalité (lignes spécialisées, équipements ADSL), peu ou pas partagés.
De nombreuses technologies sont disponibles mais l'économie de la boucle locale est beaucoup plus incertaine que celle du réseau de transport. Elle dépend en effet de la géographie, de la densité de la population, du génie civil, de la possibilité de réutiliser des infrastructures existantes. La concurrence sur une même technologie y est exceptionnelle.
Le développement de la boucle locale est le secteur le plus consommateur de capitaux. Le retour sur investissement est, lui, très dépendant du taux de pénétration atteint sur une zone géographique ciblée. La politique tarifaire peut se concevoir comme extrêmement attractive dans l'espoir d'une augmentation rapide du nombre d'abonnés ou, à l'inverse, préférer maintenir un niveau de prix élevé visant à rentabiliser le réseau sans avoir à développer une politique commerciale agressive.
La forme d'exploitation de la boucle locale est très dépendante de la législation, qui peut autoriser ou interdire certaines formes d'exploitation, mais aussi imposer un certain degré d'ouverture. Cette situation résulte de la destination audiovisuelle d'origine de certaines infrastructures ou encore de l'ouverture récente du marché de la téléphonie publique à la concurrence.
L'incertitude juridique sur la qualification des réseaux et les obligations pesant sur les opérateurs, mais aussi la complexité des mécanismes contrôlant l'établissement et l'exploitation des réseaux, constituent autant de freins au déploiement des solutions haut débit.
La complexité de la situation en France, et plus généralement en Europe, conduit à un retard important dans ce domaine par rapport aux Etats-Unis, alors que les technologies arrivent à maturité. Cette situation fournit corollairement un avantage en faveur des fournisseurs de contenus spécialisés dans les services Internet haut débit, qui sont en mesure de conduire une politique de développement européenne sur la base de l'expérience acquise aux Etats-Unis. @Home et Chello en sont des exemples.
L'utilisateur individuel et la petite entreprise tirent profit des deux variétés de téléphonie (analogique avec RTC et numérique avec RNIS) pour accéder à leur FAI, la variété RTC restant très majoritaire dans la plupart des pays. Les débits possibles atteignent 28,8 et 56 kbit/s par RTC et 64 (voir 128) kbit/s par RNIS. Pour des raisons de coût, le circuit téléphonique d'accès au FAI est le plus souvent établi à la demande et rompu automatiquement en l'absence de trafic. L'accès à l'Internet est plutôt asymétrique sur des circuits téléphoniques établis par l'abonné ; ce qui interdit pratiquement des serveurs permanents chez l'utilisateur. Des contournements sont possibles, surtout par RNIS ; certains sont en voie de normalisation (AO/DI : Always On/Dynamic ISDN).
Dans la variété téléphonique strictement
analogique (RTC : Réseaux Téléphoniques
Commutés, PSTN : Public Switched Trunk Network), un modem à
chaque extrémité tire parti de la bande passante limitée
(300 - 3400 Hz) affectée au transport de la voix pour transmettre
jusqu'a 28800 bit/s simultanément dans chaque sens (norme ITU V.34, des
débits non normalisés légèrement supérieurs
sont possibles).
De plus en plus (à 100% pour la France) le signal
téléphonique analogique est numérisé dès
son entrée dans les locaux de l'opérateur sous forme d'un flot
de bits à 64 kbit/s. Ce flot fait l'objet d'un acheminement
(commutation de circuit, ATM) entièrement numérique dans le
réseau de transport. Dans le cas d'un circuit vocal, le flot doit
être converti sous forme analogique avant d'être remis à
l'abonné (dans son écouteur). Dans le cas d'un circuit de
données, le flot reste numérique lors de sa remise au FAI, 30
circuits téléphoniques numérisés et leurs
signalisations sont regroupés dans un conduit à 2 Mbit/s
raccordé aux équipements "modem numérique" du FAI. La
norme ITU V.90, en tirant parti dans ce cas précis de l'absence de
seconde conversion, autorise des débits pouvant atteindre 56000 bit/s.
Dans les deux cas, un modem est nécessaire chez chaque client et le FAI
déploie des groupes intégrés de modem (parfois encore
analogiques, de plus en plus numériques, évoluant vers le V.90)
raccordés sur des conduits à 2 Mbit/s.
Dans la variété numérique du téléphone (RNIS, Réseau Numérique à Intégration de Service; ISDN, Integrated Switched Data Network), deux circuits à 64 kbit/s et une signalisation à 16 kbit/s (dans chaque sens) sont mis à la disposition de l'abonné individuel et, le plus souvent, PME. L'abonné raccorde ses équipements traditionnels (téléphone, fax, le plus souvent analogique, par un adaptateur) et surtout son routeur RNIS (la PME raccorde ses ordinateurs sur l'Ethernet de ce routeur) ou la carte RNIS de son ordinateur individuel. Le transport des données est entièrement numérique de l'ordinateur du client jusqu'à son FAI. Les données sont remises au FAI multiplexées dans des conduits à 2 Mbit/s raccordés à ses groupes de routeurs RNIS de concentration. Deux circuits RNIS peuvent être mis en parallèle (le plus souvent en fonction de la charge de trafic) pour atteindre un débit de 128 kbit/s. Des solutions permettent à la PME d'utiliser simultanément plusieurs abonnements RNIS pour dépasser cette limite ; le coût en est multiplié d'autant.
Même s'il met en relation l'utilisateur et son FAI, il est plutôt perçu comme faisant partie du réseau de transport et est traité dans le chapitre correspondant.
Boucle locale DSL, schéma de principe
Source : ART, http://www.art-telecom.fr/publications/annexe2.htm
xDSL désigne une famille de
technologies disponibles commercialement depuis 1998 qui
réutilisent la boucle locale en cuivre du réseau
téléphonique et autorisent, sur une paire
téléphonique et pour des distances de 2 à 6 km, des
débits de l'ordre du mégabit/s, asymétriques
(ADSL, Asymetric Data Subscriber Link) ou symétriques (HDSL, High
speed Data Subscriber Link).
Un équipement non partagé est nécessaire aux deux
extrémités, l'investissement est de l'ordre de 1500 à
3000 francs. La connectivité est établie en permanence.
Le dégroupage permet à d'autres intervenants que les
opérateurs historiques - détenteurs du cuivre - d'entrer sur le
marché et d'héberger leurs concentrateurs dans les locaux des
opérateurs.
La variété asymétrique, prévue pour la diffusion de télévision numérique avec 1 à 9 mégabit/s du réseau vers le client et jusqu'à 640 Kbit/s du client vers le réseau, convient pour l'internaute individuel. Elle a été récemment simplifiée (ADSL-lite, les débits sont limités respectivement à 1,5 Mbit/s et 512 Kbit/s) pour partager la paire téléphonique du circuit vocal existant et se raccorder directement à une carte PC sans intervention du fournisseur chez l'abonné. Cette technologie entre en concurrence avec le câble et les réseaux radio pour la fourniture au grand public. Une variété de concentrateurs est envisagée côté opérateur pour pouvoir partager l'équipement ADSL. Dans ce cas, la connectivité ne serait plus permanente.
La variété symétrique HDSL est un substitut économique aux liaisons spécialisées de courte distance pour permettre l'accès permanent des PME/PMI à 2 Mbit/s. Elle concurrence les réseaux radio mais pas les réseaux câblés qui ne desservent généralement pas les zones industrielles. VDSL (Very High Speed Data Subscriber Link) doit permettre ultérieurement d'atteindre 50 Mbit/s symétriques sur des longueurs de cuivre réduites à 300 mètres par l'utilisation de fibres optiques pour l'ossature principale (FTTC, Fiber To The Curb, fibre jusqu'au trottoir et desserte d'abonné en cuivre).
Le service est
disponible principalement aux Etats-Unis sous forme plus ou moins
dégroupée. Par exemple, Europa
Internet s'appuie entièrement sur l'offre ADSL des
opérateurs locaux US West ou GTE (prix mensuel d'environ 40 dollars
à 256 Kbit/s et 120 dollars à 1 Mbit/s) pour permettre
l'accès à son propre réseau IP (25 dollars avec 1 Giga
octet mensuel pour un particulier ou 75 dollars et 3 Giga octets pour une
PME). A l'autre extrême, COVAD s'appuie
sur le câblage des opérateurs historiques pour raccorder le
domicile d'un particulier à son entreprise ou au FAI de son choix. Les
nouveaux opérateurs de réseau de transport (Qwest, Worldcom, par
des prises de participation) s'engagent dans DSL pour élargir
l'accès à l'énorme capacité qu'ils
déploient. L'ouverture en Europe et en France par les opérateurs
historiques en est à ses débuts.
Comme pour la boucle locale métropolitaine, le service rendu à
l'abonné peut être IP stricto sensu ou IP dans ATM. Cette
dernière solution permet à plusieurs FAI de proposer leurs
services IP sur l'infrastructure DSL.
Le support est celui qui a été installé par les câblo-opérateurs pour la transmission de chaînes TV vers les foyers (canaux descendants). Il est à diffusion unidirectionnelle (de la tête du réseau vers les foyers) et doit être modifié pour supporter des voies de retour (canaux montants du foyer vers la tête) indispensables à Internet.
Le réseau européen et français est de bien meilleure qualité qu'aux Etats-Unis où il faut recâbler. En France, la voie de retour est déjà disponible et nécessite seulement un réglage des amplificateurs. On ne peut que regretter le retard pris pour ouvrir à l'Internet cette infrastructure moderne et disponible.
La topologie est celle d'un arbre dont la racine est la tête du réseau et les branches terminales portent les modem haute-fréquence des abonnés. Chaque branche est isolée de ses voisines par des équipements (amplificateurs) de noeuds qui assurent la propagation des canaux montants affectés à la branche terminale vers la tête de câble et la propagation des canaux descendants de la tête de câble vers la branche terminale à laquelle ils sont affectés.
En France l'ossature est en fibre et la desserte d'abonné est en cuivre coaxial (Hybrid Fiber Coax, HFC).
Plusieurs abonnés d'une même branche terminale partagent les
mêmes canaux montants et descendants et donc leur bande passante.
L'opérateur surveille l'utilisation de la bande et joue dynamiquement
sur le nombre d'abonnés d'un groupe pour maintenir la bande passante
fournie au niveau contractuel. Il paraît également possible
d'agréger les canaux d'un même groupe d'abonnés pour
offrir des débits plus élevés. L'opérateur
contrôle et configure à distance chaque modem du réseau.
Le débit est partagé et de l'ordre de 1.2 à
40 Mbit/s dans le sens descendant et de 0.5 à 1.5 Mbit/s dans
le sens montant, le réseau est accessible par l'abonné au
travers d'une prise Ethernet (derrière le modem haute-fréquence)
qui s'ajoute à la prise TV.
Un routeur IP (plus rarement et moins judicieusement, un pont de niveau 2) placé en tête de câble voit les canaux montant et descendant affectés à chaque branche terminale comme un support bidirectionnel à diffusion pour les paquets IP.
ATM - qui permettrait à plusieurs FAI de partager les fréquences du réseau câblé et d'apporter des garanties de service - n'est pas retenu à cause de son surcoût, estimé à 30% de la bande passante.
L'ensemble des abonnés d'un même canal descendant d'une
branche terminale voit les mêmes données - et partage la
même bande passante - émanant du routeur. La
confidentialité est assurée par chiffrement des données
au niveau du routeur IP et déchiffrement par le modem d'abonné,
les clefs sont propres à chaque abonné.
Le trafic IP est transporté dans MPEG 2 (« DVB transport stream »)
jusqu'à la prise de l'abonné et lui est remis sur support
Ethernet.
Les adresses IP utilisées par les abonnés sont des adresses
routables affectées le plus souvent dynamiquement par le routeur en
tête de ligne, qui vérifie également qu'elles-seules sont
utilisées. Les adresses, pouvant varier dans le temps, ne permettent
pas aux abonnés d'héberger des services permanents, même
si la connexion est disponible à tout instant. L'opérateur
héberge sur ses propres équipements ceux des services de ses
clients qui doivent garder une visibilité permanente, il entretient des
serveurs « proxy » (news, cache web) pour maximiser les
chances de garder le trafic local.
Le dimensionnement de l'accès à l'Internet est un réel
problème dans la mesure où le câble est un moindre goulot
d'étranglement que pour les accès par réseau
téléphonique commuté. Le prix des liaisons longue
distance rend le problème particulièrement difficile en Europe
et en France, les opérateurs introduisent alors des limitations de
volume.
@Home est le principal fournisseur d'accès par le câble aux Etats-Unis, pour un prix mensuel d'environ 40 dollars. En 1998, plusieurs réseaux câblés permettant l'accès à l'Internet ont été ouverts à Amsterdam ; le prix mensuel de l'offre de A2000 pour le particulier est comprise entre 180 francs ( 256 Kbit/s / 64 Kbit/s et 100 Mega octet/mois) et 270 francs (1,5 Mbit/s / 256 Kbit/s, sans limitation de volume).
Réseau métropolitain interconnectant des boucles locales
radio
Source : Advanced Radio Telecom, http://www.art-net.net/news/pr98/980304_bbandstrat.pdf
La boucle locale radio doit permettre aux opérateurs de
télécommunications d'éviter les investissements du
déploiement d'infrastructures filaires jusqu'à l'abonné.
En Europe et aux Etats-Unis, le marché de la boucle locale radio est
porté par l'ouverture à la concurrence du marché des
télécommunications (ouverture du marché local aux
Etats-Unis), qui encourage l'apparition de nouveaux opérateurs ne
disposant pas de boucle locale filaire. Dans les pays émergents, de
tels systèmes sont susceptibles d'accélérer le
déploiement des infrastructures indispensables à
l'activité économique.
Le secteur de prédilection est celui de la zone semi-urbaine à
densité de population intermédiaire, en vision directe,
idéalement mitoyenne de zones industrielles, pour permettre aux
mêmes équipements de desservir les entreprises pendant les heures
ouvrables et les particuliers le reste du temps. La technologie est sensible
aux phénomènes météorologiques.
Les industriels préparent dès à présent une
montée en fréquence des systèmes permettant de disposer
de bandes passantes plus importantes pour des services haut débit.
Les débits attendus sont mis en évidence dans
l'expérimentation LMDS de Thomson à Limoges, à 40 Ghz,
pour l'audio-visuel et l'accès à Internet. Elle met en oeuvre
des antennes fixes semi-directionnelles desservant, dans quatre directions,
des cellules de 1 km de côté couvrant 3000 foyers avec un
débit partagé de 50 Mbit/s dans le sens descendant et
5 Mbit/s dans le sens montant (source : Alcatel).
Cette technologie n'est pas d'actualité pour l'instant pour fournir un véritable accès à l'Internet.
Le modèle "Wireless Application Protocol"
Source : http://www.wapforum.com/docs/technical/arch-30-apr-98.pdf
Wireless Application Protocol (WAP)
définit la passerelle entre Internet et le transport de mini-messages
(SMS, Small Message System) du GSM qu'utilisent des applications
d'affichage (en DHTML) sur l'écran des téléphones
mobiles.
Le modèle résolument téléphonique du réseau
et son dimensionnement pénalisent la transmission de données qui
est restreinte au mieux à SMS et ne permettent pas pour l'instant de
tirer parti de son adéquation à la mobilité.
A l'heure actuelle, en Grande-Bretagne, les mini-messages représentent 75% du trafic données GSM. Ces mini-messages sont acheminés au rythme de cent-mille par heure en Allemagne à ce jour. Nokia prévoit 20 à 30% de revenus GSM générés par les données, entre 2001 et 2005. Le débit en mode données est actuellement limité entre 9.6 kbit/s et 14 .4 Kbit/s.
Des travaux sont en cours (GPRS puis EDGE et UMTS) pour porter les
débits à 384 Kbit/s et 2 Mbit/s selon la taille de la
cellule, à l'horizon 2002 - 2008.
Des premières applications couplent l'assistant personnel (PDA,
Personnal Digital Assistant) et GSM pour localiser les ressources urbaines ou
encore GSM et carte à puce comme terminal de certification pour du
commerce électronique.
La variété géostationnaire du satellite (GEO) peut, dans certains cadres, affranchir de la nécessité d'une boucle locale. C'est, cependant, le satellite en orbite basse (LEO) qui est mis à contribution pour la boucle locale dans l'Internet, principalement sous forme de constellations (Teledesic, Skybridge)
Dans cet exemple la voie de retour est terrestre
Source: figure D-4 de http://www.ncs.gov/n5_hp/Information_Assurance/PSN-A97.htm
L'altitude considérablement réduite (trente-six mille km en GEO, sept-cents à mille quatre-cents en LEO) a pour conséquence immédiate :
Un même satellite d'une constellation en survolant - à 20000 km/h - successivement toutes les régions du globe :
Comme pour les GEO, les transmissions radio sont entachées d'un niveau de bruit élevé qui prend fortement en défaut les optimisations de TCP. Le temps de transit, parce qu'il est variable, a lui aussi un impact négatif sur ces optimisations.
Les performances générales sont suffisamment faibles (500 Mbit/s dans un rayon au sol de 100 km pour Teledesic en 2002) pour susciter des inquiétudes sur la viabilité des projets :
Iridium et ses 66 satellites ou Globalstar et ses 48 satellites, en cours de déploiement depuis 1998, sont réservés à la communication téléphonique depuis les mobiles et ne sont pas utilisables pour la boucle locale.
Ni le réseau
électrique longue distance ni la desserte d'abonnés
ne semble actuellement utilisable pour Internet, le signal ne passant pas les
transformateurs actuels et les problèmes de sécurité
étant loin d'être résolus. Des projets existent (Siemens,
en Allemagne).
D'autres techniques (ballons dirigeables stationnaires, ...) sont mises
à contribution dans des projets encore très incertains.
Possibilités multiples, mais déréglementation non encore effective
Pour les particuliers :
Pour les PME
Pour les grandes entreprises
Plusieurs expérimentations sont en cours ou annoncées au printemps 1999 :
La situation française pour la boucle locale se caractérise à la fois par un fort potentiel en termes de solution (téléphonie, RNIS, paire cuivre, réseau câblé moderne, fibre, réseaux hertziens) et par un retard important dans l'utilisation de ces opportunités. Le choix n'existe ni au niveau de la solution ni au niveau du fournisseur, ou en tout cas jamais suffisamment pour qu'une réelle concurrence existe.
Les annonces d'ouvertures - très prometteuses - d'accès ADSL sur les dessertes téléphoniques soulèvent à nouveau la question du dégroupage, l'ouverture à la concurrence des infrastructures téléphoniques historiques devant permettre aux différents acteurs de déployer leur propre service ADSL intégré ou non à leur propre offre IP.
NOMBRE D'ABONNÉS | PRISES COMMERCIALISABLES | |||||
---|---|---|---|---|---|---|
INTERNET | TELEPHONE | TV | INTERNET | TV | ||
Entreprises | Résidentiels | |||||
Est Vidéo- communications (Haut et Bas-Rhin) |
69 | 1 651 | 0 | 91 392 | 162 269 | 258 540 |
France Télécom Câble |
623 | 3 269 | 0 | 761 993 | 1 010 000 | 1 717 024 |
Lyonnaise Câble* | 700 | 15 114 | 2 344 | 685 079 | 2 235 238 | 2 235 238 |
NC Numéricâble | 5 | 200 | 0 | 625 785 | 88 000 | 1 965 953 |
Vidéopole | 4 | 226 | 0 | 139 320 | 9 704 | 302 872 |
TOTAL au 28/2/99 | 1 401 | 20 460 | 2 344 | 2 303 569 | 3 505 211 | 6 479 627 |
TOTAL au 31/12/98 | 954 | 14 150 | 1 800 | 2 212 335 | 2 030 080 | 6 437 761 |
Les opérateurs qui figurent sur le présent tableau
représentent environ 85% du marché français (source
AVICA). N.B. Les opérateurs Cité Interactive et Médiaréseaux n'ont pas souhaité figurer actuellement dans la liste ci-dessus. * Lyonnaise Cable ne distingue plus les prises commercialisables Internet et TV, tant qu'elles ne sont pas commercialisées. La distinction entre "prises Internet" et "prises TV" est tout à fait mineure et reflète un réglage restant à faire de la voie de retour. La quasi totalité des prises en France dispose de cette voie de retour indispensable pour Internet. |
Enfin, six millions de prises existent dans les réseaux câblés des grandes villes françaises qui véhiculent dès l'origine les bits de la télévision numérique du Plan Câble et qui ne véhiculent pratiquement pas IP, à la fois prisonnières des stratégies ou de l'absence d'intérêt réel de leurs propriétaires et aussi prises dans l'étau du cadre réglementaire et de l'architecture commerciale hérités du Plan Câble.
Jusqu'à la fin 1998, la boucle locale radio n'avait retenu que peu d'attention de la part des opérateurs (8 demandes de licences expérimentales auprès de l'ART seulement en novembre 1998). Les derniers mois ont vu au contraire un développement des demandes, en particulier dans la bande 27,5 - 29,5 GHz, démontrant la volonté des opérateurs de pouvoir offrir de l'accès Internet au delà du service voix. En avril, on comptait donc 19 licences expérimentales délivrées par l'ART, dont 11 autour de 28 GHz :
Société | Ville | Bande de fréquences |
---|---|---|
France Télécom | Rennes | 27,5-29,5 GHz |
Cegetel Entreprises | Lyon | 27,5-29,5 GHz |
Cegetel Entreprises | Lille | 27,5-29,5 GHz |
9 Télécom Réseau | Vélizy (entre les départements de l'Essonne et des Yvelines) | 27,5-29,5 GHz |
9 Télécom Réseau | Vélizy (seconde expérimentation) | 27,5-29,5 GHz |
FirstMark Communications | Lyon | 27,5-29,5 GHz |
MFS Communications | Lyon | 27,5-99,5 GHz |
Formus Communications France | Strasbourg | 27,5-29,5 GHz |
Alcatel | Velizy | 27,5-29,5 GHz |
A. Telecom | Marseille | 27,5-29,5 GHz |
France Télécom | Lannion | 27,5-29,5 GHz |
9 Télécom Réseau | La Roche-sur-Yon | 3,4-3,6 GHz |
Siris | Nantes | 3,4-3,6 GHz |
Infotel | Fort-de-France | 3,4-3,6 GHz |
Sagem | Cergy-Saint-Christophe | 3,4-3,6 GHz |
Cegetel Entreprises | Nantes | 3,4-3,6 GHz |
Télé2 France | Grenoble | 3,4-3,6 GHz |
Médiaréseaux Marne | Bussy-Saint-Georges | 3,4-3,6 GHz |
Médiaréseaux Marne | Champs sur Marne | 3,4-3,6 GHz |
Sources : ART, 30 avril 1999 http://www.art-telecom.fr/dossiers/blr/tabloblr.htm |
Devant ce succès, l'ART a pris la décision, en avril 1999, d'ouvrir un nouvel appel à candidatures dans la bande du 26 GHz. Dans son communiqué de presse, l'ART souligne à cette occasion qu'elle répond là aux attentes des opérateurs qui faisaient de la possibilité de mise en place d'offres haut débit une condition sine qua non de la réussite économique de la boucle locale radio. Indépendamment de la politique de l'ART sur la boucle locale radio, en matière de services haut débit, le CSA, chargé de l'affectation de la bande autour de 40 GHz, a autorisé une expérimentation de diffusion LMDS dans la région de Limoges.
Cependant, il est à craindre que le déploiement de services commerciaux ne se heurte à des entraves issues d'un cadre réglementaire incomplet. En effet, si l'économie du large bande reste largement à définir, il semblerait logique de permettre aux opérateurs de disposer de toute la latitude possible pour rentabiliser leur investissement. A ce titre, la diffusion de programmes télévisés peut s'avérer complémentaire dans le temps d'autres modes d'exploitation, comme le service Internet aux entreprises et participer, par conséquent, de l'équilibre financier général d'un tel réseau. Néanmoins, l'affectation des fréquences LMDS, relevant aujourd'hui d'autorités différentes (CSA et ART), peut faire craindre des politiques d'affectation des fréquences non coordonnées. Plus généralement, il paraît logique de considérer que les boucles locales LMDS devraient voir leur régime réglementaire s'aligner sur un régime général des infrastructures convergentes large bande, avec l'objectif d'une utilisation économique optimale des ressources.
Des projets existent et quelques expérimentations sont menées en France au niveau de la boucle locale :
Ces projets et expérimentations sont souvent freinés, voire compromis, par un environnement légal et réglementaire qui ne met pas la priorité sur le développement de l'Internet :
Favoriser l'utilisation de toutes les technologies
Avec pour objectif de généraliser, à terme de cinq ans, les accès locaux avec les performances suivantes :
La disponibilité locale d'Internet à haut débit peut
être une contribution importante au développement industriel et
à ce titre jouer un rôle moteur dans l'aménagement du
territoire.
Il faut favoriser les initiatives locales, privées et publiques qui se
proposent de mettre en oeuvre des boucles locales à haut débit
en s'appuyant sur les techniques existantes adaptées à leurs
créneaux géographiques et économiques respectifs. Il faut
également favoriser l'expérimentation et le développement
des techniques émergentes.
Topologie pilotée par le contenu
C'est de l'interconnexion au niveau IP de réseaux bâtis sur des technologies variées qu'Internet tire son qualificatif de réseau de réseaux. Ce mécanisme d'interconnexion permet de tirer parti de toutes les formes de réseaux ("IP over everything"). Il permet également à chaque utilisateur de communiquer avec les utilisateurs des autres réseaux partout dans le monde ("ubiquitous IP").
Les aspects les plus techniques et l'histoire de l'interconnexion dans l'Internet sont présentés en détail dans l'annexe 2.
Interconnexion de bas niveau
Un nouvel acteur constitue ou élargit son réseau de transport
et/ou ses boucles locales à partir des supports de
télécommunication fournis par les opérateurs de
télécommunication (intégration horizontale).
A la différence des opérateurs qui, historiquement,
interconnectent (intégration verticale) leurs propres composants
élémentaires (desserte point à point en cuivre, boucle
métropolitaine ou conduits longue distance en fibre, liaisons
hertziennes ou satellite, équipements...) en suivant leurs propres
procédures internes (de mise en oeuvre, de
qualification, ...), ce nouvel acteur partiel doit s'appuyer sur
les règles et pratiques externes à ces opérateurs.
Ces pratiques sont le plus souvent non validées, sous-estimées
ou constituent une anomalie culturelle. Il se retrouve alors dans la situation
des opérateurs historiques lorsqu'ils interconnectent leurs
réseaux au niveau international. L'histoire des réseaux
européens et les échecs répétés des
opérateurs historiques à assembler leurs réseaux
nationaux pour proposer à temps une offre internationale de haut niveau
et permettre l'émergence de « carrier »
pan-européen, ont mis en évidence l'importance de ce
problème d'interconnexion des infrastructures.
L'absence, en Europe, d'une pratique de cette interconnexion de bas niveau constitue un premier élément de retard technologique.
Interconnexion de réseaux IP
Elle permet aux Fournisseurs d'Accès Internet (FAI) d'étendre l'intérêt global de l'Internet. Bob Metcalfe affirme qu'il croît comme le carré du nombre d'éléments connectés. Tout FAI déploie son propre réseau IP de couverture régionale, nationale, internationale et intercontinentale par acquisition et, encore aujourd'hui, le plus souvent, par location de circuits de télécommunication ou par acquisition des droits de passage pour son trafic IP auprès de FAI revendeurs de capacité (tier-1 et tier-2 aux Etats-Unis). Le FAI interconnecte alors son réseau à ceux d'autres FAI comparables en taille et surtout en étendue géographique.
Cette interconnexion s'est faite historiquement - c'est toujours le cas en Europe - dans des lieux (les Global Internet eXchange, GIX ou Internet eXchange Point, IXP) réputés neutres et équitables pour chaque FAI participant. Ces GIX sont peu nombreux pour éviter de complexifier le routage. Des accords sont établis au niveau du GIX (accords "1 à N") ou plus couramment entre chaque FAI participant (accords « N à N »). Les FAI s'échangent dynamiquement les routes correspondantes. L'interconnexion se fait le plus souvent sans échanges financiers censés compenser des avantages inégaux.
Ce modèle a été corrigé sous la pression de situations inéquitables ou introduisant des avantages non souhaités en terme de concurrence.
L'interconnexion suit deux modèles économiques, selon les tailles respectives des acteurs (peering .vs. transit)
L'évolution outre-atlantique depuis 1995, qui n'a pas encore
touché l'Europe, conduit les plus grands FAI (les National Service
Provider de niveau 1, SPRINT, MCI/Uunet, PSI) à déployer de
très nombreux points d'interconnexion privés deux à deux
(peering privé), et à ne participer aux GIX que pour y
revendre de la capacité IP (transit) aux FAI de moindre
importance (les « Regional Service Provider » de niveau
2 et leur « Resellers » de niveau 3). Cette pratique de
peering privé - techniquement justifiable - manque de
transparence. Les règles - variables dans le temps - semblent
surtout destinées à empêcher l'arrivée de nouveaux
acteurs au niveau 1.
L'interconnexion internationale est chère, les contenus européens sont insuffisants
Les acteurs européens de l'Internet se trouvent en situation de concurrence défavorable à la fois par l'existence de contenus plus importants aux Etats-Unis, par un effet de masse plus important aux Etats-Unis, par des coûts d'infrastructure de télécommunications excessifs en Europe et par la prise en charge par les européens du coût des infrastructures transatlantiques.
A l'instar du FAI américain, le FAI européen doit s'assurer -
à ses frais et à des tarifs européens bien
supérieurs - d'une connectivité IP nationale par son GIX
national et d'une connectivité continentale (européenne) en
propre ou acquise auprès d'un revendeur de capacité IP.
A l'inverse de son homologue américain, il doit également
s'assurer - dans les mêmes conditions défavorables - d'une
connectivité intercontinentale (transatlantique) vers au moins l'un des
trois GIX Nord-Américains (SprintNAP à Pensauken - New Jersey,
MAE East à Baltimore - Maryland, MAE West à San Jose -
Californie), ce dont son homologue américain se trouve ainsi
dispensé.
Il peut également participer aux rares GIX régionaux.
Au niveau européen, chaque pays dispose maintenant de son GIX national, organisé selon des principes de mutualisation des coûts (la quote-part y est de 5000 à 10000 Euro), financés et contrôlés par les FAI participants. Les GIX de Londres (LINX) et de Stockholm (Stockholm D-GIX) figurent parmi les plus avancés sur le plan technique et surtout organisationnel.
Culture de l'interconnexion limitée en France
L'interconnexion des réseaux IP au niveau local évite de gaspiller la ressource onéreuse qu'est le réseau longue distance. Elle permet ainsi d'augmenter la fragile viabilité économique de boucles locales ou de fournisseurs IP locaux.
Le très faible nombre d'interconnexions locales de réseaux IP est le reflet de l'absence de solutions locales ouvertes qui, ayant attiré plus d'un acteur, les inciteraient à s'interconnecter :
Le GIX national de Paris - dans sa dimension régionale - met en évidence l'intérêt économique et les effets d'entraînement d'interconnexions au niveau IP. Les opérateurs de dimensions nationale et régionale présents à Paris tirent parti des offres très concurrentielles du haut débit métropolitain pour sur-dimensionner - selon les critères européens - leurs conduits vers le GIX et permettre une connectivité régionale abondante et économique, incitatrice de nouveaux trafics locaux.
Au niveau national, le principal lieu d'interconnexion est le GIX de Paris (SFINX, Service for French INternet eXchange). Déployé et dirigé par RENATER, il a eu un rôle moteur dans l'amélioration de la connectivité nationale. La quote-part faible (trente à soixante-mille francs par an), et très peu dépendante du débit, incombant aux participants, a favorisé à la fois l'apparition de nouveaux fournisseurs et des interconnexions à débit élevé. L'existence de financement public et des rapports contractuels avec l'opérateur du service (France Telecom) qui datent du début de la déréglementation, sont à l'origine des limitations techniques (impossibilité de se raccorder au GIX avec des circuits fournis par des tiers, impossibilité d'y héberger des équipements, manque de dynamisme dans l'évolution technique) ou organisationnelles qu'on ne retrouve pas ailleurs en Europe. Des initiatives privées comparables (PARIX de France Télécom, à Téléhouse) ou intégrées dans l'offre d'opérateurs revendeurs de capacité (le MAE de Paris) les complètent maintenant.
Les tarifs anormalement élevés pratiqués en Europe et plus encore en France pour les circuits européens et nationaux sollicitent très durement les budgets des FAI, les conduisent à sous-dimensionner les capacités déployées, à freiner le déploiement de capacités plus élevées et à consacrer dans leur budget une part proportionnellement moindre qu'aux Etats-Unis aux investissements en équipement et en personnel.
Ces limitations conduisent les FAI français à être plus souvent clients que pairs dans leurs relations internationales et intercontinentales. Elles les amènent également à se contenter de leur connectivité transatlantique et du transit qui est historiquement consenti outre-atlantique pour communiquer avec les autres continents (Asie, Australie, Amérique Latine). Ces limitations conduisent à des équipements sous-dimensionnés, des compétences rares ou absentes, un manque de maîtrise des techniques propres aux hauts débits, un manque de maîtrise du capillaire nécessairement plus complexe qui permettra d'atteindre de nouveaux clients. Ces limitations mettent les FAI français en situation de retard dans l'évolution technologique de l'Internet.
Ces limitations mettent les FAI français en situation
d'infériorité par rapport aux nouveaux arrivants en quête
du marché européen. Elles les mettent en situation de faiblesse
dans leurs rapports stratégiques avec les opérateurs de
télécommunication. En Europe, l'opérateur de
télécommunication rachète le FAI (HER et Ebone,
Qwest et Eunet, France Télécom et Oléane), ou alors c'est
le FAI américain qui rachète le FAI Français (UUnet
et Iway, PSI et Calvacom).
Enfin, l'insuffisance des contenus en France et la localisation hors de France des contenus réputés plus intéressants exacerbent l'asymétrie des trafics et impliquent de sur-dimensionner les conduits internationaux dans l'absolu et de les sur-dimensionner aussi au niveau du sens - entrant - le plus chargé, avec, là encore, un impact économique négatif significatif. Ce sur-dimensionnement et cette asymétrie sont moins nets ailleurs en Europe, ils sont même en voie de régression en Allemagne.
Cette remarque sur les contenus nationaux et les conduits internationaux s'applique également au niveau des contenus locaux et des conduits nationaux ; initiatives régionales et contenus locaux et régionaux vont de pair.
Développer une culture de l'interconnexion en encourageant la transparence
Le retard français dans le déploiement de l'Internet a masqué les problèmes liés à l'interconnexion de réseaux. Au fur et à mesure que la capillarité augmente, ces problèmes vont devenir crtiques. La mise en place d'interconnexions économiques et performantes demande le développement de compétences et la collecte de données encore peu disponibles. Un effort tout particulier devra donc être engagé pour tirer le meilleur parti des déploiements du réseau de transport et des nouvelles boucles locales.
Conçu à l'origine pour établir efficacement des flux de données entre des ordinateurs distants, l'Internet s'est développé en fonction de l'évolution des besoins et de la technique pour constituer maintenant une infrastructure complexe où les mécanismes de transports de l'information sont enrichis par des services d'infrastructure qui permettent :
La mise en oeuvre de ces services nécessite la mise en place de mécanismes et de protocoles sur les terminaux, les serveurs de contenus et les serveurs techniques de médiation et, en général, ne requièrent pas de modification profonde des mécanismes réseau sous-jacents.
Une architecture fortement distribuée
Première étape dans l'accès au réseau mondial, le Fournisseur d'Accès à l'Internet (FAI) est souvent le médiateur obligé vers l'ensemble des services disponibles sur le réseau et, à ce titre, a certaines obligations aux yeux de ses clients et utilisateurs :
L'ensemble de ces paramètres constitue la qualité de service (en anglais QoS, Quality of Service) visible par l'utilisateur, qu'il soit une personne voulant naviguer sur le Web ou une entreprise voulant mettre en place des serveurs. Conformément à la philosophie de l'Internet, cette qualité de service est rarement contractuelle dans le cas des accès ouverts pour le grand public, des professionnels ou des PME : le fournisseur d'accès est certes tenu de faire de son mieux (concept du meilleur effort caractéristique des protocoles Internet : en anglais, Best Effort) mais il s'agit tout au plus d'une obligation de moyens qui n'est pas toujours facilement mesurable. Il peut donc exister des situations contrastées entre les différents FAI.
La mise en place d'un serveur d'informations sur Internet au niveau d'un particulier, d'une entreprise, d'une administration ou d'une organisation peut se faire de deux façons : le raccordement direct et permanent d'un de ses serveurs sur l'Internet (en utilisant éventuellement un coupe-feu pour garantir la sécurité) ou l'hébergement du service sur un serveur fourni par un tiers (soit le fournisseur d'accès, soit un prestataire spécialisé dans ce genre de service).
Une gestion planétaire à mettre en place
Le réseau Internet lui-même ne connaît les machines et ressources qui s'y raccordent que par une adresse numérique du type "192.134.0.0" : ces adresses sont utilisées par les machines constituant le réseau (routeurs) pour transmettre les paquets d'information à leur ordinateur de destination. En théorie, toutes les machines pouvant communiquer sur Internet devraient avoir une adresse différente : en pratique, de nombreuses machines, n'accédant à Internet qu'à partir d'intranets (réseau privé fermé exploitant les techniques Internet et utilisé par une entreprise, un organisme, une administration...), il peut y avoir plus de machines que d'adresses disponibles. Toutefois, en attendant la prochaine version du protocole IP, IPv6 et son système d'adressage étendu, les adresses Internet sont des ressources rares considérées comme un bien public à gérer équitablement. La gestion des adresses au niveau mondial se fait sous le contrôle de l'IANA qui la délègue à des organismes régionaux comme le RIPE (Réseaux IP Européens) pour l'Europe qui à son tour la délègue à des fournisseurs d'accès et des opérateurs de réseaux nationaux. Une entreprise ou un particulier désirant se raccorder à Internet doit donc demander une adresse parmi les adresses gérées par son fournisseur d'accès. Cette adresse est en général allouée pour une durée limitée à la session courante dans le cas des connexions grand public ; elle doit être fixe dans le cas d'une entreprise désirant rendre accessible par l'Internet un serveur d'information.
Pour faciliter l'accès via l'Internet aux serveurs et ordinateurs, les concepteurs du réseau y ont introduit un mécanisme de désignation hiérarchique qui organise les ressources en domaines et qui conduit à des noms plus faciles à manipuler ("internet.gouv.fr" par exemple) que des suites de chiffres. Ces noms sont notamment utilisés pour référencer les pages Web au moyen d'URL ("http://www.internet.gouv.fr/francais/index.html" par exemple). Au sommet de la hiérarchie des domaines se trouvent les domaines primaires (TLD Top Level Domain) qui partitionnent les ressources selon leur rattachement national (domaine ".fr" pour la France par exemple) ou selon leur type (par exemple, ".com" pour les entreprises, ".net" pour les organismes liés à l'Internet, même si "www.internet.net" renvoie sur une société de commerce en ligne !). Le nom d'un site est indépendant de sa situation géographique et du fournisseur d'accès par lequel il est connecté à l'Internet. La traduction entre un nom de domaine et une adresse réseau est effectuée par des serveurs situés "en périphérie" du réseau, les serveurs de noms de domaine (en anglais DNS : Domain Name Service).
L'organisation de ces domaines, après avoir longtemps été gérée par l'IANA, un organisme sous financement fédéral américain, est désormais gérée par l'ICANN, une organisation aux statuts et aux membres plus internationaux, solution encouragée par les pouvoirs publics de nombreux pays dont la France. Chaque TLD est géré par un organisme ou une entreprise chargés d'allouer les noms, de les enregistrer dans les serveurs DNS et d'exploiter ces serveurs.
Le domaine ".com" par exemple est réservé à la présence sur l'Internet des entreprises commerciales et compte un peu moins de 3 millions de noms (en février 1999 - source AFNIC, Association Française pour le Nommage Internet en Coopération). Il est administré par l'InterNIC (géré pour l'instant par NSI, société commerciale américaine mais en cours de mise en concurrence par ICANN), qui alloue les noms au fur et à mesure des demandes sans vérifier la légitimité des demandeurs (légitimité d'ailleurs très difficile à établir dans un contexte international).
Des propositions ont été faites en 1998 pour augmenter le nombre de TLD et donc limiter le nombre de conflits sur les noms mais elles ne sont pas encore opérationnelles. Il faut noter que les procédures d'attribution des noms basées sur l'antériorité des demandes ne suivent pas les règles nationales ou internationales destinées à protéger les marques : cela entraîne des collisions de noms (fortuites ou intentionnelles) dont la résolution (à l'amiable ou devant les juges) pénalise les acteurs concernés. L'évolution technique des mécanismes de navigation (par exemple ceux s'adaptant aux préférences de l'utilisateur ou utilisant des requêtes en langue naturelle), l'usage systématique des moteurs de recherche et des annuaires, ainsi que les initiatives telles que RealNames, sont de nature à rendre moins visibles à l'utilisateur les adresses (URL) des sites Web qu'il consulte et donc à rendre moins stratégique le choix des noms de domaines.
Pour faciliter les usages
Les mécanismes de nommage, même s'ils évoluent, ne permettent pas, à eux-seuls, une navigation rapide et efficace dans la masse d'informations accessibles par Internet et en particulier par le Web. L'utilisateur, qu'il recherche une information précise ou qu'il navigue pour son plaisir, a besoin d'outils et de services pour l'assister dans ses tâches : ce besoin a été identifié très tôt, avant même l'existence du Web (serveurs Archie pour les sites FTP, protocoles et serveurs WAIS, ...) et la croissance du médium s'est accompagnée par une importance de plus en plus grande prise par les services (portails) pouvant servir de points d'entrée et de redirection vers l'ensemble du Web. Permettant une recherche des sites par mots clés (moteurs de recherche), offrant une classification rationnelle et hiérarchique des services et intégrant de plus en plus des informations d'actualité, ils utilisent en général des systèmes parcourant automatiquement l'Internet de façon aussi exhaustive que possible pour télécharger les pages d'information, les indexer automatiquement ou les faire classifier par des équipes spécialisées. Ces portails, opérant à la périphérie du réseau, sont parmi les sites les plus consultés : ils louent des espaces publicitaires très prisés, ce qui entraîne une forte concurrence (entre eux et avec les sites des principaux fournisseurs de services) et des convoitises (acquisition par d'autres acteurs). Pour un site Web, être référencé par les portails est la première démarche d'une publication Internet réussie : il est possible en une seule opération (en général payante) de faire référencer automatiquement un site par de nombreux moteurs de recherche.
Il est très facile sur l'Internet de se créer une boîte à lettres électronique : les fournisseurs d'accès en offrent systématiquement une ou plusieurs et de nombreux sites proposent l'ouverture de boîtes gratuites. Etant donné que, contrairement aux réseaux téléphoniques, les fournisseurs ne proposaient pas systématiquement des annuaires, cette fonctionnalité a été développée par des entreprises indépendantes qui recueillent les inscriptions volontaires de possesseurs de boîtes à lettres ou collectent des adresses par divers moyens et permettent, grâce à des protocoles spécialisés (LDAP) ou des services de recherche, de retrouver l'adresse électronique d'un correspondant potentiel. Ces sociétés sont en général associées à des moteurs de recherche généraux.
Un facteur essentiel de la confiance
Pour jouer pleinement le rôle de véritable système nerveux des sociétés où il se déploie, l'Internet se doit de devenir une infrastructure de communication fiable et inspirant la confiance à tous ses utilisateurs. Son caractère fortement distribué, son passé de réseau de la recherche mondiale, son ouverture et sa transparence technique, l'existence de quelques failles et incidents médiatisés ont fait qu'il est considéré comme moins fiable et moins mûr que d'autres réseaux de télécommunications (réseau téléphonique, réseau de télex, réseaux télématiques...). Pour établir la confiance propre à développer une large utilisation de l'Internet notamment pour le commerce électronique (voir sur ce sujet le rapport Lorentz), il faut d'une part limiter les risques de perturbations touchant le réseau et son infrastructure (pour préserver son intégrité et sa capacité à fonctionner), d'autre part sécuriser les échanges utilisant l'Internet (pour accéder à de l'information, pour communiquer, pour acheter/vendre des biens et des services).
Quelques facteurs contribuent à l'amélioration de la sécurité de l'infrastructure Internet :
Toutefois, les risques sont toujours présents : actions malveillantes pour s'emparer d'informations, scénario d'attaques organisées dans le cadre de guerres par réseaux interposés, actions entraînant un déni de service, réactions en chaîne propageant des erreurs, virus informatiques (Note : les virus informatiques ne sont pas propres à l'Internet mais son utilisation augmente très fortement les possibilités de dissémination). Sont visés non seulement les réseaux eux-mêmes, au travers de leurs liaisons ou de leurs équipements, mais surtout la multitude d'ordinateurs directement connectés à l'Internet et dont toute faille est facilement exploitable à distance. L'Internet offre certainement un magnifique outil de communication au service d'individus ou d'organismes mal-intentionnés : de nombreux sites proposent sur le Web divers moyens pour tirer parti des failles de sécurité de l'Internet (comme celles des autres réseaux ou systèmes techniques d'ailleurs !).
Les outils Internet sont heureusement aussi mis à profit pour contrer et prévenir ces actions menaçant l'intégrité des réseaux : ainsi, un certain nombre d'associations ont été mises en place (principalement au sein des agences fédérales ou des universités américaines, dont la plus connue est le CERT Coordination Center) qui relaient en permanence sur leurs sites Web et par des listes de diffusion des informations pertinentes sur l'existence de nouvelles menaces. Elles sont capables d'organiser une éventuelle réaction à un incident ou une attaque. Ces pratiques ont été reprises par d'autres organisations dans d'autres pays et se sont regroupées au sein d'une structure de coordination (FIRST). De plus, les opérateurs majeurs ont tous des équipes d'exploitation chargées de surveiller en permanence le fonctionnement de leurs réseaux et de ceux de leurs clients. Ces équipes sont à même d'intervenir en cas d'alerte et éventuellement se coordonner pour réagir.
Au delà du maintien de l'intégrité des ressources matérielles et logicielles qui composent la nébuleuse Internet, il faut s'assurer que son utilisation comme outil de communication, de négociation, de transaction ou d'information n'engendre pas des risques importants pour les personnes et les biens, risques qui, s'ils étaient mal gérés, pourraient avoir un effet négatif sur les usages et donc freiner l'adoption d'Internet comme l'une des bases de la société.
Les principaux risques sont des transpositions dans un monde numérique de risques classiques (vols de biens et de services, usurpation d'identité, accès à des informations confidentielles, atteinte à la vie privée, fraudes en tout genre, crimes...) agravés par le fait que les législations et les appareils judiciaires n'ont pas toujours pleinement intégré l'impact des nouvelles technologies de l'information et de la communication.
Les solutions techniques universellement proposées sont principalement basées sur l'utilisation de mécanismes de cryptologie garantissant l'identité des utilisateurs (authentification) et des services (certification des serveurs par des tiers), l'origine et l'intégrité des informations échangées (signature électronique) ainsi que leur confidentialité (chiffrement des informations et des communications). Un certain nombre d'algorithmes et de protocoles sont largement diffusés (DES, IDEA pour les clés secrètes, RSA pour les clés publiques, Diffie-Hellman pour l'échange de clés, X509 pour la diffusion de certificats, TLS-SSL pour la sécurisation des sessions, S-MIME pour le chiffrement du courrier électronique) et intégrés dans les logiciels tels que les serveurs Web et les navigateurs : ils sont déjà utilisés pour les communications interpersonnelles, la consultation d'information, le commerce électronique et l'accès aux systèmes d'information des entreprises et des administrations.
Le chiffrement des communications et des informations pouvant être utilisé pour échapper à la justice ou pour attenter aux souverainetés nationales, les gouvernements peuvent désirer en restreindre ou en contrôler l'utilisation et l'exportation, en général en fixant des seuils à ne pas dépasser pour la taille des clés utilisées. La mise à jour des accords de Wassenaar de décembre 1998 a conduit à uniformiser les pratiques à l'exportation entre les pays industrialisés (exportation autorisée tant que les clés secrètes restent inférieures à 56 bits).
La protection de la vie privée et des données personnelles sur Internet est contraire aux modèles économiques des éditeurs d'information : ces éditeurs ont tout intérêt à récupérer le maximum d'informations sur leurs visiteurs et à en tirer pécuniairement parti, par exemple en valorisant la fréquentation de leur site (volume, ciblage...) auprès des publicitaires, ou en louant et vendant les fichiers d'informations recueillies sur leurs visiteurs. Pour cela, les logiciels Internet intègrent des techniques qui permettent aux éditeurs de collecter des données, souvent à l'insu des consommateurs : les cookies. Toutefois, ce principe des cookies est sérieusement contesté par les associations de défense des consommateurs et des droits de l'Homme, et enfreint souvent les lois sur la protection des données personnelles en vigueur dans de nombreux pays.
Les législations en vigueur sont très différentes selon les régions du monde. Elles sont inexistantes aux Etats-Unis où seul le principe d'auto-régulation fait foi. Les acteurs économiques maintiennent une pression constante sur le gouvernement fédéral pour prévenir toute velléité de législation dans le domaine. De façon plus positive, IBM a annoncé le 31 mars 1999 qu'il retirerait à partir de juin 1999 toutes ses publicités sur les sites qui n'afficheraient pas de politique claire en matière de protection de la vie privée. En Europe, le principe de législation fait foi, et la directive du 24 octobre 1995 concernant la protection de données personnelles est en vigueur depuis le 25 octobre 1998. Cette directive vise à réduire les divergences entre les législations nationales, et elle est actuellement en cours de transposition dans l'Union Européenne. Fin 1998, la Grèce, le Portugal, la Suède, le Royaume-Uni et l'Italie ont mis en oeuvre la directive. Des lois de transposition sont à l'étude devant les Parlements de tous les autres états membres, exceptés l'Allemagne, la France et le Luxembourg, qui ont un travail plus lourd de modification d'un cadre réglementaire déjà bien établi.
Il y a donc une différence d'approche radicale entre les systèmes législatifs comme ceux préconisés en Europe et le système d'auto-régulation préconisé par les Etats-Unis, où seules des réglementations sectorielles et très limitées donnent un cadre législatif. Pour permettre l'implémentation de ces différentes politiques de protection de la vie privée selon les régions du monde, le W3C a lancé l'initiative P3P (Platform for Privacy Preferences Project) en mai 1997. Cette initiative vise à permettre aux utilisateurs de sites Web de choisir explicitement le niveau d'information qu'ils désirent fournir aux sites qu'ils consultent. Actuellement à l'état de "draft", les spécifications de P3P devraient accéder au statut de recommandation mi-1999. Début 1999, il n'y a pas encore d'implémentation disponible ni annoncée par les fournisseurs de logiciels Web.
L'étiquetage du contenu des pages Web est né du besoin exprimé en 1995 par des parents et des professeurs de contrôler l'information à laquelle les enfants ont accès à travers l'Internet. Un système nommé PICS (Platform for Internet Content Selection) a été spécifié dans un groupe de travail du W3C, permettant la conception de systèmes d'étiquetage (catégories et valeurs dans chaque catégorie) et de logiciels de filtrage des pages étiquetées. PICS permet de définir des étiquettes significatives pour un usage donné, d'étiqueter son propre site ou le site d'un tiers, et de filtrer l'information étiquetée de façon positive (sélection) ou négative (blocage), par un logiciel individuel (navigateur) ou par un logiciel collectif (coupe-feu, proxy...).
Début 1999, on est encore à l'aube de l'étiquetage du contenu. Peu de systèmes d'étiquetage sont déployés. Les plus populaires sont RSACi, SurfWatch et Safesurf. Peu de logiciels de filtrage sont disponibles, principalement le navigateur de Microsoft depuis la version 3 et celui de Netscape depuis la version 4.5. Quelques logiciels de filtrage à usage collectif (serveurs, proxies...) ont été développés à titre expérimental uniquement. La raison principale de cette désaffection est sans doute la difficulté rencontrée jusqu'à présent pour concevoir un modèle économique faisant usage de l'étiquetage du contenu.
Au niveau conceptuel, le contrôle parental a été la première expression d'un besoin plus général pour un mécanisme permettant l'interprétation de documents Web par des machines (moteurs de recherche, navigateurs, agents intelligents...). Un langage nommé RDF (Resource Description Framework), permettant de décrire un document Web par des métadonnées (des données facilement interprétables par des machines), est en cours de définition au W3C. RDF est la généralisation du système PICS à bien d'autres applications que le contrôle parental. Compte tenu de l'intérêt général pour les métadonnées et dans l'hypothèse où des modèles économiques en faisant usage seront inventés, on peut s'attendre à une implémentation massive de logiciels compatibles RDF, qui pourrait en particulier donner une seconde naissance à l'étiquetage du contenu.
Une situation contrastée (culture de la centralisation)
En ce qui concerne les structures d'accès à l'Internet, la France est encore dans une phase de construction rapide du marché et de structuration de l'offre. Il y a une tendance à la concentration des acteurs ayant une implantation sur l'ensemble du territoire (Wanadoo/MSN, AOL/Compuserve, Infonie, Club Internet, ...). Actuellement, la concurrence joue plus sur les prix, la facilité d'utilisation et les services proposés (email, hébergement, contenu) que sur la qualité de service, même si la communauté des utilisateurs pionniers reste très sensible sur ce point et si des essais comparatifs intégrant des mesures de performance sont publiés par les organisations de consommateurs et les revues spécialisées. On peut cependant remarquer, étant donné la très forte croissance dans le domaine (les capacités et le nombre d'utilisateurs font plus que doubler tous les ans, les fournisseurs d'accès installent continuellement de nouveaux équipements), que toute mesure n'a qu'une durée de vie limitée à quelques mois, voire quelques semaines. Il suffit qu'un fournisseur d'accès change un équipement de son réseau pour que la situation s'améliore nettement !
Evolution du nombre cumulé d'abonnements souscrits auprès de
fournisseurs d'accès membres de l'AFA - Source : AFA
Evolution du nombre cumulé d'heures de connexion des fournisseurs
d'accès membres de l'AFA - Source : AFA
Une entreprise peut héberger son site sur les serveurs d'un prestataire situé n'importe où dans le monde (tout en ayant la possibilité d'avoir un nom de domaine en ".fr"). Toutefois, la situation géographique peut influer sur les performances (en fonction de la localisation de l'audience, des capacités de connexion à l'Internet, de la proximité d'un site d'interconnexion ou d'une artère).
Les noms de domaines pour la France (".fr") sont gérés par l'association AFNIC qui a établi des règles de fonctionnement (la Charte de nommage du domaine ".fr") destinées à clarifier l'attribution des noms et à structurer les sous-domaines (".tm.fr" pour les marques, ".asso.fr" pour les associations...). En conditionnant l'attribution des noms de domaines à la fourniture de documents officiels (extraits Kbis ou JO, certificat INPI), l'AFNIC contribue à augmenter la confiance générale dans l'Internet. Cependant, il semble que les restrictions imposées et la lourdeur administrative poussent certains utilisateurs à préférer un domaine ".com" plutôt que ".fr" (30400 domaines français sous ".fr" le 1/1/1999 contre 37400 sous ".com" le 10/2/1999 - source AFNIC). Dans un contexte de mondialisation de l'économie, la démarche la plus sage pour les entreprises ou organismes à vocation internationale est sans doute l'enregistrement dans plusieurs domaines. Il faut noter que la France participe activement aux travaux sur l'évolution de l'attribution des noms de domaines. France Télécom/Oléane fait partie des 5 entreprises et organismes sélectionnés par l'ICANN pour tester la mise en concurrence de l'attribution des noms des sous-domaines de ".com", ".org" et ".net".
La France dispose de quelques moteurs de recherche de bon niveau (Voilà, Nomade, Ecila). Cependant, les moteurs de recherche indexent en général l'information à partir de mots-clés, et sont souvent indépendants de la langue. Les entreprises internationales sont facilement capables de mettre en ligne une version française de leurs services (Yahoo!, Excite, Lycos, par exemple, qui utilisent le domaine ".fr" mais sont hébergés hors de France !). Il faut cependant remarquer que quelques rubriques des annuaires doivent être spécifiques aux pays traités notamment celles concernant les institutions, les administrations, les collectivités locales, ...
Pionnière dans la mise en ligne des annuaires téléphoniques, la France dispose aujourd'hui d'annuaires téléphoniques performants et accessibles gratuitement sur Internet (par exemple le service des Pages Blanches). En ce qui concerne les autres annuaires personnels, comme ceux contenant les adresses de boîtes à lettres électroniques, une déclaration à la CNIL est théoriquement obligatoire mais en pratique difficile à imposer dans un contexte international.
Il n'existe pas encore en France de structure officielle de coordination et d'alerte contribuant à la préservation de l'intégrité des réseaux Internet nationaux. Seul fonctionne le CERT-Renater qui participe au FIRST. Des initiatives industrielles ou gouvernementales sont toutefois en cours. Au niveau européen, il existe un EuroCERT hébergé en Grande-Bretagne mais il ne rassemble pas l'ensemble des pays et offre un service limité.
La réglementation française en matière de cryptologie a été modifiée en 1999. Les euils de chiffrement demandant autorisation ou déclaration ont été relevés à 128 bits. Cette modification permet l'usage et le deploiement de techniques et logiciels standards. Il est également prévu de modifier la législation pour libéraliser totalement l'usage de la cryptologie.
Depuis les décrets de 1998 simplifiant l'utilisation des techniques cryptographiques, notamment pour l'authentification et la signature (facteur sans doute plus déterminant pour engendrer la confiance que le chiffrement), une offre française d'autorités de certification se met progressivement en place (sociétés Certplus ou Certiposte par exemple). Toutefois le déploiement est encore limité.
La France est depuis longtemps particulièrement active dans le domaine de la protection de la vie privée avec la loi du 6 janvier 1978 et l'établissement de la CNIL (Commission Nationale de l'Informatique et des Libertés). La CNIL s'est tenue informée très tôt des pratiques en vigueur sur Internet, et a joué un rôle moteur dans l'établissement de la directive européenne du 24 octobre 1995. Guy Braibant a été chargé par le Premier ministre d'un rapport remis le 3 mars 1998, visant à éclairer le législateur sur la transposition de cette directive au droit français.
Du fait du travail législatif déjà accompli par la France dans le domaine, et de sa large diffusion dans différents aspects du droit commercial, du droit social, etc., la transposition française de la directive européenne est un travail lourd, ce qui explique que début 1999 la transposition ne soit pas encore achevée. Le Premier Ministre, Lionel Jospin, a annoncé dans un communiqué de presse du 3 mars 1998, suite à la remise du rapport Braibant, que le projet de loi serait soumis à la consultation de la Commission Nationale Consultative des Droits de l'Homme et à celle de la CNIL avant d'être présenté au Parlement. Dans une conférence de presse du 19 janvier 1999 à l'issue du Comité interministériel pour la société de l'information, il a indiqué que les orientations que le Gouvernement proposera viseront à maintenir le niveau élevé de protection des données personnelles actuellement garanti aux citoyens français, et que ceci devrait conduire au renforcement des moyens de la CNIL et de son pouvoir de contrôle.
Il est clair qu'en matière de politique de protection de la vie privée et des données personnelles, la France dispose d'un capital d'expérience et de compétences au tout premier niveau mondial. L'enjeu est donc maintenant de mettre ce capital en application dans l'usage d'Internet, et en particulier de faire le lien avec les technologies qui se profilent dans le domaine.
En France, il n'existe aucun système d'étiquetage du contenu. En Europe, le pays pionnier est l'Italie avec le système d'étiquetage à usage de contrôle parental IT-RA. Notons que PICS est encore mal connu en France, malgré des actions de communication du W3C comme par exemple l'atelier PICS organisé en janvier 1998 à Autrans. En particulier, le rapport "Libertés individuelles et libertés publiques sur Internet" remis par l'association IRIS au Conseil d'Etat en octobre 1997 émet un avis assez négatif sur l'étiquetage du contenu et sur PICS dans son annexe VI. Cette vision négative est principalement due à l'utilisation de l'étiquetage dans un but de blocage de l'information indésirable comme dans le contrôle parental, ou à des fins de censure dans des régimes "non démocratiques", et non dans un but positif de déclaration et de sélection de l'information recherchée.
Construire la confiance en s'appuyant sur la décentralisation des responsabilités
Le dynamisme et la croissance rapide du monde Internet font qu'il est difficile d'avoir en permanence une vision cohérente de la situation technique et de l'offre. Il convient donc d'encourager toute initiative conduisant à la mise en place d'observatoires objectifs sur la situation dans ce domaine. Ces structures peuvent être soit privées, comme il en existe aux Etats-Unis, soit intégrées au secteur public (hébergement par une université, un organisme officiel ou une administration). Il s'agit d'accompagner et de mesurer la transformation d'Internet en un réseau robuste et fiable fournissant une qualité de service nécessaire pour accéder au statut d'infrastructure essentielle de la vie économique.
La concurrence forte sur l'accès aux réseaux et services de l'Internet doit conduire naturellement à une normalisation des pratiques dans le domaine, aussi bien sur la nature même de l'offre que sur la qualité des prestations fournies. Toutefois, pour améliorer la protection des consommateurs (individus ou entreprises) face à ce domaine technique complexe, il faut favoriser la création et l'utilisation de chartes intégrant des clauses de qualité de service. Ces chartes permettraient de mieux définir les prestations attendues d'un fournisseur d'accès (en complétant par exemple l'initiative de l'AFA, Association des Fournisseurs d'Accès et de Services Internet).
En matière d'hébergement, le développement du marché national passe sans doute par une clarification des devoirs et responsabilités respectifs des fournisseurs d'accès, des hébergeurs et des éditeurs/créateurs de sites.
La démarche entreprise par l'AFNIC pourrait être complétée par la mise en place conjointe d'une autorité de certification des sites (voir les aspects "Sécurité" de ce chapitre) afin d'augmenter notablement le niveau de fiabilité de l'identification des sources d'information et de services sur Internet.
La libéralisation de la cryptologie en mars 1999 lève un obstacle à l'utilisation en France de moyens de chiffrement à grande échelle. Elle devra sans doute être accompagnée rapidement d'un ensemble de lois claires et cohérentes concernant notamment les obligations vis à vis des autorités d'instruction judiciaire ou des services de sécurité nationale (nécessité d'auto-séquestre des clés par exemple, s'il y a une obligation de preuve de la correspondance entre un message et sa version chiffrée). En matière de fourniture de produits intégrant des mécanismes cryptologiques, la carte à puce constitue souvent une solution élégante et ergonomique. La France pourrait adopter une attitude conquérante dans ce secteur en capitalisant sur l'expérience acquise par les acteurs du domaine.
La libéralisation récente ne modifie toutefois pas la situation en matière d'utilisation de la cryptologie à clé publique pour permettre une confiance accrue lors de consultations ou de transactions sur l'Internet. La mise en place rapide d'autorités de certification sérieuses et efficaces conditionne en partie le déploiement du commerce électronique, de téléprocédures ou de services sectoriels (santé, notaires, justices...). Pour rendre acceptable par l'utilisateur ces mécanismes et pour engendrer la confiance, un soin particulier doit être apporté à l'ergonomie et à la transparence des mécanismes. La mise en place d'autorités de certification gérées par des administrations et des organismes publics semble être aussi de nature à lever certaines réticences à l'utilisation de l'Internet pour la vie administrative.
Pour garantir un niveau de protection correct des réseaux et services Internet français, il conviendrait de mettre en place une structure d'échange et de coordination permettant à tous les acteurs du domaines de se tenir informés des risques et alertes concernant la sécurité et de synchroniser en cas d'incident. Elle pourrait aussi participer à la défense des infrastructures réseaux et services en cas d'attaque organisée. Elle pourrait se synchroniser avec les organismes de sécurité concernés. La France pourrait aussi proposer la mise en place d'une structure équivalente pour protéger les intérêts de l'ensemble des pays européens.
L'enjeu est de tirer parti du capital d'expériences et de compétences acquis au niveau français dans le domaine pour mettre au plus tôt en application les principes exposés par la directive européenne 95/46/CE et dans sa transposition en cours dans le droit français. Les recommandations sont donc :
La recommandation est d'utiliser les technologies de métadonnées pour un étiquetage "positif" de l'information, à des fins de déclaration et de sélection, et non pas de blocage.
Ce principe s'applique bien aux usages dans lesquels il existe une communauté d'utilisateurs (potentiellement grande) partageant les mêmes centres d'intérêts, en particulier les usages où la rentabilité du modèle économique n'est pas le premier moteur. On pense en premier lieu à l'éducation : des systèmes d'étiquetage pourraient être définis et utilisés par les communautés scolaires et enseignantes dans un but pédagogique et constructif.
L'étiquetage déclaratif du contenu pourrait également être un outil utile dans les situations où il s'agit de définir les responsabilités respectives entre un éditeur d'information et l'hébergeur effectif de cette information.
Un marché en plein bouleversement
Bousculant les secteurs de l'informatique traditionnelle des systèmes d'information et des télécommunications "classiques", l'arrivée de l'informatique individuelle (bureautique, jeux...) et d'Internet a fortement accéléré la dynamique industrielle du domaine. De nouveaux acteurs apparaissent tous les jours, souvent de petites entreprises fondées sur une seule idée ou une seule technique mais qui, se basant sur les protocoles simples et standardisés de l'Internet et jouant avec la caisse de résonance que peut constituer le Web, réussissent à lever des capitaux puis à s'imposer techniquement et commercialement, déstabilisant souvent les acteurs plus traditionnels. C'est particulièrement flagrant pour les nouveaux équipementiers comme Cisco et Ascend (routeurs et équipements d'accès), pour des fournisseurs de plates-formes logicielles comme Netscape (navigateur et serveurs) ou RealNetworks (applications de diffusion multimédia) ou pour des fournisseurs de services comme Yahoo! ou Altavista (portails). D'autres acteurs ont su exploiter l'expansion de l'Internet pour améliorer leur position et conquérir de nouveaux marchés (par exemple Microsoft et Sun).
Les équipements constitutifs de l'Internet sont de natures très diverses suivant leur position au sein de l'infrastructure :
Plus qu'une classification par usage ou par domaine d'utilisation (l'un des facteurs de développement de l'Internet étant la banalisation à l'extrême des matériels et logiciels qui sont utilisés aussi bien au sein des foyers que des entreprises), les équipements et logiciels constituant l'ensemble du nuage Internet peuvent grossièrement se classer en deux familles de caractéristiques différentes :
A ces équipements traditionnels de l'Internet s'ajoutent régulièrement des équipements issus d'autres domaines de la communication et de l'information qui, progressivement, tirent parti des nouvelles possibilités offertes par l'Internet : les services et informations disponibles sur l'Internet seront aussi accessibles par les assistants numériques personnels (PDA), les baladeurs musicaux rechargeables (supportant par exemple le standard MP3), les livres électroniques ("e-book"), les téléphones portables (supportant par exemple le protocole WAP), les "pagers", les équipements domotiques, les "set-top-boxes", les ordinateurs enfouis ("pervasive") ou vestimentaires ("wearable").
La séparation engendrée par l'existence du protocole IP permet de faire évoluer de façon indépendante le réseau Internet lui-même (pour le faire grandir, le rendre plus efficace, plus accessible) et l'ensemble des services qui l'utilisent, préservant ainsi les investissements faits de part et d'autre et facilitant le déploiement des nouvelles techniques. Ce modèle est toutefois en passe d'atteindre ses limites car les nouvelles évolutions de l'Internet telles que le passage à IPv6, nécessitent des couplages plus fins entre les mécanismes réseaux et les applications pour améliorer la sécurité et la fiabilité, la qualité de service et les performances. Le déploiement de nouveaux services multimédia nécessite alors à la fois la disponibilité de nouvelles applications mais aussi la présence de nouvelles fonctionnalités dans le réseau et cette contrainte (plus difficile à gérer car nécessitant une concertation entre les différents acteurs) peut ralentir l'introduction des solutions techniques novatrices.
Des opportunités à saisir
Même si le marché des matériels et logiciels liés à l'Internet reste dominé par l'Amérique du Nord, la France possède néanmoins quelques atouts pouvant être exploités dans certains domaines précis.
Une importance croissante du logiciel
Même si l'accroissement des débits et des performances se base sur des avancées matérielles importantes (en transmission optique, sur les modem, sur les architectures de routeurs...), la complexité croissante des fonctions à réaliser, les délais imposés par des marchés tirés par les usages, sans oublier les capacités toujours accrues des processeurs (loi de Moore), font que la part du logiciel dans les produits de l'Internet est croissante :
Malgré un niveau général de formation bien adapté à l'industrie du logiciel, les logiciels français contribuant au développement de l'Internet sont peu nombreux (ne sont pas comptés bien sûr les exemples assez nombreux de logiciels auxquels contribuent des français expatriés !). Sans doute n'existe-t-il en France que peu de ces pépinières de petites entreprises de haute technologie qui associent un environnement local favorable (présence d'universités, concentration géographique des compétences comme la Silicon Valley ou la région de Boston), des canaux d'investissements spécifiques et un foisonnement d'idées et de services directement expérimentés en temps-réel sur l'Internet lui-même. Pour favoriser l'émergence puis le développement de ces entreprises de haute technologie (transfert et valorisation de travaux en amont, développement initial des produits, mise à disposition des logiciels parfois associés à la mise en place d'un service en ligne, transformation en un fournisseur reconnu ou rachat par une entreprise plus importante et mieux implantée), quelques structures existent en France (comité Richelieu pour faciliter l'établissement de partenariats, "start-ups" de l'INRIA, Innovacom...). Il faut aussi signaler une pénurie mondiale de compétences techniques poussées sur les techniques utilisées dans l'Internet (informatique, télécommunications, traitement des données et des signaux) qui conduit à des migrations de compétences vers l'Amérique du Nord.
Mettre l'accent sur les atouts, éliminer les freins
Utiliser dynamiquement dans le contexte du commerce électronique les atouts historiques hérités du deploiement du Télétel (savoir-faire en commerce électronique et en contenus, bases de données en ligne...) et les compétences sur les cartes à mémoire.
Rebondir sur la pénétration de la télématique en France pour tirer les usages de l'Internet dans tous les domaines (entreprises, administration, grand public) en proposant des applications et logiciels adaptés. Encourager les contenus présents sur l'ensemble des réseaux (serveurs vocaux, Télétel, Internet).
Encourager la présence sur le sol américain d'entreprises françaises et en réduire la difficulté de mise en oeuvre (formalités administratives, regroupement et hébergement, accueil par les consulats) et les coûts.
Favoriser l'émergence et le succès des entreprises de haute technologie ("start-up") par la simplification des procédures de création d'entreprise, par la mise en place d'organismes de conseil aidant les candidats créateurs dans le domaine, par la mise en place de mécanismes de rémunération propres à encourager l'embauche de personnes de qualité dans de telles PME ("stock options").
DÉVELOPPEMENT TECHNIQUE DE L'INTERNET |
|
Partie C : Environnement Economique et Politique |
|
|
Des modèles économiques en perpétuelle évolution
L'objet de ce chapitre est de mettre en évidence les liens entre le développement technique de l'Internet et les modèles économiques pratiqués. En aucun cas, ce chapitre ne doit être lu comme une étude détaillée des conditions économiques du déploiement de l'Internet. Il s'agit plutôt de souligner les mécanismes qui peuvent permettre à l'infrastructure d'évoluer ainsi que de comprendre comment les mécanismes de marché sont soutenus par l'émergence de nouvelles solutions technologiques.
A la fois médium de communication, canal de distribution, et plate-forme d'expérimentation en grandeur nature, l'Internet autorise et encourage la créativité dans les applications, les contenus et les usages, mais également dans les modèles économiques associés.
Le modèle publicitaire
Le coût extrêmement faible de publication sur l'Internet, comparé à d'autres média comme la presse, la radio ou la télévision, permet le développement rapide d'un modèle économique basé sur la publicité : selon une étude menée conjointement par l'Internet Advertising Bureau (IAB) et PriceWaterhouseCoopers, les revenus publicitaires sur l'Internet dans le monde ont progressé de 112% pour atteindre 1,92 milliards de dollars en 1998.
Pour tirer profit de ce modèle, il faut drainer un large public sur son site : les moteurs de recherche, les portails et les sites des fournisseurs d'accès Internet sont logiquement devenus les premiers générateurs de revenus publicitaires, du fait de leur audience :
Rang | Domaine | Visiteurs (millions/mois) |
1 | Aol.com | 31,43 |
2 | Yahoo.com | 31,02 |
3 | Msn.com | 21,54 |
4 | Go.com | 21,18 |
5 | Geocities.com | 20,91 |
6 | Netscape.com | 19,93 |
7 | Excite.com | 16,65 |
8 | Microsoft.com | 16,25 |
9 | Lycos.com | 16,10 |
10 | Angelfire.com | 14,17 |
C'est ainsi que l'on voit des sociétés ayant acquis une notoriété suffisante exploiter ce modèle économique, soit en complément, soit en remplacement de leur modèle initial. Un exemple caractéristique est la société Netscape Communications, qui a mis toute une partie de ses logiciels en Open Source (code source libre de droits) et a développé un modèle économique publicitaire sur son NetCenter, ceci ayant d'ailleurs conduit à son rachat par une société de contenus, America On Line (AOL).
En permanence, les sites exploitant le modèle publicitaire fournissent gratuitement (aux visiteurs) des produits et des services sur leurs sites, comme par exemple les courriers électroniques, les agendas électroniques, les messages instantanés, les traductions multilingues, et même la connexion à l'Internet. La créativité est de mise pour attirer de nouveaux visiteurs et vendre de la publicité. Cette tendance contribue à propager le mythe que l'Internet est gratuit, alors qu'il est plutôt propice au développement de nouveaux modèles économiques.
La réaffectation des marges de distribution
Distribuer par Internet permet au cyber-commerçant de supprimer tout ou partie de sa chaîne de distribution et de récupérer pour son propre compte les marges habituellement consenties à ses intermédiaires. Le bénéfice de cette distribution directe est alors multiple :
L'économie réalisée sur les coûts de distribution est significative pour beaucoup de produits. Le tableau suivant publié par l'OCDE en donne quelques exemples :
Billets d'avion | Services bancaires | Paiement de factures | Logiciels informatiques | |
Système traditionnel | 8,00 | 1,08 | 2,22 à 3,32 | 15,00 |
Par Internet | 1,00 | 0,13 | 0,65 à 1,10 | 0,20 à 0,50 |
Economie (%) | 87% | 89% | 71 à 67% | 97 à 99% |
En conséquence, Amazon offre des réductions de 20 à 30% sur les livres et les disques, 50% sur les best-sellers, tout en proposant à ses clients de lire ou d'écrire des commentaires sur les produits achetés, en suggérant des produits sur des thèmes connexes, ou des produits que d'autres clients ont acquis avec le produit acheté, etc. Dell Computer, en offrant de substantielles réductions par rapport au prix de vente des ordinateurs chez les détaillants, et en permettant à ses clients de construire leur configuration personnalisée en ligne, réalise plus de 80 millions de francs de vente par jour sur l'Internet.
La mutation des métiers
Le commerce en ligne bouleverse les structures de distribution traditionnelles et entraîne inévitablement la disparition de certains intermédiaires de distribution. Elle offre en revanche des opportunités pour de nouveaux métiers, par exemple des places de marché électroniques, qui conseillent les consommateurs, les aident à identifier les produits adaptés, les meilleurs prix, etc. Les modèles économiques associés peuvent alors être basés sur de la publicité, sur des abonnements, ou sur des redevances collectées lors des transactions finalisées.
Autre exemple de nouveau métier, celui des autorités de certification électronique, comme VeriSign Inc., dont le but est de sécuriser les transactions commerciales en rassurant le client et le commerçant sur leurs identités respectives, et éventuellement en assurant le risque financier en cas de transaction frauduleuse. Le marché pour de tels acteurs est encore très ouvert. La mise en place des mécanismes est, en effet, dépendante de la disponibilité naissante des standards et des solutions technologiques ainsi que des législations correspondantes, concernant le cryptage des transactions, les conversions de devises, le calcul des taxes, les mécanismes et procédures de recours, etc.
On observe donc des entreprises changer plusieurs fois de modèle économique et parfois de métier pour s'adapter à des règles économiques évoluant avec le développement de l'Internet : par exemple, des deux sociétés pionnières des solutions de commerce électronique, DigiCash et FirstVirtual, la première est en dépôt de bilan et cherche depuis novembre 1998 des partenaires et repreneurs, alors que First Virtual, plus mobile, semble avoir trouvé un second souffle en se reconvertissant dans les systèmes et services de messagerie pour les transactions contractuelles (elle s'appelle aujourd'hui MessageMedia). Autre exemple, un établissement bancaire s'appuyant de façon stratégique sur la relation de proximité avec ses clients se met en danger s'il ne prend pas en compte la mutation du concept de proximité du fait de l'Internet. Le risque est maximal dans l'immobilisme.
La distribution des produits numérisés
Le bouleversement potentiel des structures et des modèles économiques traditionnels de distribution est encore plus important pour les produits numérisables : typiquement journaux, logiciels, musique, photos et films. Plusieurs questions se posent concernant les modèles de rémunération de ces produits.
Tout d'abord, la prolifération sur l'Internet de produits numériques gratuits rend délicate la tarification. Il faut de sérieux critères différenciateurs pour justifier un produit payant. La presse écrite traditionnelle par exemple, a le choix soit de proposer une version électronique gratuite de sa publication, elle doit alors trouver un autre modèle économique pour rentabiliser cette version, soit de proposer une version payante, elle devient alors non-compétitive devant les sources d'information gratuites (rentabilisées par la publicité par exemple). Si le modèle économique publicitaire ne lui convient pas (du fait de son image, ou d'une diffusion très limitée à une cible de spécialistes), il lui faut alors inventer de nouveaux modèles.
Le problème est similaire pour les logiciels informatiques, où de nouveaux modèles initialement à vocation non-économique se sont déjà répandus : logiciels en freeware (code binaire gratuit) ou en Open Source (code source libre de droits). Aujourd'hui, ces modèles sont adoptés en tant que modèles économiques où le logiciel est donné et les à-côtés sont vendus. Par exemple, Red Hat Software met gratuitement le système d'exploitation Open Source Linux à disposition sur son site Internet, tout en vendant une version sur CD-ROM (comprenant de la documentation, des applications, du support à l'installation...), ainsi que du support technique, de la formation et de la certification, etc.
En ce qui concerne la musique, la transformation des modèles économiques risque d'être encore plus radicale : l'apparition de formats et de logiciels de numérisation compressés, comme MP3 ou Windows Media Technologies, permettent de télécharger les oeuvres, de les enregistrer sur disque compact ou sur des enregistreurs-lecteurs adaptés, et même de les redistribuer à l'infini dans leur qualité originale. Comme dans le cas du logiciel, et à terme des photos et des films, toute la chaîne de production et de distribution musicale est menacée, à commencer par les auteurs qui, si les technologies et/ou les législations ne sont pas adaptées, pourraient ne plus percevoir de droits sur la diffusion finale de leur oeuvre. Des organismes comme le RIAA (Recording Industry Association of America) tentent de trouver des parades techniques et légales à ce phénomène, mais il est probable qu'à terme d'autres modèles économiques devront de toute façon être inventés.
De l'investissement public initial au déploiement privé
Au début des années 90, l'intérêt naissant des opérateurs de réseaux privés pour le trafic IP a posé pour la première fois la question de l'interconnexion d'opérateurs privés dans le cadre Internet (Voir le chapitre "Interconnexions" et son annexe ainsi que le rapport NCS pour les définitions et les acteurs). Le refus de la NSF (National Science Foundation) d'assurer le transport d'un trafic de type commercial conduit à l'époque CerfNet, Psi et UUnet/AlterNet à créer leur propre centre d'interconnexion en Californie, le CIX (Commercial Internet eXchange). Le modèle de l'interconnexion dans des centres communs avec accord réciproque de tarification (peering) est institutionnalisé avec la création par la NSF après 1994 de quatre centres d'interconnexion ou NAP (Network Access Point) dont la gestion est confiée à des opérateurs privés (à New York avec Sprint, à Washington avec MFS, à Chicago avec Ameritech et à San Francisco avec Pacific Bell).
Lorsque le développement commercial de l'Internet conduit la NSF à abandonner son rôle d'opérateur au profit de MCI, en 1995, l'organisation de l'Internet se développe suivant un modèle en trois niveaux : des fournisseurs de dorsales (Tier 1) assurent l'interconnexion longue distance au profit d'opérateurs intermédiaires (Tier 2), gérant un réseau régional, eux-mêmes fournissant à des réseaux d'entreprises ou à des opérateurs locaux qui commercialisent (Tier 3) un accès Internet "au détail". Aux Etats-Unis, l'établissement des sites d'interconnexion concrétise cette organisation hiérarchique de la prestation d'accès : des fournisseurs d'accès sont en contact avec l'abonné final, s'interconnectant dans des centres locaux à des prestataires de réseaux régionaux à même d'amener le trafic jusqu'à un NAP sur lequel se trouve un point de présence d'un FAI (Fournisseur d'Accès Internet) "global". En Europe, à la même époque, les opérateurs européens tirent parti de la qualité des moyens disponibles dans les centres américains pour réaliser l'échange de leur trafic aux Etats-Unis, rallongeant ainsi le nombre de routeurs traversés par les paquets effectuant des trajets trans-européens.
De la transparence à l'opacité
A côté de la dorsale MCI, plusieurs autres infrastructures longue distance ont été mises en place par des opérateurs comme UUnet ou Sprint. Ces acteurs ont depuis eu tendance à vouloir entrer en contact avec le client final et ne voient pas d'intérêt à établir des relations contractuelles d'égal à égal avec les prestataires d'accès locaux. Il en a résulté la disparition du modèle hiérarchique initial et le contournement des NAP par les grands FAI qui préfèrent établir des relations commerciales bilatérales. Les centres d'interconnexion qui imposaient une tarification multilatérale entre les opérateurs, comme le CIX, voient de manière corollaire les principaux FAI se retirer. Alors qu'usuellement dans le cadre d'un NAP, un FAI ne devait supporter que les frais de fonctionnement du site et éventuellement payer un droit d'entrée non-récurrent, l'apparition de relations commerciales bilatérales conduit donc maintenant à l'apparition d'une rémunération du FAI local au FAI global.
L'organisation de l'interconnexion pose un problème économique difficile du fait de l'absence de garantie de service inhérente à Internet. En l'absence d'information sur l'état du réseau des opérateurs, il est impossible de s'assurer qu'un opérateur ne limite pas l'accès à ses ressources en se réservant une partie de la bande pour lui-même et en restreignant la ressource mise à disposition par le trafic de tiers sur son réseau. Plus généralement, il semble que les accords d'interconnexion bilatéraux soient entourés de beaucoup de confidentialité, laissant penser que les conditions offertes ne sont pas identiques pour tous. Il existe, d'autre part, le risque de permettre, au travers de son interconnexion, à un opérateur de bénéficier d'une qualité de service accrue du simple fait de son interconnexion à des réseaux permettant des débits importants : l'investissement de tiers profite donc directement à cet opérateur même en l'absence d'investissement de sa part. Ces différents facteurs montrent la difficulté d'obtenir une bonne visibilité sur l'état global de la qualité du réseau, mais en même temps l'importance de cette visibilité pour le bon fonctionnement de l'économie du secteur.
L'apparition de nouveaux acteurs
Aujourd'hui cependant, la fourniture de capacité de communication se développe très rapidement du fait de l'intervention de nouveaux entrants. Des acteurs comme Level 3, Global Crossing ou Qwest investissent massivement sur le déploiement de fibres optiques. Ces sociétés se présentent d'abord comme des fournisseurs de capacité "en gros", sans cependant s'interdire de développer l'aspect opérateur (par le biais de filiales, par exemple). Leur stratégie réside dans l'installation de liaisons surdimensionnées : eux-mêmes déploient des centres d'hébergement d'applicatifs et serveurs (Web, Oracle, SAP, ...) complétés de quelques clients finals majeurs, assurent seuls l'assemblage d'un gros volume de communications, et revendent ensuite le surplus sous forme de fibre noire aux autres opérateurs. Enfin leurs partenariats et investissements stratégiques avec des fournisseurs et exploitants de boucles locales rapides (ADSL, boucle locale radio) visent à éliminer le goulot d'étranglement vers leurs gros tuyaux. L'élément stratégique du développement de ces nouveaux opérateurs est l'accès aux droits de passage, qui leur sont indispensables pour déployer leurs réseaux.
L'apparition de nouveaux métiers
L'augmentation de l'offre en matière de télécommunications tend à promouvoir l'apparition de marchés spots de bande passante. Des entreprises, comme Band-X, RateXchange ou Arbinet, se positionnent sur ce créneau en mettant en place des centres d'interconnexion au sein desquels est réalisée la compensation de l'offre et de la demande en matière de communications de données à longue distance. Parallèlement, apparaissent des centres d'hébergement multi-FAI, déployés dans les centres d'interconnexion ou à proximité de ces derniers. Ces lieux d'hébergement d'équipements techniques (par exemple : telehouse à Londres et Paris) dispensent les FAI de constituer et d'exploiter eux-mêmes les locaux et l'environnement indispensables à leur présence sur chaque pôle économique. Cette tendance renforce le mouvement actuel de constitution de sites de concentration des communications de données en Europe, où s'opère le raccordement des réseaux européens aux artères très haut débit transatlantiques. La présence d'un tel site de concentration est un avantage pour les opérateurs Internet de moyenne taille du pays hôte, qui dispose d'un accès plus facile. Un site de concentration peut aussi attirer l'implantation de sites stratégiques pour des sociétés ayant de gros besoins en communications.
Structuration de l'offre
Alors que, dans les premières années de l'ouverture d'Internet au secteur privé, la croissance du réseau a reposé largement sur l'infrastructure physique développée par les opérateurs de télécommunications traditionnels par l'intermédiaire de la location de capacité, les conditions de l'offre sont aujourd'hui en place pour que les opérateurs se dotent des moyens de communication dédiés au transport Internet en achetant de l'infrastructure auprès de fournisseurs de fibre noire. Un opérateur comme Cable & Wireless, par exemple, a annoncé en novembre 1998 le lancement de la constitution d'un réseau haut débit reliant 18 villes. Ce réseau sera réalisé en achetant de la fibre noire auprès de la société Global Crossing. Le caractère pérenne d'une telle structuration du développement de l'infrastructure reste difficile à prédire. En effet, les sociétés déployant la fibre sont de création récente et constituent des proies tentantes pour les opérateurs de télécommunications traditionnels.
Parallèlement à la constitution d'interconnexion pour la réalisation de communications à grande échelle, la maîtrise de bout en bout du réseau par un même opérateur, si elle ne s'inscrit pas dans les traditions de constitution d'Internet, peut cependant devenir un atout stratégique de l'offre en ce qui concerne la diffusion multimédia, cas encore particulier mais qui pourrait se généraliser avec le développement de l'accès haut débit. EUnet International (filiale de Qwest) a pu ainsi lancer son offre EUnet Multimedia Network Services en s'appuyant sur huit serveurs relais et sur sa capacité à contrôler les communications de bout en bout : il propose d'assurer pour ses clients la diffusion d'événements sous forme de programmes multimédia "en direct".
Les grandes entreprises
La fourniture de télécommunications aux grands comptes va à l'avenir nécessiter la mise en place d'une réelle plus-value de la part d'un opérateur traditionnel. Avec l'extension des services sur IP, il deviendra en effet assez économique pour ces entreprises de constituer leur propre réseau de données et de limiter leur coût à la location d'un raccordement à un fournisseur de capacité. Dans ce contexte, la valeur ajoutée d'une offre se fera au travers de la capacité de l'opérateur à fournir et garantir un certain niveau de qualité au sein de l'infrastructure.
Il est difficile de prédire la manière dont se structurera ce type de solution. Des fournisseurs d'infrastructure globale pourront être amenés à profiter de leur stature pour se rapprocher de l'entreprise et offrir un service bout-en-bout, comme cherche à le faire aujourd'hui Worldcom. Pour les acteurs ne possédant pas ce type de ressources, le rôle des marchés-spot devrait jouer un rôle important pour assurer une offre au meilleur prix.
Le grand public
Du point de vue de l'utilisateur grand public, le prix de l'accès est la combinaison d'un forfait payé au fournisseur d'accès et du prix de la communication téléphonique locale pour accéder au service. Du point de vue de l'offre, les recettes peuvent également inclure les revenus publicitaires ou des rémunérations sur les transactions effectuées depuis le site. L'équilibre entre la part demandée à l'utilisateur final et la part demandée aux partenaires (publicité, commerce électronique) est décisif pour le déploiement de l'Internet dans le grand public. De plus, la formule proposée à l'utilisateur (facturation forfaitaire ou facturation au temps) est également un élément essentiel.
Les deux formules correspondent à des marchés différents et devraient à terme trouver leur place.
Vers les modèles économiques de la convergence
La concurrence entre les services issus du monde de l'audiovisuel et les services issus du monde de l'Internet devrait se développer dès que la différence de qualité d'image se sera estompée.
Les positions dominantes sur les nouveaux services se jouent dès à présent au travers des connexions à haut débit. Les plates-formes de contenus associées à l'accès Internet par le câble ou par ADSL, éventuellement par satellite, préfigurent les offres de contenus du futur Internet. Le positionnement d'une offre sur ces plates-formes constitue donc une étape stratégique pour anticiper l'évolution de la qualité de l'infrastructure.
Des sociétés d'origine américaine comme @Home se positionnent d'ores et déjà comme les FAI et fournisseurs de contenus des abonnés à l'accès Internet par le câble. Elles cherchent à fédérer des plaques pour offrir une communication haut débit de bout-en-bout et mutualiser ainsi des services haut de gamme. Ces derniers sont caractérisés par une utilisation intensive de la vidéo, couplée avec les fonctions offertes par l'interactivité. La mise en place de ces offres permet à ces sociétés d'anticiper sur le développement de futurs niveaux de performance des réseaux et sur la banalisation des accès haut débit.
Les opérateurs du câble américain ont saisi le caractère stratégique de leur position et ont entamé les investissements conséquents de mise à niveau de leur infrastructure. Les besoins en capitaux correspondants sont à l'origine d'un nouveau mouvement de concentration de cette industrie, avec notamment l'intervention remarquée d'ATT qui trouve là le moyen de venir concurrencer les opérateurs locaux sur leur marché. Dans le même temps, de nombreux déploiements de services ADSL ont lieu. Il faut s'attendre, en effet, à ce qu'une fois le choix du support réalisé, l'abonné ne sera que peu enclin à changer de moyen d'accès en raison des opérations techniques nécessaires.
Une prise de conscience récente
En France, 1998 a été l'année de lancement du modèle économique publicitaire : les revenus bruts publicitaires sur Internet sont passés de 29,6 MF en 1997 à 113,8 MF en 1998, soit une progression de 284%, selon l'IAB et PriceWaterhouseCoopers. A noter que le potentiel de progression de ces revenus est encore important, puisqu'ils ne comptent que pour 0,11% des 77 milliards de francs investis en publicité en France en 1998, contre 32% pour la presse écrite par exemple. Comme dans le reste du monde, 63% des revenus publicitaires en 1998 proviennent des sites portails des fournisseurs d'accès et des moteurs de recherche.
L'année 1998 et le début de 1999 ont vu apparaître un certain nombre d'initiatives de commerce électronique, où l'opportunité de ce type de commerce est exploitée par de nouveaux acteurs, ou de petits acteurs existants. C'est seulement au deuxième trimestre 1999 qu'on assiste au réveil de grands groupes, avec des investissements et des projets de déploiement à grande échelle : on peut citer par exemple la prise de participation de Bernard Arnault à hauteur de 150 millions de dollars dans la société de courtage en ligne Datek Online, ou le rachat par la FNAC des sociétés Alibabook et de la Société française du Livre, avec une annonce de fusion dans le site FNAC Direct pour l'automne prochain.
Concernant la distribution en ligne de produits numériques, les initiatives françaises visibles sont très limitées. Récemment, la FNAC a ouvert un "magasin virtuel de musique" où des titres musicaux et vidéo sont proposés en téléchargement payant, le paiement s'effectuant par carte bancaire ou par porte-monnaie électronique. Des logiciels permettant de jouer ces titres, de les remixer et de les graver sur disque compact sont disponibles gratuitement en téléchargement.
Il semble donc qu'une prise de conscience ait eu lieu, généralement sous la pression de la compétition internationale, tant chez de petits acteurs à la recherche d'opportunités que chez un certain nombre de grands groupes français, en particulier dans les secteurs proches de l'informatique et du multimédia. L'incertitude réside encore dans d'autres secteurs comme la banque, les loisirs, l'automobile, etc., quant à la capacité d'adaptation et de mutation des acteurs français.
Londres et Stockholm s'imposent comme "hubs" européens
L'évolution de la capacité de communication entre un pays européen et les Etats-Unis ramenée par tête d'habitant, est une caractéristique d'une part du développement de la maturité du marché national de ce pays, mais aussi de sa capacité à capter la demande en communications transatlantiques de ses voisins. Suivant ce critère, deux pays se détachent nettement : la Grande-Bretagne et la Suède, suivis par l'Allemagne. La France est largement en retard (voir étude OCDE DSTI/ICCP/TISP (99) 4).
La chute brutale des prix observée dans les derniers mois (division par trois des prix environ) des liaisons entre Paris et Londres, en raison de la concurrence sur ce segment, atténue l'impact financier pour les opérateurs français, mais consacre, en même temps, le rôle central de la Grande-Bretagne en tant que passerelle vers les Etats-Unis pour le trafic français.
La possibilité d'une marginalisation de l'infrastructure française est réelle. Malgré la présence en France de trois centres d'interconnexion (deux à Paris opérés par France Télécom et un à Grenoble), les possibilités offertes par l'infrastructure britannique risquent de conduire les opérateurs français à préférer réaliser leur interconnexion à Londres plutôt qu'à Paris.
Une tarification qui ne prend pas assez en compte le développement de l'Internet
Beaucoup d'entreprises françaises sont connectées à des débits insuffisants pour tirer un réel bénéfice de l'usage de l'Internet. Parmi les raisons invoquées, les tarifs des liaisons louées reviennent couramment. Aux Etats-Unis, les entreprises s'équipent au moins avec une ligne T1 (1,5 Mbit/s). La bande passante étant souvent supérieure au besoin réel, des initiatives nouvelles peuvent être prises pour enrichir le service. En France, les liaisons comprises entre 64k et 256k sont encore la règle, la bande passante est donc toujours limitée par des raisons budgétaires et limite ainsi le développement de fonctionnalités nouvelles.
Pour le grand public, après les offres récentes d'"Internet gratuit" qui maintiennent la facturation au temps (puisque l'usager paie la communication téléphonique locale), France Télécom a introduit un forfait (en fait 20 heures par mois en heures creuses) qui est un premier pas vers une vraie incitation à l'usage de l'Internet. Cette initiative est encore trop modeste pour changer réellement les habitudes d'usage. L'idée de "Forfait deuxième ligne" où un particulier peut utiliser une seconde ligne pour accéder à l'Internet devrait être de nouveau débattue.
La dérégulation des télécommunications l'emporte sur le déploiement de l'Internet
Alors que la France avait réalisé des expériences pionnières en matière d'accès Internet par le câble et l'ADSL, le déploiement des offres commerciales a été freiné par des problèmes de mise en oeuvre de la déréglementation. Concernant les réseaux du plan câble, les difficultés rencontrées pour parvenir à une entente commerciale entre le détenteur des infrastructures techniques et les exploitants commerciaux ont conduit à une série de contentieux et ont ainsi repoussé le lancement effectif des services. En matière d'ADSL, le contexte de l'ouverture à la concurrence du marché des télécommunications conduit également à un retard dans le déploiement d'une offre haut débit.
La qualité des infrastructures câble et réseau téléphonique en France représente pourtant un avantage économique important pour le développement des nouvelles solutions techniques d'accès. Ces atouts restent malheureusement aujourd'hui exploités de manière insuffisante.
Permettre la coexistence de modèles économiques différents
Le développement de la boucle locale est un élément décisif du déploiement de l'Internet. Profitant de l'élan donné par la dérégulation, l'animation de la concurrence est essentielle pour un déploiement efficace et adapté à des besoins spécifiques variés. De même, la concurrence sur les réseaux de transport a besoin d'un minimum de transparence pour exercer ses effets. Enfin, les nouveaux services doivent faire preuve de créativité en matière de modèles économiques. Les pouvoirs publics doivent être à l'écoute et encourager les initiatives les plus innovantes.
L'objet de ce chapitre est de mettre en évidence les liens entre le développement technique de l'Internet et l'évolution des réglementations. En aucun cas, ce chapitre ne doit être lu comme une analyse, encore moins comme un projet pour définir l'environnement réglementaire de la société de l'information. Le déploiement de l'Internet a d'ores et déjà sollicité les législations existantes en créant des situations nouvelles et en initialisant ainsi des débats aujourd'hui encore largement ouverts. La construction de l'environnement réglementaire de la société de l'information demandera beaucoup d'efforts complémentaires aux niveaux national et international.
La dérégulation des télécommunications est une condition nécessaire au développement technique de l'Internet
Le développement technique de l'Internet est facilité par la dérégulation des télécommunications qui est désormais largement engagée à travers le monde. Une des raisons majeures du succès d'Internet est sa capacité à exploiter, et donc, à mettre en concurrence les nombreuses technologies de communication disponibles. Par ailleurs, grâce à la modularité de l'architecture de l'Internet, les applications ou services peuvent être développés et mis en place par les fournisseurs sans avoir à se préoccuper des composants de l'infrastructure. Les bénéfices de cette architecture ne peuvent effectivement être opérationnels que dans un environnement ouvert à la concurrence. Plus la dérégulation est effective, plus l'architecture de l'Internet peut être exploitée pour fournir les meilleures réponses aux questions posées (performance de la boucle locale, décentralisation des services d'infrastructure par exemple). Les pays où la dérégulation est la plus avancée, en particulier les Etats-Unis, peuvent ainsi bénéficier pleinement des initiatives nouvelles et tirer le meilleur parti des potentialités de l'Internet.
L'environnement réglementaire du développement technique de l'Internet pose des questions nouvelles
Par ailleurs, le rôle d'infrastructure pour la société de l'information associe le développement de l'Internet à d'autres réglementations relatives à des questions aussi variées que
Sur tous ces sujets, le développement technique de l'Internet doit fournir des réponses appropriées à des questions "classiques" (c'est à dire déjà traitées pour d'autres moyens de communication) dans des conditions "nouvelles" (élargissement du nombre des auteurs, facilité d'accès aux sources d'information).
De manière générale, la construction de l'environnement réglementaire de la convergence est un défi majeur présenté à la communauté internationale. L'Internet a atteint un stade de développement suffisant pour que les interactions entre l'environnement réglementaire et le développement technique constituent désormais un des facteurs décisifs dans la poursuite de la dynamique de déploiement.
L'environnement réglementaire peut ralentir le développement technique de l'Internet
Né dans l'environnement académique, l'Internet a longtemps été un espace ouvert à la collaboration et à l'échange libre d'informations et d'idées. Le développement technique de l'Internet a bénéficié alors d'une dynamique, conduite par l'IETF, originale et surtout très efficace. Le déploiement dans le grand public et dans les entreprises a ensuite été soutenu par la naissance de nouvelles entreprises et la reconversion d'entreprises existantes. Continuant à profiter d'une dynamique renouvelée, l'Internet est devenu, en quelques années, la plateforme technique du développement de la société de l'information. De nombreuses expériences ont mis en évidence que les usages de l'Internet devaient être confrontés aux législations et réglementations en vigueur. L'ampleur du déploiement demande à présent que les débats sur les adaptations nécessaires soient entrepris et les résolutions mises en oeuvre. Le risque de "crainte, incertitude, doute" est devenu désormais important. Quelques exemples illustrent cette tendance :
Ces questions doivent, de plus, recevoir des réponses cohérentes au niveau international. Pour la première fois de son histoire, l'Internet est ainsi confronté à des risques sérieux d'inertie. Sans rechercher l'exhaustivité, quatre sujets permettent d'illustrer les relations, voire les difficultés à faire évoluer de manière cohérente technologies et réglementations.
Donner à l'Internet un environnement de "sécurité" où les fournisseurs et consommateurs d'informations puissent maîtriser les conditions d'accès, est un sujet ouvert depuis longtemps. L'IETF a établi une règle systématique selon laquelle chaque nouvelle spécification doit comporter une section traitant des relations entre la spécification et les questions de sécurité. La variété des législations en vigueur a fait de ce sujet le premier exemple des difficultés à associer un environnement réglementaire et le développement technique d'une nouvelle infrastructure.
L'importance du sujet a ainsi engendré de nombreuses initiatives à travers le monde. Des résultats concrets ont été obtenus. La France, par exemple, a amendé à deux reprises (1996, 1999) la réglementation dans le sens de la libéralisation de l'usage de la cryptologie. Parmi d'autres initiatives, l'Europe a récemment approuvé un cadre commun pour les signatures électroniques.
Il reste que les restrictions de la législation américaine relatives à l'importation et à l'exportation d'outils de cryptologie constituent une barrière importante au déploiement équilibré du commerce électronique dans le monde.
Le déploiement du Web a posé de manière accrue les questions de protection de la vie privée. En l'absence d'accord international, la question est aujourd'hui totalement ouverte. Les négociations récentes montrent des progrès réels mais modestes. Les contradictions entre les positions des fournisseurs de services pour lesquels la connaissance de leurs clients est un atout décisif de positionnement, voire de recettes (publicité) d'une part, et les droits des usagers à protéger leur vie privée d'autre part, ne sont pas traitées de la même façon à travers le monde. L'Europe s'appuie sur une directive désormais transposée dans pratiquement tous les pays de l'union. La France devrait avoir accompli la transposition à la fin de l'année 1999.
Il reste que la lenteur des négociations internationales peut introduire un doute sur le déploiement de services globaux et sur la généralisation (ou non) de modèles économiques reposant sur la publicité.
Développé à l'initiative du ministère de la défense américain et avec le financement du gouvernement fédéral, l'Internet a été longtemps libéré des contraintes de propriété industrielle. Les protocoles développés par l'IETF tels que les protocoles TCP-IP, mais aussi nombre de protocoles complémentaires, ont ainsi été définis de manière ouverte, offrant à chacun la possibilité de concentrer sa créativité sur leur mise en oeuvre logicielle. Le Web, développé au CERN, centre de recherche européen en physique des hautes énergies, a également bénéficié de cette vision selon laquelle les technologies diffusantes ("enabling technologies") doivent être mises à la disposition de la communauté sans restriction de propriété. "TCP-IP et le Web n'appartiennent à personne ou appartiennent à tout le monde." Cette situation a été renforcée jusqu'à présent par le fait que les logiciels étaient soumis aux réglementations relatives à la propriété intellectuelle (droits d'auteur, copyrights) plutôt qu'à celles de la propriété industrielle (brevets).
Depuis quelques années, aux Etats-Unis en particulier, la tendance s'est inversée et la brevetabilité des logiciels a été reconnue. L'Europe s'apprêterait à suivre la même voie. Ce changement a d'ores et déjà une influence sur l'évolution de l'Internet et du Web. Attirées par la perspective d'un positionnement favorable, de nombreuses entreprises déposent massivement des brevets sur des sujets souvent largement traités mais absents du corpus de propriété industrielle. On peut s'attendre à une régulation par la jurisprudence lors des premiers procès où l'antériorité éventuelle de l'innovation sera mise en évidence.
Il reste que la floraison de brevets fait peser désormais une incertitude sur les conditions d'usage des nouvelles fonctionnalités de l'Internet.
L'Internet et le Web ont banalisé la fonction de publication. L'automatisation de la chaîne d'édition-publication-consultation met en jeu des acteurs nouveaux (auteurs, éditeurs de site, hébergeurs, transporteurs, fournisseurs d'accès). Etablir les responsabilités en cas de publication de contenus illicites demande une réflexion (en cours), une adaptation des législations en vigueur et la prise en compte du caractère international de l'infrastructure.
Le développement d'outils de description de contenus (métadonnées) donnera un cadre technologique à ces questions. Le déploiement de ces technologies est, de toute façon, nécessaire pour tirer le meilleur parti des informations disponibles sur le Web. L'émergence du Web sémantique doit permettre d'exploiter les moyens informatiques pour aider l'utilisateur à
L'usage de ces technologies pour permettre de traiter la question des responsabilités est encore à construire.
Il reste que la crainte d'être tenu pour responsable de comportements illicites pour lesquels le contrôle n'est pas praticable est un frein important au développement de l'Internet.
La France peut prendre une position originale en Europe et dans le Monde
La rencontre de l'Internet et des réglementations fait appel à des acteurs et à des expertises nouveaux. Le handicap accumulé par la France, au fil des ans, dans le domaine technique est moins significatif. De plus, l'expérience issue de l'usage des services télématiques peut être mise à contribution pour prendre une position originale. Enfin, la dérégulation des télécommunications est suffisamment récente en Europe pour que la mise en oeuvre au niveau national soit adaptée pour tenir compte de l'émergence de l'Internet.
A travers le monde, le développement de la boucle locale constitue le principal problème posé aux développeurs de l'infrastructure. Ce développement est un difficile problème technique et économique. Cependant, la faisabilité des solutions est largement dépendante des aspects réglementaires de la dérégulation. Les possibilités techniques sont nombreuses :
La disponibilité de chaque solution est directement influencée par l'environnement réglementaire qui permet de déterminer les responsabilités et champs d'activité de chacun des acteurs, privés et publics. En France, les expériences vécues durant les deux dernières années ont favorisé la prise de conscience. Il reste à fixer des objectifs quantitatifs et engager les mises en oeuvre. L'Autorité de Régulation des Télécommunications (ART) a un rôle décisif à jouer sur ce sujet.
La récente décision de libéralisation de la cryptologie a fait passer la France au rang des acteurs "réels" du développement technique de l'Internet.
L'ensemble du dispositif réglementaire permettant de favoriser les échanges électroniques et d'améliorer la confiance de tous les acteurs (voir à ce sujet le rapport du Conseil d'Etat "Internet et les réseaux numériques") doit être cohérent et s'inscrire dans une perspective à long terme. Les décrets techniques de 1999 ont fixé les seuils de taille de clés pour l'utilisation de mécanismes de cryptologie. Il convient désormais de définir le statut des certificats et signatures faits en utilisant ces mécanismes. De plus, les obligations en matière de preuve et de recouvrements des clés (pour les émetteurs ou destinataires de messages chiffrés par exemple) doivent être explicités. Les répercussions techniques (notarisation, séquestre des clés...) des obligations légales peuvent avoir une influence importante sur la disponibilité des outils et services et leur usage effectif.
L'expérience bâtie au sein de la Commission Nationale Informatique et Libertés (CNIL) doit être exploitée pour construire une pratique concrète de la protection de la vie privée sur Internet. Pour avoir un réel impact sur la discussion en cours au niveau international, le développement d'expérimentations est essentiel.
La relation entre la propriété industrielle et le développement technique de l'Internet a changé de nature lors de l'année écoulée avec l'apparition de brevets pour les logiciels. La France et l'Europe sont aujourd'hui sur le point de faire évoluer leur position. L'occasion est bonne pour entamer une réflexion d'envergure sur ce thème et faire des propositions constructives pour sortir l'Internet de l'impasse dans laquelle il est sur le point de s'engager.
Les tentatives de protection contre les contenus et comportements illicites ont jusqu'à présent été limitées dans leur déploiement. La disponibilité de technologies plus puissantes telles que les métadonnées (Resource Description Framework développé par le W3C) ouvre de nouvelles opportunités. L'association de l'expérience acquise grâce aux services télématiques (minitel) et des fonctionnalités récentes de l'Internet (RDF) peut donner à la France l'occasion d'une percée originale et de portée universelle.
Reconnaître l'Internet comme la plateforme de la convergence entre l'informatique, les télécommunications et l'audiovisuel
La France peut jouer un rôle important dans l'évolution de l'environnement réglementaire de l'Internet au niveau mondial. Pour qu'elle soit reconnue dans ce rôle, l'approche pragmatique de l'Internet doit être adoptée. Donner la priorité aux expérimentations doit permettre de soutenir les positions européennes (sur la protection de la vie privée, par exemple) en s'appuyant sur des résultats concrets. De manière à bâtir une réglementation réaliste (dans ses dimensions techniques, économiques et sociales), il est important de faire participer les acteurs et d'encourager le dialogue. La médiation doit être préférée à la régulation.
Dans les cinq années qui viennent, en attendant que l'environnement réglementaire de l'Internet soit stabilisé au niveau mondial, mettre le développement technique en première priorité peut demander la mise en place de moratoires dans l'exercice des législations existantes.
La confiance ne sera généralisée, à terme, que par la stabilisation de l'environnement réglementaire. Chaque mesure transitoire doit être expliquée et présentée dans la perspective de la construction de l'environnement législatif de la convergence.
DÉVELOPPEMENT TECHNIQUE DE L'INTERNET |
|
Glossaire des Acronymes |
|
|
DÉVELOPPEMENT TECHNIQUE DE L'INTERNET |
|
Annexes |
|
|
Selon Viatel - http://www2.viatel.com/lazard/
Le coefficient 1 correspond au tarif le plus bas (Danemark - Allemagne,
Pays-Bas - Etats-Unis)
d'après http://www.tarifica.com/other/manalysis.html
du peering au transit, des lignes spécialisées à tous supports, tous débits.
(Source : table 2-1 de http://www.ncs.gov/n5_hp/Information_Assurance/PSN-A97.htm)
Dates marquantes de l'histoire d'Internet aux USA
les débuts du peering
Jusqu'en 1986, les réseaux basés sur IP (essentiellement ARPAnet et aussi NASA, ESnet et MILnet) étaient financés par les agences gouvernementales des Etats-Unis et strictement réservés aux acteurs de la recherche financés par ces agences. Ces réseaux étaient laborieusement interconnectés selon un modèle technique non hiérarchique dépassé (EGP) et selon des règles de réciprocité élaborées par ces agences au sein du Federal Network Council(FNC).
Tout change à partir de 1986 avec la création de NSFnet, réseau pour la recherche et l'accès aux super-calculateurs de la NSF, d'abord à 56 kbit/s puis à 1,5 Mbit/s. ARPAnet, qui était initialement un outil de recherche puis avait été transformé en réseau opérationnel de la recherche sous la pression des utilisateurs et de leurs nouvelles applications (transfert de fichier, accès à distance, et surtout courrier électronique) disparaît ; NSFnet le remplace.
(Source : table 2-4 de http://www.ncs.gov/n5_hp/html/int-2his.html)
Le backbone NSFnet à 1,5 Mbit/s en 1988
peering limité par les règles d'utilisations
La National Science Foundation (NSF, agence fédérale chargée de financer la recherche) finance directement l'ossature (le NSFnet backbone) entre les centres hébergeant les super-calculateurs et laisse aux initiatives régionales le soin de financer une quinzaine de réseaux régionaux desservant les centres de recherche et raccordés à l'ossature. Le coût total est évalué - en 1990 - à 100 millions de dollars dont 5 millions de dollars directement pour l'ossature.
NSFnet devient le point focal des réseaux aux Etats-Unis puis en Europe.
L'année 1988 est aussi marquée par l'apparition du service IP dans des réseaux ouverts au secteur privé, à l'enseignement supérieur ou hors des Etats-Unis tels que :
Les premières interconnexions IP sont tolérées par les agences et soutenues activement par la NSF qui les intègre dans son routage, les organismes bénéficiaires étant approuvés au cas par cas. L'interconnexion se fait sur la base de "réciprocité" (à coût nul, peering). Il aurait été techniquement et organisationnellement impensable qu'il en fût autrement.
Le mouvement s'amplifie aux Etats-Unis conformément à la politique de "commercialisation, privatisation and internationalisation" de la NSF énoncée au tout début des années 1990. UUnet acquiert le statut de "regional network". Au même moment, en Europe, les premiers acteurs (NORDUnet, EUnet, SWITCH, CERN et INRIA, rejoints par EASYnet et plus timidement par les réseaux R&D à financements publics) s'organisent en "club" pour traiter la coordination indispensable à IP (RIPE, Réseaux IP Européens, dont le bras opérationnel RIPE-NCC verra le jour en 1994). C'est au niveau de RIPE que se discutent et s'élaborent les premières interconnexions, les premiers partages d'infrastructure :
C'est aussi au niveau de RIPE qu'est abordée l'ouverture vers les pays d'Europe centrale et les relations avec NSFnet (et donc par extension avec les réseaux d'Amérique du Nord) et la création d'une ossature européenne pour les réseaux de la R&D (Ebone, en 1992, financé en partie par Bruxelles).
Les interconnexions restent à coût nul mais les "Acceptable Usage Policy" (AUP) imposent des restrictions censées préserver l'utilisation des fonds publics ou même la sécurité des Etats-Unis. Ces restrictions créent des problèmes insurmontables techniquement sauf à déployer de bout en bout une double infrastructure "publique" et "privée".
Le bénéfice de l'interconnexion (c'est à dire de l'accès aux Etats-Unis) est timidement étendu aux pays de l'ex-Europe de l'Est.
Aux Etats-Unis, les réseaux IP commerciaux, dont plusieurs sont issus (privatisation) des réseaux régionaux de NSFnet (PSInet, NYSERnet), deviennent progressivement les acteurs principaux d'un Internet ouvert aux activités commerciales (commercialisation). Sous l'impulsion de UUnet, ils mettent en oeuvre - toujours sur la base de la réciprocité - une organisation d'interconnexion à but non lucratif : le Commercial Internet eXchange (CIX).
(source : table 3-1 de http://www.ncs.gov/n5_hp/Information_Assurance/PSN-A97.htm)
Les principaux GIX aux Etats-Unis en 1997
NSFnet prépare sa disparition (privatisation) en contribuant financièrement à la mise en oeuvre de quatre lieux d'interconnexion, les "Network Access Point" (NAP). Ces NAP doivent maintenir la connectivité entre les réseaux commerciaux et les réseaux de la communauté R&D toujours soumis aux AUP. Ils sont également ouverts aux fournisseurs de conduit (revendeurs de capacité IP des FAI nationaux, voir plus bas). L'organisation et l'exploitation des NAP sont confiées à des sociétés commerciales :
Enfin, la NSF finance le développement et le déploiement (par Merit) de route server simplifiant les échanges de route entre les acteurs à partir d'informations administratives préalablement collectées dans la Routing Arbiter Data Base (RADB). NSF finance aussi la constitution de cette base et ses outils d'entretien.
Les points d'interconnexion prennent les noms de Global Internet eXchange (GIX, surtout en Europe), Internet eXchange Point (IXP), Metropolitan eXchange Point (MXP) et Network Access Point (NAP, issus de NSFnet).
Les premiers GIX apparaissent en Europe (Londres, Stockholm, Paris).
l'interconnexion, un enjeu commercial, voire monopoliste
Le problème de l'équité de la réciprocité, qui se pose avec plus d'acuité aux Etats-Unis qu'en Europe, est à l'origine de solutions plus ou moins draconiennes qu'on a pu éviter ou qui n'ont pas encore cours en Europe. L'interconnexion devient au mieux un enjeu commercial, au pire une opportunité pour des pratiques anti-concurrentielles.
Aux Etats-Unis :
Cette dernière pratique est très contestée à cause de l'absence de transparence qui l'entoure. Les règles permettant de devenir pair sont obscures et surtout variables dans le temps, elles semblent surtout destinées à interdire l'arrivée de nouveaux acteurs au niveau 1.
En Europe :
Les acteurs de dimension européenne échangent entre eux leur trafic sur une base de réciprocité (peering), échange qui se fait au niveau d'un GIX ou par une infrastructure privée.
et accentuent le retard entre les Etats-Unis et l'Europe
A partir de 1996, aux Etats-Unis, les opérateurs historiques ou émergents - dont le champ d'activité (local ou longue distance) est précisément délimité par la FCC, interviennent massivement dans l'Internet :
Les regroupements augmentent ou complètent l'infrastructure des FAI :
Le métier du FAI, jusqu'ici principalement concerné par le routage sur des lignes spécialisées à débits moyens et la concentration d'accès par le réseau téléphonique, en est profondément affecté :
En Europe, la complexification évoquée précédemment n'a pas encore touché les FAI.
Mise à jour : juin 1999