Rapport de Mission

Développement Technique de l'Internet

Mission confiée par Christian Pierret, Secrétaire d'Etat à l'Industrie

à Jean-François Abramatic

dans le cadre du programme d'action gouvernemental pour la société de l'information.


Site Web : http://mission-dti.inria.fr
© 1999 - Mission Développement Technique de l'Internet

 

Mission " Développement technique de l'internet "
Lettre de mission à M. Jean-François ABRAMATIC
Ministère de l'Economie, des Finances et de l'Industrie
Le Secrétaire d'Etat à l'Industrie
Paris, le 18 mars 1998

Monsieur le Directeur,

Le gouvernement a décidé de faire de l'entrée de la France dans la société de l'information l'une des priorités à son action. Le développement de la société de l'information constitue en effet une opportunité majeure pour créer de nouveaux emplois, ouvrir de nouveaux marchés et renforcer la compétitivité de notre économie. A cet égard, le Ministre de l'Economie, des Finances et de l'lndustrie a confié une mission sur le commerce électronique à M. Francis LORENTZ qui a remis son rapport en janvier dernier. Le développement des technologies de l'information et de la communication et des nouveaux réseaux d'information offrent des perspectives prometteuses en matière de formation, d'éducation, mais aussi dans les domaines culturels et sociaux. C'est pourquoi le gouvernement souhaite faciliter l'essor d'Internet en France, en s'assurant que les infrastructures nationales seront capables de faire face et d'anticiper la demande grandissante de services de télécommunications Internet dans l'avenir.

Compte tenu de l'expérience que vous avez acquise, à la fois comme directeur du développement et des relations industrielles de l'Institut national de recherche en informatique et en automatique (INRIA) et comme président du " World wide web consortium " , le gouvernement a décidé, dans le cadre du programme d'action pour la société de l'information, de vous confier une mission d'étude sur l'infrastructure Internet en France. Le programme d'action gouvernemental pour la société de l'information a défini un ensemble de priorités à l'action des pouvoirs publics en ce domaine.

Il importe que ces priorités et les mesures identifiées dans le programme s'appuient sur les technologies les plus avancées et une infrastructure adaptée. Je souhaiterais que vous procédiez à une évaluation approfondie de l'état des infrastructures sur lesquelles reposent le développement d'Internet : situation de la boucle locale, des réseaux de transport de données et de nos interconnexions avec les réseaux internationaux, évolution du débit et risques de saturation des réseaux, perspectives ouvertes par l'émergence d'infrastructures alternatives et d'usages alternatifs des infrastructures existantes.

Par ailleurs, le développement des contenus doit utiliser les langages et outils les plus modernes pour garantir la meilleure accessibilité et permettre l'exploitation la plus efficace. Je souhaiterais que vous dressiez les perspectives ouvertes par l'émergence des nouveaux standards en matière de représentation d'information et de connaissance. L'une des caractéristiques d'Internet tient à la large diffusion de logiciels libres d'emploi, qui constitue l'une des clés de sa croissance exponentielle et favorise des coopérations nouvelles entre les utilisateurs, scientifiques ou non. Je souhaiterais que vos recommandations tiennent compte de cette dimension particulière d'Internet.

En vous appuyant notamment sur les services du Ministère de l'Economie, des Finances et de l'Industrie et en particulier la Direction Générale des Stratégies Industrielles et la Direction des Postes et Télécommunications, vous veillerez à consulter tous les acteurs économiques compétents, opérateurs de télécommunications et industriels, mais également l'Autorité de Régulation des Télécommunications et les représentants des associations d'utilisateur d'Internet.

Je souhaite que vous me remettiez vos premières conclusions au mois de juin 1998. Je vous prie d'agréer, Monsieur le Directeur, l'expression de ma considération distinguée.

Christian PIERRET

 

Avant-Propos

La mission « Développement Technique de l'Internet » a été lancée au printemps 1998.

Après avoir brièvement entamé ses travaux, la mission a été suspendue jusqu'au début 1999 pour des raisons à la fois personnelles et professionnelles.

Avec l'accord du Secrétariat d'Etat à l'Industrie, les travaux ont repris en janvier 1999 avec une nouvelle équipe.

De manière à permettre un débat ouvert, l'équipe a prêté une attention particulière à l'architecture du site Web à partir duquel le rapport est engendré "automatiquement".

L'équipe espère ainsi encourager et faciliter les échanges dès l'ouverture du site.

Jean-François Abramatic.

L'équipe de la mission

Rédaction

  • Jean-François Abramatic, W3C, INRIA
  • Yves Devillers, INRIA
  • Pierre Fiorini, Secrétariat d'État à l'Industrie
  • Yves Peynaud, INRIA
  • Valère Robin, France Telecom CNET

Publication

  • Catherine Chat, INRIA
  • Josiane Roberts, W3C, INRIA

Réalisation

  • Département "Logistique éditoriale", INRIA

TABLE DES MATIÈRES

Synthèse 1
Rapport  
  Partie A : Moteurs du Développement Technique de l'Internet  
  Applications et Usages 15
Technologies et Standards 29
  Partie B : Composants Techniques de l'Internet  
  Réseaux de Transport 41
Boucle Locale 57
Interconnexions 71
Services d'Infrastructure 77
Équipements 91
  Partie C : Environnement Economique et Politique  
  Modèles Economiques 95
Réglementations 107
Glossaire des Acronymes 113
Annexes 123

 

DÉVELOPPEMENT TECHNIQUE DE L'INTERNET

Synthèse

 

Le rapport a pour objet, à la fois de proposer les grandes lignes d'un état des lieux du développement technique de l'Internet dans le monde et en France, et de suggérer un premier ensemble de recommandations pour accélérer ce développement sur le territoire national. Il est écrit avec l'objectif d'alimenter un débat. Il ne prétend, en aucune manière, donner les solutions mais plutôt suggérer des voies de travail.

La mission "Développement Technique de l'Internet" fait partie du Programme d'Action Gouvernemental pour la Société de l'Information (PAGSI). Le rapport met donc l'accent sur les aspects techniques alors que d'autres rapports ont traité les aspects usages (commerce électronique, par exemple) ou réglementaires. Il doit être lu comme un élément du débat fondamental relatif au positionnement de la France dans le développement de la société de l'information.

Organisation du rapport

Le rapport comporte trois parties :

Structure du
rapport

La première partie identifie les moteurs qui entraînent le développement technique de l'Internet. La variété des applications et des usages que l'Internet peut accueillir est le moteur principal comme en témoigne le rôle joué par les applications les plus connues, le courrier électronique et le World Wide Web dans la diffusion de l'Internet. L'évolution et la standardisation des technologies de l'information (matérielles et logicielles) est le second moteur puisqu'elle rend efficientes des applications par le seul progrès des caractéristiques techniques des composants (fibre optique, processeurs et mémoires, boîte à outils logiciels, ...).

La seconde partie décrit les composants techniques de l'Internet. Les cinq chapitres couvrent les réseaux de transport, la boucle locale, les interconnexions, les services d'infrastructure, les équipements.

La troisième partie met l'accent sur l'environnement économique et politique. La recherche des modèles économiques appropriés, le rôle joué par les réglementations sont évoqués dans leurs relations avec le développement technique de l'Internet.

La synthèse et les chapitres sont composés d'une présentation du contexte international, d'une appréciation de la situation en France et d'un ensemble de recommandations.

Contexte international

L'Internet est la plateforme de la convergence entre l'informatique, les télécommunications et l'audiovisuel

L'Internet est un moyen de communication (stockage et/ou transmission d'informations) au même titre que l'écriture, l'imprimerie, la radio et la télévision, le téléphone et le fax. C'est le premier moyen de communication qui ait été conçu dans l'ère numérique. C'est le premier moyen de communication qui associe télécommunications et informatique dès sa conception. Le terme de "convergence" est souvent associé à l'émergence de l'ère du numérique. Cette convergence est relative à trois composantes : les télécommunications, l'informatique et l'audiovisuel. Si l'Internet cherche à intégrer les signaux audiovisuels, ces signaux, dépendant du temps, n'ont pas été pris en compte lors de la conception de l'Internet. Toutefois, les progrès technologiques en matière de support de communications (fibre optique), de composants (processeurs, mémoires), de bibliothèques logicielles (système d'exploitation, protocoles) permettent d'affirmer désormais que la convergence aura lieu sur une infrastructure Internet.

Un moyen de communication en constante évolution

Bien que conçu il y a plus de vingt-cinq ans, l'Internet est encore en pleine évolution. Cette évolution est sans doute appelée à durer. En effet, les choix de conception de l'Internet ont repoussé l'intelligence aux extrémités du réseau (c'est à dire dans les ordinateurs qui servent d'interfaces avec les utilisateurs ou ceux qui stockent et délivrent l'information). Cette caractéristique permet à l'Internet de tirer parti "en temps réel" des progrès des matériels et logiciels informatiques. C'est cette capacité à évoluer qui permet d'envisager d'exploiter l'Internet pour des usages qui n'avaient pas été pris en compte lors de sa conception.

Un moyen de communication piloté par les applications

Evoquer le développement technique de l'Internet exige donc d'utiliser une approche dynamique où chacun doit être prêt à modifier en permanence les éléments constitutifs de son réseau. En particulier, l'équilibre entre l'offre et la demande penche du côté de la demande puisque de nouvelles applications peuvent être développées "aux extrémités" et exiger l'adaptation de l'infrastructure. Le développement du World Wide Web (ou Web) est l'exemple le plus récent et le plus spectaculaire de ce phénomène. Les applications du Web dans le domaine du commerce électronique ne faisaient pas partie des objectifs initiaux de son développement (plutôt dirigé vers le travail coopératif). Ce sont pourtant les perspectives en matière de commerce électronique qui motivent (en majorité) aujourd'hui les investissements financiers exceptionnels consentis pour développer produits et services.

Un moyen de communication qui associe développement et déploiement

Enfin, l'Internet fournit lui-même l'infrastructure pour le déploiement de nouvelles applications logicielles (eg logiciels libres ou versions prototypes des éditeurs de logiciels). Les mécanismes de diffusion de nouvelles applications ont, en effet, été mis en place depuis l'origine de l'Internet et font désormais partie de la culture du "net". Ce rapprochement entre développement et déploiement raccourcit la boucle qui lie idées, prototypes, produits et services. Depuis les protocoles de base jusqu'aux applications, le paradigme du Développement Technique de l'Internet (que les pionniers ont décrit par la devise : "rough consensus and running code") favorise l'innovation par rapport à la préservation des positions acquises.

Moteurs du Développement Technique de l'Internet

Applications et Usages

La croissance de l'Internet est provoquée par les applications. Si le courrier électronique est la plus ancienne application, sa charge sur l'infrastructure est restée modeste jusqu'à ce jour, étant donné le type (principalement du texte) des données échangées. Le Web a facilité l'accès à des images et, surtout, accéléré la navigation d'un service d'information à un autre. Les débits engendrés par l'usage du Web ont donc rapidement représenté la part la plus importante du trafic de l'Internet (aujourd'hui, un peu plus de 60%). Le déploiement futur d'applications impliquant le transfert de données audiovisuelles (téléphone, vidéoconférence, télévision) engendrera de nouveaux types de trafic et provoquera des demandes nouvelles sur l'infrastructure (bande passante mais aussi qualité de service temps-réel). Dans un autre domaine, on peut imaginer qu'une fois déployés les services d'infrastructure, le commerce électronique demandera de fournir aux utilisateurs une qualité de service largement supérieure à celle qui est disponible actuellement.

Comme toute technologie, l'Internet peut être utilisé pour le meilleur, le pire, le moyen ou le médiocre. Les applications disponibles déterminent les usages et, par conséquent, les modèles culturels associés. A titre d'illustration, le Web a été développé comme outil de travail coopératif par Tim Berners-Lee, au CERN, pour aider les physiciens des hautes énergies à collaborer à travers l'Europe. Les premières versions de logiciels permettaient à l'utilisateur de publier aussi bien que de naviguer, donnant aux fonctions de création (écriture) et d'apprentissage (lecture) le même poids. Le succès de Mosaic, le premier navigateur multiplateformes développé au NCSA (National Center for Supercomputing Applications), a rendu dissymétriques lecture et écriture, la fonction navigation étant seule supportée. Plus récemment, une évolution connue sous le nom de technologie "push" a voulu imposer un modèle de diffusion où l'utilisateur s'abonne et reçoit sans effort les informations sélectionnées par le fournisseur de service. Ce rapide historique montre comment la disponibilité d'outils logiciels peut conduire à des usages bien différents et ouvrir ou fermer des opportunités essentielles. Par exemple, on n'enseigne pas les mêmes choses aux élèves si les outils mis à leur disposition permettent de créer des services ou s'ils permettent seulement de parcourir des services créés par d'autres. En fonction du choix éducatif choisi, l'infrastructure technique nécessaire ne sera pas la même.

Technologies et Standards

Le développement de nouvelles fonctionnalités de l'Internet est assuré par des organisations construites à cet effet. Les plus connues sont l'IETF (Internet Engineering Task Force) et le W3C (World Wide Web Consortium). Ces organisations associent laboratoires de recherche, industriels, fournisseurs de services, utilisateurs, pour conduire l'évolution de l'Internet et de son application aujourd'hui majeure, le Web. Dans tous les cas, les nouvelles fonctionnalités sont mises au point "directement" sur l'Internet. Les premières versions de logiciels mettant en oeuvre les innovations sont déployées librement. Les exemples les plus célèbres sont le Web initial (issu du CERN à Genève), Mosaic, Apache, le serveur Web le plus employé encore à ce jour, malgré la présence d'offres commerciales multiples et prestigieuses. L'usage de logiciels libres préside ainsi à la mise au point puis au déploiement des nouvelles caractéristiques et nouvelles applications sur l'Internet. Etre un acteur du développement de l'Internet exige de participer aux travaux de cette communauté qui construit collectivement l'Internet de demain.

Enfin, la faisabilité de ces nouvelles applications, le réalisme de ces nouveaux usages, l'efficacité de ces nouveaux protocoles et formats sont largement dépendants de l'évolution des performances et fonctionnalités des composants matériels et logiciels des équipements d'informatique et de télécommunications. L'Internet a été conçu pour pouvoir tirer parti des progrès accomplis dans chacun de ces domaines. Par exemple, les développements techniques qui permettent d'utiliser, en 1999, les objets mobiles (téléphones cellulaires, assistants personnels) ou les télévisions comme terminaux d'accès à l'Internet sont rendus possibles par l'intégration et la baisse des coûts de revient des composants de base de ces matériels. De même, les progrès accomplis dans les technologies de télécommunication permettent d'envisager le déploiement d'infrastructures offrant des bandes passantes supérieures de plusieurs ordres de grandeur à celles qui sont disponibles aujourd'hui.

Composants techniques de l'Internet

Réseaux de transport

L'Internet utilise ou peut utiliser tous les réseaux de télécommunications existants ou à venir. Pour suivre le slogan "IP over everything", Internet bénéficie de tous les progrès technologiques en matière de télécommunications. On a vu ainsi, au fil du temps, apparaître Internet sur le réseau téléphonique (fixe et mobile), l'infrastructure télévision, la fibre optique, les communications satellites, etc. Les infrastructures réseaux sont en général fournies par les opérateurs de télécommunications, leur développement est stimulé par les mesures de dérégulation mises en place à travers le monde. Ces couches basses ne posent pas, à moyen terme, de problèmes majeurs dans les pays industrialisés où l'existant et ce que l'on peut attendre de la concurrence devraient fournir les bases nécessaires au développement technique de l'Internet. A court terme, des différences notables apparaissent cependant, d'un pays à l'autre, en matière de modèle économique, de maturité de la compétition et de réglementation.

Boucle locale

De nombreuses solutions techniques sont en train d'émerger, permettant de choisir la solution appropriée aux problèmes très variés posés par le déploiement local de l'Internet (métropoles, zones industrielles, ..., habitat dispersé) :

  • Réseau téléphonique : aucun investissement d'infrastructure nécessaire, nécessite seulement l'équipement du terminal d'accès (en pratique, modem sur PC),
  • xDSL : utilise l'infrastructure filaire du réseau téléphonique, nécessite des équipements spécifiques chez l'opérateur et chez l'usager,
  • Câble : utilise l'infrastructure du réseau installé pour la télévision, nécessite l'équipement du terminal d'accès,
  • Boucle radio : dispense d'une infrastructure filaire, sensible à la géographie, nécessite l'équipement du terminal,
  • Boucle GSM : utilise l'infrastructure de téléphonie mobile, nécessite l'évolution du logiciel des téléphones cellulaires,
  • Satellites : nécessite le développement d'une infrastructure lourde, fournit une large couverture, nécessite l'équipement du terminal.

L'influence de réglementations conçues avant l'Internet est aujourd'hui particulièrement forte. Les progrès en qualité de service que l'on pourrait attendre des développements techniques sont souvent ralentis par des réglementations peu favorables aux initiatives nouvelles.

Interconnexions

Réseau de réseaux, l'infrastructure de l'Internet se construit grâce aux interconnexions entre les réseaux élémentaires mis en place par les fournisseurs de services ou les grandes organisations disposant de leur propre infrastructure. La topologie de l'Internet, en perpétuelle évolution, est la caractéristique essentielle qui détermine le service rendu, sa qualité, sa performance. Si les questions techniques soulevées par ces interconnexions font l'objet de travaux significatifs pour améliorer les performances, les principaux problèmes à ce niveau tiennent aux modèles économiques pratiqués. Les concepts de "peering" (échange de trafic sans compensation financière) et de "transit" (échange de trafic avec compensation financière) aboutissent à une situation où les fournisseurs de services disposant du plus grand nombre de serveurs "intéressants" sont en situation d'imposer leur "loi économique". Ceci aboutit actuellement à un profond déséquilibre entre les Etats-Unis (où l'on trouve, par exemple, 80% des sites Web) et le reste du monde. Par ailleurs, au fur et à mesure que la capillarité de l'infrastructure technique de l'Internet se densifie, le besoin de développement d'interconnexions locales augmente pour tirer le meilleur parti de la bande passante disponible.

Services d'infrastructure

Bâti sur une infrastructure matérielle, l'Internet est cependant fondamentalement une infrastructure logicielle. En particulier, la plupart des fonctionnalités nouvelles (qui constituent donc des opportunités pour de nouveaux acteurs) peuvent très souvent être fournies grâce à une offre logicielle. Les services indispensables au déploiement réel, c'est à dire à la construction de la société de l'information, sont :

  • Connexion et hébergement
  • Adressage et nommage
  • Annuaires
  • Sécurité
  • Protection de la vie privée et des données personnelles
  • Etiquetage du contenu

Ces services se développent de manière distribuée, indépendamment les uns des autres. Ils contribuent tous, cependant, à augmenter la confiance que l'utilisateur peut avoir envers l'infrastructure Internet.

Equipements

Le déploiement de l'Internet a été à l'origine du développement d'une offre variée de produits. Un marché largement dominé par l'industrie américaine s'est ainsi créé. La valeur ajoutée se trouvant souvent entre le réseau et l'usager final, cette industrie a pris une importance considérable malgré sa jeunesse grâce à son déploiement dans le grand public. Les opportunités existent cependant d'apporter de nouvelles solutions ou fonctionnalités au gré du déploiement de nouvelles applications.

Environnement économique et politique de l'Internet

L'histoire des technologies et de leur impact sur la société a permis de développer un modèle séquentiel où l'idée naît et murit dans un laboratoire, où le transfert de technologie permet à un entrepreneur de développer un produit ou un service, où l'adoption par le marché fait l'objet, enfin, du déploiement commercial. Dans le cas de l'Internet, idée, recherche, prototypage, produits, services, applications et usages s'entremêlent, accélérant la mise au point des produits et leur adoption par les utilisateurs. Cette caractéristique a, bien évidemment, des conséquences essentielles sur le développement technique de l'Internet.

Modèles économiques

Le fait que l'évolution de l'Internet "n'appartient à personne" ou "appartient à tout le monde" pose des questions de type nouveau à ceux qui cherchent à développer une nouvelle activité économique. On a souvent répandu l'idée fausse que l'Internet était gratuit. La vérité est que les modèles économiques font, eux-mêmes, l'objet d'innovations et l'on voit des sociétés majeures changer de modèle économique à plusieurs reprises en quelques années. Sous un autre angle, les relations entre fournisseurs de services en termes d'interconnexion font l'objet de négociations où la créativité est de mise. Enfin, la mise en place des services d'infrastructure (annuaires, nommage, sécurité, protection du consommateur, ...) n'a pas encore trouvé de modèle économique suffisamment convaincant pour permettre le déploiement massif. Ce sont donc non seulement des produits et services qu'il convient d'inventer mais également des mécanismes de marché.

Parmi les questions que l'on peut se poser figurent les arbitrages entre

  • tarification au forfait ou au temps,
  • abonnements gratuits ou payants,
  • équipements (matériels ou logiciels) gratuits (revenus tirés des services) ou payants,
  • revenus venant de la publicité ou revenus collectés à la transaction,
  • investissements privés ou investissements publics.

Réglementations

Dans un environnement aussi évolutif, la fonction de réglementation est un défi permanent. La jeunesse des technologies pousserait à attendre le déploiement alors que les conséquences sociétales déjà perceptibles poussent à intervenir rapidement. Une attention particulière doit alors être accordée au réalisme des réglementations envisagées. L'Internet étant sans frontière (et donc sans douanes), une législation ne peut être mise en oeuvre sans tenir compte de l'existence ou non de législations dans les autres pays. De plus, la rapidité du déploiement exige des règlements une capacité de passage à l'échelle dont le rythme dépend du marché et non des capacités de l'administration chargée de l'application de la loi. Un soin particulier doit être accordé aux expérimentations avant de finaliser les réglementations. Enfin, le dialogue et la médiation doivent être préférés, à ce stade, à la régulation et à l'application trop directe de règles conçues pour un environnement désormais bouleversé par l'émergence de l'Internet.

Le développement technique de l'Internet est facilité par l'ouverture à la concurrence des télécommunications, désormais largement engagée à travers le monde. Par ailleurs, le rôle d'infrastructure pour la société de l'information associe le développement de l'Internet à d'autres réglementations relatives à des questions aussi variées que

  • la cryptologie et ses applications,
  • la protection de la vie privée et des données personnelles,
  • la protection des droits d'auteurs,
  • la protection de la propriété industrielle,
  • la protection contre les contenus et comportements illicites.

De manière générale, la construction de l'environnement réglementaire de la convergence est un défi majeur présenté à la communauté internationale. L'Internet a atteint un stade de développement suffisant pour que les interactions entre l'environnement réglementaire et le développement technique constituent désormais un des facteurs décisifs dans la poursuite de la dynamique de déploiement.

Situation en France

Un retard qui s'accroît

Le développement technique de l'Internet en France a pris du retard par rapport aux Etats-Unis mais aussi par rapport à la Grande-Bretagne, l'Allemagne, les Pays-Bas et la Scandinavie, l'Australie ou Hong Kong. Les efforts entamés récemment permettent aux utilisateurs français d'apprécier les bénéfices que l'utilisation de l'Internet peut apporter. Cependant, ces efforts sont insuffisants pour combler le retard accumulé. Par de nombreux aspects, le retard se creuse. Le développement de l'Internet dans les autres pays connaît en effet une accélération nourrie par le déploiement des PC dans les foyers, par la détermination des chefs d'entreprise (souvent encouragés par des tarifs de liaisons avantageux) et par un environnement réglementaire qui met, en première priorité, le déploiement de l'Internet.

Favoriser l'émergence d'un marché européen

L'intégration européenne offre des opportunités nouvelles qui pourraient permettre de combler une partie du retard (par exemple le passage à l'Euro peut être favorable au déploiement du commerce électronique). De plus, l'Europe bénéficie d'atouts dans des domaines (téléphonie mobile, télévision numérique, carte à puces) où l'Internet ne fait que ses premiers pas. Enfin, l'Europe approche l'évolution de la législation relative aux technologies de l'information (directives) de manière coordonnée. Cela peut créer des opportunités de marché pour les services d'infrastructure en particulier (sécurité, protection du consommateur, étiquetage du contenu, ...).

Prendre en compte le développement de l'Internet dans le processus de dérégulation

La dérégulation des télécommunications est une condition nécessaire au déploiement de l'Internet. Cependant, la France, en particulier, et l'Europe, en général, vivent simultanément le développement de l'Internet et le processus de dérégulation des télécommunications. Cette situation n'a pas présidé au développement de l'Internet aux Etats-Unis. Le financement fédéral américain a en effet permis la naissance puis le déploiement de l'Internet dans les milieux académiques, créant une première infrastructure et, surtout, une génération de compétences américaines sans équivalent aujourd'hui en Europe. C'est à partir de cette infrastructure, de ces compétences... et d'une application conçue en Europe, le Web, que l'économie américaine à la recherche d'une nouvelle frontière a entrepris de développer de nouveaux marchés. Si l'Europe et la France se contentent de faire jouer la règle unique du marché au nom du respect de la dérégulation, l'avantage américain est tel que l'écart devrait continuer à se creuser en faveur des nouveaux entrants (MCI WorldCom, Cisco, AOL/Netscape, Yahoo, ...) ou des leaders reconvertis (Microsoft, Sun, IBM, ...).

Aujourd'hui, la priorité opérationnelle donnée à la mise en oeuvre de la dérégulation des télécommunications constitue un frein au déploiement de l'Internet, par exemple dans le développement de la boucle locale (forfait deuxième ligne, usage du câble, déploiement de l'ADSL, ...).

Demain, des questions de même nature se présenteront dans le domaine de l'audiovisuel.

Moteurs du Développement Technique de l'Internet

Applications et Usages

La France a vécu un indiscutable départ en matière d'usage de l'Internet au cours de l'année 1998. Cette évolution encourageante s'est traduite au niveau

  • du grand public avec une croissance du nombre d'utilisateurs,
  • des entreprises avec une croissance du nombre de sites,
  • des administrations avec un ensemble important d'initiatives dans les domaines de l'éducation, de la culture, de la santé, des relations administration-citoyen.

Cependant, cette évolution permet seulement de maintenir l'écart avec les autres pays européens (Grande-Bretagne, Allemagne et Scandinavie). Le fossé se creuse avec les Etats-Unis où la généralisation des usages a créé une dynamique sans équivalent dans le monde.

Cette situation a pour conséquence de rendre de plus en plus importante la dépendance technologique (achat de produits américains) et culturelle (adoption des paradigmes d'usages américains).

Technologies et Standards

 L'Internet est encore dans sa phase d'"adolescence" et de très nombreux développements sont en cours dans le monde pour généraliser son positionnement comme infrastructure de la société de l'information. Le développement de ces nouvelles technologies est conduit par des organisations souvent créées à partir d'initiatives américaines.

La participation effective de la France à ces travaux est encore largement insuffisante malgré certains résultats significatifs tels que la position des chercheurs français dans le développement d'IPv6 ou l'hébergement à l'INRIA de la composante européenne du W3C. Si la recherche publique française est présente dans les travaux de l'IETF, du W3C, ..., la participation industrielle est trop insuffisante pour envisager un retour proche dans le peloton de tête des pays qui influent sur l'évolution technique de l'Internet.

Cette évolution technologique est concomitante avec le développement des standards. Le paradigme de conception de nouvelles fonctionnalités adopté par l'IETF et repris par W3C demande à chaque nouvelle spécification la preuve de deux mises en oeuvre interopérables pour que celle-ci puisse prétendre au rang de standard ou de recommandation. Cette vision très opérationnelle du développement de standards donne aux pays disposant de la maîtrise technologique un effet de levier exceptionnel.

La France (à l'exception notable des centres de recherche publics) a trop longtemps ignoré les technologies et standards de l'Internet pour disposer aujourd'hui de cette maîtrise technologique. L'appel à propositions 1999 du RNRT (Réseau National de Recherche en Télécommunications) propose d'engager une action spécifique pour susciter des projets de recherche et développement.

Des opportunités apparaissent par ailleurs au moment où la convergence des technologies de l'information demande à la communauté technique de l'Internet de s'ouvrir à d'autres domaines tels que la téléphonie mobile ou l'audiovisuel. Les positions plus fortes de la France et de l'Europe dans ces domaines peuvent être exploitées si les communautés acceptent de s'investir dans les travaux des organisations internationales compétentes.

Composants techniques de l'Internet

Réseaux de transport

La France bénéficie d'un réseau de télécommunications moderne. Par ailleurs, la concurrence engagée à la suite des mesures de dérégulation permet d'envisager la multiplication de l'offre et une baisse des coûts. Enfin, la concurrence joue également pour les liaisons vers l'étranger. L'Internet peut donc s'appuyer en France sur une infrastructure compétitive. Les investissements importants consentis devraient permettre que cette infrastructure demeure au meilleur niveau mondial. Il reste que les modèles économiques utilisés tardent à évoluer et que les tarifs pratiqués (pour les lignes louées par exemple) sont encore trop élevés pour permettre le déploiement d'une offre présentant, à un prix donné, des débits comparables à ceux disponibles dans les pays les plus avancés, aux Etats-Unis, en particulier, où la concurrence joue à plein.

Boucle locale

La variété des solutions techniques appelle des initiatives diversifiées pour acquérir une maîtrise technologique aujourd'hui insuffisante et une compréhension de l'éventail des possibles. La complexité des réglementations et la multiplicité des organes de régulation impliqués limitent la mise en place des expérimentations indispensables. Dans ce contexte, les collectivités locales ont du mal à exercer leur rôle. Le retard de la France se creuse sur ce domaine difficile et critique pour le déploiement généralisé de l'Internet pour tous.

Interconnexions

Le dispositif d'interconnexion doit être observé à trois niveaux : national, local et international.

Niveau national

Comme dans tous les pays, les premiers éléments de l'infrastructure Internet ont été mis en place sous la responsabilité du réseau national de l'enseignement et de la recherche, en France Renater. C'est ainsi que le GIX (point d'interconnexion national) permet encore, en 1999, aux fournisseurs de service Internet de mettre en place leurs politiques d'interconnexions. Géré par Renater pour des raisons historiques, le GIX n'a pas vocation à être l'unique point d'interconnexion national. Un deuxième point d'interconnexion national, PARIX, a été ouvert en 1998 par France Telecom.

Niveau local

La capillarité de l'Internet en France atteint à peine le niveau qui justifie économiquement le déploiement de points d'interconnexion locaux. De plus, les initiatives locales de nature publique (par exemple métropole régionale), ne sont pas encouragées par les conditions imposées par la dérégulation. Un seul point d'interconnexion régional a été mis en place, à Grenoble.

Niveau international

Les connexions européennes, américaines et internationales, en général, sont bien sûr particulièrement importantes puisque l'Internet est une infrastructure mondiale. La jeunesse de l'offre de services sur le territoire national rend les termes de l'échange défavorables pour les fournisseurs d'accès nationaux. Par exemple, Renater est devenu inutilisable, en 1996-1997, lorsque la demande d'accès aux sites américains s'est soudainement développée. La situation s'est largement améliorée depuis 1998 grâce à des investissements supplémentaires et à la baisse des prix issue de la concurrence. Des efforts additionnels sont cependant indispensables pour permettre à la communauté nationale de disposer d'un environnement comparable à celui de ses pairs à travers le monde. Enfin, les connexions européennes présentent, à leur échelle, des caractéristiques d'insuffisance en termes de densité d'interconnexions.

Services d'infrastructure

  • Connexion et hébergement

    Ces services sont largement couverts par le marché et sont en forte croissance depuis 1998.

  • Adressage et nommage

    Le rôle de l'AFNIC est désormais reconnu par la communauté. La place de la France dans les discussions autour de l'ICANN a été significative.

  • Annuaires

    Le marché joue le rôle important. L'avance prise par les sociétés américaines est un exemple de l'avantage acquis par la présence initiale sur le marché. La particularité des sites francophones donne une chance à des offres françaises.

  • Sécurité

    L'annonce de la modification de la loi sur la cryptologie a eu un effet très positif sur la reconnaissance internationale que la France est déterminée à prendre sa place sur l'Internet. Ceci crée des opportunités de marché qui sont à saisir. Ceci crée aussi un devoir de diligence dans l'établissement des règles d'application de la loi. Le retard dans la détermination et la publication de ces règles pourraient rendre difficile leur application concrète (situation de fait accompli).

  • Protection de la vie privée et des données personnelles

    L'expérience de la CNIL et la disponibilité de la directive européenne fournissent les bases d'une politique encore à mettre en oeuvre.

  • Etiquetage du contenu

    La lenteur du déploiement des bureaux d'étiquetage donne le temps nécessaire à l'établissement d'une politique.

Equipements

Le marché des équipements est bien entendu mondial. Il s'agit d'un marché en très forte évolution où les opportunités sont nombreuses. L'avance prise par le marché américain est telle que toute initiative prise par une société européenne doit être confrontée au déploiement aux Etats-Unis pour accéder aux volumes nécessaires à la rentabilité. Il reste que des compétences acquises peuvent être mises à profit pour construire des offres originales (cartes à puce, terminaux intelligents par exemple).

Environnement économique et politique

Modèles économiques

Le retard en France s'explique, en partie, par l'application directe de modèles économiques hérités du monde des télécommunications.

  • tarification au forfait ou au temps

    L'usage du réseau téléphonique comme accès local induit une facturation de l'accès à l'Internet dépendante du temps. Si la boucle locale est fournie par le câble ou l'ADSL, la facturation est forfaitaire. Aux Etats-Unis, au Canada, en Australie, la communication téléphonique est facturée au forfait. Cette situation, si elle a conduit parfois à des excès, a eu un effet décisif dans l'adoption de l'Internet par le grand public. L'annonce de l'offre "forfaitaire" de France Telecom (limitée à vingt heures par mois), en mai 1999, est un premier pas encore insuffisant dans cette direction.

  • abonnements gratuits ou payants

    Au deuxième trimestre 1999, plusieurs offres d'abonnements gratuits sont apparues. Cette approche est bien adaptée aux usages limités dans le temps. La gratuité ne porte, en effet, que sur l'abonnement forfaitaire et la facturation au temps de la communication téléphonique locale est maintenue.

  • équipements (matériels ou logiciels) gratuits (revenus tirés des services) ou payants

    Comme pour le minitel à son lancement, la mise à disposition gratuite de terminaux est une pratique en cours d'expérimentation.

  • revenus venant de la publicité ou revenus collectés à la transaction

    De même que le modèle économique issu des services téléphoniques prévaut aujourd'hui pour la boucle locale, les modèles issus de l'audiovisuel ont été transposés aux services disponibles sur l'Internet (en particulier le financement par la publicité). Il est clair que, dans ce cas, le retard en matière d'usage grand public en France se traduit par un retard en capacité de financement selon ce modèle. D'autres modèles sont à l'étude dans le monde. La pratique courante de la carte à puce, en France, est certainement un atout au moment d'envisager des modèles économiques alternatifs.

  • investissements privés ou investissements publics

    La faiblesse des investissements publics et privés sur l'Internet dans les vingt dernières années a des conséquences de toutes natures. Il convient de se poser la question de mesures exceptionnelles pour combler les retards. On peut, en guise de référence, étudier les investissements publics massifs déployés aux Etats-Unis AVANT de transférer au marché la responsabilité du déploiement généralisé ainsi que ceux mis en place pour les cinq années à venir au niveau du financement public de la recherche en technologies de l'information (croissance d'un milliard de dollars en cinq ans).

Réglementations

Le développement technique de l'Internet se heurte à un ensemble de réglementations développées pour le domaine des télécommunications ou de l'audiovisuel. Ces réglementations n'ont pas pris en compte, lors de leur conception, les bouleversements que l'Internet engendre. Cette situation n'est pas propre à la France. Tous les pays sont confrontés au défi d'adapter leurs règles à la situation nouvelle ainsi créée. Il reste que la flexibilité dont chaque pays fera preuve sera un élément déterminant de la place que le pays occupera dans le déploiement de l'Internet et donc de la société de l'information.

Recommandations

Les pouvoirs publics ont fait du développement de l'Internet une priorité pour l'entrée de la France dans la société de l'information. Toutefois, comme l'évolution et le déploiement de l'Internet s'effectuent de manière essentiellement décentralisée, la place des pouvoirs publics est délicate à préciser et doit relever d'un positionnement original. Par exemple, les idées de "plan" ou de "gouvernance" doivent être laissées de côté en faveur d'une approche reposant sur

  • l'exemplarité plutôt que l'autorité,
  • la médiation plutôt que la régulation,
  • l'investissement public sélectif pour faciliter la généralisation des investissements privés.

En tout état de cause, le succès ne viendra qu'avec l'engagement des forces du marché et l'adoption par les entreprises et le grand public.

***

Les recommandations sont formulées pour atteindre trois objectifs.

Créer des produits et services

L'Internet est encore largement un domaine d'opportunités. La création de nouveaux contenus et de nouveaux services est ouverte aux initiatives nouvelles. Pour participer de manière significative au développement technique de l'Internet, il faut également être présent aux endroits où l'Internet de demain se conçoit.

Construire la confiance

La confiance des utilisateurs implique la satisfaction de besoins essentiels (sécurité, respect de la vie privée, ...). Les logiciels et services d'infrastructure doivent permettre de répondre à ces besoins. Pour les opérateurs techniques (opérateurs de télécommunications, fournisseurs d'accès, hébergeurs, ...), le manque d'informations quantitatives sur le fonctionnement de l'Internet (qualité de service, trafic, applications utilisées, ...) rend difficile le dimensionnement de leur offre. Le développement d'un réseau d'observatoires doit permettre de remédier à cette situation. Enfin, l'évolution de l'environnement réglementaire doit être adapté pour lever les incertitudes nées de l'émergence de l'Internet.

Augmenter les performances

Les efforts sur la boucle locale sont prioritaires pour offrir, à court terme, un accès performant aux utilisateurs. Dès que le déploiement de nouvelles boucles sera engagé, les interconnexions locales devront progresser pour optimiser l'acheminement des contenus de proximité. Enfin, le déploiement d'applications audiovisuelles demandera l'évolution de l'infrastructure du réseau de transport (accroissement des bandes passantes, adaptation des protocoles).

Moteurs du Développement Technique de l'Internet

Applications et Usages

Favoriser le développement

  • des applications auteurs (logiciels de conception et de gestion de sites, ...)
  • des applications de la convergence (logiciels de téléphonie et vidéo sur IP, ...)

Développer les formations d'enseignement supérieur

  • aux technologies logicielles et matérielles de l'Internet
  • à l'administration des réseaux et des sites
  • à la création et à l'utilisation des services

Technologies et Standards

Enrichir la culture de l'Internet et des technologies de la convergence

  • Donner la priorité aux technologies de l'Internet dans le financement public des efforts de recherche
  • Créer une fondation pour le développement de logiciels libres
  • Favoriser la prise en compte des dimensions économique et sociale dans le développement technologique par l'organisation d'échanges pluridisciplinaires
  • Renforcer la participation française aux organismes de standardisation (IETF, W3C) et aux manifestations scientifiques internationales

Composants techniques de l'Internet

Réseaux de transport

Permettre la recherche et le développement de nouvelles applications par

  • le lancement d'une version nationale de l'Internet du futur
  • le développement de réseaux régionaux métropolitains

Boucle locale

Favoriser l'utilisation de toutes les technologies

  • Réseau téléphonique : Permettre l'utilisation d'une deuxième ligne, dédiée à Internet, à des conditions favorables
  • ADSL : Accélérer le déploiement en créant les conditions d'un marché concurrentiel
  • Câble : Créer les conditions d'une exploitation efficace de l'infrastructure existante
  • Boucle locale radio : Encourager les expérimentations et le déploiement
  • Permettre aux collectivités territoriales de participer à la création de réseaux à haut débit pour l'accès à Internet

Avec pour objectif de généraliser, à terme de cinq ans, les accès locaux avec les performances suivantes :

  • Grand Public : >1 Mbit/s
  • PME : >10 Mbits/s
  • Grandes Entreprises : >100 Mbits/s

Interconnexions

Développer une culture de l'interconnexion Internet en encourageant la transparence

  • Créer un observatoire pour mesurer l'état des infrastructures Internet en temps-réel (trafic, points de congestion, ...)
  • Organiser la certification des procédures d'interconnexion des couches basses
  • Encourager la mise en place de points d'interconnexion locaux pour optimiser l'architecture du réseau
  • Contribuer à l'amélioration des interconnexions au niveau européen

Services d'infrastructure

Construire la confiance en s'appuyant sur la décentralisation des responsabilités

Connexion et hébergement

  • Encourager l'élaboration et la diffusion d'indicateurs de qualité pour les services de connexion et d'hébergement sur Internet

Adressage et nommage

  • Créer une autorité de certification des sites afin de garantir l'identification des sources d'information et de services

Sécurité

  • Mettre en place des autorités de certification gérées par des administrations et des organismes publics
  • Mettre en place une structure d'échange et de coordination chargée de l'information sur les risques et alertes

Protection de la vie privée et des données personnelles

  • Lancer dans l'administration française des plateformes expérimentales conformes aux modalités de la directive européenne et de la future loi

Etiquetage du contenu

  • Encourager le développement de systèmes d'étiquetage "positif" dans un but pédagogique
  • Encourager l'étiquetage déclaratif du contenu auprès des fournisseurs d'information

Equipements

Mettre l'accent sur les atouts, éliminer les freins

  • Utiliser le savoir-faire français en commerce électronique (services et terminaux intelligents, carte à puce)
  • Favoriser l'émergence et le succès des sociétés de haute technologie par un environnement attractif

Environnement économique et politique

Modèles économiques

Permettre la coexistence de modèles économiques différents

  • Encourager la concurrence des différents modèles économiques sur la boucle locale (tarification forfaitaire ou au temps pour l'accès à Internet, ...)
  • Assurer la transparence des prix de transport
  • Encourager la variété des modèles économiques pour les services (publicité, paiement à la transaction, ...)

Réglementations

Reconnaître l'Internet comme la plateforme de la convergence entre l'informatique, les télécommunications et l'audiovisuel

  • Etablir un cadre réglementaire intermédiaire (pour une période de cinq ans) pour favoriser les expérimentations
  • Donner la priorité à la médiation plutôt qu'à la régulation
  • Construire un environnement législatif adapté à la convergence

 

DÉVELOPPEMENT TECHNIQUE DE L'INTERNET

Partie A : Moteurs du Développement Technique de l'Internet

 

APPLICATIONS ET USAGES

Contexte international

Applications et contenus déterminent les usages

Des applications toujours plus exigeantes

Depuis sa création dans les années 70, l'Internet s'est construit au fur et à mesure de la disponibilité des standards et a évolué au rythme des applications et des contenus qui l'utilisent :

  • à l'origine, la connexion à distance aux ordinateurs (protocole TELNET, RLOGIN) ou l'échange de fichiers (protocole FTP), les communications interpersonnelles en mode asynchrone ou messageries (protocole SMTP), forums de discussion (protocole NNTP) ;
  • aujourd'hui, la consultation en ligne de grandes quantités d'information (protocole HTTP associé au format de présentation HTML) utilisant les mécanismes de navigation de type hypertexte : le Web est devenu le vecteur principal de croissance et de diffusion de l'Internet dans l'ensemble de la société. Il est universellement utilisé par les entreprises, les administrations et le grand public, et représente aujourd'hui près de deux tiers du volume total d'informations circulant sur Internet ;
  • demain, les applications nécessitant de réelles capacités temps-réel de la part du réseau, bande passante et délais de transmission principalement : la transmission de la voix, la musique ou la vidéo, qu'il s'agisse de transmission de point à point ou de diffusion.

Les applications audiovisuelles sont promises à un déploiement extrêmement rapide dans les années à venir. Consommant aujourd'hui de l'ordre de 2% de la bande passante de l'Internet, elles devraient compter selon le cabinet Datamonitor pour plus de 6% d'ici à 2003.

Répartition du trafic Internet mondial par type d'applications
selon Datamonitor
Répartition du trafic Internet mondial par type d'applications, selon Datamonitor

La part de bande passante occupée par les applications Web et audiovisuelles va donc continuer de s'accentuer. En termes de croissance du volume total d'informations transmises sur l'Internet, l'impact est spectaculaire : le volume de trafic Internet devrait dépasser le volume de trafic téléphonique dès l'an 2000 (à noter que le dépassement a déjà eu lieu pour les communications intercontinentales), et continuerait sa progression à un rythme de croissance de 1000% par an.

Prévisions des trafics mondiaux comparés Internet et
téléphonie vocale, selon Datamonitor
Prévisions des trafics mondiaux comparés Internet et téléphonie vocale, selon Datamonitor

Ces chiffres, dont il faut retenir les ordres de grandeur, traduisent un besoin toujours plus marqué des applications pour une infrastructure réseau plus performante. Loin de s'inverser, cette tendance va encore s'accentuer dans les prochaines années avec la banalisation sur l'Internet d'applications très exigeantes envers l'infrastructure, comme par exemple la téléphonie, la vidéo-conférence, la diffusion ou la consommation à la demande de musique ou de films.

Ces dernières applications ne réclament pas seulement une augmentation de bande passante, mais une évolution significative des caractéristiques de l'Internet qui, initialement, n'a pas été prévu pour les supporter : en particulier la disponibilité du réseau, la gestion du temps et la garantie d'acheminement, notions souvent regroupées sous la dénomination qualité de service, doivent être prises en compte par les protocoles Internet. Les développements techniques correspondants sont en cours et il ne fait déjà aucun doute pour les analystes que, poussée par la demande, cette évolution aura lieu dans les toutes prochaines années. Par exemple, le cabinet Frost & Sullivan prévoit que les marchés mondiaux des services, des logiciels clients et des passerelles de téléphonie sur IP atteindront respectivement 1,8 G$, 90 M$ et 1,8 G$ à l'horizon 2001. Le rapport de Jean-Claude Merlin du Conseil Général des Technologies de l'Information, publié en octobre 1998, analyse les faits et les perspectives de la téléphonie sur IP.

Des contenus toujours plus diversifiés

Au début de l'Internet, les contenus étaient principalement dédiés à la recherche universitaire américaine puis mondiale (description des activités et des organisations, forums de discussion, archives de listes de diffusion, rapports de recherche, thèses, spécifications techniques, logiciels). L'introduction du Web a permis une explosion des contenus mesurable par la croissance exponentielle du nombre de machines connectées :

nombre d'hôtes
Internet
Source: Network Wizards, Internet Domain Survey, janvier 1999

Les types de contenus se sont rapidement diversifiés :

  • informations publicitaires (sites de marque, de sociétés...),
  • presse (sites de journaux, publication uniquement électronique, chaînes thématiques...),
  • documents de référence (index des bibliothèques, musées virtuels, images et vidéo, documents électroniques, support technique pour les clients...),
  • logiciels (logiciels du domaine public, versions d'évaluation, mises à jour, correctifs...),
  • accès à des bases de données (annuaires, horaires, catalogues, généalogie...),
  • informations en temps réel (dépêches de presse, informations financières, météorologie, trafic routier, webcam, radios...),
  • sites personnels (hobbies, communauté d'intérêts...).

La mise en ligne d'informations et de contenus était au départ motivée par un idéal de partage de l'information (période universitaire) puis par un souci de communication (le site Web participant à l'image de marque, le Web comme moyen d'échange), enfin par un désir de rentabilité (financement par la publicité, mise en place du commerce électronique) : les différents types de contenus coexistent toujours sur Internet, de même qu'y coexistent des modèles de communication basés sur la consultation volontaire des informations ou sur la diffusion de contenus (courriers électroniques, technologie "push", flux multimédia en direct). Cette richesse a fait le succès des "méta-contenus" tels que les annuaires, les moteurs de recherche et les portails.

Des usages toujours à inventer

Les usages que l'on peut faire de l'Internet sont essentiellement déterminés par les applications et les contenus disponibles, comme le montre l'histoire du World Wide Web, l'application majeure de l'Internet aujourd'hui : inventée par Tim Berners-Lee au CERN pour permettre le travail collaboratif entre physiciens en 1989, les spécifications et les premières implémentations développées permettaient aussi bien l'édition de documents que leur consultation. Le logiciel Mosaic qui a révélé le Web au monde entier en 1993 n'intégrait que la fonction de consultation (navigateur). Le résultat est qu'encore aujourd'hui, il est extrêmement aisé de consulter de l'information sur le Web mais toujours difficile d'en éditer le contenu. Pour le plus grand nombre, l'usage initial a été détourné du fait de la disponibilité sur le marché d'une application à succès, fruit de la recherche publique en informatique américaine (Mosaic a été créé au NCSA) et de la dynamique industrielle américaine (Mosaic a donné naissance à Netscape Communications Inc., et indirectement à une multitude d'autres sociétés de technologie).

L'analyse de l'histoire donne lieu à un constat et à une perspective :

  • constat : les usages, donc les modèles socioculturels proposés aux utilisateurs, sont dictés par les fournisseurs d'applications et de contenus dominants, aujourd'hui largement américains ;
  • perspective : il suffit d'inventer les applications et les contenus pour ouvrir le champ à des usages nouveaux, correspondant à des modèles socioculturels variés et adaptés à tous les types d'utilisateurs.

Usages dans la recherche

Internet est stratégique dans - et pour - tous les domaines de la recherche, scientifique ou non : il sert un objectif déterminant de cette activité qui est la possibilité de rendre disponible et d'avoir accès à de l'information originale et récente. Le Web est né de ce besoin, puisqu'il s'agissait à l'origine du projet de partager de l'information dans la communauté des physiciens des hautes énergies.

En ce qui concerne le cas particulier de la recherche en sciences et technologies de l'information, en plus d'être un formidable outil de travail, l'Internet est un remarquable sujet d'études et un laboratoire d'expérimentation en grandeur réelle absolument unique.

Usages dans les entreprises

Le monde des entreprises s'est très vite approprié le Web pour un premier usage déterminant : la vitrine de communication. Une PME ou une grosse entreprise est instantanément devenue capable d'atteindre un très large public avec une très grande facilité. Comme il a été expliqué précédemment, c'est d'ailleurs cet usage qui a tiré le développement technique de l'Internet ces dernières années, et qui a conduit avec un pragmatisme très anglo-saxon à quasiment exclure tout développement qui n'aurait pas servi cet usage.

Le deuxième usage clé de l'Internet dans l'entreprise est dans son système interne d'information, dans la perspective d'une diminution substantielle de ses coûts de fonctionnement et d'un accroissement de sa réactivité. Bien que rencontrant de réelles difficultés de mise en oeuvre à la fois techniques et organisationnelles, les entreprises concèdent à cet usage des investissements considérables à travers le développement des Intranets (Internet à l'intérieur de l'entreprise) et Extranets (accès à l'Intranet depuis l'extérieur de l'entreprise). En permettant l'interfonctionnement des systèmes d'information des entreprises avec ceux de leurs partenaires et fournisseurs, le commerce électronique inter-entreprises favorise la fluidité et l'efficacité des échanges.

Le troisième usage stratégique de l'Internet pour l'entreprise concerne sa relation aux clients, et touche par là-même le coeur de sa mission : la génération du chiffre d'affaires (la vente) et sa pérennisation (le support client). Comme l'a souligné Francis Lorentz dans ses rapports remis au gouvernement en janvier 1998 et février 1999, le commerce électronique n'en est qu'à ses débuts. La tendance est inéluctable, la croissance forte, et cet usage est extrêmement porteur d'innovations et de changements dans toutes les dimensions de l'Internet : techniques, sociales et réglementaires.

A des degrés divers et des échéances diverses, les trois usages de l'Internet dans les entreprises vont rester dans les années à venir des moteurs primordiaux de croissance et d'innovation.

Usages dans les administrations

L'usage de l'Internet dans les administrations est comparable à celui des entreprises, avec la dimension commerciale en moins :

La communication externe, sous forme de kiosque d'information, poursuit un objectif similaire à celui du Web vitrine des entreprises : renseigner les administrés sur les services disponibles et sur les modalités d'accès à ces services.

Le système interne d'information de l'administration, comme celui de l'entreprise, tire parti des capacités étendues de communication interne (courrier, pages Web statiques, pages Web dynamiques à partir de bases d'informations...). Un décloisonnement des services est alors possible, avec un confort et une efficacité d'utilisation accrus pour les employés et une amélioration du service rendu pour les administrés. Les liaisons sécurisées inter-administrations ou inter-régionales d'une même administration participent de ce décloisonnement, à travers des techniques de type "Extranet". L'usage de mécanismes de téléprocédures entre les différents acteurs (administrations, organismes publics, entreprises, particuliers) est un important facteur d'efficacité et de réduction de coûts dans de nombreux domaines (santé, impôts...).

La relation personnalisée avec les administrés, critère essentiel de rapprochement entre l'État et le citoyen, gagne en dimensions grâce à l'usage des technologies Internet : la rencontre physique entre l'administré et le représentant de l'administration peut être prolongée par la relation réseau. Le service peut être rendu plus loin, jusque chez l'administré, et plus souvent. Grâce à l'avènement des techniques sécurisées (authentification réciproque, confidentialité des échanges...), la relation contractuelle va pouvoir se déployer par l'intermédiaire du réseau, ce qui se traduit en particulier par un gain de temps réutilisable, par exemple, pour la personnalisation de la relation.

Il faut également noter le caractère d'exemplarité de la relation de tout citoyen avec ses administrations, participant beaucoup à l'éducation d'un large public.

Usages dans l'éducation

Considéré à juste titre comme un vecteur pédagogique très important, l'Internet utilisé dans l'éducation participe à l'ouverture de l'école et l'université au monde extérieur. Tout d'abord par l'accès aux multiples informations de sources nationales et internationales qu'il permet, en particulier à des données de références et à de l'information d'actualité. Ensuite par le nouveau type de communications qu'il permet, de nature collaborative : forums, échanges entre écoles, relations entre élèves, partages entre enseignants... Enfin, le caractère interactif de ce média permet d'envisager de nombreuses possibilités de télé-enseignement (diffusion de cours, accès des élèves éloignés des matériels éducatifs, travail collaboratif...) pouvant avoir un impact positif sur l'aménagement du territoire et la réduction des coûts.

Par sa transversalité et son universalité, l'Internet a un impact potentiel très fort sur l'ensemble des méthodes utilisées et sur l'organisation même de la structure éducative.

Usages dans la culture

La numérisation de l'information est désormais systématique dans l'ensemble des activités culturelles (qu'il s'agisse de la numérisation des oeuvres artistiques elles-mêmes ou des supports de communication associés aux activités culturelles) : archiver et publier sur l'Internet peuvent alors accompagner naturellement l'ensemble de la vie culturelle et permettent ainsi de multiplier l'audience potentielle, aussi bien dans l'espace que dans le temps. Cette présence culturelle sur Internet (qui peut se faire à un coût marginal assez faible) est une opportunité pour rendre accessible une bonne partie du patrimoine culturel et faire largement connaître les initiatives dans le domaine.

L'enjeu majeur est alors d'éviter de laisser l'Internet devenir un outil d'homogénéisation et d'utiliser l'ensemble de ses possibilités pour valoriser les différences culturelles et démultiplier les initiatives locales.

Usages dans le grand public

L'ensemble des usages décrits ci-dessus ont une composante grand public, qu'il s'agisse des accès aux informations et services mis à disposition par les entreprises, les administrations ou les organismes culturels ou des communications et transactions permises par l'Internet. S'y ajoutent les usages de plus en plus nombreux de l'Internet par les médias traditionnels (presse et édition, audiovisuel) pour relayer et compléter leurs activités : en Amérique du Nord, une part croissante de la population équipée s'informe en premier lieu via l'Internet puis utilise en complément un autre média.

Par les navigations sur le Web, par la disponibilité des archives, par l'accès à l'information mondiale et par l'interactivité qu'il peut faciliter, l'Internet peut s'adapter aux rythmes et préférences de chacun, renouvelant ainsi potentiellement l'intérêt du public et autorisant une innovation en termes d'usages. Enfin, le domaine des loisirs, qu'il s'agisse de les organiser ou de les pratiquer en ligne, constitue à lui seul un formidable facteur de diffusion des techniques Internet, par la mise en relation qu'il permet entre passionnés d'un même domaine, par la disponibilité de jeux informatiques enrichis par l'interaction en-ligne, et par les forums thématiques disponibles...

Il faut toutefois noter que l'Internet reste parfois difficilement accessible pour certaines catégories de la population : y accéder est encore relativement cher, bien que le prix des équipements et des abonnements soit devenu comparable à ceux de l'audiovisuel ou du sport, et demande encore une phase d'apprentissage importante pour maîtriser les aspects techniques, pour comprendre le domaine et ses usages, et pour naviguer naturellement.

Situation en France

Peu de contenus en ligne

La France semble en retard en premier lieu par son faible taux de représentation : un indicateur en est le nombre de domaines français enregistrés sous le nom de domaines national ".fr" qui ne représente que 3% du nombre de domaines européens déclarés. On obtient un indicateur plus significatif si l'on ajoute les domaines français déclarés sous le nom de domaines ".com", et la France ne compterait alors toujours que pour 6% du nombre de domaines européens déclarés :

Répartition des domaines en Europe (données RIPE NCC et AFNIC, mars 1999)
Europe Allemagne Angleterre Danemark Pays-Bas France Italie Suisse Suède Autriche Espagne
                       
Domaines
nationaux
963 780 244 838 165 451 70 969 63 000 32 972 52 335 54 953 32 469 32 092 12 969
% en Europe 100% 25% 17% 7% 7% 3% 5% 6% 3% 3% 1%
                       
Domaines
en .com
263 184 34 379 71 398 8 019 13 978 37 403 17 721 9 908 21 155 4 182 21 173
% en Europe 100% 13% 27% 3% 5% 14% 7% 4% 8% 2% 8%
                       
Total
domaines
 1 226 964 279 217 236 849 78 988 76 978 70 375 70 056 64 861 53 624 36 274 34 142
% en Europe 100% 23% 19% 6% 6% 6% 6% 5% 4% 3% 3%

Ces indicateurs suggèrent qu'après avoir été le berceau mondial des services télématiques (avec près de 17000 serveurs vidéotex et 15 millions de terminaux minitel), la France serait aujourd'hui l'un des pays industrialisés au monde les moins producteurs d'information sur Internet.

Usages dans la recherche

Jusqu'en 1998, l'usage courant de l'Internet par la communauté de la recherche française a été sérieusement handicapé par une interconnexion limitée du réseau Renater, le réseau de l'enseignement et de la recherche, avec les autres réseaux de recherche européens d'une part, et surtout avec les réseaux nord-américains. La situation s'est considérablement améliorée en 1998 avec l'ouverture de conduits supplémentaires vers les Etats-Unis et par la mise en service du réseau européen TEN-155. Toutefois, la connectivité aujourd'hui disponible ne permet toujours pas d'envisager vraiment l'utilisation d'Internet comme banc de test d'applications expérimentales, à l'instar de celles envisagées dans le programme "Next Generation Internet" américain.

Usages dans les entreprises

De façon générale, les entreprises françaises sont encore peu présentes sur Internet.

Concernant les grandes entreprises, selon une étude menée fin 1998 par le Benchmark Group, seulement 27% des 1500 premières entreprises françaises ont un site Web en français, et 7% d'entre elles ont un site Web international. 70% font de la communication institutionnelle, 56% présentent des informations utiles à leurs clients, et 13% font du commerce électronique. Ces données sont à comparer à une étude de PricewaterhouseCoopers portant sur les 446 compagnies américaines ayant connu la plus forte croissance ces cinq dernières années : 85% d'entre elles donnent des informations détaillées sur leurs produits ou services, et 32% proposent en ligne la vente de produits ou de services. Toujours selon cette étude, 77% des entreprises américaines à forte croissance ont un site Internet, 14% en préparent un pour les 12 mois à venir, et 94% y font de la publicité (contre 6% des grandes entreprises françaises selon le Benchmark Group).

Concernant les PME, une étude de l'UFB Locabail parue en janvier 1999, portant sur les entreprises européennes de 6 à 200 salariés, conclut que seulement 13% des PME françaises possèdent un site Web, contre 41% en Angleterre. Une autre étude, réalisée par SVP en octobre 1998 auprès de 400 PME françaises de 20 à 500 salariés, conclut que 16,8% de ces entreprises disposent de leur propre site Web. Ces deux études s'accordent à dire que seulement 40% (UFB Locabail) à 47% (SVP) de ces PME sont connectées à l'Internet.

L'usage de l'Internet par les entreprises françaises n'en est donc qu'à ses débuts. Il reste à la majorité de ces entreprises à comprendre et exploiter toutes les dimensions du Web et de l'Internet vis à vis de leur activité. Il s'agit non seulement de rattraper leur retard en termes de connexion à l'Internet et de présence sur le Web, mais également d'y développer de vrais services à valeur ajoutée pour leurs clients (commerce électronique, support technique, etc.) sous peine de voir leur compétitivité s'éroder de façon spectaculaire dans les années à venir.

Usages dans les administrations

L'usage de l'Internet dans l'administration française, annoncé avec force par le Premier ministre dans son discours d'Hourtin en août 1997, est aujourd'hui bien engagé. La priorité a été donnée à la mise en ligne d'informations utiles aux particuliers et aux entreprises ainsi qu'à la mise à disposition des formulaires administratifs, accessibles à travers des portails : le site Vos Droits édite 2000 fiches d'information accessibles à travers plus de 800 mots-clés ou par recherche libre, le site du Cerfa propose les fiches signalétiques détaillées des formulaires administratifs et en propose un grand nombre en téléchargement, et l'annuaire des sites de l'administration française permet de rechercher une administration par son nom, son secteur d'activité ou par recherche libre.

En plus de l'utilité effective de ces usages pour les administrés, il faut en noter le caractère d'exemplarité, qui milite clairement en faveur de la banalisation des usages de l'Internet chez les particuliers et dans les entreprises. L'étape suivante est sans doute la prise en compte du potentiel des Intranet/Extranet dans les relations intra- et inter-administrations, et l'extension des téléprocédures dans les relations de l'administration avec ses administrés. On peut alors s'attendre à un impact maximal en matière d'organisation, de décloisonnement et de transversalité, conduisant à une meilleure efficacité des services et une meilleure relation avec les administrés.

Usages dans l'éducation

Le Ministère de l'Education Nationale, de la Recherche et de la Technologie (MENRT) mène une politique volontariste, dénommée "démarche éducative globale", en faveur de l'utilisation des nouvelles technologies de l'information et de la communication dans l'enseignement. Cette politique, annoncée le 17 novembre 1997, vise à explorer les potentialités de ces nouvelles technologies pour les activités des élèves, les échanges entre les enseignants, et le télé-enseignement.

Objectifs du MENRT pour l'an 2000 :

  • Chaque élève, de la maternelle à l'université, pourra accéder, dans un cadre pédagogique, à une activité sur support numérique ou audiovisuel classique : manipulation et dessin informatique dès la maternelle, courrier électronique dès le cours élémentaire, accès au Web dans le cours moyen, travail en réseau dès le collège, adresse personnelle dès le bac.
  • Chaque étudiant, chaque enseignant, chaque classe, pourra disposer d'une adresse électronique.
  • L'ensemble des informations - administratives et pédagogiques - nécessaires à un enseignant pourra être accessible par réseau numérique.

La mise en oeuvre de cette politique volontariste est amorcée. Citons en particulier le réseau Educnet, permettant de partager connaissances et compréhension des usages des nouvelles technologies dans l'éducation, et les serveurs des académies, hébergeant notamment les sites des établissements d'enseignement qui le souhaitent. Toutefois, le succès global de cette politique reste encore conditionné par deux facteurs :

  1. le raccordement effectif des classes à l'Internet. Le défi est ici d'amener l'Internet jusqu'aux enseignants et aux élèves, et de ne pas se limiter à un poste isolé, dont l'accès est trop souvent réservé à quelques enseignants. Cela suppose non seulement des crédits pour l'équipement initial, mais également des ressources budgétaires et horaires et des compétences pour la formation à l'utilisation, ainsi que pour l'administration et la maintenance des matériels et des logiciels ;
  2. la capacité à mobiliser élèves et enseignants à la création de contenu. Le défi est alors de former la plus large audience d'enseignants au potentiel pédagogique, aux pratiques et aux outils de création de pages Web ainsi qu'à l'utilisation des forums de discussion et des listes de diffusions.

Usages dans la culture

Le programme d'action gouvernemental pour la société de l'information (PAGSI) comporte un volet de mesures spécifiques à l'usage des nouvelles technologies de l'information et de la communication dans le domaine culturel. Le ministère de la Culture et de la Communication met en oeuvre cette politique qui s'articule autour de quatre points :

  1. Soutenir la création de contenus et de services multimédias.
  2. Numériser le patrimoine culturel français et diffuser les données culturelles sur Internet.
  3. Favoriser la maîtrise des technologies culturelles de l'information et la création multimédia.
  4. Utiliser les technologies de l'information et de la communication pour renforcer la présence internationale de la France et de la francophonie.

A l'occasion de son discours d'ouverture de la fête de l'Internet du 19 mars 1999, Catherine Trautmann donnait quelques chiffres montrant de réelles avancées dans l'usage culturel de l'Internet : par exemple le fait qu'un visiteur sur huit, au Louvre, ait au préalable préparé sa visite sur le site Internet, ou que 500 000 personnes par mois consultent en moyenne une demi-heure le site "culture.gouv.fr".

L'heure est donc maintenant à la généralisation de la diffusion par Internet de la richesse du patrimoine culturel français : citons à titre d'exemple que le site Internet du Louvre permet de consulter 600 photos d'oeuvres majeures, alors que la totalité des dessins et estampes du musée du Louvre, soit plus de 65 000 photos et 130 000 textes, sont disponibles, à titre onéreux, en consultation dans le CyberLouvre (l'espace multimédia du musée).

Usages dans le grand public

Le grand public français est encore en attente du développement massif des usages cités ci-dessus pour banaliser l'utilisation de l'Internet comme il a banalisé l'utilisation du minitel. Il est clair que l'existence de nombreux services sur le minitel a rendu le consommateur français particulièrement exigeant en termes de coût et de facilité d'utilisation des équipements, de disponibilité et d'originalité des contenus, de sécurité et de confidentialité des transactions, etc.

Selon l'AFTEL, les internautes français seraient, début 1999, près de 4 millions. Différentes études effectuées au printemps 1998 par les cabinets IDC et Médiangles faisaient alors état de plus de 2,5 millions d'Internautes français. A titre de comparaison, l'Allemagne compterait en mars 1999 près de 8,5 millions d'Internautes selon le cabinet GFK, et l'Angleterre aurait dépassé les 10 millions d'Internautes en décembre 1998 selon le NOP Research Group.

L'étude IDC de janvier 1999 sur l'Europe de l'Ouest confirme ces ordres de grandeur :

Source : IDC, janvier 1999
Pays Internautes (en millions)
Allemagne 10,29
Royaume-Uni 8,92
France 4,04
Italie 3,09
Suède 2,52
Pays-Bas 2,48
Espagne 2,00
Finlande 1,59
Danemark 1,13
Suisse 1,05
Norvège 1,03
Autriche 0,90
Belgique 0,82
Portugal 0,46
Irlande 0,31
Grèce 0,27
Total Europe de l'Ouest 40,90

A titre de comparaison avec les Etats-Unis, Intelliquest rapportait fin avril 1999 plus de 83 millions d'adultes (de 16 ans et plus) utilisateurs réguliers d'Internet, et 41 millions supplémentaires envisageant de le devenir, dont 17 millions dans les 12 prochains mois.

Recommandations

Des usages nombreux et variés sont des clés essentielles du développement de l'Internet en France. Favoriser par tous les moyens le développement d'applications et de contenus sur l'Internet va permettre d'ouvrir le champ à ces usages, correspondant à des modèles socioculturels variés et adaptés à tous les types d'utilisateurs français. Les recommandations générales sont de :

Favoriser le développement

  • des applications auteurs (logiciels de conception et de gestion de sites, ...)
  • des applications de la convergence (logiciels de téléphonie et vidéo sur IP, ...)

Développer les formations d'enseignement supérieur

  • aux technologies logicielles et matérielles de l'Internet
  • à l'administration des réseaux et des sites
  • à la création et à l'utilisation des services

Ces recommandations doivent être déclinées pour tous les types d'usages : recherche, entreprises, administrations, éducation, culture et grand public. Les actions associées qui peuvent être assumées par les pouvoirs publics différeront donc en conséquence. On peut en suggérer quelques exemples, sans s'y limiter :

Recherche

En premier lieu, la communauté de la recherche française doit s'approprier l'outil efficace que constitue l'Internet pour communiquer et partager l'information afin de :

  • diffuser l'information scientifique et rendre accessibles les résultats sous forme électronique (rapports de recherche, actes des colloques et conférences, thèses, bases de données, revues...) ;
  • mettre en place des communautés d'intérêts thématiques parmi les chercheurs (courrier électronique, forum de discussion, archives de documents, sites de référence et portails dédiés...) ;
  • favoriser l'exploitation des fonds documentaires par l'Internet (mise en ligne des index et thesaurus, moteurs de recherche thématiques, numérisation des documents, applications d'annotation...) ;
  • favoriser la constitution d'équipes pluri-disciplinaires et multi-sites (grâce aux outils de travail coopératif, au télétravail, aux annuaires...).

Cette généralisation de l'usage d'Internet doit s'appliquer non seulement aux domaines de l'informatique et des télécommunications mais à l'ensemble des activités de recherche (physique, mathématiques, biologie, médecine, écologie, sciences humaines...). Au delà de la communauté française, le caractère international de l'Internet doit permettre de fédérer et renforcer l'ensemble de la recherche des pays francophones.

D'autre part, le développement des applications auteurs est certainement un rôle que la recherche en informatique française, au premier niveau mondial dans le domaine de la conception logicielle, pourrait assumer avec talent. L'incitation peut revêtir différentes formes : allocations de recherche spécifiques, concours, incitation à la création d'entreprises, vulgarisation des principes de développement de logiciels libres, ...

Entreprises

Former les formateurs à l'usage et à la création des sites Internet des entreprises pourrait être assuré au niveau des structures publiques et para-publiques, nationales et régionales, en rapport avec les entreprises et en particulier avec les PME : mairies, chambres de commerce, Conseils Régionaux, APCE, etc.

Administrations

Le développement des bonnes pratiques de création, d'usage et d'administration des sites Internet, Intranet et Extranet pourrait être une priorité dans l'administration française. Par le caractère d'exemplarité et du fait de la vaste audience adressée par l'administration, cette mesure pourrait avoir un impact maximal sur l'ensemble des catégories socio-professionnelles françaises.

Education

C'est sans doute dans l'éducation que l'effet de levier peut être maximal, avec des retours à long, moyen et court termes du fait d'effets cumulés sur les enfants, les adolescents, les parents, et les enseignants. Citons en particulier :

La formation des formateurs, en particulier les enseignants, à la création et à l'utilisation des sites Internet et intranet, pourrait être une priorité majeure. Pour cela, les formations devraient adresser tous les étages de la chaîne de l'enseignement, y compris et en priorité les inspections académiques, les IUFM, les médiapôles, etc., chaque étage ayant pour mission de démultiplier au maximum son action de formation pour finalement atteindre chaque enseignant. Inversement, favoriser l'équipement et les initiatives individuelles de chaque enseignant en faveur de sa propre formation permettrait d'atteindre le but plus rapidement.

Les écoles et les universités pourraient être des acteurs exemplaires dans le développement des sites francophones et multilingues. Des travaux tels que exposés, devoirs et autres comptes rendus d'études pourraient être menés, délivrés et évalués sous forme électronique.

Culture

La capacité des organismes culturels à développer des sites francophones et multilingues vulgarisant et pérennisant le patrimoine français sur l'Internet est déterminante. C'est à ce prix que la culture française, et plus largement les valeurs françaises, garderont la place importante qu'elles ont toujours su occuper au niveau mondial.

Grand Public

Des centres de ressources locaux favorisant la formation et le développement de contenus pourraient être généralisés dans les structures administratives locales, en particulier dans les mairies.

 

Références

Applications et Contenus

Références de l'étude Future of the Internet du cabinet Datamonitor
http://www.datamonitor.com/dmhtml/tc/tcwww.htm
L'étude des domaines Internet par Network Wizards, janvier 1999
http://www.nw.com/zone/WWW/
Historique des débuts du Web
http://www.w3.org/History.html
National Center for Supercomputing Applications (NCSA)
http://www.ncsa.uiuc.edu
Netscape Communications Corp.
http://www.netscape.com
Guide des services minitel
http://www.minitel.tm.fr
Association Française pour le Nommage Internet en Coopération (AFNIC)
http://www.nic.fr
RIPE NCC (Centre de coordination des réseaux IP européens)
http://www.ripe.net
Le cabinet Frost & Sullivan
http://www.frost.com
Le rapport de Jean-Claude Merlin sur la téléphonie sur IP
http://www.telecom.gouv.fr/francais/activ/techno/rap_merlin1098_7.htm

Usages dans la recherche

Le REseau NAtional de télécommunications pour la Technologie, l'Enseignement et la Recherche, Renater
http://www.renater.fr/Reseau/Reseau-RENATER.html
Le réseau européen de la Recherche TEN-155
http://www.dante.net/ten-155/
Le programme "Next Generation Internet" américain
http://www.ngi.gov
Les applications expérimentales envisagées dans le programme "Next Generation Internet" américain
http://www.ngi.gov/apps/

Usages dans les entreprises

Le rapport de Francis Lorentz de janvier 1998 sur le Commerce Electronique
http://www.finances.gouv.fr/commerce_electronique/lorentz/sommaire.htm
Le rapport de Francis Lorentz de février 1999 sur le Commerce Electronique
http://www.finances.gouv.fr/lorentz/travaux/
Le cabinet d'études Benchmark Group
http://www.benchmark.fr/
La société de conseil PricewaterhouseCoopers
http://www.pwcglobal.com/
L'organisme UFB Locabail
http://www.ufb-locabail.fr/
La société de conseil SVP
http://www.svp.fr

Usages dans l'administration

Le discours d'Hourtin du Premier ministre en août 1997
http://www.premier-ministre.gouv.fr//PM/D250897.HTM
Le site Vos Droits de l'Administration française
http://vosdroits.admifrance.gouv.fr/
Le site du Cerfa
http://www.cerfa.gouv.fr/
L'annuaire des sites de l'administration française
http://www.admifrance.gouv.fr/cgi-bin/multitel/admifrance/sommaire

Usages dans l'éducation

Le Ministère de l'Education Nationale, de la Recherche et de la Technologie (MENRT)
http://www.education.gouv.fr/
La politique gouvernementale concernant les nouvelles technologies dans l'enseignement
http://www.education.gouv.fr/actu/techno.htm
http://www.education.gouv.fr/actu/techno2.htm
Le réseau Educnet
http://www.educnet.education.fr
Les serveurs des académies
http://www.educnet.education.fr/us/res/bserveur.htm

Usages dans la culture

Le ministère de la Culture et de la Communication
http://www.culture.gouv.fr/
Les mesures gouvernementales concernant l'usage des nouvelles technologies dans la culture
http://www.culture.fr/culture/actual/communiq/plangouv.htm
Le discours de Catherine Trautmann à l'ouverture de la fête de l'Internet le 19 mars 1999
http://www.culture.gouv.fr/culture/actualites/conferen/inauguration-interfete99.htm
Le musée du Louvre
http://www.culture.fr/louvre/

Usages dans le grand public

L'Association Française de la Télématique Multimédia (AFTEL)
http://www.aftel.fr
Le cabinet d'études IDC
http://www.idcresearch.com
Le cabinet d'études Médiangles
http://www.mediangles.fr
Le cabinet d'études GFK
http://www.gfk.cube.net
Le cabinet d'études NOP Research Group
http://www.nop.co.uk
L'étude américaine du cabinet Intelliquest d'avril 1999
http://www.intelliquest.com/press/release78.asp

 

TECHNOLOGIES ET STANDARDS

Contexte international

Une dynamique technologique originale

Le développement technique de l'Internet bénéficie d'une dynamique originale. Cette dynamique repose sur les progrès technologiques accomplis dans les domaines des télécommunications et de l'informatique ainsi que sur le développement et le déploiement accélérés des standards qui définissent l'Internet et ses applications.

L'Internet a été conçu pour rendre indépendantes

  • la conception des applications :
    • transfert de fichiers,
    • courrier électronique,
    • Web,
    • téléphone,
    • vidéo-conférence,
    • ...
  • l'infrastructure qui supporte la communication :
    • réseau téléphonique,
    • réseau câblé,
    • satellites,
    • fibre optique,
    • ...

Le coeur de l'Internet repose ainsi sur le protocole IP (Internet Protocol) qui assure cette indépendance. Chaque développeur d'applications n'a pas à connaître les éléments de l'infrastructure qui permettront d'acheminer les informations. Les développeurs de l'infrastructure n'ont pas à connaître les applications qui seront mises en oeuvre. Ce choix d'architecture explique le nombre et la richesse des applications et usages de l'Internet (voir Chapitre Applications et Usages). Il explique également la grande variété des supports sur lesquels l'Internet se déploie.

Technologies

Sans chercher l'exhaustivité, quelques technologies-clés sont décrites pour montrer le potentiel de développement technique dont dispose l'architecture de l'Internet.

Technologies de communication : technologie optique

Dès le début des années 1990, les réseaux de transport terrestres et sous-marins sont passés de technologies radio (réseaux hertziens, cuivre sous-marin, satellites) à des technologies optiques (fibres, amplificateurs) caractérisées par une plus forte intégration, une meilleure immunité aux bruits, une consommation d'énergie diminuée, des débits considérablement accrus et des coûts diminués d'au moins un ordre de grandeur.

L'utilisation puis les progrès des technologies laser (émission, amplification et réception) et du verre (fibre multimode puis monomode) ont permis aux débits de base de passer de 34 Mbit/s (faisceaux hertziens) à 155 Mbit/s pour les premières fibres et d'atteindre aujourd'hui 2,5 Gbit/s, voire 10 Gbit/s. Il convient de souligner qu'à ces débits, les équipements de routage IP doivent évoluer pour tirer parti d'une telle bande passante.

Le maintien, pendant la transmission, d'un rapport signal/bruit acceptable imposait l'utilisation fréquente (tous les 10 à 40km, le pas de régénération) d'éléments chargés d'extraire le ou les flots de données sous forme électrique, de les remettre individuellement en forme (suppression des bruits, correction des erreurs, amplification) et de les réémettre sous forme de signal optique. La fonction d'amplification est aujourd'hui assurée par des amplificateurs purement optiques, séparés par des distances plus grandes (de l'ordre de la centaine de km), capables de traiter simultanément plusieurs flots de données multiplexés dans un même signal optique (WDM, Wave Division Multiplexing) sans complexification accrue. La régénération, qui reste nécessaire sur les très grandes distances, peut être placée directement dans les routeurs de l'ossature du réseau IP.

Les progrès en termes de régénération conjugués aux progrès autour de la fibre optique (nappes de 100 à 400 fibres, enfouies à quelques centimètres de profondeur, plus faiblement alimentées) favorisent la viabilité économique des nombreux projets de réseaux locaux ou intercontinentaux à haut-débit (dix à cent fibres, chacune capable d'écouler 16 à 40 fois 2,5 Gbit/s) et garantissent leur évolution dans le temps. Les facteurs de multiplexages, prévus autour de 300 pour DWDM, associés à un débit de base passant à 10 Gbit/s (OC-192), autorisent un facteur multiplicatif d'environ 100 au niveau du débit.

DWDM autoirsera un facteur
de m
Le débit de base passe à 10 Gbit/s et le facteur de multiplexage passe à 300

Aujourd'hui, des architectures électroniques matérielles de commutation spécifiques à la technologie SONET-SDH permettent de constituer des boucles redondantes à partir des fibres point à point, d'y insérer ou d'en extraire des flots locaux (Add and Drop Multiplexors, ADM) et d'agréger les boucles entre elles (Digital Cross Connect, DXC) pour en augmenter la portée ou la redondance.

À l'avenir, la commutation optique, et surtout l'extraction optique qui semble, au mieux, à l'état de prototype de laboratoire, pourrait remplacer l'architecture matérielle SONET-SDH. Les routeurs IP - ayant évolué entre temps vers le tera-bit/s - accèderaient alors directement à l'architecture entièrement optique pour un nouveau gain en termes de prix et de débit de base.

D'autres technologies radicalement différentes pourraient arriver à maturité pour prendre ensuite le relais de la technologie optique actuelle. On peut citer en exemple :

  • De nouvelles fibres sans atténuation spectrale qui autorisent des facteurs de multiplexage considérablement plus élevés.
  • L'utilisation de l'effet Soliton (prototype de laboratoire au CNET en mars 1999) qui tire parti d'effets quantiques dans la fibre pour éviter la dispersion spectrale de signaux émis alors en mode impulsif.
Une industrie en évolution rapide

L'évolution technologique des réseaux de transport se fait par ère correspondant à des changements radicaux des mécanismes mis à contribution (radio, fibre et SDH, tout optique, effets quantiques). Elle suit également la loi de Moore (doublement des débits effectifs tous les x mois) à l'intérieur de chaque ère.

L'innovation suit un cycle plus classique que celui des technologies logicielles de l'Internet. Les laboratoires de recherche publics et privés (Bell Labs, Alcatel) mènent les recherches de base. Des sociétés de technologie (Cienna, Tellabs, Photonetics) développent des savoir-faire éventuellement repris par les grands équipementiers (Lucent Technologies, Alcatel, Nortel, Cisco).

Composants matériels : processeurs

L'évolution rapide et soutenue des processeurs et des mémoires joue un rôle fondamental dans le développement de l'Internet : elle permet d'accompagner - voire de motiver - la demande, toujours croissante, en puissance de traitement et de transmission de l'information.

Évolution des caractéristiques des processeurs
1971 1974 1978-79 1985 1989-90 1993 1995 1997 1999 2000-01
Architecture (bits) 4 8 8/16/32 16/32 16/32 32 32/64 32/64 32/64 64*
Transistors (millions) 0,002 0,01 0,03 0,270 1,2 2,8-3,1 2,6-5,5 5,5-7,5 9,5 15-30*
Horloge (MHz) 0,74 2 5-8 16-25 25-40 50-60 100-166 200-300 450-600 >1000*
Exemples Intel 4004 Intel 8080

Motorola 6800

Intel 8086

Motorola 68000

Intel i386DX

Motorola 68020

Intel i486DX

Motorola 68040

SPARC

Intel Pentium

PowerPC 601

Super SPARC

Intel PentiumPro

PowerPC 603e

Ultra SPARC

Intel PentiumII

PowerPC G3

Ultra SPARC-II

Intel PentiumIII

PowerPC G4*

Ultra SPARC-III*

Intel Merced*

Ultra SPARC-IV*

note: * = annoncé

Les besoins en puissance concernent tant les équipements applicatifs (serveurs d'applications, PC, terminaux...) que les équipements d'infrastructure (serveurs de connexion, routeurs, passerelles...). A titre d'exemple, chaque image du film d'animation Toy Story aurait demandé 35 heures de calcul sur une station en 1990 mais seulement 7 minutes en 1999. Côté équipement d'infrastructure, on estime que chaque noeud du réseau devra transmettre 10 fois plus d'information qu'aujourd'hui en 2001, et 40 fois plus en 2005. La demande sur ces équipements est considérable si l'on rappelle que chaque Mégabit d'information transmis par seconde (Mbps) nécessite approximativement 1 million d'instructions par seconde (Mips).

Compte tenu de l'évolution, pourtant rapide, des composants matériels, on constate que le gain en puissance brute ne suffit pas à répondre à ces demandes : les constructeurs doivent intégrer dans leurs architectures des modules et des instructions spécifiques permettant de les adapter aux nouveaux usages. C'est ainsi que l'on voit apparaître des processeurs de traitement dotés en standard d'instructions graphiques (MMX, 3D Now!, ...) et que de nouvelles architectures sont annoncées pour des processeurs spécialisés réseau (network processors) à très haute intégration et faible coût.

Composants logiciels

L'architecture de l'Internet a été conçue pour tirer le meilleur parti des composants matériels et logiciels. C'est ainsi qu'au fur et à mesure des progrès des matériels génériques, de plus en plus de fonctions sont mises en oeuvre en logiciel (routage, nommage, piles protocolaires, sécurité, chiffrement, applications).

L'usage intensif du logiciel est un moteur fondamental de l'Internet : une idée, un protocole ou une fonction peuvent être prototypés rapidement et testés avant d'être réalisés par un matériel spécifique, seulement si les performances ou les coûts l'exigent. Ainsi, il est possible d'acheter un ordinateur généraliste doté d'une carte réseau et, à l'aide de logiciels uniquement, le transformer en routeur, en coupe-feu, en serveur d'information, en station de radio, en lecteur de musique, en salle de jeu virtuelle, en vidéothèque, en téléphone, en magnétoscope. Il est bien sûr possible de s'en servir également pour naviguer sur le Web.

A l'inverse, on observe aussi le retour d'équipements dédiés (serveurs Web de type "boîte noire", navigateurs Web sur téléphone portable, minitel-internet, lecteurs de musique rechargeables, équipements domotiques, ...) qui restent en général compatibles avec un logiciel équivalent s'exécutant sur un ordinateur.

Des composants logiciels à tous les niveaux de l'architecture

Des couches les plus basses de l'infrastructure aux applications mises à la disposition de l'usager, les logiciels remplissent des fonctions très variées :

  • traitement de l'information et du signal,
  • protocoles,
  • fonctions génériques (systèmes d'exploitation, serveurs, navigateurs, ...),
  • applications (travail coopératif, vidéo-conférence, moteurs de recherche, ...).

Chaque classe a un modèle de développement particulier :

  • les logiciels de traitement de l'information et du signal bénéficient des progrès en mathématiques ou algorithmique (utilisation de modèles fractals ou d'ondelettes pour la compression, de fonctions elliptiques pour la cryptologie), d'une meilleure connaissance des contenus (compression de l'image et du son adaptée à la nature des informations échangées ou utilisant les connaissances sur les mécanismes de la perception humaine) et des avancées matérielles qui permettent l'intégration des fonctions et le couplage fin entre matériel et logiciel (intégration entre signaux analogiques et numériques, processeurs de traitement du signal, ...). Souvent issus de centres de recherche, les algorithmes font l'objet de comparaison et de sélection en général au cours du processus de normalisation.

    Quelques exemples :

    • les algorithmes de codage vidéo (IUT-T H.263, ISO/MPEG2, ...),
    • les algorithmes de codage audio (ISO/MPEG audio Layer 3 ou MP3, IUT-T G.722, RealAudio, ...),
    • les techniques de modulation (IUT-T V34, V42bis, V.90, les normes RNIS, xDSL, ...),
    • les algorithmes de cryptologie (DES, RSA, ...),
    • les techniques de compression (ZIP; LZH, LZS, ...).


  • les logiciels et les protocoles réseau sont implantés dans des équipements situés au sein du réseau. Même s'ils peuvent émerger dans le monde académique ou dans des sociétés de technologie, ils sont souvent déployés par des grands équipementiers pour le compte des opérateurs. Performances, fiabilité et interfonctionnement constituent les critères de sélection ainsi que les fonctionnalités d'administration. Pour l'Internet, la situation a longtemps été simplifiée par l'omniprésence du standard IPv4. La migration vers IPv6 ainsi que le besoin de fonctionnalités supplémentaires telles que la diffusion, le transport de la voix ou la qualité de service contribuent à offrir des opportunités et à diversifier les solutions techniques et les scénarios de déploiement.

    Quelques exemples :

    • les protocoles réseaux (IP, IPv6, ...),
    • les techniques de routage (MPLS, DiffServ, ...),
    • les protocoles et logiciels d'administration (par exemple SNMP ou l'enregistrement des noms de domaine SRS),
    • les services d'infrastructure (résolution d'adresse ARP, nommage DNS, annuaire LDAP, sécurité IPSEC, ...),
    • les services de traitement des flux (téléconférence H.323, voix VOIP, ...).


  • les logiciels et formats génériques constituent les briques de base sur lesquelles se bâtissent les logiciels applicatifs. Les acteurs sont très diversifiés : on y trouve aussi bien des exemples de développement par des individus (système Linux ou langage Perl par exemple) que par des équipes importantes (Corba), des développements en logiciel libre (serveur Apache) que des produits fermés (navigateur Microsoft), des formats publics (HTML) que des formats propriétaires (RealAudio). Un des enjeux du domaine (qui peut parfois être un frein au développement) est la maîtrise de la complexité croissante : la réalisation d'une fonction donnée nécessite souvent l'intégration de composants logiciels hétérogènes et parfois des adaptations difficiles (voir par exemple la complexité des navigateurs Web).

    Le rôle des organisations de standardisation s'étend pour inclure la notion d'architecture des logiciels. Deux exemples :

    • OMG et les techniques à objets Corba, UML,
    • W3C et le format générique de représentation de données XML.


  • les applications répondent à un besoin fonctionnel précis et sont exploitées directement par les utilisateurs. Les applications de l'Internet sont traitées dans le chapitre Applications et Usages.

Standards

L'architecture de l'Internet exploite de nombreux standards issus du monde des télécommunications ou de l'informatique. Plus récemment, les standards du monde de l'audiovisuel ont commencé à prendre leur place sur l'Internet. Les deux organisations (IETF, W3C) qui constituent les moteurs d'évolution de l'Internet sont présentées. Les organisations de standardisation qui prennent en compte l'évolution de l'Internet sont évoquées.

L'Internet Engineering Task Force (IETF)

L'IETF est "une communauté vaste et ouverte de concepteurs de réseaux, d'opérateurs, de vendeurs et de chercheurs soucieux de l'évolution de l'architecture d'Internet et de son opération pérenne", et le lieu de standardisation des technologies de l'Internet. Ses groupes de travail sont organisés en 8 thèmes ou domaines ("area") représentatifs des classes de travaux en cours :

  • Applications (protocoles applicatifs, HTTP, LDAP, MIME, fax, e-commerce)
  • Général (aaa : Authentication, Authorization and Accounting)
  • Internet (IP over everything, dont Packet over SONET)
  • Opérations et supervision (SNMP, MIB, Network access services, remote operations, monitoring and authentification, itinérance)
  • Routage (OSPF, IS-IS, protocoles de diffusion, MPLS, UDLR, ...)
  • Sécurité (protocoles de sécurité et de gestion de la sécurité, IPSEC, DNSSEC, open PGP, secure WEB)
  • Transport (Quality of Service, réservation RSVP, services différenciés DIFFSERV, mesure de performances IP, téléphonie IP, diffusion fiable, IP sur satellite, ...)
  • Services utilisateurs (éducation et information des utilisateurs)

Les directeurs de thème sont membres de l'Internet Engineering Streering Group (IESG) qui approuve les documents provisoires (Internet Draft) ayant atteint une maturité suffisante pour devenir RFC (Request For Comment) et précise ceux des RFC qui constituent les standards de l'Internet ainsi que leur niveau de recommandation. L'IESG est chargé de la direction technique de l'IETF.

Le sujet et le mandat des groupes de travail (une centaine aujourd'hui) sont proposés lors des trois réunions annuelles de l'IETF puis élaborés entre le groupe provisoire et le directeur de thème pour être ensuite approuvés par l'IESG. Le groupe de travail est limité dans la durée et dans l'objet. Les membres du groupe sont des personnes, ingénieurs et chercheurs, plus que des représentants formels d'organisations. Ils travaillent principalement par courrier électronique, audio et vidéo-conférence Internet et aussi lors de sessions plénières à l'occasion des réunions de l'IETF. Ils s'appuient sur le credo de l'IETF ("rough consensus and running code") pour élaborer des propositions étayées par des mises en oeuvre effectives ("running code") et rencontrant un consensus suffisant ("rough consensus") parmi les participants.

Le projet Internet (Internet draft) est la concrétisation provisoire des travaux du groupe et doit - dans les six mois de sa parution - être approuvé en tant que RFC par l'IESG ou être amendé et proposé à nouveau, ou être retiré de la publication. De nombreux RFC - souvent purement informatifs - n'ont pas vocation à devenir un standard. Les standards peuvent être obligatoires (Required), recommandés (Recommended), facultatifs (Elective), d'utilisation limitée (limited use) ou déconseillés (Not Recommended). Ils passent de l'état standard proposé (Proposed Standard) à projet de standard (draft standard) puis standard (Standard) selon leur degré d'évolution et de déploiement.

Le World Wide Web Consortium

Le Consortium international World Wide Web (W3C) rassemble un peu plus de 330 organisations à travers le monde. Il est hébergé, en Amérique, par le laboratoire d'informatique du Massachusetts Institute of Technology (MIT-LCS), en Europe, par l'INRIA (Institut National de Recherche en Informatique et Automatique), en Asie par l'Université de Keio. Le consortium a pour mission de "mener le Web à son meilleur potentiel", c'est-à-dire développer un espace d'informations universel où l'utilisateur puisse conduire ses activités

  • individuelles,
  • en équipe,
  • au sein d'organisations,
  • de manière "ouverte" au public.

Le Web tiendra ses promesses lorsque

  • l'accès aux informations sera universel, c'est-à-dire accessible à chacun quels que soient sa culture, sa langue, ses capacités intellectuelles et physiques et les moyens techniques disponibles,
  • les machines pourront tirer parti des informations pour effectuer les tâches répétitives au service de l'utilisateur.

Pour atteindre ces objectifs, le W3C doit

  • éviter la fragmentation du marché (rôle de standardisation),
  • développer une architecture robuste, extensible et adaptable (rôle de conception),
  • garantir l'accessibilité (prise en compte des contraintes sociétales),
  • promouvoir les bonnes pratiques (rôle d'éducation).

Cette approche originale du développement technique associe les acteurs du marché, les concepteurs de technologies et les besoins du grand public.

Parmi les réalisations les plus significatives du consortium, on peut citer

  • le protocole HTTP (en partenariat avec l'IETF),
  • les langages HTML et XML,
  • les applications de XML pour gérer les graphiques (SVG), les signaux multimédia (SMIL),
  • le langage de description de métadonnées RDF,
  • le langage de description de feuilles de style CSS.

Il convient également de mentionner les efforts en vue d'intégrer le Web dans le mouvement vers la convergence, en partenariat avec le WAP Forum pour les questions relatives à la mobilité et avec les organisations de standardisation du monde de l'audiovisuel.

Les organisations concernées par l'Internet

Plusieurs organisations nationales, professionnelles ou internationales de normalisation contribuent au processus de standardisation d'éléments de l'infrastructure Internet. Ainsi l'IEEE (Institute of Electrical and Electronics Engineers) est le lieu privilégié de la normalisation des réseaux locaux (Ethernet à 10, 100 et 1000 Mbit/s, Hiperlan, Firewire, ...). L'ETSI (European Telecommunications Standards Institute) mène une activité de standardisation dans des domaines avancés des télécommunications (téléphonie mobile de 3ième génération, terminaux, voix sur IP, sécurité, réseaux intelligents, ...). Les technologies traditionnelles des télécommunications, dont les technologies optiques et SDH, sont normalisées à l'UIT (Union Internationale des Télécommunications) qui reprend également dans sa nomenclature des normalisations issues, entre autres, de l'IEEE (réseaux locaux) et des Bell Labs (SONET). Forums et consortiums s'attachent à définir avec célérité des fonctionnalités spécifiques (ADSL Forum, ATM Forum, QoS Forum, par exemple).

Situation en France

Une contribution limitée jusqu'à présent

La France s'est engagée avec retard dans le développement technique de l'Internet. Malgré des contributions techniques lors de l'émergence des techniques de routage par paquets, puis la présence significative de la communauté de la recherche française dans les travaux de conception, l'Internet n'a trouvé sa place dans la stratégie des entreprises de l'offre ou de la demande que très récemment. Ce retard se traduit par un déficit important en termes de compétences. Le positionnement meilleur sur les autres technologies de la convergence (télécommunications et audiovisuel) peut permettre de saisir les opportunités nouvelles.

Technologies

Technologies de communication : technologie optique

Dans le domaine de la technologie optique, la France est présente grâce aux laboratoires de recherche privés tels que le Centre de recherche d'Alcatel, le CNET et la collaboration Opto+ entre Alcatel et le CNET, ou publics tels que le Laboratoire d'Optique Appliquée (commun à l'ENSTA et Polytechnique) et aux sociétés de technologie telles que Photonetics. Les équipementiers, essentiellement Alcatel, occupent une place internationale significative au niveau optique, fibre (fourniture de fibre, câbles sous-marins et navires câbliers) et équipements SDH.

Composants matériels : l'opportunité des architectures embarquées

La France, comme le reste de l'Europe, est quasiment absente du marché des principaux composants matériels utilisés en informatique traditionnelle. Des compétences françaises sont toutefois présentes sur le marché de l'informatique embarquée, avec un certain succès. On peut citer en particulier :

  • Gemplus, groupe français, premier fournisseur mondial de cartes à puce, de cartes sans contact et de cartes à bande magnétique. Gemplus investit massivement dans les nouveaux usages des technologies de l'information comme le commerce électronique, la sécurité sur Internet, et la télévision interactive.
  • Bull Smart Cards & Terminals, division du groupe BULL, premier fournisseur mondial de cartes à puce et de terminaux pour transactions sécurisées. Bull SC&T est un acteur majeur de l'intégration de la carte à puce dans l'environnement PC et de la définition des cartes et terminaux Java (JavaCards, JavaTerminals).
  • ST Microelectronics, groupe franco-italien, classé neuvième fournisseur mondial de composants électroniques. ST Microelectronics est l'un des tous premiers acteurs mondiaux dans les décodeurs MPEG-2, les processeurs de boîtiers de télévisions (TV set-top box), et les processeurs pour cartes à puces.
  • Temic Semiconductors, société franco-allemande, filiale du groupe américain Atmel, spécialisée dans les microcontrôleurs et composants associés pour les télécommunications, l'automobile et les autres domaines industriels. La partie française est issue de l'ancienne filiale Matra-MHS du groupe Matra.
  • Tsqware, société de technologie créée aux Etats-Unis par des français issus de Matra-MHS, avec $25M de capitaux internationaux, se positionne sur le marché très prometteur des processeurs de réseau. L'équipe de conception est basée en France.

Le développement technique de l'Internet étant piloté par les extrémités (usages, applications et équipements), ces compétences ont devant elles de réelles opportunités de positionnement au niveau international.

Composants logiciels

La dynamique technologique des composants logiciels a été accélérée à travers le monde (en Californie, en particulier) par la création de sociétés de technologie. Durant les années 80, une première génération de sociétés a vu le jour en France (citons par exemple Business Objects, Ilog, Chorus). Parmi ces exemples, certaines (Business Objects, Ilog) sont maintenant cotées au Nasdaq, d'autres (Chorus) ont intégré de grands groupes (Sun Microsystems). Business Objects par sa migration vers XML, Ilog par ses composants graphiques, Chorus en fournissant un noyau de machine virtuelle Java, sont des acteurs industriels du développement technique de l'Internet. Les opportunités ouvertes par la convergence devraient permettre à des compétences du monde des télécommunications et de l'audiovisuel de créer une nouvelle génération de sociétés de technologie sur des sujets tels que la téléphonie sur IP (Aplio), la télévision sur le Web (CanalWeb) ou les terminaux Web grand public (Netgem). Certaines de ces sociétés parient sur l'utilisation de logiciels libres, Linux notamment (Netgem, Cyberdesk).

Standards

Le déficit de compétences françaises est particulièrement apparent dans les organisations de standardisation de l'Internet (IETF, W3C). Bien que l'hôte du W3C en Europe soit hébergé à l'INRIA et que les société françaises aient été impliquées dès l'origine à la mise en place du consortium, la participation aux travaux est significativement insuffisante pour espérer atteindre une place de leader. De même, les contributions françaises aux travaux de l'IETF (IPv6, UDLR...) ou de l'IEEE (Hiperlan) sont souvent dues au bon niveau de la recherche publique sans que cela ne se soit traduit par des résultats de nature industrielle, jusqu'à présent.

Recommandations

Enrichir la culture de l'Internet et des technologies de la convergence
  • Donner la priorité aux technologies de l'Internet dans le financement public des efforts de recherche
  • Créer une fondation pour le développement de logiciels libres
  • Favoriser la prise en compte des dimensions économique et sociale dans le développement technologique par l'organisation d'échanges pluridisciplinaires
  • Renforcer la participation française aux organismes de standardisation (IETF, W3C) et aux manifestations scientifiques internationales

La recherche en technologies de l'information est désormais devenue une priorité dans tous les pays du monde. S'agissant des technologies de l'Internet, la France doit, en plus, faire face à une situation où le retard accumulé demande des mesures d'urgence. L'augmentation du financement public de la recherche doit être réparti entre les laboratoires publics et privés de manière à couvrir les aspects les plus avancés aussi bien que les expérimentations proches du déploiement. L'effort doit aussi être conduit en accord avec la culture de l'Internet. Encourager le développement de logiciels libres est un moyen de créer un réseau de compétences rompu aux pratiques de la communauté de l'Internet. Le stade de développement de l'Internet soulève de nombreuses questions à caractère multidisciplinaire (techniques, économiques et sociales). La France a les ressources pour rassembler une communauté apte à fournir des solutions réalistes aux questions de fond posées au développement de l'Internet.

Au fur et à mesure que les compétences nationales se développeront, la participation aux organisations et aux manifestations internationales devra être soutenue pour permettre à la communauté française d'apporter sa contribution.

 

Références

Effet Soliton
http://www.lucent.com/museum/fins.html
http://www.cnet.fr/actua/article5a.html
CNET : Térabit/s sur 1000km par effet soliton (mars 1999)
http://www.cnet.fr/actua/article5.html
Bell Labs
http://www.bell-labs.com
Alcatel
http://www.alcatel.com/
CNET : Centre de R&D de France Télécom
http://www.cnet.francetelecom.fr/
LOA : Laboratoire d'Optique Appliquée
http://www.ensta.fr/loa/
Ciena
http://www.ciena.com/
Tellabs
http://www.tellabs.com/
Photonetics
http://www.photonetics.com/
Lucent Technologies
http://www.lucent.com
Nortel
http://www.nortelnetworks.com/index.html
Cisco
http://www.cisco.com
IETF : Internet Engineering Task Force
http://www.ietf.org/
IETF : Working Groups
http://www.ietf.org/html.charters/wg-dir.html
RFC 2026 : The Internet Standards Process
ftp://ftp.ietf.org/rfc/rfc2026.txt
RFC 2418 : IETF Working Group Guidelines and Procedures
http://www.ietf.org/rfc/rfc2418.txt
OMG : Object Management Group
http://www.omg.org
W3C : World Wide Web Consortium
http://www.w3.org
MIT-LCS : Laboratory for Computer Science at MIT
http://www.lcs.mit.edu
INRIA : Institut National de Recherche en Informatique et Automatique
http://www.inria.fr
Université de Keio
http://www.keio.ac.jp
GFSI : Groupe Français pour la participation à la standardisation de l'Internet
http://www.isoc.asso.fr/IETF/tao.html
IEEE : Institute of Electrical and Electronics Engineers
http://www.ieee.org
ETSI : European Telecommunications Standards Institute
http://www.etsi.org
UIT : Union Internationale des Télécommunications
http://www.itu.int/
Gemplus
http://www.gemplus.fr
Bull Smart Cards & Terminals
http://www.cp8.bull.net
ST Microelectronics
http://eu.st.com
Temic Semiconductors
http://www.temic-semi.com
Tsqware
http://www.tsqware.com
Chorus Systems Acquisition
http://www.sun.com/smi/Press/sunflash/9711/sunflash.971111.4.html
Business Objects : Scaleable Decision Support Solutions for the Enterprise Outils d'aide à la prise de décision ?
http://www.businessobjects.com/news/index.htm
Ilog : composants logiciels de visualisation et d'optimisation
http://www.ilog.fr
Aplio : Aplio/Phone, un poste de téléphone Internet
http://www.aplio.com/company/ctOverview.htm
CanalWeb : Émissions de télévision interactives et création de chaînes spécifiques à Internet
http://www.canalweb.net
Netgem
http://www.netgem.com/french/
le Groupe G6 d'expérimentations IPv6
http://phoebe.urec.fr/G6/
UDLR : UniDirectional Link Routing
http://www-sop.inria.fr/rodeo/udlr/
HIPERLAN : High Performance Radio Local Area Network
http://donald2.inria.fr/hiperlan/hiperlan.html

 

DÉVELOPPEMENT TECHNIQUE DE L'INTERNET

Partie B : Composants Techniques de l'Internet

 

RÉSEAUX DE TRANSPORT

Contexte international

Diversité des technologies et concentration des acteurs

Dès l'origine, le protocole de communication IP a été conçu pour tirer parti de tout support de transmission d'informations ("IP over everything") et constituer des réseaux qui, mis bout à bout, constituent des réseaux plus vastes. Ceux-ci, interconnectés à leur tour, forment l'Internet, sur lequel sont déployés les services.

Pour cela, l'essentiel de l'intelligence - dont le protocole TCP et les applications de diffusion - nécessaire au fonctionnement du réseau est déporté dans les noeuds terminaux plutôt que dans les commutateurs intermédiaires, moins aisément reprogrammables par les expérimentateurs. Seules les propriétés communes des réseaux sous-jacents sont sollicitées sans privilégier a priori leurs caractéristiques propres, partant du principe qu'aucun ne suffit à lui seul mais que chacun apporte sa contribution dans l'interconnexion. Les mécanismes d'acheminement se contentent d'une obligation de moyens (best effort) plutôt que d'une obligation de résultat (qualité de service, Quality of Service, QoS).
Les groupes de travail de l'IETF définissent l'encapsulation propre à chaque support sous-jacent, les mécanismes de bout en bout garantissant la stabilité d'Internet et assurant la qualité de service si nécessaire.

Entre 1994 et 1998, l'Internet est passé du statut de plate-forme préfigurant le réseau à très haut débit ( le "Gigabit network" de la loi cadre Gore, l'autoroute de l'information ) à celui de candidat déclaré.

Evolution des débits

Internet Backbone Growth
Evolution comparée des débits Internet et téléphoniques dans le monde
Source : NSFnet, MCI cité par Pluris.com

En Amérique du Nord :

  • Le débit - commercialement disponible pour l'Internet - des réseaux de télécommunication à longue distance est compris entre 622 Mbit/s et 10 Gbit/s.
  • Les nouveaux opérateurs (Qwest, Level3, Frontier, Williams, IXC, GTE, Global Crossing, Flag) posent des fourreaux de dix à cent fibres optiques utilisées à 2.5 et 10 Gbit/s et extensibles à 40 Gbit/s par utilisation de multiplexage en fréquence (DWDM). Ainsi, Qwest pose, sur 15000 milles, deux fourreaux dont un seul est à moitié rempli de 96 fibres, 48 étant à échanger contre des fibres d'opérateurs présents sur d'autres scènes géographiques terrestres ou sous-marines (Cable and Wireless).

Le réseau vBNS de MCI et NSF
Le réseau vBNS de MCI et NSF - http://www.ncs.gov/Image-Files/exhibit2-6.gif

  • Des laboratoires et universités participant à des projets de recherche scientifique accèdent au réseau opérationnel à haut débit vBNS de MCI et National Science Foundation, en IP sur ATM à 622 Mbit/s avec quelques conduits à 2,5 Gbit/s ; les dessertes des universités et centres de recherche sont à 43 et 155 Mbit/s. La NSF est très vigilante pour que l'utilisation de vBNS ne fasse pas entorse à la concurrence et les sites qui y accèdent ne représentent qu'environ 5% de la recherche et de l'enseignement supérieur.
  • Le projet Abilène (UCAID, Nortel, Cisco et Qwest en IP sur SONET) déploie un réseau opérationnel et une plate-forme d'expérimentation pour les recherches sur le haut débit, à 2,5 Gbit/s (puis 10 Gbit/s) à partir de composants existants.
  • En 1998 débute au Canada le déploiement en IP sur WDM à 2.5  Gbit/s (40 Gbit/s de débit aggrégé) d'un réseau CA*net3 pour la R&D (de CANARIE, Bell Canada et Cisco)
  • Les plates-formes d'expérimentations de l'initiative fédérale NGI (NASA, DOE, NIH, DARPA, NSF ; 114 millions de dollars par an de 1998 à 2000) utilisent et développent les composants nécessaires à 2,5 et 10 Gbit/s (IP sur SONET sur WDM puis IP sur commutation optique) et visent 500 Mbit/s entre applications.

En Europe :

Prix, aux USA et en Europe, des lignes
louées par Mbit/s et        par km
Prix des lignes louées par Mbit/s et par km en dollars US sur le marché spot de Band-X
Taking account of distance in monthly leased line prices - Source : OCDE, DSTI/ICCP/TISP(99)4

  • L'offre commerciale des réseaux de télécommunications disponibles pour Internet (HER, BT, WorldCom) porte au mieux sur le 155 Mbit/s terrestre et sous-marin et le plus souvent sur le 34 Mbit/s. Le prix annuel d'une ligne 34 Mbit/s typique (entre deux capitales) est de 4 à 7 millions de dollars jusqu'en 1997 et passe alors à 2 millions de dollars (le prix - au même moment - de 155 Mbit/s aux Etats-Unis). Avec l'apparition des nouveaux opérateurs (KPN-Qwest, Global Crossing, Worldcom), les mêmes 2 millions de dollars permettent l'accès au 155 Mbit/s, et pour une durée de 20 ans (IRU, Irrevocable Right of Usage) au prix usuel de 3 ans.
  • En 1999 l'offre des revendeurs de capacité IP pan-européenne (AT&T Unisource, HER/Ebone, Carrier 1) porte au mieux sur le 34 Mbit/s et le plus souvent sur le 2 Mbit/s sur leur infrastructure à 155 Mbit/s.

Le réseau TEN 155 de
Dante, à 1
Le réseau TEN 155 de Dante, à 155 Mbit/s en Europe
Source Dante, http://www.dante.net/ten-155/ten155net.gif

  • A partir de 1999, DANTE déploie le réseau opérationnel du monde de la R&D (TEN-155, en IP sur ATM sur SDH, localement en IP sur SDH) à 155 Mbit/s. Il met à la disposition de cette communauté 8 liaisons pan-européennes à 155 Mbit/s (par KPN-Qwest à 50 millions de dollars pour 3 ans) et, pour les petits réseaux R&D qui ne disposent pas de leur propre connectivité vers les Etats-Unis, une liaison à 155 Mbit/s vers les Etats-Unis (fournie par GlobalCrossing), certaines artères passant ou restant à 34 Mbit/s faute d'offres. La desserte des universités et centres de recherche est à 2 et 34 Mbit/s.
  • NORDUnet, qui a un rôle pilote dans le développement de IP en Europe depuis 1987, interconnecte et fédère les réseaux des pays nordiques et dispose d'une infrastructure à 155 Mbit/s, participe à TEN-155, dispose de deux 155 Mbit/s (par TeleGlobe) vers les Etats-Unis et raccorde les pays riverains de la mer baltique (Pays Baltes, Russie, Ukraine, Pologne) à des débits compris entre 384 kbit/s et 7 Mbit/s. NORDUnet coopère avec UCAID dans Internet 2, dont il s'inspire pour sa proposition d'un NORDUnet 2.
  • DFN-Verein, en Allemagne, déploie depuis 1998 deux expérimentations gigabits devant conduire au futur réseau G-WIN au début de l'an 2000.
  • Des recherches portent sur des applications à 2 Mbit/s sur TEN-155, ou à des débits plus élevés sur des infrastructures plus restreintes géographiquement.

Les opérations de pose de fibres terrestres ou sous-marines en cours en 1999 portent sur des débits de 20 à 80 Gbit/s à des coûts de l'ordre de 500 à 1000 millions de dollars (50 à 80 mille dollars le km)

Evolution du trafic IP et
PSTN
Le trafic IP devient prépondérant, son coût ne cesse de baisser

  • Le coût de transport sera divisé par 10 entre 1998 et 2000 et par 300 entre 1998 et 2003 (divisé par deux tous les semestres), dans le même temps la capacité d'écouler du trafic IP, doublée chaque semestre, passera de 18 Péta octets par mois en 1998 à 6000 Péta octets (un Péta = un million de milliards) par mois en 2002. Sur la même période, l'infrastructure nécessaire au trafic téléphonique, qui croît de 12% par an, passera de l'équivalent de 300 Péta octets par mois à 490 Péta octets par mois et sera dépassée par IP à partir de 2000 (source : Datamonitor).

    D'autres sources (Qwest) évoquent des croissances annuelles de 5% pour la voix, 80% pour ATM et Frame Relay, 100 à 150% pour les réseaux privés virtuels et 300% pour Internet.

Problèmes techniques

Un certain nombre de problèmes techniques sont actuellement rencontrés dans l'infrastructure Internet :

  • La croissance du nombre de routes annoncée entre les réseaux des principaux Fournisseurs d'Accès à l'Internet (FAI) doit en permanence être contenue pour éviter d'effondrer les routeurs et les protocoles de routage. L'espace d'adressage est une ressource - promise à l'extinction rapide depuis 1994 - encore disponible grâce à une politique draconienne d'allocation et de conservation. Un déploiement plus rapide de la nouvelle version du protocole IP (IPv6) permettrait de résoudre ces deux problèmes à temps.
  • Le besoin de sécuriser les communications sur le réseau (confidentialité, intégrité et authentification) appelle une architecture le permettant. Des mécanismes sont en cours de définition pour la version courante de IP (IPv4), ils sont intégrés et obligatoires dans IPv6.
  • La coexistence efficace de plaques (sous-réseaux) interconnectées supportant différentes architectures de protocoles (IP sur ATM, IP sur SDH, IP sur satellite) nécessite des mécanismes appropriés mais qui doivent être intégrables dans l'architecture unifiée d'Internet, sans en augmenter la complexité.
  • L'évaluation de la qualité d'Internet est un thème de recherche en soi du fait de la complexité déjà atteinte par l'architecture, complexité qui irait naturellement en augmentant et que les recherches coordonnées à l'IETF s'attachent à contenir, à diminuer.
  • La difficulté du passage à l'échelle de l'expression des besoins des utilisateurs en qualité de service conduit à définir un nombre limité de classes de services reconnues et marquées en tant que telles par les routeurs de périphérie. Les routeurs du coeur utilisent le marquage pour attribuer les privilèges et ressources nécessaires ; c'est la différenciation de services.

IP et ATM

Les contraintes de type temps réel ne faisaient pas partie du cahier des charges initial, leur absence a pu sembler constituer un handicap pour les services usant de la voix et de l'image non différées et donc disqualifier IP comme protocole unique du réseau à très haut débit. Deux approches tentent d'y remédier. L'une appuie IP sur ATM et ses mécanismes de qualité de service. L'autre enrichit IP des mécanismes nécessaires.

  • La technologie ATM a été adoptée par l'Union Internationale des Télécommunications (UIT) à la fin des années 80 pour répondre à la demande des opérateurs de télécommunication d'un "Réseau Numérique à Intégration de Service Large Bande" unifiant dans un même protocole leurs mécanismes de transport des données, d'images et surtout de la voix, et garantissant la qualité de service. Les mécanismes propres aux données ont ensuite été affinés par l'ATM Forum pour être utilisables dans les réseaux locaux et les réseaux longue distance lorsque les débits excèdent 34 ou 43 Mbit/s en insérant ATM entre IP et SDH.
    IP sur ATM est - à défaut d'alternative - l'approche privilégiée dans les réseaux IP opérationnels aux Etats-Unis (SprintLink, UUnet) entre 1994 et 1998 pour des débits de 155 puis 622 Mbit/s.
    En cours de normalisation à l'IETF, MPLS (MultiProtocol Label Switching) pilote la commutation ATM par le routage propre à IP pour tirer un meilleur parti des réseaux ATM et garantir des qualités de service.

    C'est sur des prévisions qui, à l'époque, voyaient dans l'augmentation du trafic téléphonique la source principale de croissance que se sont basés les opérateurs existants de télécommunication, aux Etats-Unis et surtout en Europe, pour investir massivement dans ATM comme technologie de leurs réseaux à 155 Mbit/s à partir de la première moitié des années 90. Malheureusement, si ATM est approprié lorsque le trafic est constitué majoritairement de voix, il est inadapté lorsque le trafic est majoritairement constitué de données, ce qui est et sera de plus en plus le cas avec l'explosion du trafic lié à l'Internet.
    Une opportunité stratégique apparaît, favorable aux opérateurs émergents qui s'appuient sur une unification autour de IP, réputé plus adapté au transport de données. Les opérateurs historiques se trouvent pris en porte-à-faux par des investissements élevés et des offres inadaptées.

  • Pour adjoindre - récemment - à IP les mécanismes propres à garantir la qualité de service, les ingénieurs et chercheurs définissent à l'IETF des mécanismes internes au réseau, tels que réservation de ressources ou contrôle adaptatif dans le protocole TCP, dans les applications de diffusion et dans les routeurs d'extrémité).

    Evolution des modes
d'encapsulation de IP
    Evolution des modes d'encapsulation de IP - Source Datamonitor

    IP peut s'appuyer dans un premier temps (en 1998) directement sur SDH ou SONET (Packet Over Sonet, POS). Les mécanismes de contrôle et de routage de SDH devraient progressivement être absorbés dans IP vers le début des années 2000. Dans le même temps, IP devient le mécanisme de transport de la voix dans le coeur des réseaux.
    L'augmentation des fonctionnalités de commutation réalisables directement de manière optique conduira à terme IP à être le protocole unique, soit directement sur fibre optique à 40 Gbit/s et au delà, soit sur de multiples sous-canaux (WDM) à des débits binaires moins élevés (2,5 et 10 Gbit/s).
    C'est l'approche favorisée outre-atlantique par les opérateurs émergents pour les débits dépassant le Gbit/s (Qwest, Level3, IXC, et Sprint).

Dans le même temps, l'ATM Forum effectue un travail de même type pour assurer le transport par ATM de tout type de protocole (Multi Protocol Over ATM, MPOA). Une initiative récente du "Quality of Service Forum" (QOSF) vise à harmoniser les positions des différentes communautés. Cette initiative est complémentaire de la volonté de la communauté de l'ATM Forum de mieux prendre en compte le phénomène IP sous peine pour ATM d'être remis en cause par d'autres solutions comme le Gigabit Internet (voir à ce sujet la proposition RMOA RealTime Multimedia Over ATM destinée à permettre le transport par ATM de flux IP audio, vidéo et voix sur des réseaux longue distance).

Les investissements réalisés par les opérateurs historiques laissent entrevoir le maintien sur le moyen terme des architectures de transport ATM et des architectures dans lesquelles IP devient de plus en plus proche de la couche physique.
L'évolution sur le long terme dépendra donc du besoin effectif en matière de mécanismes de qualité de service et de l'augmentation de la bande passante « brute » disponible :

  • compétition / fusion entre les mécanismes IPv6 et ATM
  • disponibilité d'une bande passante importante repoussant indéfiniment la mise en place des mécanismes de qualité de service, finalement trop coûteux en temps de calcul.

IP et MPEG

Tout à fait séparément de IP, d'Internet et du monde des télécommunications, les professionnels de l'image et de la diffusion, les détenteurs des contenus et les fabricants d'équipements ont normalisé les mécanismes et protocoles (MPEG) de traitement, de codage, de compression et d'acheminement des flots d'images de la télévision numérique pour les satellites et réseaux câblés qu'ils déploient.

Pour l'Internet, le déploiement de MPEG est à la fois une opportunité et un défi. D'une part IP cherche à tirer parti des supports de communication existants équipés de MPEG ("IP over everything", IP sur MPEG), d'autre part IP - protocole du réseau intégré haut-débit - se pose comme candidat au transport des images numériques ("IP for everything", IP à la place de MPEG).

Les travaux du groupe de spécifications DVB (Digital Video Broadcasting) ont conduit à la mise en place d'une famille de protocoles qui constitue le fondement de la diffusion télévisée en Europe. La base technologique mise en place à cette occasion représente une vraie opportunité pour l'Europe dans ce domaine. Le succès rencontré par les normes issues de ces travaux au niveau international, où elles sont en concurrence avec les normes américaines ATSC, positionne avantageusement l'industrie européenne de l'audiovisuel.

Le transport de données est prévu dans l'architecture DVB depuis un flux asynchrone de données jusqu'à un accès Internet complet, et permet donc le transport des paquets IP sur une infrastructure câble, satellite et hertzienne. Pour la voie de retour depuis l'abonné vers le réseau, si les spécifications sont figées concernant le câble, il n'en est pas de même dans le cas du satellite. Cependant la tendance générale de DVB est d'avoir recours à un transport s'effectuant par le biais d'ATM.

Face à la solution proposée par DVB, on trouve la solution DOCSIS, promue par les câblo-opérateurs américains par l'intermédiaire de leur laboratoire commun, les Cable-Labs. Il est important de souligner que, même si les spécifications DVB pour la diffusion ont convaincu nombre de diffuseurs, la vitesse de déploiement des solutions d'accès Internet sur le câble aux Etats-Unis conduit de plus en plus à préférer DOCSIS. Même si la partie n'est pas encore jouée, les solutions techniques DOCSIS ont pris une longueur d'avance et on voit apparaître, y compris en Europe, des choix mixtes de la part des opérateurs : diffusion audiovisuelle DVB, service Internet sur le câble DOCSIS.

A plus long terme, il est évident que MPEG ne constituera pas un moyen privilégié de transport d'IP sur les réseaux de télécommunications. En revanche, sur la boucle locale, les architectures large bande existant aujourd'hui sont majoritairement des infrastructures audiovisuelles (satellite et câble, principalement). Les travaux préliminaires du consortium industriel DVB ont donné à l'Europe un avantage technologique, en télévision numérique d'abord, mais également en transport de données sur les infrastructures audiovisuelles.

C'est donc avec les trois candidats que sont IP, ATM et MPEG qu'il faut envisager - à un terme qui dépasse celui du présent rapport - la convergence voix, données, images.

Les techniques du réseau de transport

Fibre optique

IP sur SDH / SONET sur fibre
op
IP sur SDH / SONET sur fibre optique - Source Datamonitor

Couplée avec SDH / SONET (Synchronous Data Hierarchy de l'ITU, SONET de Bell Labs), c'est la technologie reine des réseaux terrestres et sous-marins de transmission de données. La fibre optique a permis de remettre à plat, en l'intégrant, le câblage traditionnel des opérateurs de télécommunication et d'en diviser le prix au moins par dix.
Une paire de fibres écoule un flot de bits à des débits compris entre 622 Mbit/s et 2,5 Gbit/s, un multiplexage en fréquence (Dense Wave Division Multiplexing, DWDM) permet d'écouler 16 flots ou plus sur la même fibre, multipliant d'autant le débit global.
La paire est doublée dans un même câble pour permettre une architecture en boucle, redondante, palliant certaines classes de panne. De plus en plus, le trajet physique du câble prend lui aussi la forme d'une boucle pour permettre des réparations automatiques et rapides (inférieures à la seconde) en cas de dommages physiques graves.

Des équipements (Add/Drop Multiplexors, ADM) extraient ou insèrent le trafic d'abonné dans la boucle de dimension métropolitaine. D'autres équipements (Digital Cross Connect, DXC), regroupent les boucles selon diverses topologies (étoile, bus, arbre, boucle de boucles), pour étendre le champ géographique du réseau (réseau longue distance) et apporter de nouvelles formes de robustesse dans le fonctionnement. Des contraintes de supervision limitent en pratique le réseau global d'un même opérateur à une centaine de boucles.
Les propriétés de multiplexage de SDH permettent de regrouper, dans un flot dont le débit est celui de la fibre (par exemple à 2,5 Gbit/s), des flots à 155 Mbit/s ou des flots à 622 Mbit/s transportant à leur tour des flots à 155 Mbit/s éventuellement porteurs - dans le cas de SONET - de flots à 43 Mbit/s. Les flots véhiculent de l'ATM transportant de l'IP (IP sur ATM sur SDH) ou directement de l'IP (IP sur PPP sur SDH).

L'augmentation du débit est possible par augmentation du débit binaire de base (passage de 2,5 à 10 Gbit/s ou plus) ou plus vraisemblablement dans l'immédiat par utilisation de facteurs de multiplexage DWDM plus élevés, 64 semblant réaliste en 1999 pour obtenir 40 Gbit/s sur des boucles posées en 1999. Un saut technologique (Effet Soliton) devrait ensuite permettre d'atteindre un débit de base de l'ordre du Tera-bit/s (mille milliards de bits par seconde).

Les évolutions du génie civil, de leur côté, doivent permettre la pose de nappes de centaines de fibres dans des tranchées réduites à 10 cm x 2 cm, l'enfouissement plus efficace de tronçons sous-marins, l'utilisation de robots-poseurs ou remplisseurs de fourreaux, et contribuer ainsi à mettre à disposition des capacités mesurées en Tera-bit/s.

Satellite

Technologie reine pour l'acheminement et la diffusion d'images télévisées, le satellite est - du point de vue de l'Internet - plutôt une technologie de multiples niches.

Dans la variété géostationnaire (GEO) utilisée dans les réseaux de transport, un même satellite "voit" un tiers de la surface du globe. L'empreinte utile au sol de chacune de ses antennes de réémission ("transpondeur") est limitée par l'atténuation rapide du signal à la périphérie, atténuation qu'on compense par une amplification plus élevée (au prix d'une durée de vie plus brève pour le satellite) ou par des antennes au sol plus grandes. En moyenne, cette empreinte couvre une fraction de continent. L'ensemble des stations au sol visibles par un même transpondeur partage la capacité de ce transpondeur, capacité qui est de l'ordre de 40 à 80 Mbit/s.
Les circuits satellite utilisés en transport dans l'Internet sont souvent complétés par une voie de retour terrestre (plus rapide, la capacité peut être plus faible). L'antenne d'émission est localisée à proximité du fournisseur d'accès. Dans un mode d'utilisation, le circuit satellite est complété de boucles locales : les antennes de réception placées dans les zones d'ouverture du service sont raccordées à chaque client par une boucle locale terrestre ; ce mode permet des débits de dizaine de Mbit/s entre antennes de quelques mètres. Dans un autre mode, le circuit satellite inclut la boucle locale : l'antenne de réception, de dimension plus modeste (40 à 120 cm), est placée directement chez le client, sans boucle locale ; le débit est compris entre 64 kbit/s et 2 Mbit/s.

Sur un plan technique, l'utilisation du satellite dans les réseaux de transport de l'Internet est handicapée par :

L'avenir économique de cette utilisation est rendu incertain du fait des débits plus faibles du satellite (le débit total d'un satellite atteint au mieux le Gbit/s pour un coût total aux environs de 500 millions de dollars, comparable au coût d'un câble transatlantique à 40 Gbit/s et capable d'évoluer vers 160 Gbit/s) et qui évoluent plus lentement que les débits des réseaux terrestres en fibre. Il souffre également de l'engorgement endémique du spectre de fréquences.
Enfin, il est handicapé en France par la nécessité d'obtenir une licence d'opérateur de télécommunication pour l'utiliser - en IP - dans le sens émission.

A l'inverse, il est adapté à compenser - au moins dans les premiers temps - l'absence d'infrastructure terrestre qui est le lot des zones d'activité émergeant très rapidement, des zones industrielles des pays en voie de développement et des océans. Il est aussi adapté pour des dessertes temporaires ou itinérantes (expositions). Il est bien sûr adapté aux applications de diffusion.
Pour ces raisons, des efforts de recherche importants sont en cours à l'IETF pour définir ou adapter les mécanismes permettant de l'intégrer - au moins partiellement - dans l'Internet et profiter de l'opportunité qu'il constitue comme technologie de niches.

Réseau métropolitain 

La même technologie SDH que pour le réseau de transport en fibre est utilisée pour exploiter des fibres optiques installées dans des fourreaux posés, partagés ou concédés (égouts, métro, fleuves et canaux, ...) réalisant des doubles anneaux sécurisés à insertion/extraction à 155 Mbit/s, 622 Mbit/s ou 2,5 Gbit/s. Les extensions de topologies sont réalisées de la même manière que pour le réseau de transport.
Les anneaux sont équipés de modules d'insertion/extraction (ADM) réalisant la desserte d'immeubles ou d'abonnés à 43 Mbit/s (34 Mbit/s en Europe) ou 155 Mbit/s. Ces dessertes sont, si nécessaire, démultiplexées - par des équipements non SDH - en conduits à 1,5 Mbit/s aux Etats-Unis ou 2 Mbit/s en Europe, mis à la disposition de l'abonné.

C'est précisément cette technologie qui est utilisée par les opérateurs de télécommunication pour la boucle locale de leurs offres « ligne spécialisée » et « téléphonie d'entreprise ».

Le coût élevé de réalisation de la desserte d'immeubles ou d'abonnés délimite en pratique une zone de pertinence économique s'étendant sur quelques centaines de mètres de part et d'autre du trajet de la boucle, avec un impact fort sur le placement de la boucle et des équipements de raccordement. Hormis les quartiers d'affaires denses, le réseau métropolitain ne couvre pas le tissu urbain dans sa totalité et doit alors être complété par les boucles locales des opérateurs historiques.

Dans le cadre de l'Internet, l'offre des fournisseurs de réseau métropolitain est vue - par les fournisseurs d'accès à l'Internet - comme une technique leur permettant de réaliser des dessertes point à point vers leurs clients, à un débit permanent compris entre 2 Mbit/s et 155 Mbit/s et au delà.

Le réseau capillaire du FAI vers ses clients est en IP (dans PPP) ou en ATM. Le service fourni par le routeur d'abonné peut être IP stricto sensu, ou IP dans ATM, ou encore une offre double de IP dans ATM et d'ATM. L'offre sur ATM peut être complétée par d'autres services non IP (voix, données, images). Occasionnellement, Frame Relay est encore utilisé à la place d'ATM.

Autres techniques

Les réseaux radio terrestres et les réseaux câblés sont plutôt une technologie de boucle locale. Les réseaux électriques ne semblent pas constituer une technique suffisamment mature pour le réseau de transport.

Situation en France

Infrastructure de télécommunications moderne, mais compétition insuffisante

Evolution des débits

  • La situation en termes de télécommunication est bonne, l'infrastructure est moderne.
  • L'offre commerciale des réseaux de télécommunication disponibles pour Internet ne dépasse pas en pratique le 34 Mbit/s.
  • L'offre des revendeurs de capacité IP en France ne dépasse pas en pratique le 2 Mbit/s.

Le Réseau National
d'Interconnexion de Renater au 14/5/99
Le Réseau National d'Interconnexion de Renater au 14/5/1999
Source : Renater, http://www.renater.fr/Reseau/pic-topologie-RNI.gif

  • Renater porte ses débits à 155 Mbit/s pour son infrastructure terrestre, son raccordement à TEN-155 et sa connectivité vers les Etats-Unis. La desserte des universités et centres de recherche est à 2 Mbit/s et 34 Mbit/s.
  • Des expérimentations (Safir) de bande passante flexible et de qualité de service se font à travers Renater.
  • L'exclusivité de fait accordée à ATM présente - si elle persistait - des risques élevés pour l'avenir aussi bien au niveau technologique que pour les champs d'application de la recherche française et européenne.

Les techniques du réseau de transport

Fibre optique

France Telecom déploie depuis 1990 son réseau de transport en fibre, pour les besoins de la téléphonie et des données. Celui-ci est suffisamment moderne dès l'origine pour tirer parti des évolutions technologiques des dix dernières années (augmentation du débit de base, SDH, WDM). Ce réseau assure une couverture géographique importante du territoire national. Les services de transport de données s'appuient encore essentiellement sur ATM.

Dès 1995, la déréglementation a permis (dans le cadre de partenariats ou de filliales) à des titulaires historiques de droits de passage d'utiliser ces droits pour poser des réseaux de transport en fibre pour la téléphonie puis pour les données. C'est le cas de la SNCF, à l'origine dans Hermes puis avec Télécom Développement, de sociétés d'autoroute, d'Euro-Tunnel, des voies navigables.
Ultérieurement, des opérateurs étrangers et des fournisseurs de réseaux métropolitains (Colt) ont déployé leur réseaux, soit par réutilisation de l'existant (Hermes, partiellement avec les autoroutes et les voies navigables) soit par création ex nihilo (l'opérateur hollandais KPN, WorldCom, Carrier 1, Viatel, ...).
Ces réseaux fournissent le plus souvent un service ATM sur SDH sur WDM à des débits de base compris entre 155 Mbit/s et 2,5 Gbit/s, IP directement sur WDM restant encore l'exception (KPN-Qwest). Ils visent le marché de la communication des multinationales (téléphone et données) et de la revente de minutes de téléphone et de capacité aux FAI.
Leur couverture géographique est plutôt restreinte aux grandes métropoles économiques ou situées sur des trajets pan-européens (voir annexe 1).
Enfin, à partir de 1998, les nombreux projets de réseaux mondiaux voient leur segments transatlantiques prolongés par des boucles physiques traversant l'Europe pour desservir les grandes métropoles (Global Crossing, Viatel - Circe, KPN-Qwest).

L'infrastructure potentielle d'une concurrence à venir est en place.

Satellite

Plusieurs FAI (InternetWay, EUnet, ...) constituent leurs réseaux internationaux, les complètent ou les sécurisent, avec des circuits satellites (fournis par Eutelsat, Sirius, Telenor, ...) terminés en Europe ou aux Etats-Unis (directement sur MAE-East dans l'offre de Sirius).

Easynet et France Telecom (expérimental) proposent aux particuliers et PME une voie descendante (de l'Internet vers le client) par satellite grâce à une antenne de 60 cm qui conjugue réseau de transport et boucle locale (voir également le chapitre "boucle locale").

Le MENRT/DT a démarré à la rentrée de 1998 une expérimentation nouvelle utilisant la communication par satellite. La phase pilote devrait permettre de contribuer à développer les usages, évaluer l'apport des raccordements satellite haut débit dans le cadre de multiples projets éducatifs, tant en formation initiale que continue, désenclaver des zones rurales ou mal desservies, ouvrir à l'international la culture française. La diffusion de contenus vers 300 établissements scolaires, incluant des services de cache, miroir, news, mbone, ... s'appuie sur des liens satellite fournis par Eutelsat.

Réseau Métropolitain

Les offres de réseaux métropolitains disponibles en France portent principalement sur les services traditionnels de télécommunications pour les entreprises, peu offrent un service IP ou une couche ATM permettant d'accéder à un ou plusieurs FAI (Colt Telecom, réseau de Paris - La Défense, ...). Plusieurs réseaux régionaux de Renater comportent une plaque métropolitaine généralement réservée à un groupe fermé d'utilisateurs (Vikman, RéMip, Rerif, ...)

Panorama des acteurs

Le niveau des investissements demandés pour fournir les infrastructures longue distance répondant à la demande conduit à l'organisation d'alliances préfigurant le contrôle des dorsales Internet par un petit nombre d'acteurs. Les raisonnements économiques ne peuvent plus être conduits à l'échelon national mais à l'échelon européen. Ceci impose cependant de s'assurer du bon niveau de « couverture » en France, qu'il s'agisse d'investissements privés (les points d'accès aux dorsales des FAI sont aujourd'hui tous concentrés à Paris) ou d'investissements publics (participation active de la France aux différentes initiatives de la Commission Européenne).

A ce titre, il y a un objectif certain d'aménagement du territoire et de promouvoir la création de plaques régionales haut débit susceptibles de fédérer une demande, capable elle-même d'attirer l'établissement d'un point de présence d'un opérateur de dorsales dans un panorama où les investissements privés se multiplient. Il faut, en effet, tenir compte du fait que le niveau d'interconnexion d'une zone géographique est en train de devenir un critère d'installation important pour une entreprise, et pas seulement dans le domaine des NTIC.

Recommandations

Permettre la recherche et le développement de nouvelles applications par
  • le lancement d'une version nationale de l'Internet du futur
  • le développement de réseaux régionaux métropolitains

Combler le retard de déploiement de l'Internet en France implique de disposer à la fois d'un réseau opérationnel résolument moderne et, simultanément, de rendre possibles les recherches et expérimentations sur les hauts débits futurs ; par exemple sur le modèle de la trilogie vBNS / Internet 2 / NGI, ouvert aux initiatives de toutes origines.

Par ailleurs, il est important de doter les métropoles régionales de l'infrastructure qui les rendra attractives pour les entreprises.

 

Références

Annexes

Réseaux de transport
http://mission-dti.inria.fr/Rapport/Annexes/transport-a1.html

Références citées

Abilene : NSF, Cisco et Qwest en IP sur SONET à 2,5 puis 10 Gbit/s
http://www.ucaid.edu/abilene/home.html
Cisco : Advanced Internet Initiatives
http://www.cisco.com/aii/
Band-X: the bandwidth exchange, le marché spot
http://www.band-x.com/index.cfm
NORDUnet : Nordic Internet Highway to Research and Education in Denmark, Finland, Iceland, Norway and Sweden
http://www.nordu.net/news/
http://www.nordu.net/ndn2/Nordunet2.doc
MPLS : Expérimentation Renater, DANTE et al.
http://www.renater.fr/jmu/QTP/mpls-desc.html
DVB : Digital Video Broadcasting
http://www.dvb.org
Teledesic : Does Latency Matter?
http://www.teledesic.com/tech/latency.html
Recommendations de l'IETF pour l'utilisation des satellites dans l'Internet
http://www.ietf.org/internet-drafts/draft-ietf-tcpsat-res-issues-06.txt
Croissance des routes dans l'Internet
http://www.employees.org/~tbates/cidr-report.html#General_Status
Renater : Evolutions, projets, expérimentations
http://www.renater.fr/Section-Projets.html
Safir : Expérimentation ATM pour Renater 2
http://www.renater.fr/Projets/SAFIR/index.htm
http://www.renater.fr/Projets/SAFIR2/index.htm

Autres Références intéressantes

Généralités selon Randall Benn : câbles, ISP, connectivité, Telco, roaming, QoS, billing, management, content filtering, firewalls
http://www.clark.net/pub/rbenn/isp.html
Généralité selon Russ Haynal : carte des ossatures, GIX, architecture, organisations
http://navigators.com/isp.html
PITAC President's Information Technology Advisory Commitee - Interim Report
http://www.ccic.gov/ac/interim/
Networked Computing for the 21st Century
http://www.ccic.gov/pubs/blue99/
Cooperative Association for Internet Data Analysis (CAIDA) : GIX, NAP, Backbones, route server
http://www. caida.org/ INFO/
vBNS NSF et MCI, en IP sur ATM à 622 Mbit/s.
Very high performance Backbone Network Service, The vBNS is a nationwide network that supports high-performance, high-bandwidth research applications. Launched in 1995, the vBNS is the product of a five-year cooperative agreement between MCI and the National Science Foundation.
http://www.vbns.net/
CANARIE : Initiative Internet Optique, Bell Canada et Cisco à 2,5  Gbit/s
http://www.canarie.ca/frames/startnetworks_f.html
Internet 2
http://www.internet2.edu/html/internet2-ngi.html
NGI : NASA, DOE, NIH, DARPA et NSF, 114M$ par an de 1998 à 2000
http://www.ngi.gov/
DANTE : Deployment of Advanced Network Technologies in Europe
http://www.dante.net/welcome-page.html
IETF : Internet Engineering Task Force
http://www.ietf.org/1id-abstracts.html
France Télécom
http://www.francetelecom.fr
Global One (Deutsche Telekom, France Telecom, Sprint)
http://www.global-one.net/en/press/facts.html
Qwest, nouvel entrant dans le secteur des télécommunications (rachat de LCI) et de l'Internet (rachat de EUnet), nouvel acteur en Europe (joint venture KPN-Qwest avec KPN)
http://www.qwest.com
http://www.eu.net
http://jv.eu.net
KPN : Koninklijke KPN NV, opérateur historique de télécommunication aux Pays-Bas
http://www.kpn.nl/en/index.html
ATM forum
http://www.atmforum.com/
Frame Relay
http://www.frforum.com/4000/4000index.html
MPEG
http://www.mpeg.org/MPEG/
Renater, Réseau National pour la Technologie, l'Enseignement et la Recherche
http://www.renater.fr/
Level 3
http://www.level3.com/BuildingNetwork/network_plan.html
Frontier
http://www.frontiercorp.com/about/news/1999510-926344238.html
Global Crossing
http://www.globalcrossing.bm/index.asp
IXC
http://www.ixc-comm.net/
Williams
http://www.williams.com/aboutindex.htm
GTE
http://www.gte.com
Colt Telecom
http://www.colt-telecom.com/
http://www.colt-telecom.fr/colt_fr/index.html

Cartes géographiques des dorsales Internet

MapNet de CAIDA : carte des réseaux dorsaux mise à jour en coopération avec les FAI.
http://www.caida.org/Tools/Mapnet/Backbones/
Cybergeography : liens, cartes et ressources pour la visualisation de 1'Internet.
http://www.cybergeography.org
Information for ISPs : liens vers des cartes des dorsales et des cables sous-marins.
http://www.clark.net/pub/rbenn/isp.html
Internet Backbone Maps
http://navigators.com/isp.html
http://www.exploits.org/~rkroll/netmaps.html
http://www.yahoo.com/Computers_and_Internet/Internet/Maps/
Telecommunication Information : collection très complète d'URL
http://www.ee.umanitoba.ca/~blight/telecom.html

Mesures de performances du réseau

Statistiques d'utilisation quotidiennes du NAP de Chicago
http://nap.aads.net/~nap-stat/
Cooperative Association for Internet Data Analysis (CAIDA) : Liste d'indicateurs de l'infrastructure
http://www. caida.org/ INFO/
Trafic sur les points d'echange (Exodus) : MAE East et West, NAPs, etc
http://www.bengi.exodus.net/inet/
Performances du réseau MCI
http://traffic.mci.com/
Stastitiques et état de la connectivité du réseau PSInet
http://www.isp.psi.net/nops-eng/matrix/
Statistiques du réseau NORDUnet
http://www.nordu.net/stat-q/load-map/ndn-map,,traffic,peak
Satellites, cours de DEA de l'Université de Nice
http://www-sop.inria.fr/mistral/personnel/Eitan.Altman/deasat.html
Teledesic : Livre blanc sur la latence propre aux satellites géostationnaires
http://www.teledesic.com/tech/latency.html

"Météo" de l'Internet, "mesures" de Founisseurs d'Accès à l'Internet

Matrix Internet Data Survey (MIDS) : mesure de délais, comparaison de FAI, cartes du réseau
http://www.mids.org
http://www.mids.org/packages.html
http://ratings.miq.net/
Intemet Weather Report
http://www.internetweather.com/
Temps de transit vers des serveurs news depuis l'université de Oregon
http://twin.uoregon.edu/iwr/ping.html
ISP Benchmark Report de Inverse Network Technology
http://www.inversenet.com/products/ims/ratings/
http://www.ibm.net/whatsnew/inverse.html
Internet.com : à propos de FAI
http://www.internet.com/sections/isp.html
Mesures de performances de serveurs WEB
http://www.keynote.com/measures/brokers/

Différentes sources de données traceroute

A propos de traceroute : Jack Rickard, "Mapping the Intemet with Traceroute"
http://www.boardwatch.com/mag/96/dec/bwm38.htm
Beachnet : FAI Américain
http://www.beach.net/traceroute.html
CarpeNet : FAI Allemand
http://www.carpe.net/cgi-bin/trace
Cistron : FAI Néerlandais
http://www.cistron.nl/cistron/trace/
RIPE NCC (Réseaux IP Européens, Network Coordination Centre) depuis le GIX d'Amsterdam
http://www.ripe.net/cgi-bin/looking-glass
Global One
http://www.gip.net/utilities.html
TeleDanmark
http://trace.tele.dk/
Telstra, en Australie
http://www.telstra.net/cgi-bin/trace
Depuis le CERN à Genève
http://wwwcs.cern.ch/public/status/tools/traceroute.html
Et plus généralement, pour retrouver des serveurs traceroute :
http://search.yahoo.com/bin/search?p=traceroute
http://www.merit.edu/~ipma/tools/trace.html

Outils

pathchar (Van Jacobson à LBL), détermine la taille des tuyeaux traversés
http://www.caida.org/Pathchar/
neotrace, outil graphique de visualisation de performances
http://www.neoworx.com/neotrace/
visualroute, analyse et visualisation de problèmes de connectivité
http://www.visualroute.com/

 

BOUCLE LOCALE

Contexte international

Capillarité, variété, universalité : IP sur tous supports et pour tous.

La boucle locale met en relation l'utilisateur de l'Internet et les points d'accès du fournisseur d'accès, points d'entrée du réseau de transport. Toute technologie permettant cette mise en relation peut être mise à contribution.

Technologies pour la boucle
locale
Technologies disponibles pour la boucle locale

L'objectif - au niveau de la boucle locale et à l'horizon de 3 à 5 ans - est de passer d'environ 64 Kbit/s à quelques mégabit/s pour le particulier, du mégabit/s aux 43 mégabit/s (34 mégabit/s en Europe) pour la PME et du 43 mégabit/s aux 155 ou 622 mégabit/s pour les plus grandes entreprises, et ce à prix constant pour l'utilisateur.

Le réseau de transport permet un fort multiplexage des flux des utilisateurs de l'Internet, entreprises ou particuliers. A l'inverse, la boucle locale, parce qu'elle est dédiée à chaque utilisateur, implique d'affecter - en beaucoup plus grand nombre il est vrai - des équipements en partie (réseaux téléphoniques, réseaux radio, CATV) ou en totalité (lignes spécialisées, équipements ADSL), peu ou pas partagés.

De nombreuses technologies sont disponibles mais l'économie de la boucle locale est beaucoup plus incertaine que celle du réseau de transport. Elle dépend en effet de la géographie, de la densité de la population, du génie civil, de la possibilité de réutiliser des infrastructures existantes. La concurrence sur une même technologie y est exceptionnelle.

Le développement de la boucle locale est le secteur le plus consommateur de capitaux. Le retour sur investissement est, lui, très dépendant du taux de pénétration atteint sur une zone géographique ciblée. La politique tarifaire peut se concevoir comme extrêmement attractive dans l'espoir d'une augmentation rapide du nombre d'abonnés ou, à l'inverse, préférer maintenir un niveau de prix élevé visant à rentabiliser le réseau sans avoir à développer une politique commerciale agressive.

La forme d'exploitation de la boucle locale est très dépendante de la législation, qui peut autoriser ou interdire certaines formes d'exploitation, mais aussi imposer un certain degré d'ouverture. Cette situation résulte de la destination audiovisuelle d'origine de certaines infrastructures ou encore de l'ouverture récente du marché de la téléphonie publique à la concurrence.

L'incertitude juridique sur la qualification des réseaux et les obligations pesant sur les opérateurs, mais aussi la complexité des mécanismes contrôlant l'établissement et l'exploitation des réseaux, constituent autant de freins au déploiement des solutions haut débit.

La complexité de la situation en France, et plus généralement en Europe, conduit à un retard important dans ce domaine par rapport aux Etats-Unis, alors que les technologies arrivent à maturité. Cette situation fournit corollairement un avantage en faveur des fournisseurs de contenus spécialisés dans les services Internet haut débit, qui sont en mesure de conduire une politique de développement européenne sur la base de l'expérience acquise aux Etats-Unis. @Home et Chello en sont des exemples.

Réseau téléphonique  

L'utilisateur individuel et la petite entreprise tirent profit des deux variétés de téléphonie (analogique avec RTC et numérique avec RNIS) pour accéder à leur FAI, la variété RTC restant très majoritaire dans la plupart des pays. Les débits possibles atteignent 28,8 et 56 kbit/s par RTC et 64 (voir 128) kbit/s par RNIS. Pour des raisons de coût, le circuit téléphonique d'accès au FAI est le plus souvent établi à la demande et rompu automatiquement en l'absence de trafic. L'accès à l'Internet est plutôt asymétrique sur des circuits téléphoniques établis par l'abonné ; ce qui interdit pratiquement des serveurs permanents chez l'utilisateur. Des contournements sont possibles, surtout par RNIS ; certains sont en voie de normalisation (AO/DI : Always On/Dynamic ISDN).

Dans la variété téléphonique strictement analogique (RTC : Réseaux Téléphoniques Commutés, PSTN : Public Switched Trunk Network), un modem à chaque extrémité tire parti de la bande passante limitée (300 - 3400 Hz) affectée au transport de la voix pour transmettre jusqu'a 28800 bit/s simultanément dans chaque sens (norme ITU V.34, des débits non normalisés légèrement supérieurs sont possibles).
De plus en plus (à 100% pour la France) le signal téléphonique analogique est numérisé dès son entrée dans les locaux de l'opérateur sous forme d'un flot de bits à 64 kbit/s. Ce flot fait l'objet d'un acheminement (commutation de circuit, ATM) entièrement numérique dans le réseau de transport. Dans le cas d'un circuit vocal, le flot doit être converti sous forme analogique avant d'être remis à l'abonné (dans son écouteur). Dans le cas d'un circuit de données, le flot reste numérique lors de sa remise au FAI, 30 circuits téléphoniques numérisés et leurs signalisations sont regroupés dans un conduit à 2 Mbit/s raccordé aux équipements "modem numérique" du FAI. La norme ITU V.90, en tirant parti dans ce cas précis de l'absence de seconde conversion, autorise des débits pouvant atteindre 56000 bit/s. Dans les deux cas, un modem est nécessaire chez chaque client et le FAI déploie des groupes intégrés de modem (parfois encore analogiques, de plus en plus numériques, évoluant vers le V.90) raccordés sur des conduits à 2 Mbit/s.

Dans la variété numérique du téléphone (RNIS, Réseau Numérique à Intégration de Service; ISDN, Integrated Switched Data Network), deux circuits à 64 kbit/s et une signalisation à 16 kbit/s (dans chaque sens) sont mis à la disposition de l'abonné individuel et, le plus souvent, PME. L'abonné raccorde ses équipements traditionnels (téléphone, fax, le plus souvent analogique, par un adaptateur) et surtout son routeur RNIS (la PME raccorde ses ordinateurs sur l'Ethernet de ce routeur) ou la carte RNIS de son ordinateur individuel. Le transport des données est entièrement numérique de l'ordinateur du client jusqu'à son FAI. Les données sont remises au FAI multiplexées dans des conduits à 2 Mbit/s raccordés à ses groupes de routeurs RNIS de concentration. Deux circuits RNIS peuvent être mis en parallèle (le plus souvent en fonction de la charge de trafic) pour atteindre un débit de 128 kbit/s. Des solutions permettent à la PME d'utiliser simultanément plusieurs abonnements RNIS pour dépasser cette limite ; le coût en est multiplié d'autant.

Réseau métropolitain 

Même s'il met en relation l'utilisateur et son FAI, il est plutôt perçu comme faisant partie du réseau de transport et est traité dans le chapitre correspondant.

xDSL 

Boucle locale DSL
Boucle locale DSL, schéma de principe
Source : ART, http://www.art-telecom.fr/publications/annexe2.htm

xDSL désigne une famille de technologies disponibles commercialement depuis 1998 qui réutilisent la boucle locale en cuivre du réseau téléphonique et autorisent, sur une paire téléphonique et pour des distances de 2 à 6 km, des débits de l'ordre du mégabit/s, asymétriques (ADSL, Asymetric Data Subscriber Link) ou symétriques (HDSL, High speed Data Subscriber Link).
Un équipement non partagé est nécessaire aux deux extrémités, l'investissement est de l'ordre de 1500 à 3000 francs. La connectivité est établie en permanence.
Le dégroupage permet à d'autres intervenants que les opérateurs historiques - détenteurs du cuivre - d'entrer sur le marché et d'héberger leurs concentrateurs dans les locaux des opérateurs.

La variété asymétrique, prévue pour la diffusion de télévision numérique avec 1 à 9 mégabit/s du réseau vers le client et jusqu'à 640 Kbit/s du client vers le réseau, convient pour l'internaute individuel. Elle a été récemment simplifiée (ADSL-lite, les débits sont limités respectivement à 1,5 Mbit/s et 512 Kbit/s) pour partager la paire téléphonique du circuit vocal existant et se raccorder directement à une carte PC sans intervention du fournisseur chez l'abonné. Cette technologie entre en concurrence avec le câble et les réseaux radio pour la fourniture au grand public. Une variété de concentrateurs est envisagée côté opérateur pour pouvoir partager l'équipement ADSL. Dans ce cas, la connectivité ne serait plus permanente.

La variété symétrique HDSL est un substitut économique aux liaisons spécialisées de courte distance pour permettre l'accès permanent des PME/PMI à 2 Mbit/s. Elle concurrence les réseaux radio mais pas les réseaux câblés qui ne desservent généralement pas les zones industrielles. VDSL (Very High Speed Data Subscriber Link) doit permettre ultérieurement d'atteindre 50 Mbit/s symétriques sur des longueurs de cuivre réduites à 300 mètres par l'utilisation de fibres optiques pour l'ossature principale (FTTC, Fiber To The Curb, fibre jusqu'au trottoir et desserte d'abonné en cuivre).

Le service est disponible principalement aux Etats-Unis sous forme plus ou moins dégroupée. Par exemple, Europa Internet s'appuie entièrement sur l'offre ADSL des opérateurs locaux US West ou GTE (prix mensuel d'environ 40 dollars à 256 Kbit/s et 120 dollars à 1 Mbit/s) pour permettre l'accès à son propre réseau IP (25 dollars avec 1 Giga octet mensuel pour un particulier ou 75 dollars et 3 Giga octets pour une PME). A l'autre extrême, COVAD s'appuie sur le câblage des opérateurs historiques pour raccorder le domicile d'un particulier à son entreprise ou au FAI de son choix. Les nouveaux opérateurs de réseau de transport (Qwest, Worldcom, par des prises de participation) s'engagent dans DSL pour élargir l'accès à l'énorme capacité qu'ils déploient. L'ouverture en Europe et en France par les opérateurs historiques en est à ses débuts.
Comme pour la boucle locale métropolitaine, le service rendu à l'abonné peut être IP stricto sensu ou IP dans ATM. Cette dernière solution permet à plusieurs FAI de proposer leurs services IP sur l'infrastructure DSL.

Le réseau câblé 

Le support est celui qui a été installé par les câblo-opérateurs pour la transmission de chaînes TV vers les foyers (canaux descendants). Il est à diffusion unidirectionnelle (de la tête du réseau vers les foyers) et doit être modifié pour supporter des voies de retour (canaux montants du foyer vers la tête) indispensables à Internet.

Le réseau européen et français est de bien meilleure qualité qu'aux Etats-Unis où il faut recâbler. En France, la voie de retour est déjà disponible et nécessite seulement un réglage des amplificateurs. On ne peut que regretter le retard pris pour ouvrir à l'Internet cette infrastructure moderne et disponible.

La topologie est celle d'un arbre dont la racine est la tête du réseau et les branches terminales portent les modem haute-fréquence des abonnés. Chaque branche est isolée de ses voisines par des équipements (amplificateurs) de noeuds qui assurent la propagation des canaux montants affectés à la branche terminale vers la tête de câble et la propagation des canaux descendants de la tête de câble vers la branche terminale à laquelle ils sont affectés.

En France l'ossature est en fibre et la desserte d'abonné est en cuivre coaxial (Hybrid Fiber Coax, HFC).

Plusieurs abonnés d'une même branche terminale partagent les mêmes canaux montants et descendants et donc leur bande passante. L'opérateur surveille l'utilisation de la bande et joue dynamiquement sur le nombre d'abonnés d'un groupe pour maintenir la bande passante fournie au niveau contractuel. Il paraît également possible d'agréger les canaux d'un même groupe d'abonnés pour offrir des débits plus élevés. L'opérateur contrôle et configure à distance chaque modem du réseau.
Le débit est partagé et de l'ordre de 1.2 à 40 Mbit/s dans le sens descendant et de 0.5 à 1.5 Mbit/s dans le sens montant, le réseau est accessible par l'abonné au travers d'une prise Ethernet (derrière le modem haute-fréquence) qui s'ajoute à la prise TV.

Un routeur IP (plus rarement et moins judicieusement, un pont de niveau 2) placé en tête de câble voit les canaux montant et descendant affectés à chaque branche terminale comme un support bidirectionnel à diffusion pour les paquets IP.

ATM - qui permettrait à plusieurs FAI de partager les fréquences du réseau câblé et d'apporter des garanties de service - n'est pas retenu à cause de son surcoût, estimé à 30% de la bande passante.

L'ensemble des abonnés d'un même canal descendant d'une branche terminale voit les mêmes données - et partage la même bande passante - émanant du routeur. La confidentialité est assurée par chiffrement des données au niveau du routeur IP et déchiffrement par le modem d'abonné, les clefs sont propres à chaque abonné.
Le trafic IP est transporté dans MPEG 2 (« DVB transport stream ») jusqu'à la prise de l'abonné et lui est remis sur support Ethernet.

Les adresses IP utilisées par les abonnés sont des adresses routables affectées le plus souvent dynamiquement par le routeur en tête de ligne, qui vérifie également qu'elles-seules sont utilisées. Les adresses, pouvant varier dans le temps, ne permettent pas aux abonnés d'héberger des services permanents, même si la connexion est disponible à tout instant. L'opérateur héberge sur ses propres équipements ceux des services de ses clients qui doivent garder une visibilité permanente, il entretient des serveurs « proxy » (news, cache web) pour maximiser les chances de garder le trafic local.
Le dimensionnement de l'accès à l'Internet est un réel problème dans la mesure où le câble est un moindre goulot d'étranglement que pour les accès par réseau téléphonique commuté. Le prix des liaisons longue distance rend le problème particulièrement difficile en Europe et en France, les opérateurs introduisent alors des limitations de volume.

@Home est le principal fournisseur d'accès par le câble aux Etats-Unis, pour un prix mensuel d'environ 40 dollars. En 1998, plusieurs réseaux câblés permettant l'accès à l'Internet ont été ouverts à Amsterdam ; le prix mensuel de l'offre de A2000 pour le particulier est comprise entre 180 francs ( 256 Kbit/s / 64 Kbit/s et 100 Mega octet/mois) et 270 francs (1,5 Mbit/s / 256 Kbit/s, sans limitation de volume).

Boucle locale radio 

Wireless Metropolitain Area Net
Réseau métropolitain interconnectant des boucles locales radio
Source : Advanced Radio Telecom, http://www.art-net.net/news/pr98/980304_bbandstrat.pdf

La boucle locale radio doit permettre aux opérateurs de télécommunications d'éviter les investissements du déploiement d'infrastructures filaires jusqu'à l'abonné. En Europe et aux Etats-Unis, le marché de la boucle locale radio est porté par l'ouverture à la concurrence du marché des télécommunications (ouverture du marché local aux Etats-Unis), qui encourage l'apparition de nouveaux opérateurs ne disposant pas de boucle locale filaire. Dans les pays émergents, de tels systèmes sont susceptibles d'accélérer le déploiement des infrastructures indispensables à l'activité économique.
Le secteur de prédilection est celui de la zone semi-urbaine à densité de population intermédiaire, en vision directe, idéalement mitoyenne de zones industrielles, pour permettre aux mêmes équipements de desservir les entreprises pendant les heures ouvrables et les particuliers le reste du temps. La technologie est sensible aux phénomènes météorologiques.

Les industriels préparent dès à présent une montée en fréquence des systèmes permettant de disposer de bandes passantes plus importantes pour des services haut débit.
Les débits attendus sont mis en évidence dans l'expérimentation LMDS de Thomson à Limoges, à 40 Ghz, pour l'audio-visuel et l'accès à Internet. Elle met en oeuvre des antennes fixes semi-directionnelles desservant, dans quatre directions, des cellules de 1 km de côté couvrant 3000 foyers avec un débit partagé de 50 Mbit/s dans le sens descendant et 5 Mbit/s dans le sens montant (source : Alcatel).

Boucle locale « GSM » 

Cette technologie n'est pas d'actualité pour l'instant pour fournir un véritable accès à l'Internet.

Le modèle WAP
Le modèle "Wireless Application Protocol"
Source : http://www.wapforum.com/docs/technical/arch-30-apr-98.pdf

Wireless Application Protocol (WAP) définit la passerelle entre Internet et le transport de mini-messages (SMS, Small Message System) du GSM qu'utilisent des applications d'affichage (en DHTML) sur l'écran des téléphones mobiles.
Le modèle résolument téléphonique du réseau et son dimensionnement pénalisent la transmission de données qui est restreinte au mieux à SMS et ne permettent pas pour l'instant de tirer parti de son adéquation à la mobilité.

A l'heure actuelle, en Grande-Bretagne, les mini-messages représentent 75% du trafic données GSM. Ces mini-messages sont acheminés au rythme de cent-mille par heure en Allemagne à ce jour. Nokia prévoit 20 à 30% de revenus GSM générés par les données, entre 2001 et 2005. Le débit en mode données est actuellement limité entre 9.6 kbit/s et 14 .4 Kbit/s.

Des travaux sont en cours (GPRS puis EDGE et UMTS) pour porter les débits à 384 Kbit/s et 2 Mbit/s selon la taille de la cellule, à l'horizon 2002 - 2008.
Des premières applications couplent l'assistant personnel (PDA, Personnal Digital Assistant) et GSM pour localiser les ressources urbaines ou encore GSM et carte à puce comme terminal de certification pour du commerce électronique.

Satellite 

La variété géostationnaire du satellite (GEO) peut, dans certains cadres, affranchir de la nécessité d'une boucle locale. C'est, cependant, le satellite en orbite basse (LEO) qui est mis à contribution pour la boucle locale dans l'Internet, principalement sous forme de constellations (Teledesic, Skybridge)

Boucle locale par satellite
Dans cet exemple la voie de retour est terrestre
Source: figure D-4 de http://www.ncs.gov/n5_hp/Information_Assurance/PSN-A97.htm

L'altitude considérablement réduite (trente-six mille km en GEO, sept-cents à mille quatre-cents en LEO) a pour conséquence immédiate :

  • Une dimension d'antennes considérablement réduite, et un besoin de puissance diminué d'un facteur mille par rapport au GEO.
  • Les satellites LEO sont nettement plus petits que les GEO, leur coût de fabrication et de lancement est nettement plus faible.
  • Des temps de transit de dix à vingt millisecondes (deux-cent cinquante millisecondes pour le GEO) comparables à ceux des réseaux terrestres, mais ce délai varie avec la position apparente du satellite.
  • Une empreinte au sol réduite à cent kilomètres de rayon.
  • La multiplication du nombre (au moins une cinquantaine) de satellites nécessaires pour couvrir en permanence un point donné.

Un même satellite d'une constellation en survolant - à 20000 km/h - successivement toutes les régions du globe :

  • hérite des contraintes successives liées à la pénurie de fréquences dans toutes ces régions. Les partages de fréquence entre constellations au niveau international sont plus ardus ou impliquent des solutions techniques complexes de changement de fréquence voire d'arrêt du service au-dessus des régions saturées.
  • couvre essentiellement des régions dont l'intérêt économique est insignifiant (océans) pour le projet.
  • couvre un point donné pendant moins de dix minutes, il faut "faire suivre" la communication en cours ("handover") vers le satellite "suivant" (dans l'ordre chronologique) et donc prévoir des mécanismes complexes de communication entre les satellites.

Comme pour les GEO, les transmissions radio sont entachées d'un niveau de bruit élevé qui prend fortement en défaut les optimisations de TCP. Le temps de transit, parce qu'il est variable, a lui aussi un impact négatif sur ces optimisations.

Les performances générales sont suffisamment faibles (500 Mbit/s dans un rayon au sol de 100 km pour Teledesic en 2002) pour susciter des inquiétudes sur la viabilité des projets :

  • Skybridge : 4,2 milliards de dollars, 80 satellites, opérationnel en 2001.
  • Teledesic : 9 milliards de dollars, 288 satellites, opérationnel en 2003, jusqu'à 64 Mbit/s sur la liaison descendante et 2 Mbit/s sur la liaison ascendante.

Iridium et ses 66 satellites ou Globalstar et ses 48 satellites, en cours de déploiement depuis 1998, sont réservés à la communication téléphonique depuis les mobiles et ne sont pas utilisables pour la boucle locale.

Autres techniques

Ni le réseau électrique longue distance ni la desserte d'abonnés ne semble actuellement utilisable pour Internet, le signal ne passant pas les transformateurs actuels et les problèmes de sécurité étant loin d'être résolus. Des projets existent (Siemens, en Allemagne).
D'autres techniques (ballons dirigeables stationnaires, ...) sont mises à contribution dans des projets encore très incertains.

Situation en France

Possibilités multiples, mais déréglementation non encore effective

Pour les particuliers :

  • L'accès individuel se fait généralement par téléphone au moins à 28.8 Kbit/s et le plus souvent à 56 Kbit/s, plus rarement par RNIS à 64 Kbit/s et jusqu'à 128 Kbit/s par mise en parallèle de deux canaux B (le coût est doublé). L'accès par X.25, y compris dans le canal D du RNIS, est un vestige du passé.
  • L'accès par réseau câblé fait ses premières apparitions à Paris, Caen, Marseille (Lyonnaise des Eaux et France Telecom) avec 14000 abonnés sur les 6,5 millions de prises commerciales, dont la quasi-totalité est utilisable pour Internet, occasionnellement au prix d'un réglage de la voie de retour (source : ART, accès à Internet par le câble au 31/12/1998). La qualité est encore très variable, en pleine évolution. L'offre France Telecom - à 285 francs par mois - limite le trafic "montant" (vers l'Internet) à 150 mega-octets par mois (dissuasif pour des fournisseurs ou hébergeurs de service), les débits offerts sont de 128 Kbit/s pour la voie montante et 512 Kbit/s pour la voie descendante.

Pour les PME

  • L'accès se fait occasionnellement par téléphone ou plus souvent par RNIS à 64 Kbit/s avec débordement à 128 Kbit/s. L'accès à l'Internet est asymétrique - la PME peut appeler mais ne peut être appelée - ce qui ne permet pas l'ouverture à l'extérieur des serveurs locaux de l'entreprise.
  • L'accès par liaison permanente (Transfix France Telecom, plus récemment les offres de Cegetel  ou les réseaux métropolitains câblés des zones d'affaires de quelques grandes métropoles) reste limité, en pratique entre 128 et 512 Kbit/s, soit à cause du prix de la boucle locale, soit à cause du prix élevé de l'accès à l'Internet à haut débit.

Pour les grandes entreprises

  • L'accès dépasse très rarement le 2 Mbit/s, par liaison permanente. Des débits élevés sont disponibles lorsque la connexion se fait sur un réseau métropolitain. Il est éloquent que les tarifs des accès à des débits supérieurs à 2 Mbit/s, voire 512 Kbit/s, n'apparaissent pas au catalogue public des FAI.

Plusieurs expérimentations sont en cours ou annoncées au printemps 1999 :

  • Après une expérimentation technique depuis 1996 à Lannion (Batru/Tamaris) en relation avec quelques partenaires sur le contenu (banque, VPC, presse), France Telecom fait - en avril 1999 - des expérimentations plus commerciales d'accès ADSL notamment à Noisy-le-Grand (1997), Rennes (1998), Nice et Le Mans. Le débit montant (vers l'Internet) est de 128 à 160 Kbit/s, le débit descendant est de 500 Kbit/s à 2 Mbit/s, décliné pour le grand public, écoles, PME et professionnels.
  • Une expérimentation est annoncée, par France Telecom en avril 1999, d'accès Internet asymétrique par satellite. Le débit partagé du canal descendant (venant de l'Internet) est de 2 Mbit/s (par Télécom 2B, pour les professionnels) ou 500 Kbit/s (par Hot Bird, pour le grand public), le prix mensuel est de 300 francs auxquels s'ajoute le prix de la voie téléphonique de retour ("Le Monde", 7 avril 1999).

La situation française pour la boucle locale se caractérise à la fois par un fort potentiel en termes de solution (téléphonie, RNIS, paire cuivre, réseau câblé moderne, fibre, réseaux hertziens) et par un retard important dans l'utilisation de ces opportunités. Le choix n'existe ni au niveau de la solution ni au niveau du fournisseur, ou en tout cas jamais suffisamment pour qu'une réelle concurrence existe.

Les annonces d'ouvertures - très prometteuses - d'accès ADSL sur les dessertes téléphoniques soulèvent à nouveau la question du dégroupage, l'ouverture à la concurrence des infrastructures téléphoniques historiques devant permettre aux différents acteurs de déployer leur propre service ADSL intégré ou non à leur propre offre IP.

Observatoire des accès à Internet et au téléphone sur le câble
Les chiffres au 28 février 1999 (Source : ART)
  NOMBRE D'ABONNÉS PRISES COMMERCIALISABLES
INTERNET TELEPHONE TV INTERNET TV
Entreprises Résidentiels
Est Vidéo-
communications (Haut et Bas-Rhin)
69 1 651 0 91 392 162 269 258 540
France Télécom
Câble
623 3 269 0 761 993 1 010 000 1 717 024
Lyonnaise Câble* 700 15 114 2 344 685 079 2 235 238 2 235 238
NC Numéricâble 5 200 0 625 785 88 000 1 965 953
Vidéopole 4 226 0 139 320 9 704 302 872
TOTAL au 28/2/99 1 401 20 460 2 344 2 303 569 3 505 211 6 479 627
TOTAL au 31/12/98 954 14 150 1 800 2 212 335 2 030 080 6 437 761
Les opérateurs qui figurent sur le présent tableau représentent environ 85% du marché français (source AVICA).
N.B. Les opérateurs Cité Interactive et Médiaréseaux n'ont pas souhaité figurer actuellement dans la liste ci-dessus.
* Lyonnaise Cable ne distingue plus les prises commercialisables Internet et TV, tant qu'elles ne sont pas commercialisées.


La distinction entre "prises Internet" et "prises TV" est tout à fait mineure et reflète un réglage restant à faire de la voie de retour. La quasi totalité des prises en France dispose de cette voie de retour indispensable pour Internet.

Enfin, six millions de prises existent dans les réseaux câblés des grandes villes françaises qui véhiculent dès l'origine les bits de la télévision numérique du Plan Câble et qui ne véhiculent pratiquement pas IP, à la fois prisonnières des stratégies ou de l'absence d'intérêt réel de leurs propriétaires et aussi prises dans l'étau du cadre réglementaire et de l'architecture commerciale hérités du Plan Câble.

Jusqu'à la fin 1998, la boucle locale radio n'avait retenu que peu d'attention de la part des opérateurs (8 demandes de licences expérimentales auprès de l'ART seulement en novembre 1998). Les derniers mois ont vu au contraire un développement des demandes, en particulier dans la bande 27,5 - 29,5 GHz, démontrant la volonté des opérateurs de pouvoir offrir de l'accès Internet au delà du service voix. En avril, on comptait donc 19 licences expérimentales délivrées par l'ART, dont 11 autour de 28 GHz :

Liste des sociétés autorisées à expérimenter la boucle locale radio en France
Société Ville Bande de fréquences
France Télécom Rennes 27,5-29,5 GHz
Cegetel Entreprises Lyon 27,5-29,5 GHz
Cegetel Entreprises Lille 27,5-29,5 GHz
9 Télécom Réseau Vélizy (entre les départements de l'Essonne et des Yvelines) 27,5-29,5 GHz
9 Télécom Réseau Vélizy (seconde expérimentation) 27,5-29,5 GHz
FirstMark Communications Lyon 27,5-29,5 GHz
MFS Communications Lyon 27,5-99,5 GHz
Formus Communications France Strasbourg 27,5-29,5 GHz
Alcatel Velizy 27,5-29,5 GHz
A. Telecom Marseille 27,5-29,5 GHz
France Télécom Lannion 27,5-29,5 GHz
9 Télécom Réseau La Roche-sur-Yon 3,4-3,6 GHz
Siris Nantes 3,4-3,6 GHz
Infotel Fort-de-France 3,4-3,6 GHz
Sagem Cergy-Saint-Christophe 3,4-3,6 GHz
Cegetel Entreprises Nantes 3,4-3,6 GHz
Télé2 France Grenoble 3,4-3,6 GHz
Médiaréseaux Marne Bussy-Saint-Georges 3,4-3,6 GHz
Médiaréseaux Marne Champs sur Marne 3,4-3,6 GHz
Sources : ART, 30 avril 1999
http://www.art-telecom.fr/dossiers/blr/tabloblr.htm

Devant ce succès, l'ART a pris la décision, en avril 1999, d'ouvrir un nouvel appel à candidatures dans la bande du 26 GHz. Dans son communiqué de presse, l'ART souligne à cette occasion qu'elle répond là aux attentes des opérateurs qui faisaient de la possibilité de mise en place d'offres haut débit une condition sine qua non de la réussite économique de la boucle locale radio. Indépendamment de la politique de l'ART sur la boucle locale radio, en matière de services haut débit, le CSA, chargé de l'affectation de la bande autour de 40 GHz, a autorisé une expérimentation de diffusion LMDS dans la région de Limoges.

Cependant, il est à craindre que le déploiement de services commerciaux ne se heurte à des entraves issues d'un cadre réglementaire incomplet. En effet, si l'économie du large bande reste largement à définir, il semblerait logique de permettre aux opérateurs de disposer de toute la latitude possible pour rentabiliser leur investissement. A ce titre, la diffusion de programmes télévisés peut s'avérer complémentaire dans le temps d'autres modes d'exploitation, comme le service Internet aux entreprises et participer, par conséquent, de l'équilibre financier général d'un tel réseau. Néanmoins, l'affectation des fréquences LMDS, relevant aujourd'hui d'autorités différentes (CSA et ART), peut faire craindre des politiques d'affectation des fréquences non coordonnées. Plus généralement, il paraît logique de considérer que les boucles locales LMDS devraient voir leur régime réglementaire s'aligner sur un régime général des infrastructures convergentes large bande, avec l'objectif d'une utilisation économique optimale des ressources.

Des projets existent et quelques expérimentations sont menées en France au niveau de la boucle locale :

  • La Communauté Urbaine du Grand Nancy (CUGN) et la Région Lorraine ont déployé une infrastructure métropolitaine en fibre sur le pôle de Nancy, mise à la disposition de la communauté de l'Enseignement Supérieur et de la Recherche.
  • Thomson expérimente à Limoges une boucle locale radio (LMDS).
  • Projets pour le Grand Toulouse, la communauté urbaine de Lyon (COURLY), à Castres - Mazamet (Conseil Général du Tarn), dans l'agglomération parisienne (Siperec).
  • Projet dans le département du Rhône (Rhône Vision Câble) pour déployer de la "fibre jusqu'au village".

Ces projets et expérimentations sont souvent freinés, voire compromis, par un environnement légal et réglementaire qui ne met pas la priorité sur le développement de l'Internet :

  • France Telecom a contesté l'initiative nancéenne - énergiquement appuyée par la DG IV - devant le tribunal administratif qui lui a donné raison le 18/3/99 ( « Les Echos » du 19/3), la loi n'autorisant actuellement les collectivités locales à intervenir à ce niveau qu'en cas de carence manifeste des opérateurs.

Recommandations

Favoriser l'utilisation de toutes les technologies
  • Réseau téléphonique : Permettre l'utilisation d'une deuxième ligne, dédiée à Internet, à des conditions favorables
  • ADSL : Accélérer le déploiement en créant les conditions d'un marché concurrentiel
  • Câble : Créer les conditions d'une exploitation efficace de l'infrastructure existante
  • Boucle locale radio : Encourager les expérimentations et le déploiement
  • Permettre aux collectivités territoriales de participer à la création de réseaux à haut débit pour l'accès à Internet

Avec pour objectif de généraliser, à terme de cinq ans, les accès locaux avec les performances suivantes :

  • Grand Public : >1 Mbit/s
  • PME : >10 Mbits/s
  • Grandes Entreprises : >100 Mbits/s

La disponibilité locale d'Internet à haut débit peut être une contribution importante au développement industriel et à ce titre jouer un rôle moteur dans l'aménagement du territoire.
Il faut favoriser les initiatives locales, privées et publiques qui se proposent de mettre en oeuvre des boucles locales à haut débit en s'appuyant sur les techniques existantes adaptées à leurs créneaux géographiques et économiques respectifs. Il faut également favoriser l'expérimentation et le développement des techniques émergentes.

 

Références

Références citées

Skybridge, 80 satellites en orbite basse (LEO) pour la transmission de données
http://www.skybridgesatellite.com/intro/index.htm
Teledesic, 288 satellites en orbite basse (LEO) pour la transmission de données
http://www.teledesic.com
 
xDSL
http://www.adsl.com
http://www.adsl.com/general_tutorial.html
http://www.smu.edu/~rmonagha/adsl.html
les variétés de xDSL
http://www.art-telecom.fr/publications/annexe2.htm
Europa Internet, FAI via ADSL aux USA
http://www.europa.com/internet/business/adsl/telephone.html
COVAD, FAI via ADSL aux USA
http://www.covad.com/telespeed/internet_access.html
RHYTHMS : FAI via ADSL aux USA, spécifications des performances
http://www.rhythms.net/network/spec.html
IP dans ATM sur xDSL
http://www.itu.int/ntc/adsl/ibc/ibc.htm
Réseaux câblés
http://www.cablemodem.com
http://www.dvb.org
@Home, FAI sur câble aux USA
http://www.home.com/pricing.html
A2000, FAI sur câble à Amsterdam
http://www.a2000.nl/internet/prijzen/frmprijzen.htm
WAP Forum
http://www.wapforum.org/
ART : accès à Internet par le câble au 28/2/1999
http://www.art-telecom.fr/observatoire/internet/tab.htm
Accès câble, France Telecom
http://www.cablewanadoo.com/
 
Expérimentation commerciale d'ADSL par France Telecom
http://www.wanadoonetissimo.com/
ART : Consultation publique sur le développement de la concurrence sur le marché local (dégroupage, DSL)
http://www.art-telecom.fr/publications/index-d-consult.htm
ART : Liste des sociétés autorisées à expérimenter la boucle locale radio en France
http://www.art-telecom.fr/dossiers/blr/tabloblr.htm
ART, communiqué de presse : Ouverture de la boucle locale radio, appel à candidatures
http://www.art-telecom.fr/communiques/communiques/1999/23-99.htm

Autres Références intéressantes

Satellites, cours de DEA de l'Université de Nice
http://www-sop.inria.fr/mistral/personnel/Eitan.Altman/deasat.html
Les constellations de satellite
http://www.ee.surrey.ac.uk/Personal/L.Wood/constellations/
Teledesic : Livre blanc sur la latence propre aux satellites géostationnaires
http://www.teledesic.com/tech/latency.html
Viabilité économique de ADSL
http://www.cisco.com/warp/customer/779/servpro/solutions/dsl/business.shtml
Advanced Radio Telecom
http://www.art-net.net/about/who.htm
Wireless LAN Alliance : URL vers des organismes de la boucle locale radio
http://www.wlana.com/resource/index.html
 
Wireless Today : collection d'URL vers fournisseurs, R&D, Forums (CDMA, GSM, PCS, WAP, UMTS...)
http://www.wirelesstoday.com/links.html
 
A2000, FAI sur câble à Amsterdam
http://www.a2000.nl/internet/prijzen/frmprijzen.htm
Accès câble, Suez Lyonnaise des Eaux
http://www.suez-lyonnaise-eaux.fr/french/search/index1.htm
Réseaux cablés, DVB, DOCSIS
http://www.cablelabs.com
http://www.cablemodem.com
http://www.cablenet.org
http://www.opencable.com
http://www.packetcable.com

 

INTERCONNEXIONS

Contexte international

Topologie pilotée par le contenu

C'est de l'interconnexion au niveau IP de réseaux bâtis sur des technologies variées qu'Internet tire son qualificatif de réseau de réseaux. Ce mécanisme d'interconnexion permet de tirer parti de toutes les formes de réseaux ("IP over everything"). Il permet également à chaque utilisateur de communiquer avec les utilisateurs des autres réseaux partout dans le monde ("ubiquitous IP").

Les aspects les plus techniques et l'histoire de l'interconnexion dans l'Internet sont présentés en détail dans l'annexe 2.

Interconnexion de bas niveau

Un nouvel acteur constitue ou élargit son réseau de transport et/ou ses boucles locales à partir des supports de télécommunication fournis par les opérateurs de télécommunication (intégration horizontale).
A la différence des opérateurs qui, historiquement, interconnectent (intégration verticale) leurs propres composants élémentaires (desserte point à point en cuivre, boucle métropolitaine ou conduits longue distance en fibre, liaisons hertziennes ou satellite, équipements...) en suivant leurs propres procédures internes (de mise en oeuvre, de qualification, ...), ce nouvel acteur partiel doit s'appuyer sur les règles et pratiques externes à ces opérateurs. Ces pratiques sont le plus souvent non validées, sous-estimées ou constituent une anomalie culturelle. Il se retrouve alors dans la situation des opérateurs historiques lorsqu'ils interconnectent leurs réseaux au niveau international. L'histoire des réseaux européens et les échecs répétés des opérateurs historiques à assembler leurs réseaux nationaux pour proposer à temps une offre internationale de haut niveau et permettre l'émergence de « carrier » pan-européen, ont mis en évidence l'importance de ce problème d'interconnexion des infrastructures.

L'absence, en Europe, d'une pratique de cette interconnexion de bas niveau constitue un premier élément de retard technologique.

Interconnexion de réseaux IP

Elle permet aux Fournisseurs d'Accès Internet (FAI) d'étendre l'intérêt global de l'Internet. Bob Metcalfe affirme qu'il croît comme le carré du nombre d'éléments connectés. Tout FAI déploie son propre réseau IP de couverture régionale, nationale, internationale et intercontinentale par acquisition et, encore aujourd'hui, le plus souvent, par location de circuits de télécommunication ou par acquisition des droits de passage pour son trafic IP auprès de FAI revendeurs de capacité (tier-1 et tier-2 aux Etats-Unis). Le FAI interconnecte alors son réseau à ceux d'autres FAI comparables en taille et surtout en étendue géographique.

Cette interconnexion s'est faite historiquement - c'est toujours le cas en Europe - dans des lieux (les Global Internet eXchange, GIX ou Internet eXchange Point, IXP) réputés neutres et équitables pour chaque FAI participant. Ces GIX sont peu nombreux pour éviter de complexifier le routage. Des accords sont établis au niveau du GIX (accords "1 à N") ou plus couramment entre chaque FAI participant (accords « N à N »). Les FAI s'échangent dynamiquement les routes correspondantes. L'interconnexion se fait le plus souvent sans échanges financiers censés compenser des avantages inégaux.

Ce modèle a été corrigé sous la pression de situations inéquitables ou introduisant des avantages non souhaités en terme de concurrence.

  • un FAI ne tire aucun avantage économique à n'être qu'un simple transit non rémunéré entre des FAI tiers ; or, l'interconnexion d'une infrastructure de dimension continentale avec une infrastructure régionale engendre du transit aux dépens du FAI de niveau continental.
  • La maîtrise technique du routage dans l'Internet peut réclamer des interventions immédiates et complexes de personnels compétents qu'on ne trouve pas a priori chez un FAI de dimension restreinte. Les FAI nationaux de niveau 1 revendent leur compétence en routage aux FAI régionaux de niveau 2 qui les revendent aux FAI locaux de niveau 3.
  • Le nombre restreint de GIX, nécessaire pour maîtriser le routage entre un grand nombre de FAI (la complexité du problème est quadratique, chaque FAI annonçant ses routes à tous les autres FAI), impose que le trafic échangé entre deux FAI nationaux transite par le lieu du GIX - souvent distant - ce qui congestionne inutilement leurs circuits vers ce GIX.

L'interconnexion suit deux modèles économiques, selon les tailles respectives des acteurs (peering .vs. transit)

L'évolution outre-atlantique depuis 1995, qui n'a pas encore touché l'Europe, conduit les plus grands FAI (les National Service Provider de niveau 1, SPRINT, MCI/Uunet, PSI) à déployer de très nombreux points d'interconnexion privés deux à deux (peering privé), et à ne participer aux GIX que pour y revendre de la capacité IP (transit) aux FAI de moindre importance (les « Regional Service Provider » de niveau 2 et leur « Resellers » de niveau 3). Cette pratique de peering privé - techniquement justifiable - manque de transparence. Les règles - variables dans le temps - semblent surtout destinées à empêcher l'arrivée de nouveaux acteurs au niveau 1.

L'interconnexion internationale est chère, les contenus européens sont insuffisants

Les acteurs européens de l'Internet se trouvent en situation de concurrence défavorable à la fois par l'existence de contenus plus importants aux Etats-Unis, par un effet de masse plus important aux Etats-Unis, par des coûts d'infrastructure de télécommunications excessifs en Europe et par la prise en charge par les européens du coût des infrastructures transatlantiques.

A l'instar du FAI américain, le FAI européen doit s'assurer - à ses frais et à des tarifs européens bien supérieurs - d'une connectivité IP nationale par son GIX national et d'une connectivité continentale (européenne) en propre ou acquise auprès d'un revendeur de capacité IP.
A l'inverse de son homologue américain, il doit également s'assurer - dans les mêmes conditions défavorables - d'une connectivité intercontinentale (transatlantique) vers au moins l'un des trois GIX Nord-Américains (SprintNAP à Pensauken - New Jersey, MAE East à Baltimore - Maryland, MAE West à San Jose - Californie), ce dont son homologue américain se trouve ainsi dispensé.
Il peut également participer aux rares GIX régionaux.

Au niveau européen, chaque pays dispose maintenant de son GIX national, organisé selon des principes de mutualisation des coûts (la quote-part y est de 5000 à 10000 Euro), financés et contrôlés par les FAI participants. Les GIX de Londres (LINX) et de Stockholm (Stockholm D-GIX) figurent parmi les plus avancés sur le plan technique et surtout organisationnel.

  • Les GIX régionaux ou métropolitains - encore rares - peuvent contribuer à diminuer les coûts en évitant les détours inutiles et surtout en favorisant l'écoulement du trafic local lorsqu'il existe. Ils peuvent jouer un rôle dans le succès des réseaux métropolitains multi-fournisseurs et dans l'émergence de FAI de proximité.
  • Les réseaux académiques européens - très tôt de taille significative et de dimension continentale - perçoivent leur participation à un GIX national comme un avantage accordé aux réseaux commerciaux, que leur financement public leur interdirait d'apporter.

Situation en France

Culture de l'interconnexion limitée en France

L'interconnexion des réseaux IP au niveau local évite de gaspiller la ressource onéreuse qu'est le réseau longue distance. Elle permet ainsi d'augmenter la fragile viabilité économique de boucles locales ou de fournisseurs IP locaux.

Le très faible nombre d'interconnexions locales de réseaux IP est le reflet de l'absence de solutions locales ouvertes qui, ayant attiré plus d'un acteur, les inciteraient à s'interconnecter :

  • L'association Grenoble Network Initiative (GNI) met en oeuvre le Point d'Echange de Proximité (PEP), interconnexion IP opérationnelle à Grenoble depuis 1996 pour du trafic restreint à la région Rhône-Alpes, mais cette initiative n'a toujours pas, à ce jour, été complétée d'une ou plusieurs boucles locales ou métropolitaines ouvertes à ses participants.
  • Le pôle de Nancy, où la Communauté Urbaine du Grand Nancy (CUGN) et la Région Lorraine ont déployé et mis à disposition de la communauté de l'Enseignement Supérieur et de la Recherche une infrastructure (StanNet 2) métropolitaine en fibre et un service IP sur ATM à 155 Mbit/s (extensible à 622 Mbit/s) qu'elles ont réservé, dans la demande de licence à l'ART, au Groupe Fermé d'Utilisateurs de l'Enseignement et de la Recherche. StanNet 2 n'a donc été connecté qu'au Réseau National d'Interconnexion (RNI) de RENATER.

Le GIX national de Paris - dans sa dimension régionale - met en évidence l'intérêt économique et les effets d'entraînement d'interconnexions au niveau IP. Les opérateurs de dimensions nationale et régionale présents à Paris tirent parti des offres très concurrentielles du haut débit métropolitain pour sur-dimensionner  - selon les critères européens - leurs conduits vers le GIX et permettre une connectivité régionale abondante et économique, incitatrice de nouveaux trafics locaux.

Au niveau national, le principal lieu d'interconnexion est le GIX de Paris (SFINX, Service for French INternet eXchange). Déployé et dirigé par RENATER, il a eu un rôle moteur dans l'amélioration de la connectivité nationale. La quote-part faible (trente à soixante-mille francs par an), et très peu dépendante du débit, incombant aux participants, a favorisé à la fois l'apparition de nouveaux fournisseurs et des interconnexions à débit élevé. L'existence de financement public et des rapports contractuels avec l'opérateur du service (France Telecom) qui datent du début de la déréglementation, sont à l'origine des limitations techniques (impossibilité de se raccorder au GIX avec des circuits fournis par des tiers, impossibilité d'y héberger des équipements, manque de dynamisme dans l'évolution technique) ou organisationnelles qu'on ne retrouve pas ailleurs en Europe. Des initiatives privées comparables (PARIX de France Télécom, à Téléhouse) ou intégrées dans l'offre d'opérateurs revendeurs de capacité (le MAE de Paris) les complètent maintenant.

Les tarifs anormalement élevés pratiqués en Europe et plus encore en France pour les circuits européens et nationaux sollicitent très durement les budgets des FAI, les conduisent à sous-dimensionner les capacités déployées, à freiner le déploiement de capacités plus élevées et à consacrer dans leur budget une part proportionnellement moindre qu'aux Etats-Unis aux investissements en équipement et en personnel.

Ces limitations conduisent les FAI français à être plus souvent clients que pairs dans leurs relations internationales et intercontinentales. Elles les amènent également à se contenter de leur connectivité transatlantique et du transit qui est historiquement consenti outre-atlantique pour communiquer avec les autres continents (Asie, Australie, Amérique Latine). Ces limitations conduisent à des équipements sous-dimensionnés, des compétences rares ou absentes, un manque de maîtrise des techniques propres aux hauts débits, un manque de maîtrise du capillaire nécessairement plus complexe qui permettra d'atteindre de nouveaux clients. Ces limitations mettent les FAI français en situation de retard dans l'évolution technologique de l'Internet.

Ces limitations mettent les FAI français en situation d'infériorité par rapport aux nouveaux arrivants en quête du marché européen. Elles les mettent en situation de faiblesse dans leurs rapports stratégiques avec les opérateurs de télécommunication. En Europe, l'opérateur de télécommunication rachète le FAI (HER et Ebone, Qwest et Eunet, France Télécom et Oléane), ou alors c'est le FAI américain qui rachète le FAI Français (UUnet et Iway, PSI et Calvacom).

Enfin, l'insuffisance des contenus en France et la localisation hors de France des contenus réputés plus intéressants exacerbent l'asymétrie des trafics et impliquent de sur-dimensionner les conduits internationaux dans l'absolu et de les sur-dimensionner aussi au niveau du sens - entrant - le plus chargé, avec, là encore, un impact économique négatif significatif. Ce sur-dimensionnement et cette asymétrie sont moins nets ailleurs en Europe, ils sont même en voie de régression en Allemagne.

Cette remarque sur les contenus nationaux et les conduits internationaux s'applique également au niveau des contenus locaux et des conduits nationaux ; initiatives régionales et contenus locaux et régionaux vont de pair.

Recommandations

Développer une culture de l'interconnexion en encourageant la transparence
  • Créer un observatoire pour mesurer l'état des infrastructures Internet en temps-réel (trafic, points de congestion, ...)
  • Organiser la certification des procédures d'interconnexion des couches basses
  • Encourager la mise en place de points d'interconnexion locaux pour optimiser l'architecture du réseau
  • Contribuer à l'amélioration des interconnexions au niveau européen

Le retard français dans le déploiement de l'Internet a masqué les problèmes liés à l'interconnexion de réseaux. Au fur et à mesure que la capillarité augmente, ces problèmes vont devenir crtiques. La mise en place d'interconnexions économiques et performantes demande le développement de compétences et la collecte de données encore peu disponibles. Un effort tout particulier devra donc être engagé pour tirer le meilleur parti des déploiements du réseau de transport et des nouvelles boucles locales.

 

Références

Annexes

Quelques éléments d'histoire de l'interconnexion des réseaux IP
http://mission-dti.inria.fr/Rapport/Annexes/interconnexion-a1.html

Références citées

Rapport OCDE : Internet Traffic Exchange, Developments and Policy
http://www.oecd.org/dsti/sti/it/cm/prod/traffic.pdf
Les GIX aux Etats Unis
http://www.ncs.gov/n5_hp/html/int-3def.html
Le NAP de Chicago
http://nap.aads.net/main.html
Trafic sur les points d'échange (Exodus) : MAE East et West, NAPs, etc
http://www.bengi.exodus.net/inet/
GIX en Europe
http://www.isi.edu/div7/naps/naps_eu.html
http://www.nic.fr/Guides/gix.html
LINX, le GIX de Londres
http://www.linx.net
D-GIX, le GIX de Stockholm
http://www.netnod.se/index-eng.html
Le PEP (Point d'Echange de Proximite) de Grenoble par Grenoble Network Initiative
http://www.gni.fr/GNI/revue/gni.html
http://www.gni.fr/PEP/
StanNet : L'infrastructure fibre et réseau IP du pôle de Nancy
http://stannet.ciril.fr/PROJET/index.html
RENATER, le Réseau National d'Interconnexion (RNI)
http://ww.renater.fr
http://www.renater.fr/Reseau/pic-topologie-RNI.gif
Service for French INternet eXchange, SFINX, le GIX de RENATER
http://www.renater.fr/Sfinx/French/SFINX.html
PARIX, le noeud d'échange Internet haut débit de France Telecom Transpac
http://www.parix.net/
Telehouse, à Paris et Londres
http://www.telehouse.net/
France Télécom
http://www.francetelecom.fr
Oléane
http://www.oleane.net/
TEN 155, Le réseau européen de R&D déployé par DANTE
http://www.ten-155.net/ten-155.html
http://www.dante.net
Opérateurs, fournisseurs de capacité IP, Fournisseurs d'Accès Internet
Hermes European Railways - MCI / UUnet - France Télécom - Iway - Oléane - Calvacom - PSI - Qwest - Carrier 1 - Ebone - Global Crossing - Tele2 - Siris
IA supported Government Publications
http://www.ncs.gov/n5_hp/n5_ia_hp/GovPub.html

 

SERVICES D'INFRASTRUCTURE

Conçu à l'origine pour établir efficacement des flux de données entre des ordinateurs distants, l'Internet s'est développé en fonction de l'évolution des besoins et de la technique pour constituer maintenant une infrastructure complexe où les mécanismes de transports de l'information sont enrichis par des services d'infrastructure qui permettent :

  • la connexion au réseau des terminaux et des serveurs ("Connexion et hébergement"),
  • la désignation et la localisation des ressources disponibles ("Adressage et nommage" et "Annuaires"),
  • la sécurisation des communications et des informations ("Sécurité"),
  • la maîtrise des informations par l'utilisateur ("Protection de la vie privée et des données personnelles"),
  • la classification des informations accessibles ("Etiquetage du contenu").

La mise en oeuvre de ces services nécessite la mise en place de mécanismes et de protocoles sur les terminaux, les serveurs de contenus et les serveurs techniques de médiation et, en général, ne requièrent pas de modification profonde des mécanismes réseau sous-jacents.

Contexte international

Une architecture fortement distribuée

Connexion et hébergement

Première étape dans l'accès au réseau mondial, le Fournisseur d'Accès à l'Internet (FAI) est souvent le médiateur obligé vers l'ensemble des services disponibles sur le réseau et, à ce titre, a certaines obligations aux yeux de ses clients et utilisateurs :

  • la fourniture de mécanismes d'accès optimisant les possibilités du support utilisé pour la connexion (réseau téléphonique commuté analogique ou numérique, accès ADSL, câble, réseaux radio, satellites) notamment en termes de capacité de transfert d'information (utilisation optimale de la bande passante disponible),
  • la disponibilité de l'accès et l'optimisation des coûts de connexion obtenues par la multiplication et le dimensionnement correct des points d'accès,
  • le dimensionnement correct de ses liens vers les réseaux constituant l'Internet pour éviter des goulots d'étranglement et une réduction visible des performances pour l'utilisateur,
  • une infrastructure informatique performante et optimisée (serveurs de noms, de messagerie ou de forums, mise en place éventuelle de caches, ...),
  • la garantie d'un bon niveau de sécurité empêchant les fraudes, notamment dans le cas d'accès Internet non forfaitaires, la protection des informations,
  • une exploitation et une assistance permanentes, une aide à la maîtrise des techniques utilisées, une bonne réactivité aux incidents,
  • la mise à disposition (en général de façon permanente pour les entreprises et temporaire pour le grand public) d'adresses IP associées éventuellement à un nom de domaine,
  • la transparence vis à vis des différents protocoles de l'Internet pour l'utilisation éventuelle d'applications fournies par des tiers.

L'ensemble de ces paramètres constitue la qualité de service (en anglais QoS, Quality of Service) visible par l'utilisateur, qu'il soit une personne voulant naviguer sur le Web ou une entreprise voulant mettre en place des serveurs. Conformément à la philosophie de l'Internet, cette qualité de service est rarement contractuelle dans le cas des accès ouverts pour le grand public, des professionnels ou des PME : le fournisseur d'accès est certes tenu de faire de son mieux (concept du meilleur effort caractéristique des protocoles Internet : en anglais, Best Effort) mais il s'agit tout au plus d'une obligation de moyens qui n'est pas toujours facilement mesurable. Il peut donc exister des situations contrastées entre les différents FAI.

La mise en place d'un serveur d'informations sur Internet au niveau d'un particulier, d'une entreprise, d'une administration ou d'une organisation peut se faire de deux façons : le raccordement direct et permanent d'un de ses serveurs sur l'Internet (en utilisant éventuellement un coupe-feu pour garantir la sécurité) ou l'hébergement du service sur un serveur fourni par un tiers (soit le fournisseur d'accès, soit un prestataire spécialisé dans ce genre de service).

Adressage et nommage

Une gestion planétaire à mettre en place

Le réseau Internet lui-même ne connaît les machines et ressources qui s'y raccordent que par une adresse numérique du type "192.134.0.0" : ces adresses sont utilisées par les machines constituant le réseau (routeurs) pour transmettre les paquets d'information à leur ordinateur de destination. En théorie, toutes les machines pouvant communiquer sur Internet devraient avoir une adresse différente : en pratique, de nombreuses machines, n'accédant à Internet qu'à partir d'intranets (réseau privé fermé exploitant les techniques Internet et utilisé par une entreprise, un organisme, une administration...), il peut y avoir plus de machines que d'adresses disponibles. Toutefois, en attendant la prochaine version du protocole IP, IPv6 et son système d'adressage étendu, les adresses Internet sont des ressources rares considérées comme un bien public à gérer équitablement. La gestion des adresses au niveau mondial se fait sous le contrôle de l'IANA qui la délègue à des organismes régionaux comme le RIPE (Réseaux IP Européens) pour l'Europe qui à son tour la délègue à des fournisseurs d'accès et des opérateurs de réseaux nationaux. Une entreprise ou un particulier désirant se raccorder à Internet doit donc demander une adresse parmi les adresses gérées par son fournisseur d'accès. Cette adresse est en général allouée pour une durée limitée à la session courante dans le cas des connexions grand public ; elle doit être fixe dans le cas d'une entreprise désirant rendre accessible par l'Internet un serveur d'information.

Pour faciliter l'accès via l'Internet aux serveurs et ordinateurs, les concepteurs du réseau y ont introduit un mécanisme de désignation hiérarchique qui organise les ressources en domaines et qui conduit à des noms plus faciles à manipuler ("internet.gouv.fr" par exemple) que des suites de chiffres. Ces noms sont notamment utilisés pour référencer les pages Web au moyen d'URL ("http://www.internet.gouv.fr/francais/index.html" par exemple). Au sommet de la hiérarchie des domaines se trouvent les domaines primaires (TLD Top Level Domain) qui partitionnent les ressources selon leur rattachement national (domaine ".fr" pour la France par exemple) ou selon leur type (par exemple, ".com" pour les entreprises, ".net" pour les organismes liés à l'Internet, même si "www.internet.net" renvoie sur une société de commerce en ligne !). Le nom d'un site est indépendant de sa situation géographique et du fournisseur d'accès par lequel il est connecté à l'Internet. La traduction entre un nom de domaine et une adresse réseau est effectuée par des serveurs situés "en périphérie" du réseau, les serveurs de noms de domaine (en anglais DNS : Domain Name Service).

L'organisation de ces domaines, après avoir longtemps été gérée par l'IANA, un organisme sous financement fédéral américain, est désormais gérée par l'ICANN, une organisation aux statuts et aux membres plus internationaux, solution encouragée par les pouvoirs publics de nombreux pays dont la France. Chaque TLD est géré par un organisme ou une entreprise chargés d'allouer les noms, de les enregistrer dans les serveurs DNS et d'exploiter ces serveurs.

Le domaine ".com" par exemple est réservé à la présence sur l'Internet des entreprises commerciales et compte un peu moins de 3 millions de noms (en février 1999 - source AFNIC, Association Française pour le Nommage Internet en Coopération). Il est administré par l'InterNIC (géré pour l'instant par NSI, société commerciale américaine mais en cours de mise en concurrence par ICANN), qui alloue les noms au fur et à mesure des demandes sans vérifier la légitimité des demandeurs (légitimité d'ailleurs très difficile à établir dans un contexte international).

Des propositions ont été faites en 1998 pour augmenter le nombre de TLD et donc limiter le nombre de conflits sur les noms mais elles ne sont pas encore opérationnelles. Il faut noter que les procédures d'attribution des noms basées sur l'antériorité des demandes ne suivent pas les règles nationales ou internationales destinées à protéger les marques : cela entraîne des collisions de noms (fortuites ou intentionnelles) dont la résolution (à l'amiable ou devant les juges) pénalise les acteurs concernés. L'évolution technique des mécanismes de navigation (par exemple ceux s'adaptant aux préférences de l'utilisateur ou utilisant des requêtes en langue naturelle), l'usage systématique des moteurs de recherche et des annuaires, ainsi que les initiatives telles que RealNames, sont de nature à rendre moins visibles à l'utilisateur les adresses (URL) des sites Web qu'il consulte et donc à rendre moins stratégique le choix des noms de domaines.

Annuaires

Pour faciliter les usages

Annuaires de services

Les mécanismes de nommage, même s'ils évoluent, ne permettent pas, à eux-seuls, une navigation rapide et efficace dans la masse d'informations accessibles par Internet et en particulier par le Web. L'utilisateur, qu'il recherche une information précise ou qu'il navigue pour son plaisir, a besoin d'outils et de services pour l'assister dans ses tâches : ce besoin a été identifié très tôt, avant même l'existence du Web (serveurs Archie pour les sites FTP, protocoles et serveurs WAIS, ...) et la croissance du médium s'est accompagnée par une importance de plus en plus grande prise par les services (portails) pouvant servir de points d'entrée et de redirection vers l'ensemble du Web. Permettant une recherche des sites par mots clés (moteurs de recherche), offrant une classification rationnelle et hiérarchique des services et intégrant de plus en plus des informations d'actualité, ils utilisent en général des systèmes parcourant automatiquement l'Internet de façon aussi exhaustive que possible pour télécharger les pages d'information, les indexer automatiquement ou les faire classifier par des équipes spécialisées. Ces portails, opérant à la périphérie du réseau, sont parmi les sites les plus consultés : ils louent des espaces publicitaires très prisés, ce qui entraîne une forte concurrence (entre eux et avec les sites des principaux fournisseurs de services) et des convoitises (acquisition par d'autres acteurs). Pour un site Web, être référencé par les portails est la première démarche d'une publication Internet réussie : il est possible en une seule opération (en général payante) de faire référencer automatiquement un site par de nombreux moteurs de recherche.

Annuaires de personnes

Il est très facile sur l'Internet de se créer une boîte à lettres électronique : les fournisseurs d'accès en offrent systématiquement une ou plusieurs et de nombreux sites proposent l'ouverture de boîtes gratuites. Etant donné que, contrairement aux réseaux téléphoniques, les fournisseurs ne proposaient pas systématiquement des annuaires, cette fonctionnalité a été développée par des entreprises indépendantes qui recueillent les inscriptions volontaires de possesseurs de boîtes à lettres ou collectent des adresses par divers moyens et permettent, grâce à des protocoles spécialisés (LDAP) ou des services de recherche, de retrouver l'adresse électronique d'un correspondant potentiel. Ces sociétés sont en général associées à des moteurs de recherche généraux.

Sécurité

Un facteur essentiel de la confiance

Pour jouer pleinement le rôle de véritable système nerveux des sociétés où il se déploie, l'Internet se doit de devenir une infrastructure de communication fiable et inspirant la confiance à tous ses utilisateurs. Son caractère fortement distribué, son passé de réseau de la recherche mondiale, son ouverture et sa transparence technique, l'existence de quelques failles et incidents médiatisés ont fait qu'il est considéré comme moins fiable et moins mûr que d'autres réseaux de télécommunications (réseau téléphonique, réseau de télex, réseaux télématiques...). Pour établir la confiance propre à développer une large utilisation de l'Internet notamment pour le commerce électronique (voir sur ce sujet le rapport Lorentz), il faut d'une part limiter les risques de perturbations touchant le réseau et son infrastructure (pour préserver son intégrité et sa capacité à fonctionner), d'autre part sécuriser les échanges utilisant l'Internet (pour accéder à de l'information, pour communiquer, pour acheter/vendre des biens et des services).

Intégrité des réseaux

Quelques facteurs contribuent à l'amélioration de la sécurité de l'infrastructure Internet :

  • une plus grande maturité des opérateurs d'accès, de réseaux et de services résultats d'un savoir-faire collectif en constante amélioration (meilleure compréhension des phénomènes, apprentissage par l'expérience, amélioration des systèmes techniques...),
  • la mise en place de mécanismes et de structures permettant de mieux gérer la nature plurielle de l'Internet et sa complexité : protocoles permettant un meilleur comportement global du réseau et une meilleure robustesse, mise en place de réseaux officiels ou informels entre les acteurs pour détecter les dysfonctionnements ou les attaques et organiser les ripostes,
  • le déploiement de systèmes techniques permettant de préserver l'intégrité des réseaux et des services : le cloisonnement des flux d'information permettant de limiter les risques (utilisation de réseaux de transport redondants, mise en place de réseaux privés virtuels), la mise en place d'équipements de médiation appelés coupe-feu pour sécuriser les serveurs hébergeant les informations, l'étude de nouveaux protocoles intégrant mieux la sécurité (par exemple les mécanismes d'IPv6 et IPSEC).

Toutefois, les risques sont toujours présents : actions malveillantes pour s'emparer d'informations, scénario d'attaques organisées dans le cadre de guerres par réseaux interposés, actions entraînant un déni de service, réactions en chaîne propageant des erreurs, virus informatiques (Note : les virus informatiques ne sont pas propres à l'Internet mais son utilisation augmente très fortement les possibilités de dissémination). Sont visés non seulement les réseaux eux-mêmes, au travers de leurs liaisons ou de leurs équipements, mais surtout la multitude d'ordinateurs directement connectés à l'Internet et dont toute faille est facilement exploitable à distance. L'Internet offre certainement un magnifique outil de communication au service d'individus ou d'organismes mal-intentionnés : de nombreux sites proposent sur le Web divers moyens pour tirer parti des failles de sécurité de l'Internet (comme celles des autres réseaux ou systèmes techniques d'ailleurs !).

Les outils Internet sont heureusement aussi mis à profit pour contrer et prévenir ces actions menaçant l'intégrité des réseaux : ainsi, un certain nombre d'associations ont été mises en place (principalement au sein des agences fédérales ou des universités américaines, dont la plus connue est le CERT Coordination Center) qui relaient en permanence sur leurs sites Web et par des listes de diffusion des informations pertinentes sur l'existence de nouvelles menaces. Elles sont capables d'organiser une éventuelle réaction à un incident ou une attaque. Ces pratiques ont été reprises par d'autres organisations dans d'autres pays et se sont regroupées au sein d'une structure de coordination (FIRST). De plus, les opérateurs majeurs ont tous des équipes d'exploitation chargées de surveiller en permanence le fonctionnement de leurs réseaux et de ceux de leurs clients. Ces équipes sont à même d'intervenir en cas d'alerte et éventuellement se coordonner pour réagir.

Sécurité des personnes et des biens

Au delà du maintien de l'intégrité des ressources matérielles et logicielles qui composent la nébuleuse Internet, il faut s'assurer que son utilisation comme outil de communication, de négociation, de transaction ou d'information n'engendre pas des risques importants pour les personnes et les biens, risques qui, s'ils étaient mal gérés, pourraient avoir un effet négatif sur les usages et donc freiner l'adoption d'Internet comme l'une des bases de la société.

Les principaux risques sont des transpositions dans un monde numérique de risques classiques (vols de biens et de services, usurpation d'identité, accès à des informations confidentielles, atteinte à la vie privée, fraudes en tout genre, crimes...) agravés par le fait que les législations et les appareils judiciaires n'ont pas toujours pleinement intégré l'impact des nouvelles technologies de l'information et de la communication.

Les solutions techniques universellement proposées sont principalement basées sur l'utilisation de mécanismes de cryptologie garantissant l'identité des utilisateurs (authentification) et des services (certification des serveurs par des tiers),  l'origine et l'intégrité des informations échangées (signature électronique) ainsi que leur confidentialité (chiffrement des informations et des communications). Un certain nombre d'algorithmes et de protocoles sont largement diffusés (DES, IDEA pour les clés secrètes, RSA pour les clés publiques, Diffie-Hellman pour l'échange de clés, X509 pour la diffusion de certificats, TLS-SSL pour la sécurisation des sessions, S-MIME pour le chiffrement du courrier électronique) et intégrés dans les logiciels tels que les serveurs Web et les navigateurs : ils sont déjà utilisés pour les communications interpersonnelles, la consultation d'information, le commerce électronique et l'accès aux systèmes d'information des entreprises et des administrations.

Le chiffrement des communications et des informations pouvant être utilisé pour échapper à la justice ou pour attenter aux souverainetés nationales, les gouvernements peuvent désirer en restreindre ou en contrôler l'utilisation et l'exportation, en général en fixant des seuils à ne pas dépasser pour la taille des clés utilisées. La mise à jour des accords de Wassenaar de décembre 1998 a conduit à uniformiser les pratiques à l'exportation entre les pays industrialisés (exportation autorisée tant que les clés secrètes restent inférieures à 56 bits).

Protection de la vie privée et des données personnelles

La protection de la vie privée et des données personnelles sur Internet est contraire aux modèles économiques des éditeurs d'information : ces éditeurs ont tout intérêt à récupérer le maximum d'informations sur leurs visiteurs et à en tirer pécuniairement parti, par exemple en valorisant la fréquentation de leur site (volume, ciblage...) auprès des publicitaires, ou en louant et vendant les fichiers d'informations recueillies sur leurs visiteurs. Pour cela, les logiciels Internet intègrent des techniques qui permettent aux éditeurs de collecter des données, souvent à l'insu des consommateurs : les cookies. Toutefois, ce principe des cookies est sérieusement contesté par les associations de défense des consommateurs et des droits de l'Homme, et enfreint souvent les lois sur la protection des données personnelles en vigueur dans de nombreux pays.

Les législations en vigueur sont très différentes selon les régions du monde. Elles sont inexistantes aux Etats-Unis où seul le principe d'auto-régulation fait foi. Les acteurs économiques maintiennent une pression constante sur le gouvernement fédéral pour prévenir toute velléité de législation dans le domaine. De façon plus positive, IBM a annoncé le 31 mars 1999 qu'il retirerait à partir de juin 1999 toutes ses publicités sur les sites qui n'afficheraient pas de politique claire en matière de protection de la vie privée. En Europe, le principe de législation fait foi, et la directive du 24 octobre 1995 concernant la protection de données personnelles est en vigueur depuis le 25 octobre 1998. Cette directive vise à réduire les divergences entre les législations nationales, et elle est actuellement en cours de transposition dans l'Union Européenne. Fin 1998, la Grèce, le Portugal, la Suède, le Royaume-Uni et l'Italie ont mis en oeuvre la directive. Des lois de transposition sont à l'étude devant les Parlements de tous les autres états membres, exceptés l'Allemagne, la France et le Luxembourg, qui ont un travail plus lourd de modification d'un cadre réglementaire déjà bien établi.

Il y a donc une différence d'approche radicale entre les systèmes législatifs comme ceux préconisés en Europe et le système d'auto-régulation préconisé par les Etats-Unis, où seules des réglementations sectorielles et très limitées donnent un cadre législatif. Pour permettre l'implémentation de ces différentes politiques de protection de la vie privée selon les régions du monde, le W3C a lancé l'initiative P3P (Platform for Privacy Preferences Project) en  mai 1997. Cette initiative vise à permettre aux utilisateurs de sites Web de choisir explicitement le niveau d'information qu'ils désirent fournir aux sites qu'ils consultent. Actuellement à l'état de "draft", les spécifications de P3P devraient accéder au statut de recommandation mi-1999. Début 1999, il n'y a pas encore d'implémentation disponible ni annoncée par les fournisseurs de logiciels Web.

Etiquetage du contenu

L'étiquetage du contenu des pages Web est né du besoin exprimé en 1995 par des parents et des professeurs de contrôler l'information à laquelle les enfants ont accès à travers l'Internet. Un système nommé PICS (Platform for Internet Content Selection) a été spécifié dans un groupe de travail du W3C, permettant la conception de systèmes d'étiquetage (catégories et valeurs dans chaque catégorie) et de logiciels de filtrage des pages étiquetées. PICS permet de définir des étiquettes significatives pour un usage donné, d'étiqueter son propre site ou le site d'un tiers, et de filtrer l'information étiquetée de façon positive (sélection) ou négative (blocage), par un logiciel individuel (navigateur) ou par un logiciel collectif (coupe-feu, proxy...).

Début 1999, on est encore à l'aube de l'étiquetage du contenu. Peu de systèmes d'étiquetage sont déployés. Les plus populaires sont RSACi, SurfWatch et Safesurf. Peu de logiciels de filtrage sont disponibles, principalement le navigateur de Microsoft depuis la version 3 et celui de Netscape depuis la version 4.5. Quelques logiciels de filtrage à usage collectif (serveurs, proxies...) ont été développés à titre expérimental uniquement. La raison principale de cette désaffection est sans doute la difficulté rencontrée jusqu'à présent pour concevoir un modèle économique faisant usage de l'étiquetage du contenu.

Au niveau conceptuel, le contrôle parental a été la première expression d'un besoin plus général pour un mécanisme permettant l'interprétation de documents Web par des machines (moteurs de recherche, navigateurs, agents intelligents...). Un langage nommé RDF (Resource Description Framework), permettant de décrire un document Web par des métadonnées (des données facilement interprétables par des machines), est en cours de définition au W3C. RDF est la généralisation du système PICS à bien d'autres applications que le contrôle parental. Compte tenu de l'intérêt général pour les métadonnées et dans l'hypothèse où des modèles économiques en faisant usage seront inventés, on peut s'attendre à une implémentation massive de logiciels compatibles RDF, qui pourrait en particulier donner une seconde naissance à l'étiquetage du contenu.

Situation en France

Une situation contrastée (culture de la centralisation)

Connexion et hébergement

En ce qui concerne les structures d'accès à l'Internet, la France est encore dans une phase de construction rapide du marché et de structuration de l'offre. Il y a une tendance à la concentration des acteurs ayant une implantation sur l'ensemble du territoire (Wanadoo/MSN, AOL/Compuserve, Infonie, Club Internet, ...). Actuellement, la concurrence joue plus sur les prix, la facilité d'utilisation et les services proposés (email, hébergement, contenu) que sur la qualité de service, même si la communauté des utilisateurs pionniers reste très sensible sur ce point et si des essais comparatifs intégrant des mesures de performance sont publiés par les organisations de consommateurs et les revues spécialisées. On peut cependant remarquer, étant donné la très forte croissance dans le domaine (les capacités et le nombre d'utilisateurs font plus que doubler tous les ans, les fournisseurs d'accès installent continuellement de nouveaux équipements), que toute mesure n'a qu'une durée de vie limitée à quelques mois, voire quelques semaines. Il suffit qu'un fournisseur d'accès change un équipement de son réseau pour que la situation s'améliore nettement !

Abonnements AFA entre 1996 et 1999
Evolution du nombre cumulé d'abonnements souscrits auprès de fournisseurs d'accès membres de l'AFA - Source : AFA

Consommation et abonnements AFA entre
1996 et 1999
Evolution du nombre cumulé d'heures de connexion des fournisseurs d'accès membres de l'AFA -  Source : AFA

Une entreprise peut héberger son site sur les serveurs d'un prestataire situé n'importe où dans le monde (tout en ayant la possibilité d'avoir un nom de domaine en ".fr"). Toutefois, la situation géographique peut influer sur les performances (en fonction de la localisation de l'audience, des capacités de connexion à l'Internet, de la proximité d'un site d'interconnexion ou d'une artère).

Adressage et nommage

Les noms de domaines pour la France (".fr") sont gérés par l'association AFNIC qui a établi des règles de fonctionnement (la Charte de nommage du domaine ".fr") destinées à clarifier l'attribution des noms et à structurer les sous-domaines (".tm.fr" pour les marques, ".asso.fr" pour les associations...). En conditionnant l'attribution des noms de domaines à la fourniture de documents officiels (extraits Kbis ou JO, certificat INPI), l'AFNIC contribue à augmenter la confiance générale dans l'Internet. Cependant, il semble que les restrictions imposées et la lourdeur administrative poussent certains utilisateurs à préférer un domaine ".com" plutôt que ".fr" (30400 domaines français sous ".fr" le 1/1/1999 contre 37400 sous ".com" le 10/2/1999 - source AFNIC). Dans un contexte de mondialisation de l'économie, la démarche la plus sage pour les entreprises ou organismes à vocation internationale est sans doute l'enregistrement dans plusieurs domaines. Il faut noter que la France participe activement aux travaux sur l'évolution de l'attribution des noms de domaines. France Télécom/Oléane fait partie des 5 entreprises et organismes sélectionnés par l'ICANN pour tester la mise en concurrence de l'attribution des noms des sous-domaines de ".com", ".org" et ".net".

Evolution du nombre de domaine sous .fr depuis 01/01/1992

Répartition des
domaines en France au19/03/1999

Annuaires

La France dispose de quelques moteurs de recherche de bon niveau (Voilà, Nomade, Ecila). Cependant, les moteurs de recherche indexent en général l'information à partir de mots-clés, et sont souvent indépendants de la langue. Les entreprises internationales sont facilement capables de mettre en ligne une version française de leurs services (Yahoo!, Excite, Lycos, par exemple, qui utilisent le domaine ".fr" mais sont hébergés hors de France !). Il faut cependant remarquer que quelques rubriques des annuaires doivent être spécifiques aux pays traités notamment celles concernant les institutions, les administrations, les collectivités locales, ...

Pionnière dans la mise en ligne des annuaires téléphoniques, la France dispose aujourd'hui d'annuaires téléphoniques performants et accessibles gratuitement sur Internet (par exemple le service des Pages Blanches). En ce qui concerne les autres annuaires personnels, comme ceux contenant les adresses de boîtes à lettres électroniques, une déclaration à la CNIL est théoriquement obligatoire mais en pratique difficile à imposer dans un contexte international.

Sécurité

Il n'existe pas encore en France de structure officielle de coordination et d'alerte contribuant à la préservation de l'intégrité des réseaux Internet nationaux. Seul fonctionne le CERT-Renater qui participe au FIRST. Des initiatives industrielles ou gouvernementales sont toutefois en cours. Au niveau européen, il existe un EuroCERT hébergé en Grande-Bretagne mais il ne rassemble pas l'ensemble des pays et offre un service limité.

La réglementation française en matière de cryptologie a été modifiée en 1999. Les euils de chiffrement demandant autorisation ou déclaration ont été relevés à 128 bits. Cette modification permet l'usage et le deploiement de techniques et logiciels standards. Il est également prévu de modifier la législation pour libéraliser totalement l'usage de la cryptologie.

Depuis les décrets de 1998 simplifiant l'utilisation des techniques cryptographiques, notamment pour l'authentification et la signature (facteur sans doute plus déterminant pour engendrer la confiance que le chiffrement), une offre française d'autorités de certification se met progressivement en place (sociétés Certplus ou Certiposte par exemple). Toutefois le déploiement est encore limité.

Protection de la vie privée et des données personnelles

La France est depuis longtemps particulièrement active dans le domaine de la protection de la vie privée avec la loi du 6 janvier 1978 et l'établissement de la CNIL (Commission Nationale de l'Informatique et des Libertés). La CNIL s'est tenue informée très tôt des pratiques en vigueur sur Internet, et a joué un rôle moteur dans l'établissement de la directive européenne du 24 octobre 1995. Guy Braibant a été chargé par le Premier ministre d'un rapport remis le 3 mars 1998, visant à éclairer le législateur sur la transposition de cette directive au droit français.

Du fait du travail législatif déjà accompli par la France dans le domaine, et de sa large diffusion dans différents aspects du droit commercial, du droit social, etc., la transposition française de la directive européenne est un travail  lourd, ce qui explique que début 1999 la transposition ne soit pas encore achevée. Le Premier Ministre, Lionel Jospin, a annoncé dans un communiqué de presse du 3 mars 1998, suite à la remise du rapport Braibant, que le projet de loi serait soumis à la consultation de la Commission Nationale Consultative des Droits de l'Homme et à celle de la CNIL avant d'être présenté au Parlement. Dans une conférence de presse du 19 janvier 1999 à l'issue du Comité interministériel pour la société de l'information, il a indiqué que les orientations que le Gouvernement proposera viseront à maintenir le niveau élevé de protection des données personnelles actuellement garanti aux citoyens français, et que ceci devrait conduire au renforcement des moyens de la CNIL et de son pouvoir de contrôle.

Il est clair qu'en matière de politique de protection de la vie privée et des données personnelles, la France dispose d'un capital d'expérience et de compétences au tout premier niveau mondial. L'enjeu est donc maintenant de mettre ce capital en application dans l'usage d'Internet, et en particulier de faire le lien avec les technologies qui se profilent dans le domaine.

Etiquetage du contenu

En France, il n'existe aucun système d'étiquetage du contenu. En Europe, le pays pionnier est l'Italie avec le système d'étiquetage à usage de contrôle parental IT-RA. Notons que PICS est encore mal connu en France, malgré des actions de communication du W3C comme par exemple l'atelier PICS organisé en janvier 1998 à Autrans. En particulier, le rapport "Libertés individuelles et libertés publiques sur Internet" remis par l'association IRIS au Conseil d'Etat en octobre 1997 émet un avis assez négatif sur l'étiquetage du contenu et sur PICS dans son annexe VI. Cette vision négative est principalement due à l'utilisation de l'étiquetage dans un but de blocage de l'information indésirable comme dans le contrôle parental, ou à des fins de censure dans des régimes "non démocratiques", et non dans un but positif de déclaration et de sélection de l'information recherchée.

Recommandations

Construire la confiance en s'appuyant sur la décentralisation des responsabilités

Connexion et hébergement

  • Encourager l'élaboration et la diffusion d'indicateurs de qualité pour les services de connexion et d'hébergement sur Internet

Le dynamisme et la croissance rapide du monde Internet font qu'il est difficile d'avoir en permanence une vision cohérente de la situation technique et de l'offre. Il convient donc d'encourager toute initiative conduisant à la mise en place d'observatoires objectifs sur la situation dans ce domaine. Ces structures peuvent être soit privées, comme il en existe aux Etats-Unis, soit intégrées au secteur public (hébergement par une université, un organisme officiel ou une administration). Il s'agit d'accompagner et de mesurer la transformation d'Internet en un réseau robuste et fiable fournissant une qualité de service nécessaire pour accéder au statut d'infrastructure essentielle de la vie économique.

La concurrence forte sur l'accès aux réseaux et services de l'Internet doit conduire naturellement à une normalisation des pratiques dans le domaine, aussi bien sur la nature même de l'offre que sur la qualité des prestations fournies. Toutefois, pour améliorer la protection des consommateurs (individus ou entreprises) face à ce domaine technique complexe, il faut favoriser la création et l'utilisation de chartes intégrant des clauses de qualité de service. Ces chartes permettraient de mieux définir les prestations attendues d'un fournisseur d'accès (en complétant par exemple l'initiative de l'AFA, Association des Fournisseurs d'Accès et de Services Internet).

En matière d'hébergement, le développement du marché national passe sans doute par une clarification des devoirs et responsabilités respectifs des fournisseurs d'accès, des hébergeurs et des éditeurs/créateurs de sites.

Adressage et nommage

  • Créer une autorité de certification des sites afin de garantir l'identification des sources d'information et de services

La démarche entreprise par l'AFNIC pourrait être complétée par la mise en place conjointe d'une autorité de certification des sites (voir les aspects "Sécurité" de ce chapitre) afin d'augmenter notablement le niveau de fiabilité de l'identification des sources d'information et de services sur Internet.

Sécurité

  • Mettre en place des autorités de certification gérées par des administrations et des organismes publics
  • Mettre en place une structure d'échange et de coordination chargée de l'information sur les risques et alertes

La libéralisation de la cryptologie en mars 1999 lève un obstacle à l'utilisation en France de moyens de chiffrement à grande échelle. Elle devra sans doute être accompagnée rapidement d'un ensemble de lois claires et cohérentes concernant notamment les obligations vis à vis des autorités d'instruction judiciaire ou des services de sécurité nationale (nécessité d'auto-séquestre des clés par exemple, s'il y a une obligation de preuve de la correspondance entre un message et sa version chiffrée). En matière de fourniture de produits intégrant des mécanismes cryptologiques, la carte à puce constitue souvent une solution élégante et ergonomique. La France pourrait adopter une attitude conquérante dans ce secteur en capitalisant sur l'expérience acquise par les acteurs du domaine.

La libéralisation récente ne modifie toutefois pas la situation en matière d'utilisation de la cryptologie à clé publique pour permettre une confiance accrue lors de consultations ou de transactions sur l'Internet. La mise en place rapide d'autorités de certification sérieuses et efficaces conditionne en partie le déploiement du commerce électronique, de téléprocédures ou de services sectoriels (santé, notaires, justices...). Pour rendre acceptable par l'utilisateur ces mécanismes et pour engendrer la confiance, un soin particulier doit être apporté à l'ergonomie et à la transparence des mécanismes. La mise en place d'autorités de certification gérées par des administrations et des organismes publics semble être aussi de nature à lever certaines réticences à l'utilisation de l'Internet pour la vie administrative.

Pour garantir un niveau de protection correct des réseaux et services Internet français, il conviendrait de mettre en place une structure d'échange et de coordination permettant à tous les acteurs du domaines de se tenir informés des risques et alertes concernant la sécurité et de synchroniser en cas d'incident. Elle pourrait aussi participer à la défense des infrastructures réseaux et services en cas d'attaque organisée. Elle pourrait se synchroniser avec les organismes de sécurité concernés. La France pourrait aussi proposer la mise en place d'une structure équivalente pour protéger les intérêts de l'ensemble des pays européens.

Protection de la vie privée et des données personnelles

  • Lancer dans l'administration française des plateformes expérimentales conformes aux modalités de la directive européenne et de la future loi

L'enjeu est de tirer parti du capital d'expériences et de compétences acquis au niveau français dans le domaine pour mettre au plus tôt en application les principes exposés par la directive européenne 95/46/CE et dans sa transposition en cours dans le droit français. Les recommandations sont donc :

  • de lancer dans chaque administration française, parallèlement à la mise en place de cette transposition et en liaison avec la CNIL, des expérimentations préparant les modalités d'implémentation de la directive et de la future loi, en étudiant en particulier la proposition technologique P3P ;
  • d'être proactif dans l'implémentation des principes nécessaires au respect de ces législations au sein des logiciels disponibles en "Open Source" comme Netscape Communicator (Mozilla) et Apache server.

Etiquetage du contenu

  • Encourager le développement de systèmes d'étiquetage "positif" dans un but pédagogique
  • Encourager l'étiquetage déclaratif du contenu auprès des fournisseurs d'information

La recommandation est d'utiliser les technologies de métadonnées pour un étiquetage "positif" de l'information, à des fins de déclaration et de sélection, et non pas de blocage.

Ce principe s'applique bien aux usages dans lesquels il existe une communauté d'utilisateurs (potentiellement grande) partageant les mêmes centres d'intérêts, en particulier les usages où la rentabilité du modèle économique n'est pas le premier moteur. On pense en premier lieu à l'éducation : des systèmes d'étiquetage pourraient être définis et utilisés par les communautés scolaires et enseignantes dans un but pédagogique et constructif.

L'étiquetage déclaratif du contenu pourrait également être un outil utile dans les situations où il s'agit de définir les responsabilités respectives entre un éditeur d'information et l'hébergeur effectif de cette information.

 

Références

Connexion et hébergement

AFA - Association des Fournisseurs d'Accès et de Services Internet
http://www.afa-france.com/html/accueil/index.htm
Initiative de l'AFA
http://www.afa-france.com/html/presse/index.htm

Adressage et nommage

ICANN - Internet Corporation for Assigned Names and Numbers
http://www.icann.org
IANA - Internet Assigned Numbers Authority
http://www.iana.org
InterNIC
http://www.internic.net
NSI - Network Solutions Inc.
http://www.networksolutions.com/
RIPE - Réseaux IP Européens
http://www.ripe.net
AFNIC - Association Française pour le Nommage d'Internet en Coopération
http://www.nic.fr
Charte de nommage de la zone .fr
http://www.nic.fr/Procedures/nommage.html
RealNames
http://www.centraal.com/WhatAreRealNames/WhatAreRealNames.html
France Télécom/Oléane
http://www.oleane.com/
ICANN names competitive domain-name registrars
http://www.icann.org/icann-pr21apr99.htm
ARIN - American Registry for Internet Numbers
http://www.arin.net/intro.html

Annuaires

Voilà
http://www.voila.fr/
Nomade
http://www.nomade.fr/
Ecila
http://www.ecila.fr/
Yahoo! France
http://www.yahoo.fr/
Excite
http://www.excite.fr/
Lycos
http://www.lycos.fr/
Pages Blanches
http://www.pagesblanches.fr

Sécurité

Le rapport de Francis Lorentz de janvier 1998 sur le Commerce Electronique
http://www.finances.gouv.fr/commerce_electronique/lorentz/sommaire.htm
CERT - Coordination Center Computer Emergency Response Team
http://www.cert.org
FIRST - Forum of Incident Response and Security Teams
http://www.first.org
SCSSI - Service Central de la Sécurité des Systèmes d'Information
http://www.scssi.gouv.fr
CERT-RENATER
http://www.renater.fr/Securite/index.htm
EuroCERT
http://www.eurocert.net/
Certplus
http://www.certplus.fr/
The Wassenaar Arrangement
http://www.wassenaar.org/
CIAC - Computer Incident Advisory Capability
http://www.ciac.org

Protection de la vie privée et des données personnelles

La directive européenne 95/46/CE du 24 octobre 1995 concernant la protection de données à caractère personnel
http://www2.echo.lu/legal/fr/dataprot/directiv/direct.html
L'initiative P3P
http://www.w3.org/P3P/
Les spécifications P3P
http://www.w3.org/TR/WD-P3P/
La Commission Nationale de l'Informatique et des Libertés
http://www.cnil.fr
La loi du 6 janvier 1978
http://www.cnil.fr/textes/text02.htm
Le rapport de Guy Braibant au Premier ministre du 3 mars 1998
http://www.ladocfrancaise.gouv.fr/cgi-bin/multitel/CATALDOC/site_externe?code_ext=5463800000&MID=RTOAOeoLdOcz
Commission Nationale Consultative des Droits de l'Homme
http://www.cncdh.org/
Communiqué de presse du Premier ministre du 3 mars 1998
http://www.premier-ministre.gouv.fr/PM/030398.HTM
Conférence de presse du Premier ministre du 19 janvier 1999
http://www.premier-ministre.gouv.fr/PM/D190199.HTM
L'organisation Mozilla en charge du code "Open Source" de Netscape Communicator
http://www.mozilla.org
Le projet Apache server
http://www.apache.org
Le rapport "Privacy and Human Rights" d'octobre 1998 de Global Internet Liberty Campaign
http://www.gilc.org/privacy/survey/
Les sites américains en faveur de l'auto-régulation pour la protection de la vie privée sur  Internet
http://www.truste.org
http://www.privacyalliance.org

Etiquetage du contenu

Le système PICS
http://www.w3.org/PICS/
Le système d'étiquetage du RSACi
http://www.rsac.org
Le système d'étiquetage de SurfWatch
http://www.surfwatch.com
Le système d'étiquetage de Safesurf
http://www.safesurf.com
Le système d'étiquetage IT-RA
http://www.csr.unibo.it/ra/
Le navigateur Microsoft Internet Explorer
http://www.microsoft.com/windows/ie/
Le navigateur Netscape Navigator
http://home.netscape.com/browsers/
L'atelier PICS à Autrans en janvier 1998
http://www.w3.org/PICS/Autrans98/
Le rapport de l'association IRIS au Conseil d'Etat en octobre 1997
http://www.iris.sgdg.org/documents/rapport-ce/index.html
Le système RDF (Resource Description Framework)
http://www.w3.org/RDF/
La page méta-données du W3C
http://www.w3.org/Metadata/

 

ÉQUIPEMENTS

Contexte international

Un marché en plein bouleversement

Bousculant les secteurs de l'informatique traditionnelle des systèmes d'information et des télécommunications "classiques", l'arrivée de l'informatique individuelle (bureautique, jeux...) et d'Internet a fortement accéléré la dynamique industrielle du domaine. De nouveaux acteurs apparaissent tous les jours, souvent de petites entreprises fondées sur une seule idée ou une seule technique mais qui, se basant sur les protocoles simples et standardisés de l'Internet et jouant avec la caisse de résonance que peut constituer le Web, réussissent à lever des capitaux puis à s'imposer techniquement et commercialement, déstabilisant souvent les acteurs plus traditionnels. C'est particulièrement flagrant pour les nouveaux équipementiers comme Cisco et Ascend (routeurs et équipements d'accès), pour des fournisseurs de plates-formes logicielles comme Netscape (navigateur et serveurs) ou RealNetworks (applications de diffusion multimédia) ou pour des fournisseurs de services comme Yahoo! ou Altavista (portails). D'autres acteurs ont su exploiter l'expansion de l'Internet pour améliorer leur position et conquérir de nouveaux marchés (par exemple Microsoft et Sun).

Les équipements constitutifs de l'Internet sont de natures très diverses suivant leur position au sein de l'infrastructure :

  • les équipements des réseaux de transport pour permettre la constitution des artères de transmission de grandes quantités d'information (câbles et fibres, liaisons sous-marines, liaisons satellites, liaisons hertziennes),
  • les équipements des réseaux d'accès qui permettent d'irriguer l'ensemble du territoire en permettant une connexion à l'Internet adaptée aux différents besoins et contraintes (couples de modems pour réseaux téléphoniques analogiques ou numériques, équipements ADSL, liaisons louées, distribution radio...),
  • les équipements d'interconnexion qui permettent de constituer le maillage et la topologie de l'Internet (routeur principalement),
  • les équipements supportant les services d'infrastructure qui permettent d'enrichir les possibilités fonctionnelles du réseau (serveurs de nommage, coupe-feu, annuaires, systèmes de caches, serveurs d'authentification et de certification...),
  • les équipements supportant les services applicatifs et les contenus (serveurs d'hébergement, serveurs de messagerie et de forums, bases de données, commerce électronique...),
  • enfin, la grande famille des terminaux permettant de tirer parti de l'ensemble des applications et contenus (domination des ordinateurs individuels équipés de navigateurs Web mais aussi "webphones", "set-top boxes", bornes interactives, terminaux portables...).

Plus qu'une classification par usage ou par domaine d'utilisation (l'un des facteurs de développement de l'Internet étant la banalisation à l'extrême des matériels et logiciels qui sont utilisés aussi bien au sein des foyers que des entreprises), les équipements et logiciels constituant l'ensemble du nuage Internet peuvent grossièrement se classer en deux familles de caractéristiques différentes :

  • les équipements et logiciels réseau ("under IP" , "under the hood") qui constituent l'infrastructure globale de l'Internet basée sur le protocole IP : ils sont très liés aux mécanismes réseau (adressage, routage, nommage, qualité de service...) et nécessitent souvent des investissements lourds pour leur développement, la mise au point des interfonctionnements indispensables (protocoles, interfaces...), leur déploiement (nécessité de phases pilotes, planification à grande échelle, synchronisation...).
  • les équipements et logiciels applicatifs ("over IP" , "killer apps") qui, en se connectant sur l'Internet de façon simple et standard (mécanisme des "sockets", sorte de prise universelle de branchement sur le réseau), offrent des services à valeur ajoutée qui tirent pleinement parti de la connectivité et des contenus de l'Internet. Dans ce domaine dominé largement par l'influence du logiciel, le passage de l'idée de service ou d'application à la réalisation nécessite en général moins d'investissement : une petite entreprise ("start-up") ou un nouvel acteur peut réaliser rapidement une première version de son système, la proposer  directement sur l'Internet/Web, apprécier en temps réel la réaction de la communauté et améliorer progressivement son produit : le cycle innovation/marché est alors considérablement raccourci.

A ces équipements traditionnels de l'Internet s'ajoutent régulièrement des équipements issus d'autres domaines de la communication et de l'information qui, progressivement, tirent parti des nouvelles possibilités offertes par l'Internet : les services et informations disponibles sur l'Internet seront aussi accessibles par les assistants numériques personnels  (PDA), les baladeurs musicaux rechargeables (supportant par exemple le standard MP3), les livres électroniques ("e-book"), les téléphones portables (supportant par exemple le protocole WAP), les "pagers", les équipements domotiques, les "set-top-boxes", les ordinateurs enfouis ("pervasive") ou vestimentaires ("wearable").

La séparation engendrée par l'existence du protocole IP permet de faire évoluer de façon indépendante le réseau Internet lui-même (pour le faire grandir, le rendre plus efficace, plus accessible) et l'ensemble des services qui l'utilisent, préservant ainsi les investissements faits de part et d'autre et facilitant le déploiement des nouvelles techniques. Ce modèle est toutefois en passe d'atteindre ses limites car les nouvelles évolutions de l'Internet telles que le passage à IPv6, nécessitent des couplages plus fins entre les mécanismes réseaux et les applications pour améliorer la sécurité et la fiabilité, la qualité de service et les performances. Le déploiement de nouveaux services multimédia nécessite alors à la fois la disponibilité de nouvelles applications mais aussi la présence de nouvelles fonctionnalités dans le réseau et cette contrainte (plus difficile à gérer car nécessitant une concertation entre les différents acteurs) peut ralentir l'introduction des solutions techniques novatrices.

Situation en France

Des opportunités à saisir

Même si le marché des matériels et logiciels liés à l'Internet reste dominé par l'Amérique du Nord, la France possède néanmoins quelques atouts pouvant être exploités dans certains domaines précis.

  • en matière d'équipements de transport de l'information  :
    • compétitive et parfois même en bonne position sur certains marchés, l'industrie française des télécommunications "classiques" est capable de fournir fibres, câbles et équipements SDH ou ATM nécessaires à la mise en oeuvre des réseaux de transport.
  • en matière d'équipement d'accès :
    • qu'il s'agisse des modem pour réseaux analogiques ou numériques (RNIS, ADSL), la France possède quelques constructeurs ayant une bonne  capacité d'évolution technologique et pouvant proposer rapidement des produits aux standards internationaux. La situation est plus critique en matière de modem câble à cause du faible taux de pénétration de ce moyen d'accès en France.
    • en ce qui concerne le matériel nécessaire aux fournisseurs d'accès Internet, le marché des points d'accès et multiplexeurs réseau est dominé par des entreprises nord-américaines.
    • l'Europe a bien négocié le passage à la téléphonie mobile numérique avec l'avènement du GSM, ce qui devrait lui permettre de suivre les évolutions techniques dans ce domaine (GPRS puis UMTS).
  • en matière d'équipement d'interconnexion :
    • les routeurs, matériels rois des réseaux Internet, sont principalement d'origine américaine et en majorité fournis par l'entreprise Cisco. Le routage à très haut-débit, la prise en compte de la qualité de service, l'évolution des protocoles contribuent à ouvrir un peu le marché et des entreprises françaises comme Alcatel, par des choix stratégiques internes et par l'acquisition de compétences externes, essaient de se positionner, notamment en tirant parti de leur expérience en matière de transport de la voix, de qualité de service (issue de l'ATM), de réseaux intelligents et d'exploitation des réseaux.
  • en matière d'équipements pour services d'infrastructure :
    • il s'agit essentiellement d'équipements informatiques standard (ordinateurs, disques, réseaux locaux, cartes réseau...), marché que les constructeurs et assembleurs français (comme les européens) ont bien du mal à conquérir.
  • en matière de terminaux :
    • la France possède un tissu industriel mis en place dans le domaine de la télématique (minitel, modem, périphériques), de la banque (cartes à mémoire) ou de la téléphonie cellulaire, qui peut être directement valorisé dans le monde Internet (modem d'accès, équipements ADSL, webphones et terminaux grand public, cartes à puces et lecteurs associés). L'enjeu est alors de savoir suivre et même anticiper l'évolution rapide des standards afin de garantir les possibilités d'exportation des produits et une taille de marché critique.
    • habitués à la simplicité et l'efficacité du couple Minitel/Télétel (connexion rapide, dialogues rustiques, informations réduites à l'essentiel...), les utilisateurs français de l'Internet sont en droit de trouver encore inutilement compliqué l'ensemble des procédures d'accès à l'Internet (lenteur de la connexion par les réseaux analogiques, installation laborieuse des logiciels,  somme des connaissances nécessaires à une navigation efficace...).
Une importance croissante du logiciel

Même si l'accroissement des débits et des performances se base sur des avancées matérielles importantes (en transmission optique, sur les modem, sur les architectures de routeurs...), la complexité croissante des fonctions à réaliser, les délais imposés par des marchés tirés par les usages, sans oublier les capacités toujours accrues des processeurs (loi de Moore), font que la part du logiciel dans les produits de l'Internet est croissante :

  • Les équipements réseaux comprennent une part importante de logiciels embarqués pour implanter les mécanismes de routage, de contrôle des flux, de traitement des paquets, de sécurité, mais ces logiciels ne peuvent être réalisés que par les constructeurs d'équipement : le marché n'est donc pas toujours ouvert à l'industrie française. Par contre, en matière de logiciels d'exploitation des réseaux (pour gérer et optimiser les grands réseaux, pour les surveiller et parer aux incidents, pour offrir performances et disponibilité à grande échelle), la jeunesse de l'Internet fait que les acteurs français ou européens du domaine (équipementiers ou sociétés de services en informatique) restent certainement compétitifs dans un secteur qui nécessite l'expérience des grands réseaux et des capacités d'adaptation aux spécificités des clients (opérateurs, FAI, grandes entreprises).
  • Les services d'infrastructures sont rendus par des logiciels spécifiques à l'Internet et au Web qui sont principalement d'origine américaine, qu'ils soient le fait d'entreprises (serveurs et annuaires Microsoft ou Netscape par exemple) ou de mouvements de logiciels libres (système Linux, serveur Apache, logiciel Bind, langage Perl...) auxquels peuvent cependant participer des développeurs français.

Malgré un niveau général de formation bien adapté à l'industrie du logiciel, les logiciels français contribuant au développement de l'Internet sont peu nombreux (ne sont pas comptés bien sûr les exemples assez nombreux de logiciels auxquels contribuent des français expatriés !). Sans doute n'existe-t-il en France que peu de ces pépinières de petites entreprises de haute technologie qui associent un environnement local favorable (présence d'universités, concentration géographique des compétences comme la Silicon Valley ou la région de Boston), des canaux d'investissements spécifiques et un foisonnement d'idées et de services directement expérimentés en temps-réel sur l'Internet lui-même. Pour favoriser l'émergence puis le développement de ces entreprises de haute technologie (transfert et valorisation de travaux en amont, développement initial des produits, mise à disposition des logiciels parfois associés à la mise en place d'un service en ligne, transformation en un fournisseur reconnu ou rachat par une entreprise plus importante et mieux implantée), quelques structures existent en France (comité Richelieu pour faciliter l'établissement de partenariats, "start-ups" de l'INRIA, Innovacom...). Il faut aussi signaler une pénurie mondiale de compétences techniques poussées sur les techniques utilisées dans l'Internet (informatique, télécommunications, traitement des données et des signaux) qui conduit à des migrations de compétences vers l'Amérique du Nord.

Recommandations

Mettre l'accent sur les atouts, éliminer les freins
  • Utiliser le savoir-faire français en commerce électronique (services et terminaux intelligents, carte à puce)
  • Favoriser l'émergence et le succès des sociétés de haute technologie par un environnement attractif

Utiliser dynamiquement dans le contexte du commerce électronique les atouts historiques hérités du deploiement du Télétel (savoir-faire en commerce électronique et en contenus, bases de données en ligne...) et les compétences sur les cartes à mémoire.

Rebondir sur la pénétration de la télématique en France pour tirer les usages de l'Internet dans tous les domaines (entreprises, administration, grand public) en proposant des applications et logiciels adaptés. Encourager les contenus présents sur l'ensemble des réseaux (serveurs vocaux, Télétel, Internet).

Encourager la présence sur le sol américain d'entreprises françaises et en réduire la difficulté de mise en oeuvre (formalités administratives, regroupement et hébergement, accueil par les consulats) et les coûts.

Favoriser l'émergence et le succès des entreprises de haute technologie ("start-up") par la simplification des procédures de création d'entreprise, par la mise en place d'organismes de conseil aidant les candidats créateurs dans le domaine, par la mise en place de mécanismes de rémunération propres à encourager l'embauche de personnes de qualité dans de telles PME ("stock options").

 

 

DÉVELOPPEMENT TECHNIQUE DE L'INTERNET

Partie C : Environnement Economique et Politique

 

MODÈLES ÉCONOMIQUES

Des modèles économiques en perpétuelle évolution

L'objet de ce chapitre est de mettre en évidence les liens entre le développement technique de l'Internet et les modèles économiques pratiqués. En aucun cas, ce chapitre ne doit être lu comme une étude détaillée des conditions économiques du déploiement de l'Internet. Il s'agit plutôt de souligner les mécanismes qui peuvent permettre à l'infrastructure d'évoluer ainsi que de comprendre comment les mécanismes de marché sont soutenus par l'émergence de nouvelles solutions technologiques.

Contexte international

Applications et Usages

A la fois médium de communication, canal de distribution, et plate-forme d'expérimentation en grandeur nature, l'Internet autorise et encourage la créativité dans les applications, les contenus et les usages, mais également dans les modèles économiques associés.

Le modèle publicitaire

Le coût extrêmement faible de publication sur l'Internet, comparé à d'autres média comme la presse, la radio ou la télévision, permet le développement rapide d'un modèle économique basé sur la publicité : selon une étude menée conjointement par l'Internet Advertising Bureau (IAB) et PriceWaterhouseCoopers, les revenus publicitaires sur l'Internet dans le monde ont progressé de 112% pour atteindre 1,92 milliards de dollars en 1998.

Pour tirer profit de ce modèle, il faut drainer un large public sur son site : les moteurs de recherche, les portails et les sites des fournisseurs d'accès Internet sont logiquement devenus les premiers générateurs de revenus publicitaires, du fait de leur audience :

Les 10 domaines les plus visités dans le monde - Source Mediametrix, mai 1999
Rang Domaine Visiteurs (millions/mois)
1 Aol.com 31,43
2 Yahoo.com 31,02
3 Msn.com 21,54
4 Go.com 21,18
5 Geocities.com 20,91
6 Netscape.com 19,93
7 Excite.com 16,65
8 Microsoft.com 16,25
9 Lycos.com 16,10
10 Angelfire.com 14,17

C'est ainsi que l'on voit des sociétés ayant acquis une notoriété suffisante exploiter ce modèle économique, soit en complément, soit en remplacement de leur modèle initial. Un exemple caractéristique est la société Netscape Communications, qui a mis toute une partie de ses logiciels en Open Source (code source libre de droits) et a développé un modèle économique publicitaire sur son NetCenter, ceci ayant d'ailleurs conduit à son rachat par une société de contenus, America On Line (AOL).

En permanence, les sites exploitant le modèle publicitaire fournissent gratuitement (aux visiteurs) des produits et des services sur leurs sites, comme par exemple les courriers électroniques, les agendas électroniques, les messages instantanés, les traductions multilingues, et même la connexion à l'Internet. La créativité est de mise pour attirer de nouveaux visiteurs et vendre de la publicité. Cette tendance contribue à propager le mythe que l'Internet est gratuit, alors qu'il est plutôt propice au développement de nouveaux modèles économiques.

La réaffectation des marges de distribution

Distribuer par Internet permet au cyber-commerçant de supprimer tout ou partie de sa chaîne de distribution et de récupérer pour son propre compte les marges habituellement consenties à ses intermédiaires. Le bénéfice de cette distribution directe est alors multiple :

  • élargir son marché cible (entre 130 et 160 millions d'internautes début 1999 selon les sondages), et incidemment populariser son nom et son image ;
  • utiliser une partie de la marge récupérée sur les intermédiaires pour augmenter ses bénéfices ;
  • utiliser une partie de la marge récupérée sur les intermédiaires pour diminuer son prix de vente et pour proposer des services à valeur ajoutée à ses clients, et ainsi augmenter sa compétitivité.

L'économie réalisée sur les coûts de distribution est significative pour beaucoup de produits. Le tableau suivant publié par l'OCDE en donne quelques exemples :

Coûts par transactions en dollars - Source : OCDE, 1999
Billets d'avion Services bancaires Paiement de factures Logiciels informatiques
Système traditionnel 8,00 1,08 2,22 à 3,32 15,00
Par Internet 1,00 0,13 0,65 à 1,10 0,20 à 0,50
Economie (%) 87% 89% 71 à 67% 97 à 99%

En conséquence, Amazon offre des réductions de 20 à 30% sur les livres et les disques, 50% sur les best-sellers, tout en proposant à ses clients de lire ou d'écrire des commentaires sur les produits achetés, en suggérant des produits sur des thèmes connexes, ou des produits que d'autres clients ont acquis avec le produit acheté, etc. Dell Computer, en offrant de substantielles réductions par rapport au prix de vente des ordinateurs chez les détaillants, et en permettant à ses clients de construire leur configuration personnalisée en ligne, réalise plus de 80 millions de francs de vente par jour sur l'Internet.

La mutation des métiers

Le commerce en ligne bouleverse les structures de distribution traditionnelles et entraîne inévitablement la disparition de certains intermédiaires de distribution. Elle offre en revanche des opportunités pour de nouveaux métiers, par exemple des places de marché électroniques, qui conseillent les consommateurs, les aident à identifier les produits adaptés, les meilleurs prix, etc. Les modèles économiques associés peuvent alors être basés sur de la publicité, sur des abonnements, ou sur des redevances collectées lors des transactions finalisées.

Autre exemple de nouveau métier, celui des autorités de certification électronique, comme VeriSign Inc., dont le but est de sécuriser les transactions commerciales en rassurant le client et le commerçant sur leurs identités respectives, et éventuellement en assurant le risque financier en cas de transaction frauduleuse. Le marché pour de tels acteurs est encore très ouvert. La mise en place des mécanismes est, en effet, dépendante de la disponibilité naissante des standards et des solutions technologiques ainsi que des législations correspondantes, concernant le cryptage des transactions, les conversions de devises, le calcul des taxes, les mécanismes et procédures de recours, etc.

On observe donc des entreprises changer plusieurs fois de modèle économique et parfois de métier pour s'adapter à des règles économiques évoluant avec le développement de l'Internet : par exemple, des deux sociétés pionnières des solutions de commerce électronique, DigiCash et FirstVirtual, la première est en dépôt de bilan et cherche depuis novembre 1998 des partenaires et repreneurs, alors que First Virtual, plus mobile, semble avoir trouvé un second souffle en se reconvertissant dans les systèmes et services de messagerie pour les transactions contractuelles (elle s'appelle aujourd'hui MessageMedia). Autre exemple, un établissement bancaire s'appuyant de façon stratégique sur la relation de proximité avec ses clients se met en danger s'il ne prend pas en compte la mutation du concept de proximité du fait de l'Internet. Le risque est maximal dans l'immobilisme.

La distribution des produits numérisés

Le bouleversement potentiel des structures et des modèles économiques traditionnels de distribution est encore plus important pour les produits numérisables : typiquement journaux, logiciels, musique, photos et films. Plusieurs questions se posent concernant les modèles de rémunération de ces produits.

Tout d'abord, la prolifération sur l'Internet de produits numériques gratuits rend délicate la tarification. Il faut de sérieux critères différenciateurs pour justifier un produit payant. La presse écrite traditionnelle par exemple, a le choix soit de proposer une version électronique gratuite de sa publication, elle doit alors trouver un autre modèle économique pour rentabiliser cette version, soit de proposer une version payante, elle devient alors non-compétitive devant les sources d'information gratuites (rentabilisées par la publicité par exemple). Si le modèle économique publicitaire ne lui convient pas (du fait de son image, ou d'une diffusion très limitée à une cible de spécialistes), il lui faut alors inventer de nouveaux modèles.

Le problème est similaire pour les logiciels informatiques, où de nouveaux modèles initialement à vocation non-économique se sont déjà répandus : logiciels en freeware (code binaire gratuit) ou en Open Source (code source libre de droits). Aujourd'hui, ces modèles sont adoptés en tant que modèles économiques où le logiciel est donné et les à-côtés sont vendus. Par exemple, Red Hat Software met gratuitement le système d'exploitation Open Source Linux à disposition sur son site Internet, tout en vendant une version sur CD-ROM (comprenant de la documentation, des applications, du support à l'installation...), ainsi que du support technique, de la formation et de la certification, etc.

En ce qui concerne la musique, la transformation des modèles économiques risque d'être encore plus radicale : l'apparition de formats et de logiciels de numérisation compressés, comme MP3 ou Windows Media Technologies, permettent de télécharger les oeuvres, de les enregistrer sur disque compact ou sur des enregistreurs-lecteurs adaptés, et même de les redistribuer à l'infini dans leur qualité originale. Comme dans le cas du logiciel, et à terme des photos et des films, toute la chaîne de production et de distribution musicale est menacée, à commencer par les auteurs qui, si les technologies et/ou les législations ne sont pas adaptées, pourraient ne plus percevoir de droits sur la diffusion finale de leur oeuvre. Des organismes comme le RIAA (Recording Industry Association of America) tentent de trouver des parades techniques et légales à ce phénomène, mais il est probable qu'à terme d'autres modèles économiques devront de toute façon être inventés.

Réseaux de transport, Boucle Locale, Interconnexions

Economie des opérateurs

De l'investissement public initial au déploiement privé

Au début des années 90, l'intérêt naissant des opérateurs de réseaux privés pour le trafic IP a posé pour la première fois la question de l'interconnexion d'opérateurs privés dans le cadre Internet (Voir le chapitre "Interconnexions" et son annexe ainsi que le rapport NCS pour les définitions et les acteurs). Le refus de la NSF (National Science Foundation) d'assurer le transport d'un trafic de type commercial conduit à l'époque CerfNet, Psi et UUnet/AlterNet à créer leur propre centre d'interconnexion en Californie, le CIX (Commercial Internet eXchange). Le modèle de l'interconnexion dans des centres communs avec accord réciproque de tarification (peering) est institutionnalisé avec la création par la NSF après 1994 de quatre centres d'interconnexion ou NAP (Network Access Point) dont la gestion est confiée à des opérateurs privés (à New York avec Sprint, à Washington avec MFS, à Chicago avec Ameritech et à San Francisco avec Pacific Bell).

Lorsque le développement commercial de l'Internet conduit la NSF à abandonner son rôle d'opérateur au profit de MCI, en 1995, l'organisation de l'Internet se développe suivant un modèle en trois niveaux : des fournisseurs de dorsales (Tier 1) assurent l'interconnexion longue distance au profit d'opérateurs intermédiaires (Tier 2), gérant un réseau régional, eux-mêmes fournissant à des réseaux d'entreprises ou à des opérateurs locaux qui commercialisent (Tier 3) un accès Internet "au détail". Aux Etats-Unis, l'établissement des sites d'interconnexion concrétise cette organisation hiérarchique de la prestation d'accès : des fournisseurs d'accès sont en contact avec l'abonné final, s'interconnectant dans des centres locaux à des prestataires de réseaux régionaux à même d'amener le trafic jusqu'à un NAP sur lequel se trouve un point de présence d'un FAI (Fournisseur d'Accès Internet) "global". En Europe, à la même époque, les opérateurs européens tirent parti de la qualité des moyens disponibles dans les centres américains pour réaliser l'échange de leur trafic aux Etats-Unis, rallongeant ainsi le nombre de routeurs traversés par les paquets effectuant des trajets trans-européens.

De la transparence à l'opacité

A côté de la dorsale MCI, plusieurs autres infrastructures longue distance ont été mises en place par des opérateurs comme UUnet ou Sprint. Ces acteurs ont depuis eu tendance à vouloir entrer en contact avec le client final et ne voient pas d'intérêt à établir des relations contractuelles d'égal à égal avec les prestataires d'accès locaux. Il en a résulté la disparition du modèle hiérarchique initial et le contournement des NAP par les grands FAI qui préfèrent établir des relations commerciales bilatérales. Les centres d'interconnexion qui imposaient une tarification multilatérale entre les opérateurs, comme le CIX, voient de manière corollaire les principaux FAI se retirer. Alors qu'usuellement dans le cadre d'un NAP, un FAI ne devait supporter que les frais de fonctionnement du site et éventuellement payer un droit d'entrée non-récurrent, l'apparition de relations commerciales bilatérales conduit donc maintenant à l'apparition d'une rémunération du FAI local au FAI global.

L'organisation de l'interconnexion pose un problème économique difficile du fait de l'absence de garantie de service inhérente à Internet. En l'absence d'information sur l'état du réseau des opérateurs, il est impossible de s'assurer qu'un opérateur ne limite pas l'accès à ses ressources en se réservant une partie de la bande pour lui-même et en restreignant la ressource mise à disposition par le trafic de tiers sur son réseau. Plus généralement, il semble que les accords d'interconnexion bilatéraux soient entourés de beaucoup de confidentialité, laissant penser que les conditions offertes ne sont pas identiques pour tous. Il existe, d'autre part, le risque de permettre, au travers de son interconnexion, à un opérateur de bénéficier d'une qualité de service accrue du simple fait de son interconnexion à des réseaux permettant des débits importants : l'investissement de tiers profite donc directement à cet opérateur même en l'absence d'investissement de sa part. Ces différents facteurs montrent la difficulté d'obtenir une bonne visibilité sur l'état global de la qualité du réseau, mais en même temps l'importance de cette visibilité pour le bon fonctionnement de l'économie du secteur.

L'apparition de nouveaux acteurs

Aujourd'hui cependant, la fourniture de capacité de communication se développe très rapidement du fait de l'intervention de nouveaux entrants. Des acteurs comme Level 3, Global Crossing ou Qwest investissent massivement sur le déploiement de fibres optiques. Ces sociétés se présentent d'abord comme des fournisseurs de capacité "en gros", sans cependant s'interdire de développer l'aspect opérateur (par le biais de filiales, par exemple). Leur stratégie réside dans l'installation de liaisons surdimensionnées : eux-mêmes déploient des centres d'hébergement d'applicatifs et serveurs (Web, Oracle, SAP, ...) complétés de quelques clients finals majeurs, assurent seuls l'assemblage d'un gros volume de communications, et revendent ensuite le surplus sous forme de fibre noire aux autres opérateurs. Enfin leurs partenariats et investissements stratégiques avec des fournisseurs et exploitants de boucles locales rapides (ADSL, boucle locale radio) visent à éliminer le goulot d'étranglement vers leurs gros tuyaux. L'élément stratégique du développement de ces nouveaux opérateurs est l'accès aux droits de passage, qui leur sont indispensables pour déployer leurs réseaux.

L'apparition de nouveaux métiers

L'augmentation de l'offre en matière de télécommunications tend à promouvoir l'apparition de marchés spots de bande passante. Des entreprises, comme Band-X, RateXchange ou Arbinet, se positionnent sur ce créneau en mettant en place des centres d'interconnexion au sein desquels est réalisée la compensation de l'offre et de la demande en matière de communications de données à longue distance. Parallèlement, apparaissent des centres d'hébergement multi-FAI, déployés dans les centres d'interconnexion ou à proximité de ces derniers. Ces lieux d'hébergement d'équipements techniques (par exemple : telehouse à Londres et Paris) dispensent les FAI de constituer et d'exploiter eux-mêmes les locaux et l'environnement indispensables à leur présence sur chaque pôle économique. Cette tendance renforce le mouvement actuel de constitution de sites de concentration des communications de données en Europe, où s'opère le raccordement des réseaux européens aux artères très haut débit transatlantiques. La présence d'un tel site de concentration est un avantage pour les opérateurs Internet de moyenne taille du pays hôte, qui dispose d'un accès plus facile. Un site de concentration peut aussi attirer l'implantation de sites stratégiques pour des sociétés ayant de gros besoins en communications.

Structuration de l'offre

Alors que, dans les premières années de l'ouverture d'Internet au secteur privé, la croissance du réseau a reposé largement sur l'infrastructure physique développée par les opérateurs de télécommunications traditionnels par l'intermédiaire de la location de capacité, les conditions de l'offre sont aujourd'hui en place pour que les opérateurs se dotent des moyens de communication dédiés au transport Internet en achetant de l'infrastructure auprès de fournisseurs de fibre noire. Un opérateur comme Cable & Wireless, par exemple, a annoncé en novembre 1998 le lancement de la constitution d'un réseau haut débit reliant 18 villes. Ce réseau sera réalisé en achetant de la fibre noire auprès de la société Global Crossing. Le caractère pérenne d'une telle structuration du développement de l'infrastructure reste difficile à prédire. En effet, les sociétés déployant la fibre sont de création récente et constituent des proies tentantes pour les opérateurs de télécommunications traditionnels.

Parallèlement à la constitution d'interconnexion pour la réalisation de communications à grande échelle, la maîtrise de bout en bout du réseau par un même opérateur, si elle ne s'inscrit pas dans les traditions de constitution d'Internet, peut cependant devenir un atout stratégique de l'offre en ce qui concerne la diffusion multimédia, cas encore particulier mais qui pourrait se généraliser avec le développement de l'accès haut débit. EUnet International (filiale de Qwest) a pu ainsi lancer son offre EUnet Multimedia Network Services en s'appuyant sur huit serveurs relais et sur sa capacité à contrôler les communications de bout en bout : il propose d'assurer pour ses clients la diffusion d'événements sous forme de programmes multimédia "en direct".

Economie de l'accès

Les grandes entreprises

La fourniture de télécommunications aux grands comptes va à l'avenir nécessiter la mise en place d'une réelle plus-value de la part d'un opérateur traditionnel. Avec l'extension des services sur IP, il deviendra en effet assez économique pour ces entreprises de constituer leur propre réseau de données et de limiter leur coût à la location d'un raccordement à un fournisseur de capacité. Dans ce contexte, la valeur ajoutée d'une offre se fera au travers de la capacité de l'opérateur à fournir et garantir un certain niveau de qualité au sein de l'infrastructure.

Il est difficile de prédire la manière dont se structurera ce type de solution. Des fournisseurs d'infrastructure globale pourront être amenés à profiter de leur stature pour se rapprocher de l'entreprise et offrir un service bout-en-bout, comme cherche à le faire aujourd'hui Worldcom. Pour les acteurs ne possédant pas ce type de ressources, le rôle des marchés-spot devrait jouer un rôle important pour assurer une offre au meilleur prix.

Le grand public

Du point de vue de l'utilisateur grand public, le prix de l'accès est la combinaison d'un forfait payé au fournisseur d'accès et du prix de la communication téléphonique locale pour accéder au service. Du point de vue de l'offre, les recettes peuvent également inclure les revenus publicitaires ou des rémunérations sur les transactions effectuées depuis le site. L'équilibre entre la part demandée à l'utilisateur final et la part demandée aux partenaires (publicité, commerce électronique) est décisif pour le déploiement de l'Internet dans le grand public. De plus, la formule proposée à l'utilisateur (facturation forfaitaire ou facturation au temps) est également un élément essentiel.

  • "Internet gratuit" (c'est-à-dire forfait gratuit) et facturation au temps : cette formule convient aux abonnés recherchant un usage limité dans le temps.
  • Forfait payant, communication locale gratuite : cette formule encourage les usages de longue durée pour les abonnés ayant des besoins de connexion plus importants.

Les deux formules correspondent à des marchés différents et devraient à terme trouver leur place.

Economie des services

Vers les modèles économiques de la convergence

La concurrence entre les services issus du monde de l'audiovisuel et les services issus du monde de l'Internet devrait se développer dès que la différence de qualité d'image se sera estompée.

Les positions dominantes sur les nouveaux services se jouent dès à présent au travers des connexions à haut débit. Les plates-formes de contenus associées à l'accès Internet par le câble ou par ADSL, éventuellement par satellite, préfigurent les offres de contenus du futur Internet. Le positionnement d'une offre sur ces plates-formes constitue donc une étape stratégique pour anticiper l'évolution de la qualité de l'infrastructure.

Des sociétés d'origine américaine comme @Home se positionnent d'ores et déjà comme les FAI et fournisseurs de contenus des abonnés à l'accès Internet par le câble. Elles cherchent à fédérer des plaques pour offrir une communication haut débit de bout-en-bout et mutualiser ainsi des services haut de gamme. Ces derniers sont caractérisés par une utilisation intensive de la vidéo, couplée avec les fonctions offertes par l'interactivité. La mise en place de ces offres permet à ces sociétés d'anticiper sur le développement de futurs niveaux de performance des réseaux et sur la banalisation des accès haut débit.

Les opérateurs du câble américain ont saisi le caractère stratégique de leur position et ont entamé les investissements conséquents de mise à niveau de leur infrastructure. Les besoins en capitaux correspondants sont à l'origine d'un nouveau mouvement de concentration de cette industrie, avec notamment l'intervention remarquée d'ATT qui trouve là le moyen de venir concurrencer les opérateurs locaux sur leur marché. Dans le même temps, de nombreux déploiements de services ADSL ont lieu. Il faut s'attendre, en effet, à ce qu'une fois le choix du support réalisé, l'abonné ne sera que peu enclin à changer de moyen d'accès en raison des opérations techniques nécessaires.

Situation en France

Applications et Usages

Une prise de conscience récente

En France, 1998 a été l'année de lancement du modèle économique publicitaire : les revenus bruts publicitaires sur Internet sont passés de 29,6 MF en 1997 à 113,8 MF en 1998, soit une progression de 284%, selon l'IAB et PriceWaterhouseCoopers. A noter que le potentiel de progression de ces revenus est encore important, puisqu'ils ne comptent que pour 0,11% des 77 milliards de francs investis en publicité en France en 1998, contre 32% pour la presse écrite par exemple. Comme dans le reste du monde, 63% des revenus publicitaires en 1998 proviennent des sites portails des fournisseurs d'accès et des moteurs de recherche.

L'année 1998 et le début de 1999 ont vu apparaître un certain nombre d'initiatives de commerce électronique, où l'opportunité de ce type de commerce est exploitée par de nouveaux acteurs, ou de petits acteurs existants. C'est seulement au deuxième trimestre 1999 qu'on assiste au réveil de grands groupes, avec des investissements et des projets de déploiement à grande échelle : on peut citer par exemple la prise de participation de Bernard Arnault à hauteur de 150 millions de dollars dans la société de courtage en ligne Datek Online, ou le rachat par la FNAC des sociétés Alibabook et de la Société française du Livre, avec une annonce de fusion dans le site FNAC Direct pour l'automne prochain.

Concernant la distribution en ligne de produits numériques, les initiatives françaises visibles sont très limitées. Récemment, la FNAC a ouvert un "magasin virtuel de musique" où des titres musicaux et vidéo sont proposés en téléchargement payant, le paiement s'effectuant par carte bancaire ou par porte-monnaie électronique. Des logiciels permettant de jouer ces titres, de les remixer et de les graver sur disque compact sont disponibles gratuitement en téléchargement.

Il semble donc qu'une prise de conscience ait eu lieu, généralement sous la pression de la compétition internationale, tant chez de petits acteurs à la recherche d'opportunités que chez un certain nombre de grands groupes français, en particulier dans les secteurs proches de l'informatique et du multimédia. L'incertitude réside encore dans d'autres secteurs comme la banque, les loisirs, l'automobile, etc., quant à la capacité d'adaptation et de mutation des acteurs français.

Réseaux de Transport, Boucle Locale, Interconnexions

Marginalisation des capacités d'interconnexion nationale

Londres et Stockholm s'imposent comme "hubs" européens

L'évolution de la capacité de communication entre un pays européen et les Etats-Unis ramenée par tête d'habitant, est une caractéristique d'une part du développement de la maturité du marché national de ce pays, mais aussi de sa capacité à capter la demande en communications transatlantiques de ses voisins. Suivant ce critère, deux pays se détachent nettement : la Grande-Bretagne et la Suède, suivis par l'Allemagne. La France est largement en retard (voir étude OCDE DSTI/ICCP/TISP (99) 4).

La chute brutale des prix observée dans les derniers mois (division par trois des prix environ) des liaisons entre Paris et Londres, en raison de la concurrence sur ce segment, atténue l'impact financier pour les opérateurs français, mais consacre, en même temps, le rôle central de la Grande-Bretagne en tant que passerelle vers les Etats-Unis pour le trafic français.

La possibilité d'une marginalisation de l'infrastructure française est réelle. Malgré la présence en France de trois centres d'interconnexion (deux à Paris opérés par France Télécom et un à Grenoble), les possibilités offertes par l'infrastructure britannique risquent de conduire les opérateurs français à préférer réaliser leur interconnexion à Londres plutôt qu'à Paris.

Les coûts des accès de base pour les entreprises et le grand public

Une tarification qui ne prend pas assez en compte le développement de l'Internet

Beaucoup d'entreprises françaises sont connectées à des débits insuffisants pour tirer un réel bénéfice de l'usage de l'Internet. Parmi les raisons invoquées, les tarifs des liaisons louées reviennent couramment. Aux Etats-Unis, les entreprises s'équipent au moins avec une ligne T1 (1,5 Mbit/s). La bande passante étant souvent supérieure au besoin réel, des initiatives nouvelles peuvent être prises pour enrichir le service. En France, les liaisons comprises entre 64k et 256k sont encore la règle, la bande passante est donc toujours limitée par des raisons budgétaires et limite ainsi le développement de fonctionnalités nouvelles.

Pour le grand public, après les offres récentes d'"Internet gratuit" qui maintiennent la facturation au temps (puisque l'usager paie la communication téléphonique locale), France Télécom a introduit un forfait (en fait 20 heures par mois en heures creuses) qui est un premier pas vers une vraie incitation à l'usage de l'Internet. Cette initiative est encore trop modeste pour changer réellement les habitudes d'usage. L'idée de "Forfait deuxième ligne" où un particulier peut utiliser une seconde ligne pour accéder à l'Internet devrait être de nouveau débattue.

Le retard sur la boucle locale haut débit

La dérégulation des télécommunications l'emporte sur le déploiement de l'Internet

Alors que la France avait réalisé des expériences pionnières en matière d'accès Internet par le câble et l'ADSL, le déploiement des offres commerciales a été freiné par des problèmes de mise en oeuvre de la déréglementation. Concernant les réseaux du plan câble, les difficultés rencontrées pour parvenir à une entente commerciale entre le détenteur des infrastructures techniques et les exploitants commerciaux ont conduit à une série de contentieux et ont ainsi repoussé le lancement effectif des services. En matière d'ADSL, le contexte de l'ouverture à la concurrence du marché des télécommunications conduit également à un retard dans le déploiement d'une offre haut débit.

La qualité des infrastructures câble et réseau téléphonique en France représente pourtant un avantage économique important pour le développement des nouvelles solutions techniques d'accès. Ces atouts restent malheureusement aujourd'hui exploités de manière insuffisante.

Recommandations

Permettre la coexistence de modèles économiques différents
  • Encourager la concurrence des différents modèles économiques sur la boucle locale (tarification forfaitaire ou au temps pour l'accès à Internet, ...)
  • Assurer la transparence des prix de transport
  • Encourager la variété des modèles économiques pour les services (publicité, paiement à la transaction, ...)

Le développement de la boucle locale est un élément décisif du déploiement de l'Internet. Profitant de l'élan donné par la dérégulation, l'animation de la concurrence est essentielle pour un déploiement efficace et adapté à des besoins spécifiques variés. De même, la concurrence sur les réseaux de transport a besoin d'un minimum de transparence pour exercer ses effets. Enfin, les nouveaux services doivent faire preuve de créativité en matière de modèles économiques. Les pouvoirs publics doivent être à l'écoute et encourager les initiatives les plus innovantes.

 

Références

L'Internet Advertising Bureau (IAB)
http://www.iab.net
Etude de l'IAB sur les revenus publicitaires en France
http://www.iabfrance.com/images/confpress080499/sld001.htm
http://www.iabfrance.com/images/confpress080499/sld004.htm
http://www.iabfrance.com/images/confpress080499/sld005.htm
http://www.iabfrance.com/images/confpress080499/sld012.htm
La société de services PriceWaterhouseCoopers
http://www.pwcglobal.com
La société Netscape Communications
http://home.netscape.com
Le centre d'affaires de Netscape Communications
http://home.netscape.com/netcenter
La société America On Line (AOL)
http://www.aol.com
La société Amazon
http://www.amazon.com
La société Dell Computer
http://www.dell.com
http://www.euro.dell.com/countries/fr/fra/gen/corpinfo/pressoffice/default_009_1999.htm
La société VeriSign
http://www.verisign.com
La société DigiCash
http://www.digicash.com
La société FirstVirtual
http://www.firstvirtual.com
La société MessageMedia
http://www.messagemedia.com
La société Red Hat Software
http://www.redhat.com
Le système d'exploitation Linux
http://www.linux.org
Un site d'information sur le format MP3
http://www.mp3.com
Communiqué de presse sur "Windows Media Technologies"
http://www.microsoft.com/windows/windowsmedia/news/40Launch.asp
L'association RIAA (Recording Industry Association of America)
http://www.riaa.com
La société de courtage en ligne Datek Online
http://www.datek.com
La société Alibabook de vente de livres en ligne
http://www.alibabook.com
Le site FNAC Direct de la FNAC
http://www.fnac.fr
Le "magasin virtuel de musique" de la FNAC
http://fnac.audiosoft.com
Interconnexion des opérateurs aux Etats-Unis (description, histoire, acronymes)
http://www.ncs.gov/n5_hp/html/int-3def.html
Nouveaux acteurs de la fibre noire : Level 3, Global Crossing, Qwest
http://www.level3.com
http://www.globalcrossing.bm
http://www.qwest.net/index_hi.html
La société telehouse : The secure data communication centre
http://www.telehouse.net
Marchés spots de bande passante : Band-X, RateXchange, Arbinet
http://www.band-x.com
http://www.ratexchange.com/index.html
http://www.arbinet.com
La société Cable & Wireless
http://www.cablewireless.com
La société Worldcom
http://www.internetmci.com
La société Infonie
http://www.infonie.fr
La société At Home
http://www.athome.net
La société Chello
http://www.chello.com
La société AT&T
http://www.att.com
La société de courtage en ligne Datek Online
http://www.datek.com
La société Alibabook de vente de livres en ligne
http://www.alibabook.com
Le site FNAC Direct de la FNAC
http://www.fnac.fr
Le "magasin virtuel de musique" de la FNAC
http://fnac.audiosoft.com
Effondrement des prix des liaisons sur Paris - Londres
http://www2.viatel.com/lazard/sld013.htm
Global Telecom Rout : All roads lead to the States (in Red Herring, février 1999)
http://www.redherring.com/mag/issue63/news-telecom.html
ART : Consultation publique sur le développement de la concurence sur le marché local
http://www.art-telecom.fr/publications/index-d-consult.htm

 

RÉGLEMENTATIONS

L'objet de ce chapitre est de mettre en évidence les liens entre le développement technique de l'Internet et l'évolution des réglementations. En aucun cas, ce chapitre ne doit être lu comme une analyse, encore moins comme un projet pour définir l'environnement réglementaire de la société de l'information. Le déploiement de l'Internet a d'ores et déjà sollicité les législations existantes en créant des situations nouvelles et en initialisant ainsi des débats aujourd'hui encore largement ouverts. La construction de l'environnement réglementaire de la société de l'information demandera beaucoup d'efforts complémentaires aux niveaux national et international.

Contexte international

La dérégulation des télécommunications est une condition nécessaire au développement technique de l'Internet

Le développement technique de l'Internet est facilité par la dérégulation des télécommunications qui est désormais largement engagée à travers le monde. Une des raisons majeures du succès d'Internet est sa capacité à exploiter, et donc, à mettre en concurrence les nombreuses technologies de communication disponibles. Par ailleurs, grâce à la modularité de l'architecture de l'Internet, les applications ou services peuvent être développés et mis en place par les fournisseurs sans avoir à se préoccuper des composants de l'infrastructure. Les bénéfices de cette architecture ne peuvent effectivement être opérationnels que dans un environnement ouvert à la concurrence. Plus la dérégulation est effective, plus l'architecture de l'Internet peut être exploitée pour fournir les meilleures réponses aux questions posées (performance de la boucle locale, décentralisation des services d'infrastructure par exemple). Les pays où la dérégulation est la plus avancée, en particulier les Etats-Unis, peuvent ainsi bénéficier pleinement des initiatives nouvelles et tirer le meilleur parti des potentialités de l'Internet.

L'environnement réglementaire du développement technique de l'Internet pose des questions nouvelles

Par ailleurs, le rôle d'infrastructure pour la société de l'information associe le développement de l'Internet à d'autres réglementations relatives à des questions aussi variées que

  • la cryptologie et ses applications,
  • la protection de la vie privée et des données personnelles,
  • la protection des droits d'auteurs,
  • la protection de la propriété industrielle,
  • la protection contre les contenus et comportements illicites.

Sur tous ces sujets, le développement technique de l'Internet doit fournir des réponses appropriées à des questions "classiques" (c'est à dire déjà traitées pour d'autres moyens de communication) dans des conditions "nouvelles" (élargissement du nombre des auteurs, facilité d'accès aux sources d'information).

De manière générale, la construction de l'environnement réglementaire de la convergence est un défi majeur présenté à la communauté internationale. L'Internet a atteint un stade de développement suffisant pour que les interactions entre l'environnement réglementaire et le développement technique constituent désormais un des facteurs décisifs dans la poursuite de la dynamique de déploiement.

L'environnement réglementaire peut ralentir le développement technique de l'Internet

Né dans l'environnement académique, l'Internet a longtemps été un espace ouvert à la collaboration et à l'échange libre d'informations et d'idées. Le développement technique de l'Internet a bénéficié alors d'une dynamique, conduite par l'IETF, originale et surtout très efficace. Le déploiement dans le grand public et dans les entreprises a ensuite été soutenu par la naissance de nouvelles entreprises et la reconversion d'entreprises existantes. Continuant à profiter d'une dynamique renouvelée, l'Internet est devenu, en quelques années, la plateforme technique du développement de la société de l'information. De nombreuses expériences ont mis en évidence que les usages de l'Internet devaient être confrontés aux législations et réglementations en vigueur. L'ampleur du déploiement demande à présent que les débats sur les adaptations nécessaires soient entrepris et les résolutions mises en oeuvre. Le risque de "crainte, incertitude, doute" est devenu désormais important. Quelques exemples illustrent cette tendance :

  • crainte : Comment s'établissent les responsabilités dans le cas de publication de contenus illicites entre
    • l'auteur,
    • l'éditeur de site,
    • l'hébergeur,
    • le transporteur,
    • le fournisseur de connexions ?
  • incertitude : Quels sont les droits de propriété
    • industrielle sur les technologies logicielles utilisées (brevets, copyrights)
    • intellectuelle sur les informations publiées ?
  • doute : Quel est l'usage qui sera fait des informations de nature privée collectées par les fournisseurs de services ?
    • authentification du service collecteur par l'usager,
    • usages réels par le service collecteur,
    • possibilités de vérification, de rectification et de poursuites.

Ces questions doivent, de plus, recevoir des réponses cohérentes au niveau international. Pour la première fois de son histoire, l'Internet est ainsi confronté à des risques sérieux d'inertie. Sans rechercher l'exhaustivité, quatre sujets permettent d'illustrer les relations, voire les difficultés à faire évoluer de manière cohérente technologies et réglementations.

La cryptologie et ses applications

Donner à l'Internet un environnement de "sécurité" où les fournisseurs et consommateurs d'informations puissent maîtriser les conditions d'accès, est un sujet ouvert depuis longtemps. L'IETF a établi une règle systématique selon laquelle chaque nouvelle spécification doit comporter une section traitant des relations entre la spécification et les questions de sécurité. La variété des législations en vigueur a fait de ce sujet le premier exemple des difficultés à associer un environnement réglementaire et le développement technique d'une nouvelle infrastructure.

L'importance du sujet a ainsi engendré de nombreuses initiatives à travers le monde. Des résultats concrets ont été obtenus. La France, par exemple, a amendé à deux reprises (1996, 1999) la réglementation dans le sens de la libéralisation de l'usage de la cryptologie. Parmi d'autres initiatives, l'Europe a récemment approuvé un cadre commun pour les signatures électroniques.

Il reste que les restrictions de la législation américaine relatives à l'importation et à l'exportation d'outils de cryptologie constituent une barrière importante au déploiement équilibré du commerce électronique dans le monde.

La protection de la vie privée et des données personnelles

Le déploiement du Web a posé de manière accrue les questions de protection de la vie privée. En l'absence d'accord international, la question est aujourd'hui totalement ouverte. Les négociations récentes montrent des progrès réels mais modestes. Les contradictions entre les positions des fournisseurs de services pour lesquels la connaissance de leurs clients est un atout décisif de positionnement, voire de recettes (publicité) d'une part, et les droits des usagers à protéger leur vie privée d'autre part, ne sont pas traitées de la même façon à travers le monde. L'Europe s'appuie sur une directive désormais transposée dans pratiquement tous les pays de l'union. La France devrait avoir accompli la transposition à la fin de l'année 1999.

Il reste que la lenteur des négociations internationales peut introduire un doute sur le déploiement de services globaux et sur la généralisation (ou non) de modèles économiques reposant sur la publicité.

La protection des droits de propriété industrielle

Développé à l'initiative du ministère de la défense américain et avec le financement du gouvernement fédéral, l'Internet a été longtemps libéré des contraintes de propriété industrielle. Les protocoles développés par l'IETF tels que les protocoles TCP-IP, mais aussi nombre de protocoles complémentaires, ont ainsi été définis de manière ouverte, offrant à chacun la possibilité de concentrer sa créativité sur leur mise en oeuvre logicielle. Le Web, développé au CERN, centre de recherche européen en physique des hautes énergies, a également bénéficié de cette vision selon laquelle les technologies diffusantes ("enabling technologies") doivent être mises à la disposition de la communauté sans restriction de propriété. "TCP-IP et le Web n'appartiennent à personne ou appartiennent à tout le monde." Cette situation a été renforcée jusqu'à présent par le fait que les logiciels étaient soumis aux réglementations relatives à la propriété intellectuelle (droits d'auteur, copyrights) plutôt qu'à celles de la propriété industrielle (brevets).

Depuis quelques années, aux Etats-Unis en particulier, la tendance s'est inversée et la brevetabilité des logiciels a été reconnue. L'Europe s'apprêterait à suivre la même voie. Ce changement a d'ores et déjà une influence sur l'évolution de l'Internet et du Web. Attirées par la perspective d'un positionnement favorable, de nombreuses entreprises déposent massivement des brevets sur des sujets souvent largement traités mais absents du corpus de propriété industrielle. On peut s'attendre à une régulation par la jurisprudence lors des premiers procès où l'antériorité éventuelle de l'innovation sera mise en évidence.

Il reste que la floraison de brevets fait peser désormais une incertitude sur les conditions d'usage des nouvelles fonctionnalités de l'Internet.

La protection contre les contenus et comportements illicites

L'Internet et le Web ont banalisé la fonction de publication. L'automatisation de la chaîne d'édition-publication-consultation met en jeu des acteurs nouveaux (auteurs, éditeurs de site, hébergeurs, transporteurs, fournisseurs d'accès). Etablir les responsabilités en cas de publication de contenus illicites demande une réflexion (en cours), une adaptation des législations en vigueur et la prise en compte du caractère international de l'infrastructure.

Le développement d'outils de description de contenus (métadonnées) donnera un cadre technologique à ces questions. Le déploiement de ces technologies est, de toute façon, nécessaire pour tirer le meilleur parti des informations disponibles sur le Web. L'émergence du Web sémantique doit permettre d'exploiter les moyens informatiques pour aider l'utilisateur à

  • rechercher l'information dont il a besoin,
  • authentifier l'origine de l'information qu'il utilise,
  • s'assurer des conditions de propriété intellectuelle d'une information,
  • gérer des sites multilingues.

L'usage de ces technologies pour permettre de traiter la question des responsabilités est encore à construire.

Il reste que la crainte d'être tenu pour responsable de comportements illicites pour lesquels le contrôle n'est pas praticable est un frein important au développement de l'Internet.

Situation en France

La France peut prendre une position originale en Europe et dans le Monde

La rencontre de l'Internet et des réglementations fait appel à des acteurs et à des expertises nouveaux. Le handicap accumulé par la France, au fil des ans, dans le domaine technique est moins significatif. De plus, l'expérience issue de l'usage des services télématiques peut être mise à contribution pour prendre une position originale. Enfin, la dérégulation des télécommunications est suffisamment récente en Europe pour que la mise en oeuvre au niveau national soit adaptée pour tenir compte de l'émergence de l'Internet.

Favoriser le développement de la Boucle Locale

A travers le monde, le développement de la boucle locale constitue le principal problème posé aux développeurs de l'infrastructure. Ce développement est un difficile problème technique et économique. Cependant, la faisabilité des solutions est largement dépendante des aspects réglementaires de la dérégulation. Les possibilités techniques sont nombreuses :

  • Réseau téléphonique
  • xDSL
  • Câble
  • Boucle radio
  • Satellites

La disponibilité de chaque solution est directement influencée par l'environnement réglementaire qui permet de déterminer les responsabilités et champs d'activité de chacun des acteurs, privés et publics. En France, les expériences vécues durant les deux dernières années ont favorisé la prise de conscience. Il reste à fixer des objectifs quantitatifs et engager les mises en oeuvre. L'Autorité de Régulation des Télécommunications (ART) a un rôle décisif à jouer sur ce sujet.

La cryptologie et ses applications

La récente décision de libéralisation de la cryptologie a fait passer la France au rang des acteurs "réels" du développement technique de l'Internet.

L'ensemble du dispositif réglementaire permettant de favoriser les échanges électroniques et d'améliorer la confiance de tous les acteurs (voir à ce sujet le rapport du Conseil d'Etat "Internet et les réseaux numériques") doit être cohérent et s'inscrire dans une perspective à long terme. Les décrets techniques de 1999 ont fixé les seuils de taille de clés pour l'utilisation de mécanismes de cryptologie. Il convient désormais de définir le statut des certificats et signatures faits en utilisant ces mécanismes. De plus, les obligations en matière de preuve et de recouvrements des clés (pour les émetteurs ou destinataires de messages chiffrés par exemple) doivent être explicités. Les répercussions techniques (notarisation, séquestre des clés...) des obligations légales peuvent avoir une influence importante sur la disponibilité des outils et services et leur usage effectif.

La protection de la vie privée et des données personnelles

L'expérience bâtie au sein de la Commission Nationale Informatique et Libertés (CNIL) doit être exploitée pour construire une pratique concrète de la protection de la vie privée sur Internet. Pour avoir un réel impact sur la discussion en cours au niveau international, le développement d'expérimentations est essentiel.

La protection de la propriété industrielle

La relation entre la propriété industrielle et le développement technique de l'Internet a changé de nature lors de l'année écoulée avec l'apparition de brevets pour les logiciels. La France et l'Europe sont aujourd'hui sur le point de faire évoluer leur position. L'occasion est bonne pour entamer une réflexion d'envergure sur ce thème et faire des propositions constructives pour sortir l'Internet de l'impasse dans laquelle il est sur le point de s'engager.

La protection contre les contenus et comportements illicites

Les tentatives de protection contre les contenus et comportements illicites ont jusqu'à présent été limitées dans leur déploiement. La disponibilité de technologies plus puissantes telles que les métadonnées (Resource Description Framework développé par le W3C) ouvre de nouvelles opportunités. L'association de l'expérience acquise grâce aux services télématiques (minitel) et des fonctionnalités récentes de l'Internet (RDF) peut donner à la France l'occasion d'une percée originale et de portée universelle.

Recommandations

Reconnaître l'Internet comme la plateforme de la convergence entre l'informatique, les télécommunications et l'audiovisuel
  • Etablir un cadre réglementaire intermédiaire (pour une période de cinq ans) pour favoriser les expérimentations
  • Donner la priorité à la médiation plutôt qu'à la régulation
  • Construire un environnement législatif adapté à la convergence

La France peut jouer un rôle important dans l'évolution de l'environnement réglementaire de l'Internet au niveau mondial. Pour qu'elle soit reconnue dans ce rôle, l'approche pragmatique de l'Internet doit être adoptée. Donner la priorité aux expérimentations doit permettre de soutenir les positions européennes (sur la protection de la vie privée, par exemple) en s'appuyant sur des résultats concrets. De manière à bâtir une réglementation réaliste (dans ses dimensions techniques, économiques et sociales), il est important de faire participer les acteurs et d'encourager le dialogue. La médiation doit être préférée à la régulation.

Dans les cinq années qui viennent, en attendant que l'environnement réglementaire de l'Internet soit stabilisé au niveau mondial, mettre le développement technique en première priorité peut demander la mise en place de moratoires dans l'exercice des législations existantes.

La confiance ne sera généralisée, à terme, que par la stabilisation de l'environnement réglementaire. Chaque mesure transitoire doit être expliquée et présentée dans la perspective de la construction de l'environnement législatif de la convergence.

 

Références

Références citées

L'Internet Engineering Task Force
http://www.ietf.org
La directive européenne sur la protection de la vie privée et des données personnelles
http://www2.echo.lu/legal/fr/dataprot/directiv/direct.html
L'Autorité de Régulation des Télécommunications
http://www.art-telecom.fr
La Commission Nationale Informatique et Libertés
http://www.cnil.fr
La page Resource Description Framework du W3C
http://www.w3.org/RDF

Autres références intéressantes

L'environnement légal européen
http://www.ispo.cec.be/Ecommerce/legal.htm
Le livre vert de la commission européenne sur la convergence
http://www.ispo.cec.be/convergencegp/97623fr.doc
Le rapport du conseil d'état "Internet et les réseaux numériques"
http://www.conseil-etat.fr/ce-data/actus/numeriq.htm
Le rapport Braibant
http://www.ladocfrancaise.gouv.fr/cgi-bin/multitel/CATALDOC/frame_generique?gauche=g_somMR&principal=texte_generique&p1=repertoire&val1=rapports&p2=fichier&val2=braibant.htm
Les amendements relatifs à la loi sur la liberté de communication, proposés par Patrick Bloche
http://www.patrickbloche.org:/1/dossiers/audiovisuel/amend_internet.htm
Les rapports et les décrets concernant le commerce électronique et la cryptologie
http://www.internet.gouv.fr/francais/commerce/textesref.htm
Le groupe de travail sécurité de l'IETF
http://www.ietf.org/html.charters/wg-dir.html#Security_Area

 

DÉVELOPPEMENT TECHNIQUE DE L'INTERNET

Glossaire des Acronymes

 

A

ADM
Add/Drop Multiplexors
ADSL
Asymmetric Digital Subscriber Line
voir : http://www.adsl.com
AFA
Association des Fournisseurs d'Accès et de services Internet
voir : http://www.afa-france.com
AFNIC
Association Française pour le Nommage Internet en Coopération
voir : http://www.nic.fr
AFTEL
Association Française de la Télématique Multimédia
voir : http://www.aftel.fr
AO/DI
Always On/Dynamic ISDN
voir : http://www.via-isdn.org/aodi/index.htm
APCE
Agence pour la création d'entreprises
voir : http://www.apce.com
ARP
Address Resolution Protocol
voir : http://www.ietf.org/rfc/rfc826.txt
ARPAnet
Advanced Research Projects Agency Network
voir : http://www.dei.isep.ipp.pt/docs/arpa-Introduc.html 
ART
Autorité de Régulation des Télécommunications
voir : http://www.art-telecom.fr
ATM
Asynchronous Transfer Mode
voir : http://www.atmforum.com
ATSC
 Advanced Television Systems Committee
voir : http://www.atsc.org

B

Band-X
The Bandwidth Exchange
voir : http://www.band-x.com/index.cfm
BT
British Telecom
voir : http://www.bt.com

C

CATV
Cable TV
voir : http://www.catv.org
CANARIE
Initiative Internet Optique, Bell Canada & Cisco
voir : http://www.canarie.ca/frames/startnetworks_f.html
CERFA
Centre d'enregistrement et de révision des formulaires administratifs
voir : http://www.cerfa.gouv.fr
CERN
Laboratoire Européen pour la Physique des Particules
voir : http://www.cern.ch
CERT
Coordination center computer Emergency Response Team
voir : http://www.cert.org
CNET
Centre de Recherche et Développement de France Télécom
voir : http://www.cnet.fr
CNIL
Commission Nationale de l'Informatique et des Libertés
voir : http://www.cnil.fr
COURLY
COmmunauté URbaine de LYon
COVAD
voir : http://www.covad.com/telespeed/internet_access.html
CSA
Conseil Supérieur de l'Audiovisuel
voir : http://www.csa.fr
CUGN
Communauté Urbaine du Grand Nancy
voir : http://www.grand-nancy.org

D

DANTE
Deployment of Advanced Network Technologies in Europe
voir : http://www.dante.net
DARPA
United States Defence Advanced Research Project Agency
voir : http://www.darpa.mil
DES
Data Encryption Standard
DFN-Verein
German Research Network
voir : http://www.dfn.de
DHTML
Dynamic HTML
voir : http://www.w3.org/TR/WAI-WEBCONTENT/#dhtml
DNS
Domain Name Service
voir : http://www.nic.fr/Guides/DNS.html
DOCSIS
Data Over Cable Service Interface Specification
voir : http://www.ietf.org/proceedings/98mar/slides/ipcdn-fijolek/index.htm
voir aussi DVB
DOE
United States Department Of Energy
voir : http://home.doe.gov
DSL
Data Subscriber Link
voir : http://www.adsl.com
DVB
Digital Video Broadcasting
voir : http://www.dvb.org
DWDM
Dense Wave Data Multiplexing
DXC
Digital Cross Connect

E

EDF
Electricité de France
voir : http://www.edf.fr
ESnet
Energy Sciences Network
voir : http://www.es.net
ETSI
European Telecommunications Standards Institute
voir : http://www.etsi.org

F

FAI
Fournisseurs d'Accès Internet
FIRST
Forum of Incident Response and Security Teams
voir : http://www.first.org
FTP
File Transfer Protocol
voir : http://www.ietf.org/rfc/rfc959.txt
FTTC
Fiber To The Curb

G

GEO
Geostationary Earth Orbit
GIX
Global Internet eXchange
voir : http://www.isi.edu/div7/ra/NAPs/
GNI
Grenoble Network Initiative
voir : http://www.gni.fr
GPRS
General Packet Radio Service
GSM
Global System for Mobile telecommunications
GTE
General Telephone and Electronics
voir : http://www.gte.com
G-WIN
Gigabit WIssenscharfts Netz
Réseau R&D de DFN-Verein (voir DFN-Verein)

H

HDSL
High speed Data Subscriber Link
voir : http://www.adsl.com
HER
Hermes European Railways
voir : http://www.hitrail.com/hermes.html
HFC
Hybrid Fiber Coax
HTML
HyperText Markup Language
voir : http://www.w3.org/MarkUp/
HTTP
Hypertext Transfer Protocol
voir : http://www.w3.org/Protocols/

I

IAB
Internet Advising Bureau
voir : http://www.iab.org
IANA
Internet Assigned Numbers Authority
voir : http://www.iana.org
ICANN
Internet Corporation for Assigned Names and Numbers
voir : http://www.icann.org
IDEA
International Data Encryption Algorithm
voir : http://www.ascom.com/infosec/idea/techspecs.html
IDC
International Data Corporation
voir : http://www.idc.com
IETF
Internet Engineering Task Force
voir : http://www.ietf.org
INRIA
Institut National de Recherche en Informatique et en Automatique
voir : http://www.inria.fr
InterNIC
International Network Information Center
voir : http://www.internic.net
IP
Internet Protocol
voir : http://www.ietf.org/rfc/rfc791.txt
IPSEC
IP Security Protocol
voir : http://www.ietf.org/html.charters/ipsec-charter.html
IPv6, IPv4
Internet Protocol version 6, version 4
voir : http://www.ipv6.org
IRIS
Imaginons un Réseau Internet Solidaire
voir : http://www.iris.org
ISDN
Integrated Services Digital Network
voir RNIS
IT-RA
ITalian Rating Agency
voir : http://www.csr.unibo.it/ra/
ITU
International Telecommunications Union
voir : http://www.itu.int
IUFM
Institut Universitaire de Formation des Maîtres
voir : http://dgrt.mesr.fr/Serveurs_Etab/IUFM.html
IXC
voir : http://www.ixc-comm.net
IXP
Internet eXchange Point
voir : http://www.isi.edu/div7/ra/NAPs/

K

KPN
Royal Dutch Telecom
voir : http://www.kpn.nl/en/index.html

L

LDAP
Lightweight Directory Access Protocol
voir : http://www.umich.edu/~dirsvcs/ldap/ldap.html
LEO
Low Earth Orbit
LMDS
Local Multipoint Distribution Service
voir : http://jhicksserver.cob.vt.edu/acct5544/Spring98/group5/Kawthar/lmds/index.htm

M

MAE
Metropolitan Area Exchange
voir : http://www.mfsdatanet.com/MAE/
MENRT
Ministère de l'Education Nationale, de la Recherche et de la Technologie
voir : http://www.education.gouv.fr
MIDS
Matrix Internet Data Survey
voir : http://www.mids.org
MP3
MPEG-1 Layer 3 Audio
MPEG
Moving Picture Experts Group
voir : http://www.mpeg.org/MPEG/
MPLS
MultiProtocol Label Switching
voir : http://www.renater.fr/jmu/QTP/mpls-desc.html
MPOA
Multi Protocol Over ATM
voir : http://www.siemens.se/siemensab/communications/itnet/mpoa/mpoa.html

N

NASA
United States National Aeronautic and Space Agency
voir : http://www.nasa.gov
NCSA
National Center for Supercomputing Applications
http://www.ncsa.uiuc.edu
NGI
Next Generation Internet
voir : http://www.ngi.gov
NIH
United States National Institute of Health
voir : http://www.nih.gov
NNTP
Network News Transport Protocol
voir : http://www.ietf.org/rfc/rfc977.txt
NORDUnet
Nordic Internet Highway to Research and Education
voir : http://www.nordu.net/news/
NSF
United States National Science Foundation
voir : http://www.nsf.gov
NSI
Network Solutions Inc.
voir : http://www.networksolutions.com
NTIC
Nouvelles Technologies de l'Information et de la Communication

O

OMG
Object Management Group
voir : http://www.omg.org

P

PAGSI
Programme d'Action Gouvernemental pour la Société de l'Information
voir : http://www.internet.gouv.fr
PDA
Personal Digital Assistant
PEP
Point d'Echange de Proximité
voir : http://www.gni.fr/PEP/
PICS
Platform for Internet Content Selection
voir : http://www.w3.org/PICS/
PITAC
President's Information Technology Advisory Committee - Interim Report
voir : http://www.ccic.gov/ac/interim/
POS
Packet over SONET
voir : http://www.ncne.nlanr.net/news/workshop/981101/Talks/Dunn/index.htm
P3P
Platform for Privacy Preferences Project
voir : http://www.w3.org/P3P/
PPP
Point to Point Protocol
PSI
voir : http://www.psi.net
PSTN
Public Switched Trunk Network
(voir RTC)

Q

QoS
Quality of Service

R

RCACi
Recreational Software Advisory Council on the Internet
voir : http://www.rsac.org
RDF
Resource Description Tramework
voir : http://www.w3.orf/RDF/
RENATER
Réseau National de Télécommunications pour la Technologie, l'Enseignement et la Recherche
http://www.renater.fr
RERIF
Plaque régionale Ile-de-France du réseau Renater
voir : http://www.aurif.fr/rerif.html
RIPE
Réseaux IP Européens
voir : http://www.ripe.net
RIPE NCC
Centre de coordination des Réseaux IP Européens
RIPE Network Coordination Centre
voir : http://www.ripe.net
RLOGIN
Remote Login
RMOA
RealTime Multimedia Over ATM
RNI
Réseau National d'Interconnexion de Renater
voir : http://www.renater.fr/Reseau/
RNIS
Réseau Numérique à Intégration de Service
RNRT
Réseau National de Recherche en Télécommunications
voir : http://www.telecom.gouv.fr/rnrt/
RTC
Réseaux Téléphoniques Commutés
RSA
Rivest-Shamir-Adleman Encryption Algorithm
voir : http://www.rsa.com/index.html

S

SAFIR
Service ATM Fédérateur et d'Interconnexion de Renater
voir : http://www.renater.fr/Projets/SAFIR/index.htm
SCSSI
Service Central de la Sécurité des Systèmes d'Information
voir : http://www.scssi.gouv.fr
SDH
Synchronous Digital Hierarchy
SFINX
Service for French INternet eXchange
voir : http://www.renater.fr/Sfinx/French/SFINX.html
S/MIME
Secure/Multipurpose Internet Mail Extensions
voir : http://www.ietf.org/html.charters/smime-charter.html
SMS
Small Message System
SMTP
Simple Mail Transfer Protocol
voir : http://www.ietf.org/rfc/rfc821.txt
SNCF
Société Nationale des Chemins de Fer Français
voir : http://www.sncf.fr
SONET
Synchronous Optical Network
voir : http://www.pcc.qub.ac.uk/tec/courses/network/SDH-SONET/SDH-SONET.html

T

TCP
Transmission Control Protocol
voir : http://www.ietf.org/rfc/rfc793.txt
TELNET
Telnet Protocol
voir : http://www.ietf.org/rfc/rfc854.txt
TEN-155
The Next Generation of European Research Networking
voir : http://www.dante.net/ten-155/
TLD
Top Level Domain
voir : http://www.iana.org - http://www.centr.org
TLS-SSL
Transport Layer Security-Secure Socket Layer
voir : http://www.ietf.org/html.charters/tls-charter.html

U

UCAID
University Corporation for advanced Internet Development
voir : http://www.ucaid.edu
UIT
Union Internationale des Télécommunications
voir : http://ww.itu.int
UMTS
Universal Mobile Telecommunications System
URL
Uniform Resource Locator
voir : http://www.w3.org/Addressing/
USENIX
Advanced Computer Systems Association
voir : http://www.usenix.org

V

vBNS
Very high performance Backbone Network Service
voir : http://www.vbns.net
VDSL
Very high speed Data Subscriber Link

W

W3C
World Wide Web Consortium
voir : http://www.w3.org
WAP
Wireless Application Protocol
voir : http://www.wapforum.org
WDM
Wave Data Multiplexing
(voir DWDM)

X

xDSL
Digital Subscriber Line
Nom générique d'une famille comportant ADSL, HDSL, VDSL...
voir http://www.adsl.com

 

DÉVELOPPEMENT TECHNIQUE DE L'INTERNET

Annexes

 

ANNEXE 1 : Réseaux de Transport


Acteurs 

  • UUnet, Sprint (partie prenante de Global One), ANS et MCI aux Etats-Unis ; Ebone, Eunet et Pipex en Europe.
  • Worldcom a depuis racheté les infrastructures d'ANS et d'UUnet. A l'occasion de la fusion entre MCI et Worlcom, les conditions imposées à l'acceptation de cette fusion par les autorités de la concurrence ont conduit à la cession de l'infrastructure Internet de MCI à Cable & Wireless.
  • HER (Hermes European Railways) est devenu actionnaire majoritaire de Ebone, Eunet à été racheté par QWEST début 1998 (opérateur émergeant qui venait de racheter LCI, quatrième « carrier » aux Etats-Unis) et Pipex avait été racheté par UUnet en 1996.

Les nouveaux entrants

  • Aux Etats-Unis : Qwest, Global Crossing, Level 3 et Sprint qui, bien qu'opérateur historique remet à niveau son réseau en passant d'ATM à IP sur SONET.
  • En Europe : HER, Colt, Internex, RSLCom, Carrier 1, KPN-Qwest, Circe - Viatel, Colt, ...

Poses de fibre, plans de réseaux

Tarifs d'une ligne 2 Mbit/s entre Paris et Londres sur les divers marchés

Tarifs d'une 2 Mbit/s entre
Paris et Londres
Selon Viatel - http://www2.viatel.com/lazard/

Comparaison du coût des infrastructures

tarif comparatif
2 Mbit/s vers
Le coefficient 1 correspond au tarif le plus bas (Danemark - Allemagne, Pays-Bas - Etats-Unis)
d'après http://www.tarifica.com/other/manalysis.html

 

ANNEXE 2 : Interconnexions


Quelques éléments d'histoire de l'interconnexion des réseaux IP

du peering au transit, des lignes spécialisées à tous supports, tous débits.

Dates significatives dans
l'histoire d'Internet
(Source : table 2-1 de http://www.ncs.gov/n5_hp/Information_Assurance/PSN-A97.htm)

Dates marquantes de l'histoire d'Internet aux USA

Jusqu'à 1986 : La préhistoire, de ARPAnet à NSFnet

les débuts du peering

Jusqu'en 1986, les réseaux basés sur IP (essentiellement ARPAnet et aussi NASA, ESnet et MILnet) étaient financés par les agences gouvernementales des Etats-Unis et strictement réservés aux acteurs de la recherche financés par ces agences. Ces réseaux étaient laborieusement interconnectés selon un modèle technique non hiérarchique dépassé (EGP) et selon des règles de réciprocité élaborées par ces agences au sein du Federal Network Council(FNC).

Tout change à partir de 1986 avec la création de NSFnet, réseau pour la recherche et l'accès aux super-calculateurs de la NSF, d'abord à 56 kbit/s puis à 1,5 Mbit/s. ARPAnet, qui était initialement un outil de recherche puis avait été transformé en réseau opérationnel de la recherche sous la pression des utilisateurs et de leurs nouvelles applications (transfert de fichier, accès à distance, et surtout courrier électronique) disparaît ; NSFnet le remplace.

Le backbone NSFnet
(Source : table 2-4 de http://www.ncs.gov/n5_hp/html/int-2his.html)

Le backbone NSFnet à 1,5 Mbit/s en 1988

De 1986 à 1992 : Les débuts, Internet devient international et commercial

peering limité par les règles d'utilisations

La National Science Foundation (NSF, agence fédérale chargée de financer la recherche) finance directement l'ossature (le NSFnet backbone) entre les centres hébergeant les super-calculateurs et laisse aux initiatives régionales le soin de financer une quinzaine de réseaux régionaux desservant les centres de recherche et raccordés à l'ossature. Le coût total est évalué - en 1990 - à 100 millions de dollars dont 5 millions de dollars directement pour l'ossature.

NSFnet devient le point focal des réseaux aux Etats-Unis puis en Europe.

L'année 1988 est aussi marquée par l'apparition du service IP dans des réseaux ouverts au secteur privé, à l'enseignement supérieur ou hors des Etats-Unis tels que :

  • UUnet, issu de USENIX, l'association nord-américaine des utilisateurs d'Unix.
  • CSnet, Computer Science Network, pour l'enseignement universitaire.
  • EUnet, issu de EUUG, l'association européenne des utilisateurs d'Unix, déjà raccordé à UUnet à 9.6 kbit/s
  • NORDUnet, réseau nordique pour la R&D raccordé - à 56 kbit/s et à titre onéreux - à NSFnet par le réseau régional de l'État de New-York.

Les premières interconnexions IP sont tolérées par les agences et soutenues activement par la NSF qui les intègre dans son routage, les organismes bénéficiaires étant approuvés au cas par cas. L'interconnexion se fait sur la base de "réciprocité" (à coût nul, peering). Il aurait été techniquement et organisationnellement impensable qu'il en fût autrement.

Le mouvement s'amplifie aux Etats-Unis conformément à la politique de "commercialisation, privatisation and internationalisation" de la NSF énoncée au tout début des années 1990. UUnet acquiert le statut de "regional network". Au même moment, en Europe, les premiers acteurs (NORDUnet, EUnet, SWITCH, CERN et INRIA, rejoints par EASYnet et plus timidement par les réseaux R&D à financements publics) s'organisent en "club" pour traiter la coordination indispensable à IP (RIPE, Réseaux IP Européens, dont le bras opérationnel RIPE-NCC verra le jour en 1994). C'est au niveau de RIPE que se discutent et s'élaborent les premières interconnexions, les premiers partages d'infrastructure :

  • Amsterdam-Stockholm à 256 kbit/s, par NORDUnet, CERN et EUnet puis EASYnet.
  • Sophia-Princeton de INRIA et NSF avec SWITCH.
  • Sophia-Rocquencourt de INRIA avec EUnet.
  • Paris - Amsterdam de EUnet avec INRIA.

C'est aussi au niveau de RIPE qu'est abordée l'ouverture vers les pays d'Europe centrale et les relations avec NSFnet (et donc par extension avec les réseaux d'Amérique du Nord) et la création d'une ossature européenne pour les réseaux de la R&D (Ebone, en 1992, financé en partie par Bruxelles).

Les interconnexions restent à coût nul mais les "Acceptable Usage Policy" (AUP) imposent des restrictions censées préserver l'utilisation des fonds publics ou même la sécurité des Etats-Unis. Ces restrictions créent des problèmes insurmontables techniquement sauf à déployer de bout en bout une double infrastructure "publique" et "privée".

Le bénéfice de l'interconnexion (c'est à dire de l'accès aux Etats-Unis) est timidement étendu aux pays de l'ex-Europe de l'Est.

De 1992 à 1996 : L'Internet devient commercial aux Etats-Unis, NSFnet disparaît

Aux Etats-Unis, les réseaux IP commerciaux, dont plusieurs sont issus (privatisation) des réseaux régionaux de NSFnet (PSInet, NYSERnet), deviennent progressivement les acteurs principaux d'un Internet ouvert aux activités commerciales (commercialisation). Sous l'impulsion de UUnet, ils mettent en oeuvre - toujours sur la base de la réciprocité - une organisation d'interconnexion à but non lucratif : le Commercial Internet eXchange (CIX).

principaux GIX aux Etats-Unis
en 1997
(source : table 3-1 de http://www.ncs.gov/n5_hp/Information_Assurance/PSN-A97.htm)

Les principaux GIX aux Etats-Unis en 1997

NSFnet prépare sa disparition (privatisation) en contribuant financièrement à la mise en oeuvre de quatre lieux d'interconnexion, les "Network Access Point" (NAP). Ces NAP doivent maintenir la connectivité entre les réseaux commerciaux et les réseaux de la communauté R&D toujours soumis aux AUP. Ils sont également ouverts aux fournisseurs de conduit (revendeurs de capacité IP des FAI nationaux, voir plus bas). L'organisation et l'exploitation des NAP sont confiées à des sociétés commerciales :

  • Sprint pour le SprintNAP de New York (Pensauken, NJ).
  • MFS pour le Metropolitan Fiber System Datanet de Washington DC.
  • Bellcore et Ameritech pour le NAP de Chicago.
  • Bellcore et Pacific Bell pour le NAP de San Francisco.

Enfin, la NSF finance le développement et le déploiement (par Merit) de route server simplifiant les échanges de route entre les acteurs à partir d'informations administratives préalablement collectées dans la Routing Arbiter Data Base (RADB). NSF finance aussi la constitution de cette base et ses outils d'entretien.

Les points d'interconnexion prennent les noms de Global Internet eXchange (GIX, surtout en Europe), Internet eXchange Point (IXP), Metropolitan eXchange Point (MXP) et Network Access Point (NAP, issus de NSFnet).

Les premiers GIX apparaissent en Europe (Londres, Stockholm, Paris).

Après 1996 : explosion du modèle coopératif aux Etats-Unis

l'interconnexion, un enjeu commercial, voire monopoliste

Le problème de l'équité de la réciprocité, qui se pose avec plus d'acuité aux Etats-Unis qu'en Europe, est à l'origine de solutions plus ou moins draconiennes qu'on a pu éviter ou qui n'ont pas encore cours en Europe. L'interconnexion devient au mieux un enjeu commercial, au pire une opportunité pour des pratiques anti-concurrentielles.

Aux Etats-Unis :

  • Les infrastructures que déploient les acteurs aux Etats-Unis sont de dimension :
    • continentale pour UUnet, ANS, Sprint, PSI (tier-1, National Service Provider, NSP, FAI de niveau 1) et l'ossature de NSFnet,
    • régionale pour les réseaux régionaux de NSFnet (tier-2, Regional Service Provider, NSP, FAI de niveau 2) ou issus de NSFnet,
    • locale pour les nouveaux revendeurs (tier-3, resellers, FAI de niveau 3).
  • Les besoins de communications sont continentaux (le two coasts problem du routage), les acteurs continentaux (tier-1) traversent à leurs frais les Etats-Unis pour atteindre l'acteur régional (tier-2) de la côte opposée ou pire, voient du trafic en transit - entre des acteurs locaux (tier-3) de chaque côte - encombrer leurs réseaux. A l'extrême, un hébergeur de serveur Web présent sur le CIX (7500 dollars par an) bénéficiera sans coûts supplémentaires- au nom de la réciprocité - de la même connectivité continentale que les clients réguliers des FAI de niveau 1 (cette dernière pratique et les tentatives tardives pour y remédier ont fait voler le CIX en éclats autour de 1996).
    Rapidement, et dans la transparence, la réciprocité est limitée dans l'espace :
    • Les FAI de niveau 2 échangent leur trafic régional dans des GIX sur une base de réciprocité (peering).
    • Les FAI de niveau 2 acquièrent la capacité intercontinentale (transit) auprès des FAI de niveau 1 présents sur le GIX.
    • Les FAI de niveau 1, présents dans tous les GIX, s'échangent leur propre trafic sur une base de réciprocité (peering).
    • Les FAI de niveau 3 revendent à leur clients la capacité IP acquise auprès des FAI de niveau 2.
  • Le routage est une tâche complexe (elle dépend quadratiquement du nombre de FAI participant à l'échange) et très sensible (une erreur locale peut avoir des répercutions majeures dans tout l'Internet) qui réclame à la fois des personnels très compétents et disponibles et des cadres organisationnels clairs. Les mécanismes évoqués précédemment permettent un changement d'échelle contrôlé, changement que réclame l'explosion du nombre d'acteurs.
    • La division géographique (plusieurs GIX) et hiérarchique (échanges entre pairs de même niveau et échanges entre clients et fournisseurs) diminue la taille des communautés impliquées et simplifie donc ce problème quadratique.
    • La division hiérarchique permet de réserver la prise en compte des routages et des incidents continentaux ou intercontinentaux aux équipes - nombreuses et pointues - des très gros acteurs de niveau 1. Les acteurs de niveau 2 se limitent aux problèmes régionaux. Les acteurs de niveau 3 achètent toutes ces compétences.
    • La diminution du nombre de points d'échange (GIX) n'a pas que des aspects positifs pour le routage. Elle a un impact négatif sur l'infrastructure des FAI de niveau 1 en leur imposant d'acheminer tout leur trafic local (par exemple Boston - Boston ) vers les rares lieux de GIX (par exemple le MAE-East à Washington DC) en congestionnant inutilement leurs artères (Boston - Washington et retour) vers ce GIX. Pour cette raison, les FAI de niveau 1 privilégient les peering deux à deux dans de très nombreux "GIX privés et confidentiels" et ne participent aux GIX régionaux que pour y proposer leurs services de transit.

    Cette dernière pratique est très contestée à cause de l'absence de transparence qui l'entoure. Les règles permettant de devenir pair sont obscures et surtout variables dans le temps, elles semblent surtout destinées à interdire l'arrivée de nouveaux acteurs au niveau 1.

En Europe :

  • Les infrastructures que déploient, vers 1995, les acteurs en Europe peuvent être de dimension :
    • continentale pour EUnet, Pipex et Ebone,
    • nationale pour les autres fournisseurs d'accès,
    • régionale, très occasionnellement.
  • Les besoins de communications étant intercontinentaux (le contenu est aux Etats-Unis et accessoirement en Europe) tout FAI doit disposer d'une connectivité vers les GIX des Etats-Unis, qu'il détourne à l'occasion pour accéder au reste de l'Europe (dans le "22 à Asnières" le trafic franco-français passe par les Etats-Unis). Les GIX aux Etats-Unis lui fournissent un transit gratuit vers le reste de l'Europe, et en retour bénéficient d'un accès gratuit à l'Europe.
  • Très vite, les acteurs de dimension nationale et d'importance comparable échangent leur trafic national dans des GIX nationaux sur une base de réciprocité (peering).
  • Sous la pression de leurs utilisateurs et pour améliorer leur image de marque plus que la qualité de leur routage, les acteurs de dimension nationale achètent des droits de transit vers le reste de l'Europe, auprès des acteurs de dimension européenne (Ebone).

    Les acteurs de dimension européenne échangent entre eux leur trafic sur une base de réciprocité (peering), échange qui se fait au niveau d'un GIX ou par une infrastructure privée.

  • Le routage est simplifié par :
    • le nombre réduit d'acteurs nationaux d'un GIX national,
    • le nombre réduit d'acteurs européens,
    • l'existence, dès 1990, d'un mécanisme de documentation des réseaux en Europe, la RIPE Data Base, alimentée et tenue à jour par chaque acteur. Aucun "route server" n'est utilisé dans les GIX en Europe.
  • Les règles en vigueur dans les GIX tendent à garantir l'aspect neutre et équitable de l'interconnexion ainsi que sa transparence. Elles imposent que les partenaires déploient des moyens comparables, pour éviter les écueils qui ont conduit à l'explosion du CIX. Voir à ce sujet les règles du LINX (GIX de Londres) ou du D-GIX de Stockholm ainsi que l'inventaire des pratiques établies par l'OCDE.
  • Les réseaux de la R&D (Ebone puis Dante), parce qu'ils s'adressent plus vite à une population captive plus nombreuse et disposent malgré tout de ressources publiques plus abondantes, déploient des moyens plus importants que les réseaux commerciaux. Ils se trouvent de fait en position de force, les nombreux problèmes et retards dans l'interconnexion sont souvent perçus comme dilatoires ou anti-concurrentiels.

A partir de 1996, les nouveaux supports modifient profondément le métier de FAI

et accentuent le retard entre les Etats-Unis et l'Europe

A partir de 1996, aux Etats-Unis, les opérateurs historiques ou émergents - dont le champ d'activité (local ou longue distance) est précisément délimité par la FCC, interviennent massivement dans l'Internet :

  • directement, dans des absorptions ou fusions,
  • indirectement, par le haut-débit qu'ils offrent à des conditions abordables ou par l'ouverture à Internet de nouvelles boucles locales.

Les regroupements augmentent ou complètent l'infrastructure des FAI :

  • au niveau du réseau longue distance, lorsque l'opération est menée entre un FAI et un opérateur longue distance (Inter eXchange Carrier, IXC),
  • au niveau de la boucle locale, lorsque l'opération est menée entre un FAI et un opérateur local téléphonique (Local eXchange Carrier, LEC) ou câblo-opérateur.

Le métier du FAI, jusqu'ici principalement concerné par le routage sur des lignes spécialisées à débits moyens et la concentration d'accès par le réseau téléphonique, en est profondément affecté :

  • par la nécessité d'intégrer - de préférence juste à temps - ces nouveaux débits dans des équipements qui les supportent plus ou moins bien (déploiement de ATM par UUnet autour de 1995),
  • par la nécessité d'intégrer et de maîtriser de nouvelles techniques de réseau longue distance (ATM, SONET, plus récemment WDM), issues du monde des télécommunications, très tôt dans leur cycle de maturité,
  • par la nécessité d'intégrer et de maîtriser les problèmes - non conventionnels - que posent les nouvelles techniques (câble TV, plus récemment aDSL et boucle radio) disponibles pour atteindre et satisfaire de nouveaux clients.

En Europe, la complexification évoquée précédemment n'a pas encore touché les FAI.

  • Elle apparaît peu au niveau du réseau longue distance :
    • principalement au niveau de l'interconnexion, pour les acteurs qui préfèrent mettre bout à bout les conduits hétérogènes locaux ou régionaux pour constituer des conduits pan-européens, plutôt que de reconstruire complètement l'infrastructure,
    • de manière très limitée, au niveau du service de transport de bit qui est de type ligne spécialisée ou ATM mais pas de type SDH ou WDM,
    • au niveau du routage, pour les FAI revendeurs de capacité,
    • au niveau des hauts-débits, pour les FAI dont les ressources sont suffisamment abondante pour en autoriser l'utilisation.
  • Elle n'apparaît pas au niveau de la boucle locale :
    • où un FAI historique (c.a.d accessible par téléphone) a rarement accès aux nouvelles boucles locales de type câble TV ou radio,
    • qui reste le domaine des PTO détenteurs de la boucle locale, et qui sont seuls confrontés à la complexité de l'intégration.

Références citées

Les GIX aux Etats-Unis
http://www.ncs.gov/n5_hp/html/int-3def.html
http://www.ncs.gov/n5_hp/n5_ia_hp/GovPub.html
GIX en Europe
http://www.isi.edu/div7/naps/naps_eu.html
http://www.nic.fr/Guides/gix.html
LINX, le GIX de Londres
http://www.linx.net
D-GIX, le GIX de Stockholm
http://www.netnod.se/index-eng.html
Glossaire des termes de l'Internet, de l'interconnexion et des télécommunications
http://cookreport.com/cook/glossary.html
Rapport OCDE : Internet Traffic Exchange, Developments and Policy
http://www.oecd.org/dsti/sti/it/cm/prod/traffic.pdf
Rapport OCDE : Internet Infrastructure Indicators
http://www.oecd.org/dsti/sti/it/cm/prod/tisp98-7e.pdf

Mise à jour : juin 1999