Majoritaire en France, l’ADSL fait l’objet pourtant de critiques croissantes des internautes rêvant aux nouveau territoires virtuels promis par les opérateurs et obligés de se limiter au tortillard proposé par les communications actuelles (bande passante de 512 Ko).La frustration est désormais dans le fruit, ce qui signifie que le moteur qui anime notre société depuis le jardin d’Eden, est en marche, la situation devrait évoluer …
Ce ressenti est apparu nettement lors de la réunion organisée sur cette thématique et déjà abordé dans une note précédente. Selon le statut de chaque acteur, le sens de certains mots revêt une signification toute différente.
Pour l’opérateur historique et les textes officiels, le « haut débit » commence effectivement et contractuellement à 512 Ko, mais pour l’internaute désirant avoir droit au « triple play » (accés à Internet, au téléphone et à la télévision avec la même connexion) ce débit est notoirement insuffisant, d’où controverse ….
L’enquête annuelle réalisée par le CREDOC sur la diffusion des technologies de l’information et de la communication en France en est l’illustration. Cette étude précieuse permet chaque année de dresser un état des lieux et d’analyser les tendances de fond d’un secteur particulièrement dynamique.
Constat, même si la situation progresse, les teintes du cliché sont toujours sépias. Le rythme de pénétration de l’internet dans les foyers se ralentit, mais la qualité de la connexion s’améliore peu à peu : 67 % des Français de plus de 18 ans disposent d’un ordinateur à domicile contre 64 % en 2007 et 58 % des personnes interrogées (contre 53 % en 2007) déclarent disposer d’une connexion internet. Le bas-débit (attention, inférieur à 512 Ko !) ne concerne plus que 2 % des Français. Mais la fracture numérique n’est pas seulement territoriale, elle est également générationnelle et sociale (ne sont connectés que 14 % des plus de 70 ans et un tiers des personnes disposant d’un revenu mensuel inférieur à 900 euro).
Pourtant force est de constater qu’internet est le réseau de communication dont la pénétration aura était la plus massive et rapide de notre histoire (20 fois que le téléphone, 10 fois que la radio, 3 fopis que la télé). Entre le début des années 2000 est aujourd’hui, la progression est fulgurante, paradoxalement cela ne suffit plus, la révolution des usages ayant été encore plus exponentielle !
La responsabilité d’un tel décalage est à chercher du coté de l’émergence du Web 2.0, dont un des déterminants est le développement des wikis. Ces outils collaboratifs transforment de fait l’internaute, hier passif, en producteur de contenus, dont pour certains multimédias. Contenus générant des besoins en « tuyauterie » croissants. L’intelligence collective ne se suffit plus de données textuelles ; illustration : la bande passante utilisée par You Tube en 2007, équivaut à celle du Net en … 2000 !
Nous sommes entrées dans le deuxième âge du web. Pour Tim O’Reilly, l’inventeur du terme Web 2.00 ; « les données sont le nouvel Intel Inside » (data is the next Intel Inside) … Les flux de données que les « tuyaux » transportent sont désormais l’essentiel. Le point de rupture (tipping point) est atteint avec les nouvelles exigences des internautes … Nous ne sommes qu’au début d’un gigantesque big bang, celui de l’ère « connectée ». Une évolution des usages, qui en cette période de crise, arrive à point, tant elle aura des retombées économiques importantes … Le temps de la « longue traine » est arrivé encore faut il réaliser les investissements nécéssaires … Car pour qu’il y est du flux encore faut il que les tuyaux suivent …
Reparlons donc infrastructures, car il s’agit également de cela …
L’ADSL, du transitoire qui dure
Aujourd’hui, les technologies ADSL montrent leurs limites : débits peu élevés, dégradation du signal en fonction de la distance entre répartiteur et usager (ce qui arrive à Trilport), déséquilibre entre débit descendant et débit montant (les internautes devenant fournisseurs de contenus, ils ont besoin de débit synchrone) et impossibilité de satisfaire à la demande croissante de connectivité nomade.
Situation qui amène les opérateurs à déployer des réseaux basés sur les technologies radio ou optique. Mais cela demande du temps et des investissements considérables (voir note précédente) pour un bénéfice quasi nul : le prix de l’abonnement de base, étant identique, que le débit soit de 512 ko ou de 2Mo !
Ce qui explique la frilosité assumée des opérateurs. France Télécom dépositaire d’un réseau de cuivre tentaculaire met donc tout en œuvre trés logiquement pour exploiter le plus longtemps possible, l’infrastructure existante, pourtant non dédiée à l’origine au transport d’informations numériques à haut débit.
Rappelons que l’intervention publique n’est autorisée que pour les infrastructures dites passives (le réseau), et non pour les éléments dits actifs (répartiteur ou DSLAM) ou presque pas (zone d’ombre constatée) !
Les internautes devront donc faire preuve de patience, certaines solutions techniques devraient cependant poindre dans les prochaines semaines et permettront de pallier temporairement aux manques actuels : nouvelles technologies boostant le signal transitant sur le cuivre, utilisation de fibre otique pour rapprocher les répartiteurs des usagers (type NRA ZO) … A ce sujet, il serait utile aux opérateurs et aux collectivités de savoir réellement où passent les différents réseaux de fibres installs (dont notamment ceux d’Orange).
Signe encourageant dans ce contexte, le nouveau positionnement d’Orange, désromais fournisseur de contenus télévisés et multimédias, il aura directement intérêt à ce que le trés haut débit arrive jusque chez les usagers (peut on encore les appeler internautes ?) afin d’équilibrer les investissements considérables entis dans ce domaine. Associer contenu et tuyaux, cela ne vous rappelle personne ? Le rêve de Jean Marie Messier (le maître du monde selon les guignols) commence à devenir réalité et c’est Orange qui le réalise !
AUjourd’hui en France, l’ADSL représente 95 % des accès Internet haut débit, 13 millions d’abonnés sur 13,7 millions d’abonnés « haut débit » (pour 15,9 millions d’abonnés au net) les technologies alternatives (filaires ou non) se développent cependant peu à peu. Cette situation constitue une exception Européenne, sur le continent les technologies alternatives représentant entre 20 à 30 % de parts de marché.
Vous avez dit FFTH (Fiber To The Home) ?
Chaque spécialiste l’admet, la fibre optique constitue l’avenir immédiat. Elle autorise des débits virtuellement illimités et n’est pratiquement pas sensible à la distance (pas ou peu de perte de signal). Il suffira de changer certains équipements actifs, pour atteindre des débits 10, 100 ou 1000 fois supérieurs à ceux obtenus aujourd’hui. A l’étranger, la desserte très haut débit par fibre optique a déjà pris de l’avance, surtout en Asie, Etats-Unis et Europe du Nord.
Principal obstacle rencontré, le cout du génie civil : tranchées, pose des fourreaux, pénétration dans les immeubles, qui est inversement proportionnel à la densité urbaine. Pourtant des solutions économiques existent : mutualisation des infrastructures (réseaux électriques aériens, réseaux de distribution d’eau et d’assainissement …). Le déploiement en aérien sur les infrastructures existantes permettrait de diminuer considérablement le coût de déploiement, ces réseaux présentant, entre autres caractéristiques, un maillage continu du territoire jusqu’à l’usager desservant la totalité des immeubles et maisons individuelles ; pour exemple, les réseaux aériens représentent 60 % du déploiement des réseaux en fibre optique aux USA, c’est grâce également à l’aérien que le Japon et la Corée du Sud ont développé leur réseau à faible coût : résultat près des deux tiers des 30 millions de foyers fibrés sont en Asie. C’est notamment le sens de certaines pistes d’action proposés dans le rapport d’Eric Besson, « France Numérique 2012 ».
Encore faudrait-il pouvoir déjà utiliser les réseaux et les fourreaux existants ! Problème, aujourd’hui encore comme l’a fait remarquer lors de notre réunion le Vice Président du Conseil Général Bertand Caparroy, personne ne sait encore exactement où passent les fourreaux de France Télécom, la mutualisation des réseaux promise dans les textes de loi (loi sur la modernisation de l’économie, 2008) est encore à venir !
Autre pierre d’achoppement: la partie terminale, où comment atteindre jusqu’à chez eux les internautes. Deux technologies s’opposent : celle d’Orange et SFR, la monofibre (ou GPON, une seule fibre jusqu’au au pied de l’immeuble, se divisant ensuite pour atteindre chaque abonné), la multifibre, préconisée par Free, soit une fibre par abonné de bout en bout, ce qui permet de changer d’opérateur, et garantit les débits annoncés ; les deux solutions étant aujourd’hui bien évidemment incompatibles !
Téléphonie mobile ou fixe ?
Si l’utilisation du téléphone mobile poursuit sa progression, les utilisateurs d’appareils mobiles sont deux fois plus nombreux que les utilisateurs d’ordinateurs ; malgré l’augmentation des débits disponibles, la puissance des nouveaux terminaux, les nouveaux services proposés, utiliser son téléphone portable pour surfer sur internet, n’est toujours pas une réalité française ! 6 % des possesseurs de téléphone portable déclarent l’utiliser pour aller sur Internet, 2 % s’en servent pour regarder la télé. Contrairement au Japon ou à la Corée, le premier moyen d’accéder à l’internet, n’est plus le PC mais le téléphone mobile !
Il faut dire que le réseau 3G + n’est pas déployé sur tout le territoire, loin s’en faut, puisqu’elle ne concerne que 70% du territoire avec des débits très variables !
Pourtant constat paradoxal : autant la téléphonie mobile progresse, autant 2008 marque le retour de la téléphonie fixe (85 % de la population). Conséquence du développement des offres « triple play » qui nécessitent une ligne fixe : 17 % des Français déclarent recevoir la télévision par ADSL contre seulement 10 % l’année dernière. Evolution intéressante lorsqu’on la compare à la part de marché de la réception hertzienne, qui représente désormais moins de 70% !
Dans ce domaine cependant, un sujet fait controverse, celui du risque sanitaire ptentiel causer par les antennes. Rien d’établi pour l’instant, mais cette question exige prudence et circonspection de la part des différents acteurs. Il est important que le débat se déroule sur des bases claires, afin que toute la lumière soit faite sur ces questions qui mêlent développement des territoires, enjeux économiques et risques sanitaires, qu’il s’agisse d’ailleurs des infrastructures de transport (antennes) ou des terminaux de réception et d’émission (les portables).
Et la TNT, quel rapport avec Internet ?
La télévision traverse une période de mutation profonde : au niveau des médias, avec la multiplication des écrans (télévision, ordinateurs fixes et portables, consoles de jeux,…), avec la diversification des modes de diffusion, l’amélioration de la qualité de l’image, et surtout les nouveaux modes de consommation : décalée (télévision de rattrapage sur internet), à la demande (Video-on-Demand), ou nomade (sur les téléphones) … Une période qui trouvera son point de rupture en novembre 2011 avec le basculement généralisé du pays vers la diffusion numérique et la TNT et l’extinction de la diffusion analogique.
Ce processus a une conséquence insoupçonnée, concernant directement Internet. Il permettra de libérer des fréquences basses, utilisées pour l’instant par la diffusion de la télévision hertzienne, présentant des caractéristiques de propagation exceptionnelles, le fameux « dividende numérique ». Précision, les fréquences actuellement utilisées par la 3G, sont moins performantes que celles de la 2G, en termes de propagation.
Un moment attendu impatiemment par les opérateurs Car les fréqeunces libérées (sous-bande (790-862 MHz), seront affectée à l’accès Internet haut débit. Ce sont les fréquences les plus basses, donc les plus performantes selon les spécialistes
Nouveaux usages, attention décollage
Le Web 2.0 » fait des internautes des co producteurs. Désormais c’est plus de 3 millions d’internautes français qui surfent sur le net comme créateurs de contenus et non plus comme simples visiteurs,
Internet sera ce que l’on en fera, le web étant le produit des effets de réseaux Plus exactement ce qu’en feront les générations qui sont nées avec (« digital natives ») … Car ce sont les usages qui font internet et la nouvelle génération d’internaute rêves de contrées inaccessibles à leurs parents.
Nous entrons, progressivement dans l’ère du « toujours connecté » (always on), les nouveaux usages apportés par le web 2.00, ne sont que le prélude à une véritable révolution, que nous aborderons dans une prochaine note …. .
Pourtant, la fracture numérique est toujours présente : générationnelle, sociale et géographique. Si plus de 1,3 milliard de personnes ont accès à l’internet fin 2007 (six mois auparavant, ils étaient à peine plus d’un milliard), à peine 2,9 % de la population africaine est connectée, 3,7 % pour l’Inde, 12,3 % pour la Chine et 19,8 % pour l’Amérique latine …
Mini abécédaire
ADSL (Asymetric Digital Subscriber Line) : C’est l’une des nombreuses technologies DSL (SDSL, VDSL, HDSL…), qui permet d’utiliser le réseau téléphonique classique pour relier l’abonné à Internet de manière permanente, rapide et sans occuper la ligne téléphonique. Elle nécessite l’installation d’un appareillage électronique (DSLAM ou multiplexeur DSL) dans le central téléphonique dont dépend l’abonné.
Armature de collecte : Appelée également « Dorsale » ou « Backbone », l’armature de collecte relie les boucles locales, centralise les flux de télécommunication et assure l’interconnexion avec les réseaux nationaux et transnationaux. Ces armatures sont constituées de fibres optiques le plus souvent, mais également de faisceaux hertziens.
ARCEP, est l’autorité administrative indépendante chargé de réguler la concurrence dans le secteur des télécommunications afin de permettre l’entrée de nouveaux acteurs et le développement d’une concurrence. Elle joue un rôle clé dans un secteur en pleine transition concurrentielle. En favorisant la mise en place du dégroupage et l’investissement des alternatifs dans les infrastructures, elle a permis le développement du haut débit que notre pays connaît depuis cinq ans.
Boucle locale : Élément d’un réseau de télécommunications desservant directement l’abonné. Appelé également « dernier kilomètre », il s’agit le plus souvent du fil téléphonique en cuivre entre l’abonné et le central téléphonique de France Télécom. Mais il s’agit également de toute la zone desservie par une technologie hertzienne (GSM, UMTS, boucle locale radio, Wi-Fi, Wi-Max…). BLR, Wi-Fi, UMTS, Wi-Max : Boucle Locale Radio (BLR), Wireless-Fidelity (Wi-Fi), UMTS, Wi-Max : principales technologies permettant de relier l’abonné au réseau de l’opérateur par voie hertzienne, elles nécessitent l’implantation d’une antenne par l’opérateur sur un point élevé d’un territoire, et une autre antenne chez l’abonné.
Courant Porteur en Ligne (CPL) : Technologie qui permet de transmettre des télécommunications par le réseau électrique classique.
Débit : Le débit, ou bande passante, sert à mesurer la vitesse de transmission des données. L’unité de mesure est le nombre de bits (données) par seconde. Elle s’écrit « bit/s » ou « bps ».
1 kilo bit par seconde (1 Kbit/s) = 1000 bits par seconde,
1 Méga bit par seconde (1 Mbit/s) = 1000 kilo bit par seconde,
1 Giga bit par seconde (1 Gbit/s) = 1000 Méga bit par seconde.
Débits asymétriques : De nombreuses technologies offrent un débit parfois rapide pour la réception de données, mais encore très faible pour l’envoi de données. Cela concerne l’ADSL, mais aussi le satellite, le câble… Ainsi, l’ADSL 512 indique que la réception peut atteindre 512 Kbit/s, tandis que l’émission s’élève au mieux à 128 Kbit/s.
Dégroupage : Une ligne téléphonique est dégroupée lorsque le service d’accès Internet et éventuellement téléphonique est apporté par un opérateur autre que France Télécom. Il faut pour cela que ce nouvel opérateur ait ses propres installations dans le central téléphonique. Le dégroupage permet de faire passer des services nouveaux, des débits plus élevés, et ce, à des coûts souvent moindres pour l’utilisateur final.
Faisceau hertzien : Technologie de collecte dite de « point à point », c’est à dire ne permettant pas de desservir l’abonné, mais transférant d’un émetteur à un récepteur des volumes de données très importants, sans travaux lourds de génie civil.
Fibre optique : Technologie très ancienne pour les réseaux de collecte (backbone), mais nouvelle pour la desserte de l’abonné. Peu développée encore en France, l’infrastructure optique de bout en bout (FTTB ou FTTH) se généralise partout progressivement, car elle permet des débits très élevés, dont la limite n’est pas encore connue. Sa mise en oeuvre nécessite en revanche très souvent d’importants travaux de génie civil.
Fournisseur d’accès Internet (FAI) : Ce terme désigne les sociétés spécialisées proposant au minimum à leurs abonnés une connexion à Internet, une adresse de messagerie, un hébergement de site personnel et un portail (page d’accueil) pour naviguer sur Internet. La plupart des FAI proposent de nombreux autres services, dont certains sont payants.
Haut débit : les prestataires de services de télécommunications appellent « haut débit » l’envoi de données plus rapide que le modem RTC ou numéris, et « très haut débit » tout débit supérieur à 1 Méga bits par seconde. Il n’y a pas encore de normalisation mondiale pour une définition technique uniforme du bas, moyen, haut et très haut débit. En Europe, les catégories retenues concernent des débits exclusivement symétriques :
Moins de 128 Kbit/s = bas débit,
Entre 128 Kbit/s et 2 Mbit/s = moyen débit,
Entre 2 Mbit/s et 10 Mbit/s = haut débit,
Plus de 10 Mbit/s = très haut débit
Satellite : Technologie de collecte par voie hertzienne, souple d’utilisation, mais dont l’abonnement reste très cher, et qui souffre d’un temps de latence (décalage entre l’envoi et la réception des données) qui limite son utilisation pour de nombreux services ou applications.
xDSL Le terme DSL ou xDSL signifie Digital Subscriber Line (Ligne numérique d’abonné) et regroupe l’ensemble des technologies mises en place pour un transport numérique de l’information sur une simple ligne de raccordement téléphonique. (source comment ca marche.com)
WiFi Un réseau sans fil (en anglais wireless network) est, comme son nom l’indique, un réseau dans lequel au moins deux terminaux (ordinateur portable, PDA, etc.) peuvent communiquer sans liaison filaire. Grâce aux réseaux sans fil, un utilisateur a la possibilité de rester connecté tout en se déplaçant dans un périmètre géographique de quelques dizaines de mètres. (source comment ca marche.com)
WIMAX Le WiMAX est une technologie hertzienne de transmission de données à haut débit. Elle permet notamment de surfer sur Internet en haut débit, de téléphoner (VoIP), ou encore d’interconnecter des réseaux d’entreprises. Contrairement à l’ADSL ou une autre technologie filaire, le WiMAX utilise les ondes radio, tout comme vous utilisez déjà la radio avec votre téléphone portable. (source Altitudetelecom.fr)