Révolution numérique : parlons un peu tuyaux …

web-2.jpgMajoritaire en France, l’ADSL fait l’objet pourtant de critiques croissantes des internautes rêvant aux nouveau territoires virtuels promis par les opérateurs et obligés de se limiter au tortillard proposé par les communications actuelles (bande passante de 512 Ko).La frustration est désormais dans le fruit, ce qui signifie que le moteur qui anime notre société depuis le jardin d’Eden, est en marche, la situation devrait évoluer …

Ce ressenti est apparu nettement lors de la réunion organisée sur cette thématique et déjà abordé dans une note précédente. Selon le statut de chaque acteur, le sens de certains mots revêt une signification toute différente.
Pour l’opérateur historique et les textes officiels, le « haut débit » commence effectivement et contractuellement à 512 Ko, mais pour l’internaute désirant avoir droit au « triple play » (accés  à Internet, au téléphone et à la télévision avec la même connexion) ce débit est notoirement insuffisant, d’où controverse ….

L’enquête annuelle réalisée par le CREDOC sur la diffusion des technologies de l’information et de la communication en France en est l’illustration. Cette étude précieuse permet chaque année de dresser un état des lieux et d’analyser les tendances de fond d’un secteur particulièrement dynamique.

Constat, même si la situation progresse, les teintes du cliché sont toujours sépias. Le rythme de pénétration de l’internet dans les foyers se ralentit, mais la qualité de la connexion s’améliore peu à peu :  67 % des Français de plus de 18 ans disposent d’un ordinateur à domicile contre 64 % en 2007 et 58 % des personnes interrogées (contre 53 % en 2007) déclarent disposer d’une connexion internet. Le bas-débit (attention, inférieur à 512 Ko !) ne concerne plus que 2 % des Français. Mais la fracture numérique n’est pas seulement territoriale, elle est également générationnelle et sociale (ne sont connectés que 14 % des plus de 70 ans et un tiers des personnes disposant d’un revenu mensuel inférieur à 900 euro).

Pourtant force est de constater qu’internet est le réseau de communication dont la pénétration aura était la plus massive et rapide de notre histoire (20 fois que le téléphone, 10 fois que la radio, 3 fopis que la télé). Entre le début des années 2000 est aujourd’hui, la progression est fulgurante, paradoxalement cela ne suffit plus, la révolution des usages ayant été encore plus exponentielle !

La responsabilité d’un tel décalage est à chercher du coté de l’émergence du Web 2.0, dont un des déterminants est le développement des wikis. Ces outils collaboratifs transforment de fait l’internaute, hier passif, en producteur de contenus, dont pour certains multimédias. Contenus générant des besoins en « tuyauterie » croissants. L’intelligence collective ne se suffit plus de données textuelles ; illustration : la bande passante utilisée par You Tube en 2007, équivaut à celle du Net en … 2000 !

Nous sommes entrées dans le deuxième âge du web. Pour Tim O’Reilly, l’inventeur du terme Web 2.00 ;  « les données sont le nouvel Intel Inside » (data is the next Intel Inside) … Les flux de données que les « tuyaux » transportent sont désormais l’essentiel. Le point de rupture (tipping point) est atteint avec les nouvelles exigences des internautes … Nous ne sommes qu’au début d’un gigantesque big bang, celui de l’ère « connectée ». Une évolution des usages, qui en cette période de crise, arrive à point, tant elle aura des retombées économiques importantes … Le temps de la « longue traine » est arrivé encore faut il réaliser les investissements nécéssaires … Car pour qu’il y est du flux encore faut il que les tuyaux suivent …

Reparlons donc infrastructures, car il s’agit également de cela  …

 

 

 

HighTech.jpg L’ADSL, du transitoire qui dure

Aujourd’hui, les technologies ADSL montrent leurs limites : débits peu élevés, dégradation du signal en fonction de la distance entre répartiteur et usager (ce qui arrive à Trilport), déséquilibre entre débit descendant et débit montant (les internautes devenant fournisseurs de contenus, ils ont besoin de débit synchrone) et impossibilité de satisfaire à la demande croissante de connectivité nomade.

Situation qui amène les opérateurs à  déployer des réseaux basés sur les technologies radio ou optique. Mais cela demande du temps et des investissements considérables (voir note précédente) pour un bénéfice quasi nul : le prix de l’abonnement de base, étant identique, que le débit soit de 512 ko ou de 2Mo !
Ce qui explique la frilosité assumée des opérateurs. France Télécom dépositaire d’un réseau de cuivre tentaculaire met donc tout en œuvre trés logiquement pour exploiter le plus longtemps possible, l’infrastructure existante, pourtant non dédiée à l’origine au transport d’informations numériques à haut débit.

Rappelons que l’intervention publique n’est autorisée que pour les infrastructures dites passives (le réseau), et non pour les éléments dits actifs (répartiteur ou DSLAM) ou presque pas (zone d’ombre constatée) !

Les internautes devront donc faire preuve de patience, certaines solutions techniques devraient cependant poindre dans les prochaines semaines et permettront de pallier temporairement aux manques actuels :  nouvelles technologies boostant le signal transitant sur le cuivre, utilisation de fibre otique pour rapprocher les répartiteurs des usagers (type NRA ZO)  …  A ce sujet, il serait utile aux opérateurs et aux collectivités de savoir réellement où passent les différents réseaux de fibres installs (dont notamment ceux d’Orange).
Signe encourageant dans ce contexte, le nouveau positionnement d’Orange, désromais fournisseur de contenus télévisés et multimédias, il aura directement intérêt à ce que le trés haut débit arrive jusque chez les usagers (peut on encore les appeler internautes ?) afin d’équilibrer les investissements considérables entis dans ce domaine. Associer contenu et tuyaux, cela ne vous rappelle personne ? Le rêve de Jean Marie Messier (le maître du monde selon les guignols) commence à devenir réalité et c’est Orange qui le réalise !

AUjourd’hui en France, l’ADSL représente 95 % des accès Internet haut débit, 13 millions d’abonnés sur 13,7 millions d’abonnés « haut débit » (pour 15,9 millions d’abonnés au net) les technologies alternatives (filaires ou non) se développent cependant peu à peu. Cette situation constitue une exception Européenne, sur le continent les technologies alternatives représentant entre 20 à 30 % de parts de marché.

 

Vous avez dit FFTH (Fiber To The Home) ?

Chaque spécialiste l’admet, la fibre optique constitue l’avenir immédiat. Elle autorise des débits virtuellement illimités et n’est pratiquement pas sensible à la distance (pas ou peu de perte de signal). Il suffira de changer certains équipements actifs, pour atteindre des débits 10, 100 ou 1000 fois supérieurs à ceux obtenus aujourd’hui. A l’étranger, la desserte très haut débit par fibre optique a déjà pris de l’avance, surtout en Asie, Etats-Unis et Europe du Nord.

Principal obstacle rencontré, le cout du génie civil : tranchées, pose des fourreaux, pénétration dans les immeubles, qui est inversement proportionnel à la densité urbaine. Pourtant des solutions économiques existent : mutualisation des infrastructures (réseaux électriques aériens, réseaux de distribution d’eau et d’assainissement …). Le déploiement en aérien sur les infrastructures existantes permettrait de diminuer considérablement le coût de déploiement, ces réseaux présentant, entre autres caractéristiques, un maillage continu du territoire jusqu’à l’usager desservant la totalité des immeubles et maisons individuelles ; pour exemple, les réseaux aériens représentent 60 % du déploiement des réseaux en fibre optique aux USA, c’est grâce également à l’aérien que le Japon et la Corée du Sud ont développé leur réseau à faible coût : résultat  près des deux tiers des 30 millions de foyers fibrés sont en Asie. C’est notamment le sens de certaines pistes d’action proposés dans le rapport d’Eric Besson, « France Numérique 2012 ».

Encore faudrait-il pouvoir déjà utiliser les réseaux et les fourreaux existants ! Problème, aujourd’hui encore comme l’a fait remarquer lors de notre réunion le Vice Président du Conseil Général Bertand Caparroy, personne ne sait encore exactement où passent les fourreaux de France Télécom, la mutualisation des réseaux promise dans les textes de loi (loi sur la modernisation de l’économie, 2008) est encore à venir !

Autre pierre d’achoppement: la partie terminale, où comment atteindre jusqu’à chez eux les internautes. Deux technologies s’opposent : celle d’Orange et SFR, la monofibre (ou GPON, une seule fibre jusqu’au au pied de l’immeuble, se divisant ensuite pour atteindre chaque abonné), la multifibre, préconisée par Free, soit une fibre par abonné de bout en bout, ce qui permet de changer d’opérateur, et garantit les débits annoncés ; les deux solutions étant aujourd’hui bien évidemment incompatibles !

 

Téléphonie mobile ou fixe ?

Si l’utilisation du téléphone mobile poursuit sa progression, les utilisateurs d’appareils mobiles sont deux fois plus nombreux que les utilisateurs d’ordinateurs ; malgré l’augmentation des débits disponibles, la puissance des nouveaux terminaux,  les nouveaux services proposés, utiliser son téléphone portable pour surfer sur internet, n’est toujours pas une réalité française ! 6 % des possesseurs de téléphone portable déclarent l’utiliser pour aller sur Internet, 2 % s’en servent pour regarder la télé. Contrairement au Japon ou à la Corée, le premier moyen d’accéder à l’internet, n’est plus le PC mais le téléphone mobile !

Il faut dire que le réseau 3G + n’est pas déployé sur tout le territoire, loin s’en faut, puisqu’elle ne concerne que 70% du territoire avec des débits très variables !

Pourtant constat paradoxal : autant la téléphonie mobile progresse, autant 2008 marque le retour de la téléphonie fixe (85 % de la population). Conséquence du développement des offres « triple play » qui nécessitent une ligne fixe : 17 % des Français déclarent recevoir la télévision par ADSL contre seulement 10 % l’année dernière. Evolution intéressante lorsqu’on la compare à la part de marché de la réception hertzienne, qui représente désormais moins de 70% !

Dans ce domaine cependant, un sujet fait controverse, celui du risque sanitaire ptentiel causer par les antennes. Rien d’établi pour l’instant, mais cette question exige prudence et circonspection de la part des différents acteurs. Il est important que le débat se déroule sur des bases claires, afin que toute la lumière soit faite sur ces questions qui mêlent développement des territoires, enjeux économiques et risques sanitaires, qu’il s’agisse d’ailleurs des infrastructures de transport (antennes) ou des terminaux de réception et d’émission (les portables).

 

Et la TNT, quel rapport avec Internet ?

La télévision traverse une période de mutation profonde : au niveau des médias, avec la multiplication des écrans (télévision, ordinateurs fixes et portables, consoles de jeux,…), avec la diversification des modes de diffusion, l’amélioration de la qualité de l’image, et surtout les nouveaux modes de consommation : décalée (télévision de rattrapage sur internet), à la demande (Video-on-Demand), ou nomade (sur les téléphones) …  Une période qui trouvera son point de rupture en novembre 2011 avec le basculement généralisé du pays vers la diffusion numérique et la TNT et  l’extinction de la diffusion analogique.

Ce processus a une conséquence insoupçonnée, concernant directement Internet. Il permettra de libérer des fréquences basses, utilisées pour l’instant par la diffusion de la télévision hertzienne, présentant des caractéristiques de propagation exceptionnelles, le fameux « dividende numérique ». Précision, les fréquences actuellement utilisées par la 3G, sont moins performantes que celles de la 2G, en termes de propagation.

Un moment attendu impatiemment par les opérateurs Car les fréqeunces libérées (sous-bande (790-862 MHz), seront affectée à l’accès Internet haut débit. Ce sont les fréquences les plus basses, donc les plus performantes selon les spécialistes

 

Nouveaux usages, attention décollage

Le Web 2.0 » fait des internautes des co producteurs. Désormais c’est plus de 3 millions d’internautes français qui surfent sur le net comme créateurs de contenus et non plus comme simples visiteurs,

Internet sera ce que l’on en fera, le web étant le produit des effets de réseaux Plus exactement ce qu’en feront les générations qui sont nées avec (« digital natives ») … Car ce sont les usages qui font internet et la nouvelle génération d’internaute rêves de contrées inaccessibles à leurs parents.

Nous entrons, progressivement dans l’ère du « toujours connecté » (always on), les nouveaux usages apportés par le web 2.00, ne sont que le prélude à une véritable révolution, que nous aborderons dans une prochaine note …. .

Pourtant, la fracture numérique est toujours présente : générationnelle, sociale et géographique. Si plus de 1,3 milliard de personnes ont accès à l’internet fin 2007 (six mois auparavant, ils étaient à peine plus d’un milliard), à peine 2,9 % de la population africaine est connectée, 3,7 % pour l’Inde, 12,3 % pour la Chine et 19,8 % pour l’Amérique latine …

 

 

 

Mini abécédaire

ADSL (Asymetric Digital Subscriber Line) : C’est l’une des nombreuses technologies DSL (SDSL, VDSL, HDSL…), qui permet d’utiliser le réseau téléphonique classique pour relier l’abonné à Internet de manière permanente, rapide et sans occuper la ligne téléphonique. Elle nécessite l’installation d’un appareillage électronique (DSLAM ou multiplexeur DSL) dans le central téléphonique dont dépend l’abonné.

Armature de collecte : Appelée également « Dorsale » ou « Backbone », l’armature de collecte relie les boucles locales, centralise les flux de télécommunication et assure l’interconnexion avec les réseaux nationaux et transnationaux. Ces armatures sont constituées de fibres optiques le plus souvent, mais également de faisceaux hertziens.

ARCEP, est l’autorité administrative indépendante chargé de réguler la concurrence dans le secteur des télécommunications afin de permettre l’entrée de nouveaux acteurs et le développement d’une concurrence. Elle joue un rôle clé dans un secteur en pleine transition concurrentielle. En favorisant la mise en place du dégroupage et l’investissement des alternatifs dans les infrastructures, elle a permis le développement du haut débit que notre pays connaît depuis cinq ans.

Boucle locale : Élément d’un réseau de télécommunications desservant directement l’abonné. Appelé également « dernier kilomètre », il s’agit le plus souvent du fil téléphonique en cuivre entre l’abonné et le central téléphonique de France Télécom. Mais il s’agit également de toute la zone desservie par une technologie hertzienne (GSM, UMTS, boucle locale radio, Wi-Fi, Wi-Max…). BLR, Wi-Fi, UMTS, Wi-Max : Boucle Locale Radio (BLR), Wireless-Fidelity (Wi-Fi), UMTS, Wi-Max : principales technologies permettant de relier l’abonné au réseau de l’opérateur par voie hertzienne, elles nécessitent l’implantation d’une antenne par l’opérateur sur un point élevé d’un territoire, et une autre antenne chez l’abonné.

Courant Porteur en Ligne (CPL) : Technologie qui permet de transmettre des télécommunications par le réseau électrique classique.

Débit : Le débit, ou bande passante, sert à mesurer la vitesse de transmission des données. L’unité de mesure est le nombre de bits (données) par seconde. Elle s’écrit « bit/s » ou « bps ».

1 kilo bit par seconde (1 Kbit/s) = 1000 bits par seconde,

1 Méga bit par seconde (1 Mbit/s) = 1000 kilo bit par seconde,

1 Giga bit par seconde (1 Gbit/s) = 1000 Méga bit par seconde.

Débits asymétriques : De nombreuses technologies offrent un débit parfois rapide pour la réception de données, mais encore très faible pour l’envoi de données. Cela concerne l’ADSL, mais aussi le satellite, le câble… Ainsi, l’ADSL 512 indique que la réception peut atteindre 512 Kbit/s, tandis que l’émission s’élève au mieux à 128 Kbit/s.

Dégroupage : Une ligne téléphonique est dégroupée lorsque le service d’accès Internet et éventuellement téléphonique est apporté par un opérateur autre que France Télécom. Il faut pour cela que ce nouvel opérateur ait ses propres installations dans le central téléphonique. Le dégroupage permet de faire passer des services nouveaux, des débits plus élevés, et ce, à des coûts souvent moindres pour l’utilisateur final.

Faisceau hertzien : Technologie de collecte dite de « point à point », c’est à dire ne permettant pas de desservir l’abonné, mais transférant d’un émetteur à un récepteur des volumes de données très importants, sans travaux lourds de génie civil.

Fibre optique : Technologie très ancienne pour les réseaux de collecte (backbone), mais nouvelle pour la desserte de l’abonné. Peu développée encore en France, l’infrastructure optique de bout en bout (FTTB ou FTTH) se généralise partout progressivement, car elle permet des débits très élevés, dont la limite n’est pas encore connue. Sa mise en oeuvre nécessite en revanche très souvent d’importants travaux de génie civil.

Fournisseur d’accès Internet (FAI) : Ce terme désigne les sociétés spécialisées proposant au minimum à leurs abonnés une connexion à Internet, une adresse de messagerie, un hébergement de site personnel et un portail (page d’accueil) pour naviguer sur Internet. La plupart des FAI proposent de nombreux autres services, dont certains sont payants.

Haut débit : les prestataires de services de télécommunications appellent « haut débit » l’envoi de données plus rapide que le modem RTC ou numéris, et « très haut débit » tout débit supérieur à 1 Méga bits par seconde. Il n’y a pas encore de normalisation mondiale pour une définition technique uniforme du bas, moyen, haut et très haut débit. En Europe, les catégories retenues concernent des débits exclusivement symétriques :

Moins de 128 Kbit/s = bas débit,

Entre 128 Kbit/s et 2 Mbit/s = moyen débit,

Entre 2 Mbit/s et 10 Mbit/s = haut débit,

Plus de 10 Mbit/s = très haut débit

Satellite : Technologie de collecte par voie hertzienne, souple d’utilisation, mais dont l’abonnement reste très cher, et qui souffre d’un temps de latence (décalage entre l’envoi et la réception des données) qui limite son utilisation pour de nombreux services ou applications.

xDSL Le terme DSL ou xDSL signifie Digital Subscriber Line (Ligne numérique d’abonné) et regroupe l’ensemble des technologies mises en place pour un transport numérique de l’information sur une simple ligne de raccordement téléphonique. (source comment ca marche.com)

WiFi Un réseau sans fil (en anglais wireless network) est, comme son nom l’indique, un réseau dans lequel au moins deux terminaux (ordinateur portable, PDA, etc.) peuvent communiquer sans liaison filaire. Grâce aux réseaux sans fil, un utilisateur a la possibilité de rester connecté tout en se déplaçant dans un périmètre géographique de quelques dizaines de mètres. (source comment ca marche.com)

WIMAX Le WiMAX est une technologie hertzienne de transmission de données à haut débit. Elle permet notamment de surfer sur Internet en haut débit, de téléphoner (VoIP), ou encore d’interconnecter des réseaux d’entreprises. Contrairement à l’ADSL ou une autre technologie filaire, le WiMAX utilise les ondes radio, tout comme vous utilisez déjà la radio avec votre téléphone portable. (source Altitudetelecom.fr)

 

SEM@FOR 77 : La révolution numérique est en marche …

haut-debit.jpg

Courant novembre, deux évènements locaux se sont entre croisés, à priori sans rapport, mais annonciateur pourtant d’un bouleversement considérable et in fine intrinsèquement liés, nous y reviendrons dans une prochaine note, car le sujet est vaste.

L’un est la mise en route de SEMAFOR 77, le réseau d’initiative publique lancé par le Conseil général, l’autre l’inauguration de la TNT « tout numérique » à Coulommiers ! C’est de Brie que notre pays débute la longue marche qui la mènera dans trois ans (novembre 2011) à la télévision tout numérique et à l’extinction de la diffusion analogique sur l’ensemble de son territoire.

L’Internet haut débit est aujourd’hui, comme l’eau ou l’électricité, un fluide essentiel. Y accéder, c’est accéder à la vie (information, éducation, formation, culture, loisirs, e commerce, formalités administratives …), ne pas y accéder c’est en être exclu.
Pourtant aujourd’hui non seulement les taux de couverture de la population à l’Internet à haut débit (512 Ko) sont insuffisants, mais 2 % de la population française n’est pas desservie. Résultat des courses, 1 à 2 millions de Français se retrouvent physiquement exclus de la société de l’information !

Cette réalité se mêlant aux inégalités d’accés constatées en Seine et Marne et à l’inévitable fracture numérique des territoires en découlant, ont amené le Conseil général a s’impliqué dans l’aménagement numérique du département. C’est ce que Bertrand Caparroy Vice Président à l’aménagement numérique est venu présenter à Trilport lors d’une réunion publique à laquelle participait également M Bregnard de France Télécom, nous y reviendrons bientôt, car cette réunion fut vive, intéressante, instructive et pas langue de bois …

Depuis la loi du 21 juin 2004 pour La Confiance en l’Economie Numérique, les collectivités locales peuvent intervenir dans les  infrastructures de télécommunications et créer des réseaux d’initiative publique qui représentent désormais 40 % des accès dégroupés et occupent un rôle prépondérant dans le développement du haut débit : près de 2 milliards d’euros d’investissement global, public et privé y ont été investis ! L’Autorité de régulation des communications électroniques et des postes (ARCEP) recensait en septembre 2008 102 projets de réseaux d’initiative publique, dont 85 pro jets majeurs couvrant chacun plus de 60 000 habitants et 56 projets en exploitation.

Ces collectivités, dont notre Conseil Général, ont lancé des projets d’aménagement de réseaux de fibre optique afin d’irriguer le territoire, relier les bassins de vie (agglomérations, zones d’activités), interconnecter les nœuds des réseaux des opérateurs et régler la difficile question des zones d’ombre (sans accés au haut débit). Car l’inégalité des territoires est avant tout essentiellement économique : investissement effectué ou pas dans de nouveaux équipements et infrastructures. Lorsque cela n’est pas rentable (nombre d’usagers / poids financier de l’infrastructure) les différents opérateurs, y compris l’historique, sont aux abonnés absents, préférant se concentrer dans les zones à même d’assurer un retour sur investissement rapide.

POur les entreprises privées, vive l’intervention publique, elle est en partie la seule solution, l’unique levier de changement, cela ne vous rappelle rien ?
Les collectivités territoirales, inutile de chercher l’Etat, investissent en lieu et place des opérateurs privés. C’est ce qu’a fait le Conseil Général de Seine et Marne, avec l’aide de la Région (pour 15 millions €) en lançant une délégation de Service Public sur 20 ans destinée à créer et gérer un réseau de fibre optique déployé sur l’ensemble du département : SEM@FOR 77.

Quiproquo pourtant.
Lorsqu’il parle haut débit, l’internaute pense aujourd’hui à 4 ou 8 voir 12 mega; alors que l’étalon actuel pour l’opérateur est fixé à 512 Ko. D’où problème … Le haut débit a fait exploser les usages en quelques années, mais l’arrivée du très haut débit incite à ne plus se poser la question des usages mais de permettre l’émergence des services de demain… Ce sont les usages qui sont désormais à l’avant pointe notamment avec la diffusion des contenus multimédias !

Tout cela risque encore de s’accélérer d’ici quelques mois …

Présentation de SEM@FOR 77 et de son importance pour notre territoire  …

 

REUNION-PUBLIQUE.jpg

Le trés haut débit, enjeu essentiel du développement économique

L’économie numérique représente désormais plus de 25 % de la croissance mondiale, chaque investissement dans ce secteur accroit la compétitivité de l’ensemble de l’économie du fait des gains directs et indirects de productivité générés.

Pourtant en France, l’investissement y est deux fois plus faible qu’aux États-Unis, et trois fois plus faible que les pays d’Europe du Nord, au Japon ou en Corée. Plus grave encore, 50 %  des entreprises françaises sont connectées à l’Internet haut débit, 30 % disposent d’un site Internet et 2,5 % seulement des entreprises ont un site capable d’effectuer des transactions et du e business. Pour faire image, 500 000 petites et moyennes entreprises sont toujours déconnectées de l’économie numérique!

Internet fait émerger de nouveaux modes d’organisation du travail dont le télétravail, trop peu développé dans notre pays est une illstration. les télétravailleurs ne représentent que 7 % de la population active, contre 13 % en moyenne en Europe et 25 % aux États-Unis. Au regard de la crise que nous affrontons, le télétravail présente bien des avantages : allègement des charges de structure, réduction des déplacements domicile / entreprise pour les salariés, respect de l’environnement (sur les gaz à effet de serre du fait des transports économisés). Son développement d’ailleurs lié à celui des TGV peut à terme influer l’aménagement des terrtioires, et dévongestionné quelque peu les métropoles !

Constat : les nouveaux usages de l’Internet sont particulièrement consommateurs en débit : systèmes de sites miroirs (sécurisation), applications en mode hébergé, solutions de stockage et de ressources partagées, télé surveillance, visio conférence, partage de fichiers multimédia en ligne, télévision à la demande, haute définition, sauvegarde de données en ligne …  Ces tâches nécessitent des débits sans cesse croissants. Accéder à ces nouveaux usages est d’ores et un facteur clef de compétitivité dans le concert planétaire. Les grands pays développés se sont résolument lancés vers le très haut débit, au Japon et en Corée du sud, la fibre optique représente déjà 25 % des accès Internet, plu prés de nous en Europe, cinq pays (Suède, Danemark, Pays-Bas, Italie, Norvège) concentrent à seuls près de 96 % des abonnés aux réseaux en fibre optique…
La multiplication des données numériques fait appel à des services toujours plus perfectionnés, qui s’orientent paradoxalement vers une concentration des infrastructures (centralisation des pôles de gestion, de commuication ou de décision) , une externalisation des applications propres au fonctionnement interne (décentralisation d’activités, travail en partenariat à distance),  un nomadisme croissant et une approche « tout réseau » des outils informatiques qui permettent d’augmenter fconsidérablement productivité et efficacité  (synchronisation, synergie, flux tendu …).

Exemple, le domaine de l’imagerie, qu’elle soit de loisir ou médicale, le développement de la robotique, de la télé assistance, permettent l’émergence de nouvelles applications métier aux conséquencs spectaculaires : consultation médicale à distance (télémédecine) et opération chirurgicale, suivi du processus de production, gestion en flux tendu des stocks, traitement intelligent d’images, interconnexion de bureaux d’étude (maquette numérique partagée) …

Ces applications demandent des interconnexions performantes : fiabilité, débits disponibles, services liés à l’offre de connexion (sécurisation, temps de rétablissement,…). Non seulement la place des technologies de l’information et de la communication (TIC) devient incontournable et essentielle dans les usages et métiers des entreprises, mais le très haut débit, est devenu une condition sine quanun de l’attractivité d’un territoire.

 

Un RIP Seine et Marnais : SEM@FOR 77

Plus de 100 réseaux d’initiative public (ou RIP) sont recensés par l’ARCEP qui estime ce bilan largement positif, les RIP étant à l’origine de 30% des dégroupages et ont permis de lancer des infrastructures qui sans eux n’auraient pas encore vu le jour. C’est cette solution qu’a retenue le Conseil Général de Seine et Marne pour développer le haut débit, puis le trés haut débit sur le département.

Le concessionnaire choisi, SEMAFOR 77, est une société composée de trois opérateurs privés (VINCI Networks, Marais et COVAGE) et co financé par le départemnt et la Région (pour un peu moins de 50%). Le Conseil général a fixé quatre objectifs principaux :
– Connecter 100% des foyers Seine et Marnais à l’ADSL à haut débit (512 Kbps ) grâce à l’utilisation de différentes technologies (filaire, hertziennes …),
– Agir pour que toutes les communes Seine et Marnaises soient situées à moins de 10 km du réseau de fibre optique,
– Permettre à 100% des professionnels d’avoir accès à 2 Mbps symétriques (haut débit) minimum,
– Développer la concurrence entre Fournisseurs  d’Accés à Internet (FAI) afin de permettre l’augmentation des débits, les services proposés aux usagers et une baisse des prix des services, grâce au dégroupage de l’ensemble des neouds de raccordement seine et marnais.

Deux impératifs qui ne sont pas des détails, loin s’en faut : le délégataire ne peut pas vendre de services directement aux usagers mais à des opérateurs ou fournisseurs d’accès internet aux mêmes conditions et i fine au terme de la concession, le délégataire rétrocèdera l’intégralité des équipements et infrastructures créés au département.

En faisant appel à un prestataire externe, le conseil général s’est assuré la construction d’un réseau ambitieux dans des délais express et à des coûts raisonnables.
SEM@FOR77 prend en charge plus de la moitié de l’investissement initial (44 millions € sur les 74 millions €), au 30 novembre 2008, près de 1200 kilomètres de fibres optiques ont été déployés en complément d’autres technologies permettant d’atteindre 100% de couverture pour la Seine et Marne.
Dans le désordre : 197 zones d’activités sont désoormais raccordées en fibre, 150 autres desservies en WiMax ou en xDSL dégroupé, 534 autres sites publics sont connectés au réseau, les autres desservies en WiMax ou en xDSL dégroupé, 99 % des lignes téléphoniques seine-et-marnaises dégroupées, 73 collèges publics sont raccordés en fibre optique comme la quasi-totalité des bâtiments du Conseil général (Directions, UAS, ART…) , les autres sites étant raccordés par d’autres technologies.

Concrètement la fibre optique s’est arrêté à Trilport, dans la zone d’activité. Ne reste plus aux entreprises qu’à s’y connecter moyennant rétribution du prestataire, quelqu’il soit (pour les tarifs se rapprocher de SEMAFOR 77)..

Le backbone principal est posé, ne reste plus maintenant qu’à lui permettre de déployer « ses ailes » … Que la capillarité soit, afin que le trés haut débit irrigue nos territoires. Le Conseil Général a lancé un groupe de réflexion sur lcette thématique afin d ‘étudier la prochaine étape, de prendre les bonnes décision, de bien conseiller les collectivités (communes, intercommunalités) qui à un moment donné prendront le relais.

Il faudra également réfléchir à un schéma global d’aménagement des infrastructures numériques afin de rendre l’ensemble le pls complémentaire possible et de permettre au réseau de croitre peu à peu. Verifiera t’on la loi dite de « Metcalfe » ? (ce n’est pas un personnage d’Harry Potter). Une des lois qui a ponctué l’histoire de l’informatique (se souviens t’on encore de celle de Moore sur les micro processeurs) à l’origine de la bulle internet, et trés certainement une des lois fondatrices de a nouvelle économie : « la valeur d’un réseau croît avec le carré du nombre de ses utilisateurs »

C’est tout le mal qu’on souhaite à SEMAFOR 77, en espérant surtout que trés rapidement mes données viennent y faire un tour, au moins elles iront aussi vite que la lumière, cela prouvera de plus que ce réseau n’est pas réservé aux seuls entreprises mais concernent également tous les internautes …

Game is over !!!

 

Dans une prochaine note, outre un mini abécédaire, utile, la différence entre ADSL et FFTH …et les dilemmes de l’opérateur historiques …

 

L’état du Net …

8aaebe3bb8bb162a2c5d106eb9783e4d.jpgPhénomène majeur de la fin du XXème siècle, la révolution internet bouleverse nos économies et nos sociétés, cumulant les bouleversements entrainés par l’apparition de l’imprimerie et de la machine à vapeur.
Trois repères chronologiques pour s’en convaincre  : 1985 : un millier d’utilisateurs, 1994 (date symbolique s’il en est) 2 millions, 2007 près de 1,250 milliard d’utilisateurs ; et le plus incroyable, reste à venir  

Le réseau informatique imaginé par les militaires américains en pleine guerre froide capable de résister à une attaque nucléaire irrigue désormais toute la planète. Particularité : il repose sur le principe d’un maillage dépourvu de centre … La force est bien dans la matrice …

Trois problèmes majeurs cependant :

Cette croissance exponentielle ne doit pas être l’arbre qui cache la forêt, les inégalités de connectivité et d’accès à internet augmentent et la fracture numérique devient à l’échelle de la planète un problème majeur.

La multiplication des usages qui s’affranchissent allègrement des frontières territoriales et des repères sociétaux rendent nécessaire l’évolution du droit, au plan national, mais surtout international,

Enfin la gouvernance d’internet, qui pour des raisons historiques est sigulière, pose problème, ne reposant pas sur des instances multilatérales solides.

Le dossier réalisé par la Documentation Française (téléchargeable sur ce blog dans la partie des documents : « L’état du Monde numérique ») fait un point utile sur ces questions, et plus encore rappelant l’histoire de l’Internet, les débats et enjeux en suspens et dressant une photographie de la situation planétaire actuelle de ce média  …

 

 

Rappel des épisodes précédents

 

A la base les principes de fonctionnement d’Internet sont simples :

5f18fe703b4eb4202f0a9f5f0409feca.jpgLe moteur d’Internet est un protocole de communication  très simple (le fameux TCP/IP comme« Transmission Control Protocol/Internet Protocol », élaboré en 1974 par Vinton Cerf) qui a la capacité de relier ordinateurs et réseaux quelque soit le système d’exploitation utilisé , permettant à la tour de Babel que constitue la toile mondiale de fonctionner sans anicroche.

L’autre grande force d’Internet est sa facilité d’usage. Les internautes surfent de page en page en cliquant sur des liens, s’affranchissant ainsi de toute limite physique. C’est le World Wide Web, créé par Tim Berners-Lee, qui reposant sur la logique révolutionnaire de l’hypertexte.

Depuis … c’est la déferlante … Une expansion planétaire sans précédent amplifiée  par la convergence de l’informatique, de l’audiovisuel et des télécommunications utilisant tous et simultanément les tuyaux du système.

Les services de toute nature se multiplient : messagerie, forums, blogs, télé travail, commerce électronique, médias, diffusion d’images fixes, de fichiers audio et vidéo et apparaissent tous les jours. C’est un véritable mouvement perpétuel alimentée par une évolution technologique permanente : développement du haut débit, filaire ou non, de l’internet mobile, l’ère de l’internaute nomade est arrivée ! Le Web 2.00 renouvelle les modes d’usages et d’appropriation. Les utilisateurs font vivre désormais la toile et la rende réactive et active dans les deux sens (RSS, blogs, wikis, outils de partage de photos, de videos…).

Pourtant la Matrice est un géant aux talons d’argiles, et ce depuis sa création. Sa gouvernance est pour le moins particulière, une originalité qui s’explique par ses origines universitaires.

1992 création de l’Internet Society (ISOC), cette organisation américaine à but non lucratif coordonne le développement des réseaux informatiques dans le monde.

1994, Le World Wide Web Consortium ou W3C est placé sous la responsabilité du Massachussets Institute of Technology (MIT) aux Etats-Unis et de l’Institut national de recherche d’informatique et d’automatique (INRIA) en France.

1998, la gestion du DNS (Domain Name System) est confiée à une organisation californienne de droit privé, l’Internet Corporation for Assigned Names and Numbers (ICANN). Le DNS permet de convertir l’adresse IP (adresse numérique attribuée à chaque ordinateur) en noms compréhensibles, le nom de domaine. l’ICANN qui organise leur attribution reste sous contrôle du département américain du Commerce.

Cette concentration de pouvoir est à l’origine de tensions internationales multiples car le contrôle de cette infrastructure est déterminant : en choisissant ou non d’attribuer un nom de domaine, il détermine l’accès à internet, c’est le sésame indispensable.

 

Qui est le maître de la matrice ?

bac00f526b62a0da027a2099d61eb7ba.jpgAucune autorité centrale, ne régule le système, sinon les USA ; situation inacceptable pour nombre de pays. Si à l’origine Internet était surtout utilisé par les américains, ce n’est plus le cas aujourd’hui, loin s’en faut ! La communauté internationale s’interroge sur la régulation et la gouvernance d’internet (sommet de Genève en décembre 2003, sommet de Tunis en novembre 2005).

La création du Forum sur la gouvernance d’Internet (IGF), devrait permettre de jeter les bases d’une nouvelle architecture : « multilatérale, transparente et démocratique » afin de mettre les différents états sur un pied d’égalité ; mais cette instance n’a toujours aucun pouvoir décisionnaire.

Les Nations unies travaillent à la mise en place d’une structure internationale chargée de l’administration globale du réseau qui pourrait permettre d’éviter une fragmentation de la toile mondiale en myriades de réseaux centralisés. Le risque : maîtriser le tuyau et son contenu et remettre ainsi en cause le principe de neutralité sur lequel repose les fondements d’internet.

Une volonté exprimée par certains États pour des raisons de contrôle politique évidents, mais également par des opérateurs privés de télécommunication (surtout américains) désirant remettre en cause le principe de séparation entre transport et traitement des informations.

Le réseau est par essence neutre, il se limite à transporter les informations sans les modifier. L’instauration d’une tarification spécifique selon le type de données, leur volume ou vitesse de transfert (utilisé par la téléphonie) auraient indirectement une incidence sur la diffusion des contenus et des applications

Une fracture numérique croissante

6c088df3eff2f806f92e4cd33c297509.jpg

La fracture numérique s’aggrave et devient de plus en plus globale (accès, usage, contenu…). Paradoxe incroyable : Internet est  d’autant plus cher qu’il est lent. Si le prix moyen d’un accès haut débit sur la planète est de 27,59 dollars mensuels, ce prix varie selon les latitudes et les pays.

Le continent le plus pénalisé est l’Afrique. Moins de 4% des Africains ont accès à l’internet, D’après la Banque mondiale, les coûts de connexion y sont les plus chers du monde : entre 250 et 300 dollars par mois. ». L’ONU estime que le lancement d’un véritable  « Plan Marshall » est nécessaire pour ce continent si l’on veut fournir un accès universel d’ici à 2012. 

Au niveau européen, des disparités existent … l’écart s’élargit entre « connectés » et « exclus » de la société de l’information.Des écarts liés à l’âge (seulement 10% des personnes au-delà de 65 ans utilisent internet contre 68% des 16-24 ans), l’éducation (seulement 24% des personnes ayant un bas niveau d’éducation utilisent internet, contre 73% des personnes ayant un niveau d’éducation supérieur) ou la profession (seulement 32% des sans-emplois utilisent internet contre 54% des personnes employées)  (Demunter, 2005). […]

Mais la fracture s’aggrandit également entre les pays. Selon les chiffres de la Commission, « l’écart entre le pays où la pénétration du haut débit est la plus élevée (le Danemark, avec 37,2%) et celui où elle est la plus faible (la Bulgarie, avec 5,7%) s’est légèrement accru et dépasse désormais 30 points de pourcentage.

 

  

Le droit d’internet

 

9eada9b7ded7429e59082d3588a3b50d.jpg

Le Tsunami Internet  submerge les règles de droit et  se révèle devenir une vraie opportunité pour l’apparition de nouvelles formes de délinquance « immatérielles », un maelström se révélant problématique pour les juridictions nationales.

La  « cybercriminalité » selon la Commission européenne regroupe trois catégories d’activités criminelles : traditionnelles (fraude informatiques, fausses cartes de paiement bancaires …), diffusion de contenus illicites (violence sexuelle exercée contre des enfants, incitation à la haine raciale …), infractions technologiques ( attaques virales, piratage …)

Cette situation s’explique par les origines d’internet, qui au début ne reliait que les membres d’une même communauté (universitaire). Depuis la toile mondiale est devenu un marché économique en expansion continue, sur lequel circule beaucoup d’argent. La sécurité des communications  et la protection des données personnelles sont devenue essentielle, ces dernières constituent un marché très rémunérateur.

La Commission nationale de l’informatique et des libertés (CNIL, créée en 1978) n’y suffit plus. L’Union européenne a  bien adopté en octobre 1995 la directive 95/46/CE, le texte de référence, au niveau européen, en matière de protection des données à caractère personnel qui établit un équilibre entre un niveau élevé de protection de la vie privée des personnes et la libre circulation des données à caractère personnel au sein de l’Union européenne.

La multiplication des possibilités de reproduire et diffuser des contenus culturels sur internet conduit à une remise en cause du droit d’auteur, perçu d’ailleurs différemment selon les continents. Le développement des réseaux d’échange de fichiers de pair-à-pair (P2P) a considérablement aggravé cette situation. La mise en commun de contenus numérisés de toute nature  (textes, audio, vidéo et logiciels) entre plusieurs individus sans transiter par un serveur central rend possible  la diffusion légale d’œuvres non protégées

Au-delà des dispositions répressives, d’autres solutions sont à l’étude :

Les systèmes numériques de gestion des droits (les Digital Right Management Systems, DRMS) permettent de contrôler la distribution d’œuvres en ligne (achat, limitation du nombre de copies …) et permettent d’envisager la mise en place d’offres légales en ligne. Mais ce système est critiqué car générateur de contraintes  techniques

La possibilité de donner accès librement aux œuvres moyennant une compensation financière versée aux ayants droit (licence légale) mais de nombreux inconnues se présentent : taux à appliquer, clé de répartition …

La mise à disposition gratuite d’œuvres avec le consentement de leurs auteurs est une autre tendance.

Le cas de la France, la loi DADVSI

La loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI), adoptée le 1er août 2006 est la transposition française de la directive européenne sur le droit d’auteur. Elle est positionnée clairement comme favorable aux DRMS malgré l’opposition de nombreux internautes, associations de consommateurs et interprètes favorables à la licence globale.

Ce texte légalise les dispositifs de protection anti-copie pour les auteurs et les ayants droit qui diffusent leur œuvre sur internet (brouillage, cryptage, application d’un code d’accès, etc…) destinées à empêcher ou limiter les utilisations non autorisées par le titulaire d’un droit.  La loi prévoit la création d’une Autorité de régulation des mesures techniques (ARMT) chargée de veiller à la garantie de la copie privée et à l’interopérabilité des mesures techniques de protection, c’est-à-dire de s’assurer qu’elles n’empêchent pas de lire les œuvres légalement acquises sur différents types de support.

 

33 991 en 2007 !

88917522f050dce4c9d4956614ae6b76.jpgLes premiers jours de janvier sont toujours le moment propice aux bilans sur l’année écoulée et il en existe de toutes sortes !

Celui que publie chaque année, Courrier International : « Le Monde en 2008 » (pour l’édition actuelle) est un modèle du genre, exemplaire à plus d’un titre. Ce numéro special que je parcoure chaque fin d’année avec toujours beaucoup d’intérêt nous livre à un large panorama de l’actualité de la planète. Intérêt et non des moindres, avec une vision un peu décalée, puisque provenant de la rédaction de « The Economist », institution de la presse britannique s’il en est ! La lecture de certains articles recèlent une saveur qui rappelle celle de l’assiette anglaise, l’émission de télé so british s’il en est, du regretté Bernard Rapp.

Là n’est pas le sujet, aujourd’hui  je m’en excuse auprès de mes fidèles lecteurs, je vais justement parler d’eux !Le blog « Entre Marne et Forêt »,  que j’anime depuis 2005, a l’an dernier franchit un nouveau cap, puisqu’il a enregistré prés de 34 000 visites (33 391 plus exactement).

Ce qui pour ce modeste blog, n’est pas si mal, non ?

Merci en tout cas à tous les internautes, pour certains lecteurs fidèles … Mais je vous propose d’aller un peu plus loin dans l’analyse, pour voir ce qui se cachent derrière ces chiffres de fréquentation ?

 

Trés rapidement, quelques données statistiques

 

 33 991 visites ont été enregistrées en 2007, dont prés de 19000 en lecteurs uniques (ce qui représente presque 100 visites jour, en comptant les périodes de vacances, peu propices pourtant à l’écriture et au surf, notamment en juillet, aout et décembre ).

Elément intéressant, prés de 80 000 pages ont été lues (soit une moyenne de 245 pages / jour), ce qui est considérable et atteste une réelle curiosité des visiteurs qui quelquefois remontent les liens proposés

 

Concernant la structure des notes.

Les notes sont organisées en 10 catégories  …en partant du nombre de notes consacrées à chaque thème, il est possible de tracer une esquisse de ce qu’est ce blog (ou plutôt de ce qu’il n’est pas), il est plutôt généraliste, ce qui pour un blog  un journal de bord d’élu local de proximité est dans la logique des choses …

Sur les 224 notes :

23% sont des réactions (coup de coeur, coup de sang olu coup de blues) à des évènements de toute nature (Instantannées), 18% consacrées à la commune dont je suis le Maire (j’essaie à chaque fois de ne pas avoir une analyse trop locale), 15% à l’environnement, prés de 13% à la politique, 7% au Pays de Meaux,prés de 6% au transport.
Pour le reste, en vrac : éducation (4%), Europe (3,5%), PS (4%), Web et Informatique (5%). Une note est en vidéo, celle du reportage de FR3 … 

 

Pour les commentaires 

Peu de commentaires, ont été enregistrés. En fait, il y a autant de commentaires, que de notes : 224 ! Constat ce sont les post, de la catégorie « politique » qui font débat … l’effet des présidentielles, trés certainement. Ce que je regrette un peu, pensant que la thématique environnementale devrait également être source de débat, comme celle des transports !

Au hit des commentaires : L’UMP, à l’heure des tontons flingueurs : 22, Après la vague bleue, confusion des pouvoirs ou non ? : 11, PS : une responsabilité : rebondir : 9, C’est un grand art que de vendre du vent : 9 , Agro carburant plutôt que Bio Carburant :  8

 

Et le Web 3.0 fut …

 

8f78599cd992f982d1a5285cdb6f7d06.jpg

A la fin des années 1980, T. Berners-Lee, ingénieur anglais travaillant au Cern, eu l’idée géniale d’associer différents ordinateurs disséminés dans le monde via le réseau Internet en utilisant des liens hypertextes. Innovation qui a radicalement transformé un simple réseau en un immense livre ouvert, constitué de milliards de pages reliées les unes aux autres par un simple clic de souris … Au bout du clic, la plage !

En 2004 O’reilly créé l’expression de Web 2.0 associant à internet l’idée d’un web  collaboratif et participatif : Wikipedia, Youtube, Flickr, Dailymotion en sont des principales réussites.
Évolution majeure, qui nous accompagne depuis. Elle vit actuellement une nouvelle transformation, qui nous permettra d’échapper au vertige informationnel, en retrouvant dans ce monde virtuel constitué de milliards de données entremêlés l’information utile comme de nouvelles perspectives …

Internet a pris une telle place dans nos vies, que beaucoup craignent désormais plus une coupure du réseau que d’eau ou d’électricité. Ce qui a été constaté lors de la panne de France télécom, comme par les demandes en très haut débit qui se multiplient dans nos villes.
Le paradoxe est que cette révolution bouleverse le monde et tous nso repères avec un vocabulaire et des mots simples et concrets, que comprendraient presque nos grands parents :  ouvrir sa boîte aux lettres, relever son courrier, envoyer des messages, posséder une adresse élecronique, visiter des sites … Des mots qui sont autant de métaphores et constituent en fait l’unique moyen de donner sens à des concepts sans réalité tangible.
Ramener Internet à un simple rôle fonctionnel correspond à une phase d’assimilation essentielle, et permet justement de ne pas se sentir trop perdu dans ce nouveau monde sans repères apparent …

 

Car attention, le Web 3.o risque de nous décoiffer grave …

 

 

07e849b009e641a3a31553c05e7f8043.jpg
 
 

Qu’est ce que le Web 3.0 ?

« Il y a une différence entre connaître le chemin, et arpenter le chemin »

“Le Web 3.0 est avant tout l’émergence de l’intelligence artificielle issue de l’intelligence collective » O’Reilly. Ce qu’on peut traduire en décodé par  « la force est dans le réseau », un air déjà connu puisque la vieille maxime dénommée “loi de Metcalfe”  (du nom du créateur du protocole Ethernet) stipulait que « L’utilité (la valeur ?) d’un réseau est proportionnelle au carré du nombre de ses utilisateurs », ce qui explique en partie l’incroyable envolée de bulle la spéculative qui s’est bâtie autour d’Internet avant d’exploser comme une bulle de savon en 2000 !

Pourtant, nous ne sommes plus très loin de cette réalité, le PageRank de Google, qui base ses statistiques sur la conduite des internautes en matière de liens, l’atteste.
O’reilly va plus loin, selon lui l’information proviendra de plus en plus de “sensors” (détecteurs, palpeurs), véritables artefacts de « l’homo internitus ». C’est du coup un monde virtuel déjà en place qui apparait, réservé pour l’instant  à une minorité d’élus (geek), comme quoi  “le futur est déjà là mais il n’est pas encore distribué équitablement.”.

Nouveau contexte qui a une traduction économique très concrète. Désormais de son ordinateur l’internaute peut créer de la richesse à partir de données numériques, le web dissocie matérialité et possibilité d’action, l’immatériel devenant un mode d’action au même titre que les objets matériels dans l’environnement quotidien.
La mobilité est une autre caractéristique de l’univers de plus en plus nomade des citoyens du village global et mondial, ils sont connectés en permanence au réseau, où qu’ils se trouvent !L’être humain de 2007 se retrouve et se développe désormais avec des « prothèses » qui sont autant de prolongements de lui-même : ordinateur, souris, téléphone portable, agenda électronique …

L’artefact devient un complément indispensable, quasimment au même titre qu’un membre ! Le risque de se dissoudre dans la Matrice, ce gigantesque monde informationnel qu’est Internet et qui peut nous happer apparait peu à peu …

 

L’être et l’avoir

« As-tu déjà fait un rêve Néo, qui te semblait si vrai ? Si tu ne pouvais pas sortir de ce rêve, Néo ? Comment distinguerais-tu le rêve de la réalité ? »

Internet induit une dématérialisation progressive de l’objet possédé (« l’avoir ») : un fichier (texte, image, son …) n’est même plus sur un support écrit, numérique,  ou sur un disque dur mais peut se retrouver à des milliers de kilomètres au bout d’un simple clic. La dématérialisation est de plus en plus totale.

La prochaine évolution concernera  « l’être ». Le concept de présence notamment est en mutation : la visio conférence va renaitre des cendres où certains l’avaient plongé trop rapidement ; mais dans une version beaucoup plus fun : grand écran avec image haute définition, son surround …
Le développement d’univers parallèles comme Second Life et ses avatars  vont avoir des répercussions insoupçonnées ! Les romans de science fiction et d’anticipation seront bientôt considérés au même titre que les ouvrages de Jules Verne aujourd’hui ! Les kilomètres et les frontières sont abolis dans un monde où l’instantané devient la règle. Le village mondial et global s’affranchit des kilomètres et des frontières. Nous sommes tous voisins dans une cité où nous avatars développeront des vies parallèles ..

 

Le rapport à la connaissance

« On n’est pas le meilleur quand on le croit, mais quand on le sait. »

Internet a transformé radicalement notre rapport au savoir. Une révolution copernicienne à l’onde de choc interminable … L’information n’est plus rare mais pléthorique, inerte mais interactive, monopolistique mais partagée et collaborative. Pourtant plus que jamais, il faut savoir … Mais les vecteurs du savoir sont désormais cognitifs et méthodologiques. Il faut avant tout et plus que tout savoir chercher, trouver, analyser, s’approprier, traiter et utiliser les ressources mises à disposition par la toile.

Le rôle de l’enseignement est central mais différent, porté sur les invariants et non plus sur les variables. Vieux débat, aujourd’hui tranché, l’essentiel n’est plus l’information apprise,  mais ce qu’elle structure mentalement.

D’autant que la transmission de connaissances n’est plus linéaire mais hypertextuelle (notion d’arbres de connaissances chère à Pierre Levy) et que l’étudiant se doit désormais de posséder les capacités d’organiser ses ballades dans le champ conceptuel à acquérir. Pourtant les outils pédagogiques sont quasiment identiques et les enseignements en ligne bâtis sur les mêmes structures que les enseignements traditionnels. La calsse virtuelle ou l’espace numérique de travail ne sont pour l’instant pas entré dans le monde du concret et du réel.

 

Web 3.0 comme 3eme culture ?

« Je ne peux que te montrer la porte. C’est à toi qu’il appartient de la franchir ».

Il y a fort à parier qu’Internet aura le même impact que l’écriture sur la pensée, les institutions et plus globalement sur notre civilisation. Car Internet intervient sur tous ces domaines qu’ils soient de mémorisation, d’analyse, de diffusion avec une différence de taille, la gratuité et le fait que chaque internaute peut bénéficier d’un  espace public d’expression autrefois limité à la seule sphère privée.
Des possibilités qui ébranlent tout l’édifice. Le « second pouvoir » culturel (médias, éditions) subit de plein fouet ce Tsunami qui devient une lame de fond et induit une baisse des ventes des libraires et des journaux… D’autant que l’internaute passe un temps croissant sur son ordinateur. Heureusement tous les secteurs du marché du livre et des journaux ne sont pas affectés de la même façon.

Cette révolution numérique entraînera t’elle  un nouveau processus de « destruction créatrice » , selon la formule de Schumpeter, nul ne le sait … encore …

 

« Je ne crois pas qu’il faille s’en remettre à l’espoir, conseiller,

je crois qu’il faut s’en remettre au temps »

 

 

 

 

Liens relatifs à cette thématique

Citations tirées de Matrix.  

 

6eme république ou Web 3.0 ?

 

Web 2.0, buzz, révélation ou révolution …

 

La réponse de Gutemberg à Google 

 

Le seigneur de la Matrice

 

Big brother is watching you !

 

Et surtout un site à visiter de temps à temps : Transnet de Pisani,

cet homme a déjà un pas de l’autre coté du miroir ! 

6eme république ou Web 3.0 ?

39e6ed5f0c776b7edc2df7a3f12a56e6.jpg

Google, Wikipédia ou You Tube ont transformé la vague  « Web 2.00 » (cf note précédente), en déferlante  … L’heure de la rupture a donc sonné dans le monde du Net et risque fort de se transformer d’ici peu en un vrai Tsunami qui bouleversera la vie de tous, internautes ou non (et qui ne le sera pas d’ailleurs ?) …
50 ans après l’apparition du 1er disque dur, « le RAMAC » (ou Random Access Method of Accounting and Control), et de ses 50 disques rotatifs pouvant stocker (et à quel prix !) 5 Mo d’information, tout juste quelques chansons pour un iPod, la planète Internet mue et s’affranchit allègrement de contraintes « terre à terre » qu’elles soient géographiques, temporelles, techniques ou juridiques, et qui concerne désormais la société dans sa globalité.

Cette révolution en marche ne peut laisser indifférents le monde politique, remettant en cause nos repères traditionnels jusqu’à ébranler certaines des fondations de notre organisation de vie; d’autant que l’essor de technologies apparu avec le Web 2.0 : applications en lignes, géo localisation, vidéo sur internet, blogs, Wiki  s’affranchit de contingences matérielles, administratives ou politiques essentielles.
Une globalisation qui avec ses avancées comme ses dommages collatéraux (délocalisation …) change la donne et amene les politiques à envisager de rénover en profondeur leur projet politique, à « changer de logiciel » comme ils disent de plus en plus fréquemment, une remarque à prendre désormais au propre comme au figuré.

 

Cette situation explique les nombreuses études et propositions faites aux différents candidats au moment des élections présidentielles, elles ont le mérite d’ouvrir le débat sur un sujet on ne peut plus d’actualité et à moyen terme réellement explosif …

 

 

b8873484970364d5b7f105fe6d4d9ac6.jpg

L’économie de l’immatériel est bien réelle désormais

Un nouveau modèle économique émerge,  avec ses règles, ses rites, ses fondamentaux et ses légendes, comme celle de Google (cf note précédente), qui en seulement huit ans, à partir d’un service gratuit, est devenue la marque mondiale la plus puissante, devant Microsoft et Coca-Cola.
Les nombreux services qu’elle propose à l’internaute, une vraie galaxie (Google Maps, Picassa,Gmail, Google talk, Blogger, Google desktop, You Tube …) reçoivent plus de 528 millions de visiteurs uniques par mois, audience en plein essor, surtout aprés l’acquisition de You Tube.
Goggle est désormais une puissance financière de tout premier plan, achetant les start up les plus prometteuses à prix d’or; son action est passée de 85 $ fin 2004 à plus de 500 $ aujourd’hui. Google contrôle, excusez du peu,  47 % de la recherche sur Internet aux USA, 70 % en Europe et chaque clic effectuée sur la planète dans une de ses pages, lui rapporte 11 cents.
Un rouleau compresseur qui n’est pas prêt de s’arrêter puisque après l’absorption de You Tube, Google s’est attaqué à la société Double Click, leader de la publicité en ligne. Un appétit qui inquiète internautes comme pouvoir politique …
Car la moindre recherche effectuée sur un de ses sites, lui permet de stocker des informations trés personnelles sur l’internaute (adresse IP de votre ordinateur, pages (URL) et sites visités, date et heure de connexion) durant prés de 2 ans et de tisser avec lui, à son insu mais de son plein gré, des liens invisibles mais réels qui lui permette de mieux le connaître (un vrai profilage) …
Derrière les « contenus personnalisés » proposés se cache en fait une technique dénommée « Behavioral targeting » dont le fleuron est … la société DoubleClick, leader de la publicité sur le Web, grâce à une technologie maison nommée DART (Dynamic Advertising Reporting and Targeting),  c’est dire tout l’intérêt pour Google que représente une telle acquisition ! 
 « Big Brother is watching you » … Certains régimes totalitaires en rêvaient, Google l’a fait !

Autre business plan envisageable pour un entrepreneur (le modèle You Tube) :  revendre son entreprise au plus vite en laissant à des sociétés telles Google, Microsoft le soin de la développer. Car dans ce monde cruel, une sélection naturelle s’opère sans merci parmi les start ups, au gré des mouvements de la vague et de ses tendances …
Mais les leçons du passé ont été bien retenues, les investisseurs diversifient désormais leurs placements et placent moins de capitaux qu’au moment de l’éclatement de la « bulle internet ».
Ce nouvel équilibre s’est stabilisé, avec des sources de revenus enfin diversifiées ne reposant plus sur la seule pub : services intermédiaires (Pay Pal, eBay …) destinés à sécuriser chaque transaction, apparition de sites payants (abonnements, transactions …), explosion du commerce par Internet (Amazon, FNAC …).

Le développement de la convergence (téléphone, internet et télé) démultiplie la puissance des entreprises du Web 2.0  qui s’affranchissent de toutes barrières traditionnelles et institutionnelles et suivent où qu’il aille le cyber citoyen …
Ce sont pourtant des colosses au pied d’argile qui dépendent des résultats des sociétés de mesure d’auditoire du Web, dont les constats font loi auprés des annonceurs, mais plus encore leur succés dépend de leur audience auprés des internautes (quantité et qualité). C’est dire l’importance essentielle que représente et la qualité du tuyau (haut puis très haut débit, notamment en DSL) et la confiance des internautes !

 

Et la France dans tout ça ?

Notre pays n’est pas dans ce domaine un pays d’excellence, loin s’en faut …
Si fin 2006, seulement 54,9 % des foyers français étaient équipés d’un micro-ordinateur et 44,3 % avaient accès à Internet ce taux atteint 70 % chez nos voisins les plus directs  …. Concernant le nombre de connexions à Internet, nous sommes en dessous de la moyenne européenne (51 %) derrière des pays comme la Slovénie, l’Autriche ou l’Estonie, mais à contrario bien positionné sur la couverture du territoire en haut débit puisque 98 % de la population nationale est couverte.
Là encore,a ttention, d’énormes disparités existent entre catégories socioprofessionnelles et territoires … Seulement 61 % des ouvriers, 35 % des personnes au foyer et 24 % des retraités disposent d’un ordinateur à la maison ; et dans 7 régions sur 22, moins de 40 % des foyers disposent d’un accès Internet à domicile.

Situation qui a suscité au moins deux études adressées aux candidats à l’élection présidentielle 

 Dans le rapport (« République 2.0 ») adressé à Ségolène Royal, Michel Rocard formule 94 propositions destinées à favoriser l’émergence d’une société de la connaissance ouverte (rapport disponible sur ce blog).
Citant Amartya Sen, il insiste sur le fait que l’extraordinaire espace de liberté qu’est Internet est surtout générateur par essence de capacités multiples qui sont autant de puissances d’agir. Il faut donc envisager internet comme une chance et non comme une menace.

L’ancien Premier Ministre préconise de transformer l’État en animateur stratégique, non seulement dans l’innovation et la recherche » mais également dans le soutien aux PME afin de créer les conditions « d’un écosystème favorable » : Business Angels, adaptation des dispositifs de type Small Business Investment Companies en France (SBIC sociétés investissant dans le capital de la start-up, et offrant un cofinancement sous forme d’obligations garanties par l’Etat) fonds de soutien spécifiques destinés aux jeunes pousses prometteuses, commandes publiques (notamment avec les logiciel libre), avantages fiscaux les encourageant à investir leurs bénéfices … C’est tout un panel de mesures qui est proposé afin de créer les Google de demain ou tout simplement des start ups nichées dans des niches bénéficiant des effets bénéfiques de la « longue traîne » décrit par Chris Anderson ..

Frein rencontré à cette émergence, le droit d’auteur. Michel Rocard recommande que la DADVSI soit réexaminée afin de concilier liberté des usages et rémunération de la création. Le numérique est devenu la clé de voûte indispensable de la création culturelle. ulture, et sonest générateur de profits grâce à l’existence de modes de financement croisés et complémentaires, garantissant la sécurité juridique des échanges et permettant de « fluidifier la gestion des droits ».
Il propose également de lutter contre une fracture numérique qui exclut de fait toujours plus certains publics fragilisés (chômeurs, personnes handicapées …) qui pour des raisons sociales, culturelles ou géographiques, ne peuvent accéder au haut débit ou s’approprier les nouvelles technologies.
L’objectif est de porter de 44% à 75% la part de foyers équipés d’un ordinateur et connectés à Internet. Certaines mesures sont proposées : création d’un tarif social de l’accès très haut débit à 5 euros par mois, instauration d’une fiscalité spécifique pour favoriser la donation d’ordinateurs … Devant les risques touchant à la personnalité et à l’individu (de type Big Brother) il préconise le renforcement des moyens de la CNIL et de son indépendance, afin d’instaurer un contrôle strict des fichiers de police et de sécurité et de remettre à plat le projet de carte d’identité biométrique. Dans le même ordre d’idées il défend l’idée d’un moratoire sur le vote électronique pour les élections politiques.

Le club de réflexion « Renaissance Numérique » composé d’experts du monde de l’entreprise et de l’université a également adressé aux candidats un livre blanc baptisé « 2010, l’Internet pour tous : 15 mesures pour réduire la fracture numérique en France »  avec l’objectif de réfléchir sur « les grandes évolutions de la société liées au développement du web. » pour changer la donne d’ici 2010 afin que 80 % des français soient équipés, formés et connectés à Internet (soit 9 millions d’internautes supplémentaires d’ici 3 ans),

Il préconise 5 axes d’actions prioritaires :

– Développer le taux d’équipement des foyers en ordinateur (donation d’ordinateurs usagés par les entreprises à leurs salariés, acquisition de PC recyclé à 99 euros, location d’ordinateurs neufs …)
– Mieux former les français en difficulté, lycéens, étudiants, TPE (très petites entreprises) en développant le passeport Internet, ou des formations aux nouvelles technologies de l’information et de la communication (NTIC) dans les entreprises lors de certaines périodes de RTT,
– Développer l’accès à des offres haut débit dans des territoires isolés ou pour certains publics,
– Combattre les freins psychologiques qui éloignent certains Français de l’informatique en entamant une large « campagne de communication et de sensibilisation ».
– Développer un modèle économique de société numérique, considérant la maîtrise de l’informatique et d’Internet, comme un besoin vital …

 

Au delà de la vague d’autres rivages à venir …

Quelques impressions personnelles pour compléter ces analyses de spécialiste tant du politique que du net, sur la nécessaire adéquation entre mode d’organisation politique de la société et mutation d’Internet  …  Car l’un peut également influer sur l’autre et réciproquement. Il faut : 

– Placer l’humain au coeur du système d’échange, la culture du libre choix (et non du monopole) est une des meilleures garanties pour que l’homme ne devienne un simple élément de la Matrice. Elle nécessite cependant la présence de contre pouvoirs influents (puissance publique notamment), l’affirmation de valueurs sociales et humanistes,

– Mettre Internet et sa formidable infrastructure au service de tous, quelque soit l’origine sociale, culturelle ou géographique du cyber citoyen … La typologie du réseau traduit sa finalité : est il outil d’exclusion de domination et d’asservissement ou outil d’épanouissement mutuel ? Pour paraphraser Jean Bodin, (« Il n’est de richesse que d’homme ») imaginons le potentiel d’une société dans laquelle chaque abonné est en capacité d’échanger avec le réseau et non seulement un consommateur asservi^,

– Prendre en compte le développement de mobilité des internautes, le Web 2.0 consacre un certain nomadisme, le réseau devant désormais s’adapter aux besoins de l’individu en mouvement, sans artefact, lui offrant même une certaine ubiquité …

 – Coopérer plutôt que se combattre, le Web 2.0 grâce aux standards ouverts et aux échanges collaboratifs le permet mais tout en restant vigilant; l’expérience de WIkipédia démontre  que si l’expertise peut être collective, chacun n’est pas par définition un expert (sinon la demagogie n’est pas loin …), rappeler que l’absence de contrôle donne lieu à des abus, des confusions et des erreurs, ce qui est gênant pour une encyclopédie ! Une des réponses apportée par un des fondateurs de Wikipedia dans son nouveau projet est de sécuriser les contenus en créant deux statuts de contributeurs : les « auteurs », et les « éditeurs », qui jouent le rôle de modérateur avec la capacité de modifier les articles ou les invalider.

Certaines valeurs essentielles  sont à défendre dans ce nouveau paradigme :

– L’équité afin que chacun ait la capacité d’accéder aux fruits des «arbres de la connaissance » en fonction de ses besoins, quitte à les enrichir selon la typologie rencontrée (peer to peer, wikis, réseau asymétrique …) …
– Le lien social (« social network ») et l’émergence de communautés,
– L’intégrité du réseau …

Au moment ou une nécessaire refondation politique est en cours afin de tenir compte de la réalité d’un nouveau monde, le politique ne doit pas oublier que son projet et sa grille de lecture de la société doit être globale et non parcellaire que ce soit pour le Développement Durable ou pour les outils de communication et de diffusion de la culture supportés par le Net …
Il faut tenir compte également des risques gravitant autour du Web 2.0, abordés dans cette note, du besoin de contre pouvoirs ayant la capacité d’action, de valeurs citoyennes forte, d’une réelle éthique et de la nécessaire vigilance face à l’omniprésence et la puissance de certaines entreprises désormais tentaculaires, enfin de la chance que représente pour notre pays la présence de ses infrastructures comme de son potentiel de formation, de création et culturel hors norme … 

La prochaine mutation pour le Web, pressenti par beaucoup de spécialistes sera celle du Web 3D, reposant sur un espace virtuel modélisé dont certains internautes ont déjà fait leur quotidien … Menant une double vie, au propre comme au figuré, avec leur avatars …

Mais cela est encore une autre histoire …

 

 

Notes précédentes sur cette thématique

Web 2.0, buzz, révélation ou révolution …

Big Google is watching you :
http://jmorer.hautetfort.com/archive/2005/11/12/google-to…

Google, No limit :
http://jmorer.hautetfort.com/archive/2005/11/01/googl…
Google, puissance 80 :
http://jmorer.hautetfort.com/archive/2005/09/21/googl…