Les télé travailleurs rêvent ils de télécentres « ubiques » ?

telecentre.jpgConstat banal : en vingt ans, internet a bouleversé modes de vies, repères culturels ou économiques, et l’appréhension même de la notion de temporalité.
La révolution numérique provoque une véritable «accélération dans l’accélération » rendant caduque les schémas traditionnels ayant rythmé nos vies depuis le XIXe siècle, et basés sur le concept d’unité de temps et de lieu.

Nous entrons dans une nouvelle dimension, marquée par le nomadisme croissant qui caractérise nos modes de vie actuels, mais aussi un autre phénomène : le citoyen d’aujourd’hui a la capacité d’être présent dans plusieurs lieux en simultanée, grâce notamment à lé technologie numérique, une véritable quadrature du cercle à la limite de la schizophrénie. Nous voici dans l’ère de l’ubiquité, du moins numérique ou virtuelle.

Nous renoue avec un vieux précepte, cher à Aristote : « La richesse consiste bien plus dans l’usage que dans la possession ». Théorie confortée par le développement du numérique et l’émergence de nouveaux modèles économiques basés sur le partage (usage ou temps d’utilisation). Ce bouleversement concerne les usages numériques mais également d’autres domaines comme celui des mobilités (vélo ou auto partage …).

Il est désormais possible d’amener son travail chez soi, de se déplacer en travaillant, ou encore de travailler à distance, grâce au « télétravail », ou « e-travail »; appellation  qui nous éloigne de la glorieuse époque du Minitel. Ce dernier revêt deux réalités différentes, selon qu’on le pratique à partir de son domicile ou de locaux dédiés (télécentre, coffee shop, coworking space …).

Il m’apparaît utile d’apporter quelques éléments de réflexion, avant de revenir dans un prochain billet sur l’étude menée par le Conseil Général de Seine et Marne, via son agence de développement économique, Seine et Marne Développement sur la thématique du télécentre, d’autant que, dans le cadre de l’éco quartier « L’Ancre de Lune », nous travaillons sur un projet similaire depuis plus d’un an.

Rappelons que malgré les appels d’offres de la DATAR des années 1990 («NTIC et services innovants pour l’aménagement du territoire», « Télétravail, nouvel aménagement du territoire » …), le e-travail reste peu développé en France. Ce concept n’est pas qu’une simple évolution technologique, mais bien  un véritable bouleversement des modèles organisationnels ou managériaux et codes sociaux en vigueur dans l’entreprise. Une mutation qui présente atouts et inconvénients mais surtout, beaucoup d’incertitudes, tant ses composantes sont multiples, voire systémiques, et liés à des questions techniques (équipement, infrastructures) mais aussi culturelles et sociales.

Des incertitudes qui interpellent …

Le « e travail » va-t-il pouvoir se développer ?
Si oui, est il utile de créer des télécentres ?
Ces derniers sont ils un effet de mode, une étape intermédiaire ou bien un modèle économique viable et pérenne ?

Continuer la lecture de « Les télé travailleurs rêvent ils de télécentres « ubiques » ? »

Danger : La fracture numérique s’élargit grave

culture_digitali_image.1223316089.jpgUne des tables rondes des 14èmes Assises de l’Association des Maires d’Ile-de-France, était consacrée à la fracture numérique chez les élus. Simple constat, entre les thèmes quasi futuristes abordés par les intervenants et le quotidien vécue par la grande majorité des internautes, l’écart s’élargit, quasiment similaire à celui existant entre réalité réelle et réalité virtuelle,  c’est dire !

Evacuons la problématique « élus » du débat, qu’il serait réducteur de limiter à la seule communication politique, même aprés l’irruption du Web 2.O et le développement vertigineux des réseaux sociaux et leurs avancées !  Un élu est un internaute consommateur comme un autre (besoins / frustation ) mais également un acteur qui a la capacité d’influer directement les politiques publiques. Ces dernières se doivent d’intégrer désormais, non seulement les avancées technologiques considérables du net, mais les mutations profondes qu’elles induisent. Il faut agir à la fois sur les contenus et les tuyaux !

Prochaine étape annoncée, l’internet mobile. Selon le cabinet Forrester, en 2013 il y aura plus de « mobinautes » que d’internautes. Bernard Benhamou, Délégué au Usages de l’Internet, estime que =ce nouveau contexte révolutionnera les usages et sera créateur d’emplois, car reposant sur des services de proximité difficilement délocalisables. Comme illustration, il a présenté «Proxima Mobile» premier portail de services d’intérêt général fédérant des applications gratuites accessibles depuis les téléphones mobiles.

Le smartphone en liant nomadisme, vidéo et géo localisation ouvre effectivement des perspectives de développement quasi infinies : localisation en temps réel, obtention d’informations actualisées relatifs aux points d’intérêts situés sur place ou à proximité (commerces, monuments …), ajout d’éléments virtuels (concept de réalité augmenté) …
Autant de champs d’applications qui impacteront directement et durablement territoires, éducation, loisirs et modes de pensée. Cette mutation rend la situation actuelle plus intolérable, car discriminatoire, d’autant que la notion même de haut débit diffère selon la perception de chacun : état, opérateurs, collectivités ou internautes …

Le Très Haut-Débit (ou THD) est désormais un passage obligé, au regard des usages émergents (visioconférence, télémédecine, travail à distance, développement du « cloud computing », voir plus loin) trés exigeant en bande passante. Bientôt, ce ne seront plus les hommes qui se déplaceront mais l’information !
En Ile de France le THD se limite pour l’heure à Paris et quelques communes des Hauts-de-Seine : densité de population, proximité des centres de décision, présence d’un réseau d’égouts (pour Paris) favorisent le déploiement de la fibre optique et le développement d’une offre privée concurrentielle attractive. Concernant le reste de la région, c’est un vrai désert avec tout juste quelques oasis numériques !

Nous sommes à des années lumière du Très Haut Débit pour tous … Pourtant ce déploiement est un enjeu politique vital les technologies de la connaissance et de l’information étant une des rares pistes de création de valeur ajoutée pour l’économie européenne.

Où en sommes nous ?

 

 

 

Le tableau ci dessous montre l’importance de la bande passante en matière de technologie de l’information. Derrière la qualité du « tuyau », son débit optimal, c’est en fait toute l’évolution d’internet qui est concerné …
Entre les premières connections d’un Internet balbutiant qui ne concernaient que du texte, les besoins d’aujourd’hui (musique, photos, fichiers …) et surtout de demain (images en haute définition), le futur se conjugant étrangement avec le présent, sont radicalement différents et les notions de Haut débit, Très Haut Débit déterminantes par bien des égards … encore faut il bien les définir.

 

telechargement.jpg

 

La norme « officielle » du haut débit en France est fixée à 512 Ko (soit le débit minima de l’ADSL). Elle ne satisfait plus l’internaute lambda depuis longtemps, et encore moins le professionnel, cette technologie ayant atteint visiblement ses limites. C’est pourtant trop souvent le seul débit accessible.

Pour le Très Haut débit, la situation est beaucoup plus délicate. Retenons comme valeur limite basse : 4 Mbps, ce débit étant compatible avec l’offre « triple-play » des opérateurs : téléphone, internet, télévision. Rappelons cependant qu’elle ne permet pas le téléchargement rapide de films, le multi tâches en simultanée (envoyer un fichier très lourd et écouter de la musique en »streaming »…) ou de visionner un film en Haute définition. Deux solutions techniques sont envisageables pour atteindre ce débit  :

  • Le FTTH (fiber to the home), qui revient à câbler en fibre optique du début à la fin, jusqu’à l’abonné. C’est la solution technique la plus performante et la plus pérenne mais elle implique le déploiement d’une nouvelle infrastructure.
  • La montée en débit, qui consiste à amener la fibre optique jusqu’au sous-répartiteur et d’accéder ainsi à la sous-boucle locale de France Télécom (lorsque celle ci est dégroupée) pour utiliser ensuite le réseau de cuivre jusqu’à l’abonné. Solution plus rapide à mettre en oeuvre et moins coûteuse, mais présentant l’inconvénient majeur de ne pas permettre de montée en charge à terme. Si agir sur la sous-boucle permet localement d’améliorer la situation, ce palliatif se révèle donc coûteux et ne peut s’envisager que là où il n’est pas possible d’envisager le FTTH à long terme. D’autant que la loi de modernisation de l’économie (LME) impose dés 2010 de pré-câbler en fibre optique les immeubles neufs (plus de 25 logements), et tous les logements collectifs en 2011. La fibre optique sera ainsi au même plan que le téléphone, l’eau ou l’électricité.

L’Internet à très haut débit va-t-il enfin être accessible rapidement au plus grand nombre ? Rien n’est moins sûr, vu les montants financiers en jeu. Selon la Datar, il faudrait entre 18 et 30 milliards d’euros pour desservir la France en Très haut débit.
En partant d’une hypothèse basse (les 18 milliards) 80% de la population serait desservi en FTTH (les zones urbaines), le reste du territoire étant couvert en technologies hertziennes (LTE/4G, dividende numérique…) ou autres. Une effort financier estimé tout de même à 500 millions d’euros par an sur quinze ans ! Dans ce cas de figure seuls 25% à 40% de la population aura accès à la fibre optique en 2014.

Concernant le déploiement, deux scénarios sont pour l’heure envisagées: un réseau par opérateur ou un réseau mutualisé. Dans ce cadre l’ARCEP a proposé de diviser le pays en trois zones: Zone 1 (plus de 5 millions de foyers) regroupant les « zones denses », objectif prioritaire des opérateurs privés du fait des couts de déploiement moins importants et des perspectives de rentabilité rapides, dans ce cas de figure seuls les derniers mètres (la partie verticale) seront mutualisés (guide de l’ARCEP), zone 2, « moyennement dense »,  dont le périmètre n’est pas encore fixé par les opérateurs, et la zone 3, « peu dense » pour laquelle seule l’intervention publique peut changer la donne selon les techniques alternatives.

Il est nécessaire cependant de relativiser les bénéfices attendus par le déploiement de la fibre optique dans les conditions actuelles du marché. Plus de dix-huit mois ont été nécessaire pour que France Télécom, SFR, Bouygues Telecom, Iliad et Numericable accordent leurs position afin d’établir un « cadre réglementaire » de déploiement de la fibre optique dans les zones les plus denses, pourtant les plus rentables a priori. C’est dire que le retour sur investissement n’est pas assuré

Concernant les zones 2 et 3, ne rêvons pas, pour faire simple, soit le déploiement est rentable pour les opérateurs privés à court terme, soit non. Dans ce dernier cas, les habitants ne peuvent compter que sur la seule puissance publique (Etat, collectivités …) pour agir. L’Etat à grand renfort de communication prévoit 2 milliards d’euros dans le cadre du fameux « grand emprunt » pour le déploiement de la fibre, ce chantier étant estimé par France Télécom, entre 20 et 40 milliards d’euros…

Déployer le THD zone par zone comme le suggère l’ARCEP, élargirait encore plus la fracture numérique entre « ville et campagne », seule une approche globale et coordonnée est indispensable afin de permettre de mutualiser les couts de déploiement et d’infléchir le modèle économique et d’intégrer des mesures de péréquation incontournables.

Autrement dit, les collectivités territoriales devront s’impliquer car le Très Haut débit représente un enjeu incontournable d’attractivité territoriale, une infrastructure « vitale » …

D’autant que le développement du THD mobile exige également une infrastructure appropriée afin d’assurer la montée en puissance exigées par les nouveaux besoins de l’internet mobile (débits de l’ordre de 100 Mega bitq à 1 gigabit/ seconde) ce que ne permet pas le 3G actuel contrairement au 4G. Débits qui ne pourront être atteints que par Wi Max ou les ondes libérées par le passage de la télévision analogique à la télévision numérique (le fameux « Dividende numérique ») via la TNT. Deux questions sont encore en suspens dans ce domaine : la couverture effective des territoires et le coté sanitaire (impact des ondes sur la santé).

 

Il est impératif de définir un véritable « Schéma Directeur Territoriaux d’Aménagement Numérique » qui intègre à la fois un mixt des solutions techniques adaptées comme de nouvelles clés de financement : subventions et garanties d’emprunt, incitations fiscales afin de privilégier la fibre sur le cuivre, meilleure rémunération au niveau des contenus de l’infrastructure …

Sans volonté politique et sans l’action résolue de la puissance publique (Etat comme collectivités), la France risque fort de voir la fracture numérique s’ élargir entre ville et campagne et prendre un retard dans son développement économique préoccupant.

 

 

Révolution numérique : parlons un peu tuyaux …

web-2.jpgMajoritaire en France, l’ADSL fait l’objet pourtant de critiques croissantes des internautes rêvant aux nouveau territoires virtuels promis par les opérateurs et obligés de se limiter au tortillard proposé par les communications actuelles (bande passante de 512 Ko).La frustration est désormais dans le fruit, ce qui signifie que le moteur qui anime notre société depuis le jardin d’Eden, est en marche, la situation devrait évoluer …

Ce ressenti est apparu nettement lors de la réunion organisée sur cette thématique et déjà abordé dans une note précédente. Selon le statut de chaque acteur, le sens de certains mots revêt une signification toute différente.
Pour l’opérateur historique et les textes officiels, le « haut débit » commence effectivement et contractuellement à 512 Ko, mais pour l’internaute désirant avoir droit au « triple play » (accés  à Internet, au téléphone et à la télévision avec la même connexion) ce débit est notoirement insuffisant, d’où controverse ….

L’enquête annuelle réalisée par le CREDOC sur la diffusion des technologies de l’information et de la communication en France en est l’illustration. Cette étude précieuse permet chaque année de dresser un état des lieux et d’analyser les tendances de fond d’un secteur particulièrement dynamique.

Constat, même si la situation progresse, les teintes du cliché sont toujours sépias. Le rythme de pénétration de l’internet dans les foyers se ralentit, mais la qualité de la connexion s’améliore peu à peu :  67 % des Français de plus de 18 ans disposent d’un ordinateur à domicile contre 64 % en 2007 et 58 % des personnes interrogées (contre 53 % en 2007) déclarent disposer d’une connexion internet. Le bas-débit (attention, inférieur à 512 Ko !) ne concerne plus que 2 % des Français. Mais la fracture numérique n’est pas seulement territoriale, elle est également générationnelle et sociale (ne sont connectés que 14 % des plus de 70 ans et un tiers des personnes disposant d’un revenu mensuel inférieur à 900 euro).

Pourtant force est de constater qu’internet est le réseau de communication dont la pénétration aura était la plus massive et rapide de notre histoire (20 fois que le téléphone, 10 fois que la radio, 3 fopis que la télé). Entre le début des années 2000 est aujourd’hui, la progression est fulgurante, paradoxalement cela ne suffit plus, la révolution des usages ayant été encore plus exponentielle !

La responsabilité d’un tel décalage est à chercher du coté de l’émergence du Web 2.0, dont un des déterminants est le développement des wikis. Ces outils collaboratifs transforment de fait l’internaute, hier passif, en producteur de contenus, dont pour certains multimédias. Contenus générant des besoins en « tuyauterie » croissants. L’intelligence collective ne se suffit plus de données textuelles ; illustration : la bande passante utilisée par You Tube en 2007, équivaut à celle du Net en … 2000 !

Nous sommes entrées dans le deuxième âge du web. Pour Tim O’Reilly, l’inventeur du terme Web 2.00 ;  « les données sont le nouvel Intel Inside » (data is the next Intel Inside) … Les flux de données que les « tuyaux » transportent sont désormais l’essentiel. Le point de rupture (tipping point) est atteint avec les nouvelles exigences des internautes … Nous ne sommes qu’au début d’un gigantesque big bang, celui de l’ère « connectée ». Une évolution des usages, qui en cette période de crise, arrive à point, tant elle aura des retombées économiques importantes … Le temps de la « longue traine » est arrivé encore faut il réaliser les investissements nécéssaires … Car pour qu’il y est du flux encore faut il que les tuyaux suivent …

Reparlons donc infrastructures, car il s’agit également de cela  …

 

 

 

HighTech.jpg L’ADSL, du transitoire qui dure

Aujourd’hui, les technologies ADSL montrent leurs limites : débits peu élevés, dégradation du signal en fonction de la distance entre répartiteur et usager (ce qui arrive à Trilport), déséquilibre entre débit descendant et débit montant (les internautes devenant fournisseurs de contenus, ils ont besoin de débit synchrone) et impossibilité de satisfaire à la demande croissante de connectivité nomade.

Situation qui amène les opérateurs à  déployer des réseaux basés sur les technologies radio ou optique. Mais cela demande du temps et des investissements considérables (voir note précédente) pour un bénéfice quasi nul : le prix de l’abonnement de base, étant identique, que le débit soit de 512 ko ou de 2Mo !
Ce qui explique la frilosité assumée des opérateurs. France Télécom dépositaire d’un réseau de cuivre tentaculaire met donc tout en œuvre trés logiquement pour exploiter le plus longtemps possible, l’infrastructure existante, pourtant non dédiée à l’origine au transport d’informations numériques à haut débit.

Rappelons que l’intervention publique n’est autorisée que pour les infrastructures dites passives (le réseau), et non pour les éléments dits actifs (répartiteur ou DSLAM) ou presque pas (zone d’ombre constatée) !

Les internautes devront donc faire preuve de patience, certaines solutions techniques devraient cependant poindre dans les prochaines semaines et permettront de pallier temporairement aux manques actuels :  nouvelles technologies boostant le signal transitant sur le cuivre, utilisation de fibre otique pour rapprocher les répartiteurs des usagers (type NRA ZO)  …  A ce sujet, il serait utile aux opérateurs et aux collectivités de savoir réellement où passent les différents réseaux de fibres installs (dont notamment ceux d’Orange).
Signe encourageant dans ce contexte, le nouveau positionnement d’Orange, désromais fournisseur de contenus télévisés et multimédias, il aura directement intérêt à ce que le trés haut débit arrive jusque chez les usagers (peut on encore les appeler internautes ?) afin d’équilibrer les investissements considérables entis dans ce domaine. Associer contenu et tuyaux, cela ne vous rappelle personne ? Le rêve de Jean Marie Messier (le maître du monde selon les guignols) commence à devenir réalité et c’est Orange qui le réalise !

AUjourd’hui en France, l’ADSL représente 95 % des accès Internet haut débit, 13 millions d’abonnés sur 13,7 millions d’abonnés « haut débit » (pour 15,9 millions d’abonnés au net) les technologies alternatives (filaires ou non) se développent cependant peu à peu. Cette situation constitue une exception Européenne, sur le continent les technologies alternatives représentant entre 20 à 30 % de parts de marché.

 

Vous avez dit FFTH (Fiber To The Home) ?

Chaque spécialiste l’admet, la fibre optique constitue l’avenir immédiat. Elle autorise des débits virtuellement illimités et n’est pratiquement pas sensible à la distance (pas ou peu de perte de signal). Il suffira de changer certains équipements actifs, pour atteindre des débits 10, 100 ou 1000 fois supérieurs à ceux obtenus aujourd’hui. A l’étranger, la desserte très haut débit par fibre optique a déjà pris de l’avance, surtout en Asie, Etats-Unis et Europe du Nord.

Principal obstacle rencontré, le cout du génie civil : tranchées, pose des fourreaux, pénétration dans les immeubles, qui est inversement proportionnel à la densité urbaine. Pourtant des solutions économiques existent : mutualisation des infrastructures (réseaux électriques aériens, réseaux de distribution d’eau et d’assainissement …). Le déploiement en aérien sur les infrastructures existantes permettrait de diminuer considérablement le coût de déploiement, ces réseaux présentant, entre autres caractéristiques, un maillage continu du territoire jusqu’à l’usager desservant la totalité des immeubles et maisons individuelles ; pour exemple, les réseaux aériens représentent 60 % du déploiement des réseaux en fibre optique aux USA, c’est grâce également à l’aérien que le Japon et la Corée du Sud ont développé leur réseau à faible coût : résultat  près des deux tiers des 30 millions de foyers fibrés sont en Asie. C’est notamment le sens de certaines pistes d’action proposés dans le rapport d’Eric Besson, « France Numérique 2012 ».

Encore faudrait-il pouvoir déjà utiliser les réseaux et les fourreaux existants ! Problème, aujourd’hui encore comme l’a fait remarquer lors de notre réunion le Vice Président du Conseil Général Bertand Caparroy, personne ne sait encore exactement où passent les fourreaux de France Télécom, la mutualisation des réseaux promise dans les textes de loi (loi sur la modernisation de l’économie, 2008) est encore à venir !

Autre pierre d’achoppement: la partie terminale, où comment atteindre jusqu’à chez eux les internautes. Deux technologies s’opposent : celle d’Orange et SFR, la monofibre (ou GPON, une seule fibre jusqu’au au pied de l’immeuble, se divisant ensuite pour atteindre chaque abonné), la multifibre, préconisée par Free, soit une fibre par abonné de bout en bout, ce qui permet de changer d’opérateur, et garantit les débits annoncés ; les deux solutions étant aujourd’hui bien évidemment incompatibles !

 

Téléphonie mobile ou fixe ?

Si l’utilisation du téléphone mobile poursuit sa progression, les utilisateurs d’appareils mobiles sont deux fois plus nombreux que les utilisateurs d’ordinateurs ; malgré l’augmentation des débits disponibles, la puissance des nouveaux terminaux,  les nouveaux services proposés, utiliser son téléphone portable pour surfer sur internet, n’est toujours pas une réalité française ! 6 % des possesseurs de téléphone portable déclarent l’utiliser pour aller sur Internet, 2 % s’en servent pour regarder la télé. Contrairement au Japon ou à la Corée, le premier moyen d’accéder à l’internet, n’est plus le PC mais le téléphone mobile !

Il faut dire que le réseau 3G + n’est pas déployé sur tout le territoire, loin s’en faut, puisqu’elle ne concerne que 70% du territoire avec des débits très variables !

Pourtant constat paradoxal : autant la téléphonie mobile progresse, autant 2008 marque le retour de la téléphonie fixe (85 % de la population). Conséquence du développement des offres « triple play » qui nécessitent une ligne fixe : 17 % des Français déclarent recevoir la télévision par ADSL contre seulement 10 % l’année dernière. Evolution intéressante lorsqu’on la compare à la part de marché de la réception hertzienne, qui représente désormais moins de 70% !

Dans ce domaine cependant, un sujet fait controverse, celui du risque sanitaire ptentiel causer par les antennes. Rien d’établi pour l’instant, mais cette question exige prudence et circonspection de la part des différents acteurs. Il est important que le débat se déroule sur des bases claires, afin que toute la lumière soit faite sur ces questions qui mêlent développement des territoires, enjeux économiques et risques sanitaires, qu’il s’agisse d’ailleurs des infrastructures de transport (antennes) ou des terminaux de réception et d’émission (les portables).

 

Et la TNT, quel rapport avec Internet ?

La télévision traverse une période de mutation profonde : au niveau des médias, avec la multiplication des écrans (télévision, ordinateurs fixes et portables, consoles de jeux,…), avec la diversification des modes de diffusion, l’amélioration de la qualité de l’image, et surtout les nouveaux modes de consommation : décalée (télévision de rattrapage sur internet), à la demande (Video-on-Demand), ou nomade (sur les téléphones) …  Une période qui trouvera son point de rupture en novembre 2011 avec le basculement généralisé du pays vers la diffusion numérique et la TNT et  l’extinction de la diffusion analogique.

Ce processus a une conséquence insoupçonnée, concernant directement Internet. Il permettra de libérer des fréquences basses, utilisées pour l’instant par la diffusion de la télévision hertzienne, présentant des caractéristiques de propagation exceptionnelles, le fameux « dividende numérique ». Précision, les fréquences actuellement utilisées par la 3G, sont moins performantes que celles de la 2G, en termes de propagation.

Un moment attendu impatiemment par les opérateurs Car les fréqeunces libérées (sous-bande (790-862 MHz), seront affectée à l’accès Internet haut débit. Ce sont les fréquences les plus basses, donc les plus performantes selon les spécialistes

 

Nouveaux usages, attention décollage

Le Web 2.0 » fait des internautes des co producteurs. Désormais c’est plus de 3 millions d’internautes français qui surfent sur le net comme créateurs de contenus et non plus comme simples visiteurs,

Internet sera ce que l’on en fera, le web étant le produit des effets de réseaux Plus exactement ce qu’en feront les générations qui sont nées avec (« digital natives ») … Car ce sont les usages qui font internet et la nouvelle génération d’internaute rêves de contrées inaccessibles à leurs parents.

Nous entrons, progressivement dans l’ère du « toujours connecté » (always on), les nouveaux usages apportés par le web 2.00, ne sont que le prélude à une véritable révolution, que nous aborderons dans une prochaine note …. .

Pourtant, la fracture numérique est toujours présente : générationnelle, sociale et géographique. Si plus de 1,3 milliard de personnes ont accès à l’internet fin 2007 (six mois auparavant, ils étaient à peine plus d’un milliard), à peine 2,9 % de la population africaine est connectée, 3,7 % pour l’Inde, 12,3 % pour la Chine et 19,8 % pour l’Amérique latine …

 

 

 

Mini abécédaire

ADSL (Asymetric Digital Subscriber Line) : C’est l’une des nombreuses technologies DSL (SDSL, VDSL, HDSL…), qui permet d’utiliser le réseau téléphonique classique pour relier l’abonné à Internet de manière permanente, rapide et sans occuper la ligne téléphonique. Elle nécessite l’installation d’un appareillage électronique (DSLAM ou multiplexeur DSL) dans le central téléphonique dont dépend l’abonné.

Armature de collecte : Appelée également « Dorsale » ou « Backbone », l’armature de collecte relie les boucles locales, centralise les flux de télécommunication et assure l’interconnexion avec les réseaux nationaux et transnationaux. Ces armatures sont constituées de fibres optiques le plus souvent, mais également de faisceaux hertziens.

ARCEP, est l’autorité administrative indépendante chargé de réguler la concurrence dans le secteur des télécommunications afin de permettre l’entrée de nouveaux acteurs et le développement d’une concurrence. Elle joue un rôle clé dans un secteur en pleine transition concurrentielle. En favorisant la mise en place du dégroupage et l’investissement des alternatifs dans les infrastructures, elle a permis le développement du haut débit que notre pays connaît depuis cinq ans.

Boucle locale : Élément d’un réseau de télécommunications desservant directement l’abonné. Appelé également « dernier kilomètre », il s’agit le plus souvent du fil téléphonique en cuivre entre l’abonné et le central téléphonique de France Télécom. Mais il s’agit également de toute la zone desservie par une technologie hertzienne (GSM, UMTS, boucle locale radio, Wi-Fi, Wi-Max…). BLR, Wi-Fi, UMTS, Wi-Max : Boucle Locale Radio (BLR), Wireless-Fidelity (Wi-Fi), UMTS, Wi-Max : principales technologies permettant de relier l’abonné au réseau de l’opérateur par voie hertzienne, elles nécessitent l’implantation d’une antenne par l’opérateur sur un point élevé d’un territoire, et une autre antenne chez l’abonné.

Courant Porteur en Ligne (CPL) : Technologie qui permet de transmettre des télécommunications par le réseau électrique classique.

Débit : Le débit, ou bande passante, sert à mesurer la vitesse de transmission des données. L’unité de mesure est le nombre de bits (données) par seconde. Elle s’écrit « bit/s » ou « bps ».

1 kilo bit par seconde (1 Kbit/s) = 1000 bits par seconde,

1 Méga bit par seconde (1 Mbit/s) = 1000 kilo bit par seconde,

1 Giga bit par seconde (1 Gbit/s) = 1000 Méga bit par seconde.

Débits asymétriques : De nombreuses technologies offrent un débit parfois rapide pour la réception de données, mais encore très faible pour l’envoi de données. Cela concerne l’ADSL, mais aussi le satellite, le câble… Ainsi, l’ADSL 512 indique que la réception peut atteindre 512 Kbit/s, tandis que l’émission s’élève au mieux à 128 Kbit/s.

Dégroupage : Une ligne téléphonique est dégroupée lorsque le service d’accès Internet et éventuellement téléphonique est apporté par un opérateur autre que France Télécom. Il faut pour cela que ce nouvel opérateur ait ses propres installations dans le central téléphonique. Le dégroupage permet de faire passer des services nouveaux, des débits plus élevés, et ce, à des coûts souvent moindres pour l’utilisateur final.

Faisceau hertzien : Technologie de collecte dite de « point à point », c’est à dire ne permettant pas de desservir l’abonné, mais transférant d’un émetteur à un récepteur des volumes de données très importants, sans travaux lourds de génie civil.

Fibre optique : Technologie très ancienne pour les réseaux de collecte (backbone), mais nouvelle pour la desserte de l’abonné. Peu développée encore en France, l’infrastructure optique de bout en bout (FTTB ou FTTH) se généralise partout progressivement, car elle permet des débits très élevés, dont la limite n’est pas encore connue. Sa mise en oeuvre nécessite en revanche très souvent d’importants travaux de génie civil.

Fournisseur d’accès Internet (FAI) : Ce terme désigne les sociétés spécialisées proposant au minimum à leurs abonnés une connexion à Internet, une adresse de messagerie, un hébergement de site personnel et un portail (page d’accueil) pour naviguer sur Internet. La plupart des FAI proposent de nombreux autres services, dont certains sont payants.

Haut débit : les prestataires de services de télécommunications appellent « haut débit » l’envoi de données plus rapide que le modem RTC ou numéris, et « très haut débit » tout débit supérieur à 1 Méga bits par seconde. Il n’y a pas encore de normalisation mondiale pour une définition technique uniforme du bas, moyen, haut et très haut débit. En Europe, les catégories retenues concernent des débits exclusivement symétriques :

Moins de 128 Kbit/s = bas débit,

Entre 128 Kbit/s et 2 Mbit/s = moyen débit,

Entre 2 Mbit/s et 10 Mbit/s = haut débit,

Plus de 10 Mbit/s = très haut débit

Satellite : Technologie de collecte par voie hertzienne, souple d’utilisation, mais dont l’abonnement reste très cher, et qui souffre d’un temps de latence (décalage entre l’envoi et la réception des données) qui limite son utilisation pour de nombreux services ou applications.

xDSL Le terme DSL ou xDSL signifie Digital Subscriber Line (Ligne numérique d’abonné) et regroupe l’ensemble des technologies mises en place pour un transport numérique de l’information sur une simple ligne de raccordement téléphonique. (source comment ca marche.com)

WiFi Un réseau sans fil (en anglais wireless network) est, comme son nom l’indique, un réseau dans lequel au moins deux terminaux (ordinateur portable, PDA, etc.) peuvent communiquer sans liaison filaire. Grâce aux réseaux sans fil, un utilisateur a la possibilité de rester connecté tout en se déplaçant dans un périmètre géographique de quelques dizaines de mètres. (source comment ca marche.com)

WIMAX Le WiMAX est une technologie hertzienne de transmission de données à haut débit. Elle permet notamment de surfer sur Internet en haut débit, de téléphoner (VoIP), ou encore d’interconnecter des réseaux d’entreprises. Contrairement à l’ADSL ou une autre technologie filaire, le WiMAX utilise les ondes radio, tout comme vous utilisez déjà la radio avec votre téléphone portable. (source Altitudetelecom.fr)

 

SEM@FOR 77 : La révolution numérique est en marche …

haut-debit.jpg

Courant novembre, deux évènements locaux se sont entre croisés, à priori sans rapport, mais annonciateur pourtant d’un bouleversement considérable et in fine intrinsèquement liés, nous y reviendrons dans une prochaine note, car le sujet est vaste.

L’un est la mise en route de SEMAFOR 77, le réseau d’initiative publique lancé par le Conseil général, l’autre l’inauguration de la TNT « tout numérique » à Coulommiers ! C’est de Brie que notre pays débute la longue marche qui la mènera dans trois ans (novembre 2011) à la télévision tout numérique et à l’extinction de la diffusion analogique sur l’ensemble de son territoire.

L’Internet haut débit est aujourd’hui, comme l’eau ou l’électricité, un fluide essentiel. Y accéder, c’est accéder à la vie (information, éducation, formation, culture, loisirs, e commerce, formalités administratives …), ne pas y accéder c’est en être exclu.
Pourtant aujourd’hui non seulement les taux de couverture de la population à l’Internet à haut débit (512 Ko) sont insuffisants, mais 2 % de la population française n’est pas desservie. Résultat des courses, 1 à 2 millions de Français se retrouvent physiquement exclus de la société de l’information !

Cette réalité se mêlant aux inégalités d’accés constatées en Seine et Marne et à l’inévitable fracture numérique des territoires en découlant, ont amené le Conseil général a s’impliqué dans l’aménagement numérique du département. C’est ce que Bertrand Caparroy Vice Président à l’aménagement numérique est venu présenter à Trilport lors d’une réunion publique à laquelle participait également M Bregnard de France Télécom, nous y reviendrons bientôt, car cette réunion fut vive, intéressante, instructive et pas langue de bois …

Depuis la loi du 21 juin 2004 pour La Confiance en l’Economie Numérique, les collectivités locales peuvent intervenir dans les  infrastructures de télécommunications et créer des réseaux d’initiative publique qui représentent désormais 40 % des accès dégroupés et occupent un rôle prépondérant dans le développement du haut débit : près de 2 milliards d’euros d’investissement global, public et privé y ont été investis ! L’Autorité de régulation des communications électroniques et des postes (ARCEP) recensait en septembre 2008 102 projets de réseaux d’initiative publique, dont 85 pro jets majeurs couvrant chacun plus de 60 000 habitants et 56 projets en exploitation.

Ces collectivités, dont notre Conseil Général, ont lancé des projets d’aménagement de réseaux de fibre optique afin d’irriguer le territoire, relier les bassins de vie (agglomérations, zones d’activités), interconnecter les nœuds des réseaux des opérateurs et régler la difficile question des zones d’ombre (sans accés au haut débit). Car l’inégalité des territoires est avant tout essentiellement économique : investissement effectué ou pas dans de nouveaux équipements et infrastructures. Lorsque cela n’est pas rentable (nombre d’usagers / poids financier de l’infrastructure) les différents opérateurs, y compris l’historique, sont aux abonnés absents, préférant se concentrer dans les zones à même d’assurer un retour sur investissement rapide.

POur les entreprises privées, vive l’intervention publique, elle est en partie la seule solution, l’unique levier de changement, cela ne vous rappelle rien ?
Les collectivités territoirales, inutile de chercher l’Etat, investissent en lieu et place des opérateurs privés. C’est ce qu’a fait le Conseil Général de Seine et Marne, avec l’aide de la Région (pour 15 millions €) en lançant une délégation de Service Public sur 20 ans destinée à créer et gérer un réseau de fibre optique déployé sur l’ensemble du département : SEM@FOR 77.

Quiproquo pourtant.
Lorsqu’il parle haut débit, l’internaute pense aujourd’hui à 4 ou 8 voir 12 mega; alors que l’étalon actuel pour l’opérateur est fixé à 512 Ko. D’où problème … Le haut débit a fait exploser les usages en quelques années, mais l’arrivée du très haut débit incite à ne plus se poser la question des usages mais de permettre l’émergence des services de demain… Ce sont les usages qui sont désormais à l’avant pointe notamment avec la diffusion des contenus multimédias !

Tout cela risque encore de s’accélérer d’ici quelques mois …

Présentation de SEM@FOR 77 et de son importance pour notre territoire  …

 

REUNION-PUBLIQUE.jpg

Le trés haut débit, enjeu essentiel du développement économique

L’économie numérique représente désormais plus de 25 % de la croissance mondiale, chaque investissement dans ce secteur accroit la compétitivité de l’ensemble de l’économie du fait des gains directs et indirects de productivité générés.

Pourtant en France, l’investissement y est deux fois plus faible qu’aux États-Unis, et trois fois plus faible que les pays d’Europe du Nord, au Japon ou en Corée. Plus grave encore, 50 %  des entreprises françaises sont connectées à l’Internet haut débit, 30 % disposent d’un site Internet et 2,5 % seulement des entreprises ont un site capable d’effectuer des transactions et du e business. Pour faire image, 500 000 petites et moyennes entreprises sont toujours déconnectées de l’économie numérique!

Internet fait émerger de nouveaux modes d’organisation du travail dont le télétravail, trop peu développé dans notre pays est une illstration. les télétravailleurs ne représentent que 7 % de la population active, contre 13 % en moyenne en Europe et 25 % aux États-Unis. Au regard de la crise que nous affrontons, le télétravail présente bien des avantages : allègement des charges de structure, réduction des déplacements domicile / entreprise pour les salariés, respect de l’environnement (sur les gaz à effet de serre du fait des transports économisés). Son développement d’ailleurs lié à celui des TGV peut à terme influer l’aménagement des terrtioires, et dévongestionné quelque peu les métropoles !

Constat : les nouveaux usages de l’Internet sont particulièrement consommateurs en débit : systèmes de sites miroirs (sécurisation), applications en mode hébergé, solutions de stockage et de ressources partagées, télé surveillance, visio conférence, partage de fichiers multimédia en ligne, télévision à la demande, haute définition, sauvegarde de données en ligne …  Ces tâches nécessitent des débits sans cesse croissants. Accéder à ces nouveaux usages est d’ores et un facteur clef de compétitivité dans le concert planétaire. Les grands pays développés se sont résolument lancés vers le très haut débit, au Japon et en Corée du sud, la fibre optique représente déjà 25 % des accès Internet, plu prés de nous en Europe, cinq pays (Suède, Danemark, Pays-Bas, Italie, Norvège) concentrent à seuls près de 96 % des abonnés aux réseaux en fibre optique…
La multiplication des données numériques fait appel à des services toujours plus perfectionnés, qui s’orientent paradoxalement vers une concentration des infrastructures (centralisation des pôles de gestion, de commuication ou de décision) , une externalisation des applications propres au fonctionnement interne (décentralisation d’activités, travail en partenariat à distance),  un nomadisme croissant et une approche « tout réseau » des outils informatiques qui permettent d’augmenter fconsidérablement productivité et efficacité  (synchronisation, synergie, flux tendu …).

Exemple, le domaine de l’imagerie, qu’elle soit de loisir ou médicale, le développement de la robotique, de la télé assistance, permettent l’émergence de nouvelles applications métier aux conséquencs spectaculaires : consultation médicale à distance (télémédecine) et opération chirurgicale, suivi du processus de production, gestion en flux tendu des stocks, traitement intelligent d’images, interconnexion de bureaux d’étude (maquette numérique partagée) …

Ces applications demandent des interconnexions performantes : fiabilité, débits disponibles, services liés à l’offre de connexion (sécurisation, temps de rétablissement,…). Non seulement la place des technologies de l’information et de la communication (TIC) devient incontournable et essentielle dans les usages et métiers des entreprises, mais le très haut débit, est devenu une condition sine quanun de l’attractivité d’un territoire.

 

Un RIP Seine et Marnais : SEM@FOR 77

Plus de 100 réseaux d’initiative public (ou RIP) sont recensés par l’ARCEP qui estime ce bilan largement positif, les RIP étant à l’origine de 30% des dégroupages et ont permis de lancer des infrastructures qui sans eux n’auraient pas encore vu le jour. C’est cette solution qu’a retenue le Conseil Général de Seine et Marne pour développer le haut débit, puis le trés haut débit sur le département.

Le concessionnaire choisi, SEMAFOR 77, est une société composée de trois opérateurs privés (VINCI Networks, Marais et COVAGE) et co financé par le départemnt et la Région (pour un peu moins de 50%). Le Conseil général a fixé quatre objectifs principaux :
– Connecter 100% des foyers Seine et Marnais à l’ADSL à haut débit (512 Kbps ) grâce à l’utilisation de différentes technologies (filaire, hertziennes …),
– Agir pour que toutes les communes Seine et Marnaises soient situées à moins de 10 km du réseau de fibre optique,
– Permettre à 100% des professionnels d’avoir accès à 2 Mbps symétriques (haut débit) minimum,
– Développer la concurrence entre Fournisseurs  d’Accés à Internet (FAI) afin de permettre l’augmentation des débits, les services proposés aux usagers et une baisse des prix des services, grâce au dégroupage de l’ensemble des neouds de raccordement seine et marnais.

Deux impératifs qui ne sont pas des détails, loin s’en faut : le délégataire ne peut pas vendre de services directement aux usagers mais à des opérateurs ou fournisseurs d’accès internet aux mêmes conditions et i fine au terme de la concession, le délégataire rétrocèdera l’intégralité des équipements et infrastructures créés au département.

En faisant appel à un prestataire externe, le conseil général s’est assuré la construction d’un réseau ambitieux dans des délais express et à des coûts raisonnables.
SEM@FOR77 prend en charge plus de la moitié de l’investissement initial (44 millions € sur les 74 millions €), au 30 novembre 2008, près de 1200 kilomètres de fibres optiques ont été déployés en complément d’autres technologies permettant d’atteindre 100% de couverture pour la Seine et Marne.
Dans le désordre : 197 zones d’activités sont désoormais raccordées en fibre, 150 autres desservies en WiMax ou en xDSL dégroupé, 534 autres sites publics sont connectés au réseau, les autres desservies en WiMax ou en xDSL dégroupé, 99 % des lignes téléphoniques seine-et-marnaises dégroupées, 73 collèges publics sont raccordés en fibre optique comme la quasi-totalité des bâtiments du Conseil général (Directions, UAS, ART…) , les autres sites étant raccordés par d’autres technologies.

Concrètement la fibre optique s’est arrêté à Trilport, dans la zone d’activité. Ne reste plus aux entreprises qu’à s’y connecter moyennant rétribution du prestataire, quelqu’il soit (pour les tarifs se rapprocher de SEMAFOR 77)..

Le backbone principal est posé, ne reste plus maintenant qu’à lui permettre de déployer « ses ailes » … Que la capillarité soit, afin que le trés haut débit irrigue nos territoires. Le Conseil Général a lancé un groupe de réflexion sur lcette thématique afin d ‘étudier la prochaine étape, de prendre les bonnes décision, de bien conseiller les collectivités (communes, intercommunalités) qui à un moment donné prendront le relais.

Il faudra également réfléchir à un schéma global d’aménagement des infrastructures numériques afin de rendre l’ensemble le pls complémentaire possible et de permettre au réseau de croitre peu à peu. Verifiera t’on la loi dite de « Metcalfe » ? (ce n’est pas un personnage d’Harry Potter). Une des lois qui a ponctué l’histoire de l’informatique (se souviens t’on encore de celle de Moore sur les micro processeurs) à l’origine de la bulle internet, et trés certainement une des lois fondatrices de a nouvelle économie : « la valeur d’un réseau croît avec le carré du nombre de ses utilisateurs »

C’est tout le mal qu’on souhaite à SEMAFOR 77, en espérant surtout que trés rapidement mes données viennent y faire un tour, au moins elles iront aussi vite que la lumière, cela prouvera de plus que ce réseau n’est pas réservé aux seuls entreprises mais concernent également tous les internautes …

Game is over !!!

 

Dans une prochaine note, outre un mini abécédaire, utile, la différence entre ADSL et FFTH …et les dilemmes de l’opérateur historiques …

 

L’état du Net …

8aaebe3bb8bb162a2c5d106eb9783e4d.jpgPhénomène majeur de la fin du XXème siècle, la révolution internet bouleverse nos économies et nos sociétés, cumulant les bouleversements entrainés par l’apparition de l’imprimerie et de la machine à vapeur.
Trois repères chronologiques pour s’en convaincre  : 1985 : un millier d’utilisateurs, 1994 (date symbolique s’il en est) 2 millions, 2007 près de 1,250 milliard d’utilisateurs ; et le plus incroyable, reste à venir  

Le réseau informatique imaginé par les militaires américains en pleine guerre froide capable de résister à une attaque nucléaire irrigue désormais toute la planète. Particularité : il repose sur le principe d’un maillage dépourvu de centre … La force est bien dans la matrice …

Trois problèmes majeurs cependant :

Cette croissance exponentielle ne doit pas être l’arbre qui cache la forêt, les inégalités de connectivité et d’accès à internet augmentent et la fracture numérique devient à l’échelle de la planète un problème majeur.

La multiplication des usages qui s’affranchissent allègrement des frontières territoriales et des repères sociétaux rendent nécessaire l’évolution du droit, au plan national, mais surtout international,

Enfin la gouvernance d’internet, qui pour des raisons historiques est sigulière, pose problème, ne reposant pas sur des instances multilatérales solides.

Le dossier réalisé par la Documentation Française (téléchargeable sur ce blog dans la partie des documents : « L’état du Monde numérique ») fait un point utile sur ces questions, et plus encore rappelant l’histoire de l’Internet, les débats et enjeux en suspens et dressant une photographie de la situation planétaire actuelle de ce média  …

 

 

Rappel des épisodes précédents

 

A la base les principes de fonctionnement d’Internet sont simples :

5f18fe703b4eb4202f0a9f5f0409feca.jpgLe moteur d’Internet est un protocole de communication  très simple (le fameux TCP/IP comme« Transmission Control Protocol/Internet Protocol », élaboré en 1974 par Vinton Cerf) qui a la capacité de relier ordinateurs et réseaux quelque soit le système d’exploitation utilisé , permettant à la tour de Babel que constitue la toile mondiale de fonctionner sans anicroche.

L’autre grande force d’Internet est sa facilité d’usage. Les internautes surfent de page en page en cliquant sur des liens, s’affranchissant ainsi de toute limite physique. C’est le World Wide Web, créé par Tim Berners-Lee, qui reposant sur la logique révolutionnaire de l’hypertexte.

Depuis … c’est la déferlante … Une expansion planétaire sans précédent amplifiée  par la convergence de l’informatique, de l’audiovisuel et des télécommunications utilisant tous et simultanément les tuyaux du système.

Les services de toute nature se multiplient : messagerie, forums, blogs, télé travail, commerce électronique, médias, diffusion d’images fixes, de fichiers audio et vidéo et apparaissent tous les jours. C’est un véritable mouvement perpétuel alimentée par une évolution technologique permanente : développement du haut débit, filaire ou non, de l’internet mobile, l’ère de l’internaute nomade est arrivée ! Le Web 2.00 renouvelle les modes d’usages et d’appropriation. Les utilisateurs font vivre désormais la toile et la rende réactive et active dans les deux sens (RSS, blogs, wikis, outils de partage de photos, de videos…).

Pourtant la Matrice est un géant aux talons d’argiles, et ce depuis sa création. Sa gouvernance est pour le moins particulière, une originalité qui s’explique par ses origines universitaires.

1992 création de l’Internet Society (ISOC), cette organisation américaine à but non lucratif coordonne le développement des réseaux informatiques dans le monde.

1994, Le World Wide Web Consortium ou W3C est placé sous la responsabilité du Massachussets Institute of Technology (MIT) aux Etats-Unis et de l’Institut national de recherche d’informatique et d’automatique (INRIA) en France.

1998, la gestion du DNS (Domain Name System) est confiée à une organisation californienne de droit privé, l’Internet Corporation for Assigned Names and Numbers (ICANN). Le DNS permet de convertir l’adresse IP (adresse numérique attribuée à chaque ordinateur) en noms compréhensibles, le nom de domaine. l’ICANN qui organise leur attribution reste sous contrôle du département américain du Commerce.

Cette concentration de pouvoir est à l’origine de tensions internationales multiples car le contrôle de cette infrastructure est déterminant : en choisissant ou non d’attribuer un nom de domaine, il détermine l’accès à internet, c’est le sésame indispensable.

 

Qui est le maître de la matrice ?

bac00f526b62a0da027a2099d61eb7ba.jpgAucune autorité centrale, ne régule le système, sinon les USA ; situation inacceptable pour nombre de pays. Si à l’origine Internet était surtout utilisé par les américains, ce n’est plus le cas aujourd’hui, loin s’en faut ! La communauté internationale s’interroge sur la régulation et la gouvernance d’internet (sommet de Genève en décembre 2003, sommet de Tunis en novembre 2005).

La création du Forum sur la gouvernance d’Internet (IGF), devrait permettre de jeter les bases d’une nouvelle architecture : « multilatérale, transparente et démocratique » afin de mettre les différents états sur un pied d’égalité ; mais cette instance n’a toujours aucun pouvoir décisionnaire.

Les Nations unies travaillent à la mise en place d’une structure internationale chargée de l’administration globale du réseau qui pourrait permettre d’éviter une fragmentation de la toile mondiale en myriades de réseaux centralisés. Le risque : maîtriser le tuyau et son contenu et remettre ainsi en cause le principe de neutralité sur lequel repose les fondements d’internet.

Une volonté exprimée par certains États pour des raisons de contrôle politique évidents, mais également par des opérateurs privés de télécommunication (surtout américains) désirant remettre en cause le principe de séparation entre transport et traitement des informations.

Le réseau est par essence neutre, il se limite à transporter les informations sans les modifier. L’instauration d’une tarification spécifique selon le type de données, leur volume ou vitesse de transfert (utilisé par la téléphonie) auraient indirectement une incidence sur la diffusion des contenus et des applications

Une fracture numérique croissante

6c088df3eff2f806f92e4cd33c297509.jpg

La fracture numérique s’aggrave et devient de plus en plus globale (accès, usage, contenu…). Paradoxe incroyable : Internet est  d’autant plus cher qu’il est lent. Si le prix moyen d’un accès haut débit sur la planète est de 27,59 dollars mensuels, ce prix varie selon les latitudes et les pays.

Le continent le plus pénalisé est l’Afrique. Moins de 4% des Africains ont accès à l’internet, D’après la Banque mondiale, les coûts de connexion y sont les plus chers du monde : entre 250 et 300 dollars par mois. ». L’ONU estime que le lancement d’un véritable  « Plan Marshall » est nécessaire pour ce continent si l’on veut fournir un accès universel d’ici à 2012. 

Au niveau européen, des disparités existent … l’écart s’élargit entre « connectés » et « exclus » de la société de l’information.Des écarts liés à l’âge (seulement 10% des personnes au-delà de 65 ans utilisent internet contre 68% des 16-24 ans), l’éducation (seulement 24% des personnes ayant un bas niveau d’éducation utilisent internet, contre 73% des personnes ayant un niveau d’éducation supérieur) ou la profession (seulement 32% des sans-emplois utilisent internet contre 54% des personnes employées)  (Demunter, 2005). […]

Mais la fracture s’aggrandit également entre les pays. Selon les chiffres de la Commission, « l’écart entre le pays où la pénétration du haut débit est la plus élevée (le Danemark, avec 37,2%) et celui où elle est la plus faible (la Bulgarie, avec 5,7%) s’est légèrement accru et dépasse désormais 30 points de pourcentage.

 

  

Le droit d’internet

 

9eada9b7ded7429e59082d3588a3b50d.jpg

Le Tsunami Internet  submerge les règles de droit et  se révèle devenir une vraie opportunité pour l’apparition de nouvelles formes de délinquance « immatérielles », un maelström se révélant problématique pour les juridictions nationales.

La  « cybercriminalité » selon la Commission européenne regroupe trois catégories d’activités criminelles : traditionnelles (fraude informatiques, fausses cartes de paiement bancaires …), diffusion de contenus illicites (violence sexuelle exercée contre des enfants, incitation à la haine raciale …), infractions technologiques ( attaques virales, piratage …)

Cette situation s’explique par les origines d’internet, qui au début ne reliait que les membres d’une même communauté (universitaire). Depuis la toile mondiale est devenu un marché économique en expansion continue, sur lequel circule beaucoup d’argent. La sécurité des communications  et la protection des données personnelles sont devenue essentielle, ces dernières constituent un marché très rémunérateur.

La Commission nationale de l’informatique et des libertés (CNIL, créée en 1978) n’y suffit plus. L’Union européenne a  bien adopté en octobre 1995 la directive 95/46/CE, le texte de référence, au niveau européen, en matière de protection des données à caractère personnel qui établit un équilibre entre un niveau élevé de protection de la vie privée des personnes et la libre circulation des données à caractère personnel au sein de l’Union européenne.

La multiplication des possibilités de reproduire et diffuser des contenus culturels sur internet conduit à une remise en cause du droit d’auteur, perçu d’ailleurs différemment selon les continents. Le développement des réseaux d’échange de fichiers de pair-à-pair (P2P) a considérablement aggravé cette situation. La mise en commun de contenus numérisés de toute nature  (textes, audio, vidéo et logiciels) entre plusieurs individus sans transiter par un serveur central rend possible  la diffusion légale d’œuvres non protégées

Au-delà des dispositions répressives, d’autres solutions sont à l’étude :

Les systèmes numériques de gestion des droits (les Digital Right Management Systems, DRMS) permettent de contrôler la distribution d’œuvres en ligne (achat, limitation du nombre de copies …) et permettent d’envisager la mise en place d’offres légales en ligne. Mais ce système est critiqué car générateur de contraintes  techniques

La possibilité de donner accès librement aux œuvres moyennant une compensation financière versée aux ayants droit (licence légale) mais de nombreux inconnues se présentent : taux à appliquer, clé de répartition …

La mise à disposition gratuite d’œuvres avec le consentement de leurs auteurs est une autre tendance.

Le cas de la France, la loi DADVSI

La loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI), adoptée le 1er août 2006 est la transposition française de la directive européenne sur le droit d’auteur. Elle est positionnée clairement comme favorable aux DRMS malgré l’opposition de nombreux internautes, associations de consommateurs et interprètes favorables à la licence globale.

Ce texte légalise les dispositifs de protection anti-copie pour les auteurs et les ayants droit qui diffusent leur œuvre sur internet (brouillage, cryptage, application d’un code d’accès, etc…) destinées à empêcher ou limiter les utilisations non autorisées par le titulaire d’un droit.  La loi prévoit la création d’une Autorité de régulation des mesures techniques (ARMT) chargée de veiller à la garantie de la copie privée et à l’interopérabilité des mesures techniques de protection, c’est-à-dire de s’assurer qu’elles n’empêchent pas de lire les œuvres légalement acquises sur différents types de support.

 

33 991 en 2007 !

88917522f050dce4c9d4956614ae6b76.jpgLes premiers jours de janvier sont toujours le moment propice aux bilans sur l’année écoulée et il en existe de toutes sortes !

Celui que publie chaque année, Courrier International : « Le Monde en 2008 » (pour l’édition actuelle) est un modèle du genre, exemplaire à plus d’un titre. Ce numéro special que je parcoure chaque fin d’année avec toujours beaucoup d’intérêt nous livre à un large panorama de l’actualité de la planète. Intérêt et non des moindres, avec une vision un peu décalée, puisque provenant de la rédaction de « The Economist », institution de la presse britannique s’il en est ! La lecture de certains articles recèlent une saveur qui rappelle celle de l’assiette anglaise, l’émission de télé so british s’il en est, du regretté Bernard Rapp.

Là n’est pas le sujet, aujourd’hui  je m’en excuse auprès de mes fidèles lecteurs, je vais justement parler d’eux !Le blog « Entre Marne et Forêt »,  que j’anime depuis 2005, a l’an dernier franchit un nouveau cap, puisqu’il a enregistré prés de 34 000 visites (33 391 plus exactement).

Ce qui pour ce modeste blog, n’est pas si mal, non ?

Merci en tout cas à tous les internautes, pour certains lecteurs fidèles … Mais je vous propose d’aller un peu plus loin dans l’analyse, pour voir ce qui se cachent derrière ces chiffres de fréquentation ?

 

Trés rapidement, quelques données statistiques

 

 33 991 visites ont été enregistrées en 2007, dont prés de 19000 en lecteurs uniques (ce qui représente presque 100 visites jour, en comptant les périodes de vacances, peu propices pourtant à l’écriture et au surf, notamment en juillet, aout et décembre ).

Elément intéressant, prés de 80 000 pages ont été lues (soit une moyenne de 245 pages / jour), ce qui est considérable et atteste une réelle curiosité des visiteurs qui quelquefois remontent les liens proposés

 

Concernant la structure des notes.

Les notes sont organisées en 10 catégories  …en partant du nombre de notes consacrées à chaque thème, il est possible de tracer une esquisse de ce qu’est ce blog (ou plutôt de ce qu’il n’est pas), il est plutôt généraliste, ce qui pour un blog  un journal de bord d’élu local de proximité est dans la logique des choses …

Sur les 224 notes :

23% sont des réactions (coup de coeur, coup de sang olu coup de blues) à des évènements de toute nature (Instantannées), 18% consacrées à la commune dont je suis le Maire (j’essaie à chaque fois de ne pas avoir une analyse trop locale), 15% à l’environnement, prés de 13% à la politique, 7% au Pays de Meaux,prés de 6% au transport.
Pour le reste, en vrac : éducation (4%), Europe (3,5%), PS (4%), Web et Informatique (5%). Une note est en vidéo, celle du reportage de FR3 … 

 

Pour les commentaires 

Peu de commentaires, ont été enregistrés. En fait, il y a autant de commentaires, que de notes : 224 ! Constat ce sont les post, de la catégorie « politique » qui font débat … l’effet des présidentielles, trés certainement. Ce que je regrette un peu, pensant que la thématique environnementale devrait également être source de débat, comme celle des transports !

Au hit des commentaires : L’UMP, à l’heure des tontons flingueurs : 22, Après la vague bleue, confusion des pouvoirs ou non ? : 11, PS : une responsabilité : rebondir : 9, C’est un grand art que de vendre du vent : 9 , Agro carburant plutôt que Bio Carburant :  8