Et le Web 3.0 fut …

 

8f78599cd992f982d1a5285cdb6f7d06.jpg

A la fin des années 1980, T. Berners-Lee, ingénieur anglais travaillant au Cern, eu l’idée géniale d’associer différents ordinateurs disséminés dans le monde via le réseau Internet en utilisant des liens hypertextes. Innovation qui a radicalement transformé un simple réseau en un immense livre ouvert, constitué de milliards de pages reliées les unes aux autres par un simple clic de souris … Au bout du clic, la plage !

En 2004 O’reilly créé l’expression de Web 2.0 associant à internet l’idée d’un web  collaboratif et participatif : Wikipedia, Youtube, Flickr, Dailymotion en sont des principales réussites.
Évolution majeure, qui nous accompagne depuis. Elle vit actuellement une nouvelle transformation, qui nous permettra d’échapper au vertige informationnel, en retrouvant dans ce monde virtuel constitué de milliards de données entremêlés l’information utile comme de nouvelles perspectives …

Internet a pris une telle place dans nos vies, que beaucoup craignent désormais plus une coupure du réseau que d’eau ou d’électricité. Ce qui a été constaté lors de la panne de France télécom, comme par les demandes en très haut débit qui se multiplient dans nos villes.
Le paradoxe est que cette révolution bouleverse le monde et tous nso repères avec un vocabulaire et des mots simples et concrets, que comprendraient presque nos grands parents :  ouvrir sa boîte aux lettres, relever son courrier, envoyer des messages, posséder une adresse élecronique, visiter des sites … Des mots qui sont autant de métaphores et constituent en fait l’unique moyen de donner sens à des concepts sans réalité tangible.
Ramener Internet à un simple rôle fonctionnel correspond à une phase d’assimilation essentielle, et permet justement de ne pas se sentir trop perdu dans ce nouveau monde sans repères apparent …

 

Car attention, le Web 3.o risque de nous décoiffer grave …

 

 

07e849b009e641a3a31553c05e7f8043.jpg
 
 

Qu’est ce que le Web 3.0 ?

« Il y a une différence entre connaître le chemin, et arpenter le chemin »

“Le Web 3.0 est avant tout l’émergence de l’intelligence artificielle issue de l’intelligence collective » O’Reilly. Ce qu’on peut traduire en décodé par  « la force est dans le réseau », un air déjà connu puisque la vieille maxime dénommée “loi de Metcalfe”  (du nom du créateur du protocole Ethernet) stipulait que « L’utilité (la valeur ?) d’un réseau est proportionnelle au carré du nombre de ses utilisateurs », ce qui explique en partie l’incroyable envolée de bulle la spéculative qui s’est bâtie autour d’Internet avant d’exploser comme une bulle de savon en 2000 !

Pourtant, nous ne sommes plus très loin de cette réalité, le PageRank de Google, qui base ses statistiques sur la conduite des internautes en matière de liens, l’atteste.
O’reilly va plus loin, selon lui l’information proviendra de plus en plus de “sensors” (détecteurs, palpeurs), véritables artefacts de « l’homo internitus ». C’est du coup un monde virtuel déjà en place qui apparait, réservé pour l’instant  à une minorité d’élus (geek), comme quoi  “le futur est déjà là mais il n’est pas encore distribué équitablement.”.

Nouveau contexte qui a une traduction économique très concrète. Désormais de son ordinateur l’internaute peut créer de la richesse à partir de données numériques, le web dissocie matérialité et possibilité d’action, l’immatériel devenant un mode d’action au même titre que les objets matériels dans l’environnement quotidien.
La mobilité est une autre caractéristique de l’univers de plus en plus nomade des citoyens du village global et mondial, ils sont connectés en permanence au réseau, où qu’ils se trouvent !L’être humain de 2007 se retrouve et se développe désormais avec des « prothèses » qui sont autant de prolongements de lui-même : ordinateur, souris, téléphone portable, agenda électronique …

L’artefact devient un complément indispensable, quasimment au même titre qu’un membre ! Le risque de se dissoudre dans la Matrice, ce gigantesque monde informationnel qu’est Internet et qui peut nous happer apparait peu à peu …

 

L’être et l’avoir

« As-tu déjà fait un rêve Néo, qui te semblait si vrai ? Si tu ne pouvais pas sortir de ce rêve, Néo ? Comment distinguerais-tu le rêve de la réalité ? »

Internet induit une dématérialisation progressive de l’objet possédé (« l’avoir ») : un fichier (texte, image, son …) n’est même plus sur un support écrit, numérique,  ou sur un disque dur mais peut se retrouver à des milliers de kilomètres au bout d’un simple clic. La dématérialisation est de plus en plus totale.

La prochaine évolution concernera  « l’être ». Le concept de présence notamment est en mutation : la visio conférence va renaitre des cendres où certains l’avaient plongé trop rapidement ; mais dans une version beaucoup plus fun : grand écran avec image haute définition, son surround …
Le développement d’univers parallèles comme Second Life et ses avatars  vont avoir des répercussions insoupçonnées ! Les romans de science fiction et d’anticipation seront bientôt considérés au même titre que les ouvrages de Jules Verne aujourd’hui ! Les kilomètres et les frontières sont abolis dans un monde où l’instantané devient la règle. Le village mondial et global s’affranchit des kilomètres et des frontières. Nous sommes tous voisins dans une cité où nous avatars développeront des vies parallèles ..

 

Le rapport à la connaissance

« On n’est pas le meilleur quand on le croit, mais quand on le sait. »

Internet a transformé radicalement notre rapport au savoir. Une révolution copernicienne à l’onde de choc interminable … L’information n’est plus rare mais pléthorique, inerte mais interactive, monopolistique mais partagée et collaborative. Pourtant plus que jamais, il faut savoir … Mais les vecteurs du savoir sont désormais cognitifs et méthodologiques. Il faut avant tout et plus que tout savoir chercher, trouver, analyser, s’approprier, traiter et utiliser les ressources mises à disposition par la toile.

Le rôle de l’enseignement est central mais différent, porté sur les invariants et non plus sur les variables. Vieux débat, aujourd’hui tranché, l’essentiel n’est plus l’information apprise,  mais ce qu’elle structure mentalement.

D’autant que la transmission de connaissances n’est plus linéaire mais hypertextuelle (notion d’arbres de connaissances chère à Pierre Levy) et que l’étudiant se doit désormais de posséder les capacités d’organiser ses ballades dans le champ conceptuel à acquérir. Pourtant les outils pédagogiques sont quasiment identiques et les enseignements en ligne bâtis sur les mêmes structures que les enseignements traditionnels. La calsse virtuelle ou l’espace numérique de travail ne sont pour l’instant pas entré dans le monde du concret et du réel.

 

Web 3.0 comme 3eme culture ?

« Je ne peux que te montrer la porte. C’est à toi qu’il appartient de la franchir ».

Il y a fort à parier qu’Internet aura le même impact que l’écriture sur la pensée, les institutions et plus globalement sur notre civilisation. Car Internet intervient sur tous ces domaines qu’ils soient de mémorisation, d’analyse, de diffusion avec une différence de taille, la gratuité et le fait que chaque internaute peut bénéficier d’un  espace public d’expression autrefois limité à la seule sphère privée.
Des possibilités qui ébranlent tout l’édifice. Le « second pouvoir » culturel (médias, éditions) subit de plein fouet ce Tsunami qui devient une lame de fond et induit une baisse des ventes des libraires et des journaux… D’autant que l’internaute passe un temps croissant sur son ordinateur. Heureusement tous les secteurs du marché du livre et des journaux ne sont pas affectés de la même façon.

Cette révolution numérique entraînera t’elle  un nouveau processus de « destruction créatrice » , selon la formule de Schumpeter, nul ne le sait … encore …

 

« Je ne crois pas qu’il faille s’en remettre à l’espoir, conseiller,

je crois qu’il faut s’en remettre au temps »

 

 

 

 

Liens relatifs à cette thématique

Citations tirées de Matrix.  

 

6eme république ou Web 3.0 ?

 

Web 2.0, buzz, révélation ou révolution …

 

La réponse de Gutemberg à Google 

 

Le seigneur de la Matrice

 

Big brother is watching you !

 

Et surtout un site à visiter de temps à temps : Transnet de Pisani,

cet homme a déjà un pas de l’autre coté du miroir ! 

6eme république ou Web 3.0 ?

39e6ed5f0c776b7edc2df7a3f12a56e6.jpg

Google, Wikipédia ou You Tube ont transformé la vague  « Web 2.00 » (cf note précédente), en déferlante  … L’heure de la rupture a donc sonné dans le monde du Net et risque fort de se transformer d’ici peu en un vrai Tsunami qui bouleversera la vie de tous, internautes ou non (et qui ne le sera pas d’ailleurs ?) …
50 ans après l’apparition du 1er disque dur, « le RAMAC » (ou Random Access Method of Accounting and Control), et de ses 50 disques rotatifs pouvant stocker (et à quel prix !) 5 Mo d’information, tout juste quelques chansons pour un iPod, la planète Internet mue et s’affranchit allègrement de contraintes « terre à terre » qu’elles soient géographiques, temporelles, techniques ou juridiques, et qui concerne désormais la société dans sa globalité.

Cette révolution en marche ne peut laisser indifférents le monde politique, remettant en cause nos repères traditionnels jusqu’à ébranler certaines des fondations de notre organisation de vie; d’autant que l’essor de technologies apparu avec le Web 2.0 : applications en lignes, géo localisation, vidéo sur internet, blogs, Wiki  s’affranchit de contingences matérielles, administratives ou politiques essentielles.
Une globalisation qui avec ses avancées comme ses dommages collatéraux (délocalisation …) change la donne et amene les politiques à envisager de rénover en profondeur leur projet politique, à « changer de logiciel » comme ils disent de plus en plus fréquemment, une remarque à prendre désormais au propre comme au figuré.

 

Cette situation explique les nombreuses études et propositions faites aux différents candidats au moment des élections présidentielles, elles ont le mérite d’ouvrir le débat sur un sujet on ne peut plus d’actualité et à moyen terme réellement explosif …

 

 

b8873484970364d5b7f105fe6d4d9ac6.jpg

L’économie de l’immatériel est bien réelle désormais

Un nouveau modèle économique émerge,  avec ses règles, ses rites, ses fondamentaux et ses légendes, comme celle de Google (cf note précédente), qui en seulement huit ans, à partir d’un service gratuit, est devenue la marque mondiale la plus puissante, devant Microsoft et Coca-Cola.
Les nombreux services qu’elle propose à l’internaute, une vraie galaxie (Google Maps, Picassa,Gmail, Google talk, Blogger, Google desktop, You Tube …) reçoivent plus de 528 millions de visiteurs uniques par mois, audience en plein essor, surtout aprés l’acquisition de You Tube.
Goggle est désormais une puissance financière de tout premier plan, achetant les start up les plus prometteuses à prix d’or; son action est passée de 85 $ fin 2004 à plus de 500 $ aujourd’hui. Google contrôle, excusez du peu,  47 % de la recherche sur Internet aux USA, 70 % en Europe et chaque clic effectuée sur la planète dans une de ses pages, lui rapporte 11 cents.
Un rouleau compresseur qui n’est pas prêt de s’arrêter puisque après l’absorption de You Tube, Google s’est attaqué à la société Double Click, leader de la publicité en ligne. Un appétit qui inquiète internautes comme pouvoir politique …
Car la moindre recherche effectuée sur un de ses sites, lui permet de stocker des informations trés personnelles sur l’internaute (adresse IP de votre ordinateur, pages (URL) et sites visités, date et heure de connexion) durant prés de 2 ans et de tisser avec lui, à son insu mais de son plein gré, des liens invisibles mais réels qui lui permette de mieux le connaître (un vrai profilage) …
Derrière les « contenus personnalisés » proposés se cache en fait une technique dénommée « Behavioral targeting » dont le fleuron est … la société DoubleClick, leader de la publicité sur le Web, grâce à une technologie maison nommée DART (Dynamic Advertising Reporting and Targeting),  c’est dire tout l’intérêt pour Google que représente une telle acquisition ! 
 « Big Brother is watching you » … Certains régimes totalitaires en rêvaient, Google l’a fait !

Autre business plan envisageable pour un entrepreneur (le modèle You Tube) :  revendre son entreprise au plus vite en laissant à des sociétés telles Google, Microsoft le soin de la développer. Car dans ce monde cruel, une sélection naturelle s’opère sans merci parmi les start ups, au gré des mouvements de la vague et de ses tendances …
Mais les leçons du passé ont été bien retenues, les investisseurs diversifient désormais leurs placements et placent moins de capitaux qu’au moment de l’éclatement de la « bulle internet ».
Ce nouvel équilibre s’est stabilisé, avec des sources de revenus enfin diversifiées ne reposant plus sur la seule pub : services intermédiaires (Pay Pal, eBay …) destinés à sécuriser chaque transaction, apparition de sites payants (abonnements, transactions …), explosion du commerce par Internet (Amazon, FNAC …).

Le développement de la convergence (téléphone, internet et télé) démultiplie la puissance des entreprises du Web 2.0  qui s’affranchissent de toutes barrières traditionnelles et institutionnelles et suivent où qu’il aille le cyber citoyen …
Ce sont pourtant des colosses au pied d’argile qui dépendent des résultats des sociétés de mesure d’auditoire du Web, dont les constats font loi auprés des annonceurs, mais plus encore leur succés dépend de leur audience auprés des internautes (quantité et qualité). C’est dire l’importance essentielle que représente et la qualité du tuyau (haut puis très haut débit, notamment en DSL) et la confiance des internautes !

 

Et la France dans tout ça ?

Notre pays n’est pas dans ce domaine un pays d’excellence, loin s’en faut …
Si fin 2006, seulement 54,9 % des foyers français étaient équipés d’un micro-ordinateur et 44,3 % avaient accès à Internet ce taux atteint 70 % chez nos voisins les plus directs  …. Concernant le nombre de connexions à Internet, nous sommes en dessous de la moyenne européenne (51 %) derrière des pays comme la Slovénie, l’Autriche ou l’Estonie, mais à contrario bien positionné sur la couverture du territoire en haut débit puisque 98 % de la population nationale est couverte.
Là encore,a ttention, d’énormes disparités existent entre catégories socioprofessionnelles et territoires … Seulement 61 % des ouvriers, 35 % des personnes au foyer et 24 % des retraités disposent d’un ordinateur à la maison ; et dans 7 régions sur 22, moins de 40 % des foyers disposent d’un accès Internet à domicile.

Situation qui a suscité au moins deux études adressées aux candidats à l’élection présidentielle 

 Dans le rapport (« République 2.0 ») adressé à Ségolène Royal, Michel Rocard formule 94 propositions destinées à favoriser l’émergence d’une société de la connaissance ouverte (rapport disponible sur ce blog).
Citant Amartya Sen, il insiste sur le fait que l’extraordinaire espace de liberté qu’est Internet est surtout générateur par essence de capacités multiples qui sont autant de puissances d’agir. Il faut donc envisager internet comme une chance et non comme une menace.

L’ancien Premier Ministre préconise de transformer l’État en animateur stratégique, non seulement dans l’innovation et la recherche » mais également dans le soutien aux PME afin de créer les conditions « d’un écosystème favorable » : Business Angels, adaptation des dispositifs de type Small Business Investment Companies en France (SBIC sociétés investissant dans le capital de la start-up, et offrant un cofinancement sous forme d’obligations garanties par l’Etat) fonds de soutien spécifiques destinés aux jeunes pousses prometteuses, commandes publiques (notamment avec les logiciel libre), avantages fiscaux les encourageant à investir leurs bénéfices … C’est tout un panel de mesures qui est proposé afin de créer les Google de demain ou tout simplement des start ups nichées dans des niches bénéficiant des effets bénéfiques de la « longue traîne » décrit par Chris Anderson ..

Frein rencontré à cette émergence, le droit d’auteur. Michel Rocard recommande que la DADVSI soit réexaminée afin de concilier liberté des usages et rémunération de la création. Le numérique est devenu la clé de voûte indispensable de la création culturelle. ulture, et sonest générateur de profits grâce à l’existence de modes de financement croisés et complémentaires, garantissant la sécurité juridique des échanges et permettant de « fluidifier la gestion des droits ».
Il propose également de lutter contre une fracture numérique qui exclut de fait toujours plus certains publics fragilisés (chômeurs, personnes handicapées …) qui pour des raisons sociales, culturelles ou géographiques, ne peuvent accéder au haut débit ou s’approprier les nouvelles technologies.
L’objectif est de porter de 44% à 75% la part de foyers équipés d’un ordinateur et connectés à Internet. Certaines mesures sont proposées : création d’un tarif social de l’accès très haut débit à 5 euros par mois, instauration d’une fiscalité spécifique pour favoriser la donation d’ordinateurs … Devant les risques touchant à la personnalité et à l’individu (de type Big Brother) il préconise le renforcement des moyens de la CNIL et de son indépendance, afin d’instaurer un contrôle strict des fichiers de police et de sécurité et de remettre à plat le projet de carte d’identité biométrique. Dans le même ordre d’idées il défend l’idée d’un moratoire sur le vote électronique pour les élections politiques.

Le club de réflexion « Renaissance Numérique » composé d’experts du monde de l’entreprise et de l’université a également adressé aux candidats un livre blanc baptisé « 2010, l’Internet pour tous : 15 mesures pour réduire la fracture numérique en France »  avec l’objectif de réfléchir sur « les grandes évolutions de la société liées au développement du web. » pour changer la donne d’ici 2010 afin que 80 % des français soient équipés, formés et connectés à Internet (soit 9 millions d’internautes supplémentaires d’ici 3 ans),

Il préconise 5 axes d’actions prioritaires :

– Développer le taux d’équipement des foyers en ordinateur (donation d’ordinateurs usagés par les entreprises à leurs salariés, acquisition de PC recyclé à 99 euros, location d’ordinateurs neufs …)
– Mieux former les français en difficulté, lycéens, étudiants, TPE (très petites entreprises) en développant le passeport Internet, ou des formations aux nouvelles technologies de l’information et de la communication (NTIC) dans les entreprises lors de certaines périodes de RTT,
– Développer l’accès à des offres haut débit dans des territoires isolés ou pour certains publics,
– Combattre les freins psychologiques qui éloignent certains Français de l’informatique en entamant une large « campagne de communication et de sensibilisation ».
– Développer un modèle économique de société numérique, considérant la maîtrise de l’informatique et d’Internet, comme un besoin vital …

 

Au delà de la vague d’autres rivages à venir …

Quelques impressions personnelles pour compléter ces analyses de spécialiste tant du politique que du net, sur la nécessaire adéquation entre mode d’organisation politique de la société et mutation d’Internet  …  Car l’un peut également influer sur l’autre et réciproquement. Il faut : 

– Placer l’humain au coeur du système d’échange, la culture du libre choix (et non du monopole) est une des meilleures garanties pour que l’homme ne devienne un simple élément de la Matrice. Elle nécessite cependant la présence de contre pouvoirs influents (puissance publique notamment), l’affirmation de valueurs sociales et humanistes,

– Mettre Internet et sa formidable infrastructure au service de tous, quelque soit l’origine sociale, culturelle ou géographique du cyber citoyen … La typologie du réseau traduit sa finalité : est il outil d’exclusion de domination et d’asservissement ou outil d’épanouissement mutuel ? Pour paraphraser Jean Bodin, (« Il n’est de richesse que d’homme ») imaginons le potentiel d’une société dans laquelle chaque abonné est en capacité d’échanger avec le réseau et non seulement un consommateur asservi^,

– Prendre en compte le développement de mobilité des internautes, le Web 2.0 consacre un certain nomadisme, le réseau devant désormais s’adapter aux besoins de l’individu en mouvement, sans artefact, lui offrant même une certaine ubiquité …

 – Coopérer plutôt que se combattre, le Web 2.0 grâce aux standards ouverts et aux échanges collaboratifs le permet mais tout en restant vigilant; l’expérience de WIkipédia démontre  que si l’expertise peut être collective, chacun n’est pas par définition un expert (sinon la demagogie n’est pas loin …), rappeler que l’absence de contrôle donne lieu à des abus, des confusions et des erreurs, ce qui est gênant pour une encyclopédie ! Une des réponses apportée par un des fondateurs de Wikipedia dans son nouveau projet est de sécuriser les contenus en créant deux statuts de contributeurs : les « auteurs », et les « éditeurs », qui jouent le rôle de modérateur avec la capacité de modifier les articles ou les invalider.

Certaines valeurs essentielles  sont à défendre dans ce nouveau paradigme :

– L’équité afin que chacun ait la capacité d’accéder aux fruits des «arbres de la connaissance » en fonction de ses besoins, quitte à les enrichir selon la typologie rencontrée (peer to peer, wikis, réseau asymétrique …) …
– Le lien social (« social network ») et l’émergence de communautés,
– L’intégrité du réseau …

Au moment ou une nécessaire refondation politique est en cours afin de tenir compte de la réalité d’un nouveau monde, le politique ne doit pas oublier que son projet et sa grille de lecture de la société doit être globale et non parcellaire que ce soit pour le Développement Durable ou pour les outils de communication et de diffusion de la culture supportés par le Net …
Il faut tenir compte également des risques gravitant autour du Web 2.0, abordés dans cette note, du besoin de contre pouvoirs ayant la capacité d’action, de valeurs citoyennes forte, d’une réelle éthique et de la nécessaire vigilance face à l’omniprésence et la puissance de certaines entreprises désormais tentaculaires, enfin de la chance que représente pour notre pays la présence de ses infrastructures comme de son potentiel de formation, de création et culturel hors norme … 

La prochaine mutation pour le Web, pressenti par beaucoup de spécialistes sera celle du Web 3D, reposant sur un espace virtuel modélisé dont certains internautes ont déjà fait leur quotidien … Menant une double vie, au propre comme au figuré, avec leur avatars …

Mais cela est encore une autre histoire …

 

 

Notes précédentes sur cette thématique

Web 2.0, buzz, révélation ou révolution …

Big Google is watching you :
http://jmorer.hautetfort.com/archive/2005/11/12/google-to…

Google, No limit :
http://jmorer.hautetfort.com/archive/2005/11/01/googl…
Google, puissance 80 :
http://jmorer.hautetfort.com/archive/2005/09/21/googl…

Le WeB 2.0, Buzz, révélation ou Révolution ?

Internet est de nouveau un bon plan pour les entrepreneurs. Après l’éclatement de la bulle financière, les sites Internet sont enfin rentables (publicité, internautes et développement du e-commerce). Un cercle vertueux désormais enclenché, c’est la confiance qui revient, pour les internautes comme pour les investisseurs, prêts à soutenir de nouveaux projets d’entreprise.

 

Une nouvelle donne à laquelle l’émergence de la déferlante Web 2 n’est pas étrangère. Avant d’apporter quelques éléments d’analyse, revenons sur le phénomène Web 2.0, très tendance aujourd’hui. Que signifie cette expression ? Nouvelle vague (pour le surf c’est adapté !) buzz ou révolution ?

 

 

Le Web 2.0 marque incontestablement une nouvelle étape du développement d’Internet sur plusieurs champs : économique, technologique, culturel …

 

 

 

 

 

7 principes sont au coeur du Web 2.0, selon O’reilly, auteur d’un article qui fait autorité :

-1 – des services, pas un package logiciel, avec des possibilités d’économie d’échelle
– 2 – un contrôle sur des sources de données uniques, difficiles à recréer, et dont la richesse s’accroît à mesure que les gens les utilisent
– 3 – considérer les utilisateurs comme des co-développeurs
– 4 – tirer partie de l’intelligence collective
– 5 – toucher le marché jusque dans sa périphérie à travers la mise en place de service « prêt à consommer »
-6 – libérer le logiciel du seul PC – offrir de la souplesse dans les interfaces utilisateurs, les modèles de développements et les modèles d’affaires
– 7- Enrichir les interfaces utilisateurs

De Netscape à Google, ou l’émergence d’un nouveau paradigme économique

Netscape, la marque emblématique des débuts d’Internet s’est développé à partir d’un modèle économique traditionnel, bâti sur un produit logiciel, son navigateur. Gratuit, celui ci devait être à l’origine d’un marché rémunérateur situé au niveau des serveurs et des transactions (B to B, B to C). Un business model selon le type Microsoft reposant sur la maîtrise et le contrôle des standards, la gestion d’un planning de sortie de versions successives et attendues, d’un système de licence, des problèmes de portabilité sur différentes plate-forme …
Il en va tout autrement avec Google. Si c’est une application informatique, c’est avant tout un service permettant d’obtenir des données ; sans données Google n’est rien. Son utilité (donc sa valeur) n’est ni son contenu, ni le logiciel en lui même, mais sa capacité et son savoir faire à établir sur le réseau une relation entre l’utilisateur et un contenu. Une activité qui implique des traitements permanents et une remise en cause quotidienne. Ce savoir faire lui a permis, de surpasser jusqu’à aujourd’hui tous ses concurrents.
Ses dirigeants travaillent tous les jours à améliorer et perfectionner leur produit, leur domaine d’action est le Web dans toute sa plénitude, sa globalité et sa diversité, y compris les petits sites (théorie de « la longue traîne » ou  » longue queue » ou « the long tail ») que ses recherches mettent en valeur.
Les sociétés tel Google qui font le web 2.0 bénéficient d’un avantage concurrentiel naturel, inscrit dans leurs gênes. Elles ne s’abritent pas derrière un « business modèle » traditionnel avec des revenus rémunérateurs dépendant d’un produit dominateur derrière lequel s’abriter, leur credo est une perpétuelle remise en cause qui les rend particulièrement réceptive et réactive. Un exemple parmi d’autres : pas de problème de bugs au niveau d’une nouvelle version , la « béta » est une réalité quotidienne et c’est l’utilisateur qui en utilisant les produits les façonnent peu à peu.

Le plus incroyable est que les deux technologies à la base du « Web 2 » sont connus depuis le début d’Internet. Pourtant XML et les interfaces de programmation d’applications (API) n’avaient jusque là suscités que peu d’intérêt, c’est malgré tout à partir d’elles que se sont développés les Web Services et les flux RSS (acronyme signifiant au départ « Sommaire de site enrichi » ou bien « Really Simple Syndication » ou Syndication vraiment simple)
Cette évolution auraient elle était possible sans le succès de Linux, de l’Open Source qui ont brisé les monopoles en place ? Il est permis d’en douter.
Les stratégies propriétaires bénéficiant de rente de situation sont à des années lumière du Web 2, même si la lutte autour de la maîtrise du portail sera déterminante. L’objectif étant désormais d’être universel et de s’adresser à un marché global, tant pour les plateformes (PC et Mac) que pour les supports (ordinateurs, PDA, téléphonie …).

Désormais, l’information a un fil à la patte

Un RSS est un fichier texte généré par un site Web ou un blog, composé de balises décrivant le contenu d’une note par exemple et pouvant être interprétés par un navigateur ou un logiciel adapté (agrégateur). Le RSS est dénommé fil d’info car ce fichier généré automatiquement permet de suivre le rythme de publication de nouvelles notes et d’en diffuser un résumé. Le développement des blogs, dont une des caractéristiques majeure (ce blog n’échappe pas à la règle) est le rythme incertain et irrégulier de parution des notes (ou post) a donné toute son importance au RSS. S’abonner à un fil d’info permet de recevoir les posts au fur et à mesure de leur publication, il en va de même pour les Podcasts.
Nous entrons dans l’ère de la distribution des contenus, qui n’est pas sans poser certaines interrogations sur la fiabilité des informations reprises et transmises sur la toile mondiale, le Web étant une formidable caisse de résonance. La vérification des sources et les recoupements d’informations devient dans certains cas une nécessité et redistribue vers les médias une nouvelle fonction … Le Web est avant tout réactif avant que d’être réfléchi (cf note précédente)

Tirer parti de l’intelligence collective : la force est dans le lien

Depuis Xanadu, le lien hypertexte est à la base du web, il en fait son originalité, sa force, sa richesse, sa simplicité, transformant la toile mondiale en une base de connaissance perpétuelle qui s’enrichit continuellement de nouveaux contenus intègrés à sa structure et constituant peu à peu le Web sémantique. Une situation décrite par O’Reilly : « Telles des synapses formant un cerveau où les associations se renforçent à force de répétitions et d’intensité, les connections au sein du web se multiplient organiquement à la mesure que leur dicte l’activité de l’ensemble des utilisateurs. Le web est devenu une affaire d’intelligence collective« 

Cette évolution transforme les sites en émetteurs d’informations et les internautes en producteurs de contenus, grâce aux langages dynamiques qui permettent de mettre en situation de co-développeurs les internautes. Les liens vont dans les deux sens, permettant un vrai dialogue grâce aux trackbacks (rétro lien) qui permettent de réagir à des notes en postant commentaires, nouveaux liens …

Les exemples d’intelligence collective ne manquent pas : Napster transformant chaque client en serveur au service du réseau, la Page Rank (classement de page) de Google, méthode de classement basé sur les liens hypertextes (et non sur l’analyse des contenus), l’encyclopédie Wikipedia, triomphe du travail collaboratif, ou n’importe quel utilisateur du web peut enrichir ou modifier un article … Signalons également l’importance du buzz (ou « marketing viral », le bouche à oreille) et l’implication des utilisateurs dans le réseau, appellé par certains la « sagesse des foules » …

Pour le philosophe Pierre Levy, initiateur des arbres de connaissances et philosophe du cyberespace : « Il s’agit d’une mutation culturelle comparable à l’invention de l’écriture, si le langage oral porte l’intelligence collective de la tribu, l’écriture l’intelligence collective de la ville, le futur Web sémantique exprimera l’intelligence collective de l’humanité mondialisée interconnectée dans le cyberespace ».
« L’intelligence collective existe dès les sociétés animales … Elle accomplit un saut fantastique avec l’humain du fait du langage, de la technique et des institutions complexes qui caractérisent notre espèce. L’évolution culturelle humaine peut être considérée comme un lent processus de croissance de l’intelligence collective, qui suit un parcours en zig-zag, plein d’essais et d’erreurs, mais avec quelques grandes étapes irréversibles à long terme … l’avènenement du Web représente un pas de plus dans cette longue histoire ».

« Le Web accomplit trois grandes mutations :
1) tous les documents et tous les types de représentation sont virtuellement interconnectés.
2) Tout document présent en un point du réseau est virtuellement présent partout dans le réseau.
3) Les signes ont acquis une capacité d’action et d’interaction autonome grâce au logiciel ».

Ou sont les pistes de développement ?

Deux enjeux stratégiques se dégagent aujourd’hui : celui des données et du portail.

La course pour la possession de données stratégiques est en cours … Données libres, données propriétaires … AU regard de la diversité du type de données et du développement de la numérisation, le débat fait rage et concerne également les bibliothèques (voir note), les photos de satellites mais aussi le téléchargement rebondissant sur d’autres problématiques, plus juridiques celles ci concernant le droit d’auteur (ou le droit d’éditeur). Un débat ouvert également dans d’autres domaines comme celui de la génétique … .
Des données sur lesquelles des nouveaux services se greffent … GPS et aide à la conduite par exemple à partir des photos de satellites … Le champ d’action ouvre des perspectives phénoménales …
Autre enjeu de taille : l’importance fondamentale du portail. Celui ci devient de plus en plus complet et global. Complet dans les services proposés : messagerie instantanée, gestion des agendas, carnet d’adresses, informations, navigateur … Global sur la diversité des plate formes et supports accessibles … PDA, GPS, voiture, ordinateurs (PC, LINUX, MAC) … Un marché qui fait beaucoup d’envieux : Yahoo, Google, Microsoft et auquel s’invite de nouveaux venus tel Apple notamment …

L’Internet est redevenu du coup, l’eldorado des entrepreneurs. Les USA connaissent une vague de création de services web sans précédent, en France cela frétille tout juste bien que les clignotants soient au vert : puissance et simplicité des technologies, présence d’investisseurs, modicité du budget à réunir pour se lancer.
La dynamique est lancée et devrait au regard des caractéristiques du Web 2.0 plutôt concerné des start up que des grandes entreprises, alors que c’est exactement le contraire que vien de faire notre gouvernement, tout récemment … L’informatique logicielle est un sentier de croissance vertueux, ce qui dans le contexte actuel n’est pas rien, et devrait interpeller les politiques sur la priorité des aides à accorder devant plutôt se diriger vers des petites structures réactives (les virtuels Google de demain ) que dans des grands groupes. Il faut avant tout essaimer. Le choix des projets à aider devant être effectué selon certains critères par des spécialistes reconnus dans la partie (une sorte de « business angel institutionnel »), des pistes existent …

Le développement du logiciel libre, par exemple, permet de développer de nouveaux services au meilleur coût mais également de nouveaux emplois. Les applicatifs à mettre en place et à implanter permettant d’optimiser le formidable potentiel du Web 2.0 demande une assistance et un savoir faire local. Encore faut il que les pouvoirs publics et les collectivités territoriales soient moteurs dans ce domaine et qu’on les aide dans cette démarche.

Deux exemples concrets concernant une commune :

– Elle peut bénéficier de subventions (Etat, département, région) sur l’acquisition de matériel (au titre de l’investissement) et non sur un développement logiciel effectué par une Web Agency Locale. Pourtant l’essentiel des pièces d’un ordinateur est produit en Asie du Sud Est (surtout en Chine) alors que le développement, l’implantation et le paramétrage d’applicatifs utilisant des solutions à base de Linux ou de logiciel libre « Open Source » (Appache, SPIP …) nécessitera l’intervention d’un informaticien local, et permettra d’agir efficacement pour l’emploi (qu’il soit direct ou indirect).
– Une acquisition de matériel ou de logiciel permet à une commune de récupérer la TVA, une intervention logicielle, non …

Un buzz est une technique de marketing viral qui repose principalement sur le phénomène de bouche à oreille. Il s’agit de faire parler d’un produit ou d’un service avant son lancement officiel en distribuant, de manière parcimonieuse et parfaitement calculée, des informations ou des rumeurs qui entretiendront la curiosité des Internautes. Un buzz bien encadré peut amener à rendre un produit célèbre avant même sa sortie.

Xanadu, né en 1960, le projet Xanadu lance un nouveau de système d’information « au bout des doigts ». Ted Nelson, son animateur invente l’hypertexte. Une vision avant-gardiste utopique qui peu à peu dessine le devenir de ce que sera plus tard Internet

Article de O’Reilly (en français)

Blog de Francis Pisani : Transnet (voir dans mes favoris)

La réponse de Gutemberg à Google

Un bras d’honneur prémonitoire

Il y a quelques années une affiche faisait les délices des métiers de l’imprimerie et de la presse écrite : « la réponse de Gutenberg à Mac Luhan », elle montrait l’ancêtre des imprimeurs effectuant un bras d’honneur au sociologue canadien Mac Luhan qui avait eu le malheur d’annoncer bien imprudemment la fin de « l’ère Gutenberg » ; force est de constater que 30 ans après les faits ont donné tort au spécialiste canadien.
Bien que l’annonce faite par Google, en octobre 2004, de créer une bibliothèque numérique universelle gratuite ait occasionné beaucoup de réactions passionnées,  elle ne représente pas pour autant, même à titre posthume, la victoire de Mac Luhan, loin s’en faut, le média privilégié étant toujours le support écrit; ceci étant dit la suite des épisodes est encore à écrire.
L’idée développée par Google n’est pourtant pas révolutionnaire, les avantages des supports numériques dans l’archivage électronique sont connus : ils s’affranchissent du vieillissement, de la rareté et de la fragilité du support d’origine (quelquefois de vieux parchemins), sont duplicables à l’infini, accessibles à volonté et possèdent tous les autres avantages liés à l’informatique (indexation, recherche …); il n’y a pas photo !

Un passage obligé cependant, délicat lorsque l’on parle de parchemins ou de vieux ouvrages, le but n’étant pas de les détruire aprés usage (des machines spécifiques ont été élaborées pour réussir cette mission),  la phase de numérisation ;  deux techniques existent :

– le « mode image », qui présente l’avantage d’être rapide et économique mais l’inconvénient de ne pouvoir donner de sens au texte, car il s’agit d’une simple photo de la page scannée,
– le « mode texte », qui possède le double inconvénient d’être plus long et coûteux, il faut d’abord procéder à la numérisation de l’ouvrage, ensuite un logiciel de reconnaissance de caractères (OCR) « traduit » la page scannée et la transforme en fichier texte; ce qui ensuite autorise le traitement de l’information : indexation, recherche, indexation et même traduction … Facile lorsque l’il s’agit de pages déjà imprimées, beaucoup plus délicat lorque l’on scanne des pages calligraphiées ou écrites dans une langue ancienne ou certaines polices de caractères.
Chaque grande nation possède une Bibliothèque nationale où l’on connaît ce style de technique; pourtant jusqu’à présent, excepté quelques expérimentations aucune opération d’envergure de numérisation de fonds documentaire n’avait été menée. Si Gallica, (la bibliothèque numérique de la Bibliothèque de France) compte près de 80 000 ouvrages numérisés, seulement 1 250 le sont en mode texte; or le projet Google Print repose sur une numérisation en mode texte …

on va comprendre tout de suite les raisons de ce choix.

 

La « Porte de Dieu »

L’irruption de Google dans le monde feutré des bibliothécaires a suscité la controverse et des réactions politiques à la chaîne. Réactions compréhensibles  face aux dangers représentés par cette initiative. Il s’agit ni plus, ni moins de la main mise d’une entreprise multinationale privée, américaine de surcroît, sur La bibliothèque universelle. Cette véritable tour de Babel virtuelle agrégeant la somme des connaissances humaines disponible à saciété depuis chaque ordinateur qui était jusque là une utopie poursuivit par des générations de philosophes, de lettrés et de savants.
Rappelons que la tour de Babel (Babel signifiant La porte du Dieu), construite par les descendants de Noé était destinée selon la Bible (genèse 11) à atteindre le ciel afin de permettre aux hommes de s’élever au niveau des Dieux. Devant le danger représenté par cette construction, Dieu créa les langues étrangères … Les hommes ne se comprenant plus ne purent plus travailler ensemble.  Succès sur toute la ligne de la puissance divine qui peut être vérifié à chaque bulletin d’informations !

L’ultime obstacle à la réalisation de ce projet n’est pourtant ni financier, ni technique. Car si la logistique à réunir pour numériser les livres (du haut des rayonnages des différentes bibliothèques c’est plus de 560 années de connaissances qui nous contemplent), notamment les ouvrages anciens, est trés importante ( temps, moyens financiers, techniques) elle n’est pas insurmontable.

A contrario les obstacles principaux sont :

– Juridiques : les droits d’auteur de certains livres n’étant pas encore dans le domaine public, Google a connu des problèmes avec certains  éditeurs américains et européens d’autant que les règles liées au droit d’auteur, à la duplication des oeuvres ou à la consultation (nombre de lignes donnant lieu au paiement d’une redevance ou d’un droit ) différent entre les pays …
– Economiques : du fait du danger de constitution d’un monopole de fait sur la Connaissance Universelle avec plusieurs problèmes derrière : quid des Bibliothèques Nationales, quelle langue privilégiée, la gratuité jusqu’à quand … Des interrogations qui expliquent la contre attaque menée par Jean-Noël Jeanneney, président de la Bibliothèque nationale de France, partisan d’une bibliothèque numérique européenne (BNE), dont l’idée depuis a fait son chemin; il ne reste plus qu’à trouver les financements d’une telle entreprise.
– Culturels : le potentiel technique de Google peut permettre à l’internaute de s’affranchir de l’entité livre et du cheminement de la pensée de l’auteur pour ne retenir que des tranches d’information et d’aboutir in fine à une forme de zapping des mots et des pensées.

 Aujourd’hui, nous n’en sommes qu’à une première phase, (http://print.google.fr) qui permet cependant d’avoir une idée assez précise de ce qui va suivre et de l’avantage concurrentiel possèdé désormais par Google dans la gestion de cet énorme fonds documentaire. Les profits à venir sont colossaux : le modèle économique développé par Google ayant démontré que le « tout gratuit » peut receler des niches à profit énormes et inattendues.
Bien que la réponse d’autres acteurs informatiques et institutionnels tels Microsoft et les bibliothèques nationales ne s’est pas fait attendre, n’oublions pas que …

Pour trouver une aiguille dans une botte de foin à défaut d’avoir une paire de trés bons yeux, disposer d’un bon moteur de recherche est souvent suffisant … à ce jeu Google n’est pas trop mal placé …

 

Notes précédentes sur Google :

Big Google is watching you :
http://jmorer.hautetfort.com/archive/2005/11/12/google-toujours-plus-…-pour-nous-servir1.html

Google, No limit :
http://jmorer.hautetfort.com/archive/2005/11/01/googl…
Google, puissance 80 :
http://jmorer.hautetfort.com/archive/2005/09/21/googl…

 

Le seigneur de la matrice

 

Peu avant la naissance du point « .eu », le 7 /12/2005 (l’adresse « européenne »), un évènement de première importance s’était déroulé à Tunis à la mi novembre : le Sommet mondial sur la société de l’information (SMSI). Outre les réactions liées à cette manifestation dont beaucoup relatives à la liberté d’expression en Tunisie (cf rsf et FIDH) ce rassemblement  a été le cadre d’un affrontement sans précédent entre les Etats Unis et le reste du monde.
Les représentants des 176 pays présents ont en effet exigé un fonctionnement plus collectif d’Internet avec une proposition clé, en transférer la gouvernance aux Nations unies. Proposition rejetée par les américains. Au cœur de la « controverse de Tunis », le poids des USA dans la gestion de l’I.C.A.N.N (Internet Corporation for Assigned Names and Numbers) l’organisme qui depuis la naissance du réseau des réseaux dispose du droit de vie ou de mort sur l’adressage du net, le régulateur de la Matrice. Un monopole que n’accepte plus les autres états aujourd’hui, d’autant que le contrat liant l’Icann à Washington arrive à échéance en septembre 2006.

 

Un rappel utile : au cœur du réseau, l’adressage
Chaque ordinateur voulant se connecter à un réseau doit posséder un identifiant unique qui permet aux autres ordinateurs de le retrouver sur la toile mondiale afin de pouvoir communiquer avec lui. Sur Internet cet identifiant est une adresse IP (comme Internet Protocol), une sorte de numéro de téléphone). Chaque ordinateur émettant une requête est identifié par son adresse IP, sa demande est transmise à un serveur (le routeur) qui achemine le message à un autre ordinateur disposant d’une adresse d’arrivée du même type (un message avant d’atteindre son objectif final, est acheminé par plusiseurs autres ordinateurs éparpillés sur la planète). Pour qu’une transaction entre deux ordinateurs soit possible (envoi ou réception de mel, surf sur un site …), il faut obligatoirement disposer d’une adresse de départ et d’une adresse d’arrivée.
Le bon fonctionnement ou non de la toile mondiale dépend de l’activité inlassable des 13 ordinateurs supervisés par l’ICANN qui possèdent le registre (la matrice) autorisant une requête (adresse) à utiliser le réseau qui leur permet de transformer une adresse IP (inutilisable par un simple internaute) en une adresse beaucoup plus facile à mémoriser (telle www.trilport.Fr par exemple) et l’acheminant dans les méandres du réseau des réseaux. Ces serveurs racines (ou « root serveur »)  écrivent en permanence la carte de l’internet. Un seul  maître à bord, l’ICANN qui gère l’ensemble du système au niveau de la planète.

Trois acteurs essentiellement américains
A la base du succès d’Internet des standards de communication simples, solides et éprouvés (né lors de la Guerre Froide, peu après l’affaire de Cuba, le système devait résister à une guerre nucléaire et ne pas reposer sur un seul serveur) reposant sur trois acteurs principaux, avec chacun un rôle bien distinct :

– La standardisation du support, (du média ) basée sur des normes mondiales strictes établies au sein de deux instances par des spécialistes des télécommunications :  l’Internet Architecture Board (IAB) et l’Internet Engineering Task Force (IETF), dont le travail est sous la responsabilité directe et le financement de l’Internet Society (ISOC), association de droit américain créée en 1992 par les pionniers de l’Internet dont la mission est de coordonner le développement des réseaux informatiques dans le monde en édictant des standards à suivre impérativement

Le World Wide Web Consortium (ou W3C), fondé en octobre 1994 est le consortium qui travaille à la compatibilité des technologies du contenu telles que HTML, XML, CSS, PNG, SVG … Le W3C, lui, ne délivre que des recommandations. Il est géré par le Massachusetts Institute of Technology (MIT) aux États-Unis, le European Research Consortium for Informatics and Mathematics (ERCIM) en Europe (anciennement Institut national de recherche en informatique et en automatique français ou INRIA) et l’Université Keio au Japon. 

Enfin, last but don’t least, l’Internet Corporation for Assigned Names and Numbers (ICANN),principale autorité de régulation de l’Internet. Crée en 1998, l’ICANN est une organisation internationale sans but lucratif. Ses principales missions : allouer l’espace des adresses (IP),  gérer le système de nom de domaine et assurer le bon fonctionnement des 13 « serveurs racines  (root servers) sur lesquels repose l’architecture de l’Internet à l’échelle mondiale. L’ICANN délègue son droit sur la vente des noms de domaines à différentes sociétés ou organisations, comme VeriSign pour les domaines .com et .net ou l’AFNIC pour le domaine .fr. en France
Situation pour le moins anachronique, cette organisation dont les décisions s’imposent à l’ensemble des utilisateurs utilisant Internet qu’il soit simple citoyen de la planète, Etat ou multinationale est une association de droit californien, soumise au droit de veto du Gouvernement américain. L’ICANN constitue en effet un véritable OVNI juridique, qui n’est ni une O.N.G, ni une entreprise privée, ni un service gouvernemental, mais une forme d’association sans but lucratif agissant sous le contrôle du département américain du commerce.

Comme chacun peut s’en rendre compte au niveau du casting, nous sommes dans une super production américaine, ces trois acteurs principaux étant historiquement, juridiquement, géographiquement et financièrement américains.

La fracture numérique s’élargit
Autre sujet abordé lors de ce congrés et ce n’est malheureusement  pas un scoop,  l’inégalité Nord Sud dans les technologies de l’information s’agrandit.
Trois exemples pour tout commentaire : 5 milliards d’hommes n’ont pas accés à un ordinateur, 80% des utilisateurs d’internet représentent 20% de la population mondiale et si plus d’un américain sur deux a accés à Internet, pour l’Afrique, cette proportion passe à 3% !

 

Ce congrés s’il n’a pour l’instant encore rien changé démontre une incontestable évolution des mentalités. Face à l’importance d’Internet sur la planète, média incontournable s’il en est, au cœur de toute relation sociale, économique, politique ou commerciale, les pays ne peuvent plus admettre la domination sans partage des seuls USA qui du jour au lendemain sans préavis peut les effacer de la planète.
D’autant que la grande majorité des sociétés actuellement leader dans les technologies de l’information sont américaines; certaines et non des moindres ont même renforcé leurs équipes dirigeantes d’authentiques pionners du net, citons Google avec Vinton Cerf, notamment (lire note), qui est à la fois salarié de cette société et président du conseil d’administration de l’Icann, le mélange des genres est ici atteint. Signalons qu’en décembre 2003 à Genève, ce sujet n’avait pas provoqué de tels débats.
La politique menée par l’équipe Bush n’est pas étrangère à ce nouveau climat intervenant aprés les multiples rebondissements de la question Irakienne, les négociations autour de l’OMC, ainsi que des péripéties relatives au refus de signer les accords de Kyoto, relatifs au réchauffement de la planète et à la lutte contre l’effet de serre.

Un combat légitime qui démontre qu’en matière de télécommunications la mondialisation nécessite également une régulation politique et du multilatéralisme.

La Matrice aussi en a bien besoin …

 

Pour en savoir plus sur les seigneurs du réseau :

ICANN : http://www.icann.org/ ou http://www.icann.org/tr/french.html (en français)
ISOC : 
http://www.isoc.org/  ou http://www.isoc.fr/ (en français)
W3C :
http://www.w3.org/ ou http://www.w3.org/Consortium/Translation/French (en français)

Big Google is watching you

Précision importante, je ne possède pas d’action Google (dommage peut être ?), je ne fais pas non plus de fixation sur cette entreprise, cependant force est de constater que l’activité de la société de Mountain View est passionnante à suivre et ce à plus d’un titre. Figure emblématique de «l’économie de la recherche», Google prend une place croissante dans la vie des internautes de la planète et explore des champs d’applications encore insoupçonnés il y a peu, faisant appel aux toutes dernières technologies et permettant d’effleurer le futur immédiat d’Internet …  Un futur digne d’Hollywood …

Avec Google, chaque jour qui passe apporte son lot de nouveautés. Voici un rapide tour d’horizon des services et outils proposés actuellement aux internautes, dont la plupart accessible directement à partir du menu d’accueil du moteur de recherche (http://www.google.fr/intl/fr/options/ ).

Unique objectif affiché : satisfaire l’internaute Lambda (avec une prédilection, tout de même pour le Cousin Américain) grâce à des outils gratuits simplifiant la vie ! Dans le lot, mention toute particulière à Google Labs (  http://labs.google.fr/   ) permettant d’expérimenter en avant première des versions bétas, apportant du coup un parfum d’aventure à l’utilisateur qui a le sentiment fugitif d’appartenir à la communauté des pionners du net … une impression toute relative d’ailleurs …

 

Florilège d’outils et de services « passe partout »

  • Traitement des photos avec Picassa ( http://picasa.google.com/index.html ). Ce logiciel graphique recherche, classe, modifie et partage les photos contenues dans un PC. Il détecte et indexe les photos automatiquement, les classant dans des albums et autorise les retouches simples, des diaporamas, des envois par e-mail, l’impression, la création de CD …
  • Un utilitaire trés pratique (Google Desktop Search : http://desktop.google.fr/) permettant d’accéder aux informations stockées sur votre ordinateur, ainsi qu’à celles disponibles sur le Web (courrier électronique, fichiers des principales applications bureautiques, fichiers mulitmédias, discussions et pages Web consultées … ).
  • Un moteur de recherche dédié au blog ( Blog search : http://blogsearch.google.fr/). Ce service explore la blogosphère et permet de connaitre l’essentiel de ce que les blogs rapportent sur un sujet qui vous passionne, de retrouver un blog … Les résultats incluent tous les blogs et l’index des blogs est mis à jour en permanence (une fonction trés impressionnante !). Possibilité de rechercher des blogs rédigés en langues étrangères …
  • Disposer d’une revue de presse personnalisé ( http://news.google.fr/). Une page portail permettant d’obtenir une actualité paramétrée en fonction de centres d’intérêts sélectionnés. Google effectue le tri dans des milliers d’articles mis à jour en permanence.
  • Alerte Google (http://www.google.fr/alerts), ce service méconnu permet une veille technologique automatique effectuée par des agents logiciels intelligents informant par courrier électronique des articles publiés en ligne correspondant aux sujets étudiés,  
  • Google sur votre téléphone portable (http://mobile.google.fr/) , 

  • La création et la gestion de blogs gratuits (http://www.blogger.com/start )

 

La messagerie instantanée, un marché prometteur à plus d’un titre.

Ces logiciels liés au développement du haut débit constituent une nouvelle source de revenus publicitaires avec la publicité ciblée, plus efficace car prenant en compte les « intentions » des internautes. Les messageries instantanées étaient dominées jusque là par Microsoft et Yahoo avec leur « messengers » respectifs.
Google Talk remet en cause cette suprématie. Si avec des clients comme Windows Messenger, Skype, Yahoo Messenger ou AIM, les deux contacts avaient l’obligation d’utiliser le même logiciel pour communiquer, Google en faisant le choix d’une technologie ouverte permet de faire communiquer entre eux des internautes utilisant des logiciels différents (Jabber, iChat d’Apple) , l’essentiel est d’avoir le même protocole, cela ne vous rappelle rien ?  Une arrivée qui a incité les trois grands à installer des passerelles entre leurs différents systèmes. 

La messagerie instantannée est en évolution permanente, aprés l’envoi de mels, elle permet désormais les discussions vocales grâce à la technologie VoIp (ou Voice over IP) qui utilise Internet (grâce au protocole IP) pour faire circuler des paquets de données correspondant à des échantillons de voix numérisée et bientôt de la vidéo avec des webcams. A teme ce sont les marchés de la téléphonie et de la viso conférence qui sont en jeu … Pour se démarquer de la concurrence,  Google a élaboré un logiciel qui en plus d’être « open » va à l’essentiel, sans fonctions inutiles et permet une utilisation trés intuitive. Unique obligation, posséder une adresse Gmail pour pouvoir utiliser Google Talk (http://www.invitationgmail.info/).

 

 

La recherche locale et cartographique

 

Grâce à l’acquisition de l’entreprise Keyhole en février 2004, Google a ajouté deux nouvelles cordes à son arc (désormais bien garni) : les marchés de la recherche locale et de la cartographie et les décline avec deux logiciels spectaculaires.

 

Google maps (  http://maps.google.com ), une interface et des possibilités impressionnantes : images satellites, vue en 3D. A partir d’une photo de la Terre, ce logiciel permet à partir de base de données disponibles sur le web, de trouver l’hôtel, le café le plus proche de chez soi. Les pages jaunes du coup sont relégués des années en arrière …

Le moteur se charge lui même d’analyser votre requête. Cette application permet de repérer des adresses sur une carte et sur la photo satellite correspondante. Trois modes de visualisation sont proposés. Le mode Map présente un plan de la ville, le mode Satellite affiche une photo prise de l’espace de la zone concernée, le mode Hybride permet de superposer les informations fournies par le plan aux images satellite.

Le tout est d’une rapidité et d’une fluidité impressionnantes compte tenu des images à afficher et des calculs engendrés par les déplacements sur la carte. Bien évidemment ce logiciel propose également des calculs d’itinéraires. Ce qui lié avec un GPS met du coup Google dans la course pour de nouveaux marchés trés prometteurs …

 

Google Earth (http://earth.google.com/downloads.html ). Logiciel basé sur les archives de National Geographics, est tout simplement extraordinaire. Il  permet en quelques clics d’afficher l’image satellite d’un endroit donné avec des agrandissements suprenants. Le film « Ennemi d’Etat » est devenu réalité ! 

Une précision qui inquiète les spécialistes de la sécurité civile et les militaires et met à portée de n’importe quel internaute l’emplacement d’emplacements stratégiques (bases militaires, centrales nucléaires …) autrefois inacessibles.

 

Google Moon ( http://moon.google.com/ ). Google vous offre la lune. Ce petit frère de Google Maps, permet d’examiner de plus prés de notre satellite favori et les six expéditions américaines officielles qui l’ont visité entre 1969 et 1972.Jusqu’à présent aucune trace de l’expédition de Tintin, affaire à suivre …

.

 

Encore et encore …

 

Google se lance dans la connection Wi Fi avec Google Secure Access. La municipalité californienne de San Francisco l’a autorisé à fournir une connexion Wifi publique et gratuite sur la ville en plaçant des points d’accès à son réseau sur les 1900 lampadaires de la ville. Un financement assuré partir de publicités géo-localisées, de quoi donner des idées à Decaux !

 

Aprés la recherche, les contenus. La bibliothèque online Google Print ( http://print.google.fr/ ) est désormais accessible,; nous reviendrons sur ce projet qui a déjà fait couler beaucoup d’encre (électronique … quoi de pls normal pour une bibliothèque ?) dans une prochaine note. Attention cette version ne constitue pour l’instant qu’un grand catalogue commercial, Google Print « .fr » n’en étant qu’à sa version bêta. A terme ce service permettra de consulter des livres en ligne (en entier s’ils ne font plus l’objet d’un copyright, par extraits s’ils le sont encore). Aprés quelques mois d’arrêt la numérisation a repris, notons que Microsoft se lance aussi sur ce marché et a passé un accord avec la British Library.

 

Des partenariats trés intéressés : Google s’associe avec Sun Microsystems afin de promouvoir la sa suite bureautique Open Office, ainsi que la plateforme de développement Java. IBM et Google ont annoncé l’intégration prochaine de leurs technologies respectives de recherche pour ordinateurs corporatifs. Des rumeurs persistances affirment que Google se pencherait également sur le marché du Système d’Exploitation.

Recherche et développement, Google a conclu un accord avec la Nasa afin de pour construire un centre de recherches commun sur une ancienne base militaire de la Silicon Valley (Californie), non loin de Mountain View, siège la société. Une collaboration sur le secteur de pointe des nanotechnologies (technologies de l’infiniment petit) alliées à celles de l’information et à la recherche de données. Un partenariat qui laisse entrevoir d’énormes potentialités.

.

 

Une seule conclusion s’impose : affaire à suivre …

Comme chacun peut s’en rendre compte, l’avance technologique de Google ne réside plus uniquement dans la pertinence de son moteur de recherche ou dans sa capacité à déployer des applications « on line » intuitives tournant à toute vitesse. Une avance qui repose sur la formidable capacité de cette entreprise à explorer des pistes de travail innombrables reposant sur les postulats de la convergence, de la miniaturisation et du nomadisme étendant du même coup les champs du possible à des horizons autrefois inaccessibles …

Un risque sérieux à signaler toutefois, le croisement des informations individuelles et personnelles disponibles sur chaque internaute.

Un avantage commecial déterminant qui pourrait prendre des proportions insoupconnées, car si l’on y prend garde trés peu de choses risqueront d’échapper à Google …

 

Big Google is watching you !

 

 

Notes précédentes sur Google :

Google, No limit : http://jmorer.hautetfort.com/archive/2005/11/01/google-no-limit.html

Google, puissance 80 : http://jmorer.hautetfort.com/archive/2005/09/21/google-puissance-80.html