Le WeB 2.0, Buzz, révélation ou Révolution ?

Internet est de nouveau un bon plan pour les entrepreneurs. Après l’éclatement de la bulle financière, les sites Internet sont enfin rentables (publicité, internautes et développement du e-commerce). Un cercle vertueux désormais enclenché, c’est la confiance qui revient, pour les internautes comme pour les investisseurs, prêts à soutenir de nouveaux projets d’entreprise.

 

Une nouvelle donne à laquelle l’émergence de la déferlante Web 2 n’est pas étrangère. Avant d’apporter quelques éléments d’analyse, revenons sur le phénomène Web 2.0, très tendance aujourd’hui. Que signifie cette expression ? Nouvelle vague (pour le surf c’est adapté !) buzz ou révolution ?

 

 

Le Web 2.0 marque incontestablement une nouvelle étape du développement d’Internet sur plusieurs champs : économique, technologique, culturel …

 

 

 

 

 

7 principes sont au coeur du Web 2.0, selon O’reilly, auteur d’un article qui fait autorité :

-1 – des services, pas un package logiciel, avec des possibilités d’économie d’échelle
– 2 – un contrôle sur des sources de données uniques, difficiles à recréer, et dont la richesse s’accroît à mesure que les gens les utilisent
– 3 – considérer les utilisateurs comme des co-développeurs
– 4 – tirer partie de l’intelligence collective
– 5 – toucher le marché jusque dans sa périphérie à travers la mise en place de service « prêt à consommer »
-6 – libérer le logiciel du seul PC – offrir de la souplesse dans les interfaces utilisateurs, les modèles de développements et les modèles d’affaires
– 7- Enrichir les interfaces utilisateurs

De Netscape à Google, ou l’émergence d’un nouveau paradigme économique

Netscape, la marque emblématique des débuts d’Internet s’est développé à partir d’un modèle économique traditionnel, bâti sur un produit logiciel, son navigateur. Gratuit, celui ci devait être à l’origine d’un marché rémunérateur situé au niveau des serveurs et des transactions (B to B, B to C). Un business model selon le type Microsoft reposant sur la maîtrise et le contrôle des standards, la gestion d’un planning de sortie de versions successives et attendues, d’un système de licence, des problèmes de portabilité sur différentes plate-forme …
Il en va tout autrement avec Google. Si c’est une application informatique, c’est avant tout un service permettant d’obtenir des données ; sans données Google n’est rien. Son utilité (donc sa valeur) n’est ni son contenu, ni le logiciel en lui même, mais sa capacité et son savoir faire à établir sur le réseau une relation entre l’utilisateur et un contenu. Une activité qui implique des traitements permanents et une remise en cause quotidienne. Ce savoir faire lui a permis, de surpasser jusqu’à aujourd’hui tous ses concurrents.
Ses dirigeants travaillent tous les jours à améliorer et perfectionner leur produit, leur domaine d’action est le Web dans toute sa plénitude, sa globalité et sa diversité, y compris les petits sites (théorie de « la longue traîne » ou  » longue queue » ou « the long tail ») que ses recherches mettent en valeur.
Les sociétés tel Google qui font le web 2.0 bénéficient d’un avantage concurrentiel naturel, inscrit dans leurs gênes. Elles ne s’abritent pas derrière un « business modèle » traditionnel avec des revenus rémunérateurs dépendant d’un produit dominateur derrière lequel s’abriter, leur credo est une perpétuelle remise en cause qui les rend particulièrement réceptive et réactive. Un exemple parmi d’autres : pas de problème de bugs au niveau d’une nouvelle version , la « béta » est une réalité quotidienne et c’est l’utilisateur qui en utilisant les produits les façonnent peu à peu.

Le plus incroyable est que les deux technologies à la base du « Web 2 » sont connus depuis le début d’Internet. Pourtant XML et les interfaces de programmation d’applications (API) n’avaient jusque là suscités que peu d’intérêt, c’est malgré tout à partir d’elles que se sont développés les Web Services et les flux RSS (acronyme signifiant au départ « Sommaire de site enrichi » ou bien « Really Simple Syndication » ou Syndication vraiment simple)
Cette évolution auraient elle était possible sans le succès de Linux, de l’Open Source qui ont brisé les monopoles en place ? Il est permis d’en douter.
Les stratégies propriétaires bénéficiant de rente de situation sont à des années lumière du Web 2, même si la lutte autour de la maîtrise du portail sera déterminante. L’objectif étant désormais d’être universel et de s’adresser à un marché global, tant pour les plateformes (PC et Mac) que pour les supports (ordinateurs, PDA, téléphonie …).

Désormais, l’information a un fil à la patte

Un RSS est un fichier texte généré par un site Web ou un blog, composé de balises décrivant le contenu d’une note par exemple et pouvant être interprétés par un navigateur ou un logiciel adapté (agrégateur). Le RSS est dénommé fil d’info car ce fichier généré automatiquement permet de suivre le rythme de publication de nouvelles notes et d’en diffuser un résumé. Le développement des blogs, dont une des caractéristiques majeure (ce blog n’échappe pas à la règle) est le rythme incertain et irrégulier de parution des notes (ou post) a donné toute son importance au RSS. S’abonner à un fil d’info permet de recevoir les posts au fur et à mesure de leur publication, il en va de même pour les Podcasts.
Nous entrons dans l’ère de la distribution des contenus, qui n’est pas sans poser certaines interrogations sur la fiabilité des informations reprises et transmises sur la toile mondiale, le Web étant une formidable caisse de résonance. La vérification des sources et les recoupements d’informations devient dans certains cas une nécessité et redistribue vers les médias une nouvelle fonction … Le Web est avant tout réactif avant que d’être réfléchi (cf note précédente)

Tirer parti de l’intelligence collective : la force est dans le lien

Depuis Xanadu, le lien hypertexte est à la base du web, il en fait son originalité, sa force, sa richesse, sa simplicité, transformant la toile mondiale en une base de connaissance perpétuelle qui s’enrichit continuellement de nouveaux contenus intègrés à sa structure et constituant peu à peu le Web sémantique. Une situation décrite par O’Reilly : « Telles des synapses formant un cerveau où les associations se renforçent à force de répétitions et d’intensité, les connections au sein du web se multiplient organiquement à la mesure que leur dicte l’activité de l’ensemble des utilisateurs. Le web est devenu une affaire d’intelligence collective« 

Cette évolution transforme les sites en émetteurs d’informations et les internautes en producteurs de contenus, grâce aux langages dynamiques qui permettent de mettre en situation de co-développeurs les internautes. Les liens vont dans les deux sens, permettant un vrai dialogue grâce aux trackbacks (rétro lien) qui permettent de réagir à des notes en postant commentaires, nouveaux liens …

Les exemples d’intelligence collective ne manquent pas : Napster transformant chaque client en serveur au service du réseau, la Page Rank (classement de page) de Google, méthode de classement basé sur les liens hypertextes (et non sur l’analyse des contenus), l’encyclopédie Wikipedia, triomphe du travail collaboratif, ou n’importe quel utilisateur du web peut enrichir ou modifier un article … Signalons également l’importance du buzz (ou « marketing viral », le bouche à oreille) et l’implication des utilisateurs dans le réseau, appellé par certains la « sagesse des foules » …

Pour le philosophe Pierre Levy, initiateur des arbres de connaissances et philosophe du cyberespace : « Il s’agit d’une mutation culturelle comparable à l’invention de l’écriture, si le langage oral porte l’intelligence collective de la tribu, l’écriture l’intelligence collective de la ville, le futur Web sémantique exprimera l’intelligence collective de l’humanité mondialisée interconnectée dans le cyberespace ».
« L’intelligence collective existe dès les sociétés animales … Elle accomplit un saut fantastique avec l’humain du fait du langage, de la technique et des institutions complexes qui caractérisent notre espèce. L’évolution culturelle humaine peut être considérée comme un lent processus de croissance de l’intelligence collective, qui suit un parcours en zig-zag, plein d’essais et d’erreurs, mais avec quelques grandes étapes irréversibles à long terme … l’avènenement du Web représente un pas de plus dans cette longue histoire ».

« Le Web accomplit trois grandes mutations :
1) tous les documents et tous les types de représentation sont virtuellement interconnectés.
2) Tout document présent en un point du réseau est virtuellement présent partout dans le réseau.
3) Les signes ont acquis une capacité d’action et d’interaction autonome grâce au logiciel ».

Ou sont les pistes de développement ?

Deux enjeux stratégiques se dégagent aujourd’hui : celui des données et du portail.

La course pour la possession de données stratégiques est en cours … Données libres, données propriétaires … AU regard de la diversité du type de données et du développement de la numérisation, le débat fait rage et concerne également les bibliothèques (voir note), les photos de satellites mais aussi le téléchargement rebondissant sur d’autres problématiques, plus juridiques celles ci concernant le droit d’auteur (ou le droit d’éditeur). Un débat ouvert également dans d’autres domaines comme celui de la génétique … .
Des données sur lesquelles des nouveaux services se greffent … GPS et aide à la conduite par exemple à partir des photos de satellites … Le champ d’action ouvre des perspectives phénoménales …
Autre enjeu de taille : l’importance fondamentale du portail. Celui ci devient de plus en plus complet et global. Complet dans les services proposés : messagerie instantanée, gestion des agendas, carnet d’adresses, informations, navigateur … Global sur la diversité des plate formes et supports accessibles … PDA, GPS, voiture, ordinateurs (PC, LINUX, MAC) … Un marché qui fait beaucoup d’envieux : Yahoo, Google, Microsoft et auquel s’invite de nouveaux venus tel Apple notamment …

L’Internet est redevenu du coup, l’eldorado des entrepreneurs. Les USA connaissent une vague de création de services web sans précédent, en France cela frétille tout juste bien que les clignotants soient au vert : puissance et simplicité des technologies, présence d’investisseurs, modicité du budget à réunir pour se lancer.
La dynamique est lancée et devrait au regard des caractéristiques du Web 2.0 plutôt concerné des start up que des grandes entreprises, alors que c’est exactement le contraire que vien de faire notre gouvernement, tout récemment … L’informatique logicielle est un sentier de croissance vertueux, ce qui dans le contexte actuel n’est pas rien, et devrait interpeller les politiques sur la priorité des aides à accorder devant plutôt se diriger vers des petites structures réactives (les virtuels Google de demain ) que dans des grands groupes. Il faut avant tout essaimer. Le choix des projets à aider devant être effectué selon certains critères par des spécialistes reconnus dans la partie (une sorte de « business angel institutionnel »), des pistes existent …

Le développement du logiciel libre, par exemple, permet de développer de nouveaux services au meilleur coût mais également de nouveaux emplois. Les applicatifs à mettre en place et à implanter permettant d’optimiser le formidable potentiel du Web 2.0 demande une assistance et un savoir faire local. Encore faut il que les pouvoirs publics et les collectivités territoriales soient moteurs dans ce domaine et qu’on les aide dans cette démarche.

Deux exemples concrets concernant une commune :

– Elle peut bénéficier de subventions (Etat, département, région) sur l’acquisition de matériel (au titre de l’investissement) et non sur un développement logiciel effectué par une Web Agency Locale. Pourtant l’essentiel des pièces d’un ordinateur est produit en Asie du Sud Est (surtout en Chine) alors que le développement, l’implantation et le paramétrage d’applicatifs utilisant des solutions à base de Linux ou de logiciel libre « Open Source » (Appache, SPIP …) nécessitera l’intervention d’un informaticien local, et permettra d’agir efficacement pour l’emploi (qu’il soit direct ou indirect).
– Une acquisition de matériel ou de logiciel permet à une commune de récupérer la TVA, une intervention logicielle, non …

Un buzz est une technique de marketing viral qui repose principalement sur le phénomène de bouche à oreille. Il s’agit de faire parler d’un produit ou d’un service avant son lancement officiel en distribuant, de manière parcimonieuse et parfaitement calculée, des informations ou des rumeurs qui entretiendront la curiosité des Internautes. Un buzz bien encadré peut amener à rendre un produit célèbre avant même sa sortie.

Xanadu, né en 1960, le projet Xanadu lance un nouveau de système d’information « au bout des doigts ». Ted Nelson, son animateur invente l’hypertexte. Une vision avant-gardiste utopique qui peu à peu dessine le devenir de ce que sera plus tard Internet

Article de O’Reilly (en français)

Blog de Francis Pisani : Transnet (voir dans mes favoris)

La réponse de Gutemberg à Google

Un bras d’honneur prémonitoire

Il y a quelques années une affiche faisait les délices des métiers de l’imprimerie et de la presse écrite : « la réponse de Gutenberg à Mac Luhan », elle montrait l’ancêtre des imprimeurs effectuant un bras d’honneur au sociologue canadien Mac Luhan qui avait eu le malheur d’annoncer bien imprudemment la fin de « l’ère Gutenberg » ; force est de constater que 30 ans après les faits ont donné tort au spécialiste canadien.
Bien que l’annonce faite par Google, en octobre 2004, de créer une bibliothèque numérique universelle gratuite ait occasionné beaucoup de réactions passionnées,  elle ne représente pas pour autant, même à titre posthume, la victoire de Mac Luhan, loin s’en faut, le média privilégié étant toujours le support écrit; ceci étant dit la suite des épisodes est encore à écrire.
L’idée développée par Google n’est pourtant pas révolutionnaire, les avantages des supports numériques dans l’archivage électronique sont connus : ils s’affranchissent du vieillissement, de la rareté et de la fragilité du support d’origine (quelquefois de vieux parchemins), sont duplicables à l’infini, accessibles à volonté et possèdent tous les autres avantages liés à l’informatique (indexation, recherche …); il n’y a pas photo !

Un passage obligé cependant, délicat lorsque l’on parle de parchemins ou de vieux ouvrages, le but n’étant pas de les détruire aprés usage (des machines spécifiques ont été élaborées pour réussir cette mission),  la phase de numérisation ;  deux techniques existent :

– le « mode image », qui présente l’avantage d’être rapide et économique mais l’inconvénient de ne pouvoir donner de sens au texte, car il s’agit d’une simple photo de la page scannée,
– le « mode texte », qui possède le double inconvénient d’être plus long et coûteux, il faut d’abord procéder à la numérisation de l’ouvrage, ensuite un logiciel de reconnaissance de caractères (OCR) « traduit » la page scannée et la transforme en fichier texte; ce qui ensuite autorise le traitement de l’information : indexation, recherche, indexation et même traduction … Facile lorsque l’il s’agit de pages déjà imprimées, beaucoup plus délicat lorque l’on scanne des pages calligraphiées ou écrites dans une langue ancienne ou certaines polices de caractères.
Chaque grande nation possède une Bibliothèque nationale où l’on connaît ce style de technique; pourtant jusqu’à présent, excepté quelques expérimentations aucune opération d’envergure de numérisation de fonds documentaire n’avait été menée. Si Gallica, (la bibliothèque numérique de la Bibliothèque de France) compte près de 80 000 ouvrages numérisés, seulement 1 250 le sont en mode texte; or le projet Google Print repose sur une numérisation en mode texte …

on va comprendre tout de suite les raisons de ce choix.

 

La « Porte de Dieu »

L’irruption de Google dans le monde feutré des bibliothécaires a suscité la controverse et des réactions politiques à la chaîne. Réactions compréhensibles  face aux dangers représentés par cette initiative. Il s’agit ni plus, ni moins de la main mise d’une entreprise multinationale privée, américaine de surcroît, sur La bibliothèque universelle. Cette véritable tour de Babel virtuelle agrégeant la somme des connaissances humaines disponible à saciété depuis chaque ordinateur qui était jusque là une utopie poursuivit par des générations de philosophes, de lettrés et de savants.
Rappelons que la tour de Babel (Babel signifiant La porte du Dieu), construite par les descendants de Noé était destinée selon la Bible (genèse 11) à atteindre le ciel afin de permettre aux hommes de s’élever au niveau des Dieux. Devant le danger représenté par cette construction, Dieu créa les langues étrangères … Les hommes ne se comprenant plus ne purent plus travailler ensemble.  Succès sur toute la ligne de la puissance divine qui peut être vérifié à chaque bulletin d’informations !

L’ultime obstacle à la réalisation de ce projet n’est pourtant ni financier, ni technique. Car si la logistique à réunir pour numériser les livres (du haut des rayonnages des différentes bibliothèques c’est plus de 560 années de connaissances qui nous contemplent), notamment les ouvrages anciens, est trés importante ( temps, moyens financiers, techniques) elle n’est pas insurmontable.

A contrario les obstacles principaux sont :

– Juridiques : les droits d’auteur de certains livres n’étant pas encore dans le domaine public, Google a connu des problèmes avec certains  éditeurs américains et européens d’autant que les règles liées au droit d’auteur, à la duplication des oeuvres ou à la consultation (nombre de lignes donnant lieu au paiement d’une redevance ou d’un droit ) différent entre les pays …
– Economiques : du fait du danger de constitution d’un monopole de fait sur la Connaissance Universelle avec plusieurs problèmes derrière : quid des Bibliothèques Nationales, quelle langue privilégiée, la gratuité jusqu’à quand … Des interrogations qui expliquent la contre attaque menée par Jean-Noël Jeanneney, président de la Bibliothèque nationale de France, partisan d’une bibliothèque numérique européenne (BNE), dont l’idée depuis a fait son chemin; il ne reste plus qu’à trouver les financements d’une telle entreprise.
– Culturels : le potentiel technique de Google peut permettre à l’internaute de s’affranchir de l’entité livre et du cheminement de la pensée de l’auteur pour ne retenir que des tranches d’information et d’aboutir in fine à une forme de zapping des mots et des pensées.

 Aujourd’hui, nous n’en sommes qu’à une première phase, (http://print.google.fr) qui permet cependant d’avoir une idée assez précise de ce qui va suivre et de l’avantage concurrentiel possèdé désormais par Google dans la gestion de cet énorme fonds documentaire. Les profits à venir sont colossaux : le modèle économique développé par Google ayant démontré que le « tout gratuit » peut receler des niches à profit énormes et inattendues.
Bien que la réponse d’autres acteurs informatiques et institutionnels tels Microsoft et les bibliothèques nationales ne s’est pas fait attendre, n’oublions pas que …

Pour trouver une aiguille dans une botte de foin à défaut d’avoir une paire de trés bons yeux, disposer d’un bon moteur de recherche est souvent suffisant … à ce jeu Google n’est pas trop mal placé …

 

Notes précédentes sur Google :

Big Google is watching you :
http://jmorer.hautetfort.com/archive/2005/11/12/google-toujours-plus-…-pour-nous-servir1.html

Google, No limit :
http://jmorer.hautetfort.com/archive/2005/11/01/googl…
Google, puissance 80 :
http://jmorer.hautetfort.com/archive/2005/09/21/googl…

 

Le seigneur de la matrice

 

Peu avant la naissance du point « .eu », le 7 /12/2005 (l’adresse « européenne »), un évènement de première importance s’était déroulé à Tunis à la mi novembre : le Sommet mondial sur la société de l’information (SMSI). Outre les réactions liées à cette manifestation dont beaucoup relatives à la liberté d’expression en Tunisie (cf rsf et FIDH) ce rassemblement  a été le cadre d’un affrontement sans précédent entre les Etats Unis et le reste du monde.
Les représentants des 176 pays présents ont en effet exigé un fonctionnement plus collectif d’Internet avec une proposition clé, en transférer la gouvernance aux Nations unies. Proposition rejetée par les américains. Au cœur de la « controverse de Tunis », le poids des USA dans la gestion de l’I.C.A.N.N (Internet Corporation for Assigned Names and Numbers) l’organisme qui depuis la naissance du réseau des réseaux dispose du droit de vie ou de mort sur l’adressage du net, le régulateur de la Matrice. Un monopole que n’accepte plus les autres états aujourd’hui, d’autant que le contrat liant l’Icann à Washington arrive à échéance en septembre 2006.

 

Un rappel utile : au cœur du réseau, l’adressage
Chaque ordinateur voulant se connecter à un réseau doit posséder un identifiant unique qui permet aux autres ordinateurs de le retrouver sur la toile mondiale afin de pouvoir communiquer avec lui. Sur Internet cet identifiant est une adresse IP (comme Internet Protocol), une sorte de numéro de téléphone). Chaque ordinateur émettant une requête est identifié par son adresse IP, sa demande est transmise à un serveur (le routeur) qui achemine le message à un autre ordinateur disposant d’une adresse d’arrivée du même type (un message avant d’atteindre son objectif final, est acheminé par plusiseurs autres ordinateurs éparpillés sur la planète). Pour qu’une transaction entre deux ordinateurs soit possible (envoi ou réception de mel, surf sur un site …), il faut obligatoirement disposer d’une adresse de départ et d’une adresse d’arrivée.
Le bon fonctionnement ou non de la toile mondiale dépend de l’activité inlassable des 13 ordinateurs supervisés par l’ICANN qui possèdent le registre (la matrice) autorisant une requête (adresse) à utiliser le réseau qui leur permet de transformer une adresse IP (inutilisable par un simple internaute) en une adresse beaucoup plus facile à mémoriser (telle www.trilport.Fr par exemple) et l’acheminant dans les méandres du réseau des réseaux. Ces serveurs racines (ou « root serveur »)  écrivent en permanence la carte de l’internet. Un seul  maître à bord, l’ICANN qui gère l’ensemble du système au niveau de la planète.

Trois acteurs essentiellement américains
A la base du succès d’Internet des standards de communication simples, solides et éprouvés (né lors de la Guerre Froide, peu après l’affaire de Cuba, le système devait résister à une guerre nucléaire et ne pas reposer sur un seul serveur) reposant sur trois acteurs principaux, avec chacun un rôle bien distinct :

– La standardisation du support, (du média ) basée sur des normes mondiales strictes établies au sein de deux instances par des spécialistes des télécommunications :  l’Internet Architecture Board (IAB) et l’Internet Engineering Task Force (IETF), dont le travail est sous la responsabilité directe et le financement de l’Internet Society (ISOC), association de droit américain créée en 1992 par les pionniers de l’Internet dont la mission est de coordonner le développement des réseaux informatiques dans le monde en édictant des standards à suivre impérativement

Le World Wide Web Consortium (ou W3C), fondé en octobre 1994 est le consortium qui travaille à la compatibilité des technologies du contenu telles que HTML, XML, CSS, PNG, SVG … Le W3C, lui, ne délivre que des recommandations. Il est géré par le Massachusetts Institute of Technology (MIT) aux États-Unis, le European Research Consortium for Informatics and Mathematics (ERCIM) en Europe (anciennement Institut national de recherche en informatique et en automatique français ou INRIA) et l’Université Keio au Japon. 

Enfin, last but don’t least, l’Internet Corporation for Assigned Names and Numbers (ICANN),principale autorité de régulation de l’Internet. Crée en 1998, l’ICANN est une organisation internationale sans but lucratif. Ses principales missions : allouer l’espace des adresses (IP),  gérer le système de nom de domaine et assurer le bon fonctionnement des 13 « serveurs racines  (root servers) sur lesquels repose l’architecture de l’Internet à l’échelle mondiale. L’ICANN délègue son droit sur la vente des noms de domaines à différentes sociétés ou organisations, comme VeriSign pour les domaines .com et .net ou l’AFNIC pour le domaine .fr. en France
Situation pour le moins anachronique, cette organisation dont les décisions s’imposent à l’ensemble des utilisateurs utilisant Internet qu’il soit simple citoyen de la planète, Etat ou multinationale est une association de droit californien, soumise au droit de veto du Gouvernement américain. L’ICANN constitue en effet un véritable OVNI juridique, qui n’est ni une O.N.G, ni une entreprise privée, ni un service gouvernemental, mais une forme d’association sans but lucratif agissant sous le contrôle du département américain du commerce.

Comme chacun peut s’en rendre compte au niveau du casting, nous sommes dans une super production américaine, ces trois acteurs principaux étant historiquement, juridiquement, géographiquement et financièrement américains.

La fracture numérique s’élargit
Autre sujet abordé lors de ce congrés et ce n’est malheureusement  pas un scoop,  l’inégalité Nord Sud dans les technologies de l’information s’agrandit.
Trois exemples pour tout commentaire : 5 milliards d’hommes n’ont pas accés à un ordinateur, 80% des utilisateurs d’internet représentent 20% de la population mondiale et si plus d’un américain sur deux a accés à Internet, pour l’Afrique, cette proportion passe à 3% !

 

Ce congrés s’il n’a pour l’instant encore rien changé démontre une incontestable évolution des mentalités. Face à l’importance d’Internet sur la planète, média incontournable s’il en est, au cœur de toute relation sociale, économique, politique ou commerciale, les pays ne peuvent plus admettre la domination sans partage des seuls USA qui du jour au lendemain sans préavis peut les effacer de la planète.
D’autant que la grande majorité des sociétés actuellement leader dans les technologies de l’information sont américaines; certaines et non des moindres ont même renforcé leurs équipes dirigeantes d’authentiques pionners du net, citons Google avec Vinton Cerf, notamment (lire note), qui est à la fois salarié de cette société et président du conseil d’administration de l’Icann, le mélange des genres est ici atteint. Signalons qu’en décembre 2003 à Genève, ce sujet n’avait pas provoqué de tels débats.
La politique menée par l’équipe Bush n’est pas étrangère à ce nouveau climat intervenant aprés les multiples rebondissements de la question Irakienne, les négociations autour de l’OMC, ainsi que des péripéties relatives au refus de signer les accords de Kyoto, relatifs au réchauffement de la planète et à la lutte contre l’effet de serre.

Un combat légitime qui démontre qu’en matière de télécommunications la mondialisation nécessite également une régulation politique et du multilatéralisme.

La Matrice aussi en a bien besoin …

 

Pour en savoir plus sur les seigneurs du réseau :

ICANN : http://www.icann.org/ ou http://www.icann.org/tr/french.html (en français)
ISOC : 
http://www.isoc.org/  ou http://www.isoc.fr/ (en français)
W3C :
http://www.w3.org/ ou http://www.w3.org/Consortium/Translation/French (en français)

Big Google is watching you

Précision importante, je ne possède pas d’action Google (dommage peut être ?), je ne fais pas non plus de fixation sur cette entreprise, cependant force est de constater que l’activité de la société de Mountain View est passionnante à suivre et ce à plus d’un titre. Figure emblématique de «l’économie de la recherche», Google prend une place croissante dans la vie des internautes de la planète et explore des champs d’applications encore insoupçonnés il y a peu, faisant appel aux toutes dernières technologies et permettant d’effleurer le futur immédiat d’Internet …  Un futur digne d’Hollywood …

Avec Google, chaque jour qui passe apporte son lot de nouveautés. Voici un rapide tour d’horizon des services et outils proposés actuellement aux internautes, dont la plupart accessible directement à partir du menu d’accueil du moteur de recherche (http://www.google.fr/intl/fr/options/ ).

Unique objectif affiché : satisfaire l’internaute Lambda (avec une prédilection, tout de même pour le Cousin Américain) grâce à des outils gratuits simplifiant la vie ! Dans le lot, mention toute particulière à Google Labs (  http://labs.google.fr/   ) permettant d’expérimenter en avant première des versions bétas, apportant du coup un parfum d’aventure à l’utilisateur qui a le sentiment fugitif d’appartenir à la communauté des pionners du net … une impression toute relative d’ailleurs …

 

Florilège d’outils et de services « passe partout »

  • Traitement des photos avec Picassa ( http://picasa.google.com/index.html ). Ce logiciel graphique recherche, classe, modifie et partage les photos contenues dans un PC. Il détecte et indexe les photos automatiquement, les classant dans des albums et autorise les retouches simples, des diaporamas, des envois par e-mail, l’impression, la création de CD …
  • Un utilitaire trés pratique (Google Desktop Search : http://desktop.google.fr/) permettant d’accéder aux informations stockées sur votre ordinateur, ainsi qu’à celles disponibles sur le Web (courrier électronique, fichiers des principales applications bureautiques, fichiers mulitmédias, discussions et pages Web consultées … ).
  • Un moteur de recherche dédié au blog ( Blog search : http://blogsearch.google.fr/). Ce service explore la blogosphère et permet de connaitre l’essentiel de ce que les blogs rapportent sur un sujet qui vous passionne, de retrouver un blog … Les résultats incluent tous les blogs et l’index des blogs est mis à jour en permanence (une fonction trés impressionnante !). Possibilité de rechercher des blogs rédigés en langues étrangères …
  • Disposer d’une revue de presse personnalisé ( http://news.google.fr/). Une page portail permettant d’obtenir une actualité paramétrée en fonction de centres d’intérêts sélectionnés. Google effectue le tri dans des milliers d’articles mis à jour en permanence.
  • Alerte Google (http://www.google.fr/alerts), ce service méconnu permet une veille technologique automatique effectuée par des agents logiciels intelligents informant par courrier électronique des articles publiés en ligne correspondant aux sujets étudiés,  
  • Google sur votre téléphone portable (http://mobile.google.fr/) , 

  • La création et la gestion de blogs gratuits (http://www.blogger.com/start )

 

La messagerie instantanée, un marché prometteur à plus d’un titre.

Ces logiciels liés au développement du haut débit constituent une nouvelle source de revenus publicitaires avec la publicité ciblée, plus efficace car prenant en compte les « intentions » des internautes. Les messageries instantanées étaient dominées jusque là par Microsoft et Yahoo avec leur « messengers » respectifs.
Google Talk remet en cause cette suprématie. Si avec des clients comme Windows Messenger, Skype, Yahoo Messenger ou AIM, les deux contacts avaient l’obligation d’utiliser le même logiciel pour communiquer, Google en faisant le choix d’une technologie ouverte permet de faire communiquer entre eux des internautes utilisant des logiciels différents (Jabber, iChat d’Apple) , l’essentiel est d’avoir le même protocole, cela ne vous rappelle rien ?  Une arrivée qui a incité les trois grands à installer des passerelles entre leurs différents systèmes. 

La messagerie instantannée est en évolution permanente, aprés l’envoi de mels, elle permet désormais les discussions vocales grâce à la technologie VoIp (ou Voice over IP) qui utilise Internet (grâce au protocole IP) pour faire circuler des paquets de données correspondant à des échantillons de voix numérisée et bientôt de la vidéo avec des webcams. A teme ce sont les marchés de la téléphonie et de la viso conférence qui sont en jeu … Pour se démarquer de la concurrence,  Google a élaboré un logiciel qui en plus d’être « open » va à l’essentiel, sans fonctions inutiles et permet une utilisation trés intuitive. Unique obligation, posséder une adresse Gmail pour pouvoir utiliser Google Talk (http://www.invitationgmail.info/).

 

 

La recherche locale et cartographique

 

Grâce à l’acquisition de l’entreprise Keyhole en février 2004, Google a ajouté deux nouvelles cordes à son arc (désormais bien garni) : les marchés de la recherche locale et de la cartographie et les décline avec deux logiciels spectaculaires.

 

Google maps (  http://maps.google.com ), une interface et des possibilités impressionnantes : images satellites, vue en 3D. A partir d’une photo de la Terre, ce logiciel permet à partir de base de données disponibles sur le web, de trouver l’hôtel, le café le plus proche de chez soi. Les pages jaunes du coup sont relégués des années en arrière …

Le moteur se charge lui même d’analyser votre requête. Cette application permet de repérer des adresses sur une carte et sur la photo satellite correspondante. Trois modes de visualisation sont proposés. Le mode Map présente un plan de la ville, le mode Satellite affiche une photo prise de l’espace de la zone concernée, le mode Hybride permet de superposer les informations fournies par le plan aux images satellite.

Le tout est d’une rapidité et d’une fluidité impressionnantes compte tenu des images à afficher et des calculs engendrés par les déplacements sur la carte. Bien évidemment ce logiciel propose également des calculs d’itinéraires. Ce qui lié avec un GPS met du coup Google dans la course pour de nouveaux marchés trés prometteurs …

 

Google Earth (http://earth.google.com/downloads.html ). Logiciel basé sur les archives de National Geographics, est tout simplement extraordinaire. Il  permet en quelques clics d’afficher l’image satellite d’un endroit donné avec des agrandissements suprenants. Le film « Ennemi d’Etat » est devenu réalité ! 

Une précision qui inquiète les spécialistes de la sécurité civile et les militaires et met à portée de n’importe quel internaute l’emplacement d’emplacements stratégiques (bases militaires, centrales nucléaires …) autrefois inacessibles.

 

Google Moon ( http://moon.google.com/ ). Google vous offre la lune. Ce petit frère de Google Maps, permet d’examiner de plus prés de notre satellite favori et les six expéditions américaines officielles qui l’ont visité entre 1969 et 1972.Jusqu’à présent aucune trace de l’expédition de Tintin, affaire à suivre …

.

 

Encore et encore …

 

Google se lance dans la connection Wi Fi avec Google Secure Access. La municipalité californienne de San Francisco l’a autorisé à fournir une connexion Wifi publique et gratuite sur la ville en plaçant des points d’accès à son réseau sur les 1900 lampadaires de la ville. Un financement assuré partir de publicités géo-localisées, de quoi donner des idées à Decaux !

 

Aprés la recherche, les contenus. La bibliothèque online Google Print ( http://print.google.fr/ ) est désormais accessible,; nous reviendrons sur ce projet qui a déjà fait couler beaucoup d’encre (électronique … quoi de pls normal pour une bibliothèque ?) dans une prochaine note. Attention cette version ne constitue pour l’instant qu’un grand catalogue commercial, Google Print « .fr » n’en étant qu’à sa version bêta. A terme ce service permettra de consulter des livres en ligne (en entier s’ils ne font plus l’objet d’un copyright, par extraits s’ils le sont encore). Aprés quelques mois d’arrêt la numérisation a repris, notons que Microsoft se lance aussi sur ce marché et a passé un accord avec la British Library.

 

Des partenariats trés intéressés : Google s’associe avec Sun Microsystems afin de promouvoir la sa suite bureautique Open Office, ainsi que la plateforme de développement Java. IBM et Google ont annoncé l’intégration prochaine de leurs technologies respectives de recherche pour ordinateurs corporatifs. Des rumeurs persistances affirment que Google se pencherait également sur le marché du Système d’Exploitation.

Recherche et développement, Google a conclu un accord avec la Nasa afin de pour construire un centre de recherches commun sur une ancienne base militaire de la Silicon Valley (Californie), non loin de Mountain View, siège la société. Une collaboration sur le secteur de pointe des nanotechnologies (technologies de l’infiniment petit) alliées à celles de l’information et à la recherche de données. Un partenariat qui laisse entrevoir d’énormes potentialités.

.

 

Une seule conclusion s’impose : affaire à suivre …

Comme chacun peut s’en rendre compte, l’avance technologique de Google ne réside plus uniquement dans la pertinence de son moteur de recherche ou dans sa capacité à déployer des applications « on line » intuitives tournant à toute vitesse. Une avance qui repose sur la formidable capacité de cette entreprise à explorer des pistes de travail innombrables reposant sur les postulats de la convergence, de la miniaturisation et du nomadisme étendant du même coup les champs du possible à des horizons autrefois inaccessibles …

Un risque sérieux à signaler toutefois, le croisement des informations individuelles et personnelles disponibles sur chaque internaute.

Un avantage commecial déterminant qui pourrait prendre des proportions insoupconnées, car si l’on y prend garde trés peu de choses risqueront d’échapper à Google …

 

Big Google is watching you !

 

 

Notes précédentes sur Google :

Google, No limit : http://jmorer.hautetfort.com/archive/2005/11/01/google-no-limit.html

Google, puissance 80 : http://jmorer.hautetfort.com/archive/2005/09/21/google-puissance-80.html

Google … « No Limit »

Sur la toile mondiale 75 % des requêtes sont traitées par Google, dont l’action est passée de 85 dollars en août 2004 à plus de 372 dollars fin octobre, cette société est tout sauf une entreprise philanthropique surtout lorsque l’on sait que désormais en France la part publicitaire de l’Internet dépasse celle du cinéma.

A l’instar des autres moteurs de recherche Google propose aux annonceurs d’apparaître sur des sites en fonction des requêtes exprimés par les internautes. A l’origine de cette réussite, deux modules complémentaires et indissociables : Ad Sens et Ad word qui sont loin d’être ses seules armes …

 

Ad sens et Adwords, les 2 font la paire

AdSens (https://www.google.com/adsense/) permet aux différents concepteur de sites Web d’afficher des annonces commerciales sur leurs pages et de gagner ainsi de l’argent. Un plus déterminant qui explique un tel succès : des liens commerciaux qui ont du « sens », les annonces étant en rapport direct avec les recherches des visiteurs ou correspondant à leurs centres d’intérêts. Google diffuse ainsi des annonces pertinentes et mieux acceptées par les visiteurs, dans des emplacvements réservés qu’elle met en concurrence au sein d’un système d’enchères de mots-clés dont le prix varie en fonction de l’offre et de la demande, et ce grâce au module complémentaire Adwords.

Ad words (https://adwords.google.com/select/) constitue le plus grand programme de publicité par mots-clés au monde. Idée géniale, il est basé sur une tarification au coût par clic (CPC) : l’annonceur ne paie que lorsqu’un internaute clique sur son annonce. Grâce à cette approche par mots-clefs ciblés un annonceur peut mettre en avant sa valeur ajoutée et marquer ainsi sa différence avec la concurrence. Avantage essentiel, cette approche permet de contacter des prospects ciblés qui recherche des informations en relation avec les mots-clefs sélectionnés et de générer ainsi un trafic hautement qualifié. Une véritable révolution dans le marketing qui se déplace « de l’inconnu au connaissable » grâce à la constitution d’une quasi «base de données des intentions » des internautes et qui constitue pour la société américaine un vrai filon…

 

Google, acteur global ?

Chaque internaute à partir de son ordinateur, bientôt de son téléphone et d’un accès internet surfe, achète, se déplace, échange du courrier électronique … Google grâce aux divers services proposés le fidélise en lui facilitant la vie : recherche d’information, actualités personnalisées, traitement des photos prises, recherche d’itinéraires, messagerie instantanée, blogs, accés Wi Fi, une liste qui n’est pas exhaustive, sur laquelle nous reviendrons un jour ou l’autre et qui constitue une vraie galaxie d’outils ou de services trés divers et pour certains révolutionnaires. Une fidélité qui permet à Google de ne plus rien ignorer de ses visiteurs … 

Mais la « quête » de Google ne s’arrête pas aux seules annonces publicitaires; son ambition est « d’organiser l’information du monde et de la rendre universellement accessible et utile. » quel que soit le contenu numérique, le type de documents recherchés (texte, image, vidéo, son…) ou le support avec l’arrivée probable de moteurs de recherche pour téléphones portables.

Un appétit qui ne connaît pas de limites, puisque la société de Mountain View s’attaque à Microsoft en débauchant certains de ses meilleurs éléments, a renforcé son staff avec l’arrivée de Vinton Cerf lui même (voir note précédente : http://jmorer.hautetfort.com/archive/2005/09/21/google-puissance-80.html) et aborde le champ des contenus avec l’objectif de bâtir la Très Grande Bibliothèque Numérique mondiale  (« Google Library Project »), en attendant d’autres contenus numériques, sans nul doute et plus encore lorsque l’on sait que désormais dans la téléphonie l’heure est au Triple Play ( offre combinée internet haut débit / téléphone illimitée / télé par ADSL.

Pour Google les champs du possible paraissent infinis … La frontière entre opérateur, diffuseur, fournisseur de contenus est de plus en plus ténue et Google met tout en oeuvre pour devenir un des acteurs incontournables et majeur d’un marché prometteur. La réaction de Microsoft, menacé, qui se rapproche d’AOL, est symptomatique et montre que la lutte sera féroce !

 

Nouveau Libé, mue ou révolution culturelle ?

Pour son anniversaire, Libé s’offre un nouvelle peau … Mue ou révolution culturelle ? Il y a 10 ans, le quotidien Libération lançait le premier site d’informations électroniques français. Bilan aujourd’hui : 27 millions de pages / mois, 200 000 internautes jours, 2eme site d’information généraliste français derrière … Le Monde.

Pourtant tout n’est pas rose dans l’univers de la presse nationale. Paradoxe souligné par Serge July lui même dans l’édito présentant la nouvelle formule de son site, l’audience des journaux se développe, mais leurs recettes diminuent  … Les causes sont multiples pour expliquer ce phénomène : prix de revient, crise de la publicité dans la presse papier, concurrence avec les journaux gratuits …

Ce n’est pas un hasard si Le Monde dans deux semaines lancera une nouvelle formule de son édition papier et que le plus grand site généraliste d’informations mondial, le New York Times, vient de faire lui aussi peau neuve; la presse quotidienne cherche son deuxième souffle.

Pourtant elle attire les investisseurs … Surtout les titres ayant une forte audience. N’en déplaise à Mac Luhan, célèbre sociologue canadien ayant annoncé la fin de la galaxie Gutenberg, l’auteur de la formule choc « le message c’est le médium » …  Dans ce contexte de mondialisation effréné, ce sont les marques qui jouent le rôle de repères et désormais derrière le médium et les informations véhiculées se cache le titre du journal, marque de fabrique du traitement de cette information.

Le contenu traité par les rédactions doit désormais s’adapter aux différentes types de médias; car le développement des différents supports d’information qu’ils soient organiseurs, ordinateurs, télévisions (cf le succcés de la TNT) ou téléphone rend tout le monde accroc à l’info.
Le support n’est plus qu’un des éléments d’une  chaîne complexe dont le point de départ est une rédaction qui passe du mono-produit papier à une entreprise multimédias : papier, net, télé, téléphone ….

 

Le multimédia passe désormais par le net

Le développement du haut débit avec bientôt 15 millions d’internautes français connectés, en attendant le trés haut débit, fait du Net une cible majeure et prioritaire de cet enjeu planétaire. Internet constitue à lui tout seul un laboratoire indispensable pour maîtriser les exigences du média électronique tant sur le plan rédactionnel que sur les techniques liées au son, à l’image ou à  l’interactivité (forum, débat, chat …). Un média qui permet de plus à l’internaute de paramétrer la sélectivité de l’information (selon ses thèmes d’intérêt) et favorise l’émergence de communautés (blogsphère) …

Car si pour Mac Luhan ce n’est pas le contenu qui affecte la société, mais le canal de transmission lui-même, il y a désormais pléthore de canaux de transmission … image choc, mot concept mais quelquefois même émotion …

 

Capacité d’analyse ou réactivité

Auparavant dans la presse écrite, il y avait le quotidien, l’hebdomadaire et le mensuel … Le quotidien traitait de l’actualité à chaud, l’hebdo ou le mensuel analysait cette actualité. Désormais à Libération, le quotidien  analyse, met en perspective et le site traite de l’actualité « on line » … Le temps s’accélère et la durée nécessaire à la réflexion et à l’analyse se raccourcit d’autant … Analyse / Réactivité … Tout se mêle …

La nouvelle formule de ce site est donc plus qu’une mue, elle annonce des bouleversements plus profonds, car au jeu de l’adaptabilité, Libération a toujours été aux avants postes …

Le trés haut débit signifie l’irruption de la télé dans les ordinateurs, dans la presse et bientôt sur nos téléphones portables, une télé allégée au niveau de l’outil de production pouvant véhiculer toutes les images : du studio dernier cri, au téléphone portable qui peut devenir une caméra n’importe où sur le globe .. Information mondialisée, instantanée et interactive …

 

 

Etre une  référence pas un logo …

Cette mutation, transformera à terme la presse en modèle économique rentable; le mouvement de concentration en cours se précise et s’accélère … L’information s’affranchit peu à peu des contraintes techniques, logistiques et financières liées à la fabrication du support  et à sa diffusion … Libération va proposer dans quelques semaines un abonnement pour les internautes, suivant l’exemple du Monde qui a expérimenté cette formule avec succés depuis 2002 ( 67 000 abonnés dont plus de 30 000 nouveaux abonnés).

L’enjeu est ailleurs … Derrière le support et le contenu, demeurent le message, les valeurs et l’éthique. La guerre du golfe a démontré la difficulté pour des journalistes de rester maître de leur message et de garder un esprit critique …

Un titre de presse ( une marque …)  se doit de garder son originalité et ses règles déontologiques. Si Mac Luhan classait les médias en deux catégories : média froid (analyse) ou média chaud (réactivité), il précisait que le média chaud ne demande la participation qu’un seul des sens du lecteur, qui devient ainsi totalement passif et captif perdant tout sens critique …

 

L’enjeu pour un titre comme Libération, est de garder son identité qui est également sa valeur ajoutée … Ce petit plus, ce supplément d’âme qu’il apporte chaque jour à ses lecteurs et qu’il doit absolument préserver quelque soit le médium utilisé …