Tuesday, September 11, 2007

la crise des gratuits

La presse gratuite d'information affiche des résultats remarquables en terme d'audience. 20 Minutes et Metro ont bénéficié d'un fort accroissement d'audience et se placent désormais en tête de la presse quotidienne. Il convient c ependant d'apprécier avec prudence cette performance. Aujourd'hui, aucun des trois gratuits, y compris le dernier né, Matin Plus n'a atteint un équilibre financier. On peut estimer que depuis les premiers lancements en 2002, les greatuits d'information ont globalement perdu près de cent de millions d'euros.

A l'étranger, la situation n'est guère meilleure. rares sont les journaux bénéficiaires et le groupe Métro a affiché des comptes semestriels décevants. Une question se pose alors: est ce que la presse gratuite a un avenir?

Il ne faut pas oublier que les opérateurs de gratuits sont confrontés à un dilemme: s'ils veulent bénéficier d'un fort taux d'audience, indispensable pour la publicité, ils doivent étoffer la rédaction, accroitre leur pagination et affiner leur distribution, toutes choses qui sont fort onéreuses. S'ils cherchent à rogner ces dépenses, leur journal perdra une grande partie de son intérêt ainsi que la faveur des annonceurs, sollicités de tous côtés.

Pour les grands groupes de presse, des choix stratégiques s'imposent. Faut-il continuer à s'engager dans la presse gratuite? Ne vaudrait-il pas mieux investir plus à fond sur Internet. Les services sur le Web sont aussi à la recherche d'un équilibre économique mais leur avenir paraît plus assuré grâce au développement rapide du haut débit dans les principaux pays occidentaux. Les choix de Rupert Murdoch sont très significatifs sur ce point. On observera aussi que le groupe norvégien Schibsted a magnifiquement réussi à développer les services sur Internet qui sont devenus très profitables alors qu'il continue à perdre de l'argent sur 20 Minutes France.

Aujourd'hui, les groupes de presse sont à la croisée des chemins.

Monday, September 10, 2007

Presse et Internet: une chance et un défi


Introduction : comment est né ce nouveau media.

L’information sur Internet est l’appropriation inattendue d’un instrument qui avait d’autres objectifs.
C’est le seul système de communication qui se soit développé en France sans initiative de l’Etat d’où son caractère décentralisé et parfois anarchique.


Chapitre Premier : Internet complément naturel du papier.

Utilisation des mêmes matériaux : textes photos.
Aboutissement de la révolution numérique de la presse écrite qui permet le passage rapide et efficace du papier à Internet.
Possibilité de l’information écrite en continu.
Par le biais de ses sites Internet, la presse écrite peut enfin concurrencer la radio et la télévision. C’est une revanche imprévue de Gutenberg.

Chapitre Deux : Internet, une menace.

Une menace économique. La compétition pour le marché publicitaire et surtout celui des annonces classées. Exemple des Etats-Unis où la presse peine à s’adapter face aux géants de l’Internet et aux innovations incessantes des artisans du Web.
Le débat difficile sur la gratuité. Qui paye l’information ?

Une menace sur la crédibilité des journaux. Multiplication des sites d’information. Pillage des contenus. L’essor des blogs, phénomène ambigu où le meilleur côtoie le pire.

Chapitre Trois : un enjeu majeur pour la liberté de l’information.

Trois impératifs pour la presse quotidienne :
Accepter de se transformer en entreprise de communication multi supports. Ce qui compte désormais, c’est le contenu du message et non son mode de transport. Cela implique un débat de fond avec les rédactions du papier qui doivent accepter cette démarche nouvelle.
Gagner la bataille de la déontologie. L’information brute n’existe pas. L’information instantanée n’est pas un objectif à rechercher par n’importe quel moyen mais un atout supplémentaire à utiliser avec précaution. L’organisation des débats sur le Web implique une prise de responsabilité de l’organe de presse, dans un domaine dont il n’a pas l’habitude.

Défendre les principes de l’Etat de droit dans une société démocratique. Respect de la personne. Autorité des tribunaux en cas de diffamation. La loi de 1881 est le garant du pluralisme sur les sites d’information comme elle l’a été dans la presse écrite. On peut l’adapter mais pas en réduire l’application dans les media électroniques.

Conclusion

------------------------------------------------------------------------------------------------

INTRODUCTION

L’utilisateur d’Internet d’aujourd’hui qui réalise ses transactions sur e-bay, consulte les faits et gestes d’un interlocuteur sur Google et parcourt quelques sites d’information en Français et en Anglais, n’a pas le sentiment d’accomplir un exploit particulier. Ses gestes sont empreints pour lui de la même banalité que le lecteur traditionnel qui fait sauter la bande de son journal reçu par la poste puis le déplie et le feuillette. Pourtant, alors que la presse existe dans sa forme actuelle depuis près de deux siècles, Internet n’a commencé à être utilisé par des particuliers que depuis une quinzaine d’années et n’est devenu un système de communication de masse que depuis moins de dix ans. Quand on songe à la lente montée en puissance de la radio et de la télévision qui s’est déroulée sur plusieurs décennies, on ne peut manquer d’être surpris de la différence de rythme. Certains y verront un signe de l’accélération bien connue des technologies. D’autres, peut être plus perspicaces, en tireront la conclusion que ce nouveau mode de communication était naturellement adapté à la société du 21éme siècle et que son succès correspondait à une logique profonde dont on n’a pas encore analysé tous les éléments.

La rencontre de ce système et de cette logique a été fortuite. On a souvent raconté l’histoire des origines d’Internet. Ce réseau est né de la guerre froide et des travaux d’experts scientifiques du Pentagone. Ceux-ci voulaient mettre en place un réseau de communication suffisamment souple et décentralisé pour continuer à fonctionner en cas d’attaque nucléaire. Ce dispositif Internet fut ensuite utilisé à partir de 1974, grâce à la mise en place d’un protocole conçu par Vint Cerf et Robert Kahn, par des chercheurs désireux d’échanger leurs résultats ou leurs réflexions. Il s’ouvrit progressivement au grand public à partir de 1980 quand les services du Pentagone décidèrent de lever le secret défense et donc de rendre possible l’exploitation universelle des systèmes Internet. C’est alors que de jeunes américains combinant leurs capacités informatiques et leur sens des affaires, transformèrent ces systèmes de communication en sources formidables de revenus. Aujourd’hui encore la Toile est entièrement pilotée par les Américains qui en ont défini la structure et les multiples familles d’adresses.

En France, l’irruption de ce phénomène mondial se produisit dans un contexte très particulier. Il y a dans notre pays, une tradition étatiste forte qui s’est aussi manifestée dans le domaine des media. La presse écrite n’est devenue pleinement libre qu’en 1881, après un siècle de censure et de tracasseries administratives. La télévision et la radio furent placées en 1945 sous le régime du monopole d’Etat, fermement défendu par les majorités de gauche et de droite qui se succédèrent. Il fallut attendre la loi de 1982 pour mettre un terme à un monopole qui, techniquement, n’était plus défendable. Les effets de cette loi ne se manifestèrent qu’en 1984 avec la création de Canal Plus et l’essor des radios commerciales.

Il est révélateur que la création de la télématique, autre ancêtre d’Internet et invention française ne fut pas l’œuvre du secteur privé. Elle fut conçue et réalisée en 1978 par la direction générale des Télécommunications, administration publique qui gérait, dans les années 70, le monopole des Télécoms. Son objectif initial était de créer une forme de service national de communication financé à la fois par les communications téléphoniques et par les petites annonces. Cette démarche technocratique suscita de véhémentes protestations des éditeurs de journaux et tout particulièrement d’Ouest-France, ce qui obligea la DGT à infléchir sa position et à s’ouvrir aux partenariats extérieurs. Bien que la télématique ait été ensuite exploitée par de nombreux utilisateurs privés et notamment les journaux, cette exploitation se déroula dans un cadre administratif strict qui était la conséquence directe du monopole. En dépit de quelques tentatives qui se révélèrent infructueuses, la télématique française ne pus jamais s’imposer hors des limites de l’hexagone.

Il n’en est pas allé de même pour Internet. Non seulement le système est totalement décentralisé mais il se joue des frontières puisque n’importe quel site peut être consulté de n’importe où dans le monde. Par ailleurs, son arrivée a coïncidé avec la disparition progressive des monopoles des Télécoms dans tous les pays européens. Il était donc impossible pour les Etats et, en particulier l’Etat français d’instaurer un contrôle rigide de ce qui apparaissait non seulement comme une bonne affaire commerciale mais aussi comme un nouveau media extrêmement puissant et concurrent redoutable des journaux, radios et télévisions déjà présents sur le marché.

Contrairement à ce qui avait pu se produire dans le passé, pour d’autres media, aucune loi n’et venu réglementer le contenu des services sur Internet, ce qui a débouché sur une situation paradoxale. On peut diffuser sans aucune autorisation un programme audiovisuel de n’importe quelle nature sur un site. En revanche, la diffusion sur le satellite ou par la voie hertzienne exige un passage devant le CSA et l’acceptation par l’opérateur d’un cahier des charges plus ou moins exigeant. Cette différence de traitement n’a pas échappé aux politiques et aux instances de régulation qui s’en sont émus. Le CSA aurait évidemment souhaité étendre son champ de compétence. Toutefois, aucune solution n’a été trouvée à ce jour en raison précisément du caractère transnational d’Internet en dépit du fait que la généralisation du haut débit, rend beaucoup plus accessible la télévision sur Internet.

On s’est donc installé dans une situation de liberté totale, limitée simplement par les règles de droit français sur la diffamation et le respect des personnes. Il ne faut donc pas s’étonner que se soit instauré avec le soutien de l’opinion, un climat de profusion anarchique à côté duquel l’explosion des radios libres en 1981 apparaît comme un modeste mouvement d’émancipation. La création spontanée de millions de blogs notamment grâce à l’initiative de la radio Skyrock, a entraîné un vaste brouhaha au sein duquel il est aisé de s’égarer sans espoir de retour.

Ainsi, Internet est non seulement un moyen de communication nouveau et puissant qui occupe des territoires de l’information déjà fort encombrés mais une force révolutionnaire dont on n’a pas encore mesuré tout l’impact. Cette révolution est particulièrement visible en France où il n’existe pas de tradition libertaire à la différence par exemple des Etats-Unis. De ce point de vue, on ne peut pas tirer de comparaison avec l’évolution passée de l’audiovisuel qui est passé du public à une juxtaposition du public et du privé grâce à une succession de lois longuement débattues au Parlement et ne laissant pas de place à des initiatives anarchiques. Or, il ne viendrait à l’idée de personne de réclamer aujourd’hui la création d’un service public d’Internet. Même le statut juridique des fournisseurs d’accès, ces aiguilleurs du Web, fait débat. Là est toute la différence avec l’histoire passée des media en France. C’est le signe évident que notre pays s’engage, bon gré, mal gré, dans un processus d’éclatement des moyens de communication qui va à l’encontre de notre longue tradition jacobine et étatiste. L’impact de ce bouleversement qui concerne peu ou prou la totalité de la population, sera considérable sur la société française même s’il est beaucoup trop tôt pour en dresser le bilan.

Face à cette situation que personne n’avait prévue la presse et, surtout la presse quotidienne d’opinion a réagi assez rapidement et souvent de façon constructive, en s’efforçant d’apprivoiser ce nouveau mode de communication. On peut cependant lui reprocher de ne pas avoir posé de façon claire et complète la question fondamentale sur le respect de l’information et la sauvegarde du pluralisme, en bref tout ce qui garantit la légitimité du quatrième pouvoir dans les sociétés démocratiques.

Or, il faut le redire, Internet est une révolution qui change radicalement les règles du jeu dans le monde de la communication. En effet, ce système est peu coûteux, facile à utiliser et totalement transnational, sous réserve des barrières que peuvent constituer les différences de langues. On ne pourra en tirer le meilleur parti que si on réfléchit sérieusement à son mode de fonctionnement au lieu de subir passivement ses mutations successives de plus en plus rapides et guidées exclusivement par des préoccupations économiques. Si cette réaction, bien tardive, ne se produit pas, il est à craindre que la tornade Internet n’ébranle de manière définitive les fondements de notre démocratie en effaçant les informations qui nourrissent le dialogue des citoyens et le pluralisme derrière un brouillard de messages incohérents ou purement mercantiles.

CHAPITRE PREMIER

Internet et le papier

Un des aspects les plus sous estimés du phénomène Internet est la rapidité avec laquelle les journaux ont adopté cette nouvelle technologie. A partir de 1995, les principaux titres des pays occidentaux ont créé des sites Web qu’ils ont alimenté avec leur contenu quotidien et cela, à une époque où une faible proportion de la population était connectée. Toutefois, ce constat satisfaisant en apparence, ne doit pas masquer une réalité plus complexe. La presse n’est jamais parvenue à maîtriser totalement ce système de communication si nouveau, qui est à la fois complémentaire et concurrent. Au surplus, de nouveaux acteurs, venus en général de la côte Ouest des Etats-Unis et totalement étrangers aux medias ont accentué la dureté de la compétition. Ils ont introduit une incertitude majeure pour les années à venir en créant des géants qui visent tous à étendre au monde entier les mailles de leur réseau à la fois informatif et commercial.

Quand Ouest-France décida en 1996, à l’instar de ses confrères, d’ouvrir un site Internet, il nous apparut que l’opération serait.particulièrement aisée en raison de l’expérience que nous avions acquise dans la télématique mais surtout, grâce à la généralisation de la numérisation.

Au cours de la décennie précédente, les journaux avaient en effet bénéficié d’un important bouleversement technique. Grâce aux progrès de l’informatique, ils avaient pu à la fois remplacer les machines à écrire, instruments de travail mythiques des journalistes, par les micro-ordinateurs et supprimer la mise en page manuelle, réalisée désormais sur écran. L’étape suivante qui se profilait dès cette époque, était la numérisation intégrale des photos en raison du développement des appareils électroniques. On arrivait donc au bout d’un processus parallèle à celui que suivait la télévision et qui faisait du journal un produit entièrement numérisé avant de passer à la seule phase mécanique du processus : l’impression sur les rotatives.

Aujourd’hui, ce mode de fonctionnement parait tout à fait normal. Pourtant, il y a moins de vingt ans, la fabrication d’un quotidien était encore d’une extrême lourdeur. Les journalistes tapaient leurs papiers sur des machines à écrire bruyantes et incommodes. Il régnait dans les salles de rédaction un tintamarre assourdissant, qui contraste avec le calme d’aujourd’hui. Les textes passaient ensuite au stade du prépresse et faisaient l’objet d’un montage à la main par des ouvriers du Livre, sur des panneaux avant l’étape de la photocomposition puis de l’impression. De leur côté, les photos prises sur support argentique devaient être développées et acheminées le plus rapidement possible à la rédaction centrale et à l’atelier de montage pour être scannées et intégrées dans les pages.

La coïncidence du tout numérique pour les journaux et de l’essor d’Internet a donc fait de l’ouverture de sites de presse une opération très simple et peu coûteuse. Il suffit d’une seule opération informatique pour transférer chaque jour le contenu du quotidien sur le site Web.

L’arrivée de la télévision, cinquante ans plus tôt, s’était déroulée dans un climat radicalement diffèrent. Aux Etats-Unis comme en Europe, la télévision s’est développée à partir de la radio et en ignorant la presse parce qu’elle ne reposait pas principalement sur l’écrit mais sur la parole ainsi que sur l’utilisation de supports magnétiques et la diffusion par voie hertzienne.

Certains journaux américains essayèrent néanmoins de surmonter les barrières culturelles entre les deux media et d’encourager la polyvalence des journalistes, à qui on demandait de faire à la fois de l’image et du papier. Ces expériences se soldèrent par un échec total. Il était évident que la prise de vue et le montage d’un sujet d’actualité par un journaliste reporter d’images, n’était pas du tout le même métier que l’écriture d’un papier, dont l’objet est de décrire la même réalité en s’appuyant seulement sur des photos. En revanche, en France comme dans les autres pays occidentaux, de nombreux journalistes de radio sont passés sans difficulté majeure à la télévision, illustrant les affinités entre les deux médias.

Pour Internet, les obstacles culturels étaient beaucoup moins importants. Au départ, les sites ont utilisés les mêmes matériaux que les journaux, c'est-à-dire du texte et des photos. Pour des journalistes de presse écrite, habitués à la micro-informatique, il était aisé de passer de l’un à l’autre puisqu’il s’agissait simplement de rédiger et de faire de la mise en page, avec au surplus, les facilités offertes par l’informatique. Le métier restait pratiquement le même.

Aujourd’hui, la situation a changé car, avec l’essor du haut débit, les images mobiles, la vidéo commencent à envahir les sites et on peut désormais les regarder dans les mêmes conditions de confort que sur un récepteur de télévision. Toutefois, cette évolution a été relativement lente et liée à l’équipement progressif des foyers, si bien que le texte continue à dominer l’ensemble des contenus diffusés sur le Web. Néanmoins, cet état des choses touche à sa fin. Une réflexion sur l’information sur Internet ne peut plus faire l’économie du traitement des images car celles-ci sont appelées à jouer un rôle majeur dans le futur.

La politique suivie par les principaux titres occidentaux, au cours des années 90, fut à peu près uniforme. Elle consista à offrir gratuitement la totalité du journal sur Internet et, parallèlement, à recruter des équipes de journalistes pour rédiger, en cours de journée des papiers destinés à actualiser l’information, voire pour réécrire des articles afin de mieux les adapter.à l’écran de l’ordinateur.

Cette formule eut le mérite d’attirer un public nombreux sur les sites de presse, à un moment où seule une fraction de 5 à 10% de la population était connectée. Elle présentait en revanche l’inconvénient d’être coûteuse et d’habituer les lecteurs à la gratuité totale.

Aux Etats-Unis, les principaux quotidiens tels que le New York Times ou le Washington Post recrutèrent ainsi des rédactions électroniques de 50 à 60 journalistes et acceptèrent des budgets de fonctionnement annuels d’une trentaine de millions de dollars. Il en alla souvent de même en Europe où l’Irish Times de Dublin, par exemple, employait en 1999, vingt journalistes pour un service qui visait surtout la vaste diaspora irlandaise en Amérique et en Australie. A l’époque ces charges étaient considérées comme supportables par des journaux qui bénéficiaient de fortes rentrées publicitaires. Le taux de rentabilité des journaux américains, qui est très supérieur à celui des Européens est de l’ordre de 15 à 20%. Il permet donc d’importants investissements sur le long terme sans mettre en péril l’équilibre du journal. Les titres d’Outre Atlantique dépensèrent donc sans compter et sans avoir une idée claire de ce vers quoi ils se dirigeaient.

Quelques journaux, plus spécialisés, comme le Wall Street Journal ou, en France, les Echos, décidèrent cependant d’offrir une formule payante. Ils furent très critiqués à l’époque mais, en raison, précisément du type d’informations financières spécifiques qu’ils proposaient, ils trouvèrent leur public. Aujourd’hui, le Wall Street Journal a 600 000 abonnés et les Echos, 30 000. Leur formule fonctionne bien.

Ouest-France, pour sa part, prit la décision de ne jamais proposer gratuitement la totalité de son contenu. Cette attitude pénalisa au départ le site dont l’audience se trouva, les premières années, à la traîne des autres titres de la PQR, loin derrière, par exemple, les DNA de Strasbourg. Au fil du temps, cependant, l’équilibre se rétablit et, en 2006, avec 5 millions de visites par mois, Ouest-France.fr est, de très loin, le n°1 de la PQR. Entre temps, il est vrai, le nombre de foyers connectés avait été multiplié par 100, passant de 90 000 en 1996 à 10 millions en 2006 dont plus de 80% d’abonnés au haut débit sans oublier tous ceux qui consultent Internet au bureau.

Pour quelles raisons avons nous refusé la gratuité ? Tout d’abord, pour une question de principe. Il nous parait choquant de fournir gratuitement sur le Web un journal qu’on doit payer pour se procurer la version papier. C’est pourquoi le lecteur qui veut consulter la version intégrale en PDF d’un numéro du journal, doit en acquitter le prix qui est le même que celui de la version papier.

Par ailleurs, avec ses 42 éditions, le quotidien a la capacité de proposer, lui aussi, des services spécifiques, à l’instar des Echos. Ces services, c’est l’accès aux vastes banques de données d’informations locales, mises à jour chaque matin et qu’il est malaisé de consulter à travers les 500 pages de l’ensemble des éditions sur papier. L’informatique, en revanche, fournit l’outil idéal de consultation. Elle opère un tri instantané des informations utiles en fonction des besoins des utilisateurs. Cependant, ce service qui repose sur un réseau très dense de collecte de l’information s’étendant sur trois régions est extrêmement coûteux car il mobilise 550 journalistes et 2500 correspondants. Il mérite donc rémunération. Actuellement, 150 entreprises et collectivités sont abonnées à cette revue de presse locale en ligne fondée sur un choix de mots clé à l’initiative des utilisateurs. Un autre service

Depuis trois ans, la plupart des quotidiens sont revenus, au moins partiellement, à des services payants. C’est ainsi, par exemple que le New York Times propose depuis 2005, Times select qui, moyennant un abonnement annuel, donne accès aux éditoriaux rédigés chaque jour par une équipe prestigieuse comprenant des vedettes comme Thomas Friedman ou Maureen Dowd ainsi qu’aux très riches archives du journal en remontant à 1981. De leur côté, le Monde, le Parisien ont aussi commencé à offrir des services payants concernant des compléments de l’information quotidienne et l’accès aux archives.

Il existe enfin des périodiques diffusés uniquement sur Internet. Il s’agit souvent de lettres d’information spécialisées mais parfois aussi de vrais magazines d’information comme Slate et Salon aux Etats-Unis. Le cas de Slate est particulièrement intéressant. Cet hebdomadaire d’un nouveau type, dont le contenu se modifie tous les jours, a été créé par Microsoft. Toutefois, au bout de quelques années, l’équipe de Bill Gates a estimé que ce n’était pas son métier de diriger un organe de presse, même sur le Web. Elle l’a donc vendu au Washington Post qui a mis en œuvre de multiples liens avec le quotidien sans que la qualité du périodique en souffre et en maintenant la gratuité. Les articles de Slate et notamment ses analyses de politique étrangère sont cités dans les revues de presse dans les mêmes conditions que les publications sur papier et son audience est considérable.

Si on dresse le bilan de l’ouverture de la presse quotidienne à Internet, on est frappé à la fois par la vitesse avec laquelle elle a assimilé ce nouveau moyen d’expression, mais aussi par sa difficulté à en tirer un profit économique. La gratuité, le recrutement d’importantes rédactions dédiées exclusivement au Web ont coûté cher. Les riches journaux américains ont eux-mêmes été contraints de réduire la voilure ces dernières années pour tenir compte de la baisse de leurs recettes publicitaires. En France, des titres comme le Figaro ou le Monde ont dépensé des dizaines de millions d’euros qui ont aggravé des déficits récurrents avant de parvenir, tout récemment, à l’équilibre. Jusqu’à présent l’élargissement et le rajeunissement du public touché ne s’est pas traduit par une augmentation significative des recettes des titres, au moins dans notre pays. On peut même estimer que dans le cas de Libération l’accès gratuit au quotidien sur le site, a détourné du journal payant une partie non négligeable du lectorat, notamment chez les jeunes sans pour autant permettre une rentabilisation du site Web faute de publicité. En revanche, le passage du gratuit au payant, en changeant les habitudes des internautes, entraîne souvent une forte chute de l’audience.

Il n’en demeure pas moins qu’Internet a fourni aux enfants de Gutenberg une chance imprévue de prendre une revanche sur les medias électroniques, radio et télévision. Il est désormais possible de consulter dans la journée un site de presse et d’y trouver les brèves d’actualité relatant un évènement local, national ou international, au moment même où ces évènements font l’objet d’un message radio ou télévisé. Jusqu’à présent, la télévision concurrençait la presse en fournissant des images d’actualité, plusieurs heures avant la sortie du quotidien L’inverse est désormais possible. Au moment des attentats du 11 septembre 2001, la plupart des Américains se sont précipités sur les chaînes télévisées d’information en continu mais les sites des journaux ont aussi connu des pics d’audience. Il est probable qu’avec l’extension du haut débit dont bénéficient 80% des foyers américains connectés, les sites des journaux seraient encore plus consultés aujourd’hui en cas de catastrophe nationale par un public désireux d’aller plus loin dans la compréhension de l’information livrée trop souvent sous forme d’images brutes par les chaînes.

De même, on a constaté sur les 29 sites de ville d’Ouest-France (www.maville.com) que les internautes se précipitaient pour consulter, dès qu’ils entendaient parler d’un évènement concernant leur environnement proche. Le besoin d’être immédiatement réactif est une contrainte que nous n’avions pas perçue au départ car nous étions habitués au rythme plus lent du quotidien conçu dans la journée et imprimé dans la nuit, une organisation qui présente l’avantage de permettre une vérification des fais et des sources dans un délai raisonnable.
L’examen des chiffres d’audience nous montra qu’il y avait une forte attente des internautes pour l’actualité encore plus immédiate et qu’on ne pouvait pas se contenter de les renvoyer à l’édition du journal du lendemain. Il a donc fallu imaginer un système d’informations rapides mais contrôlées, quitte à renvoyer, pour plus de détails et de réflexions à l’édition papier.

Cet état de choses conduit à se poser, une fois de plus, la question de la nature exacte du media Internet. Les dirigeants des entreprises de presse ont tendance encore maintenant, à n’y voir qu’un prolongement du journal, une concession faite à un public qui ne fait pas son devoir en s’informant en priorité par le papier mais dont on espère qu’il y reviendra, l’âge aidant, en faisant amende honorable. Or, il s’agit de bien autre chose : la combinaison de l’instantané et de l’interactivité, ce que même le quotidien le mieux organisé ne parvient pas à réaliser complètement en raison de la relative lourdeur de l’impression et de la distribution du papier. De ce point de vue, les services d’information sur le Web sont proches de la radio pour qui ils constituent une menace grandissante mais ils offrent, à la différence de celle ci, des images, photos et vidéo ainsi que des analyses plus approfondies

Les directions des entreprises de presse doivent donc s’adapter à une réalité nouvelle qui transforme progressivement leurs publications en agences de communication multi supports. Comme le soulignait récemment Eric Shafer, un éditorialiste de Slate et[1] du Washington Post, la presse doit se soumettre un régime minceur pour survivre. Elle doit renoncer à certaines catégories d’information comme les résultats hippiques ou la Bourse qui encombrent les éditions sur papier, alors que Web les accueille aisément, grâce à son infinie capacité de stockage et de classement. Elle doit donner la priorité à la collecte des nouvelles pertinentes, par tous les moyens, pour ensuite les faire circuler, par tous les moyens aussi et accepter par conséquent une baisse de sa .pagination et de sa diffusion. Ces deux données, souligne Shafer, ne sont plus un critère incontestable de succès pour un groupe multimédia qui voit parallèlement grimper l’audience de ses sites.

L’effort d’adaptation concerne aussi les journalistes. Ceux-ci n’ont jamais été favorables à la polyvalence. Toutefois, cette réticence qui était compréhensible quand on demandait à la même personne de manier la caméra et le stylo, l’est beaucoup moins quand il s’agit de passer de l’écrit sur le papier à l’écrit sue le Web. Les revendications des journalistes de presse écrite ont porté sur deux points : d’une part, l’octroi de droits d’auteur en cas de rediffusion d’un article sur Internet ; d’autre part, le recrutement d’équipes spécifiques pour l’alimentation des sites.

Sur le premier point, les directions des journaux en France comme dans la plupart des pays d’Europe ont dû s’incliner. Certes le profane qui découvre le problème s’étonne qu’on rémunère deux fois le même papier sous prétexte qu’il est transféré sur un autre support. Il n’y a aucun travail supplémentaire, aucune valeur ajoutée. Toutefois, les dispositions législatives sur le droit d’auteur en matière de propriété intellectuelle sont claires. La rémunération est de droit. Ne pas respecter cette clause expose à une condamnation immédiate par les tribunaux. Seule une directive européenne permettrait de modifier ce système qui s’applique à tous les pays qui échappent au régime anglo saxon du copyright. Or cette directive n’est pas près de voir le jour en raison du lobbying intense des sociétés d’auteurs et du refus des britanniques d’abandonner le copyright pour toute autre formule « continentale ». Les journaux français se sont donc résignés à la double rémunération en concluant des accords d’entreprise avec les syndicats de journalistes. On a adopté la solution la plus simple en versant une somme forfaitaire annuelle à tous les membres de la rédaction, quelle que soit leur contribution au contenu du site.

Le recrutement d’équipes spécifiques a, comme on l’a déjà indiqué, grevé lourdement les budgets des journaux. Etait-ce pour autant nécessaire ? On peut répondre par l’affirmative si on estime qu’Internet est un media entièrement nouveau, impliquant le création d’un nouveau langage et faisant, dans une large mesure, table rase du passé.

Quand Ouest-France s’est posé cette question, nous avons toutefois répondu par la négative. Il est vrai qu’Internet bouleverse le mode de distribution de l’information. Il n’en demeure pas moins que le travail de fond reste le même. Ce qu’on demande aux journalistes, c’est collecter les faits et les vérifier avant de les publier. Pour le Web proprement dit, il faut rédiger des brèves, c'est-à-dire faire un travail qui n’a rien de neuf puisqu’il est réalisé depuis des décennies par les collaborateurs d’agences comme l’Agence France Presse. Dans ces conditions, nous n’avons pas constitué de rédaction spécifique. Seuls quatre journalistes assurent la coordination des infos locales. Pour le reste, ce sont les rédactions du journal qui introduisent sur les sites des villes concernées, les brèves qui permettent de suivre tout au long de la journée l’actualité brûlante. Ainsi chacun est sensibilisé aux exigences des deux medias qui suivent leur cours en bonne harmonie et en respectant les même critères de qualité. On s’efforce enfin de ne rien mettre de hasardeux ou de prématuré sur le Web, pour éviter des démentis ou des plaintes qui nuiraient à la crédibilité du support. C’est l’intérêt de s’appuyer sur une rédaction étoffée mobilisée pour le journal papier.

Le plus délicat est la gestion de l’interactivité. Il est intéressant et utile de recueillir des réactions instantanées de lecteurs. On ne peut pas pour autant se laisser submerger par les courriels qui seront de plus en plus nombreux à mesure que le public s’équipera et s’habituera à les envoyer. Il faudra donc trier et ouvrir des créneaux horaires de débats sur les sujets du jour, ce que les internautes appellent dans leur jargon les « chat ». Les journaux américains se sont déjà lancés à fond dans cette démarche souvent appuyée sur la vidéo, qui remplace avantageusement les forums de lecteurs mais implique aussi un contrôle rigoureux pour éviter les dérapages racistes ou diffamatoires, fort nombreux sur le Web. De ce fait, l’instantanéité absolue, rêve de tous les jeunes internautes, n’est pas possible. Il faudra se contenter d’un léger différé rendu nécessaire par la puissance du Net. De même, on ne pourra pas organiser systématiquement un dialogue en temps réel avec les auteurs des articles. Ceux-ci ont comme tâche prioritaire la collecte de l’information et ils ne peuvent pas tout faire à la fois. Enfin, l’attention du public a aussi ses limites. Quand on considère les longues colonnes de blogs qui s’étalent sur les sites des journaux, on ne peut que s’interroger sur leur taux de lecture chez des utilisateurs qui s’intéressent certes aux commentaires mais qui recherchent surtout des faits, ce qu’on appelle bien prosaïquement de l’information.

Les sites de la presse quotidienne, au moins pour les meilleurs, ont donc bien changé par rapport aux tâtonnements des années 90. Ils sont plus réactifs, plus illustrés d’images fixes et mobiles et progressivement envahis de chat et de blogs sur les grands dossiers du jour, ce qui implique de manière croissante la population des lecteurs dans l’élaboration du contenu.

Pourtant cet énorme effort de développement et d’adaptation ne suffit pas. L’univers Internet est balayé de vents violents qui remettent en cause à tout moment les situations les mieux établies. Les enjeux sont économiques et déontologiques.


CHAPITRE II

La menace Internet

L’Association Mondiale de Journaux (AMJ) a entrepris pour ses mandants, la presse quotidienne mondiale, une série d’études sur l’avenir de cette profession. Dans un rapport publié en juin 2006, elle souligne que : « L’inexorable fragmentation des média à notre époque présente un redoutable défi pour les entreprises traditionnelles de communication. Le Web a suscité de formidables concurrents tels que Google ou Yahoo ! qui détournent à la fois de l’audience et de la publicité. La fragmentation des média signifie aussi un morcellement des sources de revenus qui ne correspond plus aux modèles économiques élaborés avant l’apparition du numérique…Ce qui est préoccupant pour les médias traditionnels, c’est qu’Internet a permis aux multinationales d’opérer sur le plan régional et même local. En fait, la bataille pour la publicité locale est devenue une des caractéristiques majeures de l’ère Internet…. Yahoo ! , eBay, Monster, MSN, Craig List ont tous envahi les marchés locaux dans le monde entier et déclarent aujourd’hui qu’ils vont devenir encore plus locaux dans leur recherche de nouvelles recettes. Pour citer un seul exemple, le site d’annonces gratuites Craig List qui est présent dans des centaines de villes à travers le monde ponctionne chaque année l’équivalent de 50 à 65 millions de dollars d’annonces classées au détriment des deux quotidiens de l’agglomération de San Francisco. »[2]

Le document de l’AMJ résume en quelques phrases une situation qui empêche de dormir les responsables de la presse mondiale. Aux Etats-Unis et dans la plupart des pays européens, notamment la France, l’Allemagne et les pays scandinaves, les journaux tirent la majorité de leurs ressources publicitaires des marchés locaux. Jusqu’à présent, ces marchés avaient été relativement protégés. Ils n’intéressaient ni les magazines, ni les chaînes nationales de télévision tandis que les télévisions et radios locales ne pouvaient pas techniquement exploiter le fructueux gisement des annonces classées.

Il n’en est plus de même aujourd’hui. Certes, les journaux se sont engagés dans une prospection systématique de la publicité sur leurs sites, avec des taux de progression annuels de l’ordre de 50%. Dans le cas d’Ouest-France, la publication d’annonces classées sur le Web représente déjà 10% des recettes tirées de ce secteur par le journal. On retrouve cette même proportion dans la plupart des pays développés.

Ces données, bonnes en apparence, ne sont pourtant pas satisfaisantes. Si on prend en considération l’évolution des parts de marché, on constate que la position des la presse ne cesse de s’affaiblir, signe qu’elle recule dans l’absolu en dépit de sa progression relative.

On ne dispose pas de statistiques globales pour la France mais les chiffres relatifs aux Etats-Unis sont instructifs. En 2005, les journaux ne représentaient plus que 41% des recettes de publicité locale sur Internet contre déjà 25% pour ce qu’on appelle les « pure players », c'est-à-dire les entreprises qui ne sont présentes que sur le Web.

Il est vrai que les géants que sont Google, e-Bay ou Yahoo mènent une politique de plus en plus sophistiquée en offrant une gamme croissante de services : petites annonces, information, messagerie, publicité ciblée avec à la clé, un accès gratuit, le financement étant assuré essentiellement par la publicité. L’internaute est donc pris en charge dès le départ et se déplace dans un univers à la fois commercial et convivial qui l’ouvre sur le monde tout en lui offrant les ressources de son marché local.

C’est ainsi, par exemple que Krishna Bharat, le fondateur de Google News, explique que son service d’information n’a pas pour objet de diffuser des nouvelles conçues par lui mais de mettre à la disposition du public une masse d’articles puisés dans l’ensemble des médias, journaux, magazines, agences en renvoyant les internautes sur les sites de ces médias. Google News a obtenu l’accord d’environ 4500 fournisseurs d’information mais l’AFP lui a intenté un procès aux Etats-Unis pour non respect du droit de copyright.[3]

L’étape suivante qui consiste à capter le client tout en lui faisant faire tout le travail lui-même a été franchie par Craig List. Ce site fondé à San Francisco par Craig Newmark qui lui a donné son nom, reçoit toutes formes d’annonces gratuites, dans tous les domaines, y compris, ce qui fait une partie de son succès, les offres à caractère sexuel. Ce sont les usagers qui rédigent et saisissent eux-mêmes les annonces si bien que l’organisation fonctionne avec un minimum de moyens et, contrairement aux medias traditionnels, ne contrôle guère les contenus, en prenant ainsi le risque de dérapages sérieux. Certaines catégories d’annonces plus haut de gamme sont néanmoins payantes, ce qui permet au site, dont les frais généraux sont très réduits, de rester rentable. Des déclinaisons par ville et par pays se multiplient, sans pour autant remettre en cause la structure extrêmement souple et décentralisée du système qui est bien le reflet fidèle des avantages et des dangers d’Internet.

Il est clair que Craig List et ses nombreux imitateurs constituent un péril majeur pour l’économie de la presse quotidienne qui repose dans une large mesure sur les annonces classées. Ils menacent encore plus l’équilibre des sites de presse qui, aux Etats-Unis et au Canada, par exemple, tirent 75% de leurs ressources de ces annonces et contribuent à la marge bénéficiaire des journaux..

Le problème se pose dans les mêmes termes pour un quotidien comme Ouest-France. Les annonces classées représentent environ 20% des ressources du journal dont le niveau de rentabilité n’excède pas 5%. Cela signifie qu’une baisse forte de cette ressource plongerait le titre dans des déficits inacceptables. Pour maîtriser la fuite des annonces vers le Web, nous avons donc créé une offre complémentaire sur Internet. En quelques années, cette offre facultative a été acceptée par 60 à 80% des usagers, fournissant ainsi plus de la moitié des ressources de notre filiale, Ouest-France Multimédia.

Il est vite apparu, cependant que cette proposition complémentaire papier-Web n’était pas suffisante. Pour concurrencer les « pure players », de plus en plus nombreux sur le marché, il a fallu proposer du pur Web, la possibilité de placer des annonces sur nos sites sans passer par le papier. On a commencé par les offres d’emploi où la concurrence était la plus sévère, pour étendre progressivement la formule aux autres rubriques, immobilier, automobile, bonnes affaires.

Il faudra sans doute aller plus loin. Le groupe norvégien Schibsted qui possède plusieurs quotidiens à grand tirage en Scandinavie, a développé avec le réseau Finn, un service important d’annonces de toutes catégories sur le Web qui propose maintenant l’insertion sur le papier en complément d’Internet. Pour tenir compte de la demande du public, on inverse ainsi l’ordre des priorités, le journal, pour se sauver économiquement, devient l’auxiliaire d’Internet. Une évolution inimaginable il y a seulement cinq ans mais qui apparaît inéluctable aujourd’hui.

Ce dispositif commercial a le mérite de limiter les dégâts mais n’est pas pour autant avantageux pour les journaux. Le tarif d’une annonce ou d’un bandeau publicitaire sur le Net est en général 10 fois plus faible que sur le papier. Même si on s’efforce d’économiser sur le coût de fonctionnement en demandant aux clients de rédiger et saisir eux-mêmes leurs annonces, l’écart de prix est trop important pour qu’on puisse sauvegarder les marges. Il y a donc, pour reprendre l’expression favorite des financiers « destruction de valeur ».

Il est à craindre que sous la pression de Craig List on soit obligé d’aller plus loin en ouvrant des fenêtres d’annonces entièrement gratuites pour les bonnes affaires par exemple, en espérant que l’accroissement du trafic amènera plus de bandeaux publicitaires qui compenseront le manque à gagner.

Les sites Internet des journaux sont donc pris dans un dilemme dont ils ne peuvent pas se dégager aisément. D’un côté, ils doivent tenir compte de la préférence pour la gratuité qui s’est jusqu’à présent imposée et que renforcent des services d’information comme Google News ou Yahoo News, multilingues et mis à jour à chaque instant. D’un autre côté, ils souffrent d’une hémorragie publicitaire, surtout marquante pour les annonces classées, sans pouvoir récupérer plus qu’une fraction de l’argent qu’ils gagnaient autrefois. Or, le coût de la collecte de l’information reste très élevé, à moins de recourir à des moyens discutables qui, sous prétexte de l’utilisation des informations spontanées fournies plus ou moins gratuitement par les internautes, risquent de détruire toute crédibilité des médias traditionnels.

La récente guerre entre Israël et le Hezbollah illustre de manière frappante ces risques de dérive. Ce conflit se déroule entre deux pays, Israël et Liban où une grande partie de la population est connectée et équipée de matériel électronique. Il en est résulté un afflux de blogs et surtout d’images. L’hebdomadaire Newsweek soulignait que la source la plus importante d’images sur ces évènements n’était pas l’un ou l’autre des sites traditionnels des média mais Youtube, qui est aujourd’hui, avec 20 millions de visiteurs par mois, un des sites les plus populaires dans le monde. Sur Youtube, n’importe qui peut envoyer de la vidéo sur n’importe quel sujet, une réunion familiale, une escapade touristique ou un intermède érotique. Or, des milliers d’images sur la guerre au Liban ont été envoyées par des vidéastes amateurs qui ont filmé l’exode des réfugiés ou des scènes de bombardement, montrant des séquences qui étaient hors de portée des équipes professionnelles. Ces séquences vidéo ont été très regardées, une partie du public ayant le sentiment qu’elles dépeignaient mieux la réalité que les journaux télévisés trop partiaux ou trop aseptisés.

Cet épisode est le prolongement naturel d’une évolution qui se dessine depuis quelques années. On se souvient des images prises grâce à des téléphones portables lors des attentats de Londres en 2005 et des nombreuses séquences tournées avec de petites caméras électroniques par des amateurs lors de la tornade Katrina et du Tsunami en Asie du Sud Est.

Certains apôtres d’un nouveau journalisme communautaire se sont réjouis de voir ces amateurs franchir la ligne rouge qui les sépare du journalisme professionnel jugé manipulateur et biaisé, même et surtout quand il s’agit de vidéo. Ce point de vue est repris dans de nombreux blogs où se nourrit un esprit de revanche contre la soi-disant dictature des grands médias.

Il est vrai aussi que dans certains cas, un évènement important mais totalement imprévu comme un attentat, ne peut être couvert que par des particuliers présents par hasard sur les lieux. Il est aussi exact que les grands diffuseurs, chaînes de télévision généralistes ou d’information continue ont acheté à prix d’or ces vidéos pour les insérer dans leurs journaux, donnant ainsi un label de professionnalisme à des images recueillies sans travail journalistique Toutefois, ces cas d’espèce ne peuvent pas masquer la question fondamentale de la déontologie de l’information sur laquelle on reviendra au chapitre suivant.

Ce qu’il convient de souligner ici, c’est un phénomène de beaucoup plus grande ampleur et qui est même en train de devenir universel : le brouillage inquiétant qu’entraîne l’afflux de blogs et d’images sur des sites qui n’ont comme seul objectif de favoriser le voyeurisme collectif, dans un but purement commercial.

L’exemple le plus extrême est le site Myspace, acheté l’an dernier pour 580 millions de dollars par le groupe News Corp. de Rupert Murdoch éditeur du Times de Londres et propriétaire de Fox News aux Etats Unis. Myspace appartient à cette nouvelle génération de sites communautaires où un public, composé essentiellement de jeunes échange des informations et des vidéos sur tous les sujets imaginables. Avec plus de 50 millions de visiteurs par mois, Myspace, bénéficie d’un énorme succès qui dépasse largement les seuls Etats-Unis. Il a d’ailleurs inauguré un site en français en août 2006. Il ne fait pas doute que son modèle sera abondamment imité. Sur le plan économique, en effet, c’est un cas de figure idéal : tout le travail de mise en ligne est réalisé par les internautes qui, loin de s’en plaindre, en redemandent en apportant aussi l’audience qui alimente la publicité.

Toutefois, bien que Myspace appartienne désormais à un puissant groupe de communication possédant de nombreux quotidiens et chaînes de télévision dans le monde anglo-saxon, il n’est soumis à aucun contrôle sérieux de contenu. On y trouve tout et n’importe quoi. Cette dérive est tellement marquée qu’elle commence à produire des effets négatifs sur le plan publicitaire. Certains annonceurs hésitent à compromettre leur nom dans un environnement parfois sulfureux. On verra peut être bientôt les responsables du site instaurer un minimum d’ordre moral pour des raisons purement économiques. Toutefois, cette remise en question sera réduite au minimum pour ne pas faire fuir les clients. Elle ne remettra pas en cause les principes de base du site.


CHAPITRE III

Un enjeu majeur pour démocratie

En 2001, Jimmy Wales, un jeune diplômé en finances de l’université d’Indiana, âgé de 34 ans décida de créer la première encyclopédie sur le Web, qu’il baptisa Wikipedia. Aujourd’hui, cette encyclopédie virtuelle comporte plus d’un million de rubriques et éditée dans plus de deux cents langues et reçoit 50 millions de visiteurs par mois.[4]

Le prodigieux succès de Wikipedia nous oblige à poser toutes les questions qui méritent d’être examinées si on se préoccupe de l’avenir de l’information dans nos sociétés démocratiques devenues droguées à Internet.

Le fonctionnement de l’encyclopédie est caractéristique de la nouvelle famille des sites Internet : une structure ultra légère et des contrôles restreints, voire carrément insuffisants. Jimmy Wales dirige, à partir de la Floride, cette entreprise qui a le statut d’une fondation à but non lucratif avec 4 collaborateurs permanents. Les rubriques sont rédigées par n’importe quelle personne qui s’intéresse à un sujet particulier et qui injecte son texte sur le site. Ce texte devenant accessible à tous peut faire l’objet de toutes les modifications imaginables des experts ou pseudo experts qui en ont connaissance. En parallèle, un milliers de spécialistes qui se sont fait connaître de Wales et sont agrées par lui surveillent les domaines qui sont de leur compétence. Enfin, il existe un mécanisme informatique qui est censé éliminer automatiquement les passages pornographiques ou les actes de vandalisme qui détruisent une entrée. Au sommet de l’organisation, un conseil de médiateurs rend les arbitrages sur les litiges concernant les sujets les plus importants.

Ce système repose donc très largement sur l’autorégulation, ce que les Américains appellent le « peer control ». Wales et les partisans de Wikipedia, qui, apparemment, se chiffrent par centaines de milliers, sont convaincus que cette forme libertaire de régulation est tout à fait suffisante pour éviter les bavures sur des sujets sensibles, comme par exemple l’Holocauste ou sur des thèmes liés à l’actualité politique, comme par exemple, la biographie du président Bush. D’après eux, un dérapage flagrant est immédiatement corrigé par les internautes qui consultent en permanence l’encyclopédie.

Toutefois, la fragilité du système est particulièrement évidente dès qu’il s’agit d’actualité car Wikipedia fonctionne aussi comme un organe d’information et a même ouvert un site Wikipedia News. Dans l’étude que lui consacre le New Yorker, l’auteur note que la rubrique « guerre israélo-libanaise » a été ouverte six heures après le début du conflit et que dans les deux semaines de juillet 2006 qui ont suivi, elle a été modifiée quatre mille fois, signe manifeste de l’intérêt des internautes. De même, Wales reconnaît, dans le même article, qu’il a été obligé de retirer plusieurs fois de l’encyclopédie le texte sur W. Bush, tant celui-ci faisait l’objet de vandalisme de la part d’adversaires du président qui truffaient cette rubrique d’obscénités et d’injures. On est loin évidemment de la sérénité de l’Encyclopedia Britannica que les inconditionnels de Wikipedia traitent avec le plus profond mépris. Pourtant, des centaines de milliers d’élèves et d’étudiants, à travers le monde, se servent de l’encyclopédie en ligne pour rédiger leurs essais ou préparer leurs examens, utilisant sans discernement le meilleur comme le pire de ce qu’ils puisent ainsi gratuitement sur le Net.

Si on examine la version française de Wikipedia qui comprend déjà 350 000 articles, on y retrouve les mêmes ambiguïtés que dans la version originale américaine. Ainsi, la rubrique consacrée à l’histoire de l’information comporte une sous section consacrée à l’éthique, ce qui est une bonne chose mais le lecteur qui s’y réfère constate que le principal sujet traité est une réfutation des critiques formulées fin 2005 par le centre Wiesenthal de Californie et reprises par le Monde contre des déclarations à connotation antisémite d’Hugo Chavez, le président très contesté du Venezuela.

On vérifie là les limites de l’encyclopédie qui laisse les plus militants et donc les plus rapides traiter de sujets d’actualité alors que les controverses sur ces sujets ne sont pas apaisées.

Quelles leçons tirer de l’expérience de Wikipedia ? Pour la presse écrite, cette démarche et celles qui se multiplient sur son modèle constituent une épreuve de vérité dans laquelle se joue à la fois sa survie et la sauvegarde d’un certain nombre de valeurs qui représentent l’essence des sociétés démocratiques. L’enjeu dépasse donc le seul sort des médias.

Il ne faut pas pour autant sombrer dans le pessimisme. Si on se réfère à l’histoire des médias, on constate qu’à chaque tournant important de cette histoire, l’apparition de nouvelles familles de publications a entraîné une forme d’anarchie qui s’est ensuite résorbée sous la pression d’un public recherchant avant tout la crédibilité et la vérité.

Dans un autre article du New Yorker sur le journalisme sur Internet, on cite un récent ouvrage sur l’époque des Stuart qui régnèrent en Grande Bretagne à la fin du 17éme et au début du 18éme. Cette période fut marquée par une extraordinaire floraison de pamphlets alimentant une polémique permanente et souvent outrancière. Cependant l’opinion publique de l’époque fit progressivement le tri et la presse y gagna en définitive une meilleure qualité et un plus grand respect de ses lecteurs.

La France a connu une expérience similaire après l’adoption de la loi de 1881 supprimant toute forme de censure de la presse. Les journalistes et éditeurs usèrent et abusèrent de cette liberté nouvelle. On assista à une multiplication de feuilles plus virulentes les unes que les autres, donnant libre cours à la calomnie, aux atteintes flagrantes à la vie privée et à l’antisémitisme le plus délirant comme par exemple dans la « Libre Parole » d’Edouard Drumont. En termes d’éthique, la presse française, à la veille de 1914 se situait au niveau le plus bas de l’histoire du journalisme dans notre pays ce qui ne l’empêchait pas d’être fort prospère et très lue. En 1914, quatre quotidiens nationaux diffusaient à plus d’un million d’exemplaires mais leur contenu serait considéré comme totalement inacceptable aujourd’hui. La présomption d’innocence des personnes inculpées y était bafouée en permanence.

Ce n’est que bien plus tard et surtout au lendemain de la seconde guerre mondiale que les journaux, acceptèrent de respecter un certain nombre de règles garantissant le sérieux de l’information et la protection de la vie privée des personnes. Ils furent aidés en cela par une jurisprudence de plus en plus sévère des tribunaux, et par la prise en compte par l’opinion des récentes leçons de l’histoire. Tout le monde souhaitait tourner la sombre page écrite par les journaux de la France de l’occupation.

La gestion d’Internet comme moyen d’information doit tenir compte de ces expériences passées tout en prenant en considération ce fait nouveau qu’est la dimension planétaire du Net.

Les journaux ont une responsabilité particulière à assumer. Ils doivent pleinement accepter leur nouveau rôle de pilotes de services d’information présents sur plusieurs supports : le Web, le téléphone et, en complément, les publications gratuites. Dans ce système, le journal apporte son réseau de collecte de l’information, sa rigueur, son professionnalisme et il exploite les nouvelles techniques de communication qui lui permettent d’attirer ou de conserver les jeunes dont on sait qu’ils lisent peu la presse traditionnelle. Dans l’idéal, on aboutit à une forme d’organisation qui concilie l’extrême souplesse d’Internet et la qualité qu’on est en droit d’attendre d’un journal alimenté par des femmes et des hommes formés à la discipline et à l’éthique du journalisme.

Cette démarche n’est cependant pas toujours évidente pour les intéressés. L’attachement au papier reste fort aussi bien pour les directions que chez les journalistes avec comme corollaire, la conviction qu’il y a des supports nobles et d’autres moins respectables. Or, toutes les études de marché montrent que dans les pays occidentaux le partage entre ces deux familles de média se fait non pas en fonction de leur image, comme c’est le cas dans la presse écrite avec les magazines ou quotidiens haut de gamme ou populaires mais en fonction de l’âge des utilisateurs. Si on veut habituer les moins de 35 ans à une information de qualité, il est impératif d’être présent sur Internet.même si celui-ci est complété à un moment ou à un autre par une publication imprimée.

Un autre obstacle est la difficulté de concevoir une production qui soit adaptée aux différents supports, ce qui implique aussi un dosage réfléchi entre ce qui est gratuit et ce qui est payant. La lecture de textes longs est peu confortable sur écran, sauf si on les imprime, ce qui n’est pas toujours aisé pour les particuliers. Par ailleurs, les nombreuses expériences menées dans le monde illustrent les inconvénients d’un transfert intégral et gratuit du journal sur le Web. Il est probable que la combinaison idéale consiste à proposer sur le site des informations courtes et constamment remises à jour et à fournir dans le journal payant les papiers plus complets. Le son et l’image qui peuvent être podcastés viennent enrichir le site en apportant un complément qui est hors de portée du journal. Enfin, un système d’abonnements permet d’offrir des services plus spécialisés à une partie au moins des usagers.

Le groupe Washington Post a inauguré depuis plusieurs années une démarche globale qui s’efforce de répondre à ces diverses exigences. La diffusion du journal proprement dit ne cesse de baisser. Elle frôlait les 800 000 exemplaires il y a quinze ans. En 2006, elle est devenue inférieure à 700 000. En revanche, le site Web est un des plus consultés de la presse américaine avec la totalité des articles du journal mais aussi des mises à jour fréquentes, des blogs, des débats et de vidéo le tout en liaison avec le magazine électronique du groupe, Slate. Enfin, le groupe a lancé un quotidien gratuit, Express, à Washington, qui propose une version condensée de l’actualité. Ainsi, les quatre millions d’habitants de l’agglomération bénéficient d’un ensemble d’information portant le label de qualité du quotidien et diffusées par divers moyens.

Ouest France adopte une stratégie assez proche. Sur l’agglomération de Nantes, le journal qui vend 112000 exemplaires est accompagné d’un site Internet fournissant une sélection d’articles, des brèves d’actualité, du son et de la vidéo. Par ailleurs, le quotidien gratuit Vingt Minutes qui est une filiale à 50% du groupe, propose une édition locale tirée à 30 000 exemplaires. Au total, les différentes catégories de la population, des jeunes aux retraités, sont touchées par un des supports du groupe.

Cependant, nos sociétés démocratiques ne peuvent se contenter de ce qui n’est qu’une solution partielle à une question fondamentale sur le type d’informations dont les citoyens doivent disposer pour exercer leurs choix sur la vie de la cité.

On peut, certes se satisfaire d’un pragmatisme à l’anglo-saxonne, comme c’est le cas de l’article précité du New Yorker sur le journalisme sur Internet. Son auteur, Nicholas Lemann qui dirige la prestigieuse école de journalisme de l’université de Columbia conclue en affirmant que : « Les laudateurs d’Internet triomphent par leur rhétorique. Les journalistes traditionnels qu’ils provoquent donnent l’impression qu’ils n’ont pas de réponse à apporter ou qu’ils sont intimidés ou embarrassées. Pourtant, il n’y a guère de rapport entre les prétendues possibilités du journalisme sans journalistes et les résultats concrets de ceux qui s’y engagent. Au fur et à mesure du développement du journalisme sur Internet, l’objectif prioritaire devrait être le transfert des journalistes sur Internet et non l’inverse. ».[5]

La réflexion ne peut cependant se limiter à ce constat de bon sens qui a d’ailleurs fait l’objet d’un débat animé dans les blogs du New York Times puisque certains internautes ont accusé Lemann de caricaturer leur position. Si on veut qu’une déontologie de l’information, telle qu’elle est pratiquée avec plus ou moins de bonheur par les médias traditionnels et les agences de presse, s’étende à l’ensemble des services sur Internet, il va falloir mener un intense effort d’analyse et de persuasion pour mettre au point les modes d’intervention adaptés à cette nouvelle configuration du paysage médiatique.

Certains objecteront qu’en raison du caractère totalement transnational d’Internet, il est impossible d’imaginer une réglementation d’une quelconque efficacité. Il suffit en effet d’abriter un site chez un fournisseur d’accès domicilié dans un pays lointain, sur un autre continent, pour échapper aux rigueurs de la loi. Dans certains cas, le site se dissimule derrière plusieurs intermédiaires, ce qui rend encore plus aléatoire la recherche de responsabilité. Il existe de nombreux cas de recherche infructueuse du responsable final.

La réalité est heureusement plus nuancée. Les grands gestionnaires de services sur Internet tels que Google, eBay, Microsoft, Yahoo ou Monster sont des sociétés commerciales souvent cotées en bourse et qui ne peuvent être indifférentes à leur image. Quand elles font l’objet d’une action judiciaire dans un pays qui est un marché important pour elles, ce qui est le cas de la France, elles s’efforcent de négocier une solution qui leur évite un procès embarrassant qu’elles risquent de perdre. C’est encore plus vrai des entreprises nationales qui ne s’éloigneront jamais du marché sur lequel elles travaillent et sont donc obligées de respecter la loi. Au demeurant, la langue constitue encore une barrière difficile à franchir pour des intervenants étrangers.

On voit donc se dessiner les deux axes autour desquels une déontologie de l’information sur Internet peut se bâtir.

Il s’agit tout d’abord de l’extension à ce média des règles qui s’imposent à la presse écrite : désignation d’un directeur de la publication, juridiquement responsable, définition des modalités du droit de réponse qui doit être adapté à un support électronique fonctionnant en continu et doté d’une mémoire presque infinie, contrairement aux journaux et aux chaînes de télévision, transparence sur les propriétaires du site, enfin, application des dispositions de la loi et de la jurisprudence sur la diffamation et le respect de la vie privée. En France, il existe un accord de toutes les familles politiques sur la nécessité de cette extension qui commence à entrer en pratique, même si certaines modalités doivent être précisées. C’est ainsi que le site Internet d’Ouest-France a déjà répondu positivement à des demandes de droit de réponse.

Ce régime peut cependant apparaître trop draconien aux opérateurs anglo-saxons qui dominent le marché mondial et préconisent un libéralisme absolu en comptant sur le rôle régulateur du marché. Dans ces conditions, on ne peut imaginer, dans un premier temps d’imposer partout une règle uniforme. Ce qui importe, c’est que chaque pays ou, dans certains cas, l’Union Européenne, dans son ensemble, veille à ce que le nouveau support électronique ne soit pas un cheval de Troie favorisant la destruction, de l’intérieur d’un statut de la presse qui, dans toutes les démocraties est l’aboutissement d’un long combat remontant au 19éme siècle et faisant l’objet d’un consensus général.

Peut-on aller plus loin et définir un catalogue universel des droits et obligations de l’information sur Internet en s’inspirant de la déclaration universelle des droits de l’homme ? Aujourd’hui, la réponse ne peut être que négative. On sait bien que jamais les Etats-Unis, acteur dominant au moins pour la prochaine décennie, n’accepteront un tel projet. La Chine, qui, avec plus de 100 millions de personnes connectées est l’autre grand utilisateur, ne peut qu’y être aussi hostile dès lors qu’elle s’efforce, avec la complicité des grands moteurs de recherche comme Yahoo, Google ou Microsoft .de censurer ses propres citoyens.

On doit espérer en revanche que l’opinion mondiale ne tolèrera pas longtemps certaines bavures, surtout si de grands ensembles comme l’Europe s’expriment publiquement à ce sujet. Il existe des exemples ou des précédents sur ces points. Un exemple récent est la réaction rapide et ferme de nombreux bloggers résidant principalement aux Etats-Unis, quand l’agence Reuters a publié une photo truquée de la guerre au Liban. Reuters a été obligé de rectifier immédiatement le tir en retirant la photo et en s’excusant. Il y a dix ans, la correction serait intervenue beaucoup plus tardivement et de manière plus discrète.

Dans un autre domaine, un précédent montre le poids que peut exercer la Commission européenne quand elle le veut : les Américains se sont aperçus qu’ils étaient obligés d’accepter les décisions de la Commission quand celle-ci s’opposait, au nom de la concurrence, à une fusion de multinationales à majorité américaine qui déboucherait sur une position dominante sur notre continent. L’interdiction d’opérer sur le territoire de l’Union a suffit à ramener à la raison les plus obstinés et les a conduit à rechercher des solutions de compromis. Il ne fait pas de doute que des solutions seraient aussi trouvées en cas d’injonction de la Commission à Google ou à Yahoo.

Enfin, il convient de rappeler que les tentatives de censure du Web par le gouvernement chinois ont déclanché de nombreuses protestations en Amérique comme en Europe, qui ont sérieusement mis en difficulté Google, Yahoo et Microsoft à qui on reprochait leur complaisance à l’égard des autorités de Pékin. Cela a démontré que cette forme de censure n’allait pas de soi, même pour la dictature du pays le plus peuplé du monde.

Le second axe est la formation des journalistes et la défense du professionnalisme face à un discours démagogique mais très populaire chez les bloggers selon lequel la collaboration spontanée de centaines de milliers d’individus disséminés dans le monde entier permettrait de vaincre l’autocensure et la manipulation permanente des médias traditionnels. Selon ce discours, les internautes, sans pour autant se substituer aux journalistes, apporteraient, dans de nombreux cas un éclairage sur une vérité qu’on ne cesse de leur dissimuler ou qui est déformée en permanence pour satisfaire d’obscurs intérêts économiques ou politiques.

En réalité, quand on pénètre dans le magma des blogs dans sa forme la plus organisée, c'est-à-dire, les espaces ouverts par les médias traditionnels sur leurs sites, on y trouve peu d’idées originales et guère de révélations. Ce constat n’a rien de surprenant. Vérifier un fait, rendre compte d’un événement petit ou grand, analyser une situation politique sont des activités qui exigent un travail considérable et à temps plein. Les journalistes professionnels ne l’accomplissent pas toujours de manière satisfaisante et ils ne doivent jamais être au dessus de légitimes critiques. Ils savent cependant qu’en cas d’erreur répétée, ils risquent la sanction des lecteurs qui ont toujours la possibilité de les abandonner et d’aller voir ailleurs. Or ce type de sanction n’existe pas dans la blogosphère. Chacun y entre et en sort à tout moment sans se préoccuper d’un quelconque critère d’audience.

Le vrai danger réside dans la confusion entre des textes et des images qui circulent sans limites et hors de tout contexte sur des sites comme Myspace ou Youtube et l’information réelle sur des faits avérés. En matière d’information, il n’existe pas de demi ou de quart de vérité mais des faits vérifiés ou erronés. C’est le message que tous ceux qui se préoccupent de l’avenir de nos sociétés pluralistes ne doivent cesser de répéter et d’enseigner dès l’école aux futurs citoyens.

De même, le refus de hiérarchisation de l’information qui est assumé, par exemple par Wikipedia News, qui présente en vrac des nouvelles puisées dans les organes traditionnels d’information mais sans ordre qui permette au lecteur de s’y retrouver, est contraire au mode de fonctionnement des journaux classiques. Cette absence de rigueur dans la présentation aboutit en fait à noyer les faits importants et à les rendre parfois invisibles. C’est la raison pour laquelle les professionnels ont toujours refusé cette méthode qui n’est objective qu’en apparence.

On ne peut que reprendre sur ces points, les observations de Roy Greenslade, professeur de journalisme à la City University de Londres : « Internet est une sorte d’anarchie, avec des millions de gens qui offrent un mélange d’informations et d’opinions. Il est dépourvu de structure, de cohérence et de crédibilité. En l’absence des médias imprimés, et de leurs équipes de journalistes professionnels, il n’y aurait pas de media compétent pour accomplir la tâche fondamentale d’une presse libre : informer le public. Une des caractéristiques essentielles de la presse est que la véracité de son contenu est constamment contrôlée à la base et au sommet. Cet examen garantit que ses journalistes s’efforceront, dans la plupart des cas, de dire la vérité. »[6]
..

CONCLUSION

Comme toutes les grandes découvertes, Internet a débarqué dans nos sociétés sans avoir été prévue ou annoncée. Brusquement, on s’est aperçu que ce prodigieux système de communication était devenu une partie de notre vie et qu’il n’y aurait pas de retour en arrière.

Pour les médias traditionnels et surtout pour la presse écrite, l’épreuve a été d’autant plus difficile à surmonter que le Net apparaissait à la fois comme un complément utile et comme un concurrent dangereux. Les journaux ont, en quelque sorte été pris en tenaille entre les appétits commerciaux d’entreprises géantes on plus modestes qui venaient récolter sur leurs terres les recettes publicitaires et l’élan libertaire d’innombrables sites diffusant textes, images et commentaires sur l’actualité, leur domaine autrefois réservé. Il en est résulté un sentiment de dépossession qui nourrit beaucoup d’inquiétude chez les professionnels. Cette inquiétude a certes des relents corporatistes mais on ne peut la réduire à un simple réflexe de défense des intérêts d’une catégorie de travailleurs intellectuels ;

Il est certain que la presse quotidienne qui porte les mouvements d’opinion depuis près de deux siècles, devra changer de forme, accepter de ne plus être le vecteur unique de l’écrit mais acquérir la compétence nécessaire pour piloter un ensemble plus vaste, s’adressant à de nouvelles générations qui ne seront plus jamais les utilisateurs exclusifs du journal.

La presse doit aussi contribuer activement au débat sur l’évolution de nos sociétés démocratiques. Nous vivons dans des pays où l’information est un élément essentiel du débat politique, à la fois contre pouvoir face aux gouvernants et forum des expressions nécessairement contradictoires. Ce qui change avec Internet, c’est son côté libertaire, la possibilité qu’il ouvre à chacun de critiquer et d’apporter sa contribution sur les sujets les plus divers, avec le risque de devenir inaudible dans le brouhaha généralisé. De ce point de vue, la France étatiste et jacobine est mal adaptée à cette situation qui va à l’encontre de ses modes de fonctionnement habituels, alors que les Etats-Unis y retrouvent certaines de leurs plus anciennes traditions de parole libre et de contestation du pouvoir central héritées de la lutte contre le pouvoir colonial britannique. L’origine américaine d’Internet correspond bien à la logique de l’histoire de ce moyen de communication.

Il ne faut rien attendre d’une utopique organisation mondiale d’Internet pour introduire un ordre impossible dans ce chaos. Celle-ci ne verra jamais le jour. En revanche, l’accès universel aux sites du Net appelle des réponses qui doivent elles aussi être universelles. Face aux calomnies ou contre vérités diffusées parfois à l’autre bout du monde ou, d’autres fois à côté de chez nous, il faut pouvoir réagir de manière rapide et précise. Qui peut le faire mieux que la presse des sociétés libres qui a les moyens techniques de s’exprimer, une forte audience sur le Web et une crédibilité acquise à travers de nombreux combats pour la défense de la vérité ?

-----------------------------------------------------------------------------------------------
[1] Washington Post 18 juillet 2006
[2] New Revenue strategies AMJ juin 2006
[3] Ces informations figurent dans un rapport de l’AMJ Trends in Newsrooms 2006
[4] Cette description de Wikipedia s’appuie sur un article du New Yorker du 31 juillet 2006.

[5] New Yorker 7 août 2006
[6] Trends in Newsrooms, op.cit.p.4