Vidéo futur et la Fnac, une même cible mais deux stratégies

Le numérique a l’air d’avoir tué bon nombre de choses. Amazon truste ainsi les ventes physiques des libraires et le piratage amoindrie les ventes de films en DVD. Sauf que si la première assertion peut de défendre – article un jour à venir – la seconde beaucoup moins. De nombreux exemples permettent de corroborer la chose. À commencer par ceux de la Fnac et de Vidéo futur. Leur point commun ? Les deux entreprises arrivent tard sur deux marchés déjà bien occupés par d’autres acteurs. Leurs différences ? Le premier a toutes les chances de réussir et a un bon timing alors que le second – on espère pour lui que ça va marcher – a tardé à communiquer.

La FNAC surfe sur le streaming

La FNAC propose depuis peu Fnac Jukebox, un abonnement du type Deezer ou Spotify, aux ménagères et bons pères de famille. Malin puisque l’enseigne en sérieuse perte de vitesse et obligée de vendre des aspirateurs dans ses rayons jusqu’alors dévolus aux produits culturels est en train de se servir de sa base de fidèles acheteurs – en magasin ou via Internet – pour développer une activité dérivée directement de ce qu’elle vend.

3104627075_0ce46f69a9_z
Deux types d’abonnements sont proposés et ce à des prix similaires a ceux du marché : l’un simple est à 2 euros pour 200 titres et l’autre grimpe à 4,99 euros pour de l’illimité. Un ajout de 5 euros est nécessaire pour pouvoir apprécier la mobilité. Classique en terme de prix donc. Non seulement elle ne souhaite pas casser les prix déjà bas des concurrents (une poignée d’euros associés a un forfait téléphonique chez Orange par exemple) mais en plus elle arrive tard. De loin ça ressemble a un double handicap duquel on pourrait rire. Sauf que parmi la population combien de non abonnés à de la musique en streaming connaissent Deezer ? Et combien connaissent la FNAC ? La cible de l’enseigne n’est vraisemblablement pas la même. Certes elle arrive tard, mais sur le marché il lui reste a conquérir les non-initiés. Et c’est ici que c’est « malin » Le Syndicat national de l’édition phonographique (SNEP) chiffre le marché français à 35,8 millions d’euros et – seulement ! – un million d’abonnés streaming. La Fnac avec ses « quelques 3,5 millions de personnes qui possèdent une carte Fnac, qui sont des clients réguliers de l’enseigne, dont les goûts musicaux sont parfaitement connus, représentent une cible toute trouvée pour cette offre » à de quoi voir venir.

Retard à l’allumage pour Vidéo futur

Autre configuration pour Vidéo futur qui semblait pourtant détenir une solution pour convertir ses abonnés ou initiés physiques en numérique : la même stratégie que la Fnac mais version DVD. Présent dans de nombreuses villes et petites villes, Vidéo futur est une enseigne qu’on aurait tort de sous-estimer en tant que marque. Pourtant un certain nombre de points de vente physique (sur les 400 en 2002ont fermé les uns après les autres. 497588307_9f4e7e4ea7_z Depuis 2009, Vidéo futur semblait proposer un catalogue de streaming et location de vidéo en ligne mais a souhaité sortir une box – putain de bonne idée ! – au moment où Netflix parle de débarquer vraiment (en dehors de rumeurs qui circulaient depuis un moment) sur le territoire national. Une réaction à ou une simple coïncidence ? On ne le saura jamais. Pour autant, la trace de l’offre – solide – de Vidéo future remonte à juin 2011 : le Pass Duo à 6,99 euros par mois proposait de la VOD et aux DVD à la location (une enveloppe affranchie suffisait à retourner le DVD). En somme Netflix en France il y a trois ans.

Nombreux sont ceux qui pourtant dans la cible ont l’air d’avoir appris l’existence de cette offre longtemps après sa mise en service. Mauvaise communication ? Technique pas au point ? Volonté d’attendre le « bon moment mais on sait pas encore lequel » ?

On espère que ceux qui dans les petites villes étaient familiers du Video futur du dimanche soir seront plus sensibles à Vidéo futur qu’à Netflix, à catalogue et service identique. Ou ils se seront vraiment plantés et ce malgré leur changement de slogan : en 2013, « N’attendez pas que ça passe à la télé !  » est devenu « Toute la presse en parle ». On espère.

(contacté, Vidéo Futur n’a pas encore répondu)

Illustration Paternité Certains droits réservés par mikebaird et Michael Dawes

Internet, ce sacré couteau suisse

Il y a peu de temps l’Internaute – l’utilisateur d’Internet donc – pouvait lire que « notre mai-68 numérique » était devenu « un grille-pain fasciste ». Internet, en dehors d’être la tartine au milieu du grille-pain ou le grille-pain lui-même, #quandjaicompris, est aussi une sorte de gigantesque couteau suisse multifonctions. Or, il s’avère que selon l’endroit où l’on se trouve le couteau suisse n’a pas les mêmes fonctions et, pire, quand vous voyagez au sein même de l’Union européenne, le tire-bouchon peut ne plus fonctionner tout court. Parce que vous avez dépassé les frontières légales de l’utilisation de votre couteau suisse. Retirons à ça quelques fonctions non ternies par les frontières, à savoir votre boite mail Gmail ou Yahoo entre autres et les réseaux tels que Facebook, Twitter etc. Qui malgré le mercantile de la chose, restent la lime à ongle ou le cure-dent dudit couteau.

couteau suisse 1

La plupart du temps, vous ne vous rendez pas compte que les frontières rendent certaines fonctions de votre couteau suisse inutilisable. C’est en étant amené à vadrouiller hors des frontières physiques qu’on se rend compte que oui, Internet a aussi des frontières DIGITALO-NUMÉRIQUES.

Clips partout, argent nulle part !

Quelles fonctions a ce couteau suisse ? Il vous permet de faire des recherches d’itinéraires piétons ou métro ou bus. Il vous permet de communiquer avec vos proches quand ils sont loin. Il vous permet aussi d’acheter sur Le bon coin un téléphone portable quand le votre vient de rendre l’âme. Aussi, il vous permet de vous distraire. En somme il vous facilite quelque peu la vie.

Imaginons. Vous passez quelques temps à la frontière française. Prenons la Belgique. Vous voulez regarder un super clip qu’un de vos amis vous a pingué sur Twitter (pour ma mère : un copain m’a envoyé un lien qui, quand on clique dessus, m’amène à un morceau de musique sur Youtube). Vous avez Y chances sur X = Z, Z étant la probabilité, de tomber sur un clip non géo-bloqué. Soit si Y = 1 et X 3, Z=0,33. En restant simple, une chance sur trois de pouvoir lire le lien. Sauf que votre outil n’est pas configuré par vous-même mais par des ayants droit d’ayants droit.

Vous ne déterminez jamais tout seul votre chance de pouvoir ouvrir cette bouteille avec ce tire-bouchon du couteau suisse. Déçu vous êtes obligé de mettre un marque page sur merveilleux clip pour penser à y revenir au moment de votre retour en France. Certains trouveront ça normal. D’autres pas. Ces « d’autres pas » ont trouvé des moyens de contourner les frontières de votre couteau suisse. On peut connaitre les ficelles, mais s’en servir reste parfois complexe.

Peut-être que l’impression d’absence de frontières n’aide pas à prendre conscience des droits territoriaux, sans doute même. Mais dans ce cas, puisque nous n’avons individuellement aucune prise sur la négociation de ces mêmes droits, il manque une mention « Attention profitez-en, on a négocié des droits avec untel ou unetelle, on sait pas qui paye et on sait pas qui va être payé tellement le système est complexe, et du coup c’est valable seulement en France ».

couteau suisse 3

Non seulement l’accès  à votre outil est géré par d’autres personnes que vous mais en plus on vous accuserait presque d’être « obligé » de pirater : la récente décision de bloquer Allostreaming en France et de le déréférencer du Google.fr est symptomatique. Vous n’avez pas accès au même contenu que vous soyez ici ou là. Votre couteau suisse utilise (enfin vous utilisez une fonction moteur de recherche) quelque chose qui là encore n’est pas configuré par vous mais par une entreprise. Google souvent pour les moteurs de recherche, mais aussi Yahoo! et Bing. Pourtant, il existe des équivalents, peut-être un peu moins séduisant que l’algorithme de Google, certes. Mais là encore, les récentes ou moins récentes modifications des fameux géants du web font que la sérendipité n’existe plus : logué sur votre compte Gmail / Google, vos résultats sont déterminés en fonction de qui vous êtes et de vos précédentes recherches. L’ensemble des modifications tend à refroidir certains et certaines mais pas encore suffisamment.

Votre couteau suisse est un véritable outil de travail et de loisir : vous prenez des notes sur votre bloc-notes numérique, vous communiquez avec des collègues via mails ou chat, vous mettez votre playlist musicale à l’apéro le vendredi soir et vous surfez sur les réseaux à la recherche d’articles intéressants à lire. L’ensemble est fabriqué par les internautes – vous êtes le produit, le contenu, les données – et modelé par les états et entreprises. Vous vouliez regarder le dernier clip d’Untel ? C’est presque mort.

Et ma grand-mère, blablabla.

Là où fondamentalement la distorsion entre le marché (Internet aujourd’hui) et l’outil devient terrible pour Internet, c’est que soit on ne s’en rend pas compte soit on contourne ces limites. Finalement quelle est la meilleure solution ? Être obligé de passer par des chemins détournés ou laisser tomber.

couteau suisse 2

Ne pas s’en rendre compte, c’est ne pas essayer d’aller chercher une série US en streaming parce qu’elle sort deux ans après en France. C’est aussi ne pas aller en pays francophone et frontalier pensant avoir accès aux mêmes choses que vos petits camarades en France. Ne pas s’en rendre compte c’est ne pas avoir eu l’occasion de se confronter à un système ubuesque pour lequel vous payez des droits que vous ne pouvez pas embarquer avec vous. C’est comme le bon vieux temps des CD musicaux ou DVD que vous ne pouviez (pouvez ?) plus lire dans votre lecteur graveur de DVD ou ordi avec lecteur graveur parce que le CD ou DVD étaient protégé contre la gravure. On ne sait jamais avec l’internaute, dès fois qu’il voudrait faire un marché noir de La petite sirène offert à sa nièce pour quand elle est chez lui. C’est un peu laisser tomber mais pas parce qu’on a pas envie, plus parce qu’on ne sait pas.

Passer par des chemins détournés suppose de s’y connaitre a minima. Arrêtons de croire que, comme le fameux « hacker » du sondage du Grand Soir 3, nos grand-mères pourraient le faire.

Dans dix ans peut-être que les grands-mères pourront. Ou peut-être pas. Notre vision est déformée par l’endroit où nous vivons et le milieu dans lequel nous vivons. Donc passer par des chemins détournés suppose soit d’être très curieux et d’avoir du temps, soit d’appartenir déjà à un milieu qui s’y connait. Pensez-vous vraiment qu’en dehors des milieux urbains CSP/CSP+ les internautes se posent la question de savoir qui a décidé quoi et comment ?

Pour que l’ensemble des internautes, et de fait l’ensemble de la population française, ayant un accès à Internet, ait l’impression que son couteau suisse est universel et qu’il peut effectivement s’en servir partout, il faut qu’il soit informé, sensibilisé. Comment, je n’en sais fichtrement rien. Mais ça suppose d’être didactique et de montrer, chacun, nous, pourquoi c’est important de laisser le moins possible aux plus puissants à la fois nos données et  la fois la configuration de notre couteau suisse. Ça implique que quand on est face à un problème, qu’on fasse appel à un ami qu’il nous montre et qu’on fasse ensuite circuler l’information. Un peu comme quand vous allez vérifier deux ou trois trucs sur certains forums et que vous parvenez à sauter par dessus l’obstacle. Et là, peut-être qu’Internet tel que je l’ai connu il y a 17 ans redeviendra ce qu’il a été à ce moment-là : un formidable outil d’ouverture et de communication – établir une relation avec autrui.

Illustrations FlickR CC By-nc-sa Bulbocode909 et Elsa

Relecture attentive @Reguen

Twitter affiche les photos dans le flux

Les dernières évolutions visuelles de « l’outil de microblogging » ont été plus ou moins visibles pour chacun des utilisateurs et utilisatrices du réseau. Après les lignes rouges entres les différentes réponses à une même conversation – auxquelles on se fait tellement qu’on finit par ne plus les voir – voici venues les photos visibles par défaut directement dans la TL.

Capture d’écran 2013-10-29 à 20.33.55

Avant, on pouvait cliquer ou non sur le lien selon qu’on avait envie de cliquer ou pas. Maintenant, la mention #NSFW ou autres ne sert plus à rien puisque de toute façon si vous parcourez votre TL sur Twitter.com, les photos sont affichées d’emblée.

Capture d’écran 2013-10-29 à 20.51.16

Et c’est aussi parfois très chargé. (capture d’écran : toute la page, de haut en bas)

Outre le côté maintenant très imagé de Twitter et les nombreuses infos sous un seul et même tweet qui peuvent amener à perdre un peu de vue l’origine du site – « un tweet, 140 caractères » = du texte, un lien (photos ou articles ou autres) » -, ça pose vraiment la question de l’affichage des photos sans consentement de celui qui déroule sa TL. À moins que Twitter ne les filtre ?

De la 3G congestionnée à la 4G ?

La 4G arrive, on l’entend ramper le long des ruelles sombres des grandes villes françaises et elle promet monts et merveilles. Longtemps que la médiatisation d’une nouvelle offre n’avait pas eu lieu. Juin 2000 en Allemagne et janvier 2001 en France, on parlait de la téléphonie du futur et de l’Internet mobile, c’était la 3G ou les licence UMTS (la 4G était déjà brièvement évoquée par les Japonais). Concernant la 4G, il est encore un peu tôt pour se prononcer. En revanche, dans les zones comme Paris, c’est bien le moment de parler de la qualité assez mauvaise du réseau 3G et téléphonique.

Paysage en croissance

Depuis une dizaine d’années, le paysage des consommateurs de data sur portable a radicalement changé : 10 millions d’abonnés 3G en décembre 2004, 14 millions en 2009, 21 millions en 2011 et 33,4 millions au premier trimestre 2013. Le nombre d’abonnés 3G a été multiplié par trois en dix ans. Selon le régulateur français des télécoms, l’ARCEP, la couverture par les trois opérateurs historiques est proche de 100%. Mais en pratique le constat est tout autre, la couverture théorique est là oui, le reste « ça dépend ».

Paris, Avenue Secrétan le 1er octobre

D’une ville à l’autre et d’un quartier à l’autre – voire d’une rue à l’autre -, le même réseau est capté différemment selon la couverture. Question de nombre d’antennes, donc de congestion : les cellules chargées de faire transiter les signaux des appareils ne sont plus en mesure dans les grandes villes, en tout cas dans Paris, d’absorber la totalité des demandes, notamment en ce qui concerne la 3G.

Historiquement les opérateurs à culture majoritairement telcos ont fonctionné dans une culture de circuit et de communication de personne à personne, majoritairement la voix. Le mode par défaut du GSM ? Le circuit switched data pour envoyer des SMS et surfer sur Internet en WAP. Un débit très faible – 9,6 KBits – qui a ensuite évolué vers le HSCSD utilisé pour la connexion en Edge et UMTS (3G). Le défi relevé du passage à la 3G / GPRS a amorcé le fonctionnement par paquet et, de fait, a montré à quel point les opérateurs pouvaient être au niveau : le système est complexe à mettre en place.

Alors que les consommateurs le ressentent à peine, les appels sont à présent passés grâce à un système de voix en haute défintion (AMRWB) avec lequel la largeur de bande est étendue. Idée majeure : élever la qualité c’est aussi limiter l’impression de dégradation de la qualité en cas de problème sur le réseau. Logique implacable.

Bascule technologique et changement des modes de consommation

Et la sortie du premier iPhone bouscule tout : 2G en 2007 aux États-Unis et quelques autres pays dans le monde – novembre de la même année en France -, il est rapidement suivi d’un iPhone 3G-compatible en juillet 2008. Une vraie bascule technologique pour Yann Rousse, professionnel des technologies mobiles, qui raconte :

Un ingénieur de RIM a récemment témoigné de ce qu’ils avaient ressenti au moment de l’annonce de la sortie de l’iPhone. De l’incrédulité. À l’époque, aucun fabricant ne pensait qu’Apple serait capable de faire ça.

Un plus grand nombre de gens a eu accès au réseau 3G. Pour Yann Rousse, “Il faut se rappeler que la 3G n’avait été initialement lancée qu’avec, comme critère différenciant pour les opérateurs, les appels en visiophonie et une vague augmentation des débits”.

Les consommateurs sont datavores même quand ils n’ont pas leur smartphone dans la main, sur Androïd comme sur iPhone.

Paris, Gare du Nord le 30 septembre

Et les antennes actuellement installées sont équipées de cellules suffisamment grandes pour couvrir un grand nombre de personnes sans avoir énormément de cellules à poser. Pour Free par exemple, une centaine d’antenne peuplent Paris quand elles sont un peu moins de 400 pour Orange qui sert aussi aux clients du premier.

Des macro cells – forte puissance – sur les toits de Paris absorbent toute la consommation mais dans certaines zones denses aux heures de pointes ou tout au long de la journée – les gares et autres lieux de passages – ne disposent plus d’une capacité efficace. Dans les zones d’ombres ? Des picocells qui permettent aux ondes de se propager d’une cellule à l’autre. “Quand les cellules 3G reçoivent de trop nombreuses demandes de connexions data, elles se contractent et émettent moins fort” précise Yann Rousse qui ajoute :

Après toutes ces années, il est regrettable que l’impératif (légal, vis-à-vis du régulateur) de couverture ne ce soit pas accompagné d’une prise en considération plus empressée de la nécessité d’accroitre la capacité du réseau 3G à absorber les pics de consommation. Même si des efforts ont été fait, le schéma initial de déploiement de la 3G a été fait avec les usages que l’on connaissait de la 2G, avec donc un principe de consommation somme toute modeste et ponctuel.

Pierre Col, auteur d’un excellent blog sur ZDNet expliquait sa mésaventure lors du salon du e-commerce Porte de Versailles. Sans réseau 3G, impossible de communiquer. Le comble pour un salon du e-commerce :

“VIParis a permis aux opérateurs mobiles d’installer des micro-cellules à l’intérieur de tous ses halls du Parc des Expositions de la Porte de Versailles. […] Selon VIParis, les opérateurs mobiles ont alors la capacité, par une intervention logicielle, d’accroître la capacité de leurs bornes, en nombre de connexions simultanées, et la bande passante sortante à destination de leur réseau. C’est ce qu’ils font, mais les réseaux arrivent rapidement à saturation tout simplement parce que les prévisions de trafic réalisées il y a quelques années sont aujourd’hui dépassées, et le nombre de bornes désormais insuffisant.”

Il aurait fallu pour que ça fonctionne : augmenter le nombre de cellules – comme dans Paris à certains endroits – ou basculer le réseau 3G des opérateurs sur le Wi-Fi de VIP Paris, ce que les opérateurs ont donc refusé.

Ajouter des cellules, oui mais, il faut pouvoir gérer politiquement et socialement l’installation de nouvelles antennes. Le problème concerne aussi bien les zones denses temporairement comme des salons ou autre grand rassemblement que les zones dans lesquelles il n’y a quasi aucune infrastructure installée. Yann Rousse explique :

Quand on est sur Spotify ou Deezer en mobile, à un moment donné, il est possible de passer en Edge, à cause d’un trou ou un problème de configuration. Les cellules ont une liste de cellules environnantes à transmettre au terminal pour une prise de relais. Quand la cellule est limitée, le terminal regarde la plus proche et un passage de relai – handover – se fait entre les deux cellules. Sauf si la seconde est elle aussi saturée.

Et, visiblement, les cellules ont à présent du mal à communiquer. Celles en cuivre – d’ancienne génération – suffisaient initialement alors qu’elles avaient à gérer 4 à 5 personnes ne surfant pas de façon synchronisée. Mais aujourd’hui, les smartphones envoient des alertes en permanence (les push de l’iPhone en sont un exemple) et ils communiquent sans cesse. Pour le spécialiste : “pour contrer la congestion, on sectorise de façon de plus en plus fine et on met des fouets de picocells attachés à une macrocell, dont le fonctionnement est différent des small cells [d’une puissance intermédiaire, NDLR] et ont cet avantage d’être connectées directement au réseau contrairement à la picocell”. Et paradoxalement, “la commercialisation de la 4G renforce ce phénomène” ajoute Yann Rousse puisque la technologie qui bénéficie des investissements des opérateurs, c’est la 4G.

Le déploiement de la 4G passe donc par l’ajout de cellules, soit nouvellement fibrées, soit sur un pylône déjà câblé en cuivre, un peu moins performant. Et en déployant la 4G, à supposer que les consommateurs se ruent sur les offres proposées par les opérateurs, la 3G devrait se décongestionner sans être améliorée. #oupas

 

Ados et parents ne se parlent pas Net

Les enfants et adolescents ne communiquent pas avec leurs parents, enfin pas sur le numérique. C’est ce que constate Marie Derain, défenseure des enfants, qui a rendu son rapport hier, le 20 novembre. En substance, elle observe dans « Enfants et écrans : grandir dans le monde numérique » [PDF] une scission entre les utilisateurs (les plus jeunes) et les régulateurs familiaux (les parents la plupart du temps) :

Le contraste est frappant entre la vision méfiante, voire diabolisante, que peuvent avoir les adultes de l’usage du numérique par les adolescents, qui, eux, voient ces vecteurs de communication comme un élément banal de leur quotidien. […] Les adolescents ne seraient pas conscients des risques de divulgation et de perte de contrôle de leurs informations personnelles. Pourtant, les jeunes adolescents ne sont pas si démunis. Au contraire, ils semblent agir en connaissance de cause, quitte à courir ces risques. […] Les incertitudes et les angoisses, les interrogations sur son avenir se dissolvent dans un univers virtuel où il reprend la main, qu’il maîtrise via son avatar numérique. Aux confins du réel et du virtuel, du présent et du possible, c’est l’aventure sans risque, la prise de risque sans conséquence, l’expérimentation sans trace ni témoin, du moins l’adolescent veut-il le croire. L’exposition de la vie privée prend alors un autre sens.

La défenseure a conscience de l’ambivalence que peut représenter Internet pour les plus jeunes et elle précise que l’idée générale du rapport veut montrer qu’il est nécessaire de « rapprocher Internet de la famille ». En soulignant que :

Porteurs d’un potentiel d’enrichissement social et individuel encore mal évalué car évolutif, facteurs indéniables de lien social et de dépassement des barrières, ces médias qui s’avèrent aussi vecteurs de connaissances et d’éducation pour tous, ne sont pourtant pas sans risques pour les enfants.

Le manque de paroles

Selon le baromètre « Enfants et Internet » de 2011 de l’opération nationale de sensibilisation « Génération numérique », 87% des 15-17 ans déclarent connaître les paramètres de confidentialité (ils sont 22% de cette tranche d’âge à ne pas protéger leurs informations personnelles sur les réseaux sociaux), contre 56% des 13-15 ans et 42% des 11-13 ans. Bien peu donc pour la défenseure au regard de ce que les enfants postent à droite et à gauche sur le web. Selon ce même baromètre, 20% des 15-17 ans, 28% des 13-15 ans et 22% des 11-13 ans parlent avec leur proche de leur utilisation du Net. Mais de quoi parlent-ils ? Du temps passé sur la Toile (55% des 8-17 ans selon une enquête de la TNS Sofres). Dans le temps de connexion, il n’y a pas de place à l’utilisation des réseaux et autres sites de partage, vecteurs de lien social — et par conséquent de dépôt de photos qu’on aimerait pas forcément retrouver distillées un peu partout.

Certes. Pour la défenseure :

Il convient de trouver le juste équilibre entre la prévention des risques et la limitation des possibilités.

Mais ce juste milieu aristotélicien pourrait être alors trouvé grâce à des programmes de régulation du Net ? Pas si l’on tient compte de la constitution même du réseau « difficile voire impossible à réguler ». Le seul moyen de réguler Internet n’est autre qu’une forme de discussion entre les acteurs, de l’internaute aux FAI et… de rendre possible — « afin de lutter contre les comportements qui viennent d’être évoqués [pédopornographique, ndlr] » — le signalement plus rapide de ces comportements.

Formation des profs et des proches

Le dialogue à instaurer avec les acteurs de la socialisation des enfants (la famille et l’école) est l’une des solutions complémentaires à la répression ou la régulation, « difficile voire impossible » donc. Quand les classes sont abreuvées de matériel technologique alors même que les professeurs ne sont pas tous enclins à s’en servir, c’est une difficulté.

Assurer une formation effective aux TICE ((Technologies de l’information et de la communication pour l’enseignement)) des principaux acteurs intervenant auprès des enfants (professeurs, éducateurs, animateurs…) — abordant aussi bien la sensibilisation aux risques, les informations sur les systèmes de protection, que l’accès à la culture et à la connaissance. Trop d’initiatives coûteuses voulant mettre en œuvre les ressources numériques à l’école, dans le monde de la culture, de la santé, des loisirs, achoppent faute d’une formation adaptée réellement dispensée aux intervenants, contribuant ainsi à une image de confusion et à la mauvaise utilisation de ces ressources pourtant considérables.

Et si l’Éducation nationale semble prendre conscience progressivement de l’importance que revêt Internet aujourd’hui pour les enfants – et leurs parents – Marie Derain explique que « si les expériences locales foisonnent, l’impulsion institutionnelle est difficile à repérer ».

D’autant que ces dernières s’emmêlent et se renvoient la balle : les ordinateurs distribués aux élèves de sixième du Val-de-Marne seront gérés par des enseignants dont la formation devrait être assurée par… le rectorat. Soit l’académie de Créteil, distincte du Conseil Général du Val-de-Marne à l’origine du programme.

Pourtant, l’enthousiasme est là :

Partout en France, à partir d’engagement personnel des enseignants ou sous l’impulsion d’un recteur dynamique, les outils sont testés, les pédagogies qui s’appuient sur le numérique sont formalisées, faisant émerger quelques orientations.

À souhaiter que le relais soient pris par les enseignants, en complément des parents, pour permettre aux enfants d’appréhender le Net en évitant de vouloir à tout prix une régulation impossible. Pour aider à maitriser l’extimité ((Concept du psychiatre Serge Tisseron pour parler de l’intimité exposée sur le web, distinct de l’exhibitionnisme)) des enfants ? Le droit à l’oubli numérique pour garantir « la paix et la cohésion sociale ».

Alex Türk, alors président de la Cnil, déclarait en 2009, dans le rapport d’activités, qu’il était « inacceptable et dangereux que l’information mise en ligne sur une personne ait vocation à demeurer fixe et intangible, alors que la nature humaine implique, précisément, que les individus changent, se contredisent, bref, évoluent tout naturellement ». Tout adolescent devenu adulte devrait pouvoir alors « obtenir la suppression de données personnelles qu’il a lui-même mises en ligne » selon ledit rapport. Parce que la diffusion de l’information « est large » mais aussi et surtout parce que

la vie « virtuelle » de l’enfant n’est désormais plus dissociable de sa vie « réelle », elle en fait partie.

Préconiser l’oubli et l’effacement est une solution qui ne règlerait rien d’autre que l’absence de réflexion au moment de poster sur Facebook une photo à demi-nu. Le droit au déréférencement permettrait aussi « à la personne concernée de demander et d’obtenir la suppression du référencement des informations en question, dans les moteurs de recherche par exemple. Ainsi les données devenues indésirables disparaîtraient non seulement du site où elles ont été initialement introduites, mais aussi de tous les sites qui les ont reprises et diffusées » :

Intégrer le droit au déréférencement au règlement européen actuellement en préparation. Faire reconnaître aux mineurs le droit à une protection renforcée de leur vie privée — droit à l’oubli, droit au déréférencement. En janvier 2012, la Commission européenne a rendu publique une proposition de règlement européen, réformant le cadre de la protection des données personnelles, qui propose plusieurs avancées dans la protection des enfants. En effet, le droit actuel de la protection des données est limité en ce qui concerne les enfants.

Le droit à l’oubli, maille d’un nouvel arsenal juridico-legislatif pour encadrer et « protéger ». Et pallier, sans doute, l’absence ou la pauvreté du dialogue entre ceux qui éduquent et ceux qu’on veut éduquer. Reste à déterminer si les uns ne devraient pas, finalement, être éduqués avant les autres.


Illustration par Soosay [CC-by]

Nous, les autistes du web

Les présents à la table ronde Parlement européen : Jean-Marie Cavada (Nouveau Centre), membre de la commission parlementaire culture et éducation ; Marie-Christine Vergiat (Front de Gauche), également membre de cette commission ; Louise Ferry, assistante de Malika Benaba-Attou (Europe-Écologie les Verts) ; Laurent Cotillon, directeur d’édition du Film français ; Juliette Prissard-Eltejaye, Déléguée générale du Syndicat des producteurs indépendants), ; Georges Bermann, producteur (de Michel Gondry notamment) ; Eric Vicente, programmateur chez Sophie Dulac) et Yvon Thiec (Co-fondateur du Prix Lux et délégué général d’Eurocinema).

Pour les professionnels du cinéma, Internet incarne de plus en plus le mal absolu, comme nous avons pu le constater le 8 novembre dernier, lors d’une réunion tenue dans l’enceinte du cinéma parisien L’Arlequin, avec une poignée de spécialistes du septième art rassemblée pour discuter financement et diffusion (c’est-à-dire chronologie des médias).

Cette table ronde organisée par le Parlement européen avait lieu dans le cadre du festival Lux Film day. Dans un contexte un peu particulier : la Commission européenne a récemment décidé de mobiliser 2 millions d’euros pour tester la sortie simultanée de 20 longs métrages d’art et essai, projetés pour la première fois en VOD, télévision, Internet et évidemment en salles. Une expérience pas très orthodoxe pour la profession.

Le débat, fort de passion et d’Amour de l’art, n’a pas été animé seulement au nom de l’importance que revêt le cinéma pour les différents protagonistes présents, ni pour la trentaine de personnes qui avaient pris place dans la salle rénovée de L’Arlequin.

Il a surtout montré qu’Internet était – aux yeux de certains – un danger pour la culture. Le mythe de la gratuité y est trop souvent présenté comme l’argument faisant basculer l’internaute, jamais prêt à payer, du côté des acteurs du piratage de la création.

Globalement, plus de la moitié des échanges a tourné autour de la relation entre Internet et le cinéma. Juliette Prissard-Eltejaye, déléguée générale du Syndicat des producteurs indépendants (SPI), a été l’une des premières à affirmer cette problématique :

J’ai une remarque sur un programme soutenu sur la sortie simultanée en salle et en VOD. Ça a fait couler beaucoup d’encre. […] L’endroit qui doit être privilégié de façon exclusive et pour un temps suffisant doit être prioritairement dans la salle et nous déplorons que face à la difficulté qu’ont certains pays d’équiper les salles en numérique, la solution proposée soit la sortie simultanée. Que l’accent soit mis sur l’entretien des salles me parait cohérent. Mais dire aujourd’hui pour ceux qui n’ont pas accès au cinéma alors on va vous proposer la VOD… nous pensons que c’est un précédent qui sera dommageable pour le secteur et nous sommes assez inquiets.

Confondre

La salle applaudit, un peu, puis beaucoup. La voix tremblante de la responsable du SPI a fait résonner chez les présents quelque chose qu’ils comprennent et appréhendent sûrement à longueur de temps.

En attendant, Jean-Marie Cavada, pour qui l’Union européenne a pour finalité non pas « une monnaie stable, ni une libre circulation mais le bien vivre ensemble” n’a pu qu’acquiescer. Et la défense de la salle avant toute chose a dépassé le stade de la lubie – somme toute logique, le cinéma est l’art de la salle et de l’écran blanc, des fauteuils en velours rouge et de l’émotion d’un public – : ”Je suis pour discuter des modalités d’extension ou de rétrécissement à la marge mais je trouve qu’un cinéma et un film c’est d’abord être au contact du public en salle. Je ne suis pas d’accord pour confondre toutes les étapes de l’après-salles et notamment de la VOD parce que je pense que c’est une façon stupide d’étouffer une économie naissante dans ces différentes étapes.”

Un à un les arguments se tiennent, frôlent “l’Internet #saymal” et pour des raisons de priorité, on l’aura compris, les films sont faits pour être vus en salle. Pour le combat de la diversité, il faut être force de proposition, “y compris chez des gens qui n’iraient pas voir un Béla Tarr (( Béla Tarr : réalisateur, scénariste et producteur de cinéma hongrois qui a reçu l’Ours d’argent au festival de Berlin 2011 pour Le Cheval de Turin. )) et un Béla Tarr ne mérite pas de sortir en VOD : c’est un film précieux qui a le droit d’être exclusivement en salle”, assène la déléguée générale du SPI.

Il y aurait donc des films que les cinéphiles ne pourraient voir que dans les salles, même si on aurait pu penser que le voir sur plusieurs supports soit aussi enrichissant. Pourtant non, assène Cavada :

Ce n’est pas le même film dans une salle que sur un écran. C’est comme si un livre avait des caractères différents. C’est un art le cinéma, il est fait pour les salles. L’émotion est soulevée par des gens autour de vous et vous emmène. Ce que vous n’auriez pas vécu sur votre écran. C’est pas la même chose !

[youtube]http://www.youtube.com/watch?v=8MQ55R1HcXg[/youtube]

Jupe

Pas la même chose peut-être. Mais en quoi serait-ce incompatible ? En mémoire, “La journée de la jupe” avec Isabelle Adjani et Denis Podalydès. De Jean-Paul Lilienfeld, diffusé le 20 mars 2009 sur Arte et sorti dans 50 salles, 5 jours plus tard. Produit par Arte France, Fontana Film et Mascaret Films, il obtient 2,2 millions de téléspectateurs, pour un peu moins de 10% de part de marché en télé le soir de sa diffusion.

L’expérience est mal accueillie par les exploitants. La première semaine, il compte pourtant 40 000 entrées au cinéma, malgré une diffusion télé en amont. Pourquoi ces réticences et inquiétudes de la part des créateurs et diffuseurs ? Pourquoi le bouche-à-oreille pour la recommandation d’un film fonctionnerait en salle avec des journalistes mais pas en avant-première en télévision ou sur Internet ?

Parce que pour Jean-Marie Cavada et Juliette Prissard-Eltejaye, le film a besoin de la salle pour faire sa réputation, “autant que les millions que vous pouvez mettre en presse radio et télé pour le marketing” précise le député européen.

Donc les avant-premières gratuites en salle pour les journalistes, c’est bon pour la réputation d’un film. En revanche, la table familiale et les discussions qui peuvent émerger sur les réseaux sociaux après la diffusion d’un film en avant-première sur YouTube (en partenariat avec réalisateurs et autres), c’est mal.

Multiplier les recommandations, oui, mais seulement avec des professionnels. Surtout pas avec les internautes lambda. Pourtant plutôt efficaces dans le bouche-à-oreille concernant Intouchables – l’exemple cité par Jean-Marie Cavada – non ?

Mais pour certains, Internet dévalue les films où seraient diffusées les avant-premières et c’est le consommateur-pirate-internaute qui serait à l’origine de cette dévaluation. Jusqu’au moment où une voix s’est élevée dans le public :

On est au stade de l’humanitaire là, de penser pouvoir réduire des avant-premières de film à une diffusion sur Internet. Des réalisateurs, des producteurs qui doivent se rémunérer, c’est un travail considérable ! Pourquoi on serait dévalués ? En termes de politique culturelle, on tient vraiment à ce que le cinéma reste un espace de forum. La pratique culturelle n’est pas la même, entre un consommateur autiste devant son écran Internet et l’idée du spectacle d’une salle de cinéma.

Jungle

« Un consommateur autiste devant son écran Internet ». Dans le public on trépigne. Exprimant sa détresse face à la chronologie des médias qui semble faire si peur à l’ensemble de la chaîne du cinéma, une femme se lance et malmène à la fois les informations sur la déprogrammation dans 12 salles sur 15 du film brésilien “Les paradis artificiels” suite à une diffusion en avant-première sur Dailymotion et mélange VOD, jungle d’Internet et piratage :

Par rapport à ce qu’il se passe en France, c’est très simple. Vous allez passer directement un film en VOD, vous avez la moitié des salles qui déprogramment le lendemain, ça se fait régulièrement, là ce qui vient de se faire, sur un film, 15 salles derrière sur les 17 ont déprogrammé, on a eu le même problème avec un film passé sur Arte ((La journée de le jupe, ndlr)), les salles ne programment pas ces films-là donc de fait vous excluez les films de toute possibilité de bouche à oreille, mais aussi de succès d’estime ou de critique. […] Les publics existent, […] des gens nous disent, “je n’ai plus le temps d’aller voir des films”, déjà le temps de savoir qu’il existe parce qu’on en parle pas. Des films n’ont pas toujours les moyens de faire de la promotion. En même temps, les films qui ont du mal à exister en salle, comment on va les faire vivre et exister dans la jungle de la VOD et dans la jungle d’internet ? […] Je vous avoue, si parfois on était piraté, on sauterait de joie, tant mieux ça veux dire que les gens savent qu’il existe et ils vont aller le chercher sur Internet mais c’est une super nouvelle.

Internet ? La jungle ? Pire, des internautes. Owni a tenté d’évoquer l’alternative d’une avant-première diffusée en streaming, rebondissant sur la question de la déprogrammation du réalisateur brésilien.

Je voudrais rebondir un peu sur l’alternative qui pourrait avoir lieu, à savoir une avant-première en streaming sur Dailymotion, quelle est le risque pour la culture cinématographique de le permettre pour un certain nombre de personnes ? N’est-ce pas un autre bouche-à-oreille, avec effet boule de neige ?

Juliette Prissard-Eltejaye (plutôt en colère) : Je voulais vous répondre en vous disant pourquoi ce serait une diffusion intégrale du film ? Pourquoi ce serait pas du marketing à travers des bandes annonces, à travers du buzz sur Internet puisque la question est de savoir comment renouveler le marketing et la prescription sur Internet telles qu’elles existaient aujourd’hui en papier ? Aujourd’hui les modes de consommation évoluent, donc il faut avoir son article dans Internet (sic). Pourquoi on ne parle pas de promo ? Pourquoi on dit il faut le donner gratuit (sic) à 6 000 personnes ? Et pourquoi pas plus demain ? Alors même qu’elle pourrait faire l’objet de 6 000 tickets ? Pourquoi ce serait intégral et gratuit ? Quelle est cette idée que ça doit être absolument nécessaire de le donner gratuitement en entier à tout le monde à un moment donné ? C’est-à-dire que nous on comprend pas d’une certaine façon la dimension industrielle et entrepreunariale : j’ai fait un film, j’en suis fière et j’aimerais qu’il y ait des gens qui payent leurs tickets pour le voir parce que c’est de ça dont je vis. Et pourquoi on devrait sur une logique de la gratuité faire ce buzz sur Internet ?

J’ai parlé d’avant-première, pas de diffusion gratuite, ce qui est assez différent.

Juliette Prissard-Eltejaye : L’avant première, elle est faite pour les professionnels qui après prescrivent à leur tour. Moi aujourd’hui quand un producteur fait une avant-première, il invite la presse qui ensuite va faire de la prescription. Ou alors elles sont payantes. Mais l’avant-première, elle est faite pour multiplier les prescriptions.

* * *

Décupler les prescriptions, oui, mais encore une fois seulement avec des professionnels. Pas avec “un consommateur autiste devant son écran internet”. Belle réduction de la consommation culturelle à l’heure du numérique.

Même avec l’intervention de Louise Ferry – qui, comme d’autres, ne comprend pas l’image de l’autiste encouragé à la paresse – le mot est lâché, violent, dans une salle où se mélangent certainement des producteurs d’images et d’histoires mais visiblement pas d’internautes cinéphiles. Internet ne peut servir qu’au buzz marketing, point. La question du web dans sa globalité divise toujours autant les producteurs de contenus. Pour différentes raisons.

Les acteurs du web, le mal incarné

Peut-être à commencer par la crainte que Google, Apple et Amazon ne viennent contrôler un système de diffusion et de distribution de la culture que les réalisateurs, les producteurs et les distributeurs dits classiques ne maîtrisent pas. C’est Marie-Christine Vergiat qui le chuchotera : les questions en suspens sont celles du financement et de la rémunération des acteurs de la chaîne du film.

Derrière toute la chaîne de distribution, il y a effectivement beaucoup de professionnels à financer. Il y a des gens qui ont besoin de vivre de leur art. Donc diffuser gratuitement sur Internet comme ça, avec accès à la culture pour tous, est une réponse qui ne me satisfait pas. Je suis toujours frustrée dans ces débats on s’envoie tous des trucs à la tête. On n’est pas au pays des Bisounours et derrière Internet, il y a des géants et notamment à Bruxelles où c’est toujours les même qu’on voit.

Les choses sont dites. Le problème n’est pas forcément l’internaute mais c’est aussi celui qui ne finance pas ce dont il se servirait. À savoir les géants des télécoms qui, pour Yvon Thiec, sont dans une logique d’alimentation des réseaux qu’ils ont construits et pour qui derrière cette tentative de dérégulation de la chronologie des médias se trouve un cheval de Troie, “parce qu’il n’y a pas que des gens innocents et généreux”. Et le cheval de Troie sonne enfin comme l’hypothèse la plus crédible de cette peur du Net.

Un peu comme une thérapie de groupe pendant laquelle le fond sortirait après un flot libérateur de paroles, la table ronde prend une tournure qu’on ne soupçonnait plus.

La sortie simultanée d’un film en salles, en VOD, en télévision et sur Internet ne serait que la façon permettant aux majors du web, Google, Apple et Amazon, de prendre le pouvoir sur la culture et d’enterrer l’exception culturelle française. Il faut “faire face aux multinationales américaines qui sont en train de tout bouffer sur le territoire de l’Union européenne” lâche Marie-Christine Vergniat. #Saydit.

Nuances

Malgré tout, dans ce conservatisme à la limite parfois de l’anti-internaute – qui finance lui aussi le cinéma en y allant au même titre que le non-internaute – la position d’Éric Vicente, programmateur chez Sophie Dulac est bien plus nuancée et avouons-le montre timidement les avancées qui peuvent être faites au sein même de la corporation du cinéma. Sur la distribution :

C’est compliqué pour un exploitant de dire quels sont les films en trop, est-ce qu’il y a des films en trop mais on peut se poser la question avec certains films distribués dont les scores sont très compliqués. Il est important que la diversité continue mais il faut se poser la question de comment faire pour qu’un film soit vu : les salles d’art et essai font cette promotion et cette diversité mais parfois il y a une absence de public. Comment faire pour que vous ne passiez pas x années devant un film qui ne sera pas vu ? Est-ce qu’un distributeur peut passer trois mois de sa vie pour 1 000 spectateurs même si c’est important ? Je n’ai pas de religion en la matière, ce sont juste des interrogations.

Sur le terrain des concessions il est rejoint par Louise Ferry, qui se demande si on ne peut pas créer une exception pour les acteurs les plus modestes du marché du cinéma :

Je me demande en quoi c’est un problème de sortir les films d’art et essai de la chronologie des médias dans la mesure où ce sont des films qui restent très peu de temps et où il y a très peu de copies. C’est très peu diffusé, ils sont boudés par le grand public. Surtout dans la mesure où cette offre légale en ligne n’est pas importante en plus.

Ce n’est pas tant l’envie de culture qui manquerait aux spectateurs, mais de moins en moins de curiosité d’une partie du public. Un film d’auteur dans une seule salle à Paris à deux séances par jour, est-ce suffisant pour permettre à un grand nombre d’aller voir ce film ? Est-ce un film mauvais ou simplement un film qui manque sérieusement de moyens, de plateaux télés et de promotion dans le métro. En tête, Camille redouble, le dernier film de Noémie Lvovski, dont le matraquage télévisuel et radiophonique a dû nécessiter un budget publicitaire considérable.

Donner une chance aux petits en bouleversant la chronologie des médias. Utiliser Internet comme support de promotion et de recommandation. Faire confiance aux internautes. L’autisme est une « attitude mentale caractérisée par le repliement sur soi-même, un mode de pensée détaché de la réalité ». Choisir ses mots, avec autant de précaution qu’on choisit ses images.


Photo par William Brawley (cc-by) remixée par Owni

La « négation de la démocratie » du sénateur Marini

Ce lundi soir, Philippe Marini, président de la commission des finances du Sénat, répondait aux questions des internautes sur une bulle vidéo Google+ (ce qui est assez drôle en passant, au vu de ce que Google encaisse en ce moment) et sur YouTube. Modéré (et motivé ?) par Erwann Gaucher, Antoine Bayet, Richard Menneveux et Guillaume Champeau, le sénateur de l’Oise présentait sa « fiscalité numérique neutre et équitable ». Florilège des questions sur la concurrence, l’optimisation fiscale des géants du web et leurs bénéfices records.

Le point de départ

La position de Marini est assez claire (sur le site du Sénat en tout cas) : les profits qu’engrangent les grandes entreprises du Net grâce à la fiscalité est devenue « une véritable question de société ». Il explique :

Les médias ont popularisé le sujet et évoquent de plus en plus les montages fiscaux et les sommes soustraites par ces entreprises, du fait des insuffisances de législation.

Les insuffisances de législation taclées par Marini ne sont autres que la facilité (la dextérité ?) avec laquelle les géants du Net vont chercher de meilleurs taux d’imposition au Luxembourg et en Irlande, et jouent avec la TVA sur les biens immatériels. Stratégies infaillibles. Le cas d’Apple ayant payé 7 millions d’euros d’impôts en France alors qu’il ne déclare « que » 257 millions d’euros de chiffre d’affaires (officiellement, puisqu’officieusement, ses revenus français avoisinent 3,5 milliards), est édifiant. Google l’est tout autant et il y a fort à parier que Microsoft, sous le coup d’un contrôle fiscal – et d’une descente musclée d’officiers de police judiciaire – en juin dernier, fasse les frais d’un redressement du même ordre que celui demandé à Google.

Le point Lex Google

Philippe Marini, interrogé par Antoine Bayet, précise dès le départ : l’origine des travaux émerge de la situation des finances publiques et du souci de « voir les assiettes fiscales les plus modernes (sic) échapper à une taxation ». La poursuite de cette mission a été le jeu d’auditions des acteurs : Dublin pour Google, Londres et Rome pour rencontrer les parlementaires et Bruxelles au lendemain de la Lex Google allemande pour participer à un forum organisé par des professionnels de grands groupes de services d’information et de culture. Devenu président de la commission des finances, Marini ne chôme pas et il l’assume.

Quelle est la ligne à ne pas franchir pour un parlementaire concernant la Lex Google a été le premier point soulevé par Guillaume Champeau de Numerama : pour justifier une redevance, la Lex Google oblige à créer un droit voisin, supérieur au droit d’auteur pour protéger les oeuvres et ajouter des interdictions. Effectivement, Cédric Manara, juriste spécialiste de la propriété intellectuelle et d’Internet, expliquait sur Owni :

C’est la création d’un droit qui protège les sociétés de presse. Même si elles publient trois ou quatre lignes sur n’importe quelle actualité, elles sont de fait protégées. Non pas pour leur contenu, mais en leur qualité d’organisme de presse. C’est la création d’un droit équivalent au système de l’Ancien régime, la création d’un privilège. Pourquoi protéger un organisme de presse plutôt que d’autres contenus ? C’est un problème. Et si c’est ça la politique actuelle à l’heure du débat sur la propriété intellectuelle à l’heure du numérique, alors ce n’est pas bon signe.

La ligne rouge, expliquée par le sénateur, est surtout la possibilité de faire comme les Allemands en créant un droit à l’indemnité : « si les deux parties, éditeurs et agrégateur ou moteur de recherche, sont d’accord, c’est très bien ». Si les deux parties ne s’entendent pas, les tribunaux pourraient intervenir pour valoriser ce que « l’agrégateur devra reverser à l’éditeur ou l’auteur du contenu, le texte ne se prononce en rien sur la valorisation ou l’évaluation des droits ». Ah.

Mais « si Google réplique ? » demande Erwann Gaucher, et supprime les sites d’informations de son moteur de recherche ? « Quand on écoute Google, et il faut toujours écouter toutes les parties dans un sujet complexe, la réalité apparait elle-même quelque peu nuancée » répond Marini. Nuancée ? Oui, parce que Google dit que son moteur de recherche et Google News ne font pas apparaître d’insertion de publicité de manière directe ou systématique. Mais la réponse de Google ne tient pas compte du fait qu’elle est aussi une société dont la finalité est « la captation du marché publicitaire » précise le sénateur :

L’exploitation des supports publicitaires sur la toile est le coeur du réacteur Google, tout le monde le sait et c’est une évidence et il y a là une réalité qui peut rendre complexes les évaluations des dommages versés à des éditeurs dont les contenus seraient exploités à des fins différentes de celles pour lesquelles ils ont été conçus. La menace de représailles qui émane de Google et qui a un carcatère très antipathique est à l’opposé de l’image que voudrait donner la firme. La menace publique est assez difficile à accepter ((La diffusion de la note blanche aux cabinets ministériels « pour les mettre en garde », ndlr)) et je mesure mes mots. Cette réaction assez déplorable a été un peu comme un masque qui tombe, un masque de bonne intention.

Nous n’aurons pas la réponse du cas où Google répliquerait. Dommage.

Le point fiscalité numérique

À la Lex Google succède celui sur la fiscalité numérique, enchaînement limpide : après discussion sur la possibilité de taxer une entreprise telle que Google pour son indexation des sites de presse et les enjeux d’une telle mesure, rien de tel pour continuer que de définir les politiques fiscales. En l’occurrence Philippe Marini attend avant tout de l’exécutif (en félicitant « le pouvoir » de la mission dite Collin et Colin – du nom de leur rapporteurs – et la mission « très ambitieuse » confiée à Pierre Lescure sur l’acte II de l’exception culturelle à la française) qu’il prenne position et agisse sur trois plans distincts : national, européen « qui suppose d’exprimer une volonté et de se placer clairement dans la logique de l’axe franco-allemand » et mondial « pour faire évoluer les concepts de la fiscalité ». Le chantier est bien vaste.

Richard Menneveux ((excusé)) a fait parvenir une question sur les pouvoirs de l’État en matière d’action pour développer une fiscalité européenne ou pour appliquer une autre fiscalité. Développer une fiscalité européenne c’est avoir un poids conséquent donc. Appliquer une autre fiscalité c’est utiliser la législation française en prenant garde de ne froisser aucun des acteurs. La diplomatie reste de mise, même quand il s’agit de milliards et pour Philippe Marini, rien ne différencie l’optimisation fiscale et la fiscalité du secteur numérique aux autres secteurs. Seulement :

Il existe des interlocuteurs très puissants avec une claire conscience de leurs intérêts et qui font de l’arbitrage de législation. On ne saurait leur reprocher, peut-être d’un point de vue moral, mais ce n’est pas leur première motivation. D’après ce que nous savons d’un journal satyrique du mercredi ((Le Canard Enchaîné, ndlr)), l’administration fiscale française a entrepris une campagne de vérification auprès d’un certain nombre de groupes et pas seulement Google. S’agissant de Google, on évoque un enjeu supérieur au milliard d’euros en droit à redresser. Mais ayant lu l’article je crois que ces informations sont puisées auprès d’une bonne source. […] Le fisc français est tout à fait dans son rôle lorsqu’il s’efforce de reconstruire la réalité économique au-delà des apparences juridiques et s’appuie sur la notion d’abus de droits.

La question – pour Guillaume Champeau – se pose aussi hors les optimisations fiscales et autres manipulations de trésorerie « scandaleuses » : même en s’attaquant à la fiscalité des grands groupes, « c’est pas plus facile que d’aider les petites entreprises à devenir grandes ? »

La tentation de glisser sur la Google à la française – ou à l’européenne – est bien grande, tentation sur laquelle ne glissera pas le sénateur. Il expliquera quand même que l’Europe « bat sa coulpe » parce que les problèmes économiques et le système ont fait défaut pour concurrencer le géant de la recherche en ligne. Et ce, même si certains régimes fiscaux favorisent l’innovation « comme pour les entreprises innovantes » et que le sénateur reste sceptique sur ces mesures d’une « grande complexité » :

Un écosystème permettant de faire émerger de grands acteurs est-il possible ? C’est une question qui demeure ouverte. On ne peut pas se satisfaire d’une situation où l’on dépend complètement d’un algorithme fait ailleurs ou de clés d’accès pour certains programmes qui peuvent être utilisées et où les conditions peuvent varier de façon arbitraire.

« Négation de la démocratie »

Mais le calendrier de la législation est un calendrier lent, loin de celui du web ; et le sénateur est bien impuissant à expliquer que les discussions avec l’OCDE peuvent prendre 5 à 10 ans avant d’aboutir, quand la directive qui permettra de taxer les entreprises vendant de l’immatériel dans le pays de l’acheteur commencera à entrer en vigueur en 2015 jusqu’en 2019. « Le différentiel entre le taux de TVA français et celui du Luxembourg, c’est une hémorragie » pour la France ajoute le sénateur.

Et de préciser suite à une question Twitter que l’État perd 500 millions en ressources et un peu moins d’un milliard en TVA. Soit pour Philippe Marini, 1,3 milliard d’euros de manque à gagner. Mais le temps numérique encore une fois est un temps rapide et « ces chiffres progressent vite parce que le marché publicitaire sur le net est en forte expansion – 15% par an en ordre de grandeur – donc les enjeux sont extrêmement croissants ».

Conclusion « le sujet est extrêmement difficile […] mais en même temps c’est un sujet qui concerne l’ensemble des internautes, donc le grand public et c’est même presque un sujet de société car des entreprises, aussi remarquables soient-elles, qui créent et imposent leurs lois sur notre territoire dans une pure logique économique et d’optimisation fiscale, c’est une négation de la démocratie ».

À l’expression négation de la démocratie, il fallait entendre que les bénéfices devraient être également répartis grâce à une régulation et une politique bien à sa place.


Illustration par psd [CC-by]

Le doigt d’honneur fiscal d’Apple

Les pratiques d’optimisation fiscale des géants du Net occupent une nouvelle fois le devant de la scène. Apple aurait été imposé à l’international à hauteur de 2%, d’après les résultats annuels publiés par la Securities and exchange commission (SEC), le gendarme de la bourse américaine. Un fiscaliste européen ne souhaitant pas être cité, confirme que les manipulations financières sont plutôt simples.

Les profits américains sont quant à eux en partie épargnés « grâce à un montage impliquant l’État du Névada ». Les entreprises technos, plutôt bien dotées financièrement, ne versent pas – ou très rarement – de dividendes à leurs actionnaires : verser des dividendes « c’est pas cool » et indiquerait la fin de la phase de croissance, peu souhaitable pour des entreprises dont le mantra reste l’innovation…

Le cas européen

L’Europe étant un marché unique, la libre circulation des biens n’empêche pas chaque État de faire ce qu’il veut en terme de fiscalité et l’Union européenne intervient peu. Parmi les « failles » législatives, on citera la possibilité pour les géants de la vente de biens immatériels de taxer dans le pays d’établissement de leur siège social, souvent l’Irlande (comme pour Google) ou le Luxembourg (comme pour Apple et iTunes). Mais une directive de 2008 donne trois ans (entre 2015 et 2018) aux entreprises pour préparer la taxation des ventes de biens immatériels dans le pays de l’acheteur et plus dans le pays « vendeur ». La directive n’est pas encore entrée en vigueur, ce dont profite Apple pour imposer les vente d’iTunes au taux luxembourgeois. Et ce même si c’est un Français qui achète un album sur iTunes d’une star qui ne l’est pas encore. Mais la petit manipulation, à partir du premier janvier 2015, ne pourra pas plus en théorie avoir lieu et les téléchargements seront soumis – progressivement – à la TVA du pays de l’acheteur. Dommage pour les exemplaires marchands US qui pour Greenwich Consulting [PDF ] (( enquête réalisée pour le Sénat en Octobre 2009 )) représentaient en 2008, 70% du marché européen.

La directive, portant sur l’application de la TVA au taux du pays de l’acheteur, n’a pourtant pas été acceptée d’emblée par les pays contraints au droit communautaire et elle l’a été à « l’issue de discussions difficiles entre les États membres ». On comprend que le Luxembourg et l’Irlande rechignent un peu. Et que, de fait, les négociations aient été longues : 27 États à se disputer une taxe allant sans froisser le Luxembourg, ça peut durer longtemps.

Le montage d’Apple ne lui est pas spécifique. De la même manière, Google pratique le double irish et permet aux profits des sociétés technologiques d’échappent au fisc. Owni a publié les liasses de Google qui attestent de 12 milliards d’euros de revenus en Europe (et un tout petit impôt de 5 millions en France pour l’année 2011). Le Canard Enchaîné du 31 octobre a révélé que la Direction générale des impôts réclamait à Google presque 1 milliard d’euros pour quatre ans de chiffre d’affaires français exilé en Irlande, chez Google Ireland limited, sans être déclaré au fisc.

Les chiffres d’affaires de plusieurs pays sont concentrés en Irlande et une redevance est versée aux Pays-Bas pour rémunérer les brevets, la marque et autres immatériels. Le régime des Pays-Bas permet de faire sortir une redevance vers un paradis fiscal, sans avoir à payer d’impôts. Aux États-Unis, nul besoin de passer par des paradis fiscaux.

Le Nevada, nouvel eldorado

Avec un taux d’imposition égal à zéro, le Nevada – et le Delaware – deux États bien agréables pour les entreprises telles qu’Apple, sont providentiels et permettent de miser sur les investissements et la R&D, gage de sérieux pour les investisseurs et l’image des entreprises du Net. Le spécialiste de la fiscalité du numérique ironise :

On constate depuis quelques années que tout n’est pas réinvesti, loin de là, et que ces sociétés accumulent une trésorerie très abondante (près de 100 milliards de dollars pour Apple).

On est bien loin des 800 millions de trésorerie du CNC, qui font bondir les FAI français, taxés pour financer le fonds et la création.

Le système américain taxe à hauteur de 35% à l’échelon fédéral. Et s’ajoute à ce taux les impôts de chaque État, plus ou moins important selon chaque législation. Alors le Névada n’impose pas les sociétés, le taux de la Californie avoisine 8%. Une fois qu’il faut rapatrier, le montage n’est pas compliqué : la trésorerie accumulée et conservée dans les paradis fiscaux attendent les « tax holidays » qui permettent aux entreprises de rapatrier du cash aux Etats-Unis, à la faveur d’une réforme fiscale après une élection par exemple. Et ce, sans verser le moindre impôt.

The Sunday Times rapporte qu’Apple a touché 36,9 milliards de dollars de revenus, à l’international. Pour 731 millions de dollars d’impôts, bien peu au regard de ses revenus donc. En France, BFM vient de révéler qu’Apple « ne déclare que 257 millions d’euros de chiffre d’affaires, alors, qu’en réalité, il engrange dans l’Hexagone près de 3,5 milliards d’euros de revenus ». Pour 7 millions payés en impôts en France.


Affiche originale par Geoffrey Dorne [CC-byncsa] pour jaffiche.fr et remixée par Ophelia Noor pour Owni /-)

Petite presse en ligne deviendra grande (#oupas)

La journée de la presse en ligne du Syndicat de la presse indépendante d’information en ligne (Spiil) commence tout juste ce matin et compte bien mettre sur la table l’inutilité des aides et subventions à la presse, notamment à travers un manifeste pour un nouvel écosystème de la presse numérique. Aurélie Filippetti, ministre de la Culture, était quant à elle auditionnée mercredi sur le projet de loi de finances 2013 (PLF 2013) à la Commission des affaires culturelles. Et si beaucoup des questions et des réponses ont tourné autour de l’avenir de France Télévisions ou du budget rogné de la Hadopi, seul Michel Françaix, le rapporteur de la mission Médias, Livre et industrie culturelle, option rapport sur les médias, glissait quelques mots sur « le problème de la presse en ligne ». Et expliquait que la presse (en général) rencontrait des difficultés depuis 30 à 35 ans, quand les aides, elles, augmentaient de plus en plus. « On a jamais donné autant d’argent par rapport au nombre de journaux vendus cette année », expliquait le rapporteur.

Petite presse en ligne dans le PLF 2013

L’idée pour Michel Françaix : recentrer les aides vers ceux qui en ont besoin et redéfinir le taux de TVA selon les types de presse, qu’elle soit citoyenne ou qu’elle soit « autre ». Avant que le rapporteur ne livre ses conclusions la semaine prochaine, nous avons épluché le volet « aides à la presse » du projet de loi de finance 2013. Le principe des aides à la presse, en ligne ou papier, repose sur une volonté du gouvernement précisée dans le projet de loi de finances 2013 :

S’agissant du secteur de la presse, la stratégie de l’État poursuit deux objectifs fondamentaux : le développement de la diffusion de la presse et la préservation de son pluralisme et de sa diversité.

Aider la presse à coups de versements d’aides et de crédits de quelques millions d’euros pourrait être l’intention la plus louable possible. Seulement comme Vincent Truffy (journaliste pour Mediapart) le montrait sur Owni en décembre 2010 dans l’application « Le juste pris », deux ans après les états généraux de la presse écrite, des députés constatent que les éditeurs de journaux se sont, le plus souvent, contentés d’aller à la pêche aux subventions sans remettre en question leur fonctionnement.

Faire l’économie d’une remise en question du fonctionnement est sans doute plus simple pour les éditeurs de presse. La presse, qu’elle soit papier ou numérique, est notamment aidée par les injections de milliers d’euros du fonds stratégique de développement de la presse, le FSDP. (( Réunion du fonds d’aide à la modernisation de la presse – FDM – et du fonds d’aide au développement des services de presse en ligne – SPEL – ))

En 2013, ce sont donc 516 millions d’euros en autorisations d’engagement et en crédits de paiement qui sont budgétés (( Paiement effectif des dépenses engagées par une administration une fois que la prestation est réalisée )), les aides directes étant 22% plus élevées après les États généraux de la presse de 2011.

Dans le détail, l’AFP recevra 119,6 millions d’euros (en hausse de 2 millions par rapport à 2012). S’ajoutent 19,7 millions pour accompagner la modernisation sociale de la fabrication de la presse quotidienne et 4 millions pour la modernisation des diffuseurs. Et encore 18,9 millions pour l’aide à la distribution. Le plus gros poste : 320 millions d’euros pour le plan d’aide au développement du portage, l’aide à la SNCF pour le transport de quotidiens et 12 millions pour le pluralisme des quotidiens nationaux à faibles ressources. Dans ces 320 millions, il faut aussi compter sur les 249 millions pour l’aide au transport postal de la presse dont une compensation du manque à gagner pour La Poste de 32,4 millions.

Les 33,5 millions pour la modernisation et la presse en ligne paraissent bien petits dans les répartitions.

L’ancien fond SPEL, aujourd’hui section II du FSDP, va donc profiter de quelques milliers d’euros pour aider la presse en ligne. Ce qui pour Maurice Botbol, président du Spiil – qui organise aujourd’hui la 3e journée de la presse en ligne – et fondateur du groupe de presse Indigo (publiant entre autres La lettre A) n’est pas le problème de fond. La position du Spiil sur le sujet est claire, il faut supprimer les aides directes (subventions) qui sont, selon lui :

contre-productives, inefficaces et qui n’ont jamais été aussi élevées, comparées au nombre de lecteurs. Le système est à bout de souffle et il faut le réadapter. Inutile de continuer les aides sous perfusion.

Pure players dans la jungle

« Le fonds SPEL, en 2012, c’est un peu moins de 10 millions d’euros, les aides à la presse en ligne ne représentent presque rien, quand l’ensemble avoisine le milliard », précise le fondateur d’Indigo. Et dans ce même fond, moins de 5% des aides est distribué aux pure players, c’est aussi parce « qu’ils n’ont pas l’habitude de remplir des dossiers d’aides contrairement à la presse traditionnelle ». Le montant maximum des subventions d’un pure player ? 200 000 euros. Contre 1 million à 1,5 million pour la presse papier.

Autre cause de cette moindre attribution, les délais de réponse. « Les délais sont longs par rapport au rythme du numérique. Et les demandes peuvent se dérouler sur 6 à 8 mois parfois ». Dernier frein mais non des moindres, le fonds SPEL refuse de subventionner le développement interne :

Ils exigent que le développement logiciel soit sous-traité. Or ne pas faire appel à un prestataire est rédhibitoire. Sauf que les pure players ne vont pas faire appel à des SSII alors qu’il est possible de le faire en interne !

Au FSDP, on confirme, « les dépenses internes n’ont jamais été prises en compte ».En plus de ce fossé entre le fonctionnement d’un pure player et l’administration chargée de distribuer les subventions, il reste ce petit détail de l’application de la TVA à 19,6 pour les pure player contre 2,1 pour le papier. Taxer différemment un contenu parce que le support de lecture n’est pas le même, une des meilleures façons d’appuyer ce que pérorent les réfractaires au journalisme web ou comment dire : si c’était vraiment la même chose, sous-entendu « aussi bien », il n’y aurait aucune différence.

Rappelons qu’Aurélie Filippetti déclarait dans Polka en juillet dernier :

Si la presse abandonne la qualité, il n’y aura plus de différence entre les journaux, les magazines payants et la presse gratuite, notamment sur le Net où rien n’est éditorialisé.

Selon les administrations, ces aides indirectes – un taux très bas pour la presse papier – ne pourraient pas être applicables à la presse en ligne. Nicolas Sarkozy, lors des États Généraux de la presse en janvier 2009, déclarait que la France « allait poursuivre le travail de conviction engagé de ses partenaires européens pour que les taux réduits de TVA soient étendus à la presse en ligne ». Une directive européenne de novembre 2006 [pdf] précise que les taux de TVA ne peuvent être inférieur à 15% au sein de l’Union européenne, à quelques exceptions près notamment le taux de TVA à 2,1% de la presse papier. Ou le livre à 5,5 ou 7%.

En novembre 2011, la Commission européenne attirait la France vers le taux réduit pratiqué sur le livre numérique (le même que pour les livres papiers). Début juillet 2012, la Commission ouvrait une procédure contre la France et le Luxembourg pour infraction au droit communautaire. Taxer différemment un même contenu selon le support sur lequel il est lu semble pour certains éditeurs de presse (Arrêt sur images, Médiapart et Indigo) assez aberrant pour appliquer le taux réduit à 2,1% sur les ventes de leurs productions numériques. Avec pour argument les principes de neutralité fiscale et technologique. Maurice Botbol explique : « deux produits équivalents ne peuvent pas subir deux taux de TVA différents ». Raison pour laquelle il applique le taux de TVA réduit.

Mais visiblement, du côté des députés français, on s’active et un amendement au PLF 2013 [pdf] a été déposé le 4 octobre dernier. Il a notamment pour objet :

de faire bénéficier la presse en ligne du taux « super-réduit » de TVA actuellement appliqué à la presse imprimée. Actuellement, le taux de TVA appliqué à la presse imprimée est de 2,1 %, tandis que les services de presse en ligne se voient appliquer le taux « normal » de 19,6 %. Or, l’égalité de traitement fiscal est nécessaire pour accompagner la migration de la presse imprimée sur les supports numériques ainsi que l’émergence d’une presse exclusivement en ligne.

Un moyen de réduire la fracture entre la presse en ligne et presse papier.


Photo de Visualpun.ch [CC-bysa] et photo d’Aurélie Filippetti par Richard Ying [CC-by-nc-sa] remixées ~~~=:) ONoor

Livraison de trouille chez les éditeurs numériques

Les éditeurs français commencent à s’immiscer sur le marché du livre numérique. Petit pas après petit pas, les tentatives de mises à niveaux des uns et des autres sont fortement médiatisés. Et dans la réalité ? Owni a rencontré deux de ces acteurs, vers lesquels les projecteurs se tournent. Entretiens croisés.

”Des choix stratégiques à faire”

Du côté des éditeurs, coincés entre le désir de contenter le plus de lecteurs, de rentrer dans les cases des géants du Net et de subvenir à leurs besoins, l’édition numérique reste complexe.

C’est à eux de dessiner les contours d’une stratégie qui fonctionne, maison par maison. Pour Héloïse d’Ormesson, éditrice de la maison éponyme (( dont l’ambition est de ”Publier moins de vingt titres par an pour les publier mieux, littérature toujours, venue de France et d’ailleurs.” )), le choix n’est pas tant cornélien : ”La maison est une petite maison indépendante et nos choix doivent être stratégiques. Laisser les grosses structures se placer, avancer et se positionner pour voir peut être aussi une manière d’y entrer.”

Se placer ensuite sur le marché tout en suivant de près ce que font les autres en somme. Malgré tout, l’intention est là et la numérisation chez EHO est en marche. Depuis un an et demi, la fille de Jean D’Ormesson – qui publie régulièrement des titres – planche sur leur façon d’appréhender un marché fait pour les grandes maisons, tout en précisant ”qu’avoir de l’ampleur n’est pour le moment pas nécessaire.”. Avec les moyens dont il faudrait disposer pour numériser un catalogue, on comprend qu’il faille suivre ce qui se passe tout en restant à l’écart.

Pourtant, le livre numérique – qui représente entre 1 et 2% des ventes dans le chiffre d’affaires des éditeurs ((presque 3 milliards en 2011 soit 12 millions d’euros pour le numérique selon GfK)) ne fait peur à personne. Encore moins chez EHO pour qui :

Le numérique en soi, qu’on puisse lire sur des tablettes, c’est formidable. Plus on multiplie les modes de lecture et plus il y aura de gens qui liront. C’est souhaitable et c’est une merveilleuse découverte.

Enthousiasme donc chez Héloïse d’Ormesson qui fonctionne avec quelques auteurs phares : Jean D’Ormesson, Tatiana de Rosnay, Harold Cobert, Lucia Extebarria et Isabelle Alonso pour ne citer qu’eux. Pourtant, lorsqu’on prend connaissance des ventes en numérique du dernier best-seller de Tatiana de Rosnay – paru en 2011 -, on comprend que les éditeurs s’étranglent un peu. Rose c’est 70 000 versions papier vendues. 300 en numérique”, confie l’éditrice. Frappant.

Néanmoins le marché des livres étant en régression, autant essayer de suivre le numérique dont la progression n’est pas contestée, même si elle reste timide. Avec une projection à 6 ou 7% du chiffre d’affaires pour le numérique en 2015, autant effectivement essayer de miser sur le marché potentiellement explosif. Mais les prix, la pauvreté – relative – du catalogue et les DRM ne sont pas des arguments vendeurs. Une histoire de poule et d’oeufs. Si les éditeurs enrichissent le catalogue, il pourrait y avoir plus de lecteurs séduits par l’outil. Mais les éditeurs n’ont pas toujours envie de développer un catalogue avec ce risque que leur investissement ne rencontre jamais l’amortissement.

Héloïse d’Ormesson le confesse :

Ici le prix du livre numérique ne vaut pas qu’on l’achète comparé à l’objet livre papier. Le marché commence à devenir important mais balbutie, on ne se comporte pas comme les Anglais et les Américains. La vente de livre papier en ligne est minoritaire. La maison pourrait survivre si on ne faisait pas de vente papier sur le Net.

Petit-à-petit l’oiseau fera-t-il son nid ? À en croire les chiffres aux États-Unis et les 20% de part de marché pour le livre numérique, les éditeurs auraient tout à gagner à s’y insérer tôt ou tard. Mais le prix à payer est pour le moment trop lourd pour que les tarifs des livres numériques soient inférieurs aux prix actuels :

Le coût assez haut est un investissement et un surcroît de travail pour les équipes. En un an et demi, on a numérisé 4 livres. On perd du temps pour des ventes pas extraordinaires.

Comprendre qu’il faut en interne à la fois former les services, trouver des prestataires en mesure de produire un livre numérique de qualité pour un marché qui n’est à l’heure actuelle rentable pour aucun des éditeurs. Trop frileux pour le risque ou simplement attachés à un objet papier avec la peur en filigrane de le voir disparaître ?

Responsable du développement chez Albin Michel, Alexis Esménard confiait au Labo de l’édition lors de la rencontre entre éditeurs et Google Play qu’il serait toujours éditeur papier.

Mais à ceux qui expliquent que le numérique n’est autre que celui qui tue les librairies, Héloïse d’Ormesson est catégorique :

Pour l’instant, la librairie en France est en crise, mais ce n’est pas à cause du numérique. Le numérique n’a pas tué l’édition. Par exemple aux États-Unis, ça ne fait qu’accélérer la polarisation sur un certain nombre de titres. 10% de titres pour 95% de chiffre d’affaires. Ça marginalise de plus en plus la littérature de diversification. C’est la diversité de l’édition qui est en jeu.

La diminution de la diversité des titres est un phénomène exacerbé par la présence de trois acteurs majeurs dans le paysage des librairies numérique. Apple, Google et Amazon se posent en prédateurs et distribuent leurs conditions et ils sont le talon d’Achille qui enserre parfois les éditeurs dans des clauses que ces derniers prétendent ne pas pouvoir négocier.

Ce n’est pas le livre numérique qui m’inquiète mais les revendeurs tels qu’Amazon [ainsi que l’Apple Store et le dernier né Google Play, ndlr]. Le numérique va renforcer la position de Google et Amazon sur le marché français. s’inquiète Héloïse d’Ormesson.

Ce n’est donc pas qu’une histoire de taille

Avec un chiffre d’affaires supérieur et un catalogue plus grand que les éditions Héloïse d’Ormesson, Albin Michel n’est pas moins embourbé dans les mêmes problématiques. Peu importe la maison à laquelle il appartient : le travail de l’éditeur reste celui de l’accompagnement du livre de la production à la diffusion. Ce qu’Amazon, Apple et Google provoquent dans le discours des éditeurs ressemble à une peur panique de perdre le contrôle de leurs titres – à tort ou à raison.

Alexis Esménard montre le rapport de force existant entre les éditeurs, qu’ils soient grands ou pas, et les trois multinationales :

Dans le monde des revendeurs, ce sont des acteurs qui ont des moyens sans commune mesure avec ceux des éditeurs. Quand on parle de la capitalisation de Google on parle de 350 milliards. Le marché du livre tourne autour des 3-4 milliards. C’est encore plus vrai quand les éditeurs sont petits. On [Albin Michel, ndlr] est une grosse maison mais on ne fait que 180 millions d’euros de chiffre d’affaires ((catalogue scolaire inclus, 100 millions avec le catalogue littérature simple, ndlr)).

De ce point de vue-là, les éditeurs sont pris dans des filets économiques qu’ils ne maîtrisent pas. Et plus l’éditeur est petit, plus sa difficulté à s’insérer dans un marché en cours de mutation est grande. Alexis Esménard précise qu’”avant, quelque soit l’éditeur, il avait la chance d’arriver à faire un succès – quelle que soit sa taille. “ La nouveauté résiderait donc dans les entrées sur le marché de l’édition numérique.

Et une fois entré sur ce marché, l’éditeur n’aurait plus le pouvoir de décider de la diffusion de ses titres :

Aujourd’hui, on a 10 000 points de vente physique – à peu près – qui ont la possibilité de vendre du Albin Michel. Si je me retrouvais demain avec seulement trois acteurs ça changerait beaucoup de choses. Demain si Apple décide de ne pas vendre un de nos titres, il disparaît d’un point de vente mais d’un point de vente à forte force de frappe. Ça me choque et me gêne réellement en tant qu’éditeur.

Le risque de l’étau

Même si les cartes du jeu sont distribuées à priori équitablement entre les éditeurs et les distributeurs, les premiers ne sont pas de taille pour éviter la négociation de petites clauses de contrats avec les seconds. Par exemple, qu’un distributeur (Apple, Google ou Amazon, donc) propose une grosse subvention à un éditeur pour s’assurer de l’exclusivité du catalogue en échange d’avoir la liberté de fixer lui-même le prix de chaque livre. Ce qui est aujourd’hui impossible lorsque l’éditeur fait le choix de distribuer son livre sur les trois plateformes, qui sont obligées de pratiquer une vente à « prix unique« .

Et là, le distributeur ”pourrait décider de vendre les livres gratuitement ou à un euro et de subventionner l’éditeur pour l’ensemble de ses ventes.”, explique le chargé du développement numérique chez Albin Michel. Une fois le marché conquit avec ces livres bradés, le revendeur pourrait alors aussi retirer ses subventions. Et laisser les éditeurs à sec.

Et question négociations, Albin Michel (contrairement aux Éditions Héloïse d’Ormesson qui sont distribuées par Editis) étant à la fois injecté sur Apple, Amazon et Google, peut comparer la façon dont les avocats discutent et la longueur des discussions, option marchands de tapis :

Avec Apple, 2 semaines. Avec Amazon, 2 ans. Et avec Google 9 mois. Après il faut savoir que si la négociation avec Apple a été rapide c’est que dans leur business model, le livre n’a pas une grand part et c’est de vendre leur tablette qui les intéresse, en prenant une commission dessus. La finalité pour Amazon est différente : leur produit principal reste le livre, la culture. Google est un peu entre les deux et ce qui les intéresse c’est d’amener le plus de monde possible sur les moteurs de recherche, pour qu’ils vendent leur publicité.

Malgré cette peur de la mainmise des trois grandes plateformes, ça n’empêche en rien Alexis Esménard d’être “séduit” par le livre numérique et d’y voir tout un tas de possibilités. Tant en epub de littérature générale – même si le texte suffit au livre lui-même – qu’en “beaux livres”. L’une des craintes de l’éditeur, déjà formulée lors du débat au Labo de l’édition : le piratage des fichiers. Et ce, même si aucune étude sur le sujet ne démontre que le piratage sera pour le livre une conséquence désastreuse en terme de volume :

Ne pas mettre de DRM augmente le piratage. Mettre des DRM, n’est pas une bonne solution non plus mais c’est par défaut “la” solution. On peut évoluer : les titres qui peuvent devenir obsolètes avec le temps pourraient être sans DRM. Les livres scolaires par exemple. Les programmes changent donc il est pas impossible qu’on ne fasse plus de DRM sur ces livres-là. Mais nous n’avons pas encore fait cette démarche de voir titre à titre quels sont ceux qui pourraient se priver de DRM et les autres. Quant au piratage, nous avons des études sur la musique qui montrent bien l’évolution des chiffres d’affaire ! Même si la consommation est à la fois proche et différente.

Proche parce que le bien matériel laisse place dans le cas du livre à un bien immatériel, immatriculé “bien de création”. Différente parce que le temps de lecture d’un livre dépasse largement le temps d’écoute d’un album de musique dans la majorité des cas. Éloigné aussi par son public cible et l’attachement d’un lecteur à un livre. Pourtant Alexis Esménard n’en démord pas :

On donnera plus facilement un fichier numérique qu’un objet. Un fichier ça n’a pas d’âme. Un livre vous avez peur qu’on ne vous le rende pas en cas de prêt. Un CD c’est la même chose. Mais un fichier numérique ? “Tu ne me le rends jamais, j’ai ma propre copie”. Vous avez un epub, vous l’ouvrez, vous l’envoyez à un ami qui va l’ouvrir aussi, l’expérience sera la même.

Pour d’autres, la mayonnaise ne prend pas. En complément de la vision de deux éditeurs français, nous avons recueilli le point de vue de Jean-Louis Missika sur le marché de l’édition numérique en France. Le virage pris par l’édition hexagonale ne semble pas être aussi rapide que le montrent les enthousiasmes des éditeurs. Dans la pratique, pour l’adjoint au Maire de Paris chargé de l’innovation, ”les éditeurs tardent à faire de la numérisation homothétique et donc à offrir leur publication dans les deux formats papier et numérique” :

Les gens achèteront une liseuse quand le catalogue sera plus consistant et plus profond. Quand vous avez des outils de consommation culturelle qui réclament un nouveau format et qu’il faut adapter le contenu à ces formats, ça coûte de l’argent. Pour pouvoir rentabiliser cet investissement, il faut que les possesseurs de liseuses soient en nombre significatif. Il y a un moment de bascule où si vous avez 10 à 20% de gros consommateurs équipés de liseuses, les éditeurs seront obligés de faire une offre numérique.

Revoilà la poule et l’oeuf. Les consommateurs peuvent acheter plus de liseuses pour permettre aux éditeurs de rentabiliser leurs investissements ou les éditeurs peuvent étoffer leur catalogue de titres qui ne coûteraient “presque rien” pour séduire plus d’acheteurs de liseuses. Malgré tout, Jean-Louis Missika est confiant : « la cohabitation papier/numérique peut durer très longtemps, le maillon faible de ce dispositif étant les libraires. »

Le chemin est encore long mais le temps ne presse pas.


Illustration par Arnaud Kath [CC-by-nc-sa]

Collégien suréquipé édition limitée

Le Conseil général du Val-de-Marne a chouchouté ses élèves de sixième cette année en leur offrant à leur entrée au collège un ordinateur portable. Un netbook d’un peu plus d’un kilo pour les accompagner tout au long de leur scolarité de collégien. Et peu importe qu’ils en possèdent déjà un. Dans le texte, l’intention est au premier abord plutôt sensée :

Une action destinée à favoriser le développement des usages des Technologies de l’information, de la communication et de l’éducation. En quatre ans, les 50 000 collégiens du Val-de-Marne seront ainsi tous équipés !

Liberté, égalité, tous connectés : louable certes.

Avec l’intention de « favoriser l’autonomie, l’émancipation et la liberté d’information des élèves », ce partenariat avec l’Éducation nationale pèse avant tout la bagatelle de 25 millions d’euros sur quatre ans de dispositif. En plus des 13 millions d’euros déjà budgétés dans le cadre de l’équipement informatique des collèges. L’objet (1,3 kilo) possède une session élève et une session parent, une clef USB et un système antivol qui rend l’ordinateur inutilisable dès qu’il est déclaré volé. Pour accompagner les parents, une hotline au « prix d’un appel local ». Le véritable kit pour pousser les parents à mettre le nez dans l’Internet et les nouvelles technologies. Quant aux enseignants, équipés eux aussi, ils pourront – en théorie – recevoir une formation dispensée par l’Education nationale.

[vimeo]http://vimeo.com/48532448[/vimeo]

La vidéo de présentation d’Ordival – le petit nom du programme d’offre de ces ordinateurs – à destination des enfants le dit clairement : 205 tableaux numériques installés dans les collèges du département, toutes les classes de tous les collèges reliés à Internet d’ici fin 2013, 40 logiciels installés sur chaque ordinateur, un contrôle parental et une protection antivol sur toutes les « machines ». Et à destination des parents et de la presse, le discours est le même, petit moment M6 Boutique en bonus en début de vidéo. Sur les 13 300, Patrick Hervy, l’un des responsables du programme au Conseil général précise que « 6 à 7 000 ordinateurs ont été pour le moment distribués. D’une valeur de 340 euros pour les collégiens et 540 pour les enseignants. »

Mais en ont-ils vraiment TOUS besoin ?

Pour Patrick Hervy, l’équipement de tous les collégiens, indépendamment de leurs conditions sociales était indispensable :

Nous souhaitons niveler du bas vers le haut. Les mêmes équipements pour tout le monde. Si l’on prend l’exemple de Saint-Maur [commune aisée du département, ndlr], les familles sont peut-être déjà équipées mais l’ordinateur n’est pas nécessairement destiné à être un outil de travail. Ils contiennent en outre une médiathèque qui n’est pas installable sur un ordinateur lambda. C’est un principe d’égalité d’école républicaine qui prévaut.

Peu importe que l’enfant en possède déjà un et que la famille soit assez aisée. L’essentiel étant qu’il puisse l’emmener au collège si et quand le prof le demande. « Aucun établissement n’a décidé de faire en sorte qu’il y ait 30 gamins devant leur ordi 8 heures par jour ! » explique Patrick Hervy.

M. François, adjoint du principal du collège de Valenton est enthousiaste :

La distribution a eu lieu ce samedi et la réception a été plutôt bonne. Les professeurs vont travailler avec les élèves sur ordinateur et ça va améliorer la pédagogie. On leur a dit qu’ils avaient de la chance d’en avoir un chacun.

Le collège – classé en ZEP – étant expérimental possède déjà des tableaux numériques interactifs dans chaque salle de classe.

Moins d’enthousiasme dans un autre collège du département. Une principale, qui a préféré rester anonyme explique que l’initiative du Conseil général est très bonne mais qu’elle implique beaucoup de choses. « C’est un gros budget, mais la technologie pourra être très vite dépassée. En cas de pépin, perte ou vol c’est le collège qui va gérer. », explique-t-elle.

La question de la distribution à tous se pose aussi pour la principale :

Est-ce que ça se justifie ?

Questions techniques et questions de pratiques

Côté technique, l’Ordival est sous Windows 7 avec la possibilité d’acheter les licences des logiciels propriétaires. Mais sont installés des logiciels libres pour les outils de base. À la question de l’autonomie, Patrick Hervy répond que « les ordinateurs ne sont pas fait pour rester allumés pendant 8 heures de cours et que la batterie [neuve] a une autonomie de 7 heures ». Visiblement, nul besoin d’équiper les classes en multiprises. La première année en tout cas.

À un parent qui a posé la question lors d’une distribution dans un collège, l’un des techniciens présent a répondu que « s’il était chargé tout le temps sur secteur, il ne tiendra[it] pas un an ». Difficile de mesurer de quelle façon les collégiens s’en serviront, d’autant que « l’astuce technique » n’est précisée nulle part. À nouveau matériel, nouvel usage technique à acquérir.

La principale d’un collège d’une commune aisée précise :

Les enseignants sont plus ou moins réticent déjà. Ensuite, nous n’avons pas de prises dans les salles, [pas assez pour brancher plus de deux ordinateurs, ndlr], comment faire quand certains auront oublié de charger leur ordinateur la veille ? Même question s’ils oublient leur ordinateur tout court ?

Pour cette principale, la réussite de l’opération va aussi passer par « la motivation des enseignants ». Que répondre à un professeur qui lui explique « qu’il préfère sa plume et son papier, même si on est pas au XIXème siècle » ?

Et ailleurs ?

L’initiative n’est pas nouvelle mais elle est la plus coûteuse – pour des raisons de déploiement et de proportion notamment. En septembre 2010, le Conseil général des Hauts de Seine avait pourvu chacun de ses collèges de deux iPad. Montant de l’opération : 133 collèges avec 2 iPad = 185 000 euros pour l’un des départements les plus riches de France.

Dans les colonnes de Libération à l’époque, Antoine Tresgots, délégué national du syndicat des enseignants de l’Unsa déclarait :

Quand la collectivité décide de balancer du matériel sans aucun lien avec les demandes des enseignants, ça n’a aucun sens. C’est une magnifique opération de communication.

Même type d’opération mais de plus grande envergure cette fois – de l’ordre de celle du Val-de-Marne, collectivité territoriale différente -, la distribution d’ordinateurs portables par la région Languedoc-Roussillon à ses 32 000 élèves de seconde à la rentrée 2011. Budget alloué : 15 millions d’euros sur trois ans. Le programme LoRdi a récemment été au centre d’une polémique au sein de la région puisque 12 ordinateurs avaient été retrouvés en vente sur « Le Bon Coin » et autres sites de vente d’occasion en ligne.

Motifs invoqués par les lycéens vendeurs ? Besoin d’argent et inutilité de l’objet. Un adolescent interrogé par le Midi Libre explique surtout que :

On ne peut quasiment pas s’en servir au lycée et il y a même certains profs qui y sont allergiques. Enfin, la plupart d’entre nous en avaient déjà un avant, bien meilleur.

Tandis qu’une autre lycéenne (vendeuse) précise que l’ordinateur leur a été distribué « sans [leur] demander [leur] avis, sans explication, comme on [leur] sert des frites à la cantine :

À aucun moment un prof nous a demandé de l’utiliser. Je ne vois pas pourquoi je ne le vendrais pas. Il m’encombre.


Photo par Kalexanderson [CC-by-nc-sa] remix O.Noor pour Owni

Les MP3 d’occaz’ vont voir leur sort fixé

Ce sont les journaux anglophones qui ont dégainé les premiers : le procès opposant le premier site revendeurs de MP3 d’occasion a débuté vendredi.

Ouvert en septembre 2011, le site hérissait le poil des majors quant à l’usage qui pourrait être fait du site de vente en ligne : toute personne ayant acheté sur iTunes ou ailleurs un titre pouvait le vendre sur le site. Après vérification par ReDiGi du côté légal du téléchargement – achat donc – n’importe qui peut mettre en vente le dernier Rihanna, acheté à prix fort en rentrant d’une soirée arrosée.

EMI, l’une des plus grandes maisons de disques, avait déposé une plainte début janvier 2012 au tribunal de New York, par le biais de sa filiale Capitol Records. Argument sorti du chapeau : quand on vend un bien numérique on vend nécessairement la copie. Or seuls EMI et les autres majors se sont octroyés le droit de revendre une copie et sur un marché qu’ils contrôlent (( droits exclusifs, entre autres, de “reproduire l’oeuvre protégée” et “de distribuer des copies ou enregistrements d’oeuvres protégées au public” )) : Apple, Amazon et les officiels qui définissent par ailleurs dans leurs conditions générales de ventes qu’il est impossible de revendre des morceaux légalement. Le mélomane achète un droit à l’écoute, une faille dans les droits sur les bien immatériels. Dans le paysage donc, ReDiGi fait figure de poil à gratter.

Dans les chefs d’accusation d’EMI à l’encontre de ReDiGi : infraction au droit d’auteur et incitation à l’infraction au droit d’auteur entre autres. Et les – tristes – majors de leur reprocher de baser leur business model sur la copie en récupérant un pourcentage de 5 à 15 % sur chaque titre vendu.

Le juge Richard Sullivan rejetait déjà le 6 février la demande de Capitol Records de faire fermer ReDiGi. D’autres grands acteurs d’Internet comme Google étaient monté au créneau pour défendre la plateforme de revente de MP3 d’occasion. Peine perdue, le juge veut juger seul.

À voir s’il permet à ReDiGi de continuer à vendre nos MP3 d’occasion ou s’il statue en faveur des géants de la musique.


Photo par Donovan Hand [CC-by-nc-nd]

Google siphonne à plein tubes

Google a lancé en mars dernier sa toute nouvelle plateforme de vente en ligne : applications Android, musique, films et … depuis mi-juillet des livres numériques. Le 24 septembre, Google Play – le petit nom de la plateforme – est arrivé sur Twitter, l’occasion de chercher un peu comment est faite la partie librairie du grand magasin virtuel. À l’instar d’Amazon et Apple, le dernier né de la galaxie des géants de la vente en ligne est donc… en ligne. Avec une différence notable : sur Google Play, les commentaires et critiques des lecteurs et acheteurs sont une agrégation des commentaires publiés sur les blogs et sites littéraires ou bien sur les autres plateformes, Fnac.com comprise.

Agréger c’est le job de Google. Oui mais.

Le « métier » principal de Google c’est d’agréger les contenus pertinents – algorithme à l’appui – pour en faire quelque chose de lisible pour les utilisateurs : une barre de recherche, quelques mots et le tour est joué. Des applications, des films et des livres dans la besace du géant de la recherche sont ainsi accessibles en un clic ou deux. Sur le principe de l’Appstore, Google Play se pose donc en copie quasi conforme, les supports de lecture diffèrent, c’est tout.

Chez Google – que nous avons contacté -, on explique les objectifs :

Notre objectif est de fournir aux utilisateurs les résultats de recherche les plus pertinents et les plus exhaustifs possibles […] et d’aider les utilisateurs à trouver des livres et d’autres contenus intéressants pour eux. Nous mettons en avant les livres qui viennent d’être publiés, mais également d’autres livres en fonction de leurs ventes, leur prix, leur catégorie, etc.

En revanche, concernant l’intégration des résultats de Google Play dans leur moteur de recherche maison, ils n’ont ”rien à annoncer de plus à ce jour”. Ce serait pourtant dommage de se priver d’un moteur de recherche si performant.

Une autre différence se situe dans la partie “Livres”. Là où Apple et son AppStore proposent aux possesseurs d’un lecteur de déposer un commentaire à l’achat, Amazon fonctionnant également de la même manière, Google Play permet – outre de déposer un petit mot aux futurs potentiels lecteurs – de lire les commentaires récupérés de Fnac.com, Babelio, Myboox et autres, pour la plupart des livres.

Les ardents défenseurs du géant de Mountain View argueront que Google reste fair play en ajoutant à la suite des commentaires ainsi « récupérés » un lien “avis complet” renvoyant ainsi vers les autres sites marchands. Dans le cas présent, Google se sert donc du nombre de commentaires – les extraits sont parfois denses et permettent de se faire une idée précise de la qualité de l’ouvrage – pour vendre sa soupe lui-même. Deux exemples : Flammarion n’y figure pas encore et est « en cours de négociations » selon Florent Souillot, responsable du développement numérique chez Flammarion et Bragelonne s’est retiré de leur catalogue.

Les commentaires provenant de sites soit marchands, soit agrégateurs de critiques de lecteurs en partenariat avec d’autres plateformes, il y a là un “petit hic” : Quelle équation préfère le lecteur ? Un clic + un clic + un clic + un clic = achat ou un clic + un clic = achat ? Pourquoi acheter un livre en quatre étapes quand on peut le faire en deux ? Le nombre de commentaires sur la page de Google Play attestera de la qualité du livre, les extraits des commentaires élogieux ou assassins sont là pour ça.

Maxime Coupez, senior project manager chez faberNovel, explique le problème posé par l’agrégation des commentaires :

Le tunnel d’achat commence avant d’arriver sur le site, une recherche sur Google par exemple. Google valorise le contenu exclusif, donc le fait que Google Play agrège les commentaires des autres sites, ça brouille le référencement de ces sites sur Google. Le problème se pose dès le référencement sur le moteur de recherche.

Dans la majorité des cas, pour Coupez, « quand les utilisateurs viennent sur Google Play, ils n’y viennent pas pour les commentaires mais pour le service [l’achat de livres, NDLR]. » Mais un certain nombre d’études montrent « qu’ils permettent de mieux vendre, en tant que contenu qui rassure l’acheteur et l’utilisateur, même s’ils sont négatifs ». Plus il y a de commentaires et plus le site marchands peut vendre, peu importe d’où viennent les commentaires.

Partenaires particuliers

Concernant les sites “utilisés” par Google Play, on pourrait s’imaginer qu’ils sont au courant. De fait, certains le sont par hasard quand d’autres l’apprennent au cours de notre conversation au téléphone. Pourtant, l’un des porte-paroles de Google précise :

La description des livres est fournie par l’éditeur. Les commentaires des lecteurs proviennent de utilisateurs de Google Play ainsi que d’utilisateurs d’autres sites partenaires.

Partenaires ? Contacté par Owni, Pierre Timmermans, propriétaire du site Critiqueslibres.com, explique :

Nous sommes en partenariat avec Amazon déjà, n’importe qui peut plus ou moins l’être d’ailleurs, mais pas avec Google, qui ne nous a pas contacté non plus.

Amazon rapporte un nano-pactole pour cette association sans but lucratif (ASBL) : tout lecteur arrivant sur Amazon par Critiqueslibres.com permet aux bénévoles de toucher ”200 euros en moyenne et 400 euros les bons mois en fin d’année, c’est 3 à 8% en fonction du montant des achats sur le site”.

Guillaume Teisseire de Babelio – en partenariat avec Amazon, ce qui pour lui ne semble pas incompatible – estime que ça ne le dérange pas : ”nous étions sur Google Books déjà, donc c’est un peu une déclinaison. En plus ce n’est pas l’intégralité des commentaires qui est intégrée. »

Le pari de Babelio ? Permettre que cet échange leur apporte du trafic, à la manière du moteur de recherche Google. En revanche le choix d’Amazon ressemble plus à un choix stratégique sans visée purement financière :

Notre partenariat avec Amazon n’existe pas pour des raisons financières mais parce qu’ils nous ouvrent l’accès à toute leur base de données, de couvertures et de résumés. Gratuitement. C’est pas un choix business. On n’a pas vocation à envoyer vers Amazon. Pour la Fnac c’est plus problématique mais nous, si nos commentaires tronqués sont référencés sur Google Play et qu’Amazon perd de l’argent, ça ne nous change rien. La seule chose c’est qu’Amazon m’empêche de faire des liens vers d’autres libraires, des indépendants par exemple.

Le problème se situerait davantage entre les sites marchands entre eux. En atteste l’échange qu’Owni a eu avec David Pavie, directeur Hachette des sites grands publics – Hachette est propriétaire de Myboox dont les commentaires sont également repris par Google Play :

Le problème ne concerne pas seulement Myboox mais tous les éditeurs de contenus qui cherchent à avoir du trafic. Nous pourrions perdre des ventes, oui, mais c’est très difficile à mesurer. Et surtout ça ne créé pas une fuite de Myboox vers Google Play, plutôt l’inverse, de Google Play, un commentaire peut être lu ensuite en entier sur Myboox. C’est une contrepartie : ils renvoient du trafic chez nous en intégrant nos commentaires.

Problème, Myboox est sous contrat d’affiliation avec Mollat et les achats effectués sur Myboox sont autant de commandes pour celle qui était, en 2006, la première librairie indépendante en chiffre d’affaires et titres en rayon.

La tactique du gendarme

Le moyen pour Google de récupérer les informations ? L’insertion de rich snipets ou micro data, pour laquelle les sites ont été fortement incités par Google et les autres. « L’inconvénient c’est que nous ne savons pas ce qu’ils font du contenu récupéré » explique David Pavie. Qui exprime surtout le piège dans lequel les sites se sont enfermés :

Personne ne peut se passer de ça. Les termes du marché sont imposés par Google et c’est difficile de faire sans.

Le marché imposé par Google, le trafic vers les sites comme grandes batailles, mais alors les liens des commentaires permettraient-ils à Google de se dédouaner et d’envoyer du trafic vers les sites desquels les commentaires proviennent ? « Ils ne vont pas aller cliquer sur les commentaires, parce que ce n’est pas le but et à partir du moment où ils sont rentrés sur le site de Google, ils n’en ressortiront pas » assène Maxime Coupez de faberNovel.


La Fnac que nous avons contactée avec des questions précises en milieu de semaine dernière n’est pas – encore ? – « revenue vers nous ».

Image par Kalexanderson (CC-byncsa) remixée par O.Noor pour Owni

La carte des lobbyistes du numérique

Le numérique représente un secteur trop stratégique pour laisser les institutions et les élus européens déterminer seuls son évolution. Désormais à Bruxelles, autour des principales instances européennes, les lobbyistes des industriels du numérique occupent une place de choix, comme le montre ci-dessus notre carte interactive de la capitale européenne.

Owni a voulu ainsi cartographier les petites relations entre lobbies et institutions européennes. Manière de mettre en évidence l’hospitalité à la belge (sur notre carte ci-dessus, cliquez sur les valises noires pour visualiser les lobbyistes du numérique à proximité des bâtiments officiels).

Transparence

Selon l’ONG Alter-EU (Alliance for Lobbying Transparency and Ethics Regulation) , Microsoft fait maintenant partie des dix entreprises qui dépensent le plus pour leurs activités de lobbying à Bruxelles, avec 4 625 000 euros. Google consacre lui à ses activités de lobbying entre 600 000 à 700 000 euros quand Facebook est petit joueur puisqu’il déclare un budget de 150 000 à 200 000 euros pour la dernière année comptable renseignée.

Ces données sont issues du Registre de transparence européen, une initiative de la Commission et du Parlement européen, qui a célébré son premier anniversaire au mois de juin dernier. Cependant, son fonctionnement repose sur la base du volontariat.

Le mystère reste donc entier pour ceux qui n’y figurent pas. Les ONG les plus impliquées dans la transparence du fonctionnement démocratique militent aussi pour lui accorder un caractère obligatoire ; il pourrait par exemple être rendu indispensable pour louer des bureaux dans Bruxelles. Le porte-parole de Corporate Europe Observatory ironise :

C’est non seulement possible mais nécessaire que le registre soit rendu obligatoire. Il faut faire monter la pression pour que les entreprises soient obligées de le faire et que le registre remplisse alors sa mission première. Amazon, Apple et Bull, n’y sont pas par exemple. Pourtant ils sont présents au Parlement. Nous, on est un peu des Watch Dogs.

Sur ce point, Amazon nous a répondu que l’entreprise ne « commentait pas ce genre d’information », tandis qu’Apple ne nous a pas répondu du tout.

La transparence, maitre-mot de tout commissaire bruxellois qui se respecte, est avant tout celle de ce registre. Le principe est simple : sous stimulation de la Commission européenne, les industries, associations et diverses entreprises – au nombre officiel de 5200 environ – s’inscrivent pour y faire figurer certaines informations. Notamment le nombre de lobbyistes arpentant les couloirs du Parlement et le budget annuel consacré aux pérégrinations de leurs troupes.

La carotte pour faire accepter aux industriels de figurer dans ce registre ? Un accès rapide au Parlement, un peu comme un billet coupe-file. Nous nous sommes entretenus avec le responsable du registre, Gérard Legris, il explique :

Il n’y a pas d’obligation juridique d’inscription au registre de transparence mais c’est quelque chose qui devient incontournable. Notamment parce que c’est une condition préalable à des facilités d’accès rapides au Parlement. Les participants sont enregistrés comme des visiteurs réguliers [un simple badge en plastique, NDLR]. Aussi parce que c’est une sorte d’abonnement. Et certaines de nos commissions refusent de faire entrer des non-accrédités.

Concrètement, les organisations qui figurent sur le registre, en plus d’avoir en main un passe coupe-file, reçoivent les feuilles de route des programmes de travail de la Commission. Joli cadeau. Insuffisant peut-être pour les entreprises et cabinets de conseils qui ne se sont pas inscrits.

Ces derniers, en conséquence, ne sont pas liés à un code de conduite et à l’engagement de fournir des informations sur leur budget de lobbying ou les activités qui les intéressent au sein du Parlement et des différentes commissions.

Gérard Legris avance que « certains attendent peut-être de voir si c’est intéressant ou pas. L’avantage c’est qu’elles gagnent pour leur image avant tout. » Le registre implique quand même une bonne volonté – et une bonne foi – puisque le code de conduite signé en même temps que l’enregistrement dans les papiers de la Commission est à respecter à la lettre.

Celui qui le transgresse peut subir une enquête administrative pour violation du code de conduite et risque, en cas d’intention délibérée de fraude, une suspension ou une radiation du registre.

Il y a quelques années lors de la première initiative de registre de la Commission, le Conseil européen de l’industrie chimique, l’un des plus gros lobbyistes de Bruxelles (( et avant tout l’organisation représentative de l’industrie chimique (environ 29 000 PME et grandes entreprises du secteur chimique qui produisent plus d’un tiers de la production chimique mondiale )), aujourd’hui 71 employés déclarés au registre commun de la Commission et du Parlement, déclarait moins de 50 000 euros de dépenses inhérentes à la présence de ses salariés en activité de lobbying lors de la première initiative de la Commission. Et le CEFIC s’est fait suspendre temporairement à titre conservatoire. Aujourd’hui, ils déclarent 6 millions d’euros de frais de lobbying.

120 cabinets

La transparence n’est donc pas l’unique fonction officielle du registre puisqu’il s’agit surtout de délivrer le précieux sésame ouvrant toutes les portes ou presque du Parlement. Alter-EU a rendu public en juin dernier un rapport sur ce registre de transparence [PDF, EN], un an après son lancement. Le rapport d’analyse pointe entre autres que la liste des entreprises présentes pour exercer leur lobbying n’est surtout pas exhaustive et « au total [ils ont] identifié environ 120 cabinets qui effectuent du lobbying auprès de l’Union mais qui ne sont pas enregistrées ». Et le rapport de citer Apple, Disney, Time Warner et … Monsanto. Dans le domaine, l’ONG Corporate Europe Observatory (( Ayant pour idée première : « Exposing the power of corporate lobbying in the EU » )) travaille – entre autre – à mettre à jour les aberrations du registre. Martin Pigeon, porte-parole de Corporate Europe Observatory explique :

L’incitation à l’inscription sur le registre c’est un badge qui permet d’aller toquer aux portes sans avoir à se faire inviter par un eurodéputé ou par son assistant. Il y a un moment où l’invasion des lobbyistes était telle que les eurodéputés ne pouvaient pas travailler. Au restaurant du Parlement [cafétéria dans l’enceinte du Parlement, NDLR], vous pouviez avoir un lobbyiste qui vous tendait un dossier.

Il a donc fallu filtrer un peu tout ce petit monde pour que les eurodéputés puissent se sustenter librement et sans être harcelés par une horde de lobbyistes. Mais pour le porte-parole, à l’origine de l’ouverture du registre, il y avait bien une question d’image, non pas celle des entreprises qui signaient mais celle de Bruxelles même : ils devaient restaurer la confiance dans les institutions européennes.

« Siim Kallas, le commissaire aux affaires administratives, [aujourd’hui vice-président chargé des transports, NDLR] vient d’Estonie. À l’époque, nouveau pays membre. Et il a une grande culture de la transparence administrative », remet en perspective Martin Pigeon.

Sauf que la transparence, parce qu’elle n’est pas obligatoire, permet aussi de dire que les données manquent de fiabilité : certaines entreprises pour des dossiers précis n’iront pas négocier seule et embauchent des consultants spécialisés sur un ou deux dossiers.

Chez CEO, on les appelle parfois les « lobbyistes mercenaires » : travaillant depuis longtemps à Bruxelles, ils ont des portefeuilles de spécialités en main et proposent leurs services quand en interne on ne parvient plus à suivre. D’autres façons d’effectuer un lobbyisme plus feutré puisqu’ils ne sont que des prestataires, et que le logo de la firme pour laquelle il travaille n’est pas collé à leur nom.

Carte Sylvain Lapoix
Données Claire Berthelemy à partir du Registre de transparence.
Illustration et couverture par Cédric Audinot pour Owni /-)

La justice met Apple à la page

Avril 2012, à la suite d’une plainte en nom collectif, le département américain de la Justice se penchait sur les accusations portées contre Apple et cinq grands éditeurs pour soupçons d’entente illégale sur les prix – vous pouvez retrouver au bas de l’article la plainte alors mise en ligne par Owni. Un dossier lourd de conséquences pour les métiers de l’édition numérique, qui a rebondi hier aux États-Unis. Selon les termes d’un accord passé avec le ministère public, trois des cinq éditeurs verseront une amende de 69 millions de dollars, pour avoir cherché à s’entendre sur les prix. Et 250 000 dollars de dommages et intérêts aux lecteurs floués par la hausse volontaire des prix, entre le 1 Avril 2010 et le 21 mai 2012. De son côté, Apple est dans l’obligation de clôturer les contrats à l’origine de ces pratiques.

Amazon en bon concurrent d’Apple sur le marché du livre numérique aux États-Unis peut à présent se réjouir d’un tel accord, passé avec Hachette, Harper Collins et Simon & Schuster, qui se sont pliés à la procédure de conciliation du ministère de la Justice. Tandis que deux autres majors de l’édition, Penguin et Macmillan, n’ont pas suivi la même voie. Ils devront eux se présenter devant le tribunal aux côtés d’Apple.

Amazon flaire l’entente

Tout débute en août 2011. La procédure collective – class action – regroupait à l’origine des plaintes de particuliers disséminés sur tout le territoire américain et dénonçait des contrats d’agence passés entre Apple et les cinq plus gros éditeurs du pays. Les prix fixés avec Apple entrainaient pour les éditeurs l’impossibilité de les vendre moins chers ailleurs. Amazon devait alors augmenter ses tarifs, au détriment des consommateurs.

Quelques mois plus tard, en décembre, la Commission européenne essayait également d’observer si manigances il y avait eu entre des éditeurs et Apple au niveau européen. Un proche du dossier confiait à l’époque à Owni que des représentants d’Amazon avaient soufflé à certains commissaires européens que le comportement des éditeurs leur paraissait étrange : la frilosité des éditeurs, notamment français. En cherchant un terrain d’entente avec Apple, ils pourraient ainsi protéger leur système de distribution et leurs catalogues respectifs et border ainsi avec leurs propres règles un milieu qu’ils ne maitrisent pas encore. Ce même proche de l’affaire expliquait que les lobbies de l’édition voulait “obtenir une protection légale contre l’évolution technique et la ‘désintermédiation’ par la fixation de prix de vente obligatoires pour le livre numérique, aligné sans aucune justification sous-jacente sur les prix de vente des versions papier”.

L’enquête devait déterminer si Apple, Hachette, Harper Collins, Simon and Schuster, Penguin et Verlagsgruppe Georg von Holzbrinck avaient accordé leurs violons pour la fixation des prix. Toujours au détriment d’Amazon. Dernière nouvelle en date, Apple et quatre des grands éditeurs vont permettre à d’autres vendeurs – Amazon en tête – de pouvoir pendant deux ans vendre leurs livres numériques à bas-prix. Histoire de mettre fin à cette enquête antitrust.

Délivrance

Le 11 avril 2012, le département de la Justice américain se saisissait du dossier et dans un communiqué de presse racontait les avancées de l’affaire :

Le département [NDLR, de la Justice] a conclu un accord avec trois des plus grands éditeurs du pays – et continuera de poursuivre Apple, et deux autres grands éditeurs – pour s’être entendus pour augmenter les prix que payent les consommateurs pour les ebooks. […] Plus tôt dans la journée, nous avons déposé une plainte à New-York contre Apple et cinq différents éditeurs – Hachette, HarperCollins, MacMillan, Penguin et Simon & Schuster. En réponse à nos allégations, trois de ces éditeurs – Hachette, HarperCollins et Simon & Schuster – ont accepté l’accord proposé. S’il est approuvé par le tribunal, cet accord permettrait de résoudre les préoccupations antitrust de l’administration avec ces entreprises, et les obligerait à permettre à d’autres détaillants, comme Amazon et Barnes & Noble – la liberté de réduire le prix de leurs e-books. Le règlement exige aussi que les entreprises mettent fin à leurs accords anti-concurrentiels avec Apple et les autres vendeurs d’ebook.

Aujourd’hui c’est donc au tour de certains éditeurs d’accepter les conditions. En reconnaissant notamment qu’il y a eu entente avec Apple, privant le marché du livre numérique de sa main invisible.

Pour Hachette à l’époque, il n’y avait aucun problème concernant les prix ou les contrats d’agence qu’ils avaient fixés avec certains des éditeurs, toutefois, ils se disaient prêt à entamer des pourparlers avec le département de la Justice. Ce qu’ils ont donc fait :

Désormais, nous pensons qu’il est du devoir du DOJ et des Procureurs des États de veiller à ce que plusieurs détaillants opèrent sur le marché des ebooks, qui doit demeurer concurrentiel, et que nous ne revenions pas à une situation de monopole dans laquelle une seule entreprise décide quels ebooks les consommateurs doivent lire et comment.

Avec la décision du département de justice américain de verser des dommages et intérêts aux lecteurs et ces 69 millions de dollars, Amazon peut apprécier que la justice ait plongé dans ces affaires de gros sous des milieux de l’édition. Une évolution qui autorise un retour à une saine concurrence, permettant à Amazon de repasser ses livres à dix dollars, son prix de séduction.

plainte contre Apple et les éditeurs US


Illustration par Christophe Dombres(CC-by)

Vends fichier MP3 très peu servi

Commençons par un récit.

Je suis un particulier. J’achète le merveilleux titre « I gotta feeling » des Black Eyed Peas sur l’iTunes Store pour $1,29. Trois écoutes plus tard, soit une bonne année, besoin d’octets oblige, je décide de ranger la galaxie de dossiers qui me fait office de discothèque. C’est là que je retombe sur ledit titre.

J’y jette une oreille et, 7 secondes plus tard, alors que je m’apprête à le glisser dans ma corbeille virtuelle, une url m’arrête : redigi.com. Le premier site de revente de MP3 usagés, ouvert en novembre 2011.

Ni une, ni deux, je m’inscris, j’envoie sur la plateforme le fichier, dont les données associées prouvent bien que j’en suis le propriétaire légal. Au même moment, le fichier disparait de mon disque dur et je le (re)mets donc en (re)vente pour $0,69.

Quelques instants plus tard, un heureux fouineur de vieux bacs à MP3 pourra ainsi en faire l’acquisition, avec les autorisations qui vont bien. Économisant du même coup, 60 cents par rapport au même produit sur la plateforme musicale d’Apple. Puis le titre disparaitra naturellement de la plateforme, jusqu’à ce qu’un autre utilisateur le remette en vente.

Écouter seulement tu pourras

La réalité est ici aussi subversive qu’une bonne fiction d’anticipation. Je viens en effet de revendre sur le marché de l’occasion, l’original d’un bien dont je suis le légitime propriétaire, comme nous le faisons depuis longtemps avec livres écornés, vinyls usés et 504 tunées. Pas de quoi s’affoler en théorie vu que l’on applique un vieux principe à de nouveaux usages, mais la possible existence d’un marché d’occasion des fichiers MP3 fait friser les neurones.

Car la notion d’occasion pour des biens immatériels, qui par définition ne s’usent pas, a quelque chose d’ubuesque. Si le site ReDigi, vu de l’extérieur, semble tout ce qu’il y a de plus sérieux, en prenant un peu de recul il s’avère être un merveilleux troll sur le sujet de la propriété à l’ère du numérique. Indirectement, il pose une question follement simple : qu’achète-t-on réellement lorsque l’on valide un achat sur l’iTunes Store ou autres magasin en ligne (Amazon, Fnac…) ?

Le commun des mortels connectés répondrait sans doute en première instance : « un morceau de musique » et donc la propriété du fichier, suite de 0 et de 1, qui permet de restituer la mélodie via un logiciel d’écoute. En tant que propriétaire légal de ce fichier, je devrais logiquement pouvoir en faire ce qu’il me plait (plait-plait), comme le revendre d’occasion, si le cœur (et la lassitude d’écoute) m’en dit.

Mais la réponse d’Apple varie quelque peu :

You shall be authorized to use iTunes Products only for personal, noncommercial use.

Cette phrase glissée dans les conditions d’utilisation d’iTunes, interdit théoriquement cette pratique. Sauf que le droit américain permet à tout particulier de revendre un bien culturel dont il est propriétaire, tout comme la théorie de l’épuisement des droits le permet en Europe. Dont acte. Première démonstration de l’absurdité d’un système par les faits : lorsque vous achetez un mp3 sur l’iTunes Store, vous n’en n’êtes pas le propriétaire, vous n’achetez en réalité que le droit d’écouter ce morceau (et encore sur les plateformes autorisées).

Major, toi seule tu copieras

Face à ReDigi, les chevaliers blancs du droit d’auteur que sont les géants de l’industrie musicale sont rapidement montés au créneau. Capitol Records, filiale d’EMI, a déposé une plainte reçue par le tribunal de New York début janvier 2012. Argument massue : celui qui revend en seconde main un bien numérique, revend non pas l’original mais une copie, puisqu’il a bien fallu que le fichier soit copié depuis le disque dur du particulier sur les serveurs de ReDigi. Ce même procédé de copies que les vilains pirates numériques utilisent sur les réseaux de peer-to-peer. Démonstration de haut vol puisque ces mêmes vendeurs « officiels » ne font que revendre eux-même des copies. Quadrature d’un cercle musical.

Infraction au droit d’auteur et incitation à l’infraction au droit d’auteur entre autres, ReDiGi est donc soupçonné par Capitol Records de répandre partout sur la toile des titres dont les droits leur appartiennent. Mais, parlant de droits, il ne s’agit pas tant de droit d’auteur que de droit de copie. Car la charge judiciaire présuppose que le business model de ReDiGi soit basé sur la copie – le site récupère 5 à 15 pourcent de commission sur chaque titre – ce qui fait un brin frissonner les majors nageant au beau milieu de la crise du disque. Ces mêmes majors, les plaignants, possèdent eux les droits exclusifs entre autres choses de “reproduire l’oeuvre protégée” et “de distribuer des copies ou enregistrements d’oeuvres protégées au public”.

Seconde démonstration par les faits : la réaction des géants de l’industrie musicale démontre que leur business model est fortement basé sur l’exclusivité du droit de copie. Eux seuls peuvent copier et telle est leur manne depuis des décennies. Un business sacrément profitable quand on l’applique aux biens numériques.

Le 6 février, Richard Sullivan, le juge en charge de l’affaire rejetait la demande de Capitol Records de faire fermer le site de vente d’occasion. La procédure est en cours et l’affaire devrait être jugée début octobre.

Dans la plainte d’une vingtaine de pages, Capitol Records estime qu’ils ont investi et continuent d’investir de l’argent et du temps pour découvrir et développer des artistes. Parallèlement à ça, le monstre ReDiGi propage les titres qui peuvent être téléchargés illégalement, grande bataille de l’industrie musicale depuis l’avènement du numérique.

Le comble pour Capitol Records : le titre supprimé de l’ordinateur du vendeur est nécessairement une copie puisque le morceau est copié vers le cloud de ReDiGi. Et la duplication ne s’arrête pas là puisqu’une fois acheté, le titre fait le même chemin mais dans l’autre sens vers l’ordinateur de l’acheteur d’occasion. La license change alors de propriétaire.

ReDiGi se défend en faisant la promotion de son moteur de vérification qui analyse chaque fichier passant dans leur cloud pour y être vendu et s’assure que le morceau a été téléchargé légalement, c’est à dire acheté sur iTunes ou Amazon. Le seul problème légal finalement.

Ce qui t’appartient, tu ne revendras point

Mais le bât blesse aussi ailleurs pour EMI qui décidément voit d’un mauvais oeil la présence de ce site de vente d’occasion sur la toile. La maison de disque en appelle à Apple et Amazon et à leurs conditions de vente, acceptées par tout lambda qui possède un compte et qui y achète ses morceaux. Les accords signés entre les majors et les deux plateformes de téléchargement légal sont drastiques et contraignent les acheteurs à ne jamais ô grand jamais revendre les morceaux achetés légalement.

Non seulement les titres n’appartiennent pas à celui qui les achète mais en plus le droit de les vendre est exclu deux fois : par les droits d’auteurs et par les conditions générales de vente des plateformes de téléchargement légal.

Parmi les nombreuses requêtes déposées – en faveur de ReDiGi – figure celle de Google, représentant du cloud dans cet affaire. Rejetée, sa demande portait sur le fait que jamais décision ne doit être prise à la légère :

Une décision hâtive basée sur des faits incomplets pourrait créer des incertitudes non voulues pour l’industrie du cloud computing, […] La vitalité constante de l’industrie du cloud computing, qui représentait 41 milliards de dollars sur le marché global en 2010, repose principalement sur quelques principes légaux spécifiques que la proposition d’injonction préliminaire implique de fait.((Texte original de la citation : A premature decision based on incomplete facts could create unintended uncertainties for the cloud computing industry, […] The continued vitality of the cloud computing industry — which constituted an estimated $41 billion dollar global market in 2010 — depends in large part on a few key legal principles that the preliminary injunction motion implicates.))

Le juge Sullivan ne veut pas être épaulé par des experts. Il souhaite trancher seul, point. Et a rejeté récemment une autre demande, de Public Knowledge, une organisation à but non lucratif dont la mission est de défendre les citoyens dans tout ce qui concerne les thématiques de la propriété intellectuelle et pour l’Internet ouvert.

Trancher sur ce cas est pour notre chroniqueur Lionel Maurel une avancée qui pourrait être faite dans le domaine du droit d’auteur et de la propriété des biens immatériels :

L’épuisement des droits dans le droit européen ou la first sale doctrine dans le droit américain ne concernent que les biens physiques, après la première vente. Le tout permettant d’avoir un marché d’occasion. Sauf que l’absence de transposition dans l’environnement numérique n’est pas encore faite. Ce qui fait peur aux majors, c’est la perte de contrôle sur les modèles d’échanges alors qu’ils contrôlent leurs propres plateformes. Il y a un vrai blocage autour du numérique.

Perdre le contrôle de leurs plateforme pour les maisons de disques et les revendeurs accrédités (Apple et Amazon) signifie aussi qu’ils perdraient, à cause du droit, les possibilités de fixer eux-mêmes leurs propres règles. Les majors sont aujourd’hui les seuls copieurs légaux grâce à leurs propres règles et les revendeurs se sont protégés derrière leurs conditions d’utilisation. Jusqu’à une éventuelle modification du cadre juridique ou une intervention des pouvoirs publics.

Copie de la plainte

Plainte Redigi EMI


Illustrations par Cédric Audinot pour Owni ~~~~~=:)

Guerre et tweet

Twitter, un îlot de partage, de pacifisme et de bienfaisance… Cette conception idéale du réseau de micro-blogging semble avoir fait son temps. Car, de plus en plus, le gazouillis s’énerve.

19 mai 2012, Audrey Pulvar interroge Harlem Désir sur le plateau de l’émission de France 2 On n’est pas couché. Le journaliste Jean Quatremer (( auteur de Sexe, mensonges et médias, collection « Tribune Libre », Plon )) lance alors une courte joute verbale sur Twitter :

Clairement mise en cause, Audrey Pulvar réagit. S’entame alors une guerre entre les deux twittos, sous les yeux de leurs quelques milliers de followers.

Autre exemple ce lundi 2 juillet, et dans un autre registre, avec les journalistes Denis Brogniart et Pierre Ménès. Les deux hommes s’affrontaient sur l’annonce du départ de Laurent Blanc de son poste de sélectionneur des joueurs de l’équipe de France après une provocation de Pierre Ménès:

Le débat est suivi par des milliers d’internautes qui défendent tour à tour l’un ou l’autre des protagonistes. Bienvenue dans l’ère du tweet clash ! Un phénomène qui voit s’affronter deux abonnés sur Twitter en seulement quelques minutes et, conformément à la règle, pas plus de 140 caractères. Un phénomène, aussi, qui mélange les codes ancestraux de la conflictualité humaine à ceux du réseau des réseaux. Un phénomène, surtout, qui n’a jamais eu droit à une analyse sociologique. Antonio Casilli ((à suivre sur Twitter par ici)), maître de conférence à l’Institut Mines Telecom et chercheur à l’École des hautes études en sciences sociales (EHESS), déchiffre le phénomène. Interview pacifique.

Est-ce que tout est nouveau dans le tweet clash ?

Pas tout à fait. D’après moi, le tweet clash s’inscrit dans la continuité de ces formes de conflictualité en ligne que l’on connait depuis les années 1990. A une époque, on les appelait les “flame wars”, ces batailles entre internautes sur des vieux forums de discussion ou sur Usenet. Un utilisateur provoquait un groupe d’autres utilisateurs, qui à leur tour argumentaient par de longues réponses. L’échange pouvait durer des jours, voire plusieurs mois.

J’aurais tendance à dire que les tweet clash sont une sorte de réédition de ces “flame wars”, mais à une cadence beaucoup plus rapide. Et avec beaucoup moins d’asymétrie entre locuteurs, bien sûr. Seulement quelques minutes, parfois quelques secondes, entre deux tweets… Le temps de latence entre le message agressif de celui qui lance l’attaque et la réponse de son interlocuteur se fait bien plus court et la bataille elle-même est plus brève. C’est en cela que le tweet clash est un fait inédit. Sa temporalité est plus dense, plus concentrée.

D’un autre côté, on n’a pas affaire au même public qu’il y a vingt ans…

Exactement ! La question du public est très intéressante, mais je l’élargirais même à celle des acteurs sociaux qui composent le cadre de l’affrontement entre deux personnes sur Twitter.
Le tweetclash est une tragédie grecque où les répliques font à peine 140 caractères. Tous les éléments du genre tragique sont réunis : un protagoniste, un « antagoniste », un chœur et, enfin, le public. Le chœur, c’est un noyau d’individus qui permettent de comprendre pourquoi deux personnes se disputent, ils donnent les éléments de contexte du tweet clash.

Le meilleur exemple de contextualisation d’une dispute sur Twitter, c’est le hashtag. Il est avant tout une étiquette posée sur une conversation, un titre qui permet de la décrire et en même d’en agréger les morceaux. Mais il sert aussi pour donner le pouls de la situation ou pour faire des petits apartés sans pour autant interrompre le flux du tweetclash. Exactement comme le chœur des tragédies de Sophocle, les twittos résument, glosent, prennent parti…

Ceci est aussi lié à la taille d’un média généraliste comme Twitter, où le public est bien plus large que du temps des “flame wars”. Et à la « structure de son graphe social« , qui rappelle un archipel de petits groupes de locuteurs. Malgré la promesse commerciale de « pouvoir poser des questions à n’importe quelle personnalité sans intermédiation », la grande masse des usagers est davantage en position d’observation. Mais quand les passions humaines se déchaînent le temps d’un tweetclash, ils sortent de cette passivité.

Comment expliquez-vous cette passion des uns pour le conflit avec les autres ?

Et bien justement, c’est un mécanisme qui permet de ne pas être des simples spectateurs. Pendant un affrontement en ligne, les usagers qui composent le public sont animés par l’envie d’être parties prenantes. Parce qu’il ne s’agit pas tant d’un “conflit” mais de “discorde”. La discorde, c’est un moyen de jouer du fait d’être dans l’espace public. Dans la Grèce antique, la discorde était une des forces motrices de la démocratie. Ses manifestations – parfois destructrices – permettaient de faire venir à la surface des tensions et des intérêts qui seraient restés autrement inexprimés. Et, dans la forme idéale de la démocratie athénienne, cette discorde s’harmonisait pour finalement donner une polyphonie politique.

Dans nos démocraties contemporaines, la situation est tout à fait différente : on n’assume pas que quelqu’un puisse être en désaccord avec nous. Tout le jeu politique moderne est basé sur la recherche de consensus et de compromis. De ce point de vue, le tweet clash peut être lu comme la résurgence d’une forme de discorde démocratique ancienne. Ce qu’on cherche avant tout, à travers l’expression des passions politiques et personnelles, c’est à convaincre les autres du bien-fondé de nos positions. Tout cela aboutit donc à une manifestation – du désaccord – qui aide à caractériser les positions parfois trop floues des hommes politiques.

Pour vous, en fait, le tweet clash est une sorte de continuité du débat démocratique sur le réseau ?

Je dirais plutôt que le tweet clash théâtralise un débat démocratique en pleine mutation. Aujourd’hui, le maître-mot est transparence. Et les hommes politiques utilisent le tweet clash comme une occasion pour donner l’impression d’être transparents dans leurs désaccords, et ainsi multiplier leurs chances de se démarquer.

Soyons clairs, Twitter est bien plus passionnant et dramatique, au sens grec du terme, qu’une émission sur La Chaine Parlementaire. Lors d’un tweet clash, on met en scène les passions et on personnalise donc sa position sur tel ou tel enjeu politique. Exemple, Nadine Morano twitte une énorme bêtise et un opposant réagit. Il y a une sorte de déclaration de guerre mais aussi un objectif : celui qui déclare la guerre veut avoir raison. À l’issue de cette guerre, le public et les médias, qui créent une caisse de résonance, vont décider qui des deux avait raison.

Bien sûr, il y a un écho différent entre un clash qui concerne des personnes médiatisées ou publiques et celui qui concerne le citoyen lambda. Pour ces derniers, les échanges restent plus ou moins en ligne le temps nécessaire pour que Twitter se renouvelle et fasse disparaître ces propos. Dans le cas des célébrités, l’issue est autre : par exemple, l’auteur décide de retirer ce qu’il avait dit au départ du clash. Le fait qu’un message soit retiré ou pas est un très bon indicateur de l’issue d’un tweetclash. Le message initial représente le casus belli, l’acte de guerre. Le fait de le retirer équivaut à une forme de reddition. Il signe la défaite.

En même temps, tout le monde n’a pas envie de montrer ses opinions politiques sur le réseau. Est-ce qu’on peut faire des portraits-type de tweetclasheur ?

J’aurais plutôt tendance à classer les individus qui s’adonnent à des tweet clash sur la base des stratégies qu’ils mettent en place. Il ne faut pas croire que le côté passionnel du tweet clash évacue complètement les éléments de rationalité stratégique. Au contraire, ces affrontements sont très raisonnés, moins improvisés qu’on ne le croie. Évidemment, il y a des moments où ça dérape, où l’action échappe aux interlocuteurs, mais on doit tout de suite supposer qu’il y a derrière ce dérapage une intentionnalité et une rationalité de l’acteur.

Dès lors, pour faire une sorte de typologie des tweet clasheurs, il faut s’interroger sur leur réseau personnel respectif, sur leur cercle de connaissances, c’est-à-dire sur leurs followers et ceux qu’ils “followent”. Quelqu’un dont le réseau est très peu développé, qui suit et est suivi par des personnes de son milieu social, ira plutôt chercher le clash avec quelqu’un qu’il ne connaît pas. Dans ce cas, on est plutôt dans une logique de trolling, de l’inconnu qui vient vous déranger avec des propos forcément décalés parce qu’il est traversé par des préoccupations personnelles ou sociales qui sont éloignées des vôtres.

Mais d’autres usagers affichent des comportements, et des structures relationnelles, très différents. Si on regarde le profil d’un homme politique ou d’une personnalité médiatique, on se retrouve face à quelqu’un qui a un réseau forcément très élargi, avec des personnes qu’il ne “maîtrise” pas toujours. Il n’a pas besoin de s’éloigner pour rechercher le clash : ceci aura lieux chez lui, pour ainsi dire, dans son cercle de followers. Ces clashs sont différents, ils sont plutôt des prolongements d’échanges professionnels, à la limite. Mais ils ne sont pas avec des inconnus, ils sont avec des personnes avec qui ils partagent un certain point de vue, un noyau de compétences, de valeurs…

C’est pourquoi, si Audrey Pulvar s’en prend à un journaliste de Libération, le tweet clash aura lieu entre deux personnes qui se connaissent et dont les cercles de connaissances se recoupent. Le tout est basé sur un type de stratégie affichée. Alors que dans le type d’attaque qui se fait entre deux personnes n’appartenant pas à la même sphère ou au même réseau, il y a forcément un élément d’impertinence, de manque de conscience des enjeux de la dispute.

En parlant d’homme ou de femme politique, comment être sûr de l’identité de celui qui prend part à un tweet clash ?

En fait, il faut toujours se poser cette question : “qui parle au travers d’un fil Twitter” ? La question peut paraitre simple. Mais, sur Twitter, on part du principe que malgré le grand nombre de pseudonymes et de noms fantaisistes, les personnes qui parlent sont celles qu’elles disent être.

Les interactions sur Twitter valident l’authenticité de celui qui parle. Même les comptes officiels de certains personnages publics qui sont alimentés par des équipes de comm’, doivent inventer des stratagèmes pour vaincre la méfiance, pour induire une « suspension volontaire de l’incrédulité » des autres usagers. Par exemple, sur le compte du président des Etats-Unis, il est précisé que les tweets signés « BO » sont rédigés par Barack Obama en personne.

Le tweet-clash participe de cet effet d’authenticité au fur et à mesure que l’on s’engage dedans. C’est un outil de validation de l’identité de celui qui twitte. On a la preuve que c’est bien lui qui parle. Sa passion constitue le gage de son identité.

À qui feriez-vous plus confiance : à quelqu’un dont le discours reste toujours figé, ou bien à quelqu’un qui de temps à autre se laisse aller à une saine colère ? Je ne serais pas surpris qu’on révèle, d’ici quelques années, que certains clashs étaient des mises en scène pour valider les identités des propriétaires de leurs comptes Twitter, pour les montrer sous un jour plus humain, plus accessible.


Poster par inju (KevinLim) [CC-byncsa]

La comm’ de Danone et Nestlé envahit Facebook

Pour l’agroalimentaire, le média le plus séduisant du moment, qui peut être modelé à souhait, c’est Facebook. Dernière illustration en date, les conférences de Digital Paris des 11 et 12 avril dernier, congrès de marketing et « e-commerce de demain ». Au programme : ”Les réseaux sociaux : pour quelles attentes et comment y répondre ?”, ”Comment activer les communautés sur internet ?” ou encore ”Comment recruter, fidéliser et… AIMER vos fans sur Facebook ! (( Description de la conférence : 100.000 fans… and so WHAT ? La course aux fans n’a pas de vainqueur. Venez découvrir lors de ce workshop comment recruter, fidéliser et surtout comment AIMER vos fans sur Facebook. Sur la base de nombreuses opérations Facebook concrètes mises en place sur la plate-forme Digibonus, nous vous montrerons comment vos fans aiment jouer, rêver, participer, rire, être émus, réfléchir, s’engager, parler de vous et parler d’eux-mêmes. )) ” Aujourd’hui, être sur Facebook est quasi indispensable et complémentaire de la présence sur les blogs. Notamment pour la galaxie des marques de l’agro-alimentaire.

10% des budgets pub

Conséquence, Danone, Nestlé, Orangina entre autres prennent en main leur présence sur Facebook par l’entremise de fan pages dédiées à leurs produits industriels, animées par des agences ou des services de com’ qui, la plupart du temps, n’apparaissent pas es-qualité. Manière de contrôler les discours des internautes sur les réseaux sociaux, sans trop le dire. Oasis, ce sont quelques 2, 3 millions de fans, M&M en compte 1 640 000 et les commentaires atteignent parfois la barre des 300 pour un simple statut, Danette ce sont plus d’1 220 000 fans, Carambar dépasse les 700 000, Trésor de Kellogs, 470 000 fans et une grande dose de n’importe quoi.

Louis Naugès, blogueur chez ZDNet, raconte dans un article publié suite au Sommet mondial du numérique qui a eu lieu à Paris le 13 avril :

J’ai été frappé de voir à quel point Danone prenait au sérieux la dimension numérique de ses activités : Bernard Hours, Vice Président du Conseil d’Administration a parlé des marques comme des « personnes » sur les réseaux sociaux et expliqué que Danone consacre déjà 10 % de ses budgets publicitaires à Internet.

Danone étant avec sa page Danette et Marine De Danette, sa community manager dédiée une des entreprises les plus présentes sur Facebook (et l’une des rares à être identifiée comme travaillant pour Danone). Alors que la majorité des marques ne savent pas quoi faire sur le site communautaire, elles sont toutes d’accord pour en être. Marine Landré, la community manager de Danette explique surtout que ce qui compte c’est de « prolonger la discussion avec les consommateurs en s’efforçant aussi de répondre aux commentaires faits sur les posts de la marque » :

À l’entrée des marques sur Facebook, il y a environ deux ans, il a souvent fallu trouver un moyen détourné pour entrer en discussion avec les « fans ». Le divertissement a alors été un levier important. Mais pour une marque, il est important de garder ce lien au produit et donc de trouver le bon mix. Nous avons souvent des gens qui posent des questions sur le produit en lui-même : sa composition, l’achalandage, les nouveautés à venir, ou autre. Mais pas que. Après c’est aussi parce que c’est Danette.

Danette, très peu sujette à polémique reste une des pages les plus vivantes – après Oasis et Orangina – notamment par l’implication de sa community manager dans les relations avec ses fans et par l’image que la marque véhicule auprès des familles. Facebook est un espace marketing comme un autre.

Anne Lataillade, blogueuse culinaire et community manager pour un produit dessert, sollicitée à hauteur de 80 communiqués de presse par jour en moyenne, constate l’attrait des marques pour le site de Mark Zuckerberg tout en relativisant et en expliquant que « c’est difficile pour les marques qui ne sont pas très digitales ». En effet, selon le public cible et la culture marketing du groupe ou du produit appartenant à une marque, l’attrait des fans est plus ou moins grand. Et pourquoi les fans sont-ils si nombreux ?

Sur Facebook, le community manager s’adresse à la communauté de sa marque. Sur un blog, on s’adresse à la communauté du blogueur. C’est déjà un peu différent : on s’adresse à des fans donc à des gens qui ont une opinion positive. Et surtout, les gens ont envie de parler avec les marques, ils ont envie de discuter, de participer, qu’on leur demande leur avis. Pour ça, l’endroit c’est Facebook et pas nos blogs.

Dans un même groupe pourtant, certaines pages sont moins actives que d’autres : Danone qui cartonne avec sa Danette et les jeux proposés voit sa page Velouté Fruix mourir malgré ses 125 000 fans. Ce qui fonctionne : les jeux concours et les cadeaux. En clair la participation des fans de la page qui permet aussi par capillarité de récupérer des amis de fans. L’affectif pour la marque joue un rôle dans les adorateurs de la première heure : élevé à la Danette, il est d’autant plus facile pour un fan d’aller liker la page, et ce indépendamment de la marque. Et l’affectif est une des raisons pour lesquelles les marques savent qu’elles ont intérêt à être sur Facebook si elles souhaitent communiquer avec leurs consommateurs, adorateurs de produit. Nutella, qui ne possède qu’une fan page officielle internationale, attire plus de 15 millions de fans.

Charles Martin-Laval, fondateur de l’agence AdsOnWall, décrypte le paysage :

Depuis 2010, on sent vraiment une forte demande de la part des marques. Facebook avant c’était marginal. Maintenant c’est très très demandé. Tous les types de marques, surtout grand public. Les marques agro-alimentaires sont assez présentes et assez fortes sur le sujet. Quelques unes se sont fait connaitre. Oasis et M&Ms par exemple, pour lesquels il y a une image jeune – le critère est hyper important au lancement – dynamique, sympa décalée. Ce qui plait aux français.

Fails des fan pages

Mais les fans pages ont un côté obscur, une face noire redoutée par les community managers responsables de la gestion des interactions entre les fans et les moins fans. On garde en mémoire l’opération de Greenpeace contre Nestlé et KitKat pour leur utilisation d’huile de palme. En mars 2010, l’ONG avait arrosé le web de sa publicité trash, pure imitation de la publicité KitKat Have a break have a kitkat, dans laquelle un cadre trentenaire mangeait des doigts d’orang-outan en lieu et place du biscuit de Nestlé, tout droit sortis de leur emballage. Moult réactions sur leur fan page plus tard, volonté de modération des commentaires par Nestlé et explications de la marque, fermeture de la page puis réouverture, l’affaire a fait trembler la fan page. Et par ricochets, la marque.

Passé ce mauvais coup pour Nestlé, d’autres ont défrayé la chronique : le community manager d’Orangina en juillet dernier a actualisé le statut de la boisson en apostrophant les fans d’un message tout en finesse : « Harry Potter c’est n’importe quoi, encore la magie on veut bien, les balais qui volent pourquoi pas mais un roux qui a des amis ? ». 354 commentaires aujourd’hui, la plupart négatif, d’autres plus nuancés.

Mais hormis les fautes de communication, depuis la marque, restent les spammeurs, commentaires indésirables et indésirés. Chez Danette, Marine Landré explique :

Il y a plusieurs types de spammeurs, à différencier. Si c’est juste un lien sans rien d’autre, souvent un robot : à titre personnel je me permets de le supprimer et reporter à Facebook, qui prend ensuite les mesures nécessaires. Il arrive aussi d’avoir des utilisateurs spammeurs (« les trolls »). Mais aussi des consommateurs mécontents. Dans ce dernier cas, aucune raison de supprimer : je laisse tous les commentaires négatifs, tant qu’ils sont en accord avec la charte de la page (pas d’insultes par exemple). Après sur Danette c’est assez rare puisque nous avons la chance d’être une « brand love » assez peu controversée donc.

La gestion de crise est non seulement une histoire de charte du bon commentaire poli mais aussi une histoire de génération. Ceux qui décident ne sont pas ceux qui se servent de ces outils de communications. Explication avec Anne Lataillade pour qui non seulement les décideurs ne sont pas toujours utilisateurs mais par ailleurs quand les marques ont compris ces outils, parfois, elles« en ont peur ». Peur de l’affront ou du scandale qui tâche ?

L’espace des fans laisse libre court à la contestation. La maitrise du discours lisse et propre n’est pas toujours possible et peuvent ressurgir divers scandales, de façon récurrente. D’autant plus que certains groupes sont maitres en la matière. Exemple avec le groupe 1% SPAM, aujourd’hui plus ou moins à l’abandon. Issu du mouvement des indignés, la page de l’évènement annonce la couleur :

« Si vous avez l’impression que vous êtes trop petit pour pouvoir changer quelque chose, essayez donc de dormir avec un moustique…vous verrez lequel des deux empêche l’autre de dormir »
– Dalaï Lama –

Le principe des membres invités : déposer du poil à gratter par commentaire sur les marques ou les produits qu’ils ont dans le collimateur. À commencer par « ceux qui ont tendance à vouloir nous faire « avaler n’importe quoi »! et la lisse communication sur un produit se retrouve face à la volonté des détracteurs. Leur objectif est avant tout de tirer la sonnette d’alarme pour les adorateurs de ces produits et prendre les entreprises dans le filet de la communication sur le net, dont Facebook. Avec pour simple principe d’aller porter et réagir sur les pages des grandes marques « toujours en respectant les règles de savoir vivre et la politesse. »
Dans leurs cibles :

– Parler des OGM sur la page d’un des produits Nestlé
– Demander si vous pouvez utiliser le chocolat à tartiner comme huile de moteur sur la page Nutella

Et leurs précautions : « Sachez repérer les « fake accounts » qui se chargent d’écrire des faux commentaires pour valoriser les produits sur les pages commerciales. »

Faux comptes

Autre question soulevée par l’utilisation des réseaux sociaux, l’achat de fans et l’utilisation de faux fans – achetés eux aussi – ou comment ruiner son image de marque. Fred&Farid, une agence de publicité créée avec le soutien financier de Vincent Bolloré et trois anciens du groupe Publicis de Maurice Lévy, a de nouveau fait parler d’Orangina. Ils sont soupçonnés mi février par CoupsdePub.com d’avoir acheté des lots de fans pour la page du produit. En douceur, la marque dément aujourd’hui avoir été au courant de ce type de pratiques.

Pour Charles Martin-Laval ”c’est une dérive dans le sens où c’est la guerre au nombre de fans” et ce même si Facebook a permis d’en diminuer l’impact en intégrant aux fonctionnalités des pages un compteur d’interactions.

L’achat de fans, c’est pas qualifié du tout, il faut aller chercher sa cible. Ça ne sert qu’à faire jalouser ses concurrents mais pas plus. Au contraire ça apporte le risque de mauvais commentaires sur la page de la marque.

Au dela de l’achat en lui-même, les agences qui travaillent pour le community management des produits sont sous pression du résultat de fin de mois : la taille critique de la base fans flirte avec la crédibilité du travail de l’agence. Tentant donc d’atteindre par des moyens détournés un nombre de fans considérables.

« Je pense qu’il est important d’atteindre une taille critique sur une page Facebook, notamment pour pouvoir justifier des investissements dans le but d’animer la communauté (telles que des applications) » sourit Marine Landré. « Pour des petites pages qui sont moins surveillées cela est probablement tentant. Ceci dit je ne cautionne pas du tout cette pratique. Il y a eu un tournant entre l’arrivée des marques sur Facebook et ces six derniers mois : aujourd’hui de mon point de vue, l’engagement est le plus important. Aucun intérêt de rattraper Oasis. »


Illustrations et couverture par l’excellent Christopher Dombres [CC-by]

Le web mise sur le fisc irlandais

Apple va créer 500 nouveaux emplois dans le sud de l’Irlande, à Cork, où l’entreprise emploie déjà 2800 personnes. Cité par l’AFP, le ministre irlandais de l’Entreprise et de l’innovation, Richard Bruton, se réjouit du coup de pouce :

C’est un vote de confiance dans l’avenir de notre économie et cela montre de quoi est capable l’Irlande au coeur d’une Europe stable.

En Irlande sont déjà présents les sièges européens des plus grandes entreprises du web. Twitter le petit dernier, Apple, Dell, Facebook, Google, Intel, Microsoft et autres ont en effet eu cette idée un peu géniale : s’installer dans un pays où l’impôt sur les sociétés s’élève à 12,5 % contre 33 % en France. Et où l’administration entretient une belle souplesse fiscale pour les multinationales (consistant à ne pas imposer les bénéfices des filiales étrangères rattachées aux sociétés holdings irlandaises).

Mais la population ne profite pas vraiment de ces implantations industrielles. Un paradoxe, qu’Apple s’emploiera peut-être à faire oublier avec ces recrutements. À cette occasion, OWNI a voulu décortiquer les relations nouées entre l’État irlandais et ces entreprises. Analyse de Jérôme Dupuy, avocat chez Mason Hayes & Curran, cabinet d’affaires irlandais ayant notamment conseillé Facebook dans l’établissement et le développement de leurs quartiers généraux européens à Dublin.

On parle beaucoup d’attractivité irlandaise. En quoi hormis le faible taux d’imposition, le pays est-il attractif ?

L’attractivité de l’Irlande ne tient pas seulement au taux d’imposition extrêmement bas – 12,5 % – qu’elle offre aux entreprises mais à la flexibilité de sa force de travail hautement qualifié, à sa compétitivité – le pays est devenu plus compétitif avec une baisse des prix à la consommation, baisse de l’immobilier facilitant les implantations, une baisse du niveau des salaires – et enfin à l’absence de bureaucratie. Bien entendu, le taux à 12,5 % est un élément important de l’attractivité de l’Irlande. Ce taux est malgré tout strictement encadré et n’est valable que pour les entreprises présentant les pré-requis d’une activité commerciale substantielle en Irlande. En d’autres termes : l’Irlande n’est pas une juridiction offshore mais une véritable et solide destination d’affaires.

Au niveau de la croissance, le contexte économique irlandais est favorable à l’installation de ce genre d’entreprises ?

Le pire est derrière nous. Après trois années de récession, l’Irlande a renoué avec la croissance : au premier trimestre 2011, le produit intérieur brut a progressé de 1,9 %, puis de 1,6 % au second. L’Irlande a su tirer profit des 85 milliards d’euros que lui ont octroyés l’Union européenne et le Fonds monétaire international, il y a un an. Une aide destinée à combler le déficit public (32 % du PIB) provoqué par le renflouement des banques irlandaises, ruinées par la spéculation immobilière.

[Mais] La population profite-t-elle de ces 85 milliards d’euros ?

Elle subit toujours le plan d’austérité du gouvernement, constitué de baisses de salaire, suppressions d’emplois dans le secteur public, hausses des impôts et des taxes, coupes sombres dans les budgets sociaux. On constate ainsi que la croissance de l’Irlande repose à l’heure actuelle presque exclusivement sur ses exportations. Il y a ainsi une économie à deux vitesses. D’un côté, il y a les multinationales installées dans l’île, exportatrices de produits high tech et équipements électroniques tels que des ordinateurs, ainsi que de produits chimiques et pharmaceutiques. Bien que menacées par le ralentissement de l’économie mondiale, ces entreprises sont en bonne santé. De l’autre côté, il y a les entreprises irlandaises, qui, elles, dépendent d’une consommation intérieure qui subit les mesures d’austérité successives.

Dans cette situation économique locale austère, le salut du pays passe par l’attraction d’entreprises étrangères en Irlande, les fameux IDE, Investissements Directs Etrangers.

L’agence de développement irlandais à l’étranger IDA Irlande – agence de promotion de l’investissement direct étranger en Irlande – travaille de quelle manière avec les sociétés tech’ ?

Elle se place aux côtés des entreprises étrangères afin de sécuriser leurs nouveaux investissements et de contribuer au développement des activités des investisseurs ayant déjà parié sur l’Irlande. Après le succès de l’Irlande auprès des multinationales pharmaceutiques, des activités de haute technologie (sept des dix principales entreprises du secteur et 50 milliards d’euros en exportation pour l’Irlande) et des groupes financiers, le pays compte aujourd’hui rebondir grâce à la troisième génération Internet : Google, Facebook, Intel, Twitter, toutes ces sociétés qui s’installent à Dublin et dont le marché croit à une vitesse exponentielle. IDA se concentre surtout sur la région de San Francisco, où des sociétés comme Google ont leur siège, pour identifier les sociétés à croissance rapide.

Les créations d’emplois ont lieu majoritairement dans quelles partie du pays ?

Devenue la ville préférée de sociétés telles que Google, Facebook, LinkedIn, eBay et Gala Networks, qui y ont toutes installé leur siège international, Dublin est en passe de devenir la capitale européenne d’Internet. Ce statut lui sera sans doute conféré si le pays continu à mettre en œuvre les infrastructures de communication à haute vitesse nécessaires pour soutenir les investissements en province. D’autres annonces majeures sont attendues pour d’autres villes du pays. Dont Waterford dans le sud-est du pays, Sligo au nord-ouest ou encore Limerick au sud-est qui toutes trois constituent des zones largement soutenues par IDA et qui offrent de sérieuses possibilités d’aides à l’implantation pour tout nouvel investisseur.

eBay et son système de paiement en ligne PayPal emploient déjà plus de 1600 personnes sur le site de Blanchardstown. La société a dévoilé son intention de créer 150 nouveaux postes permanents dans le service client, la gestion des comptes et l’amélioration des processus. IBM a suivi en annonçant 200 nouveaux emplois dans son premier centre technologique pour des villes plus intelligentes, qui vise à révolutionner la façon dont les villes fournissent des services tels que l’eau et les transports. La technologie Internet sera au cœur de ce projet. LinkedIn, service de réseautage social, a ensuite annoncé l’installation de son siège international à Dublin. Les emplois concerneront une grande variété de postes dans le commerce et les technologies, notamment dans la vente, le marketing, la finance et le service client. La société explique qu’elle gèrera son expansion internationale depuis Dublin en travaillant avec des équipes à Londres et aux Pays-Bas.

Ces investissements liés à Internet suivent de près les annonces de ces derniers mois émises par Gala Networks, géant japonais des jeux sur internet, qui s’agrandit avec 100 nouveaux emplois. D’autres entreprises telles que la société de jeux sociaux Zynga, dont le chiffre d’affaires s’élève à 300 millions de dollars par an grâce à des jeux tels que FarmVille et Mafia Wars, songent à s’implanter à Dublin. En octobre [2011, NDLR], Eric Schmidt, PDG de Google, a déclaré qu’il prévoyait d’étendre les activités de Google, dont le site compte actuellement 1500 employés. Pendant ce temps, Facebook, implanté aussi en Irlande recrute actuellement 140 personnes.

Cork est également pris dans le tourbillon Internet. La ville, qui accueille Apple Computer depuis les années 1980, génère des centaines d’emplois liés à Internet. La société de logiciels de sécurité McAfee est en train d’élaborer un site d’assistance technique de 120 personnes à Cork et Activision Blizzard, première société de jeux au monde, a embauché 740 personnes au cours des derniers mois là-bas. L’Irlande possède des marques leaders et attire d’autres entreprises grâce à la visibilité des grands noms qui viennent s’installer ici. Le pays veut confirmer qu’il reste la tête de pont entre la Silicon Valley et l’Europe.


Illustration et couverture par Loguy pour Owni /-)

Amazon tourne une page d’Apple

Dans l’affaire qui oppose la justice américaine à cinq des plus grands éditeurs du pays et Apple, nouveau rebondissement : le département de la Justice (DoJ) a décidé d’intenter une action en Justice (voir la plainte en bas de l’article), faisant suite à une procédure collective démarrée en août dernier, pour soupçons d’entente illégale entre les grands éditeurs américains et le plus gros concurrent d’Amazon pour la vente en ligne.

Les perdants – temporaires – Hachette, Harper Collins et Mac Millan qui se plient à la procédure du département de la Justice et à la remise en cause de certaines des clauses passées avec Apple. Les irréductibles : Penguin et Simon and Schuster qui refusent d’aller dans le sens de l’administration. Celui qui pourrait s’en réjouir à l’avenir, c’est Amazon qui devrait pouvoir de nouveau proposer ses livres à 9,99 dollars.

Prix fixé

Au début du mois d’août 2011, plusieurs plaintes avaient été déposées et regroupées dans une class action – une procédure civile par action collective de particuliers – auprès de différents tribunaux aux États-Unis, comme nous l’avions évoqué à l’époque. En cause, une suspicion d’entente entre Apple et les plus gros éditeurs du pays, Hachette Books, Harper Collins, Penguin, Mac Millan et Simon and Schuster. Par le biais de contrats d’agence passés entre les éditeurs et la firme de Cuppertino, le prix des livres – numériques – était fixé par les éditeurs à la seule condition qu’il ne soit pas inférieur au prix fixé avec Apple. Augmentant ainsi les tarifs pratiqués par Amazon.

Les plaintes s’étaient ajoutées les unes aux autres, dénonçant, captures d’écran à l’appui et évolution des prix, cette entente illégale. Première conséquence, les accords passés entre les acteurs du marché l’étaient au détriment du consommateur et gonflaient artificiellement le prix des livres vendus par le biais de la plateforme d’Apple. Dans son communiqué de presse daté du 11 avril, le département de la Justice précise :

Le département [NDLR, de la Justice] a conclu un accord avec trois des plus grands éditeurs du pays – et continuera de poursuivre Apple, et deux autres grands éditeurs – pour s’être entendus pour augmenter les prix que payent les consommateurs pour les ebooks. […] Plus tôt dans la journée, nous avons déposé une plainte à New-York contre Apple et cinq différents éditeurs – Hachette, HarperCollins, MacMillan, Penguin et Simon & Schuster. En réponse à nos allégations, trois de ces éditeurs – Hachette, HarperCollins et Simon & Schuster – ont accepté l’accord proposé. S’il est approuvé par le tribunal, cet accord permettrait de résoudre les préoccupations antitrust de l’administration avec ces entreprises, et les obligerait à permettre à d’autres détaillants, comme Amazon et Barnes & Noble – la liberté de réduire le prix de leurs e-books. Le règlement exige aussi que les entreprises mettent fin à leurs accords anti-concurrentiels avec Apple et les autres vendeurs d’ebook.

Avec cette décision du département de la Justice américaine d’intenter une action contre Apple et cinq éditeurs, à terme, ces derniers pourraient être contraints de reconnaître une entente brisant la concurrence sur le marché de la vente en ligne de livres (parfaitement illicite).

Dans les contrats d’agence, la clause de fixation des prix et celle concernant l’impossibilité de vendre moins chère ailleurs seraient rendues caduques. Hachette publiait hier un communiqué précisant que le groupe ne se reconnaissait aucune activité délictueuse mais était prêt à négocier avec le département de la Justice (DoJ) :

Désormais, nous pensons qu’il est du devoir du DOJ et des Procureurs des États de veiller à ce que plusieurs détaillants opèrent sur le marché des ebooks, qui doivent demeurer concurrentiel, et que nous ne revenions pas à une situation de monopole dans laquelle une seule entreprise décide quels ebooks les consommateurs doivent lire et comment.

Tout bénéf’ pour Amazon

Aux Etats-Unis, le marché du livre numérique n’avance pas à la même vitesse que celui français, à peine naissant. Les États-Unis l’ont bien compris, les enjeux sont grands : l’essor des tablettes Kindle et autres liseuses – iPad inclus – représenteront des parts de marché considérables pour les mastodontes de la vente en ligne, dans les années à venir. Mais les positions sur l’échiquier se jouent à l’heure actuelle aux États-Unis. La bataille entre Amazon et Apple se recentre autour des prix pour le consommateur pour le premier (prix de séduction à moins de dix dollars) et autour des catalogues des maisons d’édition pour Apple.

Dans le cadre de ces pratiques d’entente sur le territoire américain entre éditeurs et Apple, le grand lésé du marché, Amazon et sa tablette Kindle vendue à prix quasi coûtant, a été soupçonné d’être derrière les class actions. Amazon était contraint de s’aligner sur les prix fixés sur l’iBook Store, supérieurs en majorité aux prix pratiqués par le marchand de livres en ligne. Et aurait eu tout intérêt à aiguiller la justice sur la piste des ententes.

Si les éditeurs finissent par se ranger derrière la décision du département de la Justice américain, Amazon pourrait bien récupérer son prix de séduction auprès des consommateurs et de nouveau fixer plus librement ses tarifs pour rétablir une « saine concurrence » souhaitée par les autorités américaines sur le dossier. Auprès de la Commission européenne, la plus grande librairie online avait guidé la procédure des inspecteurs de la commission, comme nous l’avions découvert, même si le demande d’enquête à la Comission n’avait pas été déposée par le géant américain.

plainte contre Apple et les éditeurs US

(Contacté par OWNI, l’avocat d’Apple n’a pas souhaité s’exprimer sur le sujet. L’un des porte-paroles de Simon&Schuster précise par ailleurs que la maison « est l’un des trois éditeurs qui en parvenu à une entente avec le département de la Justice ». Et est en « en discussion actives et productives » avec la Commission européenne.)


Illustration Flickr Paternité manitou2121