Communiquer sur les réseaux sociaux auprès de la génération Y
Charles Biberson - thèse professionnelle - curation et création de valeur - novembre 2013
1. ESCP Europe
MS Médias 2013
CURATION ET CRÉATION DE VALEUR:
quelle valeur apporte la curation de contenus sur Internet ?
Charles Biberson
25 novembre 2013
1
2. Table des matières
INTRODUCTION ............................................................................................. 3
LA CURATION, UN REMEDE A LA CROISSANCE EXPONENTIELLE DU WEB
I. Une histoire d’Internet ................................................................................... 5
A. Le Web 1.0, un média de consultation .................................................... 5
B. Le Web 2.0, “many to many” ................................................................... 6
C. Les médias sociaux ................................................................................. 8
II. Trop de contenu tue le contenu ................................................................. 10
A. L’infobésité ............................................................................................. 10
B. L’économie de l’attention ....................................................................... 13
C. Multitasking et Media Snacking ............................................................. 14
D. Vers une fin des moteurs ? .................................................................... 15
III. L’émergence d’une solution ...................................................................... 21
A. Les précédents ...................................................................................... 21
B. Un peu de littérature .............................................................................. 23
a. Le manifeste de Bhagrava .................................................................. 23
b. Le modèle de Rosenbaum ................................................................. 25
c. Les best practices de Tran ................................................................. 27
d. La Pyramide de Shey ......................................................................... 28
C. Définition ................................................................................................ 28
LA CURATION, USAGES ET ACTEURS D’UNE NOUVELLE PRATIQUE
I. Les outils ..................................................................................................... 32
A. Grille de lecture ...................................................................................... 32
B. Le véritable interest graph ..................................................................... 34
II. Qui sont les curateurs ? ............................................................................. 35
A. Les personnes ....................................................................................... 35
B. Les journalistes et médias d’informations .............................................. 37
a. Le Huffington Post .............................................................................. 40
b. Buzzfeed ............................................................................................. 41
C. Industrie de l’Entertainment ................................................................... 44
D. Les marques .......................................................................................... 47
a. La marque curatrice ............................................................................ 48
b. Offrir du contenu aux curateurs .......................................................... 50
c. Le cas Pinterest .................................................................................. 53
III. La curation et le droit ................................................................................ 55
A. les lois favorables à la curation............................................................ 55
B. Des best practices définies par les curateurs ...................................... 57
CONCLUSION ............................................................................................... 60
BIBLIOGRAPHIE ........................................................................................... 61
ANNEXES ...................................................................................................... 65
2
3. INTRODUCTION
« La valeur sociale du web est de permettre la communication entre les humains,
le commerce et les opportunités de partage du savoir »1. C’est ainsi que le W3C
(World Wide Web Consortium) définit une des missions d’Internet.
Le web a certainement bousculé le commerce (Amazon est fondé en 1994) et la
communication (Hotmail est lancé en 1996).
Le partage du savoir n’est pas en reste. De Wikipédia aux MOOCs (Massive
Open Online Courses, le buzzword de 2013), Internet est une gigantesque base
de contenus sur les sujets les plus variés. Mais c’est, d’une part, trop : « Getting
information off the Internet is like taking a drink from a fire hydrant » selon Mitchell
Kappoor. Et d’autre part, la quantité n’est pas ici synonyme de qualité : « ours is a
culture and a time immensely rich in trash as it is in treasures » prophétisait Ray
Bradbury en 19922. Mieux vaudrait un web bien fait qu’un web bien plein.
Les créateurs sont légions, les productions sont disponibles, au delà de ce qu’un
humain pourra consommer à l’échelle d’une vie. Et toute l’information générée par
ces armées de producteurs se déverse en un flux continu sur la toile.
Fort de ce constat, une nouvelle pratique apparaît : la curation de contenu. Elle
consiste à ordonner, classer, sélectionner, mettre en avant, contextualiser et
partager avec l’audience les informations les plus pertinentes. « La curation c’est
le tri sélectif » explique Eric Scherer3.
Ce n’est pas une notion nouvelle. Le Reader’s Digest crée en 1922 se donnait
déjà la mission, bien avant l’éclosion d’Internet, de trier et de rassembler sur un
support unique des résumés de magazines, épargnant à ses abonnés l’étape de
1
http://www.w3.org/Consortium/mission
Ray Bradbury – Zen in the art of writing – Bantam -1992
3
voir annexe 1 : entretien avec Eric Scherer
2
3
4. la recherche.
A une autre échelle, c’est bien le service que proposent les
curateurs aujourd’hui.
« Les contenus c’est de l’or noir »4 selon Denis Olivennes. On ne saurait être
plus d’accord. La curation par définition s’oppose à la création. Elle n’exige
pas
d’abonder à la masse de contenus en ligne mais se sert au contraire de sources
existantes. Le curateur va raffiner les contenus vendangés sur le web pour en
tirer l’essentiel et le proposer à la communauté.
L’avalanche de contenus a modifié les comportements. La consommation
d’information en ligne, la recherche de cette information, l’influence des réseaux
sociaux ont des conséquences sur les attentes des utilisateurs et sur la façon
dont ils appréhendent une matière toujours plus abondante.
Ces nouvelles exigences nécessitent de nouveaux outils de sélection et de mise
en forme, à la disposition des curateurs. Et ces nouveaux acteurs définissent de
nouveaux usages tout en s’agrégeant aux comportements existants.
On verra donc dans une première partie comment le Web a évolué jusqu’à sa
forme actuelle, quels sont les offres et les comportements qui ont accompagné
son changement, favorisant l’éclosion de cette nouvelle pratique, comment elle se
définit et en quoi elle diffère d’autres usages.
Dans la seconde partie, nous analyserons les différentes applications de la
curation : qui sont les différents acteurs et quelle valeur en dégagent ils ?
4
Renaud Revel – Les contenus c’est de l’or noir- L'Express 3201 - 2012
4
5. LA CURATION, UN REMEDE A LA
CROISSANCE EXPONENTIELLE DU WEB
I. Une histoire d’Internet
A. Le Web 1.0, un média de consultation
L’idée du réseau émerge à l’initiative d’une agence du département de la défense
américain, la DARPA (Defense Advanced Research Projects Agency) à la fin des
années soixante. Le but premier est de permettre l’échange de données entre
différents centres de recherches sous contrat avec le ministère de la Défense
américain. L’ARPANET naît en 1969 avec le raccordement de l’UCLA (University
of California Los Angeles) et de Standford. En 1972, ce sont 40 sites qui sont
connectés entre eux aux USA.
En 1983, l’ARPANET se divise en deux branches, civile et militaire, le
développement de la branche civile marque la naissance d’Internet, avec environ
un millier de postes reliés entre eux cette année-là.
En 1991, les travaux de Tim Berners-Lee au CERN (Conseil Européen pour la
Recherche Nucléaire) donnent naissance au World Wide Web. Le système se
démocratise et ouvre le réseau à de nouveaux utilisateurs qui n’ont plus besoin
d’être des informaticiens confirmés. Un système d’interface graphique permet la
navigation d’une page (un site) vers un autre via des liens dits hypertextes. En
1994, un organisme de gouvernance est crée, le World Wide Web Consortium
(ayant pour slogan Leading the Web to its full potential) sous la houlette du MIT
(Massachusetts Institute of Technology) aux USA et de l’INRIA (Institut National
de Recherche en Informatique et en Automatique) en France. L’organisme existe
toujours et compte 383 entreprises partenaires en 2013.
Depuis, le réseau a connu une expansion globale. Dans les années quatre-vingtdix, Internet est d’abord comparable à une bibliothèque. C’est un modèle
fonctionnant sur un environnement fermé, réservé aux publications individuelles
5
6. d’un petit nombre, un univers dédié à la consultation par l’internaute. Le nombre
d’émetteurs reste limité tandis que la base utilisateur croît.
Yahoo, qui est aujourd’hui un portail adossé à un moteur de recherche n’est alors
qu’un simple annuaire. Deux étudiants de Standford proposent un classement
catégorisé de leurs sites favoris. Un outil alors novateur et pertinent qui viendra
révolutionner un Web aux prémices de sa croissance.
B. Le Web 2.0, “many to many”
Par la convergence de l’informatique, de l’audiovisuel et des télécommunications,
on est passé de cette dimension initiale du Web à un nouveau développement.
On parle de Web 2.0.
Internet devient une plateforme où les utilisateurs contribuent à la création de
contenus, et à leur publication. On passe du modèle « few to many » au « many
to many ». Les actions des utilisateurs créent de la valeur, dans un modèle
économique basé sur la participation.
Selon Tim O’Reilly (fondateur d’O’Reilly Média, maison d’édition spécialisée dans
l’informatique) : « Le Web 2.0 repose sur un ensemble de modèles de conception
: des systèmes architecturaux plus intelligents qui permettent aux gens de les
utiliser, des modèles d’affaires légers qui rendent possible la syndication et la
coopération des données et des services. Le Web 2.0 c’est le moment où les
gens réalisent que ce n’est pas le logiciel qui fait le Web, mais les services »5.
Ce passage du logiciel au service s’illustre par exemple aujourd’hui dans l’offre
Google Docs où un logiciel payant (Microsoft Office) est remplacé par un service
gratuit en ligne. Exemple d’autant plus pertinent que l’offre est également
participative et où les utilisateurs peuvent modifier conjointement les documents,
stockés à distance dans le cloud.6
5
Tim O’Reilly – What is Web 2.0 - 2005
http://oreilly.com/web2/archive/what-is-web-20.html
6
“Le could computing désigne l’exploitation de ressources informatiques distantes permettant
d’exploiter des services en ligne à la demande“
Frédéric Cavazza – Définition et usage du cloud computing - 2011
http://www.entreprise20.fr/2011/03/16/definition-et-usages-du-cloud-computing/
6
7. Le Web 2.0. est à la fois une évolution quantitative (plus de participants) et
comportementale. Cette nouvelle étape de la croissance du Web passe par
l’intelligence collective. Le réseau est désormais accessible à tous, non plus pour
une simple consultation des contenus, mais surtout pour une participation à la
construction d’un lieu où l’utilisateur échange et se met en avant. Le Web 2.0
permet une participation exhaustive, ouverte à tous et non plus à quelques
créateurs
de
contenus
historiques
(médias
traditionnels,
chercheurs,
universitaires). Ainsi chacun a la possibilité de créer du contenu (écrits, photos,
vidéos), de le mettre en ligne et de le partager avec ses pairs. On parle de User
Generated Content. Le modèle est basé sur une offre de services permettant aux
utilisateurs de créer et de publier, et d’être engagés dans l’organisation de leurs
publications.
Le phénomène des blogs est un des aspects les plus remarquables de l’ère du
Web 2.0. Un blog est un site, composé de notes, classées en fonction de leur
date de publication. Si on passe outre la contrainte de création de contenus à
proprement parlé (il faut nourrir le site), le blog se caractérise par la capacité qu’il
offre de publier facilement,
de choisir ses angles éditoriaux et d’interagir en
temps réel avec le lectorat, par le biais des commentaires. L’offre est gratuite
(Blogger, Wordpress)
et on dénombre plus de 180 millions de blog dans le
7
monde début 2012 (pour 36 millions fin 2006).
En parallèle des blogs, la tendance du wiki est également un aspect important du
Web 2.0. Grâce au wiki, les pages d’un site Web et son contenu sont ouverts à la
création et à la modification par tous. L’exemple majeur de cette tendance est
l’encyclopédie participative Wikipédia (créée en 2001) où un utilisateur A peut
proposer une entrée modifiable par n’importe quel autre utilisateur. Wikipédia est
passé de 500 000 articles en 2004 à plus de 4 000 000 en 20138.
7
Nielsen – Buzz in the blogosphere : millions more bloggers and blog readers - 2012
http://www.nielsen.com/us/en/newswire/2012/buzz-in-the-blogosphere-millions-more-bloggersand-blog-readers.html
8
Source interne Wikipédia -2013
http://en.wikipedia.org/wiki/Wikipedia:Modelling_Wikipedia's_growth
7
8. Ces deux aspects s’appuient donc sur des offres de service, gratuites, et
reposent sur le principe de folksonomie, popularisé par l’architecte de
l’information Thomas Wander Wal en 2004. Ce mot valise se décompose en deux
termes anglais : folks (les gens) et taxonomy (classification des contenus par
l’attribution d’étiquettes – les tags).
Le processus de classification repose sur les utilisateurs eux-mêmes. Ce sont eux
qui catégorisent leurs créations pour aider l’audience à accéder à l’information,
par le biais de moteurs de recherche9. En l’absence de référentiel commun, il est
évident que succès du modèle atteint rapidement ses limites. La création d’un
dictionnaire des tags, comme proposé par le Dr. Alireza Noruzi reste aujourd’hui
un vœu pieux10.
C. Les médias sociaux
Avec le Web 2.0. émergent également les médias sociaux « supports numériques
à la prise de parole »11 selon Frédéric Cavazza. On peut les définir par opposition
aux médias traditionnels. On n’est plus face à un émetteur qui adresse un
message unique à une multitude de cibles distinctes, à intervalle régulier dans le
temps, mais dans un schéma où une multitude d’acteurs sont à la fois récepteurs
et émetteurs.
Les médias sociaux rassemblent des outils de publication (les blogs), de partage
(YouTube pour la vidéo), et de discussions (les forums). Ils incluent également les
réseaux sociaux dont les plus connus, Facebook et Twitter (respectivement crées
en 2004 et 2006).
L’attribut social a trait à l’interaction entre les membres. On échange des
contenus et des opinions, et l’interaction entre les individus engendre des
phénomènes de création de groupes, de visibilité et d’influence.
On passe d’une base utilisateur simple consultante à une foule d’émetteurs qui
génère du contenu. Et l’élargissement de la base entraîne donc la démultiplication
9
Collectif - l’évolution d’Internet, le Web 2.0 – La documentation française - 2011
http://www.ladocumentationfrancaise.fr/dossiers/internet-monde/web2.0.shtml
10Alireza Noruzi - Folksonomies: Why do we need controlled vocabulary? – 2007
http://www.Webology.org/2007/v4n2/editorial12.html
11
Frédéric Cavazza – Panorama des médias sociaux – 2008
http://www.fredcavazza.net/2008/05/19/panorama-des-medias-sociaux/
8
9. des émissions. En 2013, 35 % des internautes interrogés dans le monde auraient
déjà posté du contenu sur les réseaux sociaux12.
Laurence Allard résume ainsi la dimension sociale du Web 2.0 : « écrire,
commenter, copier-coller, mixer, publier, partager ou échanger des photos,
vidéos, liens et tag, sur des sites de présentation de soi et de ses univers
relationnels ».13
En parallèle de cette explosion basée sur une offre nouvelle d’agoras en ligne, les
outils de production (le hardware par opposition au software-logiciel) se
démocratisent et les coûts de production chutent. Des appareils toujours plus bon
marché permettent a chacun de créer et de diffuser son contenu globalement. On
dénombre en 2013 plus de 24,1 millions de possesseurs de Smartphones en
France, soit 44,4% de la population.14 Autant d’outils individualisés qui permettent
de générer du contenu (vidéos, photos) et de nourrir le réseau.
Publication et création sont donc désormais à la portée du plus grand nombre.
Comme le résume Bruno Patino, Directeur général délégué au développement
numérique et à la stratégie de France Télévisions : « Tous ces bouleversements
des usages de nos concitoyens interviennent en même temps que se
démocratisent et s’industrialisent des processus moins onéreux de création et de
diffusion des images animées ».15
De plus, Internet est un média global. L’internaute n’a plus seulement accès à un
contenu national disponible via un support physique (journaux, chaines de
télévision) mais à une information plane, un modèle horizontal où les barrières
géographiques n’existent pas. L’anglais triomphe et représente plus de 55% des
contenus (pour 3.9% en français)16.Si ce constat de diffusion planétaire est vrai
12
Hugo Cléry – Cartographie mondiale du User Generated Content - 2013
http://www.blogdumoderateur.com/etude-cartographie-mondiale-du-user-generated-content/
13
Laurence Allard, ùRevue MediaMorphoses n° 21, septembre 2007, Armand Colin/INA
14
Source : baromètre trimestriel de Mobile Marketing Association France – Mars 2013
15
Eric Scherer - Meta-media, cahier de tendances medias de France Télévison #4 – France
Télévison - Automne Hiver 2012-2013
16
Source : w3techs – Usage of content languages for websites - 2013
http://w3techs.com/technologies/overview/content_language/all
9
10. pour les contenus d’information et d’opinion (notions dont on reparlera et dont la
distinction est brouillée sur le Web 2.0), il est toutefois à pondérer pour les
contenus
d’Entertainment
issus
des
industries
télévisuelles
ou
cinématographiques, pour lesquels la gestion des droits empêche une diffusion
légale globalisée.
Eric Scherer parle du Web comme une « plateforme de partage horizontale », en
l’opposant à une « culture verticale » disparue. 17 Les émetteurs sont donc
démultipliés et diluent le message des acteurs traditionnels de production de
contenus : tous les contributeurs s’expriment avec la même puissance,
bénéficiant d’une l’infrastructure de diffusion identique. Les traditionnels gardiens
de l’information sont bousculés. Ils ne sont plus les seuls à produire et diffuser du
contenu et subissent une crise de confiance, dans une modèle où « la défiance
envers les corps constitués croît à toute vitesse ».18
II. Trop de contenu tue le contenu
A. L’infobésité
L’utilisateur devient contributeur : tous médias ! Quelques chiffres permettent de
mieux appréhender l’ampleur de ce déferlement.
En 2013, ce sont 2,3 milliards de personnes qui ont accès à Internet dans le
monde (35% de la population)19 . Facebook totalise 1.15 milliard d’utilisateurs
actifs (UA)20 dans le monde, dont 26 millions en France. YouTube, 1 milliard de
visiteurs uniques (VU)21 dans le monde, 26 millions en France. LinkedIn, 147
17
voir annexe 1 : entretien avec Eric Scherer
Eric Scherer – Le “journalisme augmenté” en 10 points – 2010
http://owni.fr/2010/11/07/le-«-journalisme-augmente-»-en-10-points/
19
Source : Banque Mondiale – 2013
http://donnees.banquemondiale.org/indicateur/IT.NET.USER.P2/countries?display=graph
20
utilisateurs actifs : agir en partageant du contenu ou avoir une activité avec ses amis ou
connexions FaceBook via un site tiers intégré à FaceBook – source : NY Times
21
visiteur unique : internaute identifié comme unique visitant un site sur une periode donnée
18
10
11. millions d’UA dans le monde pour 5 millions en France. Tumblr, 166 millions d’UA
dans le monde pour 4.7 millions en France, Twitter 232 millions d’UA pour 4.5 en
France, Pinterest, 70 millions d’UA dont 500 000 en France22. Ce ne sont que
quelques exemples de l’impact de ces services basés sur la publication de
contenus par les utilisateurs.
Evidemment, la notion d’utilisateur actif est à tempérer : tous les internautes
présents dans les médias sociaux ne sont pas des créateurs de contenus. La loi
de Bradley Horowitz (2006) théorise les différentes phases d’engagement en
ligne, chacune correspondant à un degré de création de valeur. Pour 100
utilisateurs, 1 sera un créateur de contenu, 10 seront des participants actifs
(synthesizers) et le reste ne sera qu’une population de consommateur-rôdeur
(lurkers) qui ne modifiera ni ne commentera le contenu (voir figure).
Loi de Bradley Horowitz
23
Un récent article de la BBC renforce cette analyse en mettant en avant que ce
sont désormais 77% des internautes au Royaume Uni que l’on peut qualifier de
participants actifs. L’augmentation de ce ratio est tirée par la « participation
facilitée » proposée par les médias sociaux, via les boutons du type share, like,
tweet.24 L’offre de service sur les médias sociaux s’étoffe avec ces facilitateurs.
S’il fallait auparavant copier-coller le lien du contenu à partager sur la plateforme,
il est aujourd’hui possible de le faire en un clic.
22
Sources : Facebook, Facebook, YouTube, Médiamétrie, Quantcast, Quantcast, Quantcast,
Quantcast, Twitter, Médiamétrie, Semiocast, Semiocast
23
Bobbie Johnson – Is the 1% rule dead ? The BBC thinks so, but it is wrong - 2012
http://gigaom.com/2012/05/06/bbc-1-percent-rule/
24
idem
11
12. Et ces utilisateurs actifs nourrissent donc la toile de contenus variés. En Juillet
2013, toutes les 60 secondes, ce sont 100 heures de vidéo mise en ligne sur
YouTube, 278 000 tweets, 20 000 nouvelles photos sur Tumblr, 347 nouveaux
post de blogs sur WordPress25.
En agrégeant toutes ces données, on arrive selon Eric Schmidt, Executive
Chairman of Google, à la conclusion suivante : « 5 exaoctets26 d’information ont
été crées entre la naissance de la civilisation et 2003. Autant d’information est
aujourd’hui crée tous les 2 jours et le rythme s’accélère » 27. L’affirmation n’est
pas des plus précises mais a le mérite de souligner notre propos. Steven
Rosenbaum parle quant à lui d’une loi de Moore de la création de contenus : « la
vitesse, l’échelle et le nombre d’éléments produits doublera tous les 24 mois »28.
L’accès à Internet se globalise, les moyens de production de contenus se
démocratisent et la tendance à participer se confirme. La masse d’information va
crescendo.
Conséquence : le Web est malade de sa croissance. Trop de contenu tue le
contenu. C’est le phénomène de l’infobésité (information overload ou en français
surcharge informationnelle). Le terme date de 1970 et a été popularisé par Alvin
Toffler 29 . Initialement, la notion théorise la difficulté pour une personne de
comprendre ou de prendre des décisions, due à la présence de trop
d’informations. Le phénomène existe également dans les théories économiques :
si la rareté entraine une amélioration de la gestion, une trop grande abondance
entraine une modification des usages.
Outre ce syndrome de surcharge informationnelle, l’afflux de contenu provoque
une confusion entre les notions d’informations, de communication et d’opinion.
25
Victoria Woollaston – Revealed what happens in just one minute on the internet - 2013
http://www.dailymail.co.uk/sciencetech/article-2381188/Revealed-happens-just-ONE-minuteinternet-216-000-photos-posted-278-000-Tweets-1-8m-Facebook-likes.html
26
1 exaoctet = 1 milliard de gigaoctet
27
Eric Schmidt -Techonomy conference – Lake Tahoe USA – Oct 2010
28
Steve Rosenbaum – The coming age of curation economy - 2013
http://www.thevideoink.com/features/voices/the-coming-age-of-the-curation-economy-buildingcontext-around-content/ - .UnkSTmTF3FE
29
Alvin Toffler – Future Shock –Random House - 1970
12
13. Dans le schéma des médias traditionnels, il est facile de distinguer les trois : un
reportage de journal télévisé ou un article (information), un film ou un encart
publicitaire (communication), une émission de débat ou un éditorial (opinion).
Avec les médias sociaux, les émetteurs utilisent tous les mêmes canaux. Et dans
la confusion, l’information perd son statut de denrée rare puisqu’elle est, ou
semble, être disponible partout, tout le temps, et gratuitement, la plupart du
temps.
Et si la théorie de l’infobésité s’applique initialement à la prise de décision, elle se
décline sur le Web avec la détection : la difficulté réside dans le fait de trouver un
contenu pertinent, relatif à la recherche de l’utilisateur.
C’est le paradoxe du Web d’aujourd’hui, « on publie d’abord le contenu avant de
le filtrer » selon Dominique Cardon, sociologue au Laboratoire des Usages chez
Orange Labs.30 Le contenu est noyé, l’océan de données (brutes ou traitées) rend
la recherche laborieuse et parfois infructueuse.
Tout y est disponible, les points de vues les plus variés existent et se confrontent.
De plus, la structure plane du Web où la part de voix est la même pour tous les
acteurs
ne
favorise
pas
la
visibilité
des
informations
pertinentes
ou
contextualisées.
D’après Guillaume Vinot, « Sur Internet. Le temps et l'information, s’écoulent
différemment, ou plutôt, ils ne s’y écoulent pas, ils s’y stockent... »31
Face à cet accroissement vertigineux, il faut définir de nouveaux usages pour
filtrer.
B. L’économie de l’attention
L’infobésité est à associer à l’économie de l’attention, théorisée par Herbert
Simon dans les années soixante-dix. La ressource information est désormais trop
abondante, c’est son corolaire, l’attention, qui se caractérise par la rareté. « Dans
30
Melissa Bounoua – la curation nouvelle tarte )-à la crème du web -2011
http://www.20minutes.fr/web/666430-web-la-curation-nouvelle-tarte-creme-web
31
http://uprooted-deracine.blogspot.fr/
13
14. un monde riche en information, l'abondance d'information entraîne la pénurie
d'une autre ressource : la rareté devient ce qui est consommé par l'information.
Ce que l'information consomme est assez évident : c'est l'attention de ses
receveurs. Donc une abondance d'information crée une rareté d'attention et le
besoin de répartir efficacement cette attention parmi la surabondance des
sources informations qui peuvent la consommer » 32 . Le temps de cerveau
disponible, si cher à Patrick Le Lay, est de plus en plus difficile à capter.
« Le temps, la plus précieuse de toutes les ressources puisque la seule à ne pas
être renouvelable, manque »33, selon Jean-Louis Servan-Schreiber. Comme le
souligne David Eun, responsable des partenariats de contenus chez Google en
janvier 2008 : « Les internautes vous paient avec le temps qu’ils passent sur vos
contenus, il vous paient avec leur attention. » Et faire « gagner du temps à
l’utilisateur, en réduisant le bruit d’Internet »34 (Eric Scherer) est un véritable enjeu
pour un émetteur qui veut se faire entendre.
C. Multitasking et Media Snacking
On ne consomme plus de façon linéaire, l’information est stockée et reste
disponible. Le consommateur a le choix du temps et du lieu de consommation. Et
il devient de plus en plus volatile dans son comportement.
Les Digital Natives sont représentatifs de cette volatilité : « ils sont nés entre 1985
et 1995, et ont donc aujourd’hui entre 15 et 25 ans. Ils ont un rapport tout à fait
spécifique à la société, à la consommation, aux marques, à la politique, aux
médias, etc., en grande partie façonné par les technologies numériques ».35 En
2012, une étude commissionnée par Time Inc. 36 établit que cette population
change de média jusqu’à 27 fois par heure, passant toutes les 2 minutes d’un
32
Herbert Simon - Designing Organizations for an Information-Rich World - 1971- The Johns
Hopkins Press
33
Jean-Louis Servan-Schreiber - Contre le stress, le nouvel art du temps - Albin Michel, 2000
voir annexe 1 : entretien avec Eric Scherer
35
Mark Prensky - Les « Digital Natives » (15-25 ans), la génération des autochtones du Web 2001.
36
Source : Innerscope Research, Inc.- 2012 :
http://www.timeinc.com/pressroom/detail.php?id=releases/time_inc_study_digital_natives.php
34
14
15. média à l’autre (Internet, mobile, Télévision..). On parle de mediasnacking (
« checking news content far more frequently for short, sharp bursts of
attention »37) et de multitasking (l’utilisateur est récepteur et émetteur de plusieurs
flux en simultané et sur différents écrans). On picore désormais plus qu’on
analyse.
L’abondance modifie donc l’usage que les consommateurs font de l’information.
Les comportements en ligne sont différents des comportements traditionnels. La
lecture devient même différente : le picorage pousse à une navigation
horizontale, où l’attention se focalise sur les titres, les résumés, plutôt que sur un
contenu vertical. C’est le syndrome du TL:DR, pour Too Long Did Not Read,
acronyme utilisé en ligne pour signifier qu’un contenu ne sera pas lu car
accaparant trop d’attention (et trop de temps) de la part d’un récepteur unique.
C’est le point de Nicolas Carr dans son article « Google nous rend il bête ? »,
publié en 2008 : « même lorsque je ne travaille pas, il y a de grandes chances
que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou
en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les
derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des
podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre
encore. »38
Il déplore le passage à des comportements plus cosmétiques, où l’analyse en
profondeur décroit au profit du survol. Non pas par une logique de paresse mais
car la multiplication des signaux modifie le comportement du lecteur :
«Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la
surface comme un pilote de jet-ski »39
37
Anna Lawlor – 5 ways the listicle is changing journalism -2012
http://www.theguardian.com/media-network/media-network-blog/2013/aug/12/5-ways-listiclechanging-journalism
38
Nicholas Carr – Is Google making us stupid – 2008
http://www.framablog.org/index.php/post/2008/12/07/est-ce-que-google-nous-rend-idiot
39
idem
15
16. D. Vers une fin des moteurs ?
Avec le passage au Web 2.0, les moteurs de recherche ont d’abord pris la place
des annuaires. Les contenus se multipliant, une indexation linéaire est devenu
impossible et la recherche est venue remplacer la consultation (et Google a
détrôné Yahoo).
Mais face à un développement exponentiel du volume des
contenus, les moteurs de recherche traditionnels ne suffisent plus.
Google possède plus de 70 % du marché du search dans le monde.40 Le moteur
de recherche est un bon exemple des limites du modèle. Chaque recherche
Google génère des millions d’occurrence. Les résultats sont basés sur un
algorithme, qui parcoure une gigantesque base de données où sont référencées
les pages Web existantes. Plus une page est mentionnée, via des liens
hypertextes, sur d’autres sites, mieux elle sera notée. Google affiche ensuite les
pages selon leurs notes, et en fonction des mots clés tapés par l’utilisateur. Mais
Google a deux défauts. D’abord, il ne contextualise pas. Il offrira les mêmes
résultats à une requête identique, quelque soit l’utilisateur. Ensuite, la recherche
ne fonctionne que si l’utilisateur connait la question. Il n’y a pas de notion de
découverte.
40
Source : Netmarket Share - 2013
http://www.netmarketshare.com/search-engine-market-share.aspx?qprid=4&qpcustomd=0
16
17. Le moteur a récemment modifié son fonctionnement, en mettant en place en 2012
le knowledge graph (voir figure).
Knowledge graph de Google (capture d’écran)
Google associe aux résultats traditionnels de recherche, des suggestions de
contenus associés. Les associations se font en fonction de liens établis par les
ingénieurs de Google eux mêmes, mais aussi en fonction des recherches
associées à la demande initiale, faites par d’autres utilisateurs. C’est un pas en
avant dans la contextualisation, où le moteur propose des résultats basés sur la
découverte plutôt que sur l’information pure, en proposant des résultats relatifs à
la recherche formulée, en fonction des recherches supposées proches.41 C’est
une porte ouverte vers des informations non demandées initialement par
l’utilisateur.
Du côté de Facebook, on parle de Social Graph, la cartographie des relations de
l’utilisateur au sein du réseau social. En utilisant ce graph, la recherche pourrait
41
Google – Introducing the Knowledge Graph - 2012
http://www.youtube.com/watch?v=mmQl6VGvX-c
17
18. être contextualisée en fonction des connections sociales (le brevet a été déposé
par Facebook en 201142, et le système pourrait être appliqué dans l’avenir sur
Bing, le moteur de recherché de Microsoft). Au lieu de submerger l'utilisateur de
résultats, un service de recherche basé sur ce procédé afficherait un nombre plus
restreints d’occurrences : celles qui sont les plus pertinentes (avec le taux de clics
le plus élevé) pour une communauté précise et non pour l’ensemble des
utilisateurs. C’est l’association à la recherche d’un paramètre de tri « social ».
Mais le social graph n’est pas toujours pertinent, car dans le modèle de
Facebook, l’information est noyée dans les contenus personnels, « et on se
retrouve à mélanger des photos des enfants avec des contenus potentiellement
intéressants » selon Guillaume Decugis.43
Twitter s’associe quant à lui à la notion d’Interest Graph. Au delà de son utilisation
conversationnelle, l’outil fonctionne sur des relations fondées sur des expertises
ou des goûts communs, l’utilisateur suit et est suivi par des tweetos partageant
les mêmes centres d’intérêt.
Associer les connections Twitter à la recherche pourrait permettre d’introduire un
facteur de sélection basé sur les goûts de l’utilisateur. Le ciblage se ferait en
fonction des profils associés, des tweets et retweets, catégorisés grâce aux
hashtags. L’Interest Graph est déjà une réalité, mais du côté de la publicité. En
ouvrant sa plateforme à la réclame, Twitter propose aux annonceurs
une
taxonomie de ses utilisateurs, classés en 350 catégories, en fonction de leurs
centres d’intérêts44.
Mais Guillaume Decugis tempère, en expliquant que l’Interest Graph de Twitter ne
fonctionne pas, parasité par le fait que « les hashtags sont très durs à suivre, car
ils peuvent être bombardés ou au contraire déserts pendant pas mal de temps
45
». De plus, un même émetteur peut s’exprimer sur différents sujets, brouillant
ainsi la cartographie des relations d’intérêt.
42
Pascal Emmanuel Gobry – Facebook patents “curated search” to attack Google - 2011
http://www.businessinsider.com/facebook-search-engine-2011-3
43
voir annexe 3 : entretien avec Guillaume Decugis
Jennifer Van Grove - Twitter launches ‘interest targeting… - 2012
http://venturebeat.com/2012/08/30/twitter-interest-targeting/
44
45
voir annexe 3 : entretien avec Guillaume Decugis
18
19. Une utilisation de ces différents graphs (knowledge, social, interest) permet de
circoncire les résultats en introduisant des filtres, et de contourner le trop plein
d’information en contextualisant. En associant médias sociaux et recherche, on
passe d’une simple fonction d’échange à une fonction de découverte. La
recherche met en avant des résultats issus du réseau de l’utilisateur. Henry
Nothaft parle de « sérendipité sociale46 » (la sérendipité définit le fait de trouver
sans avoir cherché). L’utilisateur se voit proposer des résultats partagés et
populaires dans son environnement, environnement lui même défini par les liens
sociaux ou les centres d’intérêt.
Avant
les
médias
sociaux,
d’autres
solutions
ont
été
envisagées.
Le Web sémantique a été théorisé par Tim Berners-Lee dès 1999. Les
ordinateurs seraient bientôt capable d’analyser et de comprendre les même
informations que les humains. Cette compréhension automatisée passerait par
l’annotation précise des contenus mis en ligne. On passerait à une nouvelle étape
de la folksnomie en ajoutant des métadonnées (aux tags déjà existants)
L’annotation permettrait à la machine de prendre des décisions éclairées en
contextualisant et en liant les données à un algorithme de recherche.
Des outils sémantiques existent, tel que
Wolfram Alpha47 grâce auquel il est
possible d’avoir des réponses à des questions ouvertes. Un quart de son trafic
provient des requêtes sur Siri, l’assistant personnel intégré à l’Iphone48. Ainsi, on
parle de moteur de connaissances plutôt que de moteur de recherche. Le
knowledge graph de Google peut être vu comme une application du Web
sémantique à la recherche classique, en affichant des informations pertinentes
car recherchées par d’autres.
Mais le modèle ne décolle pas: des technologies concurrentes se font la guerre et
on peut également imaginer qu’une annotation contextualisée (et relativement
46
Henry Nothaft Jr - The Myth Of Serendipity- 2010
http://techcrunch.com/2010/11/27/myth-serendipity/
47
http://www.wolframalpha.com/
48
Joe Aimonetti - Siri brings nearly 25 percent of Wolfram Alpha traffic - 2012
http://reviews.cnet.com/8301-19512_7-57372868-233/siri-brings-nearly-25-percent-of-wolframalpha-traffic/
19
20. technique) n’est pas à la portée de tous les utilisateurs. Et face à l’absence de
référentiel commun pour les tags, la création d’un tel outil pour les métadonnées
ne parait pas réaliste. De plus, le fantasme de l’intelligence artificielle capable
d’intégrer des facteurs sociaux, de contexte, de tendance semble inatteignable.
Si les solutions supportées par les algorithmes ne suffisent pas, comment peut on
résoudre le problème de l’infobésité ? Comment offrir une information
contextualisée, pertinente et traitable rapidement ?
Dominique Cardon parie sur un avenir mixte : « ce qui me gêne dans le Web
sémantique, c’est la sémantique pure. Il faut la combiner avec du social. Dans le
futur, je vois un intérêt pour les métriques socio-sémantiques. La sémantique
pourrait simplifier l’accès au contenu, mais en pondérant tout cela par du
social. »49
La recherche est aujourd’hui dominée par les algorithmes. On peut imaginer un
futur où ces « outils froids se rapprocheraient d’outils chauds »50 selon Véronique
Mesguich, fondé sur la cartographie des relations et l’intervention d’un facteur
humain.
49
Pierre Tran – le guide de la curation : les perspectives - 2011
http://pro.01net.com/editorial/530484/le-guide-de-la-curation-(7)-les-perspectives/
50
Sous la direction de Véronique Mesguich - Enjeux et dimensions - Documentaliste-Sciences de
l'Information1/2012 (Vol. 49), p. 24-45.
20
21. III. L’émergence d’une solution
A. Les précédents
Il existe des antécédents à l’idée d’insérer le facteur social dans la recherche et la
découverte de l’information.
Les plateformes de social bookmarking ont ouvert la voie à la pratique depuis plus
de dix ans.
Pour rappel, la fonction des favoris (bookmarks) dans les navigateurs Internet est
un marqueur important. On peut y voir le début d’une prise de conscience de
l’information overload et le besoin d’enregistrer des résultats pour ne pas avoir à
parcourir le Web une seconde fois. Selon une étude de David Wise de 201351,
une grande majorité de personnes (86% sur son échantillon) ont déjà connu ce
moment où on ne parvient pas à retrouver un contenu que l’on a antérieurement
consulté.
Avec le Web 2.0, la fonction des favoris passe du logiciel (le navigateur) au
service (un site). Le social bookmarking consiste à rassembler des liens et les
partager avec une communauté ciblée ou non (on verra plus loin que la curation
repose en partie sur ces idées)
Le premier site de social bookmarking est itList.com dès 1996 (aujourd’hui
disparu). Dans les années 2000 se créent des plateformes, encore existantes,
telles que Stumble Upon (2001) ou Delicious (2003). Ces services en ligne
permettent de surveiller automatiquement des pages sur un sujet donné. Elles
fonctionnent également sur le principe de la folksonomie, Stumble Upon propose
des pages en fonction des tags relatifs aux centres d’intérêt choisis par
l’utilisateur. Celui-ci note positivement ou négativement les pages proposées,
permettant à la plateforme d’affiner les choix. C’est en fait bien une aide à la
découverte, pour faire émerger du contenu que l’utilisateur n’aurait pas cherché,
mais qu’il est susceptible de trouver pertinent.
51
David Wise – Quelles sont les perspectives de la curation de contenu dans le Web 2.0 - 2013
http://www.slideshare.net/DavidWise/les-perspectives-de-la-curation-de-contenu-dans-le-web-20
21
22. Delicious peut être défini quant à lui comme un simple gestionnaire de favoris
indépendant d’un navigateur, où l’utilisateur est en mesure de retrouver ses liens
sans avoir accès à son propre appareil.
Reddit est une évolution de la mouvance du social bookmarking. Evolution dans
laquelle l’aspect social prend une importance plus grande. Les utilisateurs
proposent des liens qui sont soumis aux votes de leurs pairs. Les liens ayant
rassemblés le plus de vote se retrouvent en haut de la page d’accueil du site.
Crée en 2005, le site a été racheté par Condé Nast en 2006. En août 2013, il
dénombre plus de 28 millions de visiteurs52. The front page of the internet, son
slogan, résume bien l’ambition du site : ne cherchez plus, Reddit met en avant
pour vous ce qui buzze sur le Web. C’est un bookmarking collectif où la
communauté dans son ensemble décide de ce qui est bon ou pas. Le site se
divise en subreddits, permettant à l’utilisateur de se concentrer sur les sujets qui
l’intéressent.
Netvibes crée en 2005 permet à l’utilisateur de créer un portail d’accès
personnalisé, en agrégeant, entre autres, les flux RSS des sources choisies, dans
une page unique et aménageable. La concaténation des flux d’informations dans
un lieu unique permet d’agréger l’information et de simplifier le processus de
recherche.
Twitter, on l’a vu, nourrit le Web et participe à l’information overload. Mais, au delà
de son aspect conversationnel, la plateforme peut également être utilisée comme
un outil de gestion de le surcharge d’information. Les utilisateurs peuvent suivre
un tweetos référent sur un sujet donné. Plutôt que d’avoir à naviguer et chercher
l’information au quotidien, le compte Twitter suivi s’utilise comme un filtre qui ne
met en avant que des informations ayants déjà subi un tri (à tempérer avec le fait
qu’un utilisateur peut twitter sur plusieurs sujets différents, comme vu plus haut).
52
Source : Quantcast – 2013
https://www.quantcast.com/reddit.com
22
23. Plus le tri est bon, plus le tweetos est susceptible d’augmenter sa base se
followers.
Ces différents exemples sont déjà des protosolutions à l’infobésité. Une nouvelle
notion est venue définir, étoffer et valoriser de nouvelles pratiques.
B. Un peu de littérature
a. Le manifeste de Bhagrava
En Septembre 2009, Rohit Bhargava, publie sur son blog le manifeste du curateur
de contenu. C’est la première fois que le terme apparait dans le contexte du Web,
et Bhargava en donne la définition: « Un curateur de contenu est la personne qui,
continuellement, trouve, regroupe, organise et partage le contenu le meilleur et le
plus pertinent, sur un sujet spécifique en ligne ».53
Initialement en anglais, un « curator » est « un conservateur de musée »
54
ou par
extension un commissaire d’exposition. C’est à lui que revient la tâche de gérer,
organiser, administrer une collection. Il est également celui qui devra choisir les
pièces mises en avant, et la façon la plus pertinente de présenter et d’exposer les
œuvres sélectionnées. On parlera en français du curateur, ne pouvant se
résoudre au terme de conservateur pour désigner un métier nouveau.
55
Dans un autre article de 2011 , Bhargava distingue 5 types de curation :
L’agrégation : l’action de rassembler l’information la plus pertinente en un seul
endroit. Face à un véritable trop plein d’information en ligne où les moteurs de
53
Rohit Bhargava – Manifesto for the content curator - 2009 : A Content Curator is someone who
continually finds, groups, organizes and shares the best and most relevant content on a specific
issue online
http://www.rohitbhargava.com/2009/09/manifesto-for-the-content-curator-the-next-big-socialmedia-job-of-the-future.html
54
55
Harrap’s Shorter - 2008
Rohit Bhargava – the 5 models of content curation - 2009
http://www.rohitbhargava.com/2011/03/the-5-models-of-content-curation.html
23
24. recherche renvoient à des millions de pages pour n’importe quelle recherche,
l’agrégation consiste à rassembler en un lieu virtuel unique l’information
pertinente sur un sujet donné. La forme la plus commune est le blog, dont les
billets s’apparentent à un catalogue et listent par exemple les meilleures solutions
existantes en ligne pour transformer une photo.56.
C’est la forme la plus simple de la curation. L’agrégation gère le volume et dans
ce cas, même si les source sont pléthoriques, le fait de les rassembler (et donc de
supprimer l’étape de la recherche) apporte de la valeur pour les personnes
intéressées par le sujet.
La distillation : l’information est simplifiée pour être appréhendée plus facilement.
Le curateur va analyser le contenu et le présenter dans un format accessible, où
seules les idées les plus importantes et pertinentes sont partagées. Certaines
parcelles de contenus peuvent être perdues. La valeur de la curation provient du
fait que l’utilisateur confronté à cette information distillée n’a plus besoin de
décortiquer lui même un volume immense de points de vue mais peut consommer
une sélection plus ciblée, déjà à sa portée.
L’élévation : l’information est analysée en termes de tendances générales. Ce
volet de la curation se réfère à l’identification d’une tendance ou d’une idée plus
large a partir des nombreux points de vue mis en ligne. C’est une des formes de
curation les plus ardues car elle demande de l’analyse et de la part du curateur.
Mais elle permet de dégager et de partager de nouvelles idées.
Le mash up : l’information est juxtaposée pour générer de nouveaux points de
vue. On pourrait donner la traduction mélange mais elle ne traduit pas la notion
de valeur ajoutée. Le mash up est emprunté à l’industrie musicale et représente la
fusion de plusieurs morceaux. Fusionner deux contenus existants permet de
dégager un nouvel axe d’analyse et de le présenter à l’utilisateur. C’est une façon
de créer quelque chose de nouveau à partir de contenus existants. Eric Scherer
parle du Web comme d’une culture du remixage.57
56
57
http://www.blogdumoderateur.com/20-sites-pour-transformer-sa-photo/
Voir annexe 2 : entretien avec Eric Scherer
24
25. La curation chronologique : l’information est classée de façon chronologique afin
de clarifier la façon dont elle évolue. L’évolution de l’information dans le temps est
un des aspects de la curation les plus captivants : comment les concepts et leur
compréhension ont changé dans le temps. C’est la combinaison de l’information
au cours du temps et le changement de l’appréhension, sur un sujet donné. Ce
type de curation est très utile sur les sujets dont la perception a changé dans le
temps. De plus, elle permet de mettre en perspective le flux continu d’information
sur le Web.
b. Le modèle de Rosenbaum
Steve Rosenbaum est l’auteur de Curation Nation : How to Win in a World Where
Consumers are Creators58. Il est, à la suite de Bhargava, un des premiers à avoir
théoriser la notion de curation. Il est d’abord producteur de télévision (notamment
pour MTV) et fonde en 2006 magnify.net, une plateforme de curation de vidéo. En
mai 2011, il participe au Social Media Book Club et donne quelques clés sur son
appréhension du phénomène59.
Il met en avant que, jusqu’au 11 septembre 2001 et l’attaque du World Trade
Center, il était un filmmaker. C’est cet évènement qui aurait fait de lui un « content
curator ». Les témoignages autour de l’attaque terroriste étaient si nombreux que
pour en raconter l’histoire il a du endosser un rôle différent que celui qu’il
imaginait. Au lieu de créer son propre contenu, il a du devenir un découvreur et
un filtre.
Les ressources sur le 11 septembre sont pléthoriques. Les photos, vidéos, des
victimes et des New Yorkais présent le jour des attentas déferlent sur le Web et
sur les écrans de télévision du monde entier. Tous les habitants de New York
58
Steve Rosenbaum – Curation Nation…- McGraw-Hill Professional - 2011
Steve Rosenbaum – Social Media Club - 2011
http://www.slideshare.net/socialmediaclub/curation-nation
59
25
26. sont des sources, des émetteurs potentiels d’information sur le sujet. Pour la
première fois le User Generated Content se manifeste.
De plus, Rosenbaum présente le 11 septembre comme le début de la fin du
monopole des médias traditionnels dans la narration (le storytelling), l’acte de
naissance du tous médias : ce ne sont pas les médias qui ont crée les contenus
relatifs aux attentats, mais bien la multitude de témoins.
Dans un article de d’octobre 201360, il énonce cinq règles pour la construction
d’un modèle économique de la curation.
Le public ne veut pas plus de contenus, il en veut moins. Rosenbaum décrit à son
tour l’envahissement du Web par de l’information brute et des données non
contextualisées. C’est sa constatation de l’Infobésité et de l’importance d’y mettre
fin.
Il décrit trois types de curateurs. Les experts ont un background et une
connaissance qui rend leur choix de curation, la sélection des contenus, valides
pour l’audience. Les curateurs éditoriaux gèrent la collecte d’information et sa
diffusion via les sites dont ils sont responsables. Et les passionnés qui se
concentrent sur un sujet donné et analysent le contenu qu’ils sélectionnent par le
prisme de leur centre d’intérêt.
La curation n’est pas un hobby, c’est une vocation et un travail. Les curateurs
doivent être payés. Le juste prix dépend de la pertinence et du poids de la
production du curateur dans sa catégorie. Une base économique est essentielle
et inévitable.
La curation a besoin de la technologie. Il faut créer des outils pour trouver, filtrer
et valider le contenu à la vitesse du Web, en temps réel. La curation ne peut pas
être efficace si elle s’appuie seulement sur une personne utilisant un navigateur. Il
faut une collaboration personne – outil dédié pour proposer une curation
pertinente.
60
Steve Rosenbaum – The Coming age of the curation economy - 2013
http://www.thevideoink.com/features/voices/the-coming-age-of-the-curation-economy-buildingcontext-around-content/ - .Ulq3KiSileI
26
27. Enfin, une curation de qualité, sur des sujets précis, doit émerger pour contrer la
masse du tous médias qui noie le Web de contenu à faible valeur ajoutée.
c. Les best practices de Tran
En France, le journaliste Pierre Tran61 précise les best practices d’un processus
permettant une curation dégageant de la valeur.
Il faut d’abord rassembler des sources allant de simples liens aux flux RSS, en
passant par les réseaux sociaux et les contenus médias au sens large (images,
vidéos, textes).
Puis réaliser une sélection manuelle des contenus. Il souligne l’importance du
facteur humain pour séparer les outils de curations des plateformes de publication
automatique. (Une sélection automatique pourrait être envisageable,
en
imaginant un algorithme base sur des critères de popularité et d’autorité des
différentes sources)
L’éditorialisation du contenu est primordiale : en ajoutant des commentaires, en
mettant en page, et en créant un format de sortie, une page Web thématique,
basée ou non sur des plateformes de curation, et partageable auprès de la cible.
Il envisage également la possibilité d’une curation collective et collaborative.
Enfin, il souligne l’importance d’intégrer la mobilité aux outils, pour proposer des
applications utilisables via smartphone ou tablette (15% du trafic internet global se
fait en mobilité)62.
61
Pierre Tran – le guide de la curation : les pratiques - 2011
http://pro.01net.com/editorial/530072/le-guide-de-la-curation-(2)-les-pratiques/
62
Jean Baptiste Le Roux – Internet : 15% du traffic mondial se fait sur mobile - 2013
http://www.economiematin.fr/ecoquick/item/4940-internet-navigation-mobile-trafic-mondial
27
28. d. La Pyramide de Shey
Timothy Shey est à la tête du YouTube NextLab de Google, à New York. Il
analyse la curation sous forme d’une pyramide à quatre niveaux63, chaque niveau
correspondant à une pratique et une valeur différente.
Le niveau le plus bas est la collecte et l’organisation de l’information. C’est la
création d’un sous ensemble de contenus. Viennent ensuite contextualisation et
mise en ordre : classer et ajouter de l’information basique pour présenter les
sources choisies dans un contexte donné. Le troisième niveau passe par le
création de ce qu’il nomme une brand experience : la notion est applicable à une
organisation médiatique (comme le Huffington Post dont on parlera plus loin). Par
extension, pour un curateur qui serait une personne, on peut parler de signature.
C’est la mise en avant de soi et de sa personnalité, d’une part dans les sources
choisies mais aussi dans l’éditorialisation proposée.
Enfin le dernier niveau est le storytelling. On touche ici la fine ligne qui sépare
journalisme et curation. La curation passe par la transformation, l’écriture, la
modification de la source pour l’intégrer à une narration globale.
Selon Shey, plus l’on monte dans la pyramide, plus la génération de valeur est
importante. La valeur passe par la transformation et l’ajout. Et la forme ultime de
la curation est en fait la création.
C. Définition
Il est important de préciser en quoi la curation diffère de pratiques existantes.
Pour balancer le point de vue de Bhargava, on peut citer Tom Foremski,
64
journaliste et bloggeur américain : « aggregation is not curation, there is a big
difference …curation is about the human Web while aggregation is about
the machine Web ».
Selon lui, l’agrégation est une sélection de sources, qui produisent du contenu. La
curation est la mise en lumière de cette sélection. L’agrégation est une approche
63
voir annexe 2 : entretien avec Timothy Shey.
Tom Foremski – Agregation is not curation…- 2010
http://www.siliconvalleywatcher.com/mt/archives/2010/11/aggregation_is.php
64
28
29. de collecte, opposée ici à une approche de choix. Delicious ou Netvibes sont des
agrégateurs : l’information remonte jusqu’à la plateforme sans nécessiter de tri
humain. C’est en fait l’agrégation automatisée que l’on doit distinguer de la
curation, où le facteur humain est primordial.
De même, la curation n’est pas la veille. Selon Camille Alloing65, les pratiques se
distinguent sur plusieurs points. Scherer qualifie la curation d’outil de veille mais
la veille demande une expertise méthodologique et repose sur des outils
spécifiques. De plus la veille n’implique pas d’éditorialisation ou de mise en scène
de l’information. Le veilleur choisit ses sources dans un contexte d’analyse
stratégique propre à l’organisation dont il fait partie ; le curateur est quant à lui
guidé par ses propres centres d’intérêt.
La motivation est également distincte. A date, la curation n’est pas encore une
activité salariée. Le curateur ne répond pas aux exigences d’un commanditaire.
Sa démarche repose sur un besoin personnel, ou sur un « désir égotique de mise
en valeur de soi »66, propre à la culture du partage du Web 2.0 et des médias
sociaux.
En agrégeant ces différents points de vue, la curation repose donc sur 6 points
clés.
Le premier est le facteur humain. A la suite des outils d’agrégation automatique,
la curation introduit la notion d’un besoin de sélection raisonnée, non plus basée
sur des algorithmes froids mais sur une intervention personnelle. « C’est la mise
en valeur par un choix personnel »67 selon Eric Scherer. La valeur ajoutée passe
par la personnalité du curateur.
Le curateur doit déterminer un sujet précis, une aire d’expertise suffisamment
claire pour devenir un référent visible sur un contenu identifiable.
Ensuite vient la notion d’éditorialisation. La curation n’est pertinente que si elle
ajoute à la somme des sources une information supplémentaire. Le curateur se
doit de proposer à l’audience une mise en lumière des informations qu’il a
65
Sous la direction de Véronique Mesguich - Enjeux et dimensions - Documentaliste-Sciences de
l'Information1/2012 (Vol. 49), p. 24-45.
66
Idem
67
voir annexe 1 : entretien avec Eric Scherer.
29
30. sélectionnées : contextualisation, mise en perspective des opinions et évolution
dans le temps. Le tout est alors supérieur à la somme des parties
La curation répond également à des enjeux de mise en forme. Le curateur, en se
basant sur l’outil de curation de son choix, doit proposer une mise en scène, une
théâtralisation du contenu. L’attractivité passe par la forme. Eric Scherer parle de
« repackaging »68.
La notion de continuité formulée initialement par Bhargava est également
importante. Le curateur se doit de sélectionner à la vitesse du Web. En réduisant
sa contribution à un sujet donné, il est en mesure d’actualiser en continu, en
fonction des ses sources d’information, les contenus qu’il met en avant.
Enfin, la curation se destine à une communauté. Le curateur fait partie de
groupes, sociaux ou d’intérêt. Ces groupes peuvent être fournisseurs de contenus
pour le curateur qui crée de la valeur ajoutée à destination des membres de la
communauté.
Le rôle du curateur s’est donc précisé. On parle d’aiguilleur d’information qui
distribue en fonction des destinateurs, ou de dépollueur de contenus. La meilleure
analogie est celle du DJ (disc-jockey). Il n’est pas un créateur de contenus, mais
crée de la valeur en choisissant, jouant et liant les morceaux de musique les uns
aux autres, pour en faire une suite cohérente et attractive. Le curateur est un DJ
du contenu : il sélectionne, met en avant et crée des ponts entre les informations
qu’il choisit, offrant de nouvelles perspectives à l’audience.
La pratique a évidemment ses détracteurs. Elle ne serait que du vol de contenu
(on verra les implications juridiques plus loin), favoriserait la duplication. Le terme
ne serait qu’une belle enveloppe marketing, un buzzword pour séduire les
investisseurs, ne recouvrant en fait que des pratiques existantes. « Parce que
d’un côté l’internet, c’est le bordel, que y’a plein de contenus, et que de l’autre y’a
des gens qui n’ont pas grand chose à faire de leur vie et qui aiment bien faire
partager ces liens à leurs amis. Ces branleurs sont donc des curateurs »69 (Titiou
Lecocq -2011)
68
69
voir annexe 1 : entretien avec Eric Scherer.
Titiou Lecocq – Non à la “curation - 2011
30
31. Mais c’est un fait, le phénomène existe et fait bouger les lignes. Il provoque un
rééquilibrage de la valeur. Dans un contexte ou l’information est disponible en
masse, « ce n’est plus le contenu qui est roi, mais la curation » (Rosenbaum –
2010) 70 . La valeur se déplace « de l’avalanche de contenus, vers ceux qui
permettent du sens »71.
Dans la continuité du Web 2.0 participatif, les notions d’interventions humaines,
de sociabilité et de partage sont au cœur de ce nouvel usage. Comme l’a écrit
Bhargava, l’algorithme froid ne suffit plus pour répondre à l’appétit de contenus,
nous avons besoin « d’une nouvelle catégorie d’individus »72. Dominique Cardon
définit le meilleur moteur de recherche, comme un « écosystème social dans
lequel émergent les curators, élite parmi ceux qui partagent et qui se démarquent
de part la qualité des contenus qu’ils publient/filtrent ».73
« La curation est la nouvelle recherche qui est elle-même la nouvelle curation. »74
http://owni.fr/2011/02/13/non-a-la-curation/
70
Steven Rosenbaum – Content is no longer king : curation is king - 2010
http://www.businessinsider.com/content-is-no-longer-king-curation-is-king-2010-6
71
voir annexe 3 : entretien avec Guillaume Decugis
72
Steven Rosenbaum – Content is no longer king : curation is king - 2010
http://www.businessinsider.com/content-is-no-longer-king-curation-is-king-2010-6
73
Vincent Lieser – La curation, un usage au Coeur d’une nouvelle revolution du web -2011
http://www.agence-modedemploi.com/buzz/fr/la-curation-un-usage-au-coeur-dune-nouvellerevolution-du-Web/
74
Paul Kedrosky – Curation is the new search is the new curation -2011
http://paul.kedrosky.com/archives/2011/01/curation_is_the.html
31
32. LA CURATION, USAGES ET ACTEURS D’UNE
NOUVELLE PRATIQUE
I. Les outils
A. Grille de lecture
Avec l’émergence de la notion de curation et grâce à une définition plus précise
du métier du curateur, des services web dédiés se sont crées, permettant aux
utilisateurs de mettre en pratique ce nouvel usage.
A la suite du social bookmarking et de Twitter, quelles sont les différentes
plateformes de curation existantes aujourd’hui et comment les classifier ?
Christophe Deschamps a réalisé une étude comparative en 2012
75
(la
classification repose en partie sur les critères définis par Pierre Tran). Deschamps
définit sept catégories de comparaison (elles-mêmes divisées en trente-deux
critères).
-‐
sources
-‐
types de contenus intégrés
-‐
livrables proposés
-‐
optimisation pour l’usage personnel
-‐
aspect social et pratiques collaboratives
-‐
éditorialisation
-‐
moteur de recherche
Comme vu précédemment, la curation répond en amont à des enjeux de gestion
de l’infobésité. Et elle crée de la valeur en aval, dans la contextualisation et la
mise en scène de l’information. On peut donc déterminer deux catégories clés au
sein du classement de Christophe Deschamps.
75
Sous la direction de Véronique Mesguich - Enjeux et dimensions - Documentaliste-Sciences de
l'Information1/2012 (Vol. 49), p. 24-45.
32
33. Il y a d’abord l’input, les sources d’alimentation gérées par la plateforme. Le
critère juge la façon dont l’outil permet à l’utilisateur d’agréger du contenu et dans
quelles mesures la détection (ou la découverte) de l’information est facilitée. On
balaye un éventail de sources d’abord purement externes que le curateur choisit
de rassembler manuellement sur sa page ; puis internes qui peuvent être choisies
manuellement ou via les recommandations de la plateforme (en fonction des mots
clés ou tags choisis par le curateur, indiquant à la plateforme qu’il souhaite être
averti de contenus relatifs au sujet). L’outil peut également proposer l’intégration
des flux issus des réseaux sociaux ou d’agrégateurs déjà existants.
La question des inputs répond au défi de gestion de la surcharge informationnelle.
Et ces entrées constituent la matière première pour le curateur, la glaise qu’il va
sculpter pour proposer une sélection pertinente.
Ensuite, l’output : comment la plateforme aide à apporter de la valeur ajoutée à la
simple agrégation. Quel est le packaging proposé par l’outil ? Les meilleurs
services doivent offrir des options d’ éditorialisation, de personnalisation, et
d’ajout de commentaires aux contenus existants.
Le packaging est un enjeu à la fois sur la forme (proposer un affichage clair,
pédagogique et se démarquer de la source originale du contenu) et sur le fond
(offrir la possibilité de contextualiser en ajoutant de l’information en plus du
contenu original).
33
34. Ci dessous quelques données sur trois des plateformes les plus intéressantes,
proposant des services de curation pure:
Nom (création)
Origine
Impact
Scoop.it76 (2010)
France
7 millions de Création d’un 2.6 millions de dollars
VU mensuels
Pearltrees77 (2008)
France
2
d’UA
Pinterest78 (2010)
USA
70
d’UA
Offre
Note
magazine
millions Mapping
de levée de fonds
de 11.5 millions de dollars
contenus
millions Curation
visuelle
de levée de fonds
3.8 milliards de dollars
de valorisation
B. Le véritable interest graph
L’offre de ces plateformes de curation est bien le interest graph, mentionné
précédemment. En fonction des choix de l’utilisateur, relatif à des goûts, des
centres d’intérêt et non des personnes, l’outil propose des contenus. Ces
contenus sont mis en avant, soit par d’autres utilisateurs
soit de manière
automatique. C’est donc bien un modèle de découverte, débarrassé du biais
social. Les contenus sont filtrés, non pas en termes d’individus mais en termes de
sujets. Scoop.it est organisé par thématiques. Pearltrees propose des contenus
reliés aux sujets choisis par l’utilisateur. Et Pinterest, offre de
suivre des
« boards » classés par thèmes. On évite l’écueil de Twitter où un même référent
peut discuter de sujet différents79.
Ces modèles fonctionnent grâce à la notion de humanrithm. La bataille entre
l’algorithme et l’humain se solde par une association. Sur Scoop.it par exemple,
un algorithme sémantique crawle plus de dix millions de pages web chaque jour
et vient proposer aux utilisateurs des contenus pertinents. Mais encore une fois
76
Philippe Guerrier – Scoop.it lève 2.6 millions de dollars - 2013
http://www.itespresso.fr/curation-scoop-it-leve-2-6-millions-de-dollars-66735.html
77
Francis Bea - Pearltrees launches Android app, makes leap into…-2013
http://www.digitaltrends.com/social-media/pearltrees-file-management/
78
Source : Semiocast - 2013
http://semiocast.com/fr/publications/2013_07_10_Pinterest_has_70_million_users
79
voir annexe 3 : entretien avec Guillaume Decugis.
34
35. c’est l’humain qui fait le choix de ses publications. La recherche est automatisée
pour venir faciliter une publication qui, elle, reste humaine.
Les curateurs soutenus par ces nouveaux outils, produisent de la découverte, ils
répondent à la problématique du I don’t know that I don’t know80. Google et les
moteurs offrent une réponse à une question précise.
La curation permet de
mettre la main sur une information dont on ne connaît pas forcement l’existence.
II. Qui sont les curateurs ?
A. Les personnes
Les outils existent, ils permettent donc de trier, mettre en avant et éditorialiser une
information pertinente avant de la partager. Mais quelle est la motivation des
curateurs quand ils ne sont pas des professionnels rémunérés ?
La découverte est un enjeu pour les personnes. Scherer parle du « tous
medias », dans une perspective de production de contenus, les services du web
2.0 faisant de tous les utilisateurs des émetteurs. Au regard de cette constatation,
se pose la question de la visibilité (intimement liée à l’attention mentionnée
précédemment). « Every one of you is a media company » selon Gary
Vaynerchuk 81 , entrepreneur américain. Produire du contenu est un moyen
d’exister et d’être visible. La surcharge informationnelle s’applique également aux
personnes : proposer son input est un moyen de se faire une place sur Internet.
En restant passif, le risque est de se retrouver noyé dans le volume.
On peut parler de personal branding ou de réputation. Chacun peut être émetteur,
grâce aux outils existants : mais Vaynerchuck, contrairement à Scherer parle plus
d’une nécessité que d’une option.
80
idem
Gary Vaynerchuk – Every single one of you is a media company -2013
http://www.garyvaynerchuk.com/every-single-one-of-you-is-a-media-company/
81
35
36. Dans un modèle horizontal, la force de frappe est censée être la même pour tous.
Si les acteurs organisationnels (entreprises, institutions) peuvent allouer des
ressources pour soutenir leur part de voix (par le biais de la publicité ou via leur
propre site), la problématique est différente pour les individus. Il est inimaginable
de créer et d’acheter des espaces publicitaires sur Internet afin de promouvoir sa
marque personnelle. En revanche, on peut analyser les réseaux sociaux et
désormais les plateformes de curation comme des outils de support au personal
branding.
L’internaute est à la recherche de visibilité. Il bâtit alors sa réputation sur l’image
qu’il renvoie via les réseaux sociaux. C’est le principe même de Twitter. La
plateforme permet de se créer une réputation en mettant en avant un type de
contenu donné. En agrégeant des informations, en suivant les bons influenceurs
(et en étant suivi par eux, tel un échange de bons procédés), l’internaute construit
sa marque personnelle. Il peut ainsi être visible sur la toile, donner son avis et
surtout partager son expertise.
La curation est une offre qui répond également à cet enjeu. Produire du contenu
n’est pas à la portée de tous, le sélectionner et le contextualiser est un moyen
plus accessible de gagner en visibilité. (c’est le positionnement de Scoop.it). La
proposition repose sur le constat qu’un grand nombre de personnes veulent (et
doivent, selon Vaynerchuk) s’exprimer. Mais tous n’ont pas les ressources (le
temps en premier lieu) pour écrire de façon régulière un article ou un post de
blog. Dès lors, la curation est un moyen facilité de se faire une place au soleil sur
le Web. Les curateurs peuvent mettre en lumière leur savoir sur un sujet donné,
avec un effort limité.
De plus, la curation, au sein de l’ensemble des outils de publication du Web,
répond à un besoin plus large, cristallisé par les réseaux sociaux. Je partage donc
je suis. « Les réseaux sociaux sont devenus la tuyauterie du bouche à oreille
dans notre société » selon Vaynerchuk82. Il faut amener de la valeur au client final
82
Gary Vaynerchuk – Every single one of you is a media company -2013
http://www.garyvaynerchuk.com/every-single-one-of-you-is-a-media-company/
36
37. (consommateur, client, ou employeur potentiel) en apparaissant comme un
participant au flux. La participation assure la capacité à être découvert, à exister
parmi la multitude. Pouvoir justifier d’un certain nombre de followers, sur Twitter
ou sur son compte Scoop.it apparaît comme un argument de valeur, une preuve
d’existence.
C’est aussi le point de Benoit Raphael pour qui la curation vient donc seulement
« préciser, démocratiser une tendance naturelle du web permise par les outils
existants et accessibles à tous, plus seulement aux medias et aux producteurs
traditionnels de contenu ».83
Selon Dominique Cardon, la curation est avant tout un acte expressif, qui permet
de se définir sous le regard des autres. On touche là à une limite de la pratique,
entre besoin de reconnaissance et pertinence des contenus, comment jauger de
la qualité de la curation ? C’est à nouveau la formulation d’une confusion entre
communication, opinion et information.
B. Les journalistes et médias d’informations
Selon Fabrice Frossard, « la curation telle qu’on l’entend, c’est la base du métier
de journalisme »84.Dans un passé, pas si lointain, avant l’arrivée d’Internet et du
phénomène de disrupted publishing 85 , la recherche, le tri et la sélection de
l’information (que l’on peut assimiler au choix et au recoupement des sources)
était un savoir faire journalistique.
Et Scherer de présenter l’arrivée de la fonction de curateur comme une menace :
« La dernière valeur ajoutée, difficilement copiable du journaliste, c’est cette
fonction de tri, de vérification et de hiérarchisation de l’information. S’il y a des
gens qui ont du talent pour produire de la curation, et qui ont le temps de le faire
83
Melissa Bounoua – la curation nouvelle tarte )-à la crème du web -2011
http://www.20minutes.fr/web/666430-web-la-curation-nouvelle-tarte-creme-web
84
Fabrice Frossard – Au secours, j’ai un avis sur la curation - 2010
http://balises.info/2010/10/16/au-secours-j’ai-un-avis-sur-la-curation/
85
Gary Vaynerchuk – Every single one of you is a media company -2013
http://www.garyvaynerchuk.com/every-single-one-of-you-is-a-media-company/
37
38. (le journaliste a le temps de la faire car il est payé pour ça), il est sûr que le
journaliste sera mis en difficulté sur une de ses missions essentielles »86.
Dans le nouvel environnement horizontal du Web, les outils d’accès à
l’information, la publication et la visibilité sont accessibles à tous. Tous les
utilisateurs deviennent donc potentiellement journalistes et médias (moyen de
diffusion, de distribution ou de transmission de signaux porteurs de messages)87.
« Aucune rédaction n’a les moyens de concurrencer les millions de portables qui
sont dans nature »88 selon Eric Scherer.
Le journaliste qualifié fait face à une multitude d’observateurs amateurs avisés,
qui ont potentiellement plus d’informations sur un sujet donné. Le modèle vertical
n’existe plus et le gatekeeper traditionnel n’a plus le monopole de la crédibilité.
En parallèle de cet éclatement des émetteurs, journalistes et medias doivent faire
face à une crise de légitimité. C’est le syndrome du tous pourris. « Les citoyens
sont toujours plus prompts à dénigrer les pouvoirs institutionnels…les grands
médias dans leur forme institutionnelle, auxquels, ils font de moins en moins
confiance »(Deslandes - Fonnet - Godbert, 2009)89. La presse écrite traditionnelle
paie les conséquences de ce double changement.
A contrario, l’information overload peut être perçue comme une vrai opportunité.
Le foisonnement des émetteurs (dont une grande partie sont des amateurs, non
rémunérés) est aussi une chance pour un journaliste, payé, de multiplier les
sources et de construire une information nourrie et pertinente.
Dans une logique de temps, les curateurs sont autant de défricheurs au service
du journaliste. L’étape de la recherche, de l’agrégation des résultats en un seul
lieu n’est plus à la charge du professionnel, ce dernier peut se reposer sur le
travail déjà réalisé par le curateur. Le curateur (au même titre que son ancêtre le
blogueur) est souvent un expert sur son domaine et rassemble lui même les
sources pertinentes. Rassemblement dont pourra bénéficier le journaliste.
86
voir Annexe 1 : entretien avec Eric Scherer
Robert- 2006
88
Anonyme – Eric Scherer : tout le monde devient un média aujourd’hui – obsweb.net – 2012
http://obsweb.net/2012/11/30/eric-scherer-tout-le-monde-devient-un-media-aujourdhui/
89
Ethique des medias sociaux et économie de la participation. Vers une approche éditoriale ? Une
etude comparative – Global media journal Canadian Edition, 2009
87
38
39. Si le curateur est donc d’abord un concurrent, il n’en reste pas moins soluble dans
le journalisme, comme une source. Et les plateformes dédiées peuvent être
utilisées, à la fois comme des outils back office par le journaliste et comme un
agrégat de sources contextualisées.
Cependant, on peut aussi voir dans le principe du journaliste de curation une
menace sur la diffusion de l’information.
Il y a un risque de cohabitation entre deux types d’informations. D’une part, une
information de curation qui ne serait qu’un « best of » de contenus agrégés (un
« RMI de l’information » selon Bernard Poulet90) et dont l’accès serait gratuit. Et
d’autre part, le journalisme d’investigation, qui repose sur un modèle différent : un
travail de recherche et de recoupement sur le long terme et dont l’accès serait
payant, via un abonnement, ou par l’achat d’articles à l’unité.
La curation repose sur un modèle économique bien plus léger que le journalisme
de fond. Collecter est évidemment moins onéreux que créer de l’information.
Comme le souligne Fabrice Froissard : « Les éditeurs, petits ou grands, sont tour
à tour pris dans le cercle vicieux d’une chute d’audience progressive qui les
conduit à réduire le nombre de journalistes, ce qui a pour conséquence de réduire
la proposition éditoriale et donc, mécaniquement, le nombre de lecteurs et
incidemment la surface publicitaire. Publicité qui représente en moyenne plus de
50 % des revenus des titres de presse. »91
Dans un modèle économique en difficulté, il est donc plus facile de se focaliser
sur le modèle de la curation que sur celui de la création. La curation peut être vue
comme un moyen de diffuser du contenu à moindre coût.
90
Bernard Poulet – Une Information à deux vitesses - 2013
http://www.lemonde.fr/idees/article/2013/09/15/une-information-a-deuxvitesses_3477839_3232.html
91
Sous la direction de Véronique Mesguich - Enjeux et dimensions - Documentaliste-Sciences de
l'Information1/2012 (Vol. 49), p. 24-45.
39
40. Une nouvelle forme de média d’information en ligne a donc émergé depuis le
milieu des années deux mille. Ces pure players (présents uniquement en ligne)
démontrent la viabilité du modèle de la curation pour les médias.
a. Le Huffington Post
Le Huffington Post, lancé en 2005, a été le premier. Initialement, le contenu
proposé n’est pas, comme dans le cas d’un média traditionnel, crée par un pool
de journalistes payés par l’organisation. Le Huffington Post repose sur une
communauté de trois mille contributeurs, indépendants (anonymes ou très
connus, de Hilary Clinton à Madonna) qui nourrissent le site.
Quelle est la valeur pour ces contributeurs ? C’est du donnant-donnant. Le site
crée une situation de « win-win » où le contributeur s’offre une visibilité via le
média. Et l’équipe de journalistes du site se consacre à choisir les contenus
qu’elle veut mettre en avant, soit écrits directement pour le journal, soit en les
recueillant sur des supports existants.
La valeur créée par le site se fonde bien sur la définition de la curation. C’est le
choix et la mise en avant des sources qui attirent le lectorat. En complément
l’équipe de journaliste (existante mais réduite) analyse et contextualise. Dans la
pyramide de Tim Shey, le Huffington Post incarne l’étage de la brand experience.
L’article de Rosenbaum sur les 5 règles de la curation (cité plus haut) a ainsi été
republié sur le Huffington Post, à la suite de sa première sortie sur le site Videoink
(ce dernier étant évidemment mentionné comme source originale).
Le pendant de cette communauté de contributeurs est la communauté formée par
l’audience (plus de 3 millions de followers sur Twitter et plus de 1.2 millions de
likes sur Facebook) Le média joue la carte des réseaux sociaux depuis le début et
« les contenus du Huffington Post sont édités pour être percutants, intéressants et
tentants à partager »92. La stratégie est payante. Début 2013, 18% du trafic du
92
Guillaume Decugis – Ce que l’acquisition du Huffington Post veut dire pour les médias – 2011
40
41. site provient de Facebook (contre 11% de Google), poussé par la création de
contenu viral et l’offre de boutons de partage sur le site. 93
En février 2011, le site a été racheté par AOL pour 315 millions de dollars.
b. Buzzfeed
Buzzfeed est un autre exemple de la curation comme modèle de création
d’audience. Il a été cofondé par Jonah Peretti (co-fondateur du Huffington Post)
en 2006.
A l’origine, Buzzfeed agrège du User Generated Content et crée des listes sur
des thématiques variées et insolites (« 36 choses que toutes les filles aiment en
2013 »)94. On parle de listicles, mot valise issu de la fusion entre liste et article.
Les images, vidéos, GIFs (Graphics Interchange Format), et autres memes sont
glanées sur le web et rassemblés puis éditorialisés. Plus que de créer, il s’agit
avant tout de sélectionner et mettre en avant, en proposant une mise en forme
attrayante.
Après avoir construit une audience sur un modèle de curation de contenus bon
marché (l’agrégation implique une processus simple et peu couteux en
ressources humaines), Buzzfeed est passé à la vitesse supérieure. En janvier
2012, le site débauche Ben Smith, très respecté bloggeur du site Politico pour en
faire son rédacteur en chef. C’est un tournant pour le média qui va commencer à
créer son propre contenu, misant sur une audience déjà existante. Le virage de la
création s’amorce suite à la construction d’une audience via la curation.
Smith qualifie Buzzfeed de « première social news organization, qui tient compte
de la diffusion et du partage croissant de l’information par Twiter, Facebook et les
http://www.journaldunet.com/solutions/expert/49635/ce-que-l-acquisition-du-huffington-post-veutdire-pour-les-medias.shtml
93
Ryan Spoon – FaceBook drives 19% of Huffington Post traffic - 2009
http://ryanspoon.com/2009/05/04/facebook-drives-19-of-huffington-posts-traffic/
94
Lyddie Barret – 36 things every 2013 girl loves - 2013
http://www.buzzfeed.com/lyddiebarrett/36-things-every-2013-girl-loves-dinz
41
42. autres réseaux sociaux »95. La notion de contenu à partager vient définir la ligne
éditoriale du site où l’on crée du contenu qui doit devenir une conversation sur les
réseaux sociaux : « on ne vient pas sur Buzzfeed pour lire, on y vient pour
partager des contenus», explique Ben Smith96. Pour le site, les médias sociaux
sont eux mêmes une source d’inspiration, selon Peretti: “ Beaucoup du travail des
éditeurs de Buzzfeed sont des conversations à propos des accroches ou des
sujets dont les gens parlent sur 4chan et Reddit » 97.
Le site est construit pour favoriser la viralité. Tous les contenus ont un score de
partage visible (les partages et likes sur Facebook et les tweets relatifs au
contenu sont affichés). Et chaque listicle propose des boutons de partage sur ces
mêmes réseaux sociaux (voir figure).
Buzzfeed : scores et boutons de partage (capture d’écran)
95
Sous la direction de Véronique Mesguich - Enjeux et dimensions - Documentaliste-Sciences de
l'Information1/2012 (Vol. 49), p. 24-45.
96
Alice Antheaume - Buzzfeed au pays des merveilleux contenus sociaux – 2012
http://blog.slate.fr/labo-journalisme-sciences-po/2012/12/08/buzzfeed-au-pays-des-merveilleuxcontenus-sociaux/
97
Farhad Manjoo - How To Make a Viral Hit in Four Easy Steps -2012
http://www.slate.com/articles/technology/technology/2012/06/_21_pictures_that_will_restore_your
_faith_in_humanity_how_buzzfeed_makes_viral_hits_in_four_easy_steps_.html
42
43. Et c’est un cercle vertueux. Le contenu vient de la communauté. Buzzfeed se
charge de le rassembler, de le mettre en forme et l’offre ensuite pour que cette
même communauté puisse le partager. Et plus le partage est large plus la valeur
augmente pour Buzzfeed qui voit son trafic augmenter.
Buzzfeed est entièrement financé par la publicité, sous forme de contenus
proposés par des marques. Il n’y pas de bannières classiques, mais des
dispositifs que le site appelle des advertorials. Les sponsors paient pour
sponsoriser des listicles (qui apparaissent comme « proposés par » la marque,
offrant un support sur un format facilement partageable sur les réseaux sociaux.
Le media payant permet dans un second temps de générer du média gagné - on
parle de « paid media » et de « earned media ». Le « earned media » et
l’exposition dont bénéficie une marque à travers d’autres sources que celles
générées par l’entreprise. Il s’oppose au « paid media » (publicité traditionnelle) et
au « owned media » (exposition via les supports que la marque possède (son site
web par exemple).
Le site joue donc sur deux aspects de la curation. D’une part, il a crée un modèle
économique léger en étant lui même un curateur de contenus, en agrégeant des
éléments de User Generated Content issus des réseaux sociaux. D’autre part, il
offre un contenu partageable que des utilisateurs seront à même de récupérer et
diffuser eux mêmes.
L’audience de Buzzfeed explose (20 millions de VU en juillet 2013 selon
comScore) et le site a annoncé son arrivée en France.98
Ces deux exemples déploient des stratégies de curation comme une réponse au
media « snacking » (picorage, expliqué plus haut). L’offre s’incarne dans des
contenus faciles à consommer, que la cible est à même de partager. Le facteur
social est intégré dans le modèle économique.
98
Alexandre Piquart – Buzzfeed, l’étoile montante…-2013
http://www.lemonde.fr/technologies/article/2013/11/04/buzzfeed-l-etoile-montante-des-pureplayers-du-web-americain-lance-sa-version-franc_3507632_651865.html
43
44. C. Industrie de l’Entertainment
La curation est également un business model pour les producteurs de contenu
d’Entertainment. Le modèle n’a pas été crée avec le web : Tim Shey cite MTV
comme un des premiers exemples de curation offline99.
MTV (Music TeleVision) est crée en 1981 à New York. Elle est la première chaîne
musicale. A ses débuts, elle ne diffuse que des clips musicaux. Autrement dit, elle
agrège un contenu qu’elle n’a pas produit elle-même. Elle package ce contenu
dans un habillage (une mise en scène) portant ses propres couleurs. Et elle vend
des interstices publicitaires aux annonceurs. En 1984, MTV se lance dans la
production de contenus, avec la première édition des Vidéos Music Awards (à
noter que les premiers YouTube Music Awards ont eu lieu le 3 novembre dernier).
Elle sera rachetée l’année suivante par Viacom. Aujourd’hui, MTV Networks
(Etats-Unis, Europe,
Amérique Latine et Asie) contrôle 111 chaînes et 94
sites web qui couvrent 167 pays.
Qu’a fait MTV à ses débuts, sinon de la curation de contenus ? La chaine a
construit son audience sur la sélection qu’elle proposait. L’audience a augmenté
ainsi que les revenus publicitaires. MTV a ensuite pu se lancer dans la création
de contenus. Elle est passée d’un modèle économique de curation à un modèle
de création.
Sur le web, on peut parler du modèle offert par YouTube à ses utilisateurs. La
plateforme vidéo est avant tout dédié aux créateurs de contenus et est un des
rares exemples où les créateurs sont rémunérés via la diffusion online.
Les
publicités servies sur les vidéos génèrent du revenu que se partagent les
créateurs et la plateforme.
Depuis 2012, la plateforme s’organise autour de chaînes, auxquelles les
utilisateurs peuvent s’abonner. Les chaînes offrent des programmes cohérents, et
YouTube met à jour la page d’accueil (personnalisée) avec les nouveautés des
chaînes auxquelles l’utilisateur a souscrit.
99
voir annexe 2 : entretien avec Timothy Shey.
44
45. C’est un premier pas en avant vers une organisation contextualisée de YouTube,
une forme de curation100 où le site met en avant les contenus relatifs aux intérêts
de l’audience.
Mais, en sus de la création, YouTube offre la possibilité de créer des playlists.
Tout utilisateur peut agréger des contenus qui ne sont pas les siens (sans pouvoir
en tirer profit bien évidemment). Au même titre qu’un blogueur ou un tweetos peut
se poser en référent sur un sujet en mettant en avant du contenu, un utilisateur de
YouTube peut également devenir incontournable en se consacrant à creuser la
plateforme pour trouver des contenus pertinents sur un sujet défini.
Le modèle ne propose pas encore de rémunérer les “curators” créateurs de
playlist (tout le revenu publicitaire restant distribué aux propriétaires des droits).
Comme le dit Tim Shey, aujourd’hui « il y a des millions de gens sur le Web prêts
à faire de la curation gratuitement ».101
Ray William Johnson, 3ème chaîne la plus souscrite sur YouTube avec plus de
10 millions d’abonnés (à titre de comparaison la première chaîne française réunit
3 millions d’abonnés et la chaîne officielle de la ligue 1 en compte 220 000) a fait
de la mise en avant de contenu tiers son fond de commerce. Il rassemble des
vidéos mises en ligne par des anonymes sur la plateforme et crée un format où il
commente ces extraits vidéos. La propriété intellectuelle du format lui appartient
et c’est lui qui récolte les fruits de ce choix et de sa mise en valeur. A noter que le
modèle de Ray William Johnson fonctionne tant que les créateurs des vidéos
originales ne réclament pas leur droit sur le contenu, et grâce à une utilisation
extensive de la notion de fair use dont on reparlera plus loin.
Autre exemple : Vsauce. Vsauce est aujourd’hui une chaîne de vulgarisation
scientifique. Le présentateur Michael Stevens, écrit, tourne et post produit luimême toutes ses vidéos répondant à autant de questions étonnantes que « que
100
Steven Rosenbaum – YouTube reveals a curated future – 2012
http://www.forbes.com/sites/stevenrosenbaum/2012/10/10/youtube-reveals-a-curated-future-2/
101
voir annexe 2 : entretien avec Timothy Shey.
45
46. se passerait il si tout le monde sautait en même temps ?102». Vsauce culmine à
plus de 5 millions d’abonnés.
Stevens a construit son audience en insérant des commentaires face camera
entre deux captures d’écrans de jeux vidéos provenant de vidéos YouTube
appartenant à d’autres utilisateurs. Il a bien construit son audience sur la curation.
Désormais, il produit son contenu, en utilisant des sources variées mais dans un
format original avec un véritable script. On peut parler de création originale.
Michael Stevens, en plus des revenus qu’il tire de YouTube, est aujourd’hui une
véritable personnalité médiatique et intervient au TED.
YouTube a donné naissance à un véritable écosystème. Dans l’environnement de
la plateforme, se sont crées des entreprises : les multichannel networks (MCN).
Ces agrégateurs rassemblent des chaînes YouTube sous leur ombrelle et
proposent des services de vente d’espace, de développement d’audience, de
collaborations entre leurs affiliés en échange d’une part du revenu publicitaire.
Cette agrégation leur permet de disposer d’un nombre important de programmes.
Sur YouTube, le business model de certains MCNs pourrait s’apparenter à de la
programmation, que l’on peut assimiler à de la curation sous licence. La sélection
opérée fait glisser une part de la valeur depuis le créateur vers le curateur.
On le voit donc, à la fois pour l’information et l’Entertainment, la curation est
d’abord un moyen de créer une audience. Elle a permis à la chaîne MTV de
devenir le mastodonte qu’elle est aujourd’hui. En ligne, Buzzfeed, le Huffington
Post et les créateurs YouTube ont utilisé la sélection de contenus comme une
première étape vers des ambitions créatrices. L’audience générée par la curation,
modèle économique moins exigeant, permet de créer du revenu ou de la visibilité
et de se lancer dans la création, certes plus couteûse mais beaucoup plus
rémunératrice.
102
http://www.youtube.com/watch?v=jHbyQ_AQP8c
46
47. D. Les marques
Dans le bruit ambiant, être visible est également un enjeu pour les marques. Il est
primordial d’assurer une présence sur le web, et d’y attirer l’attention des
internautes qui sont également des consommateurs. Les marques ont bien
compris le défi: laquelle peut aujourd’hui avouer ne pas avoir de site web ?
Mais la présence sur Internet va au delà du simple site marchand ou
promotionnel.
Il faut revenir ici sur la notion de brand content. On peut se baser sur la définition
de Nicolas Bordas, Vice-Président de TBWAEurope : « Le brand content est
l’ensemble des contenus et produits diffusés par une marque au nom de l’idée qui
l’anime »103. L’idée ne date pas de l’ère digitale et on peut voir le guide Michelin
(crée en 1900) comme la première expression du brand content. Il s’agit pour la
marque d’être présente et de proposer un contenu qui soit plus large que sa
simple offre commerciale. Jouant sur le terrain du marketing et de la
communication la marque offre (de façon gratuite sur le web) des contenus à une
audience. Il s’agit pour elle d’être associée à un message, à une idée, et plus
largement à des valeurs.
L’enjeu n’est pas de vendre un produit ou un service mais d’occuper l’espace
médiatique en étant présent lorsque le consommateur-internaute recherche des
contenus sur une thématique donnée.
Un des exemples les plus pertinents est la marque RedBull. La boisson
énergisante s’est depuis longtemps positionnée sur le créneau des sports
extrêmes, grâce à une multitude de site et à une chaîne YouTube (3 millions
d’abonnés). Le contenu proposé est si bon que RedBull peut même se permettre
de le vendre (en DVD ou de façon dématérialisée sur Itunes).104
103
Nicolas Bordas – Et si on demystifiait triplement le brand content - 2011
http://www.nicolasbordas.fr/archives_posts/et-si-on-demystifiait-triplement-le-brand-content
104
Anonyme - Dossier special brand content - 2012
http://www.vanksen.fr/blog/dossier-special-brand-content-2/
47
48. La marque est un réfèrent pour les adeptes de sports extrêmes et hormis
l’omniprésence de son logo, il n’est jamais question du produit sur ces différents
supports.
Une distinction existe entre branded content et brand content. Le brand content
consiste à créer du contenu de toute pièce ; on l’oppose au branded content où la
marque se rapprocherait de contenus existants. On voit bien que le premier
soulève des enjeux de ressources et de temps (il faut créer ou soutenir la
production) alors que le second est facilement associable à de l’opportunisme,
toujours dommageable pour la marque et son message.
Dans sa quête de visibilité, la marque utilise également les relations presse. Elle
délivre de l’information aux journalistes, pour renforcer sa présence médiatique et
son rayonnement : travailler sa notoriété, valoriser son image, accroitre le trafic
sur les sites et les points de vente ou gérer une crise.
La curation pour les marques émerge sur le web. Si cette pratique nouvelle se
confirme, au même titre que pour les relations presses, la marque devra intégrer
la relation curateur à son mix de communication. Elle devra s’assurer de toucher
ces prescripteurs d’informations, et que son message soit relayé par les
défricheurs, dont la réputation crédibilise l’émetteur initial (au même titre que les
journalistes).
Il n’est pas ici question pour la marque de faire de la curation elle même mais
d’être prise en compte comme un fournisseur crédible de contenu par les
curateurs
a. La marque curatrice
Mais la marque peut aussi franchir le pas et décider de devenir elle même un
curateur sur un sujet donné.
On peut souligner à nouveau que la curation, par opposition à la création de
contenu, est un outil de communication beaucoup plus accessible.
Créer du
48
49. contenu demande du temps et des ressources dédiées. Une fois l’offre de
brand content lancée, il faut pouvoir la nourrir et la mettre à jour. En particulier
sur le web où la visibilité passe par l’actualisation et où rester statique condamne
à la disparition.
La curation (au delà de la simple sélection, mais associée à l’éditorialisation et la
mise en scène de l’information) demande moins de temps que la création et il est
donc plus facile de proposer du contenu régulièrement.
De plus, pour bénéficier du Web comme média social, il est toujours valorisant
pour une marque de proposer des points de vue variés sur un sujet (dans une
certaine mesure).
Donner de la place à des opinions diverses permet de
d’affranchir du « syndrome Monsato » où la marque apparait comme le grand
méchant loup.
Au même titre que pour les individus ou les entreprises journalistiques, l’enjeu de
la curation pour la marque est d’abord de capter l’attention d’un internaute
toujours plus difficile à fixer. Et dans un second temps de lui donner envie d’aller
plus loin dans sa relation avec l’émetteur.
La visibilité sur le long terme réclame de se positionner comme un émetteur de
contenus de qualité pour devenir une destination sur le web et un référent sur un
sujet. Mettre ce contenu à disposition d’une communauté attachée à la marque,
c’est éviter à tout prix la stratégie du no comment sur un sujet auquel on veut se
rattacher.
La marque se doit d’être visible comme un émetteur si son consommateur
recherche de l’information. Elle doit apparaitre comme une porte d’entrée légitime
vers les contenus relatifs à un sujet. « Dans une économie de l’attention, la
curation est une opportunité, un service clé pour générer de l’audience autour
d’une marque. Les marques ont un rôle à jouer en aidant les gens à trouver les
bonnes choses » (Steve Rubel -2009)105 .
105
Steve Rubel - Brands Have a Role to Play …- 2009
http://adage.com/article/steve-rubel/digital-marketing-brands-digital-curators/140674/
49