OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le Français numérique http://owni.fr/2011/11/08/inria-tns-sofres-les-francais-et-le-numeriqu/ http://owni.fr/2011/11/08/inria-tns-sofres-les-francais-et-le-numeriqu/#comments Tue, 08 Nov 2011 17:40:52 +0000 Media Hacker http://owni.fr/?p=86186 C’est une première en France : un organisme public, l’Institut national de recherche en informatique et en automatique (Inria), associé à un institut de sondage (TNS Sofres), propose une étude sur les perceptions qu’ont les Français du numérique, et établi une typologie. Elle est complétée par une application qui vous permet de répondre également aux questions de l’étude, afin d’établir votre profil.

Cette enquête qualitative, réalisée à partir d’entretiens en “face à face” sur un panel de 1 200 personnes, dessine les contours de perceptions paradoxales, entre optimisme et craintes. Si 80% des personnes interrogées reconnaissent que le numérique permet une plus grande ouverture sur le monde, elles sont 92% à faire de la protection de la vie privée sur Internet une priorité lorsqu’on les interroge sur leurs attentes liées au numérique. L’encadrement de l’utilisation par les plus jeunes arrive en deuxième position, avec 89%.

“Augmenter sa vie”

La perception du numérique, globalement positive, semble avoir évolué avec l’arrivée massive des smartphones et d’Internet dans les foyers français. Comme l’a fait remarquer le sociologue Dominique Cardon, invité à commenter l’étude au cours de la conférence de presse de présentation, le changement de sémantique est en soi important. Là où en parlait il y a encore quelques années d’ “informatique”, on parle aujourd’hui de “numérique”. Si l’informatique était considérée comme une culture spécialisée, le numérique est plus facile d’accès. Dominique Cardon précise à cet égard que “ce que perçoit l’utilisateur, c’est ce qu’on peut toucher”, d’où l’importance du mobile, qui permet “d’augmenter sa vie, à travers les écrans”.

Dans la typologie établie par Inria et TNS Sofres, qui va de l’urbain militant “Grand explorateur” au “Révolté du numérique” rural appartenant aux catégories sociales les plus modestes, l’âge est un élément fondamental. L’effet générationnel ne permet pas à lui seul d’expliquer les disparités. Le niveau de diplôme et la profession jouent un rôle prépondérant dans la manière d’appréhender le numérique. Sur cette question, Dominique Cardon relève le risque de l’apparition de deux sociétés : l’une ultraconnectée, mobile et urbaine, et l’autre réfractaire à l’usage des technologies, et inquiète.

C’est cette possibilité d’une nouvelle forme d’exclusion qu’il s’agit de combattre dans les années à venir, comme le soulignent les personnes interrogées en se prononçant massivement pour la mise en place d’une véritable éducation aux sciences du numérique dans les écoles.


Retrouvez les principales conclusions de l’étude dans l’infographie ci-dessous:

]]>
http://owni.fr/2011/11/08/inria-tns-sofres-les-francais-et-le-numeriqu/feed/ 27
[Dataviz] Dessine-moi un hacker http://owni.fr/2011/08/09/dataviz-infographie-hackerspaces-dessine-moi-un-hacker/ http://owni.fr/2011/08/09/dataviz-infographie-hackerspaces-dessine-moi-un-hacker/#comments Tue, 09 Aug 2011 14:08:15 +0000 Sabine Blanc http://owni.fr/?p=74367 Le cliché représente le hacker comme un jeune nerd blanc planqué derrière son ordinateur, occupé à quelque activité malfaisante du type “pirater la carte bancaire de cette pauvre Mme Michu“. Au mieux, affairé à coder jour et (surtout) nuit, une pizza tiède sur les genoux.

Une image à l’encontre de la diversité des profils que recouvre ce terme. Thésard en sciences de l’information à Tampere, en Finlande et fondateur du hackerspace 5w [fn], Jarkko Moilanen a réalisé une étude [en] pour cerner de façon plus juste cette communauté qu’il définit par le terme “peer-production” (production par les pairs).

La création de hacker/maker-spaces dans de nombreux pays a fourni une infrastructure qui peut être considérée comme un retour au hacking “old school“, où le logiciel n’est pas roi. Cette nouvelle culture “Do it yourself” est multiforme : hackerspace, makerspace, fablabs, 100k garage [en] pour n’en mentionner que quelques-uns. Vous pouvez en lire davantage dans l’article de Troxler [pdf , en].

Après une première étude en 2010, Jarkko a réitéré l’expérience, en la complétant. Les questionnaires ont été envoyés durant la deuxième quinzaine de juin, via des listes de discussion de hackers et hackerspaces, de groupe DIYbio (bio-hackers), afin d’éviter de biaiser les résultats comme cela aurait pu être le cas en passant par des réseaux sociaux, plus ouverts par nature. Il a reçu environ 250 réponses de 87 communautés dans 19 pays, soit un petit cinquième si l’on s’en réfère à la carte collaborative de hackerspace.org, qui en dénombre environ 500, contre 200 retours la première fois. En dépit d’un échantillon faible, les résultats valent la peine d’être observés, en attendant des études à plus vaste échelle. Jarkko exprime sa satisfaction globale :

“Les résultats reflètent les conclusions effectuées par d’autres chercheurs. J’ai reçu un email d’un autre chercheur, qui indiquait que nous avions tous les deux trouvés des résultats similaires en partie. Toutefois, ils doivent être regardés avec précaution et seulement comme préliminaires”.

Google pose question

Les limites principales concernent la forme même du questionnaire, qui en l’occurrence s’est avéré un choix philosophique sujet à caution :

“Comme l’année dernière, l’étude a été menée en utilisant des formulaires Google Docs. Cela a été critiqué et j’admets que la critique est fondée. Faire des études avec des outils que certains hackers considèrent au moins comme « injuste » et propriétaire n’est pas bon. Certains hackers n’ont pas répondu à l’étude pour cette raison. Dans le futur, de telles études devraient être conduites avec d’autres outils, de préférence des solutions open source. “

En outre, Google est difficilement accessible en Chine, entre autres, ce qui fausse les résultats sur l’origine géographique. Autre limite, le choix d’une langue unique, l’anglais, même si a priori, un hacker sait lire et écrire dans la langue de Shakespeare. Les résultats corroborent la carte collaborative des hackerspaces qui montre aussi une forte concentration en Amérique du Nord et en Europe. Ceci dit, les difficultés d’accès au Net dans certains pays valent aussi pour ce travail.

Selon Jarkko, la réception dans le milieu a été bonne : “J’ai eu des retours positifs. Un hacker parisien m’a invité en France pour faire une petite présentation et discuter des résultats. Apparemment, il n’existe pas de grosse résistance contre mes recherches, puisque hackerspaces.org/wiki contient encore des liens vers elles :) Le silence vaut acceptation.”

Voici la synthèse de son travail sous la forme d’un joli poster mitonné par Loguy, notre directeur artistique préféré, que vous pouvez télécharger en .pdf en cliquant dessus. Certains résultats étaient prévisibles, comme l’âge moyen des membres et la forte proportion d’hommes. Un seul est vraiment étonnant : 85% des hackers interrogés sont favorables à ce que les entreprises financent leur communauté sous la forme de dons en équipement, alors qu’a priori on pourrait penser qu’ils éprouveraient de la méfiance envers ces dernières. On notera aussi que les questions de sécurité, centre d’intérêt historique des hackers, n’apparaissent pas dans le trio de tête de leur centres d’intérêt, et c’est un signe des temps.

Infographie sur les hackerspaces

Retrouvez notre dossier sur le Chaos Communication Camp 2011 :

]]>
http://owni.fr/2011/08/09/dataviz-infographie-hackerspaces-dessine-moi-un-hacker/feed/ 0
La cyberguerre sans y toucher http://owni.fr/2011/01/19/la-cyberguerre-sans-y-toucher/ http://owni.fr/2011/01/19/la-cyberguerre-sans-y-toucher/#comments Wed, 19 Jan 2011 18:03:01 +0000 Olivier Tesquet http://owni.fr/?p=43046

Très peu d’événements en lien avec le cyberespace disposent d’une réelle capacité à causer un choc global.

C’est le constat sans appel que dressent deux chercheurs britanniques dans un rapport de 120 pages (PDF) commandé par l’OCDE (Organisation de coopération et de développement économiques). Comme le rappelle avec sagacité le New York Times, on recense aujourd’hui pas moins de 270 ouvrages sur “la cyberguerre”, formule consacrée. Avant d’éplucher les quintaux de pages que représente cet imposant corpus, il était plus que temps de fourbir les armes théoriques pour comprendre – et dédramatiser – le “jour d’après” que nous promettent certains experts.

En renversant la boîte de pétri des laborantins de la cyberfin du monde, Peter Sommer, professeur à la London School of Economics, et Ian Brown, de l’Oxford Internet Institute, vont-ils également renverser la hype, remplaçant les mines affolées par une moue dubitative? La tâche s’annonce ardue: sur les douze derniers mois, le même New York Times a parlé 90 fois de cyberguerre en utilisant le mot “cyberwar”, (101 pour le Washington Post, et 240 pour le Wall Street Journal – même caché derrière un paywall).

Et les articles ne sont pas les seuls à se multiplier comme des petits pains. Aujourd’hui, les États-Unis disposent d’un Cyber Command et d’un “cybertsar” à la Maison-Blanche, Howard Schmidt; le Royaume-Uni possède un Office for Cyber Security and Information Assurance; l’Union européenne a l’ENISA, son agence dédiée mais esseulée; l’Estonie a hérité d’un Cooperative Cyber Defence Centre of Excellence après les incidents de 2007; l’OTAN réfléchit à son propre quartier général (que voudrait récupérer la Corée du Sud); et on ne compte plus les CERT, ces centres d’urgence chargés de répondre aussi vite que possible aux tentatives d’intrusion dans les systèmes d’information.

Le but de la commande de l’OCDE est clair: “Dans quelle mesure des dangers numériques peuvent-ils être aussi destructeurs que des pandémies mondiales ou la crise bancaire?” Pourtant, derrière ses atours prospectifs, l’étude britannique s’appuie sur des structures et des protocoles préexistants. Aussi ses deux auteurs identifient-ils les deux points cruciaux qui régentent l’analyse en vogue. D’un côté, la création du World Wide Web au début des années 90, qui a sensiblement modifié les usages en les fluidifiant. De l’autre, le tournant des années 2000, quand une bonne part (50%, avancent les chercheurs) du PIB des États occidentaux s’est mis à reposer sur les NTIC. Loin des préceptes de la nouvelle économie, ce second élément vise surtout à démontrer la porosité des systèmes gouvernementaux, qui prêtent de facto le flanc aux cyberattaques.

Harder, Better, Faster, Stronger?

“Il y a cette espèce de compétition entre les auteurs, pour dire ‘mon histoire est plus effrayante que la tienne’”, regrette Peter Sommer. Avec son acolyte Brown, il préfère questionner la notion de persistance. Est-ce que les risques pointés par certains auteurs tels que le très médiatisé Richard Clarke, ancien conseiller à la sécurité de trois présidents américains successifs, sont vraiment des chausse-trappes dans lesquels nous sommes susceptibles de tomber à tout moment? Et pour y répondre, rien de mieux qu’un peu de dialectique issue de ce bon vieux Clausewitz, inventeur de la notion de “friction” et géniteur de la fameuse citation “la guerre n’est que la continuation de la politique par d’autres moyens”:

La plupart des cyberattaques seront ciblées et courtes dans le temps [...] Finalement, comme dans toutes les guerres, vous devez penser à la finalité: comme les analystes thermonucléaires pendant la Guerre froide, vous devez vous demander, que restera-t-il?

Plutôt que de répondre à cette épineuse question, les deux chercheurs dégonflent l’hystérie ambiante en énonçant une lapalissade qui arrache un sourire:

A une échelle moindre, si vous voulez que votre ennemi capitule – comment pourra-t-il le faire si vous avez coupé tous ses moyens de communication et son système de décision?

Le retour de Stuxnet

L’étude soulève un deuxième point, encore plus complexe et lourd de conséquences: celui de l’attribution. Il y a quelques jours, en prenant sa retraite, l’ancien chef du Mossad Meir Dagan a relancé le débat sur Stuxnet, en suggérant très fortement qu’il s’agissait d’une arme de conception israélienne, développée avec l’aide des États-Unis et de certains pays européens dont l’Allemagne. “L’Iran ne sera pas en mesure d’avoir l’arme nucléaire avant 2015”, se félicitait-il. Dans la foulée, le New York Times y allait de son affirmation, en titrant “le ver Stuxnet utilisé contre l’Iran a été testé en Israël”. Étayé, cet article n’en reste pas moins déclaratif, comme les allégations israéliennes. D’ailleurs, selon certains spécialistes, le régime des mollahs pourrait “fabriquer une bombe d’ici trois mois”.

Dans ces circonstances, la cyberguerre ressemble moins à une menace armée qu’à une forme moderne de soft power, un outil utilisé dans les administrations et les états-major pour influencer les rapports de force. Meir Dagan est par exemple un opposant notoire à une attaque militaire contre l’Iran. En annonçant fièrement le terrain (supposément) gagné grâce à Stuxnet, il peut servir la position qu’il défend.

Il existe aussi une raison technique à cette difficulté d’identification et d’attribution. “Les revendications d’attaques, par des groupes affiliés aux gouvernement chinois ou russe par exemple, peuvent être contrées en rappelant que leurs ordinateurs peuvent avoir été infiltrés par des tiers, ou qu’il s’agit de l’initiative de hackers patriotiques isolés”, peut-on lire dans l’étude. Aux yeux de ses auteurs, “l’attaque Stuxnet, qui visait apparemment les installations nucléaires iraniennes, pointent autant les difficultés que le futur”.

Cinétique contre numérique

Mais l’identité de celui qui appuie sur le bouton n’est qu’une conséquence. Comme l’écrivent les chercheurs anglais, “L’un des avantages des armes cybernétiques sur les armes conventionnelles, c’est qu’il est beaucoup plus facile de créer une ambiguïté autour de l’individu qui lance l’attaque”. Pour Sommer et Brown, il faut étudier la cyberguerre à l’aune de son aïeule sans préfixe, pour déterminer sa portée:

Pour définir un acte de cyberguerre, il faut montrer qu’il était équivalent à une attaque hostile conventionnelle, dans son intensité, sa durée, son contexte [...] La première considération que nous devrions avoir, c’est la raison pour laquelle un État ou une entité voudrait partir en guerre. Dès lors que l’hostilité existe, il y a fort à parier que les pays ne se limitent pas à des armes conventionnelles. Les armes cybernétiques ne sont qu’un moyen additionnel de mener ces assauts.

Pour l’heure, de telles armes sont encore mal maîtrisées, comme l’attestent les dommages collatéraux du ver Stuxnet, encore lui. C’est peut-être la raison pour laquelle, en guise de conclusion, les deux experts considèrent une “cyberguerre pure” comme “improbable”. Dans un autre cas de figure, celui populaire des attaques par déni de service (DDoS), elles ne sont qu’une munition supplémentaire, sûrement pas le canon de l’arme. La faute à leur faible intensité et leur courte durée de vie. Et si finalement, la fameuse cyberguerre d’après-demain, celle qui mettra les pays à genoux, résidait dans ce déséquilibre? Avant d’imaginer les bombes informatiques, regardons d’abord exploser quelques petits pétards.

__

Crédits photo: Flickr CC obeyken, superfem, fixedgear

]]>
http://owni.fr/2011/01/19/la-cyberguerre-sans-y-toucher/feed/ 5
Avez-vous essayé? Où et comment parler des jeunes et des TIC? http://owni.fr/2011/01/19/avez-vous-essaye-ou-et-comment-parler-des-jeunes-et-des-tic/ http://owni.fr/2011/01/19/avez-vous-essaye-ou-et-comment-parler-des-jeunes-et-des-tic/#comments Wed, 19 Jan 2011 07:31:17 +0000 Bruno Devauchelle http://owni.fr/?p=42875 Interroger 35000 jeunes en 39 jours (samedi et dimanches compris) c’est en rencontrer environ 900 par jour. Mener cette enquête en « face à face » suppose du temps. Une enquête en face à face, cela peut prendre des formes diverses : d’une personne face à 1000 qui répondent à un questionnaire écrit à l’entretien individuel, toutes les formes de face à face peuvent exister. Or c’est sur cette base que Calysto présente le déroulement de l’enquête publiée en 17 décembre 2010 et relayée largement par les médias. Alors que dans le même temps le ministère de la culture, par l’intermédiaire de Sylvie Octobre et d’autres organisations, comme Fréquence école à Lyon, publient leurs enquêtes en détaillant la méthode utilisée et en expliquant clairement comment cela a été fait (accès aux questionnaires utilisés etc…), Calysto et la Voix de l’enfance ne transmettent qu’une présentation reprenant, de manière assez surprenante parfois les résultats de cette fameuse enquête. Surprenante car la notion de proportion n’est pas respectée et que des choix de présentation mettent en avant dans des graphiques de manière identique des résultats différents (exemple de la page 5 du document).

Des sondages, pour quel résultat ?

Sans entrer dans plus de détail et sans remettre a priori en cause la qualité du travail mené, la question est ici de savoir ce que signifient toutes ces enquêtes qui parlent des jeunes et des TIC (ou de la culture). Ainsi, dans le travail publié par la documentation française, Sylvie Octobre parle de la culture des jeunes, mais au volet internet et ordinateur, les questionnaires sont extrêmement pauvres et ne donnent aucune visibilité à diverses pratiques et le même questionnaire ignore quasi totalement les usages du téléphone portable. On peut comprendre le parti pris d’une définition de la pratique culturelle qui mettrait de coté le téléphone portable (encore que), mais on ne peut comprendre qu’aujourd’hui on ne prenne pas en compte la pratique du web comme pratique culturelle (celle-ci se réduit à l’utilisation de l’ordinateur dans les questionnaires utilisés). Mais au moins, si l’on n’est pas satisfait peut-on accepter le document tel qu’il est et n’en utiliser que ce pour quoi il est fait.

Malheureusement un certain nombre d’organisations ont tendance à publier des chiffres sans donner accès aux méthodes (à défaut des sources elles-mêmes) qui auraient permis de mesurer la fiabilité des résultats. Ce n’est pas la première fois que cela se produit (cette année sur le même sujet cela s’est déjà produit au printemps (cf. le café pédagogique). Si l’on veut faire une éducation à l’information, il faut aussi se pencher sur ces cas et les analyser. L’idée ici n’est pas de remettre en cause les résultats a priori, mais de signaler que dans le domaine des TIC les débats sont si vifs et si importants que l’on ne peut plus admettre que soient mis en pâture au débat des résultats d’enquête sans que l’on puisse accéder aux sources. Profitons ici de l’occasion pour lancer un appel à tous ceux qui publient des enquêtes pour permettre aux personnes intéressées d’accéder effectivement aux sources, au moins aux protocoles d’enquête. L’absence de ces documents, bien qu’arides, met à mal la crédibilité de toutes les enquêtes même les plus explicites.

Le travail sur les sources, une étape obligatoire.

L’impression que donnent ces chiffres est d’abord celle d’une tentative de manipulation. Si je veux faire passer une idée, alors il suffit que je fasse une communication sans expliciter les sources. Comment imaginer que l’on puisse interroger 35000 personnes en un mois alors que la plupart des enquêtes bien financées ont bien du mal à dépasser les 5000 et sur plusieurs mois. ? Loin de moi l’idée d’accuser qui que ce soit a priori, mais en l’absence de preuves je ne peux que m’inquiéter de la popularité donnée à de tels chiffres. D’ailleurs cela interroge aussi la professionnalité des médias qui se sont empressés de relayer ces chiffres sans faire le travail sur les sources.

Nous vivons une époque dans laquelle il convient d’être très prudent sur les chiffres que l’on diffuse. La première précaution est toujours que l’enquêteur critique sa propre méthode de travail et en montre les limites. La seconde est que l’enquêteur accepte de soumettre ses sources à d’autres personnes qui souhaiteraient les exploiter à leur tour ou tout au moins les vérifier. La troisième est que l’enquêteur ait toujours le soin de mettre son travail en perspective avec d’autres travaux identiques ou proches afin de permettre au lecteur de se faire une idée lui-même. En fait le risque de manipulation a été très bien expliqué dans l’ouvrage de Normand Baillargeon « PETIT COURS D’AUTO-DÉFENSE INTELLECTUELLE  » (Lux 2006) mais aussi dans de nombreux cours de doctorat… Malheureusement, même dans le monde scientifique, il semble que ces précautions soient souvent battues en brèche et que les résultats obtenus méritent de sérieuses critiques.

Ce qui est assez inquiétant c’est que les « médiateurs » de l’information sont aussi peu regardant que cela. Qu’en est-il du monde enseignant ? Est-il aussi au fait de ces questions, Malheureusement très peu, trop peu. J’entends souvent des adultes déplorer les attitudes des jeunes par rapport aux technologies en s’appuyant sur des enquêtes de ce type. D’autres, même des chercheurs patentés, s’appuient sur une trentaine d’entretiens approfondis pour tenir des discours globalisant sur tel ou tel aspect des pratiques TIC des jeunes. Nous percevons de plus en plus souvent que dès lors que des intérêts sont en jeu (ce n’est pas nouveau, je sais !) les manipulations peuvent rapidement intervenir. Notre devoir d’éducateur est justement de se doter des outils nécessaires pour questionner ces documents. Il semble qu’en l’occurrence il est nécessaire, dans le domaine des jeunes, de la culture et des TIC, de rappeler qu’il est essentiel que les documents proposés soient appuyés sur des éléments qui permettent réellement d’en mesurer la fiabilité…. Il est nécessaire que le monde enseignant souvent désarçonné face à Internet pratiqué par les jeunes ne cède pas aux sirènes de l’imprécision afin de construire des réponses mieux adaptées aux réalités du monde qui les entoure.

Juste avant de mettre la dernière main à ce billet (ce 13 janvier 2011), je me trouve conforté par la publication d’une nouvelle étude sur les jeunes et les TIC (la cinquième ou la sixième publiée cette année. Publiée en anglais, on peut trouver une synthèse en français). Cette enquête sur 25 pays et qui concerne 2510 internautes illustre bien les questions méthodologiques posées ci-dessus et renforce la mise en question de certaines enquêtes. On peut lire les éléments concrets de la méthode d’enquête employée et comprendre la faisabilité. On trouve aussi quelques précisions sur la notion d’enquête face à face. Dans cette enquête le point qui retient notre attention concerne ce chiffre étonnamment intéressant concernant les nuisances subies sur Internet. On y découvre qu’ils sont beaucoup moins nombreux que dans d’autres enquêtes. On peut rapidement constater que le biais de la question et de l’interprétation des réponses mérite que l’on soit très vigilant sur les chiffres restitués.

Renforçons notre vigilance !

On critique parfois la recherche scientifique pour sa « rugosité intellectuelle ». Mais à lire des enquêtes menées par des sociétés commerciales, on s’étonne grandement du différentiel méthodologique et donc des résultats de ces enquêtes. En suivant depuis 1997 tous ces travaux on se rend compte qu’il est nécessaire de renforcer notre vigilance. Les revues de littératures, les mises en cause de travaux publiés antérieurement sont des classiques de la recherche, reste maintenant à interroger le prisme idéologique

A suivre de près et à débattre.

Credit FlickR : JFGornet / The Bees

]]>
http://owni.fr/2011/01/19/avez-vous-essaye-ou-et-comment-parler-des-jeunes-et-des-tic/feed/ 6
Facebook: parlez des autres, vous vous ferez des amis http://owni.fr/2010/12/29/facebook-parlez-des-autres-vous-vous-ferez-des-amis/ http://owni.fr/2010/12/29/facebook-parlez-des-autres-vous-vous-ferez-des-amis/#comments Wed, 29 Dec 2010 10:35:50 +0000 Vincent Truffy http://owni.fr/?p=40539 Les statisticiens de Facebook ont décortiqué environ un million de «statuts» anglophones pour comprendre comment fonctionne cet étrange rituel qui occupe chaque jour 12% de ses 500 millions d’utilisateur: expliquer à l’ensemble de ses «amis» ce que l’on est en train de faire («what are you doing right now?», l’invite initiale) ou ce que l’on a en tête («What’s on your mind?»).

Ils se sont également demandé s’il existait des relations de cause à effet entre la composition de ces messages et l’entregent affiché.

Les résultats montrent que les personnes les plus populaires:

1. s’adressent individuellement aux autres (ils emploient plus souvent «tu», éventuellement «nous» plutôt que «je»)
2. publient des statuts plus longs
3. parlent souvent de musique, de sexe et d’argent
4. recourent moins souvent à l’émotion
5. mentionnent moins souvent leur famille
6. utilisent moins souvent le passé et le présent

On remarque donc que les messages qui émergent (ceux qui s’adressent au plus large public, plutôt qu’au plus vaste cercle d’amis) tendent à se conformer aux canons de la prise de parole classique dans l’espace public: des messages plus structurés, désinvestis et moins personnels, se projetant vers l’avenir (fût-il proche).

Facebook a aussi fait étudier les statuts qui appellent le commentaire et ceux qui entraînent la recommandation. On constate là un usage complémentaire des deux fonctions: les mots classés positifs provoquent plutôt des «likes» et les négatifs des commentaires. De même, les messages longs et rédigés (notamment l’utilisation de pronoms) appellent de nombreuses interactions quand les statuts plus personnels éteignent la discussion (typiquement: les messages à tonalité religieuse obtiennent des recommandations mais pas de commentaires et ceux qui relatent la qualité du sommeil font fuir les deux).

Il faut toujours rappeler qu’il n’y a là que corrélations (des variables qui évoluent ensemble) et pas de causalité prouvée. On peut également souligner que les statistiques sur Facebook sont produites par Facebook et exploitées par les mêmes. Quel que soit le crédit que l’on puisse accorder à l’indépendance de la «data team», on note que les conclusions vont plutôt dans le sens de l’apaisement, des sentiments positifs, comportements que la société Facebook a intérêt à promouvoir.

Article initialement publié sur Le bac à sable, un blog Mediapart

Illustration CC: Kevin Saff

]]>
http://owni.fr/2010/12/29/facebook-parlez-des-autres-vous-vous-ferez-des-amis/feed/ 21
Le petit Kevin attend son moteur de recherche http://owni.fr/2010/06/08/le-petit-kevin-attend-son-moteur-de-recherche/ http://owni.fr/2010/06/08/le-petit-kevin-attend-son-moteur-de-recherche/#comments Tue, 08 Jun 2010 09:14:36 +0000 Sabine Blanc http://owni.fr/?p=17186 Gros consommateurs d’Internet, les enfants sont fréquemment amenés à faire des recherches sur le web. Pour le travail autant que pour leur plaisir, la recherche d’information est leur deuxième motivation. Pourtant, ils sont souvent démunis, faute d’outil adapté. Se basant sur un article de l’Américaine Hilary Hutchinson paru en 2009 sur la façon dont les enfants font leurs recherches sur Internet avec les interfaces de mots-clés, Sophie Mateo, étudiante en MBA Marketing et Commerce sur Internet, est arrivée aux mêmes conclusions en se penchant sur les pratiques de petits Français.

Chercheuse à l’université de Maryland, Hilary Hutchinson avait mené son étude en partenariat avec Google, s’appuyant sur un panel de 12 enfants de 7 à 11 ans. Elle s’était focalisée sur Google.com. En bref, voici ce qui ressort de son étude, je reprends là la synthèse qu’en a fait Sophie Mateo dans son mémoire :

- Les enfants pensent que ’si quelque chose n’est pas sur Google, c’est nulle part’.

- Les enfants de moins de 8 ans sont frustrés face aux messages d’erreurs, qui les déroutent, les bloquent dans leur navigation.

- Les enfants utilisent plus le langage naturel que le langage par mots-clés : ils ont tendance à privilégier une requête d’ordre sémantique.

- Les enfants ne vont jamais en deuxième page de résultat et ne regardent généralement pas plus bas que les cinq premiers résultats.

- Les enfants rêvent d’une recherche et d’une navigation ‘magique’, qui leur permette par exemple d’obtenir un seul résultat (le meilleur), de retranscrire les requêtes vocalement.

Des enfants peu familiers des moteurs de recherche

De plus, les enfants font face à des freins particuliers : l’orthographe, donc, mais aussi la frappe, la formulation des requêtes et le déchiffrement des résultats. Ils auront ainsi tendance à regarder le clavier lorsqu’ils tapent pour être sûr de leur frappe, rendant du coup la saisie semi-automatique inutile. Ils ont aussi du mal à trouver de nouveaux sites, alors qu’a contrario, ils ont une vision positive du web qu’ils considèrent comme un espace de liberté (et pas un nid à dangers, la vérité sort de la bouche des enfants). Une situation résumée par une comparaison par Yolanda, du haut de ses 11 ans plein de bon sens : “C’est comme faire du piano mais on savait pas en faire“.

Sophie Mateo, qui connait bien l’univers des moteurs de recherche puisqu’elle aussi salariée chez Google France, dans la partie publicitaire, a interrogé sept enfants de 8 à 11 ans. Quand on leur dit “recherche”, sans surprise, ils répondent Google comme leurs cousins d’outre-Atlantique. Le site est souvent la page d’accueil par défaut de l’ordinateur, un (non) choix des parents, sur la session desquels ils surfent aussi. Son enquête a montré les mêmes difficultés des enfants français pour se servir des moteurs de recherche et une utilisation restreinte : ils connaissent peu de sites.

Les moteurs de recherche pour enfants sont inefficaces

Elle a aussi constaté le manque d’efficacité des moteurs de recherche pour enfants. Dans un sens ce n’est pas grave car ils sont inutiles. Elle a testé sept moteurs de recherche, dont des outils français, sur la requête “elefan”, volontairement mal orthographié, tel qu’un enfant de 7 ans l’écrira. Résultat, un seul a fourni une bonne réponse, Kidrex. Le service, qui utilise Google propose alors “Did you mean elephant ?” Les autres, les américains Yahoo Kids et Askkids, et les Français Babygo (une initiative de Free, qui indexe des contenus approuvés), Takatrouver (même principe mais à l’origine, un instituteur et il propose aussi des activités, jeux, cuisine, et vise aussi les parents et les profs), Furty (centré sur les animaux) et Kidadoweb (un annuaire spécialisé), font choux blanc.

Ils proposent une interface graphique jolie mais sans valeur ajoutée, déplore Sophie Mateo.

Et encore, jolie, du goûts et des pixels… Ils ne savent pas non plus répondre à une requête de plus de cinq mots-clés, souvent plus, écrite sous forme de phrase telle qu’ils la poseraient à l’oral. “Ils visent plutôt à faire du contrôle parental qu’à proposer aux enfants des résultats pertinents”, résume-t-elle.

Autre difficulté, a-t-elle noté, les parents et les enseignants ne sont pas toujours à même de les aider. Déplorer, à juste titre, l’omniprésence de Wikipedia est une chose, apprendre à élargir le spectre de ses sources d’information une autre.

Quelles solutions pour un vrai apprentissage ?

Pour améliorer tout ça, les deux chercheuses ont avancé des pistes. De son constat, Hilary Hutchinson avait tiré les idées suivantes :

Améliorer la recherche semi-automatique en plaçant la box texte en bas de l’écran, pour attirer leur regard pendant la frappe ; proposer moins de résultats, moins de liens, avec plus de vidéos et d’images ; adapter le contenu des réponses au niveau de lecture ; proposer une recherche ou une navigation vocale

Sophie Mateo a complété ces solutions. On commence par un pan d’éducation numérique, destiné aussi bien aux adultes qu’aux enfants.

Ils doivent apprendre le ciblage des sujets, la pertinence des mots-clés, le choix des sites. Les enfants devraient aussi apprendre la dactylographie en même temps qu’ils apprennent à lire et à écrire puisque, de plus en plus, leur milieu d’apprentissage se créé et se développe avec l’ordinateur.

Côté moteurs de recherche pour enfants, on arrête de faire mumuse avec la palette graphique et on se concentre sur la partie technique pour proposer des résultats adaptés aux enfants. L’idéal, tenir compte de l’orthographe des enfants tout en contribuant à l’améliorer :

Google pourrait proposer, après son : « Essayez avec cette orthographe » à l’enfant de récrire sa requête correctement, de façon à ce que l’enfant prenne en compte l’importance de l’orthographe pour avoir le résultat désiré.

Dans tous les cas, même si les moteurs de recherche ont encore un long chemin devant eux pour s’améliorer, même si les moteurs de recherche nous proposent parfois des réponses hors sujet à notre demande, le secret de la bonne réponse se trouvera toujours dans la bonne requête”, conclut-elle.

Quand on demande pourquoi il n’existe pas de moteur de recherche bien fait pour les enfants, Sophie Mateo avance l’argument financier : cela demanderait ses sous, or les enfants ne sont pas intéressants pour les annonceurs. C’est un peu plus tard, quand ils approchent de l’adolescence, vers 12-13 ans et que l’argent de poche devient un peu plus conséquent. On se dit alors que ce serait bien si l’UE pourrait servir à développer ce genre d’outil, cela aurait du sens. Et puis on pense à Quaero, qui devait faire concurrence à Google et on se dit que c’est mal barré.

Internet, c’est comme s’ouvrir au monde“, “Internet, c’est dès que tu allumes un ordinateur, tu cliques sur le ‘E’ bleu et il va y avoir Internet qui apparait“, “Internet ça sert à chercher des choses“, “c’est tout le temps vrai Wikipédia“  “Internet ça sert à jouer à des jeux ou travailler” “des fois ça déconne alors faut éteindre et après rallumer“, “YouTube, c’est un site où on peut rechercher toutes les musiques qu’on veut“… : drôle, rafraîchissant, parfois un peu flippant – l’éducation au numérique, toujours… – , voici le digest vidéo des entretiens avec les enfants.

À la fin, les petits internautes suggèrent leur moteur de recherche idéal pour enfants : “un casque accroché à un mini-écran équipé d’un micro où on dit sans taper“, “parce que quand on a six ou huit ans, on fait beaucoup de fautes d’orthographe et des fois on comprend pas ce qu’on dit“. Les ingénieurs de Google écouteront-ils cette demande ?

Cliquer ici pour voir la vidéo.

Et pour ceux qui veulent lire dans le détail l’étude :

Sur le même sujet :

Cette étude récente menée par Fréquence écoles, association d’éducation des jeunes aux médias, “Comprendre le comportement des enfants et adolescents sur Internet pour les protéger des dangers”. Elle analyse dans le détail l’utilisation d’Internet par les jeunes dans la région Rhône-Alpes. (télécharger le rapport complet).

L’éducation numérique, c’est pour bientôt ?

Par ailleurs, OWNI mène un travail collaboratif pour élaborer une plaquette de prévention sur Internet, en lien avec les missions prévention et communication de Paris. Un blog et un wiki sont à votre disposition.

Crédit Photo CC Flickr : iboy, Sneddon.

]]>
http://owni.fr/2010/06/08/le-petit-kevin-attend-son-moteur-de-recherche/feed/ 11
Louez un botnet pour 9 dollars l’heure http://owni.fr/2010/05/28/louez-un-botnet-pour-9-dollars-l%e2%80%99heure/ http://owni.fr/2010/05/28/louez-un-botnet-pour-9-dollars-l%e2%80%99heure/#comments Fri, 28 May 2010 12:04:50 +0000 Korben http://owni.fr/?p=16806

Le botnet, un produit accessible.

Une étude menée par Verisign (iDefense Intelligence Operations Team) a permis d’estimer le coût moyen de location d’un botnet. Pour résumer, un botnet est un essaim de milliers d’ordinateurs sous le contrôle d’une seule crapule, qui permet d’envoyer du spam ou encore d’attaquer  des sites en les surchargeant (via Ddos).

Et ce « petit service » coûte en moyenne 9 dollars l’heure ou 67 dollars les 24 heures. L’étude a porté sur 25 botnets donc les chiffres sont à prendre avec des pincettes car cela dépend surtout du nombre d’ordinateurs présents dans le botnet. Il est possible de tout louer ou juste une partie et les prix se pratiquent très souvent à la tête du client.

Pas cher quand même, non ? Évidemment, les propriétaires de botnet, en plus de se faire de la thune avec ça, s’amusent à extorquer de l’argent à ceux qu’ils ciblent en échange de l’arrêt des hostilités, et leur proposent même parfois 30% de réduction si l’attaqué veut se venger.

Voici un exemple d’extorsion :

“Hello. If you want to continue having your site operational, you must pay us 10 000 rubles monthly. Attention! Starting as of DATE your site will be a subject to a DDoS attack. Your site will remain unavailable until you pay us. The first attack will involve 2,000 bots. If you contact the companies involved in the protection of DDoS-attacks and they begin to block our bots, we will increase the number of bots to 50 000, and the protection of 50 000 bots is very, very expensive.

You will also receive several bonuses.
1. 30% discount if you request DDoS attack on your competitors/enemies. Fair market value ddos attacks a simple site is about $ 100 per night, for you it will cost only 70 $ per day.
2. If we turn to your competitors / enemies, to make an attack on your site, then we deny them.”

Il existe de vrais marchés souterrains que je vous décommande d’aller fréquenter. Les mafieux ont quand même leurs petites règles comme par exemple le refus systématique d’attaques contre les sites gouvernementaux ou encore de sites qui pourraient attirer l’attention sur eux.

D’ailleurs, si ça vous intéresse (et que vous speakez l’english), la BBC a réalisé un petit reportage à ce sujet l’année dernière :

Cliquer ici pour voir la vidéo.

On vit vraiment dans un monde de dingue :-)

[Source et photo]

Billet initialement publié chez Korben sous le titre “Location d’un botnet – combien ça coûte ?” ; photo CC Flickr freezelight

À lire aussi : Enquête : 70 centimes les 1000 captchas

]]>
http://owni.fr/2010/05/28/louez-un-botnet-pour-9-dollars-l%e2%80%99heure/feed/ 1
Internet et les jeunes: désolé, ça se passe plutôt bien http://owni.fr/2010/04/24/internet-et-les-jeunes-desole-ca-se-passe-plutot-bien/ http://owni.fr/2010/04/24/internet-et-les-jeunes-desole-ca-se-passe-plutot-bien/#comments Sat, 24 Apr 2010 16:47:20 +0000 Sabine Blanc http://owni.fr/?p=12730 Bonne nouvelle pour vos enfants : Internet est moins dangereux que la vie puisque seulement 82,5% des jeunes y ont fait une expérience “malheureuse”, contre 100% dans la vie réelle, de la souffrance à la naissance lorsque l’air pénètre les poumons en passant par les griffes aux genoux et autres garçons expurgeant leur trop-plein d’hormones d’une main aux fesses. C’est la conclusion d’une étude récente menée par Fréquence écoles, association d’éducation des jeunes aux médias, intitulée “Comprendre le comportement des enfants et adolescents sur Internet pour les protéger des dangers.”
Plus sérieusement -quoique…-, l’enquête en question, offre une vision dédramatisante sur le sujet, soulignant l’inadéquation entre la prévention et la réalité des risques.

Il faut dire que les auteurs, Barbara Fontar et Elodie Kredens, sont parties sans a priori quant à la définition du terme danger et sur la hiérarchie, une méthodologie appréciable en ces temps de lutte anti-Hadopi et de reportages racoleurs.

“Il est difficile d’appréhender [la notion de danger] sans être tenté de lui appliquer des principes normatifs. Si le danger est une situation dans laquelle un individu est menacé sur le plan physique, psychologique ou social, sa définition, sa perception et son expérimentation restent pour partie subjectives.”

“Afin de minimiser les biais et pour ne pas influencer les jeunes dans leurs réponses nous avons pris soin de ne jamais suggérer les dangers potentiels d’Internet. En entretien, nous avons fait en sorte que les jeunes initient eux mêmes la thématique des risques ou bien nous avons l’avons abordée sans pour autant orienter leurs visions des dangers. Cette précaution s’est traduite dans la phase qualitative par le choix d’une question ouverte.”

Au terme de leur enquête, il ressort que les jeunes n’ont globalement pas un comportement à risques sur le web. Loin de l’image de l’ado naïf errant sans but, facile proie du premier cyber-pervers venu, ils ont ainsi un usage extrêmement bordé du Net :

Chez les jeunes, les « aventuriers de la toile » sont plutôt rares comparés aux « voyageurs organisés ». Une majorité a d’ailleurs balisé ses sentiers en utilisant des moteurs de recherche, en allant toujours sur les mêmes sites et en créant des « favoris ». Certains ont même des rituels de navigation et surfent selon un ordre déterminé.

En outre, Internet est avant tout pour eux un outil de loisir et de socialisation avec leurs pairs. 9 sur 10 regardent des vidéos (films, clips) et écoutent de la musique, 8 sur 10 s’en servent pour jouer. Sur le podium de leur sites favoris, on retrouve Facebook, Youtube et MSN. Enfin, 3 sur 4 utilisent Internet pour discuter et rester en lien avec leur cercle de connaissances :

La grande majorité des jeunes n’utilise pas Internet pour élargir son réseau relationnel. On constate que la plupart des inconnus rencontrés sur le Net le restent. Si 1/3 du panel a déjà noué des relations amicales avec des gens sur Internet, lorsque les jeunes entament des relations, elles sont éphémères et peu approfondies. Si quelques cas d’amitiés nous sont rapportés lors des entretiens, ils débouchent très exceptionnellement sur des appels téléphoniques ou sur une rencontre. Ce sont donc plus de deux jeunes sur trois qui s’abstiennent de nouer des contacts avec des personnes inconnues.

En clair, ils chattent chez eux avec leurs potes de la cour ou ils écoutent de la musique (voire les deux en même temps, petits malins).

Si inconnu il y a, il faut le relativiser :

Derrière chaque inconnu sur Internet ne se cache pas un/une pervers(e). L’inconnu est aussi celui qui répond à des questions sur un forum, qui laisse des commentaires sur un blog, qui devient un partenaire de jeu le temps d’une partie et qui s’en retourne sans que des liens se soient créés pour autant.

Ils font également montre de prudence :

S’ils ont été contactés par des gens qu’ils ne connaissent pas, la majorité des jeunes, quel que soit leur âge, n’accepte pas de discuter avec eux. Ils refusent ainsi d’ajouter des contacts inconnus sur MSN ou Facebook, ils déclinent des invitations sur les jeux en ligne pour devenir partenaire temporaire ou membre d’une guilde et n’ouvrent pas les mails d’incon- nus. Rappelons qu’un tiers des jeunes a noué des relations amicales avec des gens sur Internet. En outre, c’est moins d’un jeune sur trois qui discute en ligne avec des inconnus.

De même, les forums ne les intéressent pas puisque seulement 8% y naviguent souvent et plus de la moitié (54,8%) n’y met jamais la souris.

Sur le décalage entre les représentations des jeunes comme des parents et le réel expérimenté, les chiffres sont éloquents. Le danger n’est pas du tout là où ils pensent :

Ainsi, alors que 44,9% d’entre eux considèrent la mauvaise rencontre comme le danger n°1, ce sont 7,7% d’entre eux qui se sont vus fixer un rendez-vous par un inconnu. Une question se pose sur la sensibilisation aux risques : sans remettre en cause le potentiel de gravité de tels faits, l’abondance des informations sur les mauvaises rencontres ne conduit- elle pas à rendre moins visibles d’autres expériences fâcheuses plus fréquemment rencontrées par les jeunes ?

La pédopornographie, cet épouvantail si commode, affiche un misérable 1,4%, un chiffre logique. Et en tête, on retrouve… le virus et/ou piratage, avec 36, 4%, talonnée par la pornographie (un chiffre à relativiser toutefois car les jeunes seraient moins enclins à confier avoir vu du porn.)

Certes, il est déplaisant de voir un méchant virus flinguer votre ordi, voir surgir une image de fellation peut aisément choquer, mais c’est bien moins traumatisant et dangereux que de se retrouver avec un vilain monsieur de vingt ans votre aîné dans une chambre glauque d’hôtel. En revanche, c’est moins vendeur médiatiquement.

Si les reportages racoleurs ont peut-être eu un effet positif, notent les auteurs, c’est d’inciter à plus de prudence. À défaut d’honorer la profession de journaliste par leur déontologie.

Si la plupart des jeunes ont fourni des données personnelles, c’est parce qu’il est difficile dans l’état actuel du web de faire autrement, contextualisent les auteurs. Et encore, certains font preuve de prudence, parmi les plus âgés, en en donnant de fausses. Guillaume (16 ans) explique ainsi : « et puis quand t’as un formulaire à remplir sur Internet je mets jamais mon nom. Je mets ” Durand”, “Dupond”. L’adresse, je mets une connerie. » Au demeurant, ce type d’attitude n’a rien d’étonnant.

Donc Dieu merci, la situation n’est pas catastrophique, loin de là. Loin de nous l’idée de nier l’existence de  risques, simplement, ils appellent prévention sans diabolisation. La demande est bien réelle, de la part des jeunes mais aussi bien sûr des parents qui ont une image réductrice du grand méchant Net, “prenant les symptômes pour des causes”. Plus de quatre jeunes sur cinq pensent que la prévention est importante. Leurs inquiétudes vont à la mauvaise rencontre (44,9%), puis aux virus, spams… (33,6%) et enfin aux contenus violents ou choquants (14,8%)

En conclusion, les auteurs de l’étude appellent à reformuler la prévention aux dangers de l’Internet en partant de ce portrait plus réaliste du comportement de nos enfants. Malheureusement, l’étude laisse sur sa faim concernant la suite à donner, égrenant juste quelques pistes à la fin. On va essayer d’y remédier ;-)

Télécharger le rapport complet

Cliquer ici pour voir la vidéo.

Photo CC Flickr aldoaldoz

]]>
http://owni.fr/2010/04/24/internet-et-les-jeunes-desole-ca-se-passe-plutot-bien/feed/ 9
Web de flux : j’arrose donc j’attire http://owni.fr/2010/04/21/web-de-flux-jarrose-donc-jattire/ http://owni.fr/2010/04/21/web-de-flux-jarrose-donc-jattire/#comments Wed, 21 Apr 2010 17:00:42 +0000 Martin Lessard http://owni.fr/?p=12795 Billet initialement publié sur Zéro seconde sous le titre “Vivre dans des flux”
Photo CC Flickr skittzitilby

Photo CC Flickr skittzitilby

La popularité d’un blog est-elle uniquement liée à l’abondance de ses écrits ? La chercheuse Susan Jamison-Powell (Sheffield Hallam University) trouve que le facteur déterminant est le nombre total de mots écrits par la personne durant la semaine. Pas la qualité de ses écrits. (via L’Atelier).

En observant soixante-quinze blogueurs (anglophones) sur livejournal.com, elle a trouvé que plus on écrit, plus on a de lecteurs (étude en résumé, anglais, PDF).

La quantité et la régularité sont deux facteurs importants pour s’attirer une « popularité » (La Tribune de Genève avance même que la régularité compte moins que la longueur).

Clay Shirky dans « Les Lois du pouvoir, les blogs et l’inégalité » (« Power Laws, Weblogs, and Inequality») avait déjà constaté en 2003 que « les blogs les plus populaires sont ceux mis à jour quotidiennement et surtout que la popularité d’un blog ne se décide pas, mais résulte “d’une sorte d’approbation distribuée émanant des autres blogues. » (lien via Emily Turrettin, Les Quotidiennes).

L’étude n’est peut-être pas si surprenante en fin de compte : écrire est le seul vecteur d’influence (le non-verbal est absent), il y a donc une surpondération pour un usage accru de l’écrit.

Ce qu’il y a de nouveau, c’est le développement de tout cet écosystème autour de la surabondance de l’écrit.

Nous entrons dans un monde de flux

On assiste à la fois à une comptabilisation de la « popularité » (on mesure de l’audience et non la notoriété de l’émetteur) et à une redéfinition du contenu de qualité sous une forme de « flux quantitatif »

« Les flux font se succéder rapidement des séquences d’information sur un thème. Il peut s’agir de microblogs, de hashtags, de flux d’alimentation RSS, de services multimédias ou de flux de données gérés via des APIs. » disait Nova Spivack (source Archicampus.net)

« Cette métaphore est puissante. L’idée suggère que vous viviez dans le courant : y ajoutant des choses, les consommant, les réorientant », disait danah boyd (source “Streams of content, limited attention : the flow of information through social media“, cité et traduit par Hubert Guillaud, InternetActu).

On a maintenant la possibilité de créer, mixer, remixer, relier, hyperlier et diffuser tous les contenus y compris les siens, mélangeant autorités et autoproduction. La chaîne de distribution de l’information traditionnelle déraille et de nouveaux acteurs émergent grâce à de nouvelles règles.

Dans ce contexte, les plus gros « arroseurs » reçoivent une plus grande attention. C’est un jeu de visibilité qui ressemble à un jeu à somme nul. Si je suis plus vu, tu l’es moins. L’attention se dirige vers ceux qui ont le clavier agile et prolifique.

« En offrant la même audience à chacun, on distribue le pouvoir d’attention à tous » écrivait Hubert Guillaud. Mais la redistribution de l’attention vers les « plus populaires » devient une pression quotidienne qui est un véritable ticket modérateur pour les blogueurs. Entre qui veut, mais reste qui peut.

Ratio « placoteux »/« élite »

« Il ne faut pas non plus noyer les lecteurs», ajoute Christophe Thil, interviewé dans l’article de L’Atelier il est essentiel de veiller à la pertinence des articles que l’on publie. [...] on évite le bruit [...], un blogueur qui vous submerge d’informations risque fort de perdre en audience ».

Vrai. Mais je crois que l’on fait fausse route en conservant une pensée de « destination » et non de flux. Les journaux et les émissions de télévision se pensent encore comme des destinations. Or, dans une économie de flux, il n’y a pas de « destination ». Ou plutôt c’est un concept fluctuant. Les liens renvoient toujours ailleurs.

Nous assistons à une « décentralisation tous azimuts » où le pouvoir est transféré en « périphérie » — où on assiste à la montée en puissance des noeuds d’un réseau condamné à « écrire » pour exister. On pourrait aussi dir e: c’est plutôt un rééquilibrage des ex-sans-voix.

L’élite d’ailleurs ne s’y trompe pas et traite de « communauté de placoteux »* ces hordes de sans-culottes qui dévaluent la parole en inondant le marché de mots au rabais. C’est une des conséquences navrantes de l’alphabétisation des masses : l’écrit s’est démocratisé pourrait-on les entendre dire.

Savoir profane

La recherche, l’acquisition, la transformation et la diffusion du savoir passaient autrefois par le transport et hier les médias de masse. Le flux est aujourd’hui en mesure de modifier la nature même du savoir, sa consommation et sa production.

Oui, on suit ceux qui écrivent beaucoup, car leurs flux de billets créent un continuum qui ressemble le plus au flux de la vie, où les récits gagnent en instantanéité tout en évitant cette élite qui s’interposait jadis entre nous et ce qu’elle décrivait.

Oui, on écrit beaucoup, mais on peut s’inscrire dans les flux, converser et réalimenter à notre tour ce flux pour d’autres.

Consommer pour comprendre, produire pour être pertinent comme le disait si brillamment danah boyd.

(929 mots – ça me classe où cette semaine ? ;-)

*Pour les Nathalie Petrowsky qui pensent que les blogueurs dorment au gaz (parce qu’ils n’ont pas fait des « ripostes cinglantes » à Madame Bissonnette), j’ai beaucoup écrit sur le sujet en 2005 et 2006. Rien de cinglant. Juste du sensé. Mais c’est derrière nous, maintenant.

La blogosphère et les médias
Internet est un amplificateur de phénomène
Il faut le downloader pour le croire
Blogueurs, journalistes, même combat
Déformation pouvoir-professionnelle
Développement du savoir profane
La société des chroniqueurs
10 facteurs de crédibilité pour votre site web
Le problème du filtrage de l’information sur Internet
Qui croire quand informations et connaissances circulent librement ?

]]>
http://owni.fr/2010/04/21/web-de-flux-jarrose-donc-jattire/feed/ 1
Sites de presse magazine: la vitesse contre la qualité http://owni.fr/2010/04/12/sites-de-presse-magazine-la-vitesse-contre-la-qualite/ http://owni.fr/2010/04/12/sites-de-presse-magazine-la-vitesse-contre-la-qualite/#comments Mon, 12 Apr 2010 17:44:07 +0000 Marc Mentré http://owni.fr/?p=12099

Photo CC Flickr Felipe_Barreto

Aujourd’hui, la plupart des groupes de presse en France sont engagés dans une réflexion —et engagent de profondes réformes— sur l’organisation de leurs rédactions. Celles-ci doivent-elles être « bimédia », la rédaction « papier » doit-elle alimenter le site web et dans ce cas dans quelles conditions ? Qui doit avoir le final cut ? Est-ce la rédaction en chef du papier, celle du web, ou encore une rédaction en chef arbitre ? Quelle place doit avoir le secrétariat de rédaction ? Etc. Autant de questions étudiées dans une enquête inédite réalisée par la Columbia Journalism Review, et publiée en mars 2010.

Menée par sondage (auquel répondirent 665 journalistes ou responsables de rédaction), cette étude ne concerne pas les quotidiens, mais exclusivement, comme son titre l’indique, les « Magazines and Their Web Sites » américains [l'enquête ici - Pdf - payant: 25 $].

L’un des principaux enseignements de l’enquête est la profondeur du « gouffre », selon le mot de l’une des personnes interviewées, qui existe encore entre les journalistes « papier » et ceux du web. « Tous les jours, on répète à chaque employé ‘soyez au service de vos fans, soyez au service de vos fans, soyez au service de vos fans‘, jusqu’à ce qu’ils en soient imprégnés », explique un ancien rédacteur en chef du site d’EPSN. Les journalistes « papier » ne peuvent pas se retrouver dans ce type de propos, expliquent Victor Navasky et Evan Lerner, dans leur article d’analyse, Tangled Web, publié dans la Columbia Journalism Review.

En fait, expliquent-ils, les gens du web, même « s’ils ne favorisent pas toujours  la vitesse [c'est la règle du jeu sur le web, insistent les deux auteurs] sur la précision ou l’élégance du style, l’intègrent en fait dans l’équation, et ils le font d’une manière qui tend à saper les standards journalistiques traditionnels ». À l’inverse, les journalistes « papier » regardent le site « comme un produit inférieur », et considèrent parfois les gens du web « comme des citoyens de seconde-classe ».

Une position qui ne pourra guère être tenue longtemps, car maintenant de plus en plus de contenus sont d’abord développés pour le site avant d’être réutilisés par le magazine papier.

Voici les 6 points principaux :

1 – La qualité de l’information est dégradée sur le web

Le principal est le plus spectaculaire enseignement de l’étude est sans doute la diminution de la qualité de la production. Dit autrement, l’information sur les sites web est moins vérifiée [moins "fact-checkée"], moins éditée qu’elle ne l’est sur le papier, ce quelle que soit la taille du site web et du magazine et que le site soit rentable ou non.

Certes, on peut se féliciter que 89% des sites (de magazine) étudiés aient adopté un système d’édition [a contrario, 11% n'en ont pas], mais si 41% ont la même procédure d’édition pour le papier et le web, près de la moitié (48%) des groupes de presse a adopté un système moins rigoureux pour le web que pour le papier.

Ce premier résultat doit être affiné : il apparaît que ce sont les sites « importants » —c’est-à-dire ayant plus de 50.000 visiteurs uniques par mois—, qui sont les moins rigoureux dans l’édition ainsi que ceux qui sont « rentables » [par opposition aux sites "non rentables"]. Un résultat totalement contre-intuitif. La différence est du même ordre lorsqu’un site est dirigé par un rédacteur en chef « indépendant » [comprendre "indépendant" du papier] : il est nettement moins édité que lorsqu’il l’est par un rédacteur en chef papier, ce qui n’est pas le cas lorsque c’est l’éditeur [publisher] qui a la main, comme l’illustre le graphique ci-dessous :

Source : Magazines and Their Web Site – CJR

Les blogs associés au site souffrent d’une même déshérence, puisque seule la moitié est éditée et seulement un quart « fact-checké », ce qui est peu selon les normes éditoriales américaines.

Pour ce qui concerne la correction des erreurs « après publication », le bilan n’est guère plus brillant :

  • près de 9 fautes mineures  (coquilles, fautes de typo, fautes d’orthographe) sur 10 sont corrigées sans que le lecteur en soit informé ;
  • près de la moitié (45%) des erreurs factuelles (erreurs de date, de lieu, etc.) sont corrigées sans que le lecteur en ait connaissance ;
  • un tiers environ (37%) des erreurs factuelles sont corrigées et font l’objet d’une note détaillant la nature de l’erreur ;
  • 6% laissent l’erreur telle quelle sur le site, mais rédige une note corrective ;
  • 1% regroupe toutes les erreurs dans une section spéciale du site.

2 – Le « papier » dirige le web

Ici, très clairement les sites web n’ont pas acquis leur « indépendance », puisque dans les domaines de décision aussi important que le budget, le contenu et la conception [look and feel] du site, les rédacteurs en chef web ne sont respectivement que 11%, 19% et 33% à avoir la main. Inversement, près des trois quarts des rédacteurs en chef papier (72%) décident du contenu du site web. Le graphique ci-dessous montre très clairement que le « papier » conserve la haute main sur le web, en particulier pour ce qui concerne le contenu et le « ton » adoptés sur le site.

Source : Magazines and Their Web Sites – CJR

Or, cette situation semble être contre-productive, puisque les sites web dont le budget est contrôlé par des rédacteurs en chef « papier » ont pratiquement deux fois plus de chance d’être en déficit (40%) que bénéficiaires (21%). Ce constat se vérifie par le fait que les sites « rentables » ont dans la majorité des cas (67%) leur budget contrôlé soit par un rédacteur en chef web, soit directement par l’éditeur [publisher].

3 – Inutile d’avoir une expérience préalable pour travailler sur le web

Naïvement, on pourrait penser que pour travailler sur le web, il faut avoir été formé pour ce type de travail, ou du moins avoir une expérience dans ce domaine. L’enquête fait l’effet d’une douche froide. En effet, 59% des personnes « apprennent à travailler pour le web lorsqu’elles sont en poste », autrement dit « sur le tas », et seulement 29% sont embauchées avec une expérience web préalable.

En revanche, la coordination « papier » et web semble être une notion qui progresse, mais là encore il faut nuancer :

  • 63% des magazines étudiés ont un « groupe éditorial » qui supervise à la fois les contenus papier et web, dans le sens de contenus « exclusivement produits pour le web ».
  • 20% ont des rédactions séparées « papier » et web, sachant que 6% n’ont pas de relations régulières, alors que 14% discutent du contenu et ont une forme de partage de la charge de travail ;
  • 16% n’ont pas de contenu web spécifique, ce qui signifie que le contenu provient exclusivement du « papier ».

4 – Une forte présence sur les réseaux sociaux

Les magazines américains (du moins leurs sites) ont pris la mesure de l’importance des blogs, puisque 64% d’entre eux ont une plateforme de blogs, et des réseaux sociaux, sur lesquels près de la moitié (47%) ont une présence active, 28% une pratique irrégulière et 23% en sont absents. Twitter et Facebook sont les deux outils plébiscités, tandis que Myspace, Reddit, Delicious et dans une moindre mesure LinkedIn ou Digg sont considérés comme moins efficaces.

Les blogs sont essentiellement alimentés (à 84%) par les rédacteurs du site ou du « papier », mais un gros tiers des sites (39%) utilisent aussi des pigistes ou des auteurs sous contrat. La décision de créer des blogs est facilitée lorsque ce sont des rédacteurs en chef web qui ont la main sur le budget. Ces derniers laissent d’ailleurs plus facilement la bride sur le cou à leurs blogueurs. En effet, lorsqu’ils sont les décideurs, le contenu de près de 4 blogs sur 10 peut-être considéré comme étant plus ou moins indépendant du système de contrôle éditorial du magazine. Ce n’est pas le cas lorsque la décision revient à un rédacteur en chef « papier » : seul 2 blogs sur 10 peut alors avoir un contenu « plus ou moins indépendant ».

5 – Des statistiques sous-exploitées

Près de la moitié des responsables de magazines (43%) n’utilisent pas les statistiques de trafic. Ils ne sont que 39% « à avoir une bonne compréhension des contenus qui ‘marchent bien‘, et à posséder cette information lorsqu’ils prennent leurs décisions éditoriales », et seuls 8% suivent réellement de très près ces statistiques, considérant « que c’est un de leurs principaux facteurs de décision ».

6 – La publicité clé de la rentabilité

Pas de miracle : seul un tiers des sites de magazine étudiés dans cette enquête sont rentables (32%), avec une tendance caractéristique : plus la périodicité du journal « papier » s’allonge, moins le site a de chance d’être rentable, à la seule exception des sites de bimensuel [cet "accident" est peut-être dû à la faiblesse de l'échantillon observé], comme le montre le graphique ci-dessous :

Source : Magazines and Their Web SItes – CJR

Par ailleurs, il est préférable que le magazine « papier » ait une diffusion supérieure à 2 millions d’exemplaires, car c’est à partir de ce seuil que la proportion de sites rentables augmente, puisque dans cette catégorie 42% des sites le sont. La règle du « plus on est gros, plus on a de chances d’être rentable » s’applique aussi en terme de trafic, puisque seuls 21% des sites ayant moins de 50.000 visiteurs uniques par mois s’avèrent rentables, contre 62% de ceux qui ont plus de 2 millions de visiteurs uniques par mois.

Sous-jacente à la question de la rentabilité, se pose celle de la gratuité du contenu. L’enquête  montre que 65% des sites qui dégagent un bénéfice sont gratuits. Un résultat qui se comprend : la publicité sur le site est de très loin la principale source de ressources, distançant toutes les autres ressources comme la vente de produits, les dons, les abonnements au site ou au papier, ou encore l’accès aux archives ; chacun de ces postes représente quelques pour cents des ressources des sites. Pour les sites rentables cette distorsion s’accroît encore. Pour 83% d’entre eux, la publicité représente la principale source de revenus.

Billet initialement publié sur Mediatrend

]]>
http://owni.fr/2010/04/12/sites-de-presse-magazine-la-vitesse-contre-la-qualite/feed/ 4