Faut-il continuer à poser des questions pour obtenir une réponse à une problématique marketing ?

Le Questioning vs le Listening

Depuis l’émergence des communautés et réseaux sociaux, blog, Facebook et autres Twitter, combinée à la traçabilité de notre vie digitale – le surf – il paraît relativement aisé de collecter (je préfère le terme anglais de « harvesting ») de l’information sur des avis émis, des réactions, des échanges d’expérience entre individus (voire même le comportement digital, la navigation sur le web ainsi que les achats sur certains sites marchands, mais le sujet est autre).

Ces informations ont été émises spontanément, souvent en réaction à une expérience « produit », un parcours d’achat, parfois même suite à un bouche à oreille, ou sont issues d’un dialogue entre personnes partageant ou voulant partager un fait, une information, un comportement (au moins la fréquentation du site dudit dialogue), parfois une expérience similaire. Cette écoute – Listening- est donc passive, sans interaction ni modération avec les écoutés, par opposition à l’interrogation directe – le Questionning -, au cours de laquelle les personnes sont recrutées (dans la plupart des cas) pour répondre à un questionnaire. Je ne parle pas ici de certaines communautés qui peuvent être modérée par des professionnels.

Beaucoup de Marketeurs et de département Etudes se posent la question de la pertinence de cette information, la possibilité légale de l’utiliser, et sa substituabilité avec les notions classiques des études de Marchés que sont les attitudes, les usages, l’opinion et en bout de chaîne le comportement « déclaré », le plus souvent utilisé.

Il faut dire que la tentation est forte  et l’interrogation pertinente: l’information existe, peu ou pas de frais de collecte, souvent en grande quantité, et donc un accès rapide à moindre coût.

Est-ce un miroir aux alouettes, la fin des grands programmes de collecte, et donc la démocratisation des Etudes de Marché, qui laissent ainsi entrer dans le Saint des Saints de jeunes sociétés à forte promesse de valeur ajoutée via cette technique passive d’écoute?

Vaste sujet de débats et polémiques, beaucoup de « Research on Research » effectuées ou en cours afin de mieux comprendre ce phénomène, pas très souvent publiées d’ailleurs.

Qu’en est-il réellement, peut-on commencer à en tirer quelques enseignements ? Quelles sont les vraies questions à se poser ?

Avant toute chose, posons quelques éléments de réflexion:

  • une information issue du Web est à priori non structurée car issue de sites et pages hétérogènes dans leur format et leur stockage, souvent en format libre, et donc va demander un travail de structuration et de traitement plus lourd que de la donnée classique d’enquêtes. Ce point n’est pas à négliger car il demande de la ressource humaine qualifiée : textmining plus ou moins complexe, ranking et pondération des informations, contextualisation. Ce coût additionnel peut compenser une partie des coûts de collecte, il faut l’avoir en tête.
  • Cette « open info » n’est pas le reflet exhaustif de ce qui se dit sur la toile, mais le reflet du site sur lequel elle a été émise. En résumé, si vos « sondes » à remonter de l’information ne sont pas mises au bon endroit, vous pouvez passer à côté du sujet ou d’une partie du sujet. Par exemple, utiliser un site de consommateur de la marque étudiée vous donnera de la matière sur les consommateurs en question, qui peut-être ne sont pas aussi objectifs dans leur jugement que les non consommateurs. Ceci est surtout valable pour les produits à cycle long, qui sont par essence plus impliquant et donc sujet à plus de dissonance cognitive.
  • On ne parle plus d’échantillon car il n’y a pas à priori de structuration des individus «parlant» sur des critères donnés (par opposition à des individus «répondant» à une enquête), les personnes ne sont représentatives que d’elles mêmes. Nous touchons là le point central d’un débat sans fin, éternelle balle de ping pong entre les quantitativistes purs et durs et les partisans du « plus ils sont nombreux et plus c’est vrai »…. En re-formulant le dilemme : dix mille verbatim collectés sur l’internet ont-ils plus de valeur qu’un questionnaire administré à 1000 personnes parfaitement choisies pour être représentatives d’une cible, d’une population ?
  • Nous arrivons ensuite à la notion représentativité tant mise en avant, souvent à tort et à travers. Le sujet semble complexe, je pense qu’il est en fait plus simple et emprunt de bons sens. Il faut tout d’abord se poser la question élémentaire mais primordiale du sujet de l’exploration et de la cible à analyser ? En termes succincts :
    • Est-ce dans un but de quantification ou de mesure d’un certain nombre de phénomènes ? Voulez-vous connaître des nombres d’individus qui pensent, qui achètent … ?
    • Ou plutôt êtes-vous à la recherche de signaux faibles sur des « early trends », ou souhaitez-vous une exploration sur les sentiments, couleurs … , mots clés  associés à votre marque ? Commencer à appréhender votre e-réputation, votre e-buzz ?

Deux sujets diamétralement opposés avec des contraintes différentes. Dans le premier exemple il est impératif de bien connaître sa cible en termes de signalétiques, variables sociodémographiques et/ou socio-culturelles afin de relativiser le poids d’un individu par rapport aux autres et ne pas biaiser la structure des réponses, dans le second toute information a le mérite d’exister et a la même valeur « marketing » qu’une autre : représentativité versus large balayage. Tout ceci est bien sur à pondérer par la fréquentation web des cibles.

  • La vérité de l’Internet. Ayant longuement pratiqué de la collecte classique sur échantillons ou sur panels, je connais bien le crédit qu’il faut accorder aux interviews. A titre d’illustration les résultats d’études coïncidentales (vérification parallélisée du déclaratif et du véritable «comportement » observé) sont riches d’enseignement (mais très peu communiqués). Je me suis toujours posée la question de la véracité des propos tenus sur le web. Je pense que dans certains cas notre avatar ou notre pseudo parle à notre place, et a tendance à extrémiser (dans un sens comme dans l’autre) le propos.
  • Les Leaders d’opinion (… ou la colinéarité pour les statisticiens). Les interviews (bien faits) en Etudes de marché sont toutes indépendantes, chaque individu interrogé répond sans aucune interaction avec un autre individu, avec évidemment son propre prisme de compréhension. Sur le web, la situation est bien souvent différente. Les premiers à émettre des avis sont assez souvent des leaders d’opinion, qui s’ignorent ou pas, et les avis suivants peuvent en reprendre la tonalité, consciemment ou pas. Il est important d’avoir cette possible influence en tête.
  • Toutefois, la personne qui émet une opinion sur l’internet a le plus souvent choisi d’être face à son terminal, et va si possible prendre le temps de donner une information avec un contenu plus riche, ce qu’elle n’aurait peut-être pas fait face à un enquêteur. Les verbatim sont riches.
  • Le sujet à aborder est parfaitement défini sur un questionnaire, les premières questions sont souvent posées pour contextualiser et ainsi obtenir le juste renseignement (« straight to the point »). Sans question directe sur un « listening », le sujet n’est pas abordé frontalement et il faut souvent moduler les interprétations.

In fine même si ce papier ne fait qu’effleurer le sujet, nous voyons que chaque technique a ses avantages et inconvénients, et qu’il est difficile de statuer en faveur de l’une ou l’autre.

Un habile dosage est pour moi nécessaire, une complémentarité à trouver, et le potentiel des études dites classiques s’en trouvera accru.

Chaque nouvelle expérimentation mérite réflexion.

A votre disposition,

0 réponses

Répondre

Se joindre à la discussion ?
Vous êtes libre de contribuer !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Blocage des indésirables par WP-SpamShield