Zooms

« Imaginez un monde sans cookie »


Tribune d'expert / 26/06/2015

Pour un site internet ou mobile, un monde sans cookie signifierait théoriquement l'impossibilité de savoir qui est
l'internaute, ce qu'il fait sur le site, ce qu'il a vu, ou acheté le cas échéant. Terminé le ciblage pub, le retargeting, le RTB, les offres dédiées... Sauf si mon internaute a accepté de s'identifier en
entrant.
 Pour l'internaute, une vie sans cookie s'avère assez fastidieuse. A chaque fois que celui-ci ira quelque part, on lui redemandera de ressaisir ses coordonnées. Un mauvais rêve...

Nous n'en sommes pas là mais ce qui se profile pour les années à venir fait du cookie une espèce à protéger dans l'écosystème publicitaire. Et surtout il est vital d'envisager la suite pour que la
 Big, la Smart ou la Small Data aient un sens.
 Par Richard Strul, CEO de Resoneo.

  • Resoneo Richard Strul

Soyons précis. C’est surtout le cookie « tierce partie » qui est concerné. Celui qui, de plus en plus, est filtré par un certain nombre d’environnements et qui permet de récupérer une connaissance transverse du surf de l’internaute. Ce même cookie qui est à la base de nombreuses offres de retargeting et de ciblage…

Résumons les risques qui planent autour du cookie : 
le plus important est lié au morcellement et à la privatisation des environnements de navigation de l'internaute. En premier lieu il est souvent difficile de retracer de façon cohérente le surf multi-device
entre desktop, tablette et mobile. Plus le trafic mobile croit, plus il perturbe les conclusions que l'on peut tirer des moyennes et des
mesures.
Les applications mobiles, également, sont des environnements fermés qui traquent l'internaute à leur sauce et ne sont pas mesurés par les mêmes dispositifs.

Les grands carrefours d’audiences servent aussi « d’aiguillage » vers d’autres sites ou services et peuvent, dans ce cadre, garder une trace du comportement de l’internaute dès lors qu’il est passé par eux ; alors que si l’internaute visite ces mêmes sites un par un, aucun des sites ne bénéficiera d’une vision consolidée (lemonde.fr ne donnera pas ses statistiques à Libération et vice versa, chacun d’eux utilisant son cookie « first party » propriétaire pour suivre son visiteur). Il s’agit là d’un gros avantage concurrentiel.

Le second risque est d'ordre réglementaire. Les débats actuels sur la qualification des données pseudonymes ou anonymes, ainsi que les négociations américano européennes autour de la qualification de ces données pourraient mettre encore plus à mal la validité du cookie.
S’il perd sa valeur de référence en matière de mesure de trafic, il est évident que seront privilégiés en termes de connaissance client les très gros environnements regroupant beaucoup
d'internautes dans des contextes où ils reviennent souvent et réalisent beaucoup d'interactions.

Les premiers univers qui viennent à l'esprit sont les GAFA (Google, Amazon, Facebook, Apple) qui réunissent chacun plusieurs centaines de millions d'utilisateurs (voire plus que le milliard !). Il est également fort probable (même si on parle moins d'eux) que la situation soit identique avec les ABTX, les GAFA chinois. Plus vous réalisez des statistiques sur une population large, plus elles ont du sens. Sur une petite population, adieu la loi des grands nombres.

Ainsi, la dynamique qui s'installe va creuser l'écart entre petits et gros, écart encore renforcé par l'explosion des usages mobiles, fortement différents des usages
 "fixes" (Facebook déclare un usage mobile a 75%).

Comment réagir ? Réfléchir dès maintenant à toutes les solutions "fingerprints" applicables, tout ce qui peut permettre d'agréger de l'information même sans cookie. Ensuite, garder à l'esprit qu'il n'y a que deux façons de faire des statistiques exploitables : soit bénéficier d'échantillons larges pour mesurer, ce qui est souvent difficile lorsque l'on travaille sur des segments pointus, soit historiser de la donnée dans le long terme pour compter plus d'événements même sur un échantillon restreint. Cela signifie qu'à brève échéance il va devenir de plus en plus dur de travailler sur la base d'un tracking standard sans en croiser les données avec une donnée propriétaire enrichie. Sans parler de Big Data, on cherche clairement à combler le fossé souvent présent entre CRM client et référentiel de données de tracking. Nous entrons là dans le monde des DMP, ces databases géantes qui croisent les données de comportement vis à vis du surf et de la publicité avec la connaissance client (ou prospect).

La guerre des datas et des DMP est déjà déclarée : Google connaît nos comportements de recherches, Facebook nos caractéristiques socio démos, et Amazon nos intentions d’achats. Et chacun de créer sa DMP en utilisant ses atouts concurrentiels et en mettant progressivement à disposition les colossales quantités de données engrangées.

Enfin, il faut tordre le cou à la pensée unique, à la dictature du ROI au dernier clic, et intégrer complètement le caractère composite des trajets des internautes, on et offline, fixe et mobile. C'est d'une part le gage d'une attribution pertinente des budgets d'acquisition de trafic mais surtout le moyen d'augmenter le nombre d'interactions prises en compte pour un visiteur donné et de tirer le meilleur parti de l’expérience de l’utilisateur. Penser usage avant de penser statistiques.

 

0
commentaire

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.