Head Of Digital

Catégories
Head Of Digital, agence digitale basée à Paris

8 facteurs majeurs de classement Google qui permettront d’augmenter le trafic de votre site

Facebook
Twitter
LinkedIn

Le saint graal du référencement naturel, la 1ere position sur Google arrache plus de 31% du trafic global.

En résumé, 1 internaute sur 3 va cliquer sur le premier résultat de Google et va ignorer tout le reste des résultats de recherche.

Le volume de clics s’effrite massivement sur les autres positions, pour atteindre moins de 3% en 10 -ème position.

Voici d’ailleurs comment se partagent les clics sur les 10 premières positions de Google :

Source : blogdumoderateur.com

Le SEO et le travail pour atteindre la première position reste donc incontestablement un levier d’acquisition de trafic majeur.

Il semblerait que les internautes aient gardé le réflexe de cliquer uniquement sur le 1er résultat de recherche, peu importe la pertinence de celui-ci. Cela explique la différence énorme de CTR entre la 1ère et 2nde position, malgré une proximité dans les SERPs.

Imaginez l’impact sur votre activité si vous parveniez à vous classer en 1ère position pour vos requêtes les plus qualifiées…

C’est donc l’objectif de ce guide.

Nous allons mettre en lumière les principaux facteurs de classements de Google afin de vous aider à obtenir plus de trafic.

Que sont les facteurs de classement Google ?

L’objectif de Google est de fidéliser ses utilisateurs. Pour cela, il doit les aider à trouver le site internet le plus pertinent par rapport à leurs recherches.

Pour y parvenir, Google effectue un classement de l’ensemble des sites internet présents sur internet grâce à son algorithme, qui évalue la pertinence par rapport à des critères de classement. L’algorithme de Google et les critères de classement font partie des secrets les mieux gardés à l’instar de la recette de Coca Cola.

On sait toutefois qu’il existe plus de 200 facteurs de classements pour Google. Plutôt que de tous les parcourir, je vais détailler les 10 principaux facteurs qui, selon moi, méritent le plus votre attention.

1. Optimisation et convivialité mobile

Avec près de 36 milliards d’appareils connectés dans le monde (contre 15 milliards en 2015), le trafic mobile concerne aujourd’hui plus de 67 % de la population mondiale. Cette proportion devrait d’ailleurs augmenter dans les années à venir

La majorité des personnes, qui naviguent donc désormais sur leur smartphone, s’attendent à consulter un site parfaitement adapté au mobile. Le cas contraire, ce sont des visiteurs qui vont rebondir, frustrés de n’avoir pas pu consulter aisément le contenu qu’ils attendaient.

C’est pourquoi la convivialité mobile est l’un des facteurs de classement les plus importants de Google. Si la navigation sur mobile de votre site est compliquée, Google va automatiquement vous sanctionner en vous déclassant des résultats de recherche.

En réalité, Google a envoyé un signal très fort à ce sujet dès l’été 2019, date à laquelle Google a commencé l’indexation mobile-first et date à laquelle de nombreux voyants ont commencé à s’affoler sur la search console.

L’indexation mobile first est, tout simplement, une nouvelle façon du Googlebot de parcourir les sites :
Googlebot crawl désormais en priorité la version mobile d’une page, plutôt que la version desktop, pour évaluer et déterminer le classement de cette page.

Attention : Lorsque l’on parle “d’index mobile-first” nous ne parlons pas d’un nouvel index indépendant, mais bien d’une indexation prenant en compte, en priorité, la version mobile d’une page.

Google nous propose d’ailleurs une ressource claire (pour une fois) sur le sujet :

En bref, assurez vous que votre site réponde bien aux exigences de Google sur le mobile.

Pour vous aider, je vous liste les 10 principaux problèmes d’indexation sur mobile :

Les 10 erreurs de référencement mobile les plus nuisibles

  • Core Web Vitals : Vitesse du site (site trop lent)
  • Vitales du Web : Interstitiels qui bloquent ou perturbent l’accès à la page
  • Contenu manquant : Fichiers bloqués
  • Contenu manquant : Contenu non accessible
  • Contenu manquant : Mauvaises redirections/liens cassés
  • Contenu manquant : Mobile-Only 404s
  • Contenu manquant : Données structurées
  • Problème d’UX : Ne pas spécifier de fenêtre mobile.

2. Core web vitals

En mai 2020, Google a introduit les Core Web Vitals comme autre facteur de classement important. Ceux-ci font référence à la santé globale de votre site Web en termes d’expérience qu’il offre aux utilisateurs.

Les Core web vitals sont répartis en 3 catégories :

  • LCP (Largest Contentful Paint)
  • FID (First Input Delay)
  • CLS (Cumulative Layout Shift)

Une étude réalisée en 2021 a révélé que seuls 4% des sites Web présentaient de bons résultats dans les trois catégories de Core Web Vitals.

La vitesse de chargement des pages est un facteur de classement : deux tiers de la mise à jour des Core Web Vitals de Google traitent directement de la vitesse des sites (Largest Contentful Paint et First Input Delay).

Même sans considérer les facteurs de classement des moteurs de recherche, vous serez pénalisé simplement par le comportement des mobinautes : 53 % des personnes abandonnent une page si elle met plus de 3 secondes à se charger, selon une étude de Google.

Votre site doit donc idéalement afficher chaque page en moins d’une seconde. Les solutions suivantes peuvent contribuer à accélérer votre site mobile :

  • Minimisez les requêtes et les redirections : Éliminez les redirections 301 autant que possible, supprimez les éléments inutiles de votre page, optimisez votre code HTML et réduisez tout ce qui pourrait ralentir la vitesse du site, comme les CSS et JavaScript.
  • Redimensionnez et comprimez les images : Vous pouvez utiliser les outils intégrés à WordPress pour redimensionner automatiquement les images. Vous pouvez aussi utiliser des outils comme compressor.io pour compresser la taille de vos fichiers.
  • Vérifiez votre solution d’hébergement : Les solutions d’hébergement low cost sont un mauvais choix. Idem pour les hébergements mutualisés de type de ceux d’OVH.
  • Vérifiez votre progression : Utilisez PageSpeed Insights ou Lighthouse de Google pour vérifier rapidement et facilement les performances de votre site.
  • Utilisez les nouvelles technologies web natives (lazy load), pour retarder le chargement de fichiers volumineux.

3. Un contenu à forte valeur ajoutée

Selon SEMRush, 55 % des marques ont pu gagner de nouvelles positions dans les classements de Google grâce aux améliorations qu’elles ont apportées à leur contenu.

Oubliez le temps du spinning content et autres outils de génération de contenus, même ceux à base d’IA.

Vous ne parviendrez pas à ranker convenablement sur le long terme avec du contenu à faible valeur ajoutée. Comprenez par là que les articles qui n’apportent aucun insight, aucune valeur ajoutée par rapport à ce qui existe déjà ne présente que peu de chances de maintenir un ranking élevé dans le temps. Idem concernant l’obsolescence du contenu. Vos contenus doivent être rafraichis sur une base régulière pour conserver leur pertinence avec l’actualité.

Quels sont les critères de qualité pour le contenu ?

Réfléchissez à ce que veulent les utilisateurs et projetez-vous à la place du moteur de recherche : à la place de Google, seriez-vous confiant à l’idée d’envoyer les utilisateurs vers votre propre site web ?

Si la réponse est ‘oui’ (objectivement :), alors c’est là qu’une grande partie du travail plus technique peut entrer en jeu. Mais, si la réponse est ‘non’, alors c’est probablement le signe que vous devez ajouter plus de valeur pour les utilisateurs avant de travailler sur les aspects techniques.

Fournir aux utilisateurs un contenu substantiel, utile et unique, c’est la seule motivation pour les aider à rester sur vos pages, en créant un lien d’autorité et de confiance. La qualité va varier en fonction du type de contenu et du secteur d’activité.

Les directives de Google sont d’ailleurs détaillées :

Le contenu informatif doit être précis, complet, original et présenté de manière professionnelle.

Le contenu artistique doit être original, unique et faire preuve d’un haut degré de compétence.

Le contenu d’actualité doit être approfondi, bien cité, précis et contenir des reportages originaux.

Les marques qui créent du contenu Your Money or Your Life (YMYL) doivent prêter une attention particulière à ces normes, car les algorithmes de Google pourraient accorder plus de poids aux signaux d’autorité, d’expertise et de fiabilité (E-A-T).

Le contenu est la pierre angulaire de vos efforts de référencement et ne doit pas être négligé. La création – et l’investissement – d’une stratégie de contenu claire est essentielle à votre réussite en matière de référencement, car presque tous les autres facteurs dépendent de la qualité du contenu.

4. Âge du domaine et autorité

Malheureusement, l’âge du domaine est l’un de ces facteurs de référencement Google que vous ne pouvez pas nécessairement contrôler, à moins que vous n’achetiez des domaines déjà exploités.

L’âge du domaine fait référence à la durée depuis lequel le domaine a commencé à être indexé, et l’autorité concerne essentiellement votre réputation auprès de Google.

J’ai personnellement plusieurs preuves concrètes que l’âge est l’un des critères essentiels de Google. Il est donc préférable d’éviter de changer de domaine en cours de route, erreur à laquelle j’ai pu assister avec certains de mes clients, et qui leur a valu des chutes considérables dans les SERP.

Pour améliorer votre autorité en revanche, vous pouvez faire intervenir des experts en la matière, inclure des interviews et des critiques d’experts du secteur, tirer parti de la preuve sociale sur votre site Web et jouer sur les signaux de Ereputation.

Gardez à l’esprit que l’E-A-T n’est pas un facteur de classement direct, mais il a un impact indirect sur le référencement. En fait, après la mise à jour de 2018 de Google « Google medic », le trafic mensuel de certains sites YMYL présentant des lacunes d’E-A-T a chuté de 2 millions à environ 4 000 en 2020.

5. Backlinks

Plus de 90 % des pages web ne reçoivent aucun trafic, souvent parce qu’elles n’ont pas de backlinks.

Et oui, les liens sont toujours importants pour le classement Google SEO. Les liens entrants, les liens sortants et le maillage interne sont tous des facteurs de classement importants car ils augmentent l’autorité globale de votre site et l’aident à prouver qu’il est une ressource précieuse.

Les liens entrants ou « backlinks » sont des liens particulièrement puissants. Ils renforcent l’autorité de votre site en montrant à Google que votre contenu est intéressant et que d’autres sites souhaitent le partager.

Les liens sortants font preuve d’autorité en fournissant des ressources supplémentaires pertinentes aux visiteurs de votre site. Ils aident aussi l’algorithme à comprendre la thématique que vous abordez. Vous pouvez par exemple inclure des liens sortants pour étayer des études et des statistiques que vous intégrez dans votre contenu, comme je l’ai fait ici pour l’étude SEMRush par exemple.

Les liens internes sont des liens au sein de votre propre site Web qui relient les idées entre elles. Le maillage interne vous permet de proposer à l’internaute de poursuivre sa lecture vers d’autres articles de la même catégorie. De cette façon, le visiteur approfondit ses connaissances, mais il passe plus de temps sur vos pages. Vous limitez l’effet rebond tout en donnant du poids au contenu de votre site.

6. Expérience sur la page, temps passé et taux de rebond

Le taux de rebond représente le nombre de visiteurs qui quittent le site après avoir consulté une seule page, sans aucune interaction avec cette page. Il est généralement exprimé en pourcentage.

Le logiciel de suivi Google Analytics (GA) garde la trace de ce taux de rebond pour vous. À maintes reprises, Matt Cutts, responsable du Webspam chez Google, a catégoriquement nié que Google pouvait utiliser les taux de rebond, ou toute autre mesure dérivée de GA, dans ses algorithmes de classement.

Alors même si (et c’est seulement une hypothèse) Google n’utilise pas les taux de rebond de Google Analytics, cela ne signifie pas qu’il n’utilise pas une mesure similaire à partir de ses propres données depuis les SERPs (Search Engine Results Page) et le pogosticking par exemple.

Le pogosticking c’est lorsque l’utilisateur revient rapidement sur la page de résultats du moteur en utilisant le bouton « back » de son navigateur après avoir vu une unique page correspondant au premier lien cliqué.
Pour les liens organiques, un comportement trop fréquent de pogosticking pourrait être interprété par Google comme un manque de pertinence ou de qualité des pages visitées concernées et nuire finalement au positionnement de ces pages (même si cela a aussi été dementi par Google).

7. Référencement On Page

Le référencement technique reste un facteur de classement important pour Google. Le référencement technique comprend des éléments tels que

  • mots-clés dans les titres des pages et les balises de titre
  • balises d’en-tête optimisées pour les mots-clés
  • méta-description correctement optimisée de 110 à 150 caractères
  • Balise schéma

Le référencement technique est certainement l’un des aspects les plus faciles à régler sur votre site Web. Assurez-vous que vous utilisez des mots clés pertinents dans tous les en-têtes et métadonnées. La clé pour y parvenir est de disposer d’un outil de recherche de mots-clés de qualité qui vous fournit des données complexes sur les concurrents et les mots-clés.

En ce qui concerne les balises d’en-tête, vous devez vous assurer que vous utilisez des mots clés dans les en-têtes de vos articles chaque fois que possible. Lorsque Google explore votre site, les en-têtes sont un indicateur important du sujet de votre article, et ils sont importants pour le référencement global dans Google.

Votre méta-description et votre balise de titre sont les éléments qui s’affichent dans les SERP lorsqu’une personne recherche un mot clé pertinent. Vous devez utiliser des mots clés dans la méta-description et la balise de titre, mais veillez à ce qu’ils soient naturels et non forcés.

Depuis quelques mois, Google annonce qu’il ne reprendra plus nécessairement les titres de vos balises dans les SERP, j’ai pu constater qu’il allait piocher dans ce cas majoritairement des contenus des autres balises de types H1/H2 ou H3.

8. Signaux sociaux

Le graphique et l’étude réalisés par cognitiveSEO montrent l’impact du nombre de partages sociaux sur le classement général d’une page Web.

Bien que cette étude date un peu, elle fournit toujours un contexte à l’importance des médias sociaux dans le référencement.

Plus le nombre de partages diminue, plus le classement baisse. Bien sûr, ce facteur seul n’aura pas un impact énorme sur votre classement, mais si vous faîtes face à une concurrence agressive, il peut vous permettre de vous distinguer.

N’oubliez pas qu’une présence sociale est également un facteur de confiance important. Si les visiteurs peuvent vous trouver sur les médias sociaux, voir que vous êtes actif et présent, ils peuvent être plus enclins à acheter chez vous. Ce n’est pas pour rien si le marketing d’influence est l’un des canaux de ventes les plus exploités ces dernières années.

Image de Thibaut Fitoussi

Thibaut Fitoussi

Je suis le fondateur de HoD et l'auteur de cet article.

J'espère que vous avez apprécié cet article.

Si vous voulez que mon équipe à HoD vous aide à exploser votre audience et votre ROI, il suffit de nous adresser vos coordonnées.

Catégories
Head Of Digital, agence digitale basée à Paris

Marketing de contenu : 9 manières d’exploiter les données pour optimiser vos résultats

Facebook
Twitter
LinkedIn

Le marketing se réinvente tous les jours. Des nouvelles technos challengent continuellement vos outils traditionnels, les usages changent régulièrement et le développement de la concurrence force les experts Marketing à se réinventer chaque jour au gré de ces évolutions.

Dans ce paysage en mutation permanente, de nombreuses entreprises investissent massivement dans la mise en place de programmes de marketing de contenu.

Pourquoi ?

Parce que le marketing de contenu est l’une des méthodes les plus efficaces pour attirer et fidéliser un public clairement défini – et, en fin de compte, pour susciter une action rentable de la part du client.

Et ça marche.

Au lieu de présenter vos produits ou services, vous fournissez un contenu réellement pertinent et utile à vos prospects et clients pour les aider à résoudre leurs problèmes.

Il est donc primordial de développer une compréhension et une analyse approfondies de votre marketing de contenu pour vous aider à prendre les bonnes décisions.

Si vous n’exploitez pas encore vos données et que vous ne réalisez pas d’analyses sur vos contenus, vous vous privez clairement de sources fiables d’aides à la décision.

Dans cet article, je vais vous expliquer l’importance et les différentes manières d’utiliser des analyses détaillées pour améliorer votre stratégie.

En tant que spécialiste du marketing de contenu, les données et les analyses doivent guider vos décisions concernant vos campagnes et stratégies de marketing de contenu.

En quoi cela consiste-t-il plus précisément ?

Les données peuvent répondre à de nombreuses questions, notamment :

  • Mes efforts marketing actuels sont-ils efficaces ?
  • Quels types de contenu sont le plus consultés par mon audience ?
  • Quels types de contenu ne sont pas pertinents pour mon audience ?
  • Y a-t-il des lacunes dans ma stratégie actuelle de marketing de contenu ?
  • Quelles pages sont les plus efficaces pour générer du trafic ?
  • Quelles sont les pages les plus efficaces pour générer des conversions ?
  • Quels sont les thèmes les plus recherchés dans mon activité

Les réponses à ces questions doivent guider vos stratégies de marketing de contenu.

9 façons d’utiliser les analyses de marketing de contenu

1. Identifier les pages avec le meilleur engagement et tirer des conclusions sur les thèmes gagnants

Le taux de rebond (ou bounce rate en Anglais) est un indicateur marketing qui correspond au pourcentage de visiteurs qui accèdent à une page, puis quittent le site sans cliquer nulle part ni accéder à une autre page du même site.

Taux de rebond vs pogosticking

Contrairement au pogosticking qui signifie qu’un internaute, à peine arrivé sur le site depuis une page de résultats de recherche de Google va directement y retourner en cliquant par exemple sur la flèche « Retour » de Chrome ou n’importe quel autre navigateur web, le taux de rebond ne traduit pas forcément une mauvaise expérience utilisateur.

Selon Contentsquare, le taux de rebond moyen pour les sites E- commerce est de 47 %.

Lorsque vos pages se situent au-dessus de cette moyenne, vous pouvez considérer que votre taux de rebond est « élevé ».

un taux de rebond important peut dans certains cas traduire d’une excellente expérience utilisateur si l’internaute arrive par exemple sur un guide détaillé sur un sujet et qu’il y trouve toutes les réponses à ses questions et ne souhaite pas consulter un autre contenu sur le site.

Dans tous les cas, vous pouvez exploiter cette donnée : où s’enfuient vos visiteurs ?

Dans la navigation de gauche de Google Analytics, allez dans :

Comportement > Contenu du site > Toutes les pages

Vous pouvez alors identifier les pages au plus fort taux de rebond en cliquant simplement sur Taux de rebond afin de classer la colonne. Une flèche vers le bas apparaît, indiquant que la mesure est triée de la plus élevée à la plus faible.

Vous allez constater que de nombreuses pages principales ont un nombre très faible de sessions. Pour les filtrer, nous allons créer un segment. Cliquez sur « Ajouter un segment » à droite de « Tous les utilisateurs » en haut de votre page Analytics.

Cliquez sur le bouton rouge « +Nouveau segment », puis sélectionnez « Comportement » dans les options du côté gauche. Ici, vous pouvez décider des pages à exclure en ajoutant une quantité à côté de « Sessions ».

Cliquez sur Enregistrer, et lorsque vous retournerez au rapport, vous verrez maintenant le taux de rebond par deux segments : Tous les utilisateurs et le nouveau segment de sessions que vous venez de créer.

Vous pouvez également créer un segment sur les pages présentant le plus faible temps de session en utilisant la même méthode. (PS : les pages au taux de rebond de 100% ont un temps de session de 0s)

Grâce à ces informations, vous allez comprendre comment les utilisateurs naviguent sur votre site et quelles sont les potentielles lacunes sur ces pages de rebond.

Identifiez les lacunes sur votre contenu pour effectuer les retouches nécessaires

Maintenant que vous avez identifié vos pages de rebond, vous allez pouvoir identifier les problèmes sur vos pages :

  • Ces pages n’apportent peut-être pas le contenu désiré par l’internaute
  • Le contenu est de mauvaise qualité, où ne répond pas à ce qui était promis dans le titre
  • Ces pages contiennent trop de publicités, de pop-ups ou sont visuellement indigestes

Pour identifier vos lacunes, voici 2 méthodes :

  1. Utilisez l’outil de planification de mots clés de Google ads ou l’outil d’Ubersuggest. Faîtes une recherche avec votre mot clé phare et identifier les termes connexes les plus recherchés.
  2. Tapez directement le terme recherché sur Google. Les 2 premiers sites vous diront quel est le contenu attendu par Google (et donc par les internautes) pour ce mot clé.

Qu’est-ce que cela va vous apprendre ?

Les pages dont le trafic est constant mais dont le taux de rebond ou de sortie est élevé ne répondent pas aux besoins des visiteurs. Grâce aux méthodes ci-dessus, vous pouvez déterminer ce que les visiteurs recherchent spécifiquement et ajouter le contenu nécessaire pour répondre aux attentes de vos visiteurs.

3. Comparer la convivialité mobile et desktop et mettre en place des éventuelles améliorations

Savez-vous comment et sur quels appareils les visiteurs de votre site Web l’utilisent ?

Si ce n’est pas le cas, il se peut que l’expérience soit mal optimisée pour un grand nombre de vos visiteurs. Non seulement cela fait fuir le trafic, mais cela peut aussi nuire à la stratégie globale de votre marque.

Le trafic internet mondial se répartit comme suit par appareil :

54,8 % de mobiles (Statistiques et faits Internet 100 + pour 2022, Websiterating, relayé par Oberlo)

Le reste se joue entre desktop et tablettes

Avec environ 41,52 % pour le desktop

La répartition varie selon les pays, les régions et les sites Web, mais il n’en reste pas moins que les appareils mobiles sont désormais utilisés par la majorité des utilisateurs.

Il est temps maintenant d’identifier les tendances de votre audience sur Analytics.

Connectez-vous à votre compte Google Analytics.

Dans la navigation de gauche, sous « Rapports », allez dans Audience > Mobile > Vue d’ensemble.

Ce rapport vous communique la ventilation des catégories d’appareils ainsi que les données d’usage relatives à chaque appareil.

Vous devez ici comparer les métriques les plus importantes.

Il peut s’agir du taux de rebond, du temps de session, ou mieux, du taux de conversion par device (lead, achat…).

Le plus souvent, vous remarquerez que vos métriques mobiles sont moins élevées que les métriques desktop. C’est normal. Mais la différence ne soit pas non plus être trop importante.

A titre d’exemple sur l’un des sites E-commerce qui m’appartient, nous pouvons voir que l’écart desktop/mobile est assez important, et que la proportion de Traffic mobile est tellement plus importante qu’elle impacte négativement le taux de conversion globale du site.

Même si votre site est globalement adapté aux mobiles, ces outils peuvent vous aider à l’améliorer :

https://search.google.com/test/mobile-friendly

https://www.bing.com/webmaster/tools/mobile-friendliness

4. Identifiez vos meilleures pages et créez du contenu connexe.

Vous pouvez effectuer une rétro-ingénierie pour voir quels sont les termes pour lesquels vos pages principales sont actuellement classées. Grâce à ces informations, vous pouvez ensuite créer du contenu sur les termes de recherche associés.

Vous devez pour cela utiliser la search console.

Connectez-vous à Google Search Console, puis cliquez sur « Performances » dans le menu de gauche. Cliquez sur « + Nouveau » et sélectionnez « Page » dans le menu déroulant.

Vous avez maintenant le choix.

Vous pouvez simplement chercher les pages les plus performantes, ou faire une recherche spécifique en intégrant une URL spécifique.

C’est votre point de départ. Vous pouvez ensuite utiliser un outil de recherche de mots clés comme Ubersuggest ou le planificateur de mots clés de Google Ads pour trouver des mots clés connexes pour lesquels vous n’êtes pas actuellement classé.

Cela permet de réduire les lacunes de contenu (comme celles évoquées dans la section précédente), d’augmenter les impressions et les clics sur vos URL actuelles. La recherche organique représentant 53,3 % de la consommation de contenu, c’est le moment ou jamais de prendre le contrôle des mots clés ciblés.

Par ailleurs, Google apprécie fortement la profondeur et le détail lorsque vous vous attaquez un thème. En créant plusieurs pages connexes, vous apportez de la granularité à Google, ce qui est plus favorable pour vous classer sur la thématique principale ainsi que les thèmes connexes.

5. Identifiez les groupes à fort trafic et les groupes au taux de rebond important afin d’identifier les problèmes et améliorer l’expérience de vos utilisateurs.

Selon https://www.customedialabs.com/blog/bounce-rates/, le taux de rebond moyen pour un blog se situe entre 65 et 90%.

Il peut s’agir d’une ligne directrice utile, mais il est parfois plus utile d’examiner le taux de rebond par segment d’audience plutôt que par type de page. Si certains groupes démographiques ont un trafic et un taux de rebond élevés, nous pouvons utiliser cette information pour améliorer l’expérience.

Il y a alors plusieurs explications possibles :

  • le classement de votre page pour un sujet sans rapport
  • le classement de votre page pour un sujet étroitement lié
  • votre page contient des informations obsolètes ou incorrectes

En vous concentrant sur les segments d’audience présentant un trafic et un taux de rebond élevés, vous pouvez identifier ces types de problèmes.

Comment pouvez-vous identifier ces problèmes ?

Il existe plusieurs outils de segmentation de l’audience : Adobe Analytics, Google Analytics, Kissmetrics peuvent vous aider.

Voici comment réduire les segments d’audience dans Google Analytics.

Tout d’abord, allez dans « Audience » dans la navigation de gauche. Vous pouvez y consulter différentes ventilations de l’audience par Démographie, Intérêts, Comportement et Technologie. C’est là que vous allez d’abord repérer les segments présentant des taux de rebond élevés.

Une fois que vous avez une liste de segments d’audience avec des taux de rebond élevés, vous pouvez jouer avec des segments personnalisés. En haut de n’importe quel rapport, cliquez sur « Ajouter un segment ».

Vous pouvez ajouter une combinaison de données démographiques, technologiques, de sources de trafic, etc. pour obtenir un aperçu plus approfondi du comportement de l’audience.

Comment tirer le meilleur parti de cette segmentation ?

Dans la navigation de gauche, allez dans

Comportement > Contenu du site > Toutes les pages

Ce rapport offre une ventilation des mesures de performance des pages, notamment les pages vues, le temps moyen sur la page, les entrées, le taux de rebond et le taux de sortie.

Comment utiliser le rapport « Content Marketing Analytics – All Pages » ?

En utilisant votre segment personnalisé, vous pouvez maintenant voir quelles pages de votre site sont les plus touchées par la déconnexion du trafic/du taux de rebond.

6. Augmenter les conversions

A ce stade, je vous conseille d’utiliser un entonnoir de conversion. C’est une représentation visuelle des étapes du parcours d’un utilisateur sur votre site Web.

Il est utile pour comprendre où les utilisateurs entrent sur votre site, comment ils interagissent et se comportent sur le site, et où et comment ils finissent par se convertir. Cela peut également mettre en évidence des zones de baisse particulières, ce qui est important pour décrypter des éventuels problèmes.

Les obstacles habituels à la conversion sont :

  • Parcours complexes ou trop longs
  • Problème de convivialité mobile
  • Manque de preuve sociale
  • Contenu peu qualitatif
  • Pop-ups qui viennent perturber la conversion
  • Publicités qui viennent perturber la conversion
  • Code promo qui ne fonctionne pas
  • Mauvaise attribution
  • Lenteur de chargement des pages
  • Problème avec votre processeur de paiement
  • Trop de champs sur votre checkout
  • Etc etc

Avec Google Analytics, vous pouvez créer un entonnoir personnalisé. Il faut du temps pour construire ces entonnoirs et recueillir des données. En attendant, vous avez la possibilité d’utiliser des entonnoirs préétablis pour obtenir des résultats rapides :

Conversions > Ecommerce

Dans cette liste déroulante, vous pouvez choisir entre « Comportement d’achat » et « Comportement de paiement ».

Ces entonnoirs vous permettent d’identifier l’étape exacte à laquelle les utilisateurs quittent votre site ou abandonnent le processus de paiement. Vous pouvez même utiliser la segmentation pour cibler des publics spécifiques afin d’obtenir un meilleur aperçu.

Une fois que vous avez compris quelles étapes ont le plus grand nombre d’abandons, vous pouvez effectuer une analyse complète de l’entonnoir pour trouver des moyens de supprimer les obstacles et d’augmenter les conversions.

7. Identifiez les meilleurs canaux d’acquisition marketing

Vous devez continuellement exploiter les résultats des campagnes précédentes pour guider votre stratégie.

Commençons par le tableau de bord des indicateurs clés de performance (ICP) de Google Analytics.

Google Analytics vous permet de créer des tableaux de bord personnalisés afin que vous puissiez identifier vos indicateurs clés de performance importants en un seul endroit. Les KPI peuvent changer pour chaque campagne, mais je peux vous montrer comment créer vos propres tableaux de bord personnalisés et quelques widgets à inclure.

Pour ce faire :

Personnalisation > Tableaux de bord

(dans la navigation de gauche). Cliquez ensuite sur le bouton rouge « Créer » pour lancer un nouveau tableau de bord.

Vous pouvez choisir entre « Toile vierge » et « tableau de bord par défaut », mais je recommande vivement la « toile vierge » pour bénéficier de toutes les possibilités de personnalisation.

Une fois que vous avez cliqué sur « Créer un tableau de bord », vous verrez qu’il y a des dizaines de widgets à utiliser. Ces widgets peuvent être personnalisés avec des mesures, des statistiques et des graphiques. Bien que les indicateurs clés de performance varient pour chaque tableau de bord de campagne, voici quelques recommandations.

Ce widget vous indiquera quelles sources de trafic ont le plus d’impact sur les performances de votre campagne.

Sélectionnez « Tableau » dans les options, puis définissez Source/Medium comme première mesure.

Dans les deux autres métriques, vous pouvez sélectionner plusieurs options différentes. Les sessions et les revenus sont deux options très utiles si vous voulez un moyen rapide de trier des résultats tangibles par source de trafic. Vous pouvez également sélectionner des objectifs personnalisés pour une mesure qui est souvent basée sur la conversion.

Si les sessions et les pages vues peuvent être des mesures utiles, ce qui compte le plus, c’est la qualité de ces sessions et pages vues. C’est pourquoi j’aime examiner de près la rétention des visiteurs avec le widget ci-dessous.

Sélectionnez à nouveau l’option « Tableau » dans l’outil de création de widget. Sélectionnez ensuite les trois indicateurs suivants : Référent complet, Pages vues et Taux de rebond.

Ce widget vous donnera un aperçu de la qualité du trafic que vous recevez de chaque référent (par exemple, trafic direct, résultats de recherche Google, liens d’affiliation, etc.). Cela vous aidera à cibler les référents de vos campagnes les plus réussies afin de pouvoir les exploiter à l’avenir.

Conclusion : Analyse du marketing de contenu

Votre stratégie de contenu doit être en constante évolution. Comment savoir quelle direction prendre ? Grâce aux données d’analyse que vous allez récupérer progressivement.

Vous allez peut-être trouver ces données confuses au début, mais elles peuvent vous fournir des données précieuses à exploiter. Ces informations vous permettront de modifier votre stratégie pour améliorer les performances globales.

Image de Thibaut Fitoussi

Thibaut Fitoussi

Je suis le fondateur de HoD et l'auteur de cet article.

J'espère que vous avez apprécié cet article.

Si vous voulez que mon équipe à HoD vous aide à exploser votre audience et votre ROI, il suffit de nous adresser vos coordonnées.

Catégories
Head Of Digital, agence digitale basée à Paris

Transformer l’entreprise en machine de guerre avec un stack commercial adapté

(Si vous souhaitez aller à l’essentiel et commencez à vous équiper dès maintenant, voir les 2 ressources en bas de page)

Le stack commercial a vocation à améliorer la productivité et l’automatisation des tâches répétitives en entreprise.

Indirectement, il favorise également la prise de décision rapide.

C’est donc le nerf de la guerre pour toute entreprise en quête de performance. Et pourtant, c’est encore un sac de noeuds pour des nombreuses entreprises.

En résumé, le stack commercial comprend l’ensemble des outils que l’entreprise utilise pour favoriser l’automatisation de son activité commerciale :

  • Les outils de prospection
  • le profilage des prospects
  • l’organisation (classification/répartition) et le scoring des leads,
  • la relation client,
  • le partage des supports de ventes aux différentes équipes,
  • La préparation des propositions commerciales
  • la génération de propositions commerciales,
  • la tarification
  • la signature électronique,
  • le partage de toute forme de contenu à vocation commerciale,
  • la visio,
  • l’intelligence conversationnelle,
  • l’organisation des échanges de couriers électroniques,
  • la planification en terme de calendriers,
  • la rémunération des ventes,
  • les outils de suivi de performance
  • la répartition des tâches,
  • les outils de prévision de vente
  • et bien plus encore. 

Ces outils, ainsi que la formation et le coaching en matière de vente et de gestion des ventes, sont destinés aux différentes ressources humaines dédiées à l’organisation de l’activité commerciale.

A première vue, on pourait donc penser que s’équiper au mieux dans l’entreprise représente un enjeu capital pour développer l’activité commerciale.

La réalité est différente, car certaines organisations ne sont pas faîtes pour supporter des structures trop lourdes.

Bill Gates en a même fait un résumé qui est devenu un adage:

« l’automatisation appliquée à une opération efficace favorisera l’efficacité, mais l’automatisation appliquée à une opération inefficace favorisera l’inefficacité« .

C’est ici le cœur du problème pour de nombreuses entreprises.

L’entreprise n’a probablement pas besoin de tous les outils. Ils représentent une distraction, prennent du temps en terme de prise en main et d’intégration.

Seule une partie d’entre eux est véritablement adaptée selon l’activité commerciale et le modèle d’organisation de l’entreprise

Mais les personnes qui développent ces outils technologiques, certes sexy sur le papier, vont évidemment prétendre qu’ils sont essentiels.

La question est la suivante : combien de ces outils sont indispensables à l’entreprise sur la base des critères suivants ?

  • Ils aident les commerciaux à suivre leur processus de vente
  • Ils aident les commerciaux à rester organisés
  • Ils fournissent à la direction commerciale des données importantes en temps réel
  • Ils permettent de mieux comprendre et de visualiser le pipeline
  • Ils permettent aux commerciaux de dégager plus de temps consacré à la vente et diminuent le temps consacré à l’administratif.
  • Ils rendent les commerciaux plus efficaces

Voici quelques préliminaires qui me semblent essentiels dans la réflexion autour de l’organisation du stack commercial :

1. Visez grand, commencez petit

Je dois reconnaitre qu’il est très tentant de plonger dans l’univers du SaaS et de commencer à choisir des outils comme s’il s’agissait d’un magasin de bonbons.

Mais de mon humble opinion, le meilleur conseil est de commencer petit et rester agile.

Envisagez le déploiement de votre stack comme une startup : Il est important d’avoir la vision de l’organisation à terme, mais il est tout aussi important de se déplacer de manière agile vers cet objectif. Il est préférable de commencer par les fonctionnalités les plus basiques possible, centrés sur l’essentiel, en utilisant chacun des outils à sa pleine capacité avant de superposer de nouvelles couches.

2. Donnez la priorité aux utilisateurs plutôt qu’à la technologie

La solution Walkme en a fait son slogan publicitaire. Et c’est bien trouvé.

Elle se résumé à cette simple évidence : les outils doivent s’intégrer en fonction du besoin de vos équipes, ce n’est pas à vos équipes de s’adapter aux contraintes de l’outil. Peu importe qu’un outil dispose d’une liste de fonctionnalités impressionnantes si ce ne sont pas celles dont vos équipes ont besoin.

3. Le stack doit être considéré comme une chaîne globale : Les nouveaux outils vont-ils bien s’accorder avec les anciens ?

Je garde toujours en tête le cas de l’un des constructeurs auto Français de référence. 12 bases de données internes. Une centralisation des données impossibles. Un véritable cauchemar pour le head. La première chose avant d’envisager un nouvel outil, c’est de penser à la facilité de migration et donc à la compatibilité des solutions on site.

4. L’ensemble est il bien sécurisé et compatible RGPD ?

Votre entreprise est un écosystème composé de personnes et d’outils. Et une partie de ces outils, en mode SaaS, impliquent que vous « partagiez » effectivement les informations les plus sensibles de votre entreprise avec une tierce partie. Et l’ensemble de la chaîne – les différents outils et les ressources allouées –  doit respecter la conformité aux standards imposés par la réglementation RGPD. Il est probablement préférable de faire intervenir le DPO dans l’organisation et le choix de vos outils.

5. Optimisez pour l’évolutivité

Avez-vous toujours accès aux données ? L’outil permet il d’exporter vos données si vous devez changer de techno ? La techno comporte-t-elle une API pour permettre une certaine flexibilité ? Comment voyez vous l’évolution de votre propre produit d’ici un an ?

Ce sont les questions qu’il faut se poser avant de se retrouver embarqué avec un stack commercial qui ne sera plus adapté à votre structure ou vos ambitions d’ici un an. Il ne sert à rien de former les équipes à un outil trop complexe dans ce cas. À l’inverse, s’assurer que l’on peut se dégager de toute solution qui ne serait plus efficace ou adaptée.

Vous êtes prêts à vous équiper ?

Voici 2 ressources intéressantes :

La première est une infographie qui permet d’avoir une vision d’ensemble sur le squelette de ce que pourrait être votre sales stack :

La deuxième, c’est un simple lien, une ressource en or qui repertorie toutes les solutions par caégories, avec un mini résumé :

https://yoursales.com/sales-stack-2020/

Source infographie : https://blog.zoominfo.com/sales-technology-stack-2/

Catégories
Head Of Digital, agence digitale basée à Paris

Les 5 règles d’or du CMO pour avancer dans le contexte post Covid

Les restrictions liées au COVID-19 se sont assouplies et la vie reprend sous une nouvelle forme, transformée par l’éloignement social, les changements d’habitude, notamment en terme de transport et par l’évolution du télétravail.

Pour aider à définir et à comprendre la prochaine phase d’un point de vue marketing, j’ai analysé un florilège de réflexions de spécialistes du marketing, de chefs d’entreprise et d’analystes.

De cette analyse, j’ai conclu à 5 règles d’or sur la manière de naviguer dans la « nouvelle normalité » de l’environnement post-COVID.

L’empathie, la nouvelle façon de communiquer avec le client

L’impact du COVID-19 sur les comportements et les attitudes des consommateurs ne peut être sous-estimé. Une étude réalisée par Reach3 Insights a récemment confirmé que les consommateurs ont récemment adopté de nouvelles habitudes après le Covid (76% des consommateurs).

Parmi ces personnes, 89 % ont déclaré qu’elles prévoyaient de conserver certaines de leurs nouvelles habitudes. Les consommateurs essaient également de nouveaux produits, 36 % d’entre eux prévoyant de continuer à utiliser les nouvelles marques qu’ils ont essayées après COVID-19.

Ce n’est pas le moment de se reposer sur des hypothèses. Toutes les données dont vous disposez depuis 3 mois – et encore moins depuis six mois – sont déjà dépassées. Comme l’a récemment conseillé le cabinet de conseil Gartner, les responsables marketing doivent être proactifs dans le suivi des changements de comportement des clients et des besoins d’achat pendant l’évolution de la crise.

Les entreprises doivent aller de l’avant, mais elles doivent le faire avec une véritable empathie.

Les CMO peuvent aider les dirigeants à prendre les bonnes mesures en agissant comme un phare pour la compréhension des consommateurs. De nombreuses entreprises ont déjà mis en place des programmes d’enquête client, qui peuvent être utilisés à ce stade pour découvrir les émotions qui sous-tendent les changements d’attitude et de comportement des consommateurs. Doubler les programmes d’engagement et d’écoute du client peut aider à fournir des indications sur la meilleure façon d’aller de l’avant.

Racontez des histoires pertinentes et authentiques – et donnez, donnez, donnez

De nombreuses marques ont déjà réalisé des campagnes publicitaires pertinentes qui parlent des réalités de la pandémie. Dove, par exemple, a créé un spot qui met en lumière le courage des professionnels de santé. Certaines marques, comme Budweiser et Burger King, mettent l’accent sur la distanciation sociale et encouragent les gens à faire leur part en restant chez eux.

Repelling Onion Burgers : burger with onions

Illustration campagne de Burger King incitant à la distanciation sociale

C’est formidable d’assister à autant de créativité dans le storytelling à l’heure actuelle, mais les spécialistes du marketing peuvent encore probablement pousser leurs entreprises à faire encore plus. C’est le moment de récompenser la fidélité et d’offrir le plus de valeur possible à vos clients et communautés de marque.

Chaque organisation et chaque personne a la capacité de contribuer à sa manière. La question la plus importante que les entreprises doivent se poser est la suivante : « Que puis-je faire pour aider ? »

Le principe d’aide (et de don) peut revetir plusieurs formes. Par exemple, Adidas a réalisé et communiqué sur une vente aux enchères en ligne dont l’intégralité des fonds ont été reversés au profit de la Fondation Hôpitaux de Paris – Hôpitaux de France (soignants, patients et EHPAD). A l’issue de cette vente, 107.730 euros ont été reversés à la fondation.

À l’instar de certains outils du MadTech (Brand safety, Analytiques…), Nike a temporairement supprimé les frais d’abonnement à son application pour aider les gens à rester en forme pendant la quarantaine.

Doctolib quant à lui a proposé son logiciel de téléconsultation en accès gratuit aux praticiens de santé jusqu’à la fin du confinement (bon certes c’est une campagne d’acquisition déguisée 😊).

Dans le cadre de mon activité, j’ai développé sur Therapeutes.com un programme d’accompagnement pour aider les praticiens santé à mieux eploiter le digital en période de crise, ainsi qu’un programme d’aide à la reprise de leur activité.

Découvrez au passage mon TOP 5 campagnes médias adaptées au Covid.

Ces mesures transcendent le marketing et n’augmenteront peut-être pas les ventes immédiatement, mais elles permettront de renforcer la perception de bonne volonté et de fidéliser les clients à long terme.

Par ailleurs, plus vite le monde pourra vaincre la pandémie de COVID-19, meilleures seront les chances de survie de tout l’écosystème clients/votre entreprise/fournisseurs.

Réassurance : Définir un message de marque rassurant

« toute entreprise sera désormais une entreprise de santé »

Parmi les grands preceptes qui sont ressortis pendant la crise, celui de Scott Galloway, professeur de marketing à l’université de New York qui a été énormément relayé, selon laquelle « toute entreprise sera désormais une entreprise de santé ».

J’adhère pleinement.

Les marques à visage public devront exprimer leurs « références en matière de propreté » pour contribuer à réduire le malaise général, et nous pouvons nous attendre à assister dorénavant à la création de nouveaux postes tels que celui de directeur de la santé ou de directeur de la biosécurité.

Plusieurs questions posent des défis aux entreprises et à la société en sortie de crise. Le temps nous en dira plus sur l’ampleur du soutien financier nécessaire pour relancer l’économie, et nous continuerons à redouter une deuxième vague d’infections virales pendant encore un certain temps.

Par ailleurs, la probabilité d’un vaccin et son calendrier d’application soulèvent d’énormes questions. La plus grande inconnue est l’ampleur des répercussions de cette énorme secousse d’incertitude qui s’est insinuée dans tous les systèmes et organisations du monde entier.

Revoir et adapter la stratégie d’acquisition client

Nous allons traverser ce monde hybride au moins jusqu’à la fin de 2020 et potentiellement jusqu’au premier semestre de 2021.

Les prospects travaillent désormais en partie de chez eux et les habitudes de déplacements et d’organisations ont changé. Comme nous l’avons vu plus haut, 76% des consommateurs ont changé leurs habitudes et une majorité prévoit de conserver ces habitudes.

Cela signifie que les responsables marketing et notamment les responsables du digital doivent surveiller de près les stratégies d’acquisition de clients et les adapter aux changements d’habitudes.

Les usages et les profils des prospects ont certainement évolué pendant la crise.

Ce nouvel environnement va probablement entrainer la chute de nombreuses entreprises qui n’ont pas pu s’adapter, que ce soit en raison de leur offre de produits ou de leurs messages.

Il est aussi probable qu’une nouvelle vague de startups émerge pour combler les lacunes résultant de cette pandémie.

Planifier plusieurs scénarios

Il est déjà clair que la pandémie va accélérer et réorienter les changements commerciaux et sociétaux.

L’adoption rapide et massive du télétravail et la nécessité d’une transformation numérique ne sont que deux exemples parmi d’autres qui sont déjà évidents.

Ces nouvelles façons de travailler et de vivre posent des défis aux entreprises qui cherchent à comprendre et à gérer ces changements. Pour survivre et prospérer au cours des prochaines années, les dirigeants vont devoir envisager les multiples scénarios qui pourraient se présenter afin de s’y préparer.

Selon un rapport de Salesforce et Deloitte d’avril 2020, The World Remade by COVID-19, nous allons être confrontés à cinq incertitudes fondamentales :

  • La gravité globale de la pandémie et le schéma de progression de la maladie ;
  • Le niveau de collaboration au sein des pays et entre eux ;
  • La réponse du système de santé à la crise ;
  • Les conséquences économiques de la crise ;
  • Le niveau de cohésion sociale en réponse à la crise.

Le rapport recommande d’adopter une approche de planification de scénarios, le but étant d’élaborer un plan le moins éloigné possible de la réalité pour les  les prochaines années en examinant comment les perspectives peuvent changer, en modifiant la valeur pour le consommateur, en actualisant les menaces commerciales, en trouvant de nouveaux fournisseurs et écosystèmes et en recherchant les capacités et les atouts importants dans le nouvel environnement.

Robyn Sefiani, PDG du groupe Sefiani Communications, a déclaré que de nombreuses entreprises ont déjà amorcé des initiatives de transformation majeures, déclenchées par les pressions sur les revenus, elles même causées par la perturbation des activités pendant la pandémie et pour protéger la rentabilité continue. 

Mme Stefiano a été interrogée sur les changements durables qui pourraient résulter de la crise.

En réponse, elle cite comme deux éléments clés le besoin d’informations fiables et la notion de connectivité.

Elle souligne également le thème de la connectivité, qui est devenu plus important, « parce que nous n’apprécions pas que l’on nous retire ce que nous avions avant. Je pense que les spécialistes du marketing exploiteront les aspects émotionnels de la connectivité au cours de l’année à venir, avec des campagnes moins axées sur « moi » et plus sur « nous ».

Catégories
Head Of Digital, agence digitale basée à Paris

Top 5 des pubs adaptées au Covid (les publicitaires sont inspirés !)

La crise du Covid-19 et le confinement associé ont entraîné une chute conséquente de la consommation matérielle.

Face à cette situation, nous avons pu constater que certaines marques ont redoublé d’efforts pour continuer à vendre et se faire remarquer.

Certaines d’entre elles ont su s’adapter de manière audacieuse, en transformant la crise du Covid-19 en argument marketing…Une musique en arrière plan qui semblait nous souffler « Si vous êtes coincé(e) à la maison et que vous êtes préoccupé(e)….alors achetez ».

J’ai trouvé personnellement qu’il y avait d’excellentes initiatives, à croire que les publicitaires ont été davantage inspiré par le contexte Covid qu’à la normale.

J’ai décidé de vous partager mon top 5 😊

1. La plus positive (elle me donne la pêche)

Seat – Leon – « Après le vent »

Et je descerne une 2eme position sur le podium des pubs auto pour Honda, avec un spot original que l’on a pas eu la chance de voir en France, réalisé par l’agence Memac Ogilvy à Dubaï.

Vous pouvez voir le spot ici

NB : Globalement, le secteur auto Français s’est montré très réactif pendant la crise du covid (alors que paradoxalement c’est le 2eme secteur le plus impacté après le tourisme). Et d’après ce que j’ai pu lire, c’est d’ailleurs aussi le secteur qui a redynamisé le marché publicitaire en sortie du confinement, avec notamment plusieurs campagnes médias liées aux annonces du Gouvernement sur les bonus à l’achat des voitures électriques et des hybrides.

Voici quelques uns des formats vidéos que j’ai recencés, tous adaptés au Covid :

Aux US également les publicitaires se sont démarqués. J’ai notamment trouvé une créa très originale en Stop motion pour le groupe Ford qui mérite d’être mentionnée ici,« Le Rallye à la maison ».

La plus breakfast club

En se rendant sur Brindedobem.com, les brésiliens peuvent acheter leur bière à l’avance sur les 7500 bars référencés sur le site. Heineken fera un don direct pour aider les bars locaux à rester ouverts après la crise. Sympa non ?

La plus solidaire

Adidas a réalisé et communiqué en ligne sur une vente aux enchères en ligne dont l’intégralité des fonds ont été reversés au profit de la Fondation Hôpitaux de Paris – Hôpitaux de France (soignants, patients et EHPAD). A l’issue de cette vente, 107.730 euros ont été reversés à la fondation.

Parmi les plus grosses ventes :

  • Le casque d’Alexis Pinturault : 19 600 euros
  • Dossard jaune de leader de la Coupe du monde de biathlon de Martin Fourcade : 12 200 euros
  • Maillot dédicacé de Jo-Wilfried Tsonga : 5300 euros
  • Maillot Real Madrid de Karim Benzema : 3 650 euros
  • Un maillot de la triathlète Cassandre Beaugrand : 1 300 euros
  • Paire de gants de boxe d’Estelle Mossely : 1 150 euros

On ne va pas se mentir, il s’agit d’une belle campagne RP, savament orchestrée, comme il y a pu en avoir un paquet pendant le confinement.

Le boncoin aussi s’est montré créatif pour l’occasion.

Les particuliers ont été invités à déposer une annonce contenant #lebongeste dans la catégorie Services de leboncoin.fr afin de proposer localement et bénévolement leur aide aux personnes fragilisées par la situation actuelle. 

En parallèle, leboncoin a proposé son aide aux TPE et PME de moins de 10 salarié.e.s, artisan.e.s et gérant.e.s de commerces non essentiels à l’aide d’une boutique virtuelle gratuite. Afin de maintenir une activité malgré les restrictions liées au confinement, ces entreprises ont pu vendre directement leurs produits ou services et rester en contact avec leurs client.e.s et prospects pendant le confinement, dans le respect des règles sanitaires en vigueur. 

Pour l’anecdote, toutes ces initiatives ont un nom. A l’heure de la pandémie, le « goodvertising » – anglicisme qui associe publicité et bonheur – a pris le dessus sur la promotion des produits dans les publicités. Il s’agit désormais de communiquer sur des valeurs humanistes et solidaires.

La plus ratée

Grosse tourmente pour Corona.

Après de nombreuses vidéos amateurs jouant sur l’homonyme, la célèbre bière a vu sa notoriété dégringoler en quelques semaines (-15 points de notoriété aux USA).

Pour contrer les attaques, la marque a tenté de jouer la carte de la dérision.

A l’occasion du lancement d’une nouvelle eau gazeuse alcoolisée, elle lance une vidéo sur Twitter avec pour slogan le “débarquement imminent” du produit. 

C’est raté. La vidéo est certes vue plus de 7 millions de fois mais elle a suscité tellement de critiques qu’elle a depuis été retirée des réseaux sociaux.

On peut néanmoins la retrouver sur Dailymotion :

Bonus : La publicité raté de Humble

Jeux de mots de mauvais goût pour le site de rencontre Humble

tweet Humble covid19

La plus sexy

La marque de préservatifs et de sextoys Skyn a sorti une campagne uniquement basée sur de la conception rédaction qui fait le parallèle entre le sexe et le confinement. Un moyen efficace de promouvoir sa marque tout en incitant les citoyens à rester chez eux. Imaginé par SidLee Paris.

Catégories
Head Of Digital, agence digitale basée à Paris

La course des géants du cloud marketing pour le secteur public: quels enjeux ?

Salesforce, Oracle, Amazon, Google, Adobe… ils sont tous sur le pied de guerre pour conquérir le secteur public en France.

Et pour cause.

Les organismes publics veulent accélérer les réformes. Ils doivent apporter des résultats tangibles et un retour sur investissement dans un minimum de temps.

Face au système administratif, les citoyens que nous sommes attendons une simplication et une centralisation des démarches.

Si je résume bien les études, les grands axes attendus pourraient presque se résumer à 3 points :

  • Ne pas avoir à fournir plusieurs fois la même information, en d’autres termes, la centralisation des données
  • Une plus grande rapidité du traitement des démarches en ligne
  • la synchronisation entre l’univers physique et l’univers virtuel pour créer un nouvel accueil de proximité : le « phygital ».

La transformation pourrait s’inspirer du secteur privé pour améliorer les processus et les systèmes informatiques. Et l’innovation permettrait de produire des améliorations durables centrées sur la rentabilité, l’efficacité et l’expérience citoyen.

Objectif 2022

 « Action Publique 2022 », c’est le nom du programme de transformation de l’action publique lancé depuis 2017.

Parmi les objectifs phares, améliorer la qualité des services publics en travaillant à la simplification et la numérisation des procédures administratives.

C’est un levier majeur pour l’amélioration des services publics et le gouvernement s’était donc engagé à offrir 100% des services publics dématérialisés aux Français à horizon 2022.

Une très belle initiative.

Malheureusement, la crise du Covid-19 est passé par là et le planning s’en retrouve probablement perturbé.

L’ensemble des démarches, par thèmes et ministères, sont accessibles publiquement sur l’observatoire de la dématérialisation produit par la Direction interministérielle du numérique, la DINUM.

La dernière actualisation date d’Avril 2020 et fait l’objet d’une mise à jour trimestrielle, on y trouve toutes les évolutions de manière très transparente.

Des enjeux colossaux

Les améliorations offertes par le numérique sont déjà notables. Les services tels impôts.gouv.fr, ameli.fr, ou encore caf.fr en sont la démonstration.

Mais les innovations vont continuer. Le Secrétaire d’Etat au Numérique souhaite accélérer la mise en place de l’identité numérique, qui se matérialisera par la carte d’identité électronique initialement prévue pour 2021.

Cette identité numérique permettra de réaliser en ligne un certain nombre de procédures, publiques mais aussi privées, qui nécessitent aujourd’hui un déplacement physique au guichet (ex : faire une procuration, ouvrir un compte en banque, etc.…).

Et ce n’est qu’une des innovations à venir. En réalité, le champ des possibles autour de la digitalisation et plus globalement autour de la data offre un terrain de jeu quasiment illimité pour les acteurs du cloud.

La donnée, ou plutôt la diversité de la donnée, représente encore un capital sous exploité par les acteurs publics qui veulent tirer pleinement parti de cet actif.

Les champs d’applications sont aussi divers que profitables et les géants du cloud marketing l’ont bien compris :

Pour les territoires et collectivités

Les modèles évoqués sont :

  • La capitalisation de données, qui permet d’optimiser et de donner de la visibilité sur l’énergie consommée
  • La fourniture de services type « freemium »
  • La promotion de la mise en commun : les habitants échangent entre eux des services voire la production d’énergie (création de micro-grids)
  • La proposition de services bon marché adossés à des revenus de type publicitaires

Immobiliers et constructions

En construction, les chantiers pourraient être mieux pilotés grâce à l’exploitation de la base de données, permettant ainsi des gains de temps et de coûts. Le travail collaboratif (le BIM) pourrait faciliter la transmission d’information entre toutes les parties prenantes du projet. On assisterait à l’émergence d’une véritable Supply Chain du chantier.

En phase exploitation, qui représente 75% du coût global du bâtiment, les gains liés aux usages du travail collaboratif sont les plus intéressants. Il permettrait notamment une optimisation de la recherche d’informations par une conservation des données techniques du patrimoine ainsi qu’un gain de temps dans l’intervention grâce à une meilleure localisation de l’équipement et de son descriptif. La connaissance plus fine des volumes sur le parc permet une optimisation des achats et une meilleure prévision et maitrise des budgets.

La fonction RH dans le service public

Avec plus de 5,4 millions d’employés dans la fonction publique, l’état est donc le 1er recruteur Français et on comprends aisément que les solutions tchnologiques liées à la fonction RH représentent un enjeu économique capital pour le service public. (source)

Les solutions HR Tech liées à la gestion des métiers et des compétences permettent de répondre à trois enjeux majeurs :

  • Cartographier en temps réel les compétences actuelles et futures pour une meilleure allocation et utilisation des ressources
  • Evaluer les écarts en termes de niveau de compétence à combler
  • Meilleure gestion des RH, allocation d’indicateurs de performance et données de compétences des agents grâce au RH analytics.

Exploitation des données de santé

Le marché de la donnée santé est évalué à environ 5,3 milliards d’euros, et devrait progresser en moyenne de 25 % par an dans les cinq prochaines années (selon Gartner). De quoi donner le vertige.

Dans ce domaine, les enjeux sont colossaux aussi bien d’un point de vue économique que sociétal : améliorer la connaissance médicale pour mieux soigner, optimiser l’efficience des services et des organisations de soins, inventer de nouveaux modèles économiques autour de la médecine….

L’open data apporte une vraie valeur ajoutée aux différents écosystèmes autour de la santé.

Les alliances les plus spectaculaires se nouent entre laboratoires pharmaceutiques (Novartis, Sanofi, Teva, Novo Nordisk) et Big techs (Google, IBM, Qualcomm), allant jusqu’à la création de véritables consortiums à l’instar de celui de J&J, IBM et Apple. D’autres alliances se concrétisent entre sociétés technologiques (Royal Philips et Amazon, Median Technologies et Microsoft).

Partage et commercialisation de données auprès du secteur privé

« L’or noir » que représente la data publique est une donnée très convointée par certains acteurs du secteur privé.

La donnée, même anonymisée, génère un intérêt certain pour de nombreuses ativités pour l’analyse des opportunités, des bassins de populations, pour les prédictions, les  : mutuelles, constructeurs auto, banques, immobilier, je laisse votre imagination fonctionner, sky is the limit !

Ce ne sont ici que quelques une des possibilités offertes par la digitalisation des services de l’état parmi tant d’autres.

Voyons maintenant l’approche des géants du cloud marketing.

Les géants du cloud Marketing à la conquête du secteur public

Salesforce, Oracle, Amazon, Google, Adobe…Ils sont tous sur le pied de guerre.

On peut facilement se représenter que le secteur public est à la fois un enjeu majeur de développement et la source d’une compétition féroce.

Même en période de crise, les gros acteurs du cloud marketing recrutent actuellement à tour de bras pour s’accaparer le marché public. Les pages d’emploi de chacune des 5 sociétés affichent toutes des opportunités (à l’heure où j’écris cet article).

Les argumentaires de vente à destination des services publics sont accessibles en ligne et nous permettent d’en savoir davantage sur les solutions proposées.

Chez Salesforce, le mini site de promotion créé pour l’occasion est animé et particulièrement bien fait : https://www.salesforcepublicsectordemos.com/fr-fr/

La suite SFMC ouvre la voie à de nombreuses exploitations : Social studio ouvre le champ à l’analyse des tendances et la prise de parole auprès des citoyens. Le App launcher permet d’organiser l’espace de travail des agents, Journey builder permet de planifier, personaliser et optimiser chaque interaction. SFMC terminaux mobiles est mis en avant pour optimiser la gestion des permis et des inspections. Le fil Chatter optimise les interactions avec les agents pour les réclamations et les démarches administratives…en bref, l’ensemble des outils de la Suite est exploitée de manière intelligente pour accompagner le secteur vers une transition réussie et pertinente vers le numérique.

Chez les autres géants, les pages dédiées renvoient davantage vers le service commercial :

Les freins reglementaires face aux acteurs du cloud

La durée et les conditions de résiliation du marché

Le contrat avec un prestataire de Cloud prend souvent la forme d’un « accord-cadre ». Or, selon l’article 78 du décret n° 2016-360 du 25 mars 2016 relatif aux marchés publics, la durée des accords-cadres ne peut dépasser quatre ans pour les pouvoirs adjudicateurs et huit ans pour les entités adjudicatrices, sauf dans des cas exceptionnels dûment justifiés. Cette durée de quatre ans se révèle bien souvent trop courte en regard des délais requis en amont pour hybrider ou relocaliser les systèmes d’information, qui prennent, en moyenne, entre 18 et 24 mois. En outre, les contrats d’hébergement souscrits par des entités publiques bénéficient d’un droit de rupture anticipée, tel que prévu par le cahier des clauses administratives générales (CCAG) relatif aux Techniques de l’Information et de la Communication (TIC).

Ces deux points constituent donc des freins pour les opérateurs de Cloud lors des réponses aux appels d’offre.

En savoir plus sur les clauses : https://cispe.cloud/website_cispe/wp-content/uploads/2019/09/CISPE-Buying-Cloud-Services-FR.pdf

Catégories
Head Of Digital, agence digitale basée à Paris

Les stratégies gagnantes du MarTech pendant la crise du Covid

Période difficile pour les départements marketing.

Les budgets publicitaires, s’ils ne sont pas rabbotés, sont carrément supprimés.

 Concrètement, l’IAB avait déjà annoncé la couleur en Avril : une prévision de baisse de 20 à 30% des investissements publicitaires liés à la crise Covid.

Leur prochain rapport nous en dira plus sur l’étendue précise des dégâts sur la période du confinement.

Pour les éditeurs web, la crise a été d’autant plus impactée qu’elle s’est doublée d’un Aller Retour de Google.

La 1er claque, c’est l’annonce de Google de ne plus diffuser les publicités auprès des éditeurs dont le consentement (RGPD) n’a pas été clairement recueilli.

Plus exactement, Google dit : « Si vous n’avez pas le consentement pour la finalité numéro 1, ‘stockage et accès aux informations stockées sur une device’, il est inutile d’appeler l’ad-server de Google ». (En voir plus sur le JDN).

La 2ème, c’est la mise à jour de l’algorythme Google, la May 2020 Core Update qui semble avoir affectée environ 10% des SERP.

Mais ces éléments n’ont fait que se greffer à un phénomène plus en amont de la chaîne.

Les entreprises sont actuellement à court de trésorerie.

Et il me semble tout naturel pour les marques de vouloir réduire leurs dépenses, à minima le temps de laisser passer l’orage.

Mais c’est précisément cette réaction instinctive qui peut avoir un effet d’entraînement vraiment négatif sur l’image de marque.

Les marques qui réduisent leurs budgets publicitaires vont économiser sur le court-terme, mais elles accélèrent la chute des ventes sur le moyen terme, pécisemment au moment une partie de la population va observer une baisse substancielle de son pouvoir d’achat et va faire de nouveaux arbitrages sur les dépenses du foyer.

D’ailleurs, un rapport récent semble avoir mis en évidence cette déconnexion publicitaire et les dommages que cela peut causer à la marque. Les consommateurs semblent se tourner prioritairement vers les marques et les entreprises (en particulier les entreprises locales en première ligne de la crise) qui se montrent présentes et semblent vouloir nous aider (le consommateur)  en temps de crise.  

La Stratégie du MarTech pendans la crise

C’est un secteur dynamique par nature, qui a toujours su s’adpater, et leur approche commerciale en temps de crise en est la parfaite illustration.

En effet, les postes marketing des entreprises sont particulièrement surveillés en temps de crise. Plus que jamais, le marketing des petites marques doit prouver qu’il apporte de la valeur à l’entreprise. Après le chômage partiel, les mesures de licenciement guettent, la priorité est d’apparaître comme un centres de revenus, et non de coûts.

Il faut être réactif. Le service marketing doit réduire ou suspendre rapidement les dépenses publicitaires inefficaces en temps de crise car le comportement des consommateurs a changé. Des messages pertinents, des investissements et des ciblages publicitaires performants, des actions fidélisantes adaptées au contexte Covid, ce sont des actions nécessaires à l’entreprise pour se démarquer de la concurrence, et diminuer l’impact du Covid sur les ventes.

Ces actions, elles sont possibles lorsque l’entreprise est équipée.

Et les sociétés du MarTech/MadTech l’ont parfaitement compris et intégré à leur stratégie de vente pendant la crise du Covid.

Aux Etats-Unis, Singular s’est mis à offir sa plateforme unifiée de données et d’analyses marketing pendant six mois.

Leur discours, « permettre de bénéficier d’une source unique de vérité sur les performances marketing, d’un accès automatisé et agrégé à toutes les données marketing, et d’une plateforme qui alignera toutes leurs équipes sur les mêmes mesures commerciales adaptées au Covid ».

Entre-temps, Hootsuite a annoncé qu’ils allaient fournir un accès gratuit à leur plan professionnel aux petites entreprises, dans le but d’aider les organisations les plus touchées à survivre à la crise.

Salesforce, de son côté, fournit six mois d’accès gratuit pour les équipes d’intervention d’urgence, les équipes de gestion des soins, les assureurs santé, les systèmes de santé et autres organisations de soins de santé qui répondent à la pandémie de coronavirus. 

Adobe a annoncé toute une série d’initiatives pour ses différents produits, notamment des essais gratuits et des pack de démarrage rapide pour l’utilisation commerciale de la signature Adobe (pour faciliter les signatures électroniques et les flux de documents pour les travailleurs en remote). C’est aussi une carte d’accès de 90 jours pour les enseignants afin de transformer le contenu de la classe en outils d’apprentissage en ligne avec Adobe Captivate.

Et ces initiatives des acteurs du MarTech/MadTech sont une excellente formule pour passer la crise au plus près des clients. En terme de fidélisation, c’est une réussite, mais c’est également un combo gagnant en terme de stratégie d’acquisition.

Une partie des clients qui utilisent ces outils gratuitement ne manqueront pas l’upgrade payante après la crise. En s’assurant que les responsables marketing communiquent et créent des liens avec leurs propres clients, les acteurs du MarTech augmentent leurs chances de survie.

Catégories
Head Of Digital, agence digitale basée à Paris

R.I.P. cookies ✞ Quelle direction pour la programmatique désormais ?

Un champ de ruines, autour des Gafas.

Et particulièrement autour de Google.

C’est ce que certains appréhendent en imaginant le paysage de la programmatique en 2022.

L’AdTech avait pourtant tout pour plaire. Lorsque j’ai quitté la vente d’espaces publicitaires en 2012, la page des adnetworks se tournait pour laisser place à la modernité. Exit les réseaux publicitaires en cascade, les dealers de PAP et les diffusions non contrôlées.

Le RTB annoncait un avenir radieux pour les annonceurs, un nouvel eldorado rempli de belles promesses : des meilleures performances en premier lieu, mais aussi une réassurance et un meilleur contrôle sur les investissements publicitaires online après les folles années du display « branding » 😉, de la fraude au clic, des arbitrageurs et des packs de diffusions pour le moins « aléatoires » chez les régies web display des années 2000 à 2010.

Mais 10 ans après, le constat est sans appel. Une nouvelle page publicitaire se tourne, à nouveau il va falloir se réinventer.

Le 15 Janvier 2020, Google annonce la fin de la récré. Il bloquera les cookies tiers sur son navigateur Chrome d’ici 2022.

Le marché de l’AdTech a tremblé. Le rouleau compresseur Google en veut plus.

Mais pourquoi Google est il si vorace ?

En réalité, le secteur envoyait déjà des signaux clairs dès 2017. les préoccupations liées à la protection des données et à la vie privée des internautes se sont progressivement accrues et les mesures anti-tracking se sont enchaînés.

En Septembre 2017, en particulier, Apple lance ITP (Intelligent Tracking Prevention), son programme anti-tracking destiné à bloquer une partie des cookies au sein de son navigateur Safari dans le but de protéger les utilisateurs des pratiques publicitaires et des risques de data leakage (fuite des données).

Un Gafa. C’est donc un Gafa qui avait envoyé l’un des premiers signaux. Et c’est une réalité économique. Plus on détient de valeur, plus on la protège. Apple avait déjà commencé avec Safari, il n’y avait qu’un pas avant que Google s’y mette avec Chrome.

(A l’époque Chrome avait déjà l’actif pour imposer sa loi, avec 63% du marché. Si Google a attendu Janvier 2020 pour annoncer la fin de vie des cookies tiers, ce n’était donc pas une question de pénétration du marché, mais certainement de maturité technologique, on y reviendra plus tard dans l’article…)

Par ailleurs, Google avait déjà phagocyté le marché du search marketing quelques années auparavant, il était logique que la suite les pousse désormais sur le marché du RTB pour adresser une solution publicitaire complète.

La suite s’enchaîne :

  • Mai 2018 : le Règlement Général sur la Protection des Données entre en vigueur pour renforcer le droit des personnes et responsabiliser davantage les acteurs traitant des données.
  • 2019 : Mozilla bloque les cookies tiers sur son navigateur Firefox
  • 14 janvier 2020 : la CNIL publie son projet de recommandation sur les modalités du consentement, préconisant aux éditeurs d’offrir à l’internaute le choix de consentir ou non à la pose de cookies par le biais de 2 boutons : « Accepter » et « Refuser » (à l’inverse des bannières de consentement actuelles qui incitent davantage à consentir au dépôt de cookie)

Et le 15 Janvier, le lendemain de cette annonce de la CNIL, Google fait son annonce.

Le marché de la publicité digitale est officiellement sur le point de basculer vers un nouvel écosystème sans cookie tiers et doit se réorganiser intelligemment pour pérenniser son modèle économique.

Toutes les strates de la programmatiques sont chamboulées.

Les conséquences pour toute la chaîne alimentaire

  1. L’annonceur

Les annonceurs sont confrontés à un nouveau défi, celui de la pérenité de leurs investissements publicitaires et de la granularité de l’analyse dans la gestion de leurs activités publicitaires sans cookies. Les cookies tiers interviennent en effet dans la mesure des campagnes, des parcours utilisateurs (analytics) et du suivi de l’attribution.

2. Les plateformes programmatiques et trading desks

Parcequ’une partie de la valeur ajoutée se situe dans les différentes données exploitées par les trading desks pour optimiser leurs achats (first party data, données éditeur et third party data), ceux ci vont évidemment être touchés par la disparition des cookies 3rd party.

Par ailleurs, les DSP utilisent des identifiants qui s’appuient également sur ces cookies. Avec la disparition des cookies, il sera donc impossible de monétiser les espaces publicitaires de manière optimale en adressant des annonces personnalisées.

Le capping et l’attribution affectés

Certaines techniques utilisées pour optimiser les performances des campagnes pourraient en outre perdre leur efficacité voire disparaître en même temps que les cookies tiers. C’est notamment le cas du frequency capping qui permet de contrôler la pression marketing (répétition et fréquence des messages). Or, une publicité digitale sans capping reviendrait clairement à une régression de l’écosystème à l’heure où le respect de l’utilisateur est au cœur des préoccupations de l’industrie, avec en prime : une montée de l’ad blocking.

Fournisseurs de technologies publicitaires cookie-based

Remarketing, Données probabilisées…Certaines technos ad tech (DSP, SSP, CRM onboarding, fournisseurs de data) reposent sur l’utilisation des cookies tiers pour le suivi et la reconnaissance de l’utilisateur.

3. Les éditeurs

Suite à la disparition du cookie tiers, les éditeurs vont très probablement perdre une part importante de leurs revenus : jusqu’à 52% de leur chiffre d’affaires, c’est Google qui le dit.

Coup dur en sus de la part Google, qui coupe désormais la diffusion adsense chez les éditeurs qui ne recueillent pas le consentement cookies. (c’est en marche…)

Drôle de coïncidence vous ne trouvez pas ?

Quelle évolution pour la publicité digitale désormais ?

Quel chamboulement en 20 ans.

Ce ne sont même plus des années chiens, mais véritablement un film en avance rapide.

Et avec un peu de recul, l’évolution parait assez logique.

A la préhistoire du digital advertising, avant les cookies tiers, les marques choisissaient où acheter de l’espace publicitaire en fonction du contexte. (Par exemple, je suis une assurance auto, il est pertinent pour moi d’acheter des emplacements sur les éditeurs qui traitent de l’actualité auto.) Les régies de l’époque avaient donc segmenté les packages publicitaires en agrégeant des inventaires et des sites par verticales contextuelles.

Avec l’évolution de l’Adtech, les annonceurs ont ensuite privilégié l’audience. C’était d’ailleurs bel et bien la promesse de la programmatique. Une publicité ciblée et performante. Les DSP ont donc permis aux annonceurs de pubber sur leurs personas (critères socio-démo etc) et leurs comportements.

Troisième épisode de la saga du digital advertising, c’est la la fin des cookies tiers, et cela soulève de nouvelles interrogations. Plusieurs pistes sont évoquées :

1. L’identifiant unique

Parmi les pistes évoquées, celle de l’ID unique. Pour certains spécialistes du secteur, « c’est plié », la solution de l’avenir sera bien celle de l’ID unique. Cette solution permettrait aux régies de proposer aux annonceurs une donnée qualitative et exclusive et aux annonceurs de continuer à adresser des publicités personnalisées.

Quand on voit la diversité des initiatives actuelles, ID5, PassMédia, Alliance Gravity, Skyline…difficile cependant d’imaginer l’ensemble de la chaîne qui parvient à adopter conjointement un procédé unique standard.

 Ou alors, si j’osais…un standard imposé par une grande puissance…Google par hasard 😉 qui pourrait mettre tout le monde dans le rang.

Il faut bien reconnaitre par ailleurs que certains acteurs Mar/AdTech commencent à faire une percée importante et disposent de belles ressources pour imposer leur solution.

Liveramp, notamment, suite à la cession de leur division Marketing Solutions d’Acxiom (AMS) pour 2,3 Milliards de dollars, disposent maintenant du cash nécessaire pour appuyer le déploiement de leur solution.

Et la solution est belle. Liveramp connecte déjà à 750 plateformes marketing digital et fournisseurs de données…Une bonne lancée donc.

2. FLOC – Federated Learning of Cohorts (FLoC)

Le FLoC, pour Federated Learning of Cohorts, permettrait via les navigateurs d’adresser une publicité basée sur les intérêts d’un groupe de personnes.

En bref, l’annonceur choisit un comportement de navigation d’individus réunis au sein d’une même cohorte (ou « troupeau »), c’est à dire de personnes similaires.

Pour résumé, c’est le principe initial du lookalike de Facebook.

Déjà actuellement, les intérêts sont généralement déduits en observant les sites ou les pages visitées, ce qui repose sur le suivi via cookies tiers.

Le FLoC permettrait de pubber désormais sur des groupes de personnes ayant des habitudes de navigation similaires.

Les technos proposeraient à l’avenir donc de pubber en fonction des habitudes de grands groupes plutôt qu’à partir de l’activité d’individus spécifiques. Le ciblage des publicités pourrait alors être partiellement ou complètement basé sur le groupe auquel appartient la personne.

Les navigateurs constitueraient donc des groupes en rassemblant des personnes ayant des intérêts assez similaires et en produisant des étiquettes adaptées au machine learning. Et le procédé ne révèlerait pas d’informations trop personnelles lors de la création des groupes ou de leur utilisation. Le navigateur met à jour la cohorte au fil du temps, au fur et à mesure que son utilisateur navigue sur le web. La valeur est mise à la disposition des sites web par le biais d’un indice client.

En revanche, je suspecte que ce soit la direction que Google a scénarisé pour l’évolution de la publicité digitale.

Pourquoi ?

Parceque le principe et la terminologie de cohortes sont déjà apparus en béta depuis un moment sur un autre produit Google…un outil qui collecte de la donnée, et qui s’adresse…devinez à qui ?

Aux annonceurs. Le début de la chaîne de l’AdTech.

Et oui, je parle d’Analytics.

Concrètement sur mon Analytics, cela se trouve dans l’onglet principal AUDIENCE, en béta :

Et cela donne quelque chose qui ressemble à un tableau de suivi de churn :

Bref, mon intuition me pousse à penser que c’est la direction Google, c’est à dire la direction du marché.

3. Le SSO (Single Sign-On) pour un ciblage cross-site

Ici c’est l’e-mail qui permettrait une connexion partagée via un SSO et permettrait par la suite le ciblage cross-site. Cela implique une centralisation des données.

Après tout, le Google Oauth et le Facebook Oauth sont très largement répandus. Mais de là à une mutualisation des données globales d’internet, difficile à imaginer. D’autant que cela pose un sérieux sujet de sécurité.

4. Le Edge computing

Je ne vais pas m’étendre dessus, car le procédé n’est valable que pour un site donné (par une segmentation et un stockage local sur le device utilisateur).

Conclusion

Cette évolution de l’Atech et plus globalement de la publicité digitale semble aussi passionante qu’incertaine pour tout le monde.

Il va falloir se réinventer, comme toujours depuis les débuts de la publicité digitale.

Si le marché publicitaire a toujours su évoluer en faisant preuve d’ingéniosité, l’évolution des outils et méthodes de tracking nécessaires au contexte actuel, au delà du consensus qu’elle représente, va nécessiter de nombreuses remises à niveau technologiques.

Facile lorsque l’on s’appelle Google, mais le contexte covid et l’affaissement actuel des budgets publicitaires mettent déjà actuellement en difficulté plusieurs acteurs du marché.

On peut facilement imaginer que la nouvelle page qui se tourne va laisser sur le carreau les plus fragilisés, pendant que les autres vont continuer d’innover. La loi de l’évolution.

Quoiqu’il en soit, on imagine aisément que depuis un moment déjà, les cerveaux Google ont scénarisé toutes les alternatives et planifié la suite grâce à l’emprise dont Google dispose sur l’ensemble de la chaîne à la dois du circuit Adtech mais aussi en terme de reach média sur leurs différents services (Google, Youtube, Chrome, maps…). De quoi soulever des questions philosophiques pour certains.