Par Sam Poelstra, avec les perspectives de Wil Reynolds, Teresa Lopez, Lisa Devieux, John Lovett, Sam Poelstra, Brittani Hunsaker, Alisa Scharf, Cori Graft
Hier (08/02/23) lors d’une événement en direct depuis leur siège parisienGoogle a répondu à l’intégration de GPT-4 par l’IA de Bing.
Bien que certaines des nouvelles fonctionnalités aient déjà été dévoilées lors de SearchOn 2022, leur message était clair : ‘Nous utilisons l’IA depuis des années, mais au cas où vous auriez oublié que nous sommes à la tête du secteur, voici comment nous apportons notre propre technologie d’IA à la recherche multimodale.
Découvrez Bard, notre propre intelligence artificielle optimisée par LaMDA (Language Model for Dialogue Applications).’
Nous avons compilé les informations de l’événement et inclus les points de vue de certains des experts les plus compétents de Seer en la matière pour vous aider à comprendre ce qui se passe.
“Je pense que les mots-clés qui déclenchent les PAA sont plus susceptibles d’être perturbés. Si Google ou Bing affichent déjà des réponses de style “Les gens demandent aussi”, cela signifie qu’ils ont une idée des questions de suivi à venir, ce qui est exactement ce que nous voyons dans les suggestions chatGPT de Bing.
WIL REYNOLDS | FONDATEUR
Voici comment Bard et AI impactent le SERP, Google Lens et Google Maps :
Modifications de la recherche Google : l’IA du chat au premier plan, au-dessus des annonces ?
Il est clair que Google a changé ses priorités en réponse aux vagues créées par GPT-4. Alors que Bing a intégré une version de ChatGPT dans la barre latérale de sa page de résultats de recherche de bureau, Google prévoit d’intégrer Bard au premier plan en haut du SERP.
Les exemples montrent que Bard apparaît même au-dessus de Google Ads. Perturbation du taux de clics, quelqu’un ?
Ce n’est que le début.
Pour les requêtes qui sont “NORA, ou No One Right Answer”, comme décrit par Prabhakar Raghavan lors de l’annonce, les utilisateurs pourront affiner leurs requêtes de recherche avec des questions génératives supplémentaires suggérées par Bard.
Pour nous, cela ressemble à ce que tentent de faire les résultats enrichis de People Also Ask, mais d’une manière plus intuitive et réactive, qui est plus conversationnelle mais peut conduire à plus de recherches sans clic.
Dans les exemples présentés ci-dessous, une petite boîte permet aux utilisateurs de “vérifier” les résultats de Bard, mais nous ne savons pas encore à quoi cela ressemble. Les utilisateurs pourront-ils voir exactement d’où l’information est synthétisée pour vérifier sa validité ?
Bard est maintenant ouvert avec des testeurs de confiance – et Raghavan était sûr de centrer les principes d’IA de Google et a souligné l’importance d’une IA qui répondait aux normes de « qualité, sécurité et ancrage » qui correspondent aux directives de qualité que Google définit pour tous ses produits avant de faire évoluer Bard à l’échelle mondiale. .
Perspectives de l’équipe des voyants :
“Là où je vois que l’IA a la plus forte emprise, c’est sur les recherches où l’intention de l’utilisateur s’appuie davantage sur la phase de recherche et d’information, où nous voyons aussi le plus souvent les résultats de People Also Ask. Dans les publicités payantes, ce sont souvent les utilisateurs (ou les requêtes) que nous nous efforçons d’ignorer lors de l’optimisation vers une audience principalement « prête à acheter » ou d’acquisition.
Je m’attends à des changements au cours de l’année à venir pour la part d’impressions PPC et le taux de clics à mesure que la technologie s’accélérera.
Je m’attends également à ce que Google commence à adapter le SERP en fonction des apprentissages. Je ne serais pas surpris si ces changements et ces apprentissages s’avéraient finalement être une amélioration des performances publicitaires, éliminant automatiquement les utilisateurs à faible intention.
En préparation de ce changement, je vous recommande de surveiller vos métriques principales à travers des groupes de requêtes clés basés sur l’intention. Chez Seer, nous cherchons déjà des moyens d’adapter notre technologie existante pour cartographier cela pour nos clients. »
BRITTANI HUNSAKER | DIRECTEUR DES MÉDIAS PAYANTS
“Du point de vue de l’utilisateur, je suis vraiment curieux de connaître l’aspect “confiance”. Avec les AAP, nous pourrions voir d’où viennent les réponses et déterminer si cela nous semble être une source fiable. Est-ce que cette capacité à savoir d’où ça vient affecter la confiance ? »
TERESA LOPEZ | RESPONSABLE PRINCIPAL, CONSUMER INSIGHTS
“Cela a un énorme potentiel pour changer les termes de recherche eux-mêmes, tout comme la promesse de la recherche vocale. Je suis très heureux de voir comment le langage de ce que nous recherchons change, devient plus long et fournit des détails supplémentaires sur les facteurs de prise de décision de l’utilisateur. Auparavant, nous avions besoin de beaucoup de signaux supplémentaires pour identifier ces désirs et ces besoins, mais si les utilisateurs deviennent plus descriptifs, les spécialistes du marketing peuvent répondre à ces besoins d’une manière bien meilleure et plus significative.
LISA DEVIEUX | Directeur associé, Stratégie et analytique
“Alors que le train en marche de l’IA progresse dans la conscience publique au cours de cette première moitié de 2023, il deviendra sans aucun doute une nouvelle réalité dans la façon dont les consommateurs recherchent. Sans aucun doute, la copie marketing, la création et les campagnes seront générées à l’aide du fourrage AI. Je suis très intéressé de voir combien de spécialistes du marketing utiliseront le marquage analytique pour déterminer l’efficacité de la surabondance de contenu généré par l’IA par rapport au bon vieux matériel généré par l’homme. Le véritable test de valeur sera de savoir si les consommateurs achètent le contenu de l’IA sur les SERP et cliquent dessus pour effectuer une conversion – ou s’ils ne sont pas incités à acheter ce que les robots doivent acheter. »
John Lovett, vice-président analytique et informations
“Je suis très intéressé de voir l’impact de ces avancées sur les requêtes “NORA, ou No One Right Answer”. Google s’efforce depuis longtemps de garder les utilisateurs sur le SERP en fournissant des réponses directes aux requêtes objectives. Cette nouvelle direction vise les questions légèrement subjectives, par exemple « Qu’est-ce qui est le plus facile à apprendre, la guitare ou le piano ? » Pour moi, la question évidente qui suit le résultat de cette requête est : “Dit qui ?” Est-ce selon un expert auquel je devrais explicitement faire confiance ? Selon des données quantitatives ? Pour certaines requêtes anodines, les utilisateurs n’ont peut-être pas besoin de chercher plus loin. Mais pour des recherches significatives, les utilisateurs recherchent souvent les mêmes qualités que Google lui-même prétend prioriser : expérience, expertise, autorité et confiance.
Alisa Scharf | Directeur, SEO
Google Lens : si vous pouvez le voir, vous pouvez le rechercher
“Votre appareil photo est le prochain clavier”, et il vous permettra de rechercher des lieux, des produits et des aliments spécifiques afin de visiter, d’acheter ou de cuisiner exactement ce que vous recherchez sans savoir exactement quels mots rechercher. Cette idéologie « si vous pouvez le voir, vous pouvez le rechercher » vise à pousser les utilisateurs vers la recherche avec plusieurs sens pour intégrer la recherche de texte, de voix et d’image dans une seule requête afin d’améliorer et d’approfondir les résultats fournis.
Voici ce qui se lance :
- Dans les mois à venir, l’IA générative permettra aux commerçants d’utiliser une petite série de photos de produits pour créer une vue produit à 360, sans processus de conception complexes.
- Google Lens peut désormais traduire du texte d’une langue à une autre, puis transposer cette traduction sur l’image d’origine.
- Dans les mois à venir, recherchez dans les images que vos amis vous envoient sur vos appareils Android. Les utilisateurs seront dirigés vers le Web pour en savoir plus sur le contenu de l’image, qu’il s’agisse d’un point de repère ou d’un vêtement.
- Grâce à la recherche multiple, vous pourrez utiliser une photo d’une chemise à motifs existante pour trouver des motifs similaires sur d’autres articles lorsque vous balayez vers le haut.
- Aux États-Unis, vous pouvez désormais prendre une photo ou une capture d’écran et ajouter “près de chez moi” pour trouver des entreprises susceptibles de vendre l’article que vous recherchez. Cela sera déployé à l’échelle mondiale dans les mois à venir.
- Dans les mois à venir, vous pourrez également utiliser la recherche multiple sur n’importe quelle image de la page de résultats de recherche mobile.
Perspectives de l’équipe des voyants :
“Cela pourrait être une amélioration très précieuse pour les organisations CPG, en particulier celles qui participent à Shopping Ads. Avec des capacités de ciblage limitées, l’expérience Google Shopping peut être améliorée de manière à faire correspondre les produits qui répondent exactement aux besoins des utilisateurs. Vous devez supposer que Google utilisera ses investissements dans la recherche d’images pour mieux automatiser la diffusion d’annonces, ce qui pourrait commencer à réduire les achats sur les plateformes sociales s’il est bien fait.”
LISA DEVIEUX | Directeur associé, Stratégie et analytique
« C’est une formidable avancée pour les utilisateurs. Le texte ne peut vous emmener que jusqu’à présent avec certaines requêtes, et les implications d’une recherche visuelle efficace peuvent insuffler une nouvelle demande de volume de recherche dans les produits et services que nos clients offrent aujourd’hui. Il reste à voir comment les clients peuvent gagner au mieux pour ces requêtes, mais je suis d’accord avec le point de vue de Lisa sur le démarrage de l’expérience Google Shopping. Que vous soyez responsable de la recherche payante ou organique, il était temps d’optimiser votre Merchant Center.”
Alisa Scharf | Directeur, SEO
“À l’avenir, cela pourrait même avoir un impact sur la façon dont les magasins stockent leurs étagères et leurs portants à vêtements si les utilisateurs sont capables de numériser rapidement l’image d’un produit et de tout voir, des informations nutritionnelles à la taille et à l’ajustement. Les marchands devront s’assurer que leurs informations sur les flux de produits et les sites sont aussi en temps réel que possible pour répondre aux besoins des utilisateurs.”
Sam Poelstra, directeur principal, Stratégie et analytique
Google Maps : augmentez votre réalité pour choisir l’expérience exacte que vous souhaitez
Leur objectif déclaré ici est “de s’assurer que l’IA alimente une carte plus visuelle et intuitive”, et lorsque Chris Phillips est monté sur scène, il a mis l’accent sur “la recherche d’endroits en déplacement”.
Les utilisateurs pourront utiliser “Rechercher avec Live View”, une fonctionnalité de réalité augmentée AI + qui aide les utilisateurs à trouver des choses à proximité simplement en regardant à travers leurs téléphones.
Cette nouvelle fonctionnalité met l’accent sur la façon dont les parcours des utilisateurs en ligne et hors ligne s’influencent mutuellement et sur la façon dont ils deviennent de plus en plus un seul et même parcours.
Les utilisateurs pourront accéder à des images de l’intérieur du magasin, à des avis et à des informations sur la disponibilité d’un emplacement lorsqu’ils marchent dans la rue vers celui-ci. Cela renforce encore le pouvoir du profil d’entreprise de Google sur le moment où un client potentiel choisit d’entrer dans un magasin physique et d’acheter un produit.
Grâce à Immersive View, les utilisateurs pourront visualiser un modèle riche de l’emplacement qu’ils souhaitent explorer avant d’entrer à l’intérieur. Cette fonctionnalité est destinée à aider les utilisateurs à découvrir les heures les plus chargées de la journée avant leur visite, à quoi ressemblera l’emplacement à différentes heures et comment les conditions météorologiques pourraient affecter leur voyage.
Philips a également mentionné que cette fonctionnalité aidera les utilisateurs à “trouver les zones occupées et à identifier les entrées des bâtiments”.
Perspectives de l’équipe des voyants :
“Cette annonce est une prochaine étape logique dans la plate-forme Google Maps et, du point de vue des propriétaires d’entreprise, pourrait conceptuellement permettre davantage d’opportunités d’atteindre les utilisateurs. Du point de vue de l’utilisateur, cependant, cette fonctionnalité repose toujours sur l’UGC, qui a toujours été le talon d’Achille de Google. Un index entièrement précis des informations commerciales continue d’être un défi à ce jour”
LISA DEVIEUX | Directeur associé, Stratégie et analytique
Avec tant d’inconnues sur le déploiement de ces fonctionnalités, il est difficile de prédire exactement comment le comportement des utilisateurs sera affecté, mais Cori Graft, directeur associé du référencement de Seer, le dit le mieux dans cet article sur Google vs GPT-4 :
“Qui sait [what will happen next]? Mais ce que je suis sûr de dire aujourd’hui, c’est que Google fera ce qu’il fait toujours : il tirera parti de son index et de sa base d’utilisateurs inégalés pour affiner ses algorithmes et fournir les meilleurs résultats possibles. Ce sera excitant de voir comment tout cela se déroulera au cours des prochains mois ! »
Greffe de Cori | Directeur associé du référencement de Seer
Restez à l’écoute de notre prochain article qui vous montrera quelles données vous devez organiser maintenant pour anticiper ces changements, et comment l’analyse comparative d’aujourd’hui peut permettre une prise de décision basée sur les données à l’avenir, peu importe ce que Google décide de faire suivant.
Vous voulez plus de messages comme celui-ci? Abonnez-vous à la newsletter des voyants :