Google a annoncé le lancement d'une mise à niveau majeure de son moteur de recherche, ce qui devrait signifier qu'il comprend mieux les requêtes en contexte – plutôt que de simplement faire correspondre les mots-clés, il comprendra ce que vous essayez de dire.
Grâce à un nouveau processus d’apprentissage automatique, dit Google, vous n’aurez plus à essayer de bourrer vos recherches de mots-clés pour essayer d’obtenir les bons résultats en premier. Au lieu de cela, vous pouvez être plus naturel et conversationnel.
"En particulier pour les requêtes plus longues et plus conversationnelles, ou les recherches où les prépositions comme" pour "et" pour "comptent beaucoup pour le sens, la recherche sera en mesure de comprendre le contexte des mots dans votre requête", explique Pandu Nayak, de Google.
"Peu importe ce que vous recherchez ou la langue que vous parlez, nous espérons que vous serez en mesure de laisser tomber certains de vos mots clés et d'effectuer des recherches de manière naturelle pour vous", ajoute Nayak.
Sommaire
Cherchez et vous trouverez
Nous allons vous donner quelques exemples de Google pour montrer comment les modifications fonctionnent. Auparavant, dans une recherche "2019 Brésil aux États-Unis ayant besoin d'un visa", Google ignorait le "à" car il était si courant et renvoyait les résultats des citoyens américains se rendant au Brésil. Maintenant, il reconnaît le "à" et que la question porte sur les voyageurs allant du Brésil aux États-Unis.
Sur une recherche comme "les esthéticiennes sont-elles souvent au travail", Google ne comprenait pas auparavant le contexte dans lequel "stand" était utilisé (c'est-à-dire en ce qui concerne les exigences physiques du travail). Avec la nouvelle mise à jour, il réalisera ce que vous essayez de dire.
Ces améliorations sont suffisamment importantes pour que Google appelle cette mise à niveau de recherche la plus importante en cinq ans. Pour commencer, la nouvelle technologie s’applique uniquement aux recherches en anglais américain, mais elle s’étendra progressivement à d’autres langues.
Pour obtenir un aperçu plus détaillé des innovations de réseau neuronal à la base de cette amélioration, notamment un modèle de formation appelé Représentations de codeur bidirectionnel de Transformers ou BERT, consultez le blog de Google sur les modifications.