Google a mis au point une série d’annonces, toutes visant à améliorer son produit principal: la recherche. Lors de son événement Search On Event, la société a clairement indiqué qu’elle se concentrerait sur l’utilisation de l’IA pour aider ses utilisateurs. Parmi les nouvelles fonctionnalités, il y a un nouvel algorithme pour mieux gérer les fautes d’orthographe dans les requêtes des utilisateurs, la possibilité de détecter les chansons à partir du bourdonnement et de nouveaux outils pour aider les étudiants à faire leurs devoirs.
La société a également annoncé des mises à jour de Google Lens et d’autres outils liés à la recherche.
Sommaire
Les mipsellings n’ont peut-être pas d’importance
L’événement Google, qui a été diffusé en direct, était « pour partager plusieurs nouvelles avancées dans le classement de recherche, rendues possibles grâce à nos dernières recherches sur l’IA ».
L’un des points forts a été la recherche Google améliorant sa capacité à gérer les fautes de frappe. Selon Google, 1 requête sur 10 est mal orthographiée. Même si elle est actuellement traitée par son « vouliez-vous dire? » fonctionnalité, Google s’améliore. « Aujourd’hui, nous introduisons un nouvel algorithme d’orthographe qui utilise un réseau neuronal profond pour améliorer considérablement notre capacité à déchiffrer les fautes d’orthographe. En fait, ce changement unique apporte une plus grande amélioration à l’orthographe que toutes nos améliorations au cours des cinq dernières années », A déclaré Prabhakar Raghavan, vice-président principal de Google, recherche et assistant, géo, publicité, commerce, paiements et NBU.
Le nouvel algorithme d’orthographe aide Google à comprendre le contexte des mots mal orthographiés, afin d’aider les utilisateurs à trouver les bons résultats, le tout en moins de 3 millisecondes.
Google s’attend à ce que sa nouvelle technologie améliore 7% des requêtes de recherche dans toutes les langues au fur et à mesure de son déploiement à l’échelle mondiale.
Des données importantes désormais facilement disponibles
Google intègre également et met à disposition diverses sources de données qui n’étaient auparavant disponibles que dans le cadre de l’Open Data Commons de Google, dans la recherche.
«Désormais, lorsque vous posez une question telle que« combien de personnes travaillent à Chicago », nous utilisons le traitement du langage naturel pour mapper votre recherche sur un ensemble spécifique des milliards de points de données de Data Commons afin de fournir la bonne statistique dans un visuel, facile à comprendre le format. Vous trouverez également d’autres points de données et contextes pertinents, tels que les statistiques d’autres villes, pour vous aider à explorer facilement le sujet plus en profondeur « , a déclaré Google
Moments clés du contenu vidéo
Alors que le monde adopte de plus en plus le contenu vidéo, Google a mis au point une reconnaissance informatique avancée et une reconnaissance vocale pour marquer les moments clés des vidéos.
«Grâce à une nouvelle approche basée sur l’IA, nous sommes désormais en mesure de comprendre la sémantique profonde d’une vidéo et d’identifier automatiquement les moments clés. Cela nous permet de marquer ces moments dans la vidéo, afin que vous puissiez les parcourir comme des chapitres d’un livre. vous recherchez cette étape dans un didacticiel de recette, ou le home run gagnant dans une bobine de faits saillants, vous pouvez facilement trouver ces moments. Nous avons commencé à tester cette technologie cette année, et d’ici la fin de 2020, nous prévoyons que 10% des recherches sur Google utiliseront cette nouvelle technologie. «
Hum et prends-le
Google a déclaré qu’il pouvait désormais détecter les bourdonnements et les sifflements vocaux pour montrer quelle chanson un utilisateur souhaite rechercher. Dans la recherche Google, les utilisateurs peuvent appuyer sur l’icône du microphone et dire « Quelle est cette chanson? » ou cliquez sur «Rechercher une chanson» et commencez à fredonner pendant 10 à 15 secondes. Sur l’Assistant Google, les utilisateurs peuvent dire: « Hey Google, quelle est cette chanson? » puis fredonnez l’air.
Lens se prête à de multiples usages
Une autre chose intéressante est sur Google Lens où vous pouvez demander à l’application de lire un passage d’une photo d’un livre – quelle que soit la langue. En utilisant Google Lens, les utilisateurs peuvent cliquer sur n’importe quelle image qu’ils rencontrent, ce qui à son tour affichera des articles similaires et suggérera des façons de styliser les tenues.
En utilisant la fonctionnalité Google Lens, les utilisateurs peuvent prendre une photo d’un problème de devoirs et cela transformera l’image de la question de devoir en requête de recherche. Les résultats montreront ensuite comment résoudre le problème étape par étape.
Les cartes en ont plus sur eux
Sur le plan du shopping, si vous recherchez, par exemple, une voiture, Google sera désormais en mesure de donner une vue AR afin que vous puissiez voir à quoi elle ressemble à votre place. «La distanciation sociale a également radicalement changé la façon dont nous achetons. Nous facilitons donc la recherche visuelle de ce que vous recherchez en ligne, que vous recherchiez un pull ou que vous souhaitiez voir de plus près une nouvelle voiture, mais que vous puissiez» t visitez une salle d’exposition « , a déclaré Google.
Sur Google Maps, Google affichera des informations en direct directement sur la carte, vous n’avez donc pas à les rechercher spécifiquement. « Nous ajoutons également des informations de sécurité sur le COVID-19 au premier plan des profils d’entreprise dans la recherche Google et sur Maps. Cela vous aidera à savoir si une entreprise vous oblige à porter un masque, si vous devez effectuer une réservation à l’avance ou si le Le personnel prend des précautions de sécurité supplémentaires, telles que les contrôles de température. Et nous avons utilisé notre technologie de conversation Duplex pour aider les entreprises locales à maintenir leurs informations à jour en ligne, telles que les heures d’ouverture et l’inventaire des magasins », a déclaré Google.
Pour les journalistes aussi
Dans le cadre de Journalist Studio, Google lance Pinpoint, un nouvel outil qui apporte la puissance de la recherche Google aux journalistes. « Pinpoint aide les journalistes à parcourir rapidement des centaines de milliers de documents en identifiant et en organisant automatiquement les personnes, organisations et lieux les plus fréquemment mentionnés. Les journalistes peuvent s’inscrire pour demander l’accès à Pinpoint à partir de cette semaine », a déclaré Google.
Source: Google