Google sta per comprendere meglio le tue query di ricerca

Google sta per comprendere meglio le tue query di ricerca

Google ha annunciato il rilascio di un importante aggiornamento al suo motore di ricerca, il che dovrebbe significare che comprende meglio le query contestuali, piuttosto che solo le parole chiave corrispondenti, includerà ciò che stai cercando di dire.

Grazie a un nuovo processo di apprendimento automatico, afferma Google, non devi più provare a completare le ricerche di parole chiave per ottenere prima i risultati corretti. Invece, puoi essere più naturale e loquace.

"Soprattutto per query più lunghe e conversazionali o per ricerche in cui preposizioni come" per "e" per "contano per il significato, la ricerca sarà in grado di comprendere il contesto delle parole nella tua query", afferma Pandu Nayak di Google.

"Indipendentemente da ciò che stai cercando o dalla lingua che parli, speriamo che tu possa rimuovere alcune delle tue parole chiave e fare ricerche in modo naturale per te", aggiunge Nayak.

Cerca e troverai

Ti forniremo alcuni esempi da Google per mostrare come funzionano le modifiche. In precedenza, in una ricerca "Brasile 2019 negli Stati Uniti che necessitava di un visto", Google ha ignorato il "a" perché era molto comune e restituiva i risultati dei cittadini statunitensi che si recavano in Brasile. Ora riconosci la "a" e la domanda riguarda i viaggiatori dal Brasile agli Stati Uniti.

In una ricerca come "gli estetisti sono di solito al lavoro", Google non ha compreso in precedenza il contesto in cui è stato utilizzato il "supporto" (ovvero, per quanto riguarda le esigenze fisiche del lavoro). Con il nuovo aggiornamento, si renderà conto di quello che stai cercando di dire.

Questi miglioramenti sono abbastanza significativi da consentire a Google di definirlo il più grande aggiornamento di ricerca degli ultimi cinque anni. Per cominciare, la nuova tecnologia si applica solo alle ricerche in inglese americano, ma si espanderà gradualmente ad altre lingue.

Per una panoramica più dettagliata delle innovazioni della rete neurale alla base di questo miglioramento, incluso un modello di formazione denominato Bidirectional Transformers Encoder Representations, o BERT, controlla il blog di Google per le modifiche.