Google utilise l’IA pour mieux détecter les recherches de personnes en crise

Lors d’une crise personnelle, de nombreuses personnes se tournent vers une source d’assistance impersonnelle : Google. Chaque jour, les camps de l’entreprise effectuent des recherches sur des sujets tels que le suicide, les agressions sexuelles et la violence domestique. Mais Google veut faire plus pour diriger les gens vers les informations dont ils ont besoin, et affirme que de nouvelles techniques d’IA qui analysent mieux les complexités du langage sont utiles.

Plus précisément, Google intègre son dernier modèle d’apprentissage automatique, MUM, dans son moteur de recherche pour “détecter plus précisément une gamme plus large de recherches de crise personnelle”. La société a présenté MUM lors de sa conférence IO l’année dernière et l’a depuis utilisé pour augmenter la recherche avec des fonctionnalités qui tentent de répondre aux questions liées à la recherche d’origine.

Dans ce cas, MUM sera en mesure de détecter les requêtes de recherche liées à des situations personnelles difficiles que les outils de recherche précédents ne pouvaient pas, explique Anne Merritt, chef de produit Google pour la santé et la qualité de l’information.

“MUM peut nous aider à comprendre des questions plus longues ou plus complexes comme” pourquoi m’a-t-il attaqué quand j’ai dit que je ne l’aimais pas “”, a déclaré Merritt. le bord. “Il peut être évident pour les humains que cette requête concerne la violence domestique, mais de longues requêtes en langage naturel comme celles-ci sont difficiles à comprendre pour nos systèmes sans IA avancée.”

D’autres exemples de requêtes auxquelles MUM peut répondre incluent “les moyens les plus courants de se suicider” (une recherche que Merrit dit que les systèmes antérieurs “ont peut-être déjà compris comme une recherche d’informations”) et “les points chauds du suicide.” à Sydney” (où, encore une fois, les réponses précédentes ont probablement renvoyé des informations sur les voyages, ignorant la mention du “suicide” en faveur de la requête plus populaire des “points chauds”). Lorsque Google détecte de telles recherches de crise, il répond avec une boîte d’information indiquant aux utilisateurs “De l’aide est disponible”, généralement accompagnée d’un numéro de téléphone ou d’un site Web pour un organisme de bienfaisance en santé mentale comme Samaritans.

En plus d’utiliser MUM pour répondre aux crises personnelles, Google indique qu’il utilise également un ancien modèle de langage d’IA, BERT, pour mieux identifier les recherches qui recherchent un contenu explicite comme le porno. En tirant parti du BERT, Google affirme avoir “réduit les résultats de choc inattendus de 30 %” d’une année sur l’autre. Cependant, la société n’a pas été en mesure de partager des chiffres absolus sur le nombre de “résultats fracassants” que ses utilisateurs trouvent en moyenne, donc bien qu’il s’agisse d’une amélioration comparative, cela ne donne aucune indication sur l’ampleur réelle du problème.

Google veut vous dire que l’IA aide l’entreprise à améliorer ses produits de recherche, en particulier à un moment où il y a un récit croissant selon lequel “la recherche Google est en train de mourir”. Mais l’intégration de cette technologie a aussi ses inconvénients.

De nombreux experts en intelligence artificielle préviennent que l’utilisation croissante par Google des modèles de langage d’apprentissage automatique pourrait entraîner de nouveaux problèmes pour l’entreprise, tels que l’introduction de biais et de désinformation dans les résultats de recherche. Les systèmes d’IA sont également opaques, offrant aux ingénieurs une vision restreinte de la manière dont ils arrivent à certaines conclusions.

Par exemple, lorsque nous avons demandé à Google comment il vérifiait à l’avance quels termes de recherche identifiés par MUM sont associés à des crises personnelles, ses représentants n’ont pas voulu ou pas pu répondre. La société affirme qu’elle teste rigoureusement les modifications apportées à ses produits de recherche à l’aide de testeurs humains, mais ce n’est pas la même chose que de savoir à l’avance comment son système d’IA répondra à certaines requêtes. Pour Google, cependant, de tels compromis en valent apparemment la peine.

Leave a Comment