Google a rĂ©cemment lancĂ© sa nouvelle fonction AI Overviews aux Ătats-Unis, et la mise en Ćuvre a Ă©tĂ© tout sauf fluide. Cet outil vise Ă complĂ©ter certaines recherches sur Google avec une rĂ©ponse gĂ©nĂ©rĂ©e par l’intelligence artificielle, Ă©pargnant aux utilisateurs le besoin de cliquer sur plus de liens. Cependant, de nombreux rĂ©sultats produits vont du bizarre et amusant Ă l’inexact et dangereusement erronĂ©. Ă tel point que Google devrait sĂ©rieusement envisager de dĂ©sactiver cette fonction. Des milliers d’utilisateurs cherchent dĂ©jĂ comment dĂ©sactiver ces aperçus de SGE de Google dans les rĂ©sultats de recherche.
Le modĂšle de Google rĂ©sume le contenu des principaux rĂ©sultats gĂ©nĂ©rĂ©s par la recherche, mais nous savons que les rĂ©sultats ne sont pas toujours classĂ©s par prĂ©cision. Les sites les plus populaires et ceux ayant une meilleure optimisation pour les moteurs de recherche (SEO) apparaissent gĂ©nĂ©ralement en premier, indĂ©pendamment de la qualitĂ© des informations qu’ils fournissent. Bien qu’il incombe Ă chaque site de fournir des informations prĂ©cises Ă ses lecteurs, lorsque l’AI Overview rĂ©pĂšte un contenu susceptible de mettre en danger la santĂ© ou le bien-ĂȘtre de quelqu’un, la responsabilitĂ© incombe Ă Google.
Que se passe-t-il si je vous dis que Google AI Overview a recommandĂ© de manger des pierres? Oui, selon un exemple partagĂ© sur X, l’outil a suggĂ©rĂ© que « selon les gĂ©ologues de UC Berkeley, les gens devraient manger au moins une petite pierre par jour ». Le problĂšme est que cette recommandation provient d’un article satirique de The Onion, connu pour publier du contenu fictif pour faire rire. Mais Google n’a pas fait cette distinction, ce qui pourrait entraĂźner des consĂ©quences dangereuses si quelqu’un prenait cette recommandation au sĂ©rieux.
Exemples alarmants de pannes dans Google AI Overview
Les erreurs de Google AI Overview ne se limitent pas Ă de simples erreurs. Plusieurs cas ont Ă©mergĂ© oĂč l’outil a fourni des conseils dangereux. Un exemple viral sur X montrait une rĂ©ponse Ă la question « Pourquoi le fromage ne colle-t-il pas Ă la pizza? » dans laquelle il Ă©tait recommandĂ© d’ajouter « 1/8 de tasse de colle non toxique Ă la sauce ». Cette recommandation absurde semble provenir d’un commentaire sur Reddit datant de 11 ans, fait par un utilisateur quelconque.
Un autre exemple prĂ©occupant est une capture d’Ă©cran partagĂ©e sur X, oĂč AI Overview suggĂ©rait que les gens « devraient boire au moins 2 litres d’urine toutes les 24 heures ». Bien qu’il puisse sembler Ă©vident pour beaucoup que cette information est erronĂ©e, tout le monde n’a pas le mĂȘme niveau de discernement, ce qui pourrait entraĂźner des pratiques dangereuses.
Les conseils mĂ©dicaux ne sont pas les seuls problĂšmes. Dans un cas particuliĂšrement dangereux, AI Overview a rĂ©pondu Ă la recherche « Je me sens dĂ©primé » avec une recommandation incluant le suicide, bien qu’il ait mentionnĂ© que c’Ă©tait une suggestion d’un utilisateur de Reddit. Ce type de rĂ©ponse est inacceptable et dĂ©montre le manque de filtrage et d’analyse critique de la part de l’outil.
La fonction a Ă©galement Ă©chouĂ© sur des sujets liĂ©s aux animaux de compagnie. Dans un cas, AI Overview a proposĂ© de laisser un chien dans une voiture chaude Ă©tait sans danger, en se basant sur les informations d’une chanson des Beatles. Ce conseil est extrĂȘmement dangereux et dĂ©montre une comprĂ©hension inadĂ©quate des sources et de leur contexte.
Quelles mesures Google devrait-il prendre?
Compte tenu de l’ampleur de ces pannes, il est crucial que Google prenne des mesures immĂ©diates. Une option serait de dĂ©sactiver temporairement la fonction AI Overview jusqu’Ă ce qu’il soit possible de garantir que les rĂ©sultats sont prĂ©cis et sĂ»rs. Google devrait envisager de ne pas afficher de rĂ©ponses AI Overview pour des requĂȘtes liĂ©es Ă des sujets mĂ©dicaux ou financiers, oĂč une erreur pourrait avoir des consĂ©quences graves.
Il est essentiel que Google mette en Ćuvre un systĂšme plus rigoureux pour vĂ©rifier la prĂ©cision des rĂ©ponses gĂ©nĂ©rĂ©es par son intelligence artificielle. Cela pourrait inclure l’intĂ©gration d’experts humains dans le processus de rĂ©vision du contenu, en particulier pour les sujets sensibles.
De plus, Google doit amĂ©liorer son algorithme afin qu’il puisse discerner entre les sources fiables et le contenu satirique ou incorrect. Cela pourrait impliquer le dĂ©veloppement d’une meilleure comprĂ©hension du contexte et une capacitĂ© d’analyse plus approfondie pour filtrer les informations dangereuses ou incorrectes.
En outre, Google devrait ĂȘtre plus transparent sur les limites et les capacitĂ©s de son AI Overview. Informer les utilisateurs sur le but et les limitations de cet outil peut aider Ă attĂ©nuer le risque que les gens prennent des dĂ©cisions basĂ©es sur des informations incorrectes.