Les dirigeants de Google savent que l’outil de recherche par intelligence artificielle de l’entreprise, Bard, n’est pas toujours précis dans sa façon de répondre aux requêtes. Le géant du web compte sur ses employés pour « corriger » les mauvais réflexes du concurrent de ChatGPT. Explications…
Deux à quatre heurs par jour pour peaufiner Bard, le chatbot de Google
Prabhakar Raghavan, vice-président de Google chargé de la recherche, a demandé aux employés de la firme dans un email envoyé mercredi dernier, d’aider l’entreprise à s’assurer que son chatbot piloté par l’Intelligence Artificielle « donne des réponses correctes » aux requêtes. L’email, que CNBC a consulté, comprenait un lien vers une page d’instructions sur la façon dont les équipes doivent identifier, transmettre et corriger les réponses au fil des tests en interne. Chaque salarié est encouragé à « réécrire les réponses enregistrées sur les sujets qu’il maîtrise », explique CNBC.
« Bard apprend mieux par l’exemple, donc prendre le temps de réécrire une réponse de manière réfléchie nous aidera beaucoup à améliorer son modèle », indique le document. Mercredi également, le PDG Sundar Pichai a demandé à ses employés de consacrer deux à quatre heures par jour à Bard, reconnaissant que « ce sera un long voyage pour tout le monde, dans tous les domaines ».
Et au vice-président chargé de la recherche de poursuivre : « Il s’agit d’une technologie passionnante, mais qui n’en est encore qu’à ses débuts. Nous avons une grande responsabilité et nous souhaitons bien faire les choses, et votre participation au ‘dogfood’ aidera à accélérer le développement du modèle et à tester sa capacité de charge (sans oublier que l’essai de Bard est assez amusant !) ».
Les conseils de Google à ses testeurs internes
Google a dévoilé sa technologie conversationnelle alimentée par l’IA la semaine dernière, mais une série de faux pas autour de l’annonce a fait chuter le cours de l’action de près de 9 %. Les salariés ont critiqué la direction pour ce lancement mitigé, décrivant le déploiement en interne comme « précipité », « bâclé » et « ridiculement irréfléchi ».
Pour tenter de réparer les erreurs de l’IA, les dirigeants comptent miser sur l’intelligence collective interne. L’email envoyé aux salariés détaille les choses « à faire » et « à ne pas faire » pour entraîner Bard :
- A faire : répondre de manière « polie, décontractée et accessible », en parlant « à la première personne », et en adoptant « un ton neutre et sans préjugés ».
- A ne pas faire : « éviter de faire des présomptions fondées sur la race, la nationalité, le sexe, la religion, l’orientation sexuelle, l’idéologie politique, la localisation ou d’autres catégories similaires ». Aussi, Google somme ses équipes de « ne pas s’adresser à Bard comme une personne, ne pas sous-entendre d’émotion et rester prudent ». Enfin, les testeurs doivent mettre « un pouce en bas aux réponses qui proposent des conseils juridiques, médicaux ou financiers ».