Pourquoi les employés de Google remettent en question l’utilité de Bard

Pourquoi les employés de Google remettent en question l'utilité de Bard

Une capture d'écran d'un serveur Discord dédié au chatbot d'intelligence artificielle (IA) de Google, Bard, suggère que certains employés de Google s'interrogent sur l'utilité des chatbots Large Language Model (LLM).

Les chatbots IA se sont généralisés en 2023 grâce à ChatGPT d'OpenAI et Bard de Google. Pour autant, les chatbots IA, dans leur état actuel, sont-ils vraiment utiles ?

Question principale sur l'expérience Google Bard si les LLM font une différence

Selon Bloomberg, il existerait un serveur Discord dédié aux utilisateurs fréquents de Google Bard et à certains employés du géant des moteurs de recherche. Sur le serveur spécifique, ils discutent de l'efficacité et de l'utilité du chatbot.

Bloomberg a collecté des captures d'écran de la conversation de deux membres des serveurs Discord de juillet à octobre. En août, Cathy Pearl, responsable de l'expérience utilisateur chez Google Bard, écrivait :

« Le plus grand défi auquel je pense encore : à quoi servent réellement les LLM, en termes d'utilité ? Comment vraiment faire la différence. À définir!"

Lire la suite : Les modèles d'apprentissage automatique les plus populaires en 2023

Google Bard, employés de Google, intelligence artificielle
Capture d'écran du chat Discord des employés de Google. Source : Bloomberg

Les membres de la communauté pensent que Bard ne peut pas répondre même aux questions les plus élémentaires. Un utilisateur X (Twitter) a écrit :

« Quiconque a utilisé Bard serait probablement d’accord. Il ne peut même pas répondre aux questions de base sur le fonctionnement des applications Google, telles que Analytics, reCAPTCHA, etc. Allez l'essayer."

Le chef de produit de Google estime que le résultat n'est pas fiable

Il y a eu des discussions sur la fiabilité des données générées par les chatbots. Dominik Rabiej, chef de produit chez Bard, affirme que les LLM n'en sont pas à un stade où les utilisateurs ne peuvent pas faire confiance à leurs résultats sans les vérifier de manière indépendante. Il a dit:

« Ma règle générale est de ne pas faire confiance aux résultats du LLM à moins que je puisse les vérifier de manière indépendante »

Les LLM sont des modèles d'IA entraînés avec un vaste ensemble de données pour générer des résultats de type humain. Les chatbots comme ChatGPT et Bard utilisent LLM.

Étant donné que les données ne sont pas totalement fiables, Rabiej suggère qu'il est idéal d'utiliser Google Bard à des fins de brainstorming au lieu de s'y fier uniquement à titre d'information. En fait, lorsqu'un utilisateur commence à utiliser Bard pour la première fois , il voit un message indiquant : "Bard est une expérience". Le message dit également :

« Bard ne réussira pas toujours à faire les choses correctement. Bard peut donner des réponses inexactes ou offensantes. Si vous avez des doutes, veuillez utiliser le bouton Google pour vérifier les réponses de Bard."

Lire la suite : ChatGPT contre. Google Bard : un comparatif des chatbots IA

Google Bard, IA, intelligence artificielle
Le message de Google Bard. Source : site officiel

Avez-vous quelque chose à dire sur le chatbot Google Bard ou quelque chose comme ça ? Écrivez-nous ou rejoignez la discussion sur notre chaîne Telegram. Vous pouvez également nous retrouver sur TikTok , Facebook ou X (Twitter).

Pour la dernière analyse Bitcoin (BTC) de BeInCrypto , cliquez ici .

L'article Pourquoi les employés de Google remettent en question l'utilité de Bard apparaît en premier sur BeInCrypto .