Meta met son dernier chatbot IA sur le Web pour que le public puisse parler


Les laboratoires de recherche sur l’IA de Meta ont créé un nouveau chatbot à la pointe de la technologie et permettent aux membres du public de parler au système pour recueillir des commentaires sur ses capacités.

Le bot s’appelle BlenderBot 3 et vous pouvez accéder au Web. (Bien que, pour le moment, il semble que seuls les résidents américains puissent le faire.) BlenderBot 3 est capable de conversation générale, dit Meta, mais il peut également répondre au type de questions que vous pourriez poser à un assistant numérique, “de parler d’aliments naturels des recettes pour trouver des équipements pour les enfants en ville ».

Le bot est un prototype et construit sur Meta précédent travail avec ce qu’on appelle les grands modèles de langage ou LLMS, un logiciel de génération de texte puissant mais imparfait dont le GPT-3 d’OpenAI est l’exemple le plus connu. Comme tous les LLM, BlenderBot est initialement formé sur de grands ensembles de données de texte, qui explorent des modèles statistiques pour générer du langage. Ces systèmes se sont avérés extrêmement flexibles et ont été mis à une variété d’utilisations, de génération de code pour les programmeurs un aider les auteurs à écrire leur prochain best-seller. Cependant, ces modèles ont aussi de sérieux défauts : ils régurgiter les préjugés dans leurs données d’entraînement et souvent trouver des réponses aux questions des utilisateurs (un gros problème s’ils doivent être utiles en tant qu’assistants numériques).

Ce dernier problème est quelque chose que Meta veut spécifiquement tester avec BlenderBot. Une grande caractéristique du chatbot est qu’il est capable de rechercher sur Internet pour discuter de sujets spécifiques. Plus important encore, les utilisateurs peuvent cliquer sur leurs réponses pour voir d’où ils ont obtenu les informations. BlenderBot 3, en d’autres termes, peut citer ses sources.

En diffusant le chatbot au grand public, Meta souhaite recueillir des retours sur les différents problèmes auxquels sont confrontés les grands modèles de langage. Les utilisateurs qui discutent avec BlenderBot pourront signaler toute réponse suspecte du système, et Meta dit qu’il a travaillé dur pour “minimiser l’utilisation par les bots d’un langage grossier, d’insultes et de commentaires insensibles à la culture”. Les utilisateurs devront s’inscrire pour que leurs données soient collectées, et si tel est le cas, leurs conversations et commentaires seront stockés puis publiés par Meta pour être utilisés par la communauté générale de recherche sur l’IA.

“Nous nous engageons à publier toutes les données que nous collectons dans la démo dans l’espoir de pouvoir améliorer l’IA conversationnelle”, a déclaré Kurt Shuster, ingénieur de recherche chez Meta qui a aidé à construire BlenderBot 3. La Vierge.

Un exemple de conversation avec BlenderBot 3 sur le web. Les utilisateurs peuvent donner des commentaires et réagir à des réponses spécifiques.
Image : Méta

La publication de prototypes de chatbot IA au public a toujours été une décision risquée pour les entreprises technologiques. En 2016, Microsoft a lancé un chatbot appelé Tay sur Twitter qui a appris de ses interactions avec le public. Comme on pouvait s’y attendre, les utilisateurs de Twitter ont rapidement formé Tay à régurgiter une série de déclarations racistes, antisémites et misogynes. En réponse, Microsoft a mis le bot hors ligne moins de 24 heures plus tard.

Meta dit que le monde de l’IA a beaucoup changé depuis le dysfonctionnement de Tay, et que BlenderBot a toutes sortes de rails de sécurité qui devraient empêcher Meta de répéter les erreurs de Microsoft.

Fondamentalement, explique Mary Williamson, responsable de l’ingénierie de recherche chez Facebook AI Research (FAIR), alors que Tay a été conçu pour apprendre en temps réel à partir des interactions des utilisateurs, BlenderBot est un modèle statique. Cela signifie qu’il est capable de se souvenir de ce que disent les utilisateurs dans une conversation (et conservera même ces informations via les cookies du navigateur si un utilisateur quitte le programme et revient plus tard), mais ces données ne seront utilisées que pour améliorer le système plus tard.

“Ce n’est que mon opinion personnelle, mais cela [Tay] L’épisode est relativement malheureux, car il a créé cet hiver de chatbot où chaque institution avait peur de libérer des chatbots publics pour la recherche », explique Williamson. La Vierge.

Williamson dit que la plupart des chatbots utilisés aujourd’hui sont étroits et axés sur les tâches. Considérez les bots du service client, par exemple, qui ne présentent souvent aux utilisateurs qu’une arborescence de dialogue préprogrammée, affinant leur requête avant de la transmettre à un agent humain qui peut réellement faire le travail. Le vrai prix est de construire un système qui peut mener une conversation aussi librement et naturellement qu’un humain, et Meta dit que la seule façon d’y parvenir est de permettre aux robots d’avoir des conversations libres et naturellement tenues.

“Ce manque de tolérance envers les bots qui disent des choses inutiles, au sens le plus large du terme, est regrettable”, déclare Williamson. “Et ce que nous essayons de faire, c’est de le publier de manière très responsable et de faire avancer la recherche.”

En plus de mettre BlenderBot 3 sur le web, Meta l’est aussi publier le code sous-jacent, l’ensemble de données d’entraînement et les variantes de modèle plus petites. Les chercheurs peuvent demander l’accès au plus grand modèle, qui compte 175 milliards de paramètres, via un formulaire ici.



Source link

Leave a Reply

Your email address will not be published.