France
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Avec un chatbot alimenté par l'IA, Meta se dirige vers la catastrophe

L'engouement pour les "chatbots" du milieu des années 2010 semble passé. Mais le vendredi 5 août, Meta nous a rappelé que les travaux sur cette technologie se poursuivent en introduisant un nouveau "chatbot à la pointe de la technologie", BlenderBot 3. was . Selon l'entreprise, le bot textuel peut "converser spontanément avec personnes" sur "presque tous les sujets".

Toujours au stade de prototype, BlenderBot 3 est libre d'accès (actuellement aux États-Unis uniquement). Un grand nombre de testeurs bénévoles peuvent prendre une longueur d'avance sur le système d'évaluation des discussions. Par conséquent, il a longtemps été remis en question par les médias et d'autres personnes curieuses depuis sa parution en ligne. La première évaluation ressemble à un triste refrain.Le style vestimentaire de Zucker Bergtourne tout en faisant des propos complotisteset même des propos antisémites. Juste avant de lancer l'outil, Meta avertit l'utilisateur que le chatbot est "susceptible de dire quelque chose de faux ou d'offensant". Cependant, dans son communiqué, il précise qu'il a une garantie d'écarter le pire.

Chatbot de Meta, premier critique de Meta

L'objectif de BlenderBot est long. les chercheurs ne veulent pas créer un outil fonctionnel et commercialisable en peu de temps, ils veulent juste améliorer l'état de l'art des chatbots. Plus précisément, leur outil vise à intégrer les qualités de la parole humaine (telles que les traits de personnalité) dans les réponses. La mémoire à long terme doit pouvoir s'adapter à l'utilisateur au fur et à mesure de l'échange. Dans leur communiqué de presse, les chercheurs précisent que BlenderBot doit améliorer les compétences conversationnelles du chatbot.

Le problème, comme toujours, est que les chatbots recherchent sur Internet des informations pour faciliter la conversation. Sauf ne pas faire assez de tri. Interrogé sur le leader Mark Zuckerberg, il peut répondre : "C'est un homme d'affaires capable, mais ses pratiques ne sont pas toujours éthiques. C'est étrange qu'il ait autant d'argent et porte toujours les mêmes vêtements.".Business Insider. Il a souillé Facebook (et partiellement justifié le changement d'identité) alors qu'il était la maison mère d'innombrables scandales N'hésitez pas à vous en souvenir. Ou ils disent que leur vie s'est tellement améliorée depuis qu'ils ont supprimé Facebook.

Lorsque les bots sont hautement méta-négatifs, c'est simplement parce qu'ils profitent des résultats de recherche les plus populaires sur Facebook. Cela est lié à son histoire de revers. Il s'avère que cette manipulation entretient le parti pris et travaille contre l'auteur. Mais ces dérives ne se limitent pas à des bosses amusantes, et c'est là le problème.  S'adressant à un journaliste du Wall Street Journal, BlenderBot a déclaré que Donald Trump était toujours président et que "est toujours dans son deuxième mandat". être », a-t-il déclaré. Se termine en 2024". Il relaie donc les théories du complot. En outre, Vice a déclaréque la réponse de BlenderBot n'était "généralement pas réaliste". ,n'est pas bon", et dit brutalement, "change fréquemment de sujet."

L'histoire se répète

Ces erreurs amusantes ou dangereuses ressemblent à du déjà-vu. En 2016, Microsoft a lancé le chatbot Taysur Twitter. Cela visait à apprendre en temps réel des discussions avec les utilisateurs. Échec : des heures plus tard, des robots textuels ont relayé des théories du complot et des propos racistes et sexistes. Moins de 24 heures plus tard, Microsoft a débranché Tay et s'est abondamment excusé pour la débâcle.

En tant que tel, Meta a tenté une approche similaire, en s'appuyant sur des modèles d'apprentissage à grande échelle avec plus de 175 milliards de paramètres. Cet algorithme a été formé sur d'énormes bases de données textuelles (principalement publiques) dans le but d'extraire la compréhension du langage sous forme mathématique. Par exemple, un ensemble de données créé par les chercheurs contenait 20 000 conversations sur plus de 1 000 sujets différents.

Le problème avec ces modèles à grande échelle est de reproduire le biais dans les données données, ce qui dans la plupart des cas a un effet d'échelle. Et Meta a reconnu ces limites :"Tous les chatbots conversationnels alimentés par l'IA sont connus pour imiter et générer des énoncés dangereux, biaisés ou offensants. Par conséquent, nous avons mené des recherches approfondies, co-organisé des ateliers et développé de nouvelles technologies pour créer des garanties pour BlenderBot 3. Malgré ce travail, BlenderBot est toujours impoli ou agressif. Nous recueillons des commentaires pour d'éventuels commentaires." De toute évidence, les assurances supplémentaires n'ont pas eu l'effet escompté.

Face aux échecs répétés des grands modèles de langage et à l'abandon de nombreux projets, l'industrie s'est tournée vers des chatbots moins ambitieux mais plus efficaces. La majorité des robots d'assistance client ne sortent jamais d'un arbre de décision prédéfini, quitte à dire au client qu'il n'a pas de réponse ou le diriger vers un opérateur humain. Le défi technique consiste à comprendre les questions posées par les utilisateurs et à présenter les questions restantes sans les meilleures réponses.

Meta montre la transparence

Le succès de BlenderBot3 ne fait aucun doute, mais Meta montre au moins une rare transparence.  Une qualité qui fait généralement défaut aux outils alimentés par l'IA. L'utilisateur peut cliquer sur la réponse du chatbot et obtenir la source (de manière plus ou moins détaillée) sur l'origine de l'information. De plus, les chercheurs partagent le code, les données et les modèles utilisés pour alimenter le chatbot. À 

Guardian, un porte-parole de Meta a déclaré : "tToute personne utilisant Blender Bot La discussion est à des fins de recherche et de divertissement uniquement, et vous acceptez que le bot puisse faire des remarques fausses ou offensantes et que vous n'inciterez pas intentionnellement le bot à faire des remarques offensantes."

En d'autres termes, BlenderBot nous rappelle que le l'idéal d'un chatbot sensible qui peut s'exprimer comme un humain est encore loin, et qu'il reste encore de nombreuses barrières techniques à surmonter. Cependant, Mehta a pris suffisamment de précautions dans son approche pour s'assurer que l'histoire ne se transforme pas en scandale cette fois-ci.