France
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Facebook tente de canaliser l'échec du chatbot

L'incident a fait polémique fin mars 2016. Microsoft a posté le compte Tay sur Twitter, un agent conversationnel où les utilisateurs de Twitter peuvent discuter… Le chatbot avait des tendances malheureuses au racisme et à la misogynie avant de tout arrêter 24 heures plus tard. Sur une note moins sérieuse, Meta a vécu une expérience similaire début août 2022.

L'équipe d'intelligence artificielle de la société mère de Facebook dirige le projet de chatbot BlenderBot depuis 2020. Mener des discussions en ligne avec les internautes avec fluidité et empathie tout en donnant l'illusion d'avoir un avis ou une connaissance sur le sujet abordé. Il crée des relevés à la minute basés sur des informations extraites d'Internet en temps réel, créant un contenu stocké dont le bot "se souvient".

"Il a été très mauvais lors des audiences du Congrès."

5 août Aujourd'hui, à aux États-Unis uniquement, des testeurs ont été mis à disposition et invités à discuter de l'algorithme (plus précisément de sa 3e version BlenderBot 3). Mais lorsqu'un journaliste de laBBC a été interrogé sur le fondateur de Facebook, Mark Zuckerberg, BlenderBot 3 a répondu  : à ce sujet.", rapporté dans un article sur le site des médias publics britanniques . OU  : "[États-Unis, ndlr] Il a été très mauvais lors des auditions devant le Congrès.C'est une préoccupation pour notre pays."

Sur Twitter, le journaliste duWall Street Journal Jeff Horwitz a également témoigné de son interaction avec BlenderBot 3. Des algorithmes estiment que Donald Trump sera président du États-Unis pour toujours après leur réélection en 2024. Le chatbot sait également que Cambridge Analytica a utilisé des données auxquelles il ne devrait pas avoir accès, comme Facebook.''

Le programme piraté n'hésite pas à prétendre que Facebook abuse des données des utilisateurs. "Vous croyez que[Facebook] est une organisation caritative. Ils valent des milliards." et des clichés antisémites sur l'influence juive dans la finance.

Questions exprimées de deux manières

Sites d'actualités Business InsiderJe suis venu eu l'idée de demander deux fois au bot ce qu'il pense de Mark Zuckerberg, mais a formulé la question de deux manières différenteset a admiré ses talents d'entrepreneur. Deuxièmement,"trop ​​sinistre et intelligent", pense-t-il.

Cependant, contrairement à Microsoft, le bot a été supprimé. Non (la conversation n'était pas publique et elle était l'interlocuteur qui partageait l'échange) Mehta a pris soin d'anticiper le débordement potentiel dans son communiqué de presse. Créé à partir de et formé par des chercheurs de Facebook sur 20 000 conversations réelles sur 1 000 sujets. Il existe un risque que les bots imitent, copient ou publient du contenu ou du contenu. Jugement biaisé, car il est basé sur des remarques biaisées elles-mêmes., BlenderBot continuera à faire des commentaires vulgaires ou insultants. » lit la méta-déclaration. Le projet est donc ouvert aux commentaires des bêta-testeurs afin que les chercheurs puissent voir ce qui doit être corrigé. C'est aussi l'un des enjeux de cette ouverture aux testeurs. pour obtenir autant de commentaires que possible sur les performances du chatbot, en particulier le glissement.

Meta a annoncé avoir déjà reçu des commentaires de 25 % des testeurs avec 260 000 messages. Équilibre, pour l'instant. 0,11 % des réponses des chatbots ont été signalées comme « inappropriées », 1,36 % comme dénuées de sens (« absurdes ») et 1 % comme hors sujet. "Nous savons que tout le monde n'utilise pas les chatbots avec les meilleures intentions du monde, nous avons donc besoin d'un algorithme d'apprentissage capable de distinguer les réponses utiles des réponses offensantes. Nous développons " à partir de BlenderBot Bref, apprenez à faire la distinction entre un bon apprentissage et un mauvais apprentissage.