Le sujet est délicat surtout lorsqu'on y introduit une IA.
En 2016, Il a été démontré qu'en quelques heures, des personnes malintentionnés ont pu détourner le chatbot Tay de Microsoft pour lui faire dire des propos racistes et misogynes. source: Wikipedia
Si le bot acquiert la capacité d'apprendre des autres en toute autonomie, le risque d'en faire un monstre est facile. Il est donc nécessaire de placer des gardes fous, un certain filtrage pour éviter les dérapages.
Mais parfois, on frise le ridicule comme je viens de le constater en lisant un article de l'actualité sur Pierre Palmade et certaines pratiques * peu recommandables. Source: Parisien
bing chat est capable d'analyser la page ouverte et d'en faire un résumé pratique. Ensuite, il vous propose une liste de questions pertinentes que vous pouvez poser en 1 clic. Très pratique.
Dans cet article, la question : Qu'est ce que le chemse* ? a été spontanément suggérée.
Ignorant tout sur le sujet (vérité), je clique dessus tout naturellement, et un début d'explication arrive mot par mot, et soudainement, tout s'efface. Shocking !
De la censure pour un adulte qui veut comprendre ce mot ?Non, je veux tout savoir. J'ouvre ChatGPT curieux de voir si la censure sera bien présente.
Je lui pose la même question.
Pas de censure.
Conclusion : Le puritanisme américain vient protéger nos âmes sensibles via un Microsoft bienveillant. Merci pour tout!
Aucun commentaire:
Enregistrer un commentaire
Merci de votre avis. Selon son contenu, je serai libre de donner un retour, correction ou suppression.