Veuillez activer JavaScript pour profiter pleinement des fonctionnalités de GMX.

Des chercheurs ont créé un écrivain artificiel

Des chercheurs ont construit un écrivain artificiel - mais il ne sera pas dévoilé au grand public car il pourrait être utilisé à des fins malveillantes.

OpenAI - un institut de recherche soutenu par des personnalités de Silicon Valley telles qu'Elon Musk et Peter Thiel - a développé une nouvelle technologie qui utilise le Machine Learning afin de produire du langage naturel. Cependant, le produit ne sera pas dévoilé à cause d'inquiétudes quant à la possibilité que des gens l'utilisent afin de produire des 'fake news' en masse.

Cette création fonctionne en récoltant les données de sites et de nouveaux articles en lignes, mais à présent, le texte qui en résulte est souvent incohérent et rarement authentique, car les mots qui sont assemblés contiennent fréquemment des erreurs.

L'équipe derrière ce produit a déclaré "Nous avons observé de nombreux modes de défaillance, tels que du texte répétitif, des erreurs de modélisation (par exemple, le robot écrit parfois que des incendies se déclenchent sous l'eau), ainsi que des changements de sujet anormaux."

OpenAI a aussi partagé qu'ils souhaitaient que leur création provoque un débat au sujet de la façon dont l'intelligence artificielle devrait être utilisée et contrôlée.

L'institut a déclaré: "Nous pensons que les gouvernements devraient commencer à prendre des initiatives afin de surveiller systématiquement l'effet social et la diffusion de services d'intelligence artificielle, et de sorte à mesurer la progression des capacités de tels systèmes."

Par ailleurs, Brandie Nonnecke, la directrice du laboratoire CITRIS de Berkeley, une institution qui étudie les effets sociétales de la technologie, a déclaré que de fausses informations étaient inévitables, ajoutant que le débat devrait plutôt se concentrer sur les plateformes qui en sont probablement la source.

S'adressant à la BBC, Brandie Nonnecke a déclaré: "Il ne faut pas se demander si des personnes malveillantes utiliseront ces service d'intelligence artificielle afin de créer de fausses informations convaincantes et des deepfakes, car c'est inévitable.

Les plateformes en ligne doivent reconnaître le rôle qu'elles doivent endosser afin de limiter la portée et l'effet de telle malveillance. L'époque des plateformes qui prétendent qu'elles sont immunisées contre la responsabilité de distribution de contenu est révolue.

Les plateformes doivent s'engager à évaluer la façon dont leurs systèmes peuvent être manipulés et construire des mécanismes transparents afin d'identifier et de limiter la propagation de contenu malveillant."

Contenu sponsorisé