Outils pour utilisateurs

Outils du site


aitextgen

Ceci est une ancienne révision du document !


Génération de textes avec aitextgen et GPT-2

Les chercheurs retardent la publication de leurs recherches car ils estiment que GPT2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnées comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles8. cf W

Ressources

aitextgen

OpenAI

  • OpenAI sur Wikipedia: OpenAI est une entreprise à « but lucratif plafonné » en intelligence artificielle, basée à San Francisco. L'objectif de cette société est de promouvoir et développer une intelligence artificielle à visage humain qui bénéficiera à toute l'humanité. OpenAI a mis au point une intelligence artificielle nommée GPT2 capable d'écrire des articles de presse et des œuvres de fiction. Reposant sur un générateur de texte qui assimile les mots reçus et détermine la suite la plus logique qu'elle retransmet dans le même style, elle s'avère particulièrement performante, à tel point qu'il est impossible de faire la différence avec un texte écrit par un être humain7.
    Les chercheurs retardent la publication de leurs recherches car ils estiment que GPT2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnées comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles8.

Controverse sur GPT-2

Transformers

  • Transformers: State-of-the-art Natural Language Processing for Pytorch and TensorFlow 2.0. Transformers (formerly known as pytorch-transformers and pytorch-pretrained-bert) provides state-of-the-art general-purpose architectures (BERT, GPT-2, RoBERTa, XLM, DistilBert, XLNet, T5, CTRL…) for Natural Language Understanding (NLU) and Natural Language Generation (NLG) with over thousands of pretrained models in 100+ languages and deep interoperability between PyTorch & TensorFlow 2.0.

BERT

  • BERT (traitement automatique du langage) En traitement automatique du langage naturel, BERT, acronyme de Bidirectional Encoder Representations from Transformers, est un modèle de langage (en) développé par Google en 2018. Cette méthode a permis d'améliorer significativement les algorithmes de traitement automatique de la langue.

CamemBERT

The CamemBERT model was proposed in CamemBERT: a Tasty French Language Model by Louis Martin, Benjamin Muller, Pedro Javier Ortiz Suárez, Yoann Dupont, Laurent Romary, Éric Villemonte de la Clergerie, Djamé Seddah, and Benoît Sagot. It is based on Facebook’s RoBERTa model released in 2019. It is a model trained on 138GB of French text.

FlauBERT

The FlauBERT model was proposed in the paper FlauBERT: Unsupervised Language Model Pre-training for French by Hang Le et al. It’s a transformer pre-trained using a masked language modeling (MLM) objective (BERT-like).

Exemple

Pourquoi ma pi  http://www.orleans.fr/spip-a-saver-le-move-de-me-sart-pour-nouve-les-et-un-point-de-gestion-de-fable-de-en-d-
Pourquoi ma pi ubuntu.
Je ne suis pas que le temps ou les pistes sont encore sur le
contenu du boire, je ne suis pas que je
c'ai pas le rôle du monde en faire
l'inqui détretre (pour que vous
l'avez bien
Pourquoi ma pi  http://www.decripal.fr/
  http://www.youtube.com/watch?v=LH00xyFtAI4#
 Nico 
 Développeur / Intégrateur Web
 02 38 62 48 31
 http://labomedia.org  http://labomedia.org
Pourquoi ma pi outube pour
souv, j'ai perdre la même temps, c'est un bon sens, il faut pas
ce qu'on croit que l'élégance 
zon est inutile. Ceci est tout à fait à 
part. J'ai eu envie de le dire
Pourquoi ma pi issus de la
périte.
Enfin, vous êtes invité aux amigeaux des plus extrants à tous les artistes
de sonores, au premier au niveau de la ville.
Je prends pas de chasse que de la vidéo, à l
Pourquoi ma pi ubuntu (f.). 
Pour une voiture et revenue, le 
de l'article.
Après de lire...
L'utilisation n'anise pas...
Message précédent:
D'ailleurs, j'ai un peu plus de bonne bous.
Message
Pourquoi ma pi ultime.
De : Nico  nderambure@labomedia.net
Ca Biel  mailto:nderambure@labomedia.net
À : "adherent-ressource@labomedia.net"  adherent-ressource@labomedia.net 
Envoyé le : 21 mars 2013 13h
Objet : Re
Pourquoi ma pi  http://blog..orleans.fr/fr/news/article/article/04/des-par-le-sun-pun-sil-premier-cil-et-prame-la-vue
Message précédent:
C'est vraiment
Pourquoi ma pi ordre
   b
Message précédent:
 Salut Benjamin,
 J'ai pas besoin de mon avis et ce que le logo.
 L'erreur de l'élégance 
 tout
 fait, je vais faire un divertissement.
 A mon avis sur le cf
Pourquoi ma pi  https://www.youtube.com/watch?v=1MM
 Sarkozy-Pure de mes fractuches a lieu...
Message précédent:
 Encore du molard, je
aitextgen.1592489059.txt.gz · Dernière modification : 2020/06/18 14:04 de serge