Outils pour utilisateurs

Outils du site


aitextgen

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
aitextgen [2020/07/29 08:41] – [Fables de La Fontaine à partir du model tf_gpt2="124M" et vocab = 50275] sergeaitextgen [2022/02/08 15:59] (Version actuelle) – Tag0 Removed: text_gen serge
Ligne 1: Ligne 1:
 ====== Génération de textes avec aitextgen et GPT-2====== ====== Génération de textes avec aitextgen et GPT-2======
 +
 +<WRAP center round box 60% centeralign>
 +**{{tagpage>ia|Intelligence Artificielle}}**     **[[http://translate.google.com/translate?hl=&sl=auto&tl=en&u=https%3A%2F%2Fressources.labomedia.org%2Faitextgen|English Version]]**
 +</WRAP>
 +<WRAP center round box 60% centeralign>
 +**[[les_pages_intelligence_artificielle_en_details|Les Pages Intelligence Artificielle en détails]]**
 +</WRAP>
  
 <WRAP center round box 80% centeralign> <WRAP center round box 80% centeralign>
-**{{tagpage>tal|Traitement Automatique du Langage}}** **{{tagpage>ia|Intelligence Artificielle}}**  +**{{tagpage>tal|Traitement Automatique du Langage}}**  
 </WRAP> </WRAP>
  
 <WRAP center round box 80% centeralign> <WRAP center round box 80% centeralign>
-**Cette page est la suite de [[textgenrnn|Générer du texte en python avec textgenrnn]]**+**Cette page est la suite de [[archives:textgenrnn|Générer du texte en python avec textgenrnn]]**
 </WRAP> </WRAP>
  
 <WRAP center round box 80% centeralign> <WRAP center round box 80% centeralign>
-Les chercheurs retardent la publication de leurs recherches car ils estiment que GPT2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnées comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles. cf **[[https://fr.wikipedia.org/wiki/OpenAI#GPT2|W]]**+Les chercheurs retardent la publication de leurs recherches car ils estiment que GPT2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnées comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles. cf **[[https://fr.wikipedia.org/wiki/OpenAI#GPT2|W]]**\\ 
 +Bien sûr, tout a été publié, y compris le modèle big de 1.5 Go.
 </WRAP> </WRAP>
  
Ligne 17: Ligne 25:
   * **[[https://towardsdatascience.com/representing-text-in-natural-language-processing-1eead30e57d8|Representing text in natural language processing]]**   * **[[https://towardsdatascience.com/representing-text-in-natural-language-processing-1eead30e57d8|Representing text in natural language processing]]**
   * **[[https://nlp.stanford.edu/pubs/glove.pdf|GloVe: Global Vectors for Word Representation]]**   * **[[https://nlp.stanford.edu/pubs/glove.pdf|GloVe: Global Vectors for Word Representation]]**
-=====Quel carte graphique choisir en Juin 2020===== 
-  * **[[https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/|Choosing the Best GPU for Deep Learning in 2020]]** 
  
-    * RTX 2060 (6 GB): if you want to explore deep learning in your spare time. 360€ 
-    * RTX 2070 or 2080 (8 GB): if you are serious about deep learning, but your GPU budget is $600-800. Eight GB of VRAM can fit the majority of models. 
-    * RTX 2080 Ti (11 GB): if you are serious about deep learning and your GPU budget is ~$1,200. The RTX 2080 Ti is ~40% faster than the RTX 2080. 
-    * Titan RTX and Quadro RTX 6000 (24 GB): if you are working on SOTA models extensively, but don't have budget for the future-proofing available with the RTX 8000. 4000€ 
-    * Quadro RTX 8000 (48 GB): you are investing in the future and might even be lucky enough to research SOTA deep learning in 2020. 5500€ 
 ===== Ressources ===== ===== Ressources =====
 ====aitextgen==== ====aitextgen====
Ligne 60: Ligne 61:
   * **[[https://gpt2.ai-demo.xyz/|OpenAI GPT2 Scratch Pad]]**   * **[[https://gpt2.ai-demo.xyz/|OpenAI GPT2 Scratch Pad]]**
 ===== Fables de La Fontaine avec un modèle entièrement créé===== ===== Fables de La Fontaine avec un modèle entièrement créé=====
-Suite de [[textgenrnn#avec_des_fables_de_la_fontaine|Avec des fables de La Fontaine]]+Suite de [[archives:textgenrnn#avec_des_fables_de_la_fontaine|Avec des fables de La Fontaine]]
  
 <code python training.py> <code python training.py>
Ligne 337: Ligne 338:
  
 ====Les sources sur GitHub==== ====Les sources sur GitHub====
-  * [[|]]+  * **[[https://github.com/sergeLabo/fables_gpt2_small|fables_gpt2_small]]**
  
-=====Comment construire à partir d'un BERT model===== 
-<WRAP center round todo 60%> 
-Veille technologique à suivre .......... 
-</WRAP> 
  
-  * https://camembert-model.fr/ construit avec https://oscar-corpus.com/ 
-  * https://en.wikipedia.org/wiki/Natural-language_generation Natural-language generation NLG 
-  * https://prakhartechviz.blogspot.com/2020/04/natural-language-generation-using-bert.html Can BERT be used to generate Natural Language? Yes, BERT can be used for generating Natural Language but not of so very good quality like GPT2.  
-  * https://jep-taln2020.loria.fr/wp-content/uploads/JEP-TALN-RECITAL-2020_paper_151.pdf Les modèles de langue contextuelsCAMEMBERTpour lefrançais : impact de la taille et de l’hétérogénéité des donnéesd’entrainement 08-19juin2020 
-=====Pense bête pour NFS===== 
-  * [[https://wiki.debian-fr.xyz/Partage_NFS|Partage NFS]] 
  
-{{tag>ia python python3 tal aitextgen sb rnn}}+{{tag> ia python sb tal }}
aitextgen.1596012064.txt.gz · Dernière modification : 2020/07/29 08:41 de serge