LLM

Ce module explore les grands modèles de langage (LLM), en se concentrant sur leur développement et leurs applications. Il couvre les concepts fondamentaux du traitement du langage naturel, l'architecture de modèles tels que le GPT (Generative Pre-trained Transformer), et leurs applications dans des tâches telles que la génération de texte, la traduction et la création de contenu, ainsi que les considérations éthiques et les biais potentiels.

Bâtisseur de programmes d'études

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, no. 6624 (9 décembre 2022) : 1092-97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei et Paul Christiano. "Learning to Summarize from Human Feedback", arXiv, 15 février 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang et Gregory Valiant. "What Can Transformers Learn In-Context ? A Case Study of Simple Function Classes" arXiv, 11 août 2023.

http://arxiv.org/abs/2208.01066

He, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick, et Graham Neubig. "Towards a Unified View of Parameter-Efficient Transfer Learning", arXiv, 2 février 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. "OPT : Open Pre-Trained Transformer Language Models", arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le, et Christopher D. Manning. "ELECTRA : Pre-Training Text Encoders as Discriminators Ratheran Generators" arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, et Veselin Stoyanov. "RoBERTa : A Robustly Optimized BERT Pretraining Approach" arXiv, 26 juillet 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec, et Karthik Narasimhan. "Improving Language Understanding by Generative Pre-Training," 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee et Luke Zettlemoyer. " Deep Contextualized Word Representations ", arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. "Compréhension du langage humain et raisonnement". Daedalus 151, no. 2 (1er mai 2022) : 127-38.

https://doi.org/10.1162/daed_a_01905

Merci de vous être inscrit à notre lettre d'information !

Merci de votre participation ! RSVP reçu pour Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, no. 6624 (9 décembre 2022) : 1092-97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, no. 6624 (9 décembre 2022) : 1092-97.

Chargement...

Chargement...