LLM-uri

Acest modul explorează modelele lingvistice mari (LLM), concentrându-se pe dezvoltarea și aplicațiile acestora. Acesta acoperă conceptele fundamentale în prelucrarea limbajului natural, arhitectura modelelor precum GPT (Generative Pre-trained Transformer) și aplicațiile acestora în sarcini precum generarea de text, traducerea și crearea de conținut, împreună cu considerațiile etice și potențialele prejudecăți.

Constructor de curriculum

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, nr. 6624 (9 decembrie 2022): 1092-97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, și Paul Christiano. "Learning to Summarize from Human Feedback." arXiv, 15 februarie 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang și Gregory Valiant. "What Can Transformers Learn In-Context? A Case Study of Simple Function Classes." arXiv, 11 august 2023.

http://arxiv.org/abs/2208.01066

He, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick și Graham Neubig. "Towards a Unified View of Parameter-Efficient Transfer Learning." arXiv, 2 februarie 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. "OPT: Open Pre-Trained Transformer Language Models." arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le și Christopher D. Manning. "ELECTRA: Pre-formarea codificatoarelor de text ca discriminatoare mai degrabă decât generatoare". arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer și Veselin Stoyanov. "RoBERTa: A Robustly Optimized BERT Pretraining Approach." arXiv, 26 iulie 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec și Karthik Narasimhan. "Improving Language Understanding by Generative Pre-Training," 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee și Luke Zettlemoyer. "Deep Contextualized Word Representations." arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. "Human Language Understanding & Reasoning". Daedalus 151, nr. 2 (1 mai 2022): 127-38.

https://doi.org/10.1162/daed_a_01905

Vă mulțumim pentru că v-ați abonat la newsletter-ul nostru!

Vă mulțumim! RSVP primit pentru Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, nr. 6624 (9 decembrie 2022): 1092-97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, nr. 6624 (9 decembrie 2022): 1092-97.

Încărcare...

Încărcare...