LLM

Questo modulo esplora i Large Language Models (LLM), concentrandosi sul loro sviluppo e sulle loro applicazioni. Vengono trattati i concetti fondamentali dell'elaborazione del linguaggio naturale, l'architettura di modelli come il GPT (Generative Pre-trained Transformer) e le loro applicazioni in compiti come la generazione di testi, la traduzione e la creazione di contenuti, oltre a considerazioni etiche e potenziali pregiudizi.

Costruttore di programmi di studio

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, n. 6624 (9 dicembre 2022): 1092-97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei e Paul Christiano. "Learning to Summarize from Human Feedback". arXiv, 15 febbraio 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang e Gregory Valiant. "Cosa possono imparare i trasformatori nel contesto? A Case Study of Simple Function Classes". arXiv, 11 agosto 2023.

http://arxiv.org/abs/2208.01066

He, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick e Graham Neubig. "Towards a Unified View of Parameter-Efficient Transfer Learning", arXiv, 2 febbraio 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. "OPT: Open Pre-Trained Transformer Language Models". arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le e Christopher D. Manning. "ELECTRA: preaddestramento di codificatori di testo come discriminatori piuttosto che come generatori". arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer e Veselin Stoyanov. "RoBERTa: A Robustly Optimized BERT Pretraining Approach". arXiv, 26 luglio 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec e Karthik Narasimhan. "Migliorare la comprensione del linguaggio attraverso il pre-training generativo", 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee e Luke Zettlemoyer. "Rappresentazioni profonde di parole contestualizzate". arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. "Comprensione e ragionamento del linguaggio umano". Dedalo 151, n. 2 (1 maggio 2022): 127-38.

https://doi.org/10.1162/daed_a_01905

Grazie per esserti iscritto alla nostra newsletter!

Grazie! RSVP ricevuto per Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, n. 6624 (9 dicembre 2022): 1092-97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, n. 6624 (9 dicembre 2022): 1092-97.

Caricamento...

Caricamento...