LLM

Questo modulo esplora i Large Language Models (LLM), concentrandosi sul loro sviluppo e sulle loro applicazioni. Copre i concetti fondamentali dell’elaborazione del linguaggio naturale, l’architettura di modelli come GPT (Generative Pre-trained Transformer) e le loro applicazioni in attività come la generazione di testo, la traduzione e la creazione di contenuti, insieme a considerazioni etiche e potenziali pregiudizi.

Costruttore di curriculum

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generazione di codice a livello di competizione con AlphaCode”. Scienza 378, n. 6624 (9 dicembre 2022): 1092–97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei e Paul Christiano. “Imparare a riassumere dal feedback umano.” arXiv, 15 febbraio 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang e Gregory Valiant. “Cosa possono imparare i trasformatori nel contesto? Un caso di studio di semplici classi di funzioni.” arXiv, 11 agosto 2023.

http://arxiv.org/abs/2208.01066

Lui, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick e Graham Neubig. “Verso una visione unificata dell’apprendimento di trasferimento efficiente dai parametri.” arXiv, 2 febbraio 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. “OPT: modelli linguistici aperti pre-addestrati per trasformatori”. arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le e Christopher D. Manning. “ELECTRA: codificatori di testo pre-addestramento come discriminatori piuttosto che generatori.” arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer e Veselin Stoyanov. “RoBERTa: un approccio di pre-addestramento BERT robustamente ottimizzato.” arXiv, 26 luglio 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec e Karthik Narasimhan. “Migliorare la comprensione del linguaggio attraverso la pre-formazione generativa”, 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee e Luke Zettlemoyer. “Rappresentazioni testualizzate profonde delle parole.” arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. “Comprensione e ragionamento del linguaggio umano”. Dedalo 151, n. 2 (1 maggio 2022): 127–38.

https://doi.org/10.1162/daed_a_01905

Thank you for signing up to our newsletter!

Thank you! RSVP received for Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generazione di codice a livello di competizione con AlphaCode”. Scienza 378, n. 6624 (9 dicembre 2022): 1092–97.

Thank you for applying! We will be in touch.

Apply for: Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generazione di codice a livello di competizione con AlphaCode”. Scienza 378, n. 6624 (9 dicembre 2022): 1092–97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generazione di codice a livello di competizione con AlphaCode”. Scienza 378, n. 6624 (9 dicembre 2022): 1092–97.

Caricamento...

Caricamento…