LLMs

Šajā modulī tiek pētīti lielie valodas modeļi (LLM), pievēršot uzmanību to izstrādei un lietojumiem. Tajā aplūkoti pamatjēdzieni dabiskās valodas apstrādē, tādu modeļu kā GPT (Generative Pre-trained Transformer) arhitektūra un to lietojumi tādos uzdevumos kā teksta ģenerēšana, tulkošana un satura veidošana, kā arī ētiskie apsvērumi un iespējamie aizspriedumi.

Mācību programmas veidotājs

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, nr. 6624 (2022. gada 9. decembris): 1092-97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei un Paul Christiano. "Learning to Summarize from Human Feedback." arXiv, 2022. gada 15. februāris.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang un Gregory Valiant. "Ko transformatori var iemācīties kontekstā? A Case Study of Simple Function Classes." arXiv, 11. augusts, 2023. gads.

http://arxiv.org/abs/2208.01066

He, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick un Graham Neubig. "Towards a Unified View of Parameter-Efficient Transfer Learning." arXiv, 2022. gada 2. februāris.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. "OPT: Open Pre-Trained Transformer Language Models." arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le un Christopher D. Manning. "ELECTRA: teksta kodētāju iepriekšēja apmācīšana kā diskriminatoriem, nevis ģeneratoriem." arXiv, 2020. gads.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer un Veselin Stoyanov. "RoBERTa: Robustly Optimized BERT Pretraining Approach." arXiv, 2019. gada 26. jūlijs.

http://arxiv.org/abs/1907.11692

Radford, Alec un Karthik Narasimhan. "Valodas izpratnes uzlabošana, izmantojot ģeneratīvo pirmapmācību", 2018. gads.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee un Luke Zettlemoyer. "Deep Contextualized Word Representations." arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. "Human Language Understanding & Reasoning". Daedalus 151, nr. 2 (2022. gada 1. maijs): 127-38.

https://doi.org/10.1162/daed_a_01905

Paldies, ka pierakstījāties mūsu biļetenam!

Paldies! RSVP saņemts Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, nr. 6624 (2022. gada 9. decembris): 1092-97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, nr. 6624 (2022. gada 9. decembris): 1092-97.

Iekraušana...

Iekraušana...