LLM

Šis modulis pēta lielus valodu modeļus (LLM), koncentrējoties uz to izstrādi un pielietojumiem. Tas aptver dabiskās valodas apstrādes pamatjēdzienus, tādu modeļu arhitektūru kā GPT (ģeneratīvs iepriekš apmācīts transformators) un to pielietojumu tādos uzdevumos kā teksta ģenerēšana, tulkošana un satura veidošana, kā arī ētiskus apsvērumus un iespējamos aizspriedumus.

Mācību programmas veidotājs

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles u.c. “Konkurences līmeņa koda ģenerēšana ar AlphaCode”. Zinātne 378, Nr. 6624 (2022. gada 9. decembris): 1092–97.

https://doi.org/10.1126/science.abq1158

Stiennons, Nisans, Longs Oujans, Džefs Vu, Daniels M. Zīglers, Raiens Lovs, Chelsea Voss, Aleks Radfords, Dario Amodei un Pols Kristiano. “Mācīšanās apkopot no cilvēka atsauksmēm.” arXiv, 2022. gada 15. februāris.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang un Gregory Valiant. “Ko transformatori var iemācīties kontekstā? Vienkāršu funkciju klašu gadījuma izpēte.” arXiv, 2023. gada 11. augusts.

http://arxiv.org/abs/2208.01066

Viņš, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrik un Graham Neubig. “Ceļā uz vienotu skatījumu uz parametru efektīvu pārneses mācīšanos.” arXiv, 2022. gada 2. februāris.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan u.c. “OPT: Open Pre-Trained Transformer Language Models.” arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Klārks, Kevins, Minh-Thang Luong, Quoc V. Le un Christopher D. Manning. “ELECTRA: iepriekšējas apmācības teksta kodētāji kā diskriminētāji, nevis ģeneratori.” arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer un Veselin Stoyanov. “RoBERTa: stabili optimizēta BERT iepriekšējas apmācības pieeja.” arXiv, 2019. gada 26. jūlijs.

http://arxiv.org/abs/1907.11692

Radfords, Aleks un Karthik Narasimhan. “Valodas izpratnes uzlabošana ar ģeneratīvu iepriekšēju apmācību”, 2018. gads.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee un Luke Zettlemoyer. “Dziļi kontekstualizēti vārdu attēlojumi.” arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Menings, Kristofers D. “Cilvēka valodas izpratne un spriešana”. Daedalus 151, nr.2 (2022. gada 1. maijs): 127–38.

https://doi.org/10.1162/daed_a_01905

Thank you for signing up to our newsletter!

Thank you! RSVP received for Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles u.c. “Konkurences līmeņa koda ģenerēšana ar AlphaCode”. Zinātne 378, Nr. 6624 (2022. gada 9. decembris): 1092–97.

Thank you for applying! We will be in touch.

Apply for: Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles u.c. “Konkurences līmeņa koda ģenerēšana ar AlphaCode”. Zinātne 378, Nr. 6624 (2022. gada 9. decembris): 1092–97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles u.c. “Konkurences līmeņa koda ģenerēšana ar AlphaCode”. Zinātne 378, Nr. 6624 (2022. gada 9. decembris): 1092–97.

Loading...

Loading…