Programy LLM

W tym module omówiono duże modele językowe (LLM), koncentrując się na ich rozwoju i zastosowaniach. Obejmuje podstawowe pojęcia związane z przetwarzaniem języka naturalnego, architekturę modeli takich jak GPT (Generative Pre-trained Transformer) oraz ich zastosowania w zadaniach takich jak generowanie tekstu, tłumaczenie i tworzenie treści, a także względy etyczne i potencjalne uprzedzenia.

Portal > Sztuczna inteligencja > Programy LLM

Curriculum Builder

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles i in. “Generowanie kodu na poziomie konkurencji za pomocą AlphaCode”. Nauka 378, nr 6624 (9 grudnia 2022): 1092–97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei i Paul Christiano. “Nauka podsumowywania na podstawie informacji zwrotnych od ludzi.” arXiv, 15 lutego 2022 r.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang i Gregory Valiant. “Czego transformers mogą się nauczyć w kontekście? Studium przypadku prostych klas funkcyjnych.” arXiv, 11 sierpnia 2023 r.

http://arxiv.org/abs/2208.01066

On, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick i Graham Neubig. “W kierunku ujednoliconego spojrzenia na efektywne parametrycznie uczenie się przez transfer.” arXiv, 2 lutego 2022 r.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan i in. “OPT: Otwarte wstępnie wytrenowane modele językowe transformatorów”. arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le i Christopher D. Manning. “ELECTRA: Wstępne trenowanie koderów tekstu jako dyskryminatorów, a nie generatorów.” arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer i Veselin Stoyanov. “RoBERTa: Solidnie zoptymalizowane podejście do treningu wstępnego.” arXiv, 26 lipca 2019 r.

http://arxiv.org/abs/1907.11692

Radford, Alec i Karthik Narasimhanowie. “Poprawa rozumienia języka poprzez generatywne szkolenie wstępne”, 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee i Luke Zettlemoyer. “Głęboko kontekstualizowane reprezentacje słowne.” arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. “Rozumienie i rozumowanie języka ludzkiego”. Dedal 151, nr 2 (1 maja 2022): 127–38.

https://doi.org/10.1162/daed_a_01905

Thank you for signing up to our newsletter!

Thank you! RSVP received for Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles i in. “Generowanie kodu na poziomie konkurencji za pomocą AlphaCode”. Nauka 378, nr 6624 (9 grudnia 2022): 1092–97.

Thank you for applying! We will be in touch.

Apply for: Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles i in. “Generowanie kodu na poziomie konkurencji za pomocą AlphaCode”. Nauka 378, nr 6624 (9 grudnia 2022): 1092–97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles i in. “Generowanie kodu na poziomie konkurencji za pomocą AlphaCode”. Nauka 378, nr 6624 (9 grudnia 2022): 1092–97.

Loading...

Loading…