LLM's

Deze module onderzoekt Large Language Models (LLM's), met de nadruk op hun ontwikkeling en toepassingen. Het behandelt fundamentele concepten in natuurlijke taalverwerking, de architectuur van modellen zoals GPT (Generative Pre-trained Transformer) en hun toepassingen in taken zoals tekstgeneratie, vertaling en contentcreatie, samen met ethische overwegingen en mogelijke vooroordelen.

Curriculumbouwer

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Competition-Level Code Generation with AlphaCode.” Science 378, nr. 6624 (9 december 2022): 1092–97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei en Paul Christiano. “Leren samenvatten op basis van menselijke feedback.” arXiv, 15 februari 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang en Gregory Valiant. “Wat kunnen transformatoren leren in context? Een casestudy van eenvoudige functieklassen.” arXiv, 11 augustus 2023.

http://arxiv.org/abs/2208.01066

Hij, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick en Graham Neubig. “Towards a Unified View of Parameter-Efficient Transfer Learning” (Naar een uniforme visie op parameter-efficiënt transferleren). arXiv, 2 februari 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. “OPT: Open Pre-Trained Transformer Language Models.” arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le en Christopher D. Manning. “ELECTRA: Pre-Training Text Encoders as Discriminators Rather Than Generators.” arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer en Veselin Stoyanov. “RoBERTa: A Robustly Optimized BERT Pretraining Approach.” arXiv, 26 juli 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec en Karthik Narasimhan. “Improving Language Understanding by Generative Pre-Training” (Verbetering van taalbegrip door generatieve pre-training), 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee en Luke Zettlemoyer. “Deep Contextualized Word Representations.” arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. “Human Language Understanding & Reasoning” (Menselijk taalbegrip en redeneren). Daedalus 151, nr. 2 (1 mei 2022): 127–38.

https://doi.org/10.1162/daed_a_01905

Bedankt voor uw aanmelding voor onze nieuwsbrief!

Bedankt! RSVP ontvangen voor Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Competition-Level Code Generation with AlphaCode.” Science 378, nr. 6624 (9 december 2022): 1092–97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Competition-Level Code Generation with AlphaCode.” Science 378, nr. 6624 (9 december 2022): 1092–97.

Bezig met laden...

Bezig met laden...