LLMs

Dieses Modul befasst sich mit großen Sprachmodellen (Large Language Models, LLMs) und konzentriert sich auf deren Entwicklung und Anwendungen. Es behandelt grundlegende Konzepte der Verarbeitung natürlicher Sprache, die Architektur von Modellen wie GPT (Generative Pre-trained Transformer) und ihre Anwendungen bei Aufgaben wie Textgenerierung, Übersetzung und Inhaltserstellung sowie ethische Erwägungen und mögliche Verzerrungen.

Curriculum Builder

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode." Science 378, no. 6624 (December 9, 2022): 1092-97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, and Paul Christiano. "Learning to Summarize from Human Feedback." arXiv, 15. Februar 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang, und Gregory Valiant. "What Can Transformers Learn In-Context? A Case Study of Simple Function Classes." arXiv, August 11, 2023.

http://arxiv.org/abs/2208.01066

He, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick, und Graham Neubig. "Towards a Unified View of Parameter-Efficient Transfer Learning." arXiv, 2. Februar 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. "OPT: Open Pre-Trained Transformer Language Models." arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le, und Christopher D. Manning. "ELECTRA: Pre-Training Text Kodierer als Diskriminatoren eher als Generatoren." arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, und Veselin Stoyanov. "RoBERTa: A Robustly Optimized BERT Pretraining Approach." arXiv, July 26, 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec, und Karthik Narasimhan. "Improving Language Understanding by Generative Pre-Training", 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. "Deep Contextualized Word Representations." arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. "Menschliches Sprachverständnis und logisches Denken". Daedalus 151, Nr. 2 (Mai 1, 2022): 127-38.

https://doi.org/10.1162/daed_a_01905

Vielen Dank, dass Sie sich für unseren Newsletter angemeldet haben!

Dankeschön! RSVP erhalten für Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode". Science 378, no. 6624 (December 9, 2022): 1092-97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "Competition-Level Code Generation with AlphaCode." Science 378, no. 6624 (December 9, 2022): 1092-97.

Laden...

Laden...