LLMs

Este módulo explora los Grandes Modelos de Lenguaje (LLM), centrándose en su desarrollo y aplicaciones. Cubre conceptos fundamentales en el procesamiento del lenguaje natural, la arquitectura de modelos como GPT (Generative Pre-trained Transformer) y sus aplicaciones en tareas como la generación de textos, la traducción y la creación de contenido, junto con consideraciones éticas y posibles sesgos.

Curriculum Builder

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generación de código a nivel de competencia con AlphaCode”. Ciencia 378, n.º 6624 (9 de diciembre de 2022): 1092–97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei y Paul Christiano. “Aprender a resumir a partir de la retroalimentación humana” arXiv, 15 de febrero de 2022.

http://arxiv.org/abs/2009.01325

Garg, Shivam, Dimitris Tsipras, Percy Liang y Gregory Valiant. “¿Qué pueden aprender los transformadores en contexto? Un estudio de caso de clases de funciones simples.” arXiv, 11 de agosto de 2023.

http://arxiv.org/abs/2208.01066

Él, Junxian, Chunting Zhou, Xuezhe Ma, Taylor Berg-Kirkpatrick y Graham Neubig. “Hacia una visión unificada del aprendizaje de transferencia eficiente en parámetros”, arXiv, 2 de febrero de 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. “OPT: Open Pre-Trained Transformer Language Models” (OPT: Modelos de lenguaje de transformadores preentrenados abiertos). arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le y Christopher D. Manning. “ELECTRA: Pre-entrenamiento de codificadores de texto como discriminadores en lugar de generadores.” arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Liu, Yinhan, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer y Veselin Stoyanov. “RoBERTa: Un enfoque de preentrenamiento de BERT sólidamente optimizado”. arXiv, 26 de julio de 2019.

http://arxiv.org/abs/1907.11692

Radford, Alec y Karthik Narasimhan. “Mejora de la comprensión del lenguaje mediante el preentrenamiento generativo”, 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Peters, Matthew E., Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee y Luke Zettlemoyer. “Representaciones profundas de palabras contextualizadas.” arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Manning, Christopher D. “Comprensión y razonamiento del lenguaje humano”. Dédalo 151, n.º 2 (1 de mayo de 2022): 127-38.

https://doi.org/10.1162/daed_a_01905

Thank you for signing up to our newsletter!

Thank you! RSVP received for Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generación de código a nivel de competencia con AlphaCode”. Ciencia 378, n.º 6624 (9 de diciembre de 2022): 1092–97.

Thank you for applying! We will be in touch.

Apply for: Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generación de código a nivel de competencia con AlphaCode”. Ciencia 378, n.º 6624 (9 de diciembre de 2022): 1092–97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. “Generación de código a nivel de competencia con AlphaCode”. Ciencia 378, n.º 6624 (9 de diciembre de 2022): 1092–97.

Cargando...

Cargando…