الماجستير في القانون

تستكشف هذه الوحدة نماذج اللغات الكبيرة (LLMs)، مع التركيز على تطويرها وتطبيقاتها. ويغطي المفاهيم التأسيسية في معالجة اللغة الطبيعية، وبنية النماذج مثل GPT (المحول التوليدي المدرب مسبقًا)، وتطبيقاتها في مهام مثل توليد النصوص والترجمة وإنشاء المحتوى، إلى جانب الاعتبارات الأخلاقية والتحيزات المحتملة.

البوابة > الذكاء الاصطناعي > الماجستير في القانون

منشئ المناهج الدراسية

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "توليد الكود على مستوى المنافسة باستخدام AlphaCode." Science 378, no. 6624 (9 ديسمبر 2022): 1092-97.

https://doi.org/10.1126/science.abq1158

Stiennon, Nisan, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, and Paul Christiano. "تعلم التلخيص من الملاحظات البشرية." arXiv، 15 فبراير 2022.

http://arxiv.org/abs/2009.01325

غارغ، وشيفام، وديميتريس تسيبراس، وبيرسي ليانغ، وغريغوري فاليانت. "ما الذي يمكن أن تتعلمه المحولات في السياق؟ دراسة حالة لفئات الدوال البسيطة." arXiv، 11 أغسطس 2023.

http://arxiv.org/abs/2208.01066

هي، وجونكسيان، وتشونتنغ تشو، وشويزي ما، وتايلور بيرغ-كيركباتريك، وغراهام نيوبغ. "نحو رؤية موحدة لتعلم نقل المعلمات الفعال." arXiv، 2 فبراير 2022.

http://arxiv.org/abs/2110.04366

Zhang, Susan, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, et al. "OPT: نماذج لغة المحولات المفتوحة المدربة مسبقًا." arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Clark, Kevin, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. "ELECTRA: مشفرات النص قبل التدريب كمشفرات تمييز بدلاً من مولدات." arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

ليو، وينهان، ومايل أوت، ونامان جويال، وجينغفي دو، وماندار جوشي، ودانكي تشين، وعمر ليفي، ومايك لويس، ولوك زيتلموير، وفيسلين ستويانوف. "روبيرتا: نهج مُحسَّن بشكل قوي لتدريب BERT المسبق." arXiv، 26 يوليو 2019.

http://arxiv.org/abs/1907.11692

رادفورد، وأليك، وكارثيك ناراسيمهان. "تحسين فهم اللغة عن طريق التدريب المسبق التوليدي"، 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

بيترز، وماثيو إ.، ومارك نيومان، وموهيت أيير، ومات غاردنر، وكريستوفر كلارك، وكينتون لي، ولوك زيتلموير. "تمثيلات الكلمات السياقية العميقة." arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

مانينغ، كريستوفر د. "فهم اللغة البشرية والاستدلال". ديدالوس 151، رقم 2 (1 مايو 2022): 127-38.

https://doi.org/10.1162/daed_a_01905

شكراً لاشتراكك في نشرتنا الإخبارية!

شكرًا لكم! RSVP وردت لـ Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "توليد الكود على مستوى المنافسة باستخدام AlphaCode." Science 378, no. 6624 (9 ديسمبر 2022): 1092-97.

Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, et al. "توليد الكود على مستوى المنافسة باستخدام AlphaCode." Science 378, no. 6624 (9 ديسمبر 2022): 1092-97.

جاري التحميل...

جاري التحميل...