Магістри права

У цьому модулі розглядаються великі мовні моделі (ВММ) з акцентом на їхню розробку та застосування. Він охоплює основні концепції обробки природної мови, архітектуру таких моделей, як GPT (Generative Pre-trained Transformer - генеративний попередньо навчений трансформатор), та їх застосування в таких завданнях, як генерація тексту, переклад та створення контенту, а також етичні міркування та потенційні упередження.

Портал > Штучний інтелект > Магістри права

Конструктор навчальних програм

Лі, Юдзя, Девід Чой, Джунюнг Чун, Нейт Кушман, Джуліан Шрітвізер, Ремі Леблон, Том Екклз та ін. "Генерація коду на рівні конкуренції за допомогою AlphaCode". Science 378, no. 6624 (9 грудня 2022): 1092-97.

https://doi.org/10.1126/science.abq1158

Стіеннон, Нісан, Лонг Оуян, Джефф Ву, Даніель М. Зіглер, Райан Лоу, Челсі Восс, Алек Редфорд, Даріо Амодей та Пол Крістіано. "Вчимося узагальнювати на основі людських відгуків". arXiv, 15 лютого 2022 року.

http://arxiv.org/abs/2009.01325

Гарг, Шивам, Дімітріс Ціпрас, Персі Лян та Грегорі Валіант. "Чого можуть навчитися трансформатори в контексті? Тематичне дослідження простих функціональних класів." arXiv, 11 серпня 2023 року.

http://arxiv.org/abs/2208.01066

Хе, Цзюньсянь, Чунтін Чжоу, Сюеже Ма, Тейлор Берг-Кіркпатрік і Грем Нойбіг. "До єдиного погляду на параметрично-ефективне навчання з перенесенням". arXiv, 2 лютого 2022 року.

http://arxiv.org/abs/2110.04366

Чжан, Сьюзен, Стівен Роллер, Наман Гойал, Мікель Артетксе, Мойя Чен, Шуохуй Чен, Крістофер Дьюан та ін. "OPT: Відкриті попередньо навчені трансформантні мовні моделі." arXiv, 2022.

https://doi.org/10.48550/ARXIV.2205.01068

Кларк, Кевін, Мінь-Тханг Луонг, Куок В. Ле та Крістофер Д. Меннінг. "ELECTRA: попереднє навчання текстових кодерів як дискримінаторів, а не генераторів". arXiv, 2020.

https://doi.org/10.48550/ARXIV.2003.10555

Лю, Іньхань, Майл Отт, Наман Гоял, Цзінфей Ду, Мандар Джоші, Данці Чен, Омер Леві, Майк Льюїс, Люк Зеттлмойєр та Веселін Стоянов. "RoBERTa: Розумно оптимізований підхід до попереднього навчання BERT." arXiv, 26 липня 2019 року.

http://arxiv.org/abs/1907.11692

Редфорд, Алек та Картік Нарасімхан. "Покращення розуміння мови шляхом генеративного попереднього навчання", 2018.

https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

Пітерс, Метью Е., Марк Нейман, Мохіт Айєр, Метт Гарднер, Крістофер Кларк, Кентон Лі та Люк Зеттлмойєр. "Глибоко контекстуалізовані словесні репрезентації". arXiv, 2018.

https://doi.org/10.48550/ARXIV.1802.05365

Меннінг, Крістофер Д. "Розуміння людської мови та міркування". Daedalus 151, no. 2 (1 травня 2022): 127-38.

https://doi.org/10.1162/daed_a_01905

Дякуємо, що підписалися на нашу розсилку!

Дякуємо! Отримано відповідь на публікацію Li, Yujia, David Choi, Junyoung Chung, Nate Kushman, Julian Schrittwieser, Rémi Leblond, Tom Eccles, та ін. "Competition-Level Code Generation with AlphaCode". Science 378, no. 6624 (9 грудня 2022): 1092-97.

Лі, Юдзя, Девід Чой, Джунюнг Чун, Нейт Кушман, Джуліан Шрітвізер, Ремі Леблон, Том Екклз та ін. "Генерація коду на рівні конкуренції за допомогою AlphaCode". Science 378, no. 6624 (9 грудня 2022): 1092-97.

Завантаження...

Завантаження...