Professional»?
- Объясним, как устроены большие языковые модели (LLM) на примере LLaMA и GPT
- Покажем, как с нуля собрать простую трансформерную модель на PyTorch и обучить её на небольшом наборе данных (например, диалоги или статьи из Wiki)
- Сравним self-made реализацию с готовыми библиотеками, такими как HuggingFace: где стоит писать самому, а где выгоднее использовать готовые решения
Каким слушателям вебинар будет полезен?
- Разработчикам и Data Scientists, интересующимся темой LLM и генеративных моделей
- Тем, кто хочет разобраться в основах трансформеров и попробовать собрать свою модель
- Всем, кто ищет баланс между обучением модели с нуля и использованием готовых фреймворков
Что в результате вебинара узнают пользователи? Как/где смогут применить полученные навыки?
- Поймут, как устроены и обучаются модели вроде LLaMA и GPT
- Научатся запускать обучение и инференс трансформерной модели на PyTorch
- Смогут осознанно выбирать между собственными реализациями и использованием библиотек типа HuggingFace в своих проектах
«Python Developer. Professional» - https://otus.pw/ixWU/ Преподаватель: Валентин Шилин - старший программист/аналитик данных
Пройдите опрос по итогам мероприятия - https://otus.pw/zpnC/ → https://vk.com/otusru Следите за новостями проекта:
→ Telegram: https://t.me/Otusjava → Хабр: https://otus.pw/S0nM/ #ITобразование #ИТ #курсыИТ #ITкурсы #информационныетехнологии #ИТобразование #курсыIT #ИТкурсы #программирование #IT
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев