Nimish Sanghi | Deep Reinforcement Learning with Python: RLHF for Chatbots and Large Language Models. Second edition (2024) [PDF]
Автор: Nimish Sanghi
Издательство: Apress Media LLC
ISBN: 979-8868802720
Жанр: учебное пособие
Язык: английский
Формат: PDF
Качество: Изначально электронное (ebook)
Иллюстрации: Цветные и черно-белые
Описание:Gain a theoretical understanding to the most popular libraries in deep reinforcement learning (deep RL). This new edition focuses on the latest advances in deep RL using a learn-by-coding approach, allowing readers to assimilate and replicate the latest research in this field.
New agent environments ranging from games, and robotics to finance are explained to help you try different ways to apply reinforcement learning. A chapter on multi-agent reinforcement learning covers how multiple agents compete, while another chapter focuses on the widely used deep RL algorithm, proximal policy optimization (PPO). You'll see how reinforcement learning with human feedback (RLHF) has been used by chatbots, built using Large Language Models, e.g. ChatGPT to improve conversational capabilities.
You'll also review the steps for using the code on multiple cloud systems and deploying models on platforms such as Hugging Face Hub. The code is in Jupyter Notebook, which canbe run on Google Colab, and other similar deep learning cloud platforms, allowing you to tailor the code to your own needs.
Whether it’s for applications in gaming, robotics, or Generative AI, Deep Reinforcement Learning with Python will help keep you ahead of the curve.
Получите теоретическое понимание самых популярных библиотек глубокого обучения с подкреплением (глубокое RL). В этом новом издании основное внимание уделяется последним достижениям в области глубокого обучения с использованием подхода «обучение посредством кодирования», что позволяет читателям усваивать и воспроизводить последние исследования в этой области.
Описаны новые агентские среды, начиная от игр и робототехники и заканчивая финансами, чтобы помочь вам попробовать различные способы применения обучения с подкреплением. В главе, посвященной многоагентному обучению с подкреплением, рассказывается, как конкурируют несколько агентов, а в другой главе основное внимание уделяется широко используемому алгоритму глубокого RL — оптимизации проксимальной политики (PPO). Вы увидите, как обучение с подкреплением и обратной связью от человека (RLHF) используется чат-ботами, созданными с использованием моделей большого языка, например ChatGPT для улучшения разговорных возможностей.
Вы также рассмотрите шаги по использованию кода в нескольких облачных системах и развертыванию моделей на таких платформах, как Hugging Face Hub. Код находится в Jupyter Notebook, который можно запускать в Google Colab и других аналогичных облачных платформах глубокого обучения, что позволяет адаптировать код к вашим собственным потребностям.
Будь то приложения в играх, робототехнике или генеративном искусственном интеллекте, глубокое обучение с подкреплением с помощью Python поможет вам быть на шаг впереди.
What You'll Learn
Explore Python-based RL libraries, including StableBaselines3 and CleanRL
Work with diverse RL environments like Gymnasium, Pybullet, and Unity ML
Understand instruction finetuning of Large Language Models using RLHF and PPO
Study training and optimization techniques using HuggingFace, Weights and Biases, and Optuna
Who This Book Is For
Software engineers and machine learning developers eager to sharpen their understanding of deep RL and acquire practical skills in implementing RL algorithms fromscratch.
Что вы узнаете
Изучите библиотеки RL на основе Python, включая StableBaselines3 и CleanRL.
Работайте с различными средами RL, такими как Gymnasium, Pybullet и Unity ML.
Понимать точную настройку инструкций больших языковых моделей с использованием RLHF и PPO.
Изучите методы обучения и оптимизации с использованием HuggingFace, Weights and Biases и Optuna.
Для кого эта книга
Инженеры-программисты и разработчики машинного обучения стремятся углубить свое понимание глубокого RL и приобрести практические навыки реализации алгоритмов RL с нуля.
Скриншоты:
Время раздачи: с 10.00 до 21.00 (минимум до появления первых 3-5 скачавших)