جسجتو در بین میلیونها کتاب

دانلود نامحدود

دانلود نامحدود

ساعات پشتیبانی تلفنی

پشتیبانی از ساعت 7 تا 23

ضمانت بازگشت وجه

ضمانت بازگشت وجه

دانلود کتاب Deep Learning with JAX (MEAP v6)

یادگیری عمیق با JAX (MEAP v6)
عنوان فارسی

یادگیری عمیق با JAX (MEAP v6)

عنوان اصلیDeep Learning with JAX (MEAP v6)
ناشرManning Publications
نویسندهGrigory Sapunov
ISBN
سال نشر2023
زبانEnglish
تعداد صفحات211
دسته الگوریتم ها و ساختارهای داده ها: شناخت الگو
فرمت کتابpdf - قابل تبدیل به سایر فرمت ها
حجم فایل8 مگابایت

* نکته : همۀ کتاب های موجود در وبسایت زبان اصلی می باشد و کتاب ترجمه فارسی موجود نمی باشد.

وضعیت : موجود

قیمت : 51,000 تومان

دانلود بلافاصله بعد از پرداخت امکان پذیر است

میانگین امتیاز:
از 8 رای

مشاهد کتاب در آمازون
توضیحات فهرست مطالب اطلاعات قبل از خربد

توضیحاتی در مورد کتاب

با JAX، کتابخانه محاسباتی عددی فوق‌العاده Google با کارایی بالا، یادگیری عمیق و سایر کارهای پرتعداد را تسریع کنید.

در Deep Learning با JAX شما یاد خواهید گرفت که چگونه:

از JAX برای عددی استفاده کنید. محاسبات
مدل های قابل تمایز را با JAX اولیه بسازید
محاسبات توزیع شده و موازی شده را با JAX اجرا کنید
از کتابخانه های شبکه عصبی سطح بالا مانند Flax و Haiku
از کتابخانه ها و ماژول های اکوسیستم JAX استفاده کنید

JAX یک کتابخانه ریاضی پایتون با رابط NumPy است که توسط Google توسعه یافته است. این به شدت برای تحقیقات یادگیری ماشین استفاده می شود و به نظر می رسد که JAX قبلاً به چارچوب #3 Deep Learning تبدیل شده است (پس از TensorFlow و PyTorch). همچنین به چارچوب اصلی یادگیری عمیق در شرکت هایی مانند DeepMind تبدیل شد و تحقیقات بیشتر و بیشتری از خود گوگل از JAX استفاده می کنند. JAX یک الگوی برنامه نویسی کاربردی را در یادگیری عمیق ترویج می کند. دارای تابع
تغییرهای قدرتمندی مانند گرفتن گرادیان یک تابع، کامپایل JIT با XLA، بردارسازی خودکار و موازی سازی است. JAX از GPU و TPU پشتیبانی می کند و عملکرد عالی ارائه می دهد.

آموزش عمیق با JAX راهنمای عملی برای استفاده از JAX برای یادگیری عمیق و سایر برنامه های کاربردی ریاضی فشرده است. گریگوری ساپانوف، متخصص توسعه‌دهنده Google، به‌طور پیوسته درک شما را از مفاهیم JAX ایجاد می‌کند. مثال‌های جذاب، مفاهیم اساسی را معرفی می‌کنند که JAX بر آنها تکیه می‌کند و سپس به شما نشان می‌دهد که چگونه آنها را در کارهای دنیای واقعی به کار ببرید. شما یاد خواهید گرفت که چگونه از اکوسیستم JAX از کتابخانه ها و ماژول های سطح بالا استفاده کنید، و همچنین چگونه TensorFlow و PyTorch را با JAX برای بارگیری و استقرار داده ها ترکیب کنید.

درباره فناوری
ریاضیات JAX Python کتابخانه توسط بسیاری از سازمان های یادگیری عمیق موفق، از جمله تیم پیشگامانه DeepMind گوگل استفاده می شود. این تازه وارد هیجان انگیز در حال حاضر دارای اکوسیستم شگفت انگیزی از ابزارها است، از جمله کتابخانه های یادگیری عمیق سطح بالا Flax توسط Google، Haiku توسط DeepMind، کتابخانه های پردازش گرادیان و بهینه سازی، کتابخانه هایی برای محاسبات تکاملی، یادگیری فدرال، و موارد دیگر! JAX یک ذهنیت برنامه نویسی کاربردی را به یادگیری عمیق پایتون می آورد و به شما امکان می دهد ترکیب پذیری و موازی سازی خود را در یک خوشه بهبود بخشید.

درباره کتاب
آموزش عمیق با JAX به شما می آموزد که چگونه از JAX و اکوسیستم آن برای ساختن استفاده کنید. شبکه های عصبی. شما با کاوش مثال‌های جالب از جمله ابزار طبقه‌بندی تصویر، برنامه فیلتر تصویر، و شبکه عصبی در مقیاس عظیم با آموزش توزیع شده در مجموعه‌ای از TPUها، یاد خواهید گرفت. نحوه کار با JAX برای سخت افزار و سایر جنبه های سطح پایین و نحوه حل مشکلات رایج یادگیری ماشین با JAX را کشف کنید. تا زمانی که این کتاب عالی را تمام کردید، آماده خواهید بود که JAX را در تحقیقات و نمونه سازی خود شروع کنید!

فهرست مطالب

Deep Learning with JAX MEAP V06
Copyright
Welcome
Brief contents
Chapter 1: Intro to JAX
1.1 What is JAX?
1.1.1 JAX as NumPy
1.1.2 Composable transformations
1.2 Why use JAX?
1.2.1 Computational performance
1.2.2 Functional approach
1.2.3 JAX ecosystem
1.3 How is JAX different from TensorFlow/PyTorch?
1.4 Summary
Chapter 2: Your first program in JAX
2.1 A toy ML problem: classifying handwritten digits
2.2 Loading and preparing the dataset
2.3 A simple neural network in JAX
2.3.1 Neural network initialization
2.3.2 Neural network forward pass
2.4 vmap: auto-vectorizing calculations to work with batches
2.5 Autodiff: how to calculate gradients without knowing about derivatives
2.6 JIT: compiling your code to make it faster
2.7 Pure functions and composable transformations: why is it important?
2.8 An overview of a JAX deep learning project
2.9 Exercises
2.10 Summary
Chapter 3: Working with tensors
3.1 Image processing with NumPy arrays
3.1.1 Loading and storing images in NumPy arrays
3.1.2 Performing basic image processing with NumPy API
3.2 Tensors in JAX
3.2.1 Switching to JAX NumPy-like API
3.2.2 What is the DeviceArray?
3.2.3 Device-related operations
3.2.4 Asynchronous dispatch
3.2.5 Moving image processing to TPU
3.3 Differences with NumPy
3.3.1 Immutability
3.3.2 Types
3.4 High-level and low-level interfaces: jax.numpy and jax.lax
3.5 Exercises
3.6 Summary
Chapter 4: Autodiff
4.1 Different ways of getting derivatives
4.1.1 Manual differentiation
4.1.2 Symbolic differentiation
4.1.3 Numerical differentiation
4.1.4 Automatic differentiation
4.2 Calculating gradients with autodiff
4.2.1 Working with gradients in TensorFlow
4.2.2 Working with gradients in PyTorch
4.2.3 Working with gradients in JAX
4.2.4 Higher-order derivatives
4.2.5 Multivariable case
4.3 Forward and Reverse mode autodiff
4.3.1 Evaluation trace
4.3.2 Forward mode and jvp()
4.3.3 Reverse mode and vjp()
4.3.4 Going deeper
4.4 Summary
Chapter 5: Compiling your code
5.1 Using compilation
5.1.1 Using Just-in-Time (JIT) compilation
5.1.2 Pure functions
5.2 JIT internals
5.2.1 Jaxpr, an intermediate representation for JAX programs
5.2.2 XLA
5.2.3 Using Ahead-of-Time (AOT) compilation
5.3 JIT limitations
5.4 Summary
Chapter 6: Vectorizing your code
6.1 Different ways to vectorize a function
6.1.1 Naive approaches
6.1.2 Manual vectorization
6.1.3 Automatic vectorization
6.1.4 Speed comparisons
6.2 Controlling vmap() behavior
6.2.1 Controlling array axes to map over
6.2.2 Controlling output array axes
6.2.3 Using named arguments
6.2.4 Using decorator style
6.2.5 Using collective operations
6.3 Real-life use cases for vmap()
6.3.1 Batch data processing
6.3.2 Batching neural network models
6.3.3 Per-sample gradients
6.3.4 Vectorizing loops
6.4 Summary
Chapter 7: Parallelizing your computations
7.1 Parallelizing computations with pmap()
7.1.1 Setting up a problem
7.1.2 Using pmap (almost) like vmap
7.2 Controlling pmap() behavior
7.2.1 Controlling input and output mapping axes
7.2.2 Using names axes and collectives
7.3 Data parallel neural network training example
7.3.1 Preparing data and neural network structure
7.3.2 Implementing data parallel training
7.4 Summary

نحوه دریافت کتاب

این کتاب نسخه زبان اصلی است و ترجمه فارسی نیست.بعد از تکمیل فرایند خرید می توانید کتاب را دانلود نمایید. درصورت نیاز به تغییر فرمت کتاب به پشتیبان اطلاع دهید.

ورود به حساب کاربری

نام کاربری کلمه عبور

رمز عبور را فراموش کردی؟ کلیک کن

حساب کاربری نداری؟ ساخت حساب

ساخت حساب کاربری

نام نام کاربری آدرس ایمیل شماره موبایل کلمه عبور