این صفحه شامل اصطلاحات واژه نامه Google Cloud است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .
دسته ای از اجزای سخت افزاری تخصصی که برای انجام محاسبات کلیدی مورد نیاز برای الگوریتم های یادگیری عمیق طراحی شده اند.
تراشه های شتاب دهنده (یا فقط شتاب دهنده ها ، به طور خلاصه) می توانند سرعت و کارایی وظایف آموزش و استنتاج را در مقایسه با یک CPU همه منظوره به میزان قابل توجهی افزایش دهند. آنها برای آموزش شبکه های عصبی و کارهای مشابه محاسباتی بسیار ایده آل هستند.
نمونه هایی از تراشه های شتاب دهنده عبارتند از:
- واحدهای پردازش تنسور Google ( TPU ) با سخت افزار اختصاصی برای یادگیری عمیق.
- پردازندههای گرافیکی NVIDIA که اگرچه در ابتدا برای پردازش گرافیکی طراحی شدهاند، برای فعال کردن پردازش موازی طراحی شدهاند که میتواند سرعت پردازش را به میزان قابل توجهی افزایش دهد.
فرآیند استنباط پیشبینیها در چندین مثال بدون برچسب که به زیرمجموعههای کوچکتر ("مجموعه") تقسیم میشوند.
استنتاج دسته ای می تواند از ویژگی های موازی سازی تراشه های شتاب دهنده استفاده کند. به این معنا که شتابدهندههای متعدد میتوانند به طور همزمان پیشبینیهایی را بر روی دستههای مختلف نمونههای بدون برچسب استنباط کنند و تعداد استنتاجها را بهطور چشمگیری در هر ثانیه افزایش دهند.
یک شتاب دهنده سخت افزاری تخصصی که برای سرعت بخشیدن به بارهای کاری یادگیری ماشین در Google Cloud طراحی شده است.
یک اصطلاح پربار با دو تعریف احتمالی زیر:
- دستهای از سختافزار که میتواند یک جلسه TensorFlow را اجرا کند، شامل CPU، GPU و TPU .
- هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU)، بخشی از سیستم که در واقع تانسورها و جاسازی ها را دستکاری می کند. دستگاه بر روی تراشه های شتاب دهنده کار می کند. در مقابل، هاست معمولا بر روی یک CPU اجرا می شود.
هنگام آموزش یک مدل ML بر روی تراشه های شتاب دهنده (GPU یا TPU )، بخشی از سیستم که هر دو مورد زیر را کنترل می کند:
- جریان کلی کد.
- استخراج و تبدیل خط لوله ورودی.
میزبان معمولا بر روی یک CPU اجرا می شود، نه بر روی یک تراشه شتاب دهنده. دستگاه تانسورهای روی تراشه های شتاب دهنده را دستکاری می کند.
در برنامهنویسی موازی ML، اصطلاحی است که با تخصیص دادهها و مدل به تراشههای TPU، و تعریف چگونگی تقسیم یا تکرار این مقادیر مرتبط است.
مش یک اصطلاح بارگذاری شده است که می تواند به یکی از موارد زیر باشد:
- طرح فیزیکی تراشه های TPU.
- یک ساختار منطقی انتزاعی برای نگاشت داده ها و مدل به تراشه های TPU.
در هر صورت، یک مش به عنوان یک شکل مشخص می شود.
یک تقسیم منطقی از مجموعه آموزشی یا مدل . به طور معمول، برخی از فرآیندها با تقسیم نمونه ها یا پارامترها به قطعات (معمولاً) با اندازه مساوی، خرده هایی ایجاد می کنند. سپس هر خرده به ماشین دیگری اختصاص داده می شود.
به اشتراک گذاری یک مدل موازی سازی مدل گفته می شود. به اشتراک گذاری داده ها موازی سازی داده ها گفته می شود.
یک مدار مجتمع ویژه برنامه (ASIC) که عملکرد بارهای کاری یادگیری ماشین را بهینه می کند. این ASICها به صورت چند تراشه TPU بر روی یک دستگاه TPU مستقر می شوند.
مخفف واحد پردازش تنسور .
یک شتابدهنده جبر خطی قابل برنامهریزی با حافظه با پهنای باند بالا روی تراشه که برای بارهای کاری یادگیری ماشین بهینه شده است. چند تراشه TPU بر روی یک دستگاه TPU مستقر شده اند.
یک برد مدار چاپی (PCB) با چندین تراشه TPU ، رابط های شبکه با پهنای باند بالا و سخت افزار خنک کننده سیستم.
فرآیند هماهنگی مرکزی در حال اجرا بر روی یک ماشین میزبان که داده ها، نتایج، برنامه ها، عملکرد و اطلاعات سلامت سیستم را برای کارکنان TPU ارسال و دریافت می کند. استاد TPU همچنین راه اندازی و خاموش کردن دستگاه های TPU را مدیریت می کند.
یک منبع TPU در Google Cloud با یک نوع TPU خاص. گره TPU از یک شبکه VPC همتا به شبکه VPC شما متصل می شود. گرههای TPU منبعی هستند که در Cloud TPU API تعریف شدهاند.
پیکربندی خاصی از دستگاه های TPU در مرکز داده Google. همه دستگاه های موجود در یک TPU Pod از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند. یک TPU Pod بزرگترین پیکربندی دستگاه های TPU موجود برای یک نسخه خاص TPU است.
یک موجودیت TPU در Google Cloud که ایجاد، مدیریت یا مصرف میکنید. به عنوان مثال، گره های TPU و انواع TPU منابع TPU هستند.
یک قطعه TPU بخش کسری از دستگاه های TPU در یک TPU Pod است. همه دستگاه های موجود در یک قطعه TPU از طریق یک شبکه اختصاصی پرسرعت به یکدیگر متصل می شوند.
پیکربندی یک یا چند دستگاه TPU با یک نسخه سخت افزاری خاص TPU. هنگامی که یک گره TPU در Google Cloud ایجاد می کنید، نوع TPU را انتخاب می کنید. به عنوان مثال، نوع v2-8
TPU یک دستگاه TPU v2 تک با 8 هسته است. یک نوع TPU v3-2048
دارای 256 دستگاه TPU v3 تحت شبکه و در مجموع 2048 هسته است. انواع TPU منبعی هستند که در Cloud TPU API تعریف شده است.
فرآیندی که روی یک ماشین میزبان اجرا می شود و برنامه های یادگیری ماشینی را روی دستگاه های TPU اجرا می کند.