این تعهد به هیچ شاخه ای در این مخزن تعلق ندارد و ممکن است متعلق به یک چنگال خارج از مخزن باشد.
نام در حال استفاده است
یک برچسب از قبل با نام شعبه موجود وجود دارد. بسیاری از دستورات دستگاه گوارش قبول هر دو نام تگ و شاخه, بنابراین ایجاد این شاخه ممکن است رفتار غیر منتظره باعث. شما حاصل کنید که شما می خواهید برای ایجاد این شاخه?
- محلی
- فضاهای کد
استفاده از دستگاه گوارش و یا پرداخت با اس وی ان با استفاده از نشانی وب.
سریع با مشتری رسمی ما کار کنید. بیشتر بدانید.
ورود به سیستم لازم است
لطفا برای استفاده از کدهای فضایی وارد سیستم شوید.
راهاندازی دسکتاپ گیتهاب
اگر چیزی اتفاق می افتد, دانلود دسکتاپ گیتهاب و دوباره امتحان کنید.
راهاندازی دسکتاپ گیتهاب
اگر چیزی اتفاق می افتد, دانلود دسکتاپ گیتهاب و دوباره امتحان کنید.
راه اندازی کد
اگر چیزی اتفاق می افتد, دانلود کد و دوباره امتحان کنید.
راه اندازی کد ویژوال استودیو
فضای کد شما یک بار باز می شود.
یک مشکل تهیه فضای کد خود را وجود دارد, لطفا دوباره امتحان کنید.
جدیدترین تعهد
گیت استاتس
پروندهها
بارگیری جدیدترین اطلاعات متعهد شکست خورد.
README. md
مدل های تصویر پایتور
با تشکر از موارد زیر برای پشتیبانی سخت افزاری:
- پژوهشکده فناوری اطلاعات (https://sites.تحقیق.گوگل / تری سی/درباره/)
- اندروید (https://www. nvidia. com/en-us/)
و یک تشکر بزرگ به همه حامیان مالی گیتهاب که با برخی از هزینه های من کمک کرد قبل از من بغل کردن چهره پیوست.
Surv نظرسنجی: انتقادات و پیشنهادات قدردانی 🤗
چند ماه است که تیم بخشی از اکوسیستم چهره بغل شده است. سالانه ما کاربران ابزارهای خود را بررسی می کنیم تا ببینیم چه کاری می توانیم بهتر انجام دهیم, چه کاری باید ادامه دهیم, یا چه کاری باید متوقف کنیم.
اگر شما یک زن و شوهر از دقیقه و می خواهید برای شرکت در شکل دادن به آینده از اکوسیستم لطفا به اشتراک گذاری افکار خود را: hf.شرکت/oss-بررسی 🙏
- قطار و اعتبار سنجی پیشرفت اسکریپت
- غیر پردازنده گرافیکی (یعنی پردازنده) پشتیبانی از دستگاه
- سازگاری اسلایم برای اسکریپت قطار
- پشتیبانی از مجموعه داده های اچ اف (از طریق ریدر اف دی)
- بهبودهای بارگذاری داده (بالشتک نمونه/بسته بندی برای استفاده توزیع شده تخمین تعداد نمونه ثابت ثابت)
- _چان !=3 پشتیبانی از اسکریپت ها / لودر
- ادن بهینه ساز
- می توانید برنامه ریزی هر مرحله را از طریق استدلال فعال کنید
- مجموعه داده تجزیه کننده ها به خوانندگان تغییر نام داده و بیشتر توصیفی از هدف است
- بافلوت16 پشتیبانی از طریق --بافلوت16
- شاخه اصلی به 0.7 تغییر کرد.نسخه ایکس, 0.6 ایکس چنگال برای انتشار پایدار از وزن تنها می افزاید
- master ->تغییر نام شعبه اصلی
- وزن بیشتر در سری ماکسوییت, شامل اولین بلوک کنوانسیون مبتنی بر کتبست و ماکسوییت:
- 224-82.0 @ 224 (گرم) -- (با استفاده از بلوک کنوانسیون کنوانسیون, هیچ دسته ای)
- 256-83.0 @ 256, 83.7 @ 320 (گرم) (با استفاده از بلوک کنوانسیون کنوانسیون, هیچ میلیارد)
- 224 - 84.5 @ 224, 85.1 @ 320 (گرم)
- 256-84.6 @ 256, 84.9 @ 288 (گرم) -- می تواند اموزش بهتر, هرپارام نیاز به تنظیم (با استفاده از بلوک کنفرانس, هیچ میلیارد)
- 2_رو _224 - 84.6 @ 224, 85 @ 320 (تی)
- توجه: وزن رسمی ماکسویت (در1 هزار) در منتشر شده است https://github. com/google-research/maxvit some برخی از کارهای اضافی برای پورت و انطباق مورد نیاز است زیرا ایمپلنت من مستقل از ایشان ایجاد شده است و دارای چند تفاوت کوچک است + کل سرگرم کننده بالشتک یکسان.
- برج های تصویری کلیپ لایون-2ب به عنوان ستون فقرات از پیش تعیین شده برای تنظیم دقیق یا ویژگی ها پشتیبانی می شوند (بدون طبقه بندی کننده)
- ویت_باس_پچ32_224_کلیپ_لیون2ب
- ویت_لارژ_پچ14_224_کلیپ_لیون2ب
- ویت_هوگ_پچ14_224_کلیپ_لیون2ب
- ویت_جیانت_پچ14_224_کلیپ_لیون2ب
- بغل کردن صورت تیم اسناد خانه در حال حاضر وجود دارد, برای اطلاعات بیشتر در اینجا نگاه کنید
- وزنه های بیت-و2 را برای مدل های پایه و بزرگ 224 * 224 از اضافه کنید https://github. com/microsoft/unilm/tree/master/beit2
- اضافه کردن وزن بیشتر در سری ماکسوییت شامل یک پیکو (7.5 پارامترهای متر, 1.9 جی ام اس), دو نوع کوچک:
- 256-80.5 @ 256, 81.3 @ 320 (تن)
- 224-83.5 @ 224 (گرم)
- 256 - 84.2 @ 256, 84.8 @ 320 (تن)
- مقیاس اندازه پنجره ماکسویت با اندازه به طور پیش فرض. اضافه کردن وزن جدید ماکسویت که از این اهرم استفاده می کند:
- 256-83.0 @ 256, 83.6 @ 320 (تن)
- کاتالوگ (https://arxiv. org/abs/2106.04803 مازندران (https://arxiv. org/abs/2204.01697) مدل های اصلی تیم
- هر دو موجود در maxxvit. py مدل دف, شامل تجربیات متعدد در خارج از محدوده مقالات اصلی
- نسخه تنسورفلو ناتمام از نویسندگان ماکسویت را می توان یافت https://github. com/google-research/maxvit
- 224-81.7 @ 224 (تی)
- 224-82.0 @ 224, 82.8 @ 320 (تی)
- کتنت_0_ رات_224-82.4 ( تی) - توجه داشته باشید تیم ' 0 ' کتنتس دارای 2 بلوک مرحله 3 دیگر است
- کتنت _ میلیاردر_0_ رات_224-82.4 (تن)
- 256-82.9 @ 256 (تن)
- 224-83.4 @ 224, 84 @ 320 (تی)
- کتنت_1_رنگ_224-83.6 @ 224 (گرم)
- (تی) = تی پی یو اموزش داده شده با بیت _ و _ تی پی یو کد اموزش, (ز) = پردازنده گرافیکی اموزش داده شده
- اضافه شدن وزنه های کنوانسیون
- 75.7 @ 224, 77.0 @ 288
- ابزارهای محدب-75.9 @ 224, 77.2 @ 288
- بیشتر سفارشی کنوانسیون مدل کوچکتر با وزن
- محدب_فمتو-77.5 @ 224, 78.7 @ 288
- ابزارهای محدب-77.9 @ 224, 78.9 @ 288
- 79.5 @ 224, 80.4 @ 288
- 79.5 @ 224, 80.5 @ 288
- ابزارهای محدب-80.9 @ 224, 81.6 @ 288
- اضافه کردن تازه ضرب متوسط دی-سوم (عرض=512, عمق=12, سر شماره=8) وزن مدل. با تشکر هوگو تورون!
- تمام فایل های ارزیابی زمان اجرا و اعتبار سنجی نتیجه در نهایت به روز می شوند!
- چند وزن و مدل مدل اضافه شده است:
- دارکنتا53-79.8 @ 256, 80.5 @ 288
- نانو محدب - 80.8 @ 224, 81.5 @ 288
- 3-81.2 @ 256, 81.8 @ 288
- سی اس3 دارک نت اکس-81.8 @ 256, 82.2 @ 288
- حساب3سدنت اکس-82.2 @ 256, 82.7 @ 288
- 3-82.2 @ 256, 82.7 @ 288
- 3-82.8 @ 256, 83.5 @ 320
مدل های بیشتر, رفع بیشتر
- مدل های تحقیقاتی رسمی (وزن/ وزن) اضافه شده است:
- پیشگفتار (https://github. com/mmaaz60/EdgeNeXt)
- موبیلویت-وی2 از (https://github. com/apple/ml-cvnets)
- دییت سوم (انتقام از ویتیت) از (https://github. com/facebookresearch/deit)
- تنظیم مجدد کوچک با درخواست با 1 تکرار بلوک برای هر دو پایه و تنگنا اضافه شده است (شبکه مجدد 10 و شبکه مجدد 14)
- سی اس نت بازسازی شده با پیکربندی کلاس داده, متقاطع ساده شده 3 (حساب3 ) گزینه. اینها به یولو-وی5+ ستون فقرات نزدیکتر هستند.
- موقعیت نسبی بیشتر ویتامین کمانچه. دو مدل سرلپوس (موقعیت نسبی مشترک) و یک توکن متوسط/ کلاس تربیت شده اند.
- یک حالت نمونه جایگزین به لبه اضافه کنیدبعد و یک مدل کوچک تربیت کنید. بهتر از اصل کوچک, اما نه اوسی جدید خود را تمرین وزن.
- بازنشانی 10 تی-66.5 @ 176, 68.3 @ 224
- بازنشانی 14 تی 71.3 @ 176, 72.3 @ 224
- رزنتاا50-80.6 @ 224, 81.6 @ 288
- تاریک 53-80.0 @ 256, 80.5 @ 288
- حساب3تارکت_م-77.0 @ 256, 77.6 @ 288
- حساب3تاریخ _ فوکوس _ متر-76.7 @ 256, 77.3 @ 288
- سی اس3تارکنت ال-80.4 @ 256, 80.9 @ 288
- سی اس3تاریخ _ فوکوس _ ال-80.3 @ 256, 80.9 @ 288
- 16_224-81.1 @ 224, 82.1 @ 320
- 16_224 - 82.3 @ 224, 83.1 @ 320
- ویت_رلپس_کوچک16_کلس_224-82.6 @ 224, 83.6 @ 320
- 79.6 @ 224, 80.4 @ 320
- کمی کندتر از اعمال سفارشی قبلی در برخی از سخت افزارها (یعنی دبلیو دبلیو/ کلر) اما به طور کلی رگرسیون کمتر در محدوده نسخه های گسترده تر هرتزو / پایتورچ.
- ایمپلنت قبلی به صورت لایه ای وجود داردنورماکسپ2د در models/layers/norm. py
- مدل های رسمی سوین-وی2 و وزن اضافه شده از (https://github. com/microsoft/Swin-Transformer). تمیز برای حمایت از مشعل اسکریپت.
- برخی از فاکتورهای موجود برای تیم سوین-وی2-کروم ایمپلنت احتمالا کمی بیشتر برای نزدیک کردن قطعات به مقام رسمی و تصمیم گیری در مورد ادغام برخی از جنبه ها انجام خواهد داد.
- موقعیت نسبی ترانسفورماتور بینایی بیشتر / تجربیات پس از هنجار باقیمانده (همه به لطف برنامه ترانسفورماتور ترانسفورماتور)
- 16_224-81.5 @ 224, 82.5 @ 320 po نگارش سلامتی, مقیاس لایه, بدون رمز کلاس, استخر میانگین
- 16_رلپاس_پچ_پچ16_رپان_224 - 82.3 @ 224, 83.1 @ 320 po نگارش سلامتی + تحقیق پس از هنجار, بدون رمز کلاس, استخر میانگین
- 16_224-82.5 @ 224, 83.3 @ 320 po نگارش سلامتی, مقیاس لایه, بدون رمز کلاس, استخر میانگین
- 16_گپ کلس_224-82.8 @ 224, 83.9 @ 320 po نگارش سلامتی, مقیاس لایه, رمز کلاس, استخر میانگین (به اشتباه)
- تجربیات ترانسفورماتور چشم انداز اضافه کردن موقعیت نسبی (سوین-و2 ورود-هماهنگی) ( vision_transformer_relpos. py ) و شاخه های باقیمانده پس از هنجار (از سوین-و2) ( ترانسفورماتور بینایی*. پی )
- 79.5 @ 256, 80.6 @ 320 po نگارش سلامتی + عرض گسترده + تحقیق پست هنجار, بدون رمز کلاس, استخر میانگین
- 16_224-82.5 @ 224, 83.6 @ 320 po نگارش سلامتی, مقیاس لایه, بدون رمز کلاس, استخر میانگین
- 16_رپچ_224 - 82.3 @ 224 po نگارش سلامتی + تحقیق پس از هنجار, هیچ رمز کلاس, استخر میانگین
- مدل های تیم در حال حاضر به طور رسمی در پشتیبانی می شوند fast. ai! فقط به موقع برای دوره جدید یادگیری عمیق عملی. لینک مستندات تیمداکس به روز شده به timm. fast. ai.
- دو وزن مدل دیگر در سری تی پی یو اضافه شده است. برخی در22 هزار تمرین هنوز در حال انجام است.
- 101د_32ایکس8د-83.69 @ 224, 84.35 @ 288
- 101د_32ایکس8د (ضد مستعار عرض/ میانگین پول2د) - 83.85 @ 224, 84.57 @ 288
- گزینه موازی و مقیاس لایه را به مدل های ویت پایه اضافه کنید تا از پیکربندی مدل ها در سه موردی که همه باید در مورد ویت بدانند پشتیبانی کند
- وزنه های محدب (سر هنجار اول) با (نزدیک به) الف 2 دستور العمل, 82.2% از بالا به 1, می تواند با دوره های بیشتر بهتر عمل کند.
- نرم_نورم_نورم را ادغام کنید . مهم این به روز رسانی برای یک 0.6.ایکس انتشار به احتمال زیاد د تثبیت شعبه اصلی در حالی که برای. شعبه 0.5.ایکس یا 0.5 قبلی.در صورت نیاز به ثبات می توان از انتشار ایکس استفاده کرد.
- به روز رسانی وزن قابل توجه (همه تی پی یو اموزش داده شده) همانطور که در این نسخه توضیح داده شده است
- رگنتی_040-82.3 @ 224, 82.96 @ 288
- رگنتی_064-83.0 @ 224, 83.65 @ 288
- رگنتی_080-83.17 @ 224, 83.86 @ 288
- رگنتو_040-82.44 @ 224, 83.18 @ 288 (تیم قبل از عمل)
- رگنتو_064-83.1 @ 224, 83.71 @ 288 (تیم قبل از عمل)
- رگنتز_040-83.67 @ 256, 84.25 @ 320
- رگنتز_040ساعت-83.77 @ 256, 84.5 @ 320 (عرض / باشگاه فوق العاده در سر)
- رسنتو2_50د_گرم-80.8 @ 224, 81.96 @ 288 (گروه پیش اقدام)
- رسنتو2_50د_ووس 80.77 @ 224, 82.04 @ 288 (پیش از عمل اوونورمز)
- رگنتز_ج16_ووس-81.9 @ 256, 82.64 @ 320 (اوونورمز)
- رگنتز_د8_ووس-83.42 @ 256, 84.04 @ 320 (اوونورمز)
- ایکسپتیون41پ-82 @ 299 (تیم قبل از عمل)
- ایکسپتیون65-83.17 @ 299
- ایکسپتیون65پ-83.14 @ 299 (تیم قبل از عمل)
- رزنکت101_64ایکس4د-82.46 @ 224, 83.16 @ 288
- 101_32ایکس8د-83.57 @ 224, 84.270 @ 288
- رسنترس200-83.85 @ 256, 84.44 @ 320
-
نوشته شده اجرا جامع از طریق تیم در وبلاگ خود دیروز. به خوبی به ارزش خواندن. شروع کار با مدلهای تصویر پایتورچ (تیم): راهنمای تمرینکنندگان
- من در حال حاضر در حال ادغام شعبه نرم_نورم_نورم به استاد هستم (نسخه 0.6.ایکس) در هفته بعد یا بیشتر.
- این تغییرات گسترده تر از حد معمول است و ممکن است برخی از مدل ها را بی ثبات کرده و از بین ببرد (با هدف رفیق کامل به عقب). بنابراین, مراقب باشید تصویر در تصویر نصب دستگاه گوارش+اچتیتیپیاس://
/ روایتمن / پایتورچ-تصویر-مدل نصب! - 0.5.ایکس منتشر و یک 0.5.شاخه ایکس با یک یا دو گیلاس ثابت می ماند تا گرد و غبار پاک شود. توصیه چسبیده به پایپای نصب برای کمی اگر شما می خواهید با ثبات است.
- نسخه 0.5.4 وات / انتشار به پی پی تحت فشار قرار دادند. مدتی از بروزرسانی پایپی گذشته می گذرد و تغییرات خطرناک تر به زودی در شعبه اصلی ادغام می شوند.
- اضافه کردن مدل های کنوانسیون / وزن عرض از رسمی ایمپلنت (https://github. com/facebookresearch/ConvNeXt), چند ترفند پرف, سازگار با ویژگی های تیم
- چند نکته کوچک (~1.8-3پرممتر) / مدل های بهینه سازی تلفن همراه, چند خوب هستند تا کنون, بیشتر در راه.
- مینا نت - 65.6 بالا-1
- موبایل 2_050-65.9
- ال سی نت_100/075/050 - 72.1 / 68.8 / 63.1
- شبکه سمنا_075-73
- اف بنتو 3_ب / د / گرم - 79.1 / 79.7 / 82.0
- تعدادی از وزن به روز شده از نو مدل دف جدید
- اکا_هالونکست26 تی - 79.5 @ 256
- بازنشانی 50 گرم (جدید) - 80.1 @ 224, 81.3 @ 288
- بازنشانی 50-80.7 @ 224, 80.9 @ 288 (در 176 تمرین کرده اید و وزنه های فعلی 1 را به عنوان پیش فرض جایگزین نمی کنید زیرا این وزنه ها در مقیاس بالاتر نیستند)
- رزنکت50_32ایکس4د-81.1 @ 224, 82.0 @ 288
- 256 (جدید) - 81.2 @ 224
- لامهالوبوتنت50 تن_256-81.5 @ 256
- هالون 50 تن-81.7 @ 256
- هالو2 باتنت50 تن_256-82.0 @ 256
- شبکه ریست101-82.0 @ 224, 82.8 @ 288
- رسنتو2_101 ( جدید) - 82.1 @ 224, 83.0 @ 288
- شبکه ریست152-82.8 @ 224, 83.5 @ 288
- رگنتز_د8 (جدید) - 83.5 @ 256, 84.0 @ 320
- رگنتز8 (جدید) - 84.5 @ 256, 85.0 @ 320
- مدل های به روز شده برای سازگاری ردیابی (پشتیبانی تقریبا کامل با برخی از استثنا ترانسفورماتور پریشان)
- بازنشانی اعتصابات برگشت (https://arxiv. org/abs/2110.00476) وزنه های اضافه شده به علاوه اجزای تمرینی اضافی استفاده شده. توضیحات تکمیلی و توضیحات بیشتر (https://github. com/rwightman/pytorch-image-models/releases/tag/v0.1-rsb-weights)
- از دست دادن پیش از میلاد و پشتیبانی تقویت مکرر برای کاغذ روپیه
- 4 سری از تجربیات مدل توجه مبتنی بر شبکه مجدد اضافه شده است (در سراسر اجرا شده است byobnet. py/byoanet. py). این شامل تمام انواع توجه, از قابل توجه کانال مانند سه, سازمان حفاظت محیط زیست به 2د کیفیت لایه های خود توجه مانند هاله, تنگنا, لامبدا. توضیحات بیشتر (https://github. com/rwightman/pytorch-image-models/releases/tag/v0.1-attn-weights)
- پیاده سازی های کاری ماژول های خود توجه 2 بعدی زیر (احتمالا تفاوت هایی با کاغذ یا در نهایت رسمی بودن):
- هاله (https://arxiv. org/abs/2103.12731)
- ترانسفورماتور تنگنا (https://arxiv. org/abs/2101.11605)
- لامبورگینی (https://arxiv. org/abs/2102.08602)
- بهینه ساز ثروت باد اورده!
- بهینه سازهای بره و لارس را از جمله گزینه های برش نسبت اعتماد اضافه کنید. بهینه سازی به درستی کار کند در پایتورچ اکسلا (تست شده بر روی شاخه تیپوس عرض / تیم بیت)
- اضافه کردن مادگراد از اتاق با غذا تحقیقات عرض / چند ترفند (گزینه پوسیدگی جدا, دست زدن به گام است که با این نسخهها کار با پایتورچ اکسلا)
- برخی از پاکسازی در تمام بهینه سازها و کارخانه. نه بیشتر.داده ها, سازگاری کمی بیشتر, تست واحد برای همه!
- اما دیگران باید (هنوز برای تست ادعای, ادعای, ادایسیان خودم).
مجموعه ای از مدل های تصویر است, لایه ها, برنامه های کاربردی, بهینه سازها, برنامه ریزان, داده لودرها / افزودنی ها, و اسکریپت های مرجع / اعتبار سنجی که قصد دارند طیف گسترده ای از مدل های سوتا را با توانایی تولید مثل نتایج تصویربرداری جمع کنند.
کار بسیاری دیگر در اینجا حضور دارد. من سعی کردم اطمینان حاصل کنم که تمام مطالب منبع از طریق لینک به گیتهاب اذعان, مقالات, و غیره در صفحهی راهنمای ترجمهها, مستندات, و رشته مستندات کد. لطفا اجازه دهید من می دانم اگر من از دست رفته هر چیزی.
تمام خانواده های معماری مدل شامل انواع با وزن های پیش ساخته هستند. مدل های خاص بدون وزن وجود دارد, این یک اشکال نیست. کمک به تمرین وزنه های جدید یا بهتر همیشه قدردانی می شود. در اینجا چند نمونه تمرین هپارامز برای شروع شما وجود دارد.
نسخه کامل لیست زیر با لینک های منبع را می توان در اسناد یافت.
- ترانسفورماتورهای تو در تو-https://arxiv. org/abs/2105.12723
- بیت - https://arxiv. org/abs/2106.08254
- انتقال بزرگ رسنتو2 (بیت) - https://arxiv. org/abs/1912.11370
- ترانسفورماتور تنگنا - https://arxiv. org/abs/2101.11605
- کیت (کلاس - توجه در ترانسفورماتور تصویر) - https://arxiv. org/abs/2103.17239
- کت (ترانسفورماتور تصویر با دقت در مقیاس مشترک) - https://arxiv. org/abs/2104.06399
- کت نت (پیچیدگی و توجه) - https://arxiv. org/abs/2106.04803
- کنوانسیون - https://arxiv. org/abs/2201.03545
- کانوت (ترانسفورماتورهای بینایی سوگیری های القایی نرم کانولوشن)- https://arxiv. org/abs/2103.10697
- سی اس نت (شبکه های پاره مرحله ای) - https://arxiv. org/abs/1911.11929
- دیت - https://arxiv. org/abs/2012.12877
- دیت سوم - https://arxiv. org/pdf/2204.07118. pdf
- دنسنت - https://arxiv. org/abs/1608.06993
- - Https://arxiv. org/abs/1707.06484
- دی پی ان (شبکه دو طرفه) - https://arxiv. org/abs/1707.01629
- ادامه مطلب - https://arxiv. org/abs/2206.10589
- کارایی ساز - https://arxiv. org/abs/2206.01191
- شبکه موثر (خانواده امبکانونت)
- پر سر و صدا موثر (ب0-ب7, ل2) - https://arxiv. org/abs/1911.04252
- پروپروپ موثر (ب0-ب8) - https://arxiv. org/abs/1911.09665
- شبکه موثر (ب0-ب7) - https://arxiv. org/abs/1905.11946
- دانلود کاتالوگ https://ai. googleblog. com/2019/08/efficientnet-edgetpu-creating. html
- کارایی شبکه وی2 - https://arxiv. org/abs/2104.00298
- اف نت-سی - https://arxiv. org/abs/1812.03443
- میکس نت - https://arxiv. org/abs/1907.09595
- مناسنت ب1, ع1 (فشار تحریک), و کوچک - https://arxiv. org/abs/1807.11626
- موبایل - وی2- https://arxiv. org/abs/1801.04381
- تک مسیر ناس- https://arxiv. org/abs/1904.02877
- تین نت - https://arxiv. org/abs/2010.14819
- اف نت-وی 3 - https://arxiv. org/abs/2006.02049
- هاردکور-ناس - https://arxiv. org/abs/2102.11646
- ال سی نت - https://arxiv. org/abs/2109.15099
- بازنشانی (نسخه 1 / نسخه 1.5) - https://arxiv. org/abs/1512.03385
- ادامه متن - https://arxiv. org/abs/1611.05431
- 'کیسه ترفندها' / گلوون ج, د, ای, ها تغییرات - https://arxiv. org/abs/1812.01187
- ضعیف-نظارت (WSL) Instagram pretrained / ImageNet تنظیم ResNeXt101 - https://arxiv. org/abs/1805.00932
- نیمهمنظوره / نیمهمنظوره ضعیف / ریسنت - https://arxiv. org/abs/1905.00546
- شبکه اکا - https://arxiv. org/abs/1910.03151v4
- شبکه های فشار و تحریک (سرسنت) - https://arxiv. org/abs/1709.01507
- ریسنت - روپیه- https://arxiv. org/abs/2103.07579
چندین ویژگی (کمتر رایج) که من اغلب در پروژه هایم استفاده می کنم گنجانده شده است. بسیاری از اضافات خود هستند به همین دلیل من حفظ مجموعه خود من از مدل, به جای استفاده از دیگران از طریق تصویر در تصویر:
- همه مدل ها دارای یک رابط پیکربندی پیش فرض مشترک و رابط کاربری گرافیکی برای
- دسترسی/تغییر طبقه بندی کننده-دریافت _ طبقه بندی کننده و تنظیم مجدد _ طبقه بندی کننده
- انجام یک پاس رو به جلو در فقط ویژگی های-جلو_ویژگی ها (مستندات را ببینید)
- این باعث می شود که بسته های شبکه سازگار با هر یک از مدل ها کار کنند
- ایجاد _مدل (نام, ویژگی ها_فقط=درست, نام های بیرونی=. خروجی _ استرید=. )
- ا_ناسهای ایجاد ارگ مشخص می کند که کدام ویژگی نقشه به بازگشت, این شاخص ها بر اساس 0 و به طور کلی به ج مطابقت(من + 1) سطح ویژگی.
- ارگ ایجاد خروجی با استفاده از پیچش های گشاد شده گام خروجی شبکه را کنترل می کند. اکثر شبکه ها به طور پیش فرض گام 32 هستند. همه شبکه ها از این پشتیبانی نمی کنند.
- از ویژگی های نقشه تعداد کانال, سطح کاهش (گشاد گشاد راه رفتن) می توان پس از ایجاد مدل از طریق تردید .عضو اینفو
- انویدیا دی دی پی دبلیو / پردازنده گرافیکی واحد در هر فرایند, فرایندهای متعدد با راس حاضر (مخلوط دقت اختیاری)
- پایتورچ توزیع داده های موازی با پردازنده گرافیکی چندگانه, تک فرایند (با فعال شدن خراب می شود غیرفعال می شود)
- پروسه تک پردازنده گرافیکی پایتورچ (اختیاری)
- ایده های اتخاذ شده از
- گرادیان گرادیان: گرادیان تصادفی با ری استارتهای گرم (https://arxiv. org/abs/1608.03983)
- با استفاده از این نرم افزار می توانید با ما تماس بگیرید. رفتار تنسورفلو بسیار بهبود یافته را بازتولید می کند.
- فاطمه زهرا (https://arxiv. org/abs/1908.03265)
- نووگراد توسط ماساشی کیمورا (https://arxiv. org/abs/1905.11286)
- دانلود کاتالوگ اندروید (https://arxiv. org/abs/1907.08610)
- بهینه سازهای ذوب شده با نام با راس انویدیا نصب شده است
- دانلود کاتالوگ اندروید (https://arxiv. org/abs/2006.08217)
- دانلود کاتالوگ محصولات (https://arxiv. org/abs/1804.04235)
- سعید حسینی (https://arxiv. org/abs/2006.00719)
- ترانسفورماتور تنگنا - https://arxiv. org/abs/2101.11605
- بام https://arxiv. org/abs/1807.06521
- فشار موثر-تحریک - https://arxiv. org/abs/1911.06667
- کانال توجه موثر (ایکا) - https://arxiv. org/abs/1910.03151
- جمع شدن-تحریک (جنرال الکتریک) - https://arxiv. org/abs/1810.12348
- زمینه جهانی - https://arxiv. org/abs/1904.11492
- هاله - https://arxiv. org/abs/2103.12731
- تکامل - https://arxiv. org/abs/2103.06255
- لایه لامبدا - https://arxiv. org/abs/2102.08602
- غیر محلی (ان ال) - https://arxiv. org/abs/1711.07971
- فشار و تحریک (جنوب شرقی) - https://arxiv. org/abs/1709.01507
- کرنل انتخابی (اسک) - (https://arxiv. org/abs/1903.06586
- اسپلیت (اسپلت) - https://arxiv. org/abs/2004.08955
- تغییر پنجره (سوین) - https://arxiv. org/abs/2103.14030
نتایج اعتبار سنجی مدل را می توان در اسناد و در جداول نتایج یافت
شروع به کار (مستندات)
مستندات فعلی من برای تیم را پوشش می دهد اصول اولیه.
بغل کردن صورت تیم اسناد خواهد بود که تمرکز اسناد رفتن به جلو و در نهایت جایگزین خواهد شد github. io اسناد بالا.
شروع کار با مدلهای تصویر پایتورچ (تیم): راهنمای یک تمرینکننده توسط کریس هیوز یک پست وبلاگ گسترده است که بسیاری از جنبههای تیم را به تفصیل پوشش میدهد.
تیمداکس به سرعت در حال تبدیل شدن به مجموعه ای بسیار جامع تر از اسناد برای تیم است . یک تشکر بزرگ به امان ارورا برای تلاش های خود را ایجاد تیمداکس.
مقالات با کد منبع خوبی برای مرور مدل های درون تیم است .
قطار-تعلیم دادن, اعتبار سنجی, اسکریپت استنتاج
پوشه ریشه از مخزن شامل قطار مرجع, اعتبار سنجی, و اسکریپت استنتاج که با مدل شامل و ویژگی های دیگر از این مخزن کار. برای مجموعه داده های دیگر سازگار هستند و با کمی هک از موارد استفاده می کنند. مستندات برای برخی از اصول اولیه و تمرین هپارامز برای برخی از نمونه های قطار که تولید نتایج سوتا تصویرنت را مشاهده کنید.
منابع عالی پایتورچ
یکی از بزرگترین دارایی های پایتورچ جامعه و سهم خود است. تعداد کمی از منابع مورد علاقه من است که جفت خوبی با مدل ها و اجزای اینجا به شرح زیر است.
تشخیص شی, نمونه و تقسیم بندی معنایی
- دیتکترون2 - https://github. com/facebookresearch/detectron2
- مدل های تقسیم بندی (معنایی) - https://github. com/qubvel/segmentation_models. pytorch
- اثربخشی دت (عج دت, معنایی به زودی) - https://github. com/rwightman/efficientdet-pytorch
بینایی کامپیوتر / تقویت تصویر
- البوم ها - https://github. com/albumentations-team/albumentations
- کورنیا https://github. com/kornia/kornia
- رپیدستیلر - https://github. com/HobbitLong/RepDistiller
- مشعل - https://github. com/yoshitomo-matsubara/torchdistill
- یادگیری متریک پایتورچ - https://github. com/KevinMusgrave/pytorch-metric-learning
- فستای - https://github. com/fastai/fastai
کد در اینجا دارای مجوز است 2.0. من مراقبت کرده ام تا اطمینان حاصل کنم که هر کد شخص ثالث شامل یا اقتباس شده دارای مجوزهای سازگار (مجاز) مانند میتی, بیاسدی, و غیره است. من تلاش کرده ام تا از هرگونه درگیری جی پی ال / ال جی پی ال جلوگیری کنم. گفتنی است که این وظیفه شماست که اطمینان حاصل کنید که مجوزها و شرایط هرگونه مجوزهای وابسته را رعایت می کنید. در صورت لزوم, من منابع مرتبط ام/منابع برای اجزای مختلف در رشته اسناد. اگر شما فکر می کنم من هر چیزی از دست رفته ام لطفا ایجاد یک موضوع.
- این تغییرات گسترده تر از حد معمول است و ممکن است برخی از مدل ها را بی ثبات کرده و از بین ببرد (با هدف رفیق کامل به عقب). بنابراین, مراقب باشید تصویر در تصویر نصب دستگاه گوارش+اچتیتیپیاس://