آموزش انتخاب ویژگی یا Feature Selection

دسترسی به اطلاعات این آموزش: اطلاعات کلی محتوا و سرفصل ها پیش نمایش و دانلود اطلاعات تکمیلی دیدگاه ها

درباره ناشر

فرادرس
فرادرس

فرادرس بزرگ‌ترین ناشر دیجیتال آموزش‌های تخصصی، دانشگاهی و مهندسی است.

درباره مدرس

دکتر اسماعیل آتشپز گرگری
دکتر اسماعیل آتشپز گرگری

عضو هیأت علمی دانشگاه National - ایالات متحده آمریکا

دکترای تخصصی مهندسی برق


دکتر اسماعیل آتشپز گرگری یکی از بنیانگذاران فرادرس و از اعضای هیأت علمی آن است. ایشان دانش آموخته دکتری دانشگاه Texas A&M بوده و سابقه همکاری با مراکز طراز اول بیوانفورماتیک و پردازش سیگنالهای ژنومیک و کار در لبه علم و تکنولوژی این حوزه را دارند. ایشان در حال حاضر به عنوان عضو هیات علمی در دانشگاه National در ایالات متحده آمریکا به تدریس و پژوهش مشغول می باشند. (+)



در این فرادرس، در شروع بحث، مفاهیم پایه مرتبط با کاهش ابعاد (استخراج و انتخاب ویژگی) را با هم مرور خواهیم کرد. تمرکز ما در این بحث بر روی روشهای انتخاب ویژگی خواهد بود و روش های استخراج ویژگی از آن جهت که در فرادرس دیگری به صورت مفصل مورد بررسی قرار گرفته اند، محور بحث نخواهند بود.

👤 مدرس: دکتر اسماعیل آتشپز گرگری
🕓 مدت زمان: ۱ ساعت و ۴۶ دقیقه
🎓 تعداد دانشجو: ۵۰۹ نفر این آموزش را تهیه کرده اند. — ۳ نفر در دو هفته اخیر
روش دریافت: لینک دانلود و/یا ارسال فیزیکی

هزینه آموزش: ۱۱,۰۰۰ تومان


آنچه شما در این فرادرس خواهید دید:
آموزش ویدئویی مورد تایید فرادرس
فایل PDF یادداشت های مدرس در حین آموزش

تضمین کیفیت و گارانتی بازگشت هزینه
توجه: کیفیت این آموزش توسط فرادرس تضمین شده است. در صورت عدم رضایت از آموزش، به انتخاب شما:
  • به صورت رایگان یک یا چند آموزش معادل دیگر دریافت می کنید.
  • و یا ۷۰ درصد مبلغ پرداختی به حساب بانکی شما بازگشت داده می شود.
    (توضیحات بیشتر +)
دانلود آنی و ارسال سریع
فعال‌سازی آنی لینک دانلود، بلافاصله پس از ثبت سفارش
ارسال پستی به همراه کد رهگیری مرسوله در اولین ساعت اداری روز
ارسال پیک موتوری در تهران، در همان روز ثبت سفارش

(توضیحات بیشتر +)



    توضیحات

    انتخاب ویژگی (Feature Selection) که با عناوین دیگری همانند Variable Selection و Attribute Selection و نیز Variable Subset Selection شناخته می شود، فرایند انتخاب زیردسته ای از میان دسته ویژگی ها می باشد.

     

    طبقه بندی کننده بهینه بیز و افزایش تعداد ویژگی ها

    خطای کمینه بیز (Bayes Error) با افزایش تعداد ویژگی ها هیچگاه افزایش نمی یابد. شاید این موضوع این برداشت را در نگاه اول ایجاد کند که هر چه تعداد ویژگی ها بیشتر باشد، به همان میزان وضعیت بهتر است. اما نباید فراموش کنیم که کلاسیفایر بهینه بیز (Bayes Optimal Classifier) در صورت در دسترس بودن توزیع داده ها (Data Distribution) موجود می باشد. در حالی که در یک مسئله عملی طبقه بندی (Classification) ما توزیع واقعی داده ها را نداریم و در نتیجه نیز کلاسفایر بهینه بیز و خطای کمینه آن در دست نمی باشد.

     

    پدیده Peaking و اهمیت کاهش ابعاد

    بر خلاف رفتار کلاسیفایز بیز،‌ خطای کلاسیفایر طراحی شده توسط داده های واقعی رفتار متفاوتی را در حالت افزایش تعداد ویژگی ها نمایش می دهد. اگر به خاطر داشته باشید، در نیجه پدیده پیک زدن (Peaking Phenomenon)، افزایش تعداد ویژگی ها در مواردی می تواند به افزایش خطای طبقه بندی نیز منجر شود. از این جهت است که در یک مسئله عملیِ، بهترین تعداد ویژگی ها، بیشترین تعداد ویژگی ها نمی باشد. شکل زیر پیده پیک زدن را نشان می دهد.

    DuinPeaking1

    شکل: پدیده پیکینگ – با افزایش تعداد ویژگی ها از یک نقطه به بعد، خطای طبقه بندی افزایش می یابد.

     

    دلایل دیگر اهمیت کاهش ابعاد

    پدیده Peaking به تنهایی برای نمایش دادن اهمیت استفاده از مقدار مناسب (نه کم و نه زیاد) ویژگی ها را نشان می دهد. البته این همه اهمیت داستان نیست. انتخاب ویژگی می تواند به کاهش پیچیدگی محاسباتی (هم از جهت بار اجرایی و هم ذخیره سازی) منجر شود. از سوی دیگر، کاهش ابعاد می تواند به ایجاد شناخت بهتر از داده ها نیز کمک نماید. به عنوان مثال در یک مسئله دانستن ۳ ویژگی مهم که بیشترین جداسازی داده ها را ایجاد می کند، مفید خواهد بود (مثلا سه ژن عامل یک بیماری).

     

    کاهش ابعاد:‌ استخراج ویژگی / انتخاب ویژگی

    دو طبقه عمده از روشهای کاهش ابعاد (Dimensionality Reduction Methods) وجود دارند.

    • استخراج ویژگی (Feature Extraction)
      • در این حالت هدف یافتن یک نگاشت از فضای ویژگی های کنونی به یک فضای با ابعاد کمتر است که در آن کمترین اتلاف اطلاعات (با در نظر گرفتن معیارهای جداپذیری کلاسها) ایجاد می شود.

     

    • انتخاب ویژگی (Feature Selection)
      • انتخاب ویژگی نیز در حقیقت همان استخراج ویژگی است. با این تفاوت که نگاشت مذکور محدود می شود به انتخاب زیر مجموعه ای است مجموعه ویژگی های فضای اصلی.

     

    آنچه در این فرادرس خواهیم دید.

    در این فرادرس، در شروع بحث، مفاهیم پایه مرتبط با کاهش ابعاد (استخراج و انتخاب ویژگی) را با هم مرور خواهیم کرد. تمرکز ما در این بحث بر روی روشهای انتخاب ویژگی خواهد بود و روش های استخراج ویژگی از آن جهت که در فرادرس دیگری به صورت مفصل مورد بررسی قرار گرفته اند، محور بحث نخواهند بود.

    یک مسئله انتخاب ویژگی، یک مسئله با تعداد حالات مشخص می باشد. از این جهت با جستجوی جامع (Exhaustive Search)‌ می توان بهترین دسته از ویژگی ها را یافت. اما این کار زمان بر خواهد بود و باید روشهایی را استفاده کرد که با جستجوی کمتری به دسته ویژگی های بهینه (شبه بهینه) برسد. از این جهت در ادامه به روش های شبه بهینه (Sub-Optimal) یافتن ویژگی ها اشاره خواهیم کرد و در این راستا الگوریتم های انتخاب ویژگی زیر مورد بررسی قرار خواهند گرفت.

    • بهترین ویژگی های فردی (Best Individual d Features)
    • جستجوی مستقیم ترتیبی (Sequential Forward Search – SFS)
    • جستجوی معکوس ترتیبی (Sequential Backward Search – SBS)
    • جستجوی افزودن l، حذف r یا (Plus r Take-Away l Search)
    • جستجوی مستقیم ترتیبی تعمیم یافته (Generalized Sequential Forward Search)
    • جستجوی معکوس ترتیبی تعمیم یافته (Generalized Sequential Backward Search)
    • جستجوی شناور (Floating Search)

    در انتهای این آموزش نیز به خلاصه بحث و نتیجه گیری و نکاتی برای ادامه مطالعات آتی خواهیم پرداخت.

    توجه: در این بحث پیاده سازی عملی و کد نویسی تک تک روشها انجام نمی شود. کدنویسی و پیاده هر الگوریتم از روی توضیحات ارایه شده در این آموزش، برای افراد آشنا به برنامه نویسی به سادگی قابل انجام خواهد بود.

     

    فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
    • مقدمه – کاهش ابعاد
    • اهمیت کاهش ابعاد
    • تفاوت میان استخراج ویژگی و انتخاب ویژگی
    • بیان مسئله انتخاب ویژگی
    • تفاوت روش های فیلتر (Filter) و Wrapper
    • پیچیدگی محاسباتی مسئله انتخاب ویژگی
    • بهترین ویژگی های فردی (Best Individual d Features)
    • جستجوی مستقیم ترتیبی (Sequential Forward Search – SFS)
    • جستجوی معکوس ترتیبی (Sequential Backward Search – SBS)
    • جستجوی افزودن l، حذف r یا (Plus r Take-Away l Search)
    • جستجوی مستقیم ترتیبی تعمیم یافته (Generalized Sequential Forward Search)
    • جستجوی معکوس ترتیبی تعمیم یافته (Generalized Sequential Backward Search)
    • جستجوی شناور (Floating Search)
    • خلاصه بحث و نتیجه گیری


    پیش نیاز

    برای استفاده از این آموزش آشنایی با مفاهیم پایه طبقه بندی و بازشناسی آماری الگو مفید خواهد بود. همچنین با توجه به اینکه به خطای طبقه بندی کننده و تخمین آن به صورت مکرر در این آموزش اشاره می شود، توصیه می شود آموزش تخمین خطای طبقه بندی را نیز پیش از این آموزش مطالعه نمایید.

    پیش نمایش

    پیش نمایش ۱ : آموزش انتخاب ویژگی یا Feature Selection - بخش رایگان - ۳۱ دقیقه


    توجه: ممکن است که به خاطر سرعت پایین اینترنت شما، نمایش آنلاین با کیفیت پایین تر از کیفیت HD ویدئوی اصلی نمایش داده شوند. برای تنظیم کیفیت نمایش آنلاین روی علامت کلیک نمایید یا اینکه آموزش را دانلود کرده و سپس مشاهده نمایید.

    دانلود مستقیم پیش نمایش - حجم دانلود ۳۶ مگابایت (کلیک کنید +)




    اطلاعات تکمیلی

    نام آموزش آموزش انتخاب ویژگی یا Feature Selection
    ناشر فرادرس
    شناسه اثر ۸-۱۲۴۵۲-۰۵۲۳۵۲ (ثبت شده در مرکز رسانه‌های دیجیتال وزارت ارشاد)
    کد آموزش FVML9404
    مدت زمان ۱ ساعت و ۴۶ دقیقه
    زبان فارسی
    نوع آموزش آموزش ویدئویی     (کیفیت HD - مورد تایید فنی فرادرس)
    حجم دانلود ۱۰۱ مگابایت     (کیفیت ویدئو HD‌ با فشرده سازی انحصاری فرادرس)
    تعداد DVD یک عدد (در صورت دریافت غیر آنلاین)


    ​راهنمای تهیه آموزشها

    آیا می دانید که تهیه یک آموزش از فرادرس و شروع یادگیری چقدر ساده است؟

    راهنمایی بیشتر ( +)

    در مورد این آموزش یا نحوه تهیه آن سوالی دارید؟ 
    • با شماره تلفن واحد مخاطبین ۸۸۳۱۲۲۷۶ (پیش شماره ۰۲۱) تماس بگیرید. - تمام ساعات اداری
    • از طریق بخش چت آنلاین، با پشیبان های فرادرس گفتگو کنید.- همه روزهای کاری هفته از ساعت ۸ صبح تا ۱۲ شب
    • با ما مکاتبه ایمیلی داشته باشید (این لینک). - میانگین زمان پاسخ دهی: ۳۰ دقیقه

    با شروع یادگیری، یک کلیک فاصله دارید. همین حالا شروع کنید.

    آموزش انتخاب ویژگی یا Feature Selection

    هزینه آموزش: ۱۱,۰۰۰ تومان




    سایر آموزش های دکتر اسماعیل آتشپز گرگری



    مطالب مرتبط


    دیدگاه ها

    ( امتیاز ۴٫۶ از ۵ )
    4.6 از 5


    تا کنون ۵۰۹ نفراز این آموزش استفاده کرده اند و ۷ نظر ثبت شده است.
    1. 1 از 5

      :

      سلام و خداقوت خدمت شما
      فرق این آموزش با آموزشی آقای دکتر کلامی تدریس کردن چی هست؟؟
      متشکرم

    2. 3 از 5

      :

      سلام
      متشکرم بابت پاسخ گویی
      آموزشی که توسط دکتر کلامی تهیه شده را تهیه کرده ام ولی سرفصل های این آموزش را میخواستم که ظاهرا هنوز آماده نیست.
      در صورت داشتن اطلاعات راهنمایی کنید تشکر میکنم.

      • 0 از 5

        :

        در پاسخ بدری:

        با سلام،

        سرفصل های تدریس شده در این آموزش در توضیحات فوق آورده شده اند.

        موفق باشید.
        روابط عمومی فرادرس

    3. 5 از 5

      :

      با سلام
      از تلاش و پشتکار عالی و فوق العاده فرادرس برای تهیه محتوای آموزشی عمیق و با کیفیت بسیار سپاسگزارم.
      امیدوارم که همواره موفق و پیشرو باشید.
      متشکرم

    4. 5 از 5

      :

      این مجموعه آموزشی بسیار مجموعه وزین و عالی بود و دید بسیار خوبی به من داد. لطفا در شاخه های دیگر هم وارد شوید و آموزش های جدید ارائه کنید.

    5. 5 از 5

      :

      قبلا از آموزش های دیگر استفاده کرده بودم و همگی جامع و عالی بودند به همین خاطر این آموزش را نیز تهیه کردم.

    6. 0 از 5

      :

      با سلام. بنده انتخاب ویژگی با استفاده از الگوریتم های فرا ابتکاری را تهیه کردم و از آن خیلی راضی بودم. متاسفانه این را بسته را نیز بدون توجه به توضیحات نداشتن کدنویسی تهیه کردم اما خیلی برایم مفید نبود.

    7. 0 از 5

      :

      صرفا توضیحات تئوری در دانشگاه ها ارائه می شود، انتظار می رفت همانند دیگر آموزش ها مثال های عملی در قالب کد در این بسته ی اموزشی ارائه شود که متاسفانه چنین نیست.

    8. 4 از 5

      :

      با عرض سلام و خسته نباشید. آموزشی که داده می شود خوب است. لطفا اگر میشود در آموزش های در دست تهیه تان، روش های انتخاب ویژگی جدید را مورد بررسی قرار دهید مانند cattell fish یا انتخاب ویژگی مبتنی بر فیلتر بر پایه همبستگی کلوموگروف اسمرینف و روش های دیگری که در مقالات جدید ارائه می شوند. در آموزشهایتان مبنی بر انتخاب ویژگی سعی کنید دیتابیس kdd cup را مد نظر قرار دهید که دیتابیس معتبریست و هر سال مسابقاتی در زمینه data mining برگذار می کند. میدانیم که این خواسته ها زمان بر و مشکل است اما سعی کنید در آینده این مورد را در نظر داشته باشید. با تشکر از حسن نیت شما و احترامی که به نظرات می گذارید.

    9. 5 از 5

      :

      سلام و خسته نباشید و تشکر ویژه بابت آموزش عالیتون.

      دکتر آتش پز با بیانی زیبا و کامل به آموزش این بخش پرداختند. بنده پایان نامه خودم رو با کمک آموزش های جامعتون تونستم پیش ببرم و بهش انتخاب ویژگی اضافه کنم ولی ای کاش میشد در این آموزشها مثال های کاربردی تری زده بشه هرچند دکتر آتشپز این مباحث رو تکمیل نمودند. ضمنا کیفیت خیلی عالی بود و فکر میکنم حس کلاس آموزشی به دانشجویان القا میشه. امیدوارم مباحث جدیدتری ارائه بشه و همچنین راه ارتباطی با اساتید نیز فراهم بشه. از فرادرس کمال تشکررو دارم


    نظر شما در مورد این فرادرس چیست؟

    درج دیدگاه

    امتیاز شما به این آموزش:

    *



​همین امروز شروع به آموختن کنید​

آموزش انتخاب ویژگی یا Feature Selection

هزینه آموزش: ۱۱,۰۰۰ تومان



برچسب‌ها: , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,




فرادرس در رسانه ها و جشنواره ها

روزنامه ایرانیان مرکز توسعه فناوری اطلاعات و رسانه های دیجیتال روز آفرین نت استارت کنفرانس مهندسی برق ایران جشنواره وب ایران

عضویت در خبرنامه فرادرس

برای دریافت اخبار مربوط به آخرین فرادرس های منتشر شده، ایمیل خود را در کادر زیر وارد نمایید.

Please leave this field empty.

تمامی محصولات و خدمات این وبسایت، حسب مورد دارای مجوزهای لازم از مراجع مربوطه می‌باشند و فعالیت‌های این سایت تابع قوانین و مقررات جمهوری اسلامی ایران است.
فرادرس مجوز نشر دیجیتال از وزرات فرهنگ و ارشاد اسلامی logo-samandehi پرداخت آنلاین -  بانک ملت پرداخت آنلاین - بانک پارسیان پرداخت آنلاین - بانک اقتصاد نوین پرداخت آنلاین - بانک سامان