×
۳۸,۰۰۰ تومان تا ۱۶۰ هزار تومان تخفیف

آموزش مبانی انتخاب ویژگی (Feature Selection) در داده کاوی

آموزش مبانی انتخاب ویژگی (Feature Selection) در داده کاوی

تعداد دانشجو
۱,۸۰۸ نفر
مدت زمان
۱ ساعت و ۴۶ دقیقه
هزینه عادی آموزش
۳۸,۰۰۰ تومان
در طرح تخفیف
تا ۱۶۰ هزار تومان تخفیف (کسب اطلاعات بیشتر +)
محتوای این آموزش
تضمین کیفیت
۱۵ بازخورد (مشاهده نظرات)
آموزش مبانی انتخاب ویژگی (Feature Selection) در داده کاوی

در این فرادرس، در شروع بحث، مفاهیم پایه مرتبط با کاهش ابعاد (استخراج و انتخاب ویژگی) را با هم مرور خواهیم کرد. تمرکز ما در این بحث بر روی روش های انتخاب ویژگی خواهد بود و روش های استخراج ویژگی از آن جهت که در فرادرس دیگری به صورت مفصل مورد بررسی قرار گرفته اند، محور بحث نخواهند بود.

آموزش مبانی انتخاب ویژگی (Feature Selection) در داده کاوی

مدت زمان
۱ ساعت و ۴۶ دقیقه
هزینه عادی آموزش
۳۸,۰۰۰ تومان
در طرح تخفیف
تا ۱۶۰ هزار تومان تخفیف

(کسب اطلاعات بیشتر +)
محتوای این آموزش
۱۵ بازخورد (مشاهده نظرات)
مدرس
دکتر اسماعیل آتشپز گرگری

دکتری تخصصی مهندسی برق

دکتر اسماعیل آتشپز گرگری دانش آموخته دکتری مهندسی برق از دانشگاه Texas A&M است. ایشان سابقه همکاری با مراکز طراز اول بیوانفورماتیک، پردازش سیگنال های ژنومیک و کار در لبه علم و تکنولوژی این حوزه را دارند. ایشان در حال حاضر به عنوان عضو هیات علمی در دانشگاه National در ایالات متحده آمریکا به تدریس و پژوهش مشغول هستند.

توضیحات تکمیلی

انتخاب ویژگی - Feature Selection که با عناوین دیگری همانند Variable Selection و Attribute Selection و نیز Variable Subset Selection شناخته می شود، فرایند انتخاب زیردسته ای از میان دسته ویژگی ها می باشد.

توجه: در این بحث پیاده سازی عملی و کد نویسی تک تک روش ها انجام نمی شود. کدنویسی و پیاده سازی هر الگوریتم از روی توضیحات ارائه شده در این آموزش، برای افراد آشنا به برنامه نویسی به سادگی قابل انجام خواهد بود.

طبقه بندی کننده بهینه بیز و افزایش تعداد ویژگی ها

خطای کمینه بیز (Bayes Error) با افزایش تعداد ویژگی ها هیچگاه افزایش نمی یابد. شاید این موضوع این برداشت را در نگاه اول ایجاد کند که هر چه تعداد ویژگی ها بیشتر باشد، به همان میزان وضعیت بهتر است. اما نباید فراموش کنیم که کلاسیفایر بهینه بیز (Bayes Optimal Classifier) در صورت در دسترس بودن توزیع داده ها (Data Distribution) موجود می باشد. در حالی که در یک مساله عملی طبقه بندی (Classification) ما توزیع واقعی داده ها را نداریم و در نتیجه نیز کلاسیفایر بهینه بیز و خطای کمینه آن در دست نمی باشد.

پدیده Peaking و اهمیت کاهش ابعاد

بر خلاف رفتار کلاسیفایر بیز،‌ خطای کلاسیفایر طراحی شده توسط داده های واقعی رفتار متفاوتی را در حالت افزایش تعداد ویژگی ها نمایش می دهد. اگر به خاطر داشته باشید، در نتیجه پدیده پیک زدن (Peaking Phenomenon)، افزایش تعداد ویژگی ها در مواردی می تواند به افزایش خطای طبقه بندی نیز منجر شود. از این جهت است که در یک مساله عملی، بهترین تعداد ویژگی ها، بیشترین تعداد ویژگی ها نمی باشد. شکل زیر پدیده پیک زدن را نشان می دهد.

DuinPeaking1

شکل: پدیده پیکینگ - با افزایش تعداد ويژگی ها از یک نقطه به بعد، خطای طبقه بندی افزایش می یابد.

دلایل دیگر اهمیت کاهش ابعاد

پدیده Peaking به تنهایی برای نمایش دادن اهمیت استفاده از مقدار مناسب (نه کم و نه زیاد) ویژگی ها را نشان می دهد. البته این همه اهمیت داستان نیست. انتخاب ویژگی می تواند به کاهش پیچیدگی محاسباتی (هم از جهت بار اجرایی و هم ذخیره سازی) منجر شود. از سوی دیگر، کاهش ابعاد می تواند به ایجاد شناخت بهتر از داده ها نیز کمک نماید. به عنوان مثال در یک مساله دانستن ۳ ویژگی مهم که بیشترین جداسازی داده ها را ایجاد می کند، مفید خواهد بود (مثلا سه ژن عامل یک بیماری).

کاهش ابعاد:‌ استخراج ویژگی / انتخاب ویژگی

دو طبقه عمده از روش های کاهش ابعاد (Dimensionality Reduction Methods) وجود دارند.

  • استخراج ویژگی (Feature Extraction)
    • در این حالت هدف یافتن یک نگاشت از فضای ویژگی های کنونی به یک فضای با ابعاد کمتر است که در آن کمترین اتلاف اطلاعات (با در نظر گرفتن معیارهای جداپذیری کلاس ها) ایجاد می شود.
  • انتخاب ویژگی (Feature Selection)
    • انتخاب ویژگی نیز در حقیقت همان استخراج ویژگی است. با این تفاوت که نگاشت مذکور محدود می شود به انتخاب زیر مجموعه ای است مجموعه ویژگی های فضای اصلی.
آنچه در این فرادرس خواهیم دید.

در این فرادرس، در شروع بحث، مفاهیم پایه مرتبط با کاهش ابعاد (استخراج و انتخاب ویژگی) را با هم مرور خواهیم کرد. تمرکز ما در این بحث بر روی روش های انتخاب ویژگی خواهد بود و روش های استخراج ویژگی از آن جهت که در فرادرس دیگری به صورت مفصل مورد بررسی قرار گرفته اند، محور بحث نخواهند بود.

یک مساله انتخاب ویژگی، یک مساله با تعداد حالات مشخص می باشد. از این جهت با جستجوی جامع (Exhaustive Search)‌ می توان بهترین دسته از ویژگی ها را یافت. اما این کار زمان بر خواهد بود و باید روش هایی را استفاده کرد که با جستجوی کمتری به دسته ویژگی های بهینه (شبه بهینه) برسد. از این جهت در ادامه به روش های شبه بهینه (Sub-Optimal) یافتن ویژگی ها اشاره خواهیم کرد و در این راستا الگوریتم های انتخاب ويژگی زیر مورد بررسی قرار خواهند گرفت.

  • بهترین ویژگی های فردی (Best Individual d Features)
  • جستجوی مستقیم ترتیبی (Sequential Forward Search - SFS)
  • جستجوی معکوس ترتیبی (Sequential Backward Search - SBS)
  • جستجوی افزودن l، حذف r یا (Plus r Take-Away l Search)
  • جستجوی مستقیم ترتیبی تعمیم یافته (Generalized Sequential Forward Search)
  • جستجوی معکوس ترتیبی تعمیم یافته (Generalized Sequential Backward Search)
  • جستجوی شناور (Floating Search)

در انتهای این آموزش نیز به خلاصه بحث و نتیجه گیری و نکاتی برای ادامه مطالعات آتی خواهیم پرداخت.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • مقدمه - کاهش ابعاد
  • اهمیت کاهش ابعاد
  • تفاوت میان استخراج ویژگی و انتخاب ویژگی
  • بیان مساله انتخاب ویژگی
  • تفاوت روش های فیلتر (Filter) و Wrapper
  • پیچیدگی محاسباتی مساله انتخاب ویژگی
  • بهترین ویژگی های فردی (Best Individual d Features)
  • جستجوی مستقیم ترتیبی (Sequential Forward Search - SFS)
  • جستجوی معکوس ترتیبی (Sequential Backward Search - SBS)
  • جستجوی افزودن l، حذف r یا (Plus r Take-Away l Search)
  • جستجوی مستقیم ترتیبی تعمیم یافته (Generalized Sequential Forward Search)
  • جستجوی معکوس ترتیبی تعمیم یافته (Generalized Sequential Backward Search)
  • جستجوی شناور (Floating Search)
  • خلاصه بحث و نتیجه گیری

پیش نیاز


آنچه در این آموزش خواهید دید:

آموزش ویدئویی مورد تائید فرادرس
فایل PDF یادداشت‌ های ارائه مدرس




پیش نمایش‌ها

۱. آموزش انتخاب ویژگی یا Feature Selection - بخش رایگان

توجه: اگر به خاطر سرعت اینترنت، کیفیت نمایش پایین‌تر از کیفیت HD ویدئو اصلی باشد؛ می‌توانید ویدئو را دانلود و مشاهده کنید دانلود پیش‌نمایش - حجم: ۳۶ مگابایت -- (کلیک کنید +))

این آموزش شامل ۱ جلسه ویدئویی با مجموع ۱ ساعت و ۴۶ دقیقه است.
با تهیه این آموزش، می‌توانید به همه بخش‌ها و جلسات آن، دسترسی داشته باشید.

راهنمای سفارش آموزش‌ها

آیا می دانید که تهیه یک آموزش از فرادرس و شروع یادگیری چقدر ساده است؟

(راهنمایی بیشتر +)

در مورد این آموزش یا نحوه تهیه آن سوالی دارید؟
  • با شماره تلفن واحد مخاطبین ۵۷۹۱۶۰۰۰ (پیش شماره ۰۲۱) تماس بگیرید. - تمام ساعات اداری
  • با ما مکاتبه ایمیلی داشته باشید (این لینک). - میانگین زمان پاسخ دهی: ۳۰ دقیقه


اطلاعات تکمیلی

نام آموزش آموزش مبانی انتخاب ویژگی (Feature Selection) در داده کاوی
ناشر فرادرس
شناسه اثر ۸–۱۲۴۵۲–۰۵۲۳۵۲ (ثبت شده در مرکز رسانه‌های دیجیتال وزارت ارشاد)
کد آموزش FVML9404
مدت زمان ۱ ساعت و ۴۶ دقیقه
زبان فارسی
نوع آموزش آموزش ویدئویی (نمایش آنلاین + دانلود)
حجم دانلود ۱۱۹ مگابایت (کیفیت ویدئو HD با فشرده سازی انحصاری فرادرس)


تضمین کیفیت و گارانتی بازگشت هزینه
توجه: کیفیت این آموزش توسط فرادرس تضمین شده است. در صورت عدم رضایت از آموزش، به انتخاب شما:
  • ۱۰۰ درصد مبلغ پرداختی در حساب کاربری شما شارژ می‌شود.
  • و یا ۷۰ درصد مبلغ پرداختی به حساب بانکی شما بازگشت داده می‌شود.


آموزش‌های پیشنهادی برای شما



نظرات

تا کنون ۱,۸۰۸ نفر از این آموزش استفاده کرده اند و ۱۵ نظر ثبت شده است.
یاسمن
یاسمن

برای پروژم نیاز به Feature Selection داشتم که ببینم چه روش هایی هست.

طاهر
طاهر

فقط تئوری بود و خیلی به نظرم این فرمولی نوشتن، نمی تونه به کسی کمک کنه یا کاربردی باشه.

زهرا
زهرا

سلکت کردم و نگاه کردم، جای تشکر داره سایت خوب فرادرسو کادر اجرایی این سایت.

زهرا
زهرا

سلام و خسته نباشيد
ممنون از دکتر آتشپز که با بياني بسيار شيوا اين آموزش رو فرآهم کردند. لطفا در مورد روشهاي استخراج ويژگي هم آموزش قرار دهند.

محمد زهری
محمد زهری

سلام و خسته نباشید و تشکر ویژه بابت آموزش عالیتون.

دکتر آتش پز با بیانی زیبا و کامل به آموزش این بخش پرداختند. بنده پایان نامه خودم رو با کمک آموزش های جامعتون تونستم پیش ببرم و بهش انتخاب ویژگی اضافه کنم ولی ای کاش میشد در این آموزشها مثال های کاربردی تری زده بشه هرچند دکتر آتشپز این مباحث رو تکمیل نمودند. ضمنا کیفیت خیلی عالی بود و فکر میکنم حس کلاس آموزشی به دانشجویان القا میشه. امیدوارم مباحث جدیدتری ارائه بشه و همچنین راه ارتباطی با اساتید نیز فراهم بشه. از فرادرس کمال تشکررو دارم

سلجوقی
سلجوقی

با عرض سلام و خسته نباشید. آموزشی که داده می شود خوب است. لطفا اگر میشود در آموزش های در دست تهیه تان، روش های انتخاب ویژگی جدید را مورد بررسی قرار دهید مانند cattell fish یا انتخاب ویژگی مبتنی بر فیلتر بر پایه همبستگی کلوموگروف اسمرینف و روش های دیگری که در مقالات جدید ارائه می شوند. در آموزشهایتان مبنی بر انتخاب ویژگی سعی کنید دیتابیس kdd cup را مد نظر قرار دهید که دیتابیس معتبریست و هر سال مسابقاتی در زمینه data mining برگذار می کند. میدانیم که این خواسته ها زمان بر و مشکل است اما سعی کنید در آینده این مورد را در نظر داشته باشید. با تشکر از حسن نیت شما و احترامی که به نظرات می گذارید.

ali
ali

صرفا توضیحات تئوری در دانشگاه ها ارائه می شود، انتظار می رفت همانند دیگر آموزش ها مثال های عملی در قالب کد در این بسته ی اموزشی ارائه شود که متاسفانه چنین نیست.

الناز ایل بیگی
الناز ایل بیگی

با سلام. بنده انتخاب ویژگی با استفاده از الگوریتم های فرا ابتکاری را تهیه کردم و از آن خیلی راضی بودم. متاسفانه این را بسته را نیز بدون توجه به توضیحات نداشتن کدنویسی تهیه کردم اما خیلی برایم مفید نبود.

رضا هادی
رضا هادی

این مجموعه آموزشی بسیار مجموعه وزین و عالی بود و دید بسیار خوبی به من داد. لطفا در شاخه های دیگر هم وارد شوید و آموزش های جدید ارائه کنید.

الیاس نوبری
الیاس نوبری

قبلا از آموزش های دیگر استفاده کرده بودم و همگی جامع و عالی بودند به همین خاطر این آموزش را نیز تهیه کردم.

برچسب‌ها:
attribute selection | Best Individual d Features | Dimensionality Reduction | Factor analysi | Feature Extraction | Feature Selection | feature selection algorithm | feature selection algorithms | feature selection classification | feature selection clustering | feature selection matlab | feature selection method | feature selection methods | feature selection regression | feature selection svm | Feature Subset Selection | Floating Search | Generalized Sequential Backward Search | Generalized Sequential Forward Search | image feature selection | model construction | Plus r Minus l Search | predictors | selecting a subset of relevant features | Sequential Backward Search - SBS | Sequential Forward Search - SFS | variable selection | variable subset selection | variables | weka feature selection | استخراج ویژگی | استخراج ویژگی در تصاویر | الگوریتم انتخاب ویژگی | انتخاب زیردسته ویژگی ها | انتخاب متغیر | انتخاب ويژگی در تصاویر | انتخاب ویژگی در طبقه بندی کننده | انتخاب ویژگی های مرتبط | بهترین ویژگی های فردی | جستجوی افزودن l، حذف r | جستجوی شناور | جستجوی مستقیم ترتیبی | جستجوی مستقیم ترتیبی تعمیم یافته | جستجوی معکوس ترتیبی | جستجوی معکوس ترتیبی تعمیم یافته | روش های انتخاب ویژگی | روش های فیلتر Filter و Wrapper | کاهش ابعاد | ویژگیاستخراج | یافتن ژن های عامل بیماری
مشاهده بیشتر مشاهده کمتر

×
فهرست جلسات ۱ جلسه ویدئویی