×
۹۰,۰۰۰ تومان تا ۱۵۰ هزار تومان تخفیف

آموزش شبکه های عصبی مصنوعی در متلب

آموزش شبکه های عصبی مصنوعی در متلب

تعداد دانشجو
۱۰,۹۸۵ نفر
مدت زمان
۲۸ ساعت و ۲ دقیقه
هزینه عادی آموزش
۹۰,۰۰۰ تومان
در طرح تخفیف
تا ۱۵۰ هزار تومان تخفیف (کسب اطلاعات بیشتر +)
محتوای این آموزش
تضمین کیفیت
۱۲۳ بازخورد (مشاهده نظرات)
آموزش شبکه های عصبی مصنوعی در متلب

مجموعه فرادرس های شبکه های عصبی مصنوعی در متلب، مجموعه ای از هفت فرادرس جامع درباره شبکه های عصبی مصنوعی است. این بسته آموزشی بی نظیر، در مجموع شامل تقریبا ۲۷ ساعت برنامه آموزشی تخصصی است، که تمام بخش های آن به صورت تئوری و عملی ارائه شده اند.

آموزش شبکه های عصبی مصنوعی در متلب

مدت زمان
۲۸ ساعت و ۲ دقیقه
هزینه عادی آموزش
۹۰,۰۰۰ تومان
در طرح تخفیف
تا ۱۵۰ هزار تومان تخفیف

(کسب اطلاعات بیشتر +)
محتوای این آموزش
۱۲۳ بازخورد (مشاهده نظرات)
مدرس
دکتر سید مصطفی کلامی هریس

دکتری تخصصی مهندسی برق - کنترل

دکتر سید مصطفی کلامی هریس یکی از بنیانگذاران و مدیران کنونی فرادرس و از اعضای هیات علمی آن است. ایشان دارای مدرک دکترای تخصصی در رشته مهندسی برق - کنترل، از دانشگاه صنعتی خواجه نصیرالدین طوسی (قطب علمی کنترل صنعتی) هستند و زمینه های پژوهشی و کاری تخصصی ایشان، در حوزه های مختلف مهندسی کنترل و سیستم های هوشمند بوده است.

توضیحات تکمیلی

شبکه های عصبی مصنوعی (Artificial Neural Networks) یا به اختصار ANN ابزارهایی مهم در میان مباحث هوش محاسباتی (Computational Intelligence) به حساب می آیند. انواع مختلفی از شبکه های عصبی مصنوعی معرفی شده اند که عمدتا در کاربردهایی همچون: طبقه بندی، خوشه بندی، تشخیص الگو، مدل سازی و تقریب توابع، کنترل، تخمین و بهینه سازی مورد استفاده قرار می گیرند.

بسته زرین آموزشی شبکه های عصبی مصنوعی در متلب (MATLAB)، مجموعه ای از هفت مجموعه آموزشی جامع درباره شبکه های عصبی مصنوعی است. این بسته آموزشی بی نظیر، در مجموع شامل بیش از ۲۷ ساعت برنامه آموزشی تخصصی است، که تمام بخش های آن به صورت تئوری و عملی ارائه شده اند.

درس یکم: شبکه های عصبی پرسپترون چند لایه (Multilayer Perceptron) یا MLP در متلب

در این فرادرس قصد داریم آموزش جامع شبکه های عصبی پرسپترون چند لایه یا MLP در متلب را معرفی کنیم که در آن علاوه بر مرور تئوری های مربوط به شبکه های عصبی MLP، پیاده سازی عملی این نوع شبکه ها در محیط متلب (MATLAB) نیز به طور کامل مورد بررسی قرار گرفته است. همچنین مباحث عمیق تئوری و عملی، در زمینه تقسیم بندی داده ها، تحلیل عملکرد شبکه، روش های پیش پردازش اطلاعات و ده ها مبحث تخصصی دیگر نیز در این فیلم مورد بحث و بررسی قرار گرفته اند. برنامه هایی که در این فیلم پیاده سازی شده اند به حل مسائل تخمین و تقریب توابع (Function Approximation) و پیش بینی سری های زمانی (Time Series Prediction) اختصاص دارند.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • مروری بر عملکرد سیستم عصبی طبیعی
  • تعریف ریاضی یک نورون مصنوعی با یک مثال بسیار ساده
  • تعمیم تعریف نورون و استفاده از آن برای مدل سازی
  • شبکه های عصبی پرسپترون چندلایه یا MLP و لزوم استفاده از آن ها
  • بررسی مفاهیم مرتبط با آموزش شبکه های عصبی
  • تقسیم بندی داده
    • روش ها و دلایل
  • پیاده سازی شبکه عصبی در متلب با استفاده از رابط های گرافیکی (GUI) تولباکس شبکه عصبی
  • پیاده سازی شبکه عصبی MLP با تولباکس
  • حل یک مساله مدل سازی ساده
  • روش های پیش پردازش اطلاعات
    • داده های بی مقدار (Missing Values)
    • داده های پرت (Outlier)
    • نرمال سازی (Normalization)
    • سفید سازی (Whitening)
    • روش های کاهش بعد و کارکرد آن ها
    • نگاشت های غیرخطی
  • مروری بر کاربردهای مختلف شبکه های عصبی مصنوعی
  • خواص و تنظیمات شبکه های عصبی در متلب (سفارشی سازی ها)
  • بهبود عملکرد برنامه های نوشته شده
  • تبدیل مساله پیش بینی سری زمانی به یک مساله تقریب تابع (مدل سازی)
  • پیاده سازی شبکه عصبی برای پیش بینی سری زمانی آشوبی مکی گلاس (Mackey Glass)
  • مدل سازی ارتباط میان گشتاور، سرعت، نرخ سوخت مصرفی و میزان تولید اکسید نیتروژن در یک موتور خودرو
  • شیوه های نمایش گرافیکی نتایج به دست آمده از فرایند طراحی شبکه عصبی
  • جمع بندی و نتیجه گیری های نهایی

درس دوم: شبکه های عصبی شعاعی پایه (Radial Basis Function) یا RBF در متلب

در این فرادرس قصد داریم فیلم آموزشی جامع شبکه های عصبی RBF در متلب را معرفی کنیم که در آن علاوه بر مرور تئوری های مربوط به شبکه های عصبی مبتنی بر توابع شعاعی پایه یا RBF، پیاده سازی عملی این نوع شبکه ها در محیط متلب نیز مورد بررسی قرار گرفته است. برنامه هایی که در این فیلم پیاده سازی شده اند به حل مسائل تخمین و تقریب توابع (Function Approximation) و پیش بینی سری های زمانی (Time - Series Prediction) اختصاص دارند.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • مشکلات موجود با تفکیک کننده ها و نورون های خطی
  • بیان ایده تفکیک غیرخطی با یک مثال ساده
  • تعریف توابع شعاعی پایه و نورون های RBF
  • ساختار عمومی یک شبکه عصبی RBF
  • بیان قضیه میچلی (Micchelli) و شرایط تعریف مناسب یک تابع RBF
  • شیوه های انتخاب مراکز توابع شعاعی
    • انتخاب مراکز ثابت
    • انتخاب با روش های غیرنظارت شده، مانند الگوریتم k-Means یا Lloyd
    • انتخاب با یادگیری نظارت شده
    • ارتباط میان شبکه عصبی RBF و سیستم فازی تاکاگی - سوگنو (Takagi - Sugeno) یا TSK
  • پیاده سازی RBF در محیط متلب با استفاده از توابع newrb و newrbe
  • تنظیم پارامترهای شبکه عصبی RBF
  • استفاده از شبکه عصبی RBF برای تقریب و درون یابی توابع
  • استفاده از شبکه عصبی RBF برای پیش بینی سری زمانی
  • جمع بندی و نتیجه گیری های نهایی

درس سوم: ماشین های بردار پشتیبان (Support Vector Machine) یا SVM در متلب

در این فرادرس قصد داریم آموزش جامع ماشین های بردار پشتیبان یا SVM در متلب را معرفی کنیم که در آن علاوه بر مرور تئوری ها مربوط به ماشین های بردار پشتیبان یا SVM، پیاده سازی عملی این نوع شبکه ها در محیط متلب نیز به طور کامل مورد بررسی قرار گرفته است. برنامه هایی که در این آموزش پیاده سازی شده اند به حل مسائل طبقه بندی باینری (Binary Classification)، تخمین و تقریب توابع (Function Approximation) و پیش بینی سری های زمانی (Time - Series Prediction) اختصاص دارند.

ماشین بردار پشتیبان (Support Vector Machine) یا به اختصار SVM نوع خاصی از شبکه های عصبی هستند که بر خلاف سایر انواع شبکه عصبی مانند: MLP و RBF به جای کمینه کردن خطا، اقدام به کمینه کردن ریسک عملیاتی طبقه بندی یا مدل سازی می کند. این ابزار، بسیار قدرتمند است و در زمینه های مختلفی چون طبقه بندی، خوشه بندی و مدل سازی (رگرسیون) می تواند مورد استفاده قرار بگیرد.

در این آموزش، سه الگوریتم مهم از میان ماشین های بردار پشتیبان مورد بررسی قرار گرفته اند:

  • ماشین بردار پشتیبان پایه برای طبقه بندی باینری یا SVM
  • کلاسترینگ بردار پشتیبان (Support Vector Clustering) یا به اختصار SVC
  • رگرسیون بردار پشتیبان (Support Vector Regression) یا به اختصار SVR

رویکردهای ارائه شده در این آموزش بسیار فراگیر و عمومی هستند و می توان از نکات تئوری و عملی بیان شده برای حل سایر مسائل کاربردی استفاده نمود.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • توضیح تفاوت های اساسی SVM با سایر انواع شبکه عصبی
  • بیان ریاضی ریسک عملیاتی برای طبقه باینری داده ها
  • استخراج روابط اساسی SVM به صورت یک مساله بهینه سازی درجه دو یا QP
  • تبدیل حالت حاشیه سخت (Hard Margin) به حالت حاشیه نرم (Soft Margin)
  • پیاده سازی عملی SVM باینری در محیط متلب
  • شیوه استفاده از تابع quadprog برای حل مسائل بهینه سازی درجه ۲ (Quadratic Programming)
  • استفاده از Kernel Trick برای اعمال SVM در فضای غیرخطی
  • بررسی انواع هسته ها یا Kernel ها
  • پیاده سازی SVM غیرخطی در محیط متلب با استفاده از Kernel Trick
  • استفاده از شبکه عصبی RBF برای پیش بینی سری زمانی
  • استفاده از توابع svmtrain و svmclassify از تولباکس بیوانفورماتیک (Bioinformatics Toolbox)
  • بررسی مبانی تئوری کلاسترینگ بردار پشتیبان یا SVC
  • توصیف ریسک در مسائل رگرسیون و مدل سازی
  • فرمول بندی رگرسیون بردار پشتیبان یا SVR و استخراج مدل QP
  • تعمیم به حالت غیرخطی با استفاده از Kernel Trick
  • پیاده سازی SVR در متلب برای تقریب تابع
  • پیاده سازی SVR برای پیش بینی سری زمانی
  • جمع بندی و نتیجه گیری های نهایی

درس چهارم: یادگیری غیرنظارت شده و خوشه بندی با الگوریتم k-Means

در این پست قصد داریم آموزش یادگیری غیرنظارت شده و خوشه بندی با الگوریتم k-Means در متلب را معرفی کنیم که در آن علاوه بر مرور تئوری ها مربوط به یادگیری غیرنظارت شده و مساله خوشه بندی (Clustering) و الگوریتم k-Means، پیاده سازی عملی این الگوریتم و حل مسائل خوشه بندی (کلاسترینگ) در محیط متلب نیز به طور کامل مورد بررسی قرار گرفته است. در برنامه های متعددی که در این فیلم آموزشی پیاده سازی شده است، ویژگی های مختلف تابع kmeans در متلب و نمایش نتایج حاصله را مورد بررسی دقیق قرار گرفته اند.

رویکردهای ارائه شده در این آموزش بسیار فراگیر و عمومی هستند و می توان از نکات تئوری و عملی بیان شده برای حل سایر مسائل کاربردی استفاده نمود. مطالب و مباحث این آموزش به زبان فارسی روان و توسط دکتر سید مصطفی کلامی هریس (فارغ التحصیل دکترای مهندسی برق - کنترل از دانشگاه صنعتی خواجه نصیرالدین طوسی) ارائه شده است.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • مروری بر مبانی یادگیری ماشینی و انواع آن
  • یادگیری نظارت شده
  • یادگیری غیر نظارت شده
  • یادگیری تقویتی
  • مبانی خوشه بندی (Clustering)
  • توصیف ریاضی مساله خوشه بندی به صورت مساله بهینه سازی
  • الگوریتم k-Means (الگوریتم لوید (Lloyd’s Algorithm))
  • خوشه بندی با استفاده از متلب
  • حل مسائل خوشه بندی در متلب و نمایش نتایج حاصل

درس پنجم: شبکه های عصبی رقابتی و نگاشت خود سازمان ده (Self - Organization Map) یا SOM

در این پست قصد داریم آموزش جامع شبکه های عصبی رقابتی و نگاشت خود سازمان ده یا SOM را معرفی کنیم که در آن علاوه بر مرور تئوری ها مربوط به شبکه های عصبی رقابتی و نگاشت های خود سازمان ده، کاربردهای عملی مربوط به این نوع از شبکه عصبی غیرنظارت شده در حل مسائل مختلفی نظیر: خوشه بندی و کاهش ابعاد مورد بحث و بررسی قرار گرفته است. برنامه های مربوط به این شبکه های عصبی در آموزش به صورت گام به گام پیاده سازی شده اند.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • مبانی شبکه های عصبی رقابتی
  • سیاست های مختلف مورد استفاده در شبکه های عصبی رقابتی
  • بررسی ساختار قشر مغز (Cerebral Cortex) و ارتباط آن با مفاهیم یادگیری رقابتی
  • شیوه کارکرد نگاشت خود سازمان ده (Self - Organazing Map) یا به اختصار SOM
  • معرفی و بررسی قانون یادگیری هب (Hebbian Learning Rule)
  • معرفی و بررس قانون یادگیری کوهونن (Kohenen Learning Rule)
  • تطبیق پذیری در شبکه های عصبی رقابتی
  • پیاده سازی لایه رقابتی در متلب با استفاده از تابع competelayer
  • حل مساله خوشه بندی با استفاده از شبکه عصبی رقابتی و تابع competelayer
  • کلاسترینگ در جعبه ابزار شبکه عصبی متلب یا nctool
  • پیاده سازی نگاشت خود سازمان ده یا SOM ساده با استفاده از nctool
  • تفسیر نمودارهای خروجی ارائه شده توسط nctool
  • بررسی توپولوژی های قابل استفاده در ساختار SOM در متلب
  • خوشه بندی با استفاده از شبکه عصبی SOM در متلب
  • پیاده سازی SOM با استفاده از m-file در متلب
  • مقدمات کاهش ابعاد و مدل سازی با استفاده از SOM
  • بررسی شباهت ها و تفاوت موجود میان شبکه های عصبی رقابتی و الگوریتم k-Means

درس ششم: تحلیل مولفه اساسی (Principal Component Analysis) یا PCA

در این فرادرس قصد داریم آموزش تحلیل مولفه اساسی یا PCA در متلب را معرفی کنیم که در آن علاوه بر مرور تئوری ها مربوط به روش تحلیل مولفه اساسی (Principal Component Analysis) یا PCA، نحوه پیاده سازی عملی آن در محیط متلب، حل مسائل کاهش ابعاد، انتخاب و استخراج ویژگی مورد بررسی واقع شده است. تمامی مراحل پیاده سازی انجام شده در این آموزش با ارائه توضیحات کامل تئوری و به صورت گام به گام انجام شده است.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • بررسی ارتباط میان PCA و تجزیه مقادیر تکین (Singular Value Decomposition) یا SVD
  • مفهوم مولفه اساسی و کاربرد آن در استخراج ویژگی و کاهش ابعاد
  • مفهوم پروب (حسگر یا معیار) واریانس (Variance Perobe) و نقش آن در تفکیک پذیری
  • بیان هندسی و جبر خطی برای بیشینه سازی واریانس و تفکیک پذیری
  • ارتباط میان مقادیر ویژه، بردارهای ویژه، مقادیر تکین و بیشینه سازی واریانس تفکیک
  • پیاده سازی گام به گام و عملی PCA در متلب
  • نمایش جهت های ویژه و مولفه های اساسی داده ها
  • نمایش میزان تفکیک پذیری داده ها با انتخاب هر یک از ورودی ها
  • بیان ریاضی PCA به صورت فیلتر ویژه (Eigenfilter) برای داده های با حجم بالا
  • قانون یادگیری اوجا (Oja Learning Rule)
  • مقدمه ای بر PCA غیرخطی
  • معرفی و بررسی الگوریتم Kernel PCA برای کاهش ابعاد غیرخطی با استفاده از Kernel Trick

درس هفتم: شبکه های عصبی هاپفیلد (Hopfield Neural Network)

در این فرادرس قصد داریم آموزش شبکه های عصبی هاپفیلد (Hopfield Neural Network) در متلب را معرفی کنیم که در آن علاوه بر مرور مبانی تئوری شبکه های عصبی هاپفیلد (Hopfield) و ارتباط آن با نظریه سیستم های دینامیکی غیرخطی، پیاده سازی عملی این نوع از شبکه عصبی برای حل مساله بازشناسی الگو و تشخیص کاراکتر (Character Recognition) مورد بحث و بررسی قرار گرفته است. در ادامه، کاربرد این نوع از شبکه های عصبی در حل مسائل بهینه سازی ترکیباتی (Combinatorial) مانند: مساله فروشنده دوره گرد (Traveling Salesman Problem) یا TSP مورد بررسی واقع شده است. ضمنا، ماشین بولتزمان به عنوان یک نسخه تصادفی از شبکه عصبی هاپفیلد نیز در این فیلم آموزشی معرفی شده است.

فهرست سرفصل ها و رئوس مطالب مطرح شده در این مجموعه آموزشی، در ادامه آمده است:
  • مبانی تئوری سیستم های دینامیکی
  • مروری بر مفاهیم اساسی نقاط تعادل و نقش آن ها در تحلیل عملکرد سیستم های دینامیکی
  • معرفی و بررسی قانون لیاپانوف (Lypunov) برای تحلیل پایداری سیستم های دینامیکی
  • ارتباط شبکه عصبی هاپفیلد (Hopfield Neural Network) با نظریه سیستم های دینامیکی غیرخطی
  • بررسی ساختار و شیوه عملکرد شبکه عصبی هاپفیلد
  • رویکردهای طراحی شبکه های عصبی هاپفیلد
  • طراحی شبکه هاپفیلد با استفاده از تابع newhop در متلب
  • نمایش نتایج و ناحیه جذب (Domain of Attraction) برای یک شبکه هاپفیلد
  • تعریف مساله شناسایی الگوی یک کاراکتر (Character Recognition) به صورت یک مساله یادگیری غیرنظارت شده
  • پیاده سازی گام به گام برنامه جامع بازشناسی کاراکتر (الگو) با استفاده از شبکه عصبی هاپفیلد در متلب
  • نمایش مرحله به مرحله همگرایی در شبکه هاپفیلد
  • معرفی ماشین بولتزمان (Boltzman Machine) و ارتباط آن با شبکه عصبی هاپفیلد
  • ارتباط ماشین بولتزمان (Boltzmann) با شبیه سازی تبرید (Simulated Annealing) یا SA
  • حل مسائل بهینه سازی ترکیباتی (Combinatorial) با استفاده از شبکه هاپفیلد
  • معرفی چگونگی حل مساله TSP (فروشنده دوره گرد) با استفاده از شبکه هاپفیلد

آنچه در این آموزش خواهید دید:

برنامه آموزشی مورد تائید فرادرس
فایل برنامه ها و پروژه های اجرا شده
فایل PDF یادداشت‌ های ارائه مدرس

نرم افزارهای مرتبط با آموزش

MATLAB 2012a




پیش نمایش‌ها

۱. مبانی تئوری شبکه های عصبی پرسپترون چند لایه یا MLP

توجه: اگر به خاطر سرعت اینترنت، کیفیت نمایش پایین‌تر از کیفیت HD ویدئو اصلی باشد؛ می‌توانید ویدئو را دانلود و مشاهده کنید دانلود پیش‌نمایش - حجم: ۴۳ مگابایت -- (کلیک کنید +))

۲. طراحی شبکه های عصبی پرسپترون چند لایه یا MLP در متلب (الف)

توجه: اگر به خاطر سرعت اینترنت، کیفیت نمایش پایین‌تر از کیفیت HD ویدئو اصلی باشد؛ می‌توانید ویدئو را دانلود و مشاهده کنید دانلود پیش‌نمایش - حجم: ۴۶ مگابایت -- (کلیک کنید +))

۳. طراحی شبکه های عصبی پرسپترون چند لایه یا MLP در متلب (ب)

توجه: اگر به خاطر سرعت اینترنت، کیفیت نمایش پایین‌تر از کیفیت HD ویدئو اصلی باشد؛ می‌توانید ویدئو را دانلود و مشاهده کنید دانلود پیش‌نمایش - حجم: ۱۴۰ مگابایت -- (کلیک کنید +))

۴. مبانی تئوری شبکه‌ های عصبی RBF

توجه: اگر به خاطر سرعت اینترنت، کیفیت نمایش پایین‌تر از کیفیت HD ویدئو اصلی باشد؛ می‌توانید ویدئو را دانلود و مشاهده کنید دانلود پیش‌نمایش - حجم: ۵۷ مگابایت -- (کلیک کنید +))

۵. پیاده سازی و طراحی شبکه‌ های عصبی RBF در متلب
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۶. مباحث تئوری و عملی ماشین‌ های بردار پشتیبان یا SVM
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۷. کلاسترینگ بردار پشتیبان یا SVC
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۸. مباحث تئوری و عملی رگرسیون بردار پشتیبان یا SVR
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۹. مبانی یادگیری غیر نظارت شده
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۰. خوشه بندی با استفاده از الگوریتم k-Means
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۱. شبکه های عصبی رقابتی و نگاشت خود سازمان ده یا SOM (الف)
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۲. شبکه های عصبی رقابتی و نگاشت خود سازمان ده یا SOM (ب)
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۳. تحلیل مولفه اساسی یا PCA (الف)
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۴. تحلیل مولفه اساسی یا PCA (ب)
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۵. شبکه های عصبی هاپفیلد یا Hopfield Neural Network (الف)
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
۱۶. شبکه های عصبی هاپفیلد یا Hopfield Neural Network (ب)
مشاهده این پیش‌نمایش، نیازمند عضویت و ورود به سایت (+) است.
این آموزش شامل ۱۶ جلسه ویدئویی با مجموع ۲۸ ساعت و ۲ دقیقه است.
با تهیه این آموزش، می‌توانید به همه بخش‌ها و جلسات آن، دسترسی داشته باشید.

راهنمای سفارش آموزش‌ها

آیا می دانید که تهیه یک آموزش از فرادرس و شروع یادگیری چقدر ساده است؟

(راهنمایی بیشتر +)

در مورد این آموزش یا نحوه تهیه آن سوالی دارید؟
  • با شماره تلفن واحد مخاطبین ۵۷۹۱۶۰۰۰ (پیش شماره ۰۲۱) تماس بگیرید. - تمام ساعات اداری
  • با ما مکاتبه ایمیلی داشته باشید (این لینک). - میانگین زمان پاسخ دهی: ۳۰ دقیقه


اطلاعات تکمیلی

نام آموزش آموزش شبکه های عصبی مصنوعی در متلب
ناشر فرادرس
شناسه اثر ۸–۱۲۴۵۲–۰۴۳۰۴۳ (ثبت شده در مرکز رسانه‌های دیجیتال وزارت ارشاد)
کد آموزش MVRNN9102
مدت زمان ۲۸ ساعت و ۲ دقیقه
زبان فارسی
نوع آموزش آموزش ویدئویی (نمایش آنلاین + دانلود)
حجم دانلود ۲ گیگابایت (کیفیت ویدئو HD با فشرده سازی انحصاری فرادرس)


تضمین کیفیت و گارانتی بازگشت هزینه
توجه: کیفیت این آموزش توسط فرادرس تضمین شده است. در صورت عدم رضایت از آموزش، به انتخاب شما:
  • ۱۰۰ درصد مبلغ پرداختی در حساب کاربری شما شارژ می‌شود.
  • و یا ۷۰ درصد مبلغ پرداختی به حساب بانکی شما بازگشت داده می‌شود.





نظرات

تا کنون ۱۰,۹۸۵ نفر از این آموزش استفاده کرده اند و ۱۲۳ نظر ثبت شده است.
علی
علی

هر چی اموزش نیاز داشتید دیدید مدرسش دکتر کلامی هستند شک نکنید برای تهیه اش ! واقعا بسیار مسلط هستند به بحث ها

Mostafa
Mostafa

آموزش ها بسیار عالی و مفید فایده واقع شدند.

از جناب دکتر کلامی و تیم خوبشون کمال تشکر را دارم

پيمان پرند
پيمان پرند

فوق العاده بود

صدرا
صدرا

آموزش خوب و کاملی بود . من راضی بودم .

ارشیا
ارشیا

به نظر من بهترین استاد فرادرس هست ایشون. کاش این مبحث ها برای نرم افزار پایتون رو هم ارائه بدن

صدرا
صدرا

این آموزش ها سطح بالا هستن

ایمان
ایمان

کدنویسشون بسیار جالب و جذاب هستش و به درستی می تونی متوجه مطالبی که ایشون تدریس میکنند بشید مفهومی هستند.

محمد طاهر
محمد طاهر

خیلی سخت بود این آموزش. انگار سطحش بالا بود. یا شایدم سطح علمی من پایین بود. خیلی قابل فهم نبود.

رسول
رسول

آقای دکتر هریس خیلی خوبن. دوره خیلی کامل هست و سرفصل های درس مشخصی هم داره، استاد قاعدتا سواد خیلی بالایی دارند.

سمیرا
سمیرا

مدرس یکی از استاتید بزرگ هستند همه ی سرفصل ها رو به خوبی پوشش دادند و موردی رو از قلم ننداختند.

برچسب‌ها:
ANN | Artificial Neural Networks | Artifiial Neural Networks | Binary Classification | Bioinformatics Toolbox | Boltzman Machine | Cerebral Cortex | Character Recognition | Clustering | Combinatorial | competelayer | Computational Intelligence | Domain of Attraction | Eigenfilter | Function Approximation | Hard Margin | Hebb | Hebbian Learning Rule | Hopfield Network | Hopfield Neural Network | Hopfield Neural Network چیست؟ | Kernel PCA | Kernel Trick | Kohenen Learning Rule | lioyd | Lloyd | Lloyd's Algorithm | Lloyd’s Algorithm | Lypunov | Mackey Glass | Mackey-Glass | MATLAB | MATLAB software | Micchelli | Missing Values | MLP | MLP در متلب | Multilayer perceptron | nctool | Neuroscience | normalization | Oja Learning Rule | Outlier | PCA | PCA چیست؟ | PCA در متلب | Principal Component Analysis | Quadratic Programming | Radial Basis Function | RBF | RBF در متلب | sa | Self Organization Map | Self-Organazing Map | Self-Organizing Maps | Simulated Annealing | Singular Value Decomposition | sobel | Soft Margin | SOM | SOM چیست؟ | Support Vector Clustering | Support Vector Machine | Support Vector Regression | SVC | SVD | SVM | SVM در متلب | SVR | Takagi - Sugeno | Time series prediction | Time-Series Prediction | Traveling Salesman Problem | TSK | TSP | Variance Perobe | Variance Probe | Whitening | آموزش mlp | آموزش PCA | آموزش SOM | آموزش svm | آموزش svm در متلب | آموزش پرسپترون | آموزش پرسپترون چند لایه در متلب | آموزش تحلیل مولفه اساسی | آموزش خوشه بندی با k-Means، آموزش Clustering با الگوریتم k-Mean | آموزش شبکه عصبی | آموزش شبکه عصبی Hopfield | آموزش شبکه عصبی رقابتی | آموزش شبکه های عصبی پرسپترون چند لایه | آموزش شبکه های عصبی شعاعی پایه | آموزش شبکه های عصبی مصنوعی | آموزش کلاسترینگ با k-Mean | آموزش ماشین بردار پشتیبان | آموزش متلب | آموزش نگاشت خود سازمان ده | آموزش یادگیری غیر نظارت شده | آنالیز مولفه اساسی | ابزار nctool | ارتباط شبکه عصبی هاپفیلد با نظریه سیستم های دینامیکی غیرخطی | ارتباط ماشین بولتزمان با شبیه سازی تبرید | ارتباط میان PCA و تجزیه مقادیر تکین | استخراج مدل QP | استخراج ویژگی | استفاده از Kernel Trick برای اعمال SVM در فضای غیرخطی | استفاده از تابع quadprog برای حل مسائل بهینه سازی درجه ۲ | استفاده از شبکه عصبی RBF برای پیش بینی سری زمانی | استفاده از شبکه عصبی RBF برای تقریب و درون یابی توابع | الگوریتم k-Means | الگوریتم Kernel PCA | الگوریتم Kernel PCA برای کاهش ابعاد غیرخطی با استفاده از Kernel Trick | الگوریتم Lloyd | الگوریتم لوید | انتخاب با روش های غیرنظارت شده | انتخاب با یادگیری نظارت شده | انتخاب مراکز توابع شعاعی | انتخاب مراکز ثابت | انتخاب ویژگی | ایده تفکیک غیرخطی | بازشناسی الگو | بازشناسی کاراکتر | بردار پشتیبان | بردارهای ویژه | بررسی ساختار قشر مغز | بررسی قانون لیاپانوف | بررسی قانون لیاپانوف برای تحلیل پایداری سیستم های دینامیکی | بررسی مبانی تئوری کلاسترینگ بردار پشتیبان | بررسی مفاهیم مرتبط با آموزش شبکه های عصبی | بهینه سازی | بهینه سازی با شبکه عصبی | بهینه سازی با شبکه عصبی هاپفیلد | بهینه سازی با شبکه هاپفیلد | بهینه سازی ترکیباتی | بهینه سازی ترکیبیاتی | بیان ریاضی PCA به صورت فیلتر ویژه برای داده های با حجم بالا | بیان ریاضی ریسک عملیاتی برای طبقه باینری داده ها | بیان هندسی و جبر خطی برای بیشینه سازی واریانس و تفکیک پذیری | بیشینه سازی واریانس | بیشینه سازی واریانس تفکیک | پرسپترون چند لایه | پرسپترون چندلایه | پروب | پروب واریانس | پیاده سازی k-Means در متلب | پیاده سازی SOM با استفاده از m-file در متلب | پیاده سازی SVM غیرخطی در محیط متلب | پیاده سازی SVM غیرخطی در محیط متلب با استفاده از Kernel Trick | پیاده سازی SVR برای پیش بینی سری زمانی | پیاده سازی SVR در متلب | پیاده سازی SVR در متلب برای تقریب تابع | پیاده سازی شبکه عصبی MLP با تولباکس | پیاده سازی شبکه عصبی برای پیش بینی سری زمانی آشوبی مکی گلاس  | پیاده سازی شبکه عصبی در متلب با استفاده از رابط های گرافیکی (GUI) تولباکس شبکه عصبی | پیاده سازی عملی SVM باینری در محیط متلب | پیاده سازی گام به گام برنامه جامع بازشناسی کاراکتر با استفاده از شبکه عصبی هاپفیلد در متلب | پیاده سازی گام به گام و عملی PCA در متلب | پیاده سازی لایه رقابتی در متلب | پیاده سازی لایه رقابتی در متلب با استفاده از تابع competelayer | پیاده سازی نگاشت خود سازمان ده | پیاده سازی نگاشت خود سازمان ده ساده با استفاده از nctool | پیش بینی سری زمانی | پیش بینی سری زمانی آشوبی مکی گلاس  | پیش بینی سری های زمانی | تئوری کلاسترینگ بردار پشتیبان | تابع competelayer | تابع kmeans | تابع newhop | تابع newrb | تابع newrbe | تابع quadprog | تابع svmclassify | تابع svmtrain | تبدیل حالت حاشیه سخت | تبدیل مساله پیش بینی سری زمانی به یک مساله تقریب تابع | تجزیه مقادیر تکین | تحلیل پایداری سیستم های دینامیکی | تحلیل پایداری لیاپانوف | تحلیل عملکرد سیستم های دینامیکی | تحلیل عملکرد شبکه توسط شبکه های عصبی پرسپترون چند لایه | تحلیل مولفه اساسی | تحلیل مولفه اساسی در متلب | تخمین و تقریب توابع | تشخیص کاراکتر | تطبیق پذیری | تطبیق پذیری در شبکه های عصبی رقابتی | تعادل در سیستم های دینامیکی | تعریف ریاضی یک نورون مصنوعی | تعریف مساله شناسایی الگوی یک کاراکتر به صورت یک مساله یادگیری غیرنظارت شده | تعمیم به حالت غیرخطی | تعمیم به حالت غیرخطی با استفاده از Kernel Trick | تعمیم تعریف نورون و استفاده از آن برای مدل سازی | تفاوت های اساسی SVM با سایر انواع شبکه عصبی | تقریب توابع | تقسیم بندی داده | تقسیم بندی داده ها توسط شبکه های عصبی پرسپترون چند لایه | توابع newrb | توابع newrbe | توابع svmclassify | توابع svmtrain | توابع شعاعی پایه | توابع شعاعی پایه و نورون های RBF | توپولوژی های قابل استفاده در ساختار SOM در متلب | توصیف ریاضی مساله خوشه بندی به صورت مساله بهینه سازی | توصیف ریسک در مسائل رگرسیون و مدل سازی | تولباکس بیوانفورماتیک | تولباکس شبکه عصبی | حالت حاشیه نرم | حسگر یا معیار | حل مسائل بهینه سازی ترکیباتی با استفاده از شبکه هاپفیلد | حل مسائل تخمین و تقریب توابع | حل مسائل خوشه بندی در متلب | حل مسائل طبقه بندی باینری | حل مساله بازشناسی الگو | حل مساله خوشه بندی با استفاده از شبکه عصبی رقابتی | خواص و تنظیمات شبکه های عصبی در متلب | خوشه بندی | خوشه بندی با استفاده از شبکه عصبی SOM در متلب | خوشه بندی با استفاده از متلب | خوشه بندی با الگوریتم k-Means | خوشه بندی با الگوریتم k-Means در متلب | خوشه بندی در متلب | داده های بی مقدار | داده های پرت | درونیابی توابع | رگرسیون بردار پشتیبان | رگرسیون غیر خطی | روابط اساسی SVM به صورت یک مساله بهینه سازی درجه دو | روش k-Means | روش تحلیل مولفه اساسی | روش های پیش پردازش اطلاعات | روش های کاهش بعد | رویکردهای طراحی شبکه های عصبی هاپفیلد | ساختار شبکه عصبی پرسپترون چند لایه و یادگیری | ساختار قشر مغز | سری زمانی آشوبی مکی-گلاس | سفید سازی | سیستم عصبی | سیستم فازی تاکاگی - سوگنو | سیستم فازی تاکاگی-سوگنو | سیستم های دینامیکی | شباهت ها و تفاوت موجود میان شبکه های عصبی رقابتی و الگوریتم k-Means | شبکه عصبی | شبکه عصبی Hopfield | شبکه عصبی Kohenen | شبکه عصبی رقابتی | شبکه عصبی رقابتی چیست؟ | شبکه عصبی کوهنن | شبکه عصبی مبتنی بر PCA | شبکه عصبی مصنوعی چیست؟ | شبکه عصبی هاپفیلد | شبکه عصبی هاپفیلد در متلب | شبکه هاپفیلد در متلب | شبکه های عصبی RBF در متلب | شبکه های عصبی پرسپترون | شبکه های عصبی پرسپترون چند لایه | شبکه های عصبی پرسپترون چند لایه در متلب | شبکه های عصبی پرسپترون چند لایه یا MLP | شبکه های عصبی در حل مسائل بهینه سازی ترکیباتی | شبکه های عصبی رقابتی | شبکه های عصبی شعاعی پایه | شبکه های عصبی شعاعی پایه در متلب | شبکه های عصبی مصنوعی | شبکه های عصبی مصنوعی در متلب | شبکه های عصبی هاپفیلد | شبکه های عصبی هاپفیلد چیست؟ | شبکه های عصبی هاپفیلد در متلب | شبیه سازی تبرید | شناسایی الگوی یک کاراکتر | شناسایی کاراکتر | شیوه عملکرد شبکه عصبی هاپفیلد | شیوه کارکرد نگاشت خود سازمان ده | طبقه بندی | طراحی شبکه عصبی در متلب | طراحی شبکه هاپفیلد با استفاده از تابع newhop در متلب | عصب شناسی | علوم عصبی | فرمول بندی رگرسیون بردار پشتیبان | فروشنده دوره گرد | فیلتر ویژه | فیلم آموزش شبکه عصبی مصنوعی | فیلم آموزشی | فیلم آموزشی Hopfield Neural Network | فیلم آموزشی MLP | فیلم آموزشی rbf | فیلم آموزشی SVM در MATLAB | فیلم آموزشی شبکه عصبی | فیلم آموزشی شبکه عصبی پرسپترون | فیلم آموزشی شبکه عصبی در متلب | فیلم آموزشی شبکه عصبی شعاعی پایه | فیلم آموزشی شبکه عصبی هاپفیلد | قانون لیاپانوف | قانون یادگیری Hebb | قانون یادگیری اوجا | قانون یادگیری کوهونن | قانون یادگیری هب | قشر مغز | قضیه میچلی | کابرد شبکه عصبی مصنوعی در خوشه بندی | کاربرد شبکه عصبی مصنوعی بهینه سازی | کاربرد شبکه عصبی مصنوعی در تخمین | کاربرد شبکه عصبی مصنوعی در تشخیص الگو | کاربرد شبکه عصبی مصنوعی در طبقه بندی | کاربرد شبکه عصبی مصنوعی در کنترل | کاربرد شبکه عصبی مصنوعی در مدل سازی و تقریب توابع | کاهش ابعاد | کاهش ابعاد با استفاده از PCA در متلب | کاهش ابعاد داده ها | کاهش ابعاد غیر خطی | کاهش ابعاد غیرخطی | کلاسترینگ | کلاسترینگ بردار پشتیبان | کلاسترینگ در جعبه ابزار شبکه عصبی متلب | کمینه کردن ریسک عملیاتی طبقه بندی | لایه رقابتی | لونبرگ مارکوارت | ماشین بردار پشتیبان | ماشین بردار پشتیبان پایه برای طبقه بندی باینری | ماشین بردار پشتیبان چیست؟ | ماشین بولتزمان | ماشین های بردار پشتیبان | ماشین های بردار پشتیبان در متلب | مباحث هوش محاسباتی | مبانی تئوری سیستم های دینامیکی | مبانی خوشه بندی | مبانی شبکه های عصبی رقابتی | مدل سازی | مروری بر عملکرد سیستم عصبی طبیعی | مسأله TSP | مسأله فروشنده دوره گرد | مساله پیش بینی سری زمانی | مساله تقریب تابع | مساله فروشنده دوره گرد | معرفی چگونگی حل مساله TSP با استفاده از شبکه هاپفیلد | معرفی ماشین بولتزمان و ارتباط آن با شبکه عصبی هاپفیلد | مفاهیم یادگیری رقابتی | مفهوم پروب واریانس و نقش آن در تفکیک پذیری | مفهوم مولفه اساسی و کاربرد آن در استخراج ویژگی و کاهش ابعاد | مقادیر تکین | مقادیر ویژه | مقدمات کاهش ابعاد و مدل سازی با استفاده از SOM | مقدمه ای بر PCA غیرخطی | نرم افزار MATLAB | نرم افزار متلب | نرمال سازی | نظریه سیستم های دینامیکی غیرخطی | نقاط تعادل | نگاشت خود سازمان ده | نگاشت خود سازمان ده چیست؟ | نگاشت های خود سازمان ده | نگاشت های غیرخطی | نمایش جهت های ویژه و مولفه های اساسی داده ها | نمایش گرافیکی نتایج به دست آمده از فرایند طراحی شبکه عصبی | نمایش مرحله به مرحله همگرایی در شبکه هاپفیلد | نمایش میزان تفکیک پذیری داده ها | نمایش میزان تفکیک پذیری داده ها با انتخاب هر یک از ورودی ها | نمایش نتایج و ناحیه جذب برای یک شبکه هاپفیلد | نورون | نوع شبکه ها در محیط متلب | واریانس تفکیک | یادگیری برنامه نویسی متلب | یادگیری تقویتی | یادگیری غیر نظارت شده | یادگیری غیرنظارت شده | یادگیری ماشینی | یادگیری ماشینی خیر | یادگیری نظارت شده
مشاهده بیشتر مشاهده کمتر

×
فهرست جلسات ۱۶ جلسه ویدئویی