6,945,000 تومان قیمت اصلی: 6,945,000 تومان بود.1,389,000 تومانقیمت فعلی: 1,389,000 تومان.
ویژگی های دوره
علم داده با پایتون یا همان Data science در حال حاضر یکی از محبوب ترین و پرطرفدارترین گرایشهای هوش مصنوعی به حساب میآید. به طوری که در سراسر جهان (از جمله ایران)، این تخصص به شدت مورد توجه شرکتها قرار گرفته است. در آمریکا، میانگین حقوق پرداختی به یک متخصص علم داده (ِData scientist) و یادگیری ماشین (Machine learning) بیش از 120 هزار دلار در سال می باشد و این در حالی است که یک مهندس برق 100 هزار در سال میگیرد.
در ایران نیز شرکتهای بزرگ از جمله اسنپ، تپ سی، کافه بازار، علـی بـابـا، شرکتهای بانکی و بیمهای و …، همگی همواره فرصت شغلیهای متخصص علم داده را دارند. علت محبوبیت این تخصص، افزایش روزانه حجم تولید داده و داده محور شدن اکثر کسب و کارهای امروزی است. میتوان داده را مساوی طلا در نظر گرفت.
هر چقدر دادههای موجود در پایگاه داده شرکت افزایش پیدا کند، سرمایه شرکت بیشتر میشود. حال، برای تبدیل کردن این دادههای حجیم و تمیز نشده، نیاز است از این تخصص استفاده کرد تا با کشف الگوهای پنهان از پردازش میلیونها داده، نتایج شگف انگیزی را بدست آورد و تحلیل کرد.
یکی دیگر از محبوب شدن علم داده، کمک به کاهش هزینه، افزایش قابل توجه درآمد و افزایش قدرت رقابت در بازار است. شما به کمک data science، میتوانید هر نوع دادهای را تحلیل کنید (دادههای پایگاه داده و کسب و کار، متن گزارشات و اسناد، تصاویر، سخنرانیها و …)
در این دوره چه مباحثی آموزش داده شده است؟
پکیج علم داده (Data Science) با پایتون، مجموع چهار دوره مبانی و مفاهیم داده کاوی و یادگیری ماشین، داده کاوی و یادگیری ماشین با پایتون، متن کاوی و پردازش زبانهای طبیعی با پایتون و یادگیری عمیق با پایتون است.
توجه: پکیج در سه فصل قرار گرفته است و با هدف یادگیری کامل و تسلط به مباحث پکیج، نیاز است که فایلها به ترتیب فهرست مشاهده شوند:
1-1) مبانی و مفاهیم داده کاوی و یادگیری ماشین: به آموزش جامع مفاهیم داده کاوی پرداخته می شود و به طور کامل، مفاهیم مربوط با داده کاوی و یادگیری ماشینی را یاد خواهید گرفت.
1-2) داده کاوی و یادگیری ماشین با پایتون: به آموزش داده کاوی (data mining) و بکارگیری آن در کسب و کار و انجام پروژههای دانشگاهی پرداخته میشود.
2) متن کاوی و پردازش زبانهای طبیعی با پایتون: در فصل دوم؛ شما در تحلیل دادههای کیفی (فایلهای PDF، Word، .txt ، متن صفحات وب و دیتای متن در اکسل و (CSV به مهارت بسیار خوبی خواهید رسید و انواع متن را به کمک هوش مصنوعی تحلیل خواهید نمود.
3) یادگیری عمیق با پایتون: وژن نوینی از یادگیری ماشین که شما میتوانید مدلهای پیش بینی کننده (از جمله پروژههای طبقه بندی، تحلیل احساسات، طبقه بندی تصاویر، پیش بینی سریهای زمانی و …) را با آن انجام دهید.
سرفصل های دوره پکیج جامع علم داده با پایتون
فصل 1-1 مبانی داده کاوی و یادگیری ماشین
آشنایی با مفاهیم اولیه
- تعریف داده کاوی (data mining)
- اهمیت داده کاوی
- کاربرد داده کاوی در صنایع و کسب و کارهای مختلف
- تعریف فرآیند داده کاوی
- تعریف یادگیری ماشین (machine learning) و کاربرد آن در داده کاوی
- تفاوت میان داده کاوی و علم داده (data science)
- هدف دوره
مفهوم جبر خطی در داده کاوی و یادگیری ماشین
- تعریف جبر خطی
- اهمیت جبر خطی در داده کاوی
- بردارها و محاسبات برداری
- نرم برداری
- ماتریسها و محاسبات ماتریس
آشنایی با انواع دیتا
- دیتای ساختار یافته (Structured data)
- دیتای نیمه ساختار یافته (Semi-structured data)
- دیتای بدون ساختار (Unstructured data)
مفاهیم تحلیل آماری و رسم نمودار در داده کاوی و یادگیری ماشین
- آشنایی با انواع نمودار (پیاده سازی در پایتون)
- تعریف آمار و علم آمار
- ابزارهای مورد استفاده برای تهیه گزارش آماری
- آشنایی با شاخصهای مرکزی و پراکندگی
- متغیرها
- همبستگی و ماتریس همبستگی
- نمودار پراکندگی (scatterplot)
- Crosstab
- توابع Aggregation
- آشنایی با مفهوم Group by
- استفاده از تابع Group by برای محاسبه فراوانی یک متغیر کیفی
- استفاده از نمودار هیستوگرام برای محاسبه فراوانی یک متغیر کمی
- مفهوم significance (P-value)
- آزمونهای آماری پارامتریک
- آزمونهای آماری ناپارامتریک
- تعریف نمونهگیری
- مزایا و معایب نمونهگیری دار داده کاوی
- انواع روش پرکاربرد نمونه گیری
مفاهیم پیش پردازش دادهها
- پر کردن مقادیر NULL (کمی، کیفی اسمی و ترتیبی)
- فیلتر کردن رکورد یا وِیژگی
- تولید ویژگی feature generation))
- ساخت Dummy برای ویژگیهای کیفی
- Reclassification طبقه بندی مجدد مقادیر
- Join
- Append
- بخش بندی دیتا (Train_Test_Split)
- نرمالسازی
- استاندارد سازی
- تعریف کاهش ابعاد
- اهمیت کاهش ابعاد
- تعریف انتخاب ویژگی (Feature selection)
- اهمیت انتخاب ویژگی
- انواع روش انتخاب ویژگی
مفهوم سریهای زمانی
- تعریف سری زمانی
- تعریف برازش (Fitting) و پیش بینی (Forecasting)
- مدل ARIMA
- شاخصهای نیکویی برازش
- میانگین
- خطای معیار (SE)
- R2 ایستایی
- میانگین مجذور خطا (RMSE)
- میانگین قدر مطلق درصد خطا (MAPE)
- ماکزیمم قدر مطلق درصد خطا (MAX PE)
- میانگین قدر مطلق خطا (MAE)
- ماکزیمم قدر مطلق خطا (MAX AE)
- معیار اطلاعاتی نرمال شده بیز (Normalized BIC)
مفهوم رگرسیون خطی
- تعریف رگرسیون خطی
- رابطه خطی
- R Square
- خطای معیار تخمین
- فرضیه آماری آزمون معنا داری کل مدل رگرسیون (به کمک جدول Anova)
- مقدار ثابت (B0)
- مقدار ضریب متغیر مستقل (B1)
- فاصله اطمینان
- Regularization
- مفهوم Overfitting
مفهوم خوشه بندی (Clustering)
- تعریف خوشه بندی
- اهمیت خوشه بندی
- تفاوت خوشه بندی با کاهش ابعاد
- انواع روش خوشه بندی
- مفهوم distance / similarity
- Dendrogram
- مفهوم Agglomerative clustering
- مفهوم Linkage و انواع آن
- مفهوم Ward
مفهوم طبقه بندی (Classification)
- تعریف طبقه بندی
- تفاوت طبقه بندی با خوشه بندی
- اهمیت طبقه بندی
- آشنایی با الگوریتمهای طبقه بندی، مفاهیم و کاربردهای آنها
- کارنامه طبقه بندی و ارزیابی مدل
مفهوم آنالیز RFM
- تعریف اولیه
- اهمیت RFM
- مفهوم Recency
- مفهوم Frequency
- مفهوم Monetary
مفهوم قواعد انجمنی
- آشنایی با مفاهیم قواعد انجمنی
- محاسبات مربوطه
فصل 2-1 داده کاوی و یادگیری ماشین با پایتون
آشنایی با دوره
- معرفی دوره
- نصب و راه اندازی
مرور مبانی برنامه نویسی با پایتون با تمرکز بر داده کاوی و یادگیری ماشین
- شروع کار با پایتون
- انواع ساختار داده
- برنامه های کنترلی
- انواع توابع
- Iteratorها
- Comprehensionها
- Generatorها
- کلاسها
جبر خطی برای داده کاوی و یادگیری ماشین با پایتون
- آشنایی با جبر خطی
- کاربرد جبر خطی در داده کاوی و یادگیری ماشین
- بردارهای و محاسبات برداری در پایتون (ضرب داخلی، نرم برداری و …)
- ماتریسها و محاسبات ماتریسی در پایتون ( ضرب داخلی، ضرب اسکالر و …)
- برنامه نویسی عملیات ریاضی برای ماتریسها (چرخش ماتریس، معکوس کردن و …)
آشنایی با کتابخانههای دادهکاوی و یادگیری ماشین با پایتون
- کار با کتابخانه Numpy
- کار با کتابخانه Pandas
- مصورسازی دیتا با کتابخانه Matplotlib
- مصورسازی دیتا با کتابخانه Seaborn
وارد کردن دیتاستها
- وارد کردن انواع دیتاست (CSV, URL، Excel، Text، SAS، STATA)
تحلیل آماری
- آمار توصیفی
- رسم نمودار آماری
- همبستگی
- Crosstab (ساده و پیشرفته)
- جدول Pivot (ساده و پیشرفته)
- رسم نمودار heatmap با جدول Pivot
- انواع آزمونهای فرضیه ( آزمونهای میانگین)
- P- value
- انواع آزمونهای نرمال
- انواع آزمونها فرضیه (آزمون های ناپارامتری)
- نمونه گیری تصادفی ساده بر روی دیتاست محصولات
- Stratified Sampling
پیش پردازش داده
- پیش پردازش اولیه داده
- پر کردن مقادیر Null (کمی، کیفی اسمی و ترتیبی)
- فیلتر کردن رکورد یا وِیژگی
- مدیریت دیتای کیفی (اسمی و ترتیبی)
- تولید ویژگی (feature generation)
- ساخت Dummy برای ویژگیهای کیفی
- Reclassification (طبقه بندی مجدد مقادیر)
- Join (اتصال)
- Append (در پروژههای داده کاوی توضیح داده میشود)
- بخش بندی دیتا (Train_Test_Split)
- نرمالسازی
- استاندارد سازی
- انتخاب وِیژگی
- انتخاب وِیژگیهای مهم برای داده کاوی با جنگل تصادفی
- انتخاب وِیژگیهای مهم برای داده کاوی با الگوریتم KNN
- کاهش ابعاد
سری زمانی
- پیش بینی فروش میانه، بدبینانه و خوشبینانه کلا برای یک شرکت تجاری بین المللی
- مقایسه روند فروش محصولات شرکت طی چهار سال گذشته
رگرسیون خطی
- آشنایی با رگرسیون خطی
- پیش بینی ارزش خانه در شهر بوستون با ساخت معادله رگرسیونی خطی ساده و چندگانه
خوشه بندی
- آشنایی با خوشه بندی
- آشنایی با خوشه بندی سلسله مراتبی
- آشنایی با خوشه بندی k-means
- خوشه بندی بر روی دیتاست Iris با الگوریتم سلسله مراتبی
- خوشه بندی بر روی دیتاست Iris با الگوریتم K-means
- خوشه بندی مشتریان بانک
- خارج کردن دیتاست خوشه بندی شده از محیط
- مقایسه عملکرد الگوریتم DBSCAN و K-means در خوشه بندی مقادیر با پراکندگی کم
طبقه بندی
- آشنایی با مفهوم و الگوریتم طبقه بندی
- آشنایی با رگرسیون لجستیک
- آشنایی با درخت تصمیم
- آشنایی با KNN
- آشنایی با آنالیز خطی افتراقی (LDA)
- آشنایی با ماشین بردار پشتیبانی (SVM)
- نوشتن برنامه “انتخاب بهترین الگوریتم طبقه بندی”
- بازاریابی مستقیم بر روی دیتای کمپین بازاریی مشتریان بالقوه یک مؤسسه بانکی در پرتغال با کمک انتخاب وِیژگی و الگوریتم رگرسیون لجستیک
- ساخت سیستم تشخیص چهره به کمک الگوریتم بردار حمایت ماشینی (SVM)
- طبقه بندی متون اخبار به کمک شبکه بیز
- طبقه بندی بیماران دیابتی با درخت تصمیم + انتخاب وِیژگی (جنگل تصادفی)
- طبقه بندی گلهای دیتاست Iris با الگوریتم KNN + انتخاب وِیژگی
- نمودار ROC (ارزیابی مدل داده کاوی)
- Confusion Matrix (ارزیابی مدل داده کاوی)
- گزارش طبقه بندی (ارزیابی مدل داده کاوی)
مدیریت ارتباط با مشتری (CRM)
- آنالیر RFM بر شناسایی مشتریان وفادار و سودآور یک شرکت تجاری بین المللی
قواعد انجمنی (Association Rules)
- آشنایی با قواعد انجمنی
پروژه تحلیل سبد بازار (Market basket analysis) یک شرکت خرده فروشی بین المللی
فصل 2- متن کاوی و پردازش زبان طبیعی و صوت با پایتون
معرفی و مرور مبانی داده کاوی با پایتون
- معرفی دوره
- دانلود و نصب Jupyter notebook + نصب ابزار متن کاوی
استخراج متن از منابع مختلف
- استخراج متن از کتاب
- استراج متن از فایل word
- استخراج متن از فایل PDF
- استخراج متن از صفحه وب
- استخراج شناسه ایمیل از متن
- جایگزین کردن شناسههای ایمیل در متن
- مدیریت دیتای رشته در متن
- استخراج متن ازفایل Json
پیش پردازش متن
- تبدیل متن به Lowercase (کوچک کردن حروف واژه)
- Tokenization (جداسازی واژگان و جملات در متن)
- حذف Punctuation (نقطه گذاری)
- حذف Stop word ها (واژگان پر تکرار و بیاهمیت)
- استاندارد سازی متن (Text standardization)
- Stemming (حذف صرف فعل)
- Lemmatizing (تبدیل جمع به مفرد)
- تصحیح غلط نوشتاری
- محاسبه فراوانی لغات
- ساخت ابر واژگان
تبدیل متن به ویژگی
- تبدیل متن به ویژگی با استفاده کد گذاری (Encoding)
- تبدیل متن به ویژگی با استفاده بردار شمارش (Count Vectorizing)
- تبدیل متن به ویژگی با استفاده از N-Grams
- ویژگیهای مبتنی بر بایگرام یک فایل متن
- مهندسی ویژگی با TF-IDF
پردازش زبان طبیعی پیشرفته
- استخراج عبارت اسمی از متن
- شباهت سنجی میان متنها (Text similarity)
- برچسب گذاری نقش گرامری واژه (اسم، فعل، صفت و …) با POS Tagging
- استخراج اسامی خاص از متن (دانشگاه، استان، شخص و …)
- تحلیل احساسات + مثال (Sentiment Analysis)
- تشخیص معنی واژه در جملات مختلف
- ساخت سیستم ترجمه
- تبدیل صوت به متن
- تبدیل متن به صوت (یک فایل MP3)
پروژههای کسب و کار
- طبقه بندی متن پیامکها و شناسایی علل اسپم بودن آنها
- ساخت سیستم طبقه بندی شکایات مصرف کنندگان
- پروژه تحلیل احساسات مشتریان یک شرکت بزرگ
- خلاصه سازی متن یک صفحه وب
- خلاصه سازی متن یک کتاب
- پروژه خوشه بندی متن اسناد (Document Clustering)
فصل 3- یادگیری عمیق با پایتون (داده کاوی با استفاده از شبکههای عصبی)
معرفی و آشنایی با یادگیری عمیق
- معرفی دوره
- آشنایی و نصب کتابخانه Theano
- آشنایی و نصب کتابخانه Tensorflow
- آشنایی و نصب کتابخانه Keras
- مروری مبانی برنامه نویسی با پایتون با تمرکز بر داده کاوی و یادگیری ماشین
-
- شروع کار با پایتون
- انواع ساختار داده
- برنامه های کنترلی
- انواع توابع
- Iteratorها
- Comprehensionها
- Generatorها
- کلاسها
- کار با کتابخانه Numpy
- کار با کتابخانه Pandas
پرسپترونهای چندلایه (MLP)
- آشنایی با MLP و ساختار آن
- توسعه اولین مدل یادگیری عمیق بر روی دیتاست بیماران دیابتی
- لایههای تمام متصل (fully connected layers)
- Kernel initializer
- توابع فعال سازی در لایههای مختلف
- توابع loss
- توابع بهینه سازی
- Metrics
- Epochs
- Batch size
- ارزیابی دقت پیش بینی مدل
- روشهای ارزیابی عملکرد یادگیری عمیق
- روش اتوماتیک
- روش دستی
- روش Cross validation
- ارزیابی مدل با کتابخانه Scikit learn برای یادگیری ماشین
- پروژه 1: طبقه بندی چندگانه بر روی دیتاست گیاهان
- پروژه 2: طبقه بندی دیتاست سونار به همراه پیش پردازش دیتا
- پروژه 3: پیش بینی قیمت خانه
- ذخیره کردن مدل و وزنهای شبکههای عصبی
- حفظ بالاترین دقت پیش بینی در یادگیری عمیق با استفاده از checkpoint
- درک رفتار مدل با رسم دقت پیش بینی
- ساخت لایه Drop out برای regularization و کاهش over fitting
شبکههای عصبی کانولوشنالی (CNN)
- آشنایی با CNN و ساختار آن
- پروژه 4: طبقه بندی تصاویر اعداد با استفاده از MLP
- پروژه 5: طبقه بندی تصاویر اعداد با استفاده از CNN
- پروژه 6: تشخیص اشیا در تصاویر با CNN
- پروژه 7: تحلیل نظرات کاربران سایت فیلم با CNN
شبکههای عصبی بازگشتی (RNN)
- آشنایی با RNN و ساختار آن
- پیش بینی سریهای زمانی تعداد مسافران خط هوایی با استفاده از MLP
- پروژه 8: پیش بینی تعداد مسافران خط هوایی با RNN، LSTM
- پروژه 9: تحلیل نظرات کاربران سایت فیلم با LSTM
پروژه های پیشرفته یادگیری عمیق
- پروژه 10: ساخت موتور جستجو
- پروژه 11: طبقه متن پیامکهای مردم با MLP، CNN، RNN و LSTM
لینک دوره های دیگر
- آموزش داده کاوی و یادگیری ماشینی با IBM SPSS modeler
- آموزش جامع مبانی و مفاهیم داده کاوی و یادگیری ماشین
- آموزش داده کاوی و یادگیری ماشینی با پایتون
- آموزش متن کاوی با پایتون
- آموزش یادگیری عمیق با پایتون
- آموزش داده کاوی با رپیدماینر
- آموزش تصویر کاوی با رپیدماینر
- آموزش متن کاوی و وب کاوی با رپیدماینر
- پکیج آموزش جامع علم داده با رپیدماینر RapidMiner
- آموزش جامع هوش تجاری BI و تحلیل داده با تبلو Tableau
حاصل دوره
- شما یک متخصص علم داده (data scientist) و یادگیری ماشین (machine learning) با زبان پایتون (python) خواهید شد.
- پوشش جامع و پروژه محور نیازمندهای فرصت شغلی data scientist با پایتون
- پیشتیانی روزانه از سؤالات دانشجویان دوره برای تضمین یادگیری
توجه:
1- با توجه به تعداد زیاد فایل های آموزش و راحتی دانشجو در دانلود آنها، فایلها در دو بخش به صورت فشرده قرار داده شده است که پس از خرید دوره، مطابق با فهرست دوره قابل دانلود و مشاهده می باشند.
2- این آموزش در Jupyter notebook (ورژن 3.7 پایتون) تهیه و پیاده سازی شده است.
3- در صورت داشتن هر گونه سوال در خصوص دوره، از طریق آدرس ایمیل shahin.nouri91@gmail.com و یا ارسال تیکت (در صورت خرید دوره)، می توانید سؤالات خود را مطرح نمایید.
توجه : با هدف یادگیری کامل و تسلط به مباحث دوره، در صورت داشتن هر گونه سؤال، راهنمایی و نیاز به توضیحات بیشتر در خصوص فرآیندها و عملگرهای آموزش، دانشجویان محترم می توانند با ارسال تیکت از طریق بخش حساب کاربری و تیکت پشتیبانی با بنده در ارتباط باشند.
ویدئوهای دوره
معرفی دوره ویدئو
06:01
نصب و راه اندازی ویدئو
06:02
دانلود و نصب Jupyter notebook + نصب ابزار متن کاوی ویدئو
05:40
ماتریس ها در پایتون (1) ویدئو
32:58
استخراج داده از کتاب الکترونیک ویدئو
10:46
ساخت سیستم ترجمه ویدئو
02:26
تبدیل صوت به متن ویدئو
09:57
دانلود پارت اول : دروس 1 تا 20 ویدئو
06:33:48
دانلود پارت دوم : دروس 21 تا 74 ویدئو
13:50:21
دانلود پارت سوم : دروس 75 تا 127 ویدئو
12:24:22
دیتاست های فصل اول فایل های ضمیمه
دیتاست های فصل دوم فایل های ضمیمه
دیتاست های فصل سوم فایل های ضمیمه
سورس کدهای فصل اول فایل های ضمیمه
سورس کدهای فصل دوم فایل های ضمیمه
سورس کدهای فصل سوم فایل های ضمیمه
پاورپوینت های فصل اول فایل های ضمیمه
سورس کد فصل سوم (فرمت ipynb) فایل های ضمیمه
سورس کدهای اضافی (فصل اول) فایل های ضمیمه
متخصص علوم داده و فعال در صنعت بانک و بیمه. دارای مدرک کارشناسی آمار از دانشگاه شهید بهشتی و کارشناسی ارشد مدیریت فناوری از دانشگاه تهران
دوره های مرتبط
آموزش جامع لاراول 5.7 در قالب پروژه طراحی فروشگاه آنلاین فایل
ارائه شده توسط< امین کریمی
آموزش کار با intent ها در اندروید
ارائه شده توسط< آرکادمی
آموزش کار با کتابخانه ButterKnife در اندروید
ارائه شده توسط< آرکادمی
پنگوئن لینوکس را قورت بده !
ارائه شده توسط< محمدرضا عسگری
آموزش جامع جاوا اسکریپت ES6
ارائه شده توسط< مسعود صدری
rate_reviewامتیاز دانشجویان دوره
chat_bubble_outlineنظرات
6,945,000 تومان قیمت اصلی: 6,945,000 تومان بود.1,389,000 تومانقیمت فعلی: 1,389,000 تومان.
فرصت باقیمانده تا پایان جشنواره مدار دانش
متخصص علوم داده و فعال در صنعت بانک و بیمه. دارای مدرک کارشناسی آمار از دانشگاه شهید بهشتی و کارشناسی ارشد مدیریت فناوری از دانشگاه تهران
hamidreza_abdoli( دانشجوی دوره )
سلام و خسته نباشید
ببخشید سوالی درباره این فیلم های اموزشی شما داشتم
سوال من اینکه فرق داده کاوی با پایتون و داده کاوی با رپید ماینر چه فرقی با هم میکنه می کنه؟
من می خوام که تواین حوزه ها اموزش ببینم ایا باید دو تا از اموزش ها را تهیه کنم؟!
هن چنین سوالی که دارم اینکه ایا تو فیلم های اموزشی که شما زحمت کشیدید منبع یا سایتی برای اموزش بیش تر وجود دارد ؟1
ممنون می شم در این باره توضیح بفرمایید
با تشکر
شاهین نوری
سلام وقت بخیر؛
1) پایتون یک زبان برنامه نویسی است و شما با کدنویسی داده کاوی میکنید ولی در رپیدماینر، شما نیازی ندارید برنامه نویسی کنید و با اتصال چندین عملگر (Operator)، مدل پیش بینی کننده میسازید. طبیعتاً یادگیری تخصص data science با رپیدماینر خیلی راحتتر و کاربر پسندتر است و همیچنین مدت زمان ساخت مدل پیش بینی کننده کمتر است. یادگیری علم داده با پایتون یا رپیدماینر به نیاز و زمان شما بستگی دارد.
2) بله من توصیه میکنم هر دو پکیج را تهیه کنید چرا که میتوانید در دو ابزار محبوب data science به تسلط برسید و درآمد بیشتری در این حوزه ها کسب کنید، از طرفی دیگر با یادگیری پکیج علم داده با رپیدماینر، انگیزه و قدرت یادگیری شما در خصوص data science با پایتون افزایش قابل توجهی پیدا میکند چون پایه هر دو یکی است.
3) به درخواست تعدادی از دانشجویان محترم، 7 ساعت آموزش اختصاصی “مبانی و مفاهیم داده کاوی و یادگیری ماشین” در ابتدای فصل اول هر دو پکیج (فایل های 1 تا 20) قرار داده شده است که سورس آنها، پاورپینت است و در این دو پکیج، “رایگان” محسوب میشوند (یعنی بعد از اضافه شدن به پکیجها، هزینه تهیه آنها تغییری نکرده است)
4) بله بعضی جاها به منبع و سایت خاصی اشاره شده است ولی چون سعی شده است که آموزش این تخصص در این پکیجها جامع باشد، کتاب معرفی نکردم امّا اگر بعد از اتمام آموزش نیاز داشتید، از طریق ایمیل یا آیدی تلگرام به من بگید تا شما را راهنمایی کنم:
ایمیل: shahin.nouri91@gmail.com
تلگرام: Sh_N7294
با احترام
شاهین نوری
یک نکته دیگری که فراموش کردم در خصوص تفاوت پایتون و رپیدماینر اشاره کنم این است که در پایتون شما دستتون بازتر است و هر کاری که بخواهید میتوانید انجام دهید ولی در رپیدماینر یکسری عملگر به صورت پیشفرض قرار داده شده است و شما خارج از آپشنهای آنها، نمیتوانید در فرآیند داده کاوی خود تغییری ایجاد کنید. البته لازم است بدونید که عملگرهای رپیدماینر واقعاً کامل و عالی هستند و برای کسب و کار هیچی کم ندارند.
Javideghbal( دانشجوی دوره )
خیلی عالی و با کیفیت
تشکر فراوان??
rrasti90( دانشجوی دوره )
خیلی دوره خوب و کاملیه و بسیار عالی بخاطر پشتیبانی که استاد دارن و سوالی رو بی پاسخ نمیگذارند و بسیار کامل پاسخ میدهند…
یک درخواستی دارم و اینکه اگه امکانش هست پاورپوینت دوره رو برای دانلود قرار دهید…
بسیار ممنونم
شاهین نوری
سلام وقت بخیر؛
با تشکر از کامنت شما، لینک دانلود پاورپوینتها نیز اضافه شد.
با احترام
Hospro( دانشجوی دوره )
سلام به شما استاد عزیز ببخشید در مورد بخش یادگیری عمیق سوالی داشتم شما شبکه های gan رو هم تو این دوره اموزش می دید
شاهین نوری
سلام وقت بخیر؛
محتوای فایل های آموزشی مطابق با فهرست دوره است که در همین صفحه کامل قرار داده شده است.
Hospro( دانشجوی دوره )
سلام استاد ببخشيد شبكه هاي عصبي با gan آموزش ميديد?
شاهین نوری
سلام وقت بخیر؛
خیر ولی در صورت تمایل شما، سورس مناسب و شفافی را در زمینه توسعه مدل پیش بینی با GAN برایتان میفرستم.
لطفا سوالات خود را از طریق ایمیل و یا تلگرام بپرسید.
شاهین نوری
سلام مجدد
لطفاً بعد از اتمام فصل 3 این پکیج (یادگیری عمیق)، فصل 8 کتاب “Deep learning with python” نوشته Chollet که در خصوص Generative Deep learning صحبت میکند را بخوانید.
من کتابشو دارم بعدآ اگر نتوانستید کتاب را دانلود کنید، به من بگید برایتان بفرستم.
Hospro( دانشجوی دوره )
چشم
Hospro( دانشجوی دوره )
ممنون استاد حالا كار متحرك سازي عكس و شبيه سازي صدا كه با gan ميشه انجام داد ايا با اين كتابخانه ها هم ميشه؟
شاهین نوری
سلام وقت بخیر؛
بله با کتابخانه keras که در این دوره استفاده شده است، شما می توانید مدل های gan را برای انجام پروژه های خود بسازید.
Hospro( دانشجوی دوره )
ممنون استاد
omidrezazdeh
سلام من برنامه نویس وب هستم ایا کسی که یکم ریاضی ضعیفه می تونه وارد علم داده کاوی بشه کلن چقدر ریاضی نیازه
شاهین نوری
سلام وقت بخیر
پیش نیاز ورود به دنیای علم داده، آشنایی با کاربرد جبر خطی و آمار احتمال در این حوزه است که در این پکیج به صورت کامل و با مثال توضیح داده شده است.
همچنین اگر تمایل دارید بدون کد نویسی، علم داده را در سطح کسب و کار یاد بگیرید، میتوانید پکیج جامع علم داده با RapidMiner را از همین سایت تهیه بفرمایید.
با احترام
شاهین نوری
در کل پایه این تخصص، آمار و ریاضیات است.
با احترام
fadaei.ali90( دانشجوی دوره )
سلام و عرض ادب
با تشکر مجدد از جناب مهندس نوری که این پکیج کامل رو با اندک هزینه واس ما آماده کردند.
بنده بار دومه اینجا پیام میذارم و لازم دونستم مجددا تشکر کنم از مهندس نوری که توی این مدتی که بنده پکیج رو تهیه کردم به دفعات پاسخگوی سوالاتم بودن و به نوعی با رفع اشکال ها و راهنمایی های ایشون تونستم تا الان که 20 ویدیو از مجموع 106 ویدیو رو دیدم، با استفاده از سری زمانی و مثالی که در پکیج حل شده، داده های بازار سرمایه و بورس رو به خوبی تحلیل و پیش بینی کنم.
توی هر قسمت از این پکیج کلی میشه پروژه تعریف کرد و برای دوستان علاقه مند به این حوزه چه برای کارهای علمی و دانشگاهی و چه دوستانی که به صورت فریلنس کسب درآمد می کنند یا قصد اون رو دارند، پکیج بسیار مناسبی میتونه باشه .
شاهین نوری
سلام وقت بخیر؛
ممنون از کامنت شما؛
از اینکه این دوره برای کسب و کار شما و پیش بینی بازار سرمایه و بورس مفید بوده، بسیار خوشحالم.
با تشکر و احترام
شاهین نوری
با سلام؛
در ماه گذشته، به درخواست تعدادی از دانشجویان محترم، 7 ساعت آموزش اختصاصی “مبانی و مفاهیم داده کاوی و یادگیری ماشین” در ابتدای فصل اول هر دو پکیج علم داده با پایتون و رپیدماینر (پارت اول: فایل های 1 تا 20) قرار داده شده است که سورس آنها، پاورپوینت است و در این دو پکیج، “رایگان” محسوب میشوند (یعنی بعد از اضافه شدن به پکیجها، هزینه تهیه آنها تغییری نکرده است).
در صورتی که با توابع و مفاهیم داده کاوی و یادگیری ماشین آشنایی ندارید و یا نیاز به تسلط کامل بر این موارد دارید، ابتدا پارت اول را مشاهده بفرمایید و سپس آموزش عملی و پروژه محور data science با پایتون و یا رپیدماینر (ادامه فایلهای هر دو پکیج) را مشاهده کنید.
** زمان پکیج علم داده با پایتون مطابق با توضیحات صفحه، 34 ساعت و تعداد کل دروس، 127 میباشد.
با تشکر و احترام
شاهین نوری
سلام وقت بخیر؛
بعضی از کاربران در خصوص تفاوت میان آموزش و یادگیری data science با پایتون و data science با رپیدماینر سؤال دارند. پاسخ کامل این سؤال در همین بخش نظرات پکیج علم داده با پایتون (در پاسخ به سوّل کاربر محترم آقای “hamidreza_abdoli”) ارائه شده است.
با احترام
babak( دانشجوی دوره )
سلام
در بخش انتخاب ویژگی (Feature selection) چرا اهمیت فیچرها هرچی از از label دور میشیم به تدریج کاهش پیدا میکنه. منظورم اینه که اولویت و اهمیت ویژگی با ستونی هست که نزدیک تر به به لیبل قرار میگیرد؟
بدین ترتیب کاربر بدون برنامه هم میفمه فیچر های نزدیک تر مهمتر هست.
ممنون میشم راهنماییم کنید
ضمنا آیا فیچر های مهم یعنی آنهایی هستند که همبستگی بیشتری دارن با لیبل؟
شاهین نوری
سلام وقت بخیر؛
سؤال بسیار خوبی پرسیدید.
1) از تابع sort (حالت پیشترین به کمترین) برای اولویت بندی تأثیر فیچرها در پیش بینی مقادیر متغیر هدف استفاده شده است. بدین شکل شما به عنوان data scientist میتوانید مهمترین فیچرها رو شناسایی کنید.
[np.argsort(importances)[::-1
جایگاه فیچر در دیتاست ارتباطی با اهمیت آن در خصوص افزایش / کاهش دقت پیش بینی مقادیر متغیر هدف ندارد. در این مثال به صورت تصادفی این اتفاق افتاده است و دلایل آن، موارد زیر ممکن است باشد:
*استفاده از حجم کمتری از دیتاست (اصلی را استفاده نکردم تا سریعتر پردازش دیتا انجام شود).
** در روش انتخاب ویژگی با بکارگیری جنگل تصادفی، اگر بین دو یا چند فیچر همبستگی قابل توجهی وجود داشته باشد، یکی از فیچرها ممکن است خیلی مهم در نظر گرفته شود و از سوی دیگر، بقیه فیچرهای همبسته وزن کمتری بگیرند. امّا چیزی که مهم است، “بهبود عملکرد یادگیری ماشین” است پس مشکلی وجود ندارد.حتماً روی دیتاست های دیگر هم امتحان کنید.
همانطور که با روش انتخاب ویژگی دیگر به کمک الگوریتم KNN، زمانی که برنامه نمایش 5 تا از مهم ترین فیچرها را نوشتیم، خروجی ترتیب نداشت و مشاهده فرمودید که دقت پیش بینی (روی دیتای تست) پس از انتخاب ویژگی افزایش پیدا کرد.
طبق تعریف بالا نوشتیم:
([k5 = list(sbs.subsets_[8
([print(data.columns[1:][k5
یعنی از 13 تا فیچر، 5 فیچر مهم را لیست کن و 8 تا کم اهمیت را حذف کن و چون فیچر اول (شماره 0)، خود label هست، میگیم در بازه فیچر دوم به بعد، 5 تا فیچر مهم را چاپ کن.
[‘B’, ‘C’, ‘E’, ‘L’, ‘N’]
2) همبستگی تعریفش نکنید اگرچه همبستگی بالا بین یک متغیر مستقل و هدف، اهمیت آن را در پیش بینی مقادیر هدف نشان میدهد ولی در کل اینجا، منظور از فیچرهای مهم، فیچرهایی هستند که در “افزایش” دقت یادگیری ماشین و پیش بینی مقادیر متغیر هدف توسط ماشین، “نسبت به بقیه فیچرها” تأثیرگذاری بیشتری دارند.
لطفاً ترجیحاً سؤالات خود را از طریق ایمیل و تلگرام بپرسید:
shahin.nouri91@gmail.com
Sh_N7294@
شاهین نوری
جمع بندی نهایی مقایسه دو روش انتخاب ویژگی بر روی دیتاست مورد استفاده در آموزش:
کلاس SBS و استفاده از KNN:
[‘B’, ‘C’, ‘E’, ‘L’, ‘N’]
و جنگل تصادفی:
[‘َB’, ‘C’, ‘D’, ‘E’, ‘F’]
تطابق قابل توجهی دارد ولی به دلیل وجود “همبستگی” میان فیچرها، میتوانید روی روش اول متمرکز شید.
بازم ممنون این سؤال را پرسیدید.
meyamdsh( دانشجوی دوره )
با سلام
من دوره های دیتا ماینینگ و دیتا ساینس رو بصورت مجازی خیلی جاها دیدم و نمونه فایلهاشونم دیدم ولی بی اغراق میگم این بهترین دوره و کاملترین مجموعه از صفر تا صد این دوره بود و به زبان خیلی ساده و پروژه محور متدها و نحوه برخورد با دیتا ست هارو توضیح داده بودن .جناب نوری خسته نباشید.
شاهین نوری
مرحله 1 به جای data2 ، data نوشته شده است که تصحیح میگردد (البته هر اسم به صورت دلخواه میتوانید بنویسید)
با احترام
fadaei.ali90( دانشجوی دوره )
سلام مجدد
با تشکر دوباره و ویژه از جناب شاهین خان عزیز
عزیزانی که در بازارهای مالی چه داخلی و چه جهانی مثل فارکس کار میکنند، مبحث سری های زمانی و پیش بینی بر اساس اون خیلی میتونه توی تحلیل ها کمکشون کنه.
فک میکنم در قسمت ۱۲ یا ۱۱ پکیج هست که مثال بسیار خوبی رو جناب نوری به طور کامل در مبحث سری های زمانی مدل آریما توضیح دادند.
شاهین نوری
سلام وقت بخیر؛
ممنون از کامنت شما و به اشتراک گذاشتن مجدد نظرتون پس از کسب موفقیت در این حوزه. ممنون بابت مشاهده به دقت ویدیوها، تمرین و بکارگیری یادگیری ماشین در تحلیل بازارهای مالی و سرمایه خارجی. خوشحالم که پیش بینیهاتون دقیق بوده و در این زمینه موفق بوید. طبیعتاً تخصص یادگیری ماشین و کلاً هوش مصنوعی در تحلیل بازارهای مالی (مخصوصاً بازارهای جهانی مثل فارکس) به شدت توصیه میشه.
در این پکیج تنها یک پروژه سریهای زمانی برای یادگیری و پیش بینی وضعیت فروش براساس سالهای گذشته ارائه شده است و در کل تمرکز پروژهها و مباحث این پکیج بیشتر روی “فروش”، “مدیریت ارتباط با مشتری” و “سلامت” است ولی استفاده از تکنیک ها و نکات آموزشی این پکیج در سایر حوزهها کاملاً راحت و امکان پذیر است.
ولی با توجه به اهمیت و پرطرفدار بودن تحلیل بازارهای سرمایه و علاقه مردم به این حوزه، بزودی سعی میشود ویدیوهای اختصاصی یادگیری ماشین مخصوصاً سریهای زمانی به صورت پروژه محور و با زبانی بسیار ساده در حوزه بازارهای مالی برای کاربران تهیه شود.
امیدوارم همیشه این تخصص در سودآوری به شما کمک کند.
با احترام
شاهین نوری
***محتوای فایل “سورس کدهای اضافی” مرتبط با داده کاوی و یادگیری ماشین با پایتون (فصل اوّل) (خارج از 127 درس و صرفاً برای یادگیری بیشتر) به صورت زیر است:
***تمام این سورس کدهابه صورت جزوه و توضیح به زبان فارسی نوشته شدهاند (به صورت خود خوان و شفاف شبیه جزوه تهیه شدهاند):
1) روشی بسیار ساده و پروژه محور برای کاهش ابعاد با PCA روی دیتاست واقعی (به همراه اضافه کردن فیچر کاهش ابعاد به دیتاست اصلی و خارج کردن دیتاست از محیط پایتون)
2) نحوه خارج کردن دیتاست پس از پیش بینی با یادگیری ماشین در محیط برنامه نویسی پایتون (پروژه محور)
3) آموزش جامع و ساده رسم نمودارهای کاربردی روی دیتاست های واقعی:
A) نمودار توزیع (distribution plot)
B) نمودار اتصال یا Join plot
C) نمودار جفتی یا Pair plot
D) نمودار میلهای یا bar plot (ساده و پیشرفته)
E) نقشه حرارتی برای ماتریس همبستگی
F) نقشه حرارتی pivot table برای فراوانی
G) نقشه حرارتی خوشه بندی ( Cluster Map)
H) نمودار جعبهای یا Boxplot (ساده و پیشرفته)
*** نمودارهای کاربردی فراوانی- میلهای برای crosstab و هیستاگرام در پروژه های پکیج بسیار استفاده شده است.
با آرزوی موفقیت
شاهین نوری
مجدداً لازم به ذکر و تأکید است که آموزش ویدیویی + سورس کد انواع تکنیک رسم نمودار با کتابخانههای matplotlib و seaborn , و همچنین کاهش ابعاد با PCA به عنوان دروس اصلی در فصل اول قرار داده شده است و محتوای “سورس کدهای اضافی” صرفاً برای تمرین و یادگیری قطعی و راحتتر است.
با احترام