دانلود پروژه تخمین و ردیابی پارامترهای موتور القایی با الگوریتم پرندگان (PSO) با سیمولینک Matlab
به همراه داکیومنت آماده و توضیحات کامل تمامی کدهای نوشته شده
در این پست پروژه تخمین ردیابی موتور القایی با الگوریتم PSO با متلب به همراه توضیح فارسی خطوط برنامه نویسی شده را آماده کرده ایم.
در این پروژه به طراحی یک موتور القایی یا Induction Motor پرداخته شده که هدف از آن، تخمین و ردیابی پارامترهای آن است. تخمین با الگوریتم PSO یا ازدحام ذرات بهینه شده و ردیابی پارامترهای موتور آسنکرون موتور القایی با پارامترهای انتخاب شده به کمک الگوریتم PSO یا الگوریتم پرندگان روی داده است.
موتورهای القایی به علت سادگی و هزینه کم ساخت، نسبت به ماشین های جریان مستقیم برتری دارند. ماشین های القایی، عمومی ترین موتورهایی هستند که در سیستم های کنترل حرکت صنعت استفاده می شوند.
در دهه های اخیر بدلیل مصرف روزافزون انرژی الکتریکی و هزینه بالای تولید این انرژی از منابع فسیلی، تولید برق از منابع تجدید پذیری همچون انرژی باد مورد توجه قرار گرفته شده است. بدلیل اتصال نیروگاه های بادی به شبکه های توزیع، پژوهش های گسترده ای بر روی این نیروگاه ها و ماشین های القایی موجود در آنها اعم از ژنراتور و موتور متمرکز شده است. این پژوهش ها عموما در زمینه های تحلیل پایداری، کنترل و پیش بینی خطای ماشین القایی انجام شدهاند. از طرفی برای طراحی، تحلیل حالت پایدار و عملکرد دینامیکی، کنترل بهینه ماشین القایی و تنظیمات رله های حفاظتی آن، به پارامترهای دقیق ماشین نیاز می باشد . از اینرو روش های گوناگونی برای تخمین پارامترهای ماشین القایی تاکنون بکار گرفته شده اند.
روش های تخمین و شناسایی پارامتر در حین کار بدلیل پیشرفت گسترده در زمینه کنترل جهت دار ماشین های القایی مورد توجه فراوان قرار گرفته اند. با این وجود روش های شناسایی پارامتر در حالت عدم اتصال به شبکه ، بدلیل سادگی، کم هزینه بودن و عدم نیاز به سخت افزار اضافی هنوز کاربرد بسیار دارند.
کنترل ماشین های القایی به مراتب پیچیده تر از کنترل ماشین های جریان مستقیم بوده، چنانچه کارآیی بالایی نیز از ماشین انتظار رود، بر این پیچیدگی افزوده خواهد شد. در حقیقت ، این پیچیدگی به علت ساختار چند متغیره و غیرخطی موتور القایی است. با توجه به کاربردهای این ماشین مشخصات حالت ماندگار آن حایز اهمیت است.
مهمترین سوالی که در انتخاب نوع کنترل موتور القایی باید مد نظر قرار گیرد، این است که موتور در چه محدوده ای از سرعت کار خواهد کرد، زیرا روش های کنترل سرعت موتور القایی کلاسیک معمولا برای یک دامنه محدوده ای از سرعت مناسب هستند و به طور مشترک برای سرعت های بالا، پایین و خیلی پایین استفاده نمی شود. رایجترین روش کنترل سرعت در موتور های القایی، کنترل برداری است. از آن جایی که پردازش بر روی سیگنال های فیدبکی در این گونه درایوها اساسا پیچیده است، استفاده از میکروکامپیوترها و یا پردازش گرهای سیگنال دیجیتال در این درایوها امری معمول است.
برای دانلود نتایج پروژه به صورت رایگان کلیک نمایید.
فرمت فایل : WORD , PDF
تعداد صفحات: 68
فهرست مطالب:
موضوع صفحه
مقدمه ....................................................................................................................................................................1
فصل اول ...............................................................................................................................................................9 1-1) داده کاوی و دلایل پیدایش آن............................................................................................................10
2-1) پردازش اطلاعات، از فایلهای متنی تا داده کاوی............................................................................11
3-1) جایگاه داده کاوی....................................................................................................................................12
4-1) مراحل یک فرآیند داده کاوی...............................................................................................................13
5-1)پایه های یک فرآیند داده کاوی............................................................................................................13
6-1)خلاصه مطالب............................................................................................................................................14
فصل دوم............................................................................................................................................................15
1-2) کاربردهای داده کاوی.............................................................................................................................16
2-2) تکنیکهای داده کاوی..............................................................................................................................20
3-2)درخت تصمیم – ابزار دسته بندی........................................................................................................21
4-2)قوانین تداعی (انجمنی) ..........................................................................................................................23
فصل سوم...........................................................................................................................................................25
1-3) خوشه بندی .............................................................................................................................................26
2-3)خوشه بندی سلسله مراتبی ...................................................................................................................28
3-3)انواع خطا در تشخیص ناهمگونی...........................................................................................................33
4-3)داده کاوی توزیع شده..............................................................................................................................34
5-3)تکنیکها و رویکردها در داده کاوی توزیع شده...................................................................................36
فصل چهارم.......................................................................................................................................................38
1-4) فناوری اطلاعات چیست؟.....................................................................................................................39
2-4) زمینههای فناوری اطلاعات..................................................................................................................42
3-4)فناوری اطلاعات در دانشگاههای ایران................................................................................................42
فصل پنجم........................................................................................................................................................44
1-5) اطلاعات چیست؟...................................................................................................................................45
2-5) مسئلة و هدف پژوهش.........................................................................................................................48
3-5)روش و گامهای تحقیق.........................................................................................................................49
4-5)ارزش اطلاعات نمونه در تصمیمگیری..............................................................................................50
5-5)توسعة مدل........................................................................................................................................51
6-5) روش آزمون مدل.................................................................................................................................54
7-5)کاربردهای مدل.....................................................................................................................................60
8-5) راهکاری برای یافتن بهترین ترکیب ارزش اطلاعات....................................................................61
نتیجه گیری ....................................................................................................................................................64
منابع و مراجع ...............................................................................................................................................65
مقدمه
از هنگامی که رایانه در تحلیل و ذخیره سازی داده ها بکار رفت (1950) پس از حدود 20 سال، حجم داده ها در پایگاه داده ها دو برابر شد. ولی پس از گذشت دو دهه و همزمان با پیشرفت فن آوری اطلاعات(IT) هر دو سال یکبار حجم داده ها، دو برابر شد. همچنین تعداد پایگاه داده ها با سرعت بیشتری رشد نمود. این در حالی است که تعداد متخصصین تحلیل داده ها و آمارشناسان با این سرعت رشد نکرد. حتی اگر چنین امری اتفاق می افتاد، بسیاری از پایگاه داده ها چنان گسترش یافته اند که شامل چندصد میلیون یا چندصد میلیارد رکورد ثبت شده هستند و امکان تحلیل و استخراج اطلاعات با روش های معمول آماری از دل انبوه داده ها مستلزم چند روز کار با رایانه- های موجود است. حال با وجود سیستم های یکپارچه اطلاعاتی، سیستم های یکپارچه بانکی و تجارت الکترونیک، لحظه به لحظه به حجم داده ها در پایگاه داده های مربوط اضافه شده و باعث به وجود آمدن انبارهای ( توده های ) عظیمی از داده ها شده است به طوری که ضرورت کشف و استخراج سریع و دقیق دانش از این پایگاه داده ها را بیش از پیش نمایان کرده است (چنان که در عصر حاضر گفته می شود « اطلاعات طلاست» ).
هم اکنون در هر کشور، سازمان ها، شرکت ها و . . . برای امور بازرگانی، پرسنلی، آموزشی، آماری و . . . پایگاه داده ها ایجاد یا خریداری شده است، به طوری که این پایگاه داده ها برای مدیران، برنامه ریزان، پژوهشگران و . . . جهت تصمیم گیری های راهبردی، تهیه گزارش های مختلف، توصیف وضعیت جاری خود و . . . می تواند مفید باشد. داده کاوی یا استخراج و کشف سریع و دقیق اطلاعات با ارزش و پنهان از این پایگاه داده ها از جمله اموری است که هر کشور، سازمان و شرکتی به منظور توسعه علمی، فنی و اقتصادی خود به آن نیاز دارد.
در کشور ما نیز سازمان ها، شرکت ها و مؤسسات دولتی و خصوصی به طور فزاینده ولی آهسته در حال ایجاد یا خرید نرم افزارهای پایگاه داده ها و مکانیزه کردن سیستم های اطلاعات خود هستند، همچنین با توجه به فصول دهم و یازدهم قانون برنامه سوم توسعه در خصوص داد و ستدهای الکترونیکی و همچنین تأکید بر برخورداری کشور از فن آوری های جدید اطلاعات برای دستیابی آسان به اطلاعات داخلی و خارجی، دولت مکلف شده است امکانات لازم برای دستیابی آسان به اطلاعات، زمینه سازی برای اتصال کشور به شبکه های جهانی و ایجاد زیر ساخت های ارتباطی و شاهراه های اطلاعاتی فراهم کند. واضح است این امر باعث ایجاد پایگاه های عظیم داده ها شده و ضرورت استفاده از داده کاوی را بیش از پیش نمایان می سازد.
سابقه داده کاوی
داده کاوی و کشف دانش در پایگاه داده ها از جمله موضوع هایی هستند که همزمان با ایجاد و استفاده از پایگاه داده ها در اوایل دهه 80 برای جستجوی دانش در داده ها شکل گرفت.
شاید بتوان لوول (1983) را اولین شخصی دانست که گزارشی در مورد داده کاوی تحت عنوان « شبیه سازی فعالیت داده کاوی » ارائه نمود. همزمان با او پژوهشگران و متخصصان علوم رایانه، آمار، هوش مصنوعی، یادگیری ماشین و . . . نیز به پژوهش در این زمینه و زمینه های مرتبط با آن پرداخته اند.
پژوهش جدی روی موضوع داده کاوی از اوایل دهه 90 شروع شد. پژوهش ها و مطالعه های زیادی در این زمینه صورت گرفته، همچنین سمینارها، دوره های آموزشی و کنفرانس هایی نیز برگزار شده است. نتایج پایه های نظری داده کاوی در تعدادی از مقاله های پژوهشی آورده شده است. مثلاً سال 1991 پیاتتسکی و شاپیرو استقلال آماری قاعده ها در داده کاوی ا بررسی نموده اند. 1995 هافمن و نش استفاده از داده کاوی و داده انبار توسط بانک های آمریکا را بررسی نموده و بیان کردند که چگونه این سیستم ها برای بانک های آمریکا قدرت رقابت بیشتری ایجاد می کنند. چت فیلد مشکلات ایجاد شده توسط داده کاوی را بررسی نمود و همچنین مقاله ای تحت عنوان « مدل های خطی غیر دقیق داده کاوی و استنباط آماری » ارایه نمود. هندری نیز دیدگاه اقتصاد سنجی روی داده کاوی را تهیه کرد. در این سال انجمن داده کاوی همزمان با اولین کنفرانس بین المللی «کشف دانش و داده کاوی» شروع به کار کرد. این کنفرانس توسعه یافته چهار دوره آموزشی بین المللی در پایگاه های داده درسال 1989 تا 1994 بود. انجمن مذکور، یک سازمان علمی به نام ACM- SIGKDD را ایجاد نمود. سال 1996 ایمیلنسکی و منیلا دیدگاهی از داده کاوی به عنوان «پرس و جو کننده از پایگاه های استنتاجی » را پیشنهاد کردند. فایاد، پیاتتسکی – شاپیرو، اودوراُسامی پیشرفت های کشف دانش و داده کاوی را عنوان کردند. در سال 1997 منیلا خلاصه ای از مطالعه روی اساس داده کاوی ارایه نمود. باربارا و همکاران نیز دیدگاه کاهش داده ها روی داده کاوی را در گزارش کاهش داده های نیوجرسی ارایه نمودند. همچنین می توان برای کاربرد داده کاوی
در مدیریت مالی می توان، تحلیل داده های مالی و مدل سازی مالی بنینگاه و چاچ کز و هیگینز را ملاحظه کرد فریدمن نیز مقاله ای در ارتباط با مفهوم آمار و داده کاوی ارایه نمود. سال 1998 هند مقاله ای تحت عنوان « داده کاوی : آمار یا بیشتر؟ » ارائه نمود. کلینبرگ پائودیمیتریو و راغان دیدگاه اقتصاد سنجی روی داده کاوی و عملکرد داده کاوی به عنوان یک مسئله بهینه را ارایه نمودند. در این سال نیز کنفرانس های ناحیه ای و بین المللی در مورد داده کاوی برگزار شد که از جمله می توان به کنفرانس آسیا و اقیانوسیه درباره کشف دانش و داده کاوی اشاره کرد. سال 2000 هند و همکاران و اسمیت بحث های مقایسه ای بین آمار و داده کاوی را ارایه کردند. سری و استاوا، کولی، رش پاند و تن استفاده از وب در کاوش داده ها و کاربردهای آن را ارایه کردند.
سال 2002 کلادیو کانورسانو و همکاران « مدل آمیخته چندگانه جمع پذیر تعمیم یافته » برای داده کاوی را بررسی نمودند. پائلو و گیانلوکاپاسرون، « داده کاوی ساختارهای پیوند برای مدل رفتار مصرف کننده » را ارایه نمودند.
مفهوم داده کاوی
عبارت داده کاوی مترادف با یکی از عبارت های استخراج دانش، برداشت اطلاعات، وارسی داده ها و حتی لایروبی کردن داده هاست که در حقیقت کشف دانش در پایگاه داده ها (KDD ) را توصیف می کند. بنابراین ایده ای که مبنای داده کاوی است یک فرآیند با اهمیت از شناخت الگوهای بالقوه مفید، تازه و درنهایت قابل درک در داده هاست. واژه کشف دانش در پایگاه داده ها در اوایل دهه 80 در مراجعه به مفهوم کلی، گسترده، سطح بالا و به دنبال جستجوی دانش در اطلاعات شکل گرفته است. داده کاوی کاربرد سطح بالای فنون و ابزار بکار برده شده برای معرفی و تحلیل داده ها ی تصمیم گیرندگان است. اصطلاح داده کاوی را آمار شناسان، تحلیل گران داده ها و انجمن سیستم های اطلاعات مدیریت به کار برده اند در حالی که پژوهشگران یادگیری ماشین و هوش مصنوعی از KDD بیشتر استفاده می کنند. در ادامه چند تعریف از داده کاوی ارائه می شود. «داده کاوی یا به تعبیر دیگر کشف دانش در پایگاه داده ها، استخراج غیر بدیهی اطلاعات بالقوه مفید از روی داده هایی است که قبلاً، ناشناخته مانده اند. این مطلب برخی از روش های فنی مانند خوشه بندی، خلاصه سازی داده ها، فراگیری قاعده های رده بندی، یافتن ارتباط شبکه ها، تحلیل تغییرات و کشف بی قاعدگی را شامل می شود »
« داده کاوی در حقیقت کشف ساختارهای جالب توجه، غیر منتظره و با ارزش از داخل مجموعه وسیعی از داده ها می باشد و فعالیتی است که اساساً با آمار و تحلیل دقیق داده ها منطبق است» هند (1998)
« داده کاوی فرآیند کشف رابطه ها، الگوها و روندهای جدید معنی داری است که به بررسی حجم وسیعی از اطلاعات ذخیره شده در انبارهای داده با فناوری های تشخیص الگو ( مانند ریاضی و آمار ) می پردازد».
کشف دانش در پایگاه داده ها در جهت کشف اطلاعات مفید از مجموعه بزرگ داده هاست. دانش کشف شده می تواند قاعده ای باشد تا ویژگی های داده ها، الگوهایی که به طور متناسب رخ می دهند، خوشه بندی موضوع های درون پایگاه داده ها و غیره را توصیف می کند.
فرمت فایل : word(قابل ویرایش)
تعداد صفحات:20
فهرست مطالب:
تخمین پارامترهای احتمال
روش احتمال شرطی
نمونه های طبقه بندی درمسائل آماری
احتمال آماری در مسئله های برگشتی
روش افزایش احتمال درست نمایی
چکیده:
تخمین پارامترهای احتمال:
1-4 : روش احتمال شرطی
اجازه دهید(X1,Y1) , ... Xn,Yn) ,) نشان دهنده نمونه های تصادفی از جامعه n باشند این نمونه ها برای تخمین Рr(C|A) استفاده می شوند . احتمال شرطی رخداد C به شرط رخدادA به وسیله فرمول اماری زیر محاسبه می شود :
(1. 4)
که وظایف مشخصه های XA ,Xc نشان داده می شوند به وسیله :
(2. 4)
(3. 4)
حالافرض کنید به جای پدیده های معمولی Aو C پدیده های فازی جایگزین شوند .
این به این معناست که به وسیله mfs پدیده های A,C به µA وμC تعریف شوندو
به جای XΑ،Xc در معادله 4.1 جایگزین شوند . در نتیجه خواهیم داشت :
(4.4)
این فرمول پایه تعریف احتمال رخداد در پدیده فازی می باشد ( درس 37 ) .
مشتق اول فرمول 4.4 درسهای 35و36 را پدید می آورد .
نتیجه فرمول 4.4 در تخمین پارامترهای شرطی درPFS استفاده می شود . این دیدگاه دردرسهای 16و18و34 دنبال می شود که به روشهای احتمال شرطی در این تز اشاره
می کند .
فرض کنید مجموعه اطلاعاتی شاملn نمونه به صورت ( (i=1,2, ...,n) ( Xi,Yi
برای تخمین پارامترهای احتمال در دسترس باشد همچنین فرض کنید که هم مقدمه وهم نتیجه mfs درسیستم تعیین شده است ونیاز به بهینه سازی بیشتر نمی باشد یعنی فقط پارامترهای احتمال درتخمین باقی بمانند . به نظر منطقی می آید که پارامترهای Pj,k واقعی رابرای تخمین احتمال شرطی پدیده فازی Ck به شرط رخداد پدیده فازی Aj قرار دهیم . اگرچه ورودی X به تعریف بیشتر احتیاج ندارد اما برای نشان دادن غیر عادی بودن محاسبات mfµAj وmfµ¯Aj باید ازفرمول زیراستفاده شود :
(4.5)
بنابراین Pj,k واقعی است و برای تخمین احتمال شرطی پدیده فازی Ck ونشان دادن غیر عادی بودن پدیده فازی Aj باید ازآن استفاده شود .
توجه داشته باشید که PFSs برای نمونه های برگشتی یک قانون پایه دارد که فقط با همان قانون که در پارامترهای شرطی Pj,k استفاده می شود ودرفرمول 4.5 نشان داده شده هیستوگرامهای فازی مورد بحث دردرس 2 را معادل سازی می کند .
درPFS برای نمونه های طبقه بندی درهرطبقه Ck به صورت یک خروجی جدید نشان داده می شود پس فرمول 4.5 به صورت زیر هم نوشته می شود :
(4.6)
عملکرد مشخصه XCk بوسیله فرمول زیر نشان داده می شود :
(4.7)
درتعریف این قسمت ،احتمالات آماری پارامترها تخمین زده می شوند . به PFSs درنمونه های طبقه بندی در تجزیه وتحلیل فرمولهای (4.5) و(4.6) در قسمت (4.1.1) توجه می شود . همچنین در قسمت (4.1.2) درنمونه های برگشتی PFSs بررسی می شود .
فرمت فایل : word(قابل ویرایش)
تعداد صفحات:26
فهرست مطالب:
تخمین مدل و استنتاج آماری ۱
بررسی ایستایی (ساکن بودن) سری های زمانی ۱
آزمون ساکن بودن از طریق نمودار همبستگی و ریشه واحد ۲
تغییرات ساختاری و آزمون ریشه واحد پرون ۴
رگرسیون ساختگی ۵
هم انباشتگی (هم جمعی) ۶
- آزمون هم انباشتگی (هم جمعی) ۷
- آزمون همگرایی جوهانسن مو جوسیلیوس ۷
مروری بر الگوهای اقتصاد سنجی پولی ۱۰
الگوهای کینزی ۱۱
الف- نگرشی کوتاه بر مبنای نظری در الگوهای کینزی ۱۱
ب- مروری بر الگوی FRB-MIT ۱۲
بخش مالی ۱۲
بررسی ایستایی (ساکن بودن) سری های زمانی[۱]
قبل از تخمین مدل، به بررسی ایستایی می پردازیم. می توان چنین تلقی نمود که هر سری زمانی توسط یک فرآیند تصادفی تولید شده است. داده های مربوط به این سری زمانی در واقع یک مصداق از فرآیند تصادفی زیر ساختی است. وجه تمایز بین (فرآیند تصادفی) و یک (مصداق) از آن، همانند تمایز بین جامعه و نمونه در داده های مقطعی است. درست همانطوری که اطلاعات مربوط به نمونه را برای استنباطی در مورد جامعه آماری مورد استفاده قرار می دهیم، در تحلیل سریهای زمانی از مصداق برای استنباطی در مورد فرآیند تصادفی زیر ساختی استفاده می کنیم. نوعی از فرآیندهای تصادفی که مورد توجه بسیار زیاد تحلیل گران سریهای زمانی قرار گرفته است فرآیندهای تصادفی ایستا می باشد.
برای تاکید بیشتر تعریف ایستایی، فرض کنید Yt یک سری زمانی تصادفی با ویژگیهای زیر است:
(۱) : میانگین
(۲) واریانس :
(۳) کوواریانس :
(۴) ضریب همبستگی :
که در آن میانگین ، واریانس کوواریانس (کوواریانس بین دو مقدار Y که K دوره با یکدیگر فاصله دارند، یعنی کوواریانس بین Yt و Yt-k) و ضریب همبستگی مقادیر ثابتی هستند که به زمان t بستگی ندارند.
اکنون تصور کنید مقاطع زمانی را عوض کنیم به این ترتیب که Y از Yt به Yt-k تغییر یابد. حال اگر میانگین، واریانس، کوواریانس و ضریب همبستگی Y تغییری نکرد، می توان گفت که متغیر سری زمانی ایستا است. بنابراین بطور خلاصه می توان چنین گفت که یک سری زمانی وقتی ساکن است که میانگین، واریانس، کوواریانس و در نتیجه ضریب همبستگی آن در طول زمان ثابت باقی بماند و مهم نباشد که در چه مقطعی از زمان این شاخص ها را محاسبه می کنیم. این شرایط تضمین می کند که رفتار یک سری زمانی، در هر مقطع متفاوتی از زمان، همانند می باشد[۲].
آزمون ساکن بودن از طریق نمودار همبستگی و ریشه واحد[۳]
یک آزمون ساده برای ساکن بودن براساس تابع خود همبستگی (ACF) می باشد. (ACF) در وقفه k با نشان داده می شود و بصورت زیر تعریف می گردد.
از آنجاییکه کوواریانس و واریانس، هر دو با واحدهای یکسانی اندازه گیری میشوند، یک عدد بدون واحد یا خالص است. به مانند دیگر ضرایب همبستگی، بین (۱-) و (۱+) قرار دارد. اگر را در مقابل K (وقفه ها) رسم نماییم، نمودار بدست آمده، نمودار همبستگی جامعه نامیده می شود. از آنجایی که عملاً تنها یک تحقق واقعی (یعنی یک نمونه) از یک فرآیند تصادفی را داریم، بنابراین تنها میتوانیم تابع خود همبستگی نمونه، را بدست آوریم. برای محاسبه این تابع میبایست ابتدا کوواریانس نمونه در وقفه K و سپس واریانس نمونه را محاسبه نماییم.
که همانند نسبت کوواریانس نمونه به واریانس نمونه است. نمودار در مقابل K نمودار همبستگی نمونه نامیده می شود. در عمل وقتی مربوط به جامعه را ندایم و تنها را براساس مصداق خاصی از فرآیند تصادفی در اختیار داریم باید به آزمون فرضیه متوسل شویم تا بفهمیم که صفر است یا خیر. بارتلت (۱۹۴۹)[۴] نشان داده است که اگر یک سری زمانی کاملاً تصادفی یعنی نوفه سفید باشد، ضرایب خود همبستگی نمونه تقریباً دارای توزیع نرمال با میانگین صفر و واریانس می باشد که در آن n حجم نمونه است. براین اساس می توان یک فاصله اطمینان، در سطح ۹۵ درصد ساخت. بدین ترتیب اگر تخمینی در این فاصله قرار گیرد، فرضیه(=۰) را نمی توان رد کرد. اما اگر تخمینی خارج از این فاصله اعتماد قرار گیرد می توان صفر بودن را رد کرد.
دانلود مقاله رشته اقتصاد تخمین مدل و استنتاج آماری بررسی ایستایی (ساکن بودن) سری های زمانی با فرمت ورد و قابل ویرایش تعدادصفحات 22
قبل از تخمین مدل، به بررسی ایستایی می پردازیم. می توان چنین تلقی نمود که هر سری زمانی توسط یک فرآیند تصادفی تولید شده است. داده های مربوط به این سری زمانی در واقع یک مصداق از فرآیند تصادفی زیر ساختی است. وجه تمایز بین (فرآیند تصادفی) و یک (مصداق) از آن، همانند تمایز بین جامعه و نمونه در داده های مقطعی است. درست همانطوری که اطلاعات مربوط به نمونه را برای استنباطی در مورد جامعه آماری مورد استفاده قرار می دهیم، در تحلیل سریهای زمانی از مصداق برای استنباطی در مورد فرآیند تصادفی زیر ساختی استفاده می کنیم. نوعی از فرآیندهای تصادفی که مورد توجه بسیار زیاد تحلیل گران سریهای زمانی قرار گرفته است فرآیندهای تصادفی ایستا می باشد.
برای تاکید بیشتر تعریف ایستایی، فرض کنید Yt یک سری زمانی تصادفی با ویژگیهای زیر است:
(1) : میانگین
(2) واریانس :
(3) کوواریانس :
(4) ضریب همبستگی :
که در آن میانگین ، واریانس کوواریانس (کوواریانس بین دو مقدار Y که K دوره با یکدیگر فاصله دارند، یعنی کوواریانس بین Yt و Yt-k) و ضریب همبستگی مقادیر ثابتی هستند که به زمان t بستگی ندارند.
اکنون تصور کنید مقاطع زمانی را عوض کنیم به این ترتیب که Y از Yt به Yt-k تغییر یابد. حال اگر میانگین، واریانس، کوواریانس و ضریب همبستگی Y تغییری نکرد، می توان گفت که متغیر سری زمانی ایستا است. بنابراین بطور خلاصه می توان چنین گفت که یک سری زمانی وقتی ساکن است که میانگین، واریانس، کوواریانس و در نتیجه ضریب همبستگی آن در طول زمان ثابت باقی بماند و مهم نباشد که در چه مقطعی از زمان این شاخص ها را محاسبه می کنیم. این شرایط تضمین می کند که رفتار یک سری زمانی، در هر مقطع متفاوتی از زمان، همانند می باشد .
آزمون ساکن بودن از طریق نمودار همبستگی و ریشه واحد
یک آزمون ساده برای ساکن بودن براساس تابع خود همبستگی (ACF) می باشد. (ACF) در وقفه k با نشان داده می شود و بصورت زیر تعریف می گردد.
از آنجاییکه کوواریانس و واریانس، هر دو با واحدهای یکسانی اندازه گیری میشوند، یک عدد بدون واحد یا خالص است. به مانند دیگر ضرایب همبستگی، بین (1-) و (1+) قرار دارد. اگر را در مقابل K (وقفه ها) رسم نماییم، نمودار بدست آمده، نمودار همبستگی جامعه نامیده می شود. از آنجایی که عملاً تنها یک تحقق واقعی (یعنی یک نمونه) از یک فرآیند تصادفی را داریم، بنابراین تنها میتوانیم تابع خود همبستگی نمونه، را بدست آوریم. برای محاسبه این تابع میبایست ابتدا کوواریانس نمونه در وقفه K و سپس واریانس نمونه را محاسبه نماییم.
که همانند نسبت کوواریانس نمونه به واریانس نمونه است. نمودار در مقابل K نمودار همبستگی نمونه نامیده می شود. در عمل وقتی مربوط به جامعه را ندایم و تنها را براساس مصداق خاصی از فرآیند تصادفی در اختیار داریم باید به آزمون فرضیه متوسل شویم تا بفهمیم که صفر است یا خیر. بارتلت (1949) نشان داده است که اگر یک سری زمانی کاملاً تصادفی یعنی نوفه سفید باشد، ضرایب خود همبستگی نمونه تقریباً دارای توزیع نرمال با میانگین صفر و واریانس می باشد که در آن n حجم نمونه است. براین اساس می توان یک فاصله اطمینان، در سطح 95 درصد ساخت. بدین ترتیب اگر تخمینی در این فاصله قرار گیرد، فرضیه( =0) را نمی توان رد کرد. اما اگر تخمینی خارج از این فاصله اعتماد قرار گیرد می توان صفر بودن را رد کرد.
آزمون دیگری نیز بصورت گسترده برای بررسی ایستایی سریهای زمانی بکار میرود که به آزمون ریشه واحد معروف است. برای فهم این آزمون مدل زیر را در نظر بگیرید :
Yt = Yt-1+Ut
Ut جمله خطای تصادفی است که فرض می شود بوسیله یک فرآیند تصادفی مستقل (White Noise) بوجود آمده است. (یعنی دارای میانگین صفر، واریانس ثابت و غیر همبسته می باشد).
خواننده می تواند تشخیص دهد که معادله فوق، یک معادلخ خود رگرسیون مرتبه اول یا AR(1) می باشد. در این معادله مقدار Y در زمان t بر روی مقدار آن در زمان (t-1) رگرس شده است. حال اگر ضریب Yt-1 برابر یک شود مواجه با مساله ریشه واحد می شویم. یعنی این امر بیانگر وضعیت غیر ایستایی سری زمانی Yt می باشد. بنابراین اگر رگرسیون زیر را اجرا کنیم:
و تشخیص دهیم که است، گفته می شود متغیر Yt دارای یک ریشه واحد است. در اقتصاد سنجی سریهای زمانی، سری زمانی که دارای یک ریشه واحد باشد، نمونهای از یک سری زمانی غیر ایستا است.
معادله فوق غالباً به شکل دیگری نیز نشان داده می شود:
که در آن ، اپراتور تفاضل مرتبه اول می باشد. توجه کنید که است. اما اکنون فرضیه صفر ما عبارت است از که اگر برابر با صفر باشد می توانیم معادله فوق را بصورت زیر بنویسیم:
این معادله بیانگر آن است که تفاضل اول سری زمانی Yt ساکن می باشد. زیرا بنا به فرض Ut یک جمله اختلال سفید (اختلال خالص) می باشد.
اگر از یک سری زمانی یک مرتبه تفاضل گرفته شود (تفاضل مرتبه اول) و این سری تفاضل گرفته شده ساکن باشد، آنگاه سری زمانی اصلی (انباشته از مرتبه اول ) می باشد و به صورت I(1) نشان داده می شود.
به طور کلی اگر از یک سری زمانی d مرتبه تفاضل گرفته شود، انباشته از مرتبه d یا I(d) می باشد. پس هرگاه یک سری زمانی انباشته از مرتبه یک یا بالاتر باشد سری زمانی غیر ایستا خواهد بود. بطور متعارف اگر d=0 باشد، در نتیجه فرآیند I(0) نشان دهنده یک فرآیند ساکن می باشد. به همین علت نیز یک فرآیند ساکن بصورت I(0) مورد استفاده قرار می گیرد.
برای وجود ریشه واحد تحت فرضیه از آمار یا (tau) استفاده میکنیم، مقادیر بحرانی این آماره به روش شبیه سازی مونت کارلو توسط دیکی و فولر بصورت جداول آماری محاسبه شده است. (متاسفانه آماره t ارائه شده حتی در نمونههای بزرگ از توزیع t استیودنت پیروی نمی کند و در نتیجه نمی توان از کمیت بحرانی t برای انجام آزمون استفاده کرد.)
در ادبیات اقتصادسنجی آزمون یا (tau)، به آزمون دیکی- فولر (DF) مشهور میباشد. باید توجه داشت که اگر فرضیه صفر رد شود، سری زمانی ساکن بوده و می توان از تابع آزمون t استیودنت استفاده نمود.
اگر قدر مطلق آماره محاسباتی (tau)، بزرگتر از قدر مطلق مقادیر بحرانی (DF) یا مک کینان باشد، آنگاه فرضیه مبتنی بر ساکن بودن سری زمانی را رد نمی کنیم از طرف دیگر اگر مقدار قدر مطلق محاسباتی کمتر از مقدار بحرانی باشد، سری زمانی غیر ایستا خواهد بود.