یارا فایل

مرجع دانلود انواع فایل

یارا فایل

مرجع دانلود انواع فایل

پروژه داده کاوی و کاربرد الگوریتم های ژنتیک در داده کاوی. doc

اختصاصی از یارا فایل پروژه داده کاوی و کاربرد الگوریتم های ژنتیک در داده کاوی. doc دانلود با لینک مستقیم و پر سرعت .

پروژه داده کاوی و کاربرد الگوریتم های ژنتیک در داده کاوی. doc


پروژه داده کاوی و کاربرد الگوریتم های  ژنتیک در داده کاوی. doc

 

 

 

 

نوع فایل: word

قابل ویرایش 142 صفحه

 

چکیده:

داده کاوی تلاش برای استخراج دانش انبوه داده های موجود است. داده کاوی به کمک مجموعه ای از روش های آماری و مدل سازی، می تواند الگوها و روابط پنهان موجود در پایگاه های داده را تشخیص دهد. تاکنون ابزارها و روش های مختلف برای پردازش اطلاعات ساخت یافته توسعه داده شده است که در نتیجه آنها ساخت پایگاه های اطلاعاتی و ایجاد انبارهای داده به سادگی صورت می گیرد. امروزه سازمان ها قادرند با هزینه کم اطلاعات وسیعی از وضعیت کسب و کار خود جمع و نگهداری کنند و این موجب شده است که استفاده از روش های داده کاوی، ارزش قابل توجهی را برای سازمان بدست آورد. رویکردهای موجود به مسأله داده کاوی متنوع است . در این گزارش نگاهی به آخرین دستاوردهای این زمینه علمی انداخته خواهد شد.

 

مقدمه:

بشر با پیشرفت فناوری رایانه ای در ثبت و ذخیره سازی داده ها و پردازش آن ها گامی بزرگ جهت کسب دانش برداشته است . در واقع نمایشی از واقعیت ها، معلومات، مفاهیم، رویدادها یا پدیده ها برای برقراری ارتباط، تفسیر یا پردازش، توسط انسان یا ماشین است . از طرف دیگر واژه ی اطلاعات، به معنی دانشی که از طریق خواندن، مشاهده و آموزش به دست می آید اطلاق می شود . در حقیقت می توان گفت اطلاعات داده هایی هستند که پس از جمع آوری پردازش شده اند و شکل مفهومی تولید کرده اند .

بین داده ها و اطلاعات همانند خبر و اطلاع رابطه وجود دارد . خبری که دریافت می شود، پس از ارزیابی به اطلاع تبدیل می شود . داده ها نیز پردازش می شوند تا اطلاعات را پدید آورند . به بیان دیگر اطلاع حاصل تکامل داده ها است . به این ترتیب بین داده ها و اطلاعات یک شکاف وجود دارد که اندازه این شکاف با حجم داده ها ارتباط مستقیم دارد . هر چه داده ها حجیم تر باشند، این شکاف بیشتر خواهد بود و هر چه داده ها کمتر و روش ها و ابزار پردازش داده ها کاراتر باشد، فاصله بین داده ها و اطلاعات کمتر است . امروزه افزایش سریع حجم پایگاه داده ها به شکلی است که توانایی انسان برای درک این داده ها بدون ابزارهای پر قدرت میسر نمی باشد . در این وضعیت، تصمیم گیری ها به جای تکیه بر اطلاعات بر درک مدیران و کاربران تکیه دارند، چرا که تصمیم گیرندگان ابزار قوی برای استخراج اطلاعات با ارزش را در دست ندارند . در واقع شرایط فعلی توصیف کننده ی حالتی است که ما از لحاظ داده غنی، اما از لحاظ اطلاعات ضعیف هستیم .

 

فهرست مطالب:

فصل اول

مقدمه ای بر داده کاوی

چکیده

1-1 مقدمه

1-2 تاریخچه ی داده کاوی

1-3 روش های گردآوری اطلاعات

1-4 داده کاوی چیست ؟

1-4-1  حلقه داده کاوی چیست ؟

1-4-1-1 شناسایی فرصت های تجاری

1-4-1-2 داده کاوی

1-4-1-2-1  مراحل داده کاوی

1-4-1-3 انجام اقدامات

1-4-1-4 اندازه گیری نتایج

1-1 آمار و داده کاوی

حجم داده ها

نوع داده ها

پردازش داده ها

وظایف معمول

اهداف تحقیق

1-6  داده کاوی چه کاری انجام می دهد ؟

1-6-1  عملیات داده کاوی

1-6-1-1 دسته بندی و پیشگویی

1-6-1-1-1 روش های دسته بندی

1-6-1-2  خوشه بندی

1-6-1-3  تحلیل روابط و وابستگی ها

1-6-1-4 پیش بینی

1-7 نرم افزارهای داده کاوی

1-8  پایگاه دادة تحلیلی (Data Warehouse)

1-8-1 تفاوت های پایگاه داده تحلیلی با پایگاه داده عملیاتی

1-8-2 ابزار های سطح پایین (Back-End) پایگاه داده تحلیلی

1-8-3 ابزارهای پرس و جو و تحلیل داده های ذخیره شده درdata warehouse و data mart

1-9 سرویس دهنده های پردازش تحلیلی بر خط

1-9-1 مزایا و معایب سرویس دهنده های OLAP

1-10 مکعب داده

1-11 جدول واقعیت

1-11-1 جدول ابعاد

1-12 داده کاوی در اوراکل

1-12-1 توابع داده کاو اوراکل الگوریتم ها

1-13 گام های مدل سازی جستجوگر مدل

1-14 داده کاوی در Clementine

1-14-1 معماری

1-14-2  متدلوژی clementine الگوریتم ها

فصل دوم

مقدمه ای بر وب کاوی

2-1 مقدمه

2-2 رده بندی های وب کاوی

2-2-1 Web Content Mining

2-2-2 web usage mining

2-2-3 Web Structure Mining

2-3 فایل log

2-3-1 انجام عمل پیش پردازش روی فایل های log

2-4 تشخیص کاربران : (user identification)

2-5 session identification

2-6  تشخیص الگو ها

2-7  تکنیک های آماری

2-8 قوانین ارتباطی

2-9 الگو های ترتیبی

2-10 خوشه بندی

2-11 مشکلات روش تحلیل گزارش های وبweb log analysis method )  )

2-12 نتیجه گیری

فصل سوم

الگوریتم های ژنتیک

3-1 مقدمه

3-2 زمینه های بیولوژیکی

3-3 فضای جستجو

3-4 مسائل NP

3-5 مفاهیم اولیه در الگوریتم ژنتیک

3-5-1 اصول پایه

3-5-2 شمای کلی الگوریتم ژنتیک

3-5-3 ساختار متداول الگوریتم ژنتیک

3-6 کد کردن

3-6-1 انواع کدینگ

3-6-2 روشهای کدینگ

3-6-3 مسائل مربوط به کدینگ

3-7 مرحله ارزیابی (evaluation)

3-8 عملگر تقاطع و جهش

3-9 رمز گشایی

3-10 کروموزوم

3-11 جمعیت

3-12 مقدار برازندگی

3-13 تعریف دیگر عملگر تقاطعی

3-14 تعریف دیگرعملگر جهشی

3-15 مراحل اجرای الگوریتم ژنتیک

3-16 حل یک مساله نمونه توسط الگوریتم ژنتیک

3-17 همگرایی الگوریتم ژنتیک

3-18 نتیجه گیری

فصل چهارم

کاربرد کلاسترینگ

4-1 مقدمه

4-2 مسئلة خوشه بندی توزیع شده

4-3 مشکلات روش متمرکز سازی داده ها

4-4  الگوریتم خوشه بندی K-Means

4-5 الگوریتم خوشه بندی توزیع شده DisK-Means

4-6 ساخت مدل محلی

4-7 ساخت مدل عمومی

4-8 یک روش جدید مبتنی بر رفتار کاربران جهت تخمین بار کاری وب سرورهای شبکه

4-9 کلاسترینگ داده های وب

4-10 کلاسترینگ Session های کاربر

4-10-1 الگوریتم های کلاسترینگ Session  ها

4-10-1-1 کلاسترینگ مبتنی بر مدل

4-10-1-1-1  توصیف بار کاری سیستم های کامپیوتری

تکنیک های ایستا

آنالیز جزء اصلی

تکنیک های پویا

میانگین متحرک (Moving Average)

4-11 کارهای وابسته قبلی

4-12  مدل پیشنهادی

4-13  محیط پیاده سازی

4-14  نتایج ، آنالیز و ارزیابی مدل

4-15  نتیجه گیری

منابع و مراجع

 

فهرست اشکال:

شکل 1  مراحل داده کاوی

شکل 2  جایگاه پایگاه داده تحلیل

شکل 3-1  Data Warehouse process

شکل 3-2 Data Warehouse process

شکل 4  معماری چند لایه

شکل 5 نمونه ای از مکعب داده

شکل 6  مفهوم مکعب داده

شکل 7  داده کاوی در اوراکل

شکل 8  اوراکل یا سایز ابزار

شکل 9  مراحل متدولوژی Clementine

شکل 10  چرخه داده کاوی Clementine

شکل 3-1 نمونه ای از فضای جواب

شکل 3-2  کدینگ باینری

شکل 3-3  کدینگ جهشی

شکل 3-4  کدینگ ارزشی

شکل 3-5  کدینگ درختی

شکل 3-6  فضای کدینگ و فضای جواب

شکل 3-7  رابطه بین کروموزوم ها و جواب ها

شکل 3-8  انواع روابط بین فضای جواب و فضای کدینگ

شکل 3-9 مثال رمز گشایی

شکل 3-10  مثال جهش

شکل 3-11 نمایش یک کروموزوم n بیتی پایه عددی m

شکل 3-12  مثالی از جباجایی تک نقطه ای

شکل 3-13  تقاطع در کروموزومهای که از شکل کد شده چهار متغیر بوجود آمده است

شکل 3-14  تقاطعی دو نقطه ای

شکل 3-15  عمل تقاطعی یکنواخت

شکل 3-16  نمونه ای از عمل جهش

شکل 3-17 مراحل اجرای الگوریتم ژنتیک

شکل 3-18 چرخ دولت

شکل 3-19 نمایش کروموزوم معادل زوج (X,Y)

شکل 11 خوشه بندی توزیع شده

شکل 12  ثابت شدن فلش Cetroid

شکل 13 الگوریتم خوشه بندی توزیع شده Disk-Means

شکل 14  ساخت مدل محلی، ترکیب اطلاعات خوشه ها

شکل 15-1  ساخت مدل محلی، ترکیب اطلاعات خوشه ها

شکل 4-2  ساخت مدل محلی، ترکیب اطلاعات خوشه ها

شکل 4-3  ساخت مدل  محلی، حالت کلی

شکل 16 حاللات مختلف قرار گرفتن چند خوشه کنار هم

شکل 17-1  ساخت مدل محلی، حالت دوم

شکل 6-2  ساخت مدل محلی، حالت دوم

شکل 18  نمونه هایی از CBMG های حاصل از درخواست های کاربران یکی از سیستم های مورد تست

در دانشگاه مشهد

شکل 19  هیستوگرام داده های باقیمانده لینک Presented Courset بعد از حذف داده های پرت

از یکی از سیستم های وب دانشگاه

شکل 20  نمودار P-PPlot داده های لینک Presented Courset

شکل 4  هیستوگرام داده های باقیمانده لینک Show Edueationallog بعد از حذف داده های پرت

 

فهرست جداول:

جدول 3-1  مثال های تقاطع تک نقطه ای

جدول 3-2  مثال های تقاطع دو نقطه ای

جدول 3-3  نمونه ای از عمل جهش

جدول 3-4  انتخاب کروموزومها با استفاده از چرخ رولت

جدول 3-5  نمایش جمعیت اولیه

جدول 3-6  نتایج عمل تقاطع

جدول 3-7 نتایج عمل جهش با Pm=0.2          

جدول 3-8  کروموزوم با بیشترین مقدار برازندگی

جدول 1 جزئیات ترافیک تولید شده توسط برنامه شبیه ساز

 

منابع و مأخذ:

 [1]. An Introduction to Data Mining: http://www.thearling.com/ , retrieved on Mar 2, 2007

[2]. Data Mining: Efficient Data Exploration and Modeling: http://research.microsoft.com/dmx/DataMining/ , retrieved on Mar 2, 2007

[3]. Christine Gertisio and Alan Dussauchoy, "Knowledge Discovery from Industrial Data base", Journal of Intelligent Manufacturing, 15, 29-37, 2004

[4]. Berry, M. and Linoff, G. "Data Mining Techniques: For Marketing, Sales, and Customer Support" New York: John Wiley and Sons, 1997

[5]. Cornelia Gyorodi, Robert Gyorodi, Stefan Holban-"A Comparative Study of Association Rules Mining Algorithms" , SACI 2004, 1 st Romanian-Hungarian Joint Symposium on Applied Computational Intelligence , Timisoara, Romania, May 25-26, page. 213-222, 2004

[6]. Berson, A., Smith S., and Thearling K., "Building Data Mining Applications for CRM" Tata McGraw-Hill, New York, 2004

[7].Fayyad U., Piatetsky-Shapiro G., and Smyth p., "From Data Mining to Knowledge Discovery in Databases," American Association for Artificial Intelligence, 1996

[8]. An overview of data mining techniques: http://www.thearling.com/ , retrieved on Mar 2, 2007

[9]. All Data Mining Software: http://www.the-data-mine.com/bin/view/Software/AllDataMiningSoftware, retrieved on Mar 2, 2007

[10]. ARLITT, M. AND WILLIAMSON, C. 1996: Web Server Workload Characterization: The Search for Invariants. In Proc  Of SIGMETRICS 96, (May 1996), 126—137

[11]. CALZAROSSA, M. AND SERAZZI, G. 1985: A Characterization of the Variation in Time of Workload Arrival Patterns. In IEEE Trans. On Computers 34, 2, 156-162

[12]. ELMS, C. 1980: Clustering –One method for Workload Characterization. In Processing of the International Conference on Computer Capacity Management, San Francisco, Calif . 1980

[13]. FU, K. 1974: Syntactic Methods in Pattern Recognition, Academic Press.

[14]. HARTIGAN, J. AND WONG, N. 1979: A K – means Clustering Algorithms. In Applied Statistics 28, 100-108

[15]. JAIN, A., MURTY, M., AND FLYNN, P. 1999: Data Clustering: A. Review. In ACM Computing Surveys 31, 3, (Sept. 1999), 264-323


دانلود با لینک مستقیم


پروژه داده کاوی و کاربرد الگوریتم های ژنتیک در داده کاوی. doc

نحوه ی دریافت داده های بورس ایران از مفید تریدر 5 به داینامیک تریدر

اختصاصی از یارا فایل نحوه ی دریافت داده های بورس ایران از مفید تریدر 5 به داینامیک تریدر دانلود با لینک مستقیم و پر سرعت .

نحوه ی دریافت داده های بورس ایران از مفید تریدر 5 به داینامیک تریدر


نحوه ی دریافت داده های بورس ایران از مفید تریدر 5 به داینامیک تریدر

25%تخفیف برای مدت محدود 

توضیح طرح:

نحوه دریافت داده های مربوط ب بورس از طریق مفیدتریدر به داینامیک تریدر یکی از بهترین روشهای حال موجود است.

فرصتی طلایی:

برای اولین بار،این مطلب را در هیچ سایتی پیدا نمیکنید

 

 


دانلود با لینک مستقیم


نحوه ی دریافت داده های بورس ایران از مفید تریدر 5 به داینامیک تریدر

دانلود پاورپوینت آمار و مدلسازی - داده ها - دهم انسانی و سوم تجربی - 7 اسلاید قابل ویرایش

اختصاصی از یارا فایل دانلود پاورپوینت آمار و مدلسازی - داده ها - دهم انسانی و سوم تجربی - 7 اسلاید قابل ویرایش دانلود با لینک مستقیم و پر سرعت .

دانلود پاورپوینت آمار و مدلسازی - داده ها - دهم انسانی و سوم تجربی - 7 اسلاید قابل ویرایش


دانلود پاورپوینت آمار و مدلسازی - داده ها - دهم انسانی و سوم تجربی - 7 اسلاید قابل ویرایش

 

 

 

 

از طریق مشاهده و ثبت وقایع

-از طریق انجام آزمایش

نکات مهمی در تهیه پرسش نامه

-از سوالات ساده و کاملا واضح استفاده کنید.استفاده از عبارتی که معیار مشخصی ندارد باعث می شود تا از سوالات چند برداشت شود.حدالامکان از سوالاتی که  پاسخ آنها یک کلمه ای یا اعداد هستند استفاده می شود
-سوالاتی که پاسخ دهنده نخواهد جواب دقیق بدهد مانند سن ،درآمدو....از پاسخ های از پیش آماده شده استفاده کنید

 

"مناسب برای دبیران، دانش آموزان و اولیاء"

برای دانلود کل پاورپوینت از لینک زیر استفاده کنید:

 


دانلود با لینک مستقیم


دانلود پاورپوینت آمار و مدلسازی - داده ها - دهم انسانی و سوم تجربی - 7 اسلاید قابل ویرایش

دانلود پروژه بررسی کاربردی مدل های داده چند بعدی(OLAP) واستفاده از الگوهای آماری

اختصاصی از یارا فایل دانلود پروژه بررسی کاربردی مدل های داده چند بعدی(OLAP) واستفاده از الگوهای آماری دانلود با لینک مستقیم و پر سرعت .

دانلود پروژه بررسی کاربردی مدل های داده چند بعدی(OLAP) واستفاده از الگوهای آماری


دانلود پروژه بررسی کاربردی مدل های داده چند بعدی(OLAP)  واستفاده از الگوهای آماری

ﻳﻜﻲ از ﭼﺎﻟﺸﻬﺎی ﻋﺼﺮ ﺣﺒﺎﺑﻲ اﻣﺮوز ‪  post-dot-comﻛﻪ ﺑﺴﻴﺎری از ﺳﺎزﻣﺎﻧﻬﺎ ﺑﺎ آن ﻣﻮاﺟﻪ ﻣﻲ ﺷﻮﻧﺪ اﻳﻦاﺳﺖ ﻛﻪ اﻧﺘﻈﺎر ﻣﻲ رود ﺑﻪ ﻣﻨﻈﻮر ﺑﻬﺒﻮد ﺳﻮد و زﻳﺎن ﺷﺮﻛﺖ ﺑﺪون ﻫﻴﭻ ﺑﻮدﺟـﻪ ﻳـﺎ ﺑـﺎ ﺑﻮدﺟـﻪ ﻛﻤـﻲ ﻣﺤـﺼﻮل ﺑﻴﺸﺘﺮی را اراﺋﻪ دﻫﻨﺪ. ﻣﻤﻜﻦ اﺳﺖ ﺷﻤﺎ ﺑﻪ دﻧﺒﺎل روﺷﻬﺎی ﺟﺪﻳﺪی ﺑﺮای ﻛﺎﻫﺶ ﻫﺰﻳﻨﻪ ﻫﺎی ﺗﻜﻨﻮﻟـﻮژی ﺑﺎﺷـﻴد ‫در ﺣﺎﻟﻴﻜﻪ در ﻫﻤﺎن زﻣﺎن از ﺗﻘﺎﺿﺎﻫﺎی ﺟﺪﻳﺪ و ﺑﻬﺒﻮد ﺑﻬﺮه وری ﺣﻤﺎﻳﺖ ﻛﻨﻴﺪ .ﺑﻌﻼوه ﺑﻪ دﻧﺒﺎل رﺳﻮاﻳﻲ ﻫﺎی اﺧﻴﺮ ﺣﺴﺎﺑﺪاری ﺷﺮﻛﺘﻬﺎ ﻗﻮاﻧﻴﻦ ﺟﺪﻳﺪی ﺗﺪوﻳﻦ ﺷﺪ ﺗﺎ ﻣﺴﺌﻮﻟﻴﺖ ﺷـﺮﻛﺘﻬﺎ را ﺑﺎﻻ و ﺑﺒﺮد اﻓﺸﺎ ﺳﺎزی ﻣﺎﻟﻲ را ﺑﻬﺒﻮد ﺑﺨﺸﺪ و ﺑﺎ ﺟﺮاﺋﻢ ﻣـﺎﻟﻲ ﺷـﺮﻛﺖ ﻣﺒـﺎرزه ﻛﻨـﺪ . ‪Sarbanes-Oxle ﺑـﻪ ﺷﺮﻛﺘﻬﺎ اﻣﺮ ﻣﻲ ﻛﻨﺪ ﺗﺎ ﻛﻨﺘﺮل ﺟﺎﻣﻌﻲ ﺑﺮ ﻣﺪﻳﺮﻳﺖ داﺷﺘﻪ ﺑﺎﺷﻨﺪ و اﻃﻼﻋﺎت ﻣﺎﻟﻲ ﺷﺮﻛﺖ را ﮔﺰارش ﻛﻨﻨﺪ و ﺑﺮایاﻧﺠﺎم اﻳﻦ ﻛﻨﺘﺮﻟﻬﺎ ﻣﺴﺌﻮﻟﻴﺘﻬﺎﻳﻲ را ﺑﺮروی ﻣﺪﻳﺮ ﻋﺎﻣﻞ و ﻣﺪﻳﺮ ارﺷﺪ ﻗﺮار ﻣﻲ دﻫﺪ.اﻳﻦ ﻋﻤﻞ ﺑﻪ ﻧﻮﺑﻪ ﺧﻮد ﻧﻴﺎزﻫﺎی ﺟﺪﻳﺪی را ﺑﺮ ﺳﺎزﻣﺎنIT ﺗﺤﻤﻴﻞ ﻣﻲ ﻛﻨﺪ. ﺑﻨﺎﺑﺮاﻳﻦ ﭼﮕﻮﻧﻪ ﻗﺎدرﻳﺪ ﻫﺰﻳﻨﻪ ﻫﺎ را ﻗﻄﻊ و در ﻫﻤـﺎن زﻣـﺎن دﻳـﺪﮔﺎه ﻛﻠـﻲ از اﻃﻼﻋـﺎت ﻣﻬـﻢ ﺗﺠـﺎری راﮔﺴﺘﺮش دﻫﻴﺪ ؟ ﭼﮕﻮﻧﻪ ﻣﻲ ﺗﻮاﻧﻴﺪ از اﻃﻼﻋﺎﺗﺘﺎن ﺑﺮای اﺳﺘﻔﺎده ﺑﻬﺘـﺮ از ﻓﺮﺻـﺘﻬﺎی ﺑﺮاﺑـﺮ ﺗـﺎﺛﻴﺮ اﺟـﺮا ﺑﻬﺒـﻮد  ‫ﺗﺼﻤﻴﻢ ﮔﻴﺮی ﺑﺪﺳﺖ آوردن ﻣﺮز رﻗﺎﺑﺖ اﻓﺰاﻳﺶ ﺳﻮد و ﺗﻬﻴﻪ ﮔﺰارش ﻣﺎﻟﻲ ﺑﻬﺮه ﺑﺒﺮﻳﺪ

 2-1-1 ﻳﻜﭙﺎرﭼﮕﻲ:

‫اﻣﻜﺎن ﻳﻚ ﭘﺎﺳﺦ ﺑﺮای ﻳﻜﭙﺎرﭼﮕﻲ وﺟﻮد دارد. ﺑﺴﻴﺎری از ﺷـﺮﻛﺘﻬﺎ ﻓﻌﺎﻟﻴﺘﻬﺎﻳـﺸﺎن را ﺑـﺎ ﻳﻜﭙﺎرﭼـﻪ ﺳـﺎزی ﺳﺨﺖ اﻓﺰار اﻃﻼﻋﺎت و ﺗﻘﺎﺿﺎ ﻫﺎ ﺗﺴﻬﻴﻞ ﻣﻲ ﻛﻨﻨﺪ و ﻓﻌﺎﻟﻴﺘﻬﺎی ﺗﺠﺎری ﺧﻮد را ﺑﻪ ﺗﻌﺪاد ﻛﻮﭼﻜﺘﺮی از ﺳﻴـﺴﺘﻢﻫﺎی ﻣﺘﻤﺮﻛﺰ ﺳﺎده ﻣﻲ ﻛﻨﻨﺪ ﺳﭙﺲ ، ﺳﺎدﮔﻲ از ﻃﺮﻳﻖ ﻳﻚ ﺷﺎﻟﻮده ﻣﺸﺘﺮک ﻣﻲ ﺗﻮاﻧﺪ ﺑﺪﺳﺖ آﻳـﺪ ﺗﻮاﻧـﺎﻳﻲ ﺑﺮای ﺟﻤﻊ آوری اﻃﻼﻋﺎت ﻫﺮ ﺑﺨﺶ از ﺷﺮﻛﺖ دﻳﺪ ﺳﺎزﻣﺎﻧﻲ ﻗﺎﺑﻞ ﻗﺒـﻮﻟﻲ را ﺑـﻪ ﻫﻤـﺮاه دارد. در اﻳـﻦ ﻳﻜﭙﺎرﭼـﻪﺳﺎزی اﻧﺒﺎر داده ﻧﻘﺶ ﺑﺴﺰاﻳﻲ دارد.

3-1-1 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺳﺨﺖ اﻓﺰار:

‫در ﮔﺬﺷﺘﻪ ﺷﺮﻛﺘﻬﺎ ﻣﻌﻤﻮﻻ ﺑﺮای ﻫﺮ ﺗﻘﺎﺿﺎی ﺟﺪﻳﺪ ﺳﻴﺴﺘﻢ ﻫﺎی اﺧﺘﺼﺎﺻﻲ ﺧﺮﻳﺪاری ﻣـﻲ ﻛﺮدﻧـﺪ. اﻳـﻦ ﺳﻴﺴﺘﻤﻬﺎ ﻻزم ﺑﻮد ﺑﻪ اﻧﺪازه ای ﺑﺎﺷﻨﺪ ﻛﻪ ﺗﻘﺎﺿﺎﻫﺎی زﻳﺎدی را ﺟﻮاﺑﮕﻮ ﺑﺎﺷﻨﺪ ﺑﻪ اﻳﻦ ﻣﻌﻨﺎ ﻛﻪ ﺑﻌـﻀﻲ ﻣﻨـﺎﺑﻊ درزﻣﺎن ﻫﺎی دﻳﮕﺮ ﺑﻴﻬﻮده ﺑﻮدﻧﺪ .آﻳﺎ ﺑﻬﺘﺮ ﻧﺒﻮد اﻳﻦ ﻣﻨﺎﺑﻊ در ﻛﺎرﺑﺮدﻫﺎی دﻳﮕﺮی ﻛﻪ ﺑﻪ آﻧﻬﺎ ﻧﻴﺎز ﺑـﻮد ﺑﻜـﺎر ﮔﺮﻓﺘـﻪ می شدند؟

 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺷﺎﻣﻞ اﺳﺘﻔﺎده ﻣﺠﺪد از ﺳﺨﺖ اﻓﺰار ﻣﻮﺟـﻮد و ﻫـﻢ ﺧﺮﻳـﺪﻫﺎی ﺟﺪﻳـﺪ اﺳـﺖ . اﻣـﺮوزه ﺑﺴﻴﺎری از ﻓﺮوﺷﻨﺪﮔﺎن ﺳﺨﺖ اﻓﺰار ﻗﻄﻌﺎت ﺳﺮﻳﻊ و ارزان ﻗﻴﻤﺖ ﺗﺮی ﻣﺎﻧﻨﺪ ﺳـﺮوﻳﺲ دﻫﻨـﺪه ﻫـﺎ و ﺗﺠﻬﻴـﺰات ﺷﺒﻜﻪ ای را ﻋﺮﺿﻪ ﻣﻲ ﻛﻨﻨﺪ . ﺻﺮﻓﻪ ﺟﻮﻳﻲ در ﻫﺰﻳﻨﻪ ﻫﺎ ﻣﻲ ﺗﻮاﻧﺪ از ﻃﺮﻳﻖ ﺗﻐﻴﻴﺮ ﺟﻬﺖ ﺳﺨﺖ اﻓﺰار اﺧﺘـﺼﺎﺻﻲ ﺳﻴﺴﺘﻢ ﻋﺎﻣﻞ ﺑﻪ ﺳﺨﺖ اﻓﺰار ارزان ﺗﺮ ﺑﺎ اﺳﺘﻔﺎده از ﭘﺮدازﺷﮕﺮﻫﺎی اﻳﻨﺘﻞ ﻛﻪ ﺳﻴﺴﺘﻢ ﻋﺎﻣﻞ ﻟﻴﻨﻮﻛﺲ را اﺟﺮا ﻣﻲﻛﻨﻨﺪ ﺑﺪﺳﺖ آﻳﺪ . ﻣﺰﻳﺖ ﻫﺰﻳﻨﻬﺎی ﻛﻪ ﺑﺮ روی ﻟﻴﻨﻮﻛﺲ اﺳﺖ در ﻣﻘﺎﻳﺴﻪ ﺑﺎ ﻳﻚ ﺳﻴﺴﺘﻢ ﭼﻨﺪ ﭘﺮدازﺷـﻲ ﻛـﻪ ﺑـﺮ روی ﺳﻴﺴﺘﻢ ﻋﺎﻣﻞ اﺧﺘﺼﺎﺻﻲ اﺳﺖ دارای اﻫﻤﻴﺖ ﻣﻲ ﺑﺎﺷﺪ.

‫ﻫﺰﻳﻨﻪ ﻫﺎی ذﺧﻴﺮه ﺳﺎزی در ﻫﺮ ﺳﺎل در ﺣﺎل ﻛﺎﻫﺶ اﺳﺖ و اﻳﻦ اﻣﻜـﺎن وﺟـﻮد دارد ﺗـﺎ ﻣﻨﺒـﻊ ذﺧﻴـﺮه ﺳﺎزی را ﺑﺎ ﭘﻮل ﻛﻤﺘﺮی ﺑﺨﺮﻳﻢ .ﭼﺮا ﺑﺎﻳﺪ ﺑﺮای ﻳﻚ ﺳﻴﺴﺘﻢ ﻣﻴﻠﻴﻮﻧﻬﺎ دﻻر ﻫﺰﻳﻨـﻪ ﺷـﻮد در ﺣـﺎﻟﻲ ﻛـﻪ ﻣﻴﺘﻮاﻧﻴـﺪ ‫ﻫﻤﺎن ﻗﺎﺑﻠﻴﺖ ﻫﺎ را ﺑﺎ ﺻﺪﻫﺎ دﻻر ﺑﺪﺳﺖ آورﻳﺪ؟

‫ﻣﻤﻜﻦ اﺳﺖ ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺑﺮای ﺷﺮﻛﺘﻬﺎی ﺑﺰرگ ادﻏﺎم ﻣﺮاﻛﺰ اﻃﻼﻋﺎﺗﻲ ﻏﻴﺮ ﻣﺘﻤﺮﻛﺰ ﺑﻪ ﻣﺮاﻛﺰ اﻃﻼﻋﺎت ‫ﻣﺤﺪود ﺑﺎﺷﺪ . در ﻧﺘﻴﺠﻪ ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺳﺨﺖ اﻓﺰار ی وﺟﻮد ﺳﻴﺴﺘﻤﻬﺎی ﻛﻤﺘﺮی ﺟﻬﺖ ﺳﺎﻣﺎﻧﺪﻫﻲ ﻧـﺮم اﻓـﺰار ‫ﺟﻬﺖ ﻧﺼﺐ و ﺗﻌﻤﻴﻴﺮ و اﻣﻨﻴﺖ و ﻛﺎﻫﺶ ﺑﻴﺸﺘﺮ ﻫﺰﻳﻨﻪ ﻫﺎ را ﺑﺪﻧﺒﺎل دارد.  

  ‫4-1-1 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی داده ﻫﺎ از دﻳﺪ ﻳﻚ ﺷﺮﻛﺖ ﻣﻌﻤﻮﻟﻲ :

ﺳﻴﺴﺘﻢ ﻫﺎی ﻳﻜﭙﺎرﭼﻪ داده ﻫﺎ ﻣﻲ ﺗﻮاﻧﻨﺪ در ﻳﻚ ﻣﻜﺎن ، اﻏﻠﺐ در ﭘﺎﻳﮕﺎه داده ﻫﺎ ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺷـﻮﻧﺪ . ﺣﺬف داده ﻫﺎی اﺿﺎﻓﻲ ﺑﺎﻋﺚ ﺑﻬﺒﻮد ﻛﻴﻔﻴﺖ و ﻗﺎﺑﻞ دﺳﺘﺮس ﺑﻮدن اﻃﻼﻋﺎت ﻣﻲ ﺷﻮد. ﺑﺴﻴﺎری از ﺷﺮﻛﺘﻬﺎ ﺷـﻤﺎر ﻗﺎﺑﻞ ﺗﻮﺟﻬﻲ از ﭘﺎﻳﮕﺎه داده اوراﻛﻞ و دﻳﮕﺮ ﻓﺮوﺷﻨﺪه ﻫﺎ را ﺑﺪﺳﺖ ﻣﻲ آورﻧﺪ. ﺑﺎ ﻳﻜﭙﺎرﭼﻪ ﻛﺮدن اﻳـﻦ ﻣـﻮارد و ﺑـﺎ ‫ﻛﺎﻫﺶ ﺗﻌﺪاد ﻣﺪﻳﺮان ﻣﻮرد ﻧﻴﺎز ﺑﺮای ﭘﺸﺘﻴﺒﺎﻧﻲ ﺳﻴﺴﺘﻢ ﻫﺎ ﻣﻲ ﺗﻮان در ﻫﺰﻳﻨﻪ ﺻﺮﻓﻪ ﺟﻮﻳﻲ ﻛﺮد .                  

‫5-1-1 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی :

ﺑﺎ ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی داده ﻫﺎ،ﻛﺎرﺑﺮدﻫﺎی ﺧﻮدﻛﺎر اﻣﻜﺎن ﭘﺬﻳﺮ ﻣﻲ ﺷـﻮد و ﺑـﻪ ﻛـﺎرﺑﺮان اﺟـﺎزه ﻣـﻲ دﻫـﺪ ﺗـﺎ اﻃﻼﻋﺎت ﺷﺨﺼﻲ ﺧﻮدﺷﺎن را ﺑﺮوزﻛﻨﻨﺪ.ﻫﻤﺎﻧﻄﻮر ﻛﻪ ﺑﻴﺸﺘﺮ ﺗﻘﺎﺿﺎﻫﺎی ﻛﺎری )ﺗﺠﺎری( ﺑﻪ ﻃﺮف وب ﭘﻴﺶ رﻓﺘـﻪ اﻧﺪ درﮔﺎﻫﻬﺎ ﺑﻪ ﻛﺎرﺑﺮان اﻣﻜﺎن دﺳﺘﺮﺳﻲ ﺑﻪ ﭘﺎﻳﮕﺎه داده ﻫﺎی ﻣﺮﻛﺰی ﺑﺎ ﻳﻚ ﻣﺮورﮔﺮ وب و ﻳﺎ ﺗﻠﻔﻦ ﻫﻤﺮا ه را ﻣـﻲ دﻫﺪ ﻛﻪ ﻧﻴﺎز ﺑﻪ ﺧﺮﻳﺪاری وﻧﺼﺐ ﻧﺮم اﻓﺰارﻫﺎی دﺳﻚ ﺗﺎپ ﺧﺎص را ازﺑﻴﻦ ﻣﻲ ﺑﺮد.

ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ﺧﻮدﻛﺎر در ﻛﺎﻫﺶ ﻫﺰﻳﻨﻪ ﻫﺎی ﻋﻤﻠﻲ ﺑـﺎ ﺣـﺬف ﺑـﺴﻴﺎری از ﻓﺮآﻳﻨـﺪ ﻫـﺎی اﺟﺮاﻳـﻲ،ﻛﺎﻫﺶ ﻫﺰﻳﻨﻪ ﻫﺎی ﺷﺨﺼﻲ و دﺳﺘﺮﺳﻲ 42 ﺳﺎﻋﺘﻪ ﺳﻮدﻣﻨﺪ ﻫﺴﺘﻨﺪ. ﻋﻼوه ﺑﺮ ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ﻣﺎﻧﻨﺪfronts ‪ storeﺑﺴﻴﺎری از ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ‪ back-officeﻫﻢ ﻣﻲ ﺗﻮاﻧﻨﺪ ﺧﻮدﻛﺎر ﺑﺎﺷـﻨﺪ ﻣﺎﻧﻨـﺪ ﻣـﺴﺎﻓﺮت، ﺻـﻮرت  ‫ﺣﺴﺎب ، و ﻣﻨﺎﺑﻊ اﻧﺴﺎﻧﻲ.

  ‫6-1-1 ‪  Gridدر ﭘﺎﻳﮕﺎه داده اوراﻛﻞ 10g:

ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﻣﺮﺣﻠﻪ ای ﺑﺮای اﻧﺠﺎم ﻣﺤﺎﺳﺒﺎت ﺷﺒﻜﻪ ﻓﺮاﻫﻢ ﻣـﻲ آورد.ﻣﺤﺎﺳـﺒﺎت ﺷـﺒﻜﻪ اوراﻛـﻞ ﻳـﻚ ﺷﺎﻟﻮده ﺑﻬﻢ ﭘﻴﻮﺳﺘﻪ از ﭘﺎﻳﮕﺎه داده اوراﻛﻞ  10gﺳﺮوﻳﺲ دﻫﻨﺪه ﻛﺎرﺑﺮدی اوراﻛﻞ ‪ 10gوﻣﺪﻳﺮ ﺳـﺎزﻣﺎﻧﻲ اوراﻛـﻞ اﺳﺖ .ﺑﺎ ﻣﺤﺎﺳﺒﺎت ﺷﺒﻜﻪ،ﻣﺨﺎزن ﻣﺮﻛﺰی از ﻣﻨﺎﺑﻊ ﻣﺤﺎﺳﺒﺎﺗﻲ اﻳﺠﺎد ﻣﻲ ﺷﻮد ﻛﻪ ﻣﻲ ﺗﻮاﻧﺪ ﺑﺎ ﺑﺴﻴﺎری از ﺗﻘﺎﺿـﺎﻫﺎ ﺗﺮﻛﻴﺐ ﺷﻮد.اﺻﻄﻼح ﻣﺤﺎﺳﺒﻪ ﺷﺒﻜﻪ از ﻣﻘﺎﻳﺴﻪ ﺑﺎ ﺷﺒﻜﻪ اﻧﺮژی اﻟﻜﺘﺮﻳﻜﻲ ﺳﺮﭼﺸﻤﻪ ﮔﺮﻓﺘـﻪ ﺷـﺪه اﺳـﺖ. ﻣﻨـﺎﺑﻊ ﻣﺘﻨﻮﻋﻲ در اراﺋﻪ اﻧﺮژی ﺑﻪ ﻣﺨﺰن ﻣﺸﺘﺮک ﻫﻤﻜﺎری دارﻧﺪ ﻛﻪ ﺑﺴﻴﺎری از ﻣﺼﺮف ﻛﻨﻨﺪﮔﺎن در ﺻﻮرت ﻧﻴﺎز ﺑـﻪ آن دﺳﺘﺮﺳﻲ دارﻧﺪ. ﻣﺤﺎﺳﺒﻪ ﺷﺒﻜﻪ روﺷﻲ ﺑﺮای ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺳﺨﺖ اﻓﺰار ﺑﺮای ﺑﻬﺒﻮد اﺳـﺘﻔﺎده و ﻛـﺎرآﻳﻲ ﻣﻨـﺎﺑﻊ اﺳﺖ . ﺑﺪون ﻧﻴﺎز ﺑﻪ داﻧﺴﺘﻦ اﻳﻨﻜﻪ اﻃﻼﻋﺎت در ﻛﺠـﺎ ﻗـﺮار دارﻧـﺪ ﻳـﺎ ﻛـﺪام ﻛـﺎﻣﭙﻴﻮﺗﺮ درﺧﻮاﺳـﺖ داده ﺷـﺪه را ﭘﺮدازش ﻣﻲ ﻛﻨﺪ ، ﺑﺮای ﻛﺎرﺑﺮ ﻣﻨﺎﺑﻊ ﻣﻮد ﻧﻴﺎز در دﺳﺘﺮس اﺳﺖ .

ﻫﻤﺎﻧﻄﻮر ﻛﻪ در اﻳﻨﺘﺮﻧﺖ آﻣﺪه ،ﻣﺤﺎﺳﺒﺎت ﺷﺒﻜﻪ در ﻣﺠﺎﻣﻊ ﺗﺤﻘﻴﻘﺎﺗﻲ وآﻛﺎدﻣﻴﻚ ﺑﻮﺟﻮد آﻣﺪ.ﻳﻜـﻲ از اﺟﺮاﻫﺎی اوﻟﻴﻪ ﻳﻚ ﺷﺒﻜﻪ،ﭘﺮوژه ‪SETI@homeاﺳﺖ ﻛﻪ ﺗﺤﻘﻴﻖ ﺑﺮای ﻫﻮش ﻣﺎورا اﺳﺖ ﻛـﻪ در ﺳـﺎل 1991 درداﻧﺸﮕﺎه ﺑﺮﻛﻠﻲ ﻛﺎﻟﻴﻔﻮرﻧﻴﺎ آﻏﺎز ﺷﺪ.ﻧﻮﺳﺎﻧﺎت ﺳـﻴﮕﻨﺎل رادﻳـﻮﻳﻲ از ﺗﻠـﺴﻜﻮپ رادﻳـﻮﻳﻲ ‪ Arecibonvدر ‪Puerto Rico ﺟﻤﻊ آوری ﺷﺪ .اﻳﻦ ﻧﻮﺳﺎﻧﺎت ﻣﻤﻜﻦ اﺳﺖ ﻋﻼﺋﻤﻲ از زﻧﺪﮔﻲ ﻫﻮﺷﻤﻨﺪ در ﻓﻀﺎ ﺑﺎﺷـﺪ .ﻫـﺮ روزه داده ﻫـﺎی ﺑﻴﺸﺘﺮ از آﻧﭽﻪ ﻛﺎﻣﭙﻴﻮﺗﺮﻫﺎ در داﻧﺸﮕﺎﻫﻬﺎ ﻣـﻲ ﺗﻮاﻧﻨـﺪ ﭘـﺮدازش ﻛﻨﻨـﺪ ﺑﺪﺳـﺖ ﻣـﻲ آﻳـﺪ ﺑﻨـﺎﺑﺮاﻳﻦ از داوﻃﻠﺒـﺎن درﺧﻮاﺳﺖ ﻣﻲ ﺷﻮد زﻣﺎن ﺑﻴﻜﺎری ﻛﺎﻣﭙﻴﻮﺗﺮﻫﺎی ﺧﺎﻧﮕﻲ ﺧﻮد را ﻣﺸﺨﺺ ﻛﻨﻨﺪ.ﺑﻴﺸﺘﺮ از 5 ﻣﻴﻠﻴـﻮن ﻧﻔـﺮ از 622 ﻛﺸﻮر ﻧﺮم اﻓﺰاری را داﻧﻠﻮد ﻛﺮدﻧﺪ ﻛﻪ ﻫﺮ وﻗﺖ ﺑﻴﻜﺎر ﻫﺴﺘﻨﺪ ﻛﺎﻣﭙﻴﻮﺗﺮﺷﺎن در دﺳﺘﺮس ﺑﺎﺷﺪ و ﻣﻤﻜﻦ اﺳﺖ ﺷﻤﺎ ﻗﺒﻼ ﭼﻴﺰی ﻣﺸﺎﺑﻪ اﻳﻦ ﻛﺎر را اﻧﺠﺎم داده ﺑﺎﺷﻴﺪ ،ﻣﻨﺎﺑﻊ ذﺧﻴﺮه ﺳﺎزی را در زﻣﺎﻧﻬﺎی ‪     off-peakﭘﻴﻚ ﺧﺎﻣﻮﺷـﻲ  ﭘﺎک ﻛﺮده ﺑﺎﺷﻴﺪ و آﻧﻬﺎ را ﺑﺮای ﺗﻘﻮﻳﺖ ﭘﺮدازش ﺑﺮای ﻳﻚ ﺑﺮﻧﺎﻣﻪ ﻛﺎرﺑﺮدی ﻳﺎ ﺑﻴﺸﺘﺮ اﺳﺘﻔﺎده ﻛﻨﻴﺪ. در ﺣﺎﻟﻲ ﻛﻪ ﻧﻈﺮﻳﻪ ﻣﺤﺎﺳﺒﻪ ﺧﺪﻣﺎﺗﻲ ﻳﺎ ﺷﺒﻜﻪ ای ﺟﺪﻳﺪ ﻧﻴﺴﺖ اﻣﺎ اﻣﻜﺎن ﭘﻴﺸﺮﻓﺘﻬﺎﻳﻲ را ﻫـﻢ در ﺳـﺨﺖ اﻓﺰار و ﻫﻢ در ﻧﺮم اﻓﺰار داده اﺳﺖ . ‪ Blade farms ﻳﺎ ﮔﺮوﻫﻬﺎﻳﻲ از ﻛﺎﻣﭙﻴﻮﺗﺮﻫﺎی ﭘﺮ ﺳـﺮﻋﺖ اﺳـﺎس ﻣﺤﺎﺳـﺒﺎت ﺷﺒﻜﻪ را ﺗﺸﻜﻴﻞ ﻣﻲ دﻫﻨﺪ.ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ﺧﻮﺷـﻪ ای اوراﻛـﻞ   RACﺑـﻪ ﻋﻨـﻮان ﭘﺎﻳـﻪ ای ﺑـﺮای ﺷـﺒﻜﻪ ﺳﺎزﻣﺎﻧﻲ ﺑﻜﺎر ﻣﻲ رود ﻛﻪ اﻳﻦ ﺳﻜﻮﻫﺎی ﺳﺨﺖ اﻓﺰاری ارزان ﻗﻴﻤﺖ را ﻗﺎدر ﻣﻲ ﺳﺎزد ﺑﺎﻻﺗﺮﻳﻦ ﻛﻴﻔﻴﺖ ﺧﺪﻣﺎت را از ﻧﻈﺮ دﺳﺘﺮس ﺑﻮدن و ﻣﻘﻴﺎس ﭘﺬﻳﺮی اراﺋﻪ دﻫﺪ. ﺷﻤﺎ ﻣﻲ ﺗﻮاﻧﻴﺪ ﺑـﺮای ﻧﻴﺎزﻫـﺎی اوﻟﻴـﻪ ﺳﻴـﺴﺘﻢ ﻓﻘـﻂ ﻣﻘـﺪار ﻇﺮﻓﻴﺖ ﻛﺎﻓﻲ ﺳﺨﺖ اﻓﺰار را ﺧﺮﻳﺪاری ﻛﻨﻴﺪ ،در ﺣﺎﻟﻲ ﻛﻪ ﻣﻲ داﻧﻴﺪ ﻣﻲ ﺗﻮاﻧﻴﺪ ﺳﺮوﻳﺲ دﻫﻨﺪه ﻫﺎی اﺿـﺎﻓﻲ ﺑـﺎ ﺣﺪاﻗﻞ ﻫﺰﻳﻨﻪ را وﺻﻞ ﻛﻨﻴﺪ ﺗﺎ ﻧﻮﺳﺎﻧﺎت ﺗﺮاﻓﻴﻜﻲ ﻣﻮﻗﺖ ﻳﺎ داﺋﻤﻲ را ﻛﻨﺘﺮل ﻛﻨـﺪ. وﻗﺘـﻲ ﻳـﻚ ﺳـﺮوﻳﺲ دﻫﻨـﺪه ﺟﺪﻳﺪ ﺑﻪ ﮔﺮوه اﺿﺎﻓﻪ ﺷﺪ ﺑﻄﻮر اﺗﻮﻣﺎﺗﻴﻚ ﻧﻤﺎﻳﺎن ﻣﻲ ﺷﻮد و ﻇﺮﻓﻴﺖ ﻛﺎر ﺑﺮای ﺗﺮﻛﻴﺐ ﺳﻴـﺴﺘﻢ ﺟﺪﻳـﺪ ﻣﺘﻌـﺎدل ‫ﻣﻲ ﺷﻮد . اﮔﺮ ﻧﻮدی در ﮔﺮوه(ﻛﻼﺳﺘﺮ) دﭼﺎر ﺧﺮاﺑﻲ ﺷﻮد ﺑﺮﻧﺎﻣﻪ ﻛﺎرﺑﺮدی ﻫﻨﻮز ﻣﻲ ﺗﻮاﻧﺪ ﺑﺎ ﻧﻮد ﺑﺎﻗﻲ ﻣﺎﻧﺪه ﻛﻪ از ‫ﻇﺮﻓﻴﺖ ﻛﺎری ﻧﻮد ﺧﺮاب اﺳﺖ ،ﻛﺎر ﻛﻨﺪ .

درﺳﺖ ﻫﻤﺎﻧﻄﻮر ﻛﻪ ﺷﺮﻛﺘﻬﺎی اﻣﺮوزی ﻫﻢ اﻳﻨﺘﺮاﻧﺖ داﺧﻠﻲ و ﻫﻢ اﻳﻨﺘﺮﻧﺖ  ﺧﺎرﺟﻲ دارﻧﺪ، ﻣﻤﻜﻦ اﺳت ﺷﺮﻛﺘﻬﺎدر آﻳﻨﺪه ﺷﺒﻜﻪ داﺧﻠﻲ و ﺧﺎرﺟﻲ داﺷﺘﻪ ﺑﺎﺷﻨﺪ ﺑﺪون اﻳﻨﻜﻪ ﺑﺨﻮاﻫﻨﺪ ﺗﻤـﺎم ﺗﻜﻨﻮﻟـﻮژی ﻫـﺎ را ﺧﺮﻳـﺪاری ﻛﻨﻨﺪ . در ﻣﺮﻛﺰ داده ﻫﺎ در آﻳﻨﺪه ﺷﻤﺎ ﻗﺎدر ﺑﻪ ﺧﺮﻳﺪ ﻧﻴﺮوی ﻣﺤﺎﺳﺒﺎﺗﻲ ﻛﻪ ﻧﻴﺎز دارﻳﺪ ﺧﻮاﻫﻴﺪ ﺑﻮد و ﺗﻨﻬـﺎ ﺑـﺮای آﻧﭽﻪ ﻛﻪ اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﻴﺪ ﭘﺮداﺧﺖ ﻣﻲ ﻛﻨﻴﺪ.

 ‫2-1 اﻧﺒﺎر داده ﭼﻴﺴﺖ؟

ﺣﺎل ﭘﺲ از ﻫﻤﻪ اﻳﻦ ﻣﻮارد ﻳﻚ اﻧﺒﺎر داده ﭼﻴﺴﺖ ؟ ﻳﻚ اﻧﺒﺎر داده ،ﻳﻚ ﺑﺎﻧﻚ اﻃﻼﻋﺎﺗﻲ اﺳﺖ ﻛﻪ ﺣـﺎوی داده ﻫﺎ از ﭼﻨﺪﻳﻦ ﺳﻴﺴﺘﻢ ﻋﻤﻠﻴﺎﺗﻲ اﺳﺖ ﻛﻪ ﻳﻜﭙﺎرﭼﻪ ،ﺑﻪ ﻫﻢ ﭘﻴﻮﺳﺘﻪ ، ﻣﺮﻛﺐ و ﺳﺎزﻣﺎن ﺑﻨﺪی ﺷـﺪه اﺳـﺖ ﺑـﻪ ﻃﻮری ﻛﻪ ﻣﻲ ﺗﻮاﻧﺪ ﺑﺮای ﺣﻤﺎﻳﺖ ﻓﺮآﻳﻨﺪ ﺗﺤﻠﻴﻞ و ﺗﺼﻤﻴﻢ ﮔﻴﺮی ﻳﻚ ﻓﺮاﻳﻨﺪ ﺗﺠﺎری ﺑﻜﺎر ﮔﺮﻓﺘﻪ ﺷﻮد 

1-2-1 ﭼﺮا ﺑﻪ ﻳﻚ اﻧﺒﺎر داده ﻧﻴﺎز دارﻳﺪ؟

‫آﻳﺎ ﺗﻤﺎم اﻃﻼﻋﺎت ﻣﻮرد ﻧﻴﺎز ﺑﺮای اﺟﺮای ﻛﺎرﻫﺎی ﺗﺠﺎرﻳﺘﺎن زﻣﺎﻧﻲ ﻛﻪ ﺑﻪ آن ﻧﻴﺎز اﺳﺖ ﺑﺎ ﺟﺰﺋﻴﺎت ﻛﺎﻓﻲ ﺑﺮﻣﺒﻨﺎی ﺗﺼﻤﻴﻤﺎت در دﺳﺘﺮس اﺳﺖ .؟ ﻳﺎ آﻳـﺎ اﻳـﻦ ﻛـﻪ ﭼﮕﻮﻧـﻪ ﻣـﻲ ﺷـﻮد 2 ﻛـﺎرﺑﺮ وارد ﺟﻠـﺴﻪ ای ﺷـﻮﻧﺪ ﻛـﻪ ﮔﺰارﺷﻬﺎﻳﺸﺎن ﺑﺎ ﻫﻢ ﻣﻨﻄﺒﻖ ﻧﻴﺴﺖ؟ ﻳﻜﻲ از آﻧﻬﺎ ﻓﻜﺮ ﻣﻲ ﻛﻨـﺪ ﻓـﺮوش ﻣـﺎه ﻣـﺎرس 500 ﻣﻴﻠﻴـﻮن دﻻر اﺳـﺖ و دﻳﮕﺮی ﻣﻲ ﮔﻮﻳﺪ 524 ﻣﻴﻠﻴﻮن دﻻر اﺳﺖ . ﭘﺲ از ﺑﺮرﺳﻲ ﻫﺎی زﻳﺎد ﻣﻲ ﻓﻬﻤﻴﺪ ﻛـﻪ داده ﻫـﺎی ﻣﺘﻔـﺎوﺗﻲ ﺑـﺮای

ﻣﺤﺎﺳﺒﻪ ﻓﺮوش در ﻫﺮ ﮔﺰارش اﺳﺘﻔﺎده ﺷﺪه اﺳﺖ و ﺷﻤﺎ زﻣﺎن زﻳﺎدی را ﺑﺮای ﻓﻬﻤﻴﺪن ﻋﻠـﺖ آن و اﺻـﻼح اﻳـﻦ ‫ﻣﺸﻜﻞ ﺻﺮف ﻣﻲ ﻛﻨﻴﺪ.

آﻳﺎ ﺷﺮﻛﺖ ﺷﻤﺎ ﺳﻴﺴﺘﻢ ﻫﺎی ﮔﻮﻧﺎﮔﻮﻧﻲ ﺑﺮای ﻳﻚ وﻇﻴﻔﻪ دارد، ﺳﻴﺴﺘﻢ ﺻﻮرت ﺑﺮداری ﻗﺪﻳﻤﻲ و ﺳﻴﺴﺘﻢ ﺟﺪﻳﺪی ﻛﻪ ﻣﻴﻠﻴﻮﻧﻬﺎ دﻻر ﺻﺮف ﺳﺎﺧﺖ آن ﻛﺮده اﻳﺪ؟ آﻳﺎ ﻧﻴﺎز دارﻳﺪ داده ﻫﺎ را از ﻫﺮ دو روی اﻳـﻦ ﺳﻴـﺴﺘﻢ ﻫـﺎ ﺑﺪﺳﺖ آورﻳﺪ ﺗﺎ ﺑﻨﺎ ﺑﻪ اﻫﺪاف ﮔﺰارﺷﻲ آﻧﻬﺎ را ادﻏﺎم ﻛﻨﻴﺪ ؟ﭼﮕﻮﻧﻪ اﻳﻦ روش ﺑﻪ ﺧﻮﺑﻲ اﻧﺠﺎم ﻣﻲ ﺷـﻮد ؟آﻳـﺎ ﻧﻴـﺎز اﺳﺖ ﻛﺎرﺑﺮان ﺗﻔﺎوت ﺑﻴﻦ اﻳﻦ دو ﺳﻴﺴﺘﻢ را ﺑﺮای ﭘﺮس و ﺟﻮی آن ﻻﻳﻦ ﺑﻔﻬﻤﻨﺪ؟ ﻣﻤﻜﻦ اﺳـﺖ اﻳـﻦ زﻣﻴﻨـﻪ ای  ‫ﺑﺎﺷﺪ ﻛﻪ ﺑﺨﻮاﻫﻴﺪ ﻳﻜﭙﺎرﭼﻪ ﻛﻨﻴﺪ.‫آﻳﺎ ﺑﺮای اﻫﺪاف ﺗﺤﻠﻴﻠﻲ ﺟﺰﺋﻴﺎت ﻛﺎﻓﻲ در دﺳﺖ دارﻳﺪ؟ ﭼﻪ ﻣﺎﻫﻬﺎﻳﻲ از ﺗﺎرﻳﺦ را ﻗـﺎدر ﻫـﺴﺘﻴﺪ آن ﻻﻳـﻦ ﻧﮕﻪ دارﻳﺪ؟آﻳﺎ ﺳﻄﺢ درﺳﺖ ﺟﺰﺋﻴﺎت را ذﺧﻴﺮه ﻛﺮده اﻳﺪ؟ آﻳﺎ ﺗﺎ ﻛﻨﻮن ﺗﻤﺎم داده ﻫﺎی ﺗـﺎرﻳﺨﻲ را ذﺧﻴـﺮه ﻛـﺮده اﻳﺪ؟ آﻳﺎ ﻗﺎدرﻳﺪ ﻓﺮوش ﻫﺮ ﻣﺤﺼﻮل در ﻫﺮ ﻣﻨﻄﻘﻪ ﺟﻐﺮاﻓﻴﺎﻳﻲ را ﻗﺒـﻞ و ﺑﻌـﺪ از ﺳـﺎزﻣﺎﻧﺪﻫﻲ ﻣﺠـﺪد از ﺳـﺎﺧﺘﺎر‫ ﮔﺰارش ﻧﻴﺮوی ﻓﺮوش ﺗﺤﻠﻴﻞ ﻛﻨﻴﺪ؟ اﻧﺒﺎر داده ﺑﺮای ﻛﻤﻚ ﺑﻪ ﺣﻞ اﻳﻦ ﻧﻮع ﻣﺸﻜﻼت ﺳﺎﺧﺘﻪ ﺷﺪه اﺳﺖ.

‫3-1 ﭼﺸﻢ اﻧﺪاز ﺗﺎرﻳﺨﻲ:

‫در دﻫﻪ 1970 اوﻟﻴﻦ ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ﺗﺠﺎری ﺳﺎﺧﺘﻪ ﺷﺪ ﺗﺎ ﻋﻤﻠﻴﺎت روزﻣﺮه ﻣـﺸﺎﻏﻞ را ﻛـﺎﻣﭙﻴﻮﺗﺮی ﻛﻨﺪ . اﻳﻦ ﺳﻴﺴﺘﻢ ﻫﺎ ﺑﺮ روی ﻛﺎﻣﭙﻴﻮﺗﺮ ﻫﺎی ﺑﺰرگ و ﮔﺮان ﻗﻴﻤﺖ ﺳـﺎﺧﺘﻪ ﺷـﺪﻧﺪ ﺗﻨﻬـﺎ ﺗﺠﺎرﺗﻬـﺎی ﺑـﺰرگ ﻣـﻲ ﺗﻮاﻧﺴﺘﻨﺪ از ﻋﻬﺪه ﺳﺨﺖ اﻓﺰار ،ﺑﺮﻧﺎﻣﻪ ﺳﺎزاﻧﻲ ﺑﺮای ﺑﺮﻧﺎﻣﻪ رﻳـﺰی آﻧﻬـﺎ ،و ﻛﺎرﻛﻨـﺎن ﻋﻤﻠﻴـﺎﺗﻲ ﺑـﺮای ﺑـﻪ ﺟﺮﻳـﺎن اﻧﺪاﺧﺘﻦ آﻧﻬﺎ ﺑﺮآﻳﻨﺪ. اﻳﻦ ﺳﻴﺴﺘﻢ ﻫﺎ ﺑﺮ اﺳﺎس ﻗﺮار دادن داده ﻫﺎی ﺟﺪﻳﺪ و ﺧﻮاﻧﺪن آﻧﻬﺎ ﺑﻄﻮر ﻣﺘﻮاﻟﻲ ﺑﺎ اﺳﺘﻔﺎده از ﻧﻮارﻫﺎی ﻣﻐﻨﺎﻃﻴﺴﻲ ﻋﻤﻞ ﻣﻲ ﻛﻨﻨﺪ.

ﺑﺎ اﺧﺘﺮاع دﻳﺴﻜﻬﺎی ذﺧﻴﺮه ﺳﺎزی، داده ﻫﺎ ﻣﻲ ﺗﻮاﻧﺴﺘﻨﺪ ﻣﺴﺘﻘﻴﻤﺎ در دﺳﺘﺮس ﺑﺎﺷﻨﺪ .اﻳﻦ اﻣﺮ ﻣﻨﺠـﺮ ﺑـﻪ ﺗﻮﻟﻴﺪ اوﻟﻴﻦ ﺳﻴﺴﺘﻢ ﻫﺎی ﻣﺪﻳﺮﻳﺘﻲ ﭘﺎﻳﮕﺎه داده ﺷﺪ ﻛﻪ داده ﻫﺎ را ﻳﺎ ﺑﻄﻮر ﺳﻠﺴﻠﻪ ﻣﺮاﺗﺐ ﻳﺎ در ﺷﺒﻜﻪ ﺳﺎزﻣﺎﻧﺪﻫﻲ ﻣﻲ ﻛﺮد. اﻳﻦ ﺳﻴﺴﺘﻢ ﻫﺎی ﭘﺎﻳﮕﺎه داده ﺧﻴﻠﻲ ﭘﻴﭽﻴﺪه ﺑﻮدﻧﺪ . ﺑﺮﻧﺎﻣﻪ ﺳﺎزان ﺑﺎﻳﺪ درک ﻣﻲ ﻛﺮدﻧﺪ ﭼﮕﻮﻧﻪ داده ﻫﺎ در دﻳﺴﻚ ذﺧﻴﺮه ﺷﺪه اﻧﺪ و از ﻃﺮﻳﻖ داده ﺑﻪ ﮔﺰارﺷﺎت اﻳﺠﺎد ﺷﺪه ﻫﺪاﻳﺖ ﺷـﻮﻧﺪ. ﺑﺮﻧﺎﻣـﻪ ﺳـﺎزان ﺑﺮﻧﺎﻣـﻪ ﻫـﺎی ﻛﺎرﺑﺮدی از ‪ Cobolﺑﺮای اﻳﺠﺎد ﮔﺰارﺷﻬﺎی اﺧﺘﺼﺎﺻﻲ اﺳﺘﻔﺎده ﻣﻲ ﻛﺮدﻧﺪ. ﺑﺮای ﻧﻮﺷﺘﻦ ﺑﺮﻧﺎﻣﻪ ﺑﺮای ﻫﺮ ﮔـﺰارش ﺟﺪﻳﺪ روزﻫﺎ و ﻳﺎ ﺣﺘﻲ ﻫﻔﺘﻪ ﻫﺎ زﻣﺎن ﻣﻲ ﺑﺮد. ﮔﺰارﺷﺎت ﺑﺮ روی ﺑﺮﮔﻪ ﻛﺎﻣﭙﻴﻮﺗﺮی ﭼﺎپ و ﺑﻴﻦ ﻛﺎرﺑﺮان ﺑﺎ دﺳـﺖ ﺗﻮزﻳﻊ ﻣﻲ ﺷﺪ .ﻫﺮﮔﺰ ﺑﺮﻧﺎﻣﻪ ﺳﺎزان ﺑﻪ ﻣﻘﺪار ﻛـﺎﻓﻲ وﺟـﻮد ﻧﺪاﺷـﺘﻨﺪ ﺑﻨـﺎﺑﺮاﻳﻦ ﻫﻤﻴـﺸﻪ اﻧﺒﺎﺷـﺘﮕﻲ ﻳـﻚ ﺑﺮﻧﺎﻣـﻪ ﻛﺎرﺑﺮدی وﺟﻮد داﺷﺖ .وﻗﺘﻲ داده ﻫﺎ ﻣﻲ ﺗﻮاﻧﺴﺘﻨﺪ ﻣﺴﺘﻘﻴﻤﺎ در دﺳﺘﺮس ﺑﺎﺷﻨﺪ اوﻟﻴﻦ ﺳﻴﺴﺘﻢ ﻫـﺎی ﭘﺮدازﺷـﮕر ﺗﺮاﻛﻨﺸﻲ آن ﻻﻳﻦ ‪(OLTP) ﺳﺎﺧﺘﻪ ﺷﺪ. در اواﺧﺮ دﻫﻪ 1970 و اواﻳﻞ 1980ﻛﺎﻣﭙﻴﻮﺗﺮﻫﺎی ﻛﻮﭼﻜﻲ ﻣﺎﻧﻨـﺪ 11-‪ Digital's PDPو 780/11 ‪VAX ﻫﺰﻳﻨﻪ ﻫﺎی ﺳﺨﺖ اﻓﺰار را ﭘﺎﻳﻴﻦ آوردﻧﺪ . داده ﻫﺎ اﻏﻠﺐ در ﭘﺎﻳﮕﺎه داده ‪CODAYSLذﺧﻴﺮه ﻣﻲ ﺷﺪﻧﺪ،ﻛﻪ ﺑﺮای ﺗﻐﻴﻴﺮ ﺑﻲ ﻧﻬﺎﻳﺖ ﻣﺸﻜﻞ و ﺑﺮای درک و ﻃﺮاﺣﻲ ﺳﺨﺖ ﺑﻮدﻧﺪ. ﺑﺎ ﻣﻌﺮﻓﻲ ﭘﺎﻳﮕﺎه داده راﺑﻄﻪ ای ﺗﻤـﺎم اﻳﻨﻬـﺎ ﺗﻐﻴﻴـﺮﻛﺮد . در ﺳﺎل 1979 ﭘﺎﻳﮕﺎه داده اوراﻛﻞ اوﻟﻴﻦ ﺳﻴﺴﺘﻢ راﺑﻄﻪ ای ﻣﻮﺟﻮد از ﻧﻈﺮ ﺗﺠﺎری ﺷﻨﺎﺧﺘﻪ ﺷﺪ . ﺑـﺎ ﻣـﺪل ‫راﺑﻄﻪ ای ،داده ﻫﺎ ﺑﺮ اﺳﺎس ﺳﺘﻮن و ردﻳﻒ در ﺟﺪوﻟﻬﺎﻳﻲ ﺳﺎزﻣﺎﻧﺪﻫﻲ ﺷﺪﻧﺪ . ﺑﺠﺎی اﺳﺘﻔﺎده از ﻧﺸﺎﻧﻪ روﻫﺎ ﺑﺮای ﺣﻔﻆ راﺑﻄﻪ ﺑﻴﻦ داده ﻫﺎ ، ﻳﻚ ﺷﻤﺎره ﻣﻨﺤﺼﺮ ﺑﻪ ﻓﺮد ﻣﺎﻧﻨﺪ ﺷﻤﺎره ﻣﺸﺘﺮی ﻳﺎ ﺷﻤﺎره ﺷﻨﺎﺳﺎﻳﻲ ﻳﻚ داﻧﺸﺠﻮ در ﺟﺪوﻟﻬﺎی ﭼﻨﺪﮔﺎﻧﻪ ﺑﺮای ﺷﻨﺎﺳﺎﻳﻲ ﺳﻄﺮ ذﺧﻴـﺮه ﻣـﻲ ﺷـﺪﻧﺪ.ﻓﻬﻤﻴـﺪن ﻣـﺪل راﺑﻄﻪ ای آﺳﺎن ﺗﺮ ﺑﻮد واز زﺑﺎن ‪ SQLﺑﺮای دﺳﺘﺮﺳﻲ ﺑﻪ ﭘﺎﻳﮕﺎه داده اﺳﺘﻔﺎده ﻣﻲ ﺷﺪ، ﻧﻴﺎزﻣﻨﺪ آﮔـﺎﻫﻲ ﺑـﻪ اﻳـﻦ ﻣﻮﺿﻮع ﻧﺒﻮد ﻛﻪ ﭼﮕﻮﻧﻪ داده ﻫﺎی زﻳﺮﻳﻦ از ﻧﻈﺮ ﻓﻴﺰﻳﻜـﻲ ذﺧﻴـﺮه ﺷـﺪه اﻧـﺪ.. ﻫﻤﭽﻨـﻴﻦ ﺳـﺎﺧﺘﻦ ﺑﺮﻧﺎﻣـﻪ ﻫـﺎی ﻛﺎرﺑﺮدی ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ اﺳﺘﻔﺎده ﮔﺴﺘﺮده از ﺳﻴﺴﺘﻢ ﻫﺎی ﻣﺪﻳﺮﻳﺘﻲ ﭘﺎﻳﮕﺎه داده ﺷﺪ آﺳﺎن ﺗﺮ ﺑـﻮد . ﭘـﺲ از آﻣـﺎده ﺳﺎزی اوﻟﻴﻪ ﺳﻴﺴﺘﻢ ﻫﺎی ﺑﻪ ﻫﻢ ﻣﺮﺗﺒﻂ، ﺑﺴﻴﺎری از ﺷﺮﻛﺘﻬﺎ ﺑﺮای دﺳﺘﻴﺎﺑﻲ ﺑﻪ ﭘﺎﻳﮕﺎه داده ﻫﺎی راﺑﻄﻪ ای ﻣﺎﻧﻨـﺪ ‫ﭘﺮس و ﺟﻮی وﻳﮋه ،ﮔﺰارش و اﺑﺰارﻫﺎی ﺗﺤﻠﻴﻠﻲ اﻗﺪام ﺑﻪ ﺗﻮﺳﻌﻪ ﻣﺤﺼﻮﻻت ﺑﻜﺎر رﻓﺘﻪ ﻛﺮدﻧﺪ.

ﺑﺎ ﻣﻌﺮﻓﻲ ‪PCﻣﺤﺎﺳﺒﻪ از ﺳﻴﺴﺘﻢ ﻫﺎی ﻛﺎﻣﭙﻴﻮﺗﺮ ﺑﺰرگ ﺑﻪ ﺳﻴﺴﺘﻢ ﻫﺎی ﺳﺮوﻳﺲ دﻫﻨـﺪه/ ﮔﻴﺮﻧـﺪه ﭘـﻴﺶ رﻓﺖ ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی اوراﻛﻞ در اواﺧﺮ دﻫﻪ 1980 ﻣﻌﺮﻓﻲ ﺷﺪﻧﺪ. ﺷﺮﻛﺘﻬﺎ ﺑﻪ ﻃـﻮر ﻃـﻮﻻﻧﻲ ﻣـﺪت ﻣﺠﺒـﻮر

ﻧﺒﻮدﻧﺪ ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ﺳﻔﺎرﺷﻲ ﺧﻮدﺷﺎن را ﺑﺴﺎزﻧﺪ ﺑﻠﻜﻪ ﻣﻲ ﺗﻮاﻧﺴﺘﻨﺪ ﻧﺮم اﻓﺰاری را ﺧﺮﻳﺪاری ﻛﻨﻨـﺪ ﻛـﻪ ﻛﺎرﺑﺮدﻫﺎی ﻣﺒﻨﺎﻳﻲ ﻣﺎﻧﻨﺪ اوراﻛﻞ ،‪ PeopleSoftو ‪SAPرا ﻓﺮاﻫﻢ آورد.

ﻫﻨﮕﺎﻣﻲ ﻛﻪ ﭘﺎﻳﮕﺎه داده ﻫﺎی راﺑﻄﻪ ای در دﻫﻪ 1980 ﺗﻜﻤﻴﻞ ﺷﺪ ،ﺳﻴـﺴﺘﻢ ﻫـﺎی‪ OLTPﺑـﺎ اﺳـﺘﻔﺎده از ﺳﻴﺴﺘﻤﻬﺎی راﺑﻄﻪ ای ﺑﺮای اﺗﻮﻣﺎﺗﻴﻚ ﻛﺮدن ﺟﻨﺒﻪ ﻫﺎی ﻋﻤﻠـﻲ ﺗﺠـﺎرت ﺳـﺎﺧﺘﻪ ﺷـﺪﻧﺪ.اﻳـﻦ ﺳﻴـﺴﺘﻢ ﻫﺎﺷـﺎﻣﻞ سیستم هایی مانند پردازشگر دستو،ورود دستور، انبار،دفتر کل عمومی و حسابداری بود.

‫‪OLTPﺑﻄﻮراﺗﻮﻣﺎﺗﻴﻚ ﭘﺮدازش ﻣﻲ ﻛﻨﻨﺪو وﺿﻌﻴﺖ ﻳﻚ ﺳﻴﺴﺘﻢ رادرﻳﻚ زﻣـﺎن درﻳـﻚ ﺣﺎﻟـﺖ راﻳـﺞ اراﺋـﻪ ﻣـﻲ دﻫﻨﺪ.در ﻳﻚ ﺑﺮﻧﺎﻣﻪ ﻛﺎرﺑﺮدی ﺻﻮرت ﺑﺮداری،ﺗﺮاﻛﻨﺶ ﻫﺎﻳﻲ وﺟﻮد داردﺗﺎاﻗﻼم ﺟﺪﻳﺪ راﺑـﻪ اﻧﺒـﺎر وارد ﻛﻨـﺪواﻗﻼم ﻓﺮوﺧﺘﻪ ﺷﺪه راﺣﺬف ﻛﻨﺪو ﻣﻘﺪارﻣﻮﺟﻮد را ﺑﻪ روز ﻧﮕﻪ دارد در ﺣـﺎﻟﻲ ﻛـﻪ ﻫﻤﻴـﺸﻪ ﺗﻌـﺎدل ﻣﻮﺟـﻮدراﺣﻔﻆ ﻣـﻲ ﻛﻨﻨﺪ.ﻣﻘﺪار ﻣﺤﺪودی از ﺗﺎرﻳﺦ ﻫﻢ ﺣﻔﻆ ﻣﻲ ﺷﻮد.ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ﺗﻌﻌﻴﻦ اﻳﻦ ﻛﻪ ﭼـﻪ ﺗﻌـﺪاداز ﻣﺤـﺼﻮل 222-‫95-111 ﻣﻮﺟﻮد اﺳﺖ ﻳﺎ اﻳﻦ ﻛﻪ در ﻛﺪام ﺗﺎرﻳﺦ دﺳﺘﻮر ﺷﻤﺎره 45321 ﻓﺮﺳﺘﺎده ﺷـﺪه اﺳـﺖ ،آﺳـﺎن اﺳـﺖ. درﻃﻲ اﻳﻦ ﻣﺪت ﻓﺮوﺷﻨﺪﮔﺎن ﭘﺎﻳﮕﺎه داده راﺑﻄﻪ ای ﺑﺮروی ﺑﻬﺒﻮد اﺟﺮای ﺑﺮای ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی ‪ OLTPﺗﻤﺮﻛـز ‫ﻛﺮده و ﺑﺎ اﺳﺘﻔﺎده از ﮔﻮاﻫﻴﻨﺎﻣﻪ ﻫﺎی اﺳﺘﺎﻧﺪارد ﺻﻨﻌﺘﻲ ‪ TCP-Cﺑﺎ ﻳﻜﺪﻳﮕﺮ رﻗﺎﺑﺖ ﻣﻲ ﻛﺮدﻧﺪ.

  ‫1-3-1- ﻇﻬﻮر اﻧﺒﺎر داده:

وﻗﺘﻲ ﺳﻴﺴﺘﻢ ﻫﺎی ‪ OLTPﺳﺎﺧﺘﻪ ﺷﺪﻧﺪ ﺗﺎ ﺑﻄﻮر ﻣﻮﺛﺮ داده ﻫﺎ را ﺟﻤﻊ آوری ﻛﻨﺪ، ﺑﺮای ﺑﻬﺘﺮﻳﻦ ﺗﻔـﺴﻴﺮآن ﭼﺎﻟﺶ اﻳﺠﺎد ﺷﺪ . در اواﺧﺮ دﻫﻪ 1980 و اواﻳﻞ دﻫﻪ1990 در ﺗﻼﺷﻲ ﺑﺮای ﺑﻴﻨﺶ ﮔﺴﺘﺮده در ﺳﺮاﺳﺮ ﺑـﺎزارﺗﺠﺎرت اوﻟﻴﻦ ﺑﺎﻧﻜﻬﺎی اﻃﻼﻋﺎﺗﻲ ﺑﺰرگ (اﺻﻄﻼﺣﻲ ﻛﻪ ﺗﻮﺳﻂ ﺑﻴﻞ اﻳﻨﻤﻮن ،ﭘﺪر ﺑﺎﻧﻚ اﻃﻼﻋﺎﺗﻲ ﺑﻨﺎ ﻧﻬـﺎده ﺷـﺪ) ﺳﺎﺧﺘﻪ ﺷﺪﻧﺪ. اﻃﻼﻋﺎت از ﺑﺴﻴﺎری از ﺳﻴﺴﺘﻢ ﻫﺎی ﻋﻤﻠﻴﺎﺗﻲ ﺑﺮای اﺟﺮای ﻋﻤﻠﻴـﺎت ﺗﺠـﺎری روزﻣـﺮه ﺑـﻪ ﻣﻨﻈـﻮر ‫ﻓﺮاﻫﻢ آوردن دﻳﺪ ﮔﺴﺘﺮده ﻫﻤﻜﺎری ﺟﻤﻊ آوری ﺷﺪﻧﺪ. ﺑﺎﻧﻚ اﻃﻼﻋﺎﺗﻲ ﺳﺎﺧﺘﻪ ﺷﺪ ﺗﺎ ﺗﺠﺎرت را در ﻃﻮل زﻣﺎن ﻣﺸﺎﻫﺪه و ﺧﻮاﺳﺘﻪ ﻫﺎ را در ﻧﻈﺮ ﺑﮕﻴﺮد. ﺑﺴﻴﺎری از ﺗﺼﻤﻴﻤﺎت ﺑﻪ ﺗﻮاﻧﺎﻳﻲ در دﻳﺪن ﻣﺎوراء ﺟﺰﺋﻴﺎت ﻋﻤﻠﻴﺎت اﻣﺮوزه ﻧﻴﺎز دارﻧﺪ و دﻳﺪ ﮔﺴﺘﺮده ﺗـﺮی از ﺗﺠـﺎرت دارﻧـﺪ. ﭘﺮس و ﺟﻮﻫﺎی ﺑﺎﻧﻚ اﻃﻼﻋﺎﺗﻲ ﮔﺰارش ﺑﺮ روی ﻓﺮوش ﻣﺤﺼﻮﻻت را ﺑﺎﻟﻎ ﺑﺮ دو ﺳﺎل ﮔﺬﺷﺘﻪ در ﺑﺮ دارد . ﻳـﺎ در ﺗﺎﺛﻴﺮ ﺗﻐﻴﻴﺮات اﺳﺎﺳﻲ در ﻓﺮوﺷﻬﺎی ﺟﺰﺋﻲ در ﻣﻘﺎﺑﻞ ﻓﺮوﺷﻬﺎی اﻳﻨﺘﺮﻧﺘﻲ دﻗﺖ دارد.ﭘﺮس و ﺟﻮﻫﺎ ﺷﺎﻣﻞ دﻗـﺖ دراﻳﻦ ﻛﻪ ﭼﮕﻮﻧﻪ ارزﺷﻬﺎ در ﻃﻮل زﻣﺎن ﺗﻐﻴﻴﺮ ﻛﺮده اﻧﺪ و ﭼﻪ ﭼﻴﺰ دﻳﮕﺮی ﻫﻢ ﺑﺎﻳﺪ ﺗﻐﻴﻴﺮ ﻛﻨﺪ و اﺣﺘﻤﺎﻻ ارﺗﺒﺎﻃـﺎت را ﻛﺸﻒ ﻛﻨﻨﺪ،ﺑﻮد.ﺑﻪ ﻣﻨﻈﻮر اﻧﺠﺎم اﻳﻦ ﻧﻮع ﺗﺤﻠﻴﻞ ،داده در اﻧﺒﺎر داده ﻧﻴﺎز دارد ﺗﺎ ﺑﺮای دوره ﻫﺎی ﻃﻮﻻﻧﻲ ﻣـﺪت ‫5 ﺗﺎ 10 ﺳﺎل ﻧﮕﻬﺪاری ﺷﻮﻧﺪ. ‫اﻧﺒﺎر داده ﺑﻪ ﻣﻨﻈﻮر ﺑﺮرﺳﻲ ﻣﺎوراء در داده ﻫﺎ ﺟﻬﺖ ﻳﺎﻓﺘﻦ اﻃﻼﻋﺎت اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد در ﻳﻚ اﻧﺒﺎر داده ﻓﻌﺎﻟﻴﺖ اوﻟﻴﻪ ،ﭘﺮس و ﺟﻮ ﻳﺎ ﺧﻮاﻧﺪن داده ﻫﺎ اﺳﺖ . وﻗﺘﻲ داده ﻫﺎی ﺟﺪﻳـﺪ ﺑﺎرﮔـﺬاری ﺷﻮﻧﺪ ﺗﻨﻬﺎ ﻓﻌﺎﻟﻴﺖ ﺑﻪ روزرﺳﺎﻧﻲ روی ﻣﻲ دﻫﺪ . ﺳﻴﺴﺘﻢ ﻫﺎی ﭘﺸﺘﻴﺒﺎﻧﻲ از ﺗﺼﻤﻴﻢ[1] ﻣﺎﻧﻨﺪ ﻛﺸﻒ ﻛﻨﻨـﺪه اوراﻛﻞ[2]، ﭘﺮس و ﺟﻮی ﺗﻌﺎﻣﻠﻲ، ﻧﻤﻮدار ﮔﻴﺮی، ﮔﺮاف ﻫﺎ و ﻗﺎﺑﻠﻴﺘﻬﺎی ﮔﺰارش دﻫـﻲ را ﻓـﺮاﻫﻢ ﻣـﻲ آورد اوراﻛـﻞ اﻧﻮاع ﺧﺎﺻﻲ از ﺳﺎﺧﺘﺎرﻫﺎی دﺳﺘﺮﺳﻲ ﻣﺎﻧﻨﺪ ﺷﺎﺧﺼﻬﺎی ﻧﻘﺶ ﺑﻴﺘﻲ ،ﺷﺎﺧﺼﻬﺎی ﻣﺘﺼﻞ ﻧﻘﺶ ﺑﻴﺘﻲ1 و ﻣـﺸﺎﻫﺪات ‫ﺑﺮﻧﺎﻣﻪ رﻳﺰی ﺷﺪه ﺑﺮای ﺑﻬﺒﻮد اﺟﺮای ﭘﺮس و ﺟﻮ دارد .ﻧﺮم اﻓﺰار ‪OLAPﺑﺮای ﺗﺤﻠﻴﻞ داده ﻫﺎی ﺗﺠﺎری در ﻳﻚ روش ﺳﻠﺴﻠﻪ ﻣﺮاﺗﺒﻲ از ﺑـﺎﻻ ﺑـﻪ ﭘـﺎﻳﻴﻦ اﺳـﺘﻔﺎده ﺷﺪه اﺳﺖ . ﺑﻪ ﻧﻈﺮ ﻣﻲ رﺳﺪ ﭘﺮس و ﺟﻮﻫﺎ ﻣﻜﺮرا ﻣﻄﺮح ﻣﻲ ﺷﻮﻧﺪ ﻛﻪ در ﻧﺘﻴﺠﻪ ﻳﻚ ﭘﺮﺳﺶ ﻣﻨﺠﺮ ﺑﻪ ﭘﺮﺳـﻴﺪن ﺳﻮاﻻت ﺑﻴﺸﺘﺮی ﻣﻲ ﺷﻮد داﻧﺴﺘﻦ اﻳﻨﻜﻪ ﺳﻮد اﻣﺴﺎل ﭼﻘﺪر ﺑﻮده اﺳﺖ ﻛﺎﻓﻲ ﻧﻴﺴﺖ،ﺗﺤﻠﻴﻞ ﭘـﺮ ﻫﺰﻳﻨـﻪ ای ﻧﻴـﺎز دارد ﻛﻪ ﺳﻮد ﻫﺮ ﻣﺤﺼﻮل را در ﻃﻮل زﻣﺎن ﺑﺮای ﻫﺮ ﻣﻨﻄﻘﻪ ﺟﻐﺮاﻓﻴﺎﻳﻲ ﺑﺪاﻧﻨﺪ. اﻳﻦ ﻳﻚ ﭘﺮس و ﺟﻮی ﺳﻪ ﺟﺎﻧﺒﻪ ‫از اﺑﻌﺎد ﻣﺤﺼﻮﻻت زﻣﺎن و ﻣﻨﻄﻘﻪ ﺟﻐﺮاﻓﻴﺎﻳﻲ اﺳﺖ. ﻣﻤﻜﻦ اﺳﺖ ﻳﻚ ﺗﺤﻠﻴﻞ ﮔﺮ ﻧﻴﺎز داﺷﺘﻪ ﺑﺎﺷﺪ ﻓﺮوش اﻳـﻦ ﻣـﺎه را ﺑـﺎ ﻣـﺎه ﺳـﺎل ﮔﺬﺷـﺘﻪ در ﺑﺮاﺑـﺮ ﺳـﺎﻳﺖ ‫اﻳﻨﺘﺮﻧﺘﻲ ﻣﻘﺎﻳﺴﻪ ﻛﻨﺪ.ﻣﻤﻜﻦ اﺳﺖ او ﺑﻪ ﺳﻄﺢ ﻣﻔﺼﻠﺘﺮی در ﺳﻠﺴﻠﻪ ﻣﺮاﺗﺐ ﺑﺮﺳﺪ ﺗـﺎ ﻓـﺮوش را در ﻓﺮوﺷـﮕﺎﻫﺎی ﻣﺸﺨﺼﻲ ﺑﺪﺳﺖ آورد و ﺗﻌﻴﻴﻦ ﻛﻨﺪ ﻛﺪام ﻳﻚ ﭘﺮ ﺑﺎزده ﺗﺮ و ﻛﺪام ﻳﻚ ﺑﺎﻋﺚ از دﺳﺖ دادن ﭘﻮل ﻣﻲ ﺷﻮد.

 اﻧﺒﺎر داده ﻧﻴﺎز ﺑﻪ ﻃﺮاﺣﻲ ﻳﻚ ﭘﺎﻳﮕﺎه داده ﻣﺘﻔﺎوت دارد :

‫ﭘﺎﻳﮕﺎه ﻫﺎی داده ﺑﺮای ﺑﺎزﻳﺎﺑﻲ ﺳﺮﻳﻊ زﻣﺎﻧﻲ ﻛﻪ ﻣﺴﻴﺮ دﺳﺘﻴﺎﺑﻲ از ﻗﺒﻞ ﻣﺸﺨﺺ ﻧﻴﺴﺖ ﻃﺮاﺣﻲ ﺷﺪه اﻧـﺪ .اﻃﻼﻋﺎت اﻏﻠﺐ از دﻳﮕﺮ داده ﻫﺎ ﺑﺎ ﺧﻼﺻﻪ ﻛﺮدن داده ﻫﺎ و ﺑﺪﺳﺖ آوردن ﺟﺰﺋﻴﺎت ﺑﻴـﺸﺘﺮ ﻳـﺎ دﻗـﺖ در اﻟﮕﻮﻫـﺎ و ‫روﻧﺪﻫﺎ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ. در ﻳﻚ ﺳﻴﺴﺘﻢ ‪ OLTP ﺷﻴﻮه ﻫﺎی ﻧﻤﻮدار ﺳﺎزی ارﺗﺒﺎط ﻣﻮﺟﻮدﻳﺘﻬـا  (E-R)ﺑـﺮای ﻃﺮاﺣـﻲ ﭘﺎﻳﮕـﺎه داده اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد. ﻫﺮ ﻣﻮﺟﻮدﻳﺖ ﻳﻚ ﺟﺪول ﻣﻲ ﺷﻮد،و ﻫﺮ ﺻﻔﺖ ﻣﺸﺨﺼﻪ ﺳﺘﻮﻧﻬﺎ را ارزﻳﺎﺑﻲ ﻣﻲ ﻛﻨﺪ و رواﺑﻂ ﺑﺎ ‫اﺗﺼﺎل ﻛﻠﻴﺪ اﺑﺘﺪاﻳﻲ و ﺳﺘﻮﻧﻬﺎی ﻛﻠﻴﺪ ﺧﺎرﺟﻲ ﺑﻪ ﻳﻜﺪﻳﮕﺮ در زﻣﺎن اﺟﺮا اراﺋﻪ ﻣﻲ ﺷﻮﻧﺪ. ﻳﻚ ﻃﺮاﺣﻲ ﻣﺘﻌﺎرف اﺟﺮای ﺑﻬﻴﻨﻪ ای را ﺑﺮای ﺳﻴـﺴﺘﻢ ﻫـﺎی ‪ OLTPﻓـﺮاﻫﻢ ﻣـﻲ آورد از ﺣﺠـﻢ ﺑـﺎﻻی ﺗﺮاﻛﻨﺸﻬﺎﻳﻲ ﻛﻪ دادن داده ﻫﺎی ﻣﺮﺑﻮﻃﻪ در ﻳﻚ ﺟﺪول و ﺣﺬف اﻓﺰوﻧﮕﻲ ﺷـﻜﻞ ﮔﺮﻓﺘـﻪ اﻧـﺪ ﺗﻨﻬـﺎ ﺑـﺎ در دﺳـﺖ داﺷﺘﻦ ﻳﻚ ﻧﺴﺨﻪ از داده ﻫﺎ ،از ﺗﺮﺗﻴﺐ ﻫﺎی ﻧﺎدرﺳﺖ ﺟﻠﻮﮔﻴﺮی و ﺛﺒﺎت ﺣﻔﻆ ﻣﻲ ﺷﻮد ﭘﺲ از ﻣﺘﻌـﺎرف ﺳـﺎزی داده ﻫﺎ ،ﺑﻌﻀﻲ اﻓﺰوﻧﮕﻲ ﻫﺎ ﻣﻤﻜﻦ اﺳﺖ ﺑﺮ روی ﺳﺘﻮﻧﻬﺎﻳﻲ ﻛﻪ ﺑﺮای ﺑﻬﺒﻮد اﺟﺮا ﺑﻪ روز ﺷﺪه اﻧﺪ . دوﺑﺎره ﻣﻌﺮﻓـﻲ شوند. ﺑﻪ ﻣﻨﻈﻮر ﺑﻬﻴﻨﻪ ﺳﺎزی ﻋﻤﻠﻜﺮد ﺑﺮای ﻳﻚ اﻧﺒﺎرداده ﻛﻪ ﻓﻌﺎﻟﻴﺖ اوﻟﻴﻪ ﭘﺮس وﺟﻮ از داده ﻫﺎﺳﺖ ﻳﻚ ﻣﺪل ﺟﺪﻳﺪ داده ﻣﻮرد ﻧﻴﺎز اﺳﺖ . راﻟﻒ ﻛﻴﻤﺒﻞ[3] اوﻟﻴﻦ ﺳـﺨﻨﮕﻮی ﺻـﻨﻌﺘﻲ ﺑـﺮای ﻣـﺪل ﺳـﺎزی اﺑﻌـﺎد و ﻧﻮﻳـﺴﻨﺪه انبار داده ﺗﻮﻟﻜﻴﺖ[4] ﻧﻤﻮدار ﺳﺘﺎره ای ، روش ﺟﺪﻳـﺪی ازﻃﺮاﺣـﻲ ﭘﺎﻳﮕـﺎه داده را ﺑـﺮای ﺗـﺴﻬﻴﻞ ﻛـﺮدن ‫ﭘﺮدازش‪ OLAPﻣﻌﺮﻓﻲ ﻛﺮد . ﺑﻪ ﻣﻨﻈﻮرﺑﻬﻴﻨﻪ ﻛﺮدن اﺟﺮا ﺑﺮای ﻳﻚ ﭘﺎﻳﮕﺎه داده . ﺷﻴﻮه ﻫﺎی ﻣﺪﻟـﺴﺎزی اﺑﻌـﺎدی اﺳﺘﻔﺎده ﺷﺪه اﺳﺖ .ﺷﻴﻮه اﺑﻌﺎدی ﺑﺮای ﻣﺪﻟـﺴﺎزی . داده ﻫـﺎ را ﺑـﻪ ﺷـﻜﻞ ﺣﻘﻴﻘـﻲ وﺟـﺪوﻟﻬﺎی اﺑﻌـﺎدی ﺳـﺎزﻣﺎن دﻫـﻲ ﻣـﻲ ﻛﻨﺪ.دادﻫﺎ را در روﺷﻲ اراﺋﻪ ﻣﻲ دﻫﺪ ﻛﻪ ﺗﻮﺳﻂ ﻛﺎﺑﺮان ﺑﻪ راﺣﺘﻲ ﻓﻬﻤﻴﺪه ﻣﻲ ﺷﻮﻧﺪ.ﻛـﺎرﺑﺮان اﻏﻠـﺐ ﺑـﻪ دﻧﺒـﺎل ﮔﺰارﺷﻬﺎﻳﻲ ازﻧﺘﺎﻳﺞ ﻓﺮوش ﺑﺼﻮرت ﻫﺮ ﺳﻪ ﻣﺎه ﻳﻜﺒﺎر و ﻃﺒﻘﻪ ﺑﻨـﺪی ﺑـﺼﻮرت ﻓﺮوﺷـﮕﺎﻫﻲ و ﻣﻨﻄﻘـﻪ ﺟﻐﺮاﻓﻴـﺎﻳﻲ ﻫﺴﺘﻨﺪ. ﺗﻌﺪاد ﻓﺮوش ﺣﻘﺎﻳق(facts) ﻫﺴﺘﻨﺪ. ﻓﺮوﺷﮕﺎه، ﻣﻨﻄﻘﻪ و ﻓﺼﻞ اﺑﻌﺎد داده ﻫﺎ ﻫـﺴﺘﻨﺪ ﻛـﻪ ﺑـﺮ اﺳـﺎس آن ﺗﺤﻠﻴﻞ ﻣﻲ ﺷﻮﻧﺪ و ﺑﺮای ﺳﺎزﻣﺎن دﻫﻲ داده ﻫﺎ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد. ﺑﺎ ﻣﺪل ﺳﺎزی اﺑﻌﺎدی ﻧﺪاﺷﺘﻦ ﻧﺮﻣﺎل ﺳﺎزی[5] و ﻣﺠﻮد اﻓﺰوﻧﮕﻲ[6] ﻣﻌﺮﻓﻲ ﻣﻲ ﺷﻮد. در ﻓﺼﻞ های بعد ﺧﻮاﻫﻴﻢ دﻳﺪ ﭼﮕﻮﻧﻪ ﺑﺮای ﻳﻚ ﻓﺮوﺷﮕﺎه اﻳﻨﺘﺮﻧﺘـﻲ ﻳـﻚ ﻃﺮاﺣـﻲ ‫واﻗﻌﻲ اﻳﺠﺎد ﻛﻨﻴﻢ اﻳﻦ ﻧﻤﻮﻧﻪ ﺷﺮﻛﺘﻲ اﺳﺖ ﻛﻪ در ﺳﺮاﺳﺮ اﻳﻦ ﻛﺘﺎب اﺳﺘﻔﺎده ﺧﻮاﻫﺪ ﺷﺪ. اوراﻛﻞ ﺑﺮای ﺣﻤﺎﻳﺖ ازﻃﺮﺣﻬﺎی اﺑﻌﺎدی ﺗﺮﻛﻴﺒﺎت زﻳﺎدی را اﺿﺎﻓﻪ ﻛﺮده اﺳﺖ .ﺑﻬﻴﻨﻪ ﺳﺎز ﻣـﻲ ﺗﻮاﻧـﺪ ﻳـﻚ ﻧﻤﻮدار ﺳﺘﺎره ای راﺷﻨﺎﺳﺎﻳﻲ ﻛﻨﺪ. ﺷﻤﺎ ﻣﻲ ﺗﻮاﻧﻴﺪ ﻋﻼوه ﺑﺮ اﻳﺠﺎد ﺟﺪوﻟﻬﺎ و ﺳﺘﻮﻧﻬﺎ ، اﺑﻌﺎد را ﻫﻢ ﺗﻌﺮﻳﻒ ﻛﻨﻴﺪ تا ‫ﺑﻪ ﺗﺤﻠﻴﻞ داده ﻫﺎی ﺷﻤﺎ در روﺷﻬﺎی ﮔﻮﻧﺎﮔﻮن ﻛﻤﻚ ﻛﻨﺪ.

در ادامه  طراحی یک انبار را بررسی می کنیم، پیشنهاداتی که در این زمینه مطرح است  عبارتست از:

1)هرگز از قبل یک پایگاه داده طراحی نکنید.

2)یک پایگاه داده با سیستمی با نوع پردازش تراکنش طراحی کنید.

3)یک سیستم پایگاه داده بسازید.

ﮔﺰﻳﻨﻪ آﺧﺮ را ﺷﻤﺎ در ﻧﻈﺮ ﻧﮕﻴﺮﻳﺪ ﻳﺎ از آن ﺑﻪ ﻋﻨﻮان ﻛﻤﻚ اﺳﺘﻔﺎده ﻛﻨﻴﺪ، ﺑﻮﻳﮋه اﮔﺮ از آﺧﺮﻳﻦ ﭘﺎﻳﮕﺎه اوراﻛﻞ اﺳﺘﻔﺎده ﻛﺮده ﺑﺎﺷﻴﺪ . ﺑﻨﺎﺑﺮ اﻳﻦ ، این موضوع  ﺧﻮاﻧﻨﺪﮔﺎﻧﻲ را ﻣﻮرد ﻫﺪف ﻗﺮار ﻣﻲ دﻫﺪ ﻛﻪ در ‫داده ﺟﺮﻳﺎن ﻳﻚ ﻳﺎ دو ﻣﻘﻮﻟﻪ ﻗﺮار ﮔﻴﺮﻧﺪ ،ﻛﻪ ﻣﻤﻜﻦ اﺳﺖ ﺷﺨﺼﻲ را ﻛﻪ ﻗﺒﻼ ﭘﺎﻳﮕﺎه داده ﻳﻚ ﻣﺨﺰن ﺑﺪون داده راﻃﺮاﺣﻲ ﻛﺮده اﺳﺖ ﻣﺘﻌﺠﺐ ﺳﺎزد ،ﭼﺮا؟ زﻳﺮا ﻣﻬﺎرﺗﻬﺎ و ﺗﻜﻨﻴﻚ ﻫﺎی ﻻزم ﺑﺮای اﻳﺠﺎد ﻳﻚ ﭘﺎﻳﮕﺎه داده ﺑﺮای ﻳﻚ ﻣﺨﺰن داده ﻣﺘﻔﺎوت از آﻧﻬﺎﻳﻲ اﺳﺖ ﻛﻪ ﺑﺮای ﺳﻴﺴﺘﻢ ﺑﺎ ﻧﻮع ﭘﺮدازﺷﮕﺮ ﺗﺮاﻛﻨﺶ ﻣﻮرد ﻧﻴﺎز اﺳﺖ در ﻧﺘﻴﺠﻪ اﮔﺮ ﺷﻤﺎ ﺑﻪ ﺧﺎﻃﺮ ﺑﻌﻀﻲ ﺗﻜﻨﻴﻜﻬﺎﻳﻲ ﻛﻪ ﻣﺜﻞ ﻫﻢ ﻫﺴﺘﻨﺪ ﻳﻚ ﺷﺮوع اﺻﻠﻲ[7] را ﺧﻮاﻫﻴﺪ داﺷﺖ ، اﻳﻦ ﻣﻬﻢ اﺳﺖ  ‫ﻛﻪ ﺑﻪ ﺧﻮد ﺑﮕﻮﻳﻴﺪ : ﻣﻦ ﻧﻮﻋﻲ ﻣﺘﻔﺎوت از ﻣﺨﺰن را ﻃﺮاﺣﻲ ﻛﺮده ام . ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻔﺎوت در ﻃﺮاﺣﻲ ﭘﺎﻳﮕﺎه داده در ﻳﻚ ﻣﺨﺰن داده ﭼﻴﺴﺖ ؟ در ﻳﻚ ﺳﻴﺴﺘﻢ ﺑﺎ ﻧﻮع ﭘﺮدازش ﺗﺮاﻛﻨﺶ ﻫﺪف ﻃﺮاح اﻳﻦ اﺳﺖ ﺗﺎ ﺗﺮاﻛﻨﺶ را ﺧﻴﻠﻲ ﺳﺮﻳﻊ و ﻛﺎﻣﻞ ﺑﺴﺎزد و ﻫﻤﭽﻨﻴﻦ ﻃﺮاح ﺑﺎ اﻣﻴﺪواری ﻣﻲداﻧﺪ ﭼﮕﻮﻧﻪ ﺷﺮﻛﺘﻬﺎی ﺑﺎزرﮔﺎﻧﻲ از داده ﭘﺮس و ﺟﻮ و از آن اﺳﺘﻔﺎده ﻛﻨﺪ . ﻋﻤﺪﺗﺎَ ، ﺗﻐﻴﻴﺮ داده ﻓﻘﻂ رﻛﻮرد ﻫﺎی ﻓﺮدی ﺧﺎص ﺑﺮای ﺗﺮاﻛﻨﺶ اﺳﺖ و ﮔﺰارﺷﺎت ﺗﻨﻬﺎ ﺑﻪ روز، ﻫﻔﺘﻪ ﻳﺎ ﻣﺎه ﺟﺎری اﺳﺖ. ﻧﻘﻄﻪ ﻣﻘﺎﺑﻞ ﻳﻚ ﻣﺨﺰن داده اﮔﺮ ﭼﻪ ﭘﺮس و ﺟﻮ ﻫﺎ ﺑﺎﻳﺪ ﺑﺎ ﺳﺮﻋﺖ ﻣﻤﻜﻦ ﺗﻜﻤﻴﻞ ﺷﻮد ،آﻧﻬﺎ ﻣﻲ ﺗﻮاﻧﻨﺪ ﺳﺎﻋﺖ ﻫﺎ ﺑﻪ ﻃﻮل ﺑﻴﻨﺠﺎﻣﻨﺪ. در ﻳﻚ ﻣﺨﺰن داده ، ﺑﻪ ﻣﻨﻈﻮر ﺗﻜﻤﻴﻞ اﻧﻮاع ﭘﺮس و ﺟﻮﻫﺎی ﻫﻮﺷﻤﻨﺪ ، ﺣﺠﻢ زﻳﺎد داده ﺑﻪ دو ﺻﻮرت ﻣﺘﺪاول و ﻗﺪﻳﻤﻲ ‫ﺑﺎ دﻗﺖ ﻣﻮرد ﺑﺮرﺳﻲ ﻗﺮار ﻣﻲ ﮔﻴﺮﻧﺪ. ﻣﺸﻜﻞ ﻋﻤﺪه دﻳﮕﺮ اﻳﻦ اﺳﺖ ﻛﻪ ﭼﻪ اﻃﻼﻋﺎﺗﻲ ﺑﺎﻳﺪ در ﻣﺨﺰن ﻗﺮار ﺑﮕﻴﺮد و در ﭼﻪ ﺳﻄﺢ ﻣﺠﺰاﻳﻲ ﺑﺎﻳﺪ ﺣﻔﻆ ﺷﻮد . اﻳﻦ ﻛﺘﺎب ،ﺗﻜﻨﻴﻚ ﻫﺎﻳﻲ ﺑﺮای ﺗﻌﻴﻴﻦ آﻧﭽﻪ ﻛﻪ ﺑﺎﻳﺪ در ﻣﺨﺰن ﻗﺮارﮔﻴﺮد و ﻳﺎ ﭼﮕﻮﻧﻪ آن اﻃﻼﻋﺎت را ﺟﻤﻊ آوری ﻛﻨﺪ ﻣﻮرد ﺑﺤﺚ ﻗﺮار ﻧﻤﻲ دﻫﺪ ، زﻳﺮا ﻗﺒﻼ ﻛﺘﺎﺑﻬﺎﻳﻲ ﺑﻮده اﻧﺪ ﻛﻪ ﺑﻪ ﻃﻮر ﺟﺎﻣﻊ اﻳﻦ ﻣﻮﺿﻮع را ﻣﻮرد ‫ﺑﺮﺳﻲ ﻗﺮار داده اﻧﺪ . ﺑﺎ اﻳﻦ وﺟﻮد ،اﻫﻤﻴﺖ ﺗﻼس در ﺗﻌﻴﻴﻦ اﻳﻨﻜﻪ ﭼﻪ ﭼﻴﺰی ﺑﺎﻳﺪ در ﻣﺨﺰن داده ﻗﺮار ﮔﻴﺮد ﻧﻤﻲ ﺗﻮاﻧﺪ ﻓﺸﺎر زﻳﺎدی وارد ﻛﻨﺪ . اﻳﻦ ﺧﻴﻠﻲ ﻣﻬﻢ اﺳﺖ زﻳﺮا ﻣﻤﻜﻦ اﺳﺖ ، ﻳﻚ ﺳﺎل ﺑﻌﺪ ﻛﻪ ﻣﺨﺰن ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﮔﺮﻓﺘﻪ ﺷﻮد ، ﻧﺎﮔﻬﺎن ﻣﺘﻮﺟﻪ ﺷﻮﻳﺪ ﻛﻪ اﻃﻼﻋﺎت وﺟﻮد ﻧﺪارد و ﻳﺎ در ﺳﻄﺢ ﻧﺎدرﺳﺘﻲ ﻗﺮار دارد و در اﻳﻦ ﻣﻮرد اﻧﻮاع   ‫ﭘﺮس و ﺟﻮﻫﺎﻳﻲ را ﻛﻪ ﻣﻴﺘﻮاﻧﻴﺪ ﺑﺮ روی ﻣﺨﺰﻧﺘﺎ ن اﺟﺮا ﻛﻨﻴﺪ را ﻣﺤﺪود و ﻳﺎ ﻣﻤﻨﻮع ﻣﻲ ﻛﻨﺪ .ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ، ﻳﻚ ﺷﺮﻛﺖ ﻣﺨﺎﺑﺮاﺗﻲ ﺗﺼﻤﻴﻢ ﻣﻴﮕﻴﺮد ﺗﺎ ﻫﺮ ﺗﻠﻔﻨﻲ را در ﭘﺎﻳﮕﺎه داده اش ﻗﺮار ﻧﺪﻫﺪ ،و در ﻋﻮض، ﻣﺠﻤﻮع آﻧﭽﻪ را ﻛﻪ ﻣﺸﺘﺮی در ﻃﻮل روز ﺻﺮف ﻛﺮده اﺳﺖ را ﺣﻔﻆ ﻛﻨﺪ . ﺳﭙﺲ ﻓﺮدی در ﺷﺮﻛﺖ ﺗﺼﻤﻴﻢ ﻣﻴﮕﻴﺮد وﻗﺘﻲ ﺷﻤﺎره ﻫﺎی ﺧﺎص ﮔﺮﻓﺘﻪ ﻣﻴﺸﻮد ﺑﻪ ﻣﺸﺘﺮی ﺗﺨﻔﻴﻒ دﻫﺪ . اﻛﻨﻮن اﮔﺮ ﻣﺨﺰن ، ﻫﺮ ﺷﻤﺎره ای ﻛﻪ ﺗﻮﺳﻂ ﻣﺸﺘﺮﻳﺎﻧﺶ ﮔﺮﻓﺘﻪ ﺷﺪ را ، ﺷﺎﻣﻞ ﻣﻲ ﺷﺪ ﺷﺮﻛﺖ ﻗﺎدر اﺳﺖ دﻗﻴﻘﺎ ﺑﻔﻬﻤﺪ اﻳﻦ ﺑﺮﻧﺎﻣﻪ اﮔﺮ در 12ﻣﺎه ﮔﺬﺷﺘﻪ اﻧﺠﺎم ﻣﻲ ﺷﺪ ﭼﻪ ﻫﺰﻳﻨﻪ ای را در ﺑﺮ ﻣﻲ ﮔﺮﻓﺖ . در ﻋﻮض اﻳﻦ ﺷﺮﻛﺖ ﻫﻴﭻ داده ﻗﺎﺑﻞ اﺳﺘﻔﺎده را ﻧﺪارد و ﻳﺎ ﺑﺎﻳﺪ ﺣﺪس ﻣﻴﺰد ﭼﻪ ﻫﺰﻳﻨﻪ ای دارد و ﻳﺎ اﻳﻨﻜﻪ ﻃﺮاﺣﻲ ﺳﻴﺴﺘﻢ ﺟﺪﻳﺪ را ﺑﻪ ﺗﻌﻮﻳﻖ اﻧﺪازد ﺗﺎ اﻳﻨﻜﻪ

 ‫داده ﻛﺎﻓﻲ در دﺳﺘﺮس ﺑﺎﺷﺪ ﺗﺎ ﺑﻪ ﻃﻮر دﻗﻴﻖ ﻫﺰﻳﻨﻪ واﻗﻌﻲ ﺷﺮﻛﺖ را ﺗﻌﻴﻴﻦ ﻛﻨﺪ .ﻳﻜﻲ از ﻣﺸﻜﻼت ﻃﺮاﺣﻲ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﻌﻴﻴﻦ ﻣﻲ ﻛﻨﺪ داده در ﭼﻪ ﺳﻄﺤﻲ در ﻣﺨﺰن ذﺧﻴﺮه ﺧﻮاﻫﺪ ﺷﺪ.اﻏﻠﺐ ، ذﺧﻴﺮه ﺳﺎزی ﻫﺮ ﺗﺮاﻛﻨﺶ ﻣﺎﻧﻨﺪ ﻣﺜﺎل ﺗﻠﻔﻦ ، ﻣﻤﻜﻦ اﺳﺖ ﺑﻴﺶ از اﻧﺪازه ﺑﻪ ﻧﻈﺮ ﺑﺮﺳﺪ و از آﻧﺠﺎﻳﻲ ﻛﻪ ﻣﻴﺘﻮاﻧﺪ ﺑﻪ ﻣﻌﻨﺎی رﺷﺪ ﻣﺨﺰن ﺑﻪ اﻧﺪازه ﺗﺮاﺑﺎﻳﺘﻬﺎ ﺑﺎﺷﺪ ، وﺳﻮﺳﻪ ای ﺑﺮای ﺳﺎزﻣﺎن ﻫﺎی داده ﺑﻪ وﺟﻮد ﻣﻲ آورد . اداره ﻛﺮدن ﻣﺨﺰن ﻳﻚ ﺗﺮاﺑﺎﻳﺘﻲ ﺑﻪ رواﻟﻬﺎی ﻛﻨﺘﺮل ﺷﺪه و دﻗﻴﻖ ﻧﻴﺎزدارد ﻛﻪ ﺑﺎﻳﺪ دﻧﺒﺎل ﺷﻮد . ﻫﺮ ﭼﻪ ﭘﺎﻳﮕﺎه داده ﺑﺰرﮔﺘﺮ ﺷﻮد،ﻣﺪﻳﺮﻳﺖ ﭘﺮس و ﺟﻮی آن ﺳﺨﺖ ﺗﺮ ﻣﻲ ﺷﻮد . ﺑﻪ ﻫﺮ ﺣﺎل ﺑﺎ دﺳﺘﺮﺳﻲ آﺳﺎﻧﺘﺮ ﺑﻪ ﺷﻴﻮه ‫ﻫﺎی ذﺧﻴﺮه ﺳﺎزی ارزان، ﺣﻔﻆ ﻣﻘﺎدﻳﺮ زﻳﺎدی از داده ﻫﺎ در ﺳﻄﺢ ﺟﺰﺋﻲ اﻣﻜﺎن ﭘﺬﻳﺮ و ارزﺷﻤﻨﺪﺗﺮ ﻣﻲ ﺷﻮد .از آﻧﺠﺎﻳﻲ ﻛﻪ اﻧﺒﺎﺷﺘﮕﻲ[8] ﻳﻚ ﺗﺼﻤﻴﻢ ﻣﻬﻢ ﻃﺮاﺣﻲ اﺳﺖ ، ﻃﺮاﺣﻲ ﺑﺎﻳﺪ دﻗﻴﻖ ﺑﺎﺷﺪ و ﻗﺒﻞ از آﻧﻜﻪ ﻳﻚ ﭼﻨﻴﻦ اﺳﺘﺮاﺗﮋی را ﺑﭙﺬﻳﺮد ﺑﻪ دﻧﺒﺎل ﺗﻌﻴﻴﻦ ﻛﺎرﺑﺮان ﻣﺨﺰن ﺑﺎﺷﺪ . ﻫﻤﭽﻨﺒﻦ ﺑﺎﻳﺪ ﺑﻪ اﻳﻦ ﻛﺎرﺑﺮان ﺑﻪ ﻃﻮر واﺿﺢ ﻣﺤﺪودﻳﺖ ﻫﺎﻳﻲ را ﻛﻪ اﺣﺘﻤﺎﻻ ﺑﻪ ﺧﺎﻃﺮ اﻧﺒﺎﺷﺘﮕﻲ داده روی ﻣﻴﺪﻫﺪ ﺗﻮﺿﻴﺢ داد . ﺑﺎ دﺳﺘﺮس ﺑﻮدن ﺣﺎﻓﻈﻪ ، ‫ﺑﺴﻴﺎری از ﺳﺎﻳﺖ ﻫﺎ ﺗﻤﺎم داده ﻫﺎﻳﻲ را ﻛﻪ ﻧﻴﺎز دارﻧﺪ ذﺧﻴﺮه ﺧﻮاﻫﻨﺪ ﻛﺮد

. 4-1 از ﻣﺪﻟﺴﺎزی ارﺗﺒﺎط –موجودیت (E-R)[9]استفاده نکنید:

‫ﺷﻴﻮه ﺟﺪﻳﺪی ﻛﻪ ﺑﺮای ﺳﺎﺧﺖ ﻳﻚ ﺳﻴﺴﺘﻢ ﻳﺎ ﭘﺮدازﺷﮕﺮ ﺗﺮاﻛﻨﺶ اﺳﺘﻔﺎده ﺷﺪه اﺳﺖ ﺳﺎﺧﺖ ﻳﻚ ﻧﻤﻮدار ارﺗﺒﺎط ﻣﻮﺟﻮدﻳﺖ از ﺗﺠﺎرت اﺳﺖ . اﻳﻦ ﺷﻴﻮه ﺳﺮ اﻧﺠﺎم ﺑﻪ ﻋﻨﻮان داده ﻓﻴﺰﻳﻜﻲ اﺳﺘﻔﺎده ﺷﺪ ، زﻳﺮاﺑﺴﻴﺎری از ﻋﻨﺎﺻﺮ در ﻣﺪل ﻣﺎ ﺟﺪوﻟﻬﺎﻳﻲ در ﭘﺎﻳﮕﺎه داده ﺷﻮﻧﺪ ، اﮔﺮ ﺷﻤﺎ ﺗﺎ ﺑﻪ ﺣﺎل ﻳﻚ ﻣﺨﺰن داده را اﻳﺠﺎد ﻧﻜﺮده اﻳﺪ اﻣﺎ در ﻃﺮاﺣﻲ ﺳﻴﺴﺘﻢ ﻫﺎ ﺑﺎ ﭘﺮدازﺷﮕﺮ ﺗﺮاﻛﻨﺶ آن را ﺗﺠﺮﺑﻪ ﻛﺮده اﻳﺪ ، اﺣﺘﻤﺎﻻ ﻣﻲ ﺗﻮاﻧﻴﺪ در ﻧﻈﺮ ‫ﺑﮕﻴﺮﻳﺪ،ﻳﻚ ﻣﺨﺰن داده از ﻫﻴﭻ ﭘﺎﻳﮕﺎه داده ﻣﺘﻔﺎوت ﻧﻴﺴﺖ و ﻣﻲ ﺗﻮاﻧﻴﺪ از ﻫﻤﺎن روش اﺳﺘﻔﺎده ﻛﻨﻴﺪ .ﻣﺘﺎﺳﻔﺎﻧﻪ ، اﻳﻦ ﻃﻮر ﻧﻴﺴﺖ و ﻃﺮاﺣﺎن ﻣﺨﺰن ﺧﻴﻠﻲ ﺳﺮﻳﻊ ﻣﻲ ﻓﻬﻤﻨﺪ ﻛﻪ ﻣﺪل ارﺗﺒﺎط ﻣﻮﺟﻮدﻳﺖ ﺑﺮای ﻃﺮاﺣﻲ ﻳﻚ ﻣﺨﺰن راه ﻣﻨﺎﺳﺐ ﻧﻴﺴﺖ ، ﻣﻘﺎﻣﻬﺎی ﭘﻴﺸﺘﺎز در اﻳﻦ ﻣﻮﺿﻮع ﻣﺎﻧﻨﺪ راﻟﻒ ﻛﻴﻤﺒﺎل از 

 فهرست مطالب:

-11 ﻣﻘﺪﻣﻪ ای ﺑﺮ ﭘﺎﻳﮕﺎه داده اوراﻛﻞ g‪10

‫1-1-1 اﺛﺮ ﺟﻮ اﻗﺘﺼﺎدی ﺑﺮ ﻫﺰﻳﻨﻪ ﺗﻜﻨﻮﻟﻮژی

2-1-1 ﻳﻜﭙﺎرﭼﮕﻲ

3-1-1 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺳﺨﺖ اﻓﺰار

  ‫4-1-1 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی داده ﻫﺎ از دﻳﺪ ﻳﻚ ﺷﺮﻛﺖ ﻣﻌﻤﻮﻟﻲ

‫5-1-1 ﻳﻜﭙﺎرﭼﻪ ﺳﺎزی ﺑﺮﻧﺎﻣﻪ ﻫﺎی ﻛﺎرﺑﺮدی

  ‫6-1-1 ‪  Gridدر ﭘﺎﻳﮕﺎه داده اوراﻛﻞ 10g

‫2-1 اﻧﺒﺎر داده ﭼﻴﺴﺖ؟

1-2-1 ﭼﺮا ﺑﻪ ﻳﻚ اﻧﺒﺎر داده ﻧﻴﺎز دارﻳﺪ؟

‫3-1 ﭼﺸﻢ اﻧﺪاز ﺗﺎرﻳﺨﻲ

  ‫1-3-1- ﻇﻬﻮر اﻧﺒﺎر داده

  ‫. 4-1 از ﻣﺪﻟﺴﺎزی ارﺗﺒﺎط –موجودیت (E-R)استفاده نکنید

1-4-1 ﻣﺪل ﺳﺎزی اﺑﻌﺎد

3-4-1 ﺟﺪول ﺣﻘﻴﻘﻲ

4-4-1ﺟﺪول اﺑﻌﺎدی (ﭼﻨﺪ ﺑﻌﺪی)

5-4-1 ﻛﻠﻴﺪ ﻫﺎی ﻣﺨﺰن

5-1 ﭘﻴﻜﺮ ﺑﻨﺪی ﻫﺎی ﺳﺨﺖ اﻓﺰار ﺑﺮای ﻳﻚ اﻧﺒﺎر

1-5-1معماری سرویس دهنده:

2-5-1معماری پایگاه داده اراکل

فصل دوم : ابزار های انبار اراکل

1-2: کدام ابزار

2-2: سازنده انبار اوراکل یا OWB

1-2-2: تنظیم سازنده انبار

2-2-2: مشتری سازنده انبار اراکل

3-2-2: اهداف و منابع داده ها:

4-2-2: تعریف جداول موجود در انبار داده هایمان

5-2-2: ایجاد ابعاد

6-2-2: ایجاد یک مکعب

7-2-2: تعریف منبع برای هدف نقشه کشی ها:

8-2-2: تایید طرح

9-2-2: ایجاد طرح                                                                                                                                                       

10-2-2: استقرار طرح

3-2: کاشف اراکل

1-3-2: چرا Discoverer؟

2-3-2: تنظیم محیط

3-3-2: پرس و جو با استفاده از Plus Discoverer:

4-2: گزارشات اراکل 10g

1-4-2: ایجاد یک گزارش با استفاده از سازنده گزارش

2-4-2: مثال های بیشتر از گزارش های اراکل

3-4-2:انتشار گزارش

5-2: خلاصه

فصل سوم : انبار داده و وب

1-3: بررسی بیشتر

1-1-3: اینترنت و اینترانت

2-1-3: نرم افزار اراکل برای انبار داده

2-3: سرور کاربردی اراکل10g

1-2-3: چرا یک پرتال تنظیم می کنند؟

2-2-3: پرتال AS Oracle

1-3-3: Discoverer

2-3-3:انتشار یک پورت لت

3-3-3: ایجاد گزارش استاتیک

4-3: خصوصی سازی اراکل

5-3: انبار داده ها و هوشمندی تجارت الکترونیکی

فصل چهارم: OLAP

1-4: چرا نیاز به انتخاب اراکل OLAP داریم؟

1-1-4: کاربردهای OLAP

2-1-4: ROLAP و MOLAP

3-1-4: اراکل OLAP

2-4: معماری اراکل OLAP

3-4: فضاهای کاری آنالیزی

1-3-4: مدل چند بعدی

2-3-4: ایجاد فضای کاری آنالیزی

1-4-4: تعریف متاداده OLAP برای شمای رابطه ای 

  2-4-4:دیدگاه های متاداده OLAP و ارزیابی آن

5-4: مدیر فضای کاری آنالیزی

1-5-4: ایجاد ویزارد فضای کاری آنالیزی

2-5-4: تجدید فضای کاری آنالیزی

3-5-4: ایجاد یک طرح تجمعی

4-5-4: فعال سازهای فضای کاری آنالیزی

6-4: پرس وجوی فضاهای کاری آنالیزی

1-6-4: DML OLAP

2-6-4: بسته DBMS-AW

3-6-4: دسترسی SQL به فضای کاری آنالیزی

4-6-4: OLAP API و اجزاء BI

7-4: خلاصه

فصل پنجم : داده کاوی اراکل

5.1: داده کاوی در پایگاه داده اوراکل g10

  1. 2. :روش های داده کاوی اوراکل

5.2.1 : قوانین پیوستگی

5.2.2 : گروهبندی

5.2.3 : استخراج ویژگی

5.2.4 : طبقه بندی

5.2.5 : بازگشت

5.2.6 : استاندارد PMML

5.3.1 : فرمت داده

2-3-5 آماده سازی داده

4-5: استفاده از واسط های داده کاوی اوراکل

1-4-5: نصب و پیکربندی

2-4-5: روند آنالیز داده کاوی

3-4-5: مثالی با استفاده از جاوا API

4-4-5: مثال استفاده از روال های PL/SQL

5-5: خلاصه

فصل ششم: قابلیت دسترسی بالا و انبار داده

1-6: مقدمه

2-6: یک سیستم با قابلیت دسترسی بالا چیست؟

1-2-6: ویژگی های یک سیستم با قابلیت دسترسی بالا

2-2-6: نقش بهترین تجربیات عملکردی

3-6: مرور اجمالی پایگاه داده اوراکل 10g با ویژگی  قابلیت دسترسی بالا

4-6: حفاظت در برابر نقص های سخت افزاری/ نرم افزاری

1-4-6: گروههای با عملکرد حقیقی (RAC)

2-4-6: ذخیره سازی مطمئن

3-4-6: آشکار سازی و نمایش خط:

4-4-6: مدیریت منابع

5-6: حفاظت در برابر فقدان داده

1-5-6: بازیابی از نقص(خطا) متوسط

2-5-6: بازیابی از خطاهای انسانی با استفاده از flash back:

3-5-6: بازیابی خطا بوسیله گارد یا نگهبان داده

4-5-6: معماری حداکثر قابلیت دسترسی اوراکل

5-5-6: حفاظت متا داده

6-6: مدیریت زمان برنامه ریزی شده

1-6-6: پیکربندی مجدد نمونه پویا

2-6-6: حفظ آنلاین

3-6-6: تعریف مجدد آنلاین:

4-6-6: ارتقاء درجه

7-6: مدیریت طول عمر اطلاعات

8-6: خلاصه:

 ضمیمه

 شامل 241 صفحه فایل word قابل ویرایش


دانلود با لینک مستقیم


دانلود پروژه بررسی کاربردی مدل های داده چند بعدی(OLAP) واستفاده از الگوهای آماری

دانلود تحقیق نگاهی بر داده کاوی و کشف قوانین وابستگی

اختصاصی از یارا فایل دانلود تحقیق نگاهی بر داده کاوی و کشف قوانین وابستگی دانلود با لینک مستقیم و پر سرعت .

دانلود تحقیق نگاهی بر داده کاوی و کشف قوانین وابستگی


دانلود تحقیق نگاهی بر داده کاوی و کشف قوانین وابستگی

چکیده:
با افزایش سیستمهای کامپیوتر و گسترش تکنولوژی اطلاعات , بحث اصلی در علم کامپیوتر از چگونگی جمع آوری اطلاعات به نحوه استفاده از اطلاعات منتقل شده است . سیستمهای داده کاوی ,این امکان را به کاربر می دهند که بتواند انبوه داده های جمع آوری شده را تفسیر کنند و دانش نهفته در آن را استخراج نمایند .
داده کاوی به هر نوع کشف دانش و یا الگوی پنهان در پایگاه داده ها اطلاق می شود . امروزه داده کاوی به عنوان یکی از مهمترین مسائل هوش مصنوعی و پایگاه داده ، محققان بسیاری را به خود جذب کرده است . در این تحقیق ابتدا نگاه کلی بر داده کاوی ، استراتژیهای داده کاوی و... داریم ، سپس  مسأله کشف قوانین وابستگی در پایگاه داده را به تفضیل بررسی کردیم و نگاهی به الگوریتمهای موجود برای آن داشتیم . سپس مسأله کشف قوانین وابستگی در پایگاه داده های پویا را مورد بحث قرار دادیم و الگوریتم های ارائه شده مربوطه را مطرح کردیم .



مقدمه :
هدف از این اراِئه و تحقیق بررسی روشهای مطرح داده کاوی است .داده کاوی هر نوع استخراج دانش و یا الگواز داده های موجود در پایگاه داده است که این دانشها و الگوها ضمنی و مستتر در داده ها هستند ,از داده کاوی می توان جهت امور رده بندی (Classification ) و تخمین (Estimation) ,پیش بینی (Prediction) و خوشه بندی (Clustering)استفاده کرد .داده کاوی دارای محاسن فراوانی است . از مهمترین آن محاسن کشف کردن دانش نهفته در سیستم است که به شناخت بهتر سیستم کمک می کند .به عنوان مثال می توان به استفاده ترکیبی از روش خوشه بندی جهت تخصیص بودجه به دسته های مختلف  از کتب اشاره کرد .
سیستمهای داده کاوی تقریبا از اوایل دهه 1990 مورد توجه قرار گرفتند . علت این امر نیز آن بود که تا آن زمان سازمانها بیشتر در پی ایجاد سیستمهای عملیاتی کامپیوتری بودند که به وسیله آنها بتوانند داده های موجود در سازمان خود را  سازماندهی کنند . پس از ایجاد این سیستمها ,روزانه حجم زیادی از اطلاعات جمع آوری میشد که تفسیر کردن آنها از عهده انسان خارج بود . به همین دلیل , نیاز به تکنیکی بود که از میان انبوه داده معنی استخراج کند و داده کاوی به همین منظور ایجاد و رشد یافت .
بنابر این هدف اصلی از داده کاوی ,کشف دانش نهفته در محیط مورد بررسی است که این دانش می تواند شکلهای گوناگونی داسته باشد . دانش استخراج شده می تواند به فرم الگوهای موجود در داده ها باشد که کشف این الگوها منجر به شناخت بهتر سیستم نیز می شود . الگوهای استخراجی عموما بیانگر روابط بین ویژگیهای سیستم هستند بعنوان مثال در سیستم تجاری یک الگو می تواند بیانگر رابطه بین نوع کالا و میزان تقاضای آن باشد .
در این تحقیق داده کاوی مورد بحث قرار می گیرد . علل استفاده از داده کاوی و منابعی که داده کاوی بر روی آنها اعمال می شود ,علاوه بر این خلاصه ای از روشهای رایج داده کاوی ارائه شده است . تکنیکهای داده کاوی و قوانین وابستگی و الگوریتمهای موجود (Apriori , Aprior TID, Partition, Eclat ,Max Eclat , Vector ) و الگوریتم با ساختار  Trie وfp grow و الگوریتمهای کاهشی مورد بررسی قرار می گیرند و در هر مورد مثالها , موارد کاربرد ,تکنیکها و نقاط قوت و ضعف  مورد بررسی قرار گرفته اند .  

 

 

شامل 45 صفحه word


دانلود با لینک مستقیم


دانلود تحقیق نگاهی بر داده کاوی و کشف قوانین وابستگی