سیستم های ترکیبی Soft Computing :
ما به کجا می رویم؟
چکیده:
Soft Computing یک روش محاسباتی است که شامل منطق فازی،محاسبات عصبی ، محاسبات تکمیلی و محاسبات احتمالی می باشد.بعد از یک نگاه اجمالی به اجزای Soft Computing ،برخی از مهمترین ترکیبات آنرا مورد بررسی و تجزیه وتحلیل قرار میدهیم.ما بر روی توسعه کنترل کننده های الگوریتمی هوشمند،همانند استفاده از منطق فازی برای کنترل پارامترهای محاسبات تکمیلی تاکید میکنیم و در مورد کاربرد الگوریتمهای تکمیلی برای تنظیم کنترل کننده های فازی صحبت خواهیم کرد.ما بر روی سه کاربرد از Soft Computing در جهان واقعی تاکید میکنیم که همگی توسط سیستمهای ترکیبی ایجاد شده اند.
1- نگاه کلی به Soft Computing
Soft Computing (SC) واژه ای است که در ابتدا توسط زاده برای مشخص کردن سیستمهایی که " از خطای بی دقتی، مبهم بودن و کمی درست بودن ،برای کنترل درست،کم هزینه و سازگارتر با جهان واقعی استفاده میکنند."
بطور معمول SC شامل چهار تکنیک می باشد:دوتای اول آن ،سیستمهای استدلال آماری(PR) و منطق فازی(FL) ،بر پایه استدلال بر اساس دانش است . دو تای دیگر،محاسبه عصبی (NC) و محاسبه تکمیلی(EC) ،بر پایه روشهای تحقیق و بهینه سازی بر اساس داده می باشند. با توجه به اینکه ما به یک توافق در مورد چارچوب SC یا ماهیت این پیوستگی دست پیدا نکرده ایم، غیره منتظره بودن این روش جدید انکارناپذیر است. این مقاله نمونه ساده شده ای از این سرفصلهای بسیار گسترده می باشد که می توانید آنها را در پی نوشت 5 پیدا کنید.
2- اجزا و رده بندی SC
1-2 محاسبه فازی
اصلاح اشتباه و ابهام را می توان در کارهای گذشته کلیین و لوکازوئیچ ،منطق دانان چند فازی که در اوایل دهه 1930 استفاده از سیستمهای منطقی سه ارزشی(که بعداً بوسیله منطق با ارزش بینهایت دنبال شد) را برای نشان دادن نامعینی ، مجهول بودن یا سایر ارزشهای احتمالی بین ارزشهای واقعی بین ارزشهای درست و غلط جبر بول کلاسیک را پیشنهاد کردند،دنبال نمود.در سال 1937 ،اندیشمند ماکس بلک پیشنهاد کرد که از یک پروفایل همبستگی برای نشان دادن مفاهیم مبهم استفاده شود. در حالیکه ابهام به نشانه های گنگ و نا مشخص ناشی از لبه های مرزی تیز مربوط میشد.این مسئله تا سال 1965 ادامه پیدا کرد،زمانی که زاده یک تئوری کامل از مجموعه های فازی(که متناظر آن منطق فازی میباشد)را ارائه نمود،که بر اساس آن ما می توانستیم تصویر کلی که بدرستی تعریف نشده است را نشان داده و آنرا کنترل نماییم.
بعبارت دقیقتر،منطق فازی را می توان به صورت یک تابع منطقی از منطق چند ارزشی آلف-1 لوکازوئیچ دانست.اگرچه،در مفهوم وسیعتر،این تعبیر دقیق تنها یکی از چهار جنبه FL را نشان میدهد. بطور خاص ،FL دارای یک جنبه منطقی ،که از اجداد منطقی چند ارزشی آن مشتق شده ،یک جنبه فرضی که از نمایش مجموعه ای از مرزهایی که بدرستی تعیین نشده است نشات گرفته ،یک جنبه ارتباطی ،که برروی نمایش واستفاده از روابط منطقی متمرکز است و یک جنبه اپیستمیک که در برگیرنده استفاده از FL برای دانش فازی مبتنی بر سیستمها و بانکهای اطلاعاتی می باشد،است.
یک بررسی جامع از منطق فازی و محاسبه فازی را می توان در پی نوشت 11 مشاهده کرد.منطق فازی به ما یک زبان همراه با علم نحو و معانی خاص آنرا میدهد ،که توسط آن ما می توانیم اطلاعات کیفی راجع به مشکلی که قرار است حل شود را ترجمه می کند. بطور خاص ،FL به این اجازه را می دهد که از متغیرهای زبان شناسی برای شبیه سازی سیستمهای دینامیکی استفاده کنیم. اینها متغیرهایی با ارزش فازی هستند که بوسیله یک لیبل (عبارت ایجاد شده توسط علم نحو)و یک معنی(یک تابع عضویت که توسط یک دستورالعمل نحوی محلی تعیین شده است) مشخص میشوند.معنی یک کتغیر کلامی می تواند بصورت یک محدودیت قابل انعطاف برای ارزش آن ،تفسیر شود.این محدویتها بوسیله عملیات استنتاجی فازی و بر اساس modus-ponens عمومی شده ،گسترش می یابند.این مکانیسم استدلالی ،همراه با خصوصیات درون یابی آن ،FL را با توجه به تغییر در پارامترهای سیستم ،اختلالات ،و غیره قدرتمند ساخته است که یکی از ویژگیهای اصلی FL هم همین توانمند بودن آن است.
2-2 محاسبه احتمالی
بجای بررسی مجدد تاریخچه احتمال ،ما بر روی توسعه احتمالی (pc)تمرکز کرده وراهی که در محاسبه فازی مورد استفاده قرار می گیرد را نشان می دهیم .همانگونه که در شکل 1 نشان داده شده است ،می توانیم محاسبه احتمالی را به دو گروه تقسیم کنیم :سیستم های یک ارزشی وسیستمهای بین ارزشی .
Bayesian Belief Networks (BBNS) ،براساس کارهای Bayes ،یک نمونه عمومی از سیستمهای استدلالی یک ارزشی هستند .آنها بوسیله روشهای تخمینی مورد استفاده در اول نسل سیستمهای خبره همانند تئوری تائید Myanوقانون Bayesian که اصلاح شده PROSPECTOR است ،شروع کردند وتبدیل به روشهای نرمالی برای انتشار ارزش های احتمالی در شبکه ها شدند .به طور کلی سیستم های استدلالی احتمالی دارای پیچیدگی نمایی هستند ،مخصوصا زمانی که نیاز داریم که توزیعهای احتمالی وابسته را برای تمامی متغیرهای مورد استفاده در یک مدل محاسبه کنیم .قبل از پیدایش BBNها ،رسم بود که چنین مشکلات محاسباتی با این فرض که شرایط مستقل هستند دوری کرد .با استفاده از BBNها می توانیم با رمز گشایی حوزه دانش بعنوان اطلاعات ساختاری این پیچیدگی را کاهش دهیم .وجود یا عدم وجود وابستگی حالتی بین دو متغیر بوسیله وجود یا عدم وجود یک لینک ارتباطی بین گره های نشان دهنده چنین متغیرهایی در توپولوژی شبکه نشان داده میشود .برای توپولوژیهای خاص (درختی،چند درختی،نمودارهای جهت دار غیر چرخشی )الگوریتمهای متداول شده مناسب بوسیله کیم وپیرل معرفی شدند .با اینحال پیچیدگی BBNهای با اتصال چند گانه همچنان با وجود تعداد گرههای بزرگترین زیر نموداربه صورت نمایی وجود دارد .زمانی که تجربه یک نمودار امکان پذیر نیست ،ما به روشهای تقریبی همانند دسته بندی وارتباط وضعیتی وتکنیکهای شبیه سازی همانند نمونه برداریهای منطقی وشبیه سازیهای مارکف متو.سل میشویم .سیستمهای دمپستر – شانر (DS)یک نمونه متداول از سیستمهای استدلالی احتمالی بین ارزشی هستند.آ نها بجای یک ارزش واحد همانند آنچه که در بیشتر موارد BBN وجود دارد محدودهای احتمالی بالاتر وپایینتر را در اختیار قرار می دهند .
فرضیه DS به طور مستقل بوسیله دمپستر وشانر معرفی شد .دمپستر یک حساب دیفرانسیل وانتگرال را برای مواجه شدن با احتمالات بین ارزشی ایجاد شده بوسیله الگوهای چند ارزشی معرفی کرد .از طرف دیگر شانر از یک روش بدیهی شروع کرد او یک حساب دیفرانسیل وانتگرال را برای مواجه شدن با احتمالات بین ارزشی ایجاد شده بوسیله الگوهای چند ارزشی معرفی کرد .از طرف دیگر شانر از یک روش بدیهی شروع کرد ویک حساب دیفرانسیل وانتگرال را برای توابع Belief ارائه کرد .هدف اواین بود که قابل قبول بودن (میزان باور)یک عبارت ایجاد شده از منابع مختلف را اندازه گیری کند وآنرا به حساب قابل اعتماد سود منافع منتقل کند .اگر چه آنها از معانی مختلف شروع کرد ند ولی هر دو محاسبه مشخص بود محاسبه احتمالی راهی را برای ارزیابی فرد بی سیستماتی که تحت تاثیر تصادف قرار می گیرند را ایجاد کرد .(با سایر انواع احتمالات نا مشخص).اصول مکانیسم استنباطی PC- شرطی شدن – به ما این امکان را می دهد تا بر آوردهای قبلی از نتیجه سیستم را براساس شواهد جدید ،اصلاح کنیم
1-2-2.مقایسه محاسبه احتمالی وفازی
در این مرور مختصر از محاسبه فازی واحتمالی ،تمایل داریم تا تاکید کنیم که تصادف ومنطق دونوع متفاوت از نا مشخص بودن است .در شرایط تصادفی ونا مشخصی از عضویت غیر مشخص یک نقطه از یک فضای نمونه (توصیف مجموع هایاز ارزشهای احتمالی برای متغیر اتفاقی)در یک ناحیه کاملا تعریف شده از آن فض (توصیف رویداد )ایجاد میشود .یک مقدار احتمالی تمایل یا تکرار ارزش متغیر اتفاقی را درون یک ناحیه مشخص می کند .در فازی بودن نا مشخص از جبری بودن حاصل میشود اما عضو وابسته به یک نقطه (از یک فضای مرجع )وارد یک ناحیه تعریف شده بصورت مبهم در همان فضا شده است .ناحیه بوسیله یک مجموعه فازی نشان داده شده است .تابع ویژگی مجموعه فازی هر نقطه از چنین فضایی را بجای اینکه وارد مجموعه {0,7}کند ،داخل یک فاصله بین ارزشی {0,1}می کند .ارزش یک عضو معین نشان دهنده تکرار نیست .بلکه نشان دهنده میزان چیزی است که عنصر خاص از جهان ،ویژگی مجموعه نازی را مشخص می کند در سال 1968 ،زاده ماهیت مکملی این دو اصل را هنگام معرفی اندازه گیری احتمالی یک رویداد فازی اعلام کرد .در سال 1981 ،smets تئوری توابع belief را با تعریف belief (باور)به یک رویداد فازی وارد مجموعه فازی نمود .اینها دو نمونه اولیه از سیستمهای ترکیبی هستند که در شکل 1 نشان داده شده است .
3-2 محاسبه عصبی
تاریخچه شبکه های عصبی (NN)را می توان به سال 1943بر گرداند ،زمانی که Mcculloch وPitts نشان دادند که یک شبکه از واحد های تصمیم گیری بانیری(BDNS)می توانند یک تابع منطقی را بکار گیرند .براساس این مفهوم Rosenblatt یک شبکه تک لایه پیشرونده بنام perceptron را معرفی کرد ونشان داد که این شبکه می تواند بوسیله الگوهای طبقه بندی شده یاد گرفته شود .MinskyوPapertنشان دادند که perceptronیک لایه می توانند فقط بخشهای خطی از فضای تصمیم گیری را تشکیل دهند .زیرا آنها قادر به جدا کردن نواحی غیر خطی ویا غیر انحنایی نیستند .این مطلب باعث شد تا جامعه NNتلاشهای خود را بر روی توسعه NNهای چند لایه که بتوانند بر این محدودیتهای غلبه کنند ،متمرکز کرده است .اگر چه هنوز هم یاد گرفتن این شبکه ها مشکل است .سرانجام back propagation (Bp)معرفی شد که مستقلا توسط lecun ,parker werbos ارائه شد ویک روش به ظاهر تئوریکی را برای آموزش شبکه های چند لایه ،پیشرونده همراه با توابع فعالسازی غیر خطی ایجاد کردند .در سال 1989 ،Hornik وهمکارانش یک NN سه لایه (که شامل یک لایه ورودی ،ویک لایه پنهانی از واحدهای Squashing ویک لایه خروجی از واحدهای خطی بود )را بعنوان یک تخمین زننده عملیاتی یونیور سال ارائه کردند . از نظر توپولوژیکی ،NNها به شبکه های پیشرونده وتکراری تقسیم میشوند .شبکه های پیش رونده شامل perceptronهای یک لایه وچند لایه همانند شبکه های توابع بر مبنای رادیال ) RBF)هستند .شبکه های تکراری شامل شبکه های رقابتی
،الگوی خود نظم ده (SOM) ، شبکه های HOPEFIELD و مدلهای تئوری استنباطی (ART) می باشد. در حالیکه NNهای پیشرونده در حالت نظارتی مورد استفاده قرار می گیرند ،NNهای تکراری عموما در گیر یادگیری غیر نظارتی ،حافظه تخصیصی وخود نظم دهی هستند .در طول این مقاله ما فقط NNهای پیشرونده را مورد بررسی قرار خواهیم داد.با توجه به وجود مشابهت عملیاتی بین RBF وسیستمهای فازی ،ما ما توضیحاتمان را محدود به شبکه های پیش رونده چند لایه خواهیم کرد .یک بررسی اجمالی از محاسبه عصبی را می توانید در پی نوشت (37 )مشاهده کنید .NNهای چند لایه پیشرونده ساختاررهای محاسباتی هستند که می توانند برای یادگیری الگوها از طریق مثالها،آموزش ببینند.آنها از یک شبکه از واحدهای پردازش یا عصب ها تشکیل شدهاند .هر عصب یک جمع وزنی از ورودهیای خود را با استفاده از حاصل جمع بعنوان یک تابع فعالسازی غیر خطی انجام می دهد .در ابتدا توابع فعالسازی توابعی با آستانه های مشخص بودند که می توانستند برای توابع اشباع خطی piecewise ،توابع اشباع دیفرانسیالی (یا sigmoids)وتوابع گاووسی (برایRBFها)بکار گرفته میشوند .با استفاده از یک مجموعه آموزشی که از رابطه بین ورودیها وخروجیها نمونه برداری می کند ویک روش یادگیری که بردار وزنی آن را به یک تابع درجه دوم از خطا محدود می کند ،شبکه های عصبی توانایی ارائه الگوریتم یادگیری نظارتی را بعنوان اجرای بهینه سازی محلی fine-qra nule دارا شده است .
4-2 :محاسبه تکمیلی
الگوریتم های محاسبات تکمیلی (EC)یک رفتار انطباقی را از خود بروز می دهند که به آنها این اجازه را می دهد تا مشکلات غیر خطی چند بعدی را بدون نیاز به توانایی متمایز کردن یا دانش تفکیک ساختار مسئله ،حل کنند .در نتیجه این الگوریتمها نسبت به رفتار متغیر با زمان خیلی مقاوم هستند وحتی ممکن است آنها سرعت کمی از همگرایی را از خود نشان دهند .ECخانواده های مهمی از الگوریتمهای Stochastic شامل استراتژیهای تکمیلی Es))که بوسیله Rechenberg معرفی شد ،برنامه ریزی تکمیلی EP))که بوسیلهFogel معرفی شد والگوریتمهای ژنتیکی GAS))بر مبنای Reed ,Frasterوهمکارانش وHolland که شامل یک ریز مجموعه از برنامه نویسی ژنتیکی Gr))که بوسیله Kozaمعرفی شد ،می باشد ،است .تاریحچه ECآنقدر پیچیده است که نمی توان آن را در چند پاراگراف به طور کامل خلاصه کرد .این روش را می توان به Friedberg مربوط دانست ،اوبر روی تکمیل توانایی یک ماشین یادگیرنده که یک تابع ورودی – خروجی را محاسبه می کرد ،مطالعه می نمود ؛Barricelli برخی از شبیه سازیهای عددی فرآیند های تکمیلی را انجام داد.و Reedوهمکارانش مفاهیم مشابه را در یک بازی پوکر ساده شبیه سازی شده مورد بررسی قرار دادند .خوانندگان علاقمند برای بررسی جامعتر از محاسبه تکمیلی به پی نوشت (51 )وبرای دانستن فرهنگ لغت در این باره به پی نوشت (52 )مراجعه کنند .مجموعه ای از مقالات انتخابی که تاریخچه EC را نشان می دهند را می توان در پی نوشت (53 )پیدا کرد .همانگونه که بوسیله Fogel نشان داده شد ES،EP،GASدارای خصوصیات مشترکی هستند :"...هرگونه ثابت ماندن جمعیت راه حلهای آزمایشی ،باعث اعمال تغییرات اتفاقی به این راه حلها میشود وانتخابی که تعیین می کند چه راه حلهای در نسلهای آتی ثابت می ماند را مشخص می کند ..."،Fogelنیز نشان داد که "...GAها بر روی مدلهایی از اپراتورهای ژنتیکی ،همانند آنچه که در طبیعت دیده میشود ،برای Grossing-over ،معکوس کردن وجهش نقطه ای تاکید می کنند واینها را به کروموزمهای جدا شده اعمال می نمایند ..."در حالیکه ESوEP..."برانتقالات جهشی که ارتباط رفتاری بین هر والدین ونسل آنها را ثابت نگه می دارد تکیه دارند ."...انجام اینکه ما می خواهیم مشخص کنیم که اجزای ECبه صورت فزایندهای این ویژگیهای عمومی خودشان را به اشتراک گذاشته اند : ES دارای اپراتورهایی مشابه با GAها است که مجددا ترکیب شده اند ،در حالیکه GAها با استفاده از کروموزمهای رمز گشایا شده با تعداد واقعی (Real – Namber- encoded)،میزان جهش تطبیقی واپراتورهای جهش تطبیقی گسترش یافته اند .