لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل : .doc ( قابل ویرایش و آماده پرینت )
تعداد صفحه : 18 صفحه
قسمتی از متن .doc :
دانشگاه تهران
دانشکدة فنی
دانشکدة مهندسی برق و کامپیوتر
عنوان:
استفاده از روشهای شبکه عصبی درطبقهبندی پروتئینها
نگارش: هما برادران هاشمی
استاد راهنما: دکتر مسعود رهگذر
پروژه درس
مباحث ویژه پایگاه دادهها
تابستان 1388
چکیده
تشخیص فولد پروتئینها از جمله مسائل چالش برانگیزی است که در طی 35 سال گذشته محققان بسیاری در سراسر دنیا در این زمینه تحقیق کردهاند. امروزه به کارگیری علوم مهندسی برای حل مسائل حوزه علوم زیستی و پزشکی به سرعت و با موفقیت رو به افزایش است، بنابراین بسیاری از دانشمندان کامپیوتر به این سمت گرایش پیدا کردهاند تا بتوانند از روشهای مختلف یادگیری ماشین در پیاده سازی سیستمهای خودکار و هوشمند به منظور طبقهبندی پروتئینها کمک بگیرند. هدف نهایی در پیاده سازی این سیستمها نزدیک بودن هرچه بیشتر تصمیم اتخاذ شده توسط ماشین به تصمیم فرد خبره بیولوژیست میباشد.
با این وجود به خاطر پیچیدگی بسیار این مساله که ناشی از تعداد کلاسهای نسبتا زیاد پروتئینها و بزرگ بودن ابعاد ویژگی آنهاست، بدست آوردن جواب قابل قبول در طبقهبندی پروتئینها با استفاده از روشهای معمول یادگیری ماشین تقریبا امکان پذیر نمیباشد. در این پژوهش ما از یک مدل ترکیبی طبقهبندی با استفاده از شبکه های عصبی MLP، RBF و روش ترکیب طبقه بندی کنندههای بیزی برای تعیین فولد پروتئین ها استفاده کردهایم. نتایج بدست آمده نشان میدهد که شبکههای عصبی RBF دارای نرخ طبقه بندی صحیح بهتری نسبت به سایر روشها مانند MLP و ماشینهای بردار پشتیبان داشته است. این امر میتواند به علت فضای جستجوی بسیار بالا برای یافتن پارامترهای بهینه ماشینهای بردار پشتیبان و زمان نسبی زیاد یادگیری در این نوع طبقه بندی کنندهها باشد. همچنین نتایج بدست آمده نشان میدهد که نرخ طبقه بندی صحیح پروتئینها با استفاده از روش ترکیب بیزی به ٪59 افزایش یافته است. که البته در مقاله دیگری توانستهاند با استفاده از کلاسیفایر svm به 62.5٪ برسند. که نشان میدهد هنوز این پژوهش نیاز به بررسی بیشتر دارد.
کلمات کلیدی: MLP، RBF، Bayesian Classifier Fusion، Protein Folding.
عنوان شمارة صفحه
1 .مقدمه 5
.2شبکههای عصبی 6
3. طبقهبندی ترکیبی 9
1.3رأیگیری اکثریت 9
2.3ترکیب طبقه بندی کنندهها به روش بیزی 9
4 .نتایج آزمایشات 12
1.4آماده سازی دادهها 12
2.4 نتایج آزمایشات 13
3.4مقایسه با کارهای پیشین 14
5 .نتیجه گیری و کارهای آینده 17
منابع 18
فهرست شکلها شمارة صفحه
شکل 1: یک شبکه پرسپترونی سه لایه 8
شکل 2: تاثیر ورودی از نرون i با وزن بر نرون j 8
شکل 3: نرخ طبقهبندی صحیح برای طبقه بندی کنندههای MLP 14
شکل 4: نرخ طبقهبندی صحیح برای طبقه بندی کنندههای RBF 14
لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل : .doc ( قابل ویرایش و آماده پرینت )
تعداد صفحه : 16 صفحه
قسمتی از متن .doc :
شبکه های عصبی Neural Network
شبکههای عصبی مصنوعیArtificial Neural Network
چکیده:شبکههای عصبی مصنوعی از مباحث جدیدی است که دانشمندان علوم کامپیوتر به آن علاقمند شدهاند و برای پیشرفت هرچه بیشتر علوم کامپیوتر وقت و هزینه بسیاری را صرف آن کرده و میکنند. این موضوع با ایده گرفتن از سیستم عصبی بدن انسان و با هدف شبیهسازی هرچه بیشتر کامپیوتر به انسان شکل گرفت و تا حال به خوبی پیشرفته است. از جمله کاربردهای این بحث میتوان از شناسایی الگوها, پردازش تصویر و رویت, هوش مصنوعی, کنترل رباتها و موارد بسیار دیگر نام برد. ما در این مقاله پس از مقدمه به مسائل در خور شبکههای عصبی مصنوعی و نیز کاربردهای آن خواهیم پرداخت, در ادامه Perceptron ها را که یکی از مهمترین الگوریتمهای شبکههای عصبی مصنوعی میباشد معرفی میکنیم.
1- مقدمه1-1- ایده پیدایش شبکههای عصبی مصنوعیآیا کامپیوتر میتواند همان نوع از محاسباتی را که یک فرد هوشمند انجام میدهد به کار گیرد؟بسیاری از دانشمندان عقیده داشته ودارند که این بحث باید مورد توجه قرار گیرد. شبکههای عصبی در حل مسائل یک جهت جدید و متمایز نسبت به کامپیترهای عمومی میگشود. کامپیوترهای عمومی از یک الگوریتم استفاده میکنند یعنی برای حل مسائل از یک سری دستورات از پیش تعیین شده پیروی میکنند مگر در مواقع ویژهای که کامپیوتر نیاز به یکسری اطلاعات برای حل مسئله دارد. و همین مسئله توانایی پردازش را از کامپیوترهای عمومی به مسائلی که ما قبلا فهمیدهایم و روش حل آنها را شناختهایم محدود میکند و تنها سرعت عمل و قدرت در حل نمونههای بزرگتر را به همراه دارند. اما کامپیوترها باید به قدری مفید باشند که بتوانند کارهایی را انجام دهند که واقعا ما نمیدانیم چگونه باید آنها را انجام دهیم.1-2- بررسی سلولهای مغزی افرادتحقیق درباره سلولهای مغزی افراد و همچنین شناخت Neuron ها یا رشتههای مغزی وبیان یک راه نسبتا متفاوت که یک سیستم هوشمند را بنا میکند شروع شد. مغز بشر متشکل از میلیونها نرون عصبی منحصر بفرد است واین رشتههای عصبی به اشکال و اندازههای مختلف تغییر میکنند.. هر نرون عموما یک هسته دارد و یکسری سلولهای عصبی Axon (آکسون)ـ که علائم خروجی را به سلولهای عصبی نرون دیگر حمل میکنندـ و Dendrite ها (شاخههای سلولهای عصبی). علائم در سلولهای عصبی میان شاخههای سلولهای عصبی ونواحی خروجی جریان دارند.در اینجا برای حالت برانگیزش باید آشفتگی از یک حدی تجاوز کند که آستانه یا سرحد نامیده میشود و پس از برانگیزش نرونها پیامهایی برای نرونهای دیگر میفرستند و خود را برای دریافت و پاسخ به اطلاعات عمومی آماده میکنند.
1-3- تاریخچهشبکههای عصبی دهها سال است که جلب توجه میکنند وتاکنون راه حلهایی برای استفاده از هوش بشری ارائه شده است. اولین نرون مصنوعی درسال 1943 توسط نروفیزیولوژیست وارنمککالوک و منطق دان والترپیتز تولید شد.در دهه 60 به دلایلی که خارج از بحث این مقاله است مردم بهسوی شبکههای عصبی متمایل شدند و تنها در دهه 80 دانشمندان تواناییهای واقعی شبکههای عصبی را دیدند.2- شبکههای عصبی مصنوعی2-1- شبکههای عصبی مصنوعیشبکههای عصبی شبیه به مغز انسان اطلاعاتی را پردازش میکنند. شبکه از تعداد زیادی سلولهای عصبی(Neuron ها) تشکیل شده با پردازشی بسیار بزرگ و بههم پیوسته که در حل موازی مسائل ویژه مشغول به کارند.یادگیری شبکههای عصبی از طریق مثالهاست. آنها برای انجام یک کار خاص برنامهریزی نشدهاند. مثالها باید با دقت بسیار بالایی انتخاب شوند والا زمان مفید هدر خواهد رفت و یا حتی ممکن است شبکه به طور ناقص دایر شود و در اینجا راهی برای فهمیدن اینکه سیستم معیوب است یا خیر وجود ندارد مگر اینکه خطایی رخ دهد.شبکههای عصبی مصنوعی یک ترکیبی از مجموعه نرونهاست و البته نرونهای مصنوعیای که بسیار شبیه به نرونهای زیستی کار میکنند. و بدین گونه است که ورودیهای زیادی با وزنهای مختلف میگیرد و یک خروجی که به ورودی وابسته است تولید میکند. نرونهای زیستی میتوانند در حال برانگیزش باشند یا نباشند. ( وقتی یک نرون برانگیخته میشود ضربه علائم خروجی آن مقداری کمتر از 100 هرتز است)شبکههای عصبی استفاده وسیعی در شناسایی الگوها دارند زیرا از خودشان قابلیت آن را دارند که بطور عمومی به ورودیهای غیر منتظره نیز پاسخ دهند. در طول ساخت نرونها میآموزند که چگونه الگوهای ویژه گوناگون را تشخیص دهند. اگر الگویی پذیرفته شود در حالی که در طول اجرا ورودی با خروجی مرتبط نباشد، نرون از مجموعهای از الگوهایی که سابقا آموخته خروجیی را که شبیه به الگو میباشد وکمترین تفاوت را با ورودی دارد انتخاب میکند. این روال عموما فراخوانی میشود.مثال:وقتی که ورودی نرون 1111 باشد چهار ورودی بر حسب برانگیزش مرتب شدهاند و وقتی ورودیهای 0000 را داریم نرون برای برانگیزش مرتب نیست. قاعده عمومی این است که نرونها مایلند برانگیخته شوند وقتی که ورودیها 0111 ، 1011 ، 1101 ، 1110 یا 1111 باشند و در صورتی که ورودی آنها 1000 ، 0001 ، 0010 ، 0100 یا 0000 باشند مایل به برانگیخته شدن نیستند.شناسایی الگوهای پیچیده سطح بالا میتواند به وسیله شبکهای از نرونها انجام شود و بدین ترتیب نام آن را شبکههای عصبی مصنوعی گذاشتند. اکنون شبکههای عصبی کاربردهای زیادی دارند(درمنطق وکلام و شناسایی عکسها)البته شناسایی الگوهامیتواند بهطور موفقیت آمیز بر روی کامپیوترهای عمومی انجام شود. این شبکههای عمومی که برای شناسایی الگوها استفاده میشوند Feed-Forward نامیده میشدند زیرا آنها یک بازخورد (Feed-Back) داشتند. آنها بهطور ساده ورودیها را با خروجیها میآمیختند. اما شناسایی الگوها به تدریج کاملتر شد بهطوریکه بر روی کامپیوترهای عمومی با سیستم خاص خودشان بهسختی انجام میشد پس برای شناسایی الگوها شبکههای Feed-Forward کافی نبودند.در شبکههای عصبی خروجی هر نرون به ورودی نرونهای مجاورش متصل شده است. شبکههای عصبی نمیتوانند معجزه کنند اما اگر به درستی استفاده شوند نتایج شگفتانگیزی خواهند داشت.2-2- مشخصات مسائل در خور شبکههای عصبی مصنوعی ANN(Artificial Neural
لینک دانلود و خرید پایین توضیحات
فرمت فایل word و قابل ویرایش و پرینت
تعداد صفحات: 30
پیاده سازی VLSI یک شبکه عصبی آنالوگ مناسب برای الگوریتم های ژنتیک
Johannes Schemmel1, Karlheinz Meier1, and Felix Sch¨urmann1
Universit¨at Heidelberg, Kirchho_ Institut f¨ur Physik, Schr¨oderstr. 90, 69120
Heidelberg, Germany,
schemmel@asic.uni-heidelberg.de,
WWW home page: http://www.kip.uni-heidelberg.de/vision.html
خلاصه
مفید بودن شبکه عصبی آنالوگ مصنوعی بصورت خیلی نزدیکی با میزان قابلیت آموزش پذیری آن محدود می شود .
این مقاله یک معماری شبکه عصبی آنالوگ جدید را معرفی می کند که وزنهای بکار برده شده در آن توسط الگوریتم ژنتیک تعیین می شوند .
اولین پیاده سازی VLSI ارائه شده در این مقاله روی سیلیکونی با مساحت کمتر از 1mm که شامل 4046 سیناپس و 200 گیگا اتصال در ثانیه است اجرا شده است .
از آنجائیکه آموزش می تواند در سرعت کامل شبکه انجام شود بنابراین چندین صد حالت منفرد در هر ثانیه می تواند توسط الگوریتم ژنتیک تست شود .
این باعث می شود تا پیاده سازی مسائل بسیار پیچیده که نیاز به شبکه های چند لایه بزرگ دارند عملی بنظر برسد .
1- مقدمه
شبکه های عصبی مصنوعی به صورت عمومی بعنوان یک راه حل خوب برای مسائلی از قبیل تطبیق الگو مورد پذیرش قرار گرفته اند .
علیرغم مناسب بودن آنها برای پیاده سازی موازی ، از آنها در سطح وسیعی بعنوان شبیه سازهای عددی در سیستمهای معمولی استفاده می شود .
یک دلیل برای این مسئله مشکلات موجود در تعیین وزنها برای سیناپسها در یک شبکه بر پایه مدارات آنالوگ است .
موفقترین الگوریتم آموزش ، الگوریتم Back-Propagation است .
این الگوریتم بر پایه یک سیستم متقابل است که مقادیر صحیح را از خطای خروجی شبکه محاسبه می کند .
یک شرط لازم برای این الگوریتم دانستن مشتق اول تابع تبدیل نرون است .
در حالیکه اجرای این مسئله برای ساختارهای دیجیتال از قبیل میکروپروسسورهای معمولی و سخت افزارهای خاص آسان است ، در ساختار آنالوگ با مشکل روبرو می شویم .
دلیل این مشکل ، تغییرات قطعه و توابع تبدیل نرونها و در نتیجه تغییر مشتقات اول آنها از نرونی به نرون دیگر و از تراشه ای به تراشه دیگر است و چه چیزی می تواند بدتر از این باشد که آنها با دما نیز تغییر کنند .
ساختن مدارات آنالوگی که بتوانند همه این اثرات را جبران سازی کنند امکان پذیر است ولی این مدارات در مقایسه با مدارهایی که جبران سازی نشده اند دارای حجم بزرگتر و سرعت کمتر هستند .
برای کسب موفقیت تحت فشار رقابت شدید از سوی دنیای دیجیتال ، شبکه های عصبی آنالوگ نباید سعی کنند که مفاهیم دیجیتال را به دنیای آنالوگ انتقال دهند .
در عوض آنها باید تا حد امکان به فیزیک قطعات متکی باشند تا امکان استخراج یک موازی سازی گسترده در تکنولوژی VLSI مدرن بدست آید .
شبکه های عصبی برای چنین پیاده سازیهای آنالوگ بسیار مناسب هستند زیرا جبران سازی نوسانات غیر قابل اجتناب قطعه می تواند در وزنها لحاظ شود .
مسئله اصلی که هنوز باید حل شود آموزش است .
حجم بزرگی از مفاهیم شبکه عصبی آنالوگ که در این زمینه می توانند یافت شوند ، تکنولوژیهای گیت شناور را جهت ذخیره سازی وزنهای آنالوگ بکار می برند ، مثل EEPROM حافظه های Flash .
در نظر اول بنظر می رسد که این مسئله راه حل بهینه ای باشد .
آن فقط سطح کوچکی را مصرف می کند و بنابراین حجم سیناپس تا حد امکان فشرده می شود (کاهش تا حد فقط یک ترانزیستور) .
دقت آنالوگ می تواند بیشتر از 8 بیت باشد و زمان ذخیره سازی داده (با دقت 5 بیت) تا 10 سال افزایش می یابد .
اگر قطعه بطور متناوب مورد برنامه ریزی قرار گیرد ، یک عامل منفی وجود خواهد داشت و آن زمان برنامه ریزی و طول عمر محدود ساختار گیت شناور است .
بنابراین چنین قطعاتی احتیاج به وزنهایی دارند که از پیش تعیین شده باشند .
اما برای محاسبه وزنها یک دانش دقیق از تابع تبدیل شبکه ضروری است .
برای شکستن این چرخه پیچیده ، ذخیره سازی وزن باید زمان نوشتن کوتاهی داشته باشد .
این عامل باعث می شود که الگوریتم ژنتیک وارد محاسبات شود .
لینک دانلود و خرید پایین توضیحات
فرمت فایل word و قابل ویرایش و پرینت
تعداد صفحات: 30
پیاده سازی VLSI یک شبکه عصبی آنالوگ مناسب برای الگوریتم های ژنتیک
Johannes Schemmel1, Karlheinz Meier1, and Felix Sch¨urmann1
Universit¨at Heidelberg, Kirchho_ Institut f¨ur Physik, Schr¨oderstr. 90, 69120
Heidelberg, Germany,
schemmel@asic.uni-heidelberg.de,
WWW home page: http://www.kip.uni-heidelberg.de/vision.html
خلاصه
مفید بودن شبکه عصبی آنالوگ مصنوعی بصورت خیلی نزدیکی با میزان قابلیت آموزش پذیری آن محدود می شود .
این مقاله یک معماری شبکه عصبی آنالوگ جدید را معرفی می کند که وزنهای بکار برده شده در آن توسط الگوریتم ژنتیک تعیین می شوند .
اولین پیاده سازی VLSI ارائه شده در این مقاله روی سیلیکونی با مساحت کمتر از 1mm که شامل 4046 سیناپس و 200 گیگا اتصال در ثانیه است اجرا شده است .
از آنجائیکه آموزش می تواند در سرعت کامل شبکه انجام شود بنابراین چندین صد حالت منفرد در هر ثانیه می تواند توسط الگوریتم ژنتیک تست شود .
این باعث می شود تا پیاده سازی مسائل بسیار پیچیده که نیاز به شبکه های چند لایه بزرگ دارند عملی بنظر برسد .
1- مقدمه
شبکه های عصبی مصنوعی به صورت عمومی بعنوان یک راه حل خوب برای مسائلی از قبیل تطبیق الگو مورد پذیرش قرار گرفته اند .
علیرغم مناسب بودن آنها برای پیاده سازی موازی ، از آنها در سطح وسیعی بعنوان شبیه سازهای عددی در سیستمهای معمولی استفاده می شود .
یک دلیل برای این مسئله مشکلات موجود در تعیین وزنها برای سیناپسها در یک شبکه بر پایه مدارات آنالوگ است .
موفقترین الگوریتم آموزش ، الگوریتم Back-Propagation است .
این الگوریتم بر پایه یک سیستم متقابل است که مقادیر صحیح را از خطای خروجی شبکه محاسبه می کند .
یک شرط لازم برای این الگوریتم دانستن مشتق اول تابع تبدیل نرون است .
در حالیکه اجرای این مسئله برای ساختارهای دیجیتال از قبیل میکروپروسسورهای معمولی و سخت افزارهای خاص آسان است ، در ساختار آنالوگ با مشکل روبرو می شویم .
دلیل این مشکل ، تغییرات قطعه و توابع تبدیل نرونها و در نتیجه تغییر مشتقات اول آنها از نرونی به نرون دیگر و از تراشه ای به تراشه دیگر است و چه چیزی می تواند بدتر از این باشد که آنها با دما نیز تغییر کنند .
ساختن مدارات آنالوگی که بتوانند همه این اثرات را جبران سازی کنند امکان پذیر است ولی این مدارات در مقایسه با مدارهایی که جبران سازی نشده اند دارای حجم بزرگتر و سرعت کمتر هستند .
برای کسب موفقیت تحت فشار رقابت شدید از سوی دنیای دیجیتال ، شبکه های عصبی آنالوگ نباید سعی کنند که مفاهیم دیجیتال را به دنیای آنالوگ انتقال دهند .
در عوض آنها باید تا حد امکان به فیزیک قطعات متکی باشند تا امکان استخراج یک موازی سازی گسترده در تکنولوژی VLSI مدرن بدست آید .
شبکه های عصبی برای چنین پیاده سازیهای آنالوگ بسیار مناسب هستند زیرا جبران سازی نوسانات غیر قابل اجتناب قطعه می تواند در وزنها لحاظ شود .
مسئله اصلی که هنوز باید حل شود آموزش است .
حجم بزرگی از مفاهیم شبکه عصبی آنالوگ که در این زمینه می توانند یافت شوند ، تکنولوژیهای گیت شناور را جهت ذخیره سازی وزنهای آنالوگ بکار می برند ، مثل EEPROM حافظه های Flash .
در نظر اول بنظر می رسد که این مسئله راه حل بهینه ای باشد .
آن فقط سطح کوچکی را مصرف می کند و بنابراین حجم سیناپس تا حد امکان فشرده می شود (کاهش تا حد فقط یک ترانزیستور) .
دقت آنالوگ می تواند بیشتر از 8 بیت باشد و زمان ذخیره سازی داده (با دقت 5 بیت) تا 10 سال افزایش می یابد .
اگر قطعه بطور متناوب مورد برنامه ریزی قرار گیرد ، یک عامل منفی وجود خواهد داشت و آن زمان برنامه ریزی و طول عمر محدود ساختار گیت شناور است .
بنابراین چنین قطعاتی احتیاج به وزنهایی دارند که از پیش تعیین شده باشند .
اما برای محاسبه وزنها یک دانش دقیق از تابع تبدیل شبکه ضروری است .
برای شکستن این چرخه پیچیده ، ذخیره سازی وزن باید زمان نوشتن کوتاهی داشته باشد .
این عامل باعث می شود که الگوریتم ژنتیک وارد محاسبات شود .
لینک دانلود و خرید پایین توضیحات
فرمت فایل word و قابل ویرایش و پرینت
تعداد صفحات: 30
پیاده سازی VLSI یک شبکه عصبی آنالوگ مناسب برای الگوریتم های ژنتیک
خلاصه
مفید بودن شبکه عصبی آنالوگ مصنوعی بصورت خیلی نزدیکی با میزان قابلیت آموزش پذیری آن محدود می شود .
این مقاله یک معماری شبکه عصبی آنالوگ جدید را معرفی می کند که وزنهای بکار برده شده در آن توسط الگوریتم ژنتیک تعیین می شوند .
اولین پیاده سازی VLSI ارائه شده در این مقاله روی سیلیکونی با مساحت کمتر از 1mm که شامل 4046 سیناپس و 200 گیگا اتصال در ثانیه است اجرا شده است .
از آنجائیکه آموزش می تواند در سرعت کامل شبکه انجام شود بنابراین چندین صد حالت منفرد در هر ثانیه می تواند توسط الگوریتم ژنتیک تست شود .
این باعث می شود تا پیاده سازی مسائل بسیار پیچیده که نیاز به شبکه های چند لایه بزرگ دارند عملی بنظر برسد .
1- مقدمه
شبکه های عصبی مصنوعی به صورت عمومی بعنوان یک راه حل خوب برای مسائلی از قبیل تطبیق الگو مورد پذیرش قرار گرفته اند .
علیرغم مناسب بودن آنها برای پیاده سازی موازی ، از آنها در سطح وسیعی بعنوان شبیه سازهای عددی در سیستمهای معمولی استفاده می شود .
یک دلیل برای این مسئله مشکلات موجود در تعیین وزنها برای سیناپسها در یک شبکه بر پایه مدارات آنالوگ است .
موفقترین الگوریتم آموزش ، الگوریتم Back-Propagation است .
این الگوریتم بر پایه یک سیستم متقابل است که مقادیر صحیح را از خطای خروجی شبکه محاسبه می کند .
یک شرط لازم برای این الگوریتم دانستن مشتق اول تابع تبدیل نرون است .
در حالیکه اجرای این مسئله برای ساختارهای دیجیتال از قبیل میکروپروسسورهای معمولی و سخت افزارهای خاص آسان است ، در ساختار آنالوگ با مشکل روبرو می شویم .
دلیل این مشکل ، تغییرات قطعه و توابع تبدیل نرونها و در نتیجه تغییر مشتقات اول آنها از نرونی به نرون دیگر و از تراشه ای به تراشه دیگر است و چه چیزی می تواند بدتر از این باشد که آنها با دما نیز تغییر کنند .
ساختن مدارات آنالوگی که بتوانند همه این اثرات را جبران سازی کنند امکان پذیر است ولی این مدارات در مقایسه با مدارهایی که جبران سازی نشده اند دارای حجم بزرگتر و سرعت کمتر هستند .
برای کسب موفقیت تحت فشار رقابت شدید از سوی دنیای دیجیتال ، شبکه های عصبی آنالوگ نباید سعی کنند که مفاهیم دیجیتال را به دنیای آنالوگ انتقال دهند .
در عوض آنها باید تا حد امکان به فیزیک قطعات متکی باشند تا امکان استخراج یک موازی سازی گسترده در تکنولوژی VLSI مدرن بدست آید .
شبکه های عصبی برای چنین پیاده سازیهای آنالوگ بسیار مناسب هستند زیرا جبران سازی نوسانات غیر قابل اجتناب قطعه می تواند در وزنها لحاظ شود .
مسئله اصلی که هنوز باید حل شود آموزش است .
حجم بزرگی از مفاهیم شبکه عصبی آنالوگ که در این زمینه می توانند یافت شوند ، تکنولوژیهای گیت شناور را جهت ذخیره سازی وزنهای آنالوگ بکار می برند ، مثل EEPROM حافظه های Flash .
در نظر اول بنظر می رسد که این مسئله راه حل بهینه ای باشد .
آن فقط سطح کوچکی را مصرف می کند و بنابراین حجم سیناپس تا حد امکان فشرده می شود (کاهش تا حد فقط یک ترانزیستور) .
دقت آنالوگ می تواند بیشتر از 8 بیت باشد و زمان ذخیره سازی داده (با دقت 5 بیت) تا 10 سال افزایش می یابد .
اگر قطعه بطور متناوب مورد برنامه ریزی قرار گیرد ، یک عامل منفی وجود خواهد داشت و آن زمان برنامه ریزی و طول عمر محدود ساختار گیت شناور است .
بنابراین چنین قطعاتی احتیاج به وزنهایی دارند که از پیش تعیین شده باشند .
اما برای محاسبه وزنها یک دانش دقیق از تابع تبدیل شبکه ضروری است .
برای شکستن این چرخه پیچیده ، ذخیره سازی وزن باید زمان نوشتن کوتاهی داشته باشد .
این عامل باعث می شود که الگوریتم ژنتیک وارد محاسبات شود .
با ارزیابی تعداد زیادی از ساختارهای تست می توان وزنها را با بکار بردن یک تراشه واقعی تعیین کرد .
همچنین این مسئله می تواند حجم عمده ای از تغییرات قطعه را جبران سلزی کند ، زیرا داده متناسب شامل خطاهایی است که توسط این نقایص ایجاد شده اند .