وب سایت سایبربان: گروهی از دانشمندان آمریکایی نوع جدیدی از شبکههای عصبی را ارائه دادند که میتوانند دلیل تصمیم گرفته شده توسط خود را شرح دهند.
به شبکههای عصبی، ذهن مجازی نیز گفته میشود؛ زیرا آنها از ساختار مغز تقلید میکنند. این شبکهها از تعداد زیادی گرههای پردازشی-مشابه شبکهی نورونها در بدن انسان- که به یکدیگر متصل بوده و هر یک وظیفهی بسیار سادهای را انجام میدهند تشکیل شده است. به عنوان مثال در یک فرآیند یادگیری عمیق، دادههای آموزشی به گرههای ورودی ارسال میشوند. سپس این دادهها به دیگر گرهها نیز وارد شده و محتویات آنها را تغییر میدهند و این روند ادامه پیدا میکند.
در نهایت این دادهها به گرههای خروجی رسیده و با توجه به آموزشهایی که شبکه دیده است، دستهبندی میشوند. به عنوان مثالی از این روند میتوان به دستهبندی تصاویر و مقالات توسط هوش مصنوعی اشاره کرد.
در طول آموزش یک شبکهی عصبی فرضی، گرههای موجود در آن به صورت پیوسته و جداگانه آموزش دیده و برای ایجاد نتیجهای بهتر، تغییر میکنند. دانشمندان رایانهای که این شبکه را ایجاد کردهاند بعد از پایان آموزش، خودشان نیز نمیدانند تنظیمات درون هر گره چیست. حتی اگر آنها بتوانند تنظیمات را تشخیص دهند، ترجمهی آن به یکزبان سطح پایین کاملاً قابلفهم بسیار سخت است.
شبکهی عصبی هوشهای مصنوعی تولید شده در سالهای اخیر که برای طبقهبندی اطلاعات ایجاد شدهاند به مرور زمان و با یادگیری از دادههای ورودی پیشرفت میکنند. به عنوان مثال ممکن است از آنها برای شناسایی اشیا خاص یا بررسی متون موجود در تصویر استفاده شود. به اعتقاد بسیاری از محققان؛ شبکههای عصبی مانند جعبههایی هستند که محتویات آن مشخص نیست. برای نمونه میتوان به این موضوع اشاره کرد که یک شبکه بعد از آموزش دیدن بهخوبی دادهها را طبقهبندی میکنند؛ اما حتی سازندهی الگوریتم این شبکه نیز دلیل این نوع طبقهبندی را نمیداند.
در بعضی مواقع میتوان تشخیص داد که یک شبکهی عصبی به چه نوع ویژگی بصری پاسخ داده و آن را بررسی کرده است؛ اما این موضوع در مورد بررسی متون بسیار مشکلتر است.
پژوهشگران آزمایشگاه هوش مصنوعی و علوم رایانه دانشگاه ام. آی. تی1 (CSAIL)، روش جدیدی را برای آموزش شبکههای عصبی در «اجلاس زبانشناسی رایانهای به صورت تجربی در پردازش زبان طبیعی2» (ACL) ارائه دادند که نه تنها میتواند اطلاعات را طبقهبندی کند؛ بلکه دلیل تصمیمگیریهای خود را نیز توضیح میدهد.
متخصصین دانشگاه ام. آی. تی گفتند: «بعضی اوقات در دنیای واقعی مردم دوست دارند، دلیل تصمیم گرفته شده توسط مدلها را متوجه شوند. یکی از دلایلی که پزشکان به الگوریتمهای یادگیری ماشینی در تشخیص بیماریها اعتماد ندارند نیز همین موضوع است.»
متخصصین ادامه دادند: «مشکل مذکور تنها در زمینهی پزشکی وجود ندارد؛ بلکه میتوان آن را در تمام زمینههایی که هزینهی پیشبینی اشتباه بسیار بالا است و باید برای هر کاری دلیلی موجهی وجود داشته باشد، مشاهده کرد.»
آنها افزودند: «جنبههای بسیار گستردهتری را میتوان در این زمینه مشاهده کرد. شما احتمالاً تنها نمیخواهید صحت پیشبینی انجام شده را تأیید کنید؛ بلکه احتمالاً میخواهید، بعضی مواقع در روشهای بررسیهای صورت گرفته نیز اعمال نفوذ کنید. چگونه افراد غیرمتخصص با مدلهای پیچیده که هیچچیز از الگوریتم آنها نمی دانند ارتباط برقرار میکنند؟ مدلها ممکن است بتوانند منطق پشت تصمیمگیریهای خود را برای شما بازگو کنند و با کمک همین موضوع روش ارتباطی جدیدی با مدلها ایجاد بشود.»
پژوهشگران در زمان ارائهی طرح خود روی شبکههای عصبی آموزش دیده برای دادههای متنی تمرکز کرده بودند. آنها برای تصمیمگیریهای شبکهی عصبی خود آن را به دو ماژول جداگانه تقسیم کردند. ماژول اول بخشهایی از متن را از دادههای آموزشی جدا کرده و سپس با توجه به طول قطعهی جدا شده و وابستگی آن به بخشهای دیگر جمله به آن امتیاز میدهد.
این ماژول هر چه طول کلمه کوتاهتر باشد، امتیاز بیشتری را برای آن در نظر میگیرد. سپس قطعه عبارات جدا شده به ماژول دوم فرستاده میشود تا از آن برای پیشبینی و طبقهبندی اطلاعات استفاده میکند. هر دو ماژول به صورت همزمان و باهدف افزایش امتیاز کسب شده در بخشهای جداسازی و طبقهبندی اطلاعات، آموزش میبینند.
_______________________________
1- MIT’s Computer Science and Artificial Intelligence Laboratory
2- Association for Computational Linguistics’ Conference on Empirical Methods in Natural Language Processing/Association for Computational Linguistics