🔻🔺 آیا ممکن است ماشین های هوشمند مقلد الگوهای معرفتی و رفتاری سازندگان خود شوند؟
(نگاهی به موضوع هفدهمین میزگرد سالانه اخلاق اطلاعات دانشگاه Northeastern در سال 2019)
ترجمه: حسینعلی رحمتی
✅ یادداشت مترجم:
«آموزش ماشین» (Machine Learning) شاخه ای از هوش مصنوعی (Artificial Intelligence= AI) و مبتنی بر این ایده است که سیستم ها توانایی این را دارند که با استفاده از داده ها آموزش ببینند، الگوسازی کنند و با کمترین میزان دخالت انسان، تصمیم گیری کنند. اما مسئله ای که در این جا مطرح میشود آن است که از آنجا که این ماشین ها به واسطه داده هایی که انسان در اختیار آنها قرار میدهد آموزش میبینند و از رفتارهای انسان الگوسازی میکنند، این احتمال جدی وجود دارد که دارای جهت گیری های معرفتی و رفتاری تولیدکنندگان خود (که مثلا اروپایی و سفیدپوست هستند) شوند و نسبت به افراد غیراروپایی یا غیرسفید پوست، تصمیم ها و رفتارهای تبعیض آمیز اتخاذ کنند. این موضوع قرار است سال 2019 در هفدهمین میزگرد سالانه اخلاق اطلاعات (Information Ethics) دانشگاه شمال شرق Northeastern University آمریکا مورد بررسی قرار گیرد.
✅ آنچه در ادامه تقدیم میشود سوال های این میزگرد است که از سایت این دانشگاه انتخاب شده است. و هدف از ترجمه آن، آشنایی اخفا پژوهان و اخفا اندیشان کشورمان با جدیدترین مسائل مطرح در مجامع علمی جهان در عرصه اخلاق فناوری اطلاعات است. این آشنایی افزون بر این که افق های جدیدی را فراروی آنان میگشاید، راه را برای ژرف اندیشی های بیشتر درباره این موضوعات با بهره گیری از آموزه های اخلاقی، دینی و فلسفی دیار ما هموار میکند. (پایان توضیحات مترجم)
✅ هوش مصنوعی امروزه جزوی از زندگی روزمره ما شده است، و به ما این امکان را میدهد که بدون گرفتار شدن در ترافیک خیابان ها به آسانی قدم به جاهایی بگذاریم که پیش از این هرگز نرفته بودیم، بدون داشتن زبان مشترک، با دوست چینی مان ارتباط برقرار کنیم، یا در کارخانه ها عهده دار کارهای پیچیده اما به شدت خسته کننده و تکراری شویم. اما، از سوی دیگر، بهره گیری از هوش مصنوعی میتواند منجر به مسئله ای شود که میتوان آن را «تبعیض یا جهت گیری مصنوعی» (artificial bias) نامید؛ یعنی آن دسته از رفتار ماشین های هوشمند، البته اگر به وسیله انسان تولید شده باشند، که میتوانیم آنها را نسبت به گروه های خاصی چون اقلیت های نژادی، دارای جهت گیری تبعیض آمیز بدانیم. آموزش این ماشین ها که با استفاده از مجموعه های بزرگی از داده ها انجام میشود، یکی از ابزارهای به کارگیری هوش مصنوعی است که به طور خاص استعداد تولید سیستم های تبعیض آمیز را دارد؛ چرا که این ماشین ها اطلاعات خود را از رفتارهای انسان الگوبرداری میکنند که خود این رفتارها ممکن است تبعیض آمیز باشد. یافتن راه هایی برای اصلاح این جهت گیری ها، و تولید الگوریتم های بی طرفانه (fair algorithms) مستلزم پاسخ به مجموعه ای از پرسش ها است، از جمله:
🔻1. کدام یک از تعاریفی که در فلسفه و رشته های دیگر برای بی طرفی و عدالت گفته شده، برای شناخت بی طرفی، برابری (equality) و عدالت در استفاده از داده ها و آموزش ماشین های هوشمند مفیدتر است؟
🔻2. با توجه به تکنیک های متفاوتی که برای آموزش ماشین های هوشمند به کار میرود، تعریف های مختلف از بی طرفی و عدالت تا چه اندازه در مورد این ماشین ها امکان عملیاتی شدن یا محاسباتی شدن را دارد؟
3. آیا ممکن است سیستم های تصمیم گیر در ماشین های آموزش دیده پیش از این که در یک صنعت خاص، مثلا وام دادن (lending) یا خدمات اجتماعی (از قبیل سرویس های نگهداری از کودکان) به کار گرفته شوند نسبت به رفتارهایی که هم اکنون عادلانه و بی طرفانه محسوب میشود، از سطح بالاتر و متفاوت تری از عدالت و بی طرفی برخوردار شوند؟
🔻4. نقش متخصصان داده پردازی و برنامه نویسان کامپیوتر در اصلاح جهت گیری هایی که گفته شد چیست؟ آموزش ماشین ها چگونه میتواند در ایفای این نقش موثر واقع شود؟
🔻5. برخی از جهت گیری ها بسیار هم مفید هستند(تبعیض مثبت- م). پس کدام یک از آنها غیرعادلانه اند؟ و چرا؟
🔻6. برنامه نویسان امروزیِ متخصص طبقه بندی داده ها (classification)، برای پرهیز از جهت گیری های نادرست، چه چیزهایی را میتوانند از تجارب دیگر رشته های مرتبط با طبقه بندی (مانند کتاب داری) بیاموزند؟
🔻7. پژوهش های هنجاری در حوزه های دیگر، از قبیل تشکیل پرونده برای افراد توسط پلیس، درباره این که چه زمانی و تحت چه شرایطی تشکیل پرونده برای دیگران توسط ماشین های آموزش دیده قابل پذیرش و توجیه است چه چیزهایی را به ما میآموزد؟
🔻8. چه ارتباطی وجود دارد بین تبیین پذیری/تفسیر پذیری (explainability/
حسينعلي رحمتي
1 بهمن 1397
بستن *نام و نام خانوادگی * پست الکترونیک * متن پیام |