هوش مصنوعی، اخلاق و ارزشها
هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیمگیری، نویدبخش نتایج باکیفیتتر و بهبود بازدهی است. موفقیت سیستمهای بازی هوش مصنوعی در شکست قهرمان شطرنجگری کاسپاروف و قهرمان Go، کی جای، ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیمگیری لحظهای بر حرکتهای احتمالی آینده را ثابت میکنند. متأسفانه هوش مصنوعی در فرایند تصمیمگیری، شفافیت، قابلیت توصیف، قابلیت پیشگویی، قابلیت آموزش، قابلیت محاسبه حرکت انسانی را حذف کرده و ابهام را جایگزین آنها میکند. منطق حرکت نهتنها برای بازیکنان، بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی شروع به تصمیمگیری میکند، دیگر اثری از شفافیت و قابلیت پیشگویی دیده نمیشود.
حالا فرض کنید کودکی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت میکنند، یک هفته بعد، کودک دیگر همان درخواست را میکند؛ اما اینبار والدین رد میکنند. این داستان ساده، مساله نابرابری و سلیقهمحوری را مطرح میکند. برای اجتناب از اتهام سلیقهمحوری، والدین به کودک خود توضیح میدهند که قبل از دریافت پولتوجیبی باید تکالیف خود را انجام دهد. در صورتی که والدین به کودک خود دلیل این کار را توضیح ندهند، احتمال شدتگرفتن تنش در خانواده وجود دارد. حالا فرض کنید سیستم هوش مصنوعی چنین نقشی را ایفا کند که از هزاران خانواده در موقعیتهای مختلف داده جمعآوری کرده است. سیستم با بررسی پیامد اجازهدادن در خانوادهها میتواند این طور نتیجه بگیرد که یکی از بچهها میتواند پولتوجیبی بگیرد؛ در حالی که دیگری مجاز به دریافت پول نیست. با این حال، سیستم هوش مصنوعی نمیتواند دلیل کار خود را توضیح دهد؛ بلکه فقط میتواند با وزندهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات کودک، بهترین تصمیم ممکن را برای خانوادههای دیگر هم اتخاذ کند. برای درک میزان ساختگیبودن تصمیمهای هوش مصنوعی، باید روش تصمیمگیری انسان را بررسی کرد. انسانها معمولا براساس مجموعهای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی و ترکیب تصمیم میگیرند. انسانها در برابر اطلاعات مرتبط برای تصمیمگیری گزینشی عمل میکنند؛ اما ماشینها بهصورت غیرگزینشی عمل میکنند و حتی معیارهایی را در نظر میگیرند که در روند تصمیمگیری برای انسان اهمیتی ندارند. مثالهای بیشماری از این نمونه وجود دارد که میتوان به غیرفعالسازی ربات چت مایکروسافت پس از ارسال متنهای ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره کرد که رابطه جنسیتی کلماتی مثل Boss و Architect و Financier با مردان و رابطه جنسیتی کلماتی مثل Nurse و Receptionist با زنان را آشکار کرد. این خروجیها را احتمالا دادهها تولید میکنند؛ اما در تضاد با ارزشهای آشکار انسانی هستند. اگر فرایندهای دادهمحور به خروجی الگوریتمهای هوش مصنوعی وابسته باشند، تصمیمهای انحرافی را به بار خواهند آورد که اغلب اوقات در تضاد با ارزشهای اخلاقی هستند. در سال ۲۰۱۶، ProPublica شواهد چشمگیری از این دست را ارایه داد. برای مثال، دادگاههای ایالات متحده از برنامهای کامپیوتری استفاده کرده بودند که بهاشتباه متهمان سیاهپوست را که در بازهای دوساله مرتکب جرمی نشده بودند، به عنوان مجرم با نرخ دوبرابر متهمان سیاهپوست بار دیگر پرچمگذاری کرده بود (۴۵ در مقایسه با ۲۳ درصد) . این در حالی است که اگر انسانی این کار را انجام میداد، لقب نژادپرست به او داده میشد. هوش مصنوعی میتواند بین تجربیات جمعی و ارزشهای آشکار جدایی بیندازد. تجربههای جمعی ایستا نیستند؛ بلکه براساس تصمیمهای مهم اجتماعی شکل میگیرند. تصمیمهای اجتماعی هم براساس ارزشهای اخلاقی اتخاذ میشوند؛ بنابراین، آیا فرایند تصمیمگیری به ماشینی واگذار میشود که صرفا درباره گذشته به یادگیری میپردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینههایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبهروز عملکرد الگوریتمها در زمینه پیشگویی بهبود پیدا میکند، منطق ناظر بر چنین تصمیمهایی هم نفوذناپذیر خواهند شد. بر همین اساس، انسان دیدگاه جامع تصمیمگیری را از دست میدهد و تمام اصول گذشته را کنار میگذارد. در بعضی نمونهها، این مساله میتواند غیراخلاقی و غیرقانونی و حتی کوتهبینانه باشد. برای مثال، الگوریتم تکرار جرم اصولی مثل سابقه بیگناهی و برابری فرصتها را نادیده گرفته است. سازگاری یکی از پیشنیازهای لازم اخلاق و یکپارچهسازی است. تصمیمها باید به استانداردهایی بیشتر از دقت آماری وابسته باشند. قرنها است که فضیلتهای مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را به عنوان شاخصهای بقای هرگونه سیستم استنتاجی ثابت کردهاند. بدون سازگاری منطقی، سیستمهای هوش مصنوعی از ثبات و پاسخگویی محروم میشوند. ثبات و پاسخگویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار میروند. نفوذناپذیری تصمیمهای دادهمحور با ایجاد شکاف بین تمایلهای اخلاقی و استدلالهای منطقی، مانع از دخالت در فرایندهای تصمیمگیری میشود. دنیای جدید انسان این گونه است؛ جایی که تصمیمهای پیچیده به انتخابهای انعکاسی تقلیل مییابند و براساس خروجیهای نظارتشده اعمال میشوند؛ جایی که پیچیدگی بهسادگی تبدیل میشود و فناپذیری به کاربردپذیری. امروزه، ادراک انسان از اخلاق به منزله چارچوبی برای تصمیمگیری در نظر گرفته میشود. مدت زیادی نیست که تصمیمگیریهای انسان، سایه شک را بر اخلاق انداخته است.منبع: زومیت