هوش مصنوعی اشتباه نمیکند، برای همین باید از آن ترسید
ما هنوز نمیدانیم هوش مصنوعی چطور تصمیم میگیرد اما میدانیم مثل انسانها عمل نمیکند
مترجم: محمد معماریان|
همه نشانهها حاکی از این است که در آیندهای نهچندان دور، هوش مصنوعی به بخش مهمی از زندگی روزمره ما تبدیل خواهد شد. هوش مصنوعی علاوه بر آنکه به ما پیشنهاد خواهد داد چه موسیقیای گوش بدهیم یا چه کفشی بخریم، جای پزشک و قاضی و پلیس را هم خواهد گرفت. اما چالش اصلیای که پیش روی ما قرار دارد، نه احتمال بیکاری شمار بیشتری از انسانها، بلکه این واقعیت است که هیچکس، حتی خود سازندگان این فناوریها، نمیدانند هوش مصنوعی چطور تصمیم میگیرد.
ایمی وب، بیزنس اینسایدر| وقتی دستورالعملی مبتنی بر ارزشهای انسانگرایانه برای غولهای بزرگ فناوری در کار نباشد، تجربهها و آرمانهای شخصیاند که تصمیمگیریها را پیش میبرند. وقتی ماجرا به هوش مصنوعی برسد، این مساله بسیار خطرناک میشود چون دانشجویان، استادان، محققان، کارکنان و مدیران، هر روز، میلیونها تصمیم میگیرند: از تصمیمهای بهظاهر بیاهمیت (از کدام پایگاهداده استفاده کنند) تا تصمیمهای بنیادین (اگر یک خودروی هوشمند مجبور به تصادف باشد، باید به سمت کدام قربانی برود؟) .
شاید مغز انسان الهامبخش هوش مصنوعی بوده باشد، اما تصمیمگیری و انتخاب انسانها و هوش مصنوعی با هم فرق دارد. دنیل کانمن، استاد دانشگاه پرینستون، و آموس تورسکی، استاد دانشگاه عبری اورشلیم، که سالها برای مطالعه مغز انسان و نحوه تصمیمگیری ما وقت گذاشتهاند، در نهایت کشف کردند که ما دو سیستم فکری داریم: یکی از منطق برای تحلیل مسالهها استفاده میکند، و دیگری که خودکار و سریع است و تقریباً برای ما نامحسوس. کانمن این سیستم دوگانه را در کتاب تفکر، سریع و آهسته که جایزههای متعددی بُرده است شرح میدهد. مسائل دشواری وجود دارد که نیازمند توجه شما و بالتبع حجم زیادی از انرژی ذهنیتان هستند. به همین دلیل است که اکثر افراد نمیتوانند حین راهرفتن مسائل طولانی محاسباتی را حل کنند چون حتی کاری مثلِ راهرفتن هم به آن بخش انرژیبر مغز نیاز دارد. اکثر اوقات، سیستم دیگر زمام امور را در دست دارد. ذهن سریع و شهودی ما در طول روز بهطور خودکار هزاران تصمیم میگیرد، و گرچه کمتر انرژی مصرف میکند اما آکنده از سوگیریهای شناختی است که بر هیجانات، باورها و افکار ما اثر میگذارند.
بهخاطر قسمت سریع مغزمان است که اشتباه میکنیم. در خوردن یا آشامیدن زیادهروی میکنیم یا رابطه جنسی محافظتنشده داریم. همان قسمت مغز است که زمینه کلیشهسازی را فراهم میکند. ما بر اساس دادههایی بسیار کم درباره افراد دیگر قضاوت میکنیم بیآنکه آگاهانه از این کار خبردار شویم. یا آن افراد به چشم ما نمیآیند. قسمت سریع مغز موجب میشود مستعد آن پدیدهای باشیم که اسمش را «پارادوکس اکنون» گذاشتهام: بهطور خودکار فرض میکنیم که شرایط کنونیمان تغییر نخواهد کرد، یعنی اصلاً محال است که تغییر کند، حتی اگر با نشانههایی مواجه باشیم که از چیزی نو یا متفاوت حکایت میکنند. شاید فکر کنیم که کنترل کاملی بر تصمیمگیریمان داریم، اما بخشی از ما مُدام در حالت پرواز خودکار است.
ریاضیدانان میگویند بهخاطر پیچیدگی سیستمها و سیالیتِ همیشگی آینده (که این سیالیت تا سطح مولکولی نیز ادامه دارد)، محال است بتوانیم «تصمیم بینقص» بگیریم. محال است بتوانیم تکتک بروندادهای ممکن را پیشبینی کنیم، و چون تعداد متغیرها مجهول است، بههیچوجه نمیتوان مدلی ساخت که همه پاسخهای ممکن را سبکسنگین کند. چند دهه پیش، وقتی مرزهای هوش مصنوعی در حد شکستدادن آدمها در بازی چکرز بود، متغیرهای تصمیمگیری روشن و واضح بودند. امروزه که از هوش مصنوعی میخواهیم درباره یک تشخیص پزشکی نظر بدهد یا سقوط بعدی بازار مالی را پیشبینی کند، پای دادهها و تصمیمهایی در میان است که میلیونها برابر پیچیدهترند. لذا سیستمهایمان را چنان ساختهایم که بهینهسازی کنند. بهینهسازی هم تلویحا از پیشبینیناپذیری میگوید: گرفتن تصمیمهایی که از تفکر انسانی خود ما فاصله دارد.
پارسال که نرمافزار آلفاگو زیرو (متعلق به شرکت دیپمایند) استراتژی انسانی را کنار گذاشت و استراتژی خودش را ابداع کرد، معنیاش این بود که دیگر میان بدیلهای از-پیش-موجود انتخاب نمیکرد، بلکه عامدانه تصمیم گرفت که چیزی کاملاً متفاوت را بیازماید. هدف محققان هوش مصنوعی همین الگوی فکری دوم است چون بنا به نظریهها میشود گفت همین است که میتواند به پیشرفتهای عظیم بینجامد. لذا بهجای تمریندادن هوش مصنوعی برای گرفتن تصمیمهای کامل و بینقص، تمرینش میدهند تا برای بُروندادهای خاص بتواند بهینهسازی کند. ولی برای چه کسی (و چه چیزی) داریم بهینهسازی میکنیم؟ و از این گذشته، فرآیند بهینهسازی بهصورت بلادرنگ چطور عمل میکند؟ در حقیقت پاسخ دادن به این سوال ساده نیست. فناوریهای «یادگیری ماشینی» و «یادگیری عمیق» رازآلودتر از سیستمهای قدیمی دستیاند. علتش هم این است که این سیستمها هزاران نرون شبیهسازیشده را گرد هم میآورند که در قالب صدها لایه پیچیده و متصل سامان مییابند. پس از فرستادن ورودی اولیه به نرونهای لایه اول، محاسبهای انجام شده و سیگنال جدیدی تولید میشود. آن سیگنال به لایه بعدی نرونها فرستاده میشود و فرآیند ادامه مییابد تا زمانی که هدف حاصل شود. همه این لایههای بههممتصل، به سیستمهای هوش مصنوعی امکان میدهند دادهها را در چندین و چند لایه انتزاع شناخته و بفهمند. مثلاً یک سیستم شناسایی تصویر شاید در لایه اول بفهمد که یک تصویر فلان رنگ و شکلهای خاص را دارد، و در لایههای بعدی بافت و نور را تشخیص بدهد. بالاترین لایه معین خواهد کرد که غذای موجود در آن عکس، گشنیز است، نه جعفری.
آینده هوش مصنوعی (و بالتبع آینده بشریت) در دست فقط ۹ شرکت است که فریموُرکها، چیپستها و شبکهها را توسعه میدهند، پشتیبان مالی عمده تحقیقات، سهم اصلی را در حق اختراعها میبرند، و در این میان دادهکاوی روی اطلاعات ما را به شیوههایی انجام میدهند که نه برایمان شفاف است و نه مشاهدهپذیر. 6 تای آنها در ایالات متحدهاند که اسمشان را جی-مافیا گذاشتهام: گوگل، مایکروسافت، آمازون، فیسبوک، ایبیام و اپل. سهتا در چین هستند که اسمشان را بت میگذارم: بایدو، علیبابا و تنسنت. یک مثال بزنم که وقتی این ۹ غول از دادههای ما برای ساختن ابزارهای کاربردی دنیای واقعی با مقاصد تجاری و حکومتی استفاده میکنند، چه مشکلات و مسائلی پیش میآید. محققان در دانشکده طب ایچان در نیویورک یک آزمایش «یادگیری عمیق» انجام دادند تا ببینند آیا میتوانند یک سیستم را جوری آموزش دهند که سرطان را پیشبینی کند. این دانشکده که در بیمارستان ماونت سینای قرار دارد، به دادههای ۷۰۰ هزار بیمار دسترسی پیدا کرد، و این مجموعهدادهها شامل صدها متغیر متفاوت بود. سیستم آنها، به نام دیپ پیشنت، تکنیکهای پیشرفتهای برای شناسایی الگوهای جدید در دادهها داشت که محققان کاملاً از آنها سر درنمیآوردند، اما از قضا در یافتن بیماران در مراحل اولیه بسیاری بیماریها از جمله سرطان کبد بسیار خوب عمل میکرد. این سیستم همچنین میتوانست نشانههای هشدار برخی اختلالهای روانپزشکی مانند شیزوفرنی را هم پیشبینی کند که عجیب بود. ولی حتی محققانی که این سیستم را ساخته بودند، نمیدانستند که سیستمشان چگونه تصمیمگیری میکند. محققان یک هوش مصنوعی قدرتمند ساخته بودند، هوشی که مزایایش در زمینه تجارت و سلامت عمومی ملموس بود، و تا بهامروز منطق نحوه تصمیمگیریاش را نمیدانند. دیپ پیشنت پیشبینیهای هوشمندانهای میکرد بیآنکه تبیینی برایشان وجود داشته باشد. آیا تیم پزشکی با آرامش خاطر میتوانست گامهای بعدی را بردارد، مثلاً داروهای بیمار را متوقف کند یا تغییر دهد، به پرتودرمانی یا شیمیدرمانی روی بیاورد، یا دست به کار جراحی شود؟
این ناتوانی در مشاهده نحوه بهینهسازی و تصمیمگیری در سیستم هوش مصنوعی را با عنوان «مساله جعبه سیاه» میشناسند. درحالحاضر، کدهای سیستمهای هوش مصنوعیای که آن ۹ غول میسازند به صورت منبع باز ارایه میشود، ولی همگی مثل جعبههای سیاهی عمل میکنند که انحصاری شرکتهای خاص است. آنها میتوانند فرآیند را شرح بدهند، اما اجازهدادن به دیگران برای مشاهده آن در عمل بهصورت بلادرنگ در پردهای از ابهام است. با آن همه لایهها و نرونهای شبیهسازیشده، مهندسی معکوسکردن برای فهمیدن آنکه دقیقاً چه اتفاقاتی به چه ترتیبی رُخ دادهاند ابداً ساده نیست. تیمی از محققان گوگل سعی کردند یک تکنیک جدید توسعه بدهند تا هوش مصنوعی شفافتر شود. اساس کارشان این بود که یک الگوریتم شناسایی تصویر با فناوری یادگیری عمیق را برعکس اجرا کردند تا مشاهده کنند که سیستم چگونه چیزهای خاصی مانند درختان، حلزونها و خوکها را تشخیص میداد. این پروژه، با نام دیپدریم، از شبکهای استفاده میکرد که آزمایشگاه علم رایانه و هوش مصنوعی دانشگاه امآیتی ساخته بود و الگوریتم یادگیری عمیق گوگل را برعکس اجرا میکرد. بهجای تمرین دادن سیستم برای شناسایی اشیاء با استفاده از رویکرد لایه به لایه (که یاد بگیرد رُز یک رُز است و نرگس یک نرگس)، این سیستم را تمرین دادند تا عکسها را کجومعوج کرده و اشیایی بسازد که در عکس نبودهاند. آن تصویرهای کجومعوج پیدرپی به خورد سیستم داده شدند، و هر بار دیپدریم تصویرهای غریبتری را کشف کرد. یعنی گوگل واقعاً از هوش مصنوعی خواسته بود که رویاپردازی کند. یعنی بهجای آنکه سیستم را تمرین دهد تا اشیای موجود را تشخیص دهد، تمرینش دادند تا همان کاری را کند که ما همه در کودکی کردهایم: به ابرهای آسمان خیره میشویم، دنبال الگوهایی میگردیم تا انتزاع کنیم، و خیال میکنیم که چه میبینیم. با این تفاوت که دیپدریم به استرس یا هیجان انسانی مقید نبود: آنچه میدید منظرههایی هیولایی بود مثل فاز روانگردانها، ترکیبی از حیوانهای عجیبغریب شناور، فراکتالهای رنگی و ساختمانهایی که کج و چوله شده بودند و شکلهای بیمنطقی میساختند.
وقتی که هوش مصنوعی رویاپردازی میکرد، چیزهای کاملاً جدیدی میساخت که برای خود سیستم منطقی بود اما برای ما ناشناس، از جمله حیوانهای ترکیبی مثل یک «خوک-حلزون» و «سگ-ماهی.» رویاپردازی هوش مصنوعی لزوماً مایه دلواپسی نیست، اما نشان میدهد که تفاوتهایی گسترده میان دو امر وجود دارد: یکی معنایابی انسانها از دادههای دنیای واقعی، و دومی فهم سیستمهایمان از دادههای ما وقتی که به حال خود رها شده باشند تا به دستگاههایشان تکیه کنند. وقتی این تیم تحقیقاتی یافتههای خود را منتشر کرد، جامعه دستاندرکاران هوش مصنوعی از آن به عنوان یک پیشرفت بزرگ در زمینه هوش مصنوعی مشاهدهپذیر تقدیر کردند. درعینحال، تصاویر چنان بُهتآور و غریب بودند که در سراسر اینترنت پخش شدند. چند نفری هم از برنامه دیپدریم استفاده کردند تا ابزارهایی بسازند که به هرکس امکان میداد برای خودش عکسهای مدل فاز روانگردانها را بسازد. حتی برخی از طراحان گرافیک نوآور و کارآفرین هم بودند که با دیپدریم کارتهای تبریک عجیب ولی بسیار زیبا ساختند و آنها را برای فروش در Zazzle.com گذاشتند.
دیپدریم دریچهای بود تا ببینیم که برخی الگوریتمها چگونه اطلاعات را پردازش میکنند. ولی نمیتوان آن را روی همه سیستمهای هوش مصنوعی پیاده کرد. نحوه کار سیستمهای جدیدتر هوش مصنوعی (و اینکه چطور به تصمیمهای خود میرسند) هنوز رازآلود است. در قبیله هواداران هوش مصنوعی، هستند کسانی که بگویند مساله جعبه سیاه در کار نیست؛ ولی این سیستمها تا به امروز هنوز در پردهای از ابهاماند. آنها میگویند که شفافسازی این سیستمها یعنی افشای الگوریتمها و فرآیندهایی که صاحبامتیاز دارند. حرفشان منطقی است و نباید انتظار داشته باشیم که یک شرکت سهامی عام، داراییهای معنوی و اسرار تجاری خود را در اختیار همگان بگذارد، بهویژه وقتی که توجه کنیم چین در زمینه هوش مصنوعی چقدر تهاجمی عمل میکند.
اما وقتی که تبیینها و توضیحهای معناداری در کار نباشند، چطور میتوان ثابت کرد که سوگیری در این سیستمها نفوذ نکرده است؟ بدون دانستن پاسخ این سوال هم چطور میشود با خیال راحت به هوش مصنوعی اعتماد کرد؟
ما خواستار شفافیت هوش مصنوعی نیستیم. ما با حیرت و تمجید به سیستمهایی مینگریم که گویا ادای انسانها را درمیآورند اما دقیقاً هم به نتایجی نمیرسند که انسانها میرسند. در گفتوگوهای آخر شب تلویزیونی آنها را سوژه خنده میکنیم چون یادمان میاندازند که دست بالا را داریم. همینجا دوباره از شما میپرسم: اگر این فاصله گرفتنها از تفکر انسانی سرآغاز چیزی سراسر جدید باشند، چطور؟
آنچه میدانیم از این قرار است: نرمافزارهای کاربردی تجاری هوش مصنوعی با هدف بهینهسازی (نه بازجویی یا شفافیت) طراحی شدهاند. دیپدریم ساخته شد تا به مساله جعبه سیاه بپردازد یعنی به محققان کمک کند تا بفهمند سیستمهای پیچیده هوش مصنوعی چطور تصمیمگیری میکنند. نتایجش باید زنگ خطری حساب میشد که ادراک هوش مصنوعی اصلاً شبیه ما نیست. با این حال، چنان پیش میرویم که انگار هوش مصنوعی همیشه طبق منظور و مقصود سازندگانش عمل خواهد کرد.
نرمافزارهای کاربردی هوش مصنوعی که این ۹ غول میسازند، اکنون در حال ورود به جریان اصلی بازار هستند و قرار است کاربرپسند باشند یعنی به ما امکان دهند که سریعتر و کاراتر عمل کنیم. کاربران نهایی (ادارات پلیس، آژانسهای حکومتی، کسبوکارهای کوچک و متوسط) یک داشبورد حاضر و آماده میخواهند که پاسخها را تحویلشان بدهد و ابزاری میخواهند که کارهای تکراری شناختی یا اداری را خودکار پیش ببرد. ما رایانههایی میخواهیم که مسالههایمان را حل کنند، و میخواهیم کمتر کار کنیم. همچنین میخواهیم پایمان کمتر گیر باشد، یعنی اگر مشکلی پیش آمد بتوانیم تقصیرش را گردن سیستم رایانهای بیندازیم. این همان «اثر بهینهسازی» است که پیامدهای ناخواستهاش هماکنون نیز بر مردم عادی سراسر دنیا اثر میگذارد. همینجا دوباره میگویم که این نکته باید پرسشی را پیش بیاورد که مستی را از سرمان بپراند: میلیاردها تفاوت ظریف فرهنگی، دینی، سیاسی، جنسی و اخلاقی آدمیان چگونه بهینهسازی میشود؟ بدون دستورالعملی مبتنی بر ارزشهای انسانگرایانه، وقتی هوش مصنوعی برای کسی بهینهسازی میشود که اصلاً شبیه شما نیست، چه میشود؟ منبع: ترجمان