هوش مصنوعی فوقپیشرفته؛ تهدیدی برای آینده بشر
گروه دانش و فن
درست سهونیم میلیارد سال پیش، شکلهای اولیه حیات روی زمین به وجود آمدند. چهار میلیون سال پیش بود که ظرفیت مغز هومونیدها (میمونهای شبهانسان) به طرز چشمگیری افزایش یافت و پنجاههزار سال پیش، انسان خردمند ظهور کرد، ۱۰ هزار سال پیش، تمدن به وجود آمد و ۵۰۰ سال پیش، چاپ اختراع شد. از زمان اختراع کامپیوتر 50 سال میگذرد و حالا بشر در حال ورود به عصر جدیدی است که در آن هوش مصنوعی از انسان پیشی میگیرد و بسیاری از صاحبنظران معتقدند در صورت این اتفاق فاجعهای بزرگ رخ میدهد .
اصطلاح «هوش مصنوعی» یا شبیهسازی هوش در کامپیوترها یا ماشینها به سال ۱۹۵۶، یعنی یک دهه پس از اختراع اولین کامپیوترهای دیجیتال الکترونیکی بازمیگردد. هوش مصنوعی در ابتدا زمینهای امیدبخش بود، اما در دهه ۱۹۷۰ و زمانیکه پیشبینیهای اولیه محقق نشدند، زمستان هوش مصنوعی آغاز شد.
گفته میشود پنجاه یا صد سال آینده، هوش مصنوعی دانشی بیش از کل جمعیت جهان خواهد داشت. در آن زمان، این هوش میتواند هر نشانه متصلی را در جهان کنترل کند. محققانِ پیشگام در حوزه هوش مصنوعی، آن زمان را دورانی میدانند که این هوش به فرمانروای بیرقیب جهان تبدیل خواهد شد.
طبق تعریف گفتهشده، اگر هوش مصنوعی مغز انسان را در حوزههایی پشتسر بگذارد، به فرمانروای بسیار قدرتمندی تبدیل خواهد شد که احتمالا فراتر از اختیار ما عمل میکند. بههمینترتیب، همانطورکه سرنوشت بسیاری از حیوانها بیش از خودشان به عملکرد گونه برتر، یعنی انسان، بستگی دارد، سرنوشت آینده انسانها نیز به هوش برتر وابسته خواهد بود.
دراینمیان، انسانها یک برتری دارند و آن این است که حرکت اول را در این نبرد انجام میدهند. درواقع مشکل اصلی، مهار پیشرفت این هوش است. مهندسیکردن وضعیتی برای بهترکردن رشد سریع هوش مصنوعی، مساله پیش روی انسانها خواهد بود.
تحقیقات نشان میدهد هوش مصنوعی تا پایان این قرن، بهاندازه انسان هوشمند خواهد شد. بوستروم اعتقاد دارد سرعت رشد این هوش بسیار سریع است و قطعا پس از این قرن، جای انسان را خواهد گرفت. بهگفته او، هوش مصنوعی نباید در برنامههای پیشرفتی انسانها باشد. بوستروم فیلسوفی تکنولوژیست است و توصیه میکند انسانها به آنچه درحالساختش هستند، نگاه دقیقتری بیندازند. دنیایی که ماشینهای متفکر ادارهاش میکنند، از دیدگاه او خطرناک خواهد بود. بهبیاندیگر، این ماشینهای هوشمند در آینده حافظ ارزشهای ما خواهند بود یا ارزشهای مخصوص خودشان را دارند؟
مکس تگمارک، فیزیکدان و کیهانشناس دانشگاه MIT، در مصاحبهای به مشکلات توسعه هوش مصنوعی اشاره میکند. از منظر او، باید عواقب مخفی ساختِ هوش کاملا توانا را درنظر بگیریم. به اعتقاد تگمارک، هوش مصنوعی برای تخریب دنیا به شیطانیبودن یا قرارداشتن در حالت رباتیک خاص نیاز ندارد. درواقع، او مشکل اصلی هوش مصنوعی را اهداف خرابکارانه نمیداند و تنها، توانایی فراوان تفکر است که او را نگران میکند. هوش مصنوعی قوی در رسیدن به اهدافش بسیار خوب عمل میکند. مشکل وقتی ایجاد میشود که اهداف او با اهداف ما همخوانی ندارد.
به گزارش زومیت، دن براون، نویسنده کتاب راز داوینچی، نیز اعتقاد دارد هوش مصنوعی روی عقیدهها و دیدگاههای انسانها درباره خدا و دین هم تأثیرگذار خواهد بود. ایلان ماسک هم پیشازاین گفته بود هوش مصنوعی بیشازحد قدرتمند گونه انسان را ازبین خواهد برد. سوزان اشنایدر، محقق دیگر این حوزه از دانشگاه کنتیکت معتقد است نوع بسیار پیشرفتهای از هوش مصنوعی هماکنون نیز وجود دارد. بهگفته او، این هوش مصنوعی از سالهای بسیار دور وجود داشته است. اشنایدر در این باره میگوید: من معتقدم پیشرفتهترین جوامع بیگانه ساختار زیستی ندارد. درواقع، پیچیدهترین تمدنها فراتر از خصوصیات ذاتی هستند و فرمی در شکل هوش مصنوعی یا سوپرهوش بیگانهای دارند.
بر اساس این گزارش در سال ۲۰۱۰، تاجری که برای شرکت سهام مشترک Waddel & Reed کار میکرد، هزاران قرارداد به تاریخ آینده را به فروش رساند؛ اما این شرکت در نرمافزار خود، یک متغیر کلیدی را از قلم انداخته بود. این متغیر الگوریتمی برای اجرای مبادله کالا بود. درنهایت این خطا منجر به خسارتی تریلیون دلاری شد.
برخی پژوهشگرهاکه در خصوص هوش مصنوعی تحقیق میکنند معتقدند: درصورتیکه ساختار پاداش هوش مصنوعی فوق انسانی بهدرستی برنامهریزی نشود، حتی اهداف خیرخواهانه هم میتوانند پایانی مخرب داشته باشند. برای مثال، فیلسوف دانشگاه آکسفورد نیک بوستروم در کتاب خود به نام ابرهوش، به یک مامور تخیلی اشاره میکند که برای تولید تعداد زیادی گیره کاغذ طراحی شده است. در این نمونه ممکن است هوش مصنوعی حتی اتمهای بدن انسان را به عنوان ماده خام مناسب برای تولید گیرهها تشخیص دهد.
از سوی دیگر برخی معتقدند هنوز برای نگرانی در مورد محدود کردن هوش مصنوعی فوق هوشمند زود است زیرا درک جامعی از آن وجود ندارد. به عقیده گروهی دیگر، تمرکز بر بازیگران سرکش فناوری، توجه به مشکلات مهمتر و ضروریتر را کمرنگ میکند.
برای مثال اغلب الگوریتمها توسط سفیدپوستان یا براساس دادههایی طراحی میشوند که به آنها گرایش دارند. به اعتقاد تالین برنامهنویس کامپیوتر و محقق هوش مصنوعی، رسیدن به امنیت هوش مصنوعی کار دشواری است. درصورتیکه هوش مصنوعی بهاندازه کافی هوشمند باشد، درک بهتری از محدودیتها خواهد داشت. تالین چنین شرایطی را به بیدار شدن در زندانی تشبیه میکند که به دست یک مشت کودک پنج ساله و کور ساخته شده است. همین مساله برای هوش مصنوعی هوشمند صحت دارد و درک آن از زندان و رفع محدودیتها میتواند بسیار فراتر از خالق انسانی باشد.
هیجانانگیزترین پژوهش، یافتن راهی برای احترام هوش مصنوعی به ارزشهای انسانی است. البته پژوهشگرها میخواهند ازطریق آموزش هوش مصنوعی به این هدف برسند، نه صرفا برنامهریزی آن. در دنیایی که با سیاستهای متعصبانه احاطه شده است، مردم نگران روشها و اصول متفاوت هستند. اما به عقیده تالین، انسانها باوجود تمام تفاوتها، نقاط مشترک زیادی دارند؛ بنابراین هوش مصنوعی هم میتواند قوانین مشترک را تشخیص دهد.
در چنین شرایطی، باید جنبه کمتر منطقی انسان را به هوش مصنوعی آموزش داد. برای مثال انسانها جملاتی با معنای غیرمستقیم را به کار میبرند؛ یا گاهی اولویتهای انسان با یکدیگر در تضادند. دراینمیان، مسیرهای دادهای اپلیکیشنها و شبکههای اجتماعی میتوانند منبع خوبی برای آموزش هوش مصنوعی باشند. بااینحال به عقیده تالین باید در این زمینه تلاش کرد زیرا ریسک هوش مصنوعی بالا است. او میگوید:
باید جلوتر از زمانه خود فکر کنیم. درصورتیکه منافع هوش مصنوعی با منافع انسان مشترک نباشد، تولید آن خطای غیرقابل جبران و وحشتناکی خواهد بود.