هوش مصنوعی فوق‌پیشرفته؛ تهدیدی برای آینده‌ بشر

۱۳۹۸/۰۳/۳۰ - ۰۰:۰۷:۱۷
کد خبر: ۱۴۶۸۷۱
هوش مصنوعی فوق‌پیشرفته؛ تهدیدی برای آینده‌ بشر

گروه دانش و فن    

  درست سه‌ونیم میلیارد سال پیش، شکل‌های اولیه حیات روی زمین به وجود آمدند. چهار میلیون سال پیش بود که ظرفیت مغز هومونیدها (میمون‌های شبه‌انسان) به طرز چشمگیری افزایش یافت و پنجاه‌هزار سال پیش، انسان خردمند ظهور کرد، ۱۰ هزار سال پیش، تمدن به وجود آمد و ۵۰۰ سال پیش، چاپ اختراع شد. از زمان اختراع کامپیوتر 50 سال می‌گذرد و حالا بشر در حال ورود به عصر جدیدی است که در آن هوش مصنوعی از انسان پیشی می‌گیرد و بسیاری از صاحب‌نظران معتقدند در صورت این اتفاق فاجعه‌ای بزرگ رخ می‌دهد .

اصطلاح «هوش مصنوعی» یا شبیه‌سازی هوش در کامپیوترها یا ماشین‌ها به سال ۱۹۵۶، یعنی یک دهه پس از اختراع اولین کامپیوترهای دیجیتال الکترونیکی بازمی‌گردد. هوش مصنوعی در ابتدا زمینه‌ای امیدبخش بود، اما در دهه ۱۹۷۰ و زمانی‌که پیش‌بینی‌های اولیه محقق نشدند، زمستان هوش مصنوعی آغاز شد.

گفته می‌شود پنجاه یا صد سال آینده، هوش مصنوعی دانشی بیش از کل جمعیت جهان خواهد داشت. در آن زمان، این هوش می‌تواند هر نشانه متصلی را در جهان کنترل کند. محققانِ پیش‌گام در حوزه هوش مصنوعی، آن زمان را دورانی می‌دانند که این هوش به فرمانروای بی‌رقیب جهان تبدیل خواهد شد.

طبق تعریف گفته‌شده، اگر هوش مصنوعی مغز انسان را در حوزه‌هایی پشت‌سر بگذارد، به فرمانروای بسیار قدرتمندی تبدیل خواهد شد که احتمالا فراتر از اختیار ما عمل می‌کند. به‌همین‌ترتیب، همانطورکه سرنوشت بسیاری از حیوان‌ها بیش از خودشان به عملکرد گونه برتر، یعنی انسان، بستگی دارد، سرنوشت آینده‌ انسان‌ها نیز به هوش برتر وابسته خواهد بود.

دراین‌میان، انسان‌ها یک برتری دارند و آن این است که حرکت اول را در این نبرد انجام می‌دهند. درواقع مشکل اصلی، مهار پیشرفت این هوش است. مهندسی‌کردن وضعیتی برای بهترکردن رشد سریع هوش مصنوعی، مساله پیش روی انسان‌ها خواهد بود.

تحقیقات نشان می‌دهد هوش مصنوعی تا پایان این قرن، به‌اندازه انسان هوشمند خواهد شد. بوستروم اعتقاد دارد سرعت رشد این هوش بسیار سریع است و قطعا پس از این قرن، جای انسان را خواهد گرفت. به‌گفته او، هوش مصنوعی نباید در برنامه‌های پیشرفتی انسان‌ها باشد. بوستروم فیلسوفی تکنولوژیست است و توصیه می‌کند انسان‌ها به آنچه درحال‌ساختش هستند، نگاه دقیق‌تری بیندازند. دنیایی که ماشین‌های متفکر اداره‌اش می‌کنند، از دیدگاه او خطرناک خواهد بود. به‌بیان‌دیگر، این ماشین‌های هوشمند در آینده حافظ ارزش‌های ما خواهند بود یا ارزش‌های مخصوص خودشان را دارند؟

مکس تگمارک، فیزیکدان و کیهان‌شناس دانشگاه MIT، در مصاحبه‌ای به مشکلات توسعه هوش مصنوعی اشاره می‌کند. از منظر او، باید عواقب مخفی ساختِ هوش کاملا توانا را درنظر بگیریم. به اعتقاد تگمارک، هوش مصنوعی برای تخریب دنیا به شیطانی‌بودن یا قرارداشتن در حالت رباتیک خاص نیاز ندارد. درواقع، او مشکل اصلی هوش مصنوعی را اهداف خراب‌کارانه نمی‌داند و تنها، توانایی فراوان تفکر است که او را نگران می‌کند. هوش مصنوعی قوی در رسیدن به اهدافش بسیار خوب عمل می‌کند. مشکل وقتی ایجاد می‌شود که اهداف او با اهداف ما هم‌خوانی ندارد.

به گزارش زومیت، دن براون، نویسنده کتاب راز داوینچی، نیز اعتقاد دارد هوش مصنوعی روی عقیده‌ها و دیدگاه‌های انسان‌ها درباره خدا و دین هم تأثیرگذار خواهد بود. ایلان ماسک هم پیش‌ازاین گفته بود هوش مصنوعی بیش‌ازحد قدرتمند گونه انسان را ازبین خواهد برد. سوزان اشنایدر، محقق دیگر این حوزه از دانشگاه کنتیکت معتقد است نوع بسیار پیشرفته‌ای از هوش مصنوعی هم‌اکنون نیز وجود دارد. به‌گفته او، این هوش مصنوعی از سال‌های بسیار دور وجود داشته است. اشنایدر در این باره می‌گوید: من معتقدم پیشرفته‌ترین جوامع بیگانه ساختار زیستی ندارد. درواقع، پیچیده‌ترین تمدن‌ها فراتر از خصوصیات ذاتی هستند و فرمی در شکل هوش مصنوعی یا سوپرهوش بیگانه‌ای دارند.

بر اساس این گزارش در سال ۲۰۱۰، تاجری که برای شرکت سهام مشترک Waddel & Reed کار می‌کرد، هزاران قرارداد به تاریخ آینده را به فروش رساند؛ اما این شرکت در نرم‌افزار خود، یک متغیر کلیدی را از قلم انداخته بود. این متغیر الگوریتمی برای اجرای مبادله کالا بود. درنهایت این خطا منجر به خسارتی تریلیون دلاری شد.

برخی پژوهشگرهاکه در خصوص هوش مصنوعی تحقیق می‌کنند معتقدند: درصورتی‌که ساختار پاداش هوش مصنوعی فوق انسانی به‌درستی برنامه‌ریزی نشود، حتی اهداف خیرخواهانه هم می‌توانند پایانی مخرب داشته باشند. برای مثال، فیلسوف دانشگاه آکسفورد نیک بوستروم در کتاب خود به نام ابرهوش، به یک مامور تخیلی اشاره می‌کند که برای تولید تعداد زیادی گیره کاغذ طراحی شده است. در این نمونه ممکن است هوش مصنوعی حتی اتم‌های بدن انسان را به عنوان ماده خام مناسب برای تولید گیره‌ها تشخیص دهد.

از سوی دیگر برخی معتقدند هنوز برای نگرانی در مورد محدود کردن هوش مصنوعی فوق هوشمند زود است زیرا درک جامعی از آن وجود ندارد. به عقیده گروهی دیگر، تمرکز بر بازیگران سرکش فناوری، توجه به مشکلات مهم‌تر و ضروری‌تر را کمرنگ می‌کند.

برای مثال اغلب الگوریتم‌ها توسط سفیدپوستان یا براساس داده‌هایی طراحی می‌شوند که به آنها گرایش دارند. به اعتقاد تالین برنامه‌نویس کامپیوتر و محقق هوش مصنوعی، رسیدن به امنیت هوش مصنوعی کار دشواری است. درصورتی‌که هوش مصنوعی به‌اندازه کافی هوشمند باشد، درک بهتری از محدودیت‌ها خواهد داشت. تالین چنین شرایطی را به بیدار شدن در زندانی تشبیه می‌کند که به دست یک مشت کودک پنج ساله و کور ساخته شده است. همین مساله برای هوش مصنوعی هوشمند صحت دارد و درک آن از زندان و رفع محدودیت‌ها می‌تواند بسیار فراتر از خالق انسانی باشد.

هیجان‌انگیزترین پژوهش، یافتن راهی برای احترام هوش مصنوعی به ارزش‌های انسانی است. البته پژوهشگرها می‌خواهند ازطریق آموزش هوش مصنوعی به این هدف برسند، نه صرفا برنامه‌ریزی آن‌. در دنیایی که با سیاست‌های متعصبانه احاطه شده است، مردم نگران روش‌ها و اصول متفاوت هستند. اما به عقیده تالین، انسان‌ها باوجود تمام تفاوت‌ها، نقاط مشترک زیادی دارند؛ بنابراین هوش مصنوعی هم می‌تواند قوانین مشترک را تشخیص دهد.

در چنین شرایطی، باید جنبه کمتر منطقی انسان را به هوش مصنوعی آموزش داد. برای مثال انسان‌ها جملاتی با معنای غیرمستقیم را به کار می‌برند؛ یا گاهی اولویت‌های انسان با یکدیگر در تضادند. دراین‌میان، مسیرهای داده‌ای اپلیکیشن‌ها و شبکه‌های اجتماعی می‌توانند منبع خوبی برای آموزش هوش مصنوعی باشند. بااین‌حال به عقیده تالین باید در این زمینه تلاش کرد زیرا ریسک هوش مصنوعی بالا است. او می‌گوید:

باید جلوتر از زمانه خود فکر کنیم. درصورتی‌که منافع هوش مصنوعی با منافع انسان مشترک نباشد، تولید آن خطای غیرقابل جبران و وحشتناکی خواهد بود.