اما و اگرهای اخلاقیات در هوش مصنوعی
سیستمهای هوش مصنوعی عمومی میتواند از کارهای عادی تا کارهای بسیار مهم و خطیر را به بهترین شکل انجام دهند. در سطح عمومی آنها میتوانند کارهایی مثل رانندگی، دستیار شخصی هوشمند با توانایی درک همه نیازهای کاربر، یک دستیار پزشک یا سیستم تشخیص بیماری باشند. در سطوح بالا این سیستمها میتوانند کارهایی را انجام دهند که به زندگی و امنیت و جان انسانها بستگی دارد و میتوانند به خوبی از پس چنین کارهایی بر آیند. پژوهشگاه گروه مطالعات اخلاقی فضای مجازی با بررسی موضوع اخلاق و هوش مصنوعی، به این سوال پاسخ میدهد که آیا هوش مصنوعی به اندازه انسانها خوب است. وقتی بحث بر سر اصول اخلاقی هوش مصنوعی و اینکه چگونه فناوری میتواند اشتباه کند، پیش میآید، غالباً ذهن مردم تحت تأثیر صحنه فیلمهای هالیوودی قرار میگیرد. اینکه چه اتفاقی میافتد اگر این ابزار علیه ما برانگیخته شود و شروع به تیراندازی به مردم در خیابان کند؟ گرچه ما باید پذیرای همه احتمالات باشیم، اما نگرانیهای اساسیتری نیز در مورد اخلاقیات هوش مصنوعی وجود دارد. در طول تاریخ، ارایه چندین اختراع در حوزه فناوری بحث در مورد اصول اخلاقی در زمینه استفاده یا حتی وجود آن فناوری را دامن زده است؛ همچنین با پررنگتر شدن هوش مصنوعی در جامعه و مسائل اخلاقی پیرامون آن احساس نیاز به برنامهای جامع برای رسیدگی به مسائل اخلاقی و چارچوبهای آن بیشتر شد. پژوهشگاه فضای مجازی در گزارشی نگاهی به جنبههای مختلف اخلاق و هوش مصنوعی داشته است.
انصاف در ارایه محتوا
در کنار تمرکز بر امنیت داده
در اولین روز کنفرانس مجازی EmTech Asia2020، دانشمند مشهور پیتر نورویگ، مدیر بخش تحقیقات گوگل، در مورد مساله انصاف در اجرای هوش مصنوعی سخنرانی کرد. وی نمونهای از نتایج جستوجوی تصاویر در گوگل را نمایش داد. در گذشته، هنگامی که کاربران کلمه کلیدی «دکتر» را جستوجو میکردند، تنها احتمال نمایش تصاویری شبیه به مردان قفقازی با کتهای آزمایشگاهی سفید وجود داشت. اما امروزه تنوع جنسیتی و نژادی بیشتری در نتایج قابل مشاهده است. نورویگ این نتایج را حاصل کیفیت دادهها و فرآیندهای تصمیمگیری میداند همچنین اشاره میکند اگر انصاف از طریق عدم آگاهی حاصل شود، همچنان مشکل باقی مانده است. به این معنا که اگر انصاف در ارایه نتایج، حاصل تلاش انسانی و دانشمندان نبوده و تنها به دلیل کیفیت دادهها به دستآید، باز هم بهطور آگاهانه انصاف رعایت نشده است. بنابراین برای اطمینان از صحت عملکرد آن این عمل باید از طریق تلاش آگاهانه دانشمندان و مهندسان انجام شود که میتواند روند پیچیدهای داشته باشد. وی تاکید میکند: «هدف ما این است که مردم را متقاعد کنیم در این حوزه انصاف وجود دارد.» وی به توسعهدهندگان محصولات توصیه کرد که همواره به موارد زیر توجه داشته باشند: هنگامی که یکی از حضار در مورد میزان موفقیت شرکتهای فناوری در تلاش برای کاهش تعصبات سوال کرد، نورویگ میگوید که این لیست به توسعهدهندگان کمک کرده است تا با آگاهی بیشتری در این مورد، کار را پیش ببرند. ما همچنین به اضافه کردن عوامل جدید ادامه میدهیم. در گذشته ما روی امنیت داده تمرکز داشتیم؛ اما اکنون روی انصاف در ارایه محتوا نیز متمرکز شدهایم.
نادیده گرفتن جنبه کار انسانی
کار انسانی بخشی است که هنگام صحبت درباره هوش مصنوعی به آن اشارهای نمیشود. نادیده گرفتن جنبه کار انسان اغلب هنگام بحث در مورد هوش مصنوعی و اخلاق ممکن است تعجبآور باشد. اما مریگری انسانشناس در کتاب خود، درباره نیروی انسانی نامریی صحبت میکند که برای پیادهسازی هوش مصنوعی به شکلی که امروزه شاهد آن هستیم، در تلاش است.گری تاکید میکند: «از آنجا که این افراد تا حد زیادی کنترل نشدهاند و نظارتی روی خود ندارند، به راحتی یکبارمصرف تلقی شده و اغلب به عنوان کمک موقتی در نظر گرفته میشوند.» این افراد در حال کار روی وظایفی مانند برچسبگذاری دادهها بوده و جمعیت رو به رشدی از افراد ارایهدهنده خدمات را دربر میگیرند. اماگری این نوع کار را به عنوان کار شبح تعریف میکند. زیرا شرایط کار اغلب باعث کاهش ارزش کاری آنها و پنهان کردن افرادی میشود که به نتایج جستوجوی بهتر در پروژههای دنیای استارتآپ کمک میکنند. گرچه ممکن است این چشمانداز ابتدا دلهرهآور به نظر برسد؛ اماگری بیان میکند که این مشاغل میتوانند به ویژه در زمان بحران بهداشت جهانی، مشابه وضعیت فعلی، ارزش کسب کنند. اما اقداماتی نیز برای جلوگیری و توقف سوءاستفاده از آنها وجود دارد. وی تأکید کرد در حال حاضر هیچ قانونی وجود ندارد که کارگران قراردادی را اداره کند و خود مردم باید برای ایجاد چنین قانونی پافشاری کنند. وی هشدار داد: بازار قرار نیست این مشکل را برطرف کند.
اهمیت فناوری هوش مصنوعی
در زندگی امروز
در ماه فوریه ۲۰۲۰ در یک کارگاه آموزشی که در واتیکان برگزار شد، پاپ فرانسیس اظهار کرد: «کهکشان دیجیتال و بهویژه هوش مصنوعی در قلب تغییرات تاریخی است که ما در حال تجربه آن هستیم.» این نشاندهنده اهمیت فناوری هوش مصنوعی در زندگی امروز ماست. در حالت ایدهآل، ما میخواهیم آن را به اخلاقیترین شکل ممکن پیادهسازی کنیم. اما اکنون که پیچیدگی مساله انصاف در اجرای هوش مصنوعی و سایر مسائل عملیاتی پشت آن را دیدهایم، زمان آن رسیده که این سوال بزرگ را بررسی کنیم: آیا فناوری تنها به اندازه انسان پشت آن خوب است؟ این ممکن است استدلال موجود در خصوص چاقو را به شما یادآوری کند: به عنوان یک ابزار نه بد است و نه خوب. ارزش آن به فردی که از آن استفاده میکند و اینکه به چه دلیل از آن استفاده میکند، بستگی دارد. آیا این بدین معناست که نگرانیهای ما واقعی هستند؟ اینکه هوش مصنوعی چاقویی بیش نیست و فقط میتوان امیدوار بود که به دست فرد اشتباهی نیفتد. نورویگ پیام امیدوارکنندهای در این زمینه میدهد. زمانیکه یکی از حضار این نگرانی را در رابطه با مسائل اخلاقی در هوش مصنوعی بیان میکند، نورویگ به او یادآوری میکند که چرا انسانها در وهله اول در حال توسعه فناوری هستند. او تأکید میکند: «ما سیستمی را مدنظر قرار دادهایم که در آن، فناوریها بتوانند بهتر از ما عمل کنند.» بهطور کلی، پیشرفت فناوری برای همه به معنای زندگی بهتر است. هوش مصنوعی پتانسیل گستردهای دارد و مسوولیت اجرای آن به عهده ما است تا سیستمهایی ارایه دهیم که توانایی رعایت اخلاقیات را مشابه بهترین حالت انسانی داشته باشند.