خوب و بد هوش مصنوعی
دیپلماتها و متخصصان حوزه هوش مصنوعی خطرات و تهدیدها و البته فواید و مزایای علمی این تکنولوژی را برای شورای امنیت سازمان ملل شرح دادند. محققان معتقدند یکی از موضوعات مهم بار مسوولیتی است که سازندگان یک ابزار هوش مصنوعی باید به دوش بکشند.
در اولین نشست شورای امنیت سازمان ملل پیرامون تهدید هوش مصنوعی برای صلح و ثبات جهانی که ۱۸ جولای به میزبانی انگلستان برگزار شد، نمایندگان کشورهای مختلف بر لزوم ایجاد یک نهاد قانونگذار بینالمللی و ممنوعیت استفاده از این ابزارها در تجهیزات نظامی و ارتش تاکید کردند. دیپلماتها و متخصصان حوزه هوش مصنوعی خطرات و تهدیدها و البته فواید و مزایای علمی این تکنولوژی را برای شورای امنیت سازمان ملل شرح دادند.
با وجود تاکید اکثریت شورا بر تهدید این تکنولوژی برای صلح و ثبات بینالملل، روسیه معتقد است هنوز به اندازه کافی برای تهدید شمردن AI اطلاعات نداریم. ژانگ جون، سفیر چین در سازمان ملل، نیز پس از مخالفت با پیشنهاد ایجاد قوانین بینالمللی برای هوش مصنوعی گفت نهادهای رگولاتوری جهان باید به کشورها اجازه دهند تا قوانین خود را برای این تکنولوژی ایجاد کنند. جون، سفیر چین در سازمان ملل متحد با «شمشیر دولبه» خواندن هوش مصنوعی گفت: « پکن از نقش هماهنگکننده مرکزی سازمان ملل جهت ایجاد اصول راهنما برای هوش مصنوعی حمایت میکند.» سفیر چین، خوب یا بد بودن هوش مصنوعی را وابسته به چگونگی استفاده مردم از آن، تنظیم این فناوری و توسعه علمی آن مطابق با استانداردهای امنیتی دانست. وی در نهایت با بیان اینکه باید تمرکز بر استفاده خوب مردم از این فناوری و توسعه و تنظیم آن قرار بگیرد گفت که باید از تبدیل این فناوری به اسب فراری جلوگیری شود.
ایجاد یک نهاد بینالمللی مشابه آژانس انرژی اتمی
آنتونی گوترش، دبیرکل سازمان ملل، در این نشست با اشاره به نقش هوش مصنوعی در هموار کردن راه تبهکاران، تروریستها و دیگر اخلالگران گفت سازمان ملل باید به عنوان یک نهاد جهانی همانگونه که بر هوانوردی، اقلیم و انرژی هستهای نظارت دارد، مقرراتی را برای هوش مصنوعی نیز تنظیم کرده و بر اجرای آن نظارت داشته باشد. گوترش در این نشست اشاره کرد که کاربردهای نظامی و غیرنظامی هوش مصنوعی میتواند عواقب جدیای را متوجه صلح و امنیت جهانی کند. دبیرکل سازمان ملل متحد همچنین از درخواست برخی کشورها برای تشکیل یک سازمان بینالمللی جهت «حمایت از تلاشهای جمعی برای اداره و کنترل هوش مصنوعی» حمایت کرد.
پیشنهاد اکثریت اعضا برای ایجاد یک نهاد بینالملل با نظر چهرههای مطرح تکنولوژی همسو است. بیل گیتس، بنیانگذار و مدیرعامل سابق مایکروسافت، چندی پیش در یک پست وبلاگی پیرامون هوش مصنوعی و آینده آن خواستار قانونگذاری هوش مصنوعی توسط یک نهاد بینالمللی شبیه آژانس انرژی اتمی شده بود. براساس پیشنهاد مطرح شده این آژانس باید از متخصصانی تشکیل شود که دانستههای خود را با دولتها و آژانسهای دولتی که شاید بینش چندانی در رابطه با تهدیدهای هوش مصنوعی نداشته باشند در میان بگذارند. جیمز کلورلی، وزیر امور خارجه بریتانیا، که میزبانی این نشست را برعهده داشت گفت: «هیچ کشوری از هوش مصنوعی در امان نیست، درنتیجه ما باید بزرگترین ائتلاف فعالان بینالمللی از تمامی بخشها را دخیل و درگیر کنیم.» با این حال روسیه و چین هردو با رویکرد شورا در رابطه این تکنولوژی جدید مخالفند. از نگاه روسیه ما هنوز به اندازه کافی درمورد تهدیدهای هوش مصنوعی اطلاعات نداریم که آن را مخل صلح و ثبات جهانی بنامیم.
فرستاده چین هم علی رغم اشاره به مخالفت کشورش با استفاده از هوش مصنوعی به عنوان «ابزاری برای برتری نظامی یا آسیب به استقلال یک کشور»، گفت کشورهای باید استقلال کافی را برای قانونگذاری مستقل داشته باشند. معاون سفیر ایالات متحده در این نشست اظهار کرد: «لازم است تا کشورها برای مقابله و کمتر کردن خطرات هوش مصنوعی و سایر فنارویهای نوظهور که حقوق بشر، صلح و امنیت جهانی را تهدید میکند با هم همکاری کنند. او خطاب به شورا گفت: «هیچ کشور عضوی نباید از هوش مصنوعی برای سانسور، محدود کردن، سرکوب و ناتوان کردن مردم استفاده کند.» نماینده روسیه این سوال را مطرح کرد که آیا این شورا که مسوول حفظ صلح و امنیت بینالمللی است، باید در مورد هوش مصنوعی بحث کند یا نه؟ معاون سفیر روسیه گفت: « آنچه ضروری است یک بحث حرفهای، علمی و مبتنی بر تخصص است که قابلیت این را دارد که چندین سال طول بکشد و در حال حاضر این بحث در بسترهای تخصصی در حال انجام است.»
استفاده هوش مصنوعی در سلاحهای خودکار باید ممنوع شود
در این نشست پیرامون استفاده از هوش مصنوعی در فعالیتهای نظامی و بهکارگیری سلاحهای خودکار در میدان جنگ یا ترور به ترور محسن فخری زاده، دانشمند هستهای ایران، توسط اسراییل اشاره شد. در ترور فخریزاده اسراییل از روبات هوش مصنوعی تحت کنترل ماهواره استفاده کرده بود. گوترش در همین رابطه گفت، سازمان ملل متحد باید تا سال ۲۰۲۶ به یک توافق لازمالاجرای قانونی در راستای ممنوعیت استفاده از هوش مصنوعی در سلاحهای خودکار جنگی دست پیدا کند. محققان معتقدند که یکی از موضوعات مهم دیگر بار مسوولیتی است که سازندگان یک ابزار هوش مصنوعی باید به دوش بکشند. ربکا ویلت، رییس بخش هوش مصنوعی موسسه علوم داده دانشگاه شیکاگو، میگوید نباید انسانهای پشت پرده را فراموش کنیم و آنها باید جوابگوی سیستمی که طراحی میکنند باشند.
هوش مصنوعی نیاز به انطباق سریع و تحول چابک دارد
در ایران هم نشست هوش مصنوعی برگزار شد. مجید نیلیاحمدآبادی، عضو هیات علمی دانشگاه تهران در این نشست با اشاره به تحولات ایجادشده توسط هوش مصنوعی گفت: اکنون میتوانیم با زبان طبیعی با هوش مصنوعی گفتوگو کنیم و این یک تحول در تمدن بشری است. اکنون امکان گفتوگو با زبان طبیعی با ماشین فراهم شده است و بهتر از قبل میتوانیم آن را بهکار بگیریم. در واقع هوش مصنوعی دیگر یک ابزار نیست و میتواند یک همکار باشد. در این دنیای آمیخته ارتباط انسان و ماشین تسهیل شده است. حتی باید انتظار داشته باشیم با توسعه تحقیقات در مورد مغز و علوم شناختی در سالهای آینده بیشتر از امروز غافلگیر شویم.
او در ادامه گفت: هوش مصنوعی به ما کمک میکند که برخی از چالشهای جدی امروز را حل کنیم. علاوه بر محیط زیست که در یکی از پنلهای روزگذشته مطرح شد این فناوری میتواند در نیروی انسانی نیز کمک کند و اینکه منابع انسانی را کجا بهکار بگیریم. هوش مصنوعی نیاز به چابکی را بیشتر کرده و خود نیز به عنوان ابزاری برای چابکی به ما کمک میکند. حکمران باید به این نکته توجه کند که هوش مصنوعی را به عنوان یک وسیله توسعه دهد و نیاز داریم این تبلور هوش مصنوعی را در برنامههای توسعه کشور ببینیم. جایی که هوش مصنوعی به اقتصاد وصل میشود، میتواند بسیار ارزشمند باشد.
چابکی و سازگاری با هوش مصنوعی اجباری است
رامتین خسروی، عضو هیات علمی دانشگاه تهران با اشاره به لزوم سازگاری با تحولات جدید در هوش مصنوعی گفت: اگر خود را با این شرایط تطبیق ندهیم باید کنار برویم. اما باید به این نکته هم توجه کرد که چطور میتوانیم این تحولات را تحمل کنیم. تطبیق سریع، نیازمند چابکی در تشخیص فرصتها و اقدام بر اساس آنها است. برای رسیدن به این چابکی باید بدانیم چطور میتوانیم فرصتها را رصد کنیم که پاسخ آن در دیتا است. دادهها باید در سیستم جاری باشند و زیرساختها و معماری ما باید این دیتا را به رسمیت بشناسد. اگر میخواهیم سازمانی را طراحی کنیم، یکی از ارکان مهم آن این است که از همان ابتدا به دیتا توجه کنیم. در این زمینه شرکتهای پیشرو وضعیت بهتری دارند. موضوع دوم این است که بعد از شناخت فرصتها، بتوانیم بر اساس داده اقدام کنیم و واکنش مناسب داشته باشیم.
اگر یک سیستم یکپارچه بزرگ داشته باشیم چطور میتوانیم روی این سیستمها سریع فعالیت کنیم؟ این سیستمها اجازه چابکی را نمیدهند و نیازمند سرویسهای تجاری و تیمهای کوچکی هستیم که بتوانند مثلا در یک ماه یک سرویس ایجاد کنند. خسروی در بخش دیگر صحبتهای خود در مورد بهکارگیری این موارد در راستای هدف اشاره کرد و گفت: بعد از ایجاد سرویسهای تجاری باید بتوانیم آنها را ترکیب کنیم. سرویسهای ابری و استانداردهای باز خیلی در این زمینه مهم بودهاند. عنصر دیگر از رکن دوم این است که چطوری با این تکههای کوچک به سمت هدف حرکت کنیم. اینجا دیتا نقش جدیدی پیدا میکند. رکن سوم جایی خود را نشان میدهد که به بسیاری از ابزارهای مهم دسترسی داریم اما چه میشود که یک شرکت روزی چند بار دیپلوی میکند و یک شرکت چند ماه یک بار؟ این رکن به افراد موثری مرتبط است که برای این فضا تربیت شدهاند و مهارت دارند. برای توسعه سیستمها به نیروی انسانی موثر نیاز داریم.
نادیده گرفتن امنیت هزینه ندارد
مهدی خرازی، عضو هیات علمی دانشگاه صنعتی شریف در مورد امنیت صحبت کرد و نکته مهمی که مورد تمرکز او قرار گرفت عدم صرف هزینه برای مشکلات ایجاد شده ناشی از نادیدهگیری موارد امنیتی بود. او گفت: امنیت در ایران در حال گذار است و هنوز به بلوغ نرسیده است. به همین دلیل است که دادهها نشت پیدا میکند و هزینهای برای شرکت ایجاد نمیشود. فقط شاید مسوول امنیت هزینه دهد اما سازمان هزینهای در این رابطه ندارد. همین عامل باعث شده تا مقوله امنیت برای سازمانها جدی گرفته نشود. هر گاه سازمان جریمه پرداخت کند، آن گاه ساختار سازمان آن را مهم میبیند.
او در ادامه گفت: با آمدن هوش مصنوعی، دادههای بیشتری باید جمعآوری شود و امنیت دادهها نیز مهمتر میشود. مهمترین آن اطلاعات هویتی است که متاسفانه در ایران اهمیتی ندارد. اکنون دادههای بیشتری میخواهیم جمع کنیم که خیلی دقیقتر رفتار و هویت افراد را ذخیره میکند. این موضوعی است که چالشهای آن میتواند به اعتبار یک شرکت لطمه بزند و بقای آن را تهدید کند. خرازی در مورد چالشهای حوزه امنیت گفت: چون بازار کار جدی در سالهای گذشته نداشتهایم ورود به حوزه امنیت خیلی پرهزینه است و یک فرد باید دانش بیشتری برای ورود به این حوزه کسب کند.
دلیل آن هم این است که امنیت فعلا ماهیت اقتصادی در سطح کلان شرکتها ندارد. خیلی از کارهایی که از کارشناسان میخواستیم اکنون میتوانیم با سیستمهای هوش مصنوعی جایگزین کنیم. ولی اول باید استانداردسازی کرد. هر چه دیرتر به امنیت بپردازیم هزینه آن هم بیشتر خواهد شد چون باید یک سری ساختارها را پیادهسازی کنیم. باید به این فکر کنیم اگر روزی قصد بهکارگیری داشته باشیم هزینه تغییر چقدر خواهد بود. باید این ریسک را مدیریت کنیم.