خوب و بد هوش مصنوعی

۱۴۰۲/۰۴/۲۹ - ۰۲:۵۰:۴۹
کد خبر: ۲۱۱۰۴۵
خوب و بد هوش مصنوعی

دیپلمات‌ها و متخصصان حوزه هوش مصنوعی خطرات و تهدید‌ها و البته فواید و مزایای علمی این تکنولوژی را برای شورای امنیت سازمان ملل شرح دادند. محققان معتقدند یکی از موضوعات مهم بار مسوولیتی است که سازندگان یک ابزار هوش مصنوعی باید به دوش بکشند.

در اولین نشست شورای امنیت سازمان ملل پیرامون تهدید هوش مصنوعی برای صلح و ثبات جهانی که ۱۸ جولای به میزبانی انگلستان برگزار شد، نمایندگان کشور‌های مختلف بر لزوم ایجاد یک نهاد قانون‌گذار بین‌المللی و ممنوعیت استفاده از این ابزارها در تجهیزات نظامی و ارتش تاکید کردند. دیپلمات‌ها و متخصصان حوزه هوش مصنوعی خطرات و تهدید‌ها و البته فواید و مزایای علمی این تکنولوژی را برای شورای امنیت سازمان ملل شرح دادند.

با وجود تاکید اکثریت شورا بر تهدید این تکنولوژی برای صلح و ثبات بین‌الملل، روسیه معتقد است هنوز به اندازه کافی برای تهدید شمردن AI اطلاعات نداریم. ژانگ جون، سفیر چین در سازمان ملل، نیز پس از مخالفت با پیشنهاد ایجاد قوانین بین‌المللی برای هوش مصنوعی گفت نهاد‌های رگولاتوری جهان باید به کشور‌ها اجازه دهند تا قوانین خود را برای این تکنولوژی ایجاد کنند. جون، سفیر چین در سازمان ملل متحد با «شمشیر دولبه» خواندن هوش مصنوعی گفت: « پکن از نقش هماهنگ‌کننده مرکزی سازمان ملل جهت ایجاد اصول راهنما برای هوش مصنوعی حمایت می‌کند.» سفیر چین، خوب یا بد بودن هوش مصنوعی را وابسته به چگونگی استفاده مردم از آن، تنظیم این فناوری و توسعه علمی آن مطابق با استانداردهای امنیتی دانست. وی در نهایت با بیان اینکه باید تمرکز بر استفاده خوب مردم از این فناوری و توسعه و تنظیم آن قرار بگیرد گفت که باید از تبدیل این فناوری به اسب فراری جلوگیری شود.

   ایجاد یک نهاد بین‌المللی  مشابه آژانس انرژی اتمی

آنتونی گوترش، دبیرکل سازمان ملل، در این نشست با اشاره به نقش هوش مصنوعی در هموار کردن راه تبهکاران، تروریست‌ها و دیگر اخلال‌گران گفت سازمان ملل باید به عنوان یک نهاد جهانی همان‌گونه که بر هوانوردی، اقلیم و انرژی هسته‌ای نظارت دارد، مقرراتی را برای هوش مصنوعی نیز تنظیم کرده و بر اجرای آن نظارت داشته باشد. گوترش در این نشست اشاره کرد که کاربردهای نظامی و غیرنظامی هوش مصنوعی می‌تواند عواقب جدی‌ای را متوجه صلح و امنیت جهانی کند. دبیرکل سازمان ملل متحد همچنین از درخواست برخی کشورها برای تشکیل یک سازمان بین‌المللی جهت «حمایت از تلاش‌های جمعی برای اداره و کنترل هوش مصنوعی» حمایت کرد.

پیشنهاد اکثریت اعضا برای ایجاد یک نهاد بین‌الملل با نظر چهره‌های مطرح تکنولوژی همسو است. بیل‌ گیتس، بنیان‌گذار و مدیرعامل سابق مایکروسافت، چندی پیش در یک پست وبلاگی پیرامون هوش مصنوعی و آینده آن خواستار قانون‌گذاری هوش مصنوعی توسط یک نهاد بین‌المللی شبیه آژانس انرژی اتمی شده بود. براساس پیشنهاد مطرح شده این آژانس باید از متخصصانی تشکیل شود که دانسته‌های خود را با دولت‌ها و آژانس‌های دولتی که شاید بینش چندانی در رابطه با تهدید‌های هوش مصنوعی نداشته باشند در میان بگذارند. جیمز کلورلی، وزیر امور خارجه بریتانیا، که میزبانی این نشست را برعهده داشت گفت: «هیچ کشوری از هوش مصنوعی در امان نیست، درنتیجه ما باید بزرگ‌ترین ائتلاف فعالان بین‌المللی از تمامی بخش‌ها را دخیل و درگیر کنیم.» با این حال روسیه و چین هردو با رویکرد شورا در رابطه این تکنولوژی جدید مخالفند. از نگاه روسیه ما هنوز به اندازه کافی درمورد تهدید‌های هوش مصنوعی اطلاعات نداریم که آن را مخل صلح و ثبات جهانی بنامیم.

فرستاده چین هم علی رغم اشاره به مخالفت کشورش با استفاده از هوش مصنوعی به عنوان «ابزاری برای برتری نظامی یا آسیب به استقلال یک کشور»، گفت کشور‌های باید استقلال کافی را برای قانون‌گذاری مستقل داشته باشند. معاون سفیر ایالات متحده در این نشست اظهار کرد: «لازم است تا کشورها برای مقابله و کمتر کردن خطرات هوش مصنوعی و سایر فناروی‌های نوظهور که حقوق بشر، صلح و امنیت جهانی را تهدید می‌کند با هم همکاری کنند. او خطاب به شورا گفت: «هیچ کشور عضوی نباید از هوش مصنوعی برای سانسور، محدود کردن، سرکوب و ناتوان کردن مردم استفاده کند.» نماینده روسیه این سوال را مطرح کرد که آیا این شورا که مسوول حفظ صلح و امنیت بین‌المللی است، باید در مورد هوش مصنوعی بحث کند یا نه؟ معاون سفیر روسیه گفت: « آنچه ضروری است یک بحث حرفه‌ای، علمی و مبتنی بر تخصص است که قابلیت این را دارد که چندین سال طول بکشد و در حال حاضر این بحث در بسترهای تخصصی در حال انجام است.»

   استفاده هوش مصنوعی  در سلاح‌های خودکار باید ممنوع شود

در این نشست پیرامون استفاده از هوش مصنوعی در فعالیت‌های نظامی و به‌کارگیری سلاح‌های خودکار در میدان جنگ یا ترور به ترور محسن فخری زاده، دانشمند هسته‌ای ایران، توسط اسراییل اشاره شد. در ترور فخری‌زاده اسراییل از روبات هوش مصنوعی تحت کنترل ماهواره استفاده کرده بود. گوترش در همین رابطه گفت، سازمان ملل متحد باید تا سال ۲۰۲۶ به یک توافق لازم‌الاجرای قانونی در راستای ممنوعیت استفاده از هوش مصنوعی در سلاح‌های خودکار جنگی دست پیدا کند. محققان معتقدند که یکی از موضوعات مهم دیگر بار مسوولیتی است که سازندگان یک ابزار هوش مصنوعی باید به دوش بکشند. ربکا ویلت، رییس بخش هوش مصنوعی موسسه علوم داده دانشگاه شیکاگو، می‌گوید نباید انسان‌های پشت پرده را فراموش کنیم و آنها باید جوابگوی سیستمی که طراحی می‌کنند باشند.

   هوش مصنوعی  نیاز به انطباق سریع و تحول چابک دارد 

در ایران هم نشست هوش مصنوعی برگزار شد. مجید نیلی‌احمدآبادی، عضو هیات علمی دانشگاه تهران در این نشست با اشاره به تحولات ایجادشده توسط هوش مصنوعی گفت: اکنون می‌توانیم با زبان طبیعی با هوش مصنوعی گفت‌وگو کنیم و این یک تحول در تمدن بشری است. اکنون امکان گفت‌وگو با زبان طبیعی با ماشین فراهم شده است و بهتر از قبل می‌توانیم آن را به‌کار بگیریم. در واقع هوش مصنوعی دیگر یک ابزار نیست و می‌تواند یک همکار باشد. در این دنیای آمیخته ارتباط انسان و ماشین تسهیل شده است. حتی باید انتظار داشته باشیم با توسعه تحقیقات در مورد مغز و علوم شناختی در سال‌های آینده بیشتر از امروز غافلگیر شویم.

او در ادامه گفت: هوش مصنوعی به ما کمک می‌کند که برخی از چالش‌های جدی امروز را حل کنیم. علاوه بر محیط زیست که در یکی از پنل‌های روزگذشته مطرح شد این فناوری می‌تواند در نیروی انسانی نیز کمک کند و اینکه منابع انسانی را کجا به‌کار بگیریم. هوش مصنوعی نیاز به چابکی را بیشتر کرده و خود نیز به عنوان ابزاری برای چابکی به ما کمک می‌کند. حکمران باید به این نکته توجه کند که هوش مصنوعی را به عنوان یک وسیله توسعه دهد و نیاز داریم این تبلور هوش مصنوعی را در برنامه‌های توسعه کشور ببینیم. جایی که هوش مصنوعی به اقتصاد وصل می‌شود، می‌تواند بسیار ارزشمند باشد.

   چابکی و سازگاری با هوش مصنوعی  اجباری است

رامتین خسروی، عضو هیات علمی دانشگاه تهران با اشاره به لزوم سازگاری با تحولات جدید در هوش مصنوعی گفت: اگر خود را با این شرایط تطبیق ندهیم باید کنار برویم. اما باید به این نکته‌ هم توجه کرد که چطور می‌توانیم این تحولات را تحمل کنیم. تطبیق سریع، نیازمند چابکی در تشخیص فرصت‌ها و اقدام بر اساس آنها است. برای رسیدن به این چابکی باید بدانیم چطور می‌توانیم فرصت‌ها را رصد کنیم که پاسخ آن در دیتا است. داده‌ها باید در سیستم جاری باشند و زیرساخت‌ها و معماری ما باید این دیتا را به رسمیت بشناسد. اگر می‌خواهیم سازمانی را طراحی کنیم، یکی از ارکان مهم آن این است که از همان ابتدا به دیتا توجه کنیم. در این زمینه شرکت‌های پیشرو وضعیت بهتری دارند. موضوع دوم این است که بعد از شناخت فرصت‌ها، بتوانیم بر اساس داده اقدام کنیم و واکنش مناسب داشته باشیم.

اگر یک سیستم یکپارچه بزرگ داشته باشیم چطور می‌توانیم روی این سیستم‌ها سریع فعالیت کنیم؟ این سیستم‌ها اجازه چابکی را نمی‌دهند و نیازمند سرویس‌های تجاری و تیم‌های کوچکی هستیم که بتوانند مثلا در یک ماه یک سرویس ایجاد کنند. خسروی در بخش دیگر صحبت‌های خود در مورد به‌کارگیری این موارد در راستای هدف اشاره کرد و گفت: بعد از ایجاد سرویس‌های تجاری باید بتوانیم آنها را ترکیب کنیم. سرویس‌های ابری و استانداردهای باز خیلی در این زمینه مهم بوده‌اند. عنصر دیگر از رکن دوم این است که چطوری با این تکه‌های کوچک به سمت هدف حرکت کنیم. اینجا دیتا نقش جدیدی پیدا می‌کند. رکن سوم جایی خود را نشان می‌دهد که به بسیاری از ابزارهای مهم دسترسی داریم اما چه می‌شود که یک شرکت روزی چند بار دیپلوی می‌کند و یک شرکت چند ماه یک بار؟ این رکن به افراد موثری مرتبط است که برای این فضا تربیت شده‌اند و مهارت دارند. برای توسعه سیستم‌ها به نیروی انسانی موثر نیاز داریم.

   نادیده گرفتن امنیت هزینه ندارد

مهدی خرازی، عضو هیات علمی دانشگاه صنعتی شریف در مورد امنیت صحبت کرد و نکته مهمی که مورد تمرکز او قرار گرفت عدم صرف هزینه برای مشکلات ایجاد شده ناشی از نادیده‌گیری موارد امنیتی بود. او گفت: امنیت در ایران در حال گذار است و هنوز به بلوغ نرسیده است. به همین دلیل است که داده‌ها نشت پیدا می‌کند و هزینه‌ای برای شرکت ایجاد نمی‌شود. فقط شاید مسوول امنیت هزینه دهد اما سازمان هزینه‌ای در این رابطه ندارد. همین عامل باعث شده تا مقوله امنیت برای سازمان‌ها جدی گرفته نشود. هر گاه سازمان جریمه پرداخت کند، آن گاه ساختار سازمان آن را مهم می‌بیند.

او در ادامه گفت: با آمدن هوش مصنوعی، داده‌های بیشتری باید جمع‌آوری شود و امنیت داده‌ها نیز مهم‌تر می‌شود. مهم‌ترین آن اطلاعات هویتی است که متاسفانه در ایران اهمیتی ندارد. اکنون داده‌های بیشتری می‌خواهیم جمع کنیم که خیلی دقیق‌تر رفتار و هویت افراد را ذخیره می‌کند. این موضوعی است که چالش‌های آن می‌تواند به اعتبار یک شرکت لطمه بزند و بقای آن را تهدید کند. خرازی در مورد چالش‌های حوزه امنیت گفت: چون بازار کار جدی در سال‌های گذشته نداشته‌ایم ورود به حوزه امنیت خیلی پرهزینه است و یک فرد باید دانش بیشتری برای ورود به این حوزه کسب کند.

دلیل آن هم این است که امنیت فعلا ماهیت اقتصادی در سطح کلان شرکت‌ها ندارد. خیلی از کارهایی که از کارشناسان می‌خواستیم اکنون می‌توانیم با سیستم‌های هوش مصنوعی جایگزین کنیم. ولی اول باید استانداردسازی کرد. هر چه دیرتر به امنیت بپردازیم هزینه آن هم بیشتر خواهد شد چون باید یک سری ساختارها را پیاده‌سازی کنیم. باید به این فکر کنیم اگر روزی قصد به‌کارگیری داشته باشیم هزینه تغییر چقدر خواهد بود. باید این ریسک را مدیریت کنیم.

 

ارسال نظر