تهدیدهای هوش مصنوعی
گروه دانش و فن|
جدیدترین پیشرفتهای هوش مصنوعی باعث شده است این فناوری انقلابی در انجام کارهای بصری مثل دستهبندی تصاویر و تبدیل گفتار به نوشتار عملکرد بسیار خوبی داشته باشد؛ البته هیجان و خوشحالی ناشی از ایجاد این تواناییهای شگفتانگیز در هوش مصنوعی ما را از معایب آن غافل کرده است؛ هوش مصنوعی هنوز راه زیادی برای رسیدن به هوش و استعداد بشر دارد و همین موضوع میتواند در آیندهای نه چندان دور پیامدهای خطرناکی را بهدنبال داشته باشد؛ زیرا امکان دارد الگوریتمهای هوش مصنوعی اتفاقهای غیرقابل انتظاری را رقم بزنند یا دقت نکردن در استفاده از آنها میتواند عواقب بدی داشته باشد.
پس از تصادف خودروهای خودران اوبر در ماه مارس سال گذشته، پژوهشگران دریافتند که فناوری این شرکت بهصورت فاجعهباری شکست خورده است؛ اما مسوولان آن میتوانستند با روشی ساده مانع این شکست شوند.
مشکل بزرگ خودروهای خودران این است که شرکتهای خودروساز قصد دارند هرچه زودتر این فناوری تجاریسازی و بهصورت گسترده استفاده شود؛ اما این دستاورد بزرگ برخلاف سرمایه هنگفت چند میلیارد دلاری که برای آن صرف شده، هنوز به تکامل کامل نرسیده است.
از سویی دیگر در ماه مارس سال گذشته، اخبار مربوطبه سوءاستفاده شرکت کمبریج آنالیتیکا یک شرکت مشاورهدهنده سیاسی، از فعالیتهای مرتبطبا بهاشتراکگذاری فیسبوک برای تحتتاثیر قرار دادن نتیجه انتخابات ۲۰۱۶ امریکا منتشر شد. این خبر سروصدای زیادی به پا کرد و نشان داد که چگونه الگوریتمهای هوش مصنوعی میتواند نوع اخبار و اطلاعات درحال جستوجو در شبکههای اجتماعی را تحتتاثیر قرار دهد و ممکن است این توانایی هوش مصنوعی منجر به افزایش اطلاعات نادرست، لطمه زدن به مباحث سالم و منزوی کردن مردم و ایجاد اختلافنظر در میان آنها شود.
مارک زاکربرگ، مدیرعامل فیسبوک، در یکی از جلسههای کنگره امریکا مدعی شد که هوش مصنوعی در آینده میتواند محتواهای بد و مخرب را شناسایی و مسدود کند؛ البته وی متذکر شد که هوش تا تشخیص معنا و مفهوم ظاهری یا حقیقی متون، تصاویر و ویدیوها فاصله زیادی دارد.
ظاهرا قرار است وعده زاکربرگ در مورد توانایی هوش مصنوعی برای شناسایی و حذف محتواهای مخرب در انتخابات پیشروی دو کشور بزرگ آفریقایی یعنی آفریقای جنوبی و نیجریه، آزمایش شود و بررسی بلندمدت این توانایی برای بهکارگیری آن در انتخابات ۲۰۲۰ امریکا نیز آغاز شده است؛ البته نباید فراموش کنیم که این فناوری میتواند زمینه را برای ایجاد فناوریهای مبتنی برپایه هوش مصنوعی برای گسترش اطلاعات نادرست مانند رباتهای چت مخرب فراهم کند.
به گزارش سایت تکنولوژی وایرد، سال گذشته تعدادی از کارمندان گوگل مطلع شدند که کارفرمایان آنها فناوری خاصی برای دستهبندی شیوه تصویربرداری با پهپاد، در اختیار ارتش امریکا قرار دادهاند و پس از آن جنبشی بر مبنای استفاده از هوش مصنوعی برای گسترش صلح و آشتی شکل گرفت. کارمندان گوگل نگران بودند که این اقدام کارفرمایان آنها میتواند به ارایه فناوری فاجعهباری برای آغاز حملات پهپادهای مرگبار و درنتیجه به خطر افتادن جامعه بشریت ختم شود. گوگل درواکنش به این جنبش از پروژه مِیوِن که براساس آن نرمافزارهای هوش مصنوعی گوگل در اختیار ارتش امریکا قرار میگرفت، خودداری کرد و پس از آن یک کد هوش مصنوعی برای موارد اخلاقی ایجاد شد. نهادهای بسیار مطرح صنعتی و آموزشی کمپینی برای ممنوعیت استفاده از سلاحهای مستقل ایجاد و از آن حمایت کردند. استفاده نظامی از هوش مصنوعی بهتازگی آغاز شده است و بهنظر میرسد که در آینده شدیدا با آن مقابله خواهد شد. درضمن پس از قطع همکاری گوگل با ارتش امریکا، شرکتهای بزرگ فناوری دیگر مثل مایکروسافت و آمازون هم حاضر به مشارکت در این اقدام غیرانسانی نشدهاند.
اگرچه سرمایهگذاری پنتاگون برای استفاده از هوش مصنوعی در حال افزایش است، اما فعالان حقوقبشر امیدوارند پیمان ممنوعیت استفاده از سلاحهای مستقل که دربرخی از جلسههای سازمان ملل در حال بررسی است، در سال میلادی جاری اجرا شود تا این سلاحها تهدیدی بزرگ برای بشر نباشند.
درحالحاضر در بسیاری از کشورها (بهخصوص چین)، بهصورت گستردهای از هوش مصنوعی برای نظارت دولت و پلیس بر مردم استفاده میشود و آمازون نیز در حال فروختن این فناوری به سازمانهای مهاجرت و قانونگذار امریکا است. در آینده فناوری تشخیص چهره در وسایلنقلیه و وبکمها هم نیز مورد استفاده قرار خواهد گرفت و علاوهبر شناسایی صورت افراد، حرکت آنها نیز کنترل خواهد شد؛ اما امسال قوانینی برای کنترل استفاده از آن وضع خواهد شد.