نحوه برخورد کشورها با محتوای خشن در فضای مجازی
کشورهای مختلف از چند سال قبل وضع قوانینی را برای مقابله با نفرتپراکنی و محتوای خشن در فضای مجازی آغاز کردهاند و سعی دارند شبکههای اجتماعی را وادار به قبول مسوولیت در حذف و کنترل آن کنند. کشورهای مختلف در سراسر جهان از چند سال قبل با وضع قوانینی در مقابل محتوای نفرتپراکنی و خشونتآمیز فضای مجازی، سعی دارند کاربران شان را محافظت کنند. قوانین بازدارنده در این کشورها اجازه گسترش چنین محتوایی در فضای مجازی را نمیدهد و در صورت حذف نشدن آن جریمهها و تنبیهاتی در انتظار شبکههای اجتماعی متخلف است. برخی کشورها شرکتهای فناوری را ملزم کردهاند خودشان در این باره قوانینی وضع کنند و بر اساس قوانین برخی دیگر، محتوای نفرتپراکنی و خشونتآمیز ظرف مدت زمانی محدود پس از انتشار حذف شود. در غیر این صورت پلتفرم متخلف جریمه میشود.
شرکتهای فناوری مسوول حذف محتوای خشن در امریکا
در امریکا پلتفرمهای فناوری مسوول قانونمند کردن خودشان هستند. شبکههای اجتماعی مختلف مانند توئیتر، فیس بوک و اینستاگرام قوانینی در خصوص محتوای خشونتآمیز دارند. این پلتفرمهای پرطرفدار سیاستهای بازبینی محتوای مشابهی دارند بهطوری که هرگونه پست و محتوایی که خشونت را ترویج یا تشویق کند، ممنوع کردهاند. پستهای حاوی نفرتپراکنی نیز در امریکا ممنوع شده است. پلتفرمهای بزرگ همچنین برای محدود کردن چنین محتوایی اقداماتی نظیر راستیآزمایی محتوا را نیز در دستور کار خود قرار دادهاند. به عنوان مثال محتوای خشونتآمیز، قلدری و تهدید در فیسبوک ممنوع است. این شبکه اجتماعی گاهی اوقات در صورتی که محتوای مذکور به نفع عموم مردم باشد، آن را نگه میدارد و در غیر این صورت آن را حذف میکند. توئیتر نیز سیاست مشابهی دارد. کاربران میتوانند پروفایلها، پستها، تصاویر، ویدئوها، گروههایی با محتوای خشونتآمیز را گزارش دهند. همچنین یوتیوب نیز این نوع محتوا را ممنوع کرده است. این نوع محتوا در واتساپ نیز ممنوع است. انتشار محتوای غیرقانونی، نامناسب، افتراآمیز، تهدیدکننده، ترسناک، آزاردهنده، نفرتپراکنی، تبعیضآمیز در این پلتفرم ممنوع است.
نحوه برخورد کشورها
با محتوای خشونتآمیز در فضای مجازی
نقطه عطف فرایند خود قانونمندسازی پلتفرمهای اجتماعی در امریکا حمله حامیان دونالد ترامپ، رییسجمهور پیشین امریکا به کنگره در ۶ ژانویه ۲۰۲۱ بود. در نتیجه این رویداد، حساب کاربری دونالد ترامپ در فیسبوک، توئیتر، اینستاگرام، پینترست، یوتیوب و غیره مسدود شد. از سوی دیگر توئیتر یک گروه خشن حامی نظریههای توطئه (QAnon) افراطی را نیز مسدود کرد. همچنین پارلر یک اپلیکیشن شبکه اجتماعی که مدعی گسترش آزادی بیان بود نیز از سرویسهای میزبان وب آمازون (AWS) حذف شد. این وب سایت در نهایت یک ماه پس از این ماجرا آفلاین شد. در همین راستا بحث و گمانهزنیهایی درباره بازبینی محتوای آنلاین در قانون امریکا به وجود آمد.
تلاش انگلیس برای حذف محتوای نامناسب
این کشور در حال حاضر مشغول بررسی و اصلاح قانون ایمنی آنلاین است تا موارد و جرایم بیشتری را در بر گیرد. با اصلاح این قانون پلتفرمهایی که محتوای غیرقانونی را به نمایش بگذارند با جریمههای کلان یا مسدود شدن روبرو میشوند. در این قانون آزارهای آنلاین، غیرقانونی محسوب میشوند. نمونههای آن عبارتند از سوءاستفاده از کودکان، استفاده از اینترنت برای مقاصد تروریستی، جرایم مربوط به نفرت و همچنین نفرتپراکنی، آزار قلدری سایبری و سوءاستفاده آنلاین. در این میان پلتفرمهای آنلاین اپها و نرمافزارها و غیره باید محتوای خود را مدیریت کنند. در حال حاضر هرکسی که پلتفرمهای آنلاین را مدیریت میکند براساس قانون انگلیس موظف به حذف محتوای غیرقانونی آنلاین است. برای این منظور، پلتفرمها باید به شکل ایمنتری طراحی شوند. این بدان معنا است که ویژگیهای بنیادین ایمنی باید در طراحی وبسایت، اپ یا نرم افزار لحاظ شوند. همچنین کاربران باید محتوای غیرقانونی را به نیرویهای مجری قانون و پلیس اطلاع دهند. انگلیس در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که مربوط به پلتفرمهای اشتراکگذاری ویدئو بود. هدف از این قوانین، حفاظت از کاربران و افراد زیر سن قانونی در مقابل نفرتپراکنی و ویدئوهای خشونتآمیز است. البته این کشور در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که هدف آن پلتفرمهای اشتراکگذاری ویدئو بود. هدف این قانون حفاظت از کاربران و افراد زیر سن قانونی در مقابل نفرتپراکنی و ویدئوهای خشونتآمیز علیه گروههایی خاص است. در همین راستا آفکام (رگولاتور انگلیس در بخش رسانهها)، دستورالعمل جدید برای پلتفرمهایی مانند تیکتاک، اسنپچت، ویمو و توییچ اعلام کرد. این پلتفرمها باید اقدامات مناسب جهت محافظت کاربران در مقابل محتوای مخرب را اتخاذ کنند. محتوای تروریستی، نژاد پرستی و غیره بخشی از این محتوای خشن به حساب میآیند. اما پیش از آن و در سال ۲۰۱۹ میلادی ساجد جاوید وزیر کشور وقت انگلیس و رییس کارگروه خشونت جدی انگلیس بودجه ۱.۳۸ میلیون پوندی برای این کارگروه تعیین کرد تا پایان ماه میهمان سال اجرایی شود. تیم ۱۷ نفره شامل نیروی پلیس و افسرانی بود که وظیفه آنها حذف محتوای مربوط به گروههای جنایتکارانه در فضای آنلاین بود. در این کارگروه مدیران ارشد گوگل و فیسبوک اقدامات خود را برای مقابله با محتوای خشن از جمله ویدئوهای مروج خشونت عرضه کردند. کارگروه مشترک پلیس ملی انگلیس و شبکههای اجتماعی در پلیس متروپولیتن تاسیس شد. در این کارگروه تیمهایی مختص مقابله با محتوای آنلاین روی تحقیق، اختلال و اجرای قانون در مقابل گروههای مجرمانه فعالیت میکنند. همچنین این کارگروه محتوای خطرناک در شبکههای اجتماعی را مشخص میکند تا آنها را بهطور دایم حذف کنند. این مرکز بخشی از استراتژی خشونت جدی دولت انگلیس برای دورکردن جوانان از جرایم و همچنین قدرتمندتر کردن واکنش پلیس بود.
مهلت ۲۴ ساعته آلمان برای حذف محتوای نامناسب
آلمان نیز یکی از کشورهایی است که در این زمینه قوانینی وضع کرده است. قانون اجرایی شبکه یا NetzDG که به قانون فیسبوک نیز مشهور است برای مقابله با نفرتپراکنی و اخبار جعلی در شبکههای اجتماعی در این کشور وضع شده است. این قانون شبکههای اجتماعی با بیش از ۲ میلیون کاربر را ملزم به حذف محتوای غیرقانونی واضح در ۲۴ ساعت و محتوای غیرقانونی ضمنی طی ۷ روز پس از پست آن، میکند. شبکه اجتماعی خاطی با جریمهای تا ۵۰ میلیون یورو روبرو میشود. محتوای حذف شده باید حداقل تا ۱۰ هفته بعد نیز حذف شود و پلتفرمها باید هر ۶ ماه یکبار گزارشهای شفافیت درباره محتوای غیرقانونی را ارایه کنند. این قانون در سال ۲۰۱۷ میلادی تصویب شد و از ۲۰۱۸ میلادی اجرایی شده است.
تلاش نافرجام فرانسه برای تصویب قانون مقابله با محتوای نامناسب
در این درحالی است که فرانسه نیز در سال ۲۰۱۹ میلادی قانونی مشابه NetzDG وضع کرد. این قانون با پشتیبانی امانوئل مکرون و حزب او پلتفرمهای آنلاین را ملزم میکرد تا محتوای خشن و نفرتپراکنی که توسط کاربران مشخص شده را تا ۲۴ ساعت حذف کنند. اگر پلتفرم این قانون را نقض میکرد، با جریمهای ۱.۲۵ میلیون یورویی روبرو میشد. اما در سال ۲۰۲۰ میلادی شورای قانون اساسی فرانسه، (دادگاهی که قوانین را بررسی میکند تا مطابق قانون اساسی کشور باشند) آن را لغو کرد. به گفته این دادگاه قانون مذکور سبب میشد پلتفرمها برای اجتناب از جریمه و تنبیه شدن، هر گونه محتوای گزارش شده را بدون در نظر گرفتن آنکه نفرتپراکنی به حساب میآید یا خیر حذف کنند.
تلاش نیوزیلند و استرالیا برای مقابله با محتوای خشن
نیوزیلند نیز درباره حذف محتوای غیرقانونی قانون مشخصی دارد. پس از حمله تروریستی کریستی چرچ در این کشور ساز و کاری برای مقابله صریحتر با محتوای خشونتآمیز و نفرتپراکنی در نظر گرفته شد. در این حلمه یک فرد افراط گرا با حمله به مسجدی حدود ۵۰ نفر را به قتل رساند و کل این فرایند را بهطور زنده در فیس بوک پخش کرد. مقابله با چالش افراطیگری چالشی پیچیده و بلندمدت است بنابراین چند سازمان دولتی، آژانس مجری قانون، جوامع مدنی، کارشناسان نیوزیلندی همه در این حوزه نقش دارند. تیم ایمنی دیجیتال در وزارت امور داخلی مسوولیت ایمن نگه داشتن شهروندان این کشور از آزارهای آنلاین و همچنین اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج میکند. تیم ایمنی دیجیتال در وزارت امور داخلی مسوولیت ایمن نگه داشتن شهروندان این کشور نسبت به آزارهای آنلاین و همچنین اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج میکند. از مسوولیتهای این تیم شناسایی محیطی است که محتوای خشونتآمیز ایجاد و در فضای آنلاین به اشتراک میگذارد. همچنین این تیم وظیفه اجتناب، دور کردن و در صورت لزوم تعقیب قانونی افرادی را برعهده دارد که محتوای مخرب را در فضای مجازی به اشتراک میگذارند. دیگر اقدام این کشور تعهد دولت و شرکتهای فناوری برای حذف محتوای تروریستی و خشونتآمیز در فضای آنلاین است. همچنین طبق قانونی در ۲۰۲۰ میلادی به پارلمان این کشور ارایه شده، پخش زنده هرگونه محتوای غیرقانونی مانند رویداد تروریستی کریستی چرچ یک جرم قانونی است. دولت میتواند دستور حذف محتوای آنلاین را به پلتفرم اعلام کند. استرالیا نیز یکی دیگر از کشورهایی است که قوانینی درزمینه محتوای خشونتآمیز و نفرتپراکنی در فضای آنلاین است. در این کشور پلتفرمها ملزم به حذف محتوای منزجرکننده و خشن هستند و در غیر این صورت با جریمههای کلان روبرو میشوند. این قانون پس از حمله تروریستی کریستی چرچ در نیوزلند که به مسلمانان حاضر در مسجدی حمله و قتل آنان بهطور زنده در فیس بوک پخش شد، وضع شده است.
تلاش گسترده هند برای مقابله با محتوای خشونتآمیز
هند با ۵۰۰ میلیون کاربر آنلاین و تاریخچهای از گسترش اخبار جعلی در شبکههای اجتماعی و پیامرسانها که گاهاً به خشونت منجر شده، یکی از کشورهایی است که بازبینی محتوا در آن اهمیت زیادی دارد. قانونمندسازی محتوا تحت قانونی به نام قانون فناوری اطلاعات (ITA) قرار دارد. استفاده از اینترنت برای انتشار محتوای تروریستی تحت جرایم سایبری قانون فناوری اطلاعات قرار میگیرد. با این قانون که در ۲۰۰۰ میلادی وضع و در ۲۰۰۵ میلادی اصلاح شده، چهارچوبی برای مقابله با تروریسم سایبری در هند به وجود آمده است. در سال ۲۰۱۵ میلادی دادگاه عالی هند رای داد شرکتهای فناوری باید بهطور فعال پلتفرمها را برای وجود محتوای غیرقانونی رصد کنند. هرچند قانون ITA بهطور واضح محتوای تروریستی را توضیح نمیدهد اما در سال ۲۰۱۵ میلادی مشخص شد استفاده از دستگاههای ارتباطی برای به اشتراکگذاری اطلاعاتی که بهشدت اهانت آمیز است یا ماهیت تهدیدآمیزی دارد در کنار اخبار جعلی که نفرت و دشمنی به وجود میآورد، ممنوع است. در همین راستا شرکتهای فناوری ملزم هستند در صورت دریافت دستور از دادگاه یا دولت، محتوای مذکور را حذف کنند. همچنین سازمانهای دولتی و قضایی میتوانند از پلتفرمهای اینترنتی بخواهند محتوای غیرقانونی را حذف کنند.
قانون عملکرد اینترنت در سنگاپور
سنگاپور یکی از هابهای اصلی فناوری در آسیا است و در حقیقت جایگزین آسیایی سیلیکون ولی به حساب میآید. بسیاری از شرکتهای فناوری بزرگ. از جمله فیس بوک، مایکروسافت، گوگل و یوتیوب مقری در سنگاپور دارند. این کشور در اکتبر ۲۰۱۶ میلادی «قانون عملکرد اینترنت (Internet Code of Practice) »
را تصویب کرد که مبنایی برای وظایف سرویسهای اینترنتی و تهیهکنندگان محتوا در سنگاپور فراهم میکند. علاوه بر آن «چارچوب نظارتی اینترنت (Internet Regulatory Framework) » در این کشور وضع شده، که نمای کلی از رویکرد سنگاپور به مقررات آنلاین را نشان میدهد و با «قانون عملکرد اینترنت» نیز مرتبط است. قانون «حفاظت در مقابل محتوای اشتباه و دستکاری آنلاین (POFMA) » نیز در اکتبر ۲۰۱۹ در سنگاپور تصویب شده که مربوط به کنترل گسترش اخبار جعلی به وسیله دستورات اصلاح و حذف محتوا است. در همین راستا سازمان IMDA بر اجرای این قوانین در کشور نظارت دارد. چارچوب قانونگذاری این کشور بهطور خاص محتوای تروریستی آنلاین را هدف میگیرد.