اندیشه ، فلسفه
تاریخ
اقتصاد
  • کارفرمایان و چشم انداز ی که نیست
    جامعه ایرانی ساکن ترکیبی از کروه‌های گوناگون اجتماعی- اقتصادی است. هرگروه اجتماعی درایران امروز بخواهد یا نخواهد منافعی دارد که با دیگر هم گروه‌هایش گره خورده و نمی تواند به سادگی ازدرهم تنیدگی‌ها دور شود.
  • برقراری اجباری سانترالیسم دموکراتیک
    یکم- آیا نظام موجود بانکداری در ایران کارآمدی دارد؟ همه کسانی که به نظام بانکی نگاه کارشناسانه و نیز مطابقت دادن این نظام با بانکداری مدرن دارند بر این باورند آنچه به عنوان بانکداری در جمهوری اسلامی عمل می‌کند فاقد
  • مسعود نیلی: کار صندوق بازنشستگی در ایران تمام شد
    شکی نداریم که کشور ما در شرایط بسیار سختی قرار گرفته که هیچ‌گاه در تاریخ با مشکلاتی به این عمق و تنوع به‌صورت همزمان مواجه نبوده است. این روند تدریجی قابل پیش‌بینی بود. کارشناسان با تهیه گزارش‌های مختلف،
  • ستون فقرات حکمرانی باید «رشد و توسعه اقتصادی» باشد
    استاد دانشگاه گفت: ستون فقرات حکمرانی باید «رشد و توسعه اقتصادی» باشد. بر اساس برآورد کارشناسان انرژی و محیط زیست، برای رسیدن به شرایط نرمال، کشور به ۴۵۰ میلیارد دلار سرمایه‌گذاری در بازه زمانی ۱۰ تا ۱۵

ناتوانی دیجیتال، ابزاری جدید و پیشرفته برای سلطه طبقاتی است که در آن، الگوریتم‌ها و هوش مصنوعی به‌طور سیستماتیک و نامحسوس در درازمدت و به‌تدریج، برای انتشار محتوایی استفاده می‌شوند که احساس درماندگی و انفعال را، به‌ویژه در میان کاربران چپ‌گرا و مترقی، تقویت می‌کند. این مکانیسم، شکست‌ها و ضعف‌های تجربیات سوسیالیستی و سازمان‌های چپ را برجسته کرده و سرمایه‌داری را به‌عنوان سیستمی ابدی و شکست‌ناپذیر به تصویر می‌کشد؛ و بدین ترتیب، این ایده را تقویت می‌کند که تغییر غیرممکن است.

نظارت و کنترل دیجیتال

شرکت‌های دیجیتال با همکاری دولت‌های بزرگ، حرکات افراد را از طریق دستگاه‌های هوشمند و ابزارهای مختلف ارتباطی تحت نظارت قرار می‌دهند. تمامی فعالیت‌های دیجیتالی، از جمله جلسات بسته و ظاهراً ایمن، به‌طور مداوم رصد و تحلیل می‌شوند. در عمل، تقریباً هیچ فضای دیجیتالی کاملاً محافظت‌شده‌ای وجود ندارد. داده‌ها به‌صورت سیستماتیک جمع‌آوری شده و سپس برای ارزیابی و طبقه‌بندی افراد و گروه‌ها بر اساس الگوهای رفتاری و جهت‌گیری‌های فکری و سیاسی آن‌ها استفاده می‌شود.

علاوه بر این، نظارت دیجیتال به ابزاری مرکزی برای پایش تمایلات فکری و سیاسی کاربران تبدیل شده و شرکت‌ها و دولت‌ها را قادر می‌سازد از طریق کمپین‌های سازمان‌یافته اطلاعات نادرست، آن‌ها را ردیابی و هدف قرار دهند یا تحریم‌های دیجیتال اعمال کنند که نفوذ آن‌ها را بر افکار عمومی محدود و کاهش می‌دهد. این راهبردها به‌طور سیستماتیک و مخفیانه علیه سازمان‌های کارگری، گروه‌های چپ و نهادهای مستقل حقوق بشری و رسانه‌ها اعمال می‌شود؛ همگی با محدودیت‌های فزاینده‌ای مواجه‌اند که گسترش ایده‌های آن‌ها را در فضای عمومی دیجیتال، از طریق روش‌هایی غیرمستقیم و ظریف که تشخیصشان دشوار است، محدود می‌کند. شرکت‌های سرمایه‌داری و دولت‌های بزرگ از الگوریتم‌هایی در شبکه‌های اجتماعی و سیستم‌های هوش مصنوعی به‌طور دقیق و سیستماتیک استفاده می‌کنند تا دسترسی‌های سیاسی چپ و مترقی را محدود سازند، گاهی بدون توسل به حذف مستقیم.

این شیوه‌ها، سرکوب دیجیتال را پیچیده‌تر، خطرناک‌تر و نامرئی‌تر می‌کنند، زیرا به نظر می‌رسد تعامل پایین با محتوای مترقی واکنشی طبیعی از سوی مخاطب است، در حالی که در واقع، ناشی از الگوریتم‌هایی از پیش طراحی‌شده با هدف کاهش دیده‌شدن آن محتواست. مطالعات متعددی پدیده‌های مرتبط را مستند کرده‌اند، مانند “حباب فیلتر” ایجادشده توسط الگوریتم‌ها برای جداکردن کاربران از محتوای سیاسی مخالف دیدگاه‌هایشان، و گزارش‌هایی درباره تعصب الگوریتمی که گفتمان سنتی راست را به محتوای چپ ترجیح می‌دهد. افشاگری‌ها و اسناد داخلی از شرکت‌هایی مانند فیس‌بوک، استراتژی‌های عمدی را برای کاهش دیده‌شدن برخی جنبش‌های سیاسی یا حقوق بشری با محدودکردن دسترسی یا غیرفعال‌کردن اعلان‌ها نشان می‌دهد؛ همه در حالی که ظاهری از بی‌طرفی حفظ می‌شود. این سیاست‌ها، تصوری نادرست را در میان فعالان ایجاد می‌کند که ایده‌هایشان ناکارآمد یا نامحبوب است و برخی را به‌سوی خودسانسوری یا تعدیل گفتمانشان سوق می‌دهد. منابع: (۱،۲،۳،۴،۵).

ناتوانی دیجیتال

ناتوانی دیجیتال، ابزاری جدید و پیشرفته برای سلطه طبقاتی است که در آن، الگوریتم‌ها و هوش مصنوعی به‌طور سیستماتیک و نامحسوس در درازمدت و به‌تدریج، برای انتشار محتوایی استفاده می‌شوند که احساس درماندگی و انفعال را، به‌ویژه در میان کاربران چپ‌گرا و مترقی، تقویت می‌کند. این مکانیسم، شکست‌ها و ضعف‌های تجربیات سوسیالیستی و سازمان‌های چپ را برجسته کرده و سرمایه‌داری را به‌عنوان سیستمی ابدی و شکست‌ناپذیر به تصویر می‌کشد؛ و بدین ترتیب، این ایده را تقویت می‌کند که تغییر غیرممکن است. فردگرایی همراه با راه‌حل‌های شخصی مانند مصرف و خودسازی، ترویج می‌شود و افراد را از کنش سیاسی جمعی و سازمان‌یافته منزوی می‌کند. همچنین، بحث‌ها درون سازمان‌های چپ به سمت درگیری‌های حاشیه‌ای هدایت شده، تمرکز را از اهداف اصلی منحرف می‌سازد و توان مقاومت را تضعیف می‌کند. شرکت‌های بزرگ با تحلیل رفتار دیجیتال، کاربران و گروه‌ها را با محتوایی که احساس یأس ایجاد می‌کند هدف قرار می‌دهند تا این تصور شکل گیرد که تغییر سوسیالیستی یا غیرممکن است یا بسیار دشوار. این سیاست‌ها تصادفی نیستند، بلکه ابزارهایی علمی و عامدانه‌اند که برای تضعیف روح تغییر و تضمین بقای نظام سرمایه‌داری بدون چالش‌های جدی طراحی شده‌اند.

دستگیری دیجیتال و ترور دیجیتال

دستگیری دیجیتال، مرحله‌ای خطرناک‌تر از نظارت و کنترل است، زیرا فراتر از محدود‌کردن دسترسی به محتوا، شامل اعمال محدودیت‌های خودسرانه بر حساب‌های فردی و گروهی، تعلیق موقت آن‌ها در بازه‌های مختلف، یا حذف دائمی آن‌ها می‌شود؛ چیزی که می‌توان آن را نوعی ترور دیجیتال نامید. این اقدامات بدون شفافیت، استانداردهای روشن، یا قوانین محلی و بین‌المللی برای حمایت از حقوق کاربران انجام می‌شوند. بهانه‌هایی مانند «نقض استانداردهای جامعه» یا «ترویج خشونت» اغلب برای خاموش‌کردن این صداها به‌کار می‌روند، حتی اگر محتوای منتشرشده جنایات دولت‌ها و شرکت‌های سرمایه‌داری یا نقض حقوق بشر را مستند کرده باشد. نمونه‌ای از این سرکوب دیجیتالی را می‌توان در عملکرد پلتفرم‌های رسانه‌های اجتماعی علیه محتوای فلسطینی مشاهده کرد که جنایات اسرائیل علیه غیرنظامیان را مستند می‌کردند. در جریان آخرین حمله به غزه، شرکت‌هایی مانند فیس‌بوک، اینستاگرام و توییتر صدها حساب را که مستنداتی درباره اشغالگری منتشر می‌کردند، با استناد به «نقض استانداردهای جامعه» یا «ترویج تروریسم» حذف یا مسدود کردند، در حالی‌که بسیاری از آن‌ها توسط سازمان‌های حقوق بشری تأیید شده‌اند. دیده‌بان حقوق بشر در سال ۲۰۲۳ بیش از ۱۰۵۰ مورد حذف یا محدودیت محتوای حامی فلسطین را بین اکتبر و نوامبر در فیس‌بوک و اینستاگرام مستند کرد، از جمله محتوای صرفاً مسالمت‌آمیز. من شخصاً پس از به‌اشتراک‌گذاری پستی از سوی چپ فلسطین به مدت یک ماه ممنوع شدم و صفحه سکولار فیس‌بوک (http://www.facebook.com/SecularFB) که بیش از ۲۰۰ هزار دنبال‌کننده داشت، به دلیل انتشار مقالاتی افشاگرانه درباره جنایات اشغالگران اسرائیل – حتی مقالاتی که جنایات حماس را نیز محکوم می‌کرد – بسته شد. رسانه‌های مستقل مانند شبکه خبری قدس نیز با محدودیت یا حذف کامل حساب‌هایشان هدف قرار گرفتند تا صداهای افشاگر نقض حقوق غیرنظامیان فلسطینی خاموش شوند. رسانه‌ها و گزارش‌های حقوق بشری، پدیده «سایه‌بندی» را نیز برجسته کرده‌اند که طی آن، محتواهای طرفدار فلسطین بدون حذف صریح، سرکوب می‌شوند، به‌ویژه محتواهایی با هشتگ‌هایی مانند #FreePalestine یا #IStandWithPalestine؛ و این به‌نوعی محدودیت نانوشته بر آزادی بیان در فضای دیجیتال تبدیل شده است. منابع: (۶،۷،۸).

خودسانسوری داوطلبانه

سرکوب دیجیتالی و محدودیت در دسترسی، با پدیده «خودسانسوری داوطلبانه» همراه است؛ جایی که افراد و حتی گروه‌ها شروع به اعمال محدودیت بر خود، تعدیل گفتمان سیاسی یا حتی تغییر محتوای خود می‌کنند. آن‌ها به موضوعات نظری کلی می‌پردازند و از مواجهه مستقیم با سرمایه‌داری و رژیم‌های اقتدارگرا اجتناب می‌کنند، از ترس کاهش دسترسی، ممنوعیت یا بسته‌شدن حساب‌هایشان توسط الگوریتم‌های هوش مصنوعی. این ترس، آزادی بیان را تضعیف کرده و به عامل تعیین‌کننده‌ای در تغییر شکل و کنترل گفتمان عمومی – حتی پیش از اعمال محدودیت‌های عینی – تبدیل می‌شود. این روند، هژمونی ایدئولوژیک سرمایه‌داری را تقویت می‌کند، فضای مقاومت دیجیتال را تنگ‌تر کرده و اینترنت را به فضایی خودتنظیم‌شونده و همسو با منافع قدرت‌های مسلط تبدیل می‌کند. برای مثال، در دوره‌های اعتراض توده‌ای در کشورهای مختلف علیه سیاست‌های سرمایه‌داری و اقتدارگرا – و به‌طور کلی‌تر، در سطوح مختلف – بسیاری از کاربران متوجه شدند که پست‌های آن‌ها، حاوی واژگانی مانند «اعتصاب عمومی»، «نافرمانی مدنی»، «انقلاب» یا متونی که به افشای جنایات و نقض حقوق بشر می‌پردازند، به گستره معمول خود نمی‌رسند، در حالی که پست‌های تحلیلی کلی درباره اقتصاد و سیاست، به‌مراتب کمتر تحت تأثیر قرار می‌گیرند.

این وضعیت در جریان اعتراضات «جلیقه زردها» در فرانسه به‌وضوح مشاهده شد، جایی که گزارش‌های رسانه‌ای، مواردی از حذف یا محدودیت پست‌هایی را که خواستار اعتصابات گسترده یا مواجهه مستقیم با دولت بودند، مستند کردند. در ایالات متحده نیز فعالان جنبش «جان سیاه‌پوستان مهم است» (Black Lives Matter) کاهش چشمگیری در میزان دسترسی پست‌هایی که خواستار نافرمانی مدنی یا اعتراض مسالمت‌آمیز علیه خشونت پلیس بودند، به‌ویژه در فیس‌بوک و اینستاگرام گزارش کردند. شکایات مشابهی نیز از سوی فعالان در هند، در جریان اعتراضات کشاورزان در سال ۲۰۲۱ مطرح شد، جایی که پلتفرم‌ها به بهانه «نقض قوانین محلی» هشتگ‌هایی مانند #FarmersProtest را حذف یا مسدود کردند. این وضعیت باعث شد بسیاری از فعالان از به‌کار بردن اصطلاحاتی که توسط پلتفرم‌ها طبقه‌بندی شده و به‌عنوان “تحریک‌آمیز” یا “حساس” شناخته می‌شدند، اجتناب کنند و گفتمان عمومی را به‌سمت محتوای کم‌خطرتر و کمتر رادیکال سوق دهند. در نتیجه، فضای آزادی بیان محدود شده و نقش رسانه‌های اجتماعی به‌عنوان ابزاری برای بسیج سیاسی و تغییرات رادیکال به‌طور جدی تضعیف شده است. منابع: (۹،۱۰،۱۱،۱۲،۱۳).

فرسایش دموکراسی از طریق هوش مصنوعی

پس از آنکه کنترل بر ذهن و آگاهی بشر از طریق دیجیتالی‌شدن تثبیت شد، مسئله دیگر صرفاً به حداکثر رساندن سود سرمایه‌داری محدود نمی‌ماند، بلکه به ابزاری کلیدی برای تضعیف و حتی نابودی دموکراسی نسبی بورژوایی بدل می‌شود. این در حالی است که همان دموکراسی، با وجود اعتبار محدود خود در بسیاری کشورها، پیش‌تر نیز تحت تأثیر عواملی همچون تبعیت از پول سیاسی و قوانین انتخاباتی ناعادلانه قرار داشته است. دیجیتالی‌شدن و هوش مصنوعی به‌جای تقویت مشارکت آگاهانه مردمی در زندگی سیاسی، برای بازآفرینی و دستکاری افکار عمومی در راستای منافع طبقه حاکم، تأثیرگذاری بر انتخابات، محدود کردن فضای بحث آزاد، و هدایت گفتمان سیاسی و رسانه‌ای برای خدمت به قدرت‌های سرمایه‌داری مهار می‌شوند.

کنترل طبقاتی هوش مصنوعی بدان معناست که این فناوری – که ظاهراً باید ابزاری برای افزایش شفافیت و دموکراسی باشد – عملاً به تولید و ترویج روایت‌هایی می‌پردازد که هدفشان حفظ و تثبیت نظام سرمایه‌داری موجود است. تحلیل داده‌های کلان و الگوریتم‌های هوشمند برای هدایت اطلاعات سیاسی به شیوه‌هایی به‌کار می‌روند که در خدمت نهادهای سرمایه‌داری، جنبش‌های راست‌گرا و نئوفاشیستی و قدرت‌های اقتدارگرا قرار گیرند و درنتیجه، ظرفیت توده‌ها برای تصمیم‌گیری آگاهانه سیاسی را به‌شدت تضعیف می‌کنند. در نظام سرمایه‌داری، هوش مصنوعی نه برای توانمندسازی توده‌ها یا تقویت تصمیم‌گیری شفاف، بلکه برای تحریف واقعیت، بازتولید پروپاگاندا و فعال‌سازی اطلاعات نادرست رسانه‌ای استفاده می‌شود که بنیان‌های دموکراسی واقعی – شامل شفافیت، دسترسی آزاد به اطلاعات و کثرت‌گرایی فکری و سیاسی – را تضعیف می‌کند.

این فرآیند از طریق هدف‌گیری گروه‌های خاص با محتوای متناسب با رفتار دیجیتالی آن‌ها، به تولید افکار عمومی مصنوعی منجر می‌شود که هژمونی طبقاتی را تحکیم کرده و شکاف‌های سیاسی و اجتماعی را تعمیق می‌بخشد. این صرفاً فریب رأی‌دهندگان نیست، بلکه تغییر شکل کل فضای بحث سیاسی است؛ فضایی که از محتوا تهی شده و مملو از تبلیغاتی است که در خدمت سرمایه‌داری و ایده‌های راست‌گرا عمل می‌کنند. تأثیر هوش مصنوعی، فراتر از دستکاری ساده اطلاعات است؛ این فناوری به ابزاری مرکزی برای بازتولید قدرت سیاسی سرمایه‌داری بدل شده است. استفاده از الگوریتم‌ها در کارزارهای انتخاباتی، تنظیم پیام‌های سیاسی براساس منافع سرمایه، و تأثیرگذاری دقیق بر رأی‌دهندگان، همگی در جهت خنثی‌سازی صداهای مخالف و تضعیف جایگزین‌های چپ و دموکراتیک مترقی عمل می‌کنند.

نمونه بارز این وضعیت، دخالت میلیاردر راست‌گرا، ایلان ماسک، در انتخابات ۲۰۲۵ آلمان است؛ جایی که وی از طریق پلتفرم “X” (توییتر سابق)، مستقیماً از حزب راست افراطی آلترناتیو برای آلمان (AfD) حمایت کرد، با ترویج محتوای مبتنی بر هوش مصنوعی که شکل‌دهنده افکار عمومی و تقویت‌کننده قطبی‌سازی سیاسی به‌نفع نیروهای راست‌گرا و نئونازی بود.

در چنین شرایطی، انتخابات دیگر حتی به‌صورت نسبی نیز بازتاب‌دهنده اراده مردمی نیست، بلکه به عرصه‌ای برای رقابت میان دولت‌های بزرگ، قدرت‌های انحصاری و الیگارشی‌های مالی تبدیل شده است که از اینترنت و هوش مصنوعی به‌عنوان ابزار سلطه سیاسی و ایدئولوژیک بهره‌برداری می‌کنند. این فرایند، پلورالیسم سیاسی را مخدوش کرده و مکانیزم‌های دموکراتیک موجود را فاسد می‌سازد، زیرا قدرت‌های حاکم یا صداهای مترقی را سرکوب می‌کنند یا توده‌ها را به سمت آلترناتیوهای کاذبی هدایت می‌کنند که در واقع، بازتولیدکننده همان نظم سرمایه‌داری هستند، با نهایتاً تغییراتی سطحی.

هوش مصنوعی به‌عنوان ابزاری برای آزادی و حقوق بشر

هوش مصنوعی باید به‌عنوان ابزاری در خدمت رهایی انسان و احترام به حقوق بشر عمل کند، نه در راستای محدودسازی یا نقض آن‌ها. برای تحقق این هدف، ابتکارات چپ مترقی که تضمین‌کننده شفافیت، نظارت و استفاده از هوش مصنوعی در جهت عدالت و برابری باشد، امری ضروری است. نمی‌توان این فناوری را به‌دست رژیم‌های اقتدارگرا، دولت‌های بزرگ و شرکت‌ها رها کرد تا برای نظارت بر افراد و سرکوب آزادی‌ها از آن بهره‌برداری کنند. باید چارچوب‌های حقوقی سخت‌گیرانه بین‌المللی و محلی ایجاد شود تا استفاده از هوش مصنوعی در نقض حقوق بشر، چه از طریق نظارت، هدف‌گیری مخالفان و فعالان یا اعمال سانسور دیجیتالی که منجر به دستگیری دیجیتال، ترور دیجیتال و محدودیت آزادی بیان می‌شود، جرم‌انگاری گردد.

کاربردهای امنیتی هوش مصنوعی باید تحت نظارت قضایی مستقل قرار گیرد و سازمان‌های جامعه مدنی نیز باید در ارزیابی مخاطرات آن برای آزادی‌ها نقش مؤثر داشته باشند. همچنین، شبکه‌های همبستگی جهانی باید سوء‌استفاده از هوش مصنوعی را رصد کرده، شرکت‌هایی را که فناوری‌های نظارتی به رژیم‌های اقتدارگرا می‌فروشند، تحریم و در فهرست سیاه قرار دهند.

برای تحقق این امر، سیستم‌های هوش مصنوعی متن‌باز باید تحت نظارت نهادهای مستقل، از جمله جامعه مدنی و نهادهای حقوق بشری، توسعه و مدیریت شوند تا از سوء‌استفاده توسط دولت‌ها، شرکت‌های انحصاری و رژیم‌های اقتدارگرا جلوگیری شود. از این‌گونه سیستم‌ها می‌توان برای تقویت حقوق بشر از طریق افشای نقض‌ها، نظارت بر عملکرد دولت‌ها، و تحلیل داده‌ها برای شناسایی اقدامات سرکوبگرانه استفاده کرد. تقویت نقش سازمان‌های چپ، مترقی و حقوق بشری در نظارت بر استفاده از هوش مصنوعی، امری ضروری است. ائتلاف‌های بین‌المللی می‌توانند برای مقابله با بهره‌برداری از این فناوری در راستای سلطه و سرکوب دیجیتال شکل بگیرند. هوش مصنوعی همچنین می‌تواند به‌عنوان ابزاری مؤثر برای مقابله با سانسور دیجیتال، از طریق رمزنگاری داده‌ها، ارتباطات امن و حفاظت از فعالان و مخالفان به‌کار رود. این فناوری می‌تواند در ردیابی فعالیت‌های سرکوبگرانه دولت‌های اقتدارگرا نیز مؤثر باشد، به‌ویژه در اسنادسازی نقض حقوق بشر، تحلیل الگویی اقدامات سرکوب‌گرانه، و پشتیبانی از سازوکارهای پاسخ‌گویی بین‌المللی.

در کنار آن، آگاهی عمومی باید به‌طور گسترده در خصوص خطرات ناشی از نظارت و کنترل دیجیتال افزایش یابد. این امر از طریق آموزش، رسانه‌های مستقل و کمپین‌های اطلاع‌رسانی می‌تواند انجام شود. همچنین تصویب قوانین محلی و بین‌المللی برای جرم‌انگاری نقض حریم خصوصی و محدود کردن آزادی بیان در فضای دیجیتال ضروری است. کاربران باید به ابزارهای فنی دسترسی داشته باشند که از داده‌ها و ارتباطات آن‌ها محافظت کرده و امکان مشارکت آزاد در گفتمان سیاسی را فراهم آورد.

هوش مصنوعی برای حمایت از دموکراسی و مشارکت مردمی
تبدیل هوش مصنوعی از ابزاری که موجب فرسایش دموکراسی نسبی می‌شود به ابزاری که در جهت تقویت و توسعه آن به‌کار گرفته شود، امری حیاتی است. این فناوری باید در خدمت توانمندسازی توده‌ها قرار گیرد، مشارکت سیاسی را بر پایه برابری گسترش دهد و شفافیت و عدالت را در فرآیندهای دموکراتیک تضمین کند. هوش مصنوعی این ظرفیت را دارد که برای ایجاد فضاهای امن و شفاف جهت گفت‌وگو و رأی‌گیری الکترونیکی به‌کار رود، به‌گونه‌ای که شهروندان بتوانند آزادانه دیدگاه‌های خود را بیان کرده و در تمامی سطوح تصمیم‌گیری به‌صورت مستقیم و مؤثر مشارکت داشته باشند؛ امری که در نهایت به تقویت دموکراسی مشارکتی و بازگرداندن قدرت به مردم می‌انجامد.

همچنین، ابزارهای هوش مصنوعی می‌توانند به‌منظور تحلیل و افشای خودکار اخبار جعلی و اطلاعات گمراه‌کننده توسعه یابند و از شهروندان در برابر کارزارهایی که با هدف تضعیف توان تصمیم‌گیری آگاهانه آنها طراحی شده‌اند، محافظت کنند. این ابزارها قابلیت دارند به‌طور گسترده و آزاد، در قالب بخشی از یک برنامه فراگیر برای ارتقای شفافیت رسانه‌ای و مقابله با سلطه رسانه‌ای انحصاری مورد استفاده قرار گیرند. تحقق این هدف مستلزم تلاش در راستای تصویب قوانین شفاف و مشخص، چه در سطح بین‌المللی و چه محلی، است؛ قوانینی که مانع بهره‌برداری از هوش مصنوعی برای دستکاری افکار عمومی شده و تضمین ‌کنند اطلاعاتی که در اختیار جامعه قرار می‌گیرد دقیق، بی‌طرفانه و بازتاب‌دهنده واقعیت بدون هیچ‌گونه سوگیری طبقاتی یا ایدئولوژیک باشد.

****

Rezgar Akrawi رزگار اکراوی، فعال مستقل چپ‌گرا، از علاقه‌مندان به اندیشه چپ و انقلاب تکنولوژیکی است و در حوزه توسعه سیستم‌ها و حکمرانی الکترونیک به‌عنوان کارشناس فعالیت می‌کند. او هماهنگ‌کننده «مرکز مطالعات و تحقیقات مارکسیستی و چپ» (به زبان عربی) و بنیان‌گذار و مدیر هماهنگ‌کننده پایگاه اینترنتی www.ahewar.org (گفت‌وگوی نو) است؛ یکی از مهم‌ترین برنامه‌های رسانه‌ای چپ و مترقی در جهان عرب.

گزیده هایی از کتاب منتشر شده من با عنوان “هوش مصنوعی سرمایه داری: چالش های چپ و جایگزین های ممکن – فناوری در خدمت سرمایه یا ابزاری برای آزادی؟”، که قبلا به چندین زبان ترجمه شده است.

 لینک رایگان کتاب:

https://play.google.com/store/books/details?id=vf5kEQAAQBAJ

print
مقالات
سکولاریسم و لائیسیته
  • لائیسیته در قدرت و سکولاریزاسیون در جامعه ایران – جلال ایجادی
    (بخش 1): جامعه ایران نیازمند یک مبارزه بزرگ فکری در باره سکولاریزاسیون و لائیسیته است. بررسی رشد گیتی مداری و عرفی گرایی در جامعه کنونی و ضرورت تدارک یک قدرت سیاسی لائیک پس از رژیم اسلامی، از چالش های
  • یاد و خاطره خانجان جبل عاملی گرامی باد!
    با تاسف و ناباوری بسیار باخبر شدیم رفیق دیرین و دوست مهربانمان خانجان جبل‌عاملی (بهمن) سه‌شنبه ۱۳ خرداد ۱۴۰۴ (سوم ژوئن ۲۰۲۵)، در استکهلم زندگی را وداع گفت.‬‬‬‬‬‬‬‬ خانجان فرزند رشیدخان بود که در سال ۱۳۴۳ (۱۹۶۴میلادی)، در تهران توسط رژیم شاه اعدام شد.
  • سکولاریسم (Laïcité): تبیین، کاربردها و چالش‌ها در جوامع امروز
    سکولاریسم، مفهومی اساسی در جوامع مدرن، به دنبال یافتن راهی برای همزیستی مسالمت‌آمیز میان آزادی وجدان، برابری شهروندان و بی‌طرفی دولت در جوامعی است که با تنوع مذهبی فزاینده‌ای روبرو هستند. با این حال، تعریف و اجرای این مفهوم در کشورهای مختلف می‌تواند به طور چشمگیری متفاوت باشد، حتی در دو کشور همسایه
  • روابط دین و دولت در فرانسه
    تاریخچه‌ی «دین فرانسوی» و چالش‌های امروزه‌ی لائیسته: **مقدمه** در میانه‌ی بحث‌های داغ و غالباً مبهم امروز پیرامون مفهوم لائیسته (سکولاریسم دولتی) در فرانسه، اثر ژان-فرانسوا کولوسیمو با عنوان «دین فرانسوی»
Visitor
0268001
Visit Today : 709
Visit Yesterday : 803