چگونه مایلید از توسعه فناوری هوش مصنوعی برای ایجاد تعامل بیشتر استفاده کنید؟ پاسخها شامل جمعآوری حجم زیادی از نظرات گروههای عضو به عنوان مبنایی برای توسعه سیاستها، ایجاد قالبهای هوشمند و جذاب برای شکلدهی افکار عمومی و ارتباطات، سادهسازی فرآیندهای تصمیمگیری، و ایجاد ارتباطات مرتبطتر با بازیگران اجتماعی میشود. اینها مثالهای زیادی از نحوه استفاده از این توسعه فناوری برای ایجاد تعامل بیشتر هستند.
حالا قصد داریم در مورد رسانههای اجتماعی، الگوریتمها، و تأثیر آنها بر سازماندهی و منابع جامعه مدنی و همچنین نفوذ سیاسی صحبت کنیم. بنابراین، موضوع بسیار گستردهای است.
مهمانان برجستهای نیز داریم که در این زمینه به ما دانش و بینش خواهند داد.
اولین نفری که میخواهم به گرمی به او خوشآمد بگویم، در دنیای دیجیتال، گابریلا اسکاروکینو است. او از دانشگاه لوند است. او دانشیار مددکاری اجتماعی است و از جمله، در مورد چگونگی تأثیر استفاده از رسانههای اجتماعی بر عضویت، نفوذ سیاسی، و مشارکت در جامعه مدنی تحقیق میکند. به او وظیفهای الهامبخش، شاید کمی ناممکن، داده شده است که در حدود 20 دقیقه، دانش و بینشهایی را در مورد الگوریتمها و نحوه تأثیر آنها بر سازماندهی جامعه مدنی برای ما توضیح دهد.
پس، گابریلا، کلمه را به شما میدهم.
-
گابریلا: ممنون! این وظیفهای است که تقریباً به هوش مصنوعی نیاز دارد تا در 20 دقیقه مدیریت شود. من همانطور که گفتید، گابریلا هستم و حدود 20 سال است که در مورد و روی رسانههای اجتماعی تحقیق میکنم. ما اطلاعات زیادی در مورد الگوریتمها و تأثیرات آنها بر جامعه مدنی به روشهای مختلف داریم. بنابراین، قصد دارم به طور کلی مرور کنم که تحقیقات چه گفتهاند و چه میگویند، و همچنین به این سؤال بپردازم که چه مسائلی برای تحقیقات آینده مهم هستند. بسیاری از این نکاتی که مطرح کردم، در صبح امروز نیز به نوعی مطرح شدند. اما شاید در اینجا روشی متفاوت و مفاهیم دیگری را برای شما ارائه دهم. حالا ببینیم. اوه.
اما شاید چیزی که فکر میکنم مهم است… ما به این موضوع اشاره کردهایم و میدانم که در مورد هوش مصنوعی صحبت میکنیم. الگوریتم چیست؟ این نوعی از هوش مصنوعی است که مدتهاست وجود دارد و ما شروع به صحبت در مورد آن کردهایم. هرچه بیشتر، فکر میکنم این بخشی از هوش مصنوعی است که ما تا حدی در مورد آن آگاهی داریم. این بیشتر در مورد این است که، همانطور که قبلاً گفته شد، اطلاعات زیادی وجود دارد و الگوریتمها به نوعی به مرتبسازی و اولویتبندی این اطلاعات کمک میکنند تا کسانی که در رسانههای اجتماعی هستند، آنچه را که اتفاق میافتد بر اساس آن دریافت کنند. و همانطور که گفته شد، این پلتفرمها متعلق به شرکتها هستند و البته منافع مالی نیز وجود دارد و همچنین کمبود شفافیتی که قبلاً به آن اشاره کردیم، در مورد نحوه کدگذاری و اولویتبندی آنها وجود دارد. در تحقیقات، مدتهاست که بحث میشود که اینها بیطرف نیستند، بلکه سیاسی و ایدئولوژیک نیز هستند، همانطور که گاهی اوقات گفته و برجسته میشود.
و چرا داشتن دانش در مورد این موضوع برای جامعه مدنی بسیار مهم است؟ این عمدتاً به این دلیل است که، همانطور که امروز نیز به آن اشاره کردیم، اینها شرایطی را برای جامعه مدنی هم در مورد سازماندهی، هم منابع و هم تأثیر سیاسی ایجاد میکنند.
یکی از مواردی که… در تحقیقات زیاد در مورد آن نوشته شده است، رقابت بر سر جلب توجه در رسانههای اجتماعی است. “تلاش برای جلب توجه”. و سپس گفته میشود که این همان چیزی است که اساساً این را هدایت میکند. چیزی به نام “اقتصاد توجه” وجود دارد. و خود این اقتصاد توسط الگوریتمها کنترل میشود. و سپس تحقیقات… برای تحقیقات بسیار دشوار است که بدانند الگوریتمها چگونه کدگذاری شدهاند. بنابراین، آنها بیشتر بر روی این تمرکز کردهاند که بازیگران جامعه مدنی چه دانشی در مورد الگوریتمها دارند. آنها بسیار در مورد استراتژیها تحقیق کردهاند. آنها چه استراتژیهایی برای مدیریت اینها به روشهای مختلف دارند؟ و غیره. اما دانش در مورد نحوه کدگذاری خود آنها، به نظر من، گاهی اوقات ناقص است.
اما بسیاری از… و بسیاری از شما با این موضوع آشنا هستید، بسیاری از سازمانها درگیر این موضوع هستند و در مورد چگونگی ایجاد توجه بسیار بحث میکنند؛ مهم است که محتوایی داشته باشید که ارتباط ایجاد کند. باید در رسانههای اجتماعی تعامل ایجاد کنید و محتوا نیز باید شخصی باشد. زیرا معمولاً این همان چیزی است که… تعامل ایجاد میکند. میدانم که اعتراضات سلفی و غیره وجود دارد که به نوعی باعث میشود فردی دیده شود و چهرهای داشته باشد.
در مورد ایجاد “حبابهای فیلتر” بسیار بحث شده است، اینکه عبور از اینها و شنیده شدن صدای فرد بسیار دشوار است. این چیزی است که صبح امروز در مورد آن بحث شد و در تحقیقات نیز در مورد نقش این حبابهای فیلتر و اینکه اصلاً تا چه حد وجود دارند، کمی اختلاف نظر وجود دارد. اما اخیراً، محققان بسیار در مورد این ایده که بازیگران جامعه مدنی با الگوریتمها “گیر افتادهاند”، تأکید کردهاند. اینکه این چیزی است که فرد باید بپذیرد. فرد فقط باید با وضعیت کنار بیاید. فرد باید این را بپذیرد. و واقعاً نمیتوان از این رقابت برای جلب توجه دوری کرد. و به همین ترتیب، دوری از آن، انتخاب عدم حضور و سازماندهی در رسانههای اجتماعی، بسیار دشوار است. بنابراین، این تا حدودی تصویری است که تحقیقات ارائه کردهاند.
در مورد تحقیقات در مورد سازماندهی از طریق رسانههای اجتماعی، تحقیقات زیادی وجود دارد و این موضوع برای مدت طولانی ادامه داشته است و آنچه به دست آمده این است که در سوئد، به عنوان مثال، ما سیستمی برای جامعه مدنی داریم و در مورد تأمین مالی، این معمولاً بر این اساس است که بخشی از سازمانهای رسمی جامعه مدنی است. اما آنچه در رسانههای اجتماعی دیدهایم این است که سازماندهی بیشتر و بیشتر در خارج از سازمانهای رسمی اتفاق میافتد، و این باعث میشود که استفاده از این سیستمی که ما داریم برای آنها دشوارتر شود. در عین حال، میتواند راهی برای شنیده شدن صدای فرد به روشی دیگر باشد و نیازی نیست که فرد خود را تسلیم الزامات موجود کند.
تحول دیگری که در طول سالها مشاهده شده است، این است که سازماندهی بیشتر و بیشتر از طریق انواع مختلفی از اشکال سازمانی انجام میشود، یعنی اعتراضات مختلفی وجود دارد، هم شبکهها و هم سازمانهای رسمی که مشارکت دارند و غیره. و بنابراین، آنها مسائل را با هم پیش میبرند.
تحول دیگری که در صبح امروز نیز کمی به آن اشاره شد، این است که ما در تحقیقات نیز میبینیم که سازمانهای دارای منابع بیشتر، در رسانههای اجتماعی نیز منابع بیشتری پیدا میکنند و این به دلیل این است که آنها فرصت کاملاً متفاوتی برای داشتن ارتباطگران حرفهای و غیره دارند، که دانش دیگری در مورد الگوریتمها و نحوه کار دارند. یا آنها کارمندانی دارند که میتوانند بنشینند و تعامل ایجاد کنند و غیره. این برای سازمانهای کوچک با منابع کمتر بسیار بسیار دشوارتر است.
بله، و حالا به مسئله منابع میرسیم، که مسئلهای است که همیشه برای من عزیز بوده است. ما مدت زیادی است که از رسانههای اجتماعی استفاده میکنیم، اما این کار با منابع تغییراتی ایجاد کرده است، و عدم قطعیت نسبتاً زیادی در مورد منابع وجود دارد، دقیقاً به این دلیل که رسانههای اجتماعی به نوعی، منابعی را ایجاد کردهاند که، چه بگویم، شاید جدید-قدیم باشند. زیرا گاهی اوقات شاید در مورد چیزهای جدید اغراق میشود، اما به هر حال به نوعی تعیین ارزش یک “لایک” یا ارزش یک “فالوور” در رسانههای اجتماعی بسیار دشوار است. آیا میتوان آن را با یک عضو پرداختکننده در یک سازمان یا کسی که یک طومار را امضا کرده است، مقایسه کرد؟ زیرا ما واقعاً نمیدانیم چه تعداد افراد واقعی پشت آن هستند. یا آیا فقط یک ربات هوش مصنوعی است؟ یا چه چیزی واقعی است؟ بنابراین ما همیشه باید به نوعی مراقب باشیم و راههای خوبی برای ارزشگذاری این موضوع پیدا نکردهایم.
در عین حال، این چیزی است که به روشهای مختلف ارزشگذاری میشود. تحقیقات نشان میدهد، همانطور که قبلاً اشاره کردم، که به طور کلی، به دست آوردن این منابع دیجیتالی در قالب لایک و فالوور و غیره دشوار است. این معمولاً چیزی است که برای به دست آوردن آنها و ایجاد تعامل و غیره نیاز به کار سخت دارد. اما گاهی اوقات اتفاق میافتد که برخی، مثلاً، مسئلهای شتاب میگیرد و سپس چیزی که ما آن را “مازاد منابع دیجیتال” مینامیم، اتفاق میافتد، جایی که در مدت زمان بسیار بسیار کوتاهی، همه چیز به سرعت پیش میرود و سپس اعتراضات یا کمپینهای بزرگ، یا آنچه که گاهی اوقات گسترش جهانی پیدا میکند، رخ میدهد. و این چیزی است که در رسانههای اجتماعی بسیار آسانتر شده و بسیار سریعتر اتفاق میافتد. و این نیز با کمک الگوریتمهای پشت صحنه هدایت میشود.
و در تحقیقات، در مورد اینکه کمبود بزرگ منابع امروز واقعاً در مورد این موضوع در تمام مدت است، صحبت شده است. این در مورد جلب توجه است. یعنی، کمبود منابع برای جامعه مدنی امروز، توجه است، به همین دلیل است که آنها همیشه به دنبال آن هستند. اما در تحقیقات ما، که من با هاکان یوهانسون، که او نیز استاد مددکاری اجتماعی است، انجام دادهام، دیدهایم که، بله، اما این کاملاً درست نیست زیرا معمولاً برای استفاده از منابع نیاز به هماهنگی است. و ما حداقل بر اساس تحقیقاتی که انجام دادهایم، معتقدیم که این چیزی است که امروز برای جامعه مدنی دشوار است. معمولاً زمانی که میبینید اتفاقی میافتد، مردم برای اشتراکگذاری یا غذا یا هر چیز دیگری، بسیار سریع هستند. اما در بسیاری از موارد، انجام کاری در مورد آن بسیار دشوار است. رساندن آن به نیازمندان به دلیل کمبود هماهنگی. و به همین ترتیب، در اعتراضات بزرگی که دیدهایم، تعداد کمی از افراد جنبش را هماهنگ میکنند. اما سپس این چیزی است که فرد شاید مجبور باشد تقریباً 24 ساعته با آن سر و کار داشته باشد.
این چیزی است که در رسانههای اجتماعی وجود دارد. واقعیتی که به نوعی فرد باید همیشه در اینها حضور داشته باشد و فرد باید سعی کند منابع خود را حفظ کند. سپس زمانی که آنها را به دست آورد. نیاز است.
ببخشید.
کار برای حفظ علاقه و مشارکت فالوورها. ما در مورد سندرم ققنوس بر اساس این پرنده اساطیری صحبت کردهایم، اینکه فرد باید به نوعی هر روز خود را بازسازی کند. و همیشه فالوورهای خود را علاقهمند نگه دارد و تعامل و غیره ایجاد کند. بنابراین، فرد به نوعی گاهی اوقات در حفظ علاقه جنبش خود گیر میافتد. و اینکه آنها باید بخشی از آن باقی بمانند. ببخشید، امروز کمی سرما خوردهام. اما فکر میکنم کمی آب بنوشم، این کمک میکند.
هنگامی که به نفوذ اجتماعی و سیاسی میرسیم. ما میبینیم که رسانههای اجتماعی برای شکلدهی افکار عمومی بسیار خوب هستند و برای مطرح کردن مسائل، برای جلب توجه و قابل مشاهده کردن اینکه میتوان حول یک مسئله گرد هم آمد، مفید هستند. در عین حال، این نیز محدودیت رسانههای اجتماعی است. معمولاً فرد حول یک مسئله گرد هم میآید اما بدون رنگ سیاسی، برای اینکه بتواند تودهها را جمع کند. اما سپس ادامه دادن دشوار است، زیرا به محض اینکه فرد شروع به ادامه دادن میکند، اینکه فرد راهحلی ایجاد کند، معمولاً از نظر سیاسی رنگی است، اینکه بسته به راهحلهایی که فرد برای یک مسئله میخواهد، چپ یا راست باشد، متفاوت است. برای به دست آوردن نفوذ سیاسی به کانالهای سنتی نیز نیاز است.
مشکل دیگری که من در مورد آن زیاد تحقیق کردهام، مسئله نفرت، تهدید و توهین است که در سخنرانی آغازین در مورد آن شنیدیم. و این چیزی است که ما نیز آن را یک مشکل میدانیم. زیرا به محض اینکه فرد قابل مشاهده میشود، هدف بزرگتری برای مورد تعرض قرار گرفتن نیز میشود. در تحقیقات ما دیدهایم که عمدتاً زنان جوان رهبران جامعه مدنی با پیشینه خارجی هستند که بیشترین قربانی نفرت، تهدید و توهین هستند. اما در تحقیقات دیگر نیز دیدهایم که سازمانها سعی میکنند خود را ناشناستر کنند. اینکه اطلاعات شخصی را از صفحات خود حذف میکنند و به این گستردگی دعوت نمیکنند زیرا از قرار گرفتن در معرض نفرت، تهدید و توهین میترسند. و شاید اینکه یک نماینده داشته باشند که چهره عمومی شود. و این البته یک مشکل دموکراتیک است. و به نظر من در سطوح مختلفی مشکل است، هم برای فرد و هم برای سازمان. اما از آنجایی که قوانین بازی این است که فرد باید قابل مشاهده باشد تا برای یک مسئله توجه جلب کند، این به یک مشکل بسیار بزرگ تبدیل میشود. زیرا ما شاهد تحولی هستیم که سازمانها خود را ناشناستر و نامرئیتر میکنند.
اما در سالهای اخیر اتفاقات زیادی افتاده است. زمانی که ما این کار را انجام دادیم، مدتی فکر میکردم… همیشه با توسعه فناوری چیزهایی اتفاق میافتد، اما همیشه به نظر میرسد که چیزهای جدیدی میآید و محققان… در مورد رسانههای اجتماعی. اما در سالهای اخیر در مورد توسعه فناوری هوش مصنوعی اتفاقات زیادی افتاده است. و در آنجا ما به عنوان محققان واقعاً فرصت کافی برای تحقیق در مورد انواع دیگر هوش مصنوعی را نداشتهایم. همانطور که آنه نیز اشاره کرد که هوش مصنوعی مفهومی بسیار گسترده است. اما برخی تحقیقات، از جمله در مورد تشخیص چهره، برنامههایی که در رسانههای اجتماعی استفاده شدهاند، وجود دارد. من فکر میکنم این در تظاهرات “جان سیاهپوستان مهم است” استفاده شد تا بتوان به سرعت و به طور خودکار افرادی را که اعتراض میکنند پیدا کرد. و سپس باید… اسمش چیست؟ برای استفاده از آن به عنوان… اسمش چیست؟ شواهد برای تعقیب قانونی. اما سپس دیگران… برنامهای برای تشخیص چهره استفاده کردند تا بتوانند به سرعت… به جای آن، چهرهها را با نماد این جنبش بپوشانند. بنابراین این نمونهای از فناوری است که اهمیت دارد. ما همچنین در مورد ChatGPT که در نوامبر 2022 آمد، زیاد صحبت کردهایم و تحقیقات نشان میدهد که از آن برای انجام تحلیلها و ایجاد مطالب استفاده میشود. و نه تنها برای جلب توجه. در رسانههای اجتماعی.
و در تحقیقات جامعه مدنی، در مورد این تحول بسیار صحبت شده است، در مورد اینکه چگونه از کار داوطلبانه به این سمت رفتهایم که سازمانها بسیار حرفهایتر شدهاند. این یک مسئله نسبتاً بزرگ در تحقیقات جامعه مدنی بوده است. اما سؤالی که من فکر میکنم جالب است، به نوعی اکنون است. خب، آیا اکنون از حرفهایسازی به سمت اتوماسیون میرویم؟ و این به چه معناست؟ آیا برخی از کارکردها؟ اگر به تحلیل سیاستها و ارتباطات فکر کنیم؟ آیا اینها توسط هوش مصنوعی انجام خواهند شد؟ ما قبلاً به آن اشاره کردیم. چه اتفاقی میافتد وقتی برنامههای هوش مصنوعی مختلف؟ آیا آنها با یکدیگر صحبت خواهند کرد؟ اما این چیزی که شما نیز به آن اشاره کردهاید، وجود دارد که مشکلاتی با دادهها وجود دارد، اینکه تعصب وجود دارد که شاید فرد در یک مجموعه داده باقی بماند، بنابراین مسائل جدیدی به نوعی خارج از این دادههایی که قبلاً داریم، مطرح نمیشوند، که ما در آن گیر میکنیم.
بنابراین، من فکر میکنم یکی از مهمترین سؤالات برای تحقیقات این است که چگونه میتوانیم کار تأثیرگذاری را در عصر خودکار بفهمیم و چگونه وظایف و ارزشهای مختلف جامعه مدنی میتواند در این فرآیند گنجانده شود. من فکر میکنم این چیزی است که باید بیشتر در مورد آن تحقیق کنیم و بیشتر بحث کنیم.
خیلی ممنون و ببخشید بابت سرفه.
-
میزبان: از شما بسیار سپاسگزارم برای این مرور بسیار قابل فهم و آموزشی در حوزه کاریتان. این بسیار جالب است و واقعاً به بسیاری از بخشهایی که امروز در مورد آنها صحبت کردیم، مربوط میشود، اما من همچنین میتوانم تصور کنم که ما در بیرون نشسته و کمی نگران هستیم که آیا در یک سازمان جامعه مدنی یا در یک نهاد دولتی یا شهرداری و غیره فعالیت میکنیم که در آن با این الگوریتمها روبرو میشویم و آنها به روشهای مختلف بر کار ما تأثیر میگذارند. گابریلا، کمی دیگر به شما باز خواهیم گشت. اما بسیار سپاسگزارم!
صدها بار تشویق دیجیتال برای شما، و ما همچنین دو مهمان دیگر داریم. یکی از طریق لینک و دیگری اینجا در استودیو.
ادی وگا، شما توسعهدهنده فعالیتها در شبکه “بخش ایدهمحور” در اسکانیا هستید، و همچنین لیزا موبرند را داریم. شما محقق ارشد در سازمان دفاع روانشناختی هستید، و من فکر کردم که ابتدا از شما ادی، بخواهم کمی کوتاه بگویید: شما و سازمانتان در زمینه آنچه گابریلا در مورد آن صحبت کرد، چه کسی هستید؟ پس صحنه از آن شماست، ادی.
-
ادی: متشکرم، ادی وگا، همانطور که گفته شد، از شبکه “بخش ایدهمحور” در اسکانیا. ما یک سازمان همکاری هستیم. سازمانی که بسیار نزدیک با سازمانها کار میکند. ما حدود 60 سازمان عضو داریم که سعی میکنیم به هر شکل ممکن از آنها حمایت کنیم. ما بیشتر با همکاری بین بخش ایدهمحور و بخش عمومی کار میکنیم. و وظیفه من در سازمان این است که سعی کنم راهحلهایی را برای استفاده بهتر از هوش مصنوعی ارائه دهم تا آنچه که دیدهایم در سازمانهای ما استفاده میشود. ما سعی میکنیم از الگوریتمها دوری کنیم و از الگوریتمهای سادهتر با تلاش کم استفاده کنیم، که آنها را اینگونه مینامیم. و یک لایک مطمئناً منجر به دیده شدن بهتر میشود. دو لایک – دیده شدن بهتر. و ما این کار را با پلتفرمهای خود در رسانههای اجتماعی انجام میدهیم. ما تحلیل میکنیم که چه چیزی لایک میگیرد و چه چیزی باعث مشارکت میشود. سپس سعی میکنیم دوباره آن را انجام دهیم. و به این ترتیب پلتفرم ما رشد میکند.
بزرگترین چالش در مورد آنچه گابریلا میگوید این است که ما سعی میکنیم آن حس انسانی را که مردم باید هنگام تماس با سازمانی که شاید با چالشهای اجتماعی سر و کار دارد، حفظ کنیم. ما سعی میکنیم آن را به نوعی دستنخورده نگه داریم. تمام این نقشهایی که سازمانها دارند، ما به هیچ وجه نمیخواهیم بر نحوه رفتار آنها در بیرون تأثیر بگذاریم. ما نباید با شرکتها برای جلب توجه رقابت کنیم، زیرا آنها قبلاً ابزارهای لازم را برای رقابت بر سر جلب توجه در رسانههای اجتماعی دارند و همچنین پول برای ایجاد پایگاه داده دارند. بنابراین کاری که ما انجام میدهیم، پیادهسازی راهحلهای ساده برای آزاد کردن زمان بیشتر برای فعالیتهای اصلی است. -
میزبان: ممنون! این یک مرور کوتاه بسیار خوب بود. کمی دیگر با شما ادی، با چند سوال بیشتر باز خواهیم گشت. اما لیزا، فکر میکنم شما را نیز اینجا از سازمان دفاع روانشناختی داریم. اینها سوالات بسیار جالبی هستند که متأسفانه یک روی تلخ نیز دارند. اما فکر میکنم قبل از اینکه به گفتگوی عمیق با همه برویم، دوربین را برای مدت کوتاهی به شما میدهم. اما لیزا، خوش آمدید!
-
لیزا: از شما بسیار سپاسگزارم! من لیزا موبراند هستم و از سازمان دفاع روانشناختی آمدهام. من در بخش توسعه قابلیتهای ما کار میکنم. و امروز وظیفه ناخوشایند این را دارم که کسی باشم که در مورد تهدیدها و آسیبپذیریها در این زمینه صحبت میکند. اما خب، کسی باید آدم ناخوشایند باشد.
و فکر میکنم گابریلا شروع خوبی برای بحث در مورد چالشهای عمومی هوش مصنوعی و همچنین نوع محیط رسانههای اجتماعی انجام داد. سازمان ما یک سازمان دفاعی است. این بدان معناست که ما سوئد را در برابر تأثیرات اطلاعاتی، یعنی اطلاعات نامناسب و نادرست با هدف گمراه کردن سوئد و مردم سوئد، محافظت میکنیم. و از آنجایی که ما یک سازمان دفاعی هستیم، هدف ما محافظت از سوئد در برابر قدرتهای خارجی است، اما همچنین در برابر شبکههای غیردولتی گسترده. اما دقیقاً در مورد تأثیرات اطلاعاتی، که در مورد ما تهدید محسوب میشود، این به آنچه ما آسیبپذیریها در محیط داخلی مینامیم، بستگی دارد. و علاوه بر این، یک پارادوکس در جامعه اطلاعاتی این است که تشخیص مرزهای بین ملی و بینالمللی دشوار است.
بنابراین من فکر کردم که یک مقدمه کوتاه در مورد تأثیرات اطلاعاتی و هوش مصنوعی ارائه دهم، و به خصوص اینکه چگونه یک سازمان جامعه مدنی باید با آن برخورد کند. زیرا من فکر میکنم تعریف تأثیر میتواند مثبت نیز باشد، اینکه یک سازمان جامعه مدنی میخواهد در مورد مسائل خود تأثیر بگذارد. اما آنچه من در حال حاضر در مورد آن صحبت میکنم، در مورد این است که چگونه یک سازمان جامعه مدنی نیز میتواند قربانی انواع مختلف تأثیر شود، حتی فریب بخورد یا به روشهای مختلف برای پیشبرد دستور کار عوامل تهدید مورد استفاده قرار گیرد.
به طور کلی، ما میدانیم که عوامل تهدید از هوش مصنوعی برای تولید متن و تصاویر و غیره استفاده میکنند. دیپفیک مسئلهای است که بسیاری مدتهاست در مورد آن صحبت میکنند. تصاویر متحرک نسبتاً پیچیده، و این میتواند منجر به این شود که فرد فکر کند فقط در مورد این است. اما ما اکنون در توسعه فناوریای قرار گرفتهایم که تولید انواع سادهتر محتوای تولید شده توسط هوش مصنوعی نسبتاً آسان است. همچنین میتوان از آن برای ترجمه سریع یک مطلب به زبانی دیگر، به عنوان مثال برای رساندن آن به یک گروه هدف خاص، استفاده کرد. و این در واقع… معمولاً گفته میشود که اگر فرد ببیند شش انگشت روی دست است، میداند که هوش مصنوعی است، اما این دیگر کاملاً درست نیست. دیدن اینکه چه چیزی هوش مصنوعی است، دشوارتر و دشوارتر میشود. و این نیز منجر به این میشود که دانستن اینکه چه چیزی درست است و چه چیزی نه، دشوارتر و دشوارتر شود. و الگوریتمهای رسانههای اجتماعی نیز منجر به این میشوند که محتوایی که شروع به انتشار میکند، بیشتر و بیشتر منتشر شود. چیزی که جالب است، ویروسی میشود، که باعث میشود بتواند منتشر شود. و واقعاً مهم نیست که درست باشد یا نه، بلکه به اندازه کافی هیجانانگیز است که مردم بخواهند آن را ببینند.
فرصتهای بیشماری برای استفاده از هوش مصنوعی در امور اداری وجود دارد. اما خطر این نیز وجود دارد که فرد از نحوه سوءاستفاده از آن آگاه نباشد. میدانم که گابریلا گفت که این مسئله حبابهای فیلتر شاید… اما من فکر میکنم یک حباب فیلتر خودساخته که قبلاً وجود دارد و یک آسیبپذیری در سیستم رسانهای ما است، این است که مردم اخبار خود را از جاهای مختلف دریافت میکنند. و آنها این کار را داوطلبانه انجام میدهند. اما به سادگی اینطور است که ما به مکانهای مختلف نگاه میکنیم، و این به نوبه خود نیز منجر به این میشود که آنچه ما اصلاً دیدهایم، مبهمتر و مبهمتر شود، زیرا ما دیگر چیزهای یکسانی را نمیبینیم، و این نیز یک آسیبپذیری است.
برای اینکه بدانم من به عنوان یک سازمان جامعه مدنی باید به چه چیزی توجه داشته باشم، در مورد من در کجا صحبت میشود؟ در آنجا میتوان البته از هوش مصنوعی به روش خوبی استفاده کرد، به عنوان مثال برای اینکه بفهمیم در مورد ما چه میگویند و در مورد ما چه صحبت میکنند؟ اما خطر این نیز وجود دارد که فرد نتواند متوجه شود که از او سوءاستفاده میشود یا اینکه اطلاعات نادرستی علیه او در جریان است. یکی از این چالشها این نیز هست که محتوای احساسی همیشه بیشتر از محتوای خشک و خستهکننده اما درست منتشر میشود. و این همان چیزی است که قدرتهای خارجی و همچنین عوامل تهدید یا مخالفان در کشور اغلب از آن استفاده میکنند. به عنوان مثال، از طریق یک محتوای احساسی قوی که میتواند درست باشد، اما از بافت خود خارج شده باشد، یا میتواند به دروغ کنار هم قرار گیرد یا کاملاً دروغ باشد. سپس میتوان واکنشها را برانگیخت. به عنوان مثال، میتوان تظاهرات را آغاز کرد. اکنون شواهد نسبتاً واضحی وجود دارد که شورشهای نژادپرستانه در بریتانیا در تابستان تا حد زیادی نیز توسط عوامل تهدید در قدرتهای خارجی هدایت شده بود، به عنوان راهی برای تحریک افرادی که قبلاً آسیبپذیر بودند.
همچنین بسیار سریع اتفاق میافتد، بنابراین پیشبینی اینکه در آینده چگونه خواهد بود، دشوار است. اما از آنجایی که میتوان محتوا را به صورت انبوه تولید کرد، میتوان محتوا را به سرعت برای گروه هدف مناسب کرد، برای آنچه فرد فکر میکند مردم میتوانند دریافت کنند. حتی تا جایی پیش رفته است که امکان تولید نه تنها به زبان صحیح، بلکه به لهجه صحیح نیز وجود دارد. سپس فرد واقعاً به قلب مردم نفوذ میکند.
چالش دیگری این است که ما، به خصوص در سوئد، تمایل داریم دولتها را به عنوان طرفی در نظر بگیریم که در چنین مسائلی در مورد قانونگذاری با آنها صحبت میشود، سازمانهایی مانند اتحادیه اروپا و سازمان ملل. اما در این مورد، قدرت در دست شرکتهای بزرگ بینالمللی است، که باعث میشود بسیاری از روشهای سنتی برای توافق در مورد نحوه تنظیم امور، واقعاً کارساز نباشند، و همچنین باعث میشود که دولتها و نهادهای فراملی مانند اتحادیه اروپا، در واقع کمی عقبتر کار کنند.
سپس این نیز بسیار مهم است که بدانیم این موضوع… معمولاً گفته میشود که خوبی هوش مصنوعی این است که به راحتی میتوان آن را به صورت رایگان دریافت کرد. اما در مورد رسانههای اجتماعی معمولاً گفته میشود که اگر چیزی رایگان است، شما کالا هستید. من فکر میکنم این برای جامعه مدنی، به ویژه در حوزه فرهنگ و هنر، بسیار مهم است. زیرا ماشینها برای تمرین به چیزی نیاز دارند. و در اینجا ما یک مشکل داریم. علاوه بر مشکل حق چاپ، ما همچنین این مشکل را داریم که وقتی ماشینها، به اصطلاح، آثار هنرمندان را میگیرند و آنها را تغییر میدهند، و سپس به نوبه خود یک الگوریتم هوش مصنوعی دیگر شروع به تولید محتوا از آن میکند، در نهایت به آنچه “کثیفسازی” نامیده میشود، میرسیم، یعنی کیفیت به طور مداوم کاهش مییابد وقتی که دیگر یک هنرمند یا خالق پشت آن نیست. این همچنین منجر به نوعی بیمعنی بودن در بین مردم شده است، که وقتی دیگر نمیتوان انتظار داشت که کار یا کیفیتی در چیزی وجود داشته باشد، اعتماد به هنر، موسیقی و غیره نیز کاهش مییابد. اگر همه چیز را بتوان به راحتی و به سرعت ایجاد کرد. من فکر میکنم این به طرق مختلف مشکل جامعه مدنی است.
همچنین خطر هوش مصنوعی وجود دارد، زیرا فرد میداند که هوش مصنوعی معمولاً زیاد فکر میکند. همیشه نمیتوان به آنچه هوش مصنوعی میگوید اعتماد کرد که حقیقت دارد. در این صورت، اگر از هوش مصنوعی برای کار سیاستگذاری استفاده شود، این خطر وجود دارد که فرد به سادگی از صحت منابع مطمئن نباشد. این یک آسیبپذیری است که بررسی حقایق دشوار است. مشکل است که منابع را ذکر کرد. همچنین دشوار است که بدانیم همه چیز از کجا منشأ میگیرد. مشکل بزرگ این است که وقتی فرد دیگر نمیداند چه چیزی درست است و چه چیزی دروغ، شاید به مطالب واقعی اعتماد نکند. عوامل تهدید اغلب میخواهند از احساس اینکه فرد واقعاً نمیتواند بداند چه چیزی درست است، سوءاستفاده کنند، زیرا این مسئله بزرگ دموکراتیک است.
دموکراسی و جامعه دموکراتیک. جامعه مدنی سوئد بر این اساس بنا شده است که مردم علاقهمند به مشارکت هستند و روند انجام این کار را میفهمند. و این خطر وجود دارد که اگر فرد احساس کند که واقعاً مهم نیست چه اتفاقی میافتد، به سادگی علاقه خود را به دموکراسی از دست بدهد. متأسفانه، اندازهگیریهایی وجود دارد که نشان میدهد هم مردان و هم زنان در سنین پایینتر به دلایل کاملاً متفاوتی از نظر سیاسی حرکت میکنند، تا حدی به این دلیل که چیزهای متفاوتی را در رسانههای اجتماعی میبینند. آنها به سادگی در مورد حقایق توافق ندارند. اما همچنین بسیاری احساس نوعی ناامیدی در مورد مشارکت دارند.
من فکر میکنم بسیار مهم است که از این خطر و این نوع تأثیر اطلاعاتی که علیه جامعه مدنی استفاده میشود آگاه باشیم. این نوع تأثیر اغلب سعی میکند از تمایل مردم به انجام کارهای خوب سوءاستفاده کند، اما بر اساس شاید کمبود دانش یا دشواری آنها در دریافت اطلاعات صحیح بازی میکند. بنابراین این خطر وجود دارد که محتوای بسیار جذابی به فرد ارائه شود که فرد میتواند از آن استفاده کند و بگوید “چه عملی، این خوب است!” و به این ترتیب به انتشار چیزی کمک میکند که حقیقت ندارد، چیزی که احساسات را برمیانگیزد اما حقیقت ندارد. اینها برخی از آسیبپذیریها و مشکلاتی هستند که هوش مصنوعی به همراه دارد. و در برابر جامعه مدنی، ما اغلب میبینیم که از ایدهآلگرایی و تمایل مردم به کمک با ارائه محتوای دروغ به آنها سوءاستفاده میشود. این همچنین یک قطبی شدن در جامعه ایجاد میکند که من فکر میکنم برای بازیگران جامعه مدنی مهم است که به آن توجه کنند.
-
میزبان: بسیار ممنون، لیزا! شما میگویید که باید اخبار ناخوشایند را ارائه دهید، اما من همچنین فکر میکنم که دانش و آگاهی از آسیبپذیریها برای اینکه بتوانیم کنترل آنها را به دست بگیریم و با استراتژیهای موثر با آنها مقابله کنیم، مهم است. و هیچکس نمیتواند قدرت رسانههای اجتماعی و الگوریتمها را در تغییرات اجتماعی نادیده بگیرد. در برخی از انواع سازمانها، این برای دستیابی به تأثیری که نیاز داریم، حیاتی بوده است. یا برای یک انجمن کوچک برای رسیدن به هدف. یا برای یک سازمان بزرگ برای واقعاً گفتگو با یک طرف در مورد آن.
ادی، اگر هنوز با ما در تصویر هستید، از دیدگاه خودتان، چگونه الگوریتمها بر کار شما در شبکه شما تأثیر میگذارند؟
-
ادی: ما سعی نمیکنیم به الگوریتمها به این شکل فکر کنیم، زیرا میدانیم که نمیتوانیم روی آنها تأثیر بگذاریم. ما نمیتوانیم کاری بیشتر از تحلیل آنچه انجام میدهیم و ایجاد تصویری از الگوریتمها برای خودمان انجام دهیم. اما ما خیلی به سمت بیرون کار نمیکنیم، بلکه بیشتر در داخل با آن کار میکنیم. ما دقیقاً از هوش مصنوعی برای بررسی منابع داده مختلف و غیره برای مدیریت چنین کارهایی استفاده میکنیم. اما دقیقاً الگوریتمها و از این قبیل، همانطور که گفتیم، سعی میکنیم با شعار قدیمی “یک لایک، دو لایک، دیده شدن” کار کنیم. اگر چیز جالبی برای گفتن برای سازمان ما، اعضای ما داشته باشیم، هدف ما یک گروه هدف بسیار بسیار مشخص است. بنابراین ما نیازی به صرف انرژی زیاد بر روی الگوریتمها نداریم، دقیقاً در جایی که یک مسئله اجتماعی باید مطرح شود. در این صورت، وقتی در مورد گروه هدف و محل حضور آنها در کشور صحبت میکنیم. اما ابزارهایی وجود دارد که ما برای این کار از آنها استفاده میکنیم.
-
میزبان: دقیقاً. شما میگویید که شما توانستهاید این حس سنتی جنبش مردمی را حفظ کنید، اما روی این پلتفرمها فعالیت میکنید بدون اینکه زیاد تحت تأثیر قرار بگیرید تا به آنها اجازه دهید آنچه را که باید منتشر کنید، کنترل کنند.
-
ادی: بله، دقیقاً. وقتی با سازمانهای عضو خود صحبت کردهایم، آنها همیشه این را مشکلساز کردهاند. دقیقاً این حس انسانی، که اگر قرار باشد یک الگوریتم تصمیم بگیرد چه چیزی منتشر شود و چه چیزی منتشر نشود، یا زمانی که مردم مطالب هوش مصنوعی را مستقیماً منتشر کردهاند، کار اضافی میشود. اینکه کسی باید وارد شود و بررسی کند که آیا درست است یا ویرایش کند. و به همین دلیل ما در واقع سعی میکنیم به سوالات زبان طبیعی با جمعآوری دادههای طبیعی پایبند باشیم. به عنوان مثال، میتوانیم در مورد شمارههای SNI (کد ملی فعالیت اقتصادی)، یا سازمان، محل حضور آنها در کشور صحبت کنیم و آن را با تعداد افرادی که در آن شهرداری خاص در کشور وجود دارند، ترکیب کنیم. بنابراین، این کار داخلی را احتمالاً با الگوریتمهای خودمان انجام میدهیم. اما در بیرون، احساس میکنیم که نمیتوانیم با این اقتصاد توجه با شرایط یکسان رقابت کنیم. ما هنوز باید حاملان صدا، مجریان و نوآوران باشیم. و دقیقاً این بخش نوآوری است که ما سعی میکنیم از هوش مصنوعی برای کارایی بخشیدن به کار پشت صحنه و داشتن زمان بیشتری برای فعالیتهای اصلی و داشتن ارتباط انسانی بیشتر استفاده کنیم.
-
میزبان: دقیقاً، شنیدن چنین مثالی هیجانانگیز بود. بازگشت به ریشهها، قبل از این. فرد مجبور بود برای جلب تمام توجه در اینها بجنگد و لایک جمع کند. شنیدن اینکه چگونه شما تصمیم میگیرید در این پلتفرم و در دنیایی که در آن زندگی میکنیم، حرکت کنید، بسیار رهاییبخش است.
فکر کردم گابریلا، بر اساس توضیحات شما. یک بررسی که سال گذشته داشتیم را به یاد میآورم، که در آن در مورد آنچه شما در پایان نیز اشاره کردید، صحبت کردیم. هنگام فکر کردن به هوش مصنوعی در این حوزه، چه فنونی را از دست میدهیم؟ چه چیزهایی وجود دارد که باید در مورد آنها هوشیار باشیم؟ شما در بخش پایانی به چند مورد اشاره کردید، اما در مورد فنون مرتبط با هوش مصنوعی و مرتبط با سازماندهی، چه چیزی برای افزودن دارید؟ دقیقاً چه چیزی را از دست میدهیم؟
-
گابریلا: نه، این سوال خوبی است و دشوار. هوش مصنوعی بسیار توسعه یافته است. همانطور که آنه گفت، این یک وسیله است. و بخشهای مختلفی دارد. بنابراین من فکر میکنم بسیار مهم است که به نوعی، همانطور که او اشاره کرد، مفهوم را بشکنیم تا کمی بدانیم چه نوع فناوریای استفاده میشود، نه تنها توسط سازمانها، بلکه بیشتر و بیشتر استفاده میشود و بیشتر در مورد آن تحقیق کنیم. و من در مورد این Open AI و غیره فکر میکنم، میبینیم که نسبتاً سریع پذیرفته شده است. طول نکشید که بسیاری به آن بخش نیز روی آوردند، برای آنچه که ما در مورد خلاصهسازی و آن نوع استفاده صحبت کردیم. و این میتواند برای بسیاری از کارها خوب باشد و زمان را آزاد کند، همانطور که اشاره کردیم. اما البته عواقب پیشبینی نشده دیگری نیز وجود دارد. من فکر میکنم این بخشی از دیجیتالی شدن است که پیشبینی عواقب آن بسیار دشوار است، بسیاری از اوقات عواقب پیشبینی نشدهای وجود دارد که نیاز به تحقیق نیز دارد، بدون اینکه بگوییم مثبت هستند یا منفی. زیرا میتواند هم مثبت و هم منفی باشد. و به دیدگاه نیز بستگی دارد.