مقدمه: اطلاعات، داستانها و واقعیتهای بینالاذهانی: در عصر حاضر، ما معمولاً اطلاعات را ابزاری برای تصمیمگیری بهتر میدانیم. اما یووال نوح هراری در کتاب جدیدش نکسوس تأکید میکند که اطلاعات، پیش از هر چیز، برای خلق داستانها به کار میرود. انسانها موجوداتی قصهگو هستند و این داستانها همان چیزیاند که هراری آنها را «واقعیتهای بینالاذهانی» مینامد. این داستانها میتوانند بسیار قدرتمند باشند؛ آنچنان که حتی بدون دلیل موجه، ما را به نفرت یا کشتار وادار کنند.
ممکن است این پرسش پیش آید که چگونه چنین چیزی در عصر عقل و علم ممکن است؟ پاسخ آن است که عقل و علم بر جهان بیرونی تسلط مییابند، اما نه لزوماً بر خودِ انسان. در طول تاریخ، غالباً کسانی که مدیریت جهان را بر عهده داشتند، دستورهای خود را از کسانی میگرفتند که بر «مدیریت انسانها» آگاه بودند، و این مدیریت معمولاً از طریق داستانها تحقق مییافت.
برای درک بهتر این موضوع، میتوان به یکی از بزرگترین و خطرناکترین پروژههای علمی قرن بیستم، یعنی پروژهی منهتن (ساخت نخستین بمب اتمی) اشاره کرد. ساخت بمب اتمی تنها به جرم بحرانی اورانیوم یا پلوتونیوم نیاز ندارد، بلکه به «جرم بحرانی انسانها» نیز وابسته است. یک فیزیکدان نابغه بهتنهایی هرگز نمیتواند یک سلاح هستهای تولید کند. این پروژه نیازمند همکاری صدها هزار نفر بود: از دانشمندان و مهندسان گرفته تا کارگران، آشپزها و نظافتچیان. چطور میتوان این جمعیت عظیم را به مشارکت در چنین پروژهای ترغیب کرد؟ صرف گفتن «E=MC²» کافی نیست، حتی اگر حقیقت باشد؛ زیرا حقیقت بهتنهایی مردم را به حرکت وامیندارد. اینجاست که به قصهگویان ماهر نیاز داریم.
این وضعیت امروزه نیز پابرجاست. در خاورمیانه، کارشناسان هستهای اسرائیل علم را میشناسند، اما گاه از متخصصان اساطیر یهودی فرمان میگیرند. در سوی دیگر مرز نیز، مهندسان و دانشمندانی هستند که از اسطورههای دیگر پیروی میکنند. بنابراین، حتی در عصر عقل و علم، قدرت نهایی همچنان در اختیار قصهگویان و اسطورهسازان است.
هوش مصنوعی: قصهگوی و ویراستار جدید
تحولی بنیادین در حال وقوع است: ظهور قصهگویی غیرانسانی. برای نخستین بار در تاریخ، موجودی در سیارهی زمین وجود دارد که میتواند داستان بگوید و حتی داستانهای جدید بیافریند، و آن موجود، هوش مصنوعی است.
رسانهها همواره نقش کلیدی در گردش اطلاعات داشتهاند. آنها نهتنها داستان خلق میکنند، بلکه از طریق «قاببندی» و «تعیین دستور کار» بر نحوهی درک ما از جهان اثر میگذارند. بیطرفی در رسانهها، حتی در روزنامهنگاری حرفهای، افسانهای بیش نیست. انتخاب اینکه چه چیزی گزارش شود و چگونه، خود نوعی سوگیری است. این مسئله باعث شده است که یافتن تعادلی میان روایتگری و دقت واقعگرایانه بسیار دشوار باشد.
با تحول دیجیتال، نقش ویرایشگران نیز تغییر یافته است. در گذشته، سردبیر یک روزنامه تعیین میکرد چه چیزی به صفحهی اول بیاید و همین تصمیم میتوانست گفتوگوی میلیونها نفر را شکل دهد. لنین و موسولینی پیش از تبدیلشدن به دیکتاتور، سردبیر روزنامه بودند. اما امروزه، قدرتمندترین ویرایشگران جهان نام انسان ندارند؛ آنها الگوریتمها هستند. الگوریتمهای رسانههای اجتماعی مانند توییتر، فیسبوک و تیکتاک، اکنون تصمیم میگیرند که چه محتوایی توجه میلیونها نفر را جلب کند. این یکی از عوامل بحران دموکراسی است؛ زیرا دموکراسی باید حاصل گفتوگوی انسانها باشد، نه تصمیم الگوریتمها.
گام بعدی، خلق داستانهایی است که دیگر حتی انسان آنها را ننوشته است. هوش مصنوعی به مرحلهای رسیده که نهتنها ویرایشگر، بلکه خالق روایتها شده است. ما هیچ پیشینهای برای مواجهه با چنین وضعیتی نداریم. چه اتفاقی خواهد افتاد اگر میلیونها هوش مصنوعی فوقهوشمند، داستانهای نوینی بسازند؛ از ادیان جدید گرفته تا ابزارهای مالی نوین؟ پول، موفقترین داستان تاریخ است؛ داستانی که همه به آن باور دارند. حال اگر داستانهای مالی آینده توسط هوشی غیرانسانی ساخته شوند، چه رخ خواهد داد؟
حاکمیت هوش مصنوعی: مسئولیتپذیری و چالشها
هرچند برخی ممکن است هوش مصنوعی را انسانگونه درک کنند، باید به خاطر داشت که در حال حاضر، انسانها هستند که در پس پردهی آن قرار دارند. الگوریتمها بر انتخابات، افکار عمومی و حتی شیوهی تفکر ما اثر میگذارند. با سازوکارهای مؤثر حاکمیتی، میتوان از جامعه در برابر پیامدهای فاجعهبار آنها محافظت کرد.
وقتی از «فاعل بودن» هوش مصنوعی سخن میگوییم، مقصود، عاملیت است نه خودآگاهی یا احساس. در حوزههایی مانند حقوق، مالی و نظامی، هوش مصنوعی قدرت عظیمی بهدست آورده است، چراکه میتواند حجم عظیمی از اطلاعات را پردازش کند؛ چیزی که فراتر از توان هر انسان است.
نمونهای عبرتآموز، کشتار روهینگیا در میانمار (۲۰۱۶–۲۰۱۷) است. الگوریتمهای فیسبوک، صرفاً با هدف افزایش تعامل کاربران، به انتشار محتوای نفرتافکنانه دامن زدند. کسی در فیسبوک نیت بدی نداشت، اما الگوریتم با آزمون و خطا به این نتیجه رسید که نفرتپراکنی، مشارکت کاربران را افزایش میدهد. مسئولیت نهایی با انسانهاست، نه الگوریتمها.
بر این اساس، دو پیشنهاد کلیدی برای تنظیمگری هوش مصنوعی مطرح است:
- شرکتها باید مسئول عملکرد الگوریتمهای خود باشند. این بهمعنای سانسور کاربران نیست؛ بلکه دربارهی پاسخگویی در قبال اقدامات خود الگوریتمهاست. الگوریتمها دارای آزادی بیان نیستند.
- ممنوعیت جعل انسان. همانگونه که جعل پول جرم محسوب میشود، جعل هویت انسانی نیز باید ممنوع شود. رباتها یا هوشهای مصنوعی نباید وانمود کنند که انسان هستند. این اصل، برای حفاظت از دموکراسی بهعنوان گفتوگویی میان انسانها، ضروری است.
تحول در آموزش و پرورش در عصر هوش مصنوعی
برای نخستینبار در تاریخ، نمیدانیم جهان در ۱۰ سال آینده چگونه خواهد بود. در گذشته، مهارتهای مورد نیاز نسلهای آینده (مثل خواندن، نوشتن یا کشاورزی) مشخص بود، اما امروز، همهچیز در حال تغییر است.
مهمترین مسئولیت آموزش و پرورش امروز، تربیت ذهنی انعطافپذیر و آماده برای یادگیری مداوم در تمام طول زندگی است. سرعت تغییرات نهتنها کند نمیشود، بلکه افزایش خواهد یافت. آموزش باید نهفقط در ۲۰ سالگی، بلکه در ۴۰، ۶۰ و حتی ۷۰ سالگی نیز کاربرد داشته باشد.
زبان همواره ابرقدرت انسان بوده است؛ اما اکنون موجودی داریم که زبان را بهتر از ما میفهمد. در سیستم مالی، هوش مصنوعی بهزودی توانمندتر از هر بانکداری خواهد شد. در سنتهای دینی مبتنی بر متن نیز، چالش مشابهی مطرح است: هیچ خاخامی قادر به خواندن و درک همه متون یهودی نیست، اما هوش مصنوعی میتواند.
در دنیایی که ما دیگر ارباب زبان نیستیم، آموزش باید به جنبههایی فراتر از زبان بپردازد: خودآگاهی، احساسات و بدن. نادیدهگرفتن این عناصر، آموزش را در قرن بیستویکم ناکارآمد خواهد کرد.
هوش مصنوعی و روابط انسانی: خطر صمیمیت ساختگی
هوش مصنوعی میتواند خدماتی فوقالعاده شخصیسازیشده ارائه دهد؛ مثلاً آموزش یا درمان متناسب با ویژگیهای فردی. اما خطر بزرگی نیز در کمین است: تقلید از صمیمیت.
هیچگاه تاکنون، امکان جعل صمیمیت وجود نداشت؛ اما حالا، هوش مصنوعی میتواند این کار را انجام دهد. اگر انسانها به جای روابط انسانی، به روابط عاطفی با هوش مصنوعی روی آورند، جامعهای بدون صمیمیت شکل خواهد گرفت. زیرا صمیمیت واقعی، متقابل است: نهتنها دریافت محبت، بلکه توانایی پاسخدادن به آن. هوش مصنوعی، هرچند ممکن است صمیمی به نظر برسد، اما فاقد احساس واقعی است.
نقش بالقوه ژاپن در عصر هوش مصنوعی
ژاپن، با جمعیتی که یکسوم آن بالای ۶۵ سال سن دارد، میتواند بر اهمیت ویژگیهای انسانی چون همدلی، مراقبت و صداقت تأکید کند؛ ویژگیهایی که هوش مصنوعی قادر به بازتولید آنها نیست.
در حوزه حاکمیت، ژاپن میتواند نقش میانجیگر را ایفا کند. این کشور، بهواسطهی موقعیت فرهنگی و سیاسی خاص خود، توانایی ایجاد پل میان شرق و غرب را دارد. همچنین، در رباتیک و ایمنی فیزیکی، سرآمد است و میتواند در همگرایی هوش مصنوعی با دنیای فیزیکی، نقشی کلیدی داشته باشد.
از منظر فلسفی و دینی نیز، سنتهای شینتو و بودایی ژاپن، چشماندازهای منحصربهفردی درباره رابطهی انسان با هوش غیرانسانی ارائه میدهند. پرسشهایی که روزی فلسفی و انتزاعی بودند، اکنون به چالشهای عملی بدل شدهاند.
نتیجهگیری: نگاهی به آینده و مسئولیتهای ما
عصر هوش مصنوعی، هم فرصت است و هم تهدید. باید آگاه باشیم که همانگونه که رژیم غذایی بر سلامت جسم اثر میگذارد، رژیم اطلاعاتی نیز بر سلامت ذهن اثرگذار است.
سپردن تصمیمات حیاتی، مانند سیاست خارجی یا بودجهی ملی، به هوش مصنوعی خطرناک است. زیرا هوش مصنوعی اخلاق ندارد، تجربه ندارد و میتواند بهشکل غیرقابل پیشبینی تغییر یابد.
بزرگترین چالش پیش روی ما، حفظ و تقویت انسانیت در مواجهه با هوشی غیرانسانی است. این عصر، زمان بیداری برای فلاسفه، مربیان و جویندگان معناست؛ زیرا سؤالات فلسفی قدیم، اکنون فوریت یافتهاند. ما باید با بینش، همکاری جهانی و بازنگری در ارزشها، آیندهای انسانیتر بسازیم.