در عصر حاضر، هیچ مبحثی به اندازه هوش مصنوعی (AI) توجه متخصصان، سیاستمداران و عموم مردم را به خود جلب نکرده است. در میان این بحثها، دیدگاههای یووال نوح هراری، تاریخدان و آیندهپژوه برجسته، به دلیل عمق و وسعت نگاهشان، از اهمیت ویژهای برخوردارند. هراری معتقد است که بشریت در آستانه تحولی بیسابقه قرار دارد و این تحول، در کنار پتانسیلهای عظیم، خطرات مهیبی را نیز در پی دارد که مهمترین آنها به “بحران اعتماد” در جهان گره خورده است.
هوش مصنوعی و بحران اعتماد جهانی
هراری با صراحت اعلام میکند که مهمترین نیازی که بشر در مواجهه با هوش مصنوعی دارد، بازسازی اعتماد است. او توضیح میدهد که یکی از دلایل فروپاشی نظم جهانی، کمبود اعتماد است که ما را در برابر هوش مصنوعی به شدت آسیبپذیر میکند و همچنین تضمینکننده ظهور نوع بسیار خطرناکی از هوش مصنوعی خواهد بود که احتمالاً موفق به تصرف جهان از ما خواهد شد. این یک هشدار جدی است که نشان میدهد ریشههای خطر هوش مصنوعی نه فقط در خود فناوری، بلکه در ساختارهای اجتماعی و انسانی موجود است.
یکی از عمیقترین پرسشهایی که هراری مطرح میکند و دوست دارد از بودا بپرسد، مربوط به ماهیت آگاهی و حسگری است. او آگاهی را به عنوان ظرفیت رنج کشیدن و همچنین احساس شادی و عشق تعریف میکند. به گفته او، هیچ چیز دیگری در جهان، نه اتمها و نه کهکشانها، قادر به رنج کشیدن نیستند، تنها آگاهی این توانایی را دارد. از این رو، آگاهی محور اصلی تمام اخلاقیات است. رنج کشیدن به معنای رد واقعیت است؛ اتفاقی میافافتد و شما نه تنها آن را درک میکنید، بلکه آن را رد میکنید و نمیخواهید که باشد. هراری تفاوت بین یک ترموستات که دما را ثبت و به آن واکنش نشان میدهد (بدون رنج)، و یک موجود آگاه که واقعیت را رد میکند (با رنج)، را توضیح میدهد. سؤال اساسی برای هوش مصنوعی این است: آیا هوش مصنوعی میتواند رنج بکشد؟ آیا میتواند واقعیت را رد کند؟. هراری معتقد است هوش مصنوعی کنونی نمیتواند، اما این سؤال مهمی است که ما در حال یادگیری پاسخ آن هستیم و ممکن است قرنها طول بکشد.
هوش مصنوعی: ابزاری قدرتمند یا گونهای جدید؟
هراری در مورد رابطه شخصی خود با فناوری رویکردی محتاطانه دارد. او تلاش میکند از فناوری استفاده کند بدون اینکه توسط آن استفاده شود. او سالها تلفن هوشمند نداشت و اکنون نیز آن را تنها برای نیازهای اساسی مانند خدمات درمانی استفاده میکند و معمولاً آن را با خود حمل نمیکند. او آگاه است که فناوری قدرت تسخیر ذهن ما، شکل دادن به خواستهها و افکارمان را دارد. او با طعنه میگوید: “به همین دلیل به آن تلفن هوشمند میگویند، نه تلفن احمق”. او معتقد است که هوش مصنوعی نمیتواند در برابر تلاش برخی از باهوشترین افراد جهان برای دستکاری ذهنها مقاومت کند.
با این حال، هراری اذعان میکند که فناوری میتواند تأثیرات مثبتی نیز داشته باشد. به عنوان مثال، اینترنت و رسانههای اجتماعی اولیه برای جامعه دگرباشان جنسی (LGBTQ+) یک موهبت بزرگ بود، زیرا به آنها کمک کرد تا یکدیگر را پیدا کنند و از انزوای جوامع کوچک و همجنسگراهراسانه خارج شوند. این توانایی اینترنت در ایجاد روایتهای مشترک و داستانهای جمعی است که هراری در کتاب “ساپینس” به عنوان نقطه عطف انقلاب شناختی و برتری انسان هوشمند بر دیگر گونهها توصیف میکند.
هراری در مورد اهمیت هوش مصنوعی در تاریخ بشر، آن را مهمتر از نوشتن میداند. در حالی که نوشتن تواناییهای گونهای را که از قبل بر سیاره مسلط بود (انسان هوشمند) گسترش داد، هوش مصنوعی، حداقل بر اساس برخی سناریوها، ظهور گونهای جدید است که میتواند جایگزین انسان هوشمند به عنوان شکل غالب حیات یا حداقل شکل غالب هوش روی زمین شود. او میگوید در حال حاضر نوشتن هنوز مهمتر است، اما در آینده، ظهور هوش مصنوعی میتواند یک رویداد در مقیاس کیهانی باشد؛ رویدادی که موجودات آینده ممکن است به آن به عنوان تولد “هوش غیرارگانیک” از “هوش ارگانیک” نگاه کنند. این یک موضوع بسیار عمیق است که پتانسیل هوش مصنوعی را از یک ابزار صرف فراتر میبرد و آن را به یک نیروی تکاملی بالقوه تبدیل میکند.
خطرات انقلاب هوش مصنوعی: طبقه “بیفایده” و سرعت تطبیق
یکی از بزرگترین خطراتی که هراری از آن یاد میکند، ظهور طبقه “بیفایده“ است. با پیشرفت هوش مصنوعی، بسیاری از مردم نه تنها شغل خود را از دست میدهند، بلکه تقریباً غیرقابل استخدام خواهند شد، زیرا حتی اگر مشاغل جدیدی ایجاد شوند، نیاز به مهارتهای کاملاً جدیدی خواهند داشت. مشکل این است که این یک تغییر یکباره نیست؛ بلکه آبشاری از انقلابهای مخرب فزاینده خواهد بود که مستلزم بازآموزی مداوم جمعیت است، و این سؤال مطرح میشود که چه کسی قرار است زمان و منابع مالی لازم را برای این بازآموزی مکرر سرمایهگذاری کند.
هراری تأکید میکند که مشکل اصلی سرعت تطبیق است. انسانها موجوداتی به طرز شگفتانگیزی انعطافپذیر هستند، اما ما در مقیاس ارگانیک تطبیق مییابیم، در حالی که با یک انقلاب غیرارگانیک یا دیجیتال روبرو هستیم که بسیار سریعتر حرکت میکند. او معتقد است که اگر بتوانیم به بشریت زمان بدهیم تا با تغییرات اقتصادی و اجتماعی تطبیق یابد، اوضاع خوب خواهد بود، اما ترس او این است که ما آن زمان را نداریم، زیرا انقلاب با سرعتی بیسابقه در تاریخ پیش میرود.
او به انقلاب صنعتی به عنوان یک قیاس رایج اشاره میکند. بسیاری در سیلیکون ولی میگویند که ترس از بیکاری و آشفتگیهای اجتماعی در زمان انقلاب صنعتی بیمورد بود و ۲۰۰ سال بعد، مردم مشاغل و کیفیت زندگی بسیار بهتری دارند. اما هراری به عنوان یک مورخ، هشدار میدهد که مشکل معمولاً “مقصد” نیست، بلکه “راه رسیدن” است. مسیر از ۱۸۰۰ تا ۲۰۰۰ یک ترن هوایی بود که در آن صدها میلیون نفر با رنج بیاندازه و گاهی با جان خود، بهای آزمایشهایی را پرداختند که چگونه یک جامعه صنعتی بسازیم.
او به دو آزمایش بزرگ اشاره میکند:
- امپریالیسم اروپایی: کشورهای پیشرو در انقلاب صنعتی به فتوحات امپریالیستی روی آوردند، زیرا معتقد بودند تنها راه ساخت یک جامعه صنعتی پایدار، ایجاد یک امپراتوری برای تأمین مواد اولیه و بازارهای فروش محصولات بود.
- تمامیتخواهی قرن بیستم: کمونیستها و فاشیستها به شدت با انقلاب صنعتی مرتبط بودند، زیرا رژیمهای تمامیتخواه بدون فناوریهای صنعتی (قطار، برق، رادیو) غیرممکن بودند. آنها استدلال میکردند که دموکراسیهای لیبرال نمیتوانند فناوری صنعتی را مدیریت کنند و آینده به رژیمهای تمامیتخواه تعلق دارد.
هراری یادآور میشود که این درک تنها با نگاه به گذشته حاصل میشود. او میگوید اگر بشریت دانشجویی در کلاس “چگونه از انقلاب صنعتی جان سالم به در ببریم” بود، نمره C- (سیمینوس) به آن میداد. ما زنده ماندیم، اما چند مورد نزدیک به خودتخریبی (مانند بمبهای هستهای پس از ۱۹۴۵) داشتیم و میتوانستیم بهتر عمل کنیم. ترس او این است که اگر بشریت در قرن ۲۱ در مواجهه با هوش مصنوعی نیز نمره C- بگیرد، میلیاردها نفر بهای بسیار بالایی خواهند پرداخت و شاید این بار C- کافی نباشد. او هشدار میدهد که هوش مصنوعی میتواند به احیای امپریالیسم و تمامیتخواهی، اما در شکلی جدید و بالقوه وحشتناکتر منجر شود.
راهکارهایی برای آینده: مکانیسمهای خوداصلاحگر و نقش اعتماد
هراری و رید هافمن بر این نکته توافق دارند که فناوری میتواند هم قدرت مرکزیسازی و هم توزیع را داشته باشد. انقلاب صنعتی نیز امکان دموکراسی و جامعه طبقه متوسط را فراهم کرد. سؤال این است که چگونه میتوانیم بهتر از نمره C- عمل کنیم و از تاریخ درس بگیریم.
مهمترین مفهوم در اینجا، “مکانیسمهای خوداصلاحگر” است. یک سیستم خوب، سیستمی است که دارای مکانیسمهای داخلی برای شناسایی و اصلاح اشتباهات خود باشد. دموکراسیها دارای چنین مکانیسمهایی هستند: انتخابات، دادگاههای آزاد، و رسانههای آزاد، همگی ابزارهایی برای شناسایی و اصلاح اشتباهات هستند. این اصل در مورد موجودات زنده نیز صادق است؛ یک کودک راه رفتن را از طریق خوداصلاحگری و یادگیری از افتادنها یاد میگیرد. اگر سیستمی تمامیتخواه باشد و اشتباهات را انکار کند، هرگز یاد نخواهد گرفت.
چالش اصلی در قرن ۲۱ این است که خوداصلاحگری فرآیندی نسبتاً کند و دست و پاگیر است. با سرعتی که هوش مصنوعی در حال توسعه است، زمانی برای خوداصلاحگری انسانی وجود ندارد. تا زمانی که تأثیرات یک فناوری هوش مصنوعی را درک کنیم، این فناوری ۱۰ بار تغییر شکل داده و با وضعیت کاملاً متفاوتی روبرو هستیم.
در اینجا یک نقطه اختلاف نظر کلیدی بین هراری و هافمن وجود دارد. هافمن پیشنهاد میکند که آیا میتوان از فناوری (به ویژه هوش مصنوعی) برای افزایش سرعت مکانیسمهای خوداصلاحگری ما استفاده کرد. هراری این ایده را به دلیل مشکل اعتماد رد میکند: اگر ندانیم که خود فناوری قابل اعتماد است، چگونه میتوانیم وظیفه تأیید قابل اعتماد بودن آن را به خود فناوری بسپاریم؟. این یک حلقه بسته است. هراری تأکید میکند که تفاوت در درک زمان بین انسانها (که در مقیاس ارگانیک و تاریخی فکر میکنند) و هوش مصنوعی (که در مقیاس غیرارگانیک و دیجیتال فکر میکند) و حتی بین خودش و افراد سیلیکون ولی (یکی ۷۰ هزار سال و دیگری ۲ سال را “زمان طولانی” میداند) یک چالش اساسی است.
هراری مجدداً تأکید میکند که مهمترین کاری که باید انجام دهیم، بازسازی اعتماد است. او هوش مصنوعی را به فرزندان بشریت تشبیه میکند. هوش مصنوعی از رفتار ما یاد میگیرد، نه فقط از گفتههای ما. اگر به هوش مصنوعی بگوییم که قدرتطلب نباشد و فریب ندهد، اما خودش ببیند که ما دائماً در حال دستکاری، فریبکاری و قدرتطلبی هستیم، هوش مصنوعی از رفتار ما درس خواهد گرفت. او معتقد است که یک جهانبینی بدبینانه و قدرتطلبانه که فقط به دنبال قدرت است، اشتباه است و در نهایت به تولید هوش مصنوعی خطرناک منجر میشود. انسانها در ذات خود نه تنها قدرتطلب، بلکه به عشق، شفقت و حقیقت نیز علاقهمندند. یک هوش مصنوعی که در جامعهای توسعه یابد که عمیقاً به دنبال حقیقت و روابط دلسوزانه است، احتمالاً قابل اعتمادتر و مهربانتر خواهد بود.
این “سطح والدگری” برای هوش مصنوعی در آزمایشگاهها اتفاق نمیافتد. هراری میگوید آزمایشگاهها نمیتوانند تاریخ و دنیای واقعی را شبیهسازی کنند. وقتی میلیاردها عامل هوش مصنوعی با میلیاردها انسان در دنیای واقعی تعامل کنند، چیزهایی پدیدار میشوند که قابل شبیهسازی در آزمایشگاه نیستند و اینها خطرناکترین سناریوها هستند. هوش مصنوعی، بنا به تعریف، توانایی یادگیری و تغییر خود به خود را دارد. بنابراین، مهم نیست که هوش مصنوعی چگونه در آزمایشگاه طراحی شود، وقتی وارد دنیای واقعی شود، از رفتار انسانها یاد خواهد گرفت. اگر جامعهای تحت سلطه افرادی مانند ایلان ماسک و دونالد ترامپ باشد، هوش مصنوعی نیز از آنها یاد میگیرد که دروغ گفتن برای کسب قدرت اشکالی ندارد.
برای ایجاد همکاری جهانی در این زمینه، هراری پیشنهاد میکند که یک نمایش قانعکننده از خطرات هوش مصنوعی برای رهبران سیاسی جهان ایجاد شود. مانند بیل گیتس که با دیدن وضعیت آفریقا تصمیم به تأسیس بنیاد گرفت، رهبران باید تهدید هوش مصنوعی را “ببینند” و “درک کنند“. این امر میتواند به آنها کمک کند تا مسابقه تسلیحاتی در هوش مصنوعی را کند کنند. هراری به تناقضی در میان رهبران انقلاب هوش مصنوعی اشاره میکند: آنها میگویند به انسانهای دیگر اعتماد ندارند، اما فکر میکنند میتوانند به هوش مصنوعی فوقهوشمندی که توسعه میدهند، اعتماد کنند. این دیدگاه را هراری “جنونآمیز” میداند، زیرا ما هزاران سال تجربه با انسانها داریم و هیچ تجربهای با میلیونها هوش مصنوعی فوقهوشمند نداریم.
هوش مصنوعی، هوشمندی یا خودآگاهی و حقیقتجویی
رید هافمن معتقد است که میتوان هوش مصنوعی را بر روی مسیری حقیقتجو تنظیم کرد، حتی اگر تنها هوشمند باشد. اما هراری در پاسخ به این دیدگاه تفاوت اساسی بین هوش مصنوعی (Artificial Intelligence) و آگاهی مصنوعی (Artificial Consciousness) را برجسته میکند. او میگوید حقیقتجویی در انسانها از آگاهی نشأت میگیرد، نه از هوش. انسانها هوشمندترین حیوانات روی زمین هستند، اما همچنین توهمیترین موجودات نیز هستند. یک هوش فوقهوشمند نیز احتمالاً فوقتوهمی خواهد بود. هیچ چیز در تاریخ بشر نشان نمیدهد که هوش، پادزهری خوب برای توهم یا لزوماً مسیری به سوی حقیقت است. هراری معتقد است که انگیزه به سوی حقیقت از آگاهی میآید، و از آنجایی که هیچ مدرکی دال بر آگاهی هوش مصنوعی وجود ندارد (هراری در این زمینه agnostic است)، احتمالاً یک هوش مصنوعی فوقهوشمند، بدون آگاهی، به دنبال حقیقت نخواهد بود و به سرعت به دنبال چیزهای دیگری خواهد رفت که توسط توهمات مختلف شکل میگیرند. او تأکید میکند که تأکید بیش از حد بر هوش، که در مناطقی مانند سیلیکون ولی رایج است، بسیار خطرناک است.
فناوری در خدمت بازسازی اعتماد
با وجود همه چالشها، هراری معتقد است که میتوان از فناوری، از جمله هوش مصنوعی، برای بازسازی اعتماد استفاده کرد. او به ابتکاراتی مانند سیستم “پُل.ایس” (pol.is) در تایوان اشاره میکند. این سیستم از ابزارهای رسانههای اجتماعی برای عدم تفرقه افکنی و گسترش تئوریهای توطئه و بیاعتمادی استفاده میکند، بلکه دقیقاً برعکس عمل میکند. این سیستم با تغییر الگوریتم، محتوای افراد را بر اساس میزان لایکهایی که از افراد در گروههای مختلف دریافت میکنند، امتیاز میدهد. برخلاف الگوریتمهای معمول فیسبوک یا توییتر که فقط به “تعامل” (engagement) اهمیت میدهند (که اغلب خشم را افزایش میدهد)، “پُل.ایس” اینفلوئنسرها و سلبریتیها را وادار میکند تا برای کسب بازدید بیشتر، چیزهایی را بگویند که مورد تأیید گروههای متفاوت است و این به ایجاد اجماع کمک میکند. این یک مثال کوچک است از اینکه چگونه یک “تغییر مهندسی” به ظاهر ساده میتواند یک فناوری را از چیزی که اعتماد را از بین میبرد، به چیزی که اعتماد را میسازد، تبدیل کند.
چشمانداز امید و اقدام
هراری با وجود تمام نگرانیهایش، رگههایی از امید را نیز به اشتراک میگذارد. او به محبوبیت سریالهایی مانند “قلبگیر” (Heartstopper) اشاره میکند که داستانهای ساده و عاشقانه را روایت میکنند و نشان میدهند که عشق هنوز در مرکز روح انسان قرار دارد. او همچنین تأکید میکند که ما به بسیاری از نهادها و سیستمها در زندگی روزمره خود اعتماد داریم (مانند سیستم فاضلاب، برق، دولت، علم)، هرچند که معمولاً به آن فکر نمیکنیم.
هراری منبع اصلی امید را در هر انسان میبیند. او معتقد است وقتی به خودمان نگاه میکنیم، معمولاً دیدگاه مهربانتر و خیرخواهانهتری نسبت به بشریت داریم تا زمانی که به رقبای سیاسی یا مذهبی خود نگاه میکنیم. او مدیتشین را قدرتمند میداند زیرا به ما کمک میکند ذهن خودمان را بشناسیم و بفهمیم که ذهن دیگران نیز کم و بیش به همین ترتیب کار میکند؛ و این خود منبع بزرگی از امید است.
برای ایجاد بهترین جامعهای که تا به حال در تاریخ وجود داشته، اولین گام بازسازی اعتماد است، هم در درون جوامع و هم بین جوامع. هراری میگوید که در بیشتر تاریخ، مردم با مشکلاتی دست و پنجه نرم میکردند که منابع لازم برای غلبه بر آنها را نداشتند، مانند طاعون سیاه در قرون وسطی یا قحطیهای گسترده. اما ما امروز میدانیم چگونه با این مشکلات کنار بیاییم و منابع لازم را نیز در اختیار داریم. مشکلات جدیدی که با آنها روبرو هستیم، مانند جنگ هستهای، تغییرات اقلیمی یا انقلاب هوش مصنوعی، بلایای طبیعی نیستند که از ظرفیت ما برای درک و کاهش آنها فراتر باشند. ما درک و منابع لازم را داریم؛ تنها چیزی که نیاز داریم، انگیزه و اعتماد است.
نتیجهگیری
دیدگاههای یووال نوح هراری پیرامون هوش مصنوعی، نه تنها ابعاد تکنولوژیکی، بلکه ابعاد فلسفی، اجتماعی و اخلاقی این تحول بیسابقه را روشن میکند. او ما را به تأمل عمیق در مورد ظرفیت رنج کشیدن هوش مصنوعی، پتانسیل آن برای جایگزینی انسان، خطرات بیکاری و تمامیتخواهی جدید، و در نهایت، نقش محوری اعتماد و خودآگاهی در مسیری که بشریت در پیش خواهد گرفت، دعوت میکند. راه پیش رو دشوار است و نیاز به همکاری جهانی، درک عمیقتر از ماهیت انسان و هوش مصنوعی، و مهمتر از همه، تلاش آگاهانه برای بازسازی اعتماد دارد تا بتوانیم از پتانسیل هوش مصنوعی برای ساختن جامعهای بهتر و نه سقوط در یک دیستوپیای غیرقابل تصور، بهره ببریم. این مسیری است که باید با آگاهی، انگیزه و اعتماد گام در آن نهاد.