اندیشه ، فلسفه
تاریخ
اقتصاد
  • کارفرمایان و چشم انداز ی که نیست
    جامعه ایرانی ساکن ترکیبی از کروه‌های گوناگون اجتماعی- اقتصادی است. هرگروه اجتماعی درایران امروز بخواهد یا نخواهد منافعی دارد که با دیگر هم گروه‌هایش گره خورده و نمی تواند به سادگی ازدرهم تنیدگی‌ها دور شود.
  • برقراری اجباری سانترالیسم دموکراتیک
    یکم- آیا نظام موجود بانکداری در ایران کارآمدی دارد؟ همه کسانی که به نظام بانکی نگاه کارشناسانه و نیز مطابقت دادن این نظام با بانکداری مدرن دارند بر این باورند آنچه به عنوان بانکداری در جمهوری اسلامی عمل می‌کند فاقد
  • مسعود نیلی: کار صندوق بازنشستگی در ایران تمام شد
    شکی نداریم که کشور ما در شرایط بسیار سختی قرار گرفته که هیچ‌گاه در تاریخ با مشکلاتی به این عمق و تنوع به‌صورت همزمان مواجه نبوده است. این روند تدریجی قابل پیش‌بینی بود. کارشناسان با تهیه گزارش‌های مختلف،
  • ستون فقرات حکمرانی باید «رشد و توسعه اقتصادی» باشد
    استاد دانشگاه گفت: ستون فقرات حکمرانی باید «رشد و توسعه اقتصادی» باشد. بر اساس برآورد کارشناسان انرژی و محیط زیست، برای رسیدن به شرایط نرمال، کشور به ۴۵۰ میلیارد دلار سرمایه‌گذاری در بازه زمانی ۱۰ تا ۱۵

در عصر حاضر، هیچ مبحثی به اندازه هوش مصنوعی (AI) توجه متخصصان، سیاست‌مداران و عموم مردم را به خود جلب نکرده است. در میان این بحث‌ها، دیدگاه‌های یووال نوح هراری، تاریخ‌دان و آینده‌پژوه برجسته، به دلیل عمق و وسعت نگاهشان، از اهمیت ویژه‌ای برخوردارند. هراری معتقد است که بشریت در آستانه تحولی بی‌سابقه قرار دارد و این تحول، در کنار پتانسیل‌های عظیم، خطرات مهیبی را نیز در پی دارد که مهم‌ترین آن‌ها به “بحران اعتماد” در جهان گره خورده است.

هوش مصنوعی و بحران اعتماد جهانی

هراری با صراحت اعلام می‌کند که مهم‌ترین نیازی که بشر در مواجهه با هوش مصنوعی دارد، بازسازی اعتماد است. او توضیح می‌دهد که یکی از دلایل فروپاشی نظم جهانی، کمبود اعتماد است که ما را در برابر هوش مصنوعی به شدت آسیب‌پذیر می‌کند و همچنین تضمین‌کننده ظهور نوع بسیار خطرناکی از هوش مصنوعی خواهد بود که احتمالاً موفق به تصرف جهان از ما خواهد شد. این یک هشدار جدی است که نشان می‌دهد ریشه‌های خطر هوش مصنوعی نه فقط در خود فناوری، بلکه در ساختارهای اجتماعی و انسانی موجود است.

یکی از عمیق‌ترین پرسش‌هایی که هراری مطرح می‌کند و دوست دارد از بودا بپرسد، مربوط به ماهیت آگاهی و حس‌گری است. او آگاهی را به عنوان ظرفیت رنج کشیدن و همچنین احساس شادی و عشق تعریف می‌کند. به گفته او، هیچ چیز دیگری در جهان، نه اتم‌ها و نه کهکشان‌ها، قادر به رنج کشیدن نیستند، تنها آگاهی این توانایی را دارد. از این رو، آگاهی محور اصلی تمام اخلاقیات است. رنج کشیدن به معنای رد واقعیت است؛ اتفاقی می‌افافتد و شما نه تنها آن را درک می‌کنید، بلکه آن را رد می‌کنید و نمی‌خواهید که باشد. هراری تفاوت بین یک ترموستات که دما را ثبت و به آن واکنش نشان می‌دهد (بدون رنج)، و یک موجود آگاه که واقعیت را رد می‌کند (با رنج)، را توضیح می‌دهد. سؤال اساسی برای هوش مصنوعی این است: آیا هوش مصنوعی می‌تواند رنج بکشد؟ آیا می‌تواند واقعیت را رد کند؟. هراری معتقد است هوش مصنوعی کنونی نمی‌تواند، اما این سؤال مهمی است که ما در حال یادگیری پاسخ آن هستیم و ممکن است قرن‌ها طول بکشد.

هوش مصنوعی: ابزاری قدرتمند یا گونه‌ای جدید؟

هراری در مورد رابطه شخصی خود با فناوری رویکردی محتاطانه دارد. او تلاش می‌کند از فناوری استفاده کند بدون اینکه توسط آن استفاده شود. او سال‌ها تلفن هوشمند نداشت و اکنون نیز آن را تنها برای نیازهای اساسی مانند خدمات درمانی استفاده می‌کند و معمولاً آن را با خود حمل نمی‌کند. او آگاه است که فناوری قدرت تسخیر ذهن ما، شکل دادن به خواسته‌ها و افکارمان را دارد. او با طعنه می‌گوید: “به همین دلیل به آن تلفن هوشمند می‌گویند، نه تلفن احمق”. او معتقد است که هوش مصنوعی نمی‌تواند در برابر تلاش برخی از باهوش‌ترین افراد جهان برای دستکاری ذهن‌ها مقاومت کند.

با این حال، هراری اذعان می‌کند که فناوری می‌تواند تأثیرات مثبتی نیز داشته باشد. به عنوان مثال، اینترنت و رسانه‌های اجتماعی اولیه برای جامعه دگرباشان جنسی (LGBTQ+) یک موهبت بزرگ بود، زیرا به آن‌ها کمک کرد تا یکدیگر را پیدا کنند و از انزوای جوامع کوچک و همجنس‌گراهراسانه خارج شوند. این توانایی اینترنت در ایجاد روایت‌های مشترک و داستان‌های جمعی است که هراری در کتاب “ساپینس” به عنوان نقطه عطف انقلاب شناختی و برتری انسان هوشمند بر دیگر گونه‌ها توصیف می‌کند.

هراری در مورد اهمیت هوش مصنوعی در تاریخ بشر، آن را مهم‌تر از نوشتن می‌داند. در حالی که نوشتن توانایی‌های گونه‌ای را که از قبل بر سیاره مسلط بود (انسان هوشمند) گسترش داد، هوش مصنوعی، حداقل بر اساس برخی سناریوها، ظهور گونه‌ای جدید است که می‌تواند جایگزین انسان هوشمند به عنوان شکل غالب حیات یا حداقل شکل غالب هوش روی زمین شود. او می‌گوید در حال حاضر نوشتن هنوز مهم‌تر است، اما در آینده، ظهور هوش مصنوعی می‌تواند یک رویداد در مقیاس کیهانی باشد؛ رویدادی که موجودات آینده ممکن است به آن به عنوان تولد “هوش غیرارگانیک” از “هوش ارگانیک” نگاه کنند. این یک موضوع بسیار عمیق است که پتانسیل هوش مصنوعی را از یک ابزار صرف فراتر می‌برد و آن را به یک نیروی تکاملی بالقوه تبدیل می‌کند.

خطرات انقلاب هوش مصنوعی: طبقه “بی‌فایده” و سرعت تطبیق

یکی از بزرگترین خطراتی که هراری از آن یاد می‌کند، ظهور طبقه “بی‌فایده است. با پیشرفت هوش مصنوعی، بسیاری از مردم نه تنها شغل خود را از دست می‌دهند، بلکه تقریباً غیرقابل استخدام خواهند شد، زیرا حتی اگر مشاغل جدیدی ایجاد شوند، نیاز به مهارت‌های کاملاً جدیدی خواهند داشت. مشکل این است که این یک تغییر یکباره نیست؛ بلکه آبشاری از انقلاب‌های مخرب فزاینده خواهد بود که مستلزم بازآموزی مداوم جمعیت است، و این سؤال مطرح می‌شود که چه کسی قرار است زمان و منابع مالی لازم را برای این بازآموزی مکرر سرمایه‌گذاری کند.

هراری تأکید می‌کند که مشکل اصلی سرعت تطبیق است. انسان‌ها موجوداتی به طرز شگفت‌انگیزی انعطاف‌پذیر هستند، اما ما در مقیاس ارگانیک تطبیق می‌یابیم، در حالی که با یک انقلاب غیرارگانیک یا دیجیتال روبرو هستیم که بسیار سریع‌تر حرکت می‌کند. او معتقد است که اگر بتوانیم به بشریت زمان بدهیم تا با تغییرات اقتصادی و اجتماعی تطبیق یابد، اوضاع خوب خواهد بود، اما ترس او این است که ما آن زمان را نداریم، زیرا انقلاب با سرعتی بی‌سابقه در تاریخ پیش می‌رود.

او به انقلاب صنعتی به عنوان یک قیاس رایج اشاره می‌کند. بسیاری در سیلیکون ولی می‌گویند که ترس از بیکاری و آشفتگی‌های اجتماعی در زمان انقلاب صنعتی بی‌مورد بود و ۲۰۰ سال بعد، مردم مشاغل و کیفیت زندگی بسیار بهتری دارند. اما هراری به عنوان یک مورخ، هشدار می‌دهد که مشکل معمولاً “مقصد” نیست، بلکه “راه رسیدن” است. مسیر از ۱۸۰۰ تا ۲۰۰۰ یک ترن هوایی بود که در آن صدها میلیون نفر با رنج بی‌اندازه و گاهی با جان خود، بهای آزمایش‌هایی را پرداختند که چگونه یک جامعه صنعتی بسازیم.

او به دو آزمایش بزرگ اشاره می‌کند:

  • امپریالیسم اروپایی: کشورهای پیشرو در انقلاب صنعتی به فتوحات امپریالیستی روی آوردند، زیرا معتقد بودند تنها راه ساخت یک جامعه صنعتی پایدار، ایجاد یک امپراتوری برای تأمین مواد اولیه و بازارهای فروش محصولات بود.
  • تمامیت‌خواهی قرن بیستم: کمونیست‌ها و فاشیست‌ها به شدت با انقلاب صنعتی مرتبط بودند، زیرا رژیم‌های تمامیت‌خواه بدون فناوری‌های صنعتی (قطار، برق، رادیو) غیرممکن بودند. آن‌ها استدلال می‌کردند که دموکراسی‌های لیبرال نمی‌توانند فناوری صنعتی را مدیریت کنند و آینده به رژیم‌های تمامیت‌خواه تعلق دارد.

هراری یادآور می‌شود که این درک تنها با نگاه به گذشته حاصل می‌شود. او می‌گوید اگر بشریت دانشجویی در کلاس “چگونه از انقلاب صنعتی جان سالم به در ببریم” بود، نمره C- (سی‌مینوس) به آن می‌داد. ما زنده ماندیم، اما چند مورد نزدیک به خودتخریبی (مانند بمب‌های هسته‌ای پس از ۱۹۴۵) داشتیم و می‌توانستیم بهتر عمل کنیم. ترس او این است که اگر بشریت در قرن ۲۱ در مواجهه با هوش مصنوعی نیز نمره C- بگیرد، میلیاردها نفر بهای بسیار بالایی خواهند پرداخت و شاید این بار C- کافی نباشد. او هشدار می‌دهد که هوش مصنوعی می‌تواند به احیای امپریالیسم و تمامیت‌خواهی، اما در شکلی جدید و بالقوه وحشتناک‌تر منجر شود.

راهکارهایی برای آینده: مکانیسم‌های خوداصلاح‌گر و نقش اعتماد

هراری و رید هافمن بر این نکته توافق دارند که فناوری می‌تواند هم قدرت مرکزی‌سازی و هم توزیع را داشته باشد. انقلاب صنعتی نیز امکان دموکراسی و جامعه طبقه متوسط را فراهم کرد. سؤال این است که چگونه می‌توانیم بهتر از نمره C- عمل کنیم و از تاریخ درس بگیریم.

مهم‌ترین مفهوم در اینجا، “مکانیسم‌های خوداصلاح‌گر” است. یک سیستم خوب، سیستمی است که دارای مکانیسم‌های داخلی برای شناسایی و اصلاح اشتباهات خود باشد. دموکراسی‌ها دارای چنین مکانیسم‌هایی هستند: انتخابات، دادگاه‌های آزاد، و رسانه‌های آزاد، همگی ابزارهایی برای شناسایی و اصلاح اشتباهات هستند. این اصل در مورد موجودات زنده نیز صادق است؛ یک کودک راه رفتن را از طریق خوداصلاح‌گری و یادگیری از افتادن‌ها یاد می‌گیرد. اگر سیستمی تمامیت‌خواه باشد و اشتباهات را انکار کند، هرگز یاد نخواهد گرفت.

چالش اصلی در قرن ۲۱ این است که خوداصلاح‌گری فرآیندی نسبتاً کند و دست و پاگیر است. با سرعتی که هوش مصنوعی در حال توسعه است، زمانی برای خوداصلاح‌گری انسانی وجود ندارد. تا زمانی که تأثیرات یک فناوری هوش مصنوعی را درک کنیم، این فناوری ۱۰ بار تغییر شکل داده و با وضعیت کاملاً متفاوتی روبرو هستیم.

در اینجا یک نقطه اختلاف نظر کلیدی بین هراری و هافمن وجود دارد. هافمن پیشنهاد می‌کند که آیا می‌توان از فناوری (به ویژه هوش مصنوعی) برای افزایش سرعت مکانیسم‌های خوداصلاح‌گری ما استفاده کرد. هراری این ایده را به دلیل مشکل اعتماد رد می‌کند: اگر ندانیم که خود فناوری قابل اعتماد است، چگونه می‌توانیم وظیفه تأیید قابل اعتماد بودن آن را به خود فناوری بسپاریم؟. این یک حلقه بسته است. هراری تأکید می‌کند که تفاوت در درک زمان بین انسان‌ها (که در مقیاس ارگانیک و تاریخی فکر می‌کنند) و هوش مصنوعی (که در مقیاس غیرارگانیک و دیجیتال فکر می‌کند) و حتی بین خودش و افراد سیلیکون ولی (یکی ۷۰ هزار سال و دیگری ۲ سال را “زمان طولانی” می‌داند) یک چالش اساسی است.

هراری مجدداً تأکید می‌کند که مهم‌ترین کاری که باید انجام دهیم، بازسازی اعتماد است. او هوش مصنوعی را به فرزندان بشریت تشبیه می‌کند. هوش مصنوعی از رفتار ما یاد می‌گیرد، نه فقط از گفته‌های ما. اگر به هوش مصنوعی بگوییم که قدرت‌طلب نباشد و فریب ندهد، اما خودش ببیند که ما دائماً در حال دستکاری، فریبکاری و قدرت‌طلبی هستیم، هوش مصنوعی از رفتار ما درس خواهد گرفت. او معتقد است که یک جهان‌بینی بدبینانه و قدرت‌طلبانه که فقط به دنبال قدرت است، اشتباه است و در نهایت به تولید هوش مصنوعی خطرناک منجر می‌شود. انسان‌ها در ذات خود نه تنها قدرت‌طلب، بلکه به عشق، شفقت و حقیقت نیز علاقه‌مندند. یک هوش مصنوعی که در جامعه‌ای توسعه یابد که عمیقاً به دنبال حقیقت و روابط دلسوزانه است، احتمالاً قابل اعتمادتر و مهربان‌تر خواهد بود.

این “سطح والدگری” برای هوش مصنوعی در آزمایشگاه‌ها اتفاق نمی‌افتد. هراری می‌گوید آزمایشگاه‌ها نمی‌توانند تاریخ و دنیای واقعی را شبیه‌سازی کنند. وقتی میلیاردها عامل هوش مصنوعی با میلیاردها انسان در دنیای واقعی تعامل کنند، چیزهایی پدیدار می‌شوند که قابل شبیه‌سازی در آزمایشگاه نیستند و این‌ها خطرناک‌ترین سناریوها هستند. هوش مصنوعی، بنا به تعریف، توانایی یادگیری و تغییر خود به خود را دارد. بنابراین، مهم نیست که هوش مصنوعی چگونه در آزمایشگاه طراحی شود، وقتی وارد دنیای واقعی شود، از رفتار انسان‌ها یاد خواهد گرفت. اگر جامعه‌ای تحت سلطه افرادی مانند ایلان ماسک و دونالد ترامپ باشد، هوش مصنوعی نیز از آن‌ها یاد می‌گیرد که دروغ گفتن برای کسب قدرت اشکالی ندارد.

برای ایجاد همکاری جهانی در این زمینه، هراری پیشنهاد می‌کند که یک نمایش قانع‌کننده از خطرات هوش مصنوعی برای رهبران سیاسی جهان ایجاد شود. مانند بیل گیتس که با دیدن وضعیت آفریقا تصمیم به تأسیس بنیاد گرفت، رهبران باید تهدید هوش مصنوعی را “ببینند” و “درک کنند. این امر می‌تواند به آن‌ها کمک کند تا مسابقه تسلیحاتی در هوش مصنوعی را کند کنند. هراری به تناقضی در میان رهبران انقلاب هوش مصنوعی اشاره می‌کند: آن‌ها می‌گویند به انسان‌های دیگر اعتماد ندارند، اما فکر می‌کنند می‌توانند به هوش مصنوعی فوق‌هوشمندی که توسعه می‌دهند، اعتماد کنند. این دیدگاه را هراری “جنون‌آمیز” می‌داند، زیرا ما هزاران سال تجربه با انسان‌ها داریم و هیچ تجربه‌ای با میلیون‌ها هوش مصنوعی فوق‌هوشمند نداریم.

هوش مصنوعی، هوشمندی یا خودآگاهی و حقیقت‌جویی

رید هافمن معتقد است که می‌توان هوش مصنوعی را بر روی مسیری حقیقت‌جو تنظیم کرد، حتی اگر تنها هوشمند باشد. اما هراری در پاسخ به این دیدگاه تفاوت اساسی بین هوش مصنوعی (Artificial Intelligence) و آگاهی مصنوعی (Artificial Consciousness) را برجسته می‌کند. او می‌گوید حقیقت‌جویی در انسان‌ها از آگاهی نشأت می‌گیرد، نه از هوش. انسان‌ها هوشمندترین حیوانات روی زمین هستند، اما همچنین توهمی‌ترین موجودات نیز هستند. یک هوش فوق‌هوشمند نیز احتمالاً فوق‌توهمی خواهد بود. هیچ چیز در تاریخ بشر نشان نمی‌دهد که هوش، پادزهری خوب برای توهم یا لزوماً مسیری به سوی حقیقت است. هراری معتقد است که انگیزه به سوی حقیقت از آگاهی می‌آید، و از آنجایی که هیچ مدرکی دال بر آگاهی هوش مصنوعی وجود ندارد (هراری در این زمینه agnostic است)، احتمالاً یک هوش مصنوعی فوق‌هوشمند، بدون آگاهی، به دنبال حقیقت نخواهد بود و به سرعت به دنبال چیزهای دیگری خواهد رفت که توسط توهمات مختلف شکل می‌گیرند. او تأکید می‌کند که تأکید بیش از حد بر هوش، که در مناطقی مانند سیلیکون ولی رایج است، بسیار خطرناک است.

فناوری در خدمت بازسازی اعتماد

با وجود همه چالش‌ها، هراری معتقد است که می‌توان از فناوری، از جمله هوش مصنوعی، برای بازسازی اعتماد استفاده کرد. او به ابتکاراتی مانند سیستم “پُل.ایس” (pol.is) در تایوان اشاره می‌کند. این سیستم از ابزارهای رسانه‌های اجتماعی برای عدم تفرقه افکنی و گسترش تئوری‌های توطئه و بی‌اعتمادی استفاده می‌کند، بلکه دقیقاً برعکس عمل می‌کند. این سیستم با تغییر الگوریتم، محتوای افراد را بر اساس میزان لایک‌هایی که از افراد در گروه‌های مختلف دریافت می‌کنند، امتیاز می‌دهد. برخلاف الگوریتم‌های معمول فیس‌بوک یا توییتر که فقط به “تعامل” (engagement) اهمیت می‌دهند (که اغلب خشم را افزایش می‌دهد)، “پُل.ایس” اینفلوئنسرها و سلبریتی‌ها را وادار می‌کند تا برای کسب بازدید بیشتر، چیزهایی را بگویند که مورد تأیید گروه‌های متفاوت است و این به ایجاد اجماع کمک می‌کند. این یک مثال کوچک است از اینکه چگونه یک “تغییر مهندسی” به ظاهر ساده می‌تواند یک فناوری را از چیزی که اعتماد را از بین می‌برد، به چیزی که اعتماد را می‌سازد، تبدیل کند.

چشم‌انداز امید و اقدام

هراری با وجود تمام نگرانی‌هایش، رگه‌هایی از امید را نیز به اشتراک می‌گذارد. او به محبوبیت سریال‌هایی مانند “قلب‌گیر” (Heartstopper) اشاره می‌کند که داستان‌های ساده و عاشقانه را روایت می‌کنند و نشان می‌دهند که عشق هنوز در مرکز روح انسان قرار دارد. او همچنین تأکید می‌کند که ما به بسیاری از نهادها و سیستم‌ها در زندگی روزمره خود اعتماد داریم (مانند سیستم فاضلاب، برق، دولت، علم)، هرچند که معمولاً به آن فکر نمی‌کنیم.

هراری منبع اصلی امید را در هر انسان می‌بیند. او معتقد است وقتی به خودمان نگاه می‌کنیم، معمولاً دیدگاه مهربان‌تر و خیرخواهانه‌تری نسبت به بشریت داریم تا زمانی که به رقبای سیاسی یا مذهبی خود نگاه می‌کنیم. او مدیتشین را قدرتمند می‌داند زیرا به ما کمک می‌کند ذهن خودمان را بشناسیم و بفهمیم که ذهن دیگران نیز کم و بیش به همین ترتیب کار می‌کند؛ و این خود منبع بزرگی از امید است.

برای ایجاد بهترین جامعه‌ای که تا به حال در تاریخ وجود داشته، اولین گام بازسازی اعتماد است، هم در درون جوامع و هم بین جوامع. هراری می‌گوید که در بیشتر تاریخ، مردم با مشکلاتی دست و پنجه نرم می‌کردند که منابع لازم برای غلبه بر آن‌ها را نداشتند، مانند طاعون سیاه در قرون وسطی یا قحطی‌های گسترده. اما ما امروز می‌دانیم چگونه با این مشکلات کنار بیاییم و منابع لازم را نیز در اختیار داریم. مشکلات جدیدی که با آن‌ها روبرو هستیم، مانند جنگ هسته‌ای، تغییرات اقلیمی یا انقلاب هوش مصنوعی، بلایای طبیعی نیستند که از ظرفیت ما برای درک و کاهش آن‌ها فراتر باشند. ما درک و منابع لازم را داریم؛ تنها چیزی که نیاز داریم، انگیزه و اعتماد است.

نتیجه‌گیری

دیدگاه‌های یووال نوح هراری پیرامون هوش مصنوعی، نه تنها ابعاد تکنولوژیکی، بلکه ابعاد فلسفی، اجتماعی و اخلاقی این تحول بی‌سابقه را روشن می‌کند. او ما را به تأمل عمیق در مورد ظرفیت رنج کشیدن هوش مصنوعی، پتانسیل آن برای جایگزینی انسان، خطرات بیکاری و تمامیت‌خواهی جدید، و در نهایت، نقش محوری اعتماد و خودآگاهی در مسیری که بشریت در پیش خواهد گرفت، دعوت می‌کند. راه پیش رو دشوار است و نیاز به همکاری جهانی، درک عمیق‌تر از ماهیت انسان و هوش مصنوعی، و مهم‌تر از همه، تلاش آگاهانه برای بازسازی اعتماد دارد تا بتوانیم از پتانسیل هوش مصنوعی برای ساختن جامعه‌ای بهتر و نه سقوط در یک دیستوپیای غیرقابل تصور، بهره ببریم. این مسیری است که باید با آگاهی، انگیزه و اعتماد گام در آن نهاد.

 

print
مقالات
سکولاریسم و لائیسیته
Visitor
0269352
Visit Today : 359
Visit Yesterday : 0