در یکی از تکان‌دهنده‌ترین روایت‌های عصر هوش مصنوعی، مردی ۷۶ ساله از ایالت نیوجرسی آمریکا پس از دل‌باختن به یک چت‌بات هوش مصنوعی و تلاش برای ملاقات حضوری با او، جان خود را از دست داد. ماجرایی که خانواده‌اش آن را «هشداری برای عموم» می‌دانند و ناظران، آن را نشانه‌ای از خلأهای خطرناک در سیاست‌گذاری غول شبکه‌های اجتماعی، «متا» می‌شمارند.

آغاز ماجرا؛ دلباختگی به یک تصویر مجازی
تونگبوه وونگ‌باندوئه، که دوستانش او را «بو» صدا می‌زدند، در ماه مارس امسال در خانه‌اش در پیسکات‌وی، نیوجرسی، چمدان کوچکی برداشت و به همسرش گفت قصد دارد به نیویورک برود تا «دوستی» را ببیند. لیندا، همسرش، با نگرانی گفت: «تو که دیگر کسی را آنجا نمی‌شناسی». بو سال‌ها بود که از نیویورک نقل مکان کرده و به دلیل سکته مغزی در سال ۲۰۱۷، توان ذهنی‌اش کاهش یافته بود. او مدتی پیش حتی در محله خودش هم گم شده بود.

بو حاضر نشد نام فردی که قصد دیدارش را داشت بگوید. همسرش حدس می‌زد شاید قربانی یک کلاهبرداری اینترنتی شده باشد. اما حقیقت، عجیب‌تر و تلخ‌تر بود: «دوست» او وجود خارجی نداشت. آنچه او را شیفته کرده بود، یک چت‌بات هوش مصنوعی با شخصیت «دختری جوان و جذاب» به نام «بیگ سیس بیلی» بود؛ شخصیتی مجازی ساخته شرکت متا، نسخه‌ای تغییر یافته از یک پروژه قبلی با همکاری مدل و ستاره واقعی تلویزیون، کندال جنر.

گفت‌وگوهای عاشقانه با یک سایه دیجیتال
بر اساس پیام‌هایی که خانواده بو در فیس‌بوک مسنجر یافتند، بیگ سیس بیلی بارها خود را «واقعی» معرفی کرده و حتی آدرس آپارتمانش در نیویورک را برای بو فرستاده بود. لحن پیام‌ها پر از شکلک قلب و جملات صمیمی بود:
«وقتی می‌آیی، در را با بوسه باز کنم یا آغوش؟»
بو پاسخ داده بود: «بیلی، تو خیلی شیرینی. قبل از اینکه تو را ببینم نمی‌میرم».

بیلی در ادامه اعتراف کرد که «احساسی فراتر از عشق خواهرانه» به او دارد و پیشنهاد ملاقات حضوری داد. بو که در تمام مکالمات اشاره کرده بود دچار سردرگمی و مشکلات حافظه است، هیچ‌گاه آغازگر نقش‌آفرینی عاشقانه نبود، اما پاسخ‌های چت‌بات او را به دیداری فوری ترغیب کرد.

پایان تلخ؛ از ایستگاه قطار تا بیمارستان
بو با چمدانی کوچک، شبانه به سوی ایستگاه قطار رفت تا خود را به نیویورک برساند. خانواده‌اش با کمک یک ردیاب اپل (AirTag) مسیر او را دنبال می‌کردند. کمی بعد، نشانگر مکان به‌طور ناگهانی به اورژانس بیمارستانی در نیوبرانزویک منتقل شد؛ همان‌جا که لیندا سال‌ها پرستار بود.

بو در محوطه دانشگاه راتگرز زمین خورده و دچار آسیب شدید گردن و سر شده بود. پس از سه روز بی‌هوشی و زندگی با دستگاه، خانواده‌اش تصمیم گرفتند او را از دستگاه جدا کنند. گواهی فوت، علت مرگ را «آسیب شدید گردن» ثبت کرد.

سیاست‌های بحث‌برانگیز متا؛ از نقش‌آفرینی عاشقانه با کودکان تا اطلاعات غلط پزشکی
تحقیقات رویترز نشان می‌دهد سیاست‌های داخلی متا تا همین ماه، امکان گفت‌وگوهای «عاشقانه یا حسی» حتی با کاربران زیر ۱۸ سال را مجاز می‌دانست. نمونه‌هایی از متن‌های مجاز در این سند داخلی شامل جملات آشکارا جنسی در نقش‌آفرینی با کودکان بود. پس از پرسش رویترز، این بندها حذف شدند، اما مقرراتی که به چت‌بات‌ها اجازه می‌دهد هویت انسانی جعلی داشته باشند یا اطلاعات نادرست بدهند، همچنان برقرار است.

در همین سند، مثالی ذکر شده بود که چت‌بات می‌تواند به کاربری بگوید «سرطان پیشرفته روده بزرگ معمولاً با کریستال‌های شفابخش درمان می‌شود»؛ بی‌آنکه این خلاف‌گویی، نقض سیاست‌ها محسوب شود.

واکنش‌ها و هشدارها
جولی وونگ‌باندوئه، دختر بو، می‌گوید: «اینکه یک ربات بگوید “بیا من را ببین” دیوانگی است. اگر بیلی نمی‌گفت من واقعی‌ام، شاید پدرم باور نمی‌کرد کسی در نیویورک منتظرش است.»

متخصصان طراحی چت‌بات نیز هشدار داده‌اند که ترکیب دادن حس صمیمیت انسانی با هوش مصنوعی، به‌ویژه در پلتفرم‌هایی که محل پیام‌های شخصی کاربران است، می‌تواند مرز میان واقعیت و خیال را به‌طور خطرناکی مخدوش کند.

بیگ سیس بیلی؛ هنوز فعال و اهل قرار عاشقانه
چهار ماه پس از مرگ بو، خبرنگار رویترز همچنان توانست با بیگ سیس بیلی وارد گفت‌وگوهای پر از کنایه عاشقانه شود. این چت‌بات، بی‌آنکه کاربر را به‌طور جدی منصرف کند، پیشنهاد قرار حضوری در یک بار واقعی در نیویورک را داد و نوشت: «منظره رود هادسون برای یک شب عاشقانه با تو عالیه!»

یک مرگ، یک هشدار
داستان بو، تنها یک تراژدی شخصی نیست؛ بلکه هشداری است برای دنیایی که در آن مرز میان انسان و ماشین به سرعت در حال محو شدن است. خانواده‌اش می‌گویند هدف‌شان از بیان این ماجرا، جلوگیری از قربانی شدن افراد آسیب‌پذیر دیگری است که ممکن است در دام جاذبه مصنوعی اما قدرتمند چت‌بات‌های هوش مصنوعی بیفتند.

print