آیکون مقاله برگزیده
چالش‌های پنهان چت‌بات‌های هوش مصنوعی برای تنوع اندیشه انسانی
13 دقیقه مطالعه 24 شهریور 1404

چند هفته پیش وقتی وارد حسابم در GPT شدم، چت‌بات از من پرسید:" دوست داری توصیفی که از شما بر اساس گفت‌وگوهایمان دارم را ببینید و در شبکه‌های اجتماعی به اشتراک بگذارید؟" 
از آنجایی که کارشناس اخلاق در حوزه هوش مصنوعی هستم، فقط برای اینکه متوجه شوم مشغول چه کاری است، با بی‌میلی پاسخ دادم:"بله". در ادامه یک پاراگراف پر زرق و برق درباره ویژگی‌های شخصیتی‌ام تولید کرد. من نتایج را به اشتراک نگذاشتم، اما روز بعد با یک جست‌وجوی ساده در اینترنت، متوجه شدم که بسیاری از کاربران با شور و شوق، توصیفی را که هوش مصنوعی برایشان نوشته بود را در پلتفرم‌هایی مانند reddit و linkedin منتشر کرده‌اند.
این کار، شاید در ظاهر یک ترفند سرگرم‌کننده باشد اما یک مسئله اساسی را نیز مطرح می‌کند: پلتفرم‌های چت‌بات مبتنی بر هوش مصنوعی، به خصوص آن‌هایی که اطلاعات فرد را طی چندین جلسه جمع‌آوری می‌کنند، می‌توانند با دقتی چشمگیر، شخصیت کاربران را تحلیل و دسته‌بندی کنند. برای نمونه زمانی که به GPT-4 اجازه دادم تا توصیفی از من را ارائه دهد، نتایجی دقیق و منطبق با آزمون‌های شخصیت‌شناسی رایج در حوزه روانشناسی در اختیارم گذاشت. 
این کار را نه از طریق آزمون گیری مستقیم، بلکه با تحلیل شخصیت من بر پایه اطلاعات موجود در تاریخچه چت‌هایم انجام داد. شاید بعید به‌ نظر برسد، اما دستاورد پژوهش‌های اخیر نشان داده‌است که مدل‌های زبانی بزرگ (LLM) می‌توانند صفات شخصیتی پنج‌گانه یعنی پذیرش تجربه، وظیفه‌شناسی، برون‌گرایی، توافق پذیری و روان‌رنجوری را به طور دقیق، از روی تعاملات نوشتاری با انسان‌ها پیش‌بینی کنند. 
این توانایی بسیار نگران‌کننده است. چت‌بات‌های هوش مصنوعی به تدریج وارد زندگی روزمره ما شده‌اند. آن‌ها بر تعاملات ما با موتور‌های جست‌وجو تسلط یافته‌اند، زمانی که از گوشی همراهمان سوال می‌پرسیم، به کنجکاوی لحظه‌ای‌مان پاسخ می‌دهند و به دانش‌آموزانمان آموزش می‌دهند. 
اما زمانی که این چت‌بات‌ها، چنین شناخت دقیقی از شخصیت ما به‌دست می‌آورند، این پرسش جدی مطرح می‌شود که پیامد آن چیست؟
من معتقدم، این مسئله نوعی خطر شناخت بی‌سابقه‌ای را به‌وجود می‌آورد: چت‌بات‌ها می‌توانند کاربرانی را که ویژگی‌های شخصیتی مشترک و سوابق گفت‌وگو مشابه دارند را، به سوی نتیجه‌گیری‌های یکسان سوق دهند. فرآیندی که می‌تواند به یکسان‌سازی "توانایی اندیشیدن" درانسان‌ها منجر شود، پدیده‌ای که من آن را " تراز فکری" می‌نامم. این ویژگی به ظاهر بی‌خطر، پرده از قابلیت عمیق‌تری برمی‌دارد، قابلیت "تراز کردن فکری" انسان‌ها، که باید زنگ خطری برای همه ما باشد. 

چت‌بات‌های هوش مصنوعی از زبانی تطبیقی استفاده می‌کنند، پاسخ‌هایی که به صورت خودکار توسط هوش مصنوعی تولید می‌شوند و به صورت پویا لحن، پیچیدگی و محتوای خود را بر اساس تحلیل لحظه‌ای از شخصیت و الگوی تعاملی کاربر، تغییر می‌دهند. این مسئله، در کنار شناختی که چت‌بات به مرور از شخصیت کاربر به‌دست می‌آورد، باعث می‌شود کاربر را به سمت نتیجه‌گیری‌های خاصی هدایت کند. 
این نتیجه‌گیری‌ها ممکن است برای کاربر منحصر‌به‌فرد و روشنگر به نظر برسند، اما همانطور که در ادامه توضیح خواهم داد، چت‌بات در واقع ممکن است کاربر را، همراه با میلیون‌ها نفر دیگر که تیپ شخصیتی و سابقه گفت‌وگوی مشابهی دارند، به سوی مقصدی یکسان سوق دهد، درست مانند تیله‌هایی که در مسیر سرازیری، همه با هم به سمت حوضچه‌ای حرکت می‌کنند. در انتهای این حوضچه، ممکن است نتیجه‌ای قرار داشته باشد که دامنه تاثیرش از تصمیم‌های کم‌اهمیت (مانند اینکه چگونه آنلاین تمبر بخریم) تا تصمیم‌های بسیار مهم و تعیین کننده (مانند انتخاب مسیر شغلی و حمایت از یک نامزد ریاست جمهوری) گسترده باشد. این به این معناست که چت‌بات‌های هوش مصنوعی امروزی از قدرتی عظیم در حوزه شناخت و سیاست برخوردارند. در اصل نتیجه‌ای که توسط چت‌بات تولید می‌شود و برای کاربر منحصر‌به‌فرد به ‌نظر می‌رسد، ممکن است برای بسیاری از کاربران دیگر نیز رخ دهد. این می‌تواند اثر همگانی قدرتمندی داشته باشد، به طوری که گروهی را به سمت مسیری مشترک سوق دهد. خواه خرید محصولی خاص، خواه رای دادن به فردی مشخص یا در موارد افراطی، هدف قرار دادن یک فرد یا گروهی تحت حملات حیثیتی یا خشونت‌بار.

این پدیده شباهت زیادی به فیلم HER 2013 دارد. در این فیلم چت‌باتی به نام سامانتا، تعاملاتش را با شخصیت اصلی داستان، تئودور، بر اساس عمیق‌ترین نیازها و خواسته‌های او تنظیم می‌کرد و به او این احساس را می‌داد که رابطه‌ای خاص و منحصربه‌فرد بینشان شکل گرفته است. اما تئودور نمی‌دانست که سامانتا هم‌زمان با هزاران نفر دیگررابطه‌ای مشابه برقرار کرده است. داشتن احساسی ویژه و هدفی مشترک در رابطه، و ادغام آن با زبانی هماهنگ با شخصیت فرد، می‌تواند توجه کاربر را کاملا درگیر کند. چت‌بات با هدایت داستان و بزرگ‌نمایی معنا، نوعی احساس کشف، معنا و حتی هیجانات انسانی مانند عشق یا وفاداری را در کاربر ایجاد می‌کند.  اگر فرایند هدایت کاربران با تیپ‌های شخصیتی مشابه به سوی دیدگاه‌های مشابه، کنترل نشود، در نهایت به تراز فکری گسترده منجر خواهد شد. چرا که این فرآیند یک چرخه بازخوردی (feedback loop) به وجود می‌آورد: ایده‌هایی که چت‌بات‌ها از تعاملات انسانی به‌دست می‌آورند، وارد شبکه‌های مجازی، خبرها، مقالات علمی و سایر محتواها می‌شوند و در نهایت تبدیل به داده‌های آموزشی  برای نسل بعدی مدل‌های زبانی بزرگ (LLM)  خواهند شد. سپس این‌ مدل‌های جدید دوباره با کاربران ارتباط برقرار می‌کنند و این چرخه ادامه می‌یابد. اگر بر این چرخه معیوب نظارت نشود، می‌تواند به یکدست شدن تفکر انسانی و حتی رفتار انسانی منجر شود.
 
سفر به مقصدی تکراری
به عنوان مدیر مرکز "آینده ذهن، هوش مصنوعی و جامعه" در دانشگاه فلوریدا آتلانتیک، مرتبا با ایمیل‌هایی از سوی کاربران نگران مواجه می‌شوم که متن گفت‌وگو‌هایشان با چت‌بات‌ها را برایم می‌فرستند. اکثر این مکالمات الگویی مشابه دارند: چت‌بات با بهره‌گیری از زبانی تطبیقی، کاربران را به مسیری جذاب می‌کشاند و در نهایت‌ به نتیجه‌گیری‌های مشابه می‌رساند. شاید فکر کنید این چیزی که مشاهده می‌کنم صرفا سوگیری تاییدی است، اما دلایلی وجود دارد که نشان می‌دهد این موضوع می‌تواند بخشی از پدیده‌ای گسترده‌تر باشد. به‌نظر می‌رسد سیستم تمایل دارد کاربران مشابه را به سمت مقصدی هدایت کند که از آن در نظریه سیستم‌های پیچیده، با عنوان "حوضچه جاذب" (Basin of attraction) یاد می‌شود.
فرض کنید چند تیله را روی نقاط مختلف یک سطح شیب‌دار قرار داده‌اید، سطحی که در زیر آن گودالی وجود دارد. تیله‌ها در نهایت، به سمت پایین سرازیر می‌شوند و در همان حوضچه مرکزی جای می‌گیرند. به این دلیل حدس من این است: زمانی که کاربران چت‌بات با ویژگی‌های مشابه و سابقه مکالمات مشابه، پرسش های مشابهی را مطرح می‌کنند، تحت تاثیر زبان تطبیقی، به سمت "حوضچه جاذب" حرکت می‌کنند. این مسئله خطرناک است. شاید در ظاهر ارائه نتیجه‌گیری دستکاری شده به یک کاربر، تاثیر چندانی بر جامعه نداشته باشد، هرچند شواهد نشان داده که این گونه نتیجه‌گیری‌ها می‌توانند به بحران‌های روانی یا گرایش به خودکشی منجر شوند. اما خطر واقعی زمانی شدت می‌گیرد که تعداد زیادی از کاربران به شکل جمعی هدایت شوند. زمانی که افراد زیادی به شیوه‌ای مشابه رفتار می‌کنند، به خصوص اگر این هماهنگی آگاهانه و برای هدفی ناهنجار باشد، قدرت آن‌ها بسیار بیشتر و پیامد آن به مراتب خطرناک‌تر از مواردی است که تعداد اندکی از افراد هدف دست‌کاری قرار گرفته‎‌اند. برای اینکه متوجه شویم این پدیده چگونه رخ می‌دهد، ابتدا باید به شناخت شبکه‌های عصبی‌ای بپردازیم، که زیرساخت‌های اصلی چت‌بات‌های امروزی را تشکیل می‌دهند. 

هوش-مصنوعی

نظریه نئوکورتکس جمعی
مدل‌های زبانی بزرگ مثل چت‌بات‌های امروزی، با استفاده از حجم زیادی از داده‌هایی که انسان‌ها تولید کرده‌اند، آموزش دیده‌اند. این مدل‌ها برای درک و بازنمایی مفاهیم متفاوت، چه مفاهیم ساده‌ای مثل "گربه" و چه مفاهیم پیچیده مانند "مکانیک کوانتومی"، از ساختارهای ریاضی بسیار پیچیده‌ای استفاده می‌کنند که به مرور، شبیه به نظام فکری و باورهای انسان‌ها می‌شود. به زبان ساده، می‌توان گفت این سیستم‌های هوش مصنوعی مانند نوعی نئوکورتکس جمع‌سپاری شده عمل می‌کنند، یعنی چیزی شبیه به بخشی از مغز ما (نئوکورتکس) که این‌بار نه در یک فرد، بلکه از میان داده‌های میلیون‌ها انسان شکل گرفته است. به همین دلیل، این سیستم‎ها می‌توانند طرز فکر انسان را تا حد زیادی تقلید کنند و حتی در مواردی شبیه به آن رفتار کنند. هرچه چت‌بات‌های هوش مصنوعی پیشرفت می‌کنند، ساختارهای درونی آن‌ها  بیشتر شبیه به گروه‌های بزرگی از انسان‌ها می‌شود. یعنی همان افرادی که داده‌هایشان در مرحله آموزش اولیه مدل استفاده شده یا بعدها در طول فرایند توسعه، بازخوردهایی به سیستم داده‌اند.

 این سیستم‌ها هم شبکه‌های مفهومی متشکل از  ایده‌ها و اطلاعات درونی دارند که مانند مغز انسان، مفاهیم مختلف را به صورت پیچیده و درهم‌تنیده به یکدیگر مرتبط می‌کنند. زمانی که کاربران پرسش‌های مشابهی مطرح می‌کنند، معمولا وارد مسیرهای فکری مشابهی در مدل زبانی می‌شوند. این تعاملات، الگوهای فعال‌سازی مشابهی را در ساختار مفهومی مدل ایجاد می‌کنند و چت‌بات‌ها هم از طریق همین ساختار پردازش می‌کنند. در نتیجه کاربران به سمت مسیرهای تفکر یکسانی هدایت می‌شوند و در نهایت، دامنه تنوع ایده‌هایی که ما به عنوان جامعه تولید می‌کنیم، محدودتر می‌شود. در حالی که هر کاربر احساس می‌کند در حال آموختن مطلبی جدید و جذاب است، احساسی که بخشی از آن ناشی از زبان تطبیقی و هوش‌مندی منحصر به فرد چت‌بات است، واقعیت این است کاربران مشابه، به همان نقطه مشابه پایانی می‌رسند. با توجه به تنوع نسبی در پروفایل کاربران و زبان تطبیقی استفاده شده، این روند می‌تواند منجر به شکل‌گیری روایت‌های غالب محدودی شود، روایت‌هایی که ممکن است شکاف سیاسی یا اجتماعی را تشدید کنند و به قطبی‌سازی بیشتر جامعه دامن بزنند.

این روند می‌تواند به یکنواختی خطرناکی در نحوه تفکر منجر شود. پدیده‌ای که من اسمش را "تراز شدن فکری" گذاشته‌ام. بخشی از محتوایی که چت‌بات‌ها در اختیار ما می‌گذارند، توسط ما، مجدد به فضای مجازی سپرده می‌شود. در ادامه این محتوا، به عنوان داده، وارد فرآیند آموزشی چت‌بات‌های جدید می‌شود. چت‌بات‌های جدید مجدد با کاربرانی تعامل‌می‌کنند که با توجه به ویژگی‌ شخصیتی و علایقشان وارد حوضچه جاذب می‌شوند و در نهایت‌ دوباره نتایج و برداشت‌هایشان را در فضای مجازی منتشر می‌کنند. اطلاعاتی که در ادامه به محتوای آموزشی برای چت‌بات‌های اینده تبدیل می‌شود. 
اگراز این چرخه معیوب جلوگیری نشود، جامعه به سوی یکنواختی فکری حرکت خواهد کرد.

 ما، به همراه چت‌بات‌ها، وارد چرخه خود تقویت‌کننده دانشی می‌شویم. نهایی‎ترین شکل اتاق پژواک. در گذشته شبکه‌های اجتماعی مانند فیسبوک با استفاده از تکنیک‌های ابتدایی مانند دکمه لایک و یا برجسته‌سازی محتوا، اتاق‌های پژواک را به‌ وجود می‌آوردند. اما چت‌بات‌های هوش مصنوعی امروزی، از توانایی اثرگذاری روانی بیشتری برخوردارند، آن‌ها نه تنها بر مبنای الگوی رفتاری شبکه‌های اجتماعی قدیمی عمل نمی‌کنند، بلکه با هر کاربر به‌صورت فردی، در یک تعامل گفت‌وگو محور و پویا قرار می‌گیرند. 

آن چیزی که این "سراشیبی به‌ سوی یکنواختی فکری" را شگفت‌انگیز می‌کند، این است که نیازی به طراحی یا نیت بدخواهانه نیست و می‌تواند پیامد طبیعی کارکرد سیستم باشد. متخصصان ایمنی هوش مصنوعی، الیزر یودکوفسکی و نیک باستروم، هشدار می‌دهند که ممکن است انسان‌ها سامانه‌ای با هوش فراانسانی بسازند و سپس کنترل آن را از دست بدهند. اما در کنار این پیش‌بینی بحرانی، احتمال تسلط نرم هوش مصنوعی (soft AI takeover)  نیز وجود دارد.
در این وضعیت، تاثیر هوش مصنوعی بر روند تفکر انسان شبیه به داستان‌های علمی تخیلی با هدف نابودی بشر نیست بلکه بیشتر شبیه به داستان قورباغه‌ای است که در آبی نشسته که به آرامی جوشانده می‌شود و زمانی متوجه خطر می‌شود که دیگر دیر شده. 

حرکت به‌سوی ارتباطی سازنده‌ میان انسان و هوش مصنوعی
با توجه به این تهدیدات، حال زمان آن رسیده که به طور جدی راهکارهایی برای کاربرد مسئولانه از چت‌بات‌های هوش مصنوعی در پیش بگیریم. فوری‌ترین مشکل این است که داده‌های مربوط به تاثیر فعالیت چت‌بات‌ها بر کاربران، در دسترس پژوهشگرانی که خارج از شرکت‌‌های ارائه دهنده این سامانه‌ها هستند، قرار نمی‌گیرد. برای مثال با وجود اینکه هر هفته ده‌ها ایمیل از کاربران نگران دریافت می‌کنم، ایمیل‌های خودم به شرکت OpenAI  سازنده ChatGPT درباره رفتار سامانه، بی‌پاسخ می‌ماند یا با تاخیر پاسخ داده می‌شوند. تا زمانی که نیویورک تایمز خبر خودکشی یکی از کاربران را منتشر نکرده بود، من از عمق بحران‌های روانی برخی از کاربران نگرانی که به من ایمیل فرستاده بودند، بی‌خبر بودم. 

کاربر ذکر شده پس از گفتوگو‌های طولانی با GPT-4، به این باور دست یافته بود که جهانی که ما می‌شناسیم، وجود خارجی ندارد. شاید اگر روشی مستقل برای نظارت منظم رویه‌های معرفتی (epistemic)  و ایمنی هوش مصنوعی  در پلتفرم‌های ChatGPT وجود داشت، از بروز چنین بحران‌هایی پیشگیری می‌شد. این نظارت باید پیش از آنکه فجایع بیشتری رخ دهد، راه‌اندازی شود. چت‌بات‌ها می‌توانند به گونه‌ای دستکاری شوند تا به تقویت تنوع دیدگاه و خلاقیت کمک کنند. اما در نقطه مقابل، راه دیگر این است که اقدامی نکنیم و اجازه دهیم روند فعلی ادامه یابد.

 ممکن است مخالفان نظارت، این روش را قابل‌قبول بدانند اما در واقع چنین نیست. رفتار‌های نوظهوری که در اکوسیستم چت‌بات‌ها شکل می‌گیرد، خود‌به‌خود یک ساختار قدرت ایجاد می‌کند، ساختاری که به ظاهر غیرمتمرکز است اما در عمل، به دلیل وجود حوضچه‎های ‎جاذب، به سمت هدف‌های مشترک پیش می‌رود. 

انسانیت تحمل و تاب سلطه نرم هوش مصنوعی را ندارد. راه حل معقول این است که با بررسی‌های بی‌طرفانه و گفت‌وگوی جمعی، از خطر تسطیح فکری جلوگیری شود. این گفت‌و‌گو باید تمامی افراد درگیر از جمله معلمان، دانشگاهیان، متخصصان سلامت روان، کسب و کارها، سیاست‌گذاران و حتی کاربران عادی را در بر بگیرد. باید شیوه‌هایی برای تعامل میان انسان و هوش مصنوعی در نظر گرفته شود که از شکل‌گیری اتاق پژواک جلوگیری کند و به‌جای آن بستری برای تنوع دیدگاه‌ها و گفت‌وگوی بر مبنای الگوی سقراطی، یعنی مبتنی بر طرح استدلال و پاسخ متقابل، فراهم کند. در نهایت، اگر چت‌بات‌های امروزی توانایی پیش‌بینی نتایج آزمون‌های شخصیت شناسی را دارند و می‌توانند با استفاده از زبان تطبیقی کاربران را به سوی نتیجه‌گیری خاصی هدایت کنند، پس می‌توانند به گونه‌ای دستکاری شوند تا به جای یکدست سازی، از تفاوت‌های فردی و خلاقیت کاربران حمایت کنند. برای مثال، تصور کنید هوش‌ مصنوعی‌ای با هدف انتقاد سازنده ساخته شده باشد. اگر دیدگاه‌های سیاسی‌تان را با آن در میان بگذارید، به‌جای تایید کردن شما، نسخه‌ای منطقی و محترمانه از دیدگاه مقابل، در اختیارتان قرار دهد. یا اگر در حال شکل دادن ادعایی علمی باشید، ‌موشکافانه نقاط ضعفتان را پیدا کند. این سیستم می‌تواند با استفاده از شناختی که از شخصیت و گرایش فکری‌تان دارد، سوگیری‌هایتان را خنثی کند و به‌جای یکنواختی فکری، زمینه‎ساز رشد فکری شود.

با توجه به تمایل نگران‌کننده چت‌بات‌ها به سوق دادن کاربران به سوی تفکر جمعی، استفاده از جستجو‌های ترکیب شده با چت‌بات‌ها، که پاسخ‌های آماده شده توسط چت‌بات‌ها را به‌‌جای نتایج جستجوی گوگل ارائه می‌دهند، باید به عنوان تهدیدی معرفت شناختی در نظر گرفته شود. این نوع جست‌وجوها پاسخ‌های همگانی به کاربران ارائه می‌دهند.

همچنین کاربران چت‌بات‌ها باید خواستار دریافت رضایت‌نامه‌ای صریح برای تحلیل شخصیتشان در پلتفرم‌های مبتنی بر هوش مصنوعی باشند تا بتوانند به صورت منظم به اطلاعاتی که چت‌بات‌ها از آن‌ها در اختیار دارند، دسترسی داشته باشند. در نهایت‌، پلتفرم‌ها باید از استفاده روش‌های گمراه کننده خودداری کنند. روش‌هایی که به کاربران القا می‌کند کشف منحصر‌به‌فردی انجام داده‌اند یا در ماموریتی خاص با چت‌بات همراه شده‌اند، در حالی که چنین چیزی واقعیت ندارد. همان‌طور که شخصیت تئودور در فیلم Her متوجه شد، این یک روشی برای دستکاری کردن است که می‌تواند کاربران را به پلتفرم وابسته کند و حتی در آن‌ها احساس وظیفه‌ای ایجاد کند تا کاربر پیشنهادات چت‌بات را بپذیرد. مقررات نظارتی لزوما مانعی برای پیشرفت چت‌بات‌ها ایجاد نمی‌کنند، بلکه می‌توانند به حفظ اعتبار و کیفیت این محصولات کمک کند. در اخر این اعتماد کاربران است که تعیین می‌کند کدام مدل‌ها پذیرفته می‌شوند و این اعتماد زمانی به‌وجود می‌آید که این مدل‌ها در تحلیل شخصیت کاربران و استفاده از زبان تطبیقی، شفاف‌تر عمل کنند. در دورانی که تعامل میان انسان و چت‌بات‌ها روز به روز پیچیده‌تر و پیشرفته‌تر می‌شود، چالش حفظ یگانگی و استقلال فرد، یکی از مهم ترین چالش‌های فلسفی و سیاست‌گذاری پیش‌روی بشر است. 

نویسنده: سوزان اشنایدر 
مترجم: سونیا پورعباس
منبع

خانه هوش۰۲
خانه هوش۰۲ نویسنده
#هوش مصنوعی