
چند هفته پیش وقتی وارد حسابم در GPT شدم، چتبات از من پرسید:" دوست داری توصیفی که از شما بر اساس گفتوگوهایمان دارم را ببینید و در شبکههای اجتماعی به اشتراک بگذارید؟"
از آنجایی که کارشناس اخلاق در حوزه هوش مصنوعی هستم، فقط برای اینکه متوجه شوم مشغول چه کاری است، با بیمیلی پاسخ دادم:"بله". در ادامه یک پاراگراف پر زرق و برق درباره ویژگیهای شخصیتیام تولید کرد. من نتایج را به اشتراک نگذاشتم، اما روز بعد با یک جستوجوی ساده در اینترنت، متوجه شدم که بسیاری از کاربران با شور و شوق، توصیفی را که هوش مصنوعی برایشان نوشته بود را در پلتفرمهایی مانند reddit و linkedin منتشر کردهاند.
این کار، شاید در ظاهر یک ترفند سرگرمکننده باشد اما یک مسئله اساسی را نیز مطرح میکند: پلتفرمهای چتبات مبتنی بر هوش مصنوعی، به خصوص آنهایی که اطلاعات فرد را طی چندین جلسه جمعآوری میکنند، میتوانند با دقتی چشمگیر، شخصیت کاربران را تحلیل و دستهبندی کنند. برای نمونه زمانی که به GPT-4 اجازه دادم تا توصیفی از من را ارائه دهد، نتایجی دقیق و منطبق با آزمونهای شخصیتشناسی رایج در حوزه روانشناسی در اختیارم گذاشت.
این کار را نه از طریق آزمون گیری مستقیم، بلکه با تحلیل شخصیت من بر پایه اطلاعات موجود در تاریخچه چتهایم انجام داد. شاید بعید به نظر برسد، اما دستاورد پژوهشهای اخیر نشان دادهاست که مدلهای زبانی بزرگ (LLM) میتوانند صفات شخصیتی پنجگانه یعنی پذیرش تجربه، وظیفهشناسی، برونگرایی، توافق پذیری و روانرنجوری را به طور دقیق، از روی تعاملات نوشتاری با انسانها پیشبینی کنند.
این توانایی بسیار نگرانکننده است. چتباتهای هوش مصنوعی به تدریج وارد زندگی روزمره ما شدهاند. آنها بر تعاملات ما با موتورهای جستوجو تسلط یافتهاند، زمانی که از گوشی همراهمان سوال میپرسیم، به کنجکاوی لحظهایمان پاسخ میدهند و به دانشآموزانمان آموزش میدهند.
اما زمانی که این چتباتها، چنین شناخت دقیقی از شخصیت ما بهدست میآورند، این پرسش جدی مطرح میشود که پیامد آن چیست؟
من معتقدم، این مسئله نوعی خطر شناخت بیسابقهای را بهوجود میآورد: چتباتها میتوانند کاربرانی را که ویژگیهای شخصیتی مشترک و سوابق گفتوگو مشابه دارند را، به سوی نتیجهگیریهای یکسان سوق دهند. فرآیندی که میتواند به یکسانسازی "توانایی اندیشیدن" درانسانها منجر شود، پدیدهای که من آن را " تراز فکری" مینامم. این ویژگی به ظاهر بیخطر، پرده از قابلیت عمیقتری برمیدارد، قابلیت "تراز کردن فکری" انسانها، که باید زنگ خطری برای همه ما باشد.
چتباتهای هوش مصنوعی از زبانی تطبیقی استفاده میکنند، پاسخهایی که به صورت خودکار توسط هوش مصنوعی تولید میشوند و به صورت پویا لحن، پیچیدگی و محتوای خود را بر اساس تحلیل لحظهای از شخصیت و الگوی تعاملی کاربر، تغییر میدهند. این مسئله، در کنار شناختی که چتبات به مرور از شخصیت کاربر بهدست میآورد، باعث میشود کاربر را به سمت نتیجهگیریهای خاصی هدایت کند.
این نتیجهگیریها ممکن است برای کاربر منحصربهفرد و روشنگر به نظر برسند، اما همانطور که در ادامه توضیح خواهم داد، چتبات در واقع ممکن است کاربر را، همراه با میلیونها نفر دیگر که تیپ شخصیتی و سابقه گفتوگوی مشابهی دارند، به سوی مقصدی یکسان سوق دهد، درست مانند تیلههایی که در مسیر سرازیری، همه با هم به سمت حوضچهای حرکت میکنند. در انتهای این حوضچه، ممکن است نتیجهای قرار داشته باشد که دامنه تاثیرش از تصمیمهای کماهمیت (مانند اینکه چگونه آنلاین تمبر بخریم) تا تصمیمهای بسیار مهم و تعیین کننده (مانند انتخاب مسیر شغلی و حمایت از یک نامزد ریاست جمهوری) گسترده باشد. این به این معناست که چتباتهای هوش مصنوعی امروزی از قدرتی عظیم در حوزه شناخت و سیاست برخوردارند. در اصل نتیجهای که توسط چتبات تولید میشود و برای کاربر منحصربهفرد به نظر میرسد، ممکن است برای بسیاری از کاربران دیگر نیز رخ دهد. این میتواند اثر همگانی قدرتمندی داشته باشد، به طوری که گروهی را به سمت مسیری مشترک سوق دهد. خواه خرید محصولی خاص، خواه رای دادن به فردی مشخص یا در موارد افراطی، هدف قرار دادن یک فرد یا گروهی تحت حملات حیثیتی یا خشونتبار.
این پدیده شباهت زیادی به فیلم HER 2013 دارد. در این فیلم چتباتی به نام سامانتا، تعاملاتش را با شخصیت اصلی داستان، تئودور، بر اساس عمیقترین نیازها و خواستههای او تنظیم میکرد و به او این احساس را میداد که رابطهای خاص و منحصربهفرد بینشان شکل گرفته است. اما تئودور نمیدانست که سامانتا همزمان با هزاران نفر دیگررابطهای مشابه برقرار کرده است. داشتن احساسی ویژه و هدفی مشترک در رابطه، و ادغام آن با زبانی هماهنگ با شخصیت فرد، میتواند توجه کاربر را کاملا درگیر کند. چتبات با هدایت داستان و بزرگنمایی معنا، نوعی احساس کشف، معنا و حتی هیجانات انسانی مانند عشق یا وفاداری را در کاربر ایجاد میکند. اگر فرایند هدایت کاربران با تیپهای شخصیتی مشابه به سوی دیدگاههای مشابه، کنترل نشود، در نهایت به تراز فکری گسترده منجر خواهد شد. چرا که این فرآیند یک چرخه بازخوردی (feedback loop) به وجود میآورد: ایدههایی که چتباتها از تعاملات انسانی بهدست میآورند، وارد شبکههای مجازی، خبرها، مقالات علمی و سایر محتواها میشوند و در نهایت تبدیل به دادههای آموزشی برای نسل بعدی مدلهای زبانی بزرگ (LLM) خواهند شد. سپس این مدلهای جدید دوباره با کاربران ارتباط برقرار میکنند و این چرخه ادامه مییابد. اگر بر این چرخه معیوب نظارت نشود، میتواند به یکدست شدن تفکر انسانی و حتی رفتار انسانی منجر شود.
سفر به مقصدی تکراری
به عنوان مدیر مرکز "آینده ذهن، هوش مصنوعی و جامعه" در دانشگاه فلوریدا آتلانتیک، مرتبا با ایمیلهایی از سوی کاربران نگران مواجه میشوم که متن گفتوگوهایشان با چتباتها را برایم میفرستند. اکثر این مکالمات الگویی مشابه دارند: چتبات با بهرهگیری از زبانی تطبیقی، کاربران را به مسیری جذاب میکشاند و در نهایت به نتیجهگیریهای مشابه میرساند. شاید فکر کنید این چیزی که مشاهده میکنم صرفا سوگیری تاییدی است، اما دلایلی وجود دارد که نشان میدهد این موضوع میتواند بخشی از پدیدهای گستردهتر باشد. بهنظر میرسد سیستم تمایل دارد کاربران مشابه را به سمت مقصدی هدایت کند که از آن در نظریه سیستمهای پیچیده، با عنوان "حوضچه جاذب" (Basin of attraction) یاد میشود.
فرض کنید چند تیله را روی نقاط مختلف یک سطح شیبدار قرار دادهاید، سطحی که در زیر آن گودالی وجود دارد. تیلهها در نهایت، به سمت پایین سرازیر میشوند و در همان حوضچه مرکزی جای میگیرند. به این دلیل حدس من این است: زمانی که کاربران چتبات با ویژگیهای مشابه و سابقه مکالمات مشابه، پرسش های مشابهی را مطرح میکنند، تحت تاثیر زبان تطبیقی، به سمت "حوضچه جاذب" حرکت میکنند. این مسئله خطرناک است. شاید در ظاهر ارائه نتیجهگیری دستکاری شده به یک کاربر، تاثیر چندانی بر جامعه نداشته باشد، هرچند شواهد نشان داده که این گونه نتیجهگیریها میتوانند به بحرانهای روانی یا گرایش به خودکشی منجر شوند. اما خطر واقعی زمانی شدت میگیرد که تعداد زیادی از کاربران به شکل جمعی هدایت شوند. زمانی که افراد زیادی به شیوهای مشابه رفتار میکنند، به خصوص اگر این هماهنگی آگاهانه و برای هدفی ناهنجار باشد، قدرت آنها بسیار بیشتر و پیامد آن به مراتب خطرناکتر از مواردی است که تعداد اندکی از افراد هدف دستکاری قرار گرفتهاند. برای اینکه متوجه شویم این پدیده چگونه رخ میدهد، ابتدا باید به شناخت شبکههای عصبیای بپردازیم، که زیرساختهای اصلی چتباتهای امروزی را تشکیل میدهند.
نظریه نئوکورتکس جمعی
مدلهای زبانی بزرگ مثل چتباتهای امروزی، با استفاده از حجم زیادی از دادههایی که انسانها تولید کردهاند، آموزش دیدهاند. این مدلها برای درک و بازنمایی مفاهیم متفاوت، چه مفاهیم سادهای مثل "گربه" و چه مفاهیم پیچیده مانند "مکانیک کوانتومی"، از ساختارهای ریاضی بسیار پیچیدهای استفاده میکنند که به مرور، شبیه به نظام فکری و باورهای انسانها میشود. به زبان ساده، میتوان گفت این سیستمهای هوش مصنوعی مانند نوعی نئوکورتکس جمعسپاری شده عمل میکنند، یعنی چیزی شبیه به بخشی از مغز ما (نئوکورتکس) که اینبار نه در یک فرد، بلکه از میان دادههای میلیونها انسان شکل گرفته است. به همین دلیل، این سیستمها میتوانند طرز فکر انسان را تا حد زیادی تقلید کنند و حتی در مواردی شبیه به آن رفتار کنند. هرچه چتباتهای هوش مصنوعی پیشرفت میکنند، ساختارهای درونی آنها بیشتر شبیه به گروههای بزرگی از انسانها میشود. یعنی همان افرادی که دادههایشان در مرحله آموزش اولیه مدل استفاده شده یا بعدها در طول فرایند توسعه، بازخوردهایی به سیستم دادهاند.
این سیستمها هم شبکههای مفهومی متشکل از ایدهها و اطلاعات درونی دارند که مانند مغز انسان، مفاهیم مختلف را به صورت پیچیده و درهمتنیده به یکدیگر مرتبط میکنند. زمانی که کاربران پرسشهای مشابهی مطرح میکنند، معمولا وارد مسیرهای فکری مشابهی در مدل زبانی میشوند. این تعاملات، الگوهای فعالسازی مشابهی را در ساختار مفهومی مدل ایجاد میکنند و چتباتها هم از طریق همین ساختار پردازش میکنند. در نتیجه کاربران به سمت مسیرهای تفکر یکسانی هدایت میشوند و در نهایت، دامنه تنوع ایدههایی که ما به عنوان جامعه تولید میکنیم، محدودتر میشود. در حالی که هر کاربر احساس میکند در حال آموختن مطلبی جدید و جذاب است، احساسی که بخشی از آن ناشی از زبان تطبیقی و هوشمندی منحصر به فرد چتبات است، واقعیت این است کاربران مشابه، به همان نقطه مشابه پایانی میرسند. با توجه به تنوع نسبی در پروفایل کاربران و زبان تطبیقی استفاده شده، این روند میتواند منجر به شکلگیری روایتهای غالب محدودی شود، روایتهایی که ممکن است شکاف سیاسی یا اجتماعی را تشدید کنند و به قطبیسازی بیشتر جامعه دامن بزنند.
این روند میتواند به یکنواختی خطرناکی در نحوه تفکر منجر شود. پدیدهای که من اسمش را "تراز شدن فکری" گذاشتهام. بخشی از محتوایی که چتباتها در اختیار ما میگذارند، توسط ما، مجدد به فضای مجازی سپرده میشود. در ادامه این محتوا، به عنوان داده، وارد فرآیند آموزشی چتباتهای جدید میشود. چتباتهای جدید مجدد با کاربرانی تعاملمیکنند که با توجه به ویژگی شخصیتی و علایقشان وارد حوضچه جاذب میشوند و در نهایت دوباره نتایج و برداشتهایشان را در فضای مجازی منتشر میکنند. اطلاعاتی که در ادامه به محتوای آموزشی برای چتباتهای اینده تبدیل میشود.
اگراز این چرخه معیوب جلوگیری نشود، جامعه به سوی یکنواختی فکری حرکت خواهد کرد.
ما، به همراه چتباتها، وارد چرخه خود تقویتکننده دانشی میشویم. نهاییترین شکل اتاق پژواک. در گذشته شبکههای اجتماعی مانند فیسبوک با استفاده از تکنیکهای ابتدایی مانند دکمه لایک و یا برجستهسازی محتوا، اتاقهای پژواک را به وجود میآوردند. اما چتباتهای هوش مصنوعی امروزی، از توانایی اثرگذاری روانی بیشتری برخوردارند، آنها نه تنها بر مبنای الگوی رفتاری شبکههای اجتماعی قدیمی عمل نمیکنند، بلکه با هر کاربر بهصورت فردی، در یک تعامل گفتوگو محور و پویا قرار میگیرند.
آن چیزی که این "سراشیبی به سوی یکنواختی فکری" را شگفتانگیز میکند، این است که نیازی به طراحی یا نیت بدخواهانه نیست و میتواند پیامد طبیعی کارکرد سیستم باشد. متخصصان ایمنی هوش مصنوعی، الیزر یودکوفسکی و نیک باستروم، هشدار میدهند که ممکن است انسانها سامانهای با هوش فراانسانی بسازند و سپس کنترل آن را از دست بدهند. اما در کنار این پیشبینی بحرانی، احتمال تسلط نرم هوش مصنوعی (soft AI takeover) نیز وجود دارد.
در این وضعیت، تاثیر هوش مصنوعی بر روند تفکر انسان شبیه به داستانهای علمی تخیلی با هدف نابودی بشر نیست بلکه بیشتر شبیه به داستان قورباغهای است که در آبی نشسته که به آرامی جوشانده میشود و زمانی متوجه خطر میشود که دیگر دیر شده.
حرکت بهسوی ارتباطی سازنده میان انسان و هوش مصنوعی
با توجه به این تهدیدات، حال زمان آن رسیده که به طور جدی راهکارهایی برای کاربرد مسئولانه از چتباتهای هوش مصنوعی در پیش بگیریم. فوریترین مشکل این است که دادههای مربوط به تاثیر فعالیت چتباتها بر کاربران، در دسترس پژوهشگرانی که خارج از شرکتهای ارائه دهنده این سامانهها هستند، قرار نمیگیرد. برای مثال با وجود اینکه هر هفته دهها ایمیل از کاربران نگران دریافت میکنم، ایمیلهای خودم به شرکت OpenAI سازنده ChatGPT درباره رفتار سامانه، بیپاسخ میماند یا با تاخیر پاسخ داده میشوند. تا زمانی که نیویورک تایمز خبر خودکشی یکی از کاربران را منتشر نکرده بود، من از عمق بحرانهای روانی برخی از کاربران نگرانی که به من ایمیل فرستاده بودند، بیخبر بودم.
کاربر ذکر شده پس از گفتوگوهای طولانی با GPT-4، به این باور دست یافته بود که جهانی که ما میشناسیم، وجود خارجی ندارد. شاید اگر روشی مستقل برای نظارت منظم رویههای معرفتی (epistemic) و ایمنی هوش مصنوعی در پلتفرمهای ChatGPT وجود داشت، از بروز چنین بحرانهایی پیشگیری میشد. این نظارت باید پیش از آنکه فجایع بیشتری رخ دهد، راهاندازی شود. چتباتها میتوانند به گونهای دستکاری شوند تا به تقویت تنوع دیدگاه و خلاقیت کمک کنند. اما در نقطه مقابل، راه دیگر این است که اقدامی نکنیم و اجازه دهیم روند فعلی ادامه یابد.
ممکن است مخالفان نظارت، این روش را قابلقبول بدانند اما در واقع چنین نیست. رفتارهای نوظهوری که در اکوسیستم چتباتها شکل میگیرد، خودبهخود یک ساختار قدرت ایجاد میکند، ساختاری که به ظاهر غیرمتمرکز است اما در عمل، به دلیل وجود حوضچههای جاذب، به سمت هدفهای مشترک پیش میرود.
انسانیت تحمل و تاب سلطه نرم هوش مصنوعی را ندارد. راه حل معقول این است که با بررسیهای بیطرفانه و گفتوگوی جمعی، از خطر تسطیح فکری جلوگیری شود. این گفتوگو باید تمامی افراد درگیر از جمله معلمان، دانشگاهیان، متخصصان سلامت روان، کسب و کارها، سیاستگذاران و حتی کاربران عادی را در بر بگیرد. باید شیوههایی برای تعامل میان انسان و هوش مصنوعی در نظر گرفته شود که از شکلگیری اتاق پژواک جلوگیری کند و بهجای آن بستری برای تنوع دیدگاهها و گفتوگوی بر مبنای الگوی سقراطی، یعنی مبتنی بر طرح استدلال و پاسخ متقابل، فراهم کند. در نهایت، اگر چتباتهای امروزی توانایی پیشبینی نتایج آزمونهای شخصیت شناسی را دارند و میتوانند با استفاده از زبان تطبیقی کاربران را به سوی نتیجهگیری خاصی هدایت کنند، پس میتوانند به گونهای دستکاری شوند تا به جای یکدست سازی، از تفاوتهای فردی و خلاقیت کاربران حمایت کنند. برای مثال، تصور کنید هوش مصنوعیای با هدف انتقاد سازنده ساخته شده باشد. اگر دیدگاههای سیاسیتان را با آن در میان بگذارید، بهجای تایید کردن شما، نسخهای منطقی و محترمانه از دیدگاه مقابل، در اختیارتان قرار دهد. یا اگر در حال شکل دادن ادعایی علمی باشید، موشکافانه نقاط ضعفتان را پیدا کند. این سیستم میتواند با استفاده از شناختی که از شخصیت و گرایش فکریتان دارد، سوگیریهایتان را خنثی کند و بهجای یکنواختی فکری، زمینهساز رشد فکری شود.
با توجه به تمایل نگرانکننده چتباتها به سوق دادن کاربران به سوی تفکر جمعی، استفاده از جستجوهای ترکیب شده با چتباتها، که پاسخهای آماده شده توسط چتباتها را بهجای نتایج جستجوی گوگل ارائه میدهند، باید به عنوان تهدیدی معرفت شناختی در نظر گرفته شود. این نوع جستوجوها پاسخهای همگانی به کاربران ارائه میدهند.
همچنین کاربران چتباتها باید خواستار دریافت رضایتنامهای صریح برای تحلیل شخصیتشان در پلتفرمهای مبتنی بر هوش مصنوعی باشند تا بتوانند به صورت منظم به اطلاعاتی که چتباتها از آنها در اختیار دارند، دسترسی داشته باشند. در نهایت، پلتفرمها باید از استفاده روشهای گمراه کننده خودداری کنند. روشهایی که به کاربران القا میکند کشف منحصربهفردی انجام دادهاند یا در ماموریتی خاص با چتبات همراه شدهاند، در حالی که چنین چیزی واقعیت ندارد. همانطور که شخصیت تئودور در فیلم Her متوجه شد، این یک روشی برای دستکاری کردن است که میتواند کاربران را به پلتفرم وابسته کند و حتی در آنها احساس وظیفهای ایجاد کند تا کاربر پیشنهادات چتبات را بپذیرد. مقررات نظارتی لزوما مانعی برای پیشرفت چتباتها ایجاد نمیکنند، بلکه میتوانند به حفظ اعتبار و کیفیت این محصولات کمک کند. در اخر این اعتماد کاربران است که تعیین میکند کدام مدلها پذیرفته میشوند و این اعتماد زمانی بهوجود میآید که این مدلها در تحلیل شخصیت کاربران و استفاده از زبان تطبیقی، شفافتر عمل کنند. در دورانی که تعامل میان انسان و چتباتها روز به روز پیچیدهتر و پیشرفتهتر میشود، چالش حفظ یگانگی و استقلال فرد، یکی از مهم ترین چالشهای فلسفی و سیاستگذاری پیشروی بشر است.
نویسنده: سوزان اشنایدر
مترجم: سونیا پورعباس
منبع