
کریس سامرفیلد، متخصص علوم اعصاب شناختی، میگوید ما فناوریای را که با اینهمه شوق در حال استفاده از آن هستیم، واقعاً نمیفهمیم.
در آغاز کتاب جدید خود با عنوان «این ذهنهای عجیب و تازه»، کریس سامرفیلد، استاد علوم اعصاب شناختی در دانشگاه آکسفورد و پژوهشگر هوش مصنوعی در دیپمایند گوگل بریتانیا، صحنهای کلاسیک از یک کارتون قدیمی را توصیف میکند: درست بعد از اینکه کایوتی، میگمیگ را فریب داده، تا از لبه پرتگاه عبور کند؛ او در حالی که پاهایش هنوز در هوا برای یافتن زمین حرکت میکنند؛ تنها چند ثانیه پیش از یک سقوط فاجعهبار، لحظهای در بالای دره معلق مانده است.
سامرفیلد مینویسد: من این کتاب را مینویسم چون ما همین حالا از آن پرتگاه گذشتهایم .
او ادامه میدهد: زمینی که پشت سر گذاشتهایم، همان دنیای امنی است که در آن، فقط انسانها تولیدکنندهی دانش بودند. دانش، قدرت است. همین دانش بوده که به انسانها امکان داده تمدنهایی درخشان بر روی زمین بسازند، به گوشههای دوردست منظومهی شمسی سرک بکشند، آثار هنری شگفتانگیز خلق کنند و ابعاد مادی، فرهنگی و سیاسی زندگی روزمرهشان را درک کنند.
اما حالا که هوشهای مصنوعی هر روز در تولید و بهکارگیری دانش ماهرتر میشوند، پرسشی مطرح میشود:
"کسانی که کنترل هوش مصنوعی را در دست دارند، با این قدرت چه خواهند کرد؟ و اگر روزی هوشهای مصنوعی شروع به همکاری با یکدیگر کنند، در جهت منافع چه کسی عمل خواهند کرد؟"
سامرفیلد دستکم در آیندهی نزدیک بیش از آنکه نگران خودِ فناوری باشد، نگران این است که آیا انسانها توانایی درک سازوکار این فناوری و تعامل هوشمندانه با آن را دارند یا نه.
بخشی از هدف او از نوشتن کتاب «این ذهنهای عجیب و تازه» همین است: کمک به خواننده برای درک دقیق اینکه مدلهای زبانی بزرگ (LLMs) چگونه کار میکنند، چگونه از زبان استفاده میکنند و چرا خروجی آنها تا این اندازه شبیه به تفکر و گفتار انسانی به نظر میرسد. در جریان این کتاب، سامرفیلد ما را با خود به تاریخ و گذشته هوش مصنوعی میبرد؛ از ریشههای فلسفی اولیهاش گرفته تا الهامهای آن از فرهنگ عام و اثراتی که بر آن گذاشته؛ و همزمان، نگاهی هم دارد به اینکه چگونه در مواجهه با این ذهنهای تازه، اخلاقیات و طرز فکر ما نیز در حال دگرگونی است.
در نهایت، سامرفیلد استدلال میکند که مدلهای زبانی بزرگ (LLMs) هوشیار یا دارای آگاهی نیستند؛ حداقل نه به شکلی که برای انسان قابل درک آن باشد. او میگوید احتمال اینکه این مدلها کنترل دنیا را به دست بگیرند و آن را نابود کنند، بسیار کم است. با این حال، ممکن است همین حالا هم مشکلات موجود را تشدید کنند. به گفتهی او، محدودیتهای هوش مصنوعی آنقدرها هم با محدودیتهای مغز انسان تفاوت ندارند. ما با سامرفیلد گفتوگویی دربارهی محدودیتها و خطرهای انقلابی فناورانی داشتیم. این مشکلات و انقلاب آنقدر با سرعت در حال وقوع است که حتی فرصت فکر کردن به پیامدهای آن را هم پیدا نکردهایم.
عکس از: کاتالینا رنجیفو
شما از والی کایوتی(نقش منفی کارتون میگمیگ) بهعنوان استعارهای برای «لبهی پرتگاه» استفاده کردهاید که در رابطه با هوش مصنوعی از آن عبور کردهایم. چطور به این نقطه رسیدیم؟
فناوری هنوز از توانایی کنترل ما جلو نزده، اما مسیر حرکتش کاملاً به آن سمت است. این استعاره به ناآگاهی هایی اشاره دارد که با ورود به جهانی تازه روبهرو شدهایم؛ جهانی که در آن، سیستمهای هوش مصنوعی میتوانند دانش جدید تولید کنند؛ برای اولین بار در تاریخ، موجودی غیر از انسان توانسته چنین کاری انجام دهد.
اهمیت زبان در مدلهای زبانی بزرگ چیست؟
برای انسانها، زبان قدرت خارقالعادهای است. زبان همان پیشرفت مهمِ شناختی است که به ما امکان داد با هم همکاری و همفکری کنیم و تمدنی پیشرفته بسازیم. زبان به ما اجازه میدهد دانش را با یکدیگر به اشتراک بگذاریم و با ترکیب ایدهها، دانش تازهای خلق کنیم. پس اینکه هوش مصنوعی توانسته «صحبت کردن» را یاد بگیرد، واقعاً موضوعی بسیار بسیار مهم است.
تسلط هوش مصنوعی بر زبان تا چه حد به آن قدرتهایی مشابه انسان میدهد؛مثل توانایی همکاری، بهاشتراکگذاری یا خلق دانش جدید؟
همکاری فقط به زبان نیاز ندارد، بلکه مستلزم درک باورها و ترجیحات دیگران و توانایی سازگاری با دنیای اجتماعی هم هست. ما هنوز شرایطی را که در آن مدلهای زبانی بزرگ با یکدیگر تعامل داشته باشند، بهطور گسترده آزمایش نکردهایم تا ببینیم چه پیامدهایی خواهد داشت. با این حال، توانایی استدلال در این مدلها این فرصت را فراهم میکند که بتوانند با کنار هم گذاشتن قطعات مختلفِ موجود، ایدههای جدیدی خلق کنند.
آیا مدلهای زبانی بزرگ واقعاً «زبان را میفهمند» یا فقط خوب وانمود میکنند که میفهمند؟
مسئله این است که ما اصولاً تعریف مشخص و مورد توافقی برای «فهمیدن» نداریم. مثلاً واقعاً «میفهمید» یک موتور احتراق داخلی(موتوری که فرایند سوزش را در خود انجام میدهد) چطور کار میکند؟ یا چرا جنگ جهانی دوم اتفاق افتاد؟ ما معیارهای محکمی برای داوری قطعی دربارهی اینکه کسی چیزی را واقعاً فهمیده یا نه، نداریم.
اما چیزی که میتوانیم با اطمینان بگوییم این است که توانایی رسمی LLMها در استفاده از زبان از جمله تولید جملات کاملاً نو در حد یک انسان یا حتی بهتر از انسان است، دستکم برای زبانهایی مثل انگلیسی و سایر زبانهایی که منابع زیادی دارند.
«فناوری هنوز از توانایی ما برای کنترلش جلو نزده، اما مسیر حرکت دقیقاً به همان سمت است.»
در کتاب به این ادعاها میپردازید که هوش مصنوعی به آگاهی رسیده یا ممکن است در آینده به آگاهی برسد. اگر این اتفاق بیفتد، چه تأثیری میتواند بر جامعه داشته باشد؟
صادقانه بگویم، فکر نمیکنم آگاهی یا ناآگاهی هوش مصنوعی تأثیر خاصی بر جامعه داشته باشد، چون هیچوقت واقعاً نمیتوانیم بفهمیم که آگاه هست یا نه. وقتی پای هر عامل دیگری جز خودمان وسط باشد، آگاهی بیشتر یک برداشت ذهنی از طرف ناظر است؛ من نمیتوانم ذهنیت درونی تو را تجربه کنم، اما اگر رفتاری خاصی که مورد نظر من باشد از خودت نشان دهی، با تو طوری رفتار میکنم که انگار آگاه هستی. ما با حیوانات خانگیمان همیشه همین کار را میکنیم. احتمالاً با بیشتر انسانی شدن هوش مصنوعی؛ مردم هم بیشتر به این باور میرسند که این سیستمها آگاهاند، ولی ما هرگز با قطعیت نخواهیم دانست که این باور درست هست یا نه.
آیا هوش مصنوعی یک ابزار خواهد بود یا شکلی تازه از انسان؟
فکر میکنم مفیدتر است که به هوش مصنوعی بهچشم یک ابزار نگاه کنیم، بهویژه بهعنوان نوعی سرویس دیجیتال که میتواند بهجای ما تصمیمگیری کند. مردم باید بهخاطر داشته باشند که هنگام صحبت با هوش مصنوعی، در واقع با یک شخص طرف نیستند، بلکه دارند از یک سرویس استفاده میکنند که توسط یک شرکت فناوری ارائه شده است.
با این حال، اگر رفتار هوش مصنوعی شبیه انسان باشد، طبیعتاً وسوسهانگیز خواهد بود که با آن مثل یک انسان رفتار کنیم. اما من قانع نشدهام که جهان به انسانهای بیشتری نیاز دارد؛ همین الان هم ۸ میلیارد انسان روی زمین زندگی میکنند. چیزی که واقعاً به آن نیاز داریم، ابزارهای بهتری است برای سازماندهی جامعه؛ تا بتوانیم در کنار هم با آرامش، رفاه و عدالت بیشتری زندگی کنیم؛ چیزهایی که این روزها بهسختی پیدا میشوند.
آیا مدلهای زبانی بزرگ (LLMs) میتوانند «فکر» کنند؟
مدلهای زبانی بزرگ مراحل استدلالی را در زبان طبیعی طی میکنند که شبیه همان مراحلی است که من و شما هنگام حل یک مسئله در ذهنمان انجام میدهیم. آنها حتی میتوانند این مراحل را در حین فکر کردن با صدای بلند برای خودشان بیان کنند و درست مثل من و شما، این کار شانس رسیدنشان به یک راهحل خوب را افزایش میدهد.
اما ما هنوز بهطور شفاف تعریف نکردهایم که «فکر کردن» برای یک انسان دقیقاً یعنی چه، و به همین خاطر همیشه میتوان ادعا کرد آنچه سیستمهای هوش مصنوعی انجام میدهند، «فکر کردن» نیست.
در کتابت، با این دیدگاه مخالفت میکنی که استفاده از واژهی «محاسبات» بهعنوان استعارهای برای تفکر انسانی، نوعی ظلم اجتماعی است. چرا؟
برخی معتقدند اگر از استعارهی «مغز اطلاعات را محاسبه میکند» استفاده کنیم، در واقع انسان را در حد یک رایانه پایین میآوریم و این ذاتاً مضر است. من هم موافقم که حفظ تفاوتهای انسانی مهم است، ما دغدغههای خاص خودمان را داریم و باید برایشان ارزش قائل شویم؛ اما به نظر من اینکه بگوییم استفاده از استعارهی «محاسبات» برای مغز ستمگرانه است، کمی مضحک است. این فقط یک روش مفید برای فکر کردن دربارهی خودِ «فکر کردن» است.
«مردم باید به خاطر داشته باشند که وقتی با هوش مصنوعی صحبت میکنند، در حال تعامل با یک انسان نیستند.»
تو در کتابت دربارهی خطرات «پروپاگاندای خودکار» توسط هوش مصنوعی صحبت میکنی. این نوع تبلیغ چگونه با اطلاعات نادرستی که امروز در فضای دیجیتال با آن روبهرو هستیم تفاوت دارد؟
الگوریتمهایی که خود را جای سیستمهای پیشنهاد محتوا جا زدند؛ مثل آنهایی که در شبکههای اجتماعی استفاده میکنیم، هماکنون هم باعث میشوند ما با نوعی «تبلیغات خودکار» مواجه شویم؛ یعنی محتوایی که دیدگاههای از قبل پذیرفتهشدهمان را تأیید میکنند. اگر هوش مصنوعی به صورت گسترده شخصیسازی شود، این خطر را بهوجود میآورد که رفتاری مشابه ما داشته باشد و فقط چیزهایی رو به ما بگوید که دوست داریم بشنویم.
تفاوت اصلی این است که سیستمهای هوش مصنوعی میتوانند وارد گفتوگوهای فعال با کاربران شوند، و همین باعث میشود تا اثرگذاری آنها بسیار قویتر باشد.
بسیاری از مردم آیندهای نزدیک را تصور میکنند که در آن هوش مصنوعی مشکلات بزرگ و پیچیدهی جهان را حل خواهد کرد، اما همانطور که در کتاب اشاره کردهای، چنین انتظاری ممکن است اشتباه باشد. چرا؟
هوش مصنوعی در بازیابی اطلاعات و حل مسائل رسمی و ساختاری بسیار توانمند است، اما بسیاری از مشکلاتی که ما امروز با آنها روبهرو هستیم نیاز به نوعی مهارت متفاوت دارند. توانایی کنار هم آوردن آدمها و ایجاد همکاری بین آنها. هنوز شواهد قویای نداریم که نشان دهد هوش مصنوعی در این زمینهها موفق عمل میکند؛ هرچند تلاشهایی در این راستا صورت گرفته، از جمله پروژهای که خودم در دیپمایند هدایت کردم (Habermas.ai)، مطالعهای در مورد اینکه آیا هوش مصنوعی میتواند نقش میانجی سیاسی را ایفا کند یا نه. توانایی حل مسائل رسمی، مثل بازی Go در سطح حرفهای یا حل پازلهایی مربوط به منطق؛ لزومی ندارد که به کار حل مشکلات دنیای واقعی بیاید، چون دنیای واقعی بهندرت مرتب و منظم است. نتایج اغلب غیرقطعی هستند و چالشها ممکن است ناگهانی و پیشبینینشده ظاهر شوند.
در پایان کتاب، برخی از سناریوهای احتمالی مرتبط با نقش هوش مصنوعی در پایان دادن جهان را بررسی میکنید. بیشترین نگرانی شما چیست؟
ورود هوش مصنوعی احتمالاً مشکلات سیستمیای که پیشتر وجود داشتهاند را تشدید خواهد کرد، مانند بر هم خوردن بازار کار بهخاطر رشد خودکارسازی، تمرکز سرمایه در دست شرکتهای بزرگ چندملیتی، گسترش اطلاعات نادرست و غلط در اکوسیستم اطلاعاتی، استفاده از فناوریهای سایبری برای حملات جنایی یا آشوبگر به زیرساختهای حیاتی، و هزینههای زیستمحیطی ناشی از تقاضای شدید انرژی، آب و مواد معدنی کمیاب.
من نگران این هستم که وقتی سیستمهای هوش مصنوعی شروع به تعامل با یکدیگر کنند، چه اتفاقی خواهد افتاد. ما انسانها به تنهایی آنقدرها هم باهوش نیستیم. شاید فکر کنید از یک شامپانزه باهوشتر هستید، اما اگر هر دوی شما را در یک جزیره متروکه رها کنم، شرط میبندم که شامپانزه بیشتر زنده میماند. ما در همکاری با هم خوب عمل میکنیم و هوشمندی ما ناشی از جهان اجتماعیمان است. وقتی عاملها شروع به تعامل کنند، بهطور طبیعی روشهایی برای عمل و ارتباط پیدا خواهند کرد که ممکن است با ارزشهای انسانی همراستا نباشد. این چیزی است که بیش از همه مرا نگران میکند!