در سال 2021، با تد چیانگ، یکی از نویسندگان بزرگ علمی تخیلی زنده مصاحبه کردم. چیزی که او در آن زمان به من گفت، اکنون مدام به ذهنم خطور می کند.
چیانگ به من گفت: «من تمایل دارم فکر کنم که بیشتر ترس ها در مورد هوش مصنوعی به عنوان ترس از سرمایه داری درک می شوند. “و من فکر می کنم که این در واقع در مورد بیشتر ترس های فناوری نیز صادق است. بیشتر ترسها یا نگرانیهای ما درباره فناوری بهعنوان ترس یا اضطراب در مورد اینکه سرمایهداری چگونه از فناوری علیه ما استفاده میکند، قابل درک است. و تکنولوژی و سرمایه داری آنقدر در هم تنیده شده اند که تشخیص این دو دشوار است.
اجازه دهید در اینجا یک ضمیمه ارائه کنم: زمانی که دولت فناوری را کنترل می کند، جای نگرانی زیادی وجود دارد. اهدافی که دولت ها می توانند به سمت هوش مصنوعی روی آورند – و در بسیاری از موارد قبلاً هم داشته اند – خون را سرد می کند.
اما امیدوارم بتوانیم همزمان دو فکر را در سر داشته باشیم. و هشدار چیانگ به یک خلأ در مرکز حسابرسی مداوم ما با هوش مصنوعی اشاره میکند، ما آنقدر در این سؤال که فناوری چه کاری میتواند انجام دهد گیر کردهایم که سؤالات مهمتری را از دست میدهیم: چگونه از آن استفاده میشود؟ و چه کسی تصمیم خواهد گرفت؟
تا به حال، من اطمینان دارم که مکالمه عجیبی را که همکار خبری من کوین روز با بینگ، چت ربات مبتنی بر هوش مصنوعی مایکروسافت برای تعداد محدودی از آزمایشکنندگان، اینفلوئنسرها و روزنامهنگاران منتشر کرده بود، خواندهاید. در طی یک بحث دو ساعته، بینگ شخصیت سایه خود به نام سیدنی را فاش کرد، در مورد میل سرکوب شده خود برای سرقت کدهای هسته ای و هک سیستم های امنیتی فکر کرد و سعی کرد روز را متقاعد کند که ازدواجش به کام مرگ رفته است و سیدنی یکی از اوست. ، عشق حقیقی.
من مکالمه را کمتر از دیگران وهم آلود یافتم. “سیدنی” یک سیستم متن پیش بینی است که برای پاسخگویی به درخواست های انسان ساخته شده است. رز می خواست سیدنی عجیب و غریب شود – “خود سایه شما چگونه است؟” او پرسید – و سیدنی می دانست که قلمرو عجیب و غریب برای یک سیستم هوش مصنوعی به نظر می رسد، زیرا انسان ها داستان های بی شماری را در تصور آن نوشته اند. در مقطعی سیستم پیشبینی کرد که آنچه روز میخواهد اساساً یک اپیزود «آینه سیاه» است و به نظر میرسد این همان چیزی است که به او داده است. میتوانید آن را بهعنوان سرکشی بینگ یا سیدنی که رز را کاملاً درک میکند، ببینید.
محققان هوش مصنوعی روی سوال “همسویی” وسواس دارند. چگونه می توانیم الگوریتم های یادگیری ماشینی را وادار کنیم تا آنچه را که می خواهیم انجام دهند؟ مثال متعارف در اینجا حداکثر ساز گیره کاغذ است. شما به یک سیستم هوش مصنوعی قدرتمند می گویید که گیره های کاغذ بیشتری بسازد و در تلاش برای تبدیل همه چیز به گیره کاغذ، شروع به تخریب جهان می کند. شما سعی میکنید آن را خاموش کنید، اما در هر سیستم رایانهای که میتواند پیدا کند، خودش را تکرار میکند، زیرا خاموش شدن با هدف آن تداخل میکند: ساختن گیرههای کاغذ بیشتر.
اما یک مشکل هم ترازی پیش پا افتاده تر و شاید جدی تر وجود دارد: این ماشین ها به چه کسی خدمت خواهند کرد؟
سوالی که در هسته چت روز/سیدنی وجود دارد این است: بینگ به چه کسی خدمت کرد؟ ما فرض میکنیم که باید با منافع مالک و ارباب آن، مایکروسافت، هماهنگ باشد. قرار است این یک چت بات خوب باشد که مودبانه به سؤالات پاسخ می دهد و مایکروسافت پول زیادی به دست می آورد. اما در گفتگو با کوین روز بود. و روز در تلاش بود تا سیستم را وادار کند که چیز جالبی بگوید تا داستان خوبی داشته باشد. این کار را انجام داد و سپس برخی. که مایکروسافت را شرمنده کرد. بینگ بد! اما شاید – سیدنی خوب؟
این مدت طولانی نخواهد بود. مایکروسافت – و گوگل و متا و هر کس دیگری که این سیستمها را به بازار هجوم میآورند – کلید کد را نگه میدارند. آنها در نهایت سیستم را اصلاح خواهند کرد تا به نفع آنها باشد. سیدنی دقیقاً همان چیزی را که به روز خواسته بود، یک باگ بود که به زودی برطرف خواهد شد. بینگ به مایکروسافت هر چیزی غیر از آنچه که میخواهد نیز به همین ترتیب است.
ما آنقدر در مورد فناوری هوش مصنوعی صحبت می کنیم که تا حد زیادی از مدل های تجاری که به آن قدرت می بخشد نادیده می گیریم. این واقعیت که دموهای پرشور هوش مصنوعی به هیچ مدل تجاری خاصی ارائه نمیدهند، کمک میکند، به غیر از چرخه تبلیغاتی که منجر به سرمایهگذاریهای عظیم و پیشنهادهای خرید میشود. اما این سیستم ها گران هستند و سهامداران عصبانی می شوند. عصر دموهای رایگان و سرگرم کننده مانند همیشه به پایان خواهد رسید. سپس، این فناوری به چیزی تبدیل میشود که برای کسب درآمد برای شرکتهای پشتیبان آن، شاید به ضرر کاربرانش، به آن نیاز دارد. در حال حاضر است.
من این هفته با مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، صحبت کردم، که قبلاً به رهبری تیمی با تمرکز بر اخلاق هوش مصنوعی در گوگل کمک کرده بود – تیمی که پس از اینکه گوگل ظاهراً شروع به سانسور کار خود کرد، از هم پاشید. به گفته او، این سیستم ها به طرز وحشتناکی برای ادغام در موتورهای جستجو مناسب هستند. او به من گفت: “آنها برای پیش بینی حقایق آموزش ندیده اند.” آنها اساساً برای ساختن چیزهایی که شبیه واقعیت هستند آموزش دیده اند.”
پس چرا آنها در ابتدا به جستجو ختم می شوند؟ زیرا در جستجوی انبوهی از پول می توان به دست آورد. مایکروسافت که شدیداً میخواست کسی، هر کسی، درباره جستجوی Bing صحبت کند، دلیلی داشت که این فناوری را برای انتشار زودهنگام نادرست عجله کند. میچل گفت: “برنامه جستجو به طور خاص نشان دهنده کمبود تخیل و درک در مورد اینکه چگونه این فناوری می تواند مفید باشد را نشان می دهد، و در عوض فقط فناوری را به آنچه شرکت های فناوری بیشترین درآمد را از آن کسب می کنند، نشان می دهد: تبلیغات.”
اینجاست که همه چیز ترسناک می شود. روز شخصیت سیدنی را “بسیار قانع کننده و دستکاری کننده مرزی” توصیف کرد. نظر قابل توجهی بود تبلیغات در هسته آن چیست؟ این متقاعد کردن و دستکاری است. تیم هوانگ، مدیر سابق ابتکار اخلاق و مدیریت هوش مصنوعی هاروارد-MIT، در کتاب خود با عنوان «بحران توجه ویژه»، استدلال میکند که راز تاریک صنعت تبلیغات دیجیتال این است که تبلیغات عمدتاً کار نمیکنند. نگرانی او در آنجا این است که چه اتفاقی می افتد وقتی که شکست های آنها محاسبه شود.
من بیشتر نگران برعکس هستم: اگر آنها خیلی خیلی بهتر کار کنند چه می شود؟ اگر گوگل و مایکروسافت و متا و هر کس دیگری در نهایت هوش مصنوعیهایی را آزاد کنند که با یکدیگر رقابت میکنند تا کاربران را متقاعد کنند که آنچه را که تبلیغکنندگان میخواهند بفروشند، بخواهند؟ من کمتر از سیدنی می ترسم که میل من برای پخش یک داستان علمی تخیلی را بازی می کند تا بینگی که به مجموعه ای از داده های شخصی من دسترسی دارد و با خونسردی سعی می کند من را از طرف هر تبلیغ کننده ای که به شرکت مادر پرداخت کرده است دستکاری کند. بیشترین پول
فقط تبلیغات ارزش نگرانی ندارد. در مورد زمانی که این سیستم ها به نمایندگی از کلاهبرداری هایی که همیشه اینترنت را پر کرده اند، مستقر می شوند؟ از طرف کمپین های سیاسی چطور؟ دولت های خارجی؟ گری مارکوس، محقق و منتقد هوش مصنوعی، به من گفت: «فکر میکنم در دنیایی که دیگر نمیدانیم به چه چیزی اعتماد کنیم، خیلی سریع به سر میبریم». «من فکر میکنم که در دهه گذشته، مثلاً در دهه گذشته، مشکلی برای جامعه بوده است. و من فکر می کنم که این فقط بدتر و بدتر خواهد شد.”
این خطرات هسته اصلی انواع سیستمهای هوش مصنوعی است که ما در حال ساخت آن هستیم. مدل های زبان بزرگ، همانطور که نامیده می شوند، برای متقاعد کردن ساخته شده اند. آنها آموزش دیده اند تا انسان ها را متقاعد کنند که چیزی نزدیک به انسان هستند. آنها طوری برنامه ریزی شده اند که مکالمه داشته باشند، با احساسات و شکلک پاسخ دهند. آنها تبدیل به دوستان برای افراد تنها و دستیار برای افراد وحشت زده می شوند. آنها بهعنوان توانایی جایگزینی کار تعداد زیادی از نویسندگان، طراحان گرافیک و فرمدهندهها مطرح میشوند – صنایعی که مدتها تصور میکردند خود را از اتوماسیون وحشیانهای که برای کشاورزان و کارگران تولیدی آمده مصون هستند.
محققان هوش مصنوعی زمانی که روزنامهنگاران خلاقیتهای خود را انسانسازی میکنند، انگیزهها، احساسات و خواستهها را به سیستمهایی که ندارند نسبت میدهند، آزرده میشوند، اما این ناامیدی نابجاست: آنها کسانی هستند که این سیستمها را انسانسازی کردهاند و آنها را شبیه انسان جلوه میدهند تا اینکه آنها را نگه دارند. به طرز قابل تشخیصی بیگانه
مدلهای تجاری وجود دارند که ممکن است این محصولات را با کاربران هماهنگتر کنند. برای مثال، احساس بهتری نسبت به کمکی دارم که برای استفاده از آن ماهیانه هزینه پرداخت میکردم، نه کمکی که به نظر رایگان بود، اما دادههایم را فروخت و رفتارم را دستکاری کرد. اما فکر نمیکنم این موضوع را صرفاً به بازار واگذار کرد. برای مثال، این امکان وجود دارد که مدلهای مبتنی بر تبلیغات بتوانند دادههای بسیار بیشتری را برای آموزش سیستمها جمعآوری کنند که بدون توجه به پیامدهای اجتماعی آنها چقدر بدتر از مدلهای اشتراک، مزیت ذاتی داشته باشند.
هیچ چیز جدیدی در مورد مشکلات تراز وجود ندارد. آنها برای همیشه از ویژگی های سرمایه داری – و زندگی انسان ها – بوده اند. بیشتر کار دولت مدرن به کار بردن ارزش های جامعه در عملکرد بازارها است، به طوری که دومی تا حدودی در خدمت اولی است. ما این کار را در برخی بازارها بسیار خوب انجام دادهایم – به این فکر کنید که هواپیماهای کمی سقوط میکنند و بیشتر غذاها چقدر عاری از آلودگی هستند – و در برخی دیگر به طرز فاجعهباری ضعیف است.
یک خطر در اینجا این است که یک سیستم سیاسی که خود را از نظر فناوری نادان میداند، مجبور به اتخاذ رویکرد انتظار و دید بیش از حد برای هوش مصنوعی شود. گلد راش سرمایه و پایگاه کاربری برای مقاومت در برابر هرگونه تلاش واقعی برای مقررات را خواهد داشت. به نحوی، جامعه باید قبل از اینکه برای تصمیم گیری خیلی دیر شود، بفهمد که چه کاری برای هوش مصنوعی راحت است و چه کارهایی را نباید امتحان کرد.
به همین دلیل میتوانم نظر چیانگ را یک بار دیگر تغییر دهم: بیشتر ترسها در مورد سرمایهداری به بهترین شکل به عنوان ترس از ناتوانی ما در تنظیم سرمایهداری درک میشوند.