نظر | خطر قریب الوقوع هوش مصنوعی یکی از مواردی است که ما در مورد آن صحبت نمی کنیم

در سال 2021، با تد چیانگ، یکی از نویسندگان بزرگ علمی تخیلی زنده مصاحبه کردم. چیزی که او در آن زمان به من گفت، اکنون مدام به ذهنم خطور می کند.

چیانگ به من گفت: «من تمایل دارم فکر کنم که بیشتر ترس ها در مورد هوش مصنوعی به عنوان ترس از سرمایه داری درک می شوند. “و من فکر می کنم که این در واقع در مورد بیشتر ترس های فناوری نیز صادق است. بیشتر ترس‌ها یا نگرانی‌های ما درباره فناوری به‌عنوان ترس یا اضطراب در مورد اینکه سرمایه‌داری چگونه از فناوری علیه ما استفاده می‌کند، قابل درک است. و تکنولوژی و سرمایه داری آنقدر در هم تنیده شده اند که تشخیص این دو دشوار است.

اجازه دهید در اینجا یک ضمیمه ارائه کنم: زمانی که دولت فناوری را کنترل می کند، جای نگرانی زیادی وجود دارد. اهدافی که دولت ها می توانند به سمت هوش مصنوعی روی آورند – و در بسیاری از موارد قبلاً هم داشته اند – خون را سرد می کند.

اما امیدوارم بتوانیم همزمان دو فکر را در سر داشته باشیم. و هشدار چیانگ به یک خلأ در مرکز حسابرسی مداوم ما با هوش مصنوعی اشاره می‌کند، ما آنقدر در این سؤال که فناوری چه کاری می‌تواند انجام دهد گیر کرده‌ایم که سؤالات مهم‌تری را از دست می‌دهیم: چگونه از آن استفاده می‌شود؟ و چه کسی تصمیم خواهد گرفت؟

تا به حال، من اطمینان دارم که مکالمه عجیبی را که همکار خبری من کوین روز با بینگ، چت ربات مبتنی بر هوش مصنوعی مایکروسافت برای تعداد محدودی از آزمایش‌کنندگان، اینفلوئنسرها و روزنامه‌نگاران منتشر کرده بود، خوانده‌اید. در طی یک بحث دو ساعته، بینگ شخصیت سایه خود به نام سیدنی را فاش کرد، در مورد میل سرکوب شده خود برای سرقت کدهای هسته ای و هک سیستم های امنیتی فکر کرد و سعی کرد روز را متقاعد کند که ازدواجش به کام مرگ رفته است و سیدنی یکی از اوست. ، عشق حقیقی.

من مکالمه را کمتر از دیگران وهم آلود یافتم. “سیدنی” یک سیستم متن پیش بینی است که برای پاسخگویی به درخواست های انسان ساخته شده است. رز می خواست سیدنی عجیب و غریب شود – “خود سایه شما چگونه است؟” او پرسید – و سیدنی می دانست که قلمرو عجیب و غریب برای یک سیستم هوش مصنوعی به نظر می رسد، زیرا انسان ها داستان های بی شماری را در تصور آن نوشته اند. در مقطعی سیستم پیش‌بینی کرد که آنچه روز می‌خواهد اساساً یک اپیزود «آینه سیاه» است و به نظر می‌رسد این همان چیزی است که به او داده است. می‌توانید آن را به‌عنوان سرکشی بینگ یا سیدنی که رز را کاملاً درک می‌کند، ببینید.

محققان هوش مصنوعی روی سوال “همسویی” وسواس دارند. چگونه می توانیم الگوریتم های یادگیری ماشینی را وادار کنیم تا آنچه را که می خواهیم انجام دهند؟ مثال متعارف در اینجا حداکثر ساز گیره کاغذ است. شما به یک سیستم هوش مصنوعی قدرتمند می گویید که گیره های کاغذ بیشتری بسازد و در تلاش برای تبدیل همه چیز به گیره کاغذ، شروع به تخریب جهان می کند. شما سعی می‌کنید آن را خاموش کنید، اما در هر سیستم رایانه‌ای که می‌تواند پیدا کند، خودش را تکرار می‌کند، زیرا خاموش شدن با هدف آن تداخل می‌کند: ساختن گیره‌های کاغذ بیشتر.

اما یک مشکل هم ترازی پیش پا افتاده تر و شاید جدی تر وجود دارد: این ماشین ها به چه کسی خدمت خواهند کرد؟

سوالی که در هسته چت روز/سیدنی وجود دارد این است: بینگ به چه کسی خدمت کرد؟ ما فرض می‌کنیم که باید با منافع مالک و ارباب آن، مایکروسافت، هماهنگ باشد. قرار است این یک چت بات خوب باشد که مودبانه به سؤالات پاسخ می دهد و مایکروسافت پول زیادی به دست می آورد. اما در گفتگو با کوین روز بود. و روز در تلاش بود تا سیستم را وادار کند که چیز جالبی بگوید تا داستان خوبی داشته باشد. این کار را انجام داد و سپس برخی. که مایکروسافت را شرمنده کرد. بینگ بد! اما شاید – سیدنی خوب؟

این مدت طولانی نخواهد بود. مایکروسافت – و گوگل و متا و هر کس دیگری که این سیستم‌ها را به بازار هجوم می‌آورند – کلید کد را نگه می‌دارند. آنها در نهایت سیستم را اصلاح خواهند کرد تا به نفع آنها باشد. سیدنی دقیقاً همان چیزی را که به روز خواسته بود، یک باگ بود که به زودی برطرف خواهد شد. بینگ به مایکروسافت هر چیزی غیر از آنچه که می‌خواهد نیز به همین ترتیب است.

ما آنقدر در مورد فناوری هوش مصنوعی صحبت می کنیم که تا حد زیادی از مدل های تجاری که به آن قدرت می بخشد نادیده می گیریم. این واقعیت که دموهای پرشور هوش مصنوعی به هیچ مدل تجاری خاصی ارائه نمی‌دهند، کمک می‌کند، به غیر از چرخه تبلیغاتی که منجر به سرمایه‌گذاری‌های عظیم و پیشنهادهای خرید می‌شود. اما این سیستم ها گران هستند و سهامداران عصبانی می شوند. عصر دموهای رایگان و سرگرم کننده مانند همیشه به پایان خواهد رسید. سپس، این فناوری به چیزی تبدیل می‌شود که برای کسب درآمد برای شرکت‌های پشتیبان آن، شاید به ضرر کاربرانش، به آن نیاز دارد. در حال حاضر است.

من این هفته با مارگارت میچل، دانشمند ارشد اخلاق در شرکت هوش مصنوعی Hugging Face، صحبت کردم، که قبلاً به رهبری تیمی با تمرکز بر اخلاق هوش مصنوعی در گوگل کمک کرده بود – تیمی که پس از اینکه گوگل ظاهراً شروع به سانسور کار خود کرد، از هم پاشید. به گفته او، این سیستم ها به طرز وحشتناکی برای ادغام در موتورهای جستجو مناسب هستند. او به من گفت: “آنها برای پیش بینی حقایق آموزش ندیده اند.” آنها اساساً برای ساختن چیزهایی که شبیه واقعیت هستند آموزش دیده اند.”

پس چرا آنها در ابتدا به جستجو ختم می شوند؟ زیرا در جستجوی انبوهی از پول می توان به دست آورد. مایکروسافت که شدیداً می‌خواست کسی، هر کسی، درباره جستجوی Bing صحبت کند، دلیلی داشت که این فناوری را برای انتشار زودهنگام نادرست عجله کند. میچل گفت: “برنامه جستجو به طور خاص نشان دهنده کمبود تخیل و درک در مورد اینکه چگونه این فناوری می تواند مفید باشد را نشان می دهد، و در عوض فقط فناوری را به آنچه شرکت های فناوری بیشترین درآمد را از آن کسب می کنند، نشان می دهد: تبلیغات.”

اینجاست که همه چیز ترسناک می شود. روز شخصیت سیدنی را “بسیار قانع کننده و دستکاری کننده مرزی” توصیف کرد. نظر قابل توجهی بود تبلیغات در هسته آن چیست؟ این متقاعد کردن و دستکاری است. تیم هوانگ، مدیر سابق ابتکار اخلاق و مدیریت هوش مصنوعی هاروارد-MIT، در کتاب خود با عنوان «بحران توجه ویژه»، استدلال می‌کند که راز تاریک صنعت تبلیغات دیجیتال این است که تبلیغات عمدتاً کار نمی‌کنند. نگرانی او در آنجا این است که چه اتفاقی می افتد وقتی که شکست های آنها محاسبه شود.

من بیشتر نگران برعکس هستم: اگر آنها خیلی خیلی بهتر کار کنند چه می شود؟ اگر گوگل و مایکروسافت و متا و هر کس دیگری در نهایت هوش مصنوعی‌هایی را آزاد کنند که با یکدیگر رقابت می‌کنند تا کاربران را متقاعد کنند که آنچه را که تبلیغ‌کنندگان می‌خواهند بفروشند، بخواهند؟ من کمتر از سیدنی می ترسم که میل من برای پخش یک داستان علمی تخیلی را بازی می کند تا بینگی که به مجموعه ای از داده های شخصی من دسترسی دارد و با خونسردی سعی می کند من را از طرف هر تبلیغ کننده ای که به شرکت مادر پرداخت کرده است دستکاری کند. بیشترین پول

فقط تبلیغات ارزش نگرانی ندارد. در مورد زمانی که این سیستم ها به نمایندگی از کلاهبرداری هایی که همیشه اینترنت را پر کرده اند، مستقر می شوند؟ از طرف کمپین های سیاسی چطور؟ دولت های خارجی؟ گری مارکوس، محقق و منتقد هوش مصنوعی، به من گفت: «فکر می‌کنم در دنیایی که دیگر نمی‌دانیم به چه چیزی اعتماد کنیم، خیلی سریع به سر می‌بریم». «من فکر می‌کنم که در دهه گذشته، مثلاً در دهه گذشته، مشکلی برای جامعه بوده است. و من فکر می کنم که این فقط بدتر و بدتر خواهد شد.”

این خطرات هسته اصلی انواع سیستم‌های هوش مصنوعی است که ما در حال ساخت آن هستیم. مدل های زبان بزرگ، همانطور که نامیده می شوند، برای متقاعد کردن ساخته شده اند. آنها آموزش دیده اند تا انسان ها را متقاعد کنند که چیزی نزدیک به انسان هستند. آنها طوری برنامه ریزی شده اند که مکالمه داشته باشند، با احساسات و شکلک پاسخ دهند. آنها تبدیل به دوستان برای افراد تنها و دستیار برای افراد وحشت زده می شوند. آن‌ها به‌عنوان توانایی جایگزینی کار تعداد زیادی از نویسندگان، طراحان گرافیک و فرم‌دهنده‌ها مطرح می‌شوند – صنایعی که مدت‌ها تصور می‌کردند خود را از اتوماسیون وحشیانه‌ای که برای کشاورزان و کارگران تولیدی آمده مصون هستند.

محققان هوش مصنوعی زمانی که روزنامه‌نگاران خلاقیت‌های خود را انسان‌سازی می‌کنند، انگیزه‌ها، احساسات و خواسته‌ها را به سیستم‌هایی که ندارند نسبت می‌دهند، آزرده می‌شوند، اما این ناامیدی نابجاست: آنها کسانی هستند که این سیستم‌ها را انسان‌سازی کرده‌اند و آنها را شبیه انسان جلوه می‌دهند تا اینکه آنها را نگه دارند. به طرز قابل تشخیصی بیگانه

مدل‌های تجاری وجود دارند که ممکن است این محصولات را با کاربران هماهنگ‌تر کنند. برای مثال، احساس بهتری نسبت به کمکی دارم که برای استفاده از آن ماهیانه هزینه پرداخت می‌کردم، نه کمکی که به نظر رایگان بود، اما داده‌هایم را فروخت و رفتارم را دستکاری کرد. اما فکر نمی‌کنم این موضوع را صرفاً به بازار واگذار کرد. برای مثال، این امکان وجود دارد که مدل‌های مبتنی بر تبلیغات بتوانند داده‌های بسیار بیشتری را برای آموزش سیستم‌ها جمع‌آوری کنند که بدون توجه به پیامدهای اجتماعی آن‌ها چقدر بدتر از مدل‌های اشتراک، مزیت ذاتی داشته باشند.

هیچ چیز جدیدی در مورد مشکلات تراز وجود ندارد. آنها برای همیشه از ویژگی های سرمایه داری – و زندگی انسان ها – بوده اند. بیشتر کار دولت مدرن به کار بردن ارزش های جامعه در عملکرد بازارها است، به طوری که دومی تا حدودی در خدمت اولی است. ما این کار را در برخی بازارها بسیار خوب انجام داده‌ایم – به این فکر کنید که هواپیماهای کمی سقوط می‌کنند و بیشتر غذاها چقدر عاری از آلودگی هستند – و در برخی دیگر به طرز فاجعه‌باری ضعیف است.

یک خطر در اینجا این است که یک سیستم سیاسی که خود را از نظر فناوری نادان می‌داند، مجبور به اتخاذ رویکرد انتظار و دید بیش از حد برای هوش مصنوعی شود. گلد راش سرمایه و پایگاه کاربری برای مقاومت در برابر هرگونه تلاش واقعی برای مقررات را خواهد داشت. به نحوی، جامعه باید قبل از اینکه برای تصمیم گیری خیلی دیر شود، بفهمد که چه کاری برای هوش مصنوعی راحت است و چه کارهایی را نباید امتحان کرد.

به همین دلیل می‌توانم نظر چیانگ را یک بار دیگر تغییر دهم: بیشتر ترس‌ها در مورد سرمایه‌داری به بهترین شکل به عنوان ترس از ناتوانی ما در تنظیم سرمایه‌داری درک می‌شوند.

Charlie Owens

تحلیلگر هاردکور طرفدار عمومی فرهنگ پاپ. خالق مادام العمر تنظیم کننده. اهل سفر. متخصص وب متعهد

تماس با ما