یادگیری عمیق تر
گرفتن محتوای بد در عصر هوش مصنوعی
در 10 سال گذشته، Big Tech در برخی موارد بسیار خوب شده است: زبان، پیشبینی، شخصیسازی، آرشیو، تجزیه متن و خرد کردن دادهها. اما همچنان در جلب، برچسب زدن و حذف محتوای مضر به طرز شگفت آوری بد است. برای درک صدمات واقعی که این امر باعث می شود، کافی است گسترش تئوری های توطئه در مورد انتخابات و واکسن ها در ایالات متحده در دو سال گذشته را به خاطر بیاوریم. سهولت استفاده از هوش مصنوعی مولد می تواند باعث ایجاد محتوای آنلاین مضرتر شود. مردم در حال حاضر از مدل های زبان هوش مصنوعی برای ایجاد وب سایت های خبری جعلی استفاده می کنند.
اما آیا هوش مصنوعی می تواند به تعدیل محتوا کمک کند؟ جدیدترین مدل های زبان بزرگ در تفسیر متن بسیار بهتر از سیستم های هوش مصنوعی قبلی هستند. در تئوری، می توان از آنها برای تقویت تعدیل محتوای خودکار استفاده کرد. بیشتر از تیت رایان ماسلی در خبرنامه هفتگی او، تکنوکرات، بخوانید.
بیت ها و بایت ها
دانشمندان از هوش مصنوعی برای یافتن دارویی استفاده کردند که بتواند با عفونت های مقاوم به دارو مبارزه کند
محققان MIT و دانشگاه مک مستر یک الگوریتم هوش مصنوعی را توسعه دادند که به آنها اجازه می داد آنتی بیوتیک جدیدی برای از بین بردن نوعی از باکتری های مسئول بسیاری از عفونت های مقاوم به دارو که در بیمارستان ها رایج هستند، بیابند. این یک پیشرفت هیجان انگیز است که نشان می دهد چگونه هوش مصنوعی می تواند اکتشافات علمی را تسریع و پشتیبانی کند. (اخبار MIT)
سم آلتمن هشدار می دهد که OpenAI می تواند اروپا را به دلیل قوانین هوش مصنوعی ترک کند
در رویدادی در لندن هفته گذشته، مدیر عامل شرکت اعلام کرد که OpenAI در صورتی که نتواند با قانون آینده هوش مصنوعی مطابقت داشته باشد، میتواند در اتحادیه اروپا فعالیت خود را متوقف کند. آلتمن گفت که شرکت او در نحوه بیان قانون هوش مصنوعی انتقادات زیادی پیدا کرده است و اینکه “محدودیت های فنی برای آنچه ممکن است” وجود دارد. این احتمالاً یک تهدید توخالی است. قبلاً بارها شنیده ام که Big Tech این را در مورد یک قانون یا قانون دیگر گفته است. بیشتر اوقات، خطر از دست دادن درآمد در دومین بلوک بزرگ تجاری جهان بسیار زیاد است و آنها چیزی را کشف می کنند. اخطار آشکار در اینجا این است که بسیاری از شرکتها ترجیح دادهاند در چین فعالیت نکنند یا حضوری محدود داشته باشند. اما این نیز یک وضعیت بسیار متفاوت است. (زمان)
شکارچیان در حال حاضر از ابزارهای هوش مصنوعی برای تولید مواد سوء استفاده جنسی از کودکان استفاده می کنند
مرکز ملی کودکان گمشده و استثمار شده هشدار داده است که شکارچیان از سیستم های هوش مصنوعی مولد برای ایجاد و به اشتراک گذاری مطالب جعلی سوء استفاده جنسی از کودکان استفاده می کنند. با توجه به اینکه مدلهای مولد قدرتمندی با محافظهایی که ناکافی هستند و به راحتی هک میشوند عرضه میشوند، فقط زمان بود که شاهد مواردی از این دست باشیم. (بلومبرگ)
اخراج های فنی تیم های اخلاق هوش مصنوعی را ویران کرده است
این یک مرور کلی از کاهش شدید متا، آمازون، آلفابت و توییتر است که همگی بر روی اعتماد به اینترنت و ایمنی و همچنین اخلاق هوش مصنوعی برای تیمهای خود ایجاد کردهاند. به عنوان مثال، متا به یک پروژه حقیقتسنجی که ساخت آن نیم سال طول کشیده بود، پایان داد. در حالی که شرکتها در حال رقابت برای عرضه مدلهای قدرتمند هوش مصنوعی در محصولات خود هستند، مدیران اجرایی دوست دارند به خود ببالند که توسعه فناوری آنها ایمن و اخلاقی است. اما واضح است که Big Tech تیم هایی را که به این مسائل اختصاص داده اند را گران قیمت و هزینه بر می داند. (CNBC)