این داستان در ابتدا در The Algorithm، خبرنامه هفتگی ما در مورد هوش مصنوعی ظاهر شد. برای دریافت داستان هایی از این قبیل در صندوق ورودی خود، در اینجا ثبت نام کنید.
خبر مهم این هفته این است که جفری هینتون، معاون و همکار مهندسی گوگل و یکی از پیشگامان یادگیری عمیق که برخی از مهم ترین تکنیک ها را در قلب هوش مصنوعی مدرن توسعه داده است، پس از 10 سال شرکت را ترک می کند.
اما ابتدا باید در مورد رضایت در هوش مصنوعی صحبت کنیم.
هفته گذشته، OpenAI اعلام کرد که حالت «ناشناس» را راهاندازی میکند که سابقه مکالمه کاربران را ذخیره نمیکند یا از آن برای بهبود مدل زبان هوش مصنوعی ChatGPT خود استفاده نمیکند. ویژگی جدید به کاربران امکان می دهد تاریخچه چت و آموزش را خاموش کنند و به آنها اجازه می دهد داده های خود را صادر کنند. این یک حرکت خوشایند برای کنترل بیشتر افراد بر نحوه استفاده از داده های آنها توسط یک شرکت فناوری است.
تصمیم OpenAI برای اجازه دادن به مردم برای انصراف از شرکت در شرایطی اتخاذ شد که این شرکت تحت فشار فزاینده ای از سوی تنظیم کننده های حفاظت از داده های اروپایی در مورد نحوه استفاده و جمع آوری داده ها قرار دارد.OpenAI تا دیروز، 30 آوریل، فرصت داشت تا به درخواست های ایتالیا مبنی بر پیروی از GDPR، رژیم سختگیرانه حفاظت از داده اتحادیه اروپا، بپذیرد. ایتالیا پس از معرفی فرم انصراف کاربر و امکان اعتراض به داده های شخصی استفاده شده در ChatGPT، OpenAI را در این کشور بازگرداند. رگولاتور استدلال کرده بود که OpenAI دادههای شخصی افراد را بدون رضایت آنها جابجا کرده است و هیچ کنترلی بر نحوه استفاده از آنها به آنها نداده است.
در مصاحبه هفته گذشته با همکارم ویل داگلاس هیون، مدیر ارشد فناوری OpenAI، میرا موراتی، گفت که حالت ناشناس چیزی است که شرکت برای چند ماه “گامهای تکراری” برای آن برداشته و توسط کاربران ChatGPT درخواست شده است. OpenAI به رویترز گفت که ویژگیهای جدید حریم خصوصی آن به تحقیقات GDPR اتحادیه اروپا مرتبط نیست.
موراتی میگوید: «ما میخواهیم وقتی صحبت از نحوه استفاده از دادههای کاربران میشود، آنها را در صندلی راننده قرار دهیم. OpenAI می گوید همچنان داده های کاربران را به مدت 30 روز برای نظارت بر سوء استفاده و سوء استفاده ذخیره می کند.
اما علیرغم آنچه OpenAI می گوید، دانیل لوفر، تحلیلگر ارشد سیاست در گروه حقوق دیجیتال Access Now، بر این باور است که GDPR – و فشار اتحادیه اروپا – در وادار کردن شرکت به رعایت قانون نقش داشته است. در این فرآیند، این محصول را برای همه در سراسر جهان بهتر کرده است.
“روش های خوب حفاظت از داده ها، محصولات را ایمن تر می کند [and] بهتر [and] به کاربران آژانس واقعی دادههایشان را بدهید.» او گفت در توییتر.
بسیاری از مردم در GDPR به عنوان یک حفره خفه کننده نوآوری غرق می شوند. اما همانطور که لوفر اشاره می کند، قانون به شرکت ها نشان می دهد که چگونه می توانند کارها را بهتر انجام دهند وقتی مجبور به انجام این کار هستند. همچنین این تنها ابزاری است که در حال حاضر در اختیار داریم که به افراد امکان کنترل وجود دیجیتالی خود را در دنیایی که به طور فزاینده ای خودکار می کند، می دهد.
آزمایشهای دیگر در هوش مصنوعی برای اعطای کنترل بیشتر به کاربران نشان میدهد که تقاضای واضحی برای چنین ویژگیهایی وجود دارد.
از اواخر سال گذشته، افراد و شرکتها توانستهاند از گنجاندن تصاویرشان در مجموعه داده منبع باز LAION که برای آموزش مدل AI تولید کننده تصویر Stable Diffusion استفاده شده است، انصراف دهند.
مت درایهورست، مؤسس سازمانی به نام Spawning که در حال توسعه این مجموعه است، میگوید از دسامبر، حدود 5000 نفر و چندین پلتفرم بزرگ هنری و تصویری آنلاین، مانند Art Station و Shutterstock، درخواست کردهاند که بیش از 80 میلیون تصویر از مجموعه دادهها حذف شوند. ویژگی انصراف این بدان معنی است که تصاویر آنها در نسخه بعدی Stable Diffusion استفاده نمی شود.
درایهرست فکر میکند که مردم باید این حق را داشته باشند که بدانند آیا از کارشان برای آموزش مدلهای هوش مصنوعی استفاده شده است یا نه، و باید بتوانند بگویند که آیا میخواهند در ابتدا بخشی از سیستم باشند یا خیر.
او می گوید: «هدف نهایی ما ایجاد یک لایه رضایت برای هوش مصنوعی است، زیرا این لایه وجود ندارد.
یادگیری عمیق تر
جفری هینتون به ما می گوید که چرا اکنون از فناوری ای که در ساختش کمک کرده است می ترسد
جفری هینتون یکی از پیشگامان یادگیری عمیق است که به توسعه برخی از مهمترین تکنیکها در قلب هوش مصنوعی مدرن کمک کرد، اما پس از یک دهه در گوگل، او از سمت خود کنارهگیری میکند تا بر نگرانیهای جدیدی که اکنون در مورد هوش مصنوعی دارد تمرکز کند. ویل داگلاس هیون، سردبیر ارشد هوش مصنوعی MIT Technology Review، تنها چهار روز قبل از اعلام خبر خروج او از گوگل، هینتون را در خانهاش در شمال لندن ملاقات کرد.
هینتون که از قابلیتهای مدلهای جدید زبان بزرگ مانند GPT-4 حیرتزده شده است، میخواهد آگاهی عمومی را در مورد خطرات جدی که اکنون معتقد است ممکن است با فناوری ارائه شده همراه باشد، افزایش دهد.
و اوه پسر آیا او چیزهای زیادی برای گفتن داشت. “من ناگهان دیدگاه خود را در مورد اینکه آیا این چیزها هوشمندتر از ما خواهند بود تغییر دادم. من فکر می کنم که آنها اکنون به آن بسیار نزدیک هستند و در آینده بسیار باهوش تر از ما خواهند بود.» او به ویل گفت. “چگونه از آن جان سالم به در ببریم؟” اطلاعات بیشتر از ویل داگلاس بهشت را اینجا بخوانید.
حتی یادگیری عمیق تر
یک ربات چت که سؤال میپرسد میتواند به شما کمک کند تا زمانی که بیمعنی است تشخیص دهید
چت رباتهای هوش مصنوعی مانند ChatGPT، Bing و Bard اغلب دروغها را به عنوان حقایق ارائه میکنند و منطق متناقضی دارند که تشخیص آن دشوار است. یک مطالعه جدید نشان می دهد که یکی از راه های حل این مشکل، تغییر روش ارائه اطلاعات توسط هوش مصنوعی است.
سقراط مجازی: تیمی از محققان MIT و دانشگاه کلمبیا دریافتند که گرفتن یک چت بات برای پرسیدن سوالات از کاربران به جای ارائه اطلاعات به عنوان بیانیه به مردم کمک می کند متوجه شوند که منطق هوش مصنوعی چه زمانی با هم جمع نمی شود. سیستمی که سوالاتی را مطرح میکند باعث میشود مردم احساس کنند مسئولیت تصمیمگیریهایی که با هوش مصنوعی گرفته میشود بیشتر است و محققان میگویند که میتواند خطر وابستگی بیش از حد به اطلاعات تولید شده توسط هوش مصنوعی را کاهش دهد. بیشتر از من در اینجا بخوانید.
بیت ها و بایت ها
پالانتیر از نظامیان می خواهد که از الگوهای زبانی برای جنگیدن در جنگ استفاده کنند
این شرکت فناوری بحثبرانگیز پلتفرم جدیدی راهاندازی کرده است که از مدلهای زبان AI منبع باز موجود برای کنترل پهپادها و برنامهریزی حملات به کاربران اجازه میدهد. این یک ایده وحشتناک است. مدلهای زبان هوش مصنوعی اغلب چیزهایی را میسازند، و به طرز مضحکی به راحتی میتوان آنها را هک کرد. عرضه این فناوریها در یکی از بخشهایی که بیشترین ریسک را دارد، فاجعهای است که در انتظار وقوع است. (معاون)
Hugging Face یک جایگزین منبع باز برای ChatGPT راه اندازی کرد
HuggingChat به همان روش ChatGPT کار می کند، اما استفاده از آن رایگان است و افراد می توانند محصولات خود را روی آن بسازند. نسخههای منبع باز مدلهای محبوب هوش مصنوعی در حال عرضه هستند – اوایل این ماه Stability.AI، خالق تولیدکننده تصویر Stable Diffusion، همچنین نسخه منبع باز یک ربات چت هوش مصنوعی، StableLM را راهاندازی کرد.
چت ربات بینگ مایکروسافت چگونه به وجود آمد و به کجا خواهد رسید
در اینجا نگاهی زیبا از پشت صحنه تولد بینگ داریم. برای من جالب بود که برای تولید پاسخ، بینگ همیشه از مدل زبان OpenAI GPT-4 استفاده نمیکند، بلکه از مدلهای خود مایکروسافت استفاده میکند که برای اجرا ارزانتر هستند. (سیمی)
هوش مصنوعی دریک یک تله قانونی غیرممکن برای گوگل گذاشت
فیدهای رسانه های اجتماعی من مملو از آهنگ های تولید شده توسط هوش مصنوعی است که از سبک های هنرمندان محبوبی مانند دریک کپی می کنند. اما همانطور که این قطعه اشاره میکند، این تنها شروع یک نبرد سخت کپی رایت بر سر موسیقی تولید شده توسط هوش مصنوعی، حذف دادهها از اینترنت و آنچه استفاده منصفانه است، است. (آستانه)