gccesbanner

ما باید برای هوش مصنوعی رضایت داشته باشیم

این داستان در ابتدا در The Algorithm، خبرنامه هفتگی ما در مورد هوش مصنوعی ظاهر شد. برای دریافت داستان هایی از این قبیل در صندوق ورودی خود، در اینجا ثبت نام کنید.

پیشنهاد می‌کنیم بخوانید: نقاشی شاگال که توسط نازی ها به سرقت رفته بود در حراجی نیویورک به قیمت 7.4 میلیون دلار فروخته شد

خبر مهم این هفته این است که جفری هینتون، معاون و همکار مهندسی گوگل و یکی از پیشگامان یادگیری عمیق که برخی از مهم ترین تکنیک ها را در قلب هوش مصنوعی مدرن توسعه داده است، پس از 10 سال شرکت را ترک می کند.

اما ابتدا باید در مورد رضایت در هوش مصنوعی صحبت کنیم.

هفته گذشته، OpenAI اعلام کرد که حالت «ناشناس» را راه‌اندازی می‌کند که سابقه مکالمه کاربران را ذخیره نمی‌کند یا از آن برای بهبود مدل زبان هوش مصنوعی ChatGPT خود استفاده نمی‌کند. ویژگی جدید به کاربران امکان می دهد تاریخچه چت و آموزش را خاموش کنند و به آنها اجازه می دهد داده های خود را صادر کنند. این یک حرکت خوشایند برای کنترل بیشتر افراد بر نحوه استفاده از داده های آنها توسط یک شرکت فناوری است.

تصمیم OpenAI برای اجازه دادن به مردم برای انصراف از شرکت در شرایطی اتخاذ شد که این شرکت تحت فشار فزاینده ای از سوی تنظیم کننده های حفاظت از داده های اروپایی در مورد نحوه استفاده و جمع آوری داده ها قرار دارد.OpenAI تا دیروز، 30 آوریل، فرصت داشت تا به درخواست های ایتالیا مبنی بر پیروی از GDPR، رژیم سختگیرانه حفاظت از داده اتحادیه اروپا، بپذیرد. ایتالیا پس از معرفی فرم انصراف کاربر و امکان اعتراض به داده های شخصی استفاده شده در ChatGPT، OpenAI را در این کشور بازگرداند. رگولاتور استدلال کرده بود که OpenAI داده‌های شخصی افراد را بدون رضایت آنها جابجا کرده است و هیچ کنترلی بر نحوه استفاده از آن‌ها به آنها نداده است.

در مصاحبه هفته گذشته با همکارم ویل داگلاس هیون، مدیر ارشد فناوری OpenAI، میرا موراتی، گفت که حالت ناشناس چیزی است که شرکت برای چند ماه “گام‌های تکراری” برای آن برداشته و توسط کاربران ChatGPT درخواست شده است. OpenAI به رویترز گفت که ویژگی‌های جدید حریم خصوصی آن به تحقیقات GDPR اتحادیه اروپا مرتبط نیست.

موراتی می‌گوید: «ما می‌خواهیم وقتی صحبت از نحوه استفاده از داده‌های کاربران می‌شود، آن‌ها را در صندلی راننده قرار دهیم. OpenAI می گوید همچنان داده های کاربران را به مدت 30 روز برای نظارت بر سوء استفاده و سوء استفاده ذخیره می کند.

اما علیرغم آنچه OpenAI می گوید، دانیل لوفر، تحلیلگر ارشد سیاست در گروه حقوق دیجیتال Access Now، بر این باور است که GDPR – و فشار اتحادیه اروپا – در وادار کردن شرکت به رعایت قانون نقش داشته است. در این فرآیند، این محصول را برای همه در سراسر جهان بهتر کرده است.

“روش های خوب حفاظت از داده ها، محصولات را ایمن تر می کند [and] بهتر [and] به کاربران آژانس واقعی داده‌هایشان را بدهید.» او گفت در توییتر.

بسیاری از مردم در GDPR به عنوان یک حفره خفه کننده نوآوری غرق می شوند. اما همانطور که لوفر اشاره می کند، قانون به شرکت ها نشان می دهد که چگونه می توانند کارها را بهتر انجام دهند وقتی مجبور به انجام این کار هستند. همچنین این تنها ابزاری است که در حال حاضر در اختیار داریم که به افراد امکان کنترل وجود دیجیتالی خود را در دنیایی که به طور فزاینده ای خودکار می کند، می دهد.

آزمایش‌های دیگر در هوش مصنوعی برای اعطای کنترل بیشتر به کاربران نشان می‌دهد که تقاضای واضحی برای چنین ویژگی‌هایی وجود دارد.

از اواخر سال گذشته، افراد و شرکت‌ها توانسته‌اند از گنجاندن تصاویرشان در مجموعه داده منبع باز LAION که برای آموزش مدل AI تولید کننده تصویر Stable Diffusion استفاده شده است، انصراف دهند.

مت درایهورست، مؤسس سازمانی به نام Spawning که در حال توسعه این مجموعه است، می‌گوید از دسامبر، حدود 5000 نفر و چندین پلتفرم بزرگ هنری و تصویری آنلاین، مانند Art Station و Shutterstock، درخواست کرده‌اند که بیش از 80 میلیون تصویر از مجموعه داده‌ها حذف شوند. ویژگی انصراف این بدان معنی است که تصاویر آنها در نسخه بعدی Stable Diffusion استفاده نمی شود.

درایهرست فکر می‌کند که مردم باید این حق را داشته باشند که بدانند آیا از کارشان برای آموزش مدل‌های هوش مصنوعی استفاده شده است یا نه، و باید بتوانند بگویند که آیا می‌خواهند در ابتدا بخشی از سیستم باشند یا خیر.

او می گوید: «هدف نهایی ما ایجاد یک لایه رضایت برای هوش مصنوعی است، زیرا این لایه وجود ندارد.

یادگیری عمیق تر

جفری هینتون به ما می گوید که چرا اکنون از فناوری ای که در ساختش کمک کرده است می ترسد

جفری هینتون یکی از پیشگامان یادگیری عمیق است که به توسعه برخی از مهم‌ترین تکنیک‌ها در قلب هوش مصنوعی مدرن کمک کرد، اما پس از یک دهه در گوگل، او از سمت خود کناره‌گیری می‌کند تا بر نگرانی‌های جدیدی که اکنون در مورد هوش مصنوعی دارد تمرکز کند. ویل داگلاس هیون، سردبیر ارشد هوش مصنوعی MIT Technology Review، تنها چهار روز قبل از اعلام خبر خروج او از گوگل، هینتون را در خانه‌اش در شمال لندن ملاقات کرد.

هینتون که از قابلیت‌های مدل‌های جدید زبان بزرگ مانند GPT-4 حیرت‌زده شده است، می‌خواهد آگاهی عمومی را در مورد خطرات جدی که اکنون معتقد است ممکن است با فناوری ارائه شده همراه باشد، افزایش دهد.

و اوه پسر آیا او چیزهای زیادی برای گفتن داشت. “من ناگهان دیدگاه خود را در مورد اینکه آیا این چیزها هوشمندتر از ما خواهند بود تغییر دادم. من فکر می کنم که آنها اکنون به آن بسیار نزدیک هستند و در آینده بسیار باهوش تر از ما خواهند بود.» او به ویل گفت. “چگونه از آن جان سالم به در ببریم؟” اطلاعات بیشتر از ویل داگلاس بهشت ​​را اینجا بخوانید.

حتی یادگیری عمیق تر

یک ربات چت که سؤال می‌پرسد می‌تواند به شما کمک کند تا زمانی که بی‌معنی است تشخیص دهید

چت ربات‌های هوش مصنوعی مانند ChatGPT، Bing و Bard اغلب دروغ‌ها را به عنوان حقایق ارائه می‌کنند و منطق متناقضی دارند که تشخیص آن دشوار است. یک مطالعه جدید نشان می دهد که یکی از راه های حل این مشکل، تغییر روش ارائه اطلاعات توسط هوش مصنوعی است.

سقراط مجازی: تیمی از محققان MIT و دانشگاه کلمبیا دریافتند که گرفتن یک چت بات برای پرسیدن سوالات از کاربران به جای ارائه اطلاعات به عنوان بیانیه به مردم کمک می کند متوجه شوند که منطق هوش مصنوعی چه زمانی با هم جمع نمی شود. سیستمی که سوالاتی را مطرح می‌کند باعث می‌شود مردم احساس کنند مسئولیت تصمیم‌گیری‌هایی که با هوش مصنوعی گرفته می‌شود بیشتر است و محققان می‌گویند که می‌تواند خطر وابستگی بیش از حد به اطلاعات تولید شده توسط هوش مصنوعی را کاهش دهد. بیشتر از من در اینجا بخوانید.

بیت ها و بایت ها

پالانتیر از نظامیان می خواهد که از الگوهای زبانی برای جنگیدن در جنگ استفاده کنند
این شرکت فناوری بحث‌برانگیز پلتفرم جدیدی راه‌اندازی کرده است که از مدل‌های زبان AI منبع باز موجود برای کنترل پهپادها و برنامه‌ریزی حملات به کاربران اجازه می‌دهد. این یک ایده وحشتناک است. مدل‌های زبان هوش مصنوعی اغلب چیزهایی را می‌سازند، و به طرز مضحکی به راحتی می‌توان آن‌ها را هک کرد. عرضه این فناوری‌ها در یکی از بخش‌هایی که بیشترین ریسک را دارد، فاجعه‌ای است که در انتظار وقوع است. (معاون)

Hugging Face یک جایگزین منبع باز برای ChatGPT راه اندازی کرد
HuggingChat به همان روش ChatGPT کار می کند، اما استفاده از آن رایگان است و افراد می توانند محصولات خود را روی آن بسازند. نسخه‌های منبع باز مدل‌های محبوب هوش مصنوعی در حال عرضه هستند – اوایل این ماه Stability.AI، خالق تولیدکننده تصویر Stable Diffusion، همچنین نسخه منبع باز یک ربات چت هوش مصنوعی، StableLM را راه‌اندازی کرد.

چت ربات بینگ مایکروسافت چگونه به وجود آمد و به کجا خواهد رسید
در اینجا نگاهی زیبا از پشت صحنه تولد بینگ داریم. برای من جالب بود که برای تولید پاسخ، بینگ همیشه از مدل زبان OpenAI GPT-4 استفاده نمی‌کند، بلکه از مدل‌های خود مایکروسافت استفاده می‌کند که برای اجرا ارزان‌تر هستند. (سیمی)

هوش مصنوعی دریک یک تله قانونی غیرممکن برای گوگل گذاشت
فیدهای رسانه های اجتماعی من مملو از آهنگ های تولید شده توسط هوش مصنوعی است که از سبک های هنرمندان محبوبی مانند دریک کپی می کنند. اما همانطور که این قطعه اشاره می‌کند، این تنها شروع یک نبرد سخت کپی رایت بر سر موسیقی تولید شده توسط هوش مصنوعی، حذف داده‌ها از اینترنت و آنچه استفاده منصفانه است، است. (آستانه)

Charlie Owens

تحلیلگر هاردکور طرفدار عمومی فرهنگ پاپ. خالق مادام العمر تنظیم کننده. اهل سفر. متخصص وب متعهد

تماس با ما