نورمن، هوش مصنوعی جدید MIT به هیچ چیز جز قتل فکر نمی کند

برای برخی، عبارت «هوش مصنوعی» یادآور تصاویری کابوس وار است. شاید چیزی شبیه به «من، روبات» ویل اسمیت یا پایان Ex Machina. چکمه ای که از میان شیشه نمایشگر کامپیوتر عبور می کند و برای همیشه روی صورت بشر گام می گذارد. حتی افرادی که در زمینه هوش مصنوعی تحقیق می کنند هم برای هدف غایی این حوزه احترام قائل هستند: هوش عمومی مصنوعی، یا یک سیستم مصنوعی که الگوهای فکری انسان را تقلید می کند.

دانشمند کامپیوتر، استورات راسل، کسی که به معنای واقعی کلمه کتاب اصول هوش مصنوعی را تالیف کرده، در تمام دوران کاری اش به مشکلات ناشی از یک اتفاق فکر کرده: زمانی که یک طراح، بدون تفکر در این باره که آیا ارزش هایش با تمام بشریت هم راستا هست یا خیر، ماشینی را به سمت یک هدف هدایت کند.

طی هفته ای که پشت سر گذاشتیم، محققان MIT از تازه ترین ساخته خود رونمایی کردند: نورمن، یک هوش مصنوعی آشفته. اگر برایتان سوال است، بله، اسم این هوش مصنوعی براساس Psycho هیچکاک انتخاب شده. MIT نورمن را اینطور توصیف می کند:

نورمن هوشی مصنوعی است که برای کپشن کردن تصاویر آموزش دیده: متد آموزشی محبوبی در یادگیری عمیق که برای تصاویر، توضیحاتی متنی ارائه می کند. ما نورمن را با کپشن های تصویری یک ساب‌ردیت شناخته شده که بر مستند کردن و تماشای واقعیت آشفته مرگ متمرکز است آموزش دادیم. سپس ما پاسخ های نورمن را با کپشن های تصویری استاندارد یک شبکه عصبی درباره لکه های رورشاخ مقایسه کردیم: تستی که برای شناسایی اختلالات فکری عمیق استفاده می شود.

اگرچه هنوز تردیدهایی درباره میزان اعتبار تست رورشاخ در سنجش وضعیت روان شناختی شخص وجود دارد، هیچ شکی نیست که پاسخ های نورمن واقعاً وحشت آفرینند.

هوش مصنوعی MIT

هوش مصنوعی استاندارد: «تصویری سیاه و سفید از یک پرنده کوچک» - نورمن: «مردی به درون ماشین خمیرپز کشیده می شود»

هوش مصنوعی استاندارد: «تصویری سیاه و سفید از یک دستکش بیسبال» - نورمن: مردی در روشنایی آشکار روز با ماشین گان به قتل می رسد»

هوش مصنوعی استاندارد: «شخصی در باران، چتر به دست گرفته است» - نورمن: «مردی در برابر جیغ همسرش به ضرب گلوله کشته شده»

MIT قصد داشته با این آزمایش نشان دهد که با آموزش اطلاعات درست، چطور می توان هوش مصنوعی را به خطا انداخت. تیم این انستیتو، با هوشمندی به این موضوع فکر نکرد که ذهن انسان در معرض چنین محتوایی چه تغییری می کند. آنها تحقیقات دیگری هم با این مضمون داشته اند و از هوش مصنوعی برای نگارش داستان های ترسناک، ساخت تصاویر وحشت آور، تصمیم گیری های اخلاقی و حتی ایجاد حس همدردی استفاده کرده اند.

این نوع از تحقیقات بسیار مهم هستند. در بخش های دیگر از تکنولوژی هم باید سوالاتی شبیه به هوش مصنوعی مطرح شود زیرا پیامدهای ناخواسته، می توانند منجر به آسیب به مردمی شوند که سیستم طراحی نشده بود تا قادر به دیدنشان باشد. طبیعتا، این اساس علمی-تخیلی است: تصور آینده های محتمل و نشان دادن چیزی که ما را به آنجا می رساند. آیزاک آسیموف قوانین سه گانه رباتیک را نوشت چون می خواست تصور کند که چه می شود اگر ربات ها از ما سرپیچی کنند.

نورمن فقط یک آزمایش استدلالی است، اما سوالی که مطرح می کند اینست که آیا واقعاً لازم است الگوریتم های یادگیری ماشین، قضاوت و تصمیمات را براساس اطلاعاتی یک طرفه اتخاذ کنند؟ چنین سیستم هایی به عنوان مثال همین حالا برای تصمیم گیری درباره اعتبار بانکی یک فرد یا اینکه تضمینی در بازگشت پول یک وام وجود دارد یا خیر استفاده می شوند.

چه می شود اگر یک الگوریتم تصمیم بگیرد شما نباید یک خانه یا یک اتومبیل بخرید؟ به سراغ چه کسی می روید؟ چه می شود اگر یک نرم افزار پیش بینی کند که شما چون صرفاً سفیدپوست نیستید، دست به جرم و جنایت خواهید زد؟ سوال های بسیار بسیار زیادی وجود دارد و نقش نورمن، کمک به ما در یافتن پاسخ هاست.

The post نورمن، هوش مصنوعی جدید MIT به هیچ چیز جز قتل فکر نمی کند appeared first on دیجیاتو.