سرعت بخشیدن به هوش مصنوعی با پردازنده‌های گرافیکی: یک مدل رایانشی جدید، GPU به جای CPU

از زمانی که انسان‌ها شروع به ساخت و توسعه‌ی سیستم‌های کامپیوتری کرده‌اند، هوش مصنوعی همیشه نقطه‌ی نهایی این صنعت به حساب می‌آمد. ساختن ماشین‌های هوشمندی که بتوانند مانند ما جهان را درک کنند، زبان ما را بفهمند و از مثال‌ها یاد بگیرند، هدفی بوده که خیلی از دانشمندان علوم کامپیوتر برای آن تلاش می‌کرده‌اند و خیلی از این دانشمندان در طی پنجاه سال گذشته تمام عمر خود را صرف چنین کاری کرده‌اند. با این حال نیاز به ترکیبی از فعالیت‌های «ین لسون»، «جف هینتون» و «اندرو نگ» بود که انفجاری بزرگ در زمینه‌ی «یادگیری عمیق ماشین» رخ دهد. انفجاری که فعالیت‌های «اندرو نگ» در زمینه‌ی استفاده از پردازنده‌های گرافیکی برای پردازش‌های هوش مصنوعی در آن تاثیر به سزایی داشت.

در همین زمان «انویدیا» مشغول کار بر روی مدلی پردازشی با استفاده از پردازنده‌های گرافیکی بود، مدل محاسباتی جدیدی که از پردازنده‌های به شدت موازی کارت‌های گرافیک برای سرعت بخشیدن به اپلیکیشن‌هایی که طبیعتی موازی دارند استفاده می‌کرد. دانشمندان و محققان از پردازنده‌های گرافیکی برای شبیه‌سازی در ابعاد مولکولی استفاده کرده‌اند، شبیه‌سازی‌ای که برای تشخیص میزان عملکرد مثبت دارویی نجات‌بخش انجام شد. شبیه‌سازی‌هایی نیز برای ساخت مدل سه‌بعدی اعضای بدن ما و همچنین شبیه‌سازی کل جهان و درک بهتر قوانین حاکم بر آن انجام شد. یکی از محققانی که از پردازنده‌های گرافیکی برای شبیه‌سازی «کرومودینامیک کوانتومی» استفاده کرده است به ما گفت «به خاطر کاری که انویدیا انجام داده است من حالا می‌توانم مهم‌ترین پروژه‌ی زندگی خود را تا وقتی که زنده‌ام به انجام برسانم.» این نظرات بسیار خوشحال‌کننده‌اند. همیشه یکی از اهداف انویدیا کمک به مردم برای ساخت آینده‌ای بهتر بوده. پردازنده‌های گرافیکی انویدیا قدرتی محاسباتی در حد سوپرکامپیوترها را در اختیار محققان قرار می‌دهند و حالا محققان با چنین قدرتی آشنا شده‌اند و از آن استفاده می‌کنند.

سال 2011 بود که محققان هوش مصنوعی در دنیا با پردازنده‌های گرافیکی انویدیا آشنا شدند. پروژه‌ی Google Brain به نتایج شگفت‌آوری رسیده بود و با مشاهده‌ی ویدیوهای یوتیوب توانست یاد بگیرد که گربه‌ها و مردم را تشخیص بدهد. اما چنین کاری نیاز به 2000 پردازنده داشت، 2000 پردازنده‌ای که در یکی از دیتاسنترهای گوگل جمع‌آوری شده بودند. دسترسی به چنین حجمی از پردازنده‌ها برای هر کسی ممکن نیست. و اینجا است که انویدیا و پردازنده‌های گرافیکی وارد ماجرا می‌شوند. «برایان کاتانزارو» در قسمت تحقیقاتی انویدیا با تیم «اندرو نگ» وارد همکاری شدند و موفق شدند که بتوانند از پردازنده‌های کامپیوتری برای ساخت هوش مصنوعی با قابلیت «یادگیری عمیق» استفاده کنند. و آن طور که معلوم شد 12 پردازنده‌ی گرافیکی انویدیا می‌توانند توانی پردازشی معادل 2000 سی‌پی‌یو برای پردازش محاسبات یادگیری عمیق در هوش مصنوعی تولید کنند. محققان دانشگاه نیویورک، تورنتو و آزمایشگاه هوش مصنوعی سوییس موفق شدند که با استفاده از پردازنده‌های گرافیکی به یادگیری عمیق در شبکه‌های مصنوعی خود سرعت ببخشند. و از اینجا بود که سرعت انتشار این اتفاق شدت گرفت.

سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکییادگیری عمیق معجزه می‌کند

«الکس کریژوسکی» از دانشگاه تورنتو توانست در سال 2012 در رقابت پردازش تصویر ImageNet برنده شود. «کریژوسکی»‌ توانست، با فاصله‌ی زیادی، از دیگر نرم‌افزارهای نوشته شده توسط خبرگان این زمینه پیشی بگیرد. نکته‌ی جالب این است که «کریژوسکی» و تیمش هیچ کدی در زمینه‌ی پردازش تصویر ننوشتند و در عوض نرم‌افزارشان توانست با استفاده از روش‌های یادگیری عمیق تصاویر را تشخیص دهد. این تیم شبکه‌ای عصبی به اسم AlexNet ساختند و با استفاده از یک میلیون تصویر نمونه و تریلیون‌ها پردازش ریاضی در پردازنده‌های گرافیکی انویدیا آن را تربیت کردند. و اینطور بود که نرم‌افزار آن‌ها توانست هر نرم‌افزار دیگری که توسط افراد دیگر نوشته شده بود را شکست دهد.

رقابت بر سر هوش مصنوعی جریان داشت و در سال 2015 اتفاق بزرگ دیگری رخ داد.

سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکیبا استفاده از یادگیری عمیق، هر دوی کمپانی‌های گوگل و مایکروسافت موفق شدند که در چالش تشخیص تصویر ImageNet امتیاز بهتری نسبت به بهترین امتیاز انسانی کسب کنند. توجه کنید که امتیاز بهتری نسبت به یک انسان کسب کردند نه نسبت به یک نرم‌افزار دیگر و این اتفاق شگفت‌انگیزی است. کمی بعد از این اتفاق مایکروسافت و دانشگاه علم و تکنولوژی چین اعلام کردند که موفق به ساخت شبکه‌ی عصبی مصنوعی عمیقی شده‌اند که می‌تواند امتیاز آی‌کیویی برابر با فارغ‌التحصیلان دانشگاه به دست بیاورد. Baidu اعلام کرد که سیستمی از نوع یادگیری عمیق موفق شده است با یک الگوریتم، هر دوی زبان‌های انگلیسی و ماندارین را فرا بگیرد. همه‌ی بالاترین رتبه‌های ImageNet با استفاده از یادگیری عمیق نوشته شده بودند و روی پردازنده‌های گرافیکی اجرا می‌شدند، هوش مصنوعی‌هایی که در خیلی از موارد بهترین امتیازهای انسانی را پشت سر گذاشتند.

در سال 2012 یادگیری عمیق موفق شد که نرم‌افزارهای ساخت انسان را شکست دهد و در سال 2015 توانست به درکی «فرا انسانی» دست پیدا کند.

یک پلتفرم کامپیوتری جدید برای یک مدل نرم‌افزاری جدید

نرم‌افزارهای کامپیوتری شامل دستوراتی هستند که در بیشتر مواقع به ترتیب اجرا می‌شوند. یادگیری عمیق یک مدل جدید نرم‌افزاری است که تفاوت‌هایی پایه‌ای با مدل اجرایی نرم‌افزارهای کامپیوتری دارد، در یادگیری عمیق میلیاردها نورون نرم‌افزاری و تریلیون‌ها ارتباط به صورت موازی تربیت می‌شوند. با اجرای الگوریتم شبکه‌ی عصبی عمیق و یادگیری از مثال‌ها، در واقع کامپیوتر خودش نرم‌افزار خودش را می‌نویسد. این مدل نرم‌افزاری بسیار متفاوت، نیاز به پلتفرم کامپیوتری جدیدی برای اجرای بهینه دارد. رایانش شتاب یافته راهی مناسب برای این کار است و پردازنده‌های گرافیکی ابزاری ایده‌آل برای اجرای آن هستند. همانطور که Nature اخیراً به آن اشاره کرده است، اولین پیشرفت‌های قابل توجه در یادگیری عمیق «با استفاده از سرعت پردازش بالای پردازند‌های گرافیکی اتفاق افتاد، پردازنده‌هایی که به محققان اجازه دادند شبکه‌های عصبی‌ای بسازند که 10 الی 20 برابر سریع‌تر آموزش داده می‌شدند.» برای ساخت پلتفرم کامپیوتری جدیدی نیاز به فاکتورهای مختلفی داریم، میزان کارایی، توانایی برنامه‌نویسی مفید و دسترسی باز از این فاکتورهای مهم هستند.

سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکیکارایی: پردازند‌های گرافیکی انویدیا به صورت طبیعی در انجام محاسبات موازی بسیار خوب عمل می‌کنند و می‌توانند شبکه‌های عصبی مصنوعی را 10 الی 20 برابر سریع‌تر کنند، به این ترتیب میزان زمان مورد نیاز برای آموزش یک شبکه‌ی عصبی مصنوعی به جای هفته‌ها به روزها کاهش پیدا می‌کند. البته انویدیا به همین اتفاق راضی نشد و با همکاری محققان هوش مصنوعی، معماری پردازنده‌های گرافیکی خود را بهبود بخشید. معماری، کامپایلر و الگوریتم‌های بهتر این شرکت توانست تنها ظرف سه سال کارایی شبکه‌های عصبی مصنوعی را تا 50 برابر افزایش دهد، سرعت افزایشی بسیار بیشتر از قانون مور. این شرکت انتظار دارد که در چند سال آینده باز هم این کارایی را تا 10 برابر دیگر افزایش دهد.

توانایی برنامه‌نویسی مفید: نوآوری‌های هوش مصنوعی با سرعت سرسام‌آوری در حال رخ دادن هستند. راحت بودن برنامه‌نویسی و توانایی استفاده‌ی بهینه از وقت توسط توسعه دهنده، از نقاط مهم این رشته هستند. توانایی برنامه‌نویسی کاربردی و جامع بودن پلتفرم NVIDIA CUDA به محققان این اجازه را می‌دهد که نوآوری‌های خود را به سرعت پیاده‌سازی کنند و بتوانند ساختارهای جدیدی از شبکه‌های CNN، DNN، deep inception، RNN و LSTM و یادگیری تقویتی را به وجود آورند.

سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکیدر دسترس بودن: توسعه‌دهندگان دوست دارند که بتوانند نرم‌افزار خود را در هر محیطی توسعه دهند و هر جایی منتشر کنند. پردازنده‌های انویدیا در سراسر جهان موجودند. هر کامپیوتر شخصی که فکرش را بکنید، دسکتاپ‌ها، لپ‌تاپ‌ها، سرورها و سوپرکامپیوترها، و کامپیوترهای ابری از جمله آمازون، آی‌بی‌ام و مایکروسافت از پردازنده‌های گرافیکی انویدیا استفاده می‌کنند. تمام فریم‌ورک‌های اصلی هوش مصنوعی می‌توانند از سرعت پردازشی پردازنده‌های گرافیکی انویدیا استفاده کنند، از کمپانی‌های اینترنتی گرفته تا پروژه‌های تحقیقاتی و استارتاپ‌ها. اهمیتی ندارد که چه سیستم توسعه‌ای را ترجیح می‌دهد، در هر صورت با پردازنده‌های گرافیکی سرعت‌شان بیشتر می‌شوند. همچنین انویدیا کارت‌های گرافیک خود را در هر سایزی تولید کرده است تا افراد مختلف با استفاده از سیستم‌های کامپیوتری متفاوت بتوانند از قدرت این پردازنده‌ها استفاده کنند. GeForce برای کامپیوترهای شخصی است. Tesla برای رایانش ابری و Jetson برای ربات‌ّها و درون‌ها استفاده می‌شود و DRIVE PX برای ماشین‌ها. همه‌ی این کارت‌های گرافیک از معماری یکسانی استفاده می‌کند و باعث افزایش سرعت یادگیری عمیق می‌شوند.

تمام صنایع به هوش نیاز دارند

بایدو، گوگل، فیسبوک و مایکروسافت از اولین استفاده‌کنندگان از پردازنده‌های گرافیکی انویدیا برای یادگیری عمیق هستند. این تکنولوژی هوش مصنوعی همان چیزی است که از آن برای تبدیل گفتار به متن، ترجمه‌ی گفتار یا متن به زبانی دیگر، تشخیص و تگ کردن تصاویر، و پیشنهاد فید خبری، تفریحی و پیشنهاد محصولات استفاده می‌شود. استارتاپ‌ها و دیگر کمپانی‌ها نیز در حال رقابت برای استفاده از هوش مصنوعی هستند تا بتوانند محصولات و سرویس‌های جدیدی به کاربران ارائه دهند یا محصولات و سرویس‌های خود را بهتر کنند. فقط در عرض دو سال تعداد کمپانی‌هایی که انویدیا در زمینه‌ی هوش مصنوعی با آن‌ها همکاری می‌کند 35 برابر شد و به عدد 3400 کمپانی رسید. صنایعی همچون سیستم بهداشت، علوم زیستی، انرژی، سرویس‌های اقتصادی، اتومبیل، تولید و تفریحات می‌توانند با استفاده از هوش مصنوعی و حجم عظیم داده‌هایشان اطلاعات مفیدی به دست بیاورند. و از آن‌جا که فیسبوک، گوگل و مایکروسافت پلتفرم‌ّهای یادگیری عمیق‌شان را در دسترس همگان قرار داده‌اند، اپ‌های هوشمند به سرعت منتشر خواهند شد. Wired نیز اخیراً به «رستاخیز پردازنده‌های گرافیکی»‌ اشاره کرده است.
سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکیماشین‌های خودران. چه بخواهیم در کنار انسان‌ها، کمک‌راننده‌های ابرانسانی داشته باشیم، چه بخواهیم تغییری انقلابی در سیستم حمل و نقل ایجاد کنیم یا پارک ماشین‌ها را راحت‌تر کنیم، ماشین‌های خودران پتانسیل بالایی برای کمک به جوامع دارند.  رانندگی کار پیچیده‌ای است. اتفاقات نامنتظره‌ای رخ می‌دهد. باران جاده را به پیست اسکیت تبدیل می‌کند. ممکن است مسیری که به مقصدتان منتهی می‌شود بسته باشد. کودکی جلوی ماشین‌تان بپرد. نمی‌توان نرم‌افزاری نوشت که هر سناریوی ممکن را بداند. و اینجاست که یادگیری عمیق ارزشمند می‌شود. با یادگیری عمیق، نرم‌افزار می‌تواند یاد بگیرد، خود را وقف دهد و بهتر شود. شرکت انویدیا در حال ساخت پلتفرمی به اسم NVIDIA DRIVE PX برای ماشین‌های خودران است. نتیجه‌ی این اتفاق شگفت‌انگیز است. آینده‌ای با کمک‌راننده‌های ابرانسان و شاتل‌های بدون خلبان دیگر جز ژانر علمی‌تخیلی به حساب نمی‌آید.

سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکیربات‌ها. یکی از سازندگان برتر ربات‌ها، FANUC، به تازگی رباتی را به نمایش گذاشته است که توانایی برداشتن اجسامی با شکل‌های غیر معمول و تصادفی را دارد. این ربات که از پردازنده‌ی گرافیکی برای پردازش‌های خود بهره می‌گیرد با استفاده از آزمون و خطا توانایی انجام چنین کاری را دارد. این تکنولوژی یادگیری عمیق با استفاده از Preferred Networks پیاده‌سازی شده است، تکنولوژی‌ای که به تازگی در مقاله‌ای با عنوان «ژاپن با استفاده از هوش مصنوعی به تکنولوژی خود جانی دوباره می‌دهد» در The Wall Street Journal به چاپ رسید.

سیستم بهداشتی  و علوم زیستی. پروژه‌ی Deep Genomics با استفاده از یادگیری عمیق و با بهره از پردازنده‌های گرافیکی در حال تلاش برای درک ارتباط میان تفاوت‌ّهای ژنیکی و بیماری‌های مختلف است. Arterys با استفاده از هوش مصنوعی و پردازنده‌های گرافیکی در تلاش برای بهبود بخشیدن آنالیز تصاویر پزشکی است. این تکنولوژی در دستگاه‌های GE Healthcare MRI استفاده خواهد شد تا به تشخیص بهتر بیماری‌های قلبی کمک کند. Enlitic در حال استفاده از هوش مصنوعی و پردازنده‌های گرافیکی است تا بهتر بتواند تومورها، شکستگی‌های تقریباً نامرئی و دیگر بیماری‌ها را تشخیص دهد. و این‌ها فقط تعدادی مثال از پروژه‌های این دسته هستند. تعداد کلی پروژه‌ها به هزاران عدد می‌رسد.

سرعت بخشیدن به هوش مصنوعی با استفاده از پردازنده‌های گرافیکی: یک مدل رایانشی جدید

پیشرفت غیر منتظره‌ی یادگیری عمیق جرقه‌ای برای انقلاب هوش مصنوعی بود. ماشین‌های مجهز به هوش مصنوعی با قابلیت یادگیری عمیق می‌توانند از پس حل مشکلات چنان پیچیده‌ای بر بیایند که تا به حال برنامه‌نویسان انسانی قادر به حل آن‌ها نبوده‌اند. این سیستم‌ها با استفاده از داده‌ها یاد می‌گیرند و با استفاده‌ی بیشتر بهتر می‌شوند. همان شبکه‌های ساخته شده می‌توانند توسط افراد غیر متخصص در برنامه‌نویسی آموزش داده شوند تا مساله‌های جدید را حل کنند. پیشرفت این پروژه‌ها خیلی سریع است و قابلیت وقف‌شان با محیط نیاز بسیار بالا است. و ما بر این باوریم که تاثیر چنین فناوری‌های نیز بر جامعه بسیار زیاد باشد. تحقیقی جدید که توسط KPMG انجام شده است پیش‌بینی می‌کند که تکنولوژی‌های کمکی برای رانندگی، آمار تصادفات رانندگی را تا میزان 80 درصد در 20 سال آینده کاهش خواهد داد، آماری نزدیک به 1 میلیون نفر در سال. و یادگیری عمیق اساس چنین تکنولوژی‌هایی خواهند بود.

همچنین تاثیر چنین تکنولوژی‌ای بر صنعت کامپیوتر نیز بسیار زیاد خواهد بود. یادگیری عمیق اساساً مدلی جدید از پردازش کامپیوتری است. به همین دلیل است که برای اجرای چنین نرم‌افزارهایی به پلتفرم کامپیوتری جدیدی نیاز داریم، معماری جدیدی برای کامپیوترها که بتواند به صورت بهینه دستورات برنامه‌نویسی شده توسط برنامه‌نویسان را اجرا کند و همچنین قابلیت اجرای بهینه‌ی دستورات به شدت موازی آموزشی شبکه‌های یادگیری عمیق را داشته باشد.  به نظر ما رایانش با استفاده از پردازنده‌های گرافیکی مسیری به آینده‌ی هوش مصنوعی خواهد بود. باید منتظر بمانیم و پیشرفت‌های بزرگ این صنعت را شاهد باشیم.

نوشته سرعت بخشیدن به هوش مصنوعی با پردازنده‌های گرافیکی: یک مدل رایانشی جدید، GPU به جای CPU اولین بار در دیجی رو. پدیدار شد.