تکنولوژیهوش مصنوعی
پیشتازان عرصه هوش مصنوعى : پیروز میدان گوگل است یا مایکروسافت؟
در حال حاضر دو پرچمدار بزرگ هوش مصنوعی، گوگل و مایکروسافت هستند و رقابت فعلی آنها بر سر فناوری جالب و حیرت آور «یادگیری عمقی» یا Deep Learning است. رقابتی که معلوم نیست کدام برنده شود.
تب هوش مصنوعی که در دهه ۸۰ بسیار داغ بود، کم کم فروکشی کرد، اما پیشرفت در این حوزه کماکان ادامه داشت و امروزه شاهد پیشرفتی شگفت انگیز در این حیطه هستیم. دنیای وابسته به داده های اطلاعاتی امروز، غول های فناوری را بر آن داشته که در نبردی تنگاتنگ از ظرفیت این حوزه بخصوص در زمینه گوشی های همراه بهره وری کنند. در حال حاضر دو پرچمدار بزرگ هوش مصنوعی، گوگل و مایکروسافت هستند و رقابت فعلی آنها بر سر فناوری جالب و حیرت آور «یادگیری عمقی» یا Deep Learning است. رقابتی که معلوم نیست کدام برنده شود.
مغز گوگل
گوگل تحقیقات خود را به پروژهای موسوم به Google Brain معطوف کرده است. گوگل اکس، سازنده آن، سکاندار جاه طلبی های گوگل است که پروژههایی معمولا غیراقتصادی، اما تاثیرگذار انجام میدهد. از آن جمله میتوان به پروژه Loon (طرح اینترنت بالنی) و پروژه اتومبیل خودران گوگل اشاره کرد. مغز گوگل، یک طرح یادگیری ماشینی با تمرکز ویژه بر پردازش تصویر، اما با افق هایی به مراتب وسیع تر است.
هدف پروژه، بهبود الگوریتم های یادگیری با هدف ساخت شبکه هایی عصبی است که بتوانند با قدرت پردازشی کمتر، الگوهای عمیق تر و دقیق تری از داده ها دریافت کنند. گوگل سرمایه های کلانی را به این هدف اختصاص داده که یکی از آنها، خرید استارتاپ هوش مصنوعی DeepMind به قیمت ۵۰۰ میلیون دلار است آغازگران DeepMind چنان نگران نابودی دنیا به دست پروژه خود بودند که شرط معامله شان با گوگل، تشکیل یک هیات نظارتی بر صحت اخلاقی این پروژه بوده است. تا اینجا بزرگترین میوه این پروژه، یک هوش مصنوعی است که در بازی آتاری تبحر دارد. هرچند همین چند ماه قبل بود که پروژه Open AI توانست با الگوریتم خاصی خود، DeepMind را در آتاری شکست بدهد.از موارد دیگر کاربرد مغز گوگل در سیستم خودکار تصاویر استریت ویو است. مصداق دیگر، نرمافزار Google NOW است که می تواند براساس سوابق گشت و گذار کاربر، پیشنهادات مختلف او را از برنامه هایش مطلع کند. این نرم افزار رقابت تنگاتنگی با دستیار آیفون یعنی Siri دارد.
آدام مایکروسافت
رویکرد مایکروسافت در این حیطه فرق دارد. دست اندرکاران این شرکت به جای احتکار متخصصان این عرصه، سعی در بازنگری بنیادین در بحث یادگیری عمقی دارند و تلاش می کنند راههای بهتری برای موازی سازی الگوریتم هایی بیابند که خود برای «تعلیم» الگوریتم های یادگیری عمقی به کار میروند. آنها نام این پروژه را Microsoft Adam گذاشته اند. شگردهایی که آنها به کار می بندند، از حجم پردازشی ها و پردازنده های لازم برای دسترسی به نتایج کاسته و همزمان کیفیت آنها را هم بالا میبرند. همین به دستاوردهای فنی جالبی انجامیده است. ازجمله مهارت شناسایی انواع نژادهای سگ در عکس های مختلف، با نرخ درستی بالا. هدف آدام، شناسایی همه اشیا ممکن در تصاویر است؛ آن هم با تعداد سیستم های ۳۰ برابر کمتر از رقبا و شبکه ای عصبی با بالغ بر دو میلیارد ارتباط . نمونه این فناوری هم دستیار مجازی مایکروسافت (کورتانا) است. مغز گوگل، یک طرح یادگیری ماشینی با تمرکز ویژه بر پردازش تصویر، اما با افقی هایی به مراتب وسیع تر است.
ساساز و کار یادگیری عمقی چیست؟ به تعریف نسبتا ساده: یادگیری عمقی، تکنیکی برای تولید نرمافزار هوشمند است که اغلب روی شبکه های عصبی (neural networks) این تکنیک، شبکههای عصبی متعدد را به هم پیوند زده و نهایتا شبکه های عظیم تر و کاربردی تری خلق میکند. هر شبکه عصبی در این زنجیره، از خروجی شبکه ماقبل خود تغذیه کرده و قدرت پردازش به مراتب بالا می رود. برای درک بهتر اهمیت یادگیری عمقی، بهتر است به فناوری های پیشین آن هم بپردازیم.
شبکه عصبی پرورش معکوس
ساختار شبکه های عصبی چنین است که هر نورون، چون گرهای، ورودی ها را دریافت و سپس طبق قوانین پیشفرض خود، آتش کرده یا خروجی میسازد. هر داده ورودی به اصطلاح وزن (ضریب کنترل مثبت یا منفی بودن سیگنال و قدرت آن) دارد. شبکه شکل یافته از اتصال این نورونها، وظیفه راه اندازی الگوریتمها را دارد. ورودی های باینری به نورونها تغذیه شده و خروجی آنها از راه اندازهگیری ارزش آتش نورون های خروجی حاصل می شود. چالش اصلی هر شبکه، گزینش شبکه مطلوب نزدیک به نتیجه مفروضی کاربر است.
از الگوریتم پرورش معکوس، برای تعلیم شبکه ها استفاده میشود: شبکه با وزن های تصادفی راه افتاده و پاسخ های مطلوب را دسته بندی می کنند. در ازای هر خطا یا خروجی کم یا زیاد، علت خطا یافت شده و وزن ها به جهت صحیح تر سوق داده می شوند. پس از چند تکرار، شبکه دسته بندی صحیح نقاط را یاد گرفته و در صورت امکان، با آنچه یاد گرفته نقاط دادهای جدید میسازد. خوبی اش این است که داده های خطادار را میتوان به عقب فرستاد و هر لایه را مطابق آخرین تغییرات اصلاح کرد. نتیجه شبکه هایی با قدرت درک فزاینده است، پرورش معکوس یا Backprop در سال ۱۹۷۴ و توسط جفری هنتن (Geofirey Hinton) ابداع شد. اولین کاربرد شبکه های عصبی در حجم وسیع، پس از آن بود.
شبکه های عصبی ساده از دهه ۵۰ وجود داشتند و در ابتدای امر با نورونهای مکانیکی و موتوری ساخته می شدند. الگوریتم پرورش معکوس را دوره گردی در عرصه ای پهناور از راه حل های بالقوه تصور کنید. هر وزن نورون، جهتی است که این الگوریتم میتواند جستوجو کند. اغلب شبکه های عصبی، هزاران مورد از اینها دارند. شبکه پدید آمده هر بار بهتر یاد می گیرد که چطور از خطاهای جستوجوهای قبلی خود عبرت گرفته و این بار از کجا و تا چه حدی پیش برود تا کمترین خطا را مرتکب شود. البته عدم توفیق آن دلایلی دارد. جدیترین مشکل آن «مساله شیب ناپدید شونده» است. هرچقدر داده خطا را بیشتر در طول شبکه به عقب بفرستید، به نسبت هر لایه از معنای آن کاسته می شود. این شیوه از ساخت شبکه کارآمد عمیق عاجز است. چرا که از جایی به بعد، ویرایش خطاهای لایه های عقبی ناممکن می شود. مشکل دیگر، هرچند کوچکتر، این است که شبکه های عصبی تنها به اپتیمای محلی (local optime) می پیوندند: چیزی شبیه گیر کردن در کوچهای تنگ و غفلت از راهبردهای عمقی تر و بهتری که به نقطه آغاز تصادفیشان دور هستند. البته این هم راهی دارد.
شبکه باور عمیق
شبکه های باور عمیقی هر دوی این مشکلات را حل می کنند. این شبکه ها، با اطلاعاتی از پیش تعیین شده آغاز کرده و بر اساس آنها به یادگیری در آن ساده است بر اساس شبکه ای موسوم به «ماشین بولتزمن محدود» یا Restricted Boltzman Machine (به اختصار RBM ) بنا شده است که خود از مفهومی موسوم به «یادگیری بدون نظارت» قدرت می گیرد.
این شبکه ها به جای دسته بندی اطلاعات دریافت شده، آنها را فشرده سازی می کنند. RBM ها مجموعه ای از نقاط داده ای را دریافت کرده و طبق قابلیتشان تعلیم می بینند تا آن نقاط دادهای را از حافظه خود تولید کنند. ساده تر بگوییم: اگر هزاران تصویر گربه را به آن بدهید، آن پس، قادر خواهد بود با دقتی بسیار بالا – شاید هم بی نقص – وجود یا عدم وجود گربه در تصاویر دیگر را تشخیص دهد. قواعد یادگیری RBM مشابه قواعد یادگیری مغز است و از این حیث می توان با آنها تحقیقات علمی روی مغز انسان را هم بسط داد. ضعف این شبکه ها این است که هرچه عمق به آنها بخشیم، زمان تعلیمشان بالا می رود. موهبت RBM این است که میتوان RBM دو لایه را با هم هماهنگ کرده و هر دو را تعلیم داد تا هرکدام خروجی سیستم قبلی خود را بیابند. نتیجه، شبکه ای است که می تواند محتواهای پیچیده و انتزاعی را درک کند.
رقابتی برای حسابگرهای ملاحظه کار
هرچه این شبکه ها بیشتر عمق بیابند، قادر خواهند بود مفاهیم عظیمتر و انتزاعی تری را هم فرا بگیرند. یکی از خیره کننده ترین موفقیت های گوگل در سال های اخیر، سوق دادن مترجم اینترنتی اش به سوی ترجمه مفهومی بود. البته هنوز تا ایده آلی این سرویسی راه درازی در پیش است، اما همان مقداری که تاکنون پیش رفته هم در نوع خود بی نظیر است. این که واقعا کدام یک از پیشتازان عرصه هوش مصنوعی پیروز میدان خواهد شد، معلوم نیست. هرچند دغدغه اصلی ما تبعات این پیروزی است، نه مالک آن!