محدودیت ‌های یادگیری ماشین

یادگیری ماشین چه‌کارهایی را می‌تواند انجام دهد و چه‌کارهایی را نمی‌تواند انجام دهد؟

پیش از هر چیز لازم است بدانیم که یادگیری ماشین یک قدرت مطلق نیست. از تحقیقات ۵۰ سال گذشته این‌گونه برمی‌آید که یادگیری ماشین یک نوع  روش کسب دانش بدون برنامه‌نویسی صریح است با مرزهای مشخص است. درست همانند محاسبات که همچون دیگر فرایندها دارای محدودیت‌های ذاتی است، محدودیت ‌های یادگیری ماشین نیز وجود دارند، محدودیت‌هایی که حتی باوجود استفاده از gpu ها و کامپیوترهای سریع نیز نمی‌توانیم بر آن‌ها غلبه کنیم. ممکن است این موضوع برای بسیاری از مشتاقان یادگیری ماشین ناامیدکننده به نظر برسد، اما باید بپذیریم که یادگیری ماشین قرار نیست ناجی همه‌چیز باشد. روش‌های دیگری برای دستیابی به اطلاعات وجود دارد و افراد علاوه بر “یادگیری” از این موارد نیز استفاده می‌کنند.

 

موانع یادگیری زبان

بگذارید به‌عنوان مثال اصلی، مشکل یادگیری زبان از طریق شنیدن را مثال بزنیم. این موضوع بیش از ۵۰ سال است که محل مناقشه و بحث‌های عمیق نه‌تنها در هوش مصنوعی بلکهر  فلسفه، زبانشناسی، روانشناسی، زیست‌شناسی و علوم اعصاب نیز بوده است. جالب است بدانید ما هنوز هم نمی‌دانیم چگونه انسان‌ها و به‌طور خاص کودکان از همان ۲ سالگی زبان اول خود را یاد می‌گیرند. در کنار کارهای شگفت‌انگیز زیادی که برای مستندسازی این فرایند صورت گرفته است تئورهای ختلفی نیز وجود دارد. درهرحال ، امروز نمی‌توانید از گاه یک ماشین یادگیری مثل الکسا ب که در خانه شما بنشیند و هر آنچه را که در خانه شما صحبت می‌شود را بشنود و طی یک یا دو سال دیگر با شما شروع به صحبت کردن کند! ناراحت‌کننده است که باوجود میلیون‌ها سروری که در گوگل، آمازون، مایکروسافت و شرکت‌های بزرگ فناوری وجود دارد و البته ظرفیت بالای ذخیره‌سازی در مراکز داده، ما کماکان نمی‌توانیم این مشکل را حل کنیم!

شاید دارید به چت‌بات‌ها فکر می‌کنید. نه آن‌ها نمی‌توانند زبان را یاد بگیرند. اگر تاکنون از یکی از این برنامه‌ها استفاده کرده باشید دریکی دو دقیقه متوجه این موضوع خواهید شد.

اکنون، شما احتمالاً در مورد قدرت چشم‌گیر راه‌حل‌های یادگیری عمیق، مانند LSTM یا GRU در انجام کارهایی مانند ترجمه زبان شنیده‌اید. لازم است باز تکرار کنیم که این سیستم‌ها فاصله بسیار زیادی با یادگیری زبان دارند و حتی  در حال حاضر می‌توان گفت عملکرد آن‌ها در ترجمه زبان در مقایسه با انسان‌ها بسیار بد است. حتی مترجم گوگل نیز آن‌چنان کارآمد نیست. معماری LSTM و GRU نمی‌توانند زبان را “درک” کنند. آن‌ها مدل‌های آماری ساده‌ای ایجاد می‌کنند که برخی از اطلاعات مربوط به کلمات گذشته را حفظ می‌کنند و بیشتر در سطح جمله هستند. برای مثال مترجم گوگل کماکان قادر به درک اهمیت جنسیت در ترجمه های خود نیست.

محدودیت ‌های یادگیری ماشین

بنابراین، با توجه به این مثال از یادگیری زبان محدودیت ‌های یادگیری ماشین چیست؟ در اصل دو محدودیت وجود دارد، که برمی‌گردند به ذات یادگیری ماشین و همان‌طور که گفته شد این محدودیت‌ها با استفاده از داده‌های بیشتر و یا محاسبات قدرتمندتر قابل حل نیسنتد. به همین دلیل شناختن چنین مواردی بسیار مهم است ، به‌این‌ترتیب فرد متوجه می‌شود با یادگیری ماشین چه چیزی را می‌تواند انجام دهد و چه‌کاری را نمی‌تواند انجام دهد. همان‌طور که فیلسوف مشهور چینی کنفوسیوس سال‌ها پیش گفته است :

کسی که می‌داند چه چیزی را می‌داند و چه چیزی را نمی‌داند کسی است که واقعاً می‌داند

اولین محدودیت را در ۵۰ سال قبل مارک گلد در یک قضیه معروف اثبات کرده است. مطالعات زیادی نشان داده‌اند که کودکان نمونه‌های درست و مثبت زبان طبیعی را به یاد می‌سپارند. به‌طورکلی، والدین اشتباهات تلفظی و قواعدی کودکان را تصحیح نمی‌کنند، در عوض آنچه را که کودک در تلاش برای گفتن است تفسیر می‌کنند. همچنین کودکان نمی‌دانند که زبانی که قرار است یاد بگیرند چیست (درواقع اگر شما در آمریکا به دنیا آمده‌اید، به برخی ژن‌های جادویی “یادگیری انگلیسی” مجهز نیستید).

بنابراین آنچه گلد اثبات کرد این است که مهم نیست چند نمونه مثبت را ببینید؛ درهرصورت یک سیستم یادگیری ماشین هرگز نمی‌تواند گرامری مستقل از متن استنتاج کند که رشته‌های زبان را تولید می‌کند. فرض کنید به شما رشته‌هایی داده‌اند که با استفاده از زبان مستقل از متن ناشناخته تولیدشده‌اند. مهم نیست که چند رشته را می‌بینید و چه مقدار توان محاسبه در دسترس دارید، به‌هرحال هیچ‌وقت نمی‌توانید بگویید که قواعد تولید زبان را دقیقاً مشخص کرده‌اید. این واقعاً نتیجه خیره‌کننده‌ای بود.

ازآنجاکه زبان‌های ژاپنی و انگلیسی و آلمانی و فرانسوی از زبان‌های مستقل از  متن قدرتمندتر هستند ، باید بدان معنی باشد که فضای زبان‌های موجود در مغز ما همه مستقل از متن و یا همه حساس به متننیستند اما برخی از طبقه‌های محدودتر هستند که فقط از نمونه‌های مثبت قابل‌شناسایی است. اما طبقهچیست؟ زبان شناسان ۵۰ سال است که به دنبال آن هستند، و هنوز پاسخ آن را پیدا نکرده‌اند، اگرچه پیشرفت‌های زیادی صورت گرفته است.

اما به محدودیت دوم بپردازیم. محدودیتی که خود ریشه در محدودیت ذاتی دو اصل یادگیری ماشین دارد؛ یعنی احتمال و آمار. امروزه، این دو حیطه ریاضی نه‌تنها در یادگیری ماشین بلکه در بسیاری از زمینه‌های دیگر علوم و مهندسی فوق‌العاده قدرتمند و مفید هستند. با این اوصاف سخت بتوان با این ادعا مخالفت کرد که کار فیشر در آزمایش‌های تصادفی و برآورد حداکثر احتمال یکی از نقاط عطف تحقیقات در قرن بیستم بود، کاری که بسیاری از موارد دیگر را نیز ممکن ساخت. همان‌طور که نیمان، پیرسان، روبین و اخیراً پیرل نشان داده‌اند، بااین‌حال، استدلال آماری ذاتاً محدود است. نظریه احتمال نمی‌تواند ماهیت علیتی جهان را فاش کند. با این تئوری نه می‌توان فهمید که صاعقه باعث رعدوبرق می‌شود و نه می‌توان فهمید بیماری‌ها باعث بروز علائم می‌شوند. بنابراین با استناد به ‌احتمال، آمار و یادگیری ماشین نمی‌توان این موارد را تعیین کرد. یک‌بار دیگر باید تأکید کنیم که این ‌یک محدودیت ذاتی است و نمی‌تواند با داده‌های بیشتر، سیستم‌های بیشتر و پول بیشتر این مشکل را برطرف کرد.

بنابراین، در پایان باید این واقعیت را قبول کرد که علم داده باوجود تعهد و تمام توان بالقوه خود، نمی‌تواند نقطه پایانی بر این ماجرا باشد. درهرصورت یک ‌راه‌حل اعجاب‌انگیز برای مشکل هوش مصنوعی، مساله یادگیری زبان و مشکل کشف علت با استفاده از مشاهده وجود ندارد و باید ابزارهای بیشتری تهیه کرد. به‌عنوان مثال ، پیرل و روبین دقیقاً چنین نظریه احتمالی مانند نظریه نتیجه احتمالی و عملگرهای do-calculus را توسعه داده‌اند. توصیه می‌کنیم جدیدترین کتاب پیرل به نام “چرا” را بخوانید. این کتاب سه سطح معماری شناختی دارد. در پایین‌ترین سطح، مدل‌سازی آماری از مشاهده قرار دارد، در دومین لایه استدلال علیتی با مداخلات و در لایه‌ی بالا  استدلال تخیلی با خلاف واقع قرار دارد. این یکی از جالب‌ترین ایده‌های اخیر در مورد چگونگی گسترش علم داده است و می‌توان به‌نوعی آن را “علم تخیل” نامید، حوزه‌ای که هنوز وجود ندارد، اما احتمالا طی دهه‌های آینده وقتی که محدودیت ‌های یادگیری ماشین و عام داده آشکارتر می‌شود محبوبیت بیشتری پیدا خواهد کرد.

این بدین معنی نیست که علم داده مفید نیست، بسیار هم مفید است و می‌توان از آن برای مدل‌سازی بسیاری از پدیده‌ها استفاده کرد ، از شبکه‌های اجتماعی گرفته تا بیماری‌های پزشکی و مشکلات اجتماعی مانند تیراندازی در مدارس. بااین‌حال بسیار حیاتی است که بدانید علم داده به شما نمی‌گوید که چگونه این مشکلات را حل کنید! بله، تیراندازی در مدارس یک لکه ننگ در محیط آموزشی آمریکا است و می‌توان با به‌کارگیری علم داده و یادگیری عمیق مدل‌های مفصلی ساخت که خلاصه‌ای از وقایع مربوط به تیراندازی در مدارس را  به شما بدهد.

اما مشکل این نیست. مسئله واقعی، مداخله است! چگونه می‌توان تیراندازی در مدارس را کاهش داد یا از بین برد؟ همان‌طور که پریل استدلال می‌کند، مداخلات ربطی به مسائل آماری ندارد و توزیع احتمالات  به‌خودی‌خود ، نسخه‌ای برای تغییر ندارد.

برخی از مداخلات ارائه‌شده برای کاهش خشونت اسلحه شامل ممنوعیت اسلحه، بررسی دقیق سابقه اران احتمالی اسلحه، تجهیز معلمان به اسلحه (به نظر می‌رسد رئیس‌جمهور آمریکا موافق این راهکار است) و حتی لغو قانون آزادی اسلحه است. تمام این‌ها به‌نوعی مداخله محسوب می‌شود. آن‌ها خشونت‌های مرتبط با اسلحه را به‌نوعی کاهش می‌دهند. کدام‌یک مؤثرترین مداخله است؟ سؤال واقعی این است، و متأسفانه علم داده پاسخی برای این سؤال نخواهد داشت، زیرا به مدل‌های علی (مدل لایه ۲ معماری شناختی پریل) نیاز دارد.

درک مداخلات کلید اصلی برای  کاهش خشونت مرتبط با اسلحه و بسیاری از مشکلات دیگر جامعه است.

تغییرات اقلیمی را در نظر بگیرید. ما می‌توانیم انبوهی از داده‌های  مربوط به گرمایش جهانی را جمع‌آوری کنیم و از یادگیری عمیق برای ساخت مدل‌های پیشرفته انتشار دی‌اکسید کربن استفاده کنیم. اما بازهم سؤال مهمی که در اینجا وجود دارد این است که چه مداخله‌ای لازم است؟ آیا باید اتومبیل‌ها و کامیون‌های بنزینی را به‌طور کامل از رده خارج کنیم؟ این موضوع چقدر برای ما زمان می‌خرد؟ پیش‌بینی‌های ترسناکی وجود دارد که نشان می‌دهند نقشه ایالات‌متحده در طی ۱۰،۰۰۰ سال چگونه به نظر می‌رسد. بنابراین، عواقب ناشی از گرم شدن کره زمین کاملاً نگران‌کننده است و درنهایت بقای ما به‌عنوان یک‌گونه را تهدید می‌کند.

پس سؤال این است که در این مورد چه باید کرد؟ چه مداخلاتی بیشترین تأثیر را خواهند داشت و چگونه باید آن‌ها را اجرا کرد. توجه داشته باشید این علم داده نیست. وقتی مداخله می‌کنید ( فرض کنید شهری مانند پکن یا لندن تصمیم دارد مقررات جدید ترافیکی را وضع کند و در یک روز به  پلاک‌های زوج اجازه تردد در شهر دهد و روز دیگر پلاک فرد) توزیع داده‌های اساسی را ازآنچه در حال حاضر است تغییر می‌دهید، و بنابراین ، تمام داده‌های قبلی شما بی‌فایده می‌شود.

بنابراین، مدل‌های علت و معلولی برای درک طیف وسیعی از چالش‌های اجتماعی که در قرن بیست و یکم رواج پیداکرده‌اند، کاملاً موردنیاز است. اگر هوش مصنوعی می‌خواهد در بهبود جامعه مشارکت داشته باشد بستگی به این دارد که محققان این حوزه محدودیت ذاتی پارادایم فعلی که یادگیری ماشین آماری است را درک کنند و این موضوع را تبیین کنند که ما به‌عنوان یک جامعه چرا باید به سمت پارادایم‌های قوی‌تر حرکت کنیم. حیات ما به‌عنوان یک‌گونه ممکن است به توسعه پارادایم بعدی هوش مصنوعی که قدرتمندتر از علم داده است بستگی داشته باشد.

همچنین، تنها کاری که کماکان به دلیل یادگیری خودکار بدون نظارت موفق به انجام آن نشده‌ایم، تنوع کارکردهایی است که هوش مصنوعی می‌تواند انجام دهد. یادگیری ماشین همچنین در جایگزین کردن کارهایی همچون درک معانی از متن و بازی‌های ویدیویی پیچیده سه‌بعدی موفق نشده است.  ایجاد یک هوش مصنوعی که انسان‌ها را در بازی شطرنج و بازی‌های ویدئویی شکست بدهد  یا حتی برای تشخیص بیماران و انجام عمل‌های جراحی کاملاً ممکن است. اما در حال حاضر، آن‌ها فقط برای یک نوع استفاده تعریف‌شده‌اند. آن‌ها هنوز قادر به یادگیری چیزهای کاملاً ناشناخته و تولید آن نیستند و حتی نمی‌توانند آن را بهبود ببخشند. در حال حاضر ما تقریباً در این نقطه قرار داریم.

شما در مورد محدودیت ‌های یادگیری ماشین چه فکر می کنید؟

منبع: hooshio.com