مرز دقیقی نتونستم برای سوالا پیدا کنم. معمولا این دو تا درس همپوشانی زیادی دارن. به خاطر همین اط سوال ۲۰ تا ۴۵ رو اینجا میذارم.
طبق دفترچه F
لینک دفترچه:
مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمیباشید. جهت مشاهده پیوندها ثبت نام کنید.
۲۱- گزینه ۴ - گزینه های اول و دوم کاملا شبیه هم هستن فقط در جهت عکس. هر چند اگر قدر مطلق همبستگی خیلی بزرگ باشه یه جورایی redundancy داریم ولی به راحتی میشه مثالی زد که با وجود همبستگی هم نشه صرفنظر کرد. گزینه ۳ همبستگی با لیبل هست که اگر صفر باشه میشه حذفشون کرد.
۲۲- گزینه ۱ - به نظر غلطه چون اولی در شرایطی اصلا میتونه چگالی احتمال هم نباشه (فکر کنم یه منفی باید می گذاشت) در این صورت باید حالتی رو بگیریم که میانگین ها یکی و واریانس های یکی بیشتره. با رسم کانتور یعنی دو تا بیضی داخل هم. میشه با فرمول و اینا هم در آورد گزینه ۱ رو.
۲۳- گزینه ۲ - البته مطمئن نیستم. ولی مطمئنم که یا دو یا سه غلطه. توی SVM چشمپوشی از ویژگی نداریم. وقتی داده ها خطی جداپذیر باشن با کرنل های درجه دو به بالا هم می تونن جدا بشن که البته نمیدونم بردار پشتیبان ها هم ثابت می مونه یا نه.
۲۴- گزینه ۲- برای حالت +۱ و -۱ با سه نود میشه حلش کرد. (برای صفر و یک همون XOR هست)
۲۵- گزینه ۳
فرض کنیم y1 و y2 دو نقطه در فضای جدید باشن که هر کدوم به ترتیب مربوط به x1 و x2 باشن
[tex]\left \| y_1-y_2 \right \|^2=(y_1-y_2)^T(y_1-y_2)=\\ \left \| y_1 \right \|^2-2y_1^Ty_2 \left \| y_2 \right \|^2=2-2y_1^Ty_2\leq 2[/tex]
۲۶- گزینه ۴ - دو بیضی کاملا شبیه هم یه همچین شرایطی (مرز جداسازی خطی) رو خواهند داشت.
۲۷- گزینه ۲
[tex]A^TAx=\lambda x \Leftrightarrow AA^T(Ax)=\lambda (Ax)[/tex]
۲۸- گزینه ۲ - دو تا یک سوم میشد. دیگه حسش نیست بنویسم جواب رو...
۲۹- نزدم
۳۰- گزینه ۴
۳۱- گزینه ۱ - پاسخ رگرسیون خطی دارای فرم بسته، یکتا و بهینه عمومی است.
۳۲- نزدم. به نظر غلط می رسه سوال.
۳۳- گزینه ۴ - بعد VC خط ۳ است. دومی هم طبق قبلی غلط است.
۳۴- گزینه ۱
۳۵- گزینه ۳
۳۶- گزینه ۴
۳۷- گزینه ۴
۳۸- گزینه ۱-خیلی ساده بود.
۳۹- نزدم
۴۰- نزدم
۴۱- نزدم
۴۲- گزینه ۴ - البته مطمئن نیستم
۴۳- نزدم، ولی فکر کنم بینهایت بشه
۴۴- گزینه ۱ - در دومی افزایش داده احتمال بیشبرازش را کم می کند. خطا لزوما تخمین بدبینانه نیست. مثلا در صورت بیشبرازش اصلا مقدار خطا خیلی کم خواهد بود. در مورد آخری هم احتمال کمتر می شود. چون هرچه فضای فرضیه غنی تر باشد می توان مدل را پیچیده تر انتخاب کرد تا برازش بیشتری به داده ها داشته باشد.
۴۵- نزدم