تالار گفتمان مانشت
بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - نسخه‌ی قابل چاپ

صفحه‌ها: ۱ ۲ ۳ ۴ ۵ ۶ ۷ ۸ ۹ ۱۰ ۱۱ ۱۲
بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - x86 - 16 اسفند ۱۳۹۳ ۱۲:۴۰ ق.ظ

لطفا سوالات تخصصی گرایش هوش مصنوعی را در این بخش بررسی کنید. (به محض قرار گرفتن سوالات در سایت سازمان سنجش، در این بخش نیز آپلود خواهند شد)


مهمان عزیز شما قادر به مشاهده پیوندهای انجمن مانشت نمی‌باشید. جهت مشاهده پیوندها ثبت نام کنید.


بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - mhghna - 16 اسفند ۱۳۹۳ ۰۱:۰۹ ق.ظ

سلام
امسال هم مثل پارسال خیلی از سوالها تخصصی ، ترجمه شده سوالهای زبان اصلی دانشگاه های دیگه هست
اونهایی که یادم میاد پیدا می کنم اینجا میزارم تا سوالات بزان تو سایت

(a) [1 point] We can get multiple local optimum solutions if we solve a linear regression problem by
minimizing the sum of squared errors using gradient descent.
True False
Solution:
False

گزینه ۴ بود درسته ؟

اینم یه سوال دیگه :
© [1 point] When the hypothesis space is richer, over fitting is more likely.
True False
Solution:
True فکر کنم گزینه ۱ می شد (که گزینه غلط رو می خواست گفته بود فضای فرضیه کوچکتر بیش برازش بیشتر)
(d) [1 point] When the feature space is larger, over fitting is more likely.
True False
Solution:
True
(e) [1 point] We can use gradient descent to learn a Gaussian Mixture Model.
True False
Solution:
True

اینم یه سوال دیگه بود
(۲ points) Which of the following statements are true for k-NN classi ers (circle all answers
that are correct).
۱/ The classi cation accuracy is better with larger values of k.
۲/ The decision boundary is smoother with smaller values of k.
۳/ k-NN is a type of instance-based learning. که دنبال این گزینه بود
۴/ k-NN does not require an explicit training step.
۵/ The decision boundary is linear.
Solution: 3 and 4

اینم یکی دسگه اش که واسه خودم متاسفم و اشتباه زدم
© (2 points) For the data above we are now comparing the following two models:
A: y = w2
۱x + w2x
B: y = wx
Note that model A now uses two parameters (though both multiply the same input value,
x). Again we assume unlimited data. Which of the following is correct (chose the answer
that best describes the outcome):
۱/ There are datasets for which A would perform better than B
۲/ There are datasets for which B would perform better than A
۳/ Both 1 and 2 are correct.
۴/ They would perform equally well on all datasets.
Solution: 4. Since we have unlimited data, the parameters learned for model B would
be equal to the some of the parameters learned for model A : w = w2
۱ + w2.

اینم یه سوال دیگه اش
(a) (2 points) Which of the following procedures is sucient and necessary and most ecient
for proving that the VC dimension of a learner is N?
۱/ Show that the classi er can shatter all possible dichotomies with N points.
۲/ Show that the classi er can shatter a subset of all possible dichotomies with N points.
۳/ Show that the classi er can shatter all possible dichotomies with N points and that it
cannot shatter any of the dichotomies with N+1 points.
۴/ Show that the classi er can shatter all possible dichotomies with N points and that it
cannot shatter one of the dichotomies with N+1 points.
۵/ Show that the classi er can shatter a subset of all possible dichotomies with N points
and that it cannot shatter one of the dichotomies with N+1 points.
Solution: 4

سوال بعدی:
(۲ points) Which of the following statements are true for BOTH decision trees and Nave
Bayes classi ers (you may chose more than one statement):
۱/ In both classi ers a pair of features are assumed to be independent
۲/ In both classi ers a pair of features are assumed to be dependent
۳/ In both classi ers a pair of features are assumed to be independent given the class
label
۴/ In both classi ers a pair of features are assumed to be dependent given the class label

Solution: 2. In both classi ers features are not assumed to be independent. In Nave
Bayes they are assumed to be independent only when given the class label. For decision
trees they are not assumed to be independent even if the class label is provided.

بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - cavalier - 16 اسفند ۱۳۹۳ ۰۱:۳۰ ق.ظ

دستت درد نکنه خیلی زحمت کشیدی که ابروی اینارو بردی.. یعنی ببین حقوق میگرین بعد میان حتی تو سوال در اوردنم از دانشگاههای خارجی کپی پیست میکنن واقعا خجالت داره !!!

من اون سوالرو که نوشته بود W1 X + W2^2 X زدم برابر چون میشه پارامتر W1+W2^2 رو W3 درنظر گرفت..
من اینارو که تو نوشتی ندیده بودم کاش میدیدم منابع ازمون دکترا کم کم داره نشون میده از کجاس!! هه

بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - mhghna - 16 اسفند ۱۳۹۳ ۰۱:۳۶ ق.ظ

من این سوال W1 X + W2^2 X رو گفتم به علت این ضرایبش، احتمالا تعمیم پذیریش کم میشه و باعث بیش برازشش میشه ،
غلط زدم

بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - cavalier - 16 اسفند ۱۳۹۳ ۰۱:۴۲ ق.ظ

ببین چند تا سوال تکراری داشت!!!
یکی سوال مربوط به wrapper , mutual information
یکی بعد vc knn
....

RE: بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - f_b - 16 اسفند ۱۳۹۳ ۰۱:۴۷ ق.ظ

فکر می کنید سوالات کدوم دانشگاه و کدوم اساتید طرح کردن؟

بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - cavalier - 16 اسفند ۱۳۹۳ ۰۱:۴۸ ق.ظ

معلومه دانشکاه تهران و شریف!!
لطفا اینجا در مورد حل بحث کنین.

من سوال فیشرو حل کردم جوابش تو گزینه ها نبود.. !۱!۱!

RE: بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - f_b - 16 اسفند ۱۳۹۳ ۰۲:۰۴ ق.ظ

جوابش از طریق این فرمول بدست آوردی: S^-1(u2-u1)
تو فیشر احتمالات پریوری چیکار کردی؟

RE: بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - ramin000 - 16 اسفند ۱۳۹۳ ۰۲:۰۶ ق.ظ

سلام دوستان
من جوابامو نوشتم با کد دفترچهF
۱-نزدم
۲- ۲
۳- نزدم
۴- ۱
۵- ۲
۶- نزدم
۷-نزدم
۸-نزدم
۹- ۲
۱۰-نزدم
۱۱-نزدم
۱۲- ۱
۱۳-نزدم
۱۴- ۳
۱۵-نزدم
۱۶-نزدم
۱۷-نزدم
۱۸-نزدم
۱۹-نزدم
۲۰-نزدم
۲۱-نزدم
۲۲-نزدم
۲۳-نزدم
۲۴- ۱
۲۵-نزدم
۲۶- ۱
۲۷-نزدم
۲۸- ۴
۲۹-۲
۳۰-نزدم
۳۱-نزدم
۳۲- ۲
۳۳-نزدم
۳۴- ۱
۳۵-نزدم
۳۶-نزدم
۳۷-نزدم
۳۸-نزدم
۳۹- ۱
۴۰-نزدم
۴۱-نزدم
۴۲- ۴
۴۳-نزدم
۴۴- ۱
۴۵- ۴
ضمنا میدونم که سوال مرتبه زمانیم اشتباه زدم- فک کنم سوال ۴ یا ۱۲ بود
موفق باشید

بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - cavalier - 16 اسفند ۱۳۹۳ ۰۲:۴۳ ق.ظ

بله از همون فرمول به دست اوردم -۴/۳ میشد و -۲
که تو گزینه ها نبود.. sw-1 هم که این طوری حساب کردم.. sw=sig1^2+sig2^2 که میشه جمع عناصر قطری مماتریبس کواریانس
میشد
[۳,۰;۰,۲] که معکوس میکردی و در تفاضل میانگینها ضرب تو گزینه ها نبود!!
احتمالات پریوری هم ریختم تو سطل اشغال خخخخخخخخخ. تو فیشر که احتمالات پریوری نیست مگه بیزینه!!
فیشر دسته بندی رو بر اساس فاصله میانکینها از هم (زیاد باشن)و واریانس درون کلاسی (کم باشن) بر روی خط تابیده شدش به دست میاره.

رامین دمت گرمممم! Smile موفق باشی مشارکت کن

RE: بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - montazer - 16 اسفند ۱۳۹۳ ۱۰:۳۲ ق.ظ

سلام و خسته نباشید
برای سوال فیشر من گزینه -۴/۳ , -۴/۳ زدم، حساب که میکردم هر دو درایه شبیه هم میشد...
اون سوال filter و wrapper گزینه ۱ میشد(هر دو ۵۰)؟

موفق باشید
(۱۶ اسفند ۱۳۹۳ ۰۲:۴۳ ق.ظ)cavalier نوشته شده توسط:  بله از همون فرمول به دست اوردم -۴/۳ میشد و -۲
که تو گزینه ها نبود.. sw-1 هم که این طوری حساب کردم.. sw=sig1^2+sig2^2 که میشه جمع عناصر قطری مماتریبس کواریانس
میشد
[۳,۰;۰,۲] که معکوس میکردی و در تفاضل میانگینها ضرب تو گزینه ها نبود!!
احتمالات پریوری هم ریختم تو سطل اشغال خخخخخخخخخ. تو فیشر که احتمالات پریوری نیست مگه بیزینه!!
فیشر دسته بندی رو بر اساس فاصله میانکینها از هم (زیاد باشن)و واریانس درون کلاسی (کم باشن) بر روی خط تابیده شدش به دست میاره.

رامین دمت گرمممم! Smile موفق باشی مشارکت کن


بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - mhghna - 16 اسفند ۱۳۹۳ ۱۰:۴۰ ق.ظ

سلام
اون سوال اون سوال filter و wrapper گزینه ۱ میشد(هر دو ۵۰)؟ ذقیقا سوال ۴۲ کنکور پارسال بود
اره میشد ۵۰ و ۵۰ ولی تو کتاب پوران نوشته ۵۰ و ۱۰۰ یه متن انگلیسی به به نظر من بی ربط هم گذاشته بود

سوال فیشر هم من دیدم جواب تو گزینه ها نیست گفتم خط فیشر باید موازی خط متصل کننده میانگین ها (۱,۱) , (۴,۴) باشه ، و تنها گزینه ایی که می خورد اونی بود که درایه هاش شبیه هم بود :دی

RE: بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - reyhaneh - 16 اسفند ۱۳۹۳ ۱۰:۵۱ ق.ظ

(۱۶ اسفند ۱۳۹۳ ۰۱:۰۹ ق.ظ)mhghna نوشته شده توسط:  سلام
امسال هم مثل پارسال خیلی از سوالها تخصصی ، ترجمه شده سوالهای زبان اصلی دانشگاه های دیگه هست
اونهایی که یادم میاد پیدا می کنم اینجا میزارم تا سوالات بزان تو سایت

(a) [1 point] We can get multiple local optimum solutions if we solve a linear regression problem by
minimizing the sum of squared errors using gradient descent.
True False
Solution:
False

گزینه ۴ بود درسته ؟

اینم یه سوال دیگه :
© [1 point] When the hypothesis space is richer, over fitting is more likely.
True False
Solution:
True فکر کنم گزینه ۱ می شد (که گزینه غلط رو می خواست گفته بود فضای فرضیه کوچکتر بیش برازش بیشتر)
(d) [1 point] When the feature space is larger, over fitting is more likely.
True False
Solution:
True
(e) [1 point] We can use gradient descent to learn a Gaussian Mixture Model.
True False
Solution:
True

اینم یه سوال دیگه بود
(۲ points) Which of the following statements are true for k-NN classi ers (circle all answers
that are correct).
۱/ The classi cation accuracy is better with larger values of k.
۲/ The decision boundary is smoother with smaller values of k.
۳/ k-NN is a type of instance-based learning. که دنبال این گزینه بود
۴/ k-NN does not require an explicit training step.
۵/ The decision boundary is linear.
Solution: 3 and 4

اینم یکی دسگه اش که واسه خودم متاسفم و اشتباه زدم
© (2 points) For the data above we are now comparing the following two models:
A: y = w2
۱x + w2x
B: y = wx
Note that model A now uses two parameters (though both multiply the same input value,
x). Again we assume unlimited data. Which of the following is correct (chose the answer
that best describes the outcome):
۱/ There are datasets for which A would perform better than B
۲/ There are datasets for which B would perform better than A
۳/ Both 1 and 2 are correct.
۴/ They would perform equally well on all datasets.
Solution: 4. Since we have unlimited data, the parameters learned for model B would
be equal to the some of the parameters learned for model A : w = w2
۱ + w2.

اینم یه سوال دیگه اش
(a) (2 points) Which of the following procedures is sucient and necessary and most ecient
for proving that the VC dimension of a learner is N?
۱/ Show that the classi er can shatter all possible dichotomies with N points.
۲/ Show that the classi er can shatter a subset of all possible dichotomies with N points.
۳/ Show that the classi er can shatter all possible dichotomies with N points and that it
cannot shatter any of the dichotomies with N+1 points.
۴/ Show that the classi er can shatter all possible dichotomies with N points and that it
cannot shatter one of the dichotomies with N+1 points.
۵/ Show that the classi er can shatter a subset of all possible dichotomies with N points
and that it cannot shatter one of the dichotomies with N+1 points.
Solution: 4

سوال بعدی:
(۲ points) Which of the following statements are true for BOTH decision trees and Nave
Bayes classi ers (you may chose more than one statement):
۱/ In both classi ers a pair of features are assumed to be independent
۲/ In both classi ers a pair of features are assumed to be dependent
۳/ In both classi ers a pair of features are assumed to be independent given the class
label
۴/ In both classi ers a pair of features are assumed to be dependent given the class label

Solution: 2. In both classi ers features are not assumed to be independent. In Nave
Bayes they are assumed to be independent only when given the class label. For decision
trees they are not assumed to be independent even if the class label is provided.

ببخشید دوست عزیز، شما این سوالات زبان اصلی دانشگاه های دیگه رو از کجا تهیه کردید؟ ایا با جواب هست؟

RE: بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - ramin000 - 16 اسفند ۱۳۹۳ ۱۱:۴۶ ق.ظ

سوال فیلتر و رپر جواب اصلی میشه ۵۰ و ۱۰۰ ولی من سوالای پارسال رو خوندم و تو کلیدش زده ۵۰ و ۵۰ پس منم زدم ۵۰ و ۵۰

بررسی سوالات تخصصی گرایش هوش مصنوعی کنکور دکتری ۹۴ - mhghna - 16 اسفند ۱۳۹۳ ۰۱:۲۲ ب.ظ

با یه جستجوی خیلی ساده توی اینترنت

همین الان هم می تونی امتحان کنی
اره با جواب هست ، جواب هم گذاشتم
کنکور سال ۹۲ نصف سوالها از امتحان میانترم و پاینترم دکتر ربیعی بود که سوال جوابش تو اینترنت هست
کنکور سال ۹۳ و ۹۴ هم از این سوالها زیاد داشت

خیلی مسخره است نه ؟

البته اگه بخوای همه سوالها (از همه دانشگاه ها) رو دانلود کنی خیلی زیاد هست ، و خیلی هاش هم پاسخ ندارند (خوندنشون یکماه کار می بره )

دقیقا مثل کتاب ۶۰۰ سوال دکتر قدسی که کلید همه کنکور ها ست

البته نظر من اینه