تالار گفتمان مانشت

نسخه‌ی کامل: شناسایی الگو(هوش مصنوعی)خطای بیزین
شما در حال مشاهده‌ی نسخه‌ی متنی این صفحه می‌باشید. مشاهده‌ی نسخه‌ی کامل با قالب بندی مناسب.
چرا بیزین کمترین خطا را با فرض داشتن تابع توزیع دارد
(09 دى 1393 06:04 ب.ظ)atharrashno نوشته شده توسط: [ -> ]چرا بیزین کمترین خطا را با فرض داشتن تابع توزیع دارد
سلام
ببینین شما با فرض داشتن همه توزیع ها میتونین بگین که برای یک نقطه خاص با چه احتمالی متعلق به چه دسته ای هستین.فرض کنید یک وروددی x دادن و میگن مثلا با احتمال 0.2 برای دسته یک با احتمال 0.5 برای دسته دوم و با احتمال 0.3 برای دسته سوم است.بیزین میاد میگه ما اینو به دسته دوم منتسب می کنیم.این که این بهینه هست که با این توصیفات بدیهیه چون برای هر x خاص به دسته ای انتسابش میده که بیشترین احتمالو داره
یک نقطه خاص با چه احتمالی متعلق به چه دسته ای هستین": این یعنی احتمال پسین نه؟

مثلا ماکزیمم لاکلیهود چی میگه که نمیتونه خطای پایینتر بده؟
من استدلالتون را نفهمیدم!
(09 دى 1393 07:23 ب.ظ)atharrashno نوشته شده توسط: [ -> ]یک نقطه خاص با چه احتمالی متعلق به چه دسته ای هستین": این یعنی احتمال پسین نه؟

مثلا ماکزیمم لاکلیهود چی میگه که نمیتونه خطای پایینتر بده؟
من استدلالتون را نفهمیدم!
ببینید ML یک روش تخمینه اما فریم ورک بیزین برای تصمیم گیریه.بیزین میگه شما از هر روشی که خواستی به من (ML یا MAP یا مثل شما که میگین کلا توزیع ها رو دقیق میدونیم) P(c1|c و P(c2|x رو به من بده من میگم برای یک x0 هر کدوم اینا که بیشتر شدن به اون دسته نسبت میدم.خطا کمینه است چون بیز مینیمم دو مقدار بالا خطا ایجاد می کنه. چون برای هر x0 نوعی کمینه است در کل فضا کمینه خواهد بود
ولی من باز پاسخ شما را متوجه نشدم اما جوابش پیدا کردم:
اثبات ریاضی داره
اگر تونستم عکس میگیرم میزارم
اما ما هم تخمین ml داریم هم کلاسیفایر ml از ام ال که بگزریم بقیه همشون یه شیوه ای دارند برای کلسیفای که اساسش یر مینیمم کردن نیست
بععععد که تاز کلسیفای کرد میایمم میبینیم بله یارو این قد خطا داره اما بیزین همون اول میاد میگه احتمال پسین را ماکز کن یعنی خطا را مین کن برو جلووو
(09 دى 1393 11:40 ب.ظ)atharrashno نوشته شده توسط: [ -> ]ولی من باز پاسخ شما را متوجه نشدم اما جوابش پیدا کردم:
اثبات ریاضی داره
اگر تونستم عکس میگیرم میزارم
اما ما هم تخمین ml داریم هم کلاسیفایر ml از ام ال که بگزریم بقیه همشون یه شیوه ای دارند برای کلسیفای که اساسش یر مینیمم کردن نیست
بععععد که تاز کلسیفای کرد میایمم میبینیم بله یارو این قد خطا داره اما بیزین همون اول میاد میگه احتمال پسین را ماکز کن یعنی خطا را مین کن برو جلووو
راستش کلسیفایر ml با دانش من که معنی نداره.اما خب نظر شما هم محترمه من بیشتر در این مورد تحقیق می کنم
لینک مرجع