Journal of Statistical Sciences
مجله علوم آماری
JSS
Basic Sciences
http://jss.irstat.ir
1
admin
1735-8183
2783-2929
10.61186/jss
شماره 812/2910/3 مورخ 12/7/1384
fa
jalali
1389
12
1
gregorian
2011
3
1
4
2
online
1
fulltext
fa
بهبود کران بالای معیار کولبک - لیبلر براساس ترکیب محدب kمدل رقیب
Improved Kullback-Leibler Upper Bound Baised on Convex Combination of k Rival Models
استنباط آماری
Statistical Inference
پژوهشی بنیادی
Research
<div style="text-align: justify;">یکی از مسایل اساسی در استنباط آماری انتخاب مدل بهینه از میان مدل های رقیب است. در این مقاله ثابت شده است که خطای نسبی بین دو مدل دارای خاصیت زبرجمعی است و با استفاده از آن نشان داده شده است که ترکیب محدب مدل های رقیب از نظر معیار واگرایی کولبک - لیبلر مدلی را ایجاد می کند که یا بهتر از تمام مدل های رقیب است و یا لااقل از دورترین مدل رقیب به مدل درست داده ها بهتر است بررسی شبیه سازی یافته های نظری را تایید می کنند</div>
In this paper we have established for the Kullback-Leibler divergence that the relative error is supperadditive. It shows that a mixture of k rival models gives a better upper bound for Kullback-Leibler divergence to model selection. In fact, it is shown that the mixed model introduce a model which is better than of the all rival models in the mixture or a model which is better than the worst rival model in the mixture.
انتخاب مدل, مدل آمیخته , خطای نسبی, ترکیب محدب,معیار کولبک - لیب لر , میانگین هندسی,
Convex Combination, Geometric Mean, Kullback-Leibler Risk, Mixture of Models, Model Selection, Relative Error
193
209
http://jss.irstat.ir/browse.php?a_code=A-10-34-3&slc_lang=fa&sid=1
Abdolreza
Sayyareh
عبدالرضا
سیاره
asayyareh@razi.ac.ir
10031947532846007522
10031947532846007522
Yes
Department of StatisticsRazi University
گروه آمار، دانشگاه رازی