نتایج جستجو برای: kullback
تعداد نتایج: 7189 فیلتر نتایج به سال:
In this article, we address the issues of stability and data-efficiency in reinforcement learning (RL). A novel RL approach, Kullback-Leibler divergence-regularized distributional (KL-C51) is proposed to integrate advantages both (KL) one framework. KL-C51 derived Bellman equation TD errors regularized by KL divergence a perspective explored approximated strategies properly mapping correspondin...
با استفاده از دادههای تجربی، تابع توزیع نزدیکترین فاصله مجاور را برای هستههای پایدار و رادیواکتیو مستقیما با روش تخمین دانسیته کرنلی (kernel density estimation) محاسبه کرده و فاصله تابع به دست آمده با دو حد منظم و آشوبناک را با استفاده از روش واگرایی kullback-leibeller به دست میآوریم. نتایج به دست آمده نشان میدهند که طیف هستههای پایدار منظمتر از هستههای رادیواکتیو بوده و طیف هستههای با ...
In applications of differential geometry to problems of parametric inference, the notion of divergence is often used to measure the separation between two parametric densities. Among them, in this paper, we will verify measures such as Kullback-Leibler information, J-divergence, Hellinger distance, -Divergence, … and so on. Properties and results related to distance between probability d...
Recently Habibi et al. (2006) defined a pre-experimental criterion for the potential strength of evidence provided by an experiment, based on Kullback-Leibler distance. In this paper, we investigate the potential statistical evidence in an experiment in terms of Renyi distance and compare the potential statistical evidence in lower (upper) record values with that in the same number of ii...
با توجه به کاربرد روزافزون سیستم های گفتاری در زندگی امروزی، کارهای بسیاری در زمینه بهسازی و بازشناسی گفتار صورت گرفته که در همه این کاربردها وجود نویز و پژواک باعث کاهش کارآیی سیستم های گفتاری می شود. تاکنون تعداد زیادی از الگوریتم های بهسازی گفتار براساس تخمین دامنه طیف سیگنال گفتار و هم چنین تخمین ضرایب حقیقی و موهومی طیف گفتار مبتنی بر معیار mmse و map و با فرض گوسی بودن مولفه های دکارتی ضر...
In this paper, we obtain the asymptotic forms of the generalization errors for some three layered learning models in Bayesian estimation. The generalization error measures how precisely learning models can approximate true density functions which produce learning data. We use a recursive blowing up process for analyzing the Kullback function of the learning model. Then, we have the maximum pole...
نمودار تعداد نتایج جستجو در هر سال
با کلیک روی نمودار نتایج را به سال انتشار فیلتر کنید