Načítá se...

A Kullback-Leibler Divergence for Bayesian Model Diagnostics

This paper considers a Kullback-Leibler distance (KLD) which is asymptotically equivalent to the KLD by Goutis and Robert [1] when the reference model (in comparison to a competing fitted model) is correctly specified and that certain regularity conditions hold true (ref. Akaike [2]). We derive the...

Celý popis

Uloženo v:
Podrobná bibliografie
Vydáno v:Open J Stat
Hlavní autoři: Wang, Chen-Pin, Ghosh, Malay
Médium: Artigo
Jazyk:Inglês
Vydáno: 2011
Témata:
On-line přístup:https://ncbi.nlm.nih.gov/pmc/articles/PMC4235748/
https://ncbi.nlm.nih.gov/pubmed/25414801
https://ncbi.nlm.nih.govhttp://dx.doi.org/10.4236/ojs.2011.13021
Tagy: Přidat tag
Žádné tagy, Buďte první, kdo otaguje tento záznam!