লোডিং...

Multi-armed Bandit Models for the Optimal Design of Clinical Trials: Benefits and Challenges

Multi-armed bandit problems (MABPs) are a special type of optimal control problem well suited to model resource allocation under uncertainty in a wide variety of contexts. Since the first publication of the optimal solution of the classic MABP by a dynamic index rule, the bandit literature quickly d...

সম্পূর্ণ বিবরণ

সংরক্ষণ করুন:
গ্রন্থ-পঞ্জীর বিবরন
প্রকাশিত:Stat Sci
প্রধান লেখক: Villar, Sofía S., Bowden, Jack, Wason, James
বিন্যাস: Artigo
ভাষা:Inglês
প্রকাশিত: 2015
বিষয়গুলি:
অনলাইন ব্যবহার করুন:https://ncbi.nlm.nih.gov/pmc/articles/PMC4856206/
https://ncbi.nlm.nih.gov/pubmed/27158186
https://ncbi.nlm.nih.govhttp://dx.doi.org/10.1214/14-STS504
ট্যাগগুলো: ট্যাগ যুক্ত করুন
কোনো ট্যাগ নেই, প্রথমজন হিসাবে ট্যাগ করুন!