লোডিং...

SensiMix: Sensitivity-Aware 8-bit index & 1-bit value mixed precision quantization for BERT compression

Given a pre-trained BERT, how can we compress it to a fast and lightweight one while maintaining its accuracy? Pre-training language model, such as BERT, is effective for improving the performance of natural language processing (NLP) tasks. However, heavy models like BERT have problems of large memo...

সম্পূর্ণ বিবরণ

সংরক্ষণ করুন:
গ্রন্থ-পঞ্জীর বিবরন
প্রধান লেখক: Tairen Piao, Ikhyun Cho, U. Kang
বিন্যাস: Artigo
ভাষা:Inglês
প্রকাশিত: Public Library of Science (PLoS) 2022-01-01
মালা:PLoS ONE
অনলাইন ব্যবহার করুন:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9015158/?tool=EBI
ট্যাগগুলো: ট্যাগ যুক্ত করুন
কোনো ট্যাগ নেই, প্রথমজন হিসাবে ট্যাগ করুন!