লোডিং...
SensiMix: Sensitivity-Aware 8-bit index & 1-bit value mixed precision quantization for BERT compression
Given a pre-trained BERT, how can we compress it to a fast and lightweight one while maintaining its accuracy? Pre-training language model, such as BERT, is effective for improving the performance of natural language processing (NLP) tasks. However, heavy models like BERT have problems of large memo...
সংরক্ষণ করুন:
প্রধান লেখক: | , , |
---|---|
বিন্যাস: | Artigo |
ভাষা: | Inglês |
প্রকাশিত: |
Public Library of Science (PLoS)
2022-01-01
|
মালা: | PLoS ONE |
অনলাইন ব্যবহার করুন: | https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9015158/?tool=EBI |
ট্যাগগুলো: |
ট্যাগ যুক্ত করুন
কোনো ট্যাগ নেই, প্রথমজন হিসাবে ট্যাগ করুন!
|