Đang tải...

Provable Limitations of Acquiring Meaning from Ungrounded Form: What Will Future Language Models Understand?

AbstractLanguage models trained on billions of tokens have recently led to unprecedented results on many NLP tasks. This success raises the question of whether, in principle, a system can ever “understand” raw text without access to some form of grounding. We formally investigate the...

Mô tả đầy đủ

Đã lưu trong:
Chi tiết về thư mục
Những tác giả chính: William Merrill, Yoav Goldberg, Roy Schwartz, Noah A. Smith
Định dạng: Artigo
Ngôn ngữ:Inglês
Được phát hành: The MIT Press 2021-01-01
Loạt:Transactions of the Association for Computational Linguistics
Truy cập trực tuyến:https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00412/107385/Provable-Limitations-of-Acquiring-Meaning-from
Các nhãn: Thêm thẻ
Không có thẻ, Là người đầu tiên thẻ bản ghi này!