Ładuje się......

A multimodal visual–language foundation model for computational ophthalmology

Abstract Early detection of eye diseases is vital for preventing vision loss. Existing ophthalmic artificial intelligence models focus on single modalities, overlooking multi-view information and struggling with rare diseases due to long-tail distributions. We propose EyeCLIP, a multimodal visual-la...

Szczegółowa specyfikacja

Zapisane w:
Opis bibliograficzny
Główni autorzy: Danli Shi, Weiyi Zhang, Jiancheng Yang, Siyu Huang, Xiaolan Chen, Pusheng Xu, Kai Jin, Shan Lin, Jin Wei, Mayinuer Yusufu, Shunming Liu, Qing Zhang, Zongyuan Ge, Xun Xu, Mingguang He
Format: Artigo
Język:Inglês
Wydane: Nature Portfolio 2025-06-01
Seria:npj Digital Medicine
Dostęp online:https://doi.org/10.1038/s41746-025-01772-2
Etykiety: Dodaj etykietę
Nie ma etykietki, Dołącz pierwszą etykiete!