Cross-language Natural Language Processing Models

Deskribapen motza (eu): 
Hizkuntza eredu eleanitzen aurre-entrenamendua
Deskribapen motza (en): 
Pre-training cross-lingual language models
Deskribapen motza (es): 
Pre-entrenamiento de modelos de lenguaje multilingües
Ikertzaile nagusia: 
Eneko Agirre
Erakundea: 
Red Española de Supercomputación (RES)
Hasiera data: 
2020/02/20
Bukaera data: 
2020/06/20
Taldeko ikertzaile nagusia: 
Eneko Agirre
Ixakideak: 
Kontratua: 
Bai
Webgunea: 

http://

HiTZ