Cross-language Natural Language Processing Models


Deskribapen motza (eu):
Hizkuntza eredu eleanitzen aurre-entrenamendua
Deskribapen motza (en):
Pre-training cross-lingual language models
Deskribapen motza (es):
Pre-entrenamiento de modelos de lenguaje multilingües
Ikertzaile nagusia:
Eneko Agirre
Erakundea:
Red Española de Supercomputación (RES)
Hasiera data:
2020/02/20
Bukaera data:
2020/06/20
Taldeko ikertzaile nagusia:
Eneko Agirre
Ixakideak:
Kontratua:
Yes
Webgunea:
http://
HiTZ