Источник
NAACL
Дата публикации
29.04.2025
Авторы
Никита Сушко
Александр Панченко
Елена Тутубалина
Поделиться
SkipCLM: Enchancing Crosslingual Alignment of Decoder Transformer Models via Contrastive Learning and Skip Connection
Аннотация
This paper proposes SkipCLM, a novelmethod for improving multilingual machinetranslation in Decoder Transformers. Weaugment contrastive learning for cross-lingualalignment with a trainable skip connection topreserve information crucial for accurate targetlanguage generation. Experiments withXGLM-564M on the Flores-101 benchmarkdemonstrate improved performance, particularlyfor en-de and en-zh direction translations,compared to direct sequence-to-sequencetraining and existing contrastive learning methods.Code is available at: https://github.com/snlp/skipclm.
Похожие публикации
Вы можете задать нам вопрос или предложить совместный проект в области ИИ
partner@airi.net
По вопросам научного
сотрудничества и партнерства
сотрудничества и партнерства
pr@airi.net
Для журналистов и СМИ