Упорядочивание гипотез в моделях перевода с использованием человеческой разметки
- Авторы: Воронцов К.В.1, Скачков Н.А.1
 - 
							Учреждения: 
							
- ВЦ ФИЦ ИУ РАН
 
 - Выпуск: № 4 (2024)
 - Страницы: 121-128
 - Раздел: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
 - URL: https://edgccjournal.org/0002-3388/article/view/676401
 - DOI: https://doi.org/10.31857/S0002338824040074
 - EDN: https://elibrary.ru/UEFMST
 - ID: 676401
 
Цитировать
Полный текст
Аннотация
Современные системы машинного перевода обучаются на больших объемах параллельных данных, полученных с помощью эвристических методов обхода интернета. Низкое качество этих данных приводит к систематическим ошибкам перевода, которые могут быть достаточно заметными для человека. Для борьбы с такими ошибками предлагается интегрирование человеческих оценок гипотез переводной модели в процесс обучения системы перевода. Показано, что использование человеческих разметок позволяет не только вырастить общее качество перевода, но и заметно снизить количество систематических ошибок перевода. Кроме того, относительная простота человеческой разметки и ее применения для улучшения качества модели открывает новые возможности в области доменной адаптации моделей перевода под новые домены, что удалось показать на примере переводов заголовков товаров из интернет-магазинов.
Полный текст
Об авторах
К. В. Воронцов
ВЦ ФИЦ ИУ РАН
							Автор, ответственный за переписку.
							Email: vokov@forecsys.ru
				                					                																			                												                	Россия, 							Москва						
Н. А. Скачков
ВЦ ФИЦ ИУ РАН
														Email: nikolaj-skachkov@ya.ru
				                					                																			                												                	Россия, 							Москва						
Список литературы
- Bañón M., Chen P., Haddow B. et. al. ParaCrawl: Web-Scale Acquisition of Parallel Corpora // Proc. 58th Annual Meeting of the Association for Computational Linguistics. Seattle, 2020. P. 4555–4567.
 - Stahlberg F. Neural Machine Translation: A Review // J. Artific. Intelligence Res. 2020. № 69. P. 343–418.
 - Vaswani A., Shazeer N., Parmar N. et. al. Attention is All You Need // Proc. 31st Intern. Conf. on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook. N.Y., 2017. P. 6000–6010.
 - Yang Z., Cheng Y., Liu Y. et. al. Reducing Word Omission Errors in Neural Machine Translation: A Contrastive Learning Approach // Proc. 57th Annual Meeting of the Association for Computational Linguistics. Florence, 2019. P. 6191–6196.
 - Vijayakumar A.K., Cogswell M., Selvaraju R.R. et. al. Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models // ArXiv. 2016. abs/1610.02424.
 - Papineni K., Roukos S., Ward T. et. al. Bleu: a Method for Automatic Evaluation of Machine Translation // Proc. 40th Annual Meeting of the Association for Computational Linguistics. Philadelphia, 2002. P. 311–318.
 - Barrault L., Bojar O.R., Costa-jussà M. et al. Findings of the Conf. on Machine Translation (WMT19) // Proc. Fourth Conf. on Machine Translation. Florence, 2019. V. 2: Shared Task Papers.
 - Kingma D.P., Ba J. Adam: A Method for Stochastic Optimization // 3rd Intern. Conf. on Learning Representations (ICLR). San Diego, CA, 2015.
 
Дополнительные файлы
				
			
						
						
						
					
						
									




