Сегодня мы обсуждаем статью Фабриса Лефевра, Франсуа Мересса и Стива Янга о межъязыковом SLU из невыровненных данных с использованием дискриминационных классификаторов и моделей машинного перевода.

Резюме

В документе предлагается обойти дорогостоящую операцию разработки статистического модуля SLU для нового языка путем начальной загрузки существующего модуля с исходного языка на целевой язык, предполагая наличие семантически аннотированных высказываний на исходном языке. В документе предлагается объединить систему SMT с методом SLU, управляемым данными, для начальной загрузки компонента SLU на целевом языке, сохраняя при этом высокую семантическую точность.

Межъязыковой SLU с использованием SMT

Для SLU с использованием SMT было предложено четыре различных способа:

  1. TrainOnTarget.SMT используется для перевода обучающих данных с исходного языка на целевой. Затем переведенные данные используются для обучения компонента SLU целевому языку. Хотя обучающие данные могут содержать ошибки из-за неточности перевода, этот метод потенциально может предсказать правильную семантику, изучая последовательные шаблоны ошибок.
  2. TrainOnSource.компонент SLU обучается на исходных данных. Во время декодирования входное высказывание переводится на исходный язык перед декодированием. Хотя этот метод может быть более чувствительным к ошибкам SMT, модель SLU, вероятно, будет более точной, поскольку она обучается на аннотированных человеком данных в исходном домене.
  3. TrainOnSourceAndTarget.третий подход заключается в обучении моделей как на исходном, так и на целевом языке, а также декодировании семантики как из высказывания на целевом языке, так и из его автоматического перевода на исходный язык. Этот метод направлен на повышение точности SLU за счет захвата шаблонов, которые присутствуют в одном языке, но отсутствуют в другом.
  4. Сочетание TrainOnSource и TrainOnTarget: конфигурация TrainOnTarget используется для прогнозирования корневого узла действия диалога и TrainOnSource. конфигурация для прогнозирования отдельных кортежей (например, пар слот/значение). Поскольку пары слот/значение, включенные в каждое диалоговое действие, зависят от предсказанного корня, они, вероятно, будут отличаться от конфигурации TrainOnSource.

Эксперименты

Были проведены эксперименты, в которых английские компоненты SLU и SMT объединялись для начальной загрузки французского модуля SLU из большого набора семантически аннотированных английских высказываний (т. е. исходный язык = английский, целевой язык = французский).

Результаты показывают, что обучение на автоматически переведенных данных дало наилучшие результаты для предсказания типа диалогового акта высказывания, однако отдельные пары слот/значение лучше всего предсказываются путем обучения STC на исходном языке и их использования для декодирования переведенных высказываний. В целом результаты показывают, что хорошей производительности можно добиться, обучая систему SMT на относительно небольшом параллельном корпусе.