Курсы машинного перевода для языков России/Раздел 7

From Apertium
Jump to navigation Jump to search

Теперь, когда мы рассмотрели основные аспекты создания новой системы машинного перевода в Apertium, мы подошли к итоговой, возможно самой важной части. В данном разделе мы рассмотрим вопрос важности согласованности данных, что мы понимаем под качеством и как проводить оценку. На практике мы поработаем с методами, которые позволяют добиваться согласованности и качества в Apertium. Мы также рассмотрим оценку качества.

Теория

Систематичность Consistency

Автономная система

В отличии от многих других систем обработки естественного языка, таких как морфологический анализатор, маркировщик частей речи, система машинного перевода, придуманная и разработанная компанией Apertium является In contrast to many other types of systems for natural language processing — such as morphological analysers and part-of-speech taggers, a machine translation system designed and developed with Apertium is a self-contained system. При введении разных вводных данных, результат обработки должен быть одним, предсказуемым и определеннымFor any input, it should have one, predictable, deterministic output.

Другими словами, на каждую вводимую лексическую единицу из языка-источника, морфологический анализатор должен находить соответствующую запись в transfer lexicon, и, далее, соответствующую запись в морфологическом генераторе языка перевода. Это должно происходить как на уровне lemmas, так и на уровне тэгов. Посмотрите на следующий пример: мы можем увидеть, что на каждую лексическую форму языка-источника, находится соответствующая запись в двуязычном словаре.

Когда этого не происходит, т.е. что-то идет не так, мы получаем диагностические предупреждения в виде символов (@, #) на выходе и перевод выглядит "непричесанным". В этом заключается принципиальное различие между различными статусами языковых пар. Мы легко можем это увидеть, если мы возьмем пару со статусом trunk (обработанные пары, которые прошли контроль качества — обычно не имеют диагностических знаков), и пару со статусом nursery (для пар, которые прошли только начальную обработку и ожидают проверку качества).

Противоречивость расхождение Inconsistency

Это можно показать на примере перевода предложения на турецкий язык при помощи двух отдельных переводчиков в Apertium: This is demonstrated if we try and translate the sentence in Turkish below with two distinct translators in Apertium:

Original
(Turkish)
Trunk
(Turkish → Kyrgyz)
Incubator
(Turkish → Chuvash)
22 yaşındaki Çavuş Sandra Radovanoviç, Sırp Ordusu'nun Super Galep G4'ünü uçuran ilk kadın oldu. 22 жашындагы Сержант Сандра Радованович, Серб Аскеринин *Super Galep Г4үндү учкан биринчи аял болду. 22 @yaş @Çavuş @Sandra @Radovanoviç, @Sırp Ordusu *Super Galep *G4'#чап @uç #пӗрремӗш #арӑм #пул.
Yaşıtları daha araba kullanmayı yeni öğrenirken, Radovanoviç bir savaş uçağına 4.000m irtifada, 700km/sa hızla manevra yaptırıyor. Теңтуштары дагы араба колдонууну эми үйрөнөт, Радованович бир согуш учагына *4.000m бийиктикте, *700km/*sa ылдамдык менен манёвр кылдырат. #Тантӑш #ӗнтӗ #ӑйӑ @kullan @yeni #вӗрен @0, @Radovanoviç пӗр #вӑрҫӑ @uçak #4.000 #ҫӳл, *700km/*sa #хӑвӑртлӑх @manevra @yap.
Radovanoviç, Sırbistan'ın ilk kadın pilotu olarak tarihe geçti. Радованович, Сербиянын биринчи аял пилотту боло тарыхка өттү. @Radovanoviç, @Sırbistan #пӗрремӗш #арӑм #лётчик #пул #хисеп @geç.
Pilot, Belgrad'daki harp okulu Havacılık Okulu'nda son sınıf öğrencisi olarak okuyor. Пилот, Белграддагы согуш мектеби Абаачылык Мектеби'*nda акыркы класс окуучусу боло окуйт. #Лётчик, @Belgrad @harp шкулӗ #Авиаци Шкулӗ'*nda @son #курс #студент #пул @oku.
Üç yıl önce, hayatında ilk defa bir uçağa bindi. Үч жыл мурда, жашоосунда биринчи жолу бир учакка минди. #Виҫ #ҫул #ӗлӗк, #чӗрлӗх #пӗрремӗш #рас пӗр @uçak @bin.

Диагностические символы @ и # указывают на ошибки в лексическом переносе и соответственно при морфологическом переносе и формировании.

  • Если это недостающая лемма из двуязычного словаря, то появится @, а за ним недостающая лемма. Например: Belgrad@Belgrad, слово Belgrad не появляется в двуязычном словаре.
  • Если лемма присутствует в двуязычном словаре, но не существует леммы с тэгом части речи, так же появится @. Например: @uç, слово встречается только с тэгом <n>, но маркировщик выбирает <v>.
  • Также если есть и лемма и тэг с частью речи в двуязычном словаре, но некоторые другие тэги не совпадают, будет надпись @.
  • Если словарь языка перевода не содержит данную лемму, тогда появится #. Например: kadınарӑм#арӑм
  • Если лемма существует в морфологическом словаре языка перевода, но произошла ошибка соответствия в морфологических тэгах между результатом переноса и морфологическим словарем, тогда появляется but there is a mismatch in the morphological tags between the output of transfer and the morphological dictionary, then a # will be produced. Например: olпул. Словарь языка перевода не содержит форму <past><p3><sg> для леммы пул.

Прежде чем запускать в работу любой переводчик, должны быть проведены все тесты словарей (в обиходе это называют и не должно быть никаких диагностических символов в результатах перевода. На практике, ошибки иногда остаются. In principle, before any translator is released, a full test of the dictionaries must be performed (colloquially called testvoc — from test vocabulary), and no diagnostic symbols must be present in the translation. In practice, sometimes errors may remain.


ОднОдна изOne of the reasons that Apertium avoids modelling unrestricted derivational processes is because they may not be equivalent in both languages. If they are not equivalent, and the transfer rules are not in place, then debugging and testing the translator is much more difficult. Also, if the morphological transducers are cyclic (allow unrestricted derivation) it is impossible to perform a vocabulary test. Одна из причин почему Apertium избегает моделирования неограниченных деривационных процессов в том, что могут быть не эквивалентными в обоих языках. Если они не эквивалентны, и правила переноса оказываются смещенными, тогда отладка и тестирование переводчика усложняются. Кроме того, если морфологические преобразователи цикличны (разрешают неограниченное словообразование) невозможно выполнять тестирование лексики.

Качество

<цитата> Качество -вы знаете что это такое, но в тоже время мы не знаете что это. Quality—you know what it is, yet you don’t know what it is. И это противоречиво. Но если одни вещи лучше других, значит они качественнее. Но когда вы пытаетесь дать определение качеству, отделяя его от вещей, тогда вы теряете суть. Здесь не о чем говорить. Но если вы не можете сказать что такое Качество, откуда вы знаете что это, откуда вы знаете что оно вообще существует? Если никто не знает что это такое, тогда с практической точки зрения оно не существует. На чем еще базируются оценки? Почему за одни вещи люди готовы заплатить целое состояние, а другие выбрасывают в мусор? Очевидно, что одни вещи лучше чем другие, но в чем заключается это "лучше"? -- И вот вы снова и снова ходите кругами, напрягаете свои мозговые шестеренки и никуда не можете продвинуться в своих размышления. Что такое это Качество черт возьми? Что это такое? — Дзен и искусство ухода за мотоциклом </цитата>

Качество системы

Так как понятие качества трудно для определения и измерения, мы можем попробовать ответить на этот интересный философский вопрос, отвечая на конкретные вопросы. Например:

  • How much of the two languages is covered by the dictionaries of the system in the desired domain ?
  • Is the morphological disambiguation performed well enough to choose both the right translations of words, and make the transfer rules effective ?
  • Are there inconsistencies in the dictionaries leading to diagnostic symbols ?
  • Is the system laid out in a way that makes it easy, or feasible to modify ?
  • Какая часть из двух языков представлена в словарях системы в нужном домене?
  • Выполняется ли разрешение морфологической неоднозначности достаточно так хорошо что обеспечивает правильный перевод слов и эффективное применение правил переноса?
  • Существуют ли противоречия в словари, ведущие к диагностическим символам?
  • Построена ли система таким образом, что ее легко и возможно изменить?

Качество перевода

Что это значит - получить перевод "хорошего качества"? Во многом это зависит от того, для чего планируется использовать систему. Цели могут быть такими:

  • For producing draft translations:
    • According to the person performing the linguistic revision, is it quicker, and more efficient to post edit the draft translations produced by the system than to translate from scratch ?
  • For producing gisting translations:
    • Does the system produce translations which are sufficiently intelligible to make human translation unnecessary in some cases for the particular task at hand ?
  • Получить примерный перевод:
    • Согласно человеку, работающему с переводами, это быстрее и эффективнее изменять проект перевода, предложенной системой или переводить с нуля?
  • Получить перевод для знакомства с содержанием текста:
    • Может ли система делать переводы, достаточно понятные и быстрые, для определенных случаев, которые бы не нуждались в редактировании человеком?

Оценка

Размер словаря Vocabulary coverage

The coverage of a system is an indication of how much of the vocabulary it covers in a given corpus or domain. For an idea of what this means, we will try translating a sentence from Turkish to Bashkir with different levels of coverage: Размер системы - это показатель объема словаря от данного языкового корпуса или домена, с которым работает система. Чтобы показать что это значит, мы попробуем перевести предложение с турецкого на башкирский язык используя разные размеры словаря:

Предложение Размер
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Ahmet çabukça eski büyük бер ağaca koşuyor, arkasına Ana'dan saklanıyor.
10%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Ahmet çabukça eski ҙур бер ağaca koşuyor, arkasına Ana'dan saklanıyor.
20%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Ahmet çabukça иҫке ҙур бер ağaca koşuyor, arkasına Ana'dan saklanıyor.
30%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Ahmet çabukça иҫке ҙур бер ağaca koşuyor, arkasına Ананан saklanıyor.
40%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Әхмәт çabukça иҫке ҙур бер ağaca koşuyor, arkasına Ананан saklanıyor.
50%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Әхмәт çabukça иҫке ҙур бер ağaca koşuyor, arkasına Ананан йәшеренә.
60%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Әхмәт çabukça иҫке ҙур бер ağaca koşuyor, артына Ананан йәшеренә.
70%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Әхмәт çabukça иҫке ҙур бер ağaca сабырға, артына Ананан йәшеренә.
80%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Әхмәт çabukça иҫке ҙур бер ағасҡа сабырға, артына Ананан йәшеренә.
90%
Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Әхмәт тиҙ иҫке ҙур бер ағасҡа сабырға, артына Ананан йәшеренә.
100%

Usually, coverage is given over a set of sentences, or corpus, instead of over a single sentence. In Apertium, the baseline coverage for releasing a new prototype translator is around 80%, or 2 unknown words in 10 for a given corpus. This is not enough to make revision practical, except in the case of closely-related languages. However, it is usually enough to make translations which are intelligible. Как правило, объем словаря можно оценить на примере набора предложений или корпусу, а не по одному предложению. В Apertium, базовый объем для выпуска нового прототипа переводчика составляет около 80%, или это 2 неизвестных слов из 10 для данного корпуса. Этого не достаточно для полноценного перевода, кроме как в случае родственных языков. Однако, как правило, достаточно, чтобы сделать понятныее переводы.

Уровень ошибок Error rate

While the coverage gives you an idea of how many words you will have to change in the best case, that is, that the rest of the translation is correct. A more accurate indication of how many words you will have to change when using the translator is given by post-edition word error rate (often abbreviated as wer). This is given as a percentage of changes (insertions, deletions, substitutions) between a machine translated sentence, and a sentence which has been revised by a human translator.

Taking the example above:

Changes wer
Original Ahmet çabukça eski büyük bir ağaca koşuyor, arkasına Ana'dan saklanıyor.
Machine translation Әхмәт тиҙ иҫке ҙур бер ағасҡа саба, артына Гөлнаранан йәшеренә.
   substitute Әхмәт тиҙ иҫке ҙур бер ағасҡа йөгөрә, артына Гөлнаранан йәшеренә. 1/10
   insert Әхмәт тиҙ генә иҫке ҙур бер ағасҡа йөгөрә, уның артына Гөлнаранан йәшеренә. 2/10
   delete Әхмәт тиҙ генә иҫке ҙур бер ағасҡа йөгөрә, уның артына Гөлнаранан йәшеренә. 0/10
Revised Әхмәт тиҙ генә иҫке ҙур бер ағасҡа йөгөрә, уның артына Гөлнаранан йәшеренә. 3/10 30%

As with coverage, error rate evaluation is usually carried out on a corpus of sentences. So it gives you an indication of how many words you are likely to have to change in a given sentence.

When calculated over an appropriate corpus of the target translation domain, the combination of word error rate and coverage can give an idea of the usefulness of a machine translation system for a specific task. Of course, to determine if a system is useful for translators, a more thorough and case-specific evaluation needs to be made.

Practice

Consistency

Testvoc

To get an idea of how to run a testvoc script, and what the output looks like, go to the apertium-tt-ba directory. Make sure the translator is compiled (e.g. type make) and then enter the dev/ subdirectory.

In order to perform the testvoc you need to run the testvoc.sh command:

$ sh testvoc.sh 

dl gen  9 13:54:22 GMT 2012
===============================================
POS	Total	Clean	With @	With #	Clean %
v	117457	 117457	0	0	100
n	74148	 74148	0	0	100
num	7564	 7564	0	0	100
cnjcoo	2487	 2487	0	0	100
prn	954	 954	0	0	100
adj	361	 361	0	0	100
np	62	 62	0	0	100
adv	33	 33	0	0	100
post	11	 11	0	0	100
postadv	4	 4	0	0	100
det	3	 3	0	0	100
guio	2	 2	0	0	100
cm	1	 1	0	0	100
ij	0	 0	0	0	100
===============================================

dl gen  9 14:07:22 GMT 2012
===============================================
POS	Total	Clean	With @	With #	Clean %
v	188860	 188860	0	0	100
n	105840	 105588	252	0	99.76
num	7560	 7560	0	0	100
cnjcoo	1844	 1844	0	0	100
prn	1068	 1068	0	0	100
adj	306	 306	0	0	100
np	96	 96	0	0	100
adv	41	 41	0	0	100
post	10	 10	0	0	100
det	5	 5	0	0	100
postadv	4	 4	0	0	100
guio	2	 2	0	0	100
cm	1	 1	0	0	100
ij	0	 0	0	0	100
===============================================

The whole test will take around 20—25 minutes to run, and will generate around 3-400M of output.

Evaluation

Coverage

To calculate coverage, of your morphological analyser, the easiest way is the following, demonstrating again with the Tatar and Bashkir pair:


$ cat tt.txt | apertium-destxt | hfst-proc tt-ba.automorf.hfst  | apertium-retxt  | sed 's/\$\W*\^/$\n^/g' > tt-cov.txt

$ cat tt-cov | wc -l
384

$ cat tt-cov | grep -v '\*' | wc -l
359

$ calc 359/384
	~0.93489583333333333333

Giving a coverage of 93.4% for the Tatar morphological analyser for the example text.

Word error rate

Apertium has a tool for calculating the Word error rate between a reference translation and a machine translation. The tool is called apertium-eval-translator and can be found in the trunk of the Apertium SVN repository. The objective of this practical is to try it out on the system you have created.

You will need two reference translations. The first will be the "original" text in the target language, this was created without post-editting. The second will be a post-editted version of the machine translation text. When you are creating the post-editted version, take care to make only the minimal changes required to produce an adequate translation.

Here is an example for Bashkir to Tatar. Presuming the example text is in a file called ba.txt, run the command:

$ cat ba.txt  | apertium -d . ba-tt > ba-tt.txt

Check that the file has been created properly, then run:

$ apertium-eval-translator -r tt.txt -t ba-tt.txt 
Test file: 'ba-tt.txt'
Reference file 'tt.txt'

Statistics about input files
-------------------------------------------------------
Number of words in reference: 311
Number of words in test: 313
Number of unknown words (marked with a star) in test: 
Percentage of unknown words: 0.00 %

Results when removing unknown-word marks (stars)
-------------------------------------------------------
Edit distance: 42
Word error rate (WER): 13.42 %
Number of position-independent word errors: 42
Position-independent word error rate (PER): 13.42 %

Results when unknown-word marks (stars) are not removed
-------------------------------------------------------
Edit distance: 42
Word Error Rate (WER): 13.42 %
Number of position-independent word errors: 42
Position-independent word error rate (PER): 13.42 %

Statistics about the translation of unknown words
-------------------------------------------------------
Number of unknown words which were free rides: 0
Percentage of unknown words that were free rides: 0%

This gives information about the Word error rate, and some other statistics about the two files. The -r argument gives the reference translation, in this case tt.txt is the file containing the example text in Tatar. The -t gives the test text, e.g. the output of the machine translation system.

Now make a copy of the file ba-tt.txt called tt2.txt and edit it so that it becomes an adequate translation, then rerun the above commands, substituting tt.txt with tt2.txt and compare the results.