
Ocena tłumaczenia automatycznego

Najprościej mówiąc to słownikowe znaczenie słów. Nie zależy ona od kontekstu sytuacyjnego.
Zdanie może być przetłumaczone poprawnie, w kwestii doboru słów, ale może brakować mu logicznego sensu.
Tutaj mówimy o konkretnych kontekstach sytuacyjnych.
Tłumaczenie może być dobre słownikowo, logiczne, ale niedostosowane do kodu językowego i kultury danego kraju.
Komputer oczywiście nie zna znaczenia. Gdyby twórcy programów znali każde znaczenie danego słowa byłoby prościej.
Tym bardziej sprawiają problemy komputerom. Tym bardziej że wyrazy mogą nie mieć odpowiednika w języku docelowym.
Wyrazy o dwóch znaczeniach to kolejny problem tłumaczenia automatycznego.
Zazwyczaj rozwiązują go na bazie metody statystycznej. Więcej o metodzie statystycznej i innych tutaj.
Języki to żywe twory i różnią się miedzy sobą.
Język angielski to język pozycyjny, gdzie pozycja wyrazów w zdaniu odgrywa ważną rolę. Tymczasem język polski zachowuje się zupełnie inaczej.
Dodatkowym problemem jest tutaj występowanie rodzajników, podmiotu domyślnego, różnych czasów, aspektu. Te części języka nie są obecne we wszystkich językach.
Na rozwój metod ocen takiego tłumaczenia miały wpływ głównie dwa badania.
Takie algorytmy ciężko zapamiętać i według mnie, nie ma to najmniejszego sensu.
Test kilku systemów tłumaczeń.
BLEU poległ na całej linii. Systemy ocenione jako najlepsze przez ludzi, ta metoda oceniła dopiero na szóstym miejscu.
Analiza silnika SYSTRAN przeciw dwóm silnikom korzystającym ze statystycznego tłumaczenia automatycznego.
Wynik BLEU dla SYSTRANu był znacząco gorszy niż wynik przyznany przez ludzi.
Z tego powodu uznano, że BLEU najbardziej sprawdza się do porównywania dwóch takich samych systemów.
💡 Systran to system tłumaczenia oparty na przykładach. Patrz historia tłumaczenia automatycznego.
💡 N-gram to model stosowany w rozpoznawaniu języka. Opiera się na statystyce i służy do przewidywania następnego słowa lub jednostki w sekwencji.
Metoda ta porównuje ilość słów, która różni się gdy porównamy tekst do wzorcowego tłumaczenia przez człowieka.
Jeśli w tłumaczeniu referencyjnym wystąpi słowo “interesujący”, a w automatycznym tłumaczeniu “ciekawy” system uzna to za dobre dopasowanie.
Pierwsze miejsce zajmuje ludzka ocena. Myślę, że nie zmieni się to w przeciągu kilkunastu lat.
Według badań METEOR, w porównaniu do oceny człowieka, uzyskał wynik 0,964 na poziomie korpusu,
Za chwilę otrzymasz e-mail z prośbą o potwierdzenie podanego adresu. Upewnij się, że wiadomość nie wylądowała w folderze spam!
© 2021 Akademia Tłumacza
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.