Neural Machine Translation overbrugt geleidelijk de kloof tussen menselijke en automatische vertaling. Maar ondanks alle opwinding rond NMT kan je de technologie nog niet perfect noemen. De academische wereld en de grote technologiebedrijven wedijveren om de nauwkeurigheid en de outputkwaliteit van NMT te verbeteren.

NMT in opmars

Veel bekende namen uit het hightech wereldje zijn bezig met Neural Machine Translation. Google is waarschijnlijk de meest prominente naam. In november 2016 kondigde het bedrijf zijn Google Neural Machine Translation (GNMT) aan, een enorme verbetering ten opzichte van Google Translate. Nog maar een paar weken geleden kondigde Google de uitrol aan van offline Neural Machine Translation (NMT) voor 59 talen in haar Google Translate apps voor iOS en Android. Daarnaast lanceerden Microsoft en Systran de afgelopen twee jaar ook neurale automatische vertaalsystemen en lanceerde Amazon zijn Amazon Translate service, waarmee gebruikers content kunnen lokaliseren voor internationale consumenten.

Aan het academische front was het Slator, een website gespecialiseerd in de taalindustrie, die verklaarde dat in mei 2018 een nieuw record werd gevestigd op het vlak van research output over Neural Machine Translation. Het resultaat: 55 research papers, mede geschreven door veel van de bovengenoemde bedrijven.

Ruimte voor verbetering

De Encoder-Decoder-architectuur van NMT heeft geleid tot een enorme verbetering van de kwaliteit en de vlotheid van de vertalingen. Toch blijken lange zinnen nog steeds een van de gebieden te zijn die voor verbetering vatbaar zijn. Dat heeft vooral te maken met het feit dat de NMT-architectuur de inputsequentie codeert naar een zgn. fixed-length vector. (Lees onze vorige blog post om meer te leren over vectoren.) Dat legt grenzen op aan de lengte van de inputsequenties die kunnen worden aangeleerd, wat resulteert in slechte vertalingen voor zeer lange sequenties.

Een manier om dit probleem aan te pakken is het toepassen van attention mechanisms. Eenvoudig gezegd: een attention mechanism stelt het neurale netwerk in staat om zich te richten op de relevante delen van de input in plaats van op de irrelevante delen bij het maken van voorspellingen. Attention mechanisms in neurale netwerken zijn gebaseerd op hoe mensen visuele informatie vastleggen of zinnen vertalen. Bij het vertalen van een lange zin zonder gebruik te maken van enige technologie, richten we ons meer op een specifiek woord of zinsdeel, ongeacht waar het zich in de input bevindt. Attention mechanisms doen net hetzelfde voor neurale netwerken.

Processing power

NMT heeft veel rekenkracht nodig, wat nog steeds een van de grootste nadelen is. De prestatie- en tijdsvereisten zijn bijvoorbeeld nog groter dan bij de statistische automatische vertaling. Dat kan een van de redenen zijn waarom de vertaalindustrie NMT nog niet volledig heeft omarmd en waarom de ontwikkeling van NMT niet zo snel gaat als het zou kunnen gaan. Volgens de wet van Moore zou de processing power echter om de 18 maanden moeten verdubbelen, wat NMT in de nabije toekomst weer nieuwe mogelijkheden biedt.

Neural machine translation voor technische documenten

NMT is nog niet perfect. Vooral de vertaling van grote technische documenten, waar de kwaliteit van de vertaling van cruciaal belang is, is nog steeds een uitdaging voor NMT en vereist menselijke post-editing. Technische handleidingen combineren meestal tekst met metadata, wat moeilijk leesbaar is voor machine learning systemen. Wij van onze kant houden nauwlettend in de gaten hoe de industrie en de academische wereld deze technologie verder perfectioneren.

Als jij ondertussen vragen hebt over wat neurale machinevertaling voor jouw technische content kan doen, laat het ons weten. We zullen het uitleggen in natuurlijke, menselijke taal.