KR20170108621A - 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치 - Google Patents

단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치 Download PDF

Info

Publication number
KR20170108621A
KR20170108621A KR1020160032815A KR20160032815A KR20170108621A KR 20170108621 A KR20170108621 A KR 20170108621A KR 1020160032815 A KR1020160032815 A KR 1020160032815A KR 20160032815 A KR20160032815 A KR 20160032815A KR 20170108621 A KR20170108621 A KR 20170108621A
Authority
KR
South Korea
Prior art keywords
language
translation
word
order
corpus
Prior art date
Application number
KR1020160032815A
Other languages
English (en)
Inventor
권오욱
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160032815A priority Critical patent/KR20170108621A/ko
Publication of KR20170108621A publication Critical patent/KR20170108621A/ko

Links

Images

Classifications

    • G06F17/2818
    • G06F15/18
    • G06F17/2705

Landscapes

  • Machine Translation (AREA)

Abstract

단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치가 개시된다. 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치는 원시언어 입력문장의 문맥에 가장 적합한 원시언어 어순의 목적언어 단어나 구를 생성하는 번역 디코더부와, 상기 번역 디코더부에서 생성한 원시언어 어순의 목적언어 단어와 구의 나열을 목적언어 어순과 표현의 번역문장으로 생성하는 단일언어 학습 번역부를 포함한다. 따라서, 최적의 번역 결과를 제공할 수 있다.

Description

단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치{STATISTICAL AND LEARNING TRANSLATION APPARATUS USING MONOLINGUAL CORPUS}
본 발명은 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치에 관한 것으로, 더욱 상세하게는 양국어 병렬코퍼스 없이 대용량으로 획득하기 쉽고 지속적으로 증가하는 양국어의 단일언어 코퍼스와 양국어 사전을 이용한 통계 및 학습 기반 번역 장치에 관한 것이다.
현재 출시되는 번역 장치들은 규칙기반 번역(Rule-based Machine Translation: RBMT) 방법과 통계기반 번역(Statistical Machine Translation: SMT) 방법을 이용하고 있다.
근래에는 번역 지식을 번역 전문가에 의해 구축해야 규칙기반 번역 방법보다 사람에 의해 미리 번역된 양국어 병렬 코퍼스(bilingual parallel corpus)를 이용하여 양국어 번역 관계를 학습(통계화)하는 통계기반 방법이 그 개발 비용 및 기간의 유용성에 의해 더 많이 사용되고 있다. 특히, 최근에는 양국어 병렬 코퍼스를 심화학습(Deep Learning)을 통하여 양국어 간의 번역 관계를 학습하는 방법들도 등장하고 있다.
종래의 통계 및 학습 기반 번역에서는 양질의 번역을 위해서는 대용량의 양국어 병렬 코퍼스가 필요하다. 하지만, 번역 언어 쌍이나 특정 도메인에 따라 양국어 병렬 코퍼스가 없거나 부족한 경우가 많다. 일반적으로 통계기반 번역에서는 작게는 200만 병렬 문장에서 많게는 몇 천만 또는 그 이상의 병렬 문장의 양국어 병렬 코퍼스를 이용하기도 한다. 이러한 양국어 병렬 코퍼스 구축을 위해 대용량 문장을 사람이 직접 전문적으로 번역하고 감수하는 작업에는 많은 비용과 시간이 필요로 한다.
상기한 바와 같은 문제점을 극복하기 위한 본 발명의 목적은 전술한 종래의 통계 및 학습 기반 번역 기술의 문제점을 해결하기 위하여, 대용량으로 손쉽게 획득이 가능한 단일언어 코퍼스들과 양국어 대역어 사전을 활용한 단일언어 코퍼스를 이용한 통계 및 학습 기반 번역 장치를 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치는, 원시언어 입력문장의 문맥에 가장 적합한 원시언어 어순의 목적언어 단어나 구를 생성하는 번역 디코더부와, 상기 번역 디코더부에서 생성한 원시언어 어순의 목적언어 단어와 구의 나열을 목적언어 어순과 표현의 번역문장으로 생성하는 단일언어 학습 번역부를 포함한다.
상술한 바와 같은 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치 에 따르면, 대용량으로 확보하기가 어려운 양국어 병렬 코퍼스 없이 손쉽게 획득할 수 있는 대용량의 단일언어 코퍼스들을 활용하여 통계 및 학습 기반의 번역 장치를 만들 수 있다.
또한, 인위적으로 확보해야 하는 양국어 병렬 코퍼스와 다르게 단일언어 코퍼스는 자연적으로 계속 증가하고 최근 언어 현상을 빠르게 반영하는 장점이 있어 지속적인 성능 개선과 시대 언어를 지속적으로 반영할 수 있는 장점을 가진다.
또한, 번역 사전을 구축할 수 있어서 사용자 및 도메인 맞춤별 사전을 도입하여 특정 사용자나 분야에 쉽게 적용할 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치에 대한 블록도이다.
도 2는 도 1에서 어순 변환부의 세부 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 방법을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 목적언어 코퍼스로부터 원시언어 어순의 목적언어 코퍼스를 생성하는 방법을 도시한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 본 출원에서, "연결하다"의 용어는 명세서상에 기재된 요소의 물리적인 연결만을 의미하는 것이 아니라, 적기적인 연결, 네트워크적인 연결 등을 포함하는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치에 대한 블록도이다.
도 1을 참조하면, 본 발명의 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치는 번역 디코더부(translation decoder)(101)와, 번역 사전(translation dictionary)(102)과, 원시언어 어순의 목적언어 언어지식 DB(103)와, 원시언어 어순의 목적언어 언어지식 학습부(104)와, 단일언어 학습 번역부(learning based monolingual translation)(105)와, 단일언어 번역지식 DB(106)와, 단일언어 번역지식 학습부(107)와, 목적언어 코퍼스(108)와, 원시언어 어순 목적언어 코퍼스(109)와, 어순 변환부(ordering transfer)(110)를 포함한다.
번역 디코더부(translation decoder)(101)는 원시언어(source language)의 입력문장을 입력으로 받아서 입력문장의 단어나 구를 번역 사전(102)과 원시언어 어순의 목적언어 언어지식 DB(103)을 이용하여 목적언어(target language) 단어나 구를 입력문장 문맥에 가장 적합한 목적언어 단어나 구를 선택한다.
번역 디코더부(101)는 입력 문장의 문맥에 가장 적합한 대역 단어나 구를 찾기 위해서 원시언어 어순의 목적언어 언어지식 DB(103)의 목적언어 단어나 구의 출현 확률과 목적언어에서의 주위 문맥을 표현하는 언어모델을 이용하여 입력 문장의 대역 단어나 구의 조합이 원시언어 어순의 목적언어로 출현할 가능성이 가장 높게 하는 대역 단어나 구 조합을 선택한다.
번역 사전(translation dictionary)(102)은 사람에 의해 구축된 대역 사전이거나 혹은 양국어 병렬 코퍼스, 단일언어 코퍼스, 다양한 대역사전 등에서 자동 추출한 대역 사전일 수 있다. 번역 사전(102)에서 하나의 원시언어 단어나 구에 대해 다수 개의 대역 단어나 구를 가질 수 있다.
원시언어 어순의 목적언어 언어지식 DB(103)에는 목적언어 코퍼스(108)를 원시언어 어순으로 변환하는 어순 변환부(110)에 의해서 생성된 원시언어 어순 목적언어 코퍼스(109)로부터 원시언어 어순의 목적언어 언어지식 학습부(104)에 의해서 단어나 원시언어 어순의 목적언어 구의 출현 빈도와 원시언어 어순의 목적언어에 대한 n-gram 정보인 언어모델정보가 저장된다.
원시언어 어순의 목적언어 언어지식 학습부(104)는 목적언어 코퍼스(108)를 원시언어 어순으로 변환하는 어순 변환부(110)에 의해서 생성된 원시언어 어순 목적언어 코퍼스(109)로부터 단어나 원시언어 어순의 목적언어 구의 출현 빈도와 원시언어 어순의 목적언어에 대한 n-gram 정보인 언어모델정보를 생성한다.
단일언어 학습 번역부(learning based monolingual translation)(105)는 단일언어 번역지식 DB(106)을 이용하여 번역 디코더부(101)에서 생성한 원시언어 어순의 목적언어 단어와 구 나열을 자연스러운 목적언어 어순과 표현의 번역문장(translation sentence)으로 생성한다.
단일언어 학습 번역부(105)는 번역 디코더부(101)에 의해서 생성되는 입력 문장에 대한 원시언어 어순의 목적언어 문장을 단일언어 번역지식 DB(106)의 구 변환 확률과 목적언어 어순의 언어모델 정보를 이용하여 목적언어 어순과 표현에 가장 적합한 번역 문장을 생성한다. 단일언어 학습 번역부(105)는 기존 통계 및 학습 기반 번역 방법과 동일하다. 단, 기존 방법에서 양국어 병렬 코퍼스의 원시언어 부분이 원시언어 어순의 목적언어가 되는 차이점을 가진다.
단일언어 학습 번역부(105)는 목적언어 코퍼스와 원시언어 어순의 목적언어 코퍼스로부터 학습된 번역 지식을 사용한다.
단일언어 번역지식 DB(106)는 단일언어 학습 번역부(learning based monolingual translation)(105)에서 번역 디코더부(101)에서 생성한 원시언어 어순의 목적언어 단어와 구 나열을 자연스러운 목적언어 어순과 표현의 번역문장(translation sentence)으로 생성하는데 필요한 정보가 저장된다.
단일언어 번역지식 DB(106)는 목적언어 코퍼스(108)와 원시언어 어순 목적언어 코퍼스(109)을 병렬 코퍼스로 하여 기존 통계 및 학습 기반 번역 방법에서 같은 방법으로 적용된 단일언어 번역지식 학습부(107)에 의해 추출된 구 변환 정보와 목적언어 언어모델 정보를 저장한다.
단일언어 번역지식 학습부(107)는 목적언어 코퍼스(108)와, 목적언어 코퍼스(108)를 원시언어 어순으로 변환하는 어순 변환부(110)에 의해서 생성된 원시언어 어순 목적언어 코퍼스(109)를 입력받아 단일언어 학습 번역부(learning based monolingual translation)(105)에서 번역 디코더부(101)에서 생성한 원시언어 어순의 목적언어 단어와 구 나열을 자연스러운 목적언어 어순과 표현의 번역문장(translation sentence)으로 생성하는데 필요한 정보를 생성한다.
어순 변환부(ordering transfer)(110)는 목적언어 코퍼스(108)를 원시언어 어순으로 변환하여 원시언어 어순의 목적언어 코퍼스를 생성한다. 원시언어 어순의 목적언어 코퍼스는 목적언어의 구문관계와 이웃한 원시언어 구문관계의 어순으로 정렬되고, 이와 같은 구문관계 어순 정보는 목적언어 및 원시언어 코퍼스로부터 구문 분석한 결과를 이용하는 어순 변환부(110)에 의해 생성된다.
만약 원시언어와 목적언어의 어순이 매우 비슷한 경우라면, 원시언어 어순 목적언어 코퍼스(109)은 목적언어 코퍼스(108)와 거의 유사할 것이어서 원시언어 어순 목적언어 코퍼스(109)를 대신하여 목적언어 코퍼스(108)을 활용할 수 있다. 이와 같은 경우에는 단일언어 학습 번역부(105)와 어순 변환부(110)의 효과가 미비할 것이므로, 단일언어 학습 번역부(105)와 어순 변환부(110)를 구성 요소에서 배제할 수 있다.
도 2는 도 1에서 어순 변환부의 세부 구성을 도시한 블록도이다.
도 2를 참조하면, 본 발명의 어순 변환부(110)는 원시언어 코퍼스(111)와, 원시언어 형태소 품사 태깅부(112)와, 원시언어 의존 구문 분석부(113)와, 원시언어 어순 DB(114)와, 목적언어 형태소 품사 태깅부(115)와, 목적언어 의존 구문 분석부(116)와, 원시언어 어순 조정부(117)를 포함한다.
원시언어 형태소 품사 태깅부(112)는 원시언어 코퍼스(111)의 문장을 원시언어 형태소 품사 태깅을 한다.
원시언어 의존 구문 분석부(113)는 원시언어 형태소 품사 태깅부(112)에서의 태깅 정보를 이용하여 원시언어 의존 구문 분석을 수행하여 지배소 품사, 의존소 품사와 구문관계에 따른 지배소와 의존소의 어순 정보를 원시언어 어순으로 저장되도록 한다.
원시언어 어순 DB(114)는 원시언어 코퍼스(111)의 문장을 원시언어 형태소 품사 태깅부(112)에서 형태소 품사를 태깅하고, 이 태깅 정보를 이용하여 원시언어 의존 구문 분석부(113)에서 구문 분석을 수행하여 지배소 품사, 의존소 품사와 구문관계에 따른 지배소와 의존소의 어순 정보를 저장한다. 만약, 목적언어 형태소 품사 분류와 구문관계 종류가 원시언어 형태소 품사 분류와 구문관계 종류와 일치하지 않는 경우에 대해서는 상호 맵핑 정보를 가지고 저장하고 검색할 수 있도록 한다.
목적언어 형태소 품사 태깅부(115)는 목적언어 코퍼스(108)의 목적언어 문장들을 입력으로 받아서 단어 단위로 분리하고 각 단어에 대한 최적의 형태소 품사를 할당한다.
목적언어 의존 구문 분석부(116)는 목적언어 형태소 품사 태깅부(115)에서의 형태소 품사 태깅 결과를 이용하여 문법적 지배소(head)와 의존소(dependant)를 찾고 그 사이의 문법 관계를 설정한다.
원시언어 어순 조정부(117)는 분석된 목적언어의 지배소 형태소 품사와 의존소 형태소 품사, 문법 관계에 대한 의존 구문 관계를 원시언어 어순 DB(114)에서 원시언어 의존 구문 관계에서 가장 유사한 의존 구문 관계를 검색하여 원시언어에서 지배소와 의존소의 어순과 동일하도록 목적언어의 지배소와 의존소의 어순을 조정하여 원시언어 어순 목적언어 코퍼스(109)의 문장으로 생성한다.
원시언어 어순 조정부(117)는 지배소와 의존소 사이에 지배소가 의존소의 앞 부분에 올 것인가 뒤 부분에 올 것인가를 원시언어에서 같은 지배소 품사와 의존소 품사, 구문 관계일 경우에 어떠한 위치로 설정되는가에 대한 정보를 담은 원시언어 어순 DB(114)의 정보를 따라 순서를 조정하는 것이다. 만약 원시언어에서 같은 지배소 품사, 의존소 품사, 구문관계이면서 지배소가 의존소 앞에 올 가능성과 뒤에 올 가능성의 차이가 얼마나지 않은 경우는 2가지 경우에 대해 모두 생성하도록 한다. 동일 지배소에 대해 같은 어순을 가지는 의존소들 간의 어순은 목적언어의 어순을 그대로 유지한다.
도 3은 본 발명의 일 실시예에 따른 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 방법을 도시한 흐름도이다.
도 3을 참조하면, 본 발명의 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치에서 원시언어(source language)의 입력문장을 입력받는다(S310).
이어서, 원시언어 입력문장의 단어나 구를 번역 사전을 검색하여 목적언어의 대역 단어나 대역 구를 검색(S320)한다. 이때, 번역 사전에서 하나의 원시언어 단어나 구에 대해 다수 개의 대역 단어나 구를 가질 수 있다.
이어서, 번역 사전에서 검색된 다수 개의 목적언어의 단어나 구 중에서 입력문장 문맥에 가장 적합한 목적언어 단어나 구를 선택(S330)한다. 이때, 입력 문장의 문맥에 가장 적합한 대역 단어나 구를 찾기 위해서 원시언어 어순의 목적 언어 언어지식 DB의 목적언어 단어나 구의 출현 확률과 목적언어에서의 주위 문맥을 표현하는 언어모델을 이용하여 입력 문장의 대역 단어나 구의 조합이 원시언어 어순의 목적언어로 출현할 가능성이 가장 높게 하는 대역 단어나 구 조합을 선택한다.
이어서, 원시언어 어순의 목적언어 단어와 구 나열을 자연스러운 목적언어 어순과 표현의 번역문장으로 생성한다(S340).
도 4는 본 발명의 일 실시예에 따른 목적언어 코퍼스로부터 원시언어 어순의 목적언어 코퍼스를 생성하는 방법을 도시한 흐름도이다.
도 4를 참조하면, 본 발명의 어순 변환부는 목적언어 코퍼스의 목적언어 문장들을 입력으로 받아서 단어 단위로 분리하고 각 단어에 대한 최적의 형태소 품사를 태깅한다(S410).
이어서, 형태소 품사 태깅 결과를 이용하여 문법적 지배소(head)와 의존소(dependant)를 찾고 그 사이의 문법 관계를 설정한다(S420).
이어서, 분석된 목적언어의 지배소 형태소 품사와 의존소 형태소 품사, 문법 관계에 대한 의존 구문 관계를 원시언어 의존 구문 관계에서 가장 유사한 의존 구문 관계를 검색한다(S430).
이어서, 원시언어에서 지배소와 의존소의 어순과 동일하도록 목적언어의 지배소와 의존소의 어순을 조정하여 원시언어 어순 목적언어 코퍼스의 문장으로 생성한다(S440). 이때, 지배소와 의존소 사이에 지배소가 의존소의 앞 부분에 올 것인가 뒤 부분에 올 것인가를 원시언어에서 같은 지배소 품사와 의존소 품사, 구문 관계일 경우에 어떠한 위치로 설정되는가에 대한 정보를 담은 원시언어 어순 DB의 정보를 따라 순서를 조정할 수 있다. 만약 원시언어에서 같은 지배소 품사, 의존소 품사, 구문관계이면서 지배소가 의존소 앞에 올 가능성과 뒤에 올 가능성의 차이가 얼마 나지 않은 경우는 2가지 경우에 대해 모두 생성하도록 한다. 그리고, 동일 지배소에 대해 같은 어순을 가지는 의존소들 간의 어순은 목적언어의 어순을 그대로 유지한다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
101 : 번역 디코더부
102 : 번역 사전
103 : 원시언어 어순의 목적언어 언어지식 DB
104 : 원시언어 어순의 목적언어 언어지식 학습부
105 : 단일언어 학습 번역부
106 : 단일언어 번역지식 DB
107 : 단일언어 번역지식 학습부
108 : 목적언어 코퍼스
109 : 원시언어 어순 목적언어 코퍼스
110 : 어순 변환부

Claims (1)

  1. 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치로서,
    원시언어 입력문장의 문맥에 가장 적합한 원시언어 어순의 목적언어 단어나 구를 생성하는 번역 디코더부; 및
    상기 번역 디코더부에서 생성한 원시언어 어순의 목적언어 단어와 구의 나열을 목적언어 어순과 표현의 번역문장으로 생성하는 단일언어 학습 번역부;
    를 포함하는 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치.
KR1020160032815A 2016-03-18 2016-03-18 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치 KR20170108621A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160032815A KR20170108621A (ko) 2016-03-18 2016-03-18 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160032815A KR20170108621A (ko) 2016-03-18 2016-03-18 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치

Publications (1)

Publication Number Publication Date
KR20170108621A true KR20170108621A (ko) 2017-09-27

Family

ID=60036573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160032815A KR20170108621A (ko) 2016-03-18 2016-03-18 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치

Country Status (1)

Country Link
KR (1) KR20170108621A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191162A (zh) * 2021-04-21 2021-07-30 零壹人工智能科技研究院(南京)有限公司 一种基于人工智能ai翻译的医疗翻译***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191162A (zh) * 2021-04-21 2021-07-30 零壹人工智能科技研究院(南京)有限公司 一种基于人工智能ai翻译的医疗翻译***

Similar Documents

Publication Publication Date Title
KR101762866B1 (ko) 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법
WO2018010455A1 (zh) 一种基于神经网络的翻译方法及装置
Davydov et al. Information system for translation into Ukrainian sign language on mobile devices
US20050216253A1 (en) System and method for reverse transliteration using statistical alignment
KR101818598B1 (ko) 자동 번역 엔진 서버 및 자동 번역 방법
KR20130123037A (ko) 양방향 자동 통역 및 번역 서비스 제공 장치 및 그 방법
RU2016137833A (ru) Система и способ машинного перевода
Tsvetkov et al. Lexicon stratification for translating out-of-vocabulary words
Brierley et al. Open-Source Boundary-Annotated Corpus for Arabic Speech and Language Processing.
KR20210035721A (ko) 다중-언어 코퍼스를 이용하여 기계번역 하는 방법 및 이를 구현한 시스템
Gutkin et al. FonBund: A library for combining cross-lingual phonological segment data
Bajčetić et al. Using Wiktionary to create specialized lexical resources and datasets
Rathod et al. English to Sanskrit translator and synthesizer (ETSTS)
KR20170108621A (ko) 단일언어 코퍼스를 이용한 통계 및 학습기반 번역 장치
Sinhal et al. Machine translation approaches and design aspects
Garje et al. Transmuter: an approach to rule-based English to Marathi machine translation
Papadopoulos et al. Team ELISA System for DARPA LORELEI Speech Evaluation 2016.
Asghari et al. A probabilistic approach to persian ezafe recognition
Sreeram et al. A Novel Approach for Effective Recognition of the Code-Switched Data on Monolingual Language Model.
JP4114526B2 (ja) 機械翻訳システム及び機械翻訳方法、並びにコンピュータ・プログラム
KR20160085100A (ko) 하이브리드 번역 장치 및 그 방법
JP2006127405A (ja) バイリンガルパラレルテキストをアライメントする方法及びそのためのコンピュータで実行可能なプログラム
Kharate et al. Survey of Machine Translation for Indian Languages to English and Its Approaches
Declerck et al. How to semantically relate dialectal Dictionaries in the Linked Data Framework
JP4708682B2 (ja) 対訳単語対の学習方法、装置、及び、対訳単語対の学習プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application