JP2007025834A - Method and system for supporting input of image diagnostic reading report - Google Patents

Method and system for supporting input of image diagnostic reading report Download PDF

Info

Publication number
JP2007025834A
JP2007025834A JP2005203799A JP2005203799A JP2007025834A JP 2007025834 A JP2007025834 A JP 2007025834A JP 2005203799 A JP2005203799 A JP 2005203799A JP 2005203799 A JP2005203799 A JP 2005203799A JP 2007025834 A JP2007025834 A JP 2007025834A
Authority
JP
Japan
Prior art keywords
character string
text
character strings
partial character
strings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005203799A
Other languages
Japanese (ja)
Other versions
JP2007025834A5 (en
JP4661415B2 (en
Inventor
Masakazu Fujio
正和 藤尾
Yoshiki Niwa
芳樹 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005203799A priority Critical patent/JP4661415B2/en
Publication of JP2007025834A publication Critical patent/JP2007025834A/en
Publication of JP2007025834A5 publication Critical patent/JP2007025834A5/ja
Application granted granted Critical
Publication of JP4661415B2 publication Critical patent/JP4661415B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To respond to the problem in which all words present in an associative term dictionary must be found out from a text including notation variability, whereas it is demanded in biomedical field to automatically extract knowledge of a technical term by extracting words corresponding to the preliminarily arranged associative term dictionary followed by document analysis or to perform static analysis related to medical insurance by extracting words corresponding to a medical action master from medical fee bills and, in general, the text thereof frequently includes notation variability such as difference in word order, typing error, reading mistake or non-reading. <P>SOLUTION: Valid graphs are formed from partial character strings of an associative term, and a combination of partial character strings covering the text at a minimum cost is selected. According to this, all words present in the associative term dictionary can be found out from the test including notation variability by erroneous reading, non-reading, typing error, or dislocation of word unit. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、テキスト中に含まれる表記ゆれ単語を、統制用語に変換する手法に関する。   The present invention relates to a technique for converting a written word included in text into a controlled term.

整備済みの辞書を用いる自然言語処理の多くのアプリケーションでは、様々な表記ゆれの存在が実用面での大きな障害となっている。例えば、バイオメディカル分野の文献では、タンパク質名の省略やニックネーム、また別々の研究者により独立に発見された同一タンパク質の存在が、相互作用情報抽出などのタスクを著しく困難なものとしている。また、医療機関で作成されるカルテや読影レポート、毎月の診療報酬請求書等の書類も、医師・診療科により用語や表現が多種多様であり、文書検索を行う場合、検索漏れが生じる可能性がある。そのため、バイオメディカル分野では、用語の標準化を目的として、UMLS(Unified Medical Language System)、SNOMED、SNOMED-CT (Systematized Nomenclature of Medicine-Clinical Terms)、Gene Ontology、Mesh Term、ICD10(国際疾病分類)など、辞書・シソーラスの整備が精力的に行われている。但し、タイプミスやこれらの辞書でカバーしきれない表記ゆれについては、近似文字列検索技術で補う必要がある。一般に、2つの文字列間の類似度を図る尺度としては、編集距離共通最大部分文字列長、構成文字を要素とするベクトル空間法に基づく類似度が提案されている。また、類似文字列を検索する方法としては、DPマッチによる方法、類似検索による方法、表記ゆれパターンを展開する方法等が知られている。   In many applications of natural language processing using a prepared dictionary, the presence of various notations is a major impediment to practical use. For example, in literatures in the biomedical field, abbreviation of protein names, nicknames, and the presence of the same protein independently discovered by different researchers make tasks such as interaction information extraction extremely difficult. Also, medical records created by medical institutions, interpretation reports, monthly medical fee bills, etc., have a variety of terms and expressions depending on the doctor / clinical department. There is. Therefore, in the biomedical field, UMLS (Unified Medical Language System), SNOMED, SNOMED-CT (Systematized Nomenclature of Medicine-Clinical Terms), Gene Ontology, Mesh Term, ICD10 (International Disease Classification) etc. Dictionaries and thesauruses are energetically maintained. However, it is necessary to compensate for typographical errors and notation fluctuations that cannot be covered by these dictionaries using approximate character string search technology. In general, as a measure for the similarity between two character strings, a similarity based on a vector space method having the maximum partial character string length common to editing distances and constituent characters as elements has been proposed. As a method for searching for similar character strings, a method using DP matching, a method using similar search, a method of developing a notation fluctuation pattern, and the like are known.

DPマッチによる方法では、一方の文字列を他方に変換するのに最低限必要な、文字の挿入・削除・置換操作の回数(編集距離)を計算する。編集操作のうち、文字列の長さが等しく、置換操作だけを許した場合の編集距離をハミング距離という。テキストT中からパターンPとの編集距離がk以内の部分文字列を全て取り出す計算量O(kn)のアルゴリズムが知られている(非特許文献1、非特許文献2)。
類似単語検索により表記ゆれ処理を行う手法として、特開平8-69474、特開2005-11078等が知られている。特開平8-69474では、入力単語の文字単位n-gramと、別に用意した置換候補文字列により置換した文字列のn-gramからベクトルを構成し、類似文書検索等で用いられるベクトル空間法により、類似単語検索を行っている。特開2005-11078でも、部分文字列をベクトル要素とする類似文字列検索を行うが、特徴素としては、特に文字列に限定してはいない。
In the DP match method, the number of character insertion / deletion / replacement operations (edit distance) necessary to convert one character string to the other is calculated. Of the editing operations, the editing distance when the lengths of the character strings are equal and only the replacement operation is allowed is called a Hamming distance. An algorithm with a calculation amount O (kn) that extracts all partial character strings whose edit distance from the pattern P is within k from the text T is known (Non-Patent Document 1, Non-Patent Document 2).
JP-A-8-69474, JP-A-2005-11078, and the like are known as techniques for performing notation fluctuation processing by similar word search. In Japanese Patent Laid-Open No. 8-69474, a vector is composed of a character unit n-gram of an input word and a character string n-gram replaced by a separately prepared replacement candidate character string, and a vector space method used in similar document search or the like is used. Perform similar word search. Japanese Patent Laid-Open No. 2005-11078 also performs a similar character string search using a partial character string as a vector element, but the feature element is not particularly limited to a character string.

特開平8-69474JP-A-8-69474

特開2005-11078JP2005-11078 G.Navarro、 A Guided Tour to Approximate String Matching、 ACM Computing Suveys、2001.G. Navarro, A Guided Tour to Approximate String Matching, ACM Computing Suveys, 2001. Dan Gusfield、 “Algorithms on Strings、 Trees、 and Sequences: Computer Science and Computational Biology”、 Cambridge Univ Pr (Sd)、、1997.Dan Gusfield, “Algorithms on Strings, Trees, and Sequences: Computer Science and Computational Biology”, Cambridge Univ Pr (Sd), 1997. A.Acho and M.Corasick、 Efficient string matching:an aid to bibliographic search、 Comm.ACM、 18:333-40、 1975A. Acho and M. Corasick, Efficient string matching: an aid to bibliographic search, Comm. ACM, 18: 333-40, 1975 G.Navarro、 R.Baeza-Yates、 and J.M. Arcoverde、 Matchsimile:A flexible approximate matching tool for personal names searching、 In Proceedings of the XVI Brazilian Symposium on Databases、 pp228-242、2001G. Navarro, R.A. Baeza-Yates, and J.A. M. Arcoverde, Matchsimile: A flexible approximate matching tool for personal names searching, In Proceedings of the XVI Brazilian Symposium on Databases, pp228-242, 2001

派生語をあらかじめ登録する方式では、OCR認識後の誤読・不読のパターンを全て生成しておくことは不可能である。また、DPマッチを用いて近時文字列検索を行う方法は、ユーザーが入力した単一単語について、テキスト中の近似文字列もしくは、辞書中の近時文字列を検索するアプリケーションには有効に働くが、数千、数万オーダーの辞書の文字列について同時にDPマッチを行うことは、実行速度の面で現実的ではない。テキストT中から、複数パターンPとの編集距離k以内のパターンを全て探索する問題は、inexact set matching problemと呼ばれる(非特許文献2、3)。suffix treeとDPマッチを組み合わせた非特許文献4)が提案されているが、共通文字列が繰り返し多く現れない限り、suffix treeを構成する効果があまりでない。   It is impossible to generate all misread / unread patterns after OCR recognition with the method of registering derivative words in advance. Also, the recent string search method using DP match works well for applications that search for approximate strings in text or recent strings in a dictionary for a single word entered by the user. However, it is not realistic in terms of execution speed to perform DP matching simultaneously for thousands or tens of thousands of dictionary strings. The problem of searching all patterns within the edit distance k with a plurality of patterns P from the text T is called an inexact set matching problem (Non-Patent Documents 2 and 3). Non-patent document 4) combining a suffix tree and a DP match has been proposed, but the effect of constructing a suffix tree is not so much unless many common character strings appear repeatedly.

また、suffix treeやDPマッチをそのまま用いる手法では、語順の違いを適切に扱うことができない。例えば、統制用語辞書の一つである、磁気レセプト電算処理用診療行為マスターを例にとると、「大塚生食注20mL」と「生食注(大塚)20mL」は、編集距離は大きいが同一用語である。   In addition, the technique using the suffix tree or DP match as it is cannot properly handle the difference in word order. For example, taking the case of the medical practice master for magnetic reception computer processing, which is one of the controlled terminology dictionaries, “Otsuka raw food injection 20 mL” and “raw food injection (Otsuka) 20 mL” are the same terms, although the edit distance is large is there.

上記課題を解決するため、本発明では、以下に述べる手法を考案した。
[1] 統制用語の部分文字列による近似文字列検索
[2] 正規化規則
[3] 同義語定義
[4] 完成度の定義
[1]により、挿入、欠損、だけでなく語順の違いによる表記ゆれを吸収できる。[2]により、半角全角、大文字小文字のほか、「0」ゼロと「O」オー等の文字認識に起因する表記ゆれを吸収することができる。[3]により、本手法の適用範囲を拡大することができる。[4]により、[1],[2],[3]を入力テキストに適用した結果出現する複数の統制用語の候補の中から、最も可能性の高い用語の組み合わせを選択することができる。
In order to solve the above problems, the present invention devised the following method.
[1] Approximate string search by substring of controlled terms
[2] Normalization rules
[3] Synonym definition
[4] Definition of completeness
[1] can absorb not only insertions and deletions, but also variations in notation due to differences in word order. According to [2], not only single-byte full-width characters, upper-case and lower-case characters, but also notation fluctuation caused by character recognition such as “0” zero and “O” O can be absorbed. By [3], the application range of this method can be expanded. According to [4], it is possible to select the most likely term combination from among a plurality of controlled term candidates appearing as a result of applying [1], [2], and [3] to the input text.

本発明により、テキスト中から、誤読、不読、タイプミスや、語単位の転置による表記ゆれを吸収して、適切な統制用語辞書の組み合わせを検索・抽出することができる。   According to the present invention, it is possible to search and extract an appropriate combination of controlled term dictionaries by absorbing misreading, unreading, typographical errors, and notation fluctuations caused by transposition of word units.

図1に、本発明における表記ゆれ処理フローを示す。レセプト摘要欄画像をOCRで読み取り、出力結果テキストから、表記ゆれを吸収して、あらかじめ用意した統制用語に相当するものを検索し、統制用語のコードに変換する課題を例として実施例を述べる。摘要欄に出現するテキストは、以下のような特徴を持っている。
1) 各行は、診療行為、調剤行為、薬剤名、医療材料名の羅列
2) 行中の項目数はあらかじめ不明
3) 挿入欠損置換転置による表記ゆれが存在する。
4) コード化と無関係な文字列が存在する
<統制用語辞書の前処理>
まず、ステップ105により、統制用語を構成素に分解する。分解方法として、事前定義した分解規則に従うもの、機械的にn-gramに分解したもの、形態素解析を利用したものなどが考える。事前定義した分解規則に従う方法の例として、括弧の有無、数量・分量を表す表現、ハイフン、スペースの有無、文字種の切れ目等が考えられる。図3に分解規則の例を示す。例えば規則303、304では、アルファベットに続く漢字とカタカナを分解することを示している。また、特定の用語やパターンの場合は分解規則を適用したくない場合もあり得るため、例外規則も設けた。例えば、「S−M」、「C3」等、分解しないことが適当と思われるパターンについては分解を行わないこととした。これは本発明が転置による表記ゆれを吸収する手法であるため、語順を変えた「MS」や「3C」にマッチする可能性があるためである。従って、目安としては、語順の変換により別の統制用語に照合する可能性が少ない単位に分解することが望ましい。これは、統制用語を一旦分解した後、転置した文字列の頻度を数えるなどして機械的に行うことも可能である。但し、仮に部分文字列として登録した場合でも、後に述べる動的計画法による最小コスト解の探索手段により、最適解を選択することも可能である。
FIG. 1 shows a notation fluctuation processing flow in the present invention. An embodiment will be described by taking as an example a problem of reading a receipt summary column image by OCR, absorbing notation fluctuation from an output result text, searching for a control term corresponding to a prepared term, and converting it to a control term code. The text that appears in the summary column has the following characteristics.
1) Each line is a list of medical practice, dispensing action, drug name, and medical material name 2) The number of items in the line is unknown in advance 3) There is a variation in the notation due to insertion defect replacement transposition.
4) Character string unrelated to encoding exists <Pre-processing of controlled term dictionary>
First, in step 105, the controlled terms are decomposed into constituents. Possible decomposition methods include those that follow predefined decomposition rules, those that are mechanically decomposed into n-grams, and those that use morphological analysis. Examples of methods that follow the predefined decomposition rules include parentheses, quantities / quantities, hyphens, spaces, and character type breaks. Fig. 3 shows an example of decomposition rules. For example, rules 303 and 304 indicate that the kanji and katakana following the alphabet are disassembled. In addition, an exception rule is also provided because it may not be necessary to apply a disassembly rule for a specific term or pattern. For example, it is decided not to decompose a pattern that is considered appropriate not to be decomposed, such as “SM” and “C3”. This is because the present invention is a technique for absorbing notation fluctuation due to transposition, and may match “MS” or “3C” in which the word order is changed. Therefore, as a guideline, it is desirable to break down into units that are less likely to be collated with another controlled term by converting the word order. This can be done mechanically by, for example, counting the frequency of the transposed character string after disassembling the control term once. However, even if it is registered as a partial character string, it is possible to select an optimal solution by means of searching for a minimum cost solution by dynamic programming described later.

分解した要素は、その種類に応じて重み付けを行う。図2に、分解要素を重みづけした例を示す。201、204、210は、それぞれ統制用語を表す。202、203は、201を分解規則により分解した際にできる部分文字列をあらわす。この場合、「括弧内の要素とそれ以外は分解」という規則に従い、統制用語を分解している。括弧外の要素である202は、221で示すように重みが最も高い。括弧内の要素である203は、222に示すように重みが相対的に低い。204は、205〜209の要素に分解される。先ほどと異なるのは、208の場合であり、225に示すように重要度が最も低い。これは、「を要する」という言葉があってもなくても、統制用語への変換を判断する際に不要と考えられるためである。このように、特定の用語に関しては、重み定義ファイルを別に用意する。205と206の分解を行うため、「形成術」という単語を登録している。また、図9の901に示すように、切断するパターンを登録してもよい。901は、「活性化部分」という文字列が、「活性化」と「部分」に分解されることを表している。その他、一般的な形態素解析技術により構成語に分解することも考えられる。統制用語210は、211〜215の要素に分解される。211と212は「カタカナ列+アルファベットは分解」という規則に従って分解され、212と213は、213と214をあわせた「375mg」が数量を表すと判断されるため、その前後と分解される。統制用語のある部分が数量を表すかどうかは、例えば正規表現等を用いて定義する。213と214は数量を表すため、223に示すように、211や212と比べて相対的に重みを低くしている。   The decomposed elements are weighted according to their types. FIG. 2 shows an example in which the decomposition elements are weighted. 201, 204, and 210 represent control terms, respectively. 202 and 203 represent partial character strings formed when 201 is decomposed according to the decomposition rule. In this case, the controlled terms are decomposed in accordance with the rule “elements in parentheses and other elements are decomposed”. The element 202 outside the parentheses has the highest weight as indicated by 221. The element 203 in parentheses has a relatively low weight as indicated by 222. 204 is broken down into 205-209 elements. What is different from the previous case is 208, which is the least important as indicated by 225. This is because it is considered unnecessary when determining the conversion to the controlled term regardless of whether the word “requires” is present or not. As described above, a separate weight definition file is prepared for a specific term. In order to disassemble 205 and 206, the word "plastic surgery" is registered. Further, as indicated by reference numeral 901 in FIG. 9, a pattern to be cut may be registered. Reference numeral 901 indicates that the character string “activated part” is decomposed into “activated” and “part”. In addition, it can be considered to decompose into constituent words by a general morphological analysis technique. Control term 210 is broken down into 211-215 elements. 211 and 212 are decomposed in accordance with the rule “Katakana string + alphabet is decomposed”, and 212 and 213 are decomposed before and after that because it is determined that “375 mg” including 213 and 214 represents the quantity. Whether a certain part of the control term represents a quantity is defined by using, for example, a regular expression. Since 213 and 214 represent quantities, the weights are relatively lower than those of 211 and 212, as indicated by 223.

分解された部分文字列は、文字列正規化手段106によって正規化される。図5に、正規化規則の一部を示す。正規化処理では、半角はすべて全角に直し、小文字も大文字に変換する。また、ハイフン(規則501)、括弧(規則502,503)、句読点についても、それぞれ一つの標準文字を決め、すべてそれに変換する。504の規則のように、誤読や不読で生じる表記ゆれに対応するため、ゼロ「0」とオー「O」などのように、文字認識上区別が困難なものを一つの文字に変換することも有効である。これは、入力テキストに適用する正規化規則と同じものにしておく必要がある。   The decomposed partial character string is normalized by the character string normalizing means 106. FIG. 5 shows a part of the normalization rule. In normalization processing, all half-width characters are changed to full-width characters, and lowercase letters are converted to uppercase letters. Also, for the hyphen (rule 501), parentheses (rules 502 and 503), and punctuation marks, one standard character is determined and converted to all. In order to cope with notation and misreading as in the rules of 504, characters that are difficult to distinguish due to character recognition, such as zero “0” and OH “O”, are converted into a single character. Is also effective. This should be the same normalization rule that applies to the input text.

分解された部分文字列は、由来する統制用語を識別するID情報が分かる形で保持しておく。複数の統制用語から同じ部分文字列が生成されることもあるため、文字列対ID情報は、1対多の関係になる。図4に部分文字列辞書の例を示す。例えば402は、「内服」という部分文字列が、ID番号の120000710、610412017の可能性があることを示しており、元の統制用語が「調剤料(内服・浸煎薬薬・屯服)」、「アレルナート内服薬用」であり、統制用語としての完成度が、初期状態で、10%と20%であることを表している。以降、図4で例示したような、拡張・分解処理によって作成された文字列辞書のことを、部分文字列辞書と呼ぶことにする。
<部分文字列を用いた入力テキストの被覆>
入力テキストを処理する段階では、上記前処理で作成した部分文字列辞書の要素を、入力テキストに貼り付ける処理を行う。変換対象となる入力文字列に対し、まず手段109により正規化処理を行う。ここで適用する正規化規則は、統制用語に適用するものと正確に一致する必要がある。逆に、入力と統制用語と両方に同じ正規化規則を適用する限り、無意味にならない範囲で、どんな正規化規則も適用可能である。これらの文字列の区別をあいまいにすると、部分文字列と入力テキスト間で、正しくない照合が起こり得るが、後段のコスト最小解探索処理で、正しい解を選択できるようにする。
The decomposed partial character string is held in such a way that ID information for identifying the control term from which it is derived can be understood. Since the same partial character string may be generated from a plurality of controlled terms, the character string pair ID information has a one-to-many relationship. FIG. 4 shows an example of the partial character string dictionary. For example, 402 indicates that the partial character string “internal use” may be the ID numbers 120000710 and 610412017, and the original control term is “dispensing fee (internal use / decoction medicine / subjugation)”, "Allernate internal use" indicates that the degree of perfection as a controlled term is 10% and 20% in the initial state. Hereinafter, the character string dictionary created by the expansion / decomposition process illustrated in FIG. 4 is referred to as a partial character string dictionary.
<Coating input text using partial character string>
At the stage of processing the input text, a process of pasting the elements of the partial character string dictionary created in the preprocessing to the input text is performed. First, normalization processing is performed by means 109 on the input character string to be converted. The normalization rules that apply here must exactly match those that apply to controlled terms. Conversely, as long as the same normalization rule is applied to both input and controlled terms, any normalization rule can be applied as long as it does not make sense. If the distinction between these character strings is made ambiguous, an incorrect collation may occur between the partial character string and the input text. However, the correct solution can be selected in the cost minimum solution search process in the subsequent stage.

次に、手段110により、正規化処理済みの入力テキストに、上記部分文字列辞書の要素のうち、可能なものを全て貼り付ける。貼り付け処理には、exact matchを用いるものが最も高速である(exact set matching problemと呼ばれ、線形時間で解けることが知られている)。図6に、入力テキストに部分文字列を貼り付けた初期状態を示す。60は入力テキストの例を表す。このテキストは、「初診(病院)」と「紹介患者加算4」の2つの統制用語の内容に対応するのが正解である。先頭2文字については、IDとして111010070を持つ611がexact matchし、3〜8番目には、異なるIDを持つ部分文字列612がexact matchする。10〜11には、部分文字列615がexact matchする。他にもそれらと交差するように、2〜6に対応する部分文字列613や、6〜8に対応する部分文字列614など、可能なものを全て網羅する。   Next, the means 110 pastes all the possible elements of the partial character string dictionary to the normalized input text. For paste processing, the one using exact match is the fastest (called an exact set matching problem, which is known to be solved in linear time). FIG. 6 shows an initial state in which a partial character string is pasted on the input text. 60 represents an example of input text. This text is correct when it corresponds to the contents of the two control terms “first visit (hospital)” and “referral patient addition 4”. For the first two characters, 611 having 111010070 as the ID matches, and for the third to eighth characters, the partial character string 612 having a different ID matches exactly. From 10 to 11, the partial character string 615 exactly matches. In addition, all possible things such as a partial character string 613 corresponding to 2 to 6 and a partial character string 614 corresponding to 6 to 8 are covered so as to intersect with them.

表記ゆれにたいする頑健性を高めるには、部分文字列と入力テキストの対応処理において、編集距離がk以内の全ての部分文字列を探すk-difference inexact match、もしくはハミング距離がk以内の全ての部分文字列を探すk-mismatch inexact matchを実行することが望ましい。前者については、パターンの長さnに対して計算オーダーO(kn)のアルゴリズムが知られているが(非特許文献2)、kの値が大き過ぎると、計算コストが高くなると考えられる。それに比べ、k-mismatch inexact matchの方は計算コストが低い。k-mismatch inexact matchは、文字列の置換のみをk回許すものであるため、漢字の異体字や、タイプミス、文字列が一部読めない歯抜けのようなテキストに有効である。図8の801、802、803は歯抜けテキストの例である。それぞれ「?」は、何らかの文字があるが何かは分からないということを示している。このような例は、OCR読み取り結果の形式の一つとして見うけられる。部分文字列の貼り付けのコストが高いかどうかは、文字列が完全一意するか、部分一致するかという一般的な尺度の他に、共通する候補IDをもつ部分文字列が、当該文字列の近くにあるかどうかで判断する。近くにあればあるほど、その文字列の配置コストは低くなる。
<部分文字列どうしの結合>
次に、手段111により、テキスト上に配置された部分文字列間の結合処理を行う。図7を用いて、配置済み部分文字列を結合する処理について説明する。基本的には隣接部分文字列間のID集合間の積集合を計算する。積集合が空でない場合、それらを結合した範囲に対応する新たな部分文字列を追加する。例えば712と715に着目すると、111010070という共通IDが存在する。そこで、712と715を結合した、719という部分文字列を追加する。同様に、711と712から、別のIDを積集合とする716を追加する。共通IDの積集合を計算する本処理により、語順の違いを許した文字列照合が可能となる。以上の結合処理を、追加される文字列も含めて、すべての可能な部分文字列の間で実施する。
<ギャップを許した結合>
前記結合処理において、隣接部分文字列間のみならず、離れた部分文字列間についても、積集合が空でない組み合わせが存在する。それらの組み合わせに関しては、ギャップの存在による結合コストを課して結合してもよい。結合コストの上限を設けるか、結合文字列間の距離を制限することで、本処理による速度の著しい低下を防ぐことができる。この処理により、無視可能な文字列やタイプミス等によるゴミが挿入している場合にも対処することができる。
<被覆のコスト>
以上のような部分文字列間の結合処理を繰り返すことにより、候補コード番号が唯一になる部分文字列や、元の統制用語の文字列をほぼ再現する部分文字列が出現してくる。これらの部分文字列のうち、コストがある閾値以下のものを解として出力する。ただし、それぞれの解候補であるテキストの部分文字列は、テキスト上で重なり合うこともあるため、入力テキストを最も適切に覆う文字列の組み合わせを探索する必要がある(手段112)。この組み合わせパターンの一つを、以降“被覆”と呼ぶことにする。各被覆間で優先順位をつけるため、“被覆のコスト”として、結合処理コスト、統制用語再現性コスト、完成文字列間連接コストを定義し、動的計画法の各組みの中で、上記結合処理を行いながらコストを計算し、最適な被覆を選択する。
統制用語再現性コスト(InnerCompositionCost)
構成途中の部分文字列と、対応する統制用語部分文字列との違いを表す尺度。前処理段階で、統制用語は重要度の異なる複数の部分文字列に分解される。以下の式において、X、Y、Zは統制用語の各パートの部分文字列長、X'、Y'、Z'は、部分文字列中に再現された各部分文字列の長さをあらわし、α、β、γは、あらかじめ決められた重み付けのための定数である.すなわち、統制用語文字列の、重み付け再現率を表す.
-log((αX'+βY'+γZ')/(αX+βY+γZ))
結合処理コスト(InnerGapCost)
IDの一致する部分文字列同士を結合する際のコスト。隣接文字列同士を結合する場合は、ギャップ0のため、結合処理コストも0とする。
定数α´ × Gap文字数
完成文字列間連接コスト(OurterGapCost)
(結合)文字列の集合である被覆を選択する際に、選択した文字列の間に存在するギャップによるコストを表す。言い換えると、被覆で覆うことのできなかったテキストから計算されるコストを表す。先頭もしくは末尾にコメントなど統制用語で覆う必要のない文字列が現れる場合は、コスト[1]を0にすることも考えられる。
[1]非被覆文字列が、テキストの先頭もしくは末尾の場合:
ストップワード以外の文字列長÷入力文字列長
[2]それ以外:
要素間に存在するストップワード以外の文字列数÷入力文字列長
各被覆について、PathCostを以下のように定義した。数式1で表されるように、テキスト位置pとqに関する被覆のPathCostは、pとqの間にあるtを用いて、再帰的に定義できる。文字列の結合とコストの計算は、テキストの左端から開始し、結合処理、OuterGapCost、InnerGapCost、InnerCompositionCostとPathCostの計算と記録を、テキスト上の位置ごとに左から右に繰り返していくことで、動的計画法の枠組みの中で解くことができる。
To improve robustness against notation fluctuation, k-difference inexact match that searches for all substrings whose edit distance is within k or all parts whose Hamming distance is within k in the correspondence processing between substring and input text It is desirable to perform a k-mismatch inexact match that searches for a string. As for the former, an algorithm of a calculation order O (kn) is known for the pattern length n (Non-Patent Document 2). However, if the value of k is too large, the calculation cost is considered to be high. In comparison, k-mismatch inexact match has a lower calculation cost. Since k-mismatch inexact match only allows replacement of character strings k times, it is effective for Kanji variant characters, typographical errors, and missing text that cannot be partially read. 801, 802, and 803 in FIG. 8 are examples of tooth missing text. Each “?” Indicates that there is some character but something is unknown. Such an example can be seen as one of the formats of OCR reading results. In addition to the general measure of whether a character string is completely unique or a partial match, whether or not the pasting cost of a substring is high depends on whether a substring with a common candidate ID Judge whether it is nearby. The closer it is, the lower the placement cost of that string.
<Combination of substrings>
Next, the means 111 performs a connection process between the partial character strings arranged on the text. A process of combining the arranged partial character strings will be described with reference to FIG. Basically, the intersection between ID sets between adjacent substrings is calculated. If the product set is not empty, a new substring corresponding to the combined range is added. For example, when focusing on 712 and 715, there is a common ID of 111010070. Therefore, a partial character string 719 obtained by combining 712 and 715 is added. Similarly, from 711 and 712, 716 having another ID as a product set is added. This process of calculating the intersection set of common IDs enables string matching that allows differences in word order. The above combining process is performed between all possible partial character strings including the character string to be added.
<Combination allowing gaps>
In the combination processing, there is a combination in which the product set is not empty not only between adjacent partial character strings but also between separated partial character strings. As for those combinations, they may be combined at a coupling cost due to the existence of a gap. By setting the upper limit of the coupling cost or limiting the distance between the coupled character strings, it is possible to prevent a significant decrease in speed due to this processing. With this processing, it is possible to cope with a case where dust due to an ignorable character string or a typo is inserted.
<Coating cost>
By repeating the combination processing between the partial character strings as described above, a partial character string having a unique candidate code number or a partial character string that substantially reproduces the original controlled term character string appears. Among these partial character strings, those whose cost is below a certain threshold are output as solutions. However, since the partial character strings of the texts that are the respective solution candidates may overlap on the text, it is necessary to search for a combination of character strings that most appropriately covers the input text (means 112). One of the combination patterns is hereinafter referred to as “cover”. In order to prioritize between the coverings, the "coating cost" is defined as the joint processing cost, the control term reproducibility cost, and the completion string concatenation cost. The cost is calculated while processing, and the optimum coating is selected.
Controlled term reproducibility cost (InnerCompositionCost)
A scale that represents the difference between a substring in the middle of a composition and the corresponding controlled term substring. In the preprocessing stage, the controlled terms are broken down into a plurality of substrings having different importance levels. In the following formula, X, Y, and Z are the length of the partial character string of each part of the controlled term, and X ′, Y ′, and Z ′ are the length of each partial character string reproduced in the partial character string, α, β, and γ are predetermined weighting constants. In other words, it represents the weighted recall of the controlled term string.
-log ((αX '+ βY' + γZ ') / (αX + βY + γZ))
Join processing cost (InnerGapCost)
Cost of combining substrings with matching IDs. When adjacent character strings are combined, the combination processing cost is also set to 0 because the gap is 0.
Constant α´ × number of Gap characters
Connection cost between completed strings (OurterGapCost)
(Combined) When selecting a cover that is a set of character strings, it represents a cost due to a gap existing between the selected character strings. In other words, it represents the cost calculated from the text that could not be covered by the covering. If a character string that does not need to be covered with a controlled term such as a comment appears at the beginning or end, the cost [1] can be set to 0.
[1] If the uncovered string is at the beginning or end of the text:
Character string length other than stop word ÷ Input character string length
[2] Other than that:
Number of character strings other than stop words existing between elements ÷ Input character string length PathCost is defined as follows for each covering. As expressed in Equation 1, the PathCost of the covering for the text positions p and q can be recursively defined using t between p and q. String concatenation and cost calculation start from the left edge of the text and repeat the merge process, OuterGapCost, InnerGapCost, InnerCompositionCost and PathCost calculation and recording from left to right for each position in the text. Can be solved within the framework of dynamic programming.

Figure 2007025834
Figure 2007025834


図7の例では、入力の先頭から末尾までのパスはいくつも存在する。そのうちコスト最小のものを選択するが、ここでは、被覆720と被覆721を例としてコストの計算例を示す。
被覆720のコスト = InnerCompostion(0, 8) + InnerGap(0, 8) + OuterGap(9, 12)
= -log((α*3+β*0+α*6)/(α*3+β*3+α*6)) + 2/12
> 0.167
被覆721のコスト = OuterGap(0, 2) + InnerCompsotion(3, 12) + InnerGap(3, 12)
= 2/12 + 0 + 0 = 0.167
従って、コストの低い「紹介患者加算4」を解として出力する。
<同義パターンの定義>
表記ゆれの中には、「ESR」と「赤血球沈降速度測定」など、字面上の処理では対処できないものも存在する。これらの表記ゆれについては、同義語登録をする必要がある。但し、構成要素単位で同義語を登録しておくと効率的である。統制用語辞書を分解する前に、あらかじめ同義語定義に従って統制用語を拡張しておく。例えば、「入院外」⇔「外来」という同義語定義がされていると、統制用語「療養担当手当(入院外)」から、「療養担当手当金(外来)」という拡張統制用語を定義できる。同様に、「調剤料(麻・向・覚・毒)(入院外)」から、「調剤料(麻・向・覚・毒)(外来)」。このように、同義語の定義は、例えば「入院外」と「外来」など、統制用語の部分文字列単位で定義することで、定義の汎用性を高めることができる。図9は、同義語の定義例を示しており、901は、「直腸鏡」と「E−直腸」が同義であること、「Hb」「ヘモグロビン」「ヒトヘモグロビン」が同義であることを示している。

In the example of FIG. 7, there are a number of paths from the beginning to the end of the input. Of these, the one with the lowest cost is selected. Here, an example of cost calculation is shown by taking the coating 720 and the coating 721 as an example.
Cost of coating 720 = InnerCompostion (0, 8) + InnerGap (0, 8) + OuterGap (9, 12)
= -log ((α * 3 + β * 0 + α * 6) / (α * 3 + β * 3 + α * 6)) + 2/12
> 0.167
Cost of coating 721 = OuterGap (0, 2) + InnerCompsotion (3, 12) + InnerGap (3, 12)
= 2/12 + 0 + 0 = 0.167
Accordingly, “introduced patient addition 4” having a low cost is output as a solution.
<Definition of synonymous patterns>
Some notations such as “ESR” and “erythrocyte sedimentation rate measurement” cannot be dealt with by processing on the face. It is necessary to register synonyms for these notations. However, it is efficient to register synonyms in units of components. Before disassembling the controlled term dictionary, the controlled term is expanded in advance according to the synonym definition. For example, if the synonym definition “outside hospital” 入院 “outpatient” is defined, the extended control term “treatment allowance (outpatient)” can be defined from the control term “care allowance (outside hospital)”. Similarly, from “Dispensing fee (hemp / mu / t / pox) (out of hospital)” to “Dispensing fee (hemp / mu / t / pox) (outpatient)”. As described above, the definition of synonyms can be improved in terms of definition character strings in units of partial character strings of controlled terms such as “out-of-hospital” and “out-patient”. FIG. 9 shows a definition example of synonyms. 901 indicates that “rectoscope” and “E-rectum” are synonymous, and “Hb”, “hemoglobin”, and “human hemoglobin” are synonymous. ing.

表記ゆれが多く含まれるバイオメディカル分野のテキストから、タンパク名や医療用語などの目的とする統制用語を検索・抽出することができる。   It is possible to search and extract target controlled terms such as protein names and medical terms from texts in the biomedical field that contain a large amount of notation.

システム処理フロー。System processing flow. 統制用語の分解例。An example of decomposition of controlled terms. 切断規則の例。An example of a cutting rule. 部分文字列辞書構造例。Partial string dictionary structure example. 正規化規則例。Normalization rule example. テキストへの貼り付け例。An example of pasting to text. テキスト被覆の選択例。Example of selection of text covering. 文字列置換の例。An example of string replacement. 同義語定義例。Example of synonym definition.

符号の説明Explanation of symbols

101:文字列重み定義ファイル 109:文字列正規化手段
102:統制用語辞書 110:近似文字列検索手段
103:同義パターン定義ファイル 111:文字列結合手段
104:辞書の拡張手段 112:文字列組合せ選択手段
105:文字列切断手段 113:統制用語出力手段
106:文字列正規化手段 114:文字列コスト表
107:文字列正規化規則
108:部分文字列辞書。
101: String weight definition file 109: String normalization means
102: Controlled term dictionary 110: Approximate character string search means
103: Synonym pattern definition file 111: Character string combination means
104: Dictionary expansion means 112: Character string combination selection means
105: Character string cutting means 113: Controlled term output means
106: Character string normalization means 114: Character string cost table
107: Character string normalization rules
108: Substring dictionary.

Claims (7)

漢字、カタカナ、記号等の文字種や単語列のパターンにより定義される文字列分解規則を備え、前記文字列分解規則に従って統制用語集をあらかじめ切断し、切断された部分文字列が含まれていた統制用語を候補用語として記録した部分文字列辞書を作成する手段を備え、テキスト中に出現する前記部分文字列辞書の文字列を全て検索するテキスト検索手段を備え、検索された部分文字列のうち、共通の候補用語を持つ文字列同士を結合し、結合文字列のテキスト上での位置関係と、候補用語上での位置関係に基づき完成度を計算する手段を備え、結合文字列の候補用語と完成度を記録する記録手段を備え、記録された文字列集合の中から、完成度の和がなるべく高く、テキストの被覆率がなるべく高い文字列の集合を選択する手段を備え、選択した文字列集合うち、統制用語としての完成度が指定した閾値以上のものを出力する、表記ゆれ処理システム。 Controls that have character string decomposition rules defined by character types such as kanji, katakana, symbols, etc., and patterns of word strings, and have previously cut the controlled terminology in accordance with the character string decomposition rules and included the cut partial character strings A means for creating a partial character string dictionary in which terms are recorded as candidate terms, a text search means for searching all character strings in the partial character string dictionary appearing in the text, and among the searched partial character strings, A character string having a common candidate term is combined, and a means for calculating the degree of completion based on the positional relationship of the combined character string on the text and the positional relationship on the candidate term includes: Comprising a recording means for recording the degree of completion, and comprising means for selecting a set of character strings having a sum of completeness as high as possible and a text coverage as high as possible from the recorded character string set, Of-option character string set, to output a more than threshold completeness as controlled terms specified, denoted shake processing system. 前記部分文字列の完成度は、結合される2つの文字列の間に存在するテキスト文字列に基づき、別に定義した文字列コスト表のコストおよび文字数に従って完成度を計算することを特徴とする、請求項1に記載の表記ゆれシステム。 The completeness of the partial character string is based on a text character string existing between two character strings to be combined, and the completeness is calculated according to the cost and the number of characters of a character string cost table defined separately, The notation fluctuation system according to claim 1. 前記部分文字列辞書は、数量表現、単位表現等の文字列のパターンもしくは直接文字列を登録した重み付け定義に従った完成度を記録しており、結合される文字列の完成度を、各部分文字列の完成度の和により計算する、請求項1に記載の表記ゆれシステム。 The partial character string dictionary records the degree of completion in accordance with a weighting definition in which a character string pattern such as a quantity expression and unit expression or a direct character string is registered. The notation fluctuation system according to claim 1, wherein calculation is performed based on a sum of completeness of character strings. 請求項1に記載のテキスト検索手段は、ハミング距離があらかじめ指定した値以下もしくは、編集距離があらかじめ指定した値以下の近似部分文字列を検索するものであることを特徴とする表記ゆれシステム。 The text search unit according to claim 1, wherein the text search unit searches for an approximate partial character string having a Hamming distance equal to or less than a predetermined value or an edit distance equal to or less than a predetermined value. 統制用語辞書を部分文字列に分解する際に、形態素解析出力や、文字列のn-gramと組合せることを特徴とする、請求項1に記載の表記ゆれ処理システム。 2. The notation fluctuation processing system according to claim 1, wherein when the controlled term dictionary is decomposed into partial character strings, it is combined with a morphological analysis output and an n-gram of a character string. 同義の文字列の組み合わせを記録した同義パターン定義ファイルを備え、同義パターン定義ファイルに従って、統制用語辞書をあらかじめ拡張しておくことを特徴とする、請求項1記載の表記ゆれ処理システム。 The notation fluctuation processing system according to claim 1, further comprising a synonym pattern definition file in which combinations of synonymous character strings are recorded, wherein the controlled term dictionary is expanded in advance according to the synonym pattern definition file. 正規化規則により、入力テキストと統制用語を前処理することを特徴とする、請求項1記載の表記ゆれ処理システム。
The notation fluctuation processing system according to claim 1, wherein the input text and the controlled term are preprocessed according to a normalization rule.
JP2005203799A 2005-07-13 2005-07-13 Expression fluctuation processing system Expired - Fee Related JP4661415B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005203799A JP4661415B2 (en) 2005-07-13 2005-07-13 Expression fluctuation processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005203799A JP4661415B2 (en) 2005-07-13 2005-07-13 Expression fluctuation processing system

Publications (3)

Publication Number Publication Date
JP2007025834A true JP2007025834A (en) 2007-02-01
JP2007025834A5 JP2007025834A5 (en) 2007-12-27
JP4661415B2 JP4661415B2 (en) 2011-03-30

Family

ID=37786539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005203799A Expired - Fee Related JP4661415B2 (en) 2005-07-13 2005-07-13 Expression fluctuation processing system

Country Status (1)

Country Link
JP (1) JP4661415B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010533899A (en) * 2007-04-13 2010-10-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Correlating clinical events
JP2016525762A (en) * 2013-07-29 2016-08-25 ワークデイ,インコーポレーテッド How to systematically normalize names in large numbers
JP6419899B1 (en) * 2017-06-16 2018-11-07 ソフトバンク株式会社 Information processing apparatus, control method, and control program
JP2022508350A (en) * 2019-07-12 2022-01-19 之江実験室 Multi-center medical term standardization system based on general medical term library
JP7149976B2 (en) 2019-02-21 2022-10-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Error correction method and apparatus, computer readable medium
JP7473314B2 (en) 2019-09-27 2024-04-23 TXP Medical株式会社 Medical information management device and method for adding metadata to medical reports

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274547A (en) * 1993-03-22 1994-09-30 Nippon Telegr & Teleph Corp <Ntt> Compound word recognizing device
JPH10240743A (en) * 1997-03-03 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> Information storage and retrieval method and system therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274547A (en) * 1993-03-22 1994-09-30 Nippon Telegr & Teleph Corp <Ntt> Compound word recognizing device
JPH10240743A (en) * 1997-03-03 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> Information storage and retrieval method and system therefor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010533899A (en) * 2007-04-13 2010-10-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Correlating clinical events
JP2016525762A (en) * 2013-07-29 2016-08-25 ワークデイ,インコーポレーテッド How to systematically normalize names in large numbers
US9881037B2 (en) 2013-07-29 2018-01-30 Workday, Inc. Method for systematic mass normalization of titles
JP6419899B1 (en) * 2017-06-16 2018-11-07 ソフトバンク株式会社 Information processing apparatus, control method, and control program
JP2019003488A (en) * 2017-06-16 2019-01-10 ソフトバンク株式会社 Information processing apparatus, control method, and control program
JP7149976B2 (en) 2019-02-21 2022-10-07 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Error correction method and apparatus, computer readable medium
US11663269B2 (en) 2019-02-21 2023-05-30 Beijing Baidu Netcom Science And Technology Co., Ltd. Error correction method and apparatus, and computer readable medium
JP2022508350A (en) * 2019-07-12 2022-01-19 之江実験室 Multi-center medical term standardization system based on general medical term library
JP7093593B2 (en) 2019-07-12 2022-06-30 之江実験室 Multi-center medical term standardization system based on general-purpose medical term library
JP7473314B2 (en) 2019-09-27 2024-04-23 TXP Medical株式会社 Medical information management device and method for adding metadata to medical reports

Also Published As

Publication number Publication date
JP4661415B2 (en) 2011-03-30

Similar Documents

Publication Publication Date Title
CN105069124B (en) A kind of International Classification of Diseases coding method of automation and system
AU2004294094B2 (en) Extraction of facts from text
US10275576B2 (en) Automatic medical coding system and method
JP4404211B2 (en) Multilingual translation memory, translation method and translation program
US20180260474A1 (en) Methods for extracting and assessing information from literature documents
CN109192255B (en) Medical record structuring method
US8239188B2 (en) Example based translation apparatus, translation method, and translation program
Bowern Chirila: Contemporary and historical resources for the indigenous languages of Australia
JPS63231674A (en) Word processing system
JP4661415B2 (en) Expression fluctuation processing system
Armengol-Estapé et al. PharmacoNER Tagger: a deep learning-based tool for automatically finding chemicals and drugs in Spanish medical texts
KR101607672B1 (en) Apparatus and method for permutation based pattern discovery technique in unstructured clinical documents
Siklósi et al. Automatic structuring and correction suggestion system for Hungarian clinical records
Yan et al. Chemical name extraction based on automatic training data generation and rich feature set
WO2015177861A1 (en) Device and method for generating training data
US20220004708A1 (en) Methods and apparatus to improve disambiguation and interpretation in automated text analysis using structured language space and transducers applied on automatons
Shah et al. Clinical narrative summarization based on the mimic iii dataset
van Cranenburgh Rich statistical parsing and literary language
Sibanda Was the patient cured?: Understanding semantic categories and their relationship in patient records
Landolsi et al. Hybrid medical named entity recognition using document structure and surrounding context
Ho-Dac et al. LITL at CLEF eHealth2016: recognizing entities in French biomedical documents
Born Applications of natural language processing to archaeological decipherment: A survey of proto-Elamite
Grandi ProbQL: A Probabilistic Query Language for Information Extraction from PDF Reports and Natural Language Written Texts
Aguado et al. A Corpus of Spanish clinical records annotated for abbreviation identification
Tatar Automating information extraction task for Turkish texts

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees