JP7166373B2 - 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体 - Google Patents

音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP7166373B2
JP7166373B2 JP2021021396A JP2021021396A JP7166373B2 JP 7166373 B2 JP7166373 B2 JP 7166373B2 JP 2021021396 A JP2021021396 A JP 2021021396A JP 2021021396 A JP2021021396 A JP 2021021396A JP 7166373 B2 JP7166373 B2 JP 7166373B2
Authority
JP
Japan
Prior art keywords
recording
voice
memo
audio
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021021396A
Other languages
English (en)
Other versions
JP2022052695A (ja
Inventor
ジウン シン
ギルファン ファン
イェリム チョン
ヒャンナム オ
デヒョン イム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2022052695A publication Critical patent/JP2022052695A/ja
Application granted granted Critical
Publication of JP7166373B2 publication Critical patent/JP7166373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

以下の説明は、音声をテキストに変換した音声記録を管理する技術に関する。
モバイル音声変換技術の流れとしては、モバイルデバイスで音声を録音し、音声録音が終われば、録音された区間の音声をテキストに変換してディスプレイ上に表示するのが一般的である。
このような音声変換技術の一例として、特許文献1(公開日2014年5月23日)には、音声録音およびテキスト変換を実行する技術が開示されている。
韓国公開特許第10-2014-0062217号公報
録音された音声をテキストに変換した記録と録音された音声に関連して作成されたメモとをマッチングして管理する方法とシステムを提供する。
デュアルビュー(dual view)方式によって音声記録とメモをともに表示する方法とシステムを提供する。
話者やキーワードなどの多様なフィルタリング基準によって音声記録とメモをグルーピングして提供する方法とシステムを提供する。
コンピュータ装置が実行する音声記録管理方法であって、前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記音声記録管理方法は、前記少なくとも1つのプロセッサにより、音声をテキストに変換して音声記録を生成する段階、前記少なくとも1つのプロセッサにより、前記音声の録音中または再生中に作成されたメモを前記音声記録とマッチングして管理する段階、および前記少なくとも1つのプロセッサにより、前記音声記録と前記メモを連係させて提供する段階を含む、音声記録管理方法を提供する。
一側面によると、前記提供する段階は、デュアルビュー方式によって前記音声記録と前記メモをともに表示する段階を含んでよい。
他の側面によると、前記提供する段階は、タイムスタンプを基準として前記音声記録と前記メモを時間的にマッチングして表示する段階を含んでよい。
また他の側面によると、前記提供する段階は、前記音声記録の場合は、話者発声区間のテキストごとに、該当の区間の基点を示すタイムスタンプを表示する段階、および前記メモの場合は、メモごとに、メモ作成時点の音声録音時間または音声再生時間を示すタイムスタンプを表示する段階を含んでよい。
また他の側面によると、前記提供する段階は、前記音声記録に含まれた話者発声区間のテキストに対し、該当の区間に作成されたメモの有無によってメモタグを表示する段階、および前記メモタグが選択される場合、該当のテキストの発声区間に作成されたメモの全文を表示する段階を含んでよい。
また他の側面によると、前記生成する段階は、クライアントが録音した音声ファイルまたは前記クライアントがアップロードした音声ファイルを受信し、話者発声区間に該当する音声データをテキストに変換する段階を含んでよい。
また他の側面によると、前記管理する段階は、前記音声記録のタイムスタンプを基準として前記音声の録音中または再生中に作成されたメモをマッチングして管理してよい。
また他の側面によると、前記管理する段階は、前記音声の話者発声区間に作成されたメモと前記話者発声区間の音声記録をマッチングして管理してよい。
また他の側面によると、前記音声記録管理方法は、前記少なくとも1つのプロセッサにより、前記音声の録音中または再生中に少なくとも1つの話者発声区間にブックマークを記録する段階をさらに含み、前記提供する段階は、前記音声記録に含まれたテキストのうち、ブックマークが記録された話者発声区間のテキストに対して編集機能を提供する段階を含んでよい。
さらに他の側面によると、前記提供する段階は、話者またはキーワードを利用して、前記音声記録と前記メモのうちの少なくとも1つをグルーピングして提供する段階を含んでよい。
前記音声記録管理方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。
コンピュータ装置であって、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、音声をテキストに変換して音声記録を生成する音声記録生成部、前記音声の録音中または再生中に作成されたメモを前記音声記録とマッチングして管理するメモマッチング管理部、および前記音声記録と前記メモを連係させて提供する音声記録提供部を含む、コンピュータ装置を提供する。
本発明の実施形態によると、録音された音声をテキストに変換した記録と録音された音声と関連して作成されたメモをマッチングし、デュアルビューによって表示することにより、音声記録とメモを便利に探索することができる。
本発明の実施形態によると、音声記録とメモを話者またはキーワード別にグルーピングするフィルタリング機能を提供することにより、サービス利用に対するユーザの利便性を向上させることができる。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。 本発明の一実施形態における、コンピュータ装置のプロセッサが含むことのできる構成要素の例を示した図である。 本発明の一実施形態における、コンピュータ装置が実行することのできる方法の例を示したフローチャートである。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。 本発明の一実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態に係る音声記録管理システムは、少なくとも1つのコンピュータ装置によって実現されてよく、本発明の実施形態に係る音声記録管理方法は、音声記録管理システムに含まれる少なくとも1つのコンピュータ装置によって実行されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行するコンピュータプログラムの制御にしたがって本発明の実施形態に係る音声記録管理方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置に結合されて音声記録管理方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。また、図1のネットワーク環境は、本実施形態に適用可能な環境の一例を説明したものに過ぎず、本実施形態に適用可能な環境が図1のネットワーク環境に限定されることはない。
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140にサービス(一例として、音声記録管理サービス(または、議事録管理サービス)、コンテンツ提供サービス、グループ通話サービス(または、音声会議サービス)、メッセージングサービス、メールサービス、ソーシャルネットワークサービス、、地図サービス、翻訳サービス、金融サービス、決済サービス、検索サービスなど)を提供するシステムであってよい。
図2は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。上述した複数の電子機器110、120、130、140それぞれやサーバ150、160それぞれは、図2に示したコンピュータ装置200によって実現されてよい。
このようなコンピュータ装置200は、図2に示すように、メモリ210、プロセッサ220、通信インタフェース230、および入力/出力インタフェース240を含んでよい。メモリ210は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ210とは区分される別の永続的記録装置としてコンピュータ装置200に含まれてもよい。また、メモリ210には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ210とは別のコンピュータ読み取り可能な記録媒体からメモリ210にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース230を通じてメモリ210にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク170を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置200のメモリ210にロードされてよい。
プロセッサ220は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ210または通信インタフェース230によって、プロセッサ220に提供されてよい。例えば、プロセッサ220は、メモリ210のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信インタフェース230は、ネットワーク170を介してコンピュータ装置200が他の装置(一例として、上述した記録装置)と互いに通信するための機能を提供してもよい。一例として、コンピュータ装置200のプロセッサ220がメモリ210のような記録装置に記録されたプログラムコードにしたがって生成した要求や命令、データ、ファイルなどが、通信インタフェース230の制御にしたがってネットワーク170を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク170を経てコンピュータ装置200の通信インタフェース230を通じてコンピュータ装置200に受信されてよい。通信インタフェース230を通じて受信された信号や命令、データなどは、プロセッサ220やメモリ210に伝達されてよく、ファイルなどは、コンピュータ装置200がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース240は、入力/出力装置250とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、マウスなどの装置を、出力装置は、ディスプレイ、スピーカなどのような装置を含んでよい。他の例として、入力/出力インタフェース240は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置250は、コンピュータ装置200と1つの装置で構成されてもよい。
また、他の実施形態において、コンピュータ装置200は、図2の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、コンピュータ装置200は、上述した入力/出力装置250のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。
以下では、音声ファイルに対する記録とメモをともに提供する方法およびシステムの具体的な実施形態について説明する。
最近のモバイルデバイスでは音声録音機能やメモ機能などを提供しており、多くの人が会議のような多様な状況で録音機能を活用するようになった。このとき、録音とは別に、重要な内容や添付の内容などに関しては個別にメモをとることが多々ある。
従来技術では、音声録音機能とメモ機能は個別の機能として提供されていたため、音声録音ファイルとメモを同時に確認することに困難があり、メモを見ながら内容を推測することが多かった。言い換えれば、音声とメモをそれぞれ別に確認するしかなく、これにより、録音された内容の全体の流れを把握しながらメモを確認することに困難があった。
このような問題を解決するために、本実施形態では、録音された音声をテキストに変換した結果(以下、「音声記録」と称する)と、録音された音声と関連して作成されたメモをマッチングして管理する音声記録管理サービスを提供する。
本実施形態は、音声録音およびテキスト変換を含む音声記録機能とメモ機能を統合された1つの機能として提供し、音声記録とメモをマッチングしてともに管理することを目的とする。
図3は、本発明の一実施形態における、コンピュータ装置のプロセッサが含むことのできる構成要素の例を示したブロック図であり、図4は、本発明の一実施形態における、コンピュータ装置が実行することのできる方法の例を示したフローチャートである。
本実施形態に係るコンピュータ装置200は、クライアントを対象に、クライアント上にインストールされた専用アプリケーションやコンピュータ装置200と関連するウェブ/モバイルサイトへの接続によって音声記録管理サービスを提供してよい。コンピュータ装置200には、コンピュータによって実現された音声記録管理システムが構成されてよい。
コンピュータ装置200のプロセッサ220は、図4に係る音声記録管理方法を実行するための構成要素として、図3に示すように、音声記録生成部310、メモマッチング管理部320、および音声記録提供部330を含んでよい。実施形態によって、プロセッサ220の構成要素は、選択的にプロセッサ220に含まれても除外されてもよい。また、実施形態によって、プロセッサ220の構成要素は、プロセッサ220の機能の表現のために分離されても併合されてもよい。
このようなプロセッサ220およびプロセッサ220の構成要素は、図3の音声記録管理方法が含む段階410~430を実行するようにコンピュータ装置200を制御してよい。例えば、プロセッサ220およびプロセッサ220の構成要素は、メモリ210が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる命令(instruction)を実行するように実現されてよい。
ここで、プロセッサ220の構成要素は、コンピュータ装置200に記録されたプログラムコードが提供する命令にしたがってプロセッサ220によって実行される、互いに異なる機能(different functions)の表現であってよい。例えば、コンピュータ装置200が音声記録を生成するように上述した命令にしたがってコンピュータ装置200を制御するプロセッサ220の機能的表現として、音声記録生成部310が利用されてよい。
プロセッサ220は、コンピュータ装置200の制御と関連する命令がロードされたメモリ210から必要な命令を読み取ってよい。この場合、前記読み取られた命令は、以下で説明する段階410~430をプロセッサ220が実行するように制御するための命令を含んでよい。
以下で説明する段階410~430は、図4に示した順とは異なる順で実行されることもあるし、段階410~430のうちの一部が省略されたり追加の過程が含まれたりすることもある。
図4を参照すると、段階410で、音声記録生成部310は、クライアントから受信された音声をテキストに変換して音声記録を生成してよい。クライアント側のデバイスでは、録音機能を実行させて録音した音声ファイルを伝達してもよいし、デバイス上に記録されている音声ファイルを伝達してもよい。音声記録生成部310は、周知の音声認識技術を利用して、話者による発声区間に該当する音声データをテキストに変換した結果である音声記録を生成してよい。このとき、音声記録生成部310は、音声記録を生成する過程において話者ごとに発声区間を分割する話者分割技術を適用してよい。音声記録生成部310は、会議、インタビュー、取引、裁判などのように多くの話者が順不同に発声する状況で録音された音声ファイルの場合には、発声内容を話者ごとに分割して自動記録してよい。
段階420で、メモマッチング管理部320は、クライアントが音声録音中に作成するか音声再生中に作成したメモをクライアントから受信し、段階410で生成された音声記録とマッチングして管理してよい。メモマッチング管理部320は、クライアントが音声を録音した時間を基準として、音声記録中および録音実行中に作成されたメモをマッチングしてよい。音声記録は、話者発声区間の基点を示すタイムスタンプを含んでよく、メモマッチング管理部320は、音声記録のタイムスタンプを基準として該当の区間に作成されたメモをともに管理してよい。これと同じように、メモマッチング管理部320は、音声記録が存在する音声ファイルに対し、クライアントが音声を再生する時間を基準として、音声記録中および音声再生中に作成されたメモをマッチングして記録してよい。言い換えれば、メモマッチング管理部320は、特定の時点の発声区間に作成されたメモを該当の時点の音声記録とマッチングして管理することができる。
段階430で、音声記録提供部330は、クライアントから音声記録に対する選択命令が受信される場合、該当の音声記録を音声記録とマッチングされたメモと連係させて提供してよい。音声記録提供部330は、音声録音中に作成されるか音声再生中に作成されたメモを音声記録とともに簡単かつ便利に確認できるするように、音声記録とメモをデュアルビュー方式によって並べて表示してよい。デュアルビュー方式とは、音声記録とメモを二列に並べて表示する方式であって、これは、音声をテキストに変換した音声記録と該当の音声の録音時間や再生時間に作成されたメモを並べて表示することで対話記録を簡単に探索できるようにするインタフェースを提供するものである。音声記録提供部330は、音声記録とメモをデュアル表示する方式の他にも、クライアントの選択にしたがい、音声記録とメモのうちの1つを単独表示する方式で実現されることも可能である。
図5~15は、本発明の実施形態における、音声記録管理のためのユーザインタフェース画面の例を示した図である。
図5~15は、クライアント上にインストールされた専用アプリケーションやコンピュータ装置200と関連するウェブ/モバイルサイト上のインタフェース画面であって、音声記録管理画面500の例を示している。
図5~9は、音声記録を生成する過程を説明するための音声記録管理画面500の例を示してる。
図5を参照すると、音声記録管理画面500は、音声記録管理サービスのホーム画面構成であって、サービス提供のための主要メニューリストが含まれてよく、一例として、音声記録をフォルダ単位で管理するためのフォルダリスト501が含まれてよい。また、音声記録管理画面500には、新たな音声記録を生成するための「新規ノート作成」メニュー502が含まれてよい。
プロセッサ220は、音声記録管理画面500から「新規ノート作成」メニュー502が選択される場合、図6に示すように、音声記録生成画面610を提供してよい。音声記録生成画面610には、音声記録のタイトルを入力するための「タイトル」入力欄611、参加者情報を入力するための「参加者」入力欄612、音声録音のための「録音開始」メニュー613、音声ファイルをアップロードするための「ファイルアップロード」メニュー614などが含まれてよい。言い換えれば、プロセッサ220は、音声記録を生成するために、録音機能とファイルアップロード機能を提供してよい。
プロセッサ220は、音声記録生成画面610から「録音開始」メニュー613が選択される場合、図7に示すように、音声録音画面720を提供してよい。音声録音画面720は、基本的な録音インタフェースであって、録音が実行された時間情報、録音を一時停止するための一時停止ボタン、録音を終了するための終了ボタンなどが含まれてよい。
特に、音声録音画面720は、録音中にメモを作成できるようにするメモインタフェース721と、録音中にブックマークを記録できるようにするブックマークインタフェース722が含まれてよい。このとき、メモインタフェース721は、テキストによる入力はもちろん、写真や動画撮影機能、ファイル添付機能などが含まれてよい。ユーザは、メモインタフェース721を利用することで、録音中に該当の音声と関連する重要な内容や添付の内容などをメモとして作成することができ、メモの他にも、ブックマークインタフェース722を利用することで、重要区間の録音時点にブックマークを記録することができる。録音実行時間を基準として録音中に入力されたメモやブックマークが記録されてよく、例えば、メモの作成が始まった時点の録音実行時間がメモ作成時間に記録されてよく、ブックマークが入力された時点の録音実行時間がブックマーク指定時間として記録されてよい。
音声記録に対するブックマークとしては、ブックマークインタフェース722を利用した手動設定を説明しているが、これに限定されてはならず、自動設定機能による実現も可能である。例えば、事前に定められた主要キーワード(一例として、音声記録のタイトルやタグなど)が発声される区間にブックマークが自動で記録されるようにしてよい。
プロセッサ220は、音声記録生成画面610から「ファイルアップロード」メニュー614が選択される場合、クライアントが音声ファイルを探索できるようにするためのファイル探索画面を提供し、ファイル探索画面から特定のファイルが選択されれば、図8に示すように、選択されたファイルをアップロードするファイルアップロード画面830を提供してよい。ファイルアップロード画面830には、選択されたファイに関する情報(例えば、ファイル名、ファイルの長さなど)とともに、ファイルアップロードの進行状況を示すプログレスバー831が含まれてよい。
プロセッサ220は、音声録音画面720による音声録音が完了するか、ファイルアップロード画面830によるファイルアップロードが完了すれば、図9に示すように、音声をテキストに変換する音声記録生成過程の進行状況915を音声記録生成画面610に表示してよい。録音の場合は、録音と同時進行で音声ファイルがリアルタイムでアップロードされるか、あるいは録音の完了にともなって録音された音声ファイル全体が一括アップロードされてよい。
プロセッサ220は、音声記録生成過程が完了した音声ファイルに対し、音声記録とメモ(および、ブックマーク)を時間的にマッチングしてともに提供してよい。
図10~15は、音声記録を提供する過程を説明するための音声記録管理画面500の例を示した図である。
図10を参照すると、プロセッサ220は、音声記録管理画面500に提供されたファイルリストから特定の音声記録が選択される場合、該当のタイトルの音声記録に対し、デュアルビュー方式によって音声記録領域1040とメモ領域1050をともに表示してよい。音声記録管理画面500には、音声記録生成過程で入力されたタイトル1041と参加者情報1042が提供されてよく、音声ファイルの再生を制御するためのコントローラ領域1060が含まれてよい。
音声記録領域1040では、各区間の音声を変換したテキストが発声区間ごとに表示されてよい。このとき、音声ファイルでテキストが表示される時点を基準にタイムスタンプが表示されてよい。メモ領域1050には、音声ファイルの録音中に作成されたメモが表示されてよく、各メモには、メモ作成が始まった時点の録音実行時間が該当のメモのタイムスタンプとして表示されてよい。
プロセッサ220は、音声記録領域1040とメモ領域1050を二列で並べて表示してよい。このとき、音声記録領域1040とメモ領域1050は、タイムスタンプを基準にマッチングさせて表示してよい。例えば、話者1が発声した00分02秒時点に作成されたメモは、該当の発声区間のテキストと同一線上に表示してよい。
音声記録領域1040とメモ領域1050をタイムスタンプに基づく同一線上に表示するのではなく、単にそれぞれの時間順にしたがって整列することも可能である。この他にも、音声記録領域1040とメモ領域1050を整列する方式は、デュアルビュー方式の範囲内であれば、いくらでも変更可能である。
コントローラ領域1060には、プログレスバー、再生/一時停止ボタン、早送りボタン、巻き戻しボタン、音量調節ボタンなどが含まれてよく、メモが作成された区間を示すメモインジケータ1061とブックマークが記録された区間を示すブックマークインジケータ1062が、プログレスバー上に表示されてよい。
メモインジケータ1061とブックマークインジケータ1062を一目で区分できるように、インジケータのディスプレイ要素(例えば、色や形状など)を互いに異なるように適用してよい。
プロセッサ220は、ユーザが音声記録領域1040から特定の発声区間のテキストを選択する場合、該当の区間の音声を再生してよい。メモ領域1050から特定のメモを選択する場合も同じように、該当のメモが作成された区間の音声が再生されてもよい。
プロセッサ220は、音声記録領域1040とメモ領域1050の相互間の選択領域を同期化してよい。例えば、ユーザが音声記録領域1040から特定の発声区間のテキストが選択される場合、該当の区間に作成されたメモ領域1050内のメモをハイライト表示してよい。
ユーザは、音声記録領域1040とメモ領域1050を同時に確認することができ、コントローラ領域1060内のプログレスバー上のメモインジケータ1061とブックマークインジケータ1062によって簡単かつ便利な探索が可能となるため、対話内容を一目で把握することが可能となる。
図11を参照すると、プロセッサ220は、音声記録領域1040でブックマークが指定された発声区間のテキストを他の区間のテキストと区別して表示してよく、例えば、該当の区間のテキストに対してブックマークアイコン1171を表示してよい。ブックマークアイコン1171を表示する以外にも、ブックマークが指定された発声区間のテキストにハイライトを適用することも可能である。
また、プロセッサ220は、音声記録領域1040でブックマークが指定された発声区間のテキストに対して「編集」メニュー1172を提供し、ブックマーク区間のテキスト編集を誘導してもよい。
プロセッサ220は、音声記録領域1040でブックマークが指定された発声区間のテキストに対して「編集」メニュー1172が選択される場合、図12に示すように、該当の区間のテキストを編集できるようにする編集画面1270を提供してよい。音声記録領域1040でブックマークが指定された発声区間のテキストは、編集画面1270で編集されたテキストに更新されてよい。
プロセッサ220は、音声記録領域1040に含まれたブックマーク区間の他にも、発声区間のテキストそれぞれに対して編集機能を提供してもよく、メモ領域1050に含まれたメモを編集できるようにする機能を提供してもよい。
また、プロセッサ220は、音声記録領域1040とメモ領域1050に対し、話者やキーワードなどを利用したグルーピングによるフィルタリング機能を提供してよい。
プロセッサ220は、音声記録領域1040から特定の話者が選択される場合、該当の話者の発声区間に対する音声記録とメモのうちの少なくとも1つをグルーピングして表示してよい。言い換えれば、特定の話者が発声した区間の音声記録と該当の話者の発声区間に対して作成されたメモを1つにまとめて表示してよい。
また、プロセッサ220は、ユーザが入力したキーワードを基準に、該当のキーワードを含む音声記録とメモのうちの少なくとも1つをグルーピングして表示することも可能である。キーワードを利用したメモグルーピングの場合は、該当のキーワードを含むメモ、または該当のキーワードを含む発声区間に作成されたメモをグルーピング対象としてよい。話者やキーワードの他にも、音声記録とメモを分類することのできる多様な基準がフィルタリングに活用されてよい。
プロセッサ220は、音声記録領域1040とメモ領域1050をともに表示するデュアルビュー方式の他にも、ユーザの選択にしたがい、音声記録領域1040とメモ領域1050のうちの1つを選択的に表示するビューモードを提供してよい。
図13を参照すると、プロセッサ220は、音声記録領域1040は表示せずにメモ領域1050だけを表示してよい。このとき、音声ファイルの再生を制御するためのコントローラ領域1060がともに提供されてよい。
ユーザは、音声を聞きながらメモ領域1050に含まれたメモの確認が可能となるが、さらに、プロセッサ220は、音声再生中にメモを追加で作成できるようにするインタフェースを提供してよい。
図14を参照すると、プロセッサ220は、メモ領域1050は表示せずに音声記録領域1040だけを表示してよい。このとき、音声ファイルの再生を制御するためのコントローラ領域1060がともに提供されてよい。
音声記録領域1040だけを表示するビューモードでは、音声記録領域1040でメモが作成された発声区間のテキストを他の区間のテキストと区別して表示してよく、例えば、該当のテキストの発声区間には作成されたメモが存在することを示すタグとしてメモアイコン1441を表示してよい。
プロセッサ220は、音声記録領域1040から特定のテキストのメモアイコン1441が選択される場合、図15に示すように、該当のテキストの発声区間に作成されたメモの全文1580を表示してよい。
音声記録領域1040とメモ領域1050をともに表示するデュアルビューモードはもちろん、音声記録領域1040とメモ領域1050のうちの1つを選択的に表示するビューモードでも、相互間の探索と確認を可能にするインタフェースが提供されてよい。
このように、本発明の実施形態によると、録音された音声をテキストに変換した記録と録音された音声と関連して作成されたメモをマッチングしてデュアルビューとして表示することにより、音声記録とメモを便利に探索することができる。
また、本発明の実施形態によると、音声記録とメモを話者またはキーワードごとにグルーピングするフィルタリング機能を提供することにより、サービス利用に対するユーザの利便性を向上させることができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者であれば、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
222:プロセッサ
310:音声記録生成部
320:メモマッチング管理部
330:音声記録提供部

Claims (18)

  1. コンピュータ装置が実行する音声記録管理方法であって、
    前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
    前記音声記録管理方法は、
    前記少なくとも1つのプロセッサにより、音声をテキストに変換して音声記録を生成する段階、
    前記少なくとも1つのプロセッサにより、前記音声の録音中または再生中に作成されたメモを前記音声記録とマッチングして管理する段階、および
    前記少なくとも1つのプロセッサにより、前記音声記録と前記メモを連係させて提供する段階
    を含み、
    前記提供する段階は、
    前記音声記録に含まれた話者発声区間のテキストに対し、該当の区間に作成されたメモの有無によってメモタグを表示する段階、および
    前記メモタグが選択される場合、該当のテキストの発声区間に作成されたメモの全文を表示する段階
    を含む、
    音声記録管理方法。
  2. 前記提供する段階は、
    デュアルビュー方式によって前記音声記録と前記メモをともに表示する段階
    を含む、請求項1に記載の音声記録管理方法。
  3. 前記提供する段階は、
    タイムスタンプを基準として前記音声記録と前記メモを時間的にマッチングして表示する段階
    を含む、請求項1に記載の音声記録管理方法。
  4. 前記提供する段階は、
    前記音声記録について、話者発声区間のテキストごとに、該当の区間の基点を示すタイムスタンプを表示する段階、および
    前記メモについて、メモごとに、メモ作成時点の音声録音時間または音声再生時間を示すタイムスタンプを表示する段階
    を含む、請求項1に記載の音声記録管理方法。
  5. 前記生成する段階は、
    クライアントが録音した音声ファイルまたは前記クライアントがアップロードした音声ファイルを受信し、話者発声区間に該当する音声データをテキストに変換する段階
    を含む、請求項1に記載の音声記録管理方法。
  6. 前記管理する段階は、
    前記音声記録のタイムスタンプを基準として前記音声の録音中または再生中に作成されたメモをマッチングして管理すること
    を特徴とする、請求項1に記載の音声記録管理方法。
  7. 前記音声の話者発声区間に作成されたメモを前記話者発声区間の音声記録とマッチングして管理する段階は、
    前記音声の話者発声区間ごとに、作成されたメモを前記話者発声区間の音声記録とマッチングして管理すること
    を特徴とする、請求項1に記載の音声記録管理方法。
  8. コンピュータ装置が実行する音声記録管理方法であって、
    前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
    前記音声記録管理方法は、
    前記少なくとも1つのプロセッサにより、音声をテキストに変換して音声記録を生成する段階、
    前記少なくとも1つのプロセッサにより、前記音声の録音中または再生中に作成されたメモを前記音声記録とマッチングして管理する段階、および
    前記少なくとも1つのプロセッサにより、前記音声記録と前記メモを連係させて提供する段階
    を含み、
    前記音声記録管理方法は、
    前記少なくとも1つのプロセッサにより、前記音声の録音中または再生中に少なくとも1つの話者発声区間にブックマークを記録する段階
    をさらに含み、
    前記提供する段階は、
    前記音声記録に含まれたテキストのうち、ブックマークが記録された話者発声区間のテキストに対して編集機能を提供する段階
    を含む、音声記録管理方法。
  9. 前記提供する段階は、
    話者またはキーワードを利用して、前記音声記録と前記メモのうちの少なくとも1つをグルーピングして提供する段階
    を含む、請求項1に記載の音声記録管理方法。
  10. 請求項1~のうちのいずれか一項に記載の音声記録管理方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体。
  11. コンピュータ装置であって、
    メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサは、
    音声をテキストに変換して音声記録を生成する音声記録生成部、
    前記音声の録音中または再生中に作成されたメモを前記音声記録とマッチングして管理するメモマッチング管理部、および
    前記音声記録と前記メモと連係させて提供する音声記録提供部
    を含み、
    前記音声記録提供部は、
    前記音声記録に含まれた話者発声区間のテキストに対し、該当の区間に作成されたメモの有無によってメモタグを表示し、
    前記メモタグが選択される場合、該当のテキストの発声区間に作成されたメモの全文を表示すること
    を特徴とする、
    コンピュータ装置。
  12. 前記音声記録提供部は、
    デュアルビュー方式によって前記音声記録と前記メモをともに表示すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  13. 前記音声記録提供部は、
    タイムスタンプを基準として前記音声記録と前記メモを時間的にマッチングして表示すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  14. 前記音声記録提供部は、
    前記音声記録の場合は、話者発声区間のテキストごとに、該当の区間の基点を示すタイムスタンプを表示し、
    前記メモの場合は、メモごとに、メモ作成時点の音声録音時間または音声再生時間を示すタイムスタンプを表示すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  15. 前記音声記録生成部は、
    クライアントが録音した音声ファイルまたは前記クライアントがアップロードした音声ファイルを受信し、話者発声区間に該当する音声データをテキストに変換すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  16. 前記メモマッチング管理部は、
    前記音声記録のタイムスタンプを基準として前記音声の録音中または再生中に作成されたメモをマッチングして管理すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  17. コンピュータ装置であって、
    メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサは、
    音声をテキストに変換して音声記録を生成する音声記録生成部、
    前記音声の録音中または再生中に作成されたメモを前記音声記録とマッチングして管理するメモマッチング管理部、および
    前記音声記録と前記メモと連係させて提供する音声記録提供部
    を含み、
    前記メモマッチング管理部は、
    前記音声の録音中または再生中に少なくとも1つの話者発声区間にブックマークを記録し、
    前記音声記録提供部は、
    前記音声記録に含まれたテキストのうち、ブックマークが記録された話者発声区間のテキストに対して編集機能を提供すること
    を特徴とする、
    ンピュータ装置。
  18. 前記音声記録提供部は、
    話者またはキーワードを利用して、前記音声記録と前記メモのうちの少なくとも1つをグルーピングして提供すること
    を特徴とする、請求項11に記載のコンピュータ装置。
JP2021021396A 2020-09-23 2021-02-15 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体 Active JP7166373B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200122847A KR102427213B1 (ko) 2020-09-23 2020-09-23 음성 파일에 대한 텍스트 변환 기록과 메모를 함께 관리하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
KR10-2020-0122847 2020-09-23

Publications (2)

Publication Number Publication Date
JP2022052695A JP2022052695A (ja) 2022-04-04
JP7166373B2 true JP7166373B2 (ja) 2022-11-07

Family

ID=80948336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021021396A Active JP7166373B2 (ja) 2020-09-23 2021-02-15 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JP7166373B2 (ja)
KR (2) KR102427213B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238050A (ja) 2009-03-31 2010-10-21 Nec Corp 閲覧システム、方法、およびプログラム
JP2016163028A (ja) 2015-03-05 2016-09-05 トヨタ自動車株式会社 熱電材料の製造方法
JP2018097239A (ja) 2016-12-15 2018-06-21 カシオ計算機株式会社 音声再生装置及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844903B1 (ko) * 2011-08-31 2018-04-04 삼성전자 주식회사 데이터 복합 기록 지원 방법 및 이를 지원하는 단말기
KR102042265B1 (ko) * 2012-03-30 2019-11-08 엘지전자 주식회사 이동 단말기
CN107430851B (zh) * 2015-04-10 2021-01-12 株式会社东芝 发言提示装置及发言提示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238050A (ja) 2009-03-31 2010-10-21 Nec Corp 閲覧システム、方法、およびプログラム
JP2016163028A (ja) 2015-03-05 2016-09-05 トヨタ自動車株式会社 熱電材料の製造方法
JP2018097239A (ja) 2016-12-15 2018-06-21 カシオ計算機株式会社 音声再生装置及びプログラム

Also Published As

Publication number Publication date
KR20220110689A (ko) 2022-08-09
KR102427213B1 (ko) 2022-08-01
KR20220040083A (ko) 2022-03-30
JP2022052695A (ja) 2022-04-04

Similar Documents

Publication Publication Date Title
US10192583B2 (en) Video editing using contextual data and content discovery using clusters
US10333876B2 (en) Method and system for communicating between a sender and a recipient via a personalized message including an audio clip extracted from a pre-existing recording
US10560410B2 (en) Method and system for communicating between a sender and a recipient via a personalized message including an audio clip extracted from a pre-existing recording
CN107256215A (zh) 使用媒体文件加载移动计算设备
US20220130427A1 (en) Text-driven editor for audio and video assembly
US10580394B2 (en) Method, client and computer storage medium for processing information
CN110324718A (zh) 音视频生成方法、装置、电子设备及可读介质
US20200137011A1 (en) Method and system for communicating between a sender and a recipient via a personalized message including an audio clip extracted from a pre-existing recording
TWI807428B (zh) 一同管理與語音檔有關的文本轉換記錄和備忘錄的方法、系統及電腦可讀記錄介質
JP7254842B2 (ja) アプリとウェブサイトの連動によって音声ファイルに対するメモを作成する方法、システム、およびコンピュータ読み取り可能な記録媒体
US20130204414A1 (en) Digital audio communication system
JP7166373B2 (ja) 音声ファイルに対するテキスト変換記録とメモをともに管理する方法、システム、およびコンピュータ読み取り可能な記録媒体
JP7185712B2 (ja) 人工知能デバイスと連動して音声記録を管理する方法、コンピュータ装置、およびコンピュータプログラム
KR102353797B1 (ko) 영상 컨텐츠에 대한 합성음 실시간 생성에 기반한 컨텐츠 편집 지원 방법 및 시스템
JP7166370B2 (ja) 音声記録のための音声認識率を向上させる方法、システム、およびコンピュータ読み取り可能な記録媒体
JP7183316B2 (ja) 音声記録検索方法、コンピュータ装置およびコンピュータプログラム
KR102677498B1 (ko) 음성을 텍스트로 변환한 음성 기록에서 유사 발음의 단어를 포함하여 검색하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
JP7128222B2 (ja) 映像コンテンツに対する合成音のリアルタイム生成を基盤としたコンテンツ編集支援方法およびシステム
CN110209870A (zh) 音乐日志生成方法、装置、介质和计算设备
JP7282111B2 (ja) 画像コミュニケーションサービスと連動して対話を記録する方法、システム、およびコンピュータ読み取り可能な記録媒体
US9471205B1 (en) Computer-implemented method for providing a media accompaniment for segmented activities

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350