JP7004944B2 - コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 - Google Patents
コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP7004944B2 JP7004944B2 JP2020541526A JP2020541526A JP7004944B2 JP 7004944 B2 JP7004944 B2 JP 7004944B2 JP 2020541526 A JP2020541526 A JP 2020541526A JP 2020541526 A JP2020541526 A JP 2020541526A JP 7004944 B2 JP7004944 B2 JP 7004944B2
- Authority
- JP
- Japan
- Prior art keywords
- output result
- audio
- server
- face
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/487—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/402—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
- H04L65/4025—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services where none of the additional parallel sessions is real time or time sensitive, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/06—Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/52—Network services specially adapted for the location of the user terminal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Library & Information Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
マルチメディア素材および地理的位置情報を取得することと、
マルチメディア素材および地理的位置情報をサーバにアップロードすることと、
ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示することであって、第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力した後に取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものであることと、
ユーザコンテンツを生成することであって、当該ユーザコンテンツは、第1出力結果および第2出力結果を含むこととを含む。
端末によってアップロードされたマルチメディア素材および地理的位置情報を受信することと、
マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得することと、
第1出力結果と地理的位置情報を組み合わせて、第2出力結果を取得することと、
第1出力結果および第2出力結果を端末に送信することと、
端末がネットワークコミュニティプラットフォームを介して送信したユーザコンテンツを受信することであって、当該ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含むこととを含む。
マルチメディア素材および地理的位置情報を取得するように構成される取得モジュールと、
マルチメディア素材および地理的位置情報をサーバにアップロードするように構成されるアップロードモジュールと、
ユーザインターフェースで、サーバによって送信された第1出力結果および第2出力結果を表示するように構成される表示モジュールであって、第1出力結果は、サーバがマルチメディア素材を人工知能モデルに入力した後取得したものであり、第2出力結果は、サーバが第1出力結果と地理的位置情報を組み合わせて取得したものであり、
ユーザコンテンツを生成するように構成される生成モジュールであって、当該ユーザコンテンツは第1出力結果および第2出力結果を含む生成モジュールとを備える。
端末によってアップロードされたマルチメディア素材および地理的位置情報を受信するように構成される第2受信モジュールと、
マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得するように構成される入力モジュールと、
第1出力結果と地理的位置情報を組み合わせて、第2出力結果を取得するように構成される結合モジュールと、
第1出力結果および第2出力結果を端末に送信するように構成される第2送信モジュールとを備え、
第2送信モジュールは、端末がネットワークコミュニティプラットフォームを介して送信した、第1出力結果および前記第2出力結果を含むユーザコンテンツを受信するように更に構成される。
前記第1出力結果は、前記サーバが前記画像素材の前記顔領域を顔処理モデルに入力した後に取得したものであり、
ここで、前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つの処理を実行するために使用される。
前記第2出力結果は、顔の類似度ランキング情報を含み、
前記顔の類似度ランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第1類似度セットを取得し、前記第1類似度セットの配列順番に従って決定したものであり、前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含む。
前記第2出力結果は、顔の魅力値のランキング情報を含み、
前記顔の魅力値のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の顔の魅力値セットを取得し、前記顔の魅力値セットの配列順番に従って決定したものであり、前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含む。
前記第1出力結果は、前記サーバが前記オーディオ素材をサウンド処理モデルに入力した後に取得したものであり、
ここで、前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用される。
前記第2出力結果は、ボイスチェンジのランキング情報を含み、
前記ボイスチェンジのランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオのボイスチェンジセットを取得し、前記オーディオのボイスチェンジセットの配列順番に従って決定したものであり、前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含む。
前記第2出力結果は、年齢のランキング情報を含み、
前記年齢のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオ年齢セットを取得し、前記オーディオ年齢セットの配列順番に従って決定したものであり、前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含む。
前記第2出力結果は、オーディオ類似度のランキング情報を含み、
前記オーディオ類似度のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第2類似度セットを取得し、前記第2類似度セットの配列順番に従って決定したものであり、前記第2類似度セットは、他のオーディオ素材と前記オーディオ素材サンプルの間の少なくとも1つの類似度を含む。
前記サーバにサウンド処理オプションを送信するように構成され第1送信モジュール1550をさらに備え、前記サウンド処理オプションは、前記サーバが前記オーディオ素材を、前記サウンド処理オプションに対応するサウンド処理モデルに入力するように指示するために使用される。
前記コンテンツ投稿装置が、
前記サーバによって送信された前記マップを受信するように構成される第1受信モジュール1560をさらに備え、
前記表示モジュール1530は、さらに前記ユーザインターフェースで前記マップを表示するように構成され、前記マップ内の前記地理的位置情報に対応する位置ポイントで、前記ユーザコンテンツの識別子が表示される。
前記表示モジュール1530は、前記タッチ信号に従って、前記ユーザインターフェースで、前記識別子に対応する前記ユーザコンテンツを表示するようにさらに構成される。
前記地理的位置情報に対応する地理的領域を取得するように構成される取得ユニット1731と、
前記取得ユニット1731は、前記地理的領域における前記第1出力結果のタイプに対応する同じタイプの出力結果セットを取得するようにさらに構成され、前記同じタイプの出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含み、
前記同じタイプの出力結果セットの配列順番に従って、前記第2出力結果を決定するように構成される決定ユニット1732とを備える。
前記入力モジュール1720が、
前記画像素材に顔領域が含まれているかどうかを検出するように構成される検出ユニット1721と、
前記画像素材に前記顔領域が含まれている場合、前記顔領域を顔処理モデルに入力して、前記第1出力結果を取得するように構成される第1入力ユニット1722とを備え、
ここで、前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つ処理を実行するために使用される。
前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含み、前記他の顔領域は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記第1類似度セットの配列順番に従って、前記顔領域の類似度ランキング情報を前記第2出力結果として生成するようにさらに構成される。
前記決定ユニット1732は、前記地理的領域および前記顔の魅力値セットの配列順番に従って、生成前記顔領域的顔の魅力値のランキング情報を前記第2出力結果として生成するようにさらに構成される。
前記入力モジュール1720が、
前記オーディオ素材をサウンド処理モデルに入力して、前記第1出力結果を取得するように構成される第2入力ユニット1723を備え、
ここで、前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用される。
前記第2入力ユニット1723は、前記オーディオ素材をオーディオのボイスチェンジモデルに入力して、前記オーディオのボイスチェンジ結果を取得するようにさらに構成される。
前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含み、前記他のオーディオ素材は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記オーディオのボイスチェンジセットの配列順番に従って、前記オーディオ素材のボイスチェンジのランキング情報を前記第2出力結果として生成するようにさらに構成される。
前記第2入力ユニット1723は、前記オーディオ素材をオーディオ検出モデルに入力して、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を取得するようにさらに構成される。
前記第2類似度セットは、他の少なくとも1つのオーディオ素材とオーディオ素材サンプルの間の類似度を含み、前記他のオーディオ素材は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記第2類似度セットの配列順番に従って、オーディオ類似度のランキング情報を前記第2出力結果として生成するようにさらに構成される。
前記第2入力ユニット1723は、前記オーディオ素材をオーディオサウンド特徴抽出モデルに入力して、前記オーディオ素材に対応する年齢情報を取得するようにさらに構成される。
前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含み、前記他のオーディオ素材は、前記地理的領域にある端末によってアップロードされたものであり、
前記決定ユニット1732は、前記地理的領域および前記オーディオ年齢セットの配列順番に従って、年齢のランキング情報を前記第2出力結果として生成するようにさらに構成される。
前記コンテンツ投稿装置が、
前記サウンド処理オプションに対応する前記サウンド処理モデルを取得するように構成される第2取得モジュール1750をさらに備える。
マップで前記地理的位置情報に対応する位置ポイントを決定するように構成される決定モジュール1760と、
前記ユーザコンテンツを前記マップ内の前記位置ポイントに関連付けるように構成される関連付けモジュール1770とをさらに備え、
前記第2受信モジュール1710は、前記ネットワークコミュニティプラットフォームを介して、ターゲット端末によって送信されたマップビュー要求を受信するようにさらに構成され、
前記第2送信モジュール1740は、前記マップビュー要求に従って、前記ユーザコンテンツに関連付けられた前記マップを、前記ネットワークコミュニティプラットフォームを介して前記ターゲット端末に送信するようにさらに構成され、前記ターゲット端末は、前記端末および/または他の端末を含む。
1102 メモリ
1103 ネットワークインタフェース
1510 第1取得モジュール
1520 アップロードモジュール
1530 表示モジュール
1540 生成モジュール
1550 第1送信モジュール
1560 第1受信モジュール
1710 第2受信モジュール
1720 入力モジュール
1721 検出ユニット
1722 第1入力ユニット
1723 第2入力ユニット
1730 結合モジュール
1731 取得ユニット
1732 決定ユニット
1740 第2送信モジュール
1750 第2取得モジュール
1760 決定モジュール
1770 関連付けモジュール
Claims (28)
- 端末が実行する、コンテンツ投稿方法であって、
マルチメディア素材および地理的位置情報を取得することと、
前記マルチメディア素材および前記地理的位置情報をサーバにアップロードすることと、
ユーザインターフェースに前記サーバによって送信された第1出力結果および第2出力結果を表示することであって、前記第1出力結果は、前記サーバが前記マルチメディア素材を人工知能モデルに入力した後に取得したものであり、前記第2出力結果は、前記サーバが取得した、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含むことと、
ユーザコンテンツを生成することであって、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含むこととを含むことを特徴とする、前記コンテンツ投稿方法。 - 前記ランキング情報は、前記サーバが前記地理的位置情報に対応する前記地理的領域を取得した後、地理的領域における前記第1出力結果のタイプに対応する出力結果セットを決定し、前記出力結果セットの配列順番に従って決定したものであることを特徴とする、
請求項1に記載のコンテンツ投稿方法。 - 前記マルチメディア素材は画像素材であり、前記画像素材は顔領域を含み、
前記第1出力結果は、前記サーバが前記画像素材の前記顔領域を顔処理モデルに入力した後に取得したものであり、
前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つの処理を実行するために使用されることを特徴とする、
請求項2に記載のコンテンツ投稿方法。 - 前記第1出力結果は、前記顔領域と顔サンプルの間の第1類似度を含み、
前記第2出力結果は、顔の類似度ランキング情報を含み、
前記顔の類似度ランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第1類似度セットを取得し、前記第1類似度セットの配列順番に従って決定したものであり、前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
請求項3に記載のコンテンツ投稿方法。 - 前記第1出力結果は魅力値を含み、前記魅力値は、前記サーバが前記顔領域を顔分析モデルに入力して取得したものであり、
前記第2出力結果は、顔の魅力値のランキング情報を含み、
前記顔の魅力値のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の顔の魅力値セットを取得し、前記顔の魅力値セットの配列順番に従って決定したものであり、前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含むことを特徴とする、
請求項3に記載のコンテンツ投稿方法。 - 前記マルチメディア素材はオーディオ素材であり、
前記第1出力結果は、前記サーバが前記オーディオ素材をサウンド処理モデルに入力した後に取得したものであり、
前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用されることを特徴とする、
請求項2に記載のコンテンツ投稿方法。 - 前記第1出力結果は、オーディオのボイスチェンジ結果を含み、前記オーディオのボイスチェンジ結果は、前記サーバが前記オーディオ素材をオーディオのボイスチェンジモデルに入力した後に取得したものであり、
前記第2出力結果は、ボイスチェンジのランキング情報を含み、
前記ボイスチェンジのランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオのボイスチェンジセットを取得し、前記オーディオのボイスチェンジセットの配列順番に従って決定したものであり、前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含むことを特徴とする、
請求項6に記載のコンテンツ投稿方法。 - 前記第1出力結果は、前記オーディオ素材に対応する年齢情報を含み、前記オーディオ素材に対応する年齢情報は、前記サーバが前記オーディオ素材をサウンド特徴抽出モデルに入力した後に取得したものであり、
前記第2出力結果は、年齢のランキング情報を含み、
前記年齢のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオ年齢セットを取得し、前記オーディオ年齢セットの配列順番に従って決定したものであり、前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含むことを特徴とする、
請求項6に記載のコンテンツ投稿方法。 - 前記第1出力結果は、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を含み、前記第2類似度は、前記サーバが前記オーディオ素材をオーディオ検出モデルに入力した後に取得したものであり、
前記第2出力結果は、オーディオ類似度のランキング情報を含み、
前記オーディオ類似度のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第2類似度セットを取得し、前記第2類似度セットの配列順番に従って決定したものであり、前記第2類似度セットは、他のオーディオ素材と前記オーディオ素材サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
請求項6に記載のコンテンツ投稿方法。 - 前記ユーザインターフェースで、前記サーバによって送信された第1出力結果および第2出力結果を表示する前に、前記コンテンツ投稿方法は、
前記サーバにサウンド処理オプションを送信することをさらに含み、前記サウンド処理オプションは、前記サーバが前記オーディオ素材を、前記サウンド処理オプションに対応するサウンド処理モデルに入力するように指示するために使用されることを特徴とする、
請求項6ないし9のいずれか一項に記載のコンテンツ投稿方法。 - 前記コンテンツ投稿方法は、
前記サーバにマップビュー要求を送信することであって、前記マップビュー要求は、前記ユーザコンテンツに関連付けるマップのビューを要求するために使用されることと、
前記サーバによって送信された前記マップを受信することと、
前記ユーザインターフェースで前記マップを表示することであって、前記マップ内の、前記地理的位置情報に対応する位置ポイントで、前記ユーザコンテンツの識別子を表示することとをさらに含むことを特徴とする、
請求項1ないし9のいずれか一項に記載のコンテンツ投稿方法。 - 前記ユーザインターフェースで前記マップを表示した後、前記コンテンツ投稿方法は、
前記識別子に対するタッチ信号を受信することと、
前記タッチ信号に従って、前記ユーザインターフェースで、前記識別子に対応する前記ユーザコンテンツを表示することとをさらに含むことを特徴とする、
請求項11に記載のコンテンツ投稿方法。 - コンテンツ投稿方法であって、
サーバに適用され、
端末によってアップロードされたマルチメディア素材および地理的位置情報を受信することと、
前記マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得することと、
前記第1出力結果と前記地理的位置情報を組み合わせて、第2出力結果を取得することと、
前記第1出力結果および前記第2出力結果を前記端末に送信することと、
ネットワークコミュニティプラットフォームを介して、前記端末によって送信されたユーザコンテンツを受信することであって、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含むこととを含み、
前記第2出力結果は、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含むことを特徴とする、前記コンテンツ投稿方法。 - コンテンツ投稿装置であって、
1つまたは複数のプロセッサ、および
メモリを備え、
前記メモリに1つまたは複数のプログラムが記憶され、前記1つまたは複数のプログラムは、前記1つまたは複数のプロセッサによって実行されるように構成され、前記1つまたは複数のプログラムは、
マルチメディア素材および地理的位置情報を取得し、
前記マルチメディア素材および前記地理的位置情報をサーバにアップロードし、
ユーザインターフェースで、前記サーバによって送信された第1出力結果および第2出力結果を表示し、前記第1出力結果は、前記サーバが前記マルチメディア素材を人工知能モデルに入力して取得したものであり、前記第2出力結果は、前記サーバが取得した、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含み、
コンテンツを生成する操作を実行するための命令を含み、前記コンテンツは、前記第1出力結果および前記第2出力結果を含むことを特徴とする、前記コンテンツ投稿装置。 - 前記ランキング情報は、前記サーバが前記地理的位置情報に対応する前記地理的領域を取得した後、地理的領域における前記第1出力結果のタイプに対応する出力結果セットを決定し、前記出力結果セットの配列順番に従って決定したものであることを特徴とする、
請求項14に記載のコンテンツ投稿装置。 - 前記マルチメディア素材は画像素材であり、前記画像素材は顔領域を含み、
前記第1出力結果は、前記サーバが前記画像素材の前記顔領域を顔処理モデルに入力した後に取得したものであり、
前記顔処理モデルは、前記顔領域に対して顔の類似度検出および顔の特徴分析の少なくとも1つの処理を実行するために使用されることを特徴とする、
請求項15に記載のコンテンツ投稿装置。 - 前記第1出力結果は、前記顔領域と顔サンプルの間の第1類似度を含み、
前記第2出力結果は、顔の類似度ランキング情報を含み、
前記顔の類似度ランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第1類似度セットを取得し、前記第1類似度セットの配列順番に従って決定したものであり、前記第1類似度セットは、他の顔領域と前記顔サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
請求項16に記載のコンテンツ投稿装置。 - 前記第1出力結果は魅力値を含み、前記魅力値は、前記サーバが前記顔領域を顔分析モデルに入力して取得したものであり、
前記第2出力結果は、顔の魅力値のランキング情報を含み、
前記顔の魅力値のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の顔の魅力値セットを取得し、前記顔の魅力値セットの配列順番に従って決定したものであり、前記顔の魅力値セットは、他の顔領域の少なくとも1つの魅力値を含むことを特徴とする、
請求項16に記載のコンテンツ投稿装置。 - 前記マルチメディア素材はオーディオ素材であり、
前記第1出力結果は、前記サーバが前記オーディオ素材をサウンド処理モデルに入力した後に取得したものであり、
前記サウンド処理モデルは、前記オーディオ素材に対して、ボイスチェンジ、サウンド特徴抽出、サウンド類似度検出のうちの少なくとも1つの処理を実行するために使用されることを特徴とする、
請求項15に記載のコンテンツ投稿装置。 - 前記第1出力結果は、オーディオのボイスチェンジ結果を含み、前記オーディオのボイスチェンジ結果は、前記サーバが前記オーディオ素材をオーディオのボイスチェンジモデルに入力して取得したものであり、
前記第2出力結果は、ボイスチェンジのランキング情報を含み、
前記ボイスチェンジのランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオのボイスチェンジセットを取得し、前記オーディオのボイスチェンジセットの配列順番に従って決定したものであり、前記オーディオのボイスチェンジセットは、他のオーディオ素材の少なくとも1つのボイスチェンジ結果を含むことを特徴とする、
請求項19に記載のコンテンツ投稿装置。 - 前記第1出力結果は、前記オーディオ素材に対応する年齢情報を含み、前記オーディオ素材に対応する年齢情報は、前記サーバが前記オーディオ素材をサウンド特徴抽出モデルに入力した後に取得したものであり、
前記第2出力結果は、年齢のランキング情報を含み、
前記年齢のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域のオーディオ年齢セットを取得し、前記オーディオ年齢セットの配列順番に従って決定したものであり、前記オーディオ年齢セットは、他のオーディオ素材のオーディオに対応する少なくとも1つの年齢情報を含むことを特徴とする、
請求項19に記載のコンテンツ投稿装置。 - 前記第1出力結果は、前記オーディオ素材とオーディオ素材サンプルの間の第2類似度を含み、前記第2類似度は、前記サーバが前記オーディオ素材をオーディオ検出モデルに入力した後に取得したものであり、
前記第2出力結果は、オーディオ類似度のランキング情報を含み、
前記オーディオ類似度のランキング情報は、前記サーバが前記地理的位置情報に対応する地理的領域を取得した後、前記地理的領域の第2類似度セットを取得し、前記第2類似度セットの配列順番に従って決定したものであり、前記第2類似度セットは、他のオーディオ素材と前記オーディオ素材サンプルの間の少なくとも1つの類似度を含むことを特徴とする、
請求項19に記載のコンテンツ投稿装置。 - 前記1つまたは複数のプログラムは、
前記サーバにサウンド処理オプションを送信する操作を実行するための命令をさらに含み、前記サウンド処理オプションは、前記オーディオ素材を、前記サウンド処理オプションに対応するサウンド処理モデルに入力するように前記サーバに指示するために使用されることを特徴とする、
請求項19ないし22のいずれか一項に記載のコンテンツ投稿装置。 - 前記1つまたは複数のプログラムは、
前記サーバにマップビュー要求を送信し、前記マップビュー要求は、ユーザコンテンツに関連付けるマップのビューを要求するために使用され、
前記サーバによって送信された前記マップを受信し、
前記ユーザインターフェースで前記マップを表示し、前記マップ内の前記地理的位置情報に対応する位置ポイントで、前記ユーザコンテンツの識別子を表示する操作を実行するための命令をさらに含むことを特徴とする、
請求項14ないし22のいずれか一項に記載のコンテンツ投稿装置。 - 前記1つまたは複数のプログラムは、
前記識別子に対するタッチ信号を受信し、
前記タッチ信号に従って、前記ユーザインターフェースで、前記識別子に対応する前記ユーザコンテンツを表示する操作を実行するための命令をさらに含むことを特徴とする、
請求項24に記載のコンテンツ投稿装置。 - コンテンツ投稿装置であって、
1つまたは複数のプロセッサ、およびメモリを備え、
前記メモリに1つまたは複数のプログラムが記憶され、前記1つまたは複数のプログラムは、前記1つまたは複数のプロセッサによって実行されるように構成され、前記1つまたは複数のプログラムは、
端末によってアップロードされたマルチメディア素材および地理的位置情報を受信し、
前記マルチメディア素材を人工知能モデルに入力して、第1出力結果を取得し、
前記第1出力結果と前記地理的位置情報を組み合わせて、第2出力結果を取得し、
前記第1出力結果および前記第2出力結果を前記端末に送信し、
前記端末がネットワークコミュニティプラットフォームを介して送信したユーザコンテンツを受信する操作を実行するための命令を含み、前記ユーザコンテンツは、前記第1出力結果および前記第2出力結果を含み、
前記第2出力結果は、前記地理的位置情報に対応する地理的領域における前記第1出力結果のタイプに対応する出力結果セットのランキング情報を含み、前記出力結果セットは、他のマルチメディア素材を前記人工知能モデルに入力して取得した少なくとも1つの出力結果を含むことを特徴とする、前記コンテンツ投稿装置。 - コンピュータ機器であって、
プロセッサ、およびメモリを備え、
前記メモリに、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1セグメントのプログラム、前記コードセットまたは命令セットが、前記プロセッサによってロードおよび実行されると、請求項1ないし13のいずれか一項に記載のコンテンツ投稿方法を実現することを特徴とする、前記コンピュータ機器。 - コンピュータ読み取り可能な記憶媒体であって、前記読み取り可能な記憶媒体に、少なくとも1つの命令、少なくとも1セグメントのプログラム、コードセットまたは命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1セグメントのプログラム、前記コードセットまたは命令セットが、プロセッサによってロードおよび実行されると、請求項1ないし13のいずれか一項に記載のコンテンツ投稿方法を実現することを特徴とする、前記コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810117665.9A CN108270794B (zh) | 2018-02-06 | 2018-02-06 | 内容发布方法、装置及可读介质 |
CN201810117665.9 | 2018-02-06 | ||
PCT/CN2019/073900 WO2019154216A1 (zh) | 2018-02-06 | 2019-01-30 | 内容发布方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513699A JP2021513699A (ja) | 2021-05-27 |
JP7004944B2 true JP7004944B2 (ja) | 2022-01-21 |
Family
ID=62773565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541526A Active JP7004944B2 (ja) | 2018-02-06 | 2019-01-30 | コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11429659B2 (ja) |
JP (1) | JP7004944B2 (ja) |
CN (1) | CN108270794B (ja) |
WO (1) | WO2019154216A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108270794B (zh) * | 2018-02-06 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 内容发布方法、装置及可读介质 |
US10769428B2 (en) * | 2018-08-13 | 2020-09-08 | Google Llc | On-device image recognition |
CN111597468B (zh) * | 2020-05-08 | 2023-08-18 | 腾讯科技(深圳)有限公司 | 社交内容的生成方法、装置、设备及可读存储介质 |
CN111601115B (zh) * | 2020-05-12 | 2022-03-01 | 腾讯科技(深圳)有限公司 | 一种视频检测的方法、相关装置、设备及存储介质 |
CN112364219A (zh) * | 2020-10-26 | 2021-02-12 | 北京五八信息技术有限公司 | 内容发布方法、装置、电子设备及存储介质 |
CN114654884B (zh) * | 2020-12-22 | 2023-06-06 | 精工爱普生株式会社 | 印刷条件设定方法、印刷条件设定*** |
CN113055709B (zh) * | 2021-03-08 | 2023-05-09 | 北京达佳互联信息技术有限公司 | 视频发布方法、装置、设备、存储介质及程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013501975A (ja) | 2009-08-07 | 2013-01-17 | グーグル インコーポレイテッド | 視覚クエリに応答するためのアーキテクチャ |
US20140156769A1 (en) | 2012-12-04 | 2014-06-05 | Institute For Information Industry | System and method for posting message on social network website through an image |
US20150201030A1 (en) | 2013-12-16 | 2015-07-16 | Co Everywhere, Inc. | Systems and methods for providing geographically delineated content |
JP2017010285A (ja) | 2015-06-22 | 2017-01-12 | オカムラ印刷株式会社 | 情報処理システム、情報処理プログラム、情報処理装置およびその制御プログラム |
JP2017111782A (ja) | 2015-12-17 | 2017-06-22 | 富士ゼロックス株式会社 | ソーシャルメディア投稿のキャプションを生成する方法、プログラム及びサーバ装置 |
CN107563897A (zh) | 2017-09-08 | 2018-01-09 | 廖海斌 | 基于人脸匹配的名人励志推荐和社交网络建立方法与*** |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8670597B2 (en) * | 2009-08-07 | 2014-03-11 | Google Inc. | Facial recognition with social network aiding |
CN102387463B (zh) * | 2010-09-02 | 2015-06-17 | 腾讯科技(深圳)有限公司 | 一种发布微博的方法、装置及移动终端 |
CN103812753B (zh) * | 2012-11-07 | 2018-05-22 | 腾讯科技(深圳)有限公司 | 一种社交网络交互方法及应用平台 |
CN103258022B (zh) * | 2013-05-07 | 2016-08-17 | 天津大学 | 基于用户兴趣的本地商业服务推荐方法 |
US10235464B2 (en) * | 2015-05-05 | 2019-03-19 | Adobe Inc. | Method and apparatus for recommending hashtags |
CN106384058B (zh) * | 2016-09-12 | 2019-02-05 | Oppo广东移动通信有限公司 | 发布图片的方法和装置 |
CN106503062B (zh) * | 2016-09-28 | 2019-11-12 | 广东小天才科技有限公司 | 一种社交动态的发布方法及装置、用户终端 |
US10380249B2 (en) * | 2017-10-02 | 2019-08-13 | Facebook, Inc. | Predicting future trending topics |
CN108270794B (zh) * | 2018-02-06 | 2020-10-09 | 腾讯科技(深圳)有限公司 | 内容发布方法、装置及可读介质 |
US10693730B2 (en) * | 2018-11-20 | 2020-06-23 | International Business Machines Corporation | Communication quality management |
US11087553B2 (en) * | 2019-01-04 | 2021-08-10 | University Of Maryland, College Park | Interactive mixed reality platform utilizing geotagged social media |
WO2020176442A1 (en) * | 2019-02-25 | 2020-09-03 | Walmart Apollo, Llc | Systems and methods of product recognition through multi-model image processing |
US11223591B2 (en) * | 2020-02-05 | 2022-01-11 | International Business Machines Corporation | Dynamically modifying shared location information |
TWI800732B (zh) * | 2020-04-08 | 2023-05-01 | 開曼群島商粉迷科技股份有限公司 | 適地性個人化內容提供方法與系統 |
-
2018
- 2018-02-06 CN CN201810117665.9A patent/CN108270794B/zh active Active
-
2019
- 2019-01-30 WO PCT/CN2019/073900 patent/WO2019154216A1/zh active Application Filing
- 2019-01-30 JP JP2020541526A patent/JP7004944B2/ja active Active
-
2020
- 2020-06-02 US US16/891,007 patent/US11429659B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013501975A (ja) | 2009-08-07 | 2013-01-17 | グーグル インコーポレイテッド | 視覚クエリに応答するためのアーキテクチャ |
US20140156769A1 (en) | 2012-12-04 | 2014-06-05 | Institute For Information Industry | System and method for posting message on social network website through an image |
US20150201030A1 (en) | 2013-12-16 | 2015-07-16 | Co Everywhere, Inc. | Systems and methods for providing geographically delineated content |
JP2017010285A (ja) | 2015-06-22 | 2017-01-12 | オカムラ印刷株式会社 | 情報処理システム、情報処理プログラム、情報処理装置およびその制御プログラム |
JP2017111782A (ja) | 2015-12-17 | 2017-06-22 | 富士ゼロックス株式会社 | ソーシャルメディア投稿のキャプションを生成する方法、プログラム及びサーバ装置 |
CN107563897A (zh) | 2017-09-08 | 2018-01-09 | 廖海斌 | 基于人脸匹配的名人励志推荐和社交网络建立方法与*** |
Non-Patent Citations (1)
Title |
---|
進士 智也 TOMOYA SHINJI,音声ツイートを想定したtwitterクライアントの試作・評価と発話特徴の利用に関する一考察 Prototyping and evaluation of the twitter client that assumes the tweet by voice input and an investigation on the use of utterance features,情報処理学会研究報告 2012(平成24)年度▲5▼ [CD-ROM] ,日本,一般社団法人情報処理学会,2013年02月15日,pp. 1-8 |
Also Published As
Publication number | Publication date |
---|---|
JP2021513699A (ja) | 2021-05-27 |
WO2019154216A1 (zh) | 2019-08-15 |
CN108270794B (zh) | 2020-10-09 |
US11429659B2 (en) | 2022-08-30 |
US20200293569A1 (en) | 2020-09-17 |
CN108270794A (zh) | 2018-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004944B2 (ja) | コンテンツ投稿方法、コンテンツ投稿装置並びに読み取り可能な記憶媒体 | |
JP7091504B2 (ja) | 顔認識アプリケーションにおけるフォールスポジティブの最小化のための方法および装置 | |
US11803345B2 (en) | Gallery of messages from individuals with a shared interest | |
US11250887B2 (en) | Routing messages by message parameter | |
US11328013B2 (en) | Generating theme-based videos | |
US10679063B2 (en) | Recognizing salient video events through learning-based multimodal analysis of visual features and audio-based analytics | |
US10061985B2 (en) | Video understanding platform | |
US11314475B2 (en) | Customizing content delivery through cognitive analysis | |
WO2017202006A1 (zh) | 数据处理方法和装置、计算机存储介质 | |
US20180101540A1 (en) | Diversifying Media Search Results on Online Social Networks | |
CN112292674A (zh) | 为助理***处理多模态用户输入 | |
US20140289323A1 (en) | Knowledge-information-processing server system having image recognition system | |
CN110516096A (zh) | 合成感知数字图像搜索 | |
US10664929B2 (en) | Extracting data for professional event and participant grouping recommendations | |
CN113366489A (zh) | 检测增强现实目标 | |
JP2020512759A (ja) | ストーリー映像制作方法およびストーリー映像制作システム | |
CN108292322A (zh) | 使用从查看环境捕捉的信号的媒体数据文件的组织、检索、注释和呈现 | |
US20230281940A1 (en) | Providing context-aware avatar editing within an extended-reality environment | |
US20210126806A1 (en) | Method for recognizing and utilizing user face based on profile picture in chatroom created using group album | |
US10326905B2 (en) | Sensory and cognitive milieu in photographs and videos | |
JP2021535508A (ja) | 顔認識において偽陽性を低減するための方法および装置 | |
US20220139041A1 (en) | Representations in artificial realty | |
US20170316807A1 (en) | Systems and methods for creating whiteboard animation videos | |
TW202318229A (zh) | 透過社群媒體平台進行產品搜尋 | |
CN114047979A (zh) | 展示项目配置及显示方法、装置、设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7004944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |