ES2925896T3 - Sistema para compartir contenido, método para compartir contenido y programa - Google Patents

Sistema para compartir contenido, método para compartir contenido y programa Download PDF

Info

Publication number
ES2925896T3
ES2925896T3 ES17928809T ES17928809T ES2925896T3 ES 2925896 T3 ES2925896 T3 ES 2925896T3 ES 17928809 T ES17928809 T ES 17928809T ES 17928809 T ES17928809 T ES 17928809T ES 2925896 T3 ES2925896 T3 ES 2925896T3
Authority
ES
Spain
Prior art keywords
user
time
terminal
predetermined
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17928809T
Other languages
English (en)
Inventor
Takaya Kasuga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Application granted granted Critical
Publication of ES2925896T3 publication Critical patent/ES2925896T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • H04L65/4046Arrangements for multi-party communication, e.g. for conferences with distributed floor control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/027Arrangements and methods specific for the display of internet documents

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Se proporcionan un sistema para compartir contenido, un método para compartir contenido y un programa, que son capaces de procesar adecuadamente una operación de un usuario en contenido compartido después de que se realiza una actualización de visualización por parte de una operación de otro usuario. Un módulo de determinación del estado de enfoque (58) determina si un objeto en el contenido compartido está en un estado de enfoque o en un estado de no enfoque, en función de la posición de un cursor. Un módulo de identificación de operación del propio usuario (52) identifica que se ha realizado una operación de instrucción de ejecución de un procesamiento predeterminado. un modulo de identificacion de actualizacion de pantalla (62) identifica una actualizacion de pantalla del contenido compartido por una operacion de otro usuario. Un módulo de ejecución de procesamiento de objetos (66) ejecuta el procesamiento predeterminado en un objeto que está en un estado de enfoque en un momento anterior a un tiempo anterior a la operación de instrucción de ejecución del procesamiento predeterminado por el período de tiempo predeterminado y que está más cerca al tiempo anterior a la operación por el período de tiempo predeterminado, cuando se identifica que la actualización de visualización del contenido compartido ha sido realizada por la operación de otro usuario durante un período de tiempo predeterminado hasta la operación. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema para compartir contenido, método para compartir contenido y programa
Campo técnico
La presente invención se refiere a un sistema para compartir contenido, un método para compartir contenido y un programa.
Antecedentes de la técnica
Existen sistemas en los que una pluralidad de usuarios puede realizar operaciones sobre contenidos compartidos. Por ejemplo, en la Literatura de Patentes 1, se describe un sistema en el que cualquiera de una pluralidad de usuarios puede realizar una operación de dibujo en una pizarra compartida. En la tecnología descrita en la literatura de patentes 1, los detalles de la operación de dibujo en una pizarra que se muestra en una unidad de visualización de un dispositivo terminal se reflejan en una pizarra que se muestra en una unidad de visualización de otro dispositivo terminal conectado al dispositivo terminal a través de una red.
En la tecnología descrita en la literatura de patentes 1, incluso cuando otro usuario realiza una actualización de la pantalla mientras el usuario hace una operación de dibujo en la pizarra, la pizarra puede volver al estado anterior a la actualización de la pantalla realizando una operación predeterminada.
Lista de citas
Literatura de Patentes
[PTL 1] JP 2006-331309 A
[PTL 2] JP 5977450 B2
[PTL 3] WO 2016/067363 A1
US 2002/083098 A1 da a conocer una técnica de colaboración para sincronizar el desplazamiento de la pantalla y las ubicaciones de los punteros remotos en las ventanas de los navegadores web, independientemente de los tipos y las configuraciones de los navegadores web.
US 2015/346937 A1 divulga un sistema de colaboración que comprende uno o más servidores configurados para interactuar con una pluralidad de dispositivos de usuario a través de una red.
Resumen de la Invención
Problema Técnico
Los inventores de la presente invención están investigando la implementación de un sistema en el que una pluralidad de usuarios puede realizar operaciones en contenido compartido, por ejemplo, páginas web, en las que se disponen un cuadro de selección u otros objetos similares. En tal sistema, en un caso en el que el usuario va a realizar una operación de selección de un objeto, cuando una actualización de la pantalla del contenido compartido se realiza mediante una operación de otro usuario, el objeto pretendido por el usuario puede no ser seleccionado. Además, en tal situación, se puede seleccionar un objeto diferente del previsto por el usuario.
En este sentido, en la Literatura de Patentes 1, no hay descripción del procesamiento correspondiente a una operación de dibujo del usuario en la pizarra después de una actualización de la pantalla en una situación en la que la actualización de la pantalla es realizada por una operación de otro usuario cuando el usuario está para realizar la operación de dibujo. En las tecnologías descritas en Literatura de Patentes 2 y Literatura de Patentes 3, en las que el procesamiento se ejecuta de acuerdo con la intención del usuario, en primer lugar, no se espera una actualización de la pantalla del contenido compartido por una operación de otro usuario.
La presente invención se ha realizado en vista de las circunstancias mencionadas anteriormente. Es un objeto de la presente invención proporcionar un sistema para compartir contenido, un método para compartir contenido y un programa según las reivindicaciones independientes 1, 6 y 7, respectivamente.
Breve descripción de los dibujos
La Figura 1 es un diagrama para ilustrar un ejemplo de una configuración general de un sistema de intercambio de contenido de acuerdo con una realización de la presente invención.
La Figura 2 es un diagrama para ilustrar un ejemplo de una configuración de un terminal de usuario según una realización de la presente invención.
La Figura 3A es un diagrama para ilustrar un ejemplo de una ventana.
La Figura 3B es un diagrama para ilustrar un ejemplo de una ventana.
La Figura 3C es un diagrama para ilustrar un ejemplo de una ventana.
La Figura 3D es un diagrama para ilustrar un ejemplo de una ventana.
La Figura 3E es un diagrama para ilustrar un ejemplo de una ventana.
La Figura 3F es un diagrama para ilustrar un ejemplo de una ventana.
La Figura 4 es un diagrama de bloques funcional para ilustrar un ejemplo de funciones a implementar por un terminal de usuario en una realización de la presente invención.
La Figura 5 es una tabla para mostrar un ejemplo de información del historial de foco.
La Figura 6 es un diagrama de flujo para ilustrar un ejemplo de un flujo de procesamiento a realizar por el terminal de usuario en una realización de la presente invención.
La Figura 7 es una tabla para mostrar un ejemplo de información del historial de posición.
Descripción de las realizaciones
Ahora, se describe una realización de la presente invención con referencia a los dibujos.
La Figura 1 es un diagrama para ilustrar un ejemplo de una configuración general de un sistema de intercambio de contenido 10 de acuerdo con la realización de la presente invención. Como se ilustra en la Figura 1, el sistema de intercambio de contenido 10 en esta realización incluye dos terminales de usuario 12 (12a, 12b) y un servidor 14. El terminal de usuario 12a, el terminal de usuario 12b y el servidor 14 están conectados a una red informática 16, por ejemplo, Internet. Por lo tanto, el terminal de usuario 12a, el terminal de usuario 12b y el servidor 14 pueden comunicarse entre sí a través de la red informática 16.
En esta realización, por ejemplo, los terminales de usuario 12 son una computadora, como una computadora personal, una tableta o un teléfono inteligente. Un navegador web está instalado en cada terminal de usuario 12 en esta realización.
Como se ilustra en la Figura 2, por ejemplo, cada terminal de usuario 12 incluye un procesador 20, una unidad de almacenamiento 22, una unidad de comunicación 24, una unidad de visualización 26, una unidad de operación 28, una unidad de cámara 30, una unidad de micrófono 32 y una unidad de salida de audio 34.
El procesador 20 es, por ejemplo, un dispositivo de control de programas, por ejemplo, una unidad central de procesamiento (CPU), que está configurada para funcionar de acuerdo con un programa instalado en el terminal de usuario 12. La unidad de almacenamiento 22 es, por ejemplo, un elemento de almacenamiento como una ROM o una RAM, o una unidad de disco duro. La unidad de comunicación 24 es una interfaz de comunicación tal como una placa de red o un módulo LAN inalámbrico. La unidad de visualización 26 es, por ejemplo, una pantalla tal como una pantalla de cristal líquido o una pantalla orgánica EL. La unidad de operación 28 es, por ejemplo, una interfaz de usuario tal como un ratón, un teclado o un panel táctil, que está configurada para enviar al procesador 20 datos de entrada correspondientes a la entrada de operación. La unidad de cámara 30 es una cámara, por ejemplo, una cámara digital. La unidad de micrófono 32 es, por ejemplo, un micrófono configurado para convertir un sonido ambiental en datos de sonido para enviar los datos de sonido al procesador 20. La unidad de salida de audio 34 es un dispositivo como unos auriculares o un altavoz, que está configurado para emitir un sonido al usuario.
El servidor 14 es una computadora servidor, por ejemplo, un servidor web, que está configurado para proporcionar contenido compartido operable tanto por el usuario del terminal de usuario 12a como por el usuario del terminal de usuario 12b. Los ejemplos del contenido compartido incluyen páginas web e imágenes. El usuario del terminal de usuario 12a se denominará en lo sucesivo como "usuario A", y el usuario del terminal de usuario 12b se denominará en lo sucesivo como "usuario B". Una función de chat de video entre los terminales de usuario 12 se implementa en el servidor 14 en esta realización. Una función para sincronizar el contenido compartido visualizado en la unidad de visualización 26 del terminal de usuario 12a con el contenido compartido visualizado en la unidad de visualización 26 del terminal de usuario 12b también está implementada en el servidor 14 en esta realización.
En esta realización, por ejemplo, mediante el uso de la unidad de cámara 30, la unidad de micrófono 32 y la unidad de salida de audio 34, el usuario A y el usuario B pueden hablar entre sí por voz mientras miran la cara del otro usuario a través de videollamadas.
El contenido compartido visualizado en la unidad de visualización 26 del terminal de usuario 12a y el contenido compartido visualizado en la unidad de visualización 26 del terminal de usuario 12b están sincronizados. Por tanto, el usuario A y el usuario B pueden hablar entre sí por voz mientras ven la misma parte del mismo contenido compartido.
En esta realización, por ejemplo, los detalles de la operación realizada en el terminal de usuario 12a se reflejan no solo en el contenido compartido que se muestra en la unidad de visualización 26 del terminal de usuario 12a, sino que también se refleja en el contenido compartido que se muestra en la unidad de visualización 26 del terminal de usuario 12b. De manera similar, por ejemplo, los detalles de la operación realizada en el terminal de usuario 12b se reflejan no solo en el contenido compartido que se muestra en la unidad de visualización 26 del terminal de usuario 12b, sino que también se refleja en el contenido compartido que se muestra en la unidad de visualización 26 del terminal de usuario 12a.
Por lo tanto, por ejemplo, cuando se realizan ventas cara a cara virtuales en una situación en la que el usuario A es un cliente potencial y el usuario B es un vendedor, se puede decir que el sistema de intercambio de contenido 10 de esta realización es un sistema especialmente adecuado.
Se supone, por ejemplo, que se comparte una página web entre el terminal de usuario 12a y el terminal de usuario 12b, y que una ventana de navegador web 40 ilustrada como ejemplo en la Figura 3A se muestra en la unidad de visualización 26 del terminal de usuario 12a. En este caso, la ventana 40 también se muestra en la unidad de visualización 26 del terminal de usuario 12b.
Como se ilustra en la Figura 3A, una parte de una página web 42 está dispuesta en la ventana 40. Toda la página web 42 no cabe en la ventana 40. El usuario A y el usuario B pueden reconocer visualmente la parte de la página web completa 42 dispuesta en la ventana 40.
Un cursor 44 también se ilustra en la Figura 3A. En esta realización, el contenido compartido mostrado en la unidad de visualización26 es compartido por el terminal de usuario 12a y el terminal de usuario 12b, pero la posición del cursor 44 no es compartida por el terminal de usuario 12a y el terminal de usuario 12b. Es decir, la posición del cursor 44 en el terminal de usuario 12a y la posición del cursor 44 en el terminal de usuario 12b son independientes y no se afectan entre sí. El usuario B no conoce la posición del cursor 44 en el terminal de usuario 12a y, de manera similar, el usuario A no conoce la posición del cursor 44 en el terminal de usuario 12b.
En esta realización, tanto el usuario A como el usuario B pueden desplazar la página web 42 hacia arriba y hacia abajo para cambiar la parte de la página web completa 42 dispuesta en la ventana 40. Por ejemplo, la página web 42 se puede desplazar utilizando el cursor 44 para realizar una operación de arrastre en la barra de desplazamiento 46 o una operación de clic en una parte por encima o por debajo de la barra de desplazamiento 46. En la siguiente descripción, se supone que la página web 42 se desplaza en la dirección de arriba hacia abajo, pero la página web 42 se puede desplazar en la dirección de izquierda a derecha. La página web 42 también se puede desplazar en las direcciones de arriba hacia abajo y de izquierda a derecha.
Una operación de desplazamiento de la página web 42 se denomina en lo sucesivo "operación de desplazamiento", y el proceso de cambio de una parte de la página web 42 dispuesta en la ventana 40 de acuerdo con la operación de desplazamiento se denomina en lo sucesivo "procesamiento de desplazamiento".
En la página web 42, se organizan varios objetos. Por ejemplo, en la página web 42 ilustrada en la Figura 3A, se disponen tres casillas de selección 48 (48a, 48b y 48c). Además de esto, por ejemplo, también pueden disponerse en la página web 42 objetos tales como un botón de opción, un botón de "enviar'' y un menú desplegable.
En esta realización, para cada uno de los objetos dispuestos en la página web 42, se determina si el objeto está en un estado enfocado o no enfocado en función de la posición del cursor 44. Por ejemplo, cuando hay un objeto sobre el que está dispuesto el cursor 44, se puede determinar que el objeto está en un estado de foco. Incluso en el caso de que el cursor 44 no esté dispuesto sobre un objeto, cuando hay un objeto dispuesto dentro de una longitud predeterminada desde la posición del cursor 44, se puede determinar que el objeto está en un estado de foco.
El usuario puede realizar una operación de selección en un objeto dispuesto en la página web 42. Por ejemplo, el usuario puede realizar la operación de selección realizando una operación de clic.
En respuesta a la operación de selección, se ejecuta un procesamiento determinado sobre el objeto en un estado de foco. Por ejemplo, cuando se realiza una operación de selección en un cuadro de selección 48 no marcado que está en un estado de foco, el cuadro de selección 48 cambia a un estado marcado. A la inversa, por ejemplo, cuando se realiza una operación de selección en un cuadro de selección 48 marcado que está en un estado de foco, el cuadro de selección 48 cambia a un estado no marcado. De esta forma, el proceso de cambio del estado de verificación de las casillas de selección 48 se ejecuta en las casillas de selección 48 de acuerdo con la operación de selección. El procesamiento predeterminado ejecutado en un objeto en respuesta a una operación de selección en el objeto se denomina en lo sucesivo "procesamiento de objetos". En el ejemplo mencionado anteriormente, el procesamiento de cambiar el estado de verificación corresponde al procesamiento de objetos en un cuadro de selección 48. En este caso, se puede decir que la operación de selección es una operación de instrucción de ejecución de procesamiento de objetos.
En esta realización, el procesamiento de objetos se determina de antemano para cada tipo de objeto. Por ejemplo, para un botón de opción, el procesamiento de cambiar el estado de selección de un grupo de botones de opción que incluye el botón de opción de manera que el botón de opción en el que se realiza la operación de selección se lleva a un estado seleccionado corresponde al procesamiento de objetos. Como otro ejemplo, para un menú desplegable, el procesamiento de cambiar un estado del menú desplegable a un estado en el que las opciones del menú desplegable en el que se realiza la operación de selección se muestran en una lista corresponde al procesamiento de objetos. Como otro ejemplo más, para un botón de "enviar", el procesamiento de la transmisión de información que indica el estado de cada objeto dispuesto en la página web 42 al servidor 14 corresponde al procesamiento de objetos.
Se supone, por ejemplo, como se ilustra en la Figura 3A, que el usuario A está intentando realizar una operación de selección en el cuadro de selección 48a, y el cursor 44 está dispuesto en el cuadro de selección 48a en el terminal de usuario 12a. En este caso, se supone que el cuadro de selección 48a está en un estado de foco, el cuadro de selección 48b y el cuadro de selección 48c están en un estado de sin foco, y la página web 42 se detiene sin desplazarse.
También se supone que el usuario B ha realizado una operación de desplazamiento en la página web 42 mientras que el usuario A intenta realizar una operación de selección en el cuadro de selección 48a. En el terminal de usuario 12a y el terminal de usuario 12b, se ejecuta el procesamiento de desplazamiento en la página web 42, y el estado ilustrado en la Figura 3E se obtiene después de pasar por los estados ilustrados en la Figura 3B, la Figura 3C, y la Figura 3D. En el estado ilustrado en la Figura 3B, el cuadro de selección 48a, que está en un estado de foco en el estado ilustrado en la Figura 3A, ha cambiado a un estado de sin foco. En el estado ilustrado en la Figura 3C, el cuadro de selección 48b, que está en un estado de sin foco bajo el estado ilustrado en la Figura 3B, ha cambiado a un estado de foco. En el estado ilustrado en la Figura 3D, el cuadro de selección 48b, que está en un estado de foco en el estado ilustrado en la Figura 3C, ha cambiado a un estado de sin foco. En el estado ilustrado en la Figura 3E, el cuadro de selección 48c, que está en un estado de sin foco bajo el estado ilustrado en la Figura 3D, ha cambiado a un estado de foco.
Se supone que la operación de selección en el estado ilustrado en la Figura 3E puede ser reconocido por el terminal de usuario 12a. Por ejemplo, un período de tiempo desde el momento en que el usuario A intenta realizar la operación de selección hasta el momento en que el terminal de usuario 12a reconoce la operación de selección se establece como un período de tiempo T1. Más específicamente, se supone que la ventana 40 está en el estado ilustrado en la Figura 3A en un tiempo que es anterior en el período de tiempo T1 al tiempo en el que el terminal de usuario 12a reconoce la operación de selección. Por ejemplo, se supone un período de tiempo de aproximadamente 0,5 segundos como el período de tiempo T1. La temporización que es anterior en el período de tiempo T1 a la temporización de la operación de selección se denomina "temporización de referencia". No se requiere que el periodo de tiempo T1 sea de 0,5 segundos, y puede ser cualquier periodo de tiempo. Por ejemplo, el período de tiempo T1 puede establecerse en base a resultados experimentales o experiencia.
En esta situación, en esta realización, el cuadro de selección 48c no está en un estado marcado, lo cual es diferente de la intención de los usuarios. En cambio, como se ilustra en la Figura 3F, en el terminal de usuario 12a, la casilla de selección 48a, que está en un estado de foco en el tiempo de referencia, está en un estado marcado. Es decir, en esta realización, el procesamiento de objetos se ejecuta en el cuadro de selección 48a, no en el cuadro de selección 48c.
En esta realización, el cuadro de selección 48b no está en un estado de foco en el tiempo de referencia. El cuadro de selección 48b se pone en un estado de foco y luego se pone en un estado de sin foco, durante un período de tiempo T1 desde la temporización de referencia hasta la temporización de la operación de selección. En tal caso, en esta realización, el procesamiento de objetos no se ejecuta en el cuadro de selección 48b. Es decir, la casilla de selección 48b no está en un estado marcado.
De esta forma, en esta realización, el procesamiento de objetos se ejecuta sobre un objeto que está en un estado de foco en el momento en que se estima que el usuario A intenta realizar una operación de selección.
Puede haber un caso en el que no haya objetos en un estado de foco en el momento en el que se estima que el usuario A intenta realizar una operación de selección. Por ejemplo, en tal caso, el procesamiento de objetos puede ejecutarse en un objeto que está en un estado de foco inmediatamente antes del tiempo en el que se estima que el usuario A intenta realizar una operación de selección. De esta forma, en esta realización, es posible procesar apropiadamente una operación de un usuario sobre un contenido compartido después de una actualización de la pantalla, por ejemplo, el desplazamiento por una operación de otro usuario.
Las funciones del terminal de usuario 12 en esta realización y el procesamiento a ejecutar por el terminal de usuario 12 en esta realización se describen ahora en detalle.
La Figura 4 es un diagrama de bloques funcional para ilustrar un ejemplo de las funciones que implementará el terminal de usuario 12a en esta realización. No se requiere que todas las funciones ilustradas en la Figura 4 ser implementado por el terminal de usuario 12a en esta realización, y funciones distintas a las funciones ilustradas en la Figura 4 tal vez implementado. Las siguientes funciones son implementadas de manera similar por el terminal de usuario 12b.
Como se ilustra en la Figura 4, el terminal de usuario 12a en esta realización incluye, en términos de sus funciones, por ejemplo, una unidad de almacenamiento de información del historial 50, un módulo de identificación de operación de propio usuario 52, un módulo de identificación de operación de otro usuario 54, un módulo de identificación de posición del cursor 56, un módulo de determinación de estado de foco 58, un módulo de generación de información de historial 60, un módulo de identificación de actualización de la pantalla 62, un módulo de identificación de objeto 64, un módulo de ejecución de procesamiento de objeto 66, un módulo de actualización de la pantalla 68 y un módulo de transmisión de operación de propio usuario 70.
La unidad de almacenamiento de información del historial 50 está implementada principalmente por la unidad de almacenamiento 22. El módulo de identificación de operación de propio usuario 52 es implementado principalmente por el procesador 20 y la unidad de operación 28. El módulo de identificación de operación de otro usuario 54 y el módulo de transmisión de operaciones de propio usuario 70 son implementados principalmente por el procesador 20 y la unidad de comunicación 24. El módulo de identificación de posición del cursor 56, el módulo de determinación de estado de foco 58, el módulo de generación de información del historial 60, el módulo de identificación de actualización de la pantalla 62, el módulo de identificación de objetos 64 y el módulo de ejecución de procesamiento de objetos 66 son implementados principalmente por el procesador 20. El módulo de actualización de la pantalla 68 se implementa principalmente por el procesador 20 y la unidad de visualización 26.
Las funciones antes mencionadas también pueden ser implementadas por el procesador 20 ejecutando un programa que incluye comandos correspondientes a las funciones, que está instalado en el terminal de usuario 12a que es una computadora. El programa puede suministrarse al terminal de usuario 12a a través, por ejemplo, de un medio de almacenamiento de información legible por ordenador, como un disco óptico, un disco magnético, una cinta magnética y un disco magnetoóptico, o a través de Internet.
En esta realización, por ejemplo, la unidad de almacenamiento de información del historial 50 está configurada para almacenar información del historial que indica un historial de los estados de los objetos en el contenido compartido. La Figura 5 es una tabla para mostrar un ejemplo de información del historial de foco, que es un ejemplo de la información del historial almacenada en la unidad de almacenamiento de información del historial 50. En la información del historial de foco, se muestra un historial del momento en el que un objeto cambia de un estado de sin foco a un estado de foco y el momento en el que el objeto cambia de un estado de foco a un estado de sin foco. Como se muestra en la Figura 5, la información del historial de foco incluye información de temporización, información de ID de objetos e información de foco.
La información de temporización es, por ejemplo, información asociada con una temporización, tal como un valor de una marca de tiempo o una hora.
La información de ID de objetos es, por ejemplo, información de ID sobre un objeto que cambió de un estado de foco a un estado de sin foco o de un estado de sin foco a un estado de foco en el tiempo indicado por la información de tiempo. En el ejemplo de la Figura 5, A, B y C se muestran como piezas de información de ID de objetos en el cuadro de selección 48a, el cuadro de selección 48b y el cuadro de selección 48c, respectivamente.
La información de foco es, por ejemplo, información que indica si el objeto identificado por la información de ID de objeto ha cambiado de un estado de foco a un estado de sin foco o de un estado de sin foco a un estado de foco. En el ejemplo de la Figura 5, el cambio de un estado de sin foco a un estado de foco se indica con "encendido", y el cambio de un estado de foco a un estado de sin foco se indica con "apagado".
En esta realización, por ejemplo, el módulo de identificación de operación de propio usuario 52 está configurado para identificar una operación del usuario A en la unidad de operación 28. El módulo de identificación de operación de propio usuario 52 puede identificar la operación del usuario A en base a los datos de entrada asociados con una entrada de operación física que se recibirá a través de la unidad de operación 28.
Por ejemplo, el módulo de identificación de operación del propio usuario 52 puede identificar que el usuario A ha realizado una operación de desplazamiento hacia arriba en la página web 42, en función de los datos de entrada que indican que se ha realizado una operación de arrastre hacia arriba en la barra de desplazamiento 46. Como otro ejemplo, el módulo de identificación de operación de propio usuario 52 puede identificar que el usuario A ha realizado una operación de desplazamiento hacia abajo en la página web 42, según los datos de entrada que indican que se ha realizado una operación de arrastre hacia abajo en la barra de desplazamiento 46.
El módulo de identificación de operación de propio usuario 52 también puede identificar, por ejemplo, que se ha realizado la operación de selección mencionada anteriormente.
En esta realización, por ejemplo, el módulo de identificación de operación de otro usuario 54 está configurado para identificar una operación del usuario B en el terminal de usuario 12b. Por ejemplo, el módulo de identificación de operación de otro usuario 54 puede identificar la operación del usuario B basándose en la información de operación recibida a través de la unidad de comunicación 24 y asociada con la operación física ingresada por el usuario B.
Por ejemplo, cuando se recibe desde el terminal de usuario 12b información de operación que indica que se ha realizado una operación de desplazamiento hacia arriba o una operación de desplazamiento hacia abajo, el módulo de identificación de operación de otro usuario 54 puede identificar la operación de desplazamiento hacia arriba o la operación de desplazamiento hacia abajo representada por la información de operación como la operación del usuario B. En este caso, la información de operación puede incluir información que indica la cantidad de desplazamiento, y el módulo de identificación de operación de otro usuario 54 puede identificar la cantidad de desplazamiento en la operación de desplazamiento basándose en esa información.
Como otro ejemplo, cuando se recibe información de operación que representa una operación de selección de instrucción de ejecución de procesamiento de objetos desde el terminal de usuario 12b, el módulo de identificación de operación de otro usuario 54 puede identificar la operación de selección representada por esa información de operación como la operación del usuario B.
En esta realización, por ejemplo, el módulo de identificación de la posición del cursor 56 está configurado para identificar la posición del cursor 44 en el contenido compartido, por ejemplo, la página web 42.
En esta realización, por ejemplo, el módulo de determinación de estado de foco 58 está configurado para determinar si los objetos dispuestos en contenido compartido, por ejemplo, la página web 42, están en un estado de foco o no enfoque.
El módulo de determinación del estado de foco 58 también puede detectar un cambio en el estado de un objeto de un estado de foco a un estado de sin foco o de un estado de sin foco a un estado de foco. Por ejemplo, el módulo de determinación del estado de foco 58 puede detectar la ocurrencia de dicho cambio usando una función implementada en un navegador web para detectar la ocurrencia de un evento de foco o un evento de sin foco. El módulo de determinación del estado de foco 58 puede entonces determinar si un objeto está en un estado de foco o en un estado de sin foco basándose en el cambio detectado.
En esta realización, por ejemplo, el módulo de generación de información del historial 60 está configurado para generar información del historial y almacenar la información del historial generada en la unidad de almacenamiento de información del historial 50. Por ejemplo, se puede generar información de historial de foco que incluye información de tiempo que indica el momento en que se detecta el cambio mencionado anteriormente, información de ID de objeto sobre el objeto para el que se produjo el cambio e información de foco en la que se indica un valor asociado con el cambio establecer.
En esta realización, por ejemplo, el módulo de identificación de actualización de la pantalla 62 está configurado para identificar una actualización de la pantalla del contenido compartido, por ejemplo, desplazamiento del contenido compartido, mediante una operación del usuario B. Además del desplazamiento, otros ejemplos de una actualización de la pantalla incluyen una actualización de una diapositiva visualizada en contenido compartido que incluye una pluralidad de diapositivas, y una actualización de una página visualizada en contenido compartido que incluye una pluralidad de páginas. Cuando el módulo de identificación de operación del propio usuario 52 identifica que se ha realizado una operación de selección, el módulo de identificación de actualización de la pantalla 62 puede identificar si ha habido o no una actualización de la pantalla por la operación del usuario B durante el período de tiempo T1 hasta el momento de la operación de selección.
El módulo de identificación de actualización de la pantalla 62 también puede almacenar un historial de las operaciones del usuario B identificado por el módulo de identificación de operación de otro usuario 54, y luego identificar si ha habido o no una actualización de la pantalla por una operación del usuario B durante el período de tiempo T1 desde el tiempo de referencia hasta el tiempo actual basado en el historial de las operaciones del usuario B.
En esta realización, por ejemplo, el módulo de identificación de objetos 64 está configurado para identificar un objeto en el que se va a realizar el procesamiento de objetos. El módulo de identificación de objetos 64 puede identificar el objeto en el que se va a realizar el procesamiento de objetos cuando el propio módulo de identificación de operación de usuario 52 identifica que se ha realizado una operación de selección.
El módulo de identificación de objetos 64 también puede identificar si se cumple o no una condición predeterminada relacionada con una actualización de la pantalla por una operación del usuario B. El módulo de identificación de objetos 64 puede identificar el objeto en el que se va a realizar el procesamiento de objetos de acuerdo con una regla correspondiente a si se cumple o no la condición.
Por ejemplo, cuando se cumple la condición predeterminada mencionada anteriormente, el módulo de identificación de objetos 64 puede identificar un objeto que está en un estado de foco en un tiempo anterior al tiempo de referencia y más cercano al tiempo de referencia, como el objeto que se va a procesar. En este caso, el módulo de identificación de objetos 64 puede identificar un objeto que está en un estado de foco en un tiempo anterior al tiempo de referencia y más cercano al tiempo de referencia, en función de la información del historial de foco almacenada en la unidad de almacenamiento de información del historial 50.
Como otro ejemplo, cuando hay un objeto que está en un estado de foco en el tiempo de referencia, el objeto puede identificarse como el objeto en el que se va a realizar el procesamiento del objeto. Como otro ejemplo más, un objeto que está en un estado de foco en el tiempo de referencia y que se lleva a un estado de sin foco durante un período de tiempo T1 desde el tiempo de referencia hasta el tiempo de la operación de selección puede identificarse como el objeto en que se va a realizar el procesamiento del objeto.
Por el contrario, cuando no se cumple la condición predeterminada mencionada anteriormente, el módulo de identificación de objetos 64 puede identificar un objeto que está en un estado de foco en el momento de la operación de selección como el objeto en el que se va a realizar el procesamiento de objetos. En este caso, el módulo de identificación de objetos 64 puede identificar un objeto que está en un estado de foco en el momento de la operación de selección, en función de la información del historial de foco almacenada en la unidad de almacenamiento de información del historial 50.
Los ejemplos de la condición predeterminada mencionada anteriormente incluyen una condición en la que el módulo de identificación de actualización de la pantalla 62 ha identificado que ha habido una actualización de la pantalla por una operación del usuario B durante el período de tiempo T1 desde el tiempo de referencia hasta el tiempo de la operación de selección.
No solo cuando se cumple esta condición, sino también cuando se cumple otra condición adicional, un objeto que está en un estado de foco en un tiempo anterior al tiempo de referencia y más cercano al tiempo de referencia puede identificarse como el objeto que se va a procesar.
Los ejemplos de la condición adicional incluyen: una condición de que la longitud entre la posición del cursor 44 en el contenido compartido en el momento de referencia y la posición del cursor 44 en el contenido compartido en el momento de la operación de selección es más corta que un valor predeterminado longitud; una condición de que no hay ningún objeto que esté en un estado de foco en el momento de la operación de selección; y una condición de que no ha habido una actualización de la pantalla por una operación del usuario B durante un período de tiempo T2 antes del tiempo de referencia. El periodo de tiempo T2 puede ser el mismo o diferente del periodo de tiempo T1. El período de tiempo T2 puede ser más largo o más corto que el período de tiempo T1. La condición adicional también puede ser una condición de que se cumpla la totalidad de una pluralidad de condiciones entre las condiciones mencionadas anteriormente. El período de tiempo T2 puede ser cualquier período de tiempo y puede establecerse en base a resultados experimentales o experiencia, por ejemplo.
En esta realización, por ejemplo, el módulo de ejecución de procesamiento de objetos 66 está configurado para ejecutar el procesamiento de objetos en el objeto identificado por el módulo de identificación de objetos 64 como el objeto en el que se va a realizar el procesamiento de objetos.
En esta realización, por ejemplo, el módulo de actualización de la pantalla 68 está configurado para actualizar la pantalla mostrada en la unidad de visualización 26 del terminal de usuario 12a en función de la operación identificada por el módulo de identificación de operación de propio usuario 52 y módulo de identificación de operación de otro usuario 54, un resultado del procesamiento de objetos ejecutado por el módulo de ejecución de procesamiento de objetos 66, y similares.
En esta realización, por ejemplo, el módulo de transmisión de operaciones de propio usuario 70 está configurado para transmitir, al terminal de usuario 12b, información de operación que representa la operación identificada por el módulo de identificación de operación de propio usuario 52. Cuando se ha ejecutado el procesamiento de objetos, el módulo de transmisión de operaciones de propio usuario 70 puede transmitir, al terminal de usuario 12b, información de operación que representa una operación de selección sobre el objeto en el que se ha ejecutado el procesamiento de objetos. De esta manera, también en el terminal de usuario 12b, el procesamiento de objetos se ejecuta en el objeto identificado de la misma manera que en el terminal de usuario 12a.
Ahora, se proporciona una descripción de un ejemplo de un flujo de procesamiento a ejecutar por el terminal de usuario 12a en esta realización con referencia a un diagrama de flujo ilustrado en la Figura 6. Se supone que el procesamiento ilustrado en el Etapa S101 al Etapa S112 descrito a continuación se ejecuta repetidamente a una frecuencia de muestreo predeterminada.
Primero, el módulo de identificación de operación de propio usuario 52 identifica la operación del usuario A recibida a través de la unidad de operación 28 del terminal de usuario 12a (Etapa S101).
Entonces, el módulo de identificación de operación de otro usuario 54 identifica la operación del usuario B basándose en la información de operación recibida desde el terminal de usuario 12b a través de la unidad de comunicación 24 del terminal de usuario 12a (Etapa S102).
Entonces, el módulo de identificación de la posición del cursor 56 identifica la posición del cursor 44 en este bucle (Etapa S103).
Luego, el módulo de determinación del estado de foco 58 detecta, para cada objeto en la página web 42, un cambio en el estado del objeto de un estado de foco a un estado de sin foco o de un estado de sin foco a un estado de foco (Etapa S104).
Luego, el módulo de generación de información del historial 60 genera información del historial de foco basada en el cambio detectado en el procesamiento ilustrado en el Etapa S104, y almacena la información del historial de foco generada en la unidad de almacenamiento de información del historial 50 (Etapa S105).
Entonces, el módulo de identificación de objetos 64 determina si el procesamiento de objetos debe ejecutarse o no en el presente bucle en base a la operación identificada en el procesamiento ilustrado en el Etapa S101 (Etapa S106).
Cuando se determina que se va a realizar el procesamiento de objetos (Etapa S106: Y), el módulo de identificación de actualización de la pantalla 62 identifica si se cumple o no una condición predeterminada (Etapa S107). Como se describió anteriormente, la condición predeterminada es una condición, por ejemplo, la condición de que ha habido una actualización de la pantalla por una operación del usuario B durante el período de tiempo T1 hasta la hora actual.
Cuando se supone que se identifica que ha habido una actualización de la pantalla por una operación del usuario B durante el período de tiempo T1 hasta el momento actual (Etapa S107: Y), en este caso, el módulo de identificación de objetos 64 identifica un objeto con referencia a la temporización de referencia (Etapa S108). En el procesamiento ilustrado en el Etapa S108, como se describe anteriormente, por ejemplo, un objeto que está en un estado de foco en un tiempo anterior al tiempo de referencia y está más cerca del tiempo de referencia se identifica como el objeto que se va a procesar.
Por el contrario, cuando se supone que se identifica que no ha habido una actualización de la pantalla por una operación del usuario B durante el período de tiempo T1 hasta la hora actual (Etapa S107: N), en este caso, el módulo de identificación de objetos 64 identifica el objeto con referencia a la hora actual (Etapa S109). En el procesamiento ilustrado en el Etapa S109, como se describe anteriormente, por ejemplo, el objeto que se encuentra actualmente en un estado de foco se identifica como el objeto en el que se va a realizar el procesamiento del objeto. Después de ejecutar el procesamiento ilustrado en el Etapa S108 o el Etapa S109, el módulo de ejecución de procesamiento de objetos 66 ejecuta el procesamiento de objetos en el objeto identificado como el objeto en el que se va a realizar el procesamiento de objetos (Etapa S110).
Cuando se determina en el procesamiento ilustrado en el Etapa S106 que el procesamiento de objetos no debe ejecutarse (Etapa S106: N), o cuando el procesamiento ilustrado en el Etapa S110 ha terminado, el módulo de actualización de la pantalla 68 actualiza la pantalla que se muestra en la unidad de visualización 26 del terminal de usuario 12a (Etapa S111).
Luego, el módulo de transmisión de operación de propio usuario 70 transmite al terminal de usuario 12b información de operación que representa la operación identificada en el procesamiento ilustrado en el Etapa S101 (Etapa S112), y vuelve al procesamiento ilustrado en el Etapa S101. En el procesamiento ilustrado en el Etapa S112, como se describe anteriormente, puede transmitirse información de operación que representa una operación de selección en un objeto en el que se ha ejecutado el procesamiento de objetos.
En el ejemplo de procesamiento ilustrado en la Figura 6, el método de sincronizar la temporización de la operación del usuario A y la temporización de la operación del usuario B no está particularmente limitado.
Por ejemplo, en el bucle del procesamiento ilustrado en la Figura 6 descrito anteriormente, el procesamiento ilustrado en el Etapa S101 puede ejecutarse mediante el uso de los últimos datos de entrada, e inmediatamente después de eso, el procesamiento ilustrado en el Etapa S102 puede ejecutarse mediante el uso de la última información de operación.
Como otro ejemplo, los datos de entrada asociados con una operación física ingresada por el usuario A o la información de operación asociada con una operación física ingresada por el usuario B pueden estar asociados con una marca de tiempo. Luego, con la adquisición tanto de los datos de entrada como de la información de operación asociada con la marca de tiempo del mismo tiempo como disparador, el ciclo del procesamiento ilustrado en la Figura 6 en el que se utilizan los datos de entrada y la información de operación.
La información del historial almacenada en la unidad de almacenamiento de información del historial 50 no se limita a la información del historial de foco que se muestra en la Figura 5. La Figura 7 es una tabla para mostrar un ejemplo de información del historial de posición, que es otro ejemplo de la información del historial almacenada en la unidad de almacenamiento de información del historial 50.
La información del historial de posiciones que se muestra en la Figura 7 está asociado con el tiempo. La información del historial de posiciones que se muestra en la Figura 7 incluye un número de serie, información sobre la posición del cursor e información sobre el objeto.
El número de serie es, por ejemplo, información de ID sobre la información del historial de posiciones y está asociado con un tiempo de generación de la información del historial de posiciones. En lugar de un número de serie, la información del historial de posiciones puede incluir información que indica el tiempo de generación de la información del historial de posiciones.
La información de posición del cursor es, por ejemplo, información que indica la posición del cursor 44 en la pantalla. La información del objeto es, por ejemplo, información que indica un atributo, por ejemplo, la posición del objeto. En esta realización, la información del historial de posiciones incluye una pluralidad de piezas de información de objetos asociados con los objetos respectivos. En la Figura 7, se muestra de manera representativa información del objeto en el cuadro de selección 48a.
La información del objeto incluye, por ejemplo, información de posición, información de tamaño, información de usuario de desplazamiento e información de posibilidad de hacer clic. La información de posición es, por ejemplo, información que indica la posición del objeto. La información de tamaño es, por ejemplo, información que indica el tamaño del objeto. La información de usuario de desplazamiento es, por ejemplo, información que indica el usuario que ejecutó la operación de desplazamiento sobre el objeto. La información de posibilidad de hacer clic es, por ejemplo, información que indica si se puede hacer clic en el objeto o no.
Como se muestra en la Figura 7, la información de la posición del cursor y la información de la posición y la información del tamaño incluidas en la información del objeto pueden expresarse mediante valores de coordenadas. Los valores de coordenadas pueden representar, por ejemplo, una posición en la pantalla expresada en un sistema de coordenadas que tiene como origen la esquina superior izquierda de la pantalla de la unidad de visualización 26. La información del historial de posiciones que se muestra en la Figura 7 puede generarse, por ejemplo, en base a la frecuencia de muestreo predeterminada mencionada anteriormente. El módulo de determinación del estado de foco 58 puede determinar si cada objeto está o no en un estado de foco o en un estado de sin foco en función de la información del historial de posiciones que se muestra en la Figura 7. El módulo de identificación de objetos 64 puede identificar un objeto que está en un estado de foco en un tiempo anterior al tiempo de referencia y más cercano al tiempo de referencia en base a la información del historial de posiciones que se muestra en la Figura 7. El módulo de identificación de objetos 64 también puede identificar un objeto que está en un estado de foco en el momento de la operación de selección en base a la información del historial de posiciones que se muestra en la Figura 7.
El objeto mencionado anteriormente puede cambiar de tamaño a medida que pasa el tiempo. En este caso, los valores (a21, b21), (a22, b22) y (a23, b23) de la información de tamaño que se muestra en la Figura 7 son diferentes entre sí. El objeto mencionado anteriormente también puede ser un objeto que tenga un tamaño que no cambie. En este caso, los valores (a21, b21), (a22, b22) y (a23, b23) de la información de tamaño que se muestra en la Figura 7 son iguales. La posición del objeto mencionado anteriormente puede cambiar a medida que pasa el tiempo. Además, es posible que la posición del objeto mencionado anteriormente no cambie con el paso del tiempo. De esta forma, en esta realización, el objeto mencionado anteriormente puede manipularse incluso cuando el objeto se mueve.
Como se describió anteriormente, en esta realización, cuando se cumple la condición predeterminada mencionada anteriormente, el procesamiento de objetos se ejecuta en un objeto que está en un estado de foco en un tiempo anterior al tiempo de referencia y más cercano al tiempo de referencia. La condición predeterminada es, por ejemplo, una condición en la que otro usuario ha actualizado la pantalla durante el período de tiempo desde el momento de referencia hasta el momento de la operación de selección.
Como se describió anteriormente, en esta realización, en la determinación del objeto en el que se ejecutará el procesamiento del objeto, se tiene en cuenta una actualización de la pantalla por parte de una operación de otro usuario desde el tiempo de referencia hasta el tiempo de la operación de selección. Por lo tanto, en esta realización, es posible procesar apropiadamente una operación del usuario sobre el contenido compartido después de una actualización de la pantalla por parte de una operación de otro usuario.
Se requiere que la información que indica el cambio de estado de verificación del cuadro de selección 48 se transmita al terminal de usuario 12b cada vez que se ejecuta el procesamiento de objetos en el cuadro de selección 48. Por ejemplo, en la situación ilustrada en la Figura 3F, se supone que no se cambia el cuadro de selección 48a sino el cuadro de selección 48c a un estado marcado. En este caso, para que se ejecute el procesamiento pretendido por el usuario A, se requiere que el usuario A realice una operación de selección en el cuadro de selección 48a y luego realice una operación de selección en el cuadro de selección 48c. En este caso, la transmisión de la información que indica el estado de verificación de la casilla de selección 48, que originalmente no se requiere, se realiza dos veces de forma redundante. En esta realización, se puede evitar la aparición de dicho procesamiento redundante en el terminal de usuario 12a y el terminal de usuario 12b y el tráfico de red redundante.
La presente invención no se limita a la realización descrita anteriormente.
En lugar de una operación de clic con el ratón, una operación de toque en el panel táctil puede tratarse como una operación de instrucción de ejecución de un procesamiento predeterminado.
Además, por ejemplo, el módulo de identificación de la posición del cursor 56 puede identificar la posición del cursor 44 visualizada mediante una operación táctil flotante.
Como otro ejemplo, el movimiento o similar del usuario en un espacio tridimensional identificable en base a una imagen fotografiada por la unidad de cámara 30 o similar puede tratarse como una operación de instrucción de ejecución de procesamiento predeterminado.
Como otro ejemplo más, el sistema de intercambio de contenido 10 puede incluir el terminal de usuario 12a y el terminal de usuario 12b conectados entre sí por par a par (P2P) o similar, y no incluir el servidor 14.
Además, las cadenas de caracteres y los valores numéricos específicos descritos anteriormente y los valores numéricos y las cadenas de caracteres específicos de los dibujos son simplemente ejemplos, y la presente invención no se limita a esas cadenas de caracteres y valores numéricos.

Claims (6)

  1. REIVINDICACIONES
    i. Un sistema para compartir contenido (10), que comprende un primer terminal (12a) y un segundo terminal (12b), el primer terminal que comprende:
    medios de identificación de la posición del cursor (56) para identificar (S103) una posición de un cursor (44) en una pantalla (26) del primer terminal, estando dispuesta la pantalla para mostrar contenido compartido operable por ambos de un primer usuario (A) en el primer terminal y un segundo usuario (B) en el segundo terminal;
    medios de determinación del estado de foco (58) para determinar (S104) si un objeto (48a, 48b, 48c) en el contenido compartido está en un estado de foco o en un estado de sin foco, en base a la posición del cursor;
    medios de identificación de operación (52) para identificar (S101) que el primer usuario ha realizado una primera operación en el primer terminal, siendo la primera operación una operación para ejecutar un procesamiento predeterminado;
    medios de identificación de actualización de la pantalla (62) para identificar (S102) una actualización de la pantalla del contenido compartido por una segunda operación realizada en el segundo terminal por el segundo usuario; y
    medios de ejecución de procesamiento (66) para, cuando se identifica (S107, Y) que la actualización de la pantalla se ha realizado durante un período de tiempo predeterminado inmediatamente antes de la primera operación, ejecutar el procesamiento predeterminado (S110) en un objeto que está en un foco estado en un tiempo que es anterior y más cercano al comienzo del período de tiempo predeterminado (S108).
  2. 2. El sistema de intercambio de contenido de acuerdo con la reivindicación 1, en donde los medios de ejecución de procesamiento ejecutan el procesamiento predeterminado en un objeto que está en un estado de foco en un momento anterior a la temporización de la primera operación por el período de tiempo predeterminado y que se pone en un estado sin foco durante el período de tiempo predeterminado hasta la primera operación, cuando se identifica que la actualización de la pantalla se ha realizado durante el período de tiempo predeterminado hasta la primera operación.
  3. 3. El sistema de intercambio de contenido de acuerdo con la reivindicación 1 o 2, en donde los medios de ejecución de procesamiento ejecutan el procesamiento predeterminado en un objeto que está en un estado de foco en un tiempo que es anterior al tiempo anterior a la primera operación por el período de tiempo predeterminado y que es más cercano al momento anterior a la primera operación por el período de tiempo predeterminado, cuando una longitud entre una posición del cursor en el contenido compartido en el momento anterior a la primera operación por el período de tiempo predeterminado y una posición del cursor en el contenido compartido en un momento de la primera operación es más corto que una longitud predeterminada.
  4. 4. El sistema para compartir contenido de acuerdo con cualquiera de las reivindicaciones 1 a 3, en donde los medios de ejecución de procesamiento ejecutan el procesamiento predeterminado en un objeto que está en un estado de foco en un tiempo que es anterior al tiempo anterior a la primera operación por el período de tiempo predeterminado y que está más cerca del tiempo anterior a la primera operación por el período de tiempo predeterminado, cuando no hay ningún objeto en un estado de foco en el momento de la primera operación.
  5. 5. El sistema para compartir contenido según cualquiera de las reivindicaciones 1 a 4, en donde los medios de ejecución de procesamiento ejecutan el procesamiento predeterminado en un objeto en un estado de foco en un tiempo que es anterior al tiempo anterior a la primera operación por el período de tiempo predeterminado y que es el más cercano al tiempo anterior a la primera operación por el período de tiempo predeterminado, cuando la actualización de la pantalla no se ha realizado antes del tiempo anterior a la primera operación por el período de tiempo predeterminado.
  6. 6. Un método para compartir contenido, que comprende las etapas de:
    identificar (S103) una posición de un cursor (44) en una pantalla (26) de un primer terminal (12a) dispuesto para mostrar contenido compartido operable tanto por un primer usuario (A) en el primer terminal como por un segundo usuario (B) en un segundo terminal (12b);
    determinar (S104) si un objeto (48a, 48b, 48c) en el contenido compartido está en un estado de foco o en un estado de sin foco, en base a la posición del cursor;
    identificar (S101) que el primer usuario ha realizado una primera operación en el primer terminal, siendo la primera operación una operación para ejecutar un procesamiento predeterminado; identificar (S102) una actualización de la pantalla del contenido compartido por una segunda operación realizada en el segundo terminal por el segundo usuario; y
    cuando se identifica (S107, Y) que la actualización de la pantalla se ha realizado durante un período de tiempo predeterminado inmediatamente antes de la primera operación,
    ejecutar el procesamiento predeterminado (S110) en un objeto que está en un estado de foco en un momento anterior y más cercano al comienzo del período de tiempo predeterminado (S108).
    Un programa que contiene instrucciones que, cuando son ejecutadas por un procesador (20) de una primera terminal (12a), hacen que la primera terminal realice los procedimientos de:
    identificar (S103) una posición de un cursor (44) en una pantalla (26) del primer terminal (12a) dispuesta para mostrar contenido compartido operable tanto por un primer usuario (A) en el primer terminal como por un segundo usuario (B) en un segundo terminal (12b);
    determinar (S104) si un objeto (48a, 48b, 48c) en el contenido compartido está en un estado de foco o en un estado de sin foco, en base a la posición del cursor;
    identificar (S101) que el primer usuario ha realizado una primera operación en el primer terminal, siendo la primera operación una operación para ejecutar un procesamiento predeterminado realizado por el primer usuario;
    identificar (S102) una actualización de la pantalla del contenido compartido por una segunda operación realizada en el segundo terminal por el segundo usuario; y
    cuando se identifica (S107, Y) que la actualización de la pantalla se ha realizado durante un período de tiempo predeterminado inmediatamente antes de la primera operación, ejecutando el procesamiento predeterminado (S110) en un objeto que está en un estado de foco en un tiempo que es antes y más cercano al comienzo del período de tiempo predeterminado (S108).
ES17928809T 2017-10-10 2017-10-10 Sistema para compartir contenido, método para compartir contenido y programa Active ES2925896T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/036633 WO2019073516A1 (ja) 2017-10-10 2017-10-10 コンテンツ共有システム、コンテンツ共有方法及びプログラム

Publications (1)

Publication Number Publication Date
ES2925896T3 true ES2925896T3 (es) 2022-10-20

Family

ID=66100497

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17928809T Active ES2925896T3 (es) 2017-10-10 2017-10-10 Sistema para compartir contenido, método para compartir contenido y programa

Country Status (5)

Country Link
US (1) US11252204B2 (es)
EP (1) EP3696683B1 (es)
JP (1) JP6596616B2 (es)
ES (1) ES2925896T3 (es)
WO (1) WO2019073516A1 (es)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU6161594A (en) * 1993-02-26 1994-09-14 Taligent, Inc. Collaborative work system
JP3852742B2 (ja) * 2000-11-02 2006-12-06 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報処理システム、端末装置、情報処理方法および記憶媒体
JP4756914B2 (ja) 2005-05-30 2011-08-24 キヤノン株式会社 遠隔協調作業支援システム及びその制御方法
JP5030729B2 (ja) * 2007-10-04 2012-09-19 パイオニア株式会社 オブジェクトの編集方法、データ共有システムおよび電子遠隔会議システム
US8825758B2 (en) * 2007-12-14 2014-09-02 Microsoft Corporation Collaborative authoring modes
US9471556B2 (en) * 2013-01-30 2016-10-18 Microsoft Technology Licensing, Llc Collaboration using multiple editors or versions of a feature
US9836549B2 (en) * 2013-05-12 2017-12-05 Sap Se Collaboration adapter to exploit single-user web applications for collaborative work
JP5977450B2 (ja) 2013-06-28 2016-08-24 楽天株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP5914542B2 (ja) * 2014-02-12 2016-05-11 日本電信電話株式会社 表示制御装置、表示制御装置の動作方法およびコンピュータプログラム
US20150346937A1 (en) * 2014-05-27 2015-12-03 Breezio Inc. Collaborative system and method with drag along browsing and reading position approximation on a display device
US20160072863A1 (en) * 2014-09-09 2016-03-10 Cisco Technology, Inc. Desktop Control in Online Conferencing
US10846760B2 (en) 2014-10-28 2020-11-24 Rakuten, Inc. Information processing device, information processing method, program and storage medium
US10909080B2 (en) * 2015-05-04 2021-02-02 Microsoft Technology Licensing, Llc System and method for implementing shared document edits in real-time
US9667676B1 (en) * 2016-01-29 2017-05-30 Dropbox, Inc. Real time collaboration and document editing by multiple participants in a content management system

Also Published As

Publication number Publication date
US11252204B2 (en) 2022-02-15
EP3696683A4 (en) 2021-05-05
WO2019073516A1 (ja) 2019-04-18
EP3696683A1 (en) 2020-08-19
JPWO2019073516A1 (ja) 2019-11-14
US20200220908A1 (en) 2020-07-09
EP3696683B1 (en) 2022-07-06
JP6596616B2 (ja) 2019-10-23

Similar Documents

Publication Publication Date Title
US20150128065A1 (en) Information processing apparatus and control method
US20210240428A1 (en) Electronic device and method for sharing screen
EP3335097B1 (en) Method for measuring angles between displays and electronic device using the same
CN107077292B (zh) 剪贴信息提供方法和装置
EP3223113B1 (en) Foldable display device
CN110276007B (zh) 用于提供信息的装置和方法
CN106468950B (zh) 电子***、便携式显示装置及导引装置
KR102157289B1 (ko) 데이터 처리 방법 및 그 전자 장치
EP3141997B1 (en) Mobile terminal and method for controlling the same
US20170262139A1 (en) Network resource location linking and visual content sharing
US20160357221A1 (en) User terminal apparatus and method of controlling the same
WO2016171498A1 (en) Electronic device and method for displaying message in electronic device
US20150143283A1 (en) Information processing device, display control method, and program
US20170111308A1 (en) Electronic device and method for processing message
ES2753878T3 (es) Aparato electrónico de visualización de información representativa y procedimiento de control del mismo
US11082549B2 (en) Method for processing event notification and electronic device for supporting the same
KR20160128739A (ko) 디스플레이 장치 및 그의 유저 인터페이스 제공 방법
ES2796352T3 (es) Dispositivo para controlar independientemente múltiples áreas de visualización y procedimiento para ello
KR20150025293A (ko) 화면 구성 방법 및 그 전자 장치
CN104205857A (zh) 信息处理设备、信息处理方法和程序
WO2018004200A1 (en) Electronic device and information providing method thereof
KR102521214B1 (ko) 사용자 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치
KR102544716B1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
US20160124599A1 (en) Method for controlling multi display and electronic device thereof
CN114077411A (zh) 数据传输方法和设备