CN108885793A - 电子文档中的墨水 - Google Patents

电子文档中的墨水 Download PDF

Info

Publication number
CN108885793A
CN108885793A CN201780020583.6A CN201780020583A CN108885793A CN 108885793 A CN108885793 A CN 108885793A CN 201780020583 A CN201780020583 A CN 201780020583A CN 108885793 A CN108885793 A CN 108885793A
Authority
CN
China
Prior art keywords
ink
electronic document
painting canvas
webpage
graphic element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201780020583.6A
Other languages
English (en)
Inventor
R·L·黑斯廷斯
D·麦卡洛克
M·J·帕滕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN108885793A publication Critical patent/CN108885793A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/171Editing, e.g. inserting or deleting by use of digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/197Version control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

描述了用于电子文档中的墨水的技术。根据各种实施方式,本文描述的技术提供了一组丰富的工具,其允许用户不仅以静态2D方式(其中,用户在文档顶部上写入)而且以动态3D方式标记诸如网页之类的电子文档。另外,当将3D元素添加到电子文档时,基于对电子文档的内容的感知来添加3D元素,并且可以与文档相关地调整其内容。

Description

电子文档中的墨水
背景技术
当今的设备(例如,计算设备)通常支持各种不同的输入技术。例如,特定设备可以经由键盘、鼠标、语音输入、触摸输入(例如,触摸屏)等接收来自用户的输入。一种特别直观的输入技术使得用户能够使用触摸工具(例如,笔、触笔、手指等)来向诸如触摸屏之类的触摸感测功能单元提供徒手输入,所述徒手输入被解释为数字墨水。可以将徒手输入转变为显示器上的对应视觉表示,例如用于记笔记、用于创建和编辑电子文档等等。然而,许多用于数字墨水的当前技术通常提供有限的墨水功能。
发明内容
提供本概括是为了以简化的形式介绍对构思的选择,所述构思将在下面的详细描述中被进一步描述。本概括不旨在确定所要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
描述了用于电子文档中的墨水的技术。根据各种实施方式,本文描述的技术提供了一组丰富的工具,其允许用户不仅以静态2D方式(其中,用户在文档顶部上写入)而且以动态3D方式标记诸如网页之类的电子文档。另外,当将3D元素添加到电子文档时,基于对电子文档的内容的感知来添加3D元素,并且可以与文档相关地调整其内容。
附图说明
参考附图描述了详细描述。在附图中,附图标记的最左边的数字标识附图标记首次出现于其中的附图。在描述和附图中的不同实例中使用相同的附图标记可以指示相似或相同的项目。
图1是根据一个或多个实施例的对可操作以采用本文讨论的技术的示例性实施方式中的环境的说明。
图2描绘了根据一个或多个实施例的用于在智能墨水模式中添加墨水内容的示例性实施方式场景。
图3描绘了根据一个或多个实施例的用于元素操纵的示例性实施方式场景。
图4描绘了根据一个或多个实施例的用于画布共享的示例性实施方式场景。
图5描绘了根据一个或多个实施例的用于对网页元素的3D操纵的示例性实施方式场景。
图6描绘了根据一个或多个实施例的用于针对网页调用智能墨水模式的示例性实施方式场景。
图7描绘了根据一个或多个实施例的用于对网页元素的3D操纵的示例性实施方式场景。
图8描绘了根据一个或多个实施例的用于将改变应用于网页元素的示例性实施方式场景。
图9描绘了根据一个或多个实施例的用于共享网页元素的示例性实施方式场景。
图10是根据一个或多个实施例的用于针对电子文档调用智能墨水模式的示例性方法的流图。
图11是根据一个或多个实施例的用于实现编辑电子文档的示例性方法的流图。
图12是根据一个或多个实施例的用于将基于墨水输入的视觉影响应用于电子文档的示例性方法的流图。
图13是根据一个或多个实施例的用于3D画布的示例性方法的流图。
图14示出了如参考图1描述的示例性***和计算设备,其被配置为实现本文描述的技术的实施例。
具体实施方式
概述
描述了用于电子文档中的墨水的技术。通常,墨水指代对触摸感测功能单元和/或用于感测无触摸手势的功能单元的徒手输入,所述徒手输入被解释为数字墨水,在本文中被称为“墨水”。可以以各种方式提供墨水,例如使用笔(例如,有源笔、无源笔等)、触笔、手指、无触摸手势输入等。
根据各种实施方式,电子文档中的墨水提供一组丰富的工具,其允许用户不仅以静态2D方式(其中,用户在文档顶部上写入)而且以动态3D方式标记诸如网页之类的电子文档。另外,当将3D元素添加到电子文档时,3D元素基于对电子文档的内容的感知而被添加,并且可以与文档相关地调整其内容。
通常,本文描述的技术通过减少以可编辑形式放置诸如网页之类的电子文档所需的计算机操作来提供增加的计算效率。此外,用于电子文档中的墨水的技术实现先前经由墨水输入不可能的与电子文档的交互。
在以下讨论中,首先描述了可操作以采用本文描述的技术的示例性环境。接下来,标题为“示例性实施方式场景”的部分描述了根据一个或多个实施例的一些示例性实施方式场景。在此之后,标题为“示例性过程”的部分描述了根据一个或多个实施例的一些示例性过程。最后,标题为“示例性***和设备”的部分描述了根据一个或多个实施例的可操作以采用本文讨论的技术的示例性***和设备。
已经呈现了对根据一个或多个实施例的示例性实施方式的概述,现在考虑其中可以采用示例性实施方式的示例性环境。
示例性环境
图1是对可操作以采用本文讨论的用于电子文档中的墨水技术的示例性实施方式中的环境100的说明。环境100包括客户端设备102,其可以体现为任何合适的设备,例如(作为示例而非限制)智能手机、平板计算机、便携式计算机(例如,膝上型计算机)、桌上型计算机、可穿戴设备等等。在至少一些实施方式中,客户端设备102表示智能器具,例如物联网(“IoT”)设备。因此,客户端设备102的范围可以从具有显著处理能力的***到具有最小处理能力的轻量级设备。以下在图14中示出并描述了客户端设备102的各种不同示例之一。
客户端设备102包括使得能够各种活动和任务执行的各种不同功能。例如,客户端设备102包括操作***104、应用106和通信模块108。通常,操作***104表示用于抽象客户端设备102的各种***组件的功能单元,所述***组件例如硬件、内核级模块和服务等。例如,操作***104可以将客户端设备102的各种组件(例如,硬件、软件和固件)抽象到应用106,以实现组件和应用106之间的交互。
应用106表示用于经由客户端设备102执行不同任务的功能单元。应用106的示例包括文字处理应用、电子表格应用、网络浏览器110、游戏应用等。应用106可以本地地安装在客户端设备102上以经由本地运行时环境执行,并且/或者可以表示远程功能单元的门户,所述远程功能单元例如基于云的服务、网络app等。因此,应用106可以采用各种形式,例如本地执行的代码、远程托管服务的门户等等。
通信模块108表示用于使得客户端设备102能够在有线和/或无线连接上通信的功能单元。例如,通信模块108表示用于经由各种不同的有线和/或无线技术和协议进行通信的硬件和逻辑单元。
客户端设备102还包括显示设备112、输入模块114、输入机构116和墨水模块118。显示设备112通常表示用于客户端设备102的视觉输出的功能单元。另外,显示设备112表示用于接收各种类型的输入的功能单元,所述输入例如触摸输入、笔输入等。
输入模块114表示使得客户端设备102能够(例如,经由输入机构116)接收输入并以各种方式处理和路由输入的功能单元。
输入机构116通常表示用于接收对客户端设备102的输入的不同功能单元,并且包括数字转换器120、触摸式输入设备122和非触摸式输入设备124。输入机构116的示例包括手势敏感传感器和设备(例如,基于触摸的传感器和运动跟踪传感器(例如,基于相机的))、鼠标、键盘、触笔、触摸板、加速度计、具有伴随的语音识别软件的麦克风等等。输入机构116可以与显示设备112分离或集成;集成示例包括具有集成的触摸敏感或运动敏感传感器的手势敏感显示器。数字转换器120表示用于将对显示设备112、触摸式输入设备122和非触摸式输入设备124的各种类型的输入转变成可以由客户端设备102以各种方式使用的数字数据的功能单元,例如用于生成数字墨水、生成输入信号、生物识别等。
非接触式输入设备124通常表示用于识别不同类型的非触摸式输入的不同设备,并且被配置为接收各种非触摸式输入,例如经由人类手势的视觉识别、对象扫描、语音识别、颜色识别等等。在至少一些实施例中,非触摸式输入设备124被配置为经由相机识别手势、姿势、身体运动、对象、图像等。例如,示例性相机可以配置有透镜、光源和/或光传感器,使得各种不同的现象可以被观察并被捕获为输入。例如,相机可以被配置为感测沿各种维度的运动,例如垂直运动、水平运动以及向前和向后运动(例如,相对于非触摸式输入设备124)。因此,在至少一些实施例中,非触摸式输入设备124可以捕获关于图像合成、运动和/或位置的信息。识别模块108可以使用该信息来执行各种不同的任务。
例如,输入模块114可以利用非触摸式输入设备124来执行骨架映射以及关于人体的特定点(例如,不同的骨架点)的特征提取以跟踪一个或多个用户(例如,同时四个用户)以进行运动分析。在至少一些实施例中,特征提取指代将人体表示为可以被跟踪以生成输入的一组特征。
根据各种实施方式,墨水模块118表示用于执行用于本文讨论的电子文档中的墨水的技术的各个方面的功能单元。下面讨论了墨水模块118的各种功能。
环境100还包括笔126,其表示用于向显示设备112提供输入的输入设备。通常,笔126具有传统笔的形状因子,但包括用于与显示设备112交互的功能以及客户端设备102的其它功能。在至少一些实施方式中,笔126是有源笔,其包括用于与客户端设备102交互的电子组件。笔126例如包括可以向笔126的内部组件提供电力的电池。
替代地或另外地,笔126可以包括支持在显示设备112上进行悬停检测的磁体或其他功能单元。然而,这不旨在是限制性的,并且在至少一些实施方式中,笔126可以是无源的,例如,没有内部电子设备的触笔。通常,笔126表示输入设备,其可以提供可以与客户端设备102的其他类型的输入区分开的输入。例如,数字转换器120被配置为在经由笔126提供的输入和由诸如用户的手指、触笔等的不同输入机制提供的输入之间进行区分。
环境100还包括墨水服务单元128,客户端设备102可以例如经由网络130与所述墨水服务单元128进行通信。通常,可以利用墨水服务单元128来执行本文描述的电子文档中的墨水的各个方面。在至少一些实施方式中,墨水服务单元128表示可以执行本文讨论的各种功能的基于网络的服务(例如,云服务)。
网络130可以以各种方式实现,例如有线网络、无线网络及其组合。在至少一些实施方式中,网络130表示互联网。
已经描述了本文描述的技术可以在其中操作的示例性环境,现在考虑对根据一个或多个实施例的一些示例性实施方式场景的讨论。
示例性实施方式场景
该部分描述了根据一个或多个实施方式的用于电子文档中的墨水的一些示例性实施方式场景。可以在以上描述的环境100、图14的***1400和/或任何其他合适的环境中实现实施方式场景。例如,实施方式场景和过程描述了客户端设备102、墨水模块118和/或墨水服务单元128的示例性操作。虽然参考特定应用(例如,网络浏览器110)讨论了实施方式场景,但应当领会,用于本文讨论的电子文档中的墨水的技术适用于各种不同的应用、服务和环境。
图2描绘了根据一个或多个实施方式的用于在智能墨水模式中添加墨水内容的示例性实施方式场景200。场景200的上部包括在显示设备112上显示的图形用户界面(GUI)202。通常,GUI 202表示网络浏览器110的GUI。还描绘了持有笔126的用户。显示在GUI 202内的是网页204,其包括各种图形元素和文本元素。例如,网页204包括图形元素206和图形元素208。
关于场景200,用户选择墨水模式控件210,其将网络浏览器110转变为智能墨水模式212。通常,调用智能墨水模式212将网页204转换成3维(3D)墨水画布,其实现与网页204的各种不同的交互和对网页204的各种不同操纵。例如,在智能墨水模式212中,在网页204的底层结构的上下文中,对网页204的墨水输入被应用。例如,在智能墨水模式212中,网页204被转变为“墨水画布”,其是3维(3D)画布的2维(2D)表示。通常,墨水画布是网页204的交互式版本,其使得网页204的各种元素能够在模拟的3D环境中可查看和可编辑。例如,当在智能墨水模式212中的同时将墨水施加到墨水画布时,墨水受到网页204的底层结构的影响和/或影响网页204的底层结构,并且不仅仅作为墨水层应用在网页204的静态版本的顶部上。
前进到场景200的下部,用户操纵笔126以应用墨水来在网页204上绘制墨水对象214。由于网络浏览器110在智能墨水模式212中,所以墨水对象214被视为影响网页204的3D对象。在该特定实例中,绘制墨水对象214使得阴影216被创建,所述阴影216覆盖图形元素208的一部分。例如,墨水模块118检测到墨水对象214覆盖图形元素208的一部分,并且因此查明墨水对象214将被视为在网页204上具有比图形元素208更高的层顺序(例如,z顺序)。
因此,墨水对象214被添加为3D对象,其可以相对于网页204以3D方式***纵,例如通过相对于网页214的其他元素来操纵墨水对象214的深度。通常,如本文讨论的以3D方式操纵元素和/或对象指代与提供3D环境的视觉模拟的2D上下文中的元素/对象(例如,被显示在显示设备112上)的交互。
因此,场景200示出了用于电子文档中的墨水的技术使得网页的底层结构能够在向网页应用墨水时被考虑。
图3描绘了根据一个或多个实施方式的用于网络元素操纵的示例性实施方式场景300。在至少一些实施方式中,场景300表示场景200上的继续和/或变化。场景300的上部包括GUI 202,其中,网页204被显示在显示设备112上。
关于场景300,并且当智能墨水模式212是活动的同时,用户操纵笔126以选择图形元素206。这使得图形元素206进入编辑模式,使得用户可以以各种方式编辑图形元素206。例如,图形元素206看起来在视觉上是网页204的表面的弹出,其提供可以以各种方式操纵和编辑图形元素206的视觉提示,例如以影响图形元素206的2D/3D外观和/或结构。
前进到场景300的下部,当图形元素在编辑模式中的同时,用户在图形元素206周围绘制自定义框架302。因此,当用户退出图形元素206的编辑模式时,自定义框架302被添加到网页204的结构。
仅出于示例的目的呈现了自定义框架302,并且应当领会,可以根据本文描述的技术将各种各样的不同修改和效果应用于网页元素。
因此,场景300示出了用于电子文档中的墨水的技术使得墨水能够被应用以影响网页的底层结构。
图4描绘了根据一个或多个实施方式的用于画布共享的示例性实施方式场景400。在至少一些实施方式中,场景400表示以上描述的场景200-400上的继续和/或变化。场景400的上部包括GUI 202,其中,网页204被显示在显示设备112上。通常,网页204在智能墨水模式中的同时已经被修改,如在场景200、300中描述的。
关于场景400,用户选择共享控件402,其使得网页204被共享给计算设备404并且被显示为计算设备404的显示器406的部分。例如,网页204表示被共享给计算设备404的3D画布。计算设备404的用户可以调用智能墨水模式以对网页204进行进一步的修改,网页204的示例将在本文被讨论。
通常,可以以各种方式共享网页204。例如,修改的网页204保存在网络位置(例如,墨水服务单元128)处,并且到网页204的链接(例如,超链接)被共享给计算设备404。例如,计算设备404可以经由链接访问来自网络位置的网页404并与所述网页404交互。在另一示例中,网页204被保存为网页文件(例如,网络存档(WAR)文件),并且文件被传送到计算设备404。
因此,场景400示出了可以采用本文描述的用于电子文档中的墨水的技术将网页转变成可以由各种用户共享和修订的交互式墨水画布。
图5描绘了根据一个或多个实施方式的用于对网页元素的3D操纵的示例性实施方式场景500。场景500的上部包括显示在显示设备112上的图形用户界面(GUI)502。通常,GUI502表示网络浏览器110的GUI。在GUI502内显示的是包括各种图形元素和文本元素的网页504。例如,网页204包括相片(“照片”)506。
关于场景500,用户选择墨水模式控件210,其将网络浏览器110转变为智能墨水模式212。因此,网页504被转换成墨水画布。然后,用户用笔126将操纵手势508应用于照片506。
响应于操纵手势508并前进到场景500的下部,在GUI 502内照片506被翻转,例如180度。例如,手势508使得照片506转变为编辑模式,其中,可以以各种方式编辑照片506。例如,翻转照片506揭示照片506的后画布510,其可用于各种目的。如这里示出的,例如,用户用笔126将墨水注释512应用于后画布510。墨水注释512成为网页504的永久部分,例如,被添加到照片506的内容数据和/或元数据。因此,用户可以随后访问墨水注释512以及网页504,例如经由选择和/或与照片506的其他交互。
在至少一些实施方式中,场景500使得网页504的发布的版本要用墨水注释512更新,使得当不同的用户随后浏览到网页504时,该不同的用户可以访问、查看墨水注释512以及网页504的其他部分并与墨水注释512以及网页504的其他部分进行交互。
图6描绘了根据一个或多个实施方式的用于针对网页调用智能墨水模式的示例性实施方式场景600。场景600的上部包括显示在显示设备112上的图形用户界面(GUI)602。通常,GUI 602表示网络浏览器110的GUI。在GUI 602内显示的是包括各种图形元素和文本元素的网络页面604。在该特定示例中,网页604表示用户可以在其中浏览和购买鞋子的购物网站。因此,网页604包括不同鞋子的图像。
关于场景600,用户激活智能墨水模式212。例如,用户选择墨水模式控件210。替代地,用户将笔126接近显示设备112的表面,这使得智能墨水模式212自动针对网站604而被调用。因此,网页604被转换成墨水画布。用智能墨水模式212中的网络浏览器110,用户选择图形元素606,在该特定示例中,所述图形元素606是鞋子的图像。
前进到场景600的下部并且响应于在智能墨水模式212中的同时选择图形元素606,呈现交互元素608,其表示图形元素606的交互版本。例如,交互元素608是可以以各种方式操纵和编辑的对图形元素606的3D表示。
在场景600中,交互元素608在视觉上覆盖在网页604上以指示智能墨水模式212是活动的并且交互元素608能够***纵和编辑。例如,提供视觉提示以指示交互元素608在可操纵状态下。例如,考虑以下示例性场景。
图7描绘了根据一个或多个实施方式的用于对网页元素的3D操纵的示例性实施方式场景700。例如,场景700表示上面讨论的场景600的继续。场景600的上部包括图形用户界面(GUI)602,其中,网页604被显示在显示设备112上。此外,网页604在智能墨水模式212中并且交互元素608被呈现,如以上描述的。
在场景700的上部,用户操纵笔126以与交互元素608进行交互。例如,用户将笔126拖过交互元素608,这使得交互元素608以3D方式旋转。通过使用笔126操纵交互元素608,用户能够查看交互元素608的不同视角,例如图形元素606的不同视图。例如,交互元素608是可相对于多个轴旋转的,所述多个轴例如不同的垂直轴和水平轴。
前进到场景700的下部,用户操纵笔126以将墨水应用到交互元素604。例如,用户用墨水着色交互元素604的一部分。用户还可以对交互元素604进行各种其他改变,例如墨水注释,以改变交互元素604的线条的维度和位置,等等。因此,智能墨水模式212使得视觉元素能够以各种方式***纵。
图8描绘了根据一个或多个实施方式的用于将改变应用于网页元素的示例性实施方式场景800。例如,场景800表示上面讨论的场景600、700的继续。场景800的上部包括图形用户界面(GUI)602,其中,网页604被显示在显示设备112上。网页604在智能墨水模式212中并且交互元素608被呈现,如以上描述的。
在场景800的上部,用户执行动作以停用智能墨水模式212。例如,用户选择智能墨水控件210,这使得网络浏览器110退出智能墨水模式212。
前进到场景800的下部并且响应于退出智能墨水模式212,移除交互元素608,并且用是交互元素608的2D表示的图形元素802来替换图形元素606。例如,图形元素802是当智能墨水模式212被停用时捕获的交互元素608的快照。因此,视角(例如,旋转)的变化和对交互元素608的编辑被反映在图形元素802中。在该特定示例中,图形元素802示出了交互元素608的旋转和应用于交互元素608的墨水,如参考场景700描述的。
在至少一些实施方式中,重新发布网页604,其中,图形元素802替换先前场景中示出的图形元素606。例如,随后浏览到网页604的用户查看具有图形元素802而不是图形元素606的网页604。
根据各种实施方式,交互元素608和/或修订的网页604是可以各种方式共享的。例如,考虑以下示例性场景。
图9描绘了根据一个或多个实施方式的用于共享网页元素的示例性实施方式场景900。例如,场景900表示上面讨论的场景600-800的继续。场景900的上部包括图形用户界面(GUI)602,其中,网页604被显示在显示设备112上。网页604在智能墨水模式212中并且交互元素608被呈现,如以上描述的。
在场景900的上部,用户执行动作以共享交互元素608。例如,用户选择共享控件402。替代地,用户可以用笔126应用特定手势,所述手势被墨水模块118解释为用于发起共享交互元素608的命令。
前进到场景900的下部并且响应于用户动作,将交互元素608的副本填充到共享空间902。在该特定示例中,共享空间902包括电子邮件消息904,其被附加和/或嵌入交互元素608。然而,共享空间902可以以各种其他方式实现,例如多媒体消息(MMS)、网络共享站点、交互式协作应用等。
因此,用户可以发送具有交互元素608的电子邮件消息904以使得接收者能够查看交互元素608并与之交互。例如,接收电子邮件消息904的用户可以打开交互元素608以查看交互元素608并且对交互元素608进行进一步的修改。例如,交互元素608保持其3D特征以及跨共享体验的可操纵性。
上面呈现的场景仅描述了用于电子文档中的墨水的一些示例性实施方式。通常,用于电子文档中的墨水的技术使得网页和/或其他电子文档能够被转换成3D画布,使得网页的元素可以经由墨水输入以3维方式作为3D元素***纵。例如,当将墨水应用于网页时,考虑关于网页元素的底层数据,例如深度、形状、轮廓、斜率等。网页上的元素之间的交互可以以各种方式发生,例如经由阴影、照明、动作等。
此外,墨水输入可以用于以3D方式添加元素,所述元素成为网页的一部分并且影响网页的其他元素和/或受到网页的其他元素的影响。因此,可以利用用于电子文档中的墨水的技术将网页转换成可共享给各种不同用户和设备的3D画布,以实现对网页的各种操纵和修改,所述操纵和修改不仅考虑网页的底层结构,而且转换和增强底层结构。
虽然本文关于使用笔126的墨水输入讨论了实施方式,但是应当领会,可以使用任何合适的触摸式和/或非触摸式输入技术来实现用于电子文档中的墨水的技术。例如,可以采用其他触摸式输入设备122,例如用户的手指、触笔等。替代地或另外地,可以采用非触摸式输入技术,例如在使用混合现实耳机实现的混合/虚拟现实设置内或者呈现增强型现实和/或虚拟现实用户界面的其他方式。例如,在以上描述的场景中显示的各种视觉可以被显示为混合/虚拟现实设置的部分,并且经由手势的用户输入可以在这样的设置中被检测以实现本文描述的功能。例如,可以采用手势来将墨水输入提供到网络浏览器界面中。
已经描述了一些示例性实施方式场景,现在考虑根据一个或多个实施方式的一些示例性过程。
示例性过程
以下讨论描述了根据一个或多个实施例的用于跨环境共享的一些示例性过程。可以在图1的环境100、图14的***1400和/或任何其他合适的环境中采用示例性过程。例如,这些过程表示用于实现上面讨论的示例性实施方式场景的过程。在至少一些实施例中,针对各种过程描述的步骤可以自动地并且独立于用户交互而被实现。过程可以在客户端设备102处本地地执行、由墨水服务单元128执行和/或经由这些功能单元之间的交互来执行。然而,这不旨在是限制性的,并且方法的方面可以由任何合适的实体执行。
图10是描述根据一个或多个实施例的方法中的步骤的流图。方法描述了根据一个或多个实施方式的用于针对电子文档调用智能墨水模式的示例性过程。
步骤1000检测到智能墨水模式针对电子文档被调用。例如,电子文档表示显示在显示器上的网页。以上讨论了调用智能墨水模式的不同方式。
步骤1002将电子文档转换成表示电子文档的3维(3D)版本的2维(2D)表示的3D画布。例如,响应于检测到智能墨水模式被调用,墨水模块118使得电子文档转换为表示电子文档的可编辑版本的可编辑画布。在其中电子文档是网页的实施方式中,墨水模块118可以与网络浏览器110交互以使得网页能够经由网络浏览器110被显示并且可经由网络浏览器110被编辑。
步骤1004使得电子文档的元素能够经由墨水输入相对于3D画布以3D方式***纵。例如,元素是表示电子文档内容的图形元素。
步骤1006接收操纵元素特性的墨水输入。如以上讨论的,可以以各种方式操纵元素,例如通过改变元素的位置、朝向和/或外观。在以上描述的实施方式中呈现了操纵元素的各方面的不同示例性方式。
步骤1008基于墨水输入来修改元素的存储的版本。例如,电子文档的存储的版本被更新以反映对元素的修改。
在一个或多个实施方式中,电子文档表示网页。因此,修改电子文档的存储的版本可以包括用修改的元素来更新网页的发布的版本。这可以使得更新的网页能够是可经由网络浏览器110(例如,在互联网上)访问的以访问和查看更新的网页。
图11是描述根据一个或多个实施例的方法中的步骤的流图。方法描述了根据一个或多个实施方式的用于实现对电子文档的编辑的示例性过程。例如,方法描述了上面参考图10描述的方法的示例性扩展。
步骤1100接收对3D画布的墨水输入,所述3D画布表示电子文档的可编辑版本。例如,用户调用智能墨水模式,所述智能墨水模式使得电子文档转换成可编辑的3D画布,例如以上描述的。然后,用户将墨水输入应用于3D画布,例如通过使用笔126来编辑电子文档的元素和/或将对象添加到3D画布。
步骤1102在电子文档的结构的上下文中将墨水输入添加到3D画布。例如,墨水输入被应用于电子文档并受到电子文档的结构的影响。例如,考虑将墨水输入跨电子文档的现有文本应用。文本的形状影响墨水输入,例如当墨水输入应用于文本输入的轮廓时,通过引起墨水输入的纹理和阴影的变化。作为另一示例,墨水输入被应用于电子文档的图形元素。图形元素的阴影和纹理的变化引起墨水输入的阴影和纹理的对应变化。因此,电子文档的底层结构影响墨水输入的视觉外观。
图12是描述根据一个或多个实施例的方法中的步骤的流图。方法描述了根据一个或多个实施方式的用于将基于墨水输入的视觉影响(visual affect)应用于电子文档的示例性过程。例如,方法描述了上面参考图10描述的方法的示例性扩展。
步骤1200接收将墨水对象添加到3D画布的墨水输入。例如,用户操纵笔126以在3D画布上绘制对象。
步骤1202基于墨水对象将视觉效果应用于图形元素。例如,墨水对象的属性用于将视觉效果应用于图形元素。例如,考虑墨水对象与图形元素相邻和/或部分覆盖图形元素。因此,阴影可以从墨水对象投射到图形元素上。
替代地或另外地,可以基于墨水对象来改变图形元素的形状,例如通过拉伸或压缩图形元素以容适墨水对象的视觉定位。这些视觉效果仅出于示例的目的而被呈现,并且各种其他视觉效果可以应用于所要求保护的实施方式的范围内。
图13是描述根据一个或多个实施例的方法中的步骤的流图。方法描述了根据一个或多个实施方式的用于共享3D画布的示例性过程。例如,方法描述了以上描述的方法的示例性扩展。
步骤1300检测到用于共享3D画布的用户动作。例如,墨水模块118检测指示用于共享3D画布的命令的用户输入。以上讨论了用于发起共享3D画布的用户动作的各种示例。
步骤1302使得3D画布被共享给设备。在至少一些实施方式中,3D画布从一个设备共享给另一设备。通常,共享3D画布使得3D画布能够被其他设备和用户查看和编辑。例如,当修改3D画布的图形元素并且然后将3D画布共享给不同的设备时,修改的图形元素以及3D画布的其他部分可在不同的设备处被编辑。
在至少一些实施方式中,3D画布可以经由设备对设备通信被共享,例如直接地和/或在中间网络上。替代地或另外地,3D画布可以被共享给其他设备可访问的网络站点。例如,可以将3D画布共享给协作站点,使得多个用户可以经由协作站点访问和操纵3D画布。
作为另一示例,3D画布可以作为网站的部分被发布。例如,3D画布可以被存储为可经由网络(例如,在互联网上)访问的网站。因此,可以将网站被托管在其处的网络位置的地址(例如,统一资源定位符(URL)和/或超链接)共享给不同的设备,以使得网站能够被访问和操纵。
已经描述了用于电子文档中的墨水的一些示例性过程,现在考虑对根据一个或多个实施例的示例性***和设备的讨论。
示例性***和设备
图14示出了概括地在1400处表示的示例性***,所述示例性***包括示例性计算设备1402,所述示例性计算设备1402表示可以实现本文描述的各种技术的一个或多个计算***和/或设备。例如,上面参考图1讨论的客户端设备102和/或墨水服务单元128可以体现为计算设备1402。计算设备1402可以是例如服务提供商的服务器、与客户端相关联的设备(例如,客户端设备)、片上***和/或任何其他合适的计算设备或计算***。
如所示的示例性计算设备1402包括彼此通信地耦合的处理***1404、一个或多个计算机可读介质1406以及一个或多个输入/输出(I/O)接口1408。虽然未示出,但是计算设备1402还可以包括***总线或其他数据和命令传输***,其将各种组件彼此耦合。***总线可以包括不同总线结构中的任一者或任意组合,所述总线结构例如使用各种总线架构中的任一者的存储器总线或存储器控制器、***总线、通用串行总线和/或处理器或本地总线。还预期了各种其他示例,例如控制线和数据线。
处理***1404表示使用硬件执行一个或多个操作的功能单元。因此,处理***1404被示为包括可以被配置为处理器、功能块等的硬件元件1410。这可以包括用硬件实现为专用集成电路或使用一个或多个半导体形成的其他逻辑器件。硬件元件1410不受形成它们的材料或其中采用的处理机制的限制。例如,处理器可以包括半导体和/或晶体管(例如,电子集成电路(IC))。在这样的上下文中,处理器可执行指令可以是电子可执行指令。
计算机可读介质1406被示为包括存储器/存储装置1412。存储器/存储设备1412表示与一个或多个计算机可读介质相关联的存储器/存储能力。存储器/存储装置1412可以包括易失性介质(例如,随机存取存储器(RAM))和/或非易失性介质(例如,只读存储器(ROM)、闪速存储器、光盘、磁盘等)。存储器/存储装置1412可以包括固定介质(例如,RAM、ROM、固定硬盘驱动器等)以及可移除介质(例如,闪速存储器、可移除硬盘驱动器、光盘等)。计算机可读介质1406可以以各种其他方式来配置,如下面进一步描述的。
输入/输出接口1408表示用于允许用户将命令和信息录入到计算设备1402并且还允许使用各种输入/输出设备将信息呈现给用户和/或其他组件或设备的功能单元。输入设备的示例包括键盘、光标控制设备(例如,鼠标)、麦克风(例如,用于语音识别和/或语音输入)、扫描仪、触摸功能单元(例如,被配置为检测物理触摸的电容或其他传感器)、相机(例如,其可以采用诸如红外频率的可见或不可见波长来将不涉及触摸的运动检测为手势)等等。输出设备的示例包括显示设备(例如,监视器或投影仪)、扬声器、打印机、网卡、触觉响应设备等。因此,计算设备1402可以以如下面进一步描述的各种方式配置以支持用户交互。
本文可以在软件、硬件元件或程序模块的一般上下文中描述各种技术。通常,这样的模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元素、组件、数据结构等。如本文使用的术语“模块”、“功能”、“实体”和“组件”通常表示软件、固件、硬件或其组合。本文描述的技术的特征是与独立于平台的,这意味着可以在具有各种处理器的各种商业计算平台上实现这些技术。
所描述的模块和技术的实施方式可以被存储在某种形式的计算机可读介质上或跨所述计算机可读介质被发送。计算机可读介质可以包括可以由计算设备1402访问的各种介质。作为示例而非限制,计算机可读介质可以包括“计算机可读存储介质”和“计算机可读信号介质”。
“计算机可读存储介质”可以指代与仅仅信号传输、载波或信号本身相比实现持久的信息存储的介质和/或设备。计算机可读存储介质不包括信号本身。计算机可读存储介质包括诸如以方法或技术实现的易失性和非易失性、可移除和不可移除介质和/或存储设备之类的硬件,所述方法和技术适于存储诸如计算机可读指令、数据结构、程序模块、逻辑元件/电路或其他数据之类的信息。计算机可读存储介质的示例可以包括但不限于RAM、ROM、EEPROM、闪速存储器或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光学存储装置、硬盘、磁带盒、磁带、磁盘存储装置或其他磁存储设备,或适于存储期望的信息并且可由计算机访问的其他存储设备、有形介质或制品。
“计算机可读信号介质”可以指代信号承载介质,其被配置为例如经由网络将指令发送到计算设备1402的硬件。信号介质通常可以体现计算机可读指令、数据结构、程序模块或调制的数据信号(例如,载波、数据信号或其他传输机制)中的其他数据。信号介质还包括任何信息递送介质。术语“调制的数据信号”意指以对信号中的信息进行编码的方式设置或改变其特性中的一者或多者的信号。作为示例而非限制,通信介质包括诸如有线网络或直接有线连接之类的有线介质以及诸如声学、射频(RF)、红外线和其他无线介质的之类无线介质。
如先前所描述,硬件元件1410和计算机可读介质1406表示以硬件形式实现的指令、模块、可编程器件逻辑和/或固定器件逻辑,其可以在一些实施例中被采用以实现本文描述的技术的至少一些方面。硬件元件可以包括集成电路或片上***的组件、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)以及硅或其他硬件设备中的其他实施方式。在该上下文中,硬件元件可以作为执行由指令、模块和/或逻辑定义的程序任务的处理设备,所述指令、模块和/或逻辑由被使用以存储用于执行的指令的硬件元件以及硬件设备(例如前面描述的计算机可读存储介质)体现。
还可以采用前述的组合来实现本文描述的各种技术和模块。因此,软件、硬件或程序模块和其他程序模块可以实现为体现在某种形式的计算机可读存储介质上和/或由一个或多个硬件元件1410体现的一个或多个指令和/或逻辑。计算设备1402可以被配置为实现与软件和/或硬件模块相对应的特定指令和/或功能。因此,可由计算设备1402作为软件执行的模块的实施方式可以至少部分地用硬件实现,例如,通过使用处理***的计算机可读存储介质和/或硬件元件1410。指令和/或功能可以是可由一个或多个制品(例如,一个或多个计算设备1402和/或处理***1404)执行/操作的,以实现本文描述的技术、模块和示例。
如图14进一步示出的,示例性***1400实现了用于在个人计算机(PC)、电视设备和/或移动设备上运行应用时的无缝的用户体验的无处不在的环境。当使用应用、玩视频游戏、观看视频等的同时从一个设备转变为下一设备时,服务和应用在所有三种环境中基本相似地运行,以获得共同的用户体验。
在示例性***1400中,多个设备通过中央计算设备互连。中央计算设备可以本地于多个设备,或者可以远离多个设备地定位。在一个实施例中,中央计算设备可以是通过网络、互联网或其他数据通信链路连接到多个设备的一个或多个服务器计算机的云。
在一个实施例中,该互连架构使得功能能够跨多个设备被递送,以向多个设备的用户提供共同且无缝的体验。多个设备中的每一者可以具有不同的物理要求和能力,并且中央计算设备使用平台来实现向设备递送既针对设备定制又对所有设备是共同的体验。在一个实施例中,创建一类目标设备,并且为通用类设备定制体验。可以通过设备的物理特征、使用类型或其他共同特性来定义一类设备。
在各种实施方式中,计算设备1402可以采取各种不同的配置,例如用于计算机1414、移动1416和电视1418的用途。这些配置中的每一者包括可以具有通常不同的构造和能力的设备,并且因此可以根据不同的设备类中的一者或多者来配置计算设备1402。例如,计算设备1402可以被实现为包括个人计算机、桌上型计算机、多屏幕计算机、膝上型计算机、上网本等的计算机1414类设备。
计算设备1402还可以被实现为包括移动设备的移动1416类设备,例如移动电话、便携式音乐播放器、便携式游戏设备、平板计算机、可穿戴设备、多屏幕计算机等等。计算设备1402还可以被实现为电视1418类设备,其包括在休闲观看环境中具有或连接到通常较大屏幕的设备。这些设备包括电视、机顶盒、游戏控制台等。
本文描述的技术可以由计算设备1402的这些各种配置支持,并且不限于本文描述的技术的特定示例。例如,参考客户端设备102、墨水模块118和/或墨水服务单元128讨论的功能单元可以全部或部分地通过使用分布式***来实现,例如在如以下描述的经由平台1422的“云”1420上。
云1420包括和/或表示资源1424的平台1422。平台1422抽象云1420的硬件资源(例如,服务器)和软件资源的底层功能。资源1424可以包括当计算机处理在远离计算设备1402的服务器上被执行的同时可以被使用的应用和/或数据。资源1424还可以包括在互联网上和/或通过订户网络(例如,蜂窝或Wi-Fi网络)提供的服务。
平台1422可以抽象资源和功能以将计算设备1402与其他计算设备连接。平台1422还可以用于抽象资源的缩放以将缩放的对应级别提供给对经由平台1422实现的资源1424的遇到的需求。因此,在互连设备实施例中,本文描述的功能的实施方式可以分布在整个***1400中。例如,功能可以部分地在计算设备1402上被实现以及经由抽象云1420的功能的平台1422被实现。
本文讨论的是可以被实现以执行本文讨论的技术的多种方法。方法的各方面可以用硬件、固件或软件或其组合来实现。方法被示出为一组步骤,其指定由一个或多个设备执行的操作并且不一定限于示出的用于由相应的块执行操作的顺序。此外,根据一个或多个实施方式,可以将关于特定方法示出的操作与不同方法的操作进行组合和/或互换。可以经由上面参考环境100讨论的各种实体之间的交互来实现方法的各方面。
本文讨论的实施方式包括:
示例1:一种用于基于墨水输入来修改图形元素的存储的版本的***,该***包括:显示器;一个或多个处理器;以及一个或多个计算机可读存储介质,其存储计算机可执行指令,所述指令响应于由一个或多个处理器执行使得***执行包括以下步骤的操作:将电子文档转换成表示电子文档的3维(3D)版本的2维(2D)表示的3D画布;实现电子文档的图形元素经由墨水输入相对于3D画布以3D方式***纵;接收操纵图形元素的特性的墨水输入;以及基于墨水输入来修改图形元素的存储的版本。
示例2:如示例1中所述的***,其中,电子文档包括网页,并且图形元素包括所述网页的图形元素。
示例3:如示例1或2中的一者或多者所述的***,其中,电子文档包括网页,并且所述转换响应于检测到针对网页调用智能墨水模式而被执行。
示例4:如示例1-3中的一者或多者所述的***,其中,所述实现响应于经由笔选择所述图形元素而被执行。
示例5:如示例1-4中的一者或多者所述的***,其中,操作还包括:接收对所述3D画布的墨水输入;以及在电子文档的结构的上下文中将墨水输入添加到3D画布。
示例6:如示例1-5中的一者或多者所述的***,其中,电子文档包括另外的图形元素,并且其中,操作还包括:接收将墨水对象添加到3D画布的墨水输入;以及基于墨水对象将视觉效果应用于另外的图形元素。
示例7:如示例1-6中的一者或多者所述的***,其中,墨水输入包括图形元素的注释,并且其中,所述修改包括将注释添加到图形元素的存储的版本。
示例8:如示例1-7中的一者或多者所述的***,其中,电子文档包括网页,并且其中,操作还包括:更新网页以用图形元素的修改的存储的版本来替换图形元素,所述更新使得网页的发布的版本被更新。
示例9:如示例1-8中的一者或多者所述的***,其中,操作还包括使得3D画布作为3D画布的可编辑版本被共享给不同的***。
示例10:一种用于实现电子文档的元素经由墨水输入而***纵的方法,方法包括:检测到针对电子文档调用智能墨水模式;响应于所述检测,将电子文档转换成表示电子文档的3维(3D)版本的2维(2D)表示的3D画布;以及实现电子文档的元素经由墨水输入相对于3D画布以3D方式来***纵。
示例11:如示例10中所述的方法,其中,电子文档包括网页,并且元素包括网页的图形元素。
示例12:如示例10或11中的一者或多者所述的方法,其中,电子文档包括网页,图形元素包括网页的图形元素,并且其中,所述实现包括实现图形元素在3D画布内相对于图形元素的多个轴旋转,以模拟图形元素的3D旋转。
示例13:如示例10-12中的一者或多者所述的方法,还包括:从3D画布接收对元素的选择;以响应于所述接收,提供关于元素能够***纵和编辑以影响元素的外观的视觉提示。
示例14:如示例10-13中的一者或多者所述的方法,还包括:接收经由3D画布对元素的编辑;使得元素基于编辑而被修改;以及使得电子文档的发布的版本用修后的元素被更新。
示例15:如示例10-14中的一者或多者所述的方法,其中,所述墨水输入包括元素的注释,并且其中,所述修改包括将注释添加到电子文档的存储的版本。
示例16:如示例10-15中的一者或多者所述的方法,还包括:接收对3D画布的墨水输入;将墨水输入作为墨水对象添加到3D画布;以及基于墨水对象来将视觉效果应用于电子文档的另外的图形元素。
示例17:如示例10-16中的一者或多者所述的方法,还包括:经由第一设备接收经由3D画布对元素的编辑;使得元素基于编辑而被修改;以及使得具有修改的元素的3D画布作为3D画布的可编辑版本被共享给第二设备。
示例18:一种用于实现电子文档的图形元素以可编辑形式被共享给设备的方法,方法包括:将电子文档转换成表示电子文档的3维(3D)版本的2维(2D)表示的3D画布;实现电子文档的图形元素经由墨水输入相对于3D画布以3D方式***纵;在第一设备处接收操纵图形元素的特性的墨水输入,以生成修改的图形元素;以及使得具有修改的图形元素的3D画布被共享给第二设备,从而使得修改的图形元素可经由与3D画布的交互而在第二设备处编辑。
示例19:如示例18中所述的方法,其中,所述使得包括使得3D画布被发布到网络位置,从而使得3D画布可经由网络位置访问和编辑。
示例20:如示例18或19中的一者或多者所述的方法,其中,电子文档包括网页,并且其中,所述使得包括以可编辑形式将网页共享给第二设备。
结论
描述了用于电子文档中的墨水的技术。尽管用特定于结构特征和/或方法动作专用的语言描述了实施例,但是应当理解,在所附权利要求中定义的实施例不一定限于所描述的特定特征或动作。而是,特定特征和动作作为实现所要求保护的实施例的示例性形式而被公开。

Claims (15)

1.一种用于基于墨水输入来修改图形元素的存储的版本的***,所述***包括:
显示器;
一个或多个处理器;以及
一个或多个计算机可读存储介质,其存储计算机可执行指令,所述指令响应于由所述一个或多个处理器执行,使得所述***执行包括以下步骤的操作:
将电子文档转换成表示所述电子文档的3维(3D)版本的2维(2D)表示的3D画布;
实现所述电子文档的图形元素经由墨水输入相对于所述3D画布以3D方式***纵;
接收操纵所述图形元素的特性的墨水输入;以及
基于所述墨水输入来修改所述图形元素的存储的版本。
2.如权利要求1所述的***,其中,所述电子文档包括网页,并且所述图形元素包括所述网页的图形元素。
3.如权利要求1所述的***,其中,所述电子文档包括网页,并且响应于检测到针对所述网页调用智能墨水模式而执行所述转换。
4.如权利要求1所述的***,其中,响应于经由笔选择所述图形元素来执行所述实现。
5.如权利要求1所述的***,其中,所述操作还包括:
接收对所述3D画布的墨水输入;以及
在所述电子文档的结构的上下文中将所述墨水输入添加到所述3D画布。
6.如权利要求1所述的***,其中,所述电子文档包括另外的图形元素,并且其中,所述操作还包括:
接收将墨水对象添加到所述3D画布的墨水输入;以及
基于所述墨水对象将视觉效果应用于所述另外的图形元素。
7.如权利要求1所述的***,其中,所述墨水输入包括所述图形元素的注释,并且其中,所述修改包括将所述注释添加到所述图形元素的所述存储的版本。
8.如权利要求1所述的***,其中,所述电子文档包括网页,并且其中,所述操作还包括:
更新所述网页以用所述图形元素的所修改的存储的版本替换所述图形元素,所述更新使得所述网页的发布的版本被更新。
9.如权利要求1所述的***,其中,所述操作还包括使得所述3D画布作为所述3D画布的可编辑版本被共享给不同的***。
10.一种用于实现电子文档的元素经由墨水输入***纵的方法,所述方法包括:
检测到针对电子文档调用智能墨水模式;
响应于所述检测,将所述电子文档转换成表示所述电子文档的3维(3D)版本的2维(2D)表示的3D画布;以及
实现所述电子文档的元素经由墨水输入相对于所述3D画布以3D方式***纵。
11.如权利要求10所述的方法,其中,所述电子文档包括网页,所述图形元素包括所述网页的图形元素,并且其中,所述实现包括实现所述图形元素在所述3D画布内相对于所述图形元素的多个轴旋转以模拟所述图形元素的3D旋转。
12.如权利要求10所述的方法,还包括:
接收经由所述3D画布对所述元素的编辑;
使得所述元素基于所述编辑而被修改;以及
使得所述电子文档的发布的版本用所修改的元素来更新。
13.如权利要求10所述的方法,其中,所述墨水输入包括所述元素的注释,并且其中,所述修改包括将所述注释添加到所述电子文档的所述存储的版本。
14.如权利要求10所述的方法,还包括:
接收对所述3D画布的墨水输入;
将所述墨水输入作为墨水对象添加到所述3D画布;以及
基于所述墨水对象将视觉效果应用于所述电子文档的另外的图形元素。
15.如权利要求10所述的方法,还包括:
经由第一设备接收经由所述3D画布对所述元素的编辑;
使得所述元素基于所述编辑而被修改;以及
使得具有所修改的元素的所述3D画布作为所述3D画布的可编辑版本共享给第二设备。
CN201780020583.6A 2016-03-29 2017-03-27 电子文档中的墨水 Pending CN108885793A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662314835P 2016-03-29 2016-03-29
US62/314,835 2016-03-29
US15/199,539 US10691880B2 (en) 2016-03-29 2016-06-30 Ink in an electronic document
US15/199,539 2016-06-30
PCT/US2017/024209 WO2017172550A1 (en) 2016-03-29 2017-03-27 Ink in an electronic document

Publications (1)

Publication Number Publication Date
CN108885793A true CN108885793A (zh) 2018-11-23

Family

ID=59961041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780020583.6A Pending CN108885793A (zh) 2016-03-29 2017-03-27 电子文档中的墨水

Country Status (4)

Country Link
US (1) US10691880B2 (zh)
EP (1) EP3437070A1 (zh)
CN (1) CN108885793A (zh)
WO (1) WO2017172550A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112988002A (zh) * 2021-03-30 2021-06-18 武汉悦学帮网络技术有限公司 一种绘本处理方法、装置、电子设备及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003305B2 (en) * 2016-11-18 2021-05-11 Zspace, Inc. 3D user interface
CN110007837B (zh) * 2019-04-01 2021-03-26 维沃移动通信有限公司 一种图片编辑方法及终端
CN113711174A (zh) * 2019-04-03 2021-11-26 奇跃公司 用混合现实***在虚拟三维空间中管理和显示网页
US11755194B2 (en) * 2020-10-06 2023-09-12 Capital One Services, Llc Interactive searching using gestures on any mobile search results page

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613019A (en) * 1993-05-20 1997-03-18 Microsoft Corporation System and methods for spacing, storing and recognizing electronic representations of handwriting, printing and drawings
CN1426551A (zh) * 2000-04-14 2003-06-25 皮克塞(研究)有限公司 用于操作和查看数字文档的用户界面***和方法
CN1656473A (zh) * 2003-08-21 2005-08-17 微软公司 墨水收集和再现
US20050289452A1 (en) * 2004-06-24 2005-12-29 Avaya Technology Corp. Architecture for ink annotations on web documents
US20150082181A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display
US20150199307A1 (en) * 2012-08-08 2015-07-16 Google Inc. Pluggable Architecture For Optimizing Versioned Rendering of Collaborative Documents

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100404285B1 (ko) * 2000-02-09 2003-11-03 (주) 고미드 2차원/3차원 겸용 웹 브라우징 방법 및 이를 저장하고 있는 기록매체
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
WO2002093352A1 (en) 2001-05-11 2002-11-21 3Dna Corp. Method and system for generating a three-dimensional graphical user interface (3d gui) for computer systems and websites
US20040100489A1 (en) 2002-11-26 2004-05-27 Canon Kabushiki Kaisha Automatic 3-D web content generation
US8402394B2 (en) 2007-09-28 2013-03-19 Yahoo! Inc. Three-dimensional website visualization
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
US9064023B2 (en) * 2008-12-29 2015-06-23 Avaya Inc. Providing web content in the context of a virtual environment
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
US20120005624A1 (en) * 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8643569B2 (en) * 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
KR20120017228A (ko) * 2010-08-18 2012-02-28 엘지전자 주식회사 이동 단말기 및 상기 이동 단말기의 영상 표시 방법
KR101724704B1 (ko) * 2010-08-27 2017-04-07 삼성전자주식회사 3차원 영상 구현 방법 및 장치
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
US8705892B2 (en) 2010-10-26 2014-04-22 3Ditize Sl Generating three-dimensional virtual tours from two-dimensional images
WO2012088285A2 (en) * 2010-12-22 2012-06-28 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
US20130212538A1 (en) 2011-08-19 2013-08-15 Ghislain LEMIRE Image-based 3d environment emulator
US9098930B2 (en) * 2011-09-30 2015-08-04 Adobe Systems Incorporated Stereo-aware image editing
KR101813035B1 (ko) * 2011-10-10 2017-12-28 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US9229613B2 (en) 2012-02-01 2016-01-05 Facebook, Inc. Transitions among hierarchical user interface components
WO2013183801A1 (en) 2012-06-08 2013-12-12 Lg Electronics Inc. Rendering method of 3d web-page and terminal using the same
US9829996B2 (en) * 2012-06-25 2017-11-28 Zspace, Inc. Operations in a three dimensional display system
EP2690570A1 (en) * 2012-07-24 2014-01-29 Dassault Systèmes Design operation in an immersive virtual environment
KR20140063272A (ko) * 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9628783B2 (en) * 2013-03-15 2017-04-18 University Of Southern California Method for interacting with virtual environment using stereoscope attached to computing device and modifying view of virtual environment based on user input in order to be displayed on portion of display
WO2014139053A1 (en) * 2013-03-15 2014-09-18 Yahoo! Inc. Method and system for intent centric multi-facet content presentation
US9678929B2 (en) * 2013-08-01 2017-06-13 Equldo Limited Stereoscopic online web content creation and rendering
EP3042358A2 (en) 2013-09-03 2016-07-13 3ditize SL Generating a 3d interactive immersive experience from a 2d static image
US10592064B2 (en) * 2013-09-17 2020-03-17 Amazon Technologies, Inc. Approaches for three-dimensional object display used in content navigation
WO2015050826A1 (en) * 2013-10-01 2015-04-09 Dishno Aaron Three-dimensional (3d) browsing
US9841821B2 (en) * 2013-11-06 2017-12-12 Zspace, Inc. Methods for automatically assessing user handedness in computer systems and the utilization of such information
US9224238B2 (en) * 2013-12-06 2015-12-29 Google Inc. Seamless texturing of 3D meshes of objects from multiple views
JP2016110177A (ja) * 2014-12-02 2016-06-20 株式会社トプコン 3次元入力装置及び入力システム
KR101716807B1 (ko) * 2015-04-24 2017-03-16 한국과학기술연구원 웹 상에 3차원 정보를 갖는 html 요소를 나타내기 위한 장치 및 방법
US10013157B2 (en) * 2015-07-22 2018-07-03 Box, Inc. Composing web-based interactive 3D scenes using high order visual editor commands
US10366528B2 (en) * 2015-12-08 2019-07-30 Amazon Technologies, Inc. Interactive points of interest for 3D-representations

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613019A (en) * 1993-05-20 1997-03-18 Microsoft Corporation System and methods for spacing, storing and recognizing electronic representations of handwriting, printing and drawings
CN1426551A (zh) * 2000-04-14 2003-06-25 皮克塞(研究)有限公司 用于操作和查看数字文档的用户界面***和方法
CN1656473A (zh) * 2003-08-21 2005-08-17 微软公司 墨水收集和再现
US20050289452A1 (en) * 2004-06-24 2005-12-29 Avaya Technology Corp. Architecture for ink annotations on web documents
US20150199307A1 (en) * 2012-08-08 2015-07-16 Google Inc. Pluggable Architecture For Optimizing Versioned Rendering of Collaborative Documents
US20150082181A1 (en) * 2013-09-17 2015-03-19 Amazon Technologies, Inc. Approaches for three-dimensional object display

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MICROSOFT: "Microsoft PowerPoint 2010 产品指南", 《HTTP://DOWNLOAD.MICROSOFT.COM》 *
SMART TECHNOLOGIES: "SMART Ink(TM) 3.2 USER"S GUIDE FOR WINDOWS® OPERATING SYSTEMS", 《HTTP://DOWNLOADS.SMARTTECH.COM/MEDIA/SITECORE/EN/SUPPORT/PRODUCT/SMARTINK/SMARTINK3/GUIDES/GUIDESMARTINK3_2WINV01DEC15.PDF》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112988002A (zh) * 2021-03-30 2021-06-18 武汉悦学帮网络技术有限公司 一种绘本处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US20170286385A1 (en) 2017-10-05
EP3437070A1 (en) 2019-02-06
WO2017172550A1 (en) 2017-10-05
US10691880B2 (en) 2020-06-23

Similar Documents

Publication Publication Date Title
Ens et al. Ivy: Exploring spatially situated visual programming for authoring and understanding intelligent environments
CN108885793A (zh) 电子文档中的墨水
KR101737725B1 (ko) 컨텐츠 생성 툴
US20120151408A1 (en) Dynamic network browser
US20170153787A1 (en) Injection of 3-d virtual objects of museum artifact in ar space and interaction with the same
CN108885521A (zh) 跨环境共享
Hockett et al. Augmented reality with HoloLens: Experiential architectures embedded in the real world
US20170213394A1 (en) Environmentally mapped virtualization mechanism
JP2022521720A (ja) ミニプログラム作成方法、装置、端末及びプログラム
Ge et al. Integrative simulation environment for conceptual structural analysis
Kottamasu User interaction of one-dimensional panoramic images for iPod Touch
Sobociński et al. Large-scale 3d web environment for visualization and marketing of household appliances
US9292165B2 (en) Multiple-mode interface for spatial input devices
KR102390615B1 (ko) 3차원 실사 캐릭터 모델의 생성 및 공유 시스템 및 방법
JP2016018363A (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム
Billinghurst et al. Tangible interfaces for ambient augmented reality applications
KR20200137594A (ko) 모바일 장치 및 모바일 장치의 제어 방법
Pfeiffer et al. Virtual prototyping of mixed reality interfaces with internet of things (IoT) connectivity
Dev et al. Democratizing digital content creation using mobile devices with inbuilt sensors
Seo et al. A new perspective on enriching augmented reality experiences: Interacting with the real world
US11694376B2 (en) Intuitive 3D transformations for 2D graphics
Sorokin et al. 3D Scene Reconstruction and Digitization Method for Mixed Reality Systems
Ansal et al. Product Design Using Virtual Reality
Pranav Ram et al. Interior Design App Using Augmented Reality
Kahol Distal object perception through haptic user interfaces

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination