KR20150139337A - 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치 - Google Patents

화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치 Download PDF

Info

Publication number
KR20150139337A
KR20150139337A KR1020140067796A KR20140067796A KR20150139337A KR 20150139337 A KR20150139337 A KR 20150139337A KR 1020140067796 A KR1020140067796 A KR 1020140067796A KR 20140067796 A KR20140067796 A KR 20140067796A KR 20150139337 A KR20150139337 A KR 20150139337A
Authority
KR
South Korea
Prior art keywords
user interface
displayed
screen
user
image forming
Prior art date
Application number
KR1020140067796A
Other languages
English (en)
Inventor
하광수
김세영
임세라
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140067796A priority Critical patent/KR20150139337A/ko
Priority to US14/644,592 priority patent/US9696952B2/en
Priority to CN201510295565.1A priority patent/CN105282359B/zh
Priority to EP15170549.8A priority patent/EP2953335A1/en
Publication of KR20150139337A publication Critical patent/KR20150139337A/ko
Priority to US15/612,611 priority patent/US11188280B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00384Key input means, e.g. buttons or keypads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • G06F3/1258Configuration of print job parameters, e.g. using UI at the client by updating job settings at the printer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00413Display of information to the user, e.g. menus using menus, i.e. presenting the user with a plurality of selectable options
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00472Display of information to the user, e.g. menus using a pop-up window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0094Multifunctional device, i.e. a device capable of all of reading, reproducing, copying, facsimile transception, file transception

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)

Abstract

화상형성장치의 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스와 화상형성장치의 동작을 제어하는 가상 버튼(virtual button)을 포함하는 제 2 사용자 인터페이스를 화상형성장치의 애플리케이션 실행을 조작하는 화면에 표시함으로써, 물리 버튼 없이도 화상형성장치를 제어할 수 있는, 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치를 개시한다.

Description

화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치{Method for providing a screen for manipulating application execution of image forming apparatus and image forming apparatus using the same}
화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치방법에 관한 것이다.
프린터, 복사기, 복합기 등과 같은 다양한 화상형성장치에는 사용자가 화상형성장치의 동작을 제어하거나 데이터를 입력하기 위한 사용자 인터페이스(User Interface, UI)가 제공된다. 이러한 사용자 인터페이스를 제공하는 화면은 화상형성장치의 조작 패널에 표시된다. 과학 기술의 발달로, 화상형성장치에 사용되는 하드웨어 및 소프트웨어도 발전하고 있으며, 이에 따라 화상형성장치의 사용자 인터페이스도 사용자 편의성을 증대시키는 방향으로 진화하고 있다.
물리적 버튼을 가상 버튼으로 대체하여 화상형성장치를 제어할 수 있는, 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치을 제공하는 것이다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
제 1 측면에 따른 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법은, 상기 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스를 나타내는 제 1 영상 신호와 상기 화상형성장치의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함하는 제 2 사용자 인터페이스를 나타내는 제 2 영상 신호를 생성하는 단계, 및 상기 제 1 영상 신호와 상기 제 2 영상 신호에 기초하여, 상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스를 상기 화면에 표시하는 단계를 포함할 수 있다.
제 2 측면에 따라, 상기 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.
제 3 측면에 따른 애플리케이션 실행을 조작하는 화면을 제공하는 화상형성장치는, 상기 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스를 나타내는 제 1 영상 신호와 상기 화상형성장치의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함하는 제 2 사용자 인터페이스를 나타내는 제 2 영상 신호를 생성하는 영상 처리부, 및 상기 제 1 영상 신호와 상기 제 2 영상 신호에 기초하여, 상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스를 상기 화면에 표시하는 표시부를 포함할 수 있다.
물리적 버튼을 소프트웨어적인 가상 버튼으로 표시하여 화상형성장치를 제어함으로써, 사용성을 개선할 수 있다.
도 1은 화상형성장치의 외관을 설명하기 위한 도면이다.
도 2는 기존 화상형성장치의 조작 패널에 포함된 물리적 버튼의 키를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 화상형성장치의 구성을 설명하기 위한 블록도이다.
도 4는 일 실시예에 따른, 화상형성장치의 애플리케이션 실행을 조작하는 화면을 나타낸 도면이다.
도 5는 다른 실시예에 따른, 화상형성장치의 애플리케이션 실행을 조작하는 화면을 나타낸 도면이다.
도 6은 일 실시예에 따라, 화상형성장치의 애플리케이션 실행을 조작하는 화면에서, 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력될 때, 제 2 사용자 인터페이스의 변화를 나타낸 도면이다.
도 7은 다른 실시예에 따라, 화상형성장치의 애플리케이션 실행을 조작하는 화면에서, 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력될 때, 제 2 사용자 인터페이스의 모습을 나타낸 도면이다.
도 8은 일 실시예에 따라, 화상형성장치의 애플리케이션 실행을 조작하는 화면에서, 제 2 사용자 인터페이스의 위치를 이동시키는 것을 설명하기 나타낸 도면이다.
도 9는 다른 실시예에 따라, 화상형성장치의 애플리케이션 실행을 조작하는 화면에서, 제 2 사용자 인터페이스의 위치를 이동시키는 것을 설명하기 나타낸 도면이다.
도 10은 다른 실시예에 따른 화상형성장치의 구성을 설명하기 위한 블록도이다.
도 11은 일 실시예에 따른 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법을 설명하기 위한 흐름도이다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다.
본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
본 실시예들은 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.
도 1은 화상형성장치의 외관을 설명하기 위한 도면이다. 화상형성장치(100)는 용지와 같은 전달 매체에 화상을 형성할 수 있는 장치로써, 프린터, 복사기, 복합기 등과 같은 장치를 말한다.
화상형성장치(100)는 외관의 전면부, 측면부, 후면부 등에 사용자에게 화상형성장치(100)의 동작을 제어할 수 있도록 정보를 표시하고, 사용자의 조작을 입력받을 수 있도록 사용자 인터페이스 장치를 구비할 수 있다. 사용자 인터페이스 장치는 사용자와 화상형성장치(100)를 연결하는 하드웨어 및 소프트웨어 모두를 의미하며, 화상형성장치(100)에 장착되어 있을 수 있다. 사용자 인터페이스 장치는 정보를 표시하는 표시부와 사용자의 조작을 입력받을 수 있는 사용자 입력부가 분리된 형태이거나, 터치 스크린과 같이 표시부와 사용자 입력부가 겹합된 형태일 수도 있다.
도 1에 도시된 바와 같이, 화상형성장치(100)는 외관의 전면부에 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)을 제공할 수 있다. 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)은 화상형성장치(100)의 표시부에 표시될 수 있다. 사용자는 화상형성장치(100)의 어떤 기능을 동작시키기 위해, 애플리케이션 실행을 조작하는 화면(200)에서 그 기능에 대응되는 애플리케이션을 실행시킬 수 있다.
도 2는 기존 화상형성장치의 조작 패널에 포함된 물리적 버튼의 키를 설명하기 위한 도면이다.
도 2를 참고하면, 기존 화상형성장치의 조작 패널(300)에는 사용자에게 화상형성장치의 제어를 위한 정보를 표시하는 화면과 사용자의 조작을 입력받는 사용자 입력부의 한 형태로 물리적 버튼의 키들로 구성된 키패드부(310)가 존재한다. 물리적 버튼의 키들로 구성된 키패드부(310)는 3 X 4의 숫자 버튼부, 기능버튼부, 제어버튼부, 화상형성장치의 상태를 알려주는 LED 등을 포함하고 있다.
하지만, 최근에 들어, 화상형성장치(100)에 장착되는 조작 패널이 점점 대형화되고 있으며, 특히, 사용자에게 정보를 표시하는 표시 패널, 사용자로부터 정보를 입력받는 터치패널, 또는 표시 패널과 터치 패널이 결합된 형태인 터치 스크린이 조작 패널에서 차지하는 비율이 커지고 있다. 터치 스크린과 같은, 표시 패널과 터치 패널의 일체형 모듈은 그 크기를 크게함으로써, 화상형성장치(100)에서 실행 가능한 다양한 기능들에 대한 사용자의 상세한 조작이 가능해지고, 이에 따라 화상형성장치(100)의 사용자의 편의성을 증대시킬 수 있다. 이하의 실시예들은 이와 같은 추세를 반영하여, 화상형성장치(100)의 조작 패널에서 물리적 버튼으로 제공되고 있던 키들을 제거하고, 대신 물리적 버튼의 키를 소프트웨어적으로 가상 버튼(virtual button)으로 생성하여 애플리케이션 실행을 조작하는 화면(200)에 함께 제공하도록 하였다. 이에 따라, 화상형성장치(100)를 사용하는 사용자의 편의성 및 사용성을 극대화 시킬 수 있다. 이하, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)을 제공하는 방법 및 이를 이용하는 화상형성장치(100)에 관하여 기술한다.
도 3은 일 실시예에 따른 화상형성장치(100)의 구성을 설명하기 위한 블록도이다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.
도 3을 참고하면, 화상형성장치(100)는 표시부(110), 영상 처리부(130)를 포함할 수 있다.
표시부(110)는 표시패널(미도시) 및 표시패널을 제어하는 컨트롤러(미도시)를 포함할 수 있다. 표시패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 표시부(110)는 터치 패널(미도시)과 결합되어 터치 스크린(미도시)으로 제공될 수 있다. 예를 들어, 터치 스크린(미도시)은 표시 패널과 터치 패널이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다.
영상 처리부(130)는 표시부(110)에 표시될 화면을 생성하기 위한 영상 신호를 처리할 수 있다. 영상 처리부(130)는 화상형성장치(100)의 부팅이 완료되면, 표시부(110)에 화상형성장치(100)의 동작을 제어하기 위한 화면을 표시할 수 있도록, 영상 신호를 처리하여 화면을 생성할 수 있다. 구체적으로, 영상 처리부(130)는 화상형성장치(100)에서 제공하는 기능을 실행시키기 위한 다양한 종류의 애플리케이션, 사용자의 조작을 입력받는 다양한 종류의 사용자 인터페이스, 사용자에게 정보를 제공하는 다양한 종류의 콘텐츠 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 영상 처리부(130)는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산할 수 있다. 그리고, 영상 처리부(130)는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. 영상 처리부(130)에서 생성된 화면은 표시부(110)로 제공되어, 표시부(110)의 전체 또는 일정 영역에 각각 표시될 수 있다.
이하, 도 3에 도시된, 표시부(110) 및 영상 처리부(130) 상호 간의 연결 및 동작에 대하여 살펴본다.
영상 처리부(130)는 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스와 화상형성장치의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함하는 제 2 사용자 인터페이스를 나타내는 영상 신호를 생성하여, 이와 같은 사용자 인터페이스들을 포함하는 화면이 생성될 수 있도록 한다.
표시부(110)는 영상 처리부(130)에서 생성된 영상 신호에 기초하여, 제 1 사용자 인터페이스와 제 2 사용자 인터페이스를 애플리케이션 실행을 조작하는 화면(200)에 표시할 수 있다.
표시된 화면에 대하여 사용자의 조작이 입력되는 경우, 영상 처리부(130)는 입력된 사용자의 조작에 대응되는 영상 처리를 수행하여, 새로운 화면이 표시부(110)에 표시되도록 할 수 있다. 이하, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)의 구성 및 동작에 대하여 상세히 설명한다.
도 4는 일 실시예에 따른, 화상형성장치의 애플리케이션 실행을 조작하는 화면을 나타낸 도면이다. 도 4는 화상형성장치(100)에서 실행되는 복수의 애플리케이션들 중에 사용자에 의해 복사(copy) 애플리케이션이 선택된 경우, 애플리케이션 실행을 조작하는 화면(200)을 나타낸 것이다.
도 4를 참고하면, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)은 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스(210)와 화상형성장치(100)의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)(222, 224)을 포함하는 제 2 사용자 인터페이스(220)를 포함할 수 있다.
제 1 사용자 인터페이스(210)는 애플리케이션 실행에 적용되는 옵션들을 설정할 수 있다. 도 4에 도시된 바와 같이, 복사(copy) 애플리케이션이 실행된 경우, 복사에 관한 옵션들, 예를 들어, 복사 매수, 이미지 속성 조정, 용지 공급, 축소/확대, 양면 복사, 컬러 모드, 문서 정렬 등에 관한 옵션들을 설정할 수 있다.
제 2 사용자 인터페이스(220)는 화상형성장치(100)의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함할 수 있다. 가상 버튼(222)은 화상형성장치의 동작을 개시, 중지, 및 리셋하는 버튼 중 어느 하나일 수 있다. 뿐만 아니라, 제 2 사용자 인터페이스(220)는 애플리케이션의 종류에 따라 표시되는 형태 및 기능이 변하는 가상버튼(224)을 더 포함할 수 있다. 가상 버튼(222, 224)가 복수 개일 때, 제 2 사용자 인터페이스(220)를 가상 버튼별로 분리하여 표시할 수도 있다.
제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)는 애플리케이션 실행을 조작하는 화면(200)에서 서로 겹치지 않고 각각 별도의 공간을 차지하여 표시될 수도 있고, 서로 겹쳐 표시될 수 있다. 애플리케이션 실행을 조작하는 화면(200)의 공간 활용 측면에서 보면, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 겹쳐 표시되고, 제 2 사용자 인터페이스(220)가 사용자의 조작에 적응적으로 변화하는 것이 바람직하다. 이하에서는, 설명의 편의상, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 겹치는 경우를 전제하여 설명한다.
제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 겹치는 경우, 제 1 사용자 인터페이스(210) 위에 제 2 사용자 인터페이스(220)를 표시할 수 있다. 다시 말해서, 가상 버튼(222, 224)을 포함하는 제 2 사용자 인터페이스(220)와 겹치는 부분의 제 1 사용자 인터페이스(210)는 제 2 사용자 인터페이스(220)에 의해 가려질 수 있다. 이와 같은 경우, 제 2 사용자 인터페이스(220)에 의해 가려지는 것을 최소화하기 위하여, 제 2 사용자 인터페이스(220)의 전체 또는 일부 영역에 대해 투명도를 조절할 수 있다. 예를 들어, 제 2 사용자 인터페이스(220)의 전체 또는 일부 영역은 제 1 사용자 인터페이스(210)보다 투명도가 높을 수 있다.
제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)는 애플리케이션의 종류에 따라 표시되는 형태가 다를 수 있다. 이하, 다른 종류의 애플리케이션이 실행되었을 때, 그 애플리케이션 실행을 조작하는 화면(200)에 대해서도 살펴본다.
도 5는 다른 실시예에 따른, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)을 나타낸 도면이다. 도 5는 화상형성장치(100)에서 실행되는 복수의 애플리케이션들 중에 사용자에 의해 센드(send) 애플리케이션이 선택된 경우, 애플리케이션 실행을 조작하는 화면(200)을 나타낸 것이다. 이하, 도 4에 도시된 화면과 차이점을 중심으로 설명한다.
도 5를 참고하면, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)은 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스(210)와 화상형성장치(100)의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)(222, 224)을 포함하는 제 2 사용자 인터페이스(220)를 포함할 수 있다.
제 1 사용자 인터페이스(210)는 애플리케이션 실행에 적용되는 옵션들을 설정할 수 있다. 도 5에 도시된 바와 같이, 센드(send) 애플리케이션이 실행된 경우, 문서의 스캔 및 전송에 관한 옵션들, 예를 들어, 문서에 포함된 이미지의 속성 조정, 발신처 설정, 수신처 설정, 스캔된 문서의 전송 방식, 양면 스캔, 빈 페이지 건너 띄기, 스캔된 문서의 파일 네임, 스캔된 문서의 파일 형식, 스캔된 문서의 해상도 등에 관한 옵션들을 제 1 사용자 인터페이스(210)에서 설정할 수 있다.
제 2 사용자 인터페이스(220)는 화상형성장치(100)의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함할 수 있다. 가상 버튼(222)은 도 4에 도시된 바와 마찬가지로, 화상형성장치(100)의 동작을 개시, 중지, 및 리셋하는 버튼 중 어느 하나를 포함할 수 있다. 반면, 제 2 사용자 인터페이스(220)는 애플리케이션의 종류에 따라 표시되는 형태 및 기능이 변하는 가상버튼(224)으로써, 센드(send) 애플리케이션이 실행되었을 때는 온 훅(On Hook) 버튼을 포함할 수 있다. 도 4와 비교해 보면, 복사(copy) 애플리케이션이 실행되었을 때, 애플리케이션의 종류에 따라 표시되는 형태 및 기능이 변하는 가상버튼(224)은 인터럽트(interrupt) 버튼이었음을 알 수 있다.
이하, 도 4 및 도 5에서와 같이, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 겹치는 경우, 사용자의 조작 입력에 따라, 애플리케이션 실행을 조작하는 화면(200)의 변화에 대하여 설명한다.
도 6은 일 실시예에 따라, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)에서, 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력될 때, 제 2 사용자 인터페이스의 변화를 나타낸 도면이다. 도 6을 참고하면, 좌측부터 세 개의 도면이 시간의 흐름 순서대로 나열되어 있으며, 제 1 사용자 인터페이스(210)에서 제 2 사용자 인터페이스와 겹치는 부분 중심으로 도면에 나타낸 것이다.
첫 번째 도면을 참고하면, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 겹치는 경우, 제 2 사용자 인터페이스(220)가 제 1 사용자 인터페이스(210) 위에 표시되는 것을 알 수 있다. 따라서, 사용자가 제 2 사용자 인터페이스(210)에 포함되어 있는 가상 버튼(222, 224)를 눌러 이와 관련된 기능을 실행시키는 것은 문제가 없다. 하지만, 제 2 사용자 인터페이스(220)에 의해 가려진 제 1 사용자 인터페이스(210)의 일부 영역은 식별하기 곤란하거나, 사용자의 조작을 입력할 수 없게 된다. 이때, 첫 번째 도면에 도시된 바와 같이, 제 1 사용자 인터페이스(210)의 임의의 영역에 대해 사용자의 조작을 입력해 볼 수 있다.
두 번째 도면을 참고하면, 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력된 후, 제 2 사용자 인터페이스(220)가 점차 투명해지는 것을 확인할 수 있다.
세 번째 도면을 참고하면, 제 2 사용자 인터페이스(220)가 제 1 사용자 인터페이스(210) 상에서 완전히 사라진 것을 알 수 있다. 이때, 제 2 사용자 인터페이스(220)가 점차 투명해져서 완전히 사라지는데 까지 걸리는 시간은 사용자의 사전 설정에 의해 조절 가능하다.
이와 같이 제 1 사용자 인터페이스(210)에 대한 사용자의 조작이 입력되면, 제 2 사용자 인터페이스(220)는 소정의 시간 동안 애플리케이션 실행을 조작하는 화면(200)에서 사라지게 되어, 제 1 사용자 인터페이스(210)를 사용자가 사용할 수 있는 상태가 된다.
만약, 소정의 시간 동안 사용자의 조작이 입력되지 않으면, 화상형성장치(100)의 표시부(110)는 다시 제 2 사용자 인터페이스(220)를 제 1 사용자 인터페이스(210) 위에 겹치도록 표시할 수 있다. 또는 사용자로부터 제 2 사용자 인터페이스(220)의 표시를 요청하는 사용자의 소정의 조작이 있는 경우, 화상형성장치(100)의 표시부(110)는 다시 제 2 사용자 인터페이스(220)를 제 1 사용자 인터페이스(210) 위에 겹치도록 표시할 수 있다. 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 사라진 후 다시 표시되는 과정은 도 6에 도시된 도면들의 역순에 따를 수 있다.
도 7은 다른 실시예에 따라, 화상형성장치의 애플리케이션 실행을 조작하는 화면에서, 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력될 때, 제 2 사용자 인터페이스의 모습을 나타낸 도면이다. 도 7을 참고하면, 좌측부터 세 개의 도면이 시간의 흐름 순서대로 나열되어 있으며, 제 1 사용자 인터페이스(210)에서 제 2 사용자 인터페이스와 겹치는 부분 중심으로 도면에 나타낸 것이다.
첫 번째 도면을 참고하면, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 겹치는 경우, 제 2 사용자 인터페이스(220)가 제 1 사용자 인터페이스(210) 위에 표시되는 것을 알 수 있다. 앞서, 도 6에서 살펴본 바와 같이, 제 2 사용자 인터페이스(220)에 의해 가려진 제 1 사용자 인터페이스(210)의 일부 영역은 식별하기 곤란하거나, 사용자의 조작을 입력할 수 없게 된다. 이때, 첫 번째 도면에 도시된 바와 같이, 제 1 사용자 인터페이스(210)의 임의의 영역에 대해 사용자의 조작을 입력해 볼 수 있다.
두 번째 도면을 참고하면, 제 1 사용자 인터페이스(210)에 대한 사용자의 조작이 입력된 후, 제 2 사용자 인터페이스(220)가 점차 우측으로 사라지는 것을 확인할 수 있다. 이때, 제 2 사용자 인터페이스(220)가 사라지는 속도나 사라지는 방향 또는 위치는 사용자의 사전 설정에 의해 변경 가능하다. 두 번째 도면에서, 제 2 사용자 인터페이스(220)의 점선으로 표시된 부분(230)은 애플리케이션 실행을 조작하는 화면(200)을 벗어난 부분으로서, 애플리케이션 실행을 조작하는 화면(200)에 표시되지 않는 부분을 나타낸 것이다.
세 번째 도면을 참고하면, 제 2 사용자 인터페이스(220)는 제 2 사용자 인터페이스(220)의 존재를 알리는 대체 아이콘(240)으로써, 애플리케이션 실행을 조작하는 화면(200)의 일부 영역에 표시될 수 있다. 대체 아이콘(240)은 제 2 사용자 인터페이스(220)의 일부 영역을 변형한 형태의 아이콘이 될 수도 있고, 새로운 형태의 아이콘이 될 수도 있다. 한편, 제 2 사용자 인터페이스(220)는 도 6에 도시된 바와 같이, 제 1 사용자 인터페이스(210) 상에서 완전히 사라질 수도 있다.
이와 같이 제 1 사용자 인터페이스(210)에 대한 사용자의 조작이 입력되면, 제 2 사용자 인터페이스(220)는 소정의 시간 동안 애플리케이션 실행을 조작하는 화면(200)에서 작은 크기의 대체 아이콘으로 표시되거나 완전히 사라지게 되어, 제 1 사용자 인터페이스(210)를 사용자가 사용할 수 있는 상태가 된다.
만약, 소정의 시간 동안 사용자의 조작이 입력되지 않으면, 화상형성장치(100)의 표시부(110)는 다시 제 2 사용자 인터페이스(220)를 제 1 사용자 인터페이스(210) 위에 겹치도록 표시할 수 있다. 또는 사용자로부터 제 2 사용자 인터페이스(220)의 표시를 요청하는 사용자의 소정의 조작이 있는 경우, 예를 들어, 대체 아이콘(240)을 클릭하는 경우, 화상형성장치(100)의 표시부(110)는 다시 제 2 사용자 인터페이스(220)를 제 1 사용자 인터페이스(210) 위에 겹치도록 표시할 수 있다. 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 사라진 후 다시 표시되는 과정은 도 7에 도시된 도면들의 역순에 따를 수 있다.
도 6 및 도 7에서 살펴본 바와 같이, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)가 서로 겹쳐 표시되어, 제 1 사용자 인터페이스(210)의 사용이 곤란한 경우, 사용자의 조작에 따라, 제 2 사용자 인터페이스(220)를 사라지게 하여, 제 1 사용자 인터페이스(210)를 사용자가 사용할 수 있다.
도 8은 일 실시예에 따라, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)에서, 제 2 사용자 인터페이스(220)의 위치를 이동시키는 것을 설명하기 나타낸 도면이다.
제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)상에서 표시되는 위치가 제 1 사용자 인터페이스의 중요 부분을 계속해서 가리게 되는 경우, 제 2 사용자 인터페이스(220)가 제 1 사용자 인터페이스(210) 위에 겹쳐 표시되는 위치를 바꿀 필요가 있다.
도 8을 참고하면, 사용자는 제 1 사용자 인터페이스(210) 위에 겹쳐 표시된 제 2 사용자 인터페이스(220)에 대해, 사용자의 소정의 조작에 따라 제 1 사용자 인터페이스 위의 임의의 위치로 이동시킬 수 있다.
예를 들어, 도 8에 도시된 바와 같이, 제 2 사용자 인터페이스(220)가 표시되어 있던 기존의 위치에서, 제 2 사용자 인터페이스(220)의 임의의 부분을 사용자가 몇 초 이상 오랫동안 누르고 있는 경우, 제 2 사용자 인터페이스(220)는 이동할 수 있는 상태가 된다. 그 후, 사용자가 제 2 사용자 인터페이스(220)를 드래그 앤드 드롭 방식으로, 원하는 위치에 제 2 사용자 인터페이스(220)를 위치시킴으로써, 제 2 사용자 인터페이스(220)의 위치를 이동시킬 수 있다. 한편, 또 다른 방식으로 제 2 사용자 인터페이스(220)의 위치를 이동시키는 것에 대하여 도 9를 참고하여 이하 설명한다.
도 9는 다른 실시예에 따라, 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)에서, 제 2 사용자 인터페이스(220)의 위치를 이동시키는 것을 설명하기 나타낸 도면이다.
도 9에 도시된 바와 같이, 화상형성장치(100)의 표시부(110)는 제 2 사용자 인터페이스(220)에 대한 사용자의 소정의 조작이 있는 경우, 애플리케이션 실행을 조작하는 화면(200)상에 표시된 제 2 사용자 인터페이스(220)가 이동할 수 있는 위치들(250)을 표시할 수 있다. 예를 들어, 제 2 사용자 인터페이스(220)의 임의의 부분을 사용자가 몇 초 이상 오랫동안 누르고 있는 경우, 제 2 사용자 인터페이스(220)가 이동할 수 있는 위치들(250)을 제 1 사용자 인터페이스(210)의 다른 영역과 구별할 수 있도록 표시할 수 있다.
화상형성장치(100)의 표시부(110)는 제 2 사용자 인터페이스(220)가 이동할 수 있는 위치들(250) 중 사용자가 선택한 위치로 제 2 사용자 인터페이스(220)를 이동시켜 표시할 수 있다. 예를 들어, 제 2 사용자 인터페이스(220)가 이동할 수 있는 위치들(250)이라고 표시된 곳 중에서 어느 하나를 선택하거나, 사용자가 선택한 위치로 제 2 사용자 인터페이스(220)를 드래그 앤드 드롭함으로써, 화상형성장치(100)의 표시부(110)는 제 2 사용자 인터페이스(220)를 이동시켜 표시할 수 있다.
도 10은 다른 실시예에 따른 화상형성장치의 구성을 설명하기 위한 블록도이다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 10에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 화상형성장치(100)의 구성요소는 실제 구현되는 화상형성장치(100)의 사양에 따라 추가, 생략 또는 통합될 수 있다. 예를 들어, 도 10에 도시된 화상형성장치(100)의 구성요소는 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분화되어 구성될 수 있다.
도 10을 참고하면, 화상형성장치(100)는 표시부(110), 사용자 입력부(120), 영상 처리부(130), 메모리(140), 팩스부(150), 스캔부(160), 화상 형성부(170), 통신부(180), 제어부(190)를 포함할 수 있다. 이와 같은 구성요소들은 데이터 버스(data bus)(195)를 이용하여, 상호간 각 종 데이터를 송신 또는 수신할 수 있다.
표시부(110)는 사용자에게 애플리케이션 실행을 조작하는 화면(200)을 표시할 수 있다. 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)은 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스(210)와 화상형성장치(210)의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)(222, 224)을 포함하는 제 2 사용자 인터페이스(220)를 포함할 수 있다.
영상 처리부(130)는 애플리케이션 실행을 조작하는 화면(200)에 표시할 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)를 각각 나타내는 제 1 영상 신호와 제 2 영상 신호를 생성할 수 있다. 영상 처리부(130)에서 생성된 영상 신호들은 표시부(110)로 전달되어, 애플리케이션 실행을 조작하는 화면(200)에 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(230)를 포함하는 영상으로 표시될 수 있다. 또한, 영상 처리부(130)는 사용자 입력부(120)에 입력된 사용자의 조작에 기초하여, 표시부(110)에 표시된 화면을 새롭게 구성하도록 영상 신호들을 처리할 수 있다. 영상 처리부(130)에서 수행되는 사용자의 조작에 따른 영상 처리 및 화면 구성에 대해서는 앞서, 도 4 내지 도 9를 참조하여 전술하였다.
표시부(110), 및 영상 처리부(130)와 관련하여 앞서 기재한 내용과 중복되는 내용에 대해서는 그 기재를 생략한다.
사용자 입력부(120)는 사용자로부터 표시부(110)에 표시된 화면에 대한 사용자의 조작을 입력받을 수 있다. 사용자 입력부(120)는 터치 패널 또는 펜 인식 패널 중 적어도 하나를 포함할 수 있다.
터치 패널은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널이 표시 패널과 결합하여 터치 스크린을 구성한 경우, 터치 스크린은 정전식이나, 감압식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. 정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 터치 스크린에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의하여 생성될 수 있으나, 정전 용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
펜 인식 패널은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널은 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다.
메모리(140)는 화상 형성 장치(100)의 동작에 따라 생성되거나, 화상 형성 장치(100)의 동작시 사용되는 모든 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리(140)는 외부장치로부터 수신한 데이터, 사용자 입력부(120)를 통하여 입력된 데이터, 팩스, 스캔, 및 복사 데이터와 같이 화상 형성 장치(100)의 동작에 의해 발생되는 데이터, 그리고 화상 형성 장치(100)의 제어에 이용되는 각종 프로그램들을 저장할 수 있다. 또한, 메모리(140)는 표시부(110)의 화면에 표시될 컨텐츠의 적어도 일부를 임시 또는 반영구적으로 저장할 수 있다.
메모리(140)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다. 내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.
팩스부(150)는 모뎀을 이용하여 팩스를 송신하거나 수신한다. 문서에 기록된 화상 데이터를 모뎀을 이용한 송신에 적합하도록 팩스 데이터로 만들거나, 외부 장치로부터 수신된 팩스 데이터를 화상 형성부(170)에 전달하여 인쇄용지와 같은 인쇄매체에 출력할 수 있도록 처리한다.
스캔부(160)는 문서에 기록된 화상 데이터를 스캔하여 스캔 데이터를 생성하고, 이를 네트워크 망과 접속을 위해 통신부(180)나 저장을 위하여 메모리(140), 팩스 전송을 위해 팩스부(150), 인쇄를 위해 화상 형성부(170) 등에 전달한다. 즉, SCAN TO SMB(Sever Message Block), SCAN TO FTP(File Transfer Protocol), SCAN TO WebDAV(Web Distributed Authoring and Versioning), SCAN TO E-mail, SCAN TO PC, SCAN TO BOX 등과 같은 기능을 수행할 수 있다.
화상 형성부(170)는 화상을 형성하여, 복사 및 인쇄 데이터를 인쇄용지와 같은 인쇄매체에 출력하는 작업을 수행한다. 화상 형성부(170)는 복사 및 인쇄 데이터를 인쇄매체에 출력하기 위한 대전, 노광, 현상, 전사 및 정착을 수행하는 하드웨어 유닛들 및 이들을 구동하기 위한 소프트웨어 모듈을 모두 포함할 수 있다.
통신부(180)는 화상 형성 장치(100)의 어플리케이션 및 기능에 따라 네트워크 망과의 접속을 위한 네트워크 모듈, 팩스 송수신 등에 사용되는 모뎀, 이동식 저장 매체와의 데이터 이동 채널 형성을 위한 USB 호스트 모듈 등을 모두 포함할 수 있다. 통신부(180)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부장치와 통신을 수행할 수 있다. 통신부(180)는 와이파이칩, 블루투스 칩, 무선 통신 칩, NFC 칩 중 적어도 하나를 포함할 수 있다. 제어부(190)는 통신부(180)를 이용하여 각종 외부장치와 통신을 수행할 수 있다.
와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
제어부(190)는 화상 형성 장치(100)의 전반적인 기능을 제어하며, 마이크로 프로세서 형태일 수 있다. 이때 제어부(190)는 각 기능에 따라 분리된 복수의 프로세서 모듈과 이들을 통합 관리하는 메인 프로세서 모듈로 나눌 수도 있다. 제어부(190)는 표시부(110), 사용자 입력부(120), 및 영상 처리부(130)를 제어하여, 사용자 인터페이스를 포함하는 화면을 사용자가 볼 수 있도록 표시하고, 입력받은 사용자의 조작에 기초하여, 이에 대응되는 화면이 표시되도록 영상 신호들의 처리를 제어할 수 있다. 또한, 메모리(140)에 각 종 프로그램 및 데이터를 저장하게 하거나, 메모리(140)에 저장된 각종 프로그램 및 데이터를 로딩하도록 제어할 수 있다. 또한, 팩스부(150)의 동작을 제어하여 팩스를 송수신하게 하거나, 스캔부(160)의 동작을 제어하여 문서를 스캔할 수 있다. 제어부(190)는 메모리(140)로부터 로딩된 데이터를 제어부(190)에서 처리한 데이터와 비교하거나, 메모리(140)에 저장되어 있는 데이터를 화상 형성부(170)에 전달되도록 제어할 수 있다. 또한, 제어부(190)는 통신부(180)를 통하여 외부 장치로부터 데이터를 수신하거나 외부 장치로 데이터 전송할 수 있다.
전술한 화상형성장치(100)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 화상형성장치(100)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다.
도 11은 일 실시예에 따른 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법을 설명하기 위한 흐름도이다. 이하에서 생략된 내용이라 하더라도, 이상에서 기술한 내용은 화상형성장치(100)의 애플리케이션 실행을 조작하는 화면(200)을 제공하는 방법에 적용될 수 있다.
단계 1110에서, 화상형성장치(100)의 영상 처리부(130)는 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스(210)를 나타내는 제 1 영상 신호와 화상형성장치(100)의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)(222, 224)을 포함하는 제 2 사용자 인터페이스(220)를 나타내는 제 2 영상 신호를 생성할 수 있다. 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)는 애플리케이션의 종류에 따라 표시되는 형태가 다를 수 있다.
한편, 가상 버튼(222)은 화상형성장치(100)의 동작을 개시, 중지, 및 리셋하는 버튼 중 어느 하나일 수 있다. 또는, 애플리케이션의 종류에 따라 표시되는 형태 및 기능이 변하는 가상버튼(224)일 수 있다. 가상 버튼(222, 224)이 복수 개인 경우, 제 2 사용자 인터페이스(220)는 버튼 별로 분리하여 표시될 수 있다.
단계 1120에서, 화상형성장치(100)의 표시부(130)는 제 1 영상 신호와 제 2 영상 신호에 기초하여, 제 1 사용자 인터페이스(210)와 제 2 사용자 인터페이스(220)를 애플리케이션 실행을 조작하는 화면(200)에 표시할 수 있다. 제 1 사용자 인터페이스(210)와 상기 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에서 겹치는 경우, 표시부(130)는 제 1 사용자 인터페이스(210) 위에 제 2 사용자 인터페이스(220)를 표시할 수 있다. 이때, 제 2 사용자 인터페이스(220)의 전체 또는 일부 영역은 제 1 사용자 인터페이스(210)보다 투명도가 높을 수 있다. 이것은 제 2 사용자 인터페이스(220)에 의해 가려지는 제 1 사용자 인터페이스(210)의 일부 영역에 표시된 정보를 반투명한 제 2 사용자 인터페이스(220)를 투과하여 볼 수 있도록 하기 위함이다. 한편, 제 2 사용자 인터페이스(220)는 제 1 사용자 인터페이스(210) 위의 임의의 위치로 이동시킬 수 있다.
화상형성장치(100)의 표시부(130)에 표시된 애플리케이션 실행을 조작하는 화면(200)에 대하여, 사용자의 조작이 있는 경우, 사용자 입력부(120)를 통하여 입력된다. 영상 처리부(130)는 입력된 사용자의 조작에 기초하여, 표시부(130)에 표시할 애플리케이션 실행을 조작하는 화면(200)을 생성할 수 있다.
예를 들어, 제 1 사용자 인터페이스(210) 위에 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에 겹쳐 표시된 경우, 화상형성장치(100)는 제 1 사용자 인터페이스(210)에 대한 사용자의 조작이 입력되면, 제 2 사용자 인터페이스(220)를 소정의 시간 동안 화면에서 사라지도록 처리하고, 그 소정의 시간 동안 사용자의 조작이 입력되지 않으면 다시 표시하도록 처리할 수 있다. 다른 예를 들어, 제 1 사용자 인터페이스(210) 위에 제 2 사용자 인터페이스(220)가 애플리케이션 실행을 조작하는 화면(200)에 겹쳐 표시된 경우, 화상형성장치(100)는 제 1 사용자 인터페이스(210)에 대한 사용자의 조작이 입력되면, 제 2 사용자 인터페이스(220)를 대체 아이콘으로써 애플리케이션 실행을 조작하는 화면(200)의 일부 영역에 표시되도록 처리하고, 대체 아이콘에 대한 사용자의 조작이 입력되면 다시 표시하도록 처리할 수 있다.
한편, 상술한 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 이와 같은 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 이와 같은 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시예들에 따른 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.
화상형성장치 ... 100
표시부 ... 110
영상 처리부 ... 130
애플리케이션 실행을 조작하는 화면 ... 200
제 1 사용자 인터페이스 ... 210
제 2 사용자 인터페이스 ... 220
가상 버튼 ... 222, 224

Claims (20)

  1. 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법에 있어서,
    상기 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스를 나타내는 제 1 영상 신호와 상기 화상형성장치의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함하는 제 2 사용자 인터페이스를 나타내는 제 2 영상 신호를 생성하는 단계; 및
    상기 제 1 영상 신호와 상기 제 2 영상 신호에 기초하여, 상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스를 상기 화면에 표시하는 단계;
    를 포함하는 화면 제공 방법.
  2. 제 1 항에 있어서,
    상기 표시하는 단계는,
    상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스가 상기 화면에서 겹치는 경우, 상기 제 1 사용자 인터페이스 위에 상기 제 2 사용자 인터페이스를 표시하는, 화면 제공 방법.
  3. 제 2 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스의 전체 또는 일부 영역은 상기 표시된 제 1 사용자 인터페이스보다 투명도가 높은, 화면 제공 방법.
  4. 제 2 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스는, 상기 표시된 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력되면 소정의 시간 동안 상기 화면에서 사라지고, 상기 소정의 시간 동안 상기 사용자의 조작이 입력되지 않으면 다시 표시되는, 화면 제공 방법.
  5. 제 2 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스는, 상기 표시된 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력되면 대체 아이콘으로써 상기 화면의 일부 영역에 표시되고, 상기 대체 아이콘에 대한 상기 사용자의 조작이 입력되면 다시 표시되는, 화면 제공 방법.
  6. 제 2 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스는 상기 표시된 제 1 사용자 인터페이스 위의 임의의 위치로 이동시킬 수 있는, 화면 제공 방법.
  7. 제 1 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스에 대한 사용자의 소정의 조작이 있는 경우, 상기 화면상에 상기 표시된 제 2 사용자 인터페이스가 이동할 수 있는 위치들을 표시하는 단계; 및
    상기 위치들 중 상기 사용자가 선택한 위치로 상기 표시된 제 2 사용자 인터페이스를 이동시켜 표시하는 단계;
    를 더 포함하는 화면 제공 방법.
  8. 제 1 항에 있어서,
    상기 표시하는 단계는,
    상기 가상 버튼이 복수 개일 때, 상기 제 2 사용자 인터페이스를 상기 가상 버튼 별로 분리하여 표시하는, 화면 제공 방법.
  9. 제 1 항에 있어서,
    상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스는 상기 애플리케이션의 종류에 따라 표시되는 형태가 다른, 화면 제공 방법.
  10. 제 1 항에 있어서,
    상기 제 2 사용자 인터페이스는 상기 애플리케이션의 종류에 따라 표시되는 형태 및 기능이 변하는 가상버튼을 더 포함하는,화면 제공 방법.
  11. 제 1 항에 있어서,
    상기 가상 버튼은 상기 화상형성장치의 동작을 개시, 중지, 및 리셋하는 버튼 중 어느 하나인, 화면 제공 방법.
  12. 제 1 항 내지 제 11 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  13. 애플리케이션 실행을 조작하는 화면을 제공하는 화상형성장치에 있어서,
    상기 애플리케이션 실행에 적용되는 옵션들을 설정하는 제 1 사용자 인터페이스를 나타내는 제 1 영상 신호와 상기 화상형성장치의 동작을 제어하는 적어도 하나의 가상 버튼(virtual button)을 포함하는 제 2 사용자 인터페이스를 나타내는 제 2 영상 신호를 생성하는 영상 처리부; 및
    상기 제 1 영상 신호와 상기 제 2 영상 신호에 기초하여, 상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스를 상기 화면에 표시하는 표시부;
    를 포함하는 화상형성장치.
  14. 제 13 항에 있어서,
    상기 표시부는,
    상기 제 1 사용자 인터페이스와 상기 제 2 사용자 인터페이스가 상기 화면에서 겹치는 경우, 상기 제 1 사용자 인터페이스 위에 상기 제 2 사용자 인터페이스를 표시하는, 화상형성장치.
  15. 제 14 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스의 전체 또는 일부 영역은 상기 표시된 제 1 사용자 인터페이스보다 투명도가 높은, 화상형성장치.
  16. 제 14 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스는, 상기 표시된 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력되면 소정의 시간 동안 상기 화면에서 사라지고, 상기 소정의 시간 동안 상기 사용자의 조작이 입력되지 않으면 다시 표시되는, 화상형성장치.
  17. 제 14 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스는, 상기 표시된 제 1 사용자 인터페이스에 대한 사용자의 조작이 입력되면 대체 아이콘으로써 상기 화면의 일부 영역에 표시되고, 상기 대체 아이콘에 대한 상기 사용자의 조작이 입력되면 다시 표시되는, 화상형성장치.
  18. 제 14 항에 있어서,
    상기 표시된 제 2 사용자 인터페이스는 상기 표시된 제 1 사용자 인터페이스 위의 임의의 위치로 이동시킬 수 있는, 화상형성장치.
  19. 제 13 항에 있어서,
    상기 표시부는,
    상기 표시된 제 2 사용자 인터페이스에 대한 사용자의 소정의 조작이 있는 경우, 상기 화면상에 상기 표시된 제 2 사용자 인터페이스가 이동할 수 있는 위치들을 표시하고, 상기 위치들 중 상기 사용자가 선택한 위치로 상기 표시된 제 2 사용자 인터페이스를 이동시켜 표시하는, 화상형성장치.
  20. 제 13 항에 있어서,
    상기 제 2 사용자 인터페이스는 상기 애플리케이션의 종류에 따라 표시되는 형태 및 기능이 변하는 가상버튼을 더 포함하는, 화상형성장치.
KR1020140067796A 2014-06-03 2014-06-03 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치 KR20150139337A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140067796A KR20150139337A (ko) 2014-06-03 2014-06-03 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치
US14/644,592 US9696952B2 (en) 2014-06-03 2015-03-11 Method of providing screen for manipulating execution of application of image forming apparatus and image forming apparatus using the method
CN201510295565.1A CN105282359B (zh) 2014-06-03 2015-06-02 提供操作成像装置的应用的运行的屏幕的方法及相应装置
EP15170549.8A EP2953335A1 (en) 2014-06-03 2015-06-03 Method of providing screen for manipulating execution of application of image forming apparatus and image forming apparatus using the method
US15/612,611 US11188280B2 (en) 2014-06-03 2017-06-02 Method of providing screen for manipulating execution of application of image forming apparatus and image forming apparatus using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140067796A KR20150139337A (ko) 2014-06-03 2014-06-03 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치

Publications (1)

Publication Number Publication Date
KR20150139337A true KR20150139337A (ko) 2015-12-11

Family

ID=53396255

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140067796A KR20150139337A (ko) 2014-06-03 2014-06-03 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치

Country Status (4)

Country Link
US (2) US9696952B2 (ko)
EP (1) EP2953335A1 (ko)
KR (1) KR20150139337A (ko)
CN (1) CN105282359B (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6379931B2 (ja) * 2014-09-29 2018-08-29 ブラザー工業株式会社 機能実行装置及び画面情報サーバ
JP6394249B2 (ja) * 2014-09-30 2018-09-26 ブラザー工業株式会社 画像処理装置
US9491328B2 (en) * 2015-02-28 2016-11-08 Xerox Corporation System and method for setting output plex format using automatic page detection
USD821488S1 (en) * 2017-02-16 2018-06-26 Xerox Corporation User interface display module for a multifunction printing machine
USD822100S1 (en) * 2017-02-16 2018-07-03 Xerox Corporation Multifunction printing machine
USD821489S1 (en) * 2017-02-16 2018-06-26 Xerox Corporation User interface display module for a multifunction printing machine
CN107544465A (zh) * 2017-09-13 2018-01-05 四川谊田集群科技有限公司 一种对控制装置远程调试的***及方法
US11480904B2 (en) 2018-11-06 2022-10-25 Hewlett-Packard Development Company, L.P. Iconographic control panel of an image forming apparatus

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
JP2002055750A (ja) 2000-08-10 2002-02-20 Canon Inc 情報処理装置、機能一覧表表示方法、及び記憶媒体
KR100593982B1 (ko) * 2003-11-06 2006-06-30 삼성전자주식회사 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체
US8631969B2 (en) * 2004-06-15 2014-01-21 Teknovation, Ltd. Article storage and retrieval apparatus, and vending machine
JP2006121644A (ja) * 2004-09-22 2006-05-11 Seiko Epson Corp 画像表示装置及びその制御方法
JP2008021116A (ja) * 2006-07-12 2008-01-31 Hitachi Ltd San/nas統合管理計算機及び方法
US20080163119A1 (en) * 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method for providing menu and multimedia device using the same
KR100867957B1 (ko) * 2007-01-22 2008-11-11 엘지전자 주식회사 이동통신 단말기 및 그 제어방법
JP2008304548A (ja) 2007-06-05 2008-12-18 Kyocera Mita Corp 画像形成装置
KR20090043753A (ko) * 2007-10-30 2009-05-07 엘지전자 주식회사 터치스크린을 구비한 단말장치의 멀티태스킹 제어 방법 및장치
US7816641B2 (en) * 2007-12-28 2010-10-19 Candela Microsystems (S) Pte. Ltd. Light guide array for an image sensor
EP2238020A2 (en) * 2008-01-07 2010-10-13 Aerojet-General Corporation Propulsion system with movable thermal choke
ES2621965T3 (es) * 2008-01-11 2017-07-05 Ntt Docomo, Inc. Procedimiento de comunicación móvil y estación base de radio
US8041497B2 (en) * 2008-07-15 2011-10-18 Ford Global Technologies, Llc Fuel based engine operation control
KR20110034858A (ko) * 2009-09-29 2011-04-06 주식회사 넥슨모바일 게임 운영을 제어하기 위한 사용자 인터페이스 제공 방법
FR2956547B1 (fr) * 2010-02-15 2012-09-14 Sagem Wireless Procede et un systeme de transfert d'une image entre deux appareils de telephonie mobile
JP5081939B2 (ja) * 2010-03-23 2012-11-28 シャープ株式会社 操作機器、その操作機器を備えた電子機器および画像処理装置、ならびにその操作機器における情報表示方法
KR100989942B1 (ko) * 2010-04-29 2010-10-26 태산엔지니어링 주식회사 친환경 수성 에폭시 수지 조성물 및 그의 용도
JP5255093B2 (ja) 2010-05-17 2013-08-07 シャープ株式会社 表示機器及び画像形成装置
JP5832077B2 (ja) * 2010-09-24 2015-12-16 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
KR101861593B1 (ko) 2011-03-15 2018-05-28 삼성전자주식회사 휴대용 단말기를 조작하기 위한 장치 및 방법
JP5516473B2 (ja) * 2011-03-24 2014-06-11 コニカミノルタ株式会社 画像形成装置、表示方法および表示プログラム
EP2694205B1 (en) * 2011-04-01 2022-07-27 Dow Global Technologies LLC Catalysts for the conversion of synthesis gas to alcohols
JP5927907B2 (ja) * 2011-12-26 2016-06-01 ブラザー工業株式会社 画像形成装置、画像形成装置の制御方法およびプログラム
JP2013134536A (ja) * 2011-12-26 2013-07-08 Brother Ind Ltd 表示装置及び表示プログラム
US9223483B2 (en) * 2012-02-24 2015-12-29 Blackberry Limited Method and apparatus for providing a user interface on a device that indicates content operators
US8928593B2 (en) 2012-03-11 2015-01-06 Beijing Hefengxin Keji Co. Ltd. Selecting and updating location of virtual keyboard in a GUI layout in response to orientation change of a portable device
KR20140047887A (ko) * 2012-10-15 2014-04-23 삼성전자주식회사 메모 기능 수행 시 모드 전환이 가능한 전자 장치 및 방법
KR102029242B1 (ko) * 2013-01-03 2019-11-08 엘지전자 주식회사 이동 단말기 제어방법
JP6024606B2 (ja) * 2013-07-02 2016-11-16 富士ゼロックス株式会社 画像形成装置、情報処理装置、プログラム
JP2015103161A (ja) * 2013-11-27 2015-06-04 コニカミノルタ株式会社 画像形成装置、操作画面の表示方法、およびコンピュータプログラム
JP5884815B2 (ja) * 2013-12-13 2016-03-15 コニカミノルタ株式会社 画像形成装置、操作画面表示方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
US20170269887A1 (en) 2017-09-21
EP2953335A1 (en) 2015-12-09
CN105282359A (zh) 2016-01-27
US9696952B2 (en) 2017-07-04
CN105282359B (zh) 2018-09-25
US20150347070A1 (en) 2015-12-03
US11188280B2 (en) 2021-11-30

Similar Documents

Publication Publication Date Title
US11188280B2 (en) Method of providing screen for manipulating execution of application of image forming apparatus and image forming apparatus using the method
JP7328182B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP6157080B2 (ja) データ処理装置、データ処理方法、及びプログラム
US11106348B2 (en) User interface apparatus, image forming apparatus, content operation method, and control program
EP2712167B1 (en) Image processing apparatus, operation standardization method, and computer-readable recording medium encoded with operation standardization program
KR102333135B1 (ko) 화상형성장치의 애플리케이션 실행을 조작하는 화면을 제공하는 방법 및 이를 이용하는 화상형성장치
US10496242B2 (en) Operation screen display device and recording medium recorded with display program
JP2016126657A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
US8982397B2 (en) Image processing device, non-transitory computer readable recording medium and operational event determining method
KR102105492B1 (ko) 정보 처리 장치, 정보 처리 장치의 제어 방법 및 저장 매체
US20140165011A1 (en) Information processing apparatus
US10691293B2 (en) Display device and computer-readable non-transitory recording medium with display control program stored thereon
JP2011180625A (ja) 入力装置および入力制御プログラム
JP6786199B2 (ja) 印刷制御装置、印刷制御装置の制御方法、及びプリンタドライバプログラム
KR20140016822A (ko) 터치 스크린을 갖는 정보단말, 그 제어방법, 및 기억매체
WO2020095876A1 (ja) 画像形成装置、数値カウント方法
JP2011186605A (ja) 入力装置および入力制御プログラム
JP6470485B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2018041469A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2015053623A (ja) 印刷設定装置及びプログラム

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination