KR101001617B1 - 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법 - Google Patents

가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법 Download PDF

Info

Publication number
KR101001617B1
KR101001617B1 KR1020070131904A KR20070131904A KR101001617B1 KR 101001617 B1 KR101001617 B1 KR 101001617B1 KR 1020070131904 A KR1020070131904 A KR 1020070131904A KR 20070131904 A KR20070131904 A KR 20070131904A KR 101001617 B1 KR101001617 B1 KR 101001617B1
Authority
KR
South Korea
Prior art keywords
product
design
virtual
evaluation
hand
Prior art date
Application number
KR1020070131904A
Other languages
English (en)
Other versions
KR20090064634A (ko
Inventor
양웅연
조동식
손욱호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070131904A priority Critical patent/KR101001617B1/ko
Priority to US12/117,639 priority patent/US20090157478A1/en
Publication of KR20090064634A publication Critical patent/KR20090064634A/ko
Application granted granted Critical
Publication of KR101001617B1 publication Critical patent/KR101001617B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/54Link editing before load time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법에 관한 것으로, 제품의 기획 및 디자인에서 생성된 다양한 디지털 데이터를 통합하여 하나의 가상 제품으로 구동하고, 이를 실사 수준으로 가시화시키는 가상현실 기술, 제품의 디자인에 대한 소비자의 감성적 평가 현상을 공학적인 측면에서 체계화 시키는 감성공학 기술, 제품의 조작에 대한 신체적인 역학적 활동을 생체역학적인 측면에서 정량적으로 측정 및 분석하는 인간공학 기술, 그리고, 디지털 데이터를 직접 만져볼 수 있는 유형(tangible) 인터페이스와 실사 가시화가 동시에 지원되는 혼합현실 기술을 통합시킴으로써, 사용성에 대한 문제를 조기에 발견하여 제품 디자인 수정 등의 개선안을 얻을 수 있고, 제품의 전반적인 품질 향상 및 회사의 제품-수명-주기(product life cycle)를 효율적으로 관리할 수 있다.
가상현실, 혼합현실, 증강현실, 사용성 평가, 가상 제품 동작 시뮬레이션, 실사 가시화, 부품 기반 자동 조립, 디자인 변경, 감성공학, 핸드 모델, 인체역학, 핸드 인터페이스, 디스플레이, 3차원 쾌속 조형, 제품-수명-주기

Description

가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법{USABILITY EVALUATION SYSTEM OF VIRTUAL MOBILE INFORMATION APPLIANCE AND ITS METHOD}
본 발명은 제품의 기획 및 디자인에서 생성된 다양한 디지털 데이터를 통합하여 하나의 가상 제품으로 구동하고, 이를 실사 수준으로 가시화시키는 가상현실 기술, 제품의 디자인에 대한 소비자의 감성적 평가 현상을 공학적인 측면에서 체계화 시키는 감성공학 기술, 제품의 조작에 대한 신체적인 역학적 활동을 생체역학적인 측면에서 정량적으로 측정 및 분석하는 인간공학 기술, 그리고, 디지털 데이터를 직접 만져볼 수 있는 유형(tangible) 인터페이스와 실사 가시화가 동시에 지원되는 혼합현실 기술이 통합된 시스템 및 그 방법에 관한 것이다.
주지된 바와 같이, 가상 제품 구동 기술은 제품의 외관을 3차원 모델링 툴을 이용한 제품 데이터(예컨대, CAD 데이터)에 운동학(kinematics) 정보 및 애니메이션 정보를 추가하여 시간의 변화에 따른 동작 과정을 보여주는 기술로, CAD 및 컴퓨터그래픽스 응용 분야에 널리 사용되고 있다.
그리고, 3차원 모델 데이터를 사진과 같은 실사 수준의 이미지로 렌더링 하 는 HLSL(High Level Shader Language) 기반 기술은 90년대를 거쳐 2000년대에는 Nvidia사의 Cg기술을 예시로 컴퓨터그래픽스 분야에서 널리 활용되고 있다.
그렇지만, 품질 높은 실사 수준의 결과물을 얻기 위한 복잡한 빛의 경로 추적 및 물체의 속성을 고려한 반사 등을 반영하는 알고리즘은 고성능 컴퓨팅 파워 및 자원을 요구하기 때문에, 실시간 처리가 매우 중요한 가상현실 연구분야에서는 앞에 제시된 기술들 통합하여 사실적인 가상 제품의 시연을 가능하게 하는 기술을 개발하는 연구를 진행하고 있다.
한편, 감성공학 분야에서는 소비자가 제품으로부터 느끼는 감성적 수용 결과(예컨대, 언어적 표현)를 체계적인 방법론을 이용하여 입력 값(예컨대, 제품의 디자인 구성 요소의 물리적 데이터 및 개인적 느낌)과 출력 값(예컨대, 제품 디자인에 대한 감성적 만족도 표현 점수)의 관계로 도출하는 기술을 개발한다.
즉, 특정 제품에 대한 디자인을 HCI 기반 감성공학 관점에서 세부 구성 요소로 분해하고, 그 요소들로 조합되는 제품군을 가지고 피실험자 그룹을 대상으로 제품에 대한 감성 평가 데이터 수집 실험을 수행한다. 그리고, 사용자의 감성적인 만족도에 대한 디자인 구성 요소에 대한 상관 관계를 통계적으로 분석하여, 일정한 입력 파리미터의 가중치를 결정하는 관계식을 수립함으로써, 일정한 규칙(예컨대, 평가 기준)을 따르는 임의의 제품에 대한 특정 소비자 집단의 감성 평가 지수를 예측할 수 있는 알고리즘(예측 점수에 대한 추정식)을 개발한다.
그러나, 상기한 바와 같은 종래 기술에서는 이미 시장에 출시된 제품을 대상으로 상당한 시간이 소요되는 피실험자 실험 과정과 분석 및 추정식 모델링 과정을 거치므로, 소비자의 디자인 선호 경향이 수시로 바뀌고, 다양한 디자인의 제품이 빠르게 출시되는 현재의 시장 현황을 빠른 시간 안에 분석 해내기는 어렵다는 한계점을 가지고 있다.
이에, 인간공학 기술 분야에서는 과거 기능 중심의 제품 외형 설계 및 사용자 인터페이스 설계 관행에서 발생되는 사용성 문제를 인간의 편의성을 중심으로 개선시키는 연구를 수행한다. 그리고 정보가전기기의 경우에도 인간공학적 분석 기술을 활용하여 사용자 인터페이스 개선 및 제품 외형에 대한 개선 작업이 이루어 지고 있다. 특히, 21세기에는 소형화된 개인정보기기의 대중화로 손(가락)을 사용하는 작업이 증가하고 있으며, 이러한 문화의 형성에 대한 부작용(예컨대, VDT증후군)을 분석하고 문제를 해결하기 위한 연구가 진행 중이다.
하지만, 현재까지 개발된 인간공학 분석 기술(예컨대, 미국 펜실베니아 대학 JACK 시스템)은 몸 전체 동작을 중심으로 하는 작업(예컨대, 공장 생산 라인 작업)을 대상으로 개발된 기술로, 세세한 손동작 및 손가락에서 발생되는 상황을 시뮬레이션하고 문제점을 분석하기에는 한계가 있다. 그리고, 체계적인 인간공학 실험을 위하여 피실험자를 대상으로 편의성을 고려한 핸드 전용 인터페이스형 실험 장치의 개발도 필요한 상태이다.
또한, 본 발명이 제시하는 4가지 주요 기술은 혼합현실 환경으로 구축되는 시스템에서 통합 운영된다. 혼합현실 기술은 영상 정합 및 합성을 중심으로 개발된 증강현실 기술에 상호작용 기능이 우수한 가상현실 기술이 추가 보완된 기술이다. 현재의 혼합현실 기술의 적용 사례는 대부분 저해상도의 비디오 영상에 가상 개체를 혼합하여 사용자와의 상호작용을 지원하는 것이 대부분이다.
예컨대, 뉴질랜드 HITLab 연구 사례와 가상개체와의 상호작용에 있어서 햅틱 피드백(물리적인 충돌 및 접촉 현상을 재현하는 가상현실 기술)을 제시하는 이슈가 중요시되어 해당 분야에서는 다양한 햅틱 인터페이스 기술이 개발되고 있으나, 실물(특히, 본 발명이 대상으로 하는 핸드폰과 같은 소형 크기의 대상물을 정밀하게)을 조작하는 손의 느낌을 100% 완전히 재현하는 요구조건을 만족하기에는 역부족인 것이 현실이므로, 다른 자극 요소(예컨대, 사운드 효과)를 활용한 멀티모달 상호작용 기법을 이용해서 기술의 단점을 보완하려는 연구가 수행되고 있다.
그러므로, 현재의 혼합현실 기술은 본 발명이 목적으로 하고 있는 가상 사용성 평가 시나리오에서 요구하는 가상 제품의 실사 수준의 영상 표현 및 구동 그리고 혼합현실 환경에서의 실제 제품 체험 상황과 동일한 상호작용 조작 기능 지원을 위한 기술로는 아직 부족한 상태이다.
이에, 본 발명의 기술적 과제는 상술한 기술의 한계 및 개발의 필요성에 의해 안출된 것으로서, 주요 기술적 과제 4가지를 해결하는 방법을 제시한다. 첫째, 제품 가시화 및 동작 시뮬레이션에 대한 개별적인 작업 수행 과정들로부터 산출된 다양한 디지털 데이터를 통합하여, 하나의 작업 도구(S/W 툴) 환경에서 디자인을 쉽게 변경할 수 있으며, 실사 수준의 가시화, 제품의 물리적 동작 및 제품에 내장된 S/W의 구동을 실시간에 시뮬레이션 할 수 있는 기술이다.
둘째, 제품의 디자인의 변경에 따른 소비자 선호도를 예측하는 기능을 지원하는 구현 기술을 제시하고, 현재 감성공학적 평가 지원 기술의 한계점인 "감성공학적 사용자 평가 예측 모델의 빠른 갱신"문제를 해결하는 기술이다.
셋째, 손을 사용하는 제품의 사용성 평가 시나리오에서 정량적 측면의 분석을 지원하기 위한, 장갑형 인터페이스 장치의 설계 및 운용 기술을 제시하고, 이 것을 활용하여 제품의 사용자 인터페이스 평가 및 개선 사항을 분석하는 기술이다.
넷째, 이상적인 가상 사용성 평가 실험의 실현을 가능하게 하는 기술은 혼합현실 기술로 구현된 형태이므로, 시장에 출시되는 완성품 수준의 제품으로부터 사용자가 느낄 수 있는 다양한 측면(예컨대, 시각과 청각과 촉각 및 제품 조작에 따른 인지적 결과 등)의 기능을 지원하기 위한 혼합현실 기반 사용성 평가 플랫폼의 설계 및 운용 방법에 대한 기술이다.
또한, 본 발명의 기술적 과제를 해결하기 위하여 제품의 기획 및 디자인에서 생성된 다양한 디지털 데이터를 통합하여 하나의 가상 제품으로 구동하고, 이를 실사 수준으로 가시화시키는 가상현실 기술, 제품의 디자인에 대한 소비자의 감성적 평가 현상을 공학적인 측면에서 체계화 시키는 감성공학 기술, 제품의 조작에 대한 신체적인 역학적 활동을 생체역학적인 측면에서 정량적으로 측정 및 분석하는 인간공학 기술, 그리고, 디지털 데이터를 직접 만져볼 수 있는 유형(tangible) 인터페이스와 실사 가시화가 동시에 지원되는 혼합현실 기술을 통합시킨 가상 모바일 정 보기기의 사용성 평가 시스템 및 그 방법을 제공한다.
본 발명의 일 관점에 따른 가상 모바일 정보기기의 사용성 평가 시스템은, 부품 데이터베이스(DB) 및 부분적으로 정형화된 가이드에 따라 디자인된 제품을 대상으로 소비자 관점에서 감성적 평가를 지원하고 디자인 선호도 데이터를 네트워크 온라인 시스템을 기반으로 실시간 수집하는 디자인 평가부와, 디자인된 제품과 관련된 디지털 데이터를 통합하여 실사 가시화 및 가상 조작을 실현하는 가상 제품 디자인 변경 및 동작 시뮬레이션부와, 핸드 인터페이스 기반 사용성 평가 툴을 이용하여 인체역학 기반 핸드 작업 부하 및 피로도를 측정하여 제공하는 인체역학 기반 핸드 작업 평가부와, 실현된 실사 가시화 및 가상 조작에 대하여 증강현실 기술 및 쾌속 조형 기술을 이용하고 측정된 인체역학 기반 핸드 작업 부하 및 피로도를 기반으로 사용성 평가 상황을 생성하여 사용자에게 전달하는 혼합현실 사용성 평가 플랫폼부를 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 관점에 따른 가상 모바일 정보기기의 사용성 평가 방법은, 부품 데이터베이스(DB) 및 부분적으로 정형화된 가이드에 따라 디자인된 제품을 대상으로 소비자 관점에서 감성적 평가를 지원하고 디자인 선호도 데이터를 네트워크 온라인 시스템을 기반으로 실시간 수집하는 단계와, 디자인된 제품과 관련된 디지털 데이터를 통합하여 실사 가시화 및 가상 조작을 실현하는 단계와, 핸드 인터페이스 기반 사용성 평가 툴을 이용하여 인체역학 기반 핸드 작업 부하 및 피로도를 측정하는 단계와, 실현된 실사 가시화 및 가상 조작에 대하여 증강현실 기술 및 쾌속 조형 기술을 이용하고 측정된 인체역학 기반 핸드 작업 부하 및 피로도를 기반으로 사용성 평가 상황을 생성하여 사용자에게 전달하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 제품의 기획 및 디자인에서 생성된 다양한 디지털 데이터를 통합하여 하나의 가상 제품으로 구동하고, 이를 실사 수준으로 가시화시키는 가상현실 기술, 제품의 디자인에 대한 소비자의 감성적 평가 현상을 공학적인 측면에서 체계화 시키는 감성공학 기술, 제품의 조작에 대한 신체적인 역학적 활동을 생체역학적인 측면에서 정량적으로 측정 및 분석하는 인간공학 기술, 그리고, 디지털 데이터를 직접 만져볼 수 있는 유형(tangible) 인터페이스와 실사 가시화가 동시에 지원되는 혼합현실 기술을 통합시킴으로써, 사용성에 대한 문제를 조기에 발견하여 제품 디자인 수정 등의 개선안을 얻을 수 있고, 제품의 전반적인 품질 향상 및 회사의 제품-수명-주기(product life cycle)를 효율적으로 관리할 수 있는 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
그리고, 본 발명은 선행 출원(등록) 국내 특허 “사용자 인터페이스 설계 및 평가 시스템 및 손 상호 작용 기반의 사용자 인터페이스 설계 및 평가 시스템(등록일 : 2007.01.11, 등록번호 : 670821)” 및 “사용자 중심형 인터페이스를 위한 가상현실 상호작용 인체 모델 즉석 생성/제어장치 및 방법(등록일 : 2007.05.14, 등록번호 : 722229)”의 내용을 정보가전 기기를 대상으로 구체화시킨 실시 방법을 제시하고, 해당 기술 영역을 가상현실 및 혼합현실 기술 영역으로 확장시킨 것이다.
도 1은 본 발명의 바람직한 실시예에 따른 가상 모바일 정보기기의 사용성 평가 시스템을 위한 블록 구성도로서, 디자인 평가 그룹(1000), 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000), 인체역학 기반 핸드 작업 평가 그룹(3000), 혼합현실 사용성 평가 플랫폼 그룹(4000)을 포함한다. 그리고, 본 발명은 각각의 주요 기능들의 일부 또는 전체를 통합하여 독립적인 실행이 가능한 실시 예로서, 온라인 제품 평가 툴(T1), 온라인 제품 디자인 생성/변경 툴(T2), 핸드 인터페이스 기반 사용성 평가 툴(T3) 및 가상 프로토타이핑 기반 사용성 평가 툴(T4)을 구비한 다.
디자인 평가 그룹(1000)은 도 2에 도시된 바와 같이 이루어져 제품 디자인에 대한 사용자의 감성적 측면에서의 평가 서비스를 제공하며, 체계적으로 시스템에서 피드백을 제공할 수 있도록 지원하는 블록으로서, 온라인 제품 디자인 생성/변경 툴(T2)과 온라인 제품 평가 툴(T1)로 구현될 수 있으며, 이는 오프 라인(off-line)에서 이루어지는 디자인 감성 평가 예측 점수 모델링부(1400)에 이르는 일련의 과정을 기반으로 한다. 제품 디자인(부품) 통합 데이터 베이스(Data Base, DB)(2110)는 제품의 기획 및 설계 등 디지털화된 디자인 데이터가 통합 관리되는 DB로 기본 데이터를 가지고 있는 DB이다.
디자인 평가 그룹(1000)은 산업공학 분야에서 활용되고 있는 감성공학 기반 디자인 평가 방법론에 의해 실시된다. 즉, 제품 디자인에 대하여 소비자가 느끼는 감성적인 결과를 언어 표현(예컨대, 고급감, 만족감 등)이라는 일련의 형태로 분류하고, 이들과 물리적인 제품 디자인 파라미터와의 상관관계를 도출함으로써, 세부적인 디자인 파라미터의 변화가 제품 전체에 대한 소비자의 감성적 디자인 만족도에 어떤 영향을 끼치는 지를 예측하여 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)에 제공할 수 있도록 한다.
디자인 평가 그룹(1000)은 제품 디자인 평가 요소 선정부(1200), 제품 평가 요소 DB(1500), 오프라인 디자인 평가 실험부(1300), 제품 디자인 평가 결과 DB(1600), 디자인 감성 평가 예측 점수 모델링부(1400)와 같은 일련의 과정을 거치고, 부품 데이터베이스(DB) 및 부분적으로 정형화된 가이드에 따라 디자인된 제품 을 대상으로 소비자 관점에서 감성적 평가를 지원하고 디자인 선호도 데이터를 네트워크 온라인 시스템을 기반으로 실시간 수집하여 제품 디자인 평가 분석 결과 DB(1700)에 저장된다. 앞의 1200 내지 1700에 이르는 블록간의 과정은 감성공학 분야에서 디자인 감성 평가 실험 및 분석에 대하여 일반적으로 실시되는 과정이므로, 상세한 기술은 생략한다.
앞의 과정을 거치면, 일정한 물리적 디자인 파라미터로 정의된 제품 디자인 종류에 대해서, 소비자의 감성적 만족도를 예측할 수 있는 회귀식(regression equation)이 얻어지게 되며, 이를 디자인 감성 평가 점수 추정 모델식으로 활용한다. 이것은 제품 디자인(부품) 통합 DB(2110)에 저장되어 있거나 온라인 제품 디자인 생성/변경 툴(T2)에 의해 새롭게 추가 변경 되는 제품 디자인에 대하여 즉각적인 감성적 만족도 점수를 출력할 수 있다.
이 점수를 활용하면, 온라인 제품 디자인 생성/변경 툴(T2)을 사용할 때, 사용자에게 현재 제품 디자인(부품) 통합 DB(2110)에 있는 수많은 부품의 노출 순위를 제어하고, 현재 디자인된 제품의 파라미터를 기준으로 즉각적인 평가 피드백 점수를 제공할 수 있으므로, 사용자가 소비자 시장에 대하여 만족도 높은 디자인 결과물을 얻을 수 있도록 지원할 수 있다.
온라인 제품 디자인 평가 툴(T1)은 제한된 피실험자를 상대로 오프라인상에서 실시되는 실험 과정을 다수의 피실험자가 웹서비스와 같은 온라인 시스템에 접속하여, 제품 디자인을 감상하고 이에 대한 평가 점수를 입력하는 작업을 지원하는 도구이다. 즉, 디자인 감성 평가 예측 모델링부(1400)의 과정이 오프라인 상황에서 제한적인 피실험자 그룹을 대상으로 현재 시장에 출시된 제품의 디자인만을 대상으로 실시된 실험 결과를 기반으로 실시되어 기존의 오프라인 실험 기반 모델 생성 방법론이 가지는 미래 시점의 디자인에 대한 예측 기능의 한계성을 보완하는 측면에서 제시되는 기능이다. 상술한 디자인 평가 그룹(1000)의 일 실시예로서, 도 10은 본 발명에 따른 온라인 제품 디자인 생성/변경 툴(T2)과 온라인 제품 디자인 평가 툴(T1)을 갖는 디자인 평가 그룹(1000)의 구현 예를 도시한 도면이다.
다음으로, 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)은 확장된 플랫폼을 제시하는 것으로, 디자인 평가 그룹(1000)에 의해 예측되어 제공된 세부적인 디자인 파라미터의 변화가 제품 전체에 대한 소비자의 감성적 디자인 만족도 예측 결과를 바탕으로 제품의 디자인 및 동작 시뮬레이션에 대한 디지털 정보를 나의 가상 모델로 통합하여, 컴퓨터상에서 손쉽게 시뮬레이션하며, 온라인 제품 디자인 평가 툴(T1)과 연계하여 디자인 감성 평가 예측 엔진의 데이터 갱신을 위한 웹 서비스 기반의 사용자 정보를 수집 및 갱신하며, 상술한 바와 같이 디자인된 제품과 관련된 디지털 데이터를 통합하여 실사 가시화 및 가상 조작을 실현할 수 있도록 도 3에 도시된 바와 같이 이루어져 있다.
여기서, 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)에서 사용되는 가상 제품의 디지털 데이터는 제품 디자인(부품) 통합 DB(2110)에 저장된다. 일반적인 CAD 프로그램(예컨대, CATIA, AutoCAD, 3DS MAX 등)과 2D 디자인 프로그램(예컨대, Adobe Flash 등) 및 실사 가시화 프로그램(예컨대, Nvidia Cg 코드)을 통하여 제작된 디지털 데이터는 제품 디자인 콘텐츠 관련 DB(2100)에 저장된다. 이렇 게 다양한 프로그램으로부터 생성된 디지털 데이터는 제품 디자인 데이터 포멧 통일부(2200)에서 일련의 데이터 저장 형식(예컨대, COLLADA 포멧 등)으로 데이터가 변환 및 통합되어 제품 디자인(부품) 통합 DB(2110)에 저장된다.
즉, 가상 제품 구조 저작부(2300)는 정의된 세부(하부)구조를 가진 형태로 가상 제품 디자인 데이터를 구성한다. 본 모듈에서는 3차원 컴퓨터 그래픽스 및 가상현실 시뮬레이션 분야에서 활용되는 기법으로, 가상 제품의 부품 구조를 단계적인 구조(예컨대, Tree 또는 Graph 형태)로 표현하고 각각의 부품들의 구조적 운동 정보 및 외부 입력 이벤트에 대한 동작 형태(예컨대, 에니메이션(animation))를 정의한다. 이와 같은 제품의 구성 정보는 제품 조립 정보 DB(2400)에 저장되며, 자동 조립 지원 처리부(2410)는 기 정의된 부품들의 공간적 상호관계(예컨대, 부모(parent)-자식(child) 종속 관계, 그룹(group) 관계 등의 제약(constraint) 정보)에 의하여, 온라인 제품 디자인 생성/변경 툴(T2)과 같이 디자인 파라미터를 변경시키는 경우에 부품 간의 상호관계를 지속적으로 유지할 수 있도록 처리(예컨대, 위치 이동의 제약, 자동 크기 조절, CAD 오퍼레이션(operation)을 이용한 3D 지오메트리(geometry) 정보의 변경 등)한다.
가상 제품(부품) 디자인 조정부(2420)는 디자인의 생성 및 변경 단계에서 자동 조립된 부품들 사이의 물리적 디자인 파라미터를 조절하여 전반적으로 자연스러운 조립 결과물이 될 수 있도록 자동 또는 수동적인 방법에 의하여 디자인 파라미터를 수정한다. 예컨대, 자동 수정 : 새로 추가된 버튼의 속성 정보를 주변 색상과 재질 정보를 기준으로 통일되도록 자동 변환하거나, 새로 추가된 부품의 형 상(geometry)과 주변의 형상의 관계를 일정한 규칙(rule)이나 제약 조건(constraint)를 기준으로 변형시킨다.
가상 제품 동작 저작부(2500)는 제품 디자인(부품) 통합 DB(2110)에 저장된 부품에 기구학 정보를 삽입하고, 가상 제품 가시화 속성 저작부(2510)는 제품 디자인(부품) 통합 DB(2110)에 저장된 제품의 재질 및 속성 정보를 수정한다. 이 부분은 일반적으로 활용되는 2차원 및 3차원 디자인 프로그램에서 찾아볼 수 있는 기능이다.
사용자 인터페이스 제어부(2700)는 온라인 제품 디자인 생성/변경 툴(T2)과 병행 프로세스로 실행되는 임의의 다수의 프로그램을 실시간 화면 캡쳐 방법을 이용하여, 인터페이스되는 프로그램과 수정된 제품의 재질 및 속정 정보와 기구학 정보가 삽입된 해당 부품과 수정된 디자인 파라미터를 가상 제품 통합 모델 가시화부(2530)에서 통합된 형태의 가상 제품 동작으로 가시화시킨다. 즉, 현재의 제품 디자인 설계에 활용되는 프로그램들은 대부분 제품 외관인 물리적 유저 인터페이스(Physical User Interface, 이하, PUI라 함)에 대한 형상 데이터만을 제작하여, 실사 수준의 실질적인 포토(photo realistic)로 가시화 시키는 기능을 지원하고, 제품에서 실행되는 내부 프로그램(예컨대, 임베디드 S/W)은 단순히 캡쳐(capture)된 화면 이미지를 텍스춰 맵(texture map)의 형태로 붙이거나, 동영상 화일을 이용하여 제품 동작을 시뮬레이션하고 있다. 하지만, 정보단말기에서 수행되는 내부 프로그램(embedded software)은 GUI 시뮬레이션 프로그램(예컨대, 어도브 플래쉬(Adobe Flash)를 이용한 인터액티브 메뉴(interactive menu) 구현)을 이용하여 제작 및 테스트를 실행하는 형태로 활용되고 있다.
그러므로, 실제 제품과 같이 PUI를 표현하는 3차원 가상 물체에 2차원 GUI 정보 이미지를 캡쳐하여 실시간으로 텍스춰 맵(texture map)을 갱신 함으로써, 가시화 결과 출력부(2600)는 PUI부분과 GUI부분이 완전히 통합된 형태의 가상 제품의 동작을 시뮬레이션 한다. 그리고, 사용자의 입력 값은 (키보드&마우스) 인터페이스 후킹(hooking) 기술을 활용하여 병행(parallel) 프로세스로 실행되는 PUI 가시화 프로그램과 GUI 가시화 프로그램에 전달한다.
또한, 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)은 해당 제품의 부품을 변경하는 경우 공간적 상호 관계를 고려하여, 자동으로 부품의 크기, 위치 및 형상 정보 데이터와 속성 정보를 수정하고 일치시킬 수 있다. 상술한 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)의 일 실시예로서, 도 11은 본 발명에 따른 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)의 구현 예를 도시한 도면이다.
다음에, 인체역학 기반 핸드 작업 평가 그룹(3000)은 시뮬레이션 툴을 이용하여 인체역학 기반 핸드 작업 부하 및 피로도를 측정하여 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹(2000)으로 제공하는 블록으로서, 도 4에 도시된 바와 같이 실시간 핸드 추적 인터페이스(3100)와 실시간 가상 핸드 모델 제어부(3200)와 핸드 역학 측정 인터페이스 제어부(3300)와 역학 측정 결과 가시화부(3400)와 핸드 역학 측정 인터페이스 장치부(3500)와 가상 제품 모델 동작 가시화부(3600)와 역학 실험 결과 기록부(3700)를 포함한다.
실시간 핸드 추적 인터페이스(3100)는 손의 모양을 실시간으로 추적하여 가상의 핸드 모델을 실시간으로 복원하여 가시화시킬 수 있도록 손 부분에 있는 모든 관절의 각도 값을 실시간으로 획득하는 센서가 구비된 장치를 사용한다. 예컨대, Immersion사의 Cyberglove는 22개의 센서를 이용하여 손가락 마디 사이의 각도 및 손의 자세 정보를 추적한다. 여기서, 획득된 관절 각도 정보는 실시간 가상 핸드 모델 제어부(3200)를 통하여 사용자와 일치된 가상 핸드 모델을 제어하기 위한 일련의 데이터 변환 및 조정(calibration filter)를 거친다.
핸드 역학 측정 인터페이스 장치부(3500)는 손을 주로 사용하는 제품을 다루는 손에서 발생되는 역학적 부하 현상을 추적하기 위한 다양한 센서를 구비한다. 예컨대, 압력 센서 및 근전도(EMG) 센서를 사용한다. 여기서, 실시간으로 획득된 센서 값들은 핸드 역학 측정 인터페이스 제어부(3300)를 통해서 조정(calibration filter 및 민감도 조정) 및 디지털 신호 변환 과정을 거치게 된다.
앞의 두 블록(3100과 3200, 3300과 3500)을 통해서 획득된 가상 핸드 모델 제어 데이터와 현재 손 부분에 걸리는 역학적 부하 측정값은 역학 측정 결과 가시화부(3400)에서 가상의 핸드 모델상에 역학 부하 측정값을 가시화시키는 형태로 출력된다. 즉 시스템을 이용하는 사용자는 센서 측정값을 통해서 객관적으로 현재 자신이 다루고 있는 제품에 대한 손의 느낌을 측정할 수 있다. 그리고, 제품과 손 사이의 상호작용 관계에 대한 이해를 높이기 위해서 가상 제품 모델 동작 가시화부(3600)에서는 도 3의 가시화 결과 출력부(2600)에서와 같은 방법으로 제품의 현재 동작 상태를 가시화 시킨다.
역학 실험 결과 기록부(3700)에서는 현재 실시되는 실험의 내용에 대하여 비디오 및 오디오 기록 장치를 통해서 기록하고, 가상 핸드 모델 제어를 위한 데이터 및 핸드 모델의 동작 상태 그리고, 가상 제품의 동작 상황을 모두 저장하여 실험 후에 실시되는 분석에 활용될 수 있도록 한다. 상술한 인체역학 기반 핸드 작업 평가 그룹(3000)의 일 실시예로서, 도 12 및 도 13은 본 발명에 따른 인체역학 기반 핸드 작업 평가 그룹(3000)의 구현 예를 도시한 도면으로서, 이 인체 역학 기반 핸드 작업 평가 그룹(3000)은 사용자의 손에서 발행되는 역학적 관계를 실시간에 모니터링 하여 조작 대상이 되는 3차원 객체와 가상 핸드 모델을 활용하여 실시간에 정보를 가시화 시킬 수 있으므로, 손을 주로 사용하는 다양한 종류의 작업(예컨대, 골프 클럽의 쥐기 동작 평가 및 훈련 과정의 보조 도구와, 전문가의 골프 클럽 쥐기 상태를 측정 및 가시화시켜서 학습자가 골프 동작 수행 시에 손에 힘을 주는 방법 등을 따라 하는 과정에 도움을 줄 수 있음)에 활용 될 수 있다.
또한, 인체 역학 기반 핸드 작업 평가 그룹(3000)의 기술은 현재 또는 앞으로 출시될 제품의 인터페이스 조작에 대한 정량적 사용성 평가 실험을 지원할 수 있다. 예를 들어 UMPC의 키보드 배열(layout) 조건에 따른 사용자의 작업 성능 비교 또는 손의 피로도 측정이 가능하다. 즉, 모기업의 Q1 Ultra UMPC 모델과 같이 키보드가 양쪽에 배열된 경우와 모기업의 VIAO UMPC와 같이 키보드가 화면 하단에 슬라이더 형식으로 배치된 경우를 비교하는 과정에 활용될 수 있다.
다음으로, 혼합현실 기반 사용성 평가 플랫폼 그룹(4000)은 실현된 실사 가시화 및 가상 조작에 대하여 증강현실 기술 및 쾌속 조형 기술을 이용하고, 측정된 인체역학 기반 핸드 작업 부하 및 피로도를 기반으로 사용성 평가 상황을 전달하는 블록으로서, 도 5에 도시된 바와 같이 이루어져 있으며, 이중 개체 움직임 추적부(4400)는 평가 대상 제품 및 사용자의 손과 머리(시선)의 움직임을 실시간으로 추적하여 혼합현실 영상 제어부(4300)에 전송한다.
그러면, 혼합현실 영상 제어부(4300)는 혼합현실 영상 디스플레이의 설정 조건과 추적된 사용자 움직임 정보를 기반으로 혼합 현실 영상을 생성하도록 파라미터(예컨대, 버추얼 카메라(virtual camera)의 렌더링 파라미터)를 제어하고, 혼합현실 영상 생성부(4200)를 거쳐서 혼합 현실 영상을 생성한 다음에, 혼합현실 사용성 평가 실험 장치부(4100)인 디스플레이 장치를 통해서 오버레이(영상 중첩; overlay) 기법으로 (예컨대, 광학식 see-through 기법) 실물(real object) 위에 혼합 현실 영상을 투영하여 중첩시킨다.
즉, 혼합현실 기반 사용성 평가 플랫폼 그룹(4000)에서 구현되는 주요 기능인 물리적 사용자 인터페이스(PUI)와 그래픽 사용자 인터페이스(GUI) 연동 기능은 도 5에 도시된 2110 블록과 4500 내지 4820의 블록을 통해서 실현된다. 즉, 사용자가 직접 조작(예컨대, 버튼 입력)하는 기능이 통합된 혼합현실 실험 시나리오를 실시하는 경우, 물리적 인터페이스(PUI) 부분의 디지털 모델 데이터를 보관하는 제품 디자인(부품) 통합 DB(2110)와 제품 사용자 인터페이스 부품 DB(4810)로부터 얻은 제품의 외형(PUI) 모델 데이터를 기준으로 3차원 쾌속조형물 가공부(4800)에서 CAD 오퍼레이션(operation)을 통해 3차원 쾌속 조형 데이터로 수정하여 혼합현실 실험용 3차원 쾌속조형 제품(부품) DB(4820)에 저장한다. 예컨대, 3차원 CAD 데이터 지오메트리(geometry) 변경 기법 중 서브트랙트(subtract) 연산으로, 핸드폰 상판에서 키패드 부품에 해당하는 영역을 삭제하여, 3차원 쾌속 조형물 내부에 전기/전자적으로 동작할 수 있는 실제 키패드(key-pad) 부품이 위치할 수 있도록 한다.
상술한 바와 같이 생성된 3차원 쾌속 조형 데이터는 3차원 프린팅 출력 장치(예컨대, Z Corp.사의 Z-printer)를 이용하여 혼합현실 실험용 3차원 쾌속 조형물(4700)에서 출력된 물체와 전자 부품(예컨대, 키패드)을 물리적으로 조립한다.
다음으로, 3차원 쾌속조형물 제어부(4500)는 실제로 동작하는 PUI부분의 전자/전기 신호를 인터페이스하는 회로를 의미하며, 여기에서 입력된 값(예컨대, 방향 버튼의 눌림)은 혼합현실 영상/3차원 쾌속조형물 동기화부(4600)를 거쳐서 가상 제품의 동작 결과를 갱신하는 혼합 현실 영상 제어부(4300)에 정보를 전달한다. 예컨대, 방향 버튼이 눌려진 정보에 따라서, 도 3의 사용자 인터페이스 제어부(2700) 블록에서 병행적으로 수행되는 GUI 프로그램의 상태가 갱신되고, 가시화 결과 출력부(2600) 블록에서 출력된 결과물은 혼합현실 영상 제어부(4300) 블록과 혼합현실 영상 생성부(4200)를 통해 혼합현실 환경에서의 영상으로 가시화된다.
상술한 혼합 현실 사용성 평가 플랫폼 그룹(4000)의 일 실시예로, 도 14는 본 발명에 따른 혼합 현실 사용성 평가 플랫폼 그룹(4000)의 디스플레이 장치의 구현 예를 도시한 도면이다. 즉, 혼합현실 사용성 평가 그룹(4000)의 기술은 정보가전기기의 외형이 결정되고, 이에 적용되는 사용자 인터페이스 부품(예컨대, 버튼 및 키패드) 등의 구체적인 디자인 및 배치 등을 결정할 때, 이 기술을 활용하여 시각적으로 완제품의 동작 상황을 재현할 수 있으며, 동시에 향후 완성될 다양한 인 터페이스 제품(PUI)를 직접 촉각적으로 만져보면서 제품의 사용성 비교 테스트를 수행하여 의사 결정 과정에 활용할 수 있다.
또한, 도 14를 참조하면, 도면의 좌측과 같이 사용자가 직접 만지는 객체(예컨대, tangible interface)의 위치에 실사 영상을 투영하여 시각 및 촉각 감각 정보가 일치하도록 훈합현실 환경의 가시화를 지원한다. 본 장치는 실·내외 사용성 평가 시나리오 등 이동성 편의를 위해서 접이식 구조로 설계 되었으며, 영상 품평 중심의 일반 desktop 기반 가상현실 모드 또는 사용자의 실체 조건과 실험 조건에 맞추어서 관절부의 각도를 조정하여 혼합현실 환경 기반 사용성 평가 시나리오를 지원할 수 있다.
본 장치의 영상 출력부는 부피와 무게 감소를 위하여 평면 디스플레이 패널을 사용하며, 필요에 따라서 일반 LCD형태의 디스플레이 소자 또는 입체안경/무안경/다시점 지원이 가능한 입체 디스플레이 패널을 통합하여 활용할 수 있다. 디스플레이 패널은 폴더형 디자인 변경 시나리오 지원을 위해서 사용자 시야에 직접 영상을 제시하거나 거울을 통해서 영상을 제시하여야 하므로, 필요에 따라서 영상 이미지를 반전(flip)된 형태로 출력할 필요가 있다.
이 기능을 지원하기 위해서 소프트웨어적인 방법(예컨대, 그래픽카드의 드라이버 파라미터 조정)이나 하드웨어적인 방법(일반 방향의 디스플레이 패널과 거울에 의한 뒤집힘 효과에 대응할 수 있도록 디스플레이 부품 패널을 반전시켜서 동시에 장착시킴)으로 구현할 수 있다. 그리고, 영상 출력용 디스플레이 패널은 반사부와 마주보게 됨으로써 발생될 수 있는 반복 반사(예컨대, 2개의 거울이 180ㅀ이하 로 마주보게 되는 경우, 상대 거울의 반사 이미지가 반복되어 비춰지는 현상)에 의한 다중 영상 맺힘 현상을 방지하기 위한 무반사 코팅 및 편광 필터를 이용한 방지 수단을 가지도록 한다. 도 14에 도시된 "광량 투과량 조절이 가능한 영상 반사부”는 “실험 대상물 조작 공간 밝기 제어부”와 연계되어 혼합현실 환경의 평가 시나리오에서 사용자가 다루는 물체에 적절한 밝기를 가지는 제품 영상이 투영될 수 있도록 한다. 즉, 도 14에 도시된 장치는 착탈식 구조로 설계되어 필요에 따라서 반사부의 부품을 다양한 비율로 코팅 처리가 되어 있는 반투명 거울(예컨대, beam splitter)로 사용할 수 있도록 하고, 필요에 따라서 추가되는 소형 암실 또는 디스플레이 내부 공간의 밝기를 다단계로 조절할 수 있는 조명 장치부(실험 대상물 조작 공간 밝기 제어부)를 추가하여, 디스플레이 패널로부터 투영되는 가상 영상과 사용자가 들고 있는 실물의 영상의 혼합 비율을 제어할 수 있도록 한다.
한편, 도 6은 본 발명에 따른 온라인 제품 디자인 평가 툴(T1)에 대한 세부적인 도면으로서, 현재 제품 DB로부터 추출된 가상 제품을 간단하게 조작 및 품평하고 사용자의 평가 결과를 간단하게 기록할 수 있는 온라인 도구이다. T1-1부분에는 고품질 쉐이더 언어(예컨대, Nvidia Cg) 기반 실사 제품 영상이 가시화 되고, 제품 주요 사양 출력부 기능 버튼 발현부(T1-2)영역에는 제품 사양과 주요 동작 시뮬레이션 항목이 노출되며, 사용성 평가 설명부(T1-3)영역에는 온라인 기반 사용성 평가 데이터 수집을 위한 안내문이 출력되며, 사용자 평가 입력부(T1-4)영역에는 사용성 평가 설명부(T1-3)에서 질의된 문항에 대한 응답을 기입하는 영역이다.
다음으로 도 7은 본 발명에 따른 온라인 제품 디자인 생성/변경 툴(T2)에 대 한 세부적인 도면으로서, 도 2에 도시된 제품 디자인(부품) 통합 DB(2110)의 데이터를 기반으로 가상 제품의 외관 및 동작을 시뮬레이션 한다. 사용자는 가상 제품 디자인 구조 정보 표시부(T2-6) 또는 제품 실사 가사화, 자동 조립, 제품 구동 시연부(T2-5) 화면의 부품을 직접 선택함으로써, 디자인을 변경할 대상을 선정하고, 그 것에 대한 변경 후보 리스트는 기준1 점수(T2-2,3)와 기준2 점수(T2-4)를 갖는 부품 DB 가시화(T2-1)와 같이 제시된다.
부품들은 일정한 기준 정보(예컨대, 현재 선택된 부품에 대한 감성적 만족도 결과 순위, 현재 선택된 부품에 대한 통계적 사용 빈도수 순위 등)에 의해서 노출 순위가 자동 조절된다. 기준으로 제시될 수 있는 것은 도 6의 온라인 디자인 제품 평가 툴(T1)을 사용한 기록 또는 도 2의 오프라인 디자인 평가 실험부(1300)의 기록에서 저장된 통계 정보를 이용할 수 있다. 예컨대, 연령대, 성별, 시간/시대 정보, 직업, 소득 수준 등. 부품 속성 제어부(T2-7)에서는 현재 선택된 부품의 색상 및 재질 정보 등을 변경할 수 있는 GUI가 가시화 된다. 그리고, 옵션 기능 표시부(T2-8)는 기타 제품 디자인 파라미터의 세부 값은 결정하는 입출력 정보를 가시화한다.
다음으로, 도 8은 본 발명에 따른 핸드 인터페이스 기반 사용성 평가 툴(T3)에 대한 세부적인 도면으로서, 도 1의 인체역학 기반 핸드 작업 평가 그룹(3000)의 실시 예를 나타낸다. 본 툴(T3)에서는 정량적인 측정이 가능한 각종 센서를 활용하여 사용자의 신체에서 발생되는 여러 가지 역학적 현상을 측정하고, 이를 인간공학 전문가 등이 사용성 분석 평가 업무에 활용할 수 있도록 지원한다.
즉, 본 발명의 실시 예에서는 손바닥의 특정 점의 수직 압력을 측정하는 센서와 손가락을 제어하는 근육의 긴장도를 측정하는 EMG센서를 활용한 사례를 중심으로 설명한다. 하지만, 본 툴의 활용 방법은 특정 센서에 국한되지 않으며, 분석 방법론에 따라서 다양한 센서로부터 얻은 값을 활용할 수 있다. 예컨대, 1축 압력 센서 대신에 3축 압력 센서와 같이 동일 계열의 다른 성능 사영의 센서를 사용할 수도 있으며, 착용성과 정밀성 향상을 위해서 MEMS 기술을 활용한 초소형 센서를 적용하거나, 맥박 센서와 같이 이종(heterogeneous)의 센서를 활용한다.
다시 말하여, T3-1은 근전도(EMG)센서로 손의 움직임에 대한 손가락 관절에 걸리는 힘의 크기를 손가락의 운동을 담당하는 근육의 긴장도를 측정하여 얻으며, 인체역학 실험 안내서의 기준에 따라서 지정된 위치에 센서들을 부착한다. T3-2는 본 실시 예에서 구현된 압력 장갑의 사진으로, 손과 제품의 접촉면 사이의 작용을 최소한으로 방해하는 형태(예컨대, 얇은 필름)의 압력 센서를 손 바닥에 부착한다. 그리고, 앞의 두 종류의 센서들은 T3-3의 민감도 조절부(calibration filter)를 거쳐서 T3-4의 디지털-아날로그 변환 장치를 통해서 T3-5의 컴퓨팅 장치로 입력되어 최종적으로 핸드인터페이스 기반 사용성 평가 툴(T3) 내의 프로그램에 입력된다. T3-1-1과 T3-2-1은 각각 근전도 센서와 압력 센서의 실시간 입력 값을 모니터링하는 부분이고, T3-6은 색상 스펙트럼에 수치를 대응시켜서 압력 값의 분포를 직관적으로 관찰할 수 있도록 한다. 그리고 T3-7은 3차원 핸드 모델을 중심으로 사용자가 취한 손의 모양과 압력 및 근육 피로도의 정보를 보다 더 직관적으로 표현하는 결과 출력 방법이다.
도 9는 본 발명에 따른 가상 프로토타이핑 기반 사용성 평가 툴(T4)에 대한 세부적인 도면으로서, 도 1에 도시된 혼합현실 기반 사용성 평가 그룹(4000)의 내용을 실현한 예시이다.
즉, 핸드폰에 대한 외형 디자인 품평 및 키패드 직접 조작에 의한 사용성 평가 실험을 실행하기 위해서 DB로부터 핸드폰 외형에 대한 3D 데이터와 키패드 부품 3D 데이터를 획득한다. 3D 볼륨 서브트랙트(volume subtract) 연산(CAD 오퍼레이션(operation))을 통해서, 키패드 부분에 구멍이 생긴 3차원 쾌속 조형용 모델을 생성하여, 3차원 프린팅 출력 장치를 이용하여 핸드폰의 외형 모델을 출력한다. 출력된 외형 모델에 전기/전자적으로 신호를 전달할 수 있는 키패드 부품을 장착하고, 그 이밴트(예컨대, 버튼 눌림 정보)를 전달할 수 있는 입/출력(I/O) 보드를 통해서 컴퓨터로 입력하여 키패드 에뮬레이션(I/O 보드를 통해서 입력받은 사용자의 조작 정보를, 키패드 버튼 조작 정보로 해석) 프로그램과 연동한다.
다시 말하여, 키패드 신호를 처리하는 에뮬레이션 프로그램은 그 정보를 GUI 부분(예컨대, 화면의 메뉴 제어)을 시뮬레이션 하는 병행 실행 프로그램(예컨대, 어도브 플래쉬(Adobe Flash))로 전달하여, 사용자가 실제 제품의 버튼을 눌렀을 때 핸드폰의 화면이 변경되는 현상을 시뮬레이션 한다. 이 결과물은 실사 렌더링 기능을 가진 혼합현실 영상 생성부를 통해서 핸드폰의 영상이 완성되며, 이 영상은 이동형 혼합현실 디스플레이 장치의 광학식 영상 투영 구조에 의해서, 사용자가 들고 있는 3차원 쾌속조형물(핸드폰 목업)에 겹쳐서 보이게 된다. 사용자가 핸드폰을 조작하는 경우 3차원 공간상의 움직임은 6자유도 트래킹 장치에 의해서 추적되어 실시간으로 혼합현실 영상이 갱신되며, 사용자가 키패드의 버튼을 누르는 경우 앞의 과정을 통해서 GUI부분의 내용이 갱신되도록 한다.
한편, 도 15는 본 발명의 개요를 위한 도면으로서, 디자인의 완성 및 시제품 제작이 어느 정도는 완료되어야 실시할 수 있는 현재의 사용성 평가 실험을 조기에 가상 환경에서 실행할 수 있도록 지원하는 통합형 플랫폼을 개발하는 것을 기술적 과제로 한다. 즉, “사용성 기술 전문가(usability engineer) 참여율 그래프”는 현재 제품 수명 주기 과정에서 사용성 평가 전문가가 제품의 사용성 문제를 찾아내서 개선시키는 업무의 현실적인 참여 정도를 나타낸다. 그러나, “고객의 요구”와 같이 본 발명이 제시하는 사용성 기술은 기획자와 소비자 및 사용성 전문가의 과제를 해결하고자 한다.
또한, 도 15에서와 같이 제품 기획 및 2차원 스타일링 디자인 단계의 사용자에게 새로운 디자인 결정에 도움이 되는 현재 시장(소비자)의 디자인 선호도 정보 및 후보 제품에 대한 프로토타입을 가시화 시켜줄 수 있고, 3차원 상세 디자인 및 기능의 분석 및 시뮬레이션 단계의 개발자에게는 제품 디자인 파라미터의 변경에 대한 소비자 측면에서의 선호도 변화 예측 및 실사 모델 기반 디자인 품평 및 인체역학적 분석을 혼합현실 환경에서 수행할 수 있도록 한다. 그리고, 마케팅 및 디자인 수정 단계에서는 온라인 환경에서 다수의 사용자들로부터 현재 디자인에 대한 사용성 평가 및 디자인 개선 방향에 대한 정보를 실시간으로 수집하여 빠르게 제품 생명 주기 과정에 반영할 수 있도록 한다.
따라서, 본 발명은 제품의 기획 및 디자인에서 생성된 다양한 디지털 데이터를 통합하여 하나의 가상 제품으로 구동하고, 이를 실사 수준으로 가시화시키는 가 상현실 기술, 제품의 디자인에 대한 소비자의 감성적 평가 현상을 공학적인 측면에서 체계화 시키는 감성공학 기술, 제품의 조작에 대한 신체적인 역학적 활동을 생체역학적인 측면에서 정량적으로 측정 및 분석하는 인간공학 기술, 그리고, 디지털 데이터를 직접 만져볼 수 있는 유형(tangible) 인터페이스와 실사 가시화가 동시에 지원되는 혼합현실 기술을 통합시킴으로써, 사용성에 대한 문제를 조기에 발견하여 제품 디자인 수정 등의 개선안을 얻을 수 있고, 제품의 전반적인 품질 향상 및 회사의 제품-수명-주기를 효율적으로 관리할 수 있다.
한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 바람직한 실시예에 따른 가상 모바일 정보기기의 사용성 평가 시스템을 위한 블록 구성도,
도 2는 도 1에 도시된 디자인 평가 그룹의 상세 블록 구성도,
도 3은 도 1에 도시된 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹의 상세 블록 구성도,
도 4는 도 1에 도시된 인체역학 기반 핸드 작업 평가 그룹의 상세 블록 구성도,
도 5는 도 1에 도시된 혼합현실 기반 사용성 평가 플랫폼 그룹의 상세 블록 구성도,
도 6은 본 발명에 따른 온라인 제품 디자인 평가 툴(T1)에 대한 세부적인 도면,
도 7은 본 발명에 따른 온라인 제품 디자인 생성/변경 툴(T2)에 대한 세부적인 도면,
도 8은 본 발명에 따른 핸드 인터페이스 기반 사용성 평가 툴(T3)에 대한 세부적인 도면,
도 9는 본 발명에 따른 가상 프로토타이핑 기반 사용성 평가 툴(T4)에 대한 세부적인 도면,
도 10은 본 발명에 따른 온라인 제품 디자인 생성/변경 툴(T2)과 온라인 제품 디자인 평가 툴(T1)을 갖는 디자인 평가 그룹의 구현 예를 도시한 도면,
도 11은 본 발명에 따른 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹의 구현 예를 도시한 도면,
도 12 및 도 13은 본 발명에 따른 인체역학 기반 핸드 작업 평가 그룹의 구현 예를 도시한 도면,
도 14는 본 발명에 따른 혼합 현실 사용성 평가 플랫폼 그룹의 디스플레이 장치의 구현 예를 도시한 도면,
도 15는 본 발명의 개요를 위한 도면.
<도면의 주요부분에 대한 부호의 설명>
1000 : 디자인 평가 그룹
2000 : 가상 제품 디자인 변경 및 동작 시뮬레이션 그룹
3000 : 인체역학 기반 핸드 작업 평가 그룹
4000 : 혼합현실 사용성 평가 플랫폼 그룹
T1 : 온라인 제품 평가 툴 T2 : 온라인 제품 디자인 생성/변경 툴
T3 : 핸드 인터페이스 기반 사용성 평가 툴
T4 : 가상 프로토타이핑 기반 사용성 평가 툴

Claims (16)

  1. 부품 데이터베이스(DB) 및 부분적으로 정형화된 가이드에 따라 디자인된 제품을 대상으로 소비자 관점에서 감성적 평가를 지원하고 디자인 선호도 데이터를 네트워크 온라인 시스템을 기반으로 실시간 수집하는 디자인 평가부와,
    상기 디자인된 제품과 관련된 디지털 데이터를 통합하여 실사 가시화 및 가상 조작을 실현하는 가상 제품 디자인 변경 및 동작 시뮬레이션부와,
    핸드 인터페이스 기반 사용성 평가 툴을 이용하여 인체역학 기반 핸드 작업 부하 및 피로도를 측정하여 제공하는 인체역학 기반 핸드 작업 평가부와,
    상기 실현된 실사 가시화 및 가상 조작에 대하여 증강현실 기술 및 쾌속 조형 기술을 이용하고 상기 측정된 인체역학 기반 핸드 작업 부하 및 피로도를 기반으로 사용성 평가 상황을 생성하여 사용자에게 전달하는 혼합현실 사용성 평가 플랫폼부
    를 포함하는 가상 모바일 정보기기의 사용성 평가 시스템.
  2. 제 1 항에 있어서,
    상기 디자인 평가부는,
    제품 디자인 통합 DB에 저장되어 있거나, 온라인 제품 디자인 생성/변경 툴에 의해 새롭게 추가 변경되는 제품 디자인을 이용하여 상기 디자인된 제품의 파라 미터와의 상관관계를 도출하여 감성적 디자인 만족도를 예측하는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  3. 제 2 항에 있어서,
    상기 온라인 제품 디자인 생성/변경 툴을 사용할 경우, 상기 제품 디자인 통합 DB에 저장된 상기 제품 디자인에 대해, 디자인된 제품의 파라미터를 기준으로 평가 피드백 점수를 제공하는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  4. 제 1 항에 있어서,
    상기 디자인 평가부는, 오프라인 디자인 평가 및 온라인 디자인 평가 시나리오를 기반으로 감성 평가 예측 모델을 갱신하는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  5. 제 4 항에 있어서,
    상기 오프라인 디자인 평가는, 오프라인 상에서 실시되는 실험을 온라인 제품 디자인 평가 툴을 이용하여 웹 서비스에 접속하여 실시하는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  6. 제 1 항에 있어서,
    상기 가상 제품 디자인 변경 및 동작 시뮬레이션부는, 온라인 제품 디자인 평가 툴과 연계하여 디자인 감성 평가 예측 엔진의 데이터 갱신을 위한 웹 서비스 기반의 사용자 정보를 수집 및 갱신하는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  7. 제 1 항에 있어서,
    상기 가상 제품 디자인 변경 및 동작 시뮬레이션부는, 제품의 부품을 변경할 경우 공간적 상호 관계를 고려하여, 자동으로 부품의 크기, 위치 및 형상 정보 데이터와 속성 정보를 수정하고 일치시키는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  8. 제 1 항에 있어서,
    상기 가상 제품 디자인 변경 및 동작 시뮬레이션부는,
    3차원 컴퓨터 그래픽스 및 가상현실 시뮬레이션 분야에서 활용되는 기법으 로, 가상 제품의 부품 구조를 단계적인 구조로 표현하고 각각의 부품들의 구조적 운동 정보 및 외부 입력 이벤트에 대한 동작 형태를 정의한 제품의 구성 정보를 제품 조립 정보 DB에 저장하는 가상 제품 구조 저작부와,
    상기 저장된 제품의 구성 정보에 의하여 디자인 파라미터가 변경되는 경우, 부품 간의 상호관계를 지속적으로 유지하는 자동 조립 지원 처리부와,
    상기 디자인 파라미터가 변경되는 경우, 자동 조립된 부품들 사이의 물리적 디자인 파라미터를 조절하여 조립 결과물이 될도록 자동 또는 수동적으로 디자인 파라미터를 수정하는 가상 제품 디자인 조정부와,
    제품 디자인 통합 DB에 저장된 해당 부품에 기구학 정보를 삽입하는 가상 제품 동작 저작부와,
    상기 제품 디자인 통합 DB에 저장된 해당 제품의 재질 및 속성 정보를 수정하는 가상 제품 가시화 속성 저작부와,
    온라인 제품 디자인 생성/변경 툴과 병행 프로세스로 실행되는 임의의 다수의 프로그램을 실시간 화면 캡쳐 방법으로 인터페이스하는 사용자 인터페이스 제어부와,
    상기 인터페이스되는 프로그램과 상기 수정된 제품의 재질 및 속정 정보와 기구학 정보가 삽입된 해당 부품과 수정된 디자인 파라미터를 통합된 형태의 가상 제품 동작으로 가시화시키는 가상 제품 통합 모델 가시화부와,
    상기 가시화된 동작을 시뮬레이션하는 가시화 결과 출력부
    를 포함하는 가상 모바일 정보기기의 사용성 평가 시스템.
  9. 제 1 항에 있어서,
    상기 인체역학 기반 핸드 작업 평가부는,
    손가락 마디 사이의 각도 및 손의 자세 정보를 실시간으로 추적하여 가상의 핸드 모델을 실시간으로 복원하여 가시화시킬 수 있도록 센서를 통해 관절 각도 정보를 실시간으로 획득하는 실시간 핸드 추적 인터페이스와,
    상기 획득된 관절 각도 정보를 사용자와 일치하는 가상 핸드 모델을 제어하기 위한 가상 핸드 모델 제어 데이터로 변환 및 조정하는 실시간 가상 핸드 모델 제어부와,
    상기 손에서 발생되는 역학적 부하 현상을 추적하기 위한 센서를 통해 센서값들을 획득하는 핸드 역학 측정 인터페이스 장치부와,
    상기 획득된 센서값들을 손 부분에 걸리는 역학적 부하 측정 값으로 조정 및 변환하는 핸드 역학 측정 인터페이스 제어부와,
    상기 가상 핸드 모델 제어 데이터 및 역학적 부하 측정 값을 가상의 핸드 모델상에 가시화시켜 출력하는 역학 측정 결과 가시화부와,
    제품과 손 사이의 상호작용 관계에 대한 이해를 높이기 위해서 제품의 동작을 가시화시키는 가상 제품 모델 동작 가시화부와,
    상기 제품의 동작을 기록하여 실험 후에 실시되는 분석에 활용하는 역학 실험 결과 기록부
    를 포함하는 가상 모바일 정보기기의 사용성 평가 시스템.
  10. 제 9 항에 있어서,
    상기 핸드 역학 측정 인터페이스 장치부에 의해 획득된 센서값은, 압력 센서 및 근전도(EMG) 센서에 의해 측정되는 것을 특징으로 하는 가상 모바일 정보기기의 사용성 평가 시스템.
  11. 제 1 항에 있어서,
    상기 혼합현실 사용성 평가 플랫폼부는,
    평가 대상 제품의 움직임을 실시간으로 추적하는 이중 개체 움직임 추적부와,
    디지털 모델 데이터를 저장하는 제품 사용자 인터페이스 부품 DB와,
    상기 저장된 모델 데이터를 기준으로 3차원 쾌속 조형 데이터로 수정하여 혼합현실 실험용 3차원 쾌속조형 제품 DB에 저장하는 3차원 쾌속조형물 가공부와,
    상기 수정되어 생성된 3차원 쾌속 조형 데이터에 대하여 3차원 프린팅 출력 장치를 이용하여 조립하는 혼합현실 실험용 3차원 쾌속 조형물과,
    물리적으로 입력되는 값을 인터페이스하는 3차원 쾌속조형물 제어부와,
    상기 입력되는 값을 이용하여 가상 제품의 동작 결과를 갱신하는 혼합현실 영상/3차원 쾌속조형물 동기화부
    상기 입력되는 값을 이용하여 혼합 현실 영상을 생성하도록 제어하는 혼합현실 영상 제어부와,
    상기 제어에 따라 혼합 현실 영상을 생성하는 혼합현실 영상 생성부와,
    상기 생성된 혼합 현실 영상을 오버레이 기법으로 실물 위에 투영하여 중첩시키는 혼합현실 사용성 평가 실험 장치부
    를 포함하는 가상 모바일 정보기기의 사용성 평가 시스템.
  12. 삭제
  13. 디자인 평가부, 가상제품 디자인 변경 및 동작 시뮬레이션부, 인체역학 기반 핸드 작업 평가부와 혼합현실 사용성 평가 플랫폼부를 포함하는 시스템에서 가상 모바일 정보기기의 사용성 평가 방법으로서,
    (a)상기 디자인 평가부에서 부품 데이터베이스(DB) 및 부분적으로 정형화된 가이드에 따라 디자인된 제품을 대상으로 소비자 관점에서 감성적 평가를 지원하고 디자인 선호도 데이터를 네트워크 온라인 시스템을 기반으로 실시간 수집하는 단계와,
    (b)상기 가상제품 디자인 변경 및 동작 시뮬레이션부에서 상기 디자인된 제품과 관련된 디지털 데이터를 통합하여 실사 가시화 및 가상 조작을 실현하는 단계와,
    (c)상기 인체역학 기반 핸드 작업 평가부에서 핸드 인터페이스 기반 사용성 평가 툴을 이용하여 인체역학 기반 핸드 작업 부하 및 피로도를 측정하는 단계와,
    (d)상기 혼합현실 사용성 평가 플랫폼부에서 상기 실현된 실사 가시화 및 가상 조작에 대하여 증강현실 기술 및 쾌속 조형 기술을 이용하고 상기 측정된 인체역학 기반 핸드 작업 부하 및 피로도를 기반으로 사용성 평가 상황을 생성하여 사용자에게 전달하는 단계
    를 포함하는 가상 모바일 정보기기의 사용성 평가 방법.
  14. 제 13 항에 있어서,
    상기 (b)단계는,
    (b1)3차원 컴퓨터 그래픽스 및 가상현실 시뮬레이션 분야에서 활용되는 기법으로, 가상 제품의 부품 구조를 단계적인 구조로 표현하고 각각의 부품들의 구조적 운동 정보 및 외부 입력 이벤트에 대한 동작 형태를 정의한 제품의 구성 정보를 제품 조립 정보 DB에 저장하는 단계와,
    (b2)상기 저장된 제품의 구성 정보에 의하여 디자인 파라미터가 변경되는 경우, 부품 간의 상호관계를 지속적으로 유지하는 단계와,
    (b3)상기 디자인 파라미터가 변경되는 경우, 자동 조립된 부품들 사이의 물리적 디자인 파라미터를 조절하여 조립 결과물이 될도록 자동 또는 수동적으로 디자인 파라미터를 수정하는 단계와,
    (b4)제품 디자인 통합 DB에 저장된 해당 부품에 기구학 정보를 삽입하는 단계와,
    (b5)상기 제품 디자인 통합 DB에 저장된 해당 제품의 재질 및 속성 정보를 수정하는 단계와,
    (b6)온라인 제품 디자인 생성/변경 툴과 병행 프로세스로 실행되는 임의의 다수의 프로그램을 실시간 화면 캡쳐 방법으로 인터페이스하는 단계와,
    (b7)상기 인터페이스되는 프로그램과 상기 수정된 제품의 재질 및 속정 정보와 기구학 정보가 삽입된 해당 부품과 수정된 디자인 파라미터를 통합된 형태의 가상 제품 동작으로 가시화시키는 단계와,
    (b8)상기 가시화된 동작을 시뮬레이션하는 단계
    를 포함하는 가상 모바일 정보기기의 사용성 평가 방법.
  15. 제 13 항에 있어서,
    상기 (c)단계는,
    (c1)손가락 마디 사이의 각도 및 손의 자세 정보를 실시간으로 추적하여 가상의 핸드 모델을 실시간으로 복원하여 가시화시킬 수 있도록 센서를 통해 관절 각도 정보를 실시간으로 획득하는 단계와,
    (c2)상기 획득된 관절 각도 정보를 사용자와 일치하는 가상 핸드 모델을 제어하기 위한 가상 핸드 모델 제어 데이터로 변환 및 조정하는 단계와,
    (c3)상기 손에서 발생되는 역학적 부하 현상을 추적하기 위한 센서를 통해 센서값들을 획득하는 단계와,
    (c4)상기 획득된 센서값들을 손 부분에 걸리는 역학적 부하 측정 값으로 조정 및 변환하는 단계와,
    (c5)상기 가상 핸드 모델 제어 데이터 및 역학적 부하 측정 값을 가상의 핸드 모델상에 가시화시켜 출력하는 단계와,
    (c6)제품과 손 사이의 상호작용 관계에 대한 이해를 높이기 위해서 제품의 동작을 가시화시키는 단계와,
    (c7)상기 제품의 동작을 기록하여 실험 후에 실시되는 분석에 활용하는 단계
    를 포함하는 가상 모바일 정보기기의 사용성 평가 방법.
  16. 제 13 항에 있어서,
    상기 (d)단계는,
    (d1)평가 대상 제품의 움직임을 실시간으로 추적하는 단계와,
    (d2)디지털 모델 데이터를 저장하는 단계와,
    (d3)상기 저장된 모델 데이터를 기준으로 3차원 쾌속 조형 데이터로 수정하여 혼합현실 실험용 3차원 쾌속조형 제품 DB에 저장하는 단계와,
    (d4)상기 수정되어 생성된 3차원 쾌속 조형 데이터에 대하여 3차원 프린팅 출력 장치를 이용하여 조립하는 단계와,
    (d5)물리적으로 입력되는 값을 인터페이스하는 단계와,
    (d6)상기 추적된 움직임 정보를 기반으로 상기 인터페이스되는 값을 이용하여 혼합 현실 영상을 생성하는 단계와,
    (d7)상기 생성된 혼합 현실 영상을 오버레이 기법으로 실물 위에 투영하여 중첩시키는 단계
    를 포함하는 가상 모바일 정보기기의 사용성 평가 방법.
KR1020070131904A 2007-12-17 2007-12-17 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법 KR101001617B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070131904A KR101001617B1 (ko) 2007-12-17 2007-12-17 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법
US12/117,639 US20090157478A1 (en) 2007-12-17 2008-05-08 Usability evaluation method and system of virtual mobile information appliance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070131904A KR101001617B1 (ko) 2007-12-17 2007-12-17 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20090064634A KR20090064634A (ko) 2009-06-22
KR101001617B1 true KR101001617B1 (ko) 2010-12-17

Family

ID=40754462

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070131904A KR101001617B1 (ko) 2007-12-17 2007-12-17 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법

Country Status (2)

Country Link
US (1) US20090157478A1 (ko)
KR (1) KR101001617B1 (ko)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1913559B1 (fr) * 2005-08-09 2016-10-19 Qualcomm Connected Experiences, Inc. Procede et dispositifs pour visualiser un modele numerique dans un environnement reel
US20110154293A1 (en) * 2009-12-17 2011-06-23 Honeywell International Inc. System and method to identify product usability
US9607113B1 (en) * 2012-06-26 2017-03-28 The Mathworks, Inc. Linking of model elements to spatial elements
US9582933B1 (en) * 2012-06-26 2017-02-28 The Mathworks, Inc. Interacting with a model via a three-dimensional (3D) spatial environment
US9672389B1 (en) 2012-06-26 2017-06-06 The Mathworks, Inc. Generic human machine interface for a graphical model
JP2015531907A (ja) * 2012-07-19 2015-11-05 ヴァッツ ゴウラヴVATS, Gaurav 現実的かつ拡張デジタルオブジェクトの表示と相互作用体験を提供するためのユーザ制御3dシミュレーション
JP5787099B2 (ja) * 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
KR102017884B1 (ko) 2013-02-06 2019-10-22 한국전자통신연구원 운전자 집중도 분석 장치 및 방법
US10360052B1 (en) 2013-08-08 2019-07-23 The Mathworks, Inc. Automatic generation of models from detected hardware
KR101421275B1 (ko) * 2013-10-17 2014-07-21 주식회사 넷커스터마이즈 사용자경험 기반 서비스 프로토타이핑을 위한 시뮬레이션 방법
KR101411252B1 (ko) * 2013-10-24 2014-06-24 서울여자대학교 산학협력단 건강 관리 서비스를 위한 가상 환경 모델링 방법 및 서버 그리고 이를 이용한 컴퓨터 판독 가능한 기록 매체
TWI494893B (zh) * 2013-10-28 2015-08-01 Chunghwa Telecom Co Ltd An intermediary system and its method for integrating product system and non - product system
JP6191701B2 (ja) * 2013-11-11 2017-09-06 日本電気株式会社 Pos端末装置、商品認識方法及びプログラム
KR101485175B1 (ko) 2014-01-28 2015-01-23 한국과학기술원 콘텐츠의 2.5d 정보를 나타내는 인터페이스 장치 및 콘텐츠의 2.5d 정보를 구현하는 시스템
EP3101567A4 (en) * 2014-02-25 2017-01-18 Hiroshima University Industrial product design system, method, program, and computer-readable recording medium
KR102303115B1 (ko) * 2014-06-05 2021-09-16 삼성전자 주식회사 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
US9665985B2 (en) * 2014-08-15 2017-05-30 Daqri, Llc Remote expert system
US10296086B2 (en) * 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
US10536455B2 (en) 2015-10-30 2020-01-14 Electronics And Telecommunications Research Institute Three-way authentication apparatus and method in cloud environment and 3D printing apparatus and method using three-way authentication in cloud environment
KR101673896B1 (ko) * 2015-11-24 2016-11-09 주식회사 넷커스터마이즈 객체 위치 확인을 위한 동작공간 기능을 구비한 사용자경험 기반 서비스 프로토타이핑 시스템
KR101748401B1 (ko) 2016-08-22 2017-06-16 강두환 가상현실 어트랙션 제어 방법 및 시스템
CN107402633B (zh) * 2017-07-25 2019-06-28 深圳市鹰硕技术有限公司 一种基于图像模拟技术的安全教育方法
US10471510B2 (en) 2017-08-15 2019-11-12 General Electric Company Selective modification of build strategy parameter(s) for additive manufacturing
US10406633B2 (en) * 2017-08-15 2019-09-10 General Electric Company Selective modification of build strategy parameter(s) for additive manufacturing
US10338569B2 (en) 2017-08-15 2019-07-02 General Electric Company Selective modification of build strategy parameter(s) for additive manufacturing
KR101960195B1 (ko) * 2017-11-30 2019-03-19 가톨릭대학교 산학협력단 간판 디자인의 효과성 예측 방법
ES2972869T3 (es) * 2019-02-14 2024-06-17 Braun Gmbh Sistema para evaluar el uso de un producto de consumo móvil manualmente previsto
KR102264566B1 (ko) * 2019-04-23 2021-06-15 충남대학교산학협력단 Vr을 활용한 의료기기 사용적합성 평가 방법
KR102315514B1 (ko) * 2019-08-09 2021-10-21 이인숙 실패 비용 방지를 위한 vr 비젼 서비스 시스템 및 이를 이용한 서비스 방법
US11062520B2 (en) * 2019-09-09 2021-07-13 Ford Global Technologies, Llc Ergonomic assessment using a wearable device
US11238657B2 (en) * 2020-03-02 2022-02-01 Adobe Inc. Augmented video prototyping
KR102485874B1 (ko) * 2020-06-04 2023-01-05 황은기 전문가 시스템을 이용한 ar 서비스 시스템 및 이를 이용한 서비스 방법
CN115659791A (zh) * 2022-10-18 2023-01-31 山东大学 一种数字孪生数据模型驱动的高性能虚拟仿真方法及***
KR102608502B1 (ko) * 2022-12-29 2023-12-01 주식회사 투스페이스 증강 현실 기반의 목업 이미지 제공 방법 및 이에 사용되는 서비스 제공 서버

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100725684B1 (ko) * 2001-06-22 2007-06-07 엘지전자 주식회사 액정 표시기에서의 백 라이트 조절장치 및 방법
US7464010B2 (en) * 2004-12-21 2008-12-09 Electronics And Telecommunications Research Institute User interface design and evaluation system and hand interaction based user interface design and evaluation system

Also Published As

Publication number Publication date
US20090157478A1 (en) 2009-06-18
KR20090064634A (ko) 2009-06-22

Similar Documents

Publication Publication Date Title
KR101001617B1 (ko) 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법
Berg et al. Industry use of virtual reality in product design and manufacturing: a survey
US7464010B2 (en) User interface design and evaluation system and hand interaction based user interface design and evaluation system
Ye et al. An investigation into the implementation of virtual reality technologies in support of conceptual design
Carulli et al. An approach for capturing the voice of the customer based on virtual prototyping
Ferrise et al. Interactive virtual prototypes for testing the interaction with new products
Barbieri et al. Mixed prototyping with configurable physical archetype for usability evaluation of product interfaces
Bordegoni et al. Use of interactive virtual prototypes to define product design specifications: A pilot study on consumer products
Bordegoni Product virtualization: an effective method for the evaluation of concept design of new products
KR100670821B1 (ko) 사용자 인터페이스 설계 및 평가 시스템 및 손 상호 작용기반의 사용자 인터페이스 설계 및 평가 시스템
Lee et al. Immersive modeling system (IMMS) for personal electronic products using a multi-modal interface
Ferrise et al. A method for designing users’ experience with industrial products based on a multimodal environment and mixed prototypes
Duffy et al. Development of an Internet virtual layout system for improving workplace safety
Zhou et al. Computer-aided process planning in immersive environments: A critical review
Paljic Ecological validity of virtual reality: three use cases
Xin Exploring the effectiveness of VR-based product demonstrations featuring items of furniture
Dingli et al. Interacting with intelligent digital twins
Nam et al. User experience-and design-oriented virtual product prototyping system
Bruno et al. Mixed prototyping for products usability evaluation
Ceccacci et al. Designing smart home interfaces: traditional vs virtual prototyping
Jo et al. Design evaluation system with visualization and interaction of mobile devices based on virtual reality prototypes
Ma et al. Combining virtual reality (VR) technology with physical models–a new way for human-vehicle interaction simulation and usability evaluation
Song et al. A VR-based interactive system to improve users’ involvement in OAP development
Bruno et al. Reliable behaviour simulation of product interface in mixed reality
Stark et al. Major Technology 7: Virtual Reality—VR

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151127

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171204

Year of fee payment: 8