KR101467513B1 - Mobile terminal control device and method thereof - Google Patents
Mobile terminal control device and method thereof Download PDFInfo
- Publication number
- KR101467513B1 KR101467513B1 KR1020080012335A KR20080012335A KR101467513B1 KR 101467513 B1 KR101467513 B1 KR 101467513B1 KR 1020080012335 A KR1020080012335 A KR 1020080012335A KR 20080012335 A KR20080012335 A KR 20080012335A KR 101467513 B1 KR101467513 B1 KR 101467513B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile terminal
- touch
- user interface
- finger
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims 3
- 238000012216 screening Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 13
- 238000003825 pressing Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 210000004905 finger nail Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Telephone Function (AREA)
Abstract
본 발명은 모바일 단말 제어장치 및 그 방법에 관한 것으로, 본 발명에 따른 모바일 단말 제어장치는 모바일 단말의 후면에 형성된 복수의 터치 센서를 통해 손가락 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시하는 터치 인식부와 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 사용자 인터페이스를 실행하는 실행부를 포함하는 것을 특징으로 한다. 이에 의해 사용자는 화면을 가리지 않으면서도 편리하게 모바일 단말의 사용자 인터페이스를 조작할 수 있다.The present invention relates to a mobile terminal control device and a method thereof, and a mobile terminal control device according to the present invention recognizes a finger touch through a plurality of touch sensors formed on the rear side of the mobile terminal and displays a user interface on the front side of the mobile terminal And an execution unit for recognizing a change of the recognized finger touch and executing the user interface based on the recognized result. Thus, the user can conveniently operate the user interface of the mobile terminal without screening the screen.
터치 센서, 사용자 인터페이스 Touch sensor, user interface
Description
본 발명은 모바일 단말에 관한 것으로, 보다 상세하게는 터치 센서를 이용한 모바일 단말 제어장치 및 그 방법에 관한 것이다.The present invention relates to a mobile terminal, and more particularly, to a mobile terminal control apparatus using a touch sensor and a method thereof.
최근 휴대 전화 등의 모바일 단말은 이용 가능한 기능이 증가함에 따라 해당 기능들에 대응하는 사용자 인터페이스, 예를 들면 메뉴 키 또는 버튼들도 증가하고 있다. 증가된 사용자 인터페이스의 복잡함으로 인해서 모바일 단말의 사용자는 신속하게 특정 기능을 갖는 사용자 인터페이스를 선택 또는 설정하는데 어려움을 느낄 수 있다.2. Description of the Related Art In recent years, a mobile terminal such as a mobile phone has been increasing in user interface, for example, a menu key or a button, corresponding to a corresponding function. Due to the increased complexity of the user interface, the user of the mobile terminal may find it difficult to quickly select or set up a user interface with a particular function.
물리적인 사용자 인터페이스 대신에 모바일 단말의 화면에 GUI(Graphic User Interface)를 디스플레이하여 사용자 인터페이스를 선택 또는 설정하는 방법이 제안되었다. 예를 들면 모바일 단말의 전면을 터치 스크린으로 이용할 수 있다. 그러나 이와 같은 방법은 사용자가 단말의 전면에 디스플레이된 GUI를 터치하고자 할 경우 터치 수단, 예를 들면 손가락이 화면을 가릴 수 있다. 이에 따라 사용자는 터치 수단에 의해 가려진 화면을 제대로 볼 수가 없으므로 사용에 불편함을 느낄 수 있는 문제점이 있다. A method of selecting or setting a user interface by displaying a GUI (Graphic User Interface) on the screen of the mobile terminal instead of a physical user interface has been proposed. For example, the front of the mobile terminal can be used as a touch screen. However, in such a method, when the user tries to touch the GUI displayed on the front surface of the terminal, the touch means, for example, a finger may cover the screen. Accordingly, the user can not properly view the screen hidden by the touching means, which makes the user feel inconvenient.
또한 사용자가 모바일 단말의 전면을 터치하려면 모바일 단말을 쥐고 있는 손을 떼서 손가락 또는 포인팅 수단을 이용하여 모바일 단말의 전면에 위치하는 터치 영역에 직접 접촉해야 하는 번거로움이 따른다. 나아가 터치 수단의 잦은 터치 때문에 모바일 단말의 전면이 얼룩지게 되어 화면의 분별이 어려워지거나 지저분해지는 문제점이 있다.In addition, in order for the user to touch the front surface of the mobile terminal, it is troublesome to directly touch the touch region located on the front side of the mobile terminal by using a finger or pointing means by releasing the hand holding the mobile terminal. Furthermore, because of the frequent touch of the touch means, the front surface of the mobile terminal becomes stained, which makes it difficult to discriminate the screen or it becomes messy.
본 발명은 사용자 인터페이스의 선택 및 설정이 편리하며 화면을 가리지 않는 모바일 단말 제어장치 및 그 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a mobile terminal control apparatus which is convenient to select and set a user interface and does not select a screen, and a method thereof.
이에 따라 모바일 단말의 후면에 형성된 복수의 터치 센서를 이용하여 모바일 단말의 기능을 선택하거나 설정할 수 있는 모바일 단말 제어장치 및 그 방법을 제안한다.Accordingly, the present invention proposes a mobile terminal control apparatus and method for selecting or setting a function of a mobile terminal using a plurality of touch sensors formed on the rear surface of the mobile terminal.
보다 구체적으로는 본 발명의 일 양상에 따르면 모바일 단말의 후면에 형성된 복수의 터치 센서, 복수의 터치 센서를 통해 손가락 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시하는 터치 인식부 및 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 표시된 사용자 인터페이스를 실행하는 실행부를 포함하는 모바일 단말 제어장치가 제공된다.More specifically, according to one aspect of the present invention, there is provided a mobile terminal including a plurality of touch sensors formed on a rear surface of a mobile terminal, a touch recognition unit for recognizing a finger touch through a plurality of touch sensors and displaying a user interface on a front surface of the mobile terminal, There is provided a mobile terminal control apparatus including an execution unit that recognizes a change of a touch and executes a user interface displayed based on a recognized result.
한편 본 발명의 다른 양상에 따르면 모바일 단말의 후면에 형성된 복수의 터치 센서를 통해 손가락 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시하는 단계 및 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 표시된 사용자 인터페이스를 실행하는 단계를 포함하는 모바일 단말 제어방법이 제공된다.According to another aspect of the present invention, there is provided a method for controlling a mobile terminal, comprising: displaying a user interface on a front surface of a mobile terminal by recognizing a finger touch through a plurality of touch sensors formed on a rear surface of the mobile terminal; There is provided a mobile terminal control method including the step of executing a user interface displayed as a basis.
이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the terms described below are defined in consideration of the functions of the present invention, which may vary depending on the intention of the user, the operator, or the custom. Therefore, the definition should be based on the contents throughout this specification.
도 1은 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 전개도이다.1 is an exploded view of a mobile
도 1을 참조하면, 본 발명에 일 실시예에 따른 모바일 단말 제어장치(1)는 모바일 단말의 후면에 복수의 터치 센서(10)가 형성된다. 여기서 모바일 단말은 휴대 전화, 개인 휴대정보 단말기(PDA), MP3 플레이어, 휴대용 멀티미디어 플레이어(PMP) 등을 포함하며 이 외의 모바일 장치 또는 멀티미디어 재생 장치일 수 있다. 모바일 단말의 전면은 LCD(Liquid Crystal Display)와 같은 디스플레이 화면이 포함되며, 디스플레이 화면에 투명한 터치 센서가 배치될 수 있다.Referring to FIG. 1, a mobile
복수의 터치 센서(10)는 모바일 단말의 후면에 형성된다. 나아가 모바일 단말의 후면뿐만 아니라 측면에 형성될 수도 있다. 이때 복수의 터치 센서(10)는 모바일 단말의 후면 전 영역에 분포되는 그물망의 그리드(grid, 격자) 형태일 수 있다. 즉 도 1과 같이 터치 센서는 복수의 블록 모양으로 각 블록은 블록별로 사용자의 손가락 접촉 또는 접촉 변화를 인식할 수 있다.A plurality of
나아가 복수의 터치 센서(10)는 손가락 접촉에 따라 변화되는 압력을 감지하는 압력 터치 센서, 접촉에 따라 변화되는 정전용량을 감지하는 정전용량 터치 센서 등을 사용할 수 있다.Further, the plurality of
이와 같이 복수의 터치 센서(10)가 모바일 단말의 전면에 형성되는 대신에 후면 또는 측면에 형성됨에 따라, 모바일 단말을 손으로 쥔 상태에서 사용자 인터페이스를 실행 또는 선택이 가능하다. 즉 사용자의 손가락 또는 포인팅 장치와 같은 터치 수단에 의해 모바일 단말의 화면의 일부가 가려져 가려진 영역을 보지 못하는 불편함 없이 모바일 단말을 사용할 수 있다. As described above, the plurality of
예를 들면 모바일 단말의 후면에 터치 센서가 없이 전면이 터치 스크린인 경우 사용자가 전면에 표시된 GUI(Graphic User Interface)를 터치하고자 한다면, 예를 들면 지도가 표시된 화면의 일부분에 지도의 확대/축소 등을 위한 GUI가 오버랩(overlap)되어 GUI가 오버랩된 부분의 지도가 가려져 그 부분을 파악하는데 어려움을 느낄 수 있다. For example, if a user touches a GUI (Graphic User Interface) displayed on the front surface of a mobile terminal without a touch sensor on the back of the mobile terminal, for example, The GUI for the GUI overlaps and the map of the overlapped part of the GUI may be obstructed and it may be difficult to grasp the part.
그러나 본 발명의 일 실시예에 따른 모바일 단말의 후면에 형성된 복수의 터치 센서를 이용하면 사용자가 모바일 단말을 쥐고 있는 손 자세를 유지한 상태에서 사용자 인터페이스의 유연한 제어가 가능하므로 위와 같은 불편함을 해소할 수 있다.However, by using a plurality of touch sensors formed on the rear surface of the mobile terminal according to an embodiment of the present invention, the user can flexibly control the user interface while maintaining the hand posture in which the user holds the mobile terminal, can do.
도 2는 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 구성도이다.2 is a configuration diagram of a mobile
도 2를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 복수의 터치 센서(10), 터치 인식부(20), 실행부(30) 및 디스플레이부(40)를 포함하며 나아가 저장부(50)를 더 포함할 수 있다.2, a mobile
복수의 터치 센서(10)는 모바일 단말의 후면에 위치한다. 나아가 복수의 터치 센서(10)는 모바일 단말의 후면뿐만 아니라 측면에 형성될 수 있다. 이는 터치 센서(10)를 통해 감지되는 터치 영역이 증가함에 따라 터치되는 손가락의 분별을 더 용이하게 하기 위함이다.A plurality of
터치 인식부(20)는 모바일 단말의 후면 또는 측면에 형성된 복수의 터치 센서(10)를 통해 손가락의 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시한다. 이때 디스플레이부(40)를 통해 사용자 인터페이스를 표시할 수 있다. 사용자 인터페이스는 화면에 디스플레이될 수 있는 메뉴, 키(key), 숫자 데이터 또는 문자 데이터 또는 그림 데이터일 수 있다. 나아가 모바일 단말에 실행 가능한 응용 프로그램별로 특정 기능을 갖는 인터페이스, 예를 들면 기능 아이콘일 수도 있다. 한편 사용자 인터페이스는 전술한 인터페이스 이외에도 다양한 실시예가 가능하며 추후 등장할 수 있는 모든 인터페이스를 포함할 수 있다.The
터치 인식부(20)는 모바일 단말의 후면에 위치한 복수의 터치 센서(10)로부터 사용자의 손가락의 터치를 감지하고 감지된 신호를 조합한다. 예를 들면 모바일 단말 후면에 블록 형태로 이루어진 복수의 터치 센서(10)를 통해 각 블록별로 손가락의 터치가 감지되면 'high' 신호를, 감지되지 않으면 'low' 신호를 출력할 수 있다. 여기서 'high' 신호를 '1'로 설정하고, 'low' 신호를 '0'으로 설정하여 각 블록별로 해당 비트를 조합하면 손가락의 터치 영역을 인식할 수 있다. 즉 각 비트들의 조합 결과가 '10001100'일 경우 '1'에 해당되는 영역에서 신호가 감지되었으며 터치 인식부(20)는 해당 영역에서 손가락의 터치가 이루어졌음을 인식할 수 있다.The
한편 터치 인식부(20)는 인식된 손가락 터치 영역과 대응되는 모바일 단말의 전면에 사용자 인터페이스를 표시할 수 있다. 즉 인식되는 손가락 터치 영역의 분포에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 수를 설정할 수 있다. 이에 대한 상세한 설명은 도 3에서 후술한다.Meanwhile, the
또한 터치 인식부(20)는 모바일 단말의 전면에 사용자 인터페이스가 모두 표시되지 못할 경우 추가로 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 나아가 터치 인식부(20)는 인식된 손가락의 형태에 해당되는 가이드 라인을 모바일 단말의 전면에 표시할 수 있다. 나아가 터치 인식부(20)는 실행중인 응용 프로그램에 따른 사용자 인터페이스를 모바일 단말의 전면에 표시할 수도 있다.In addition, if the user interface can not be displayed all over the front of the mobile terminal, the
한편 실행부(30)는 터치된 손가락의 터치 변화를 인식하여 인식된 결과를 기초로 화면에 표시된 사용자 인터페이스를 실행한다. 여기서 터치 변화는 터치 영역 변화, 강도 변화 또는 동작 변화를 포함할 수 있다.On the other hand, the execution unit 30 recognizes the touch change of the touched finger and executes the user interface displayed on the screen based on the recognized result. Here, the touch change may include a touch region change, a strength change, or a movement change.
부연하면, 실행부(30)가 터치된 손가락의 터치 영역 변화를 인식하는 경우 실행부(30)는 터치 센서(10)로부터 감지되는 신호 중 연속적으로 변하는 신호를 감지하며, 이때 신호가 감지된 영역으로 손가락 터치가 이동되었음을 인식할 수 있다. 또한 신호가 감지된 블록의 수를 인식할 수 있으므로 신호가 감지된 블록의 수에 따라 터치 영역의 크기를 인식할 수 있다.In addition, when the execution unit 30 recognizes the change of the touched area of the touched finger, the execution unit 30 senses a continuously changing signal among the signals sensed by the
실행부(30)가 손가락의 터치 강도 변화를 인식하는 경우 실행부(30)는 터치 센서(10)로부터 감지되는 터치 강도가 미리 설정된 값 이상일 경우 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행 또는 선택할 수 있다. 예를 들면 터치 강도가 미리 설정된 값인 문턱값(threshold)을 초과하면 사용자가 이에 해당되는 사용자 인터페이스를 선택한 것으로 인식하여 실행할 수 있다.When the execution unit 30 recognizes the change in touch strength of the finger, the execution unit 30 can execute or select the user interface displayed on the front side of the mobile terminal when the touch intensity detected from the
나아가 사용되는 문턱값은 2개 이상이 적용될 수 있다. 예를 들면 손가락이 배면에 접촉하고 있음과 손가락이 배면에 힘을 주고 누르고 있음을 터치 강도의 범위로 정의하여 2개의 문턱값을 사용할 수 있다. 이에 따라 2개의 문턱값에 따른 강도 변화에 따라 사용자 인터페이스의 선택 또는 실행 등의 동작을 제어할 수 있다.Further, two or more thresholds may be used. For example, two thresholds can be used, defining that the finger is touching the back surface and that the finger is pressing and pressing the back surface as the range of the touch strength. Accordingly, it is possible to control the operation such as selection or execution of the user interface according to the intensity change according to the two threshold values.
또한 실행부(30)는 터치된 손가락의 터치 동작 변화를 인식할 수 있다. 여기서 터치 동작 변화는 일반적인 모바일 장치를 조작할 때 사용될 수 있는 클릭(click), 탭(tab), 드래그(drag), 플릭(flick) 등의 동작일 수 있으나 그 외의 다양한 동작의 실시예가 가능하다. 클릭 및 탭은 터치된 손가락의 터치 강도 변화에 따른 동작일 수 있으며, 드래그는 터치 영역의 변화에 따른 동작일 수 있다. 동작 변화에 따른 실행부(30)의 사용자 인터페이스 실행에 대한 상세한 설명은 도 4에서 후술한다.The execution unit 30 can also recognize a change in the touch operation of the touched finger. Here, the touch operation change may be an operation such as a click, a tab, a drag, a flick, and the like which can be used when operating a general mobile device, but various other operation examples are possible. The clicks and tabs may be actions according to the change in the touch strength of the touched finger, and the drag may be actions according to the change in the touch area. A detailed description of the execution of the user interface of the execution unit 30 according to the change in operation will be described later with reference to FIG.
한편 실행부(30)는 인식된 손가락의 터치 변화를 보정하여 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행할 수 있다. 이는 모바일 단말의 후면에 터치되는 손가락의 터치 변화가 정확하게 이루어지지 않을 경우에도 이를 최적화하여 사용자가 의도한 대로 사용자 인터페이스를 선택 또는 실행할 수 있도록 하기 위함이다. 실행부(30)의 터치 변화 보정에 대한 상세한 설명은 도 6에서 후술한다.On the other hand, the execution unit 30 can execute the user interface displayed on the front side of the mobile terminal by correcting the touch change of the recognized finger. This is for the purpose of enabling the user to select or execute the user interface as intended by the user even if the touch change of the finger touching the back side of the mobile terminal is not accurately performed. Details of the touch change correction of the execution unit 30 will be described later with reference to FIG.
저장부(50)는 모바일 단말의 전면에 표시되는 사용자 인터페이스를 사용빈도 에 따라 등급별로 저장할 수 있다. 즉 각 사용자 인터페이스에 대한 실행 확률값을 저장할 수 있다. 이때 터치 인식부(20)는 저장부(50)에 저장된 사용자 인터페이스 중 확률값이 높은 사용자 인터페이스를 우선적으로 모바일 단말의 전면에 표시할 수 있다.The storage unit 50 may store the user interface displayed on the front side of the mobile terminal according to the frequency of use. That is, the execution probability value for each user interface can be stored. At this time, the
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스를 설명하기 위한 참조도이다.3 is a reference diagram for explaining a user interface according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 모바일 단말의 후면에 형성된 복수의 터치 센서(10)를 통해 손가락의 터치를 인식하며, 인식된 손가락 터치 영역과 대응되는 모바일 단말의 전면에 사용자 인터페이스를 표시할 수 있다.Referring to FIG. 3, the mobile
즉 인식되는 손가락 터치 영역의 분포에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 위치 및 수(number)를 설정할 수 있다. 예를 들면 도 3과 같이 모바일 단말의 후면의 오른쪽에 있어서 터치가 감지된 블록들의 집합인 블록 집단이 세 개이면, 모바일 단말 제어장치(1)는 사용자의 세 개의 손가락으로 모바일 단말을 잡고 있음을 인식할 수 있다. 이때 터치 인식부(20)는 모바일 단말의 후면에 터치가 감지된 세 개의 블록 집단과 대응되는 모바일 단말 전면의 오른쪽에 세 개의 사용자 인터페이스를 표시할 수 있다.That is, the position and the number of the user interface displayed on the front of the mobile terminal can be set according to the distribution of the recognized finger touch region. For example, as shown in FIG. 3, if there are three groups of blocks, which are a set of blocks sensed on the right side of the back side of the mobile terminal, the mobile
구체적으로 모바일 단말의 후면에 손가락이 터치되는 영역의 x축 위치좌표의 평균값을 계산하여 모바일 단말의 전면에 적합한 위치에 사용자 인터페이스를 표시할 수 있다. 예를 들면 모바일 단말 후면의 오른쪽 영역에서 터치가 감지된 경우 모바일 단말의 오른쪽 가장자리에 사용자 인터페이스를 표시할 수 있다. 또한 모바일 단말의 전면에 사용자 인터페이스를 표시할 때 손가락들에 의해 모바일 단말에 터치되는 영역이 y축 좌표상으로 일치하지 않을 경우 이를 보정하여 모바일 단말의 전면에 표시되는 사용자 인터페이스를 y축 좌표상으로 일직선이 되도록 제어할 수 있다.Specifically, the user interface can be displayed at a suitable position on the front surface of the mobile terminal by calculating an average value of the x-axis position coordinates of the area where the finger is touched on the rear surface of the mobile terminal. For example, if a touch is detected in the right area of the back of the mobile terminal, the user interface may be displayed on the right edge of the mobile terminal. In addition, when the user interface is displayed on the front of the mobile terminal, when the area touched by the finger is not coincident with the y axis coordinate, the user interface displayed on the front side of the mobile terminal is displayed on the y axis coordinate It can be controlled to be a straight line.
나아가 사용자가 자주 사용하는 사용 빈도에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 종류, 위치 또는 수를 설정할 수 있다. 이를 위해 모바일 단말 제어장치(1)는 사용자의 사용 빈도에 따라 우선순위를 설정하고, 우선순위가 높은 순으로 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 더 나아가 사용자의 터치된 손가락의 수에 적합하게 우선순위 순으로 사용자 인터페이스를 표시할 수 있다. Furthermore, the type, position, or number of the user interface displayed on the front side of the mobile terminal can be set according to the frequently used frequency of the user. To this end, the mobile
나아가 사용자의 터치되는 손가락의 수에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 수를 다르게 표시할 수 있다. 예를 들면 사용자가 손가락 한 개를 모바일 단말의 후면에서 띄었을 경우 터치가 감지되는 블록 집단은 2개가 될 것이며 모바일 단말 전면의 오른쪽에도 한 개가 감소된 두 개의 사용자 인터페이스가 표시될 수 있다.Furthermore, the number of user interfaces displayed on the front of the mobile terminal may be differently displayed according to the number of fingers to be touched by the user. For example, if a user fingers a finger on the back of the mobile terminal, the number of blocks to be touched will be two, and two user interfaces with one reduced on the right side of the front of the mobile terminal may be displayed.
나아가 모바일 단말의 전면에 표시되는 사용자 인터페이스의 개수에 따라 사용자 인터페이스의 크기를 다르게 설정할 수 있다. 또한 모바일 단말의 화면 크기 및 사양에 적합하도록 사용자 인터페이스의 수 또는 크기 변화의 제어가 가능하다.Furthermore, the size of the user interface can be set differently according to the number of user interfaces displayed on the front side of the mobile terminal. Also, it is possible to control the change in the number or size of the user interface to conform to the screen size and specification of the mobile terminal.
도 3을 요약하면 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 사 용자가 모바일 단말을 손으로 쥔 자세만으로 사용자 인터페이스를 모바일 단말의 전면에 표시되도록 할 수 있다. 나아가 사용자가 손가락의 최소화된 터치 변화를 통해 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행 또는 선택하도록 제어할 수 있다. 즉 사용자의 손 자세를 유지한 상태에서 모바일 단말을 잡고 있는 손가락 터치의 변화만으로도 유연하게 모바일 단말의 전면에 표시되는 사용자 인터페이스의 제어가 가능하다.3, the mobile
따라서 사용자는 간편하게 모바일 단말의 사용자 인터페이스를 실행 또는 선택할 수 있다. 나아가 사용자가 입력을 위해 손을 움직여야만 하는 불편함을 제거함과 동시에 정확한 입력이 가능하다. 예를 들면 모바일 단말의 후면이 복수의 터치 센서를 포함하지 않으며 전면이 터치 스크린일 경우, 사용자는 정확한 입력을 위해 손톱을 사용하거나 손가락을 조심스럽게 갖다 데는 등의 노력을 해야 하나, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 위와 같은 노력 없이도 편리한 사용자 인터페이스 제어가 가능하다.Thus, the user can easily execute or select the user interface of the mobile terminal. Furthermore, accurate input is possible while eliminating the inconvenience that users have to move their hands for input. For example, when the rear surface of the mobile terminal does not include a plurality of touch sensors and the front surface is a touch screen, the user must make efforts to use the fingernail or carefully take the fingers in order to input the accurate information. The mobile
도 4는 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 모바일 단말 제어 예시도이다.4 is a diagram illustrating a mobile terminal control of the mobile
도 4를 참조하면, 실행부(30)는 사용자가 모바일 단말을 쥐고 있는 손 자세를 유지한 상태에서 터치된 손가락의 터치 동작 변화를 인식할 수 있다. 터치 동작 변화는 클릭(click), 탭(tab), 드래그(drag), 플릭(flick) 등의 동작일 수 있다. 부연하면 실행부(30)는 손가락 터치의 강도 변화를 클릭 또는 탭 동작으로 인식하여 이를 실행하도록 제어할 수 있다. 또한 손가락 터치의 영역 변화를 드래그 동작으로 인식하여 이를 실행하도록 제어할 수 있다.Referring to FIG. 4, the execution unit 30 may recognize a change in the touch operation of the touched finger while the user holds the hand held hand holding the mobile terminal. The change of the touch operation may be a click, a tab, a drag, a flick, and the like. The execution unit 30 can recognize that the change in the strength of the finger touch is recognized as a click or a tap operation and controls the execution. Also, it is possible to recognize that the area change of the finger touch is recognized as a drag operation and execute it.
예를 들면 도 4와 같이 손가락 터치에 따라 발생되는 연속된 신호가 모바일 단말 오른쪽 후면의 위쪽에서 아래쪽으로 변경된 경우, 실행부(30)는 오른쪽 손가락이 아래로 드래그 되었음을 인식하고, 해당 사용자 인터페이스를 전면의 오른쪽 위에서 아래로 이동시킬 수 있다.For example, when a continuous signal generated by the finger touch is changed from the upper side to the lower side of the right rear side of the mobile terminal as shown in FIG. 4, the execution unit 30 recognizes that the right finger is dragged down, From the upper right to the lower right.
또 다른 예로, 도 4와 같이 모바일 단말의 후면 오른쪽에 세 개의 손가락이 감지된 경우, 이어서 감지된 손가락들의 가운데에 해당되는 손가락을 통해 감지된 신호의 강도가 미리 설정된 문턱값을 초과하면 실행부(30)는 사용자의 가운데에 해당되는 손가락으로 압력이 가해졌음을 인식하고, 해당 사용자 인터페이스인 확대 메뉴 기능을 실행할 수 있다. 또는 가운데에 해당되는 손가락을 통해 감지된 신호가 짧은 시간동안 감지되지 않았다가 다시 감지되면 실행부(30)는 사용자가 가운데 손가락으로 클릭했음을 인식하고, 해당 사용자 인터페이스인 확대 메뉴 기능을 실행할 수 있다. As another example, when three fingers are detected on the rear right side of the mobile terminal as shown in FIG. 4, if the intensity of the signal detected through the finger corresponding to the middle of the detected fingers exceeds a predetermined threshold value, 30) recognizes the pressure applied by the finger corresponding to the middle of the user, and can execute the enlarged menu function corresponding to the user interface. Or if the signal detected through the middle finger is not detected for a short time and is detected again, the execution unit 30 recognizes that the user has clicked with the middle finger and can execute the enlarged menu function corresponding to the user interface.
한편 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)가 사용자의 터치 동작의 움직임을 인식하여 해당 사용자 인터페이스를 제어하는 방법은 전술한 방법 이 외에도 다양한 실시예가 가능하다. 또한 사용자 입력 동작은 전술한 클릭, 탭, 드래그 동작 이외의 일반적인 모바일 단말에서 실행되는 모든 사용자 입력 동작을 포함함은 당업자에 있어서 자명하다.Meanwhile, the mobile
이와 같이 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 사용자의 손 자세가 유지된 상태에서 간소화된 손가락의 이동만으로도 사용자 인터페이스를 제어할 수 있다. 이에 따라 모바일 단말 사용의 편의성이 증대될 수 있다. As described above, the mobile
또한 손가락별로 사용자 인터페이스를 제어할 수 있으므로 손가락별 역할 분담이 이루어져 효율적인 사용자 인터페이스 제어가 가능하다. 나아가 손을 떼서 화면에 표시된 사용자 인터페이스를 직접 선택 또는 실행할 필요가 없으므로 화면이 터치 수단, 예를 들면 손가락에 의해 얼룩지거나 더러워지는 오염 현상이 발생되는 것을 방지할 수 있다.In addition, since the user interface can be controlled by each finger, role sharing is performed for each finger, thereby enabling efficient user interface control. Further, since it is not necessary to manually select or execute the user interface displayed on the screen by releasing the hand, it is possible to prevent the screen from being stained or dirty by the touch means, for example, a finger.
도 5는 본 발명의 일 실시예에 따른 터치 강도별 터치 인식을 설명하기 위한 참조도이다.FIG. 5 is a reference view for explaining touch recognition by touch intensity according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 압력 감지 센서인 터치 센서를 통해 손가락의 터치 강도별로 해당되는 사용자 인터페이스의 제어를 다르게 할 수 있다. 예를 들면 도 5와 같이 문턱값이 2개인 경우, 터치 강도가 제1 문턱값을 초과하지 않은 경우는 터치가 이루어지지 않은 것으로 인식하고, 터치 강도가 제1 문턱값을 초과했으나 제2 문턱값을 초과하지 않은 경우는 손가락이 모바일 단말을 쥐고 있는 터치동작으로 인식하여 해당되는 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다.Referring to FIG. 5, the mobile
한편, 터치 강도가 제 2 문턱값을 초과하는 경우 모바일 단말 제어장치(1)는 사용자가 압력을 가했음을 인식하고, 이를 사용자 인터페이스의 클릭 동작으로 실행하도록 제어할 수 있다. 그러나 문턱값의 실시예는 전술한 2개의 문턱값 이외에 하나이거나 그 이상으로 설정될 수 있으며, 문턱값의 강도에 따라 사용자 인터페이스의 동작 제어를 다르게 설정할 수도 있다.On the other hand, when the touch strength exceeds the second threshold value, the mobile
도 6은 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 터치 변화 보정의 예를 도시한다.6 shows an example of touch change correction of the mobile
도 6을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 인식된 손가락의 터치 변화를 보정할 수 있다. 일반적으로 사용자가 모바일 단말을 손으로 쥐고 있는 상태에서 사용자의 터치 변화는 사용자가 의도한 대로 발생되지 않는다. 예를 들면 사용자의 동작은 의도했던 정확한 지점으로 형성되지 않거나 직선 운동으로 발생되지 않는 등 정밀성이 떨어질 수 있다.Referring to FIG. 6, the mobile
그러나 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 사용자로부터 발생한 신호를 조작에 용이한 위치 및 크기에 적합하게 변형할 수 있다. 예를 들면 도 6과 같이 사용자가 스크롤 동작을 행하는 경우 실제로는 비스듬한 벡터가 발생하여도 이를 수직 벡터로 변형할 수 있다. However, the mobile
또 따른 예로, 도 6과 같이 사용자가 특정 지점을 터치하는 경우 터치된 특정 지점의 일정 범위 내에 해당되는 사용자 인터페이스의 터치로 인식하여 해당되는 사용자 인터페이스를 선택하도록 제어할 수 있다. 구체적으로 터치되는 손가락의 위치와 전면에 표시된 메뉴의 위치가 일치하지 않은 경우 터치된 손가락의 각 지점에 대해서 주변의 메뉴들과의 거리를 계산하여 가장 근접하게 위치하는 메뉴를 선택하여 해당 메뉴를 선택하도록 제어할 수 있다.As another example, when a user touches a specific point as shown in FIG. 6, the user can recognize that the corresponding user interface is selected by recognizing the user interface within a certain range of a specific point touched. Specifically, when the position of the finger being touched does not match the position of the menu displayed on the front side, the distance to the surrounding menus is calculated with respect to each point of the touched finger, and a menu positioned closest to the user is selected. .
이 경우 사용자는 추가적으로 포인팅을 맞추는 노력 없이도 사용자 인터페이스를 선택할 수 있다. 특히 작업 공간이 넓지 않거나 이동중인 경우에 정확한 포인터의 이동 또는 선택을 위한 노력 없이 간단한 손가락 움직임 동작만으로도 사용 자 인터페이스를 원활하게 제어할 수 있다.In this case, the user can select the user interface without further effort to adjust the pointing. In particular, when the work space is not wide or on the move, the user interface can be smoothly controlled with only a simple finger movement operation without an effort to move or select an accurate pointer.
또 다른 예로 사용자가 일정 영역 내에서 드래그 동작을 실행하는 경우 실제로 드래그한 영역보다 크거나 작게 입력 신호를 보정할 수 있다. 예를 들면 도 6과 같이 사용자의 드래그 동작은 작거나 정확하지 않지만 모바일 단말 제어장치(1)는 바탕화면의 줄 간격 맞춤 등의 보정 기능을 통해 해당되는 사용자 인터페이스가 사용자의 의도대로 이동되도록 제어할 수 있다.As another example, when the user performs a drag operation within a certain area, the input signal can be corrected to be larger or smaller than the area actually dragged. For example, as shown in FIG. 6, the drag operation of the user is small or inaccurate, but the mobile
이에 따라 사용자의 입력 과정이 최적화될 수 있다. 즉 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 부정확하거나 정밀성이 떨어지는 사용자의 입력 동작을 상황에 맞게 보정하므로 사용자의 입력 로드를 줄일 수 있다. 또한 모바일 단말의 전면의 화면을 통해 사용자가 입력한 대로 출력되는 것이 아니라 보정이 이루어지므로 출력 과정 또한 최적화될 수 있다. 한편 사용자의 입력 과정 및 출력 과정의 최적화 방법은 전술한 방법 이외에도 다양한 실시예가 가능하다.Thus, the input process of the user can be optimized. That is, the mobile
도 7은 본 발명의 일 실시예에 따른 추가 사용자 인터페이스를 설명하기 위한 참조도이다.7 is a reference diagram for explaining an additional user interface according to an embodiment of the present invention.
도 7을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 복수의 터치 센서를 통해 손가락의 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시할 때, 인식 결과 모바일 단말의 전면에 사용자 인터페이스가 모두 표시되지 못하면 추가 사용자 인터페이스를 화면에 표시할 수 있다. 즉 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. Referring to FIG. 7, the mobile
예를 들면 도 7과 같이 상하 이동 기능을 갖는 메뉴 키를 화면에 표시할 수 있다. 이 경우 사용자가 위로 이동되는 기능을 갖는 메뉴 키를 클릭 동작으로 선택하면 모바일 단말 제어장치(1)는 모바일 단말의 전면에 표시되지 못한 사용자 인터페이스를 추가로 화면에 표시할 수 있다.For example, as shown in FIG. 7, a menu key having a vertical movement function can be displayed on the screen. In this case, if the user selects the menu key having the function of moving up, the mobile
이에 따라 사용자 인터페이스, 예를 들면 메뉴의 검색이 가능하다. 여기서 사용자 인터페이스의 실행은 사용자가 손 자세를 유지한 상태에서 손가락의 압력을 높이거나 손가락을 떼었다가 다시 접촉하는 동작을 통해 이루어질 수 있다.Thus, a user interface, for example, a menu can be searched. Here, the execution of the user interface can be accomplished by increasing the pressure of the finger while the user maintains the hand posture, or by releasing the finger and then touching again.
나아가 추가 사용자 인터페이스를 통해 모든 사용자 인터페이스를 모바일 단말의 전면에 표시하지 않아도 되므로, 화면의 디자인 구성이 단순화되므로 사용자 인터페이스 때문에 화면이 가릴 수 있는 현상을 차단할 수 있으며 단순한 사용자 인터페이스 구성으로 인한 편리한 조작이 가능하다.Furthermore, since all user interfaces need not be displayed on the front side of the mobile terminal through the additional user interface, the design configuration of the screen is simplified, thereby preventing the screen from being clogged due to the user interface. Do.
도 8은 본 발명의 일 실시예에 따른 가이드 라인을 설명하기 위한 참조도이다.8 is a reference diagram for explaining a guideline according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 인식된 손가락의 형태에 해당되는 가이드 라인을 모바일 단말의 전면에 표시할 수 있다. 예를 들면 복수의 터치 센서를 통해 신호가 감지된 접촉 영역 집단이 세 개일 경우, 이에 대응되는 모바일 단말의 전면의 위치에 해당되는 영역에 손가락의 외곽선 모양을 가이드 라인 형태로 표시할 수 있다. 이에 따라 사용자는 모바일 단말의 후면을 쥐고 있는 손 자세를 화면을 통해 확인할 수 있으므로 가이드 라인이 없을 경우에 비하여 더 정확한 사용자 인터페이스 입력이 가능하다.Referring to FIG. 8, the mobile
도 9는 본 발명의 일 실시예에 따른 응용 프로그램별 사용자 인터페이스를 설명하기 위한 참조도이다.9 is a reference diagram for explaining a user interface for each application program according to an embodiment of the present invention.
도 9를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 실행중인 응용 프로그램에 따른 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 예를 들면 도 9와 같이 응용 프로그램이 전자 도서(Electronic book, E-book)일 경우 사용자 인터페이스는 상하 스크롤 또는 좌우 스크롤 메뉴 키가 포함될 수 있다. 이 경우 상하 스크롤 메뉴 키는 페이지 pre/next 기능에 해당되는 키다. 나아가 사용자가 글을 읽는 경우에는 화면에 메뉴 키가 보여지지 않고, 필요에 따라 사용자가 배면을 터치하면 메뉴 키가 제공되어 조작될 수 있다.Referring to FIG. 9, the mobile
또 다른 예로 응용 프로그램이 길 찾기 프로그램일 경우 영역 확대, 거리 계산, 면적 계산, 빠른 길 선택에 해당되는 메뉴 키 등의 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 나아가 응용 프로그램별 사용자 인터페이스는 메뉴뿐만 아니라 키, 숫자 데이터 또는 문자 데이터, 그림 데이터일 수 있다. 더 나아가 모바일 단말의 전면에 표시되는 사용자 인터페이스는 응용 프로그램별로 모바일 단말의 특성에 적합하도록 재구성 또는 최소화될 수 있다.As another example, if the application program is a route search program, a user interface such as area enlargement, distance calculation, area calculation, and menu key corresponding to fast route selection can be displayed on the front of the mobile terminal. Further, the application-specific user interface may be not only a menu but also a key, numeric data, character data, and picture data. Furthermore, the user interface displayed on the front side of the mobile terminal can be reconfigured or minimized to fit the characteristics of the mobile terminal for each application program.
한편 모바일 단말 제어장치(1)는 저장부(50)를 통해 사용자 인터페이스를 각 응용 프로그램별로 사용빈도에 따라 등급별로 저장할 수 있다. 이때 터치 인식부(20)는 저장부(50)에 저장된 사용자 인터페이스를 모바일 단말의 전면에 표시하며, 모든 사용자 인터페이스를 표시하지 못할 경우는 도 8과 같이 추가 선택 기능을 갖는 사용자 인터페이스를 화면에 표시할 수 있다.On the other hand, the mobile
도 10은 본 발명의 일 실시예에 따른 모바일 단말 제어방법을 도시한 흐름도이다.10 is a flowchart illustrating a mobile terminal control method according to an embodiment of the present invention.
도 10을 참조하면, 모바일 단말 제어장치(1)는 모바일 단말의 후면에 형성된 복수의 터치 센서(10)를 통해 손가락의 터치를 인식한다(S100). 여기서 복수의 터치 센서(10)는 신호 발생 유무를 인식하는 그리드 형태일 수 있다. 또한 손가락 접촉에 따라 변화되는 압력을 감지하는 압력 터치 센서, 접촉에 따라 변화되는 정전용량을 감지하는 정전용량 터치 센서를 포함할 수 있다.Referring to FIG. 10, the mobile
이어서 모바일 단말 제어장치(1)는 인식된 결과에 기초하여 모바일 단말의 전면에 사용자 인터페이스를 표시한다(S110). 사용자 인터페이스는 메뉴, 키, 숫자 데이터 또는 문자 데이터, 그림 데이터일 수 있다. 이때 인식된 터치 영역과 대응되는 모바일 단말의 전면에 사용자 인터페이스를 표시할 수 있다. 나아가 인식 결과 모바일 단말의 전면에 사용자 인터페이스가 모두 표시되지 못할 경우 추가로 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 나아가 인식된 손가락의 형태에 해당되는 가이드 라인을 모바일 단말의 전면에 표시할 수 있다.Subsequently, the mobile
그리고, 모바일 단말 제어장치(1)는 터치된 손가락의 터치 변화를 인식한다(S120). 여기서 손가락의 터치 변화는 터치 영역 변화, 강도 변화 또는 동작 변화일 수 있다. 즉 복수의 터치 센서로부터 변화되는 신호를 통해 터치 영역의 변화를 인식할 수 있다. 또는 복수의 터치 센서를 통해 인식된 손가락의 터치 강도가 미리 설정된 값을 초과했는지의 여부를 인식할 수 있다.Then, the mobile
모바일 단말 제어장치(1)는 인식된 결과를 기초로 사용자 인터페이스를 실행한다(S130). 이때 실행 동작은 클릭, 드래그, 탭, 플릭 등일 수 있다. 부연하면 클릭 및 탭은 터치된 손가락의 터치 강도 변화에 따른 동작일 수 있으며, 드래그는 터치 영역의 변화에 따른 동작일 수 있다.The mobile
나아가 모바일 단말 제어장치(1)는 인식된 손가락의 터치 변화를 보정하여 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행할 수 있다. 즉 부정확하거나 최소화된 사용자의 입력 동작을 상황에 맞게 보정하여 사용자의 입력 로드를 줄일 수 있다. 또한 모바일 단말의 전면의 화면을 통해 사용자가 입력한 대로 출력되는 것이 아니라 보정이 이루어져 출력 과정 또한 최적화될 수 있다.Furthermore, the mobile
요약하면 본 발명의 일 실시예에 따른 모바일 단말 제어장치를 이용하여 화면을 가리지 않으면서도 편리하게 모바일 단말의 사용자 인터페이스를 제어할 수 있다. 즉 사용자의 손 자세가 유지된 상태에서 최소화된 손가락의 이동으로 사용자 인터페이스를 제어할 수 있다. 이에 따라 모바일 단말 사용의 편의성이 증대될 수 있다. In summary, it is possible to conveniently control the user interface of the mobile terminal without blocking the screen using the mobile terminal control apparatus according to an embodiment of the present invention. That is, the user interface can be controlled by moving the minimized finger while maintaining the hand posture of the user. Accordingly, the convenience of using the mobile terminal can be increased.
나아가 손가락별로 사용자 인터페이스를 제어할 수 있으므로 손가락별 역할 분담이 이루어져 효율적인 사용자 인터페이스 제어가 가능하다. 또한 손을 떼서 화면에 표시된 사용자 인터페이스를 직접 선택 또는 실행할 필요가 없으므로 화면이 터치 수단, 예를 들면 손가락에 의한 반복적인 터치로 인해 화면이 얼룩지거나 더러워지는 오염을 방지할 수 있다.Furthermore, since the user interface can be controlled by each finger, role sharing is performed for each finger, thereby enabling efficient user interface control. In addition, since the user does not have to manually release or execute the user interface displayed on the screen, it is possible to prevent contamination of the screen by the touch means, for example, repetitive touching by the finger on the screen.
더 나아가 인식된 손가락의 터치 변화를 보정할 수 있으므로 사용자의 입력 과정이 최적화될 수 있다. 즉 부정확하거나 최소화된 사용자의 입력 동작이 상황에 맞게 보정되므로 사용자의 입력 로드를 줄일 수 있다. 또한 모바일 단말의 전면의 화면을 통해 사용자가 입력한 대로 그래도 출력되는 것이 아니라 보정이 이루어지므로 출력 과정 또한 최적화될 수 있다.Furthermore, since the touch change of the recognized finger can be corrected, the input process of the user can be optimized. That is, since the input operation of an incorrect or minimized user is corrected according to the situation, the input load of the user can be reduced. In addition, the output process can be optimized since the correction is performed instead of being output as though the user input the screen through the screen on the front of the mobile terminal.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
도 1은 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 전개도이다.1 is an exploded view of a mobile terminal control apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 구성도이다.2 is a configuration diagram of a mobile terminal control apparatus according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스를 설명하기 위한 참조도이다.3 is a reference diagram for explaining a user interface according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 모바일 단말 제어 예시도이다.4 is a diagram illustrating a mobile terminal control of a mobile terminal control apparatus according to an exemplary embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 터치 강도별 터치 인식을 설명하기 위한 참조도이다.FIG. 5 is a reference view for explaining touch recognition by touch intensity according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 터치 변화 보정의 예시도이다.6 is an exemplary diagram of touch change correction of a mobile terminal control apparatus according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 추가 사용자 인터페이스를 설명하기 위한 참조도이다.7 is a reference diagram for explaining an additional user interface according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 가이드 라인을 설명하기 위한 참조도이다.8 is a reference diagram for explaining a guideline according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 응용 프로그램별 사용자 인터페이스를 설명하기 위한 참조도이다.9 is a reference diagram for explaining a user interface for each application program according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 모바일 단말 제어방법을 도시한 흐름도이다.10 is a flowchart illustrating a mobile terminal control method according to an embodiment of the present invention.
<도면의 주요부분에 대한 부호의 설명>Description of the Related Art
1 : 모바일 단말 제어장치 10 : 터치 센서1: mobile terminal control device 10: touch sensor
20 : 터치 인식부 30 : 실행부20: touch recognition unit 30: execution unit
40 : 디스플레이부 50 : 저장부40: display unit 50: storage unit
Claims (17)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080012335A KR101467513B1 (en) | 2008-02-11 | 2008-02-11 | Mobile terminal control device and method thereof |
US12/222,451 US9060068B2 (en) | 2008-02-11 | 2008-08-08 | Apparatus and method for controlling mobile terminal user interface execution |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080012335A KR101467513B1 (en) | 2008-02-11 | 2008-02-11 | Mobile terminal control device and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090086842A KR20090086842A (en) | 2009-08-14 |
KR101467513B1 true KR101467513B1 (en) | 2014-12-01 |
Family
ID=40938483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080012335A Active KR101467513B1 (en) | 2008-02-11 | 2008-02-11 | Mobile terminal control device and method thereof |
Country Status (2)
Country | Link |
---|---|
US (1) | US9060068B2 (en) |
KR (1) | KR101467513B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023132643A1 (en) * | 2022-01-05 | 2023-07-13 | Samsung Electronics Co., Ltd. | Method and electronic device for providing control functionality of display |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW200925957A (en) * | 2007-12-14 | 2009-06-16 | Htc Corp | Function switch methods and systems, and machine readable medium thereof |
KR101592296B1 (en) * | 2008-09-03 | 2016-02-05 | 엘지전자 주식회사 | Mobile terminal and its object selection and execution method |
KR101598078B1 (en) * | 2008-10-06 | 2016-02-29 | 삼성전자주식회사 | Input device using piezoelectric sensor and its operating method |
USD619985S1 (en) * | 2009-03-17 | 2010-07-20 | Lg Electronics Inc. | Mobile phone |
KR20110013606A (en) * | 2009-08-03 | 2011-02-10 | 엘지전자 주식회사 | Menu execution method in mobile communication terminal and mobile communication terminal applying same |
KR101613619B1 (en) * | 2009-11-30 | 2016-04-29 | 삼성전자주식회사 | A digital photographing apparatus, a method for controlling the same, and a computer-readable medium |
USD641332S1 (en) * | 2010-01-06 | 2011-07-12 | Sony Ericsson Mobile Communications Ab | Mobile phone |
TW201128478A (en) * | 2010-02-12 | 2011-08-16 | Novatek Microelectronics Corp | Touch sensing method and system using the same |
WO2011099361A1 (en) * | 2010-02-15 | 2011-08-18 | 京セラ株式会社 | Electronic device |
USD640662S1 (en) * | 2010-04-14 | 2011-06-28 | Lg Electronics Inc. | Mobile phone |
USD633467S1 (en) * | 2010-05-14 | 2011-03-01 | Samsung Electronics Co., Ltd. | Mobile phone |
USD635113S1 (en) * | 2010-05-14 | 2011-03-29 | Samsung Electronics Co., Ltd. | Mobile phone |
USD635541S1 (en) * | 2010-05-14 | 2011-04-05 | Samsung Electronics Co., Ltd. | Mobile phone |
US8698764B1 (en) * | 2010-06-30 | 2014-04-15 | Amazon Technologies, Inc. | Dorsal touch input |
JP5959797B2 (en) * | 2010-09-28 | 2016-08-02 | 京セラ株式会社 | Input device and control method of input device |
US9043732B2 (en) * | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
US9244604B1 (en) | 2010-11-05 | 2016-01-26 | Amazon Technologies, Inc. | Adaptive touch sensor interface |
USD648300S1 (en) * | 2011-01-14 | 2011-11-08 | Samsung Electronics Co., Ltd. | Mobile phone |
USD659664S1 (en) * | 2011-01-18 | 2012-05-15 | Samsung Electronics Co., Ltd. | Mobile phone |
USD653228S1 (en) * | 2011-01-18 | 2012-01-31 | Samsung Electronics Co., Ltd. | Mobile phone |
WO2012108213A1 (en) * | 2011-02-10 | 2012-08-16 | 京セラ株式会社 | Input device |
US8599158B2 (en) * | 2011-06-29 | 2013-12-03 | Nokia Corporation | Multi-surface touch sensitive apparatus and method |
KR101336709B1 (en) * | 2011-10-25 | 2013-12-04 | 엘지전자 주식회사 | Mobile terminal and operation control method using back cover touch thereof |
USD687799S1 (en) * | 2011-11-30 | 2013-08-13 | Lg Electronics Inc. | Mobile phone |
USD698770S1 (en) * | 2012-01-06 | 2014-02-04 | Samsung Electronics Co., Ltd. | Electronic device |
USD706234S1 (en) * | 2012-01-06 | 2014-06-03 | Samsung Electronics Co., Ltd. | Electronic device |
USD698771S1 (en) * | 2012-01-06 | 2014-02-04 | Samsung Electronics Co., Ltd. | Electronic device |
USD681594S1 (en) * | 2012-01-11 | 2013-05-07 | Samsung Electronics Co., Ltd. | Mobile communication terminal |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
JP6002836B2 (en) | 2012-05-09 | 2016-10-05 | アップル インコーポレイテッド | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
CN105260049B (en) | 2012-05-09 | 2018-10-23 | 苹果公司 | For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user |
CN106201316B (en) | 2012-05-09 | 2020-09-29 | 苹果公司 | Apparatus, method and graphical user interface for selecting user interface objects |
EP3185116B1 (en) | 2012-05-09 | 2019-09-11 | Apple Inc. | Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
EP2847662B1 (en) | 2012-05-09 | 2020-02-19 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
USD700902S1 (en) * | 2012-05-24 | 2014-03-11 | Samsung Electronics Co., Ltd. | Mobile phone |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
KR102301592B1 (en) | 2012-12-29 | 2021-09-10 | 애플 인크. | Device, method, and graphical user interface for navigating user interface hierachies |
KR101398141B1 (en) | 2013-02-08 | 2014-05-20 | 엘지전자 주식회사 | Mobile terminal |
KR102107114B1 (en) | 2013-10-30 | 2020-05-06 | 엘지전자 주식회사 | Mobile terminal |
KR101453687B1 (en) * | 2013-10-31 | 2014-10-22 | 원현준 | Power on/off apparatus of mobile terminal and method for controlling the same |
US10296165B2 (en) * | 2013-12-10 | 2019-05-21 | Lg Electronics Inc. | Mobile terminal including display on front surface and rear input unit on rear surface and method for operating mobile terminal based on first input applied to rear input unit and second input applied to display |
KR102182165B1 (en) * | 2014-07-03 | 2020-11-24 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
CN105446520B (en) * | 2014-09-30 | 2018-10-23 | 南京瀚宇彩欣科技有限责任公司 | The method executed without the singlehanded portable electric device, touch-control outer cover and computer for more referring to touch-control of gear |
US20160026217A1 (en) * | 2014-07-25 | 2016-01-28 | Hannstar Display (Nanjing) Corporation | Shadeless touch hand-held electronic device and computer-executed method |
TWI536239B (en) * | 2014-10-27 | 2016-06-01 | 緯創資通股份有限公司 | Touch apparatus and touch method |
KR20160090183A (en) * | 2015-01-21 | 2016-07-29 | 엘지전자 주식회사 | Mobile terminal |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
WO2017123055A1 (en) * | 2016-01-14 | 2017-07-20 | 삼성전자주식회사 | Method for touch input-based operation and electronic device therefor |
KR20170085419A (en) * | 2016-01-14 | 2017-07-24 | 삼성전자주식회사 | Method for operating based on touch input and electronic device thereof |
CN105824535A (en) * | 2016-03-25 | 2016-08-03 | 乐视控股(北京)有限公司 | Setting adjusting method and terminal |
KR101853961B1 (en) * | 2016-04-19 | 2018-06-20 | (주)휴맥스 | Apparatus and method of providing media service |
US10178306B2 (en) | 2016-06-16 | 2019-01-08 | Tracfone Wireless, Inc. | Wireless device having dedicated rear panel control |
WO2019113895A1 (en) * | 2017-12-14 | 2019-06-20 | 深圳市柔宇科技有限公司 | Control method and electronic device |
EP3788775B1 (en) * | 2018-05-02 | 2021-09-22 | Telefonaktiebolaget LM Ericsson (publ) | User equipment, method by a user equipment, and network node |
CN109686292B (en) | 2019-01-25 | 2022-05-27 | 鄂尔多斯市源盛光电有限责任公司 | Gate driving unit, gate driving method, gate driving circuit and display device |
JP2024510660A (en) * | 2021-03-19 | 2024-03-08 | イソルグ | multi finger sensor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0844493A (en) * | 1993-12-03 | 1996-02-16 | Synaptics Inc | Portable touch-pad-driven computer device |
US6020878A (en) * | 1998-06-01 | 2000-02-01 | Motorola, Inc. | Selective call radio with hinged touchpad |
JP2000066803A (en) * | 1998-08-17 | 2000-03-03 | Sony Corp | Input operation device |
KR20060029237A (en) * | 2003-06-25 | 2006-04-05 | 노키아 코포레이션 | Multi-Function User Interface (VI) Input Device for Mobile Terminals |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5898434A (en) * | 1991-05-15 | 1999-04-27 | Apple Computer, Inc. | User interface system having programmable user interface elements |
US7800592B2 (en) * | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
JP2002318640A (en) | 2001-04-19 | 2002-10-31 | Casio Comput Co Ltd | Small electronic equipment |
JP2003296022A (en) * | 2002-04-01 | 2003-10-17 | Pioneer Electronic Corp | Touch panel integrated display device |
JP3852368B2 (en) * | 2002-05-16 | 2006-11-29 | ソニー株式会社 | Input method and data processing apparatus |
JP2004110380A (en) | 2002-09-18 | 2004-04-08 | Seiko Instruments Inc | Order management system |
KR20040058528A (en) | 2002-12-27 | 2004-07-05 | 주식회사 하이닉스반도체 | Keyboard applicable to portable computer |
JP2004288077A (en) | 2003-03-25 | 2004-10-14 | Gunze Ltd | Portable apparatus |
JP2006134184A (en) * | 2004-11-08 | 2006-05-25 | Honda Access Corp | Remote control switch |
KR100608576B1 (en) * | 2004-11-19 | 2006-08-03 | 삼성전자주식회사 | Mobile terminal control device and method |
KR20070001447A (en) | 2005-06-29 | 2007-01-04 | 삼성전자주식회사 | Handheld terminal with back input |
KR101277256B1 (en) * | 2006-06-16 | 2013-07-05 | 삼성전자주식회사 | Apparatus and method for user interface |
KR100774927B1 (en) * | 2006-09-27 | 2007-11-09 | 엘지전자 주식회사 | Mobile terminal, menu and item selection method |
US20090009482A1 (en) * | 2007-05-01 | 2009-01-08 | Mcdermid William J | Touch sensor pad user input device |
US8373665B2 (en) * | 2007-07-26 | 2013-02-12 | International Business Machines Corporation | Interactive display device |
US20090150541A1 (en) * | 2007-12-06 | 2009-06-11 | Sony Corporation And Sony Electronics Inc. | System and method for dynamically generating user interfaces for network client devices |
-
2008
- 2008-02-11 KR KR1020080012335A patent/KR101467513B1/en active Active
- 2008-08-08 US US12/222,451 patent/US9060068B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0844493A (en) * | 1993-12-03 | 1996-02-16 | Synaptics Inc | Portable touch-pad-driven computer device |
US6020878A (en) * | 1998-06-01 | 2000-02-01 | Motorola, Inc. | Selective call radio with hinged touchpad |
JP2000066803A (en) * | 1998-08-17 | 2000-03-03 | Sony Corp | Input operation device |
KR20060029237A (en) * | 2003-06-25 | 2006-04-05 | 노키아 코포레이션 | Multi-Function User Interface (VI) Input Device for Mobile Terminals |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023132643A1 (en) * | 2022-01-05 | 2023-07-13 | Samsung Electronics Co., Ltd. | Method and electronic device for providing control functionality of display |
Also Published As
Publication number | Publication date |
---|---|
KR20090086842A (en) | 2009-08-14 |
US9060068B2 (en) | 2015-06-16 |
US20090201260A1 (en) | 2009-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101467513B1 (en) | Mobile terminal control device and method thereof | |
US9223471B2 (en) | Touch screen control | |
EP2256614B1 (en) | Display control apparatus, display control method, and computer program | |
US8775966B2 (en) | Electronic device and method with dual mode rear TouchPad | |
US8261211B2 (en) | Monitoring pointer trajectory and modifying display interface | |
JP4979600B2 (en) | Portable terminal device and display control method | |
EP1569075B1 (en) | Pointing device for a terminal having a touch screen and method for using same | |
US8456433B2 (en) | Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel | |
US20110060986A1 (en) | Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same | |
EP2270641A1 (en) | Operation Control Apparatus, Operation Control Method, and Computer Program | |
US20100073303A1 (en) | Method of operating a user interface | |
US9619454B2 (en) | Method for controlling electronic spreadsheet on handheld touch device | |
JPWO2009031214A1 (en) | Portable terminal device and display control method | |
US20140071049A1 (en) | Method and apparatus for providing one-handed user interface in mobile device having touch screen | |
KR20150069420A (en) | Control method of computer device using keyboard equipped with touch screen | |
JP2012079279A (en) | Information processing apparatus, information processing method and program | |
US20120179963A1 (en) | Multi-touch electronic device, graphic display interface thereof and object selection method of multi-touch display | |
US20110126100A1 (en) | Method of providing gui for guiding start position of user operation and digital device using the same | |
US11914857B1 (en) | Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays | |
US12086382B1 (en) | Methods and graphical user interfaces for positioning a selection and selecting on computing devices with touch sensitive displays | |
WO2013080425A1 (en) | Input device, information terminal, input control method and input control program | |
KR102296968B1 (en) | Control method of favorites mode and device including touch screen performing the same | |
KR101598671B1 (en) | Keyboard having touch screen and control method thereof | |
CN101799727A (en) | Signal processing device and method of multipoint touch interface and selecting method of user interface image | |
KR20110093050A (en) | User interface device by detecting touch area increase and decrease and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20080211 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20130111 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20080211 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20140331 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20140828 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20141125 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20141125 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20171018 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20171018 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20231017 Start annual number: 10 End annual number: 10 |