KR101467513B1 - Mobile terminal control device and method thereof - Google Patents

Mobile terminal control device and method thereof Download PDF

Info

Publication number
KR101467513B1
KR101467513B1 KR1020080012335A KR20080012335A KR101467513B1 KR 101467513 B1 KR101467513 B1 KR 101467513B1 KR 1020080012335 A KR1020080012335 A KR 1020080012335A KR 20080012335 A KR20080012335 A KR 20080012335A KR 101467513 B1 KR101467513 B1 KR 101467513B1
Authority
KR
South Korea
Prior art keywords
mobile terminal
touch
user interface
finger
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020080012335A
Other languages
Korean (ko)
Other versions
KR20090086842A (en
Inventor
이현정
박준아
욱 장
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020080012335A priority Critical patent/KR101467513B1/en
Priority to US12/222,451 priority patent/US9060068B2/en
Publication of KR20090086842A publication Critical patent/KR20090086842A/en
Application granted granted Critical
Publication of KR101467513B1 publication Critical patent/KR101467513B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 모바일 단말 제어장치 및 그 방법에 관한 것으로, 본 발명에 따른 모바일 단말 제어장치는 모바일 단말의 후면에 형성된 복수의 터치 센서를 통해 손가락 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시하는 터치 인식부와 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 사용자 인터페이스를 실행하는 실행부를 포함하는 것을 특징으로 한다. 이에 의해 사용자는 화면을 가리지 않으면서도 편리하게 모바일 단말의 사용자 인터페이스를 조작할 수 있다.The present invention relates to a mobile terminal control device and a method thereof, and a mobile terminal control device according to the present invention recognizes a finger touch through a plurality of touch sensors formed on the rear side of the mobile terminal and displays a user interface on the front side of the mobile terminal And an execution unit for recognizing a change of the recognized finger touch and executing the user interface based on the recognized result. Thus, the user can conveniently operate the user interface of the mobile terminal without screening the screen.

터치 센서, 사용자 인터페이스 Touch sensor, user interface

Description

모바일 단말 제어장치 및 그 방법 {Apparatus for controlling mobile terminal and method thereof}[0001] Apparatus for controlling mobile terminal and method [0002]

본 발명은 모바일 단말에 관한 것으로, 보다 상세하게는 터치 센서를 이용한 모바일 단말 제어장치 및 그 방법에 관한 것이다.The present invention relates to a mobile terminal, and more particularly, to a mobile terminal control apparatus using a touch sensor and a method thereof.

최근 휴대 전화 등의 모바일 단말은 이용 가능한 기능이 증가함에 따라 해당 기능들에 대응하는 사용자 인터페이스, 예를 들면 메뉴 키 또는 버튼들도 증가하고 있다. 증가된 사용자 인터페이스의 복잡함으로 인해서 모바일 단말의 사용자는 신속하게 특정 기능을 갖는 사용자 인터페이스를 선택 또는 설정하는데 어려움을 느낄 수 있다.2. Description of the Related Art In recent years, a mobile terminal such as a mobile phone has been increasing in user interface, for example, a menu key or a button, corresponding to a corresponding function. Due to the increased complexity of the user interface, the user of the mobile terminal may find it difficult to quickly select or set up a user interface with a particular function.

물리적인 사용자 인터페이스 대신에 모바일 단말의 화면에 GUI(Graphic User Interface)를 디스플레이하여 사용자 인터페이스를 선택 또는 설정하는 방법이 제안되었다. 예를 들면 모바일 단말의 전면을 터치 스크린으로 이용할 수 있다. 그러나 이와 같은 방법은 사용자가 단말의 전면에 디스플레이된 GUI를 터치하고자 할 경우 터치 수단, 예를 들면 손가락이 화면을 가릴 수 있다. 이에 따라 사용자는 터치 수단에 의해 가려진 화면을 제대로 볼 수가 없으므로 사용에 불편함을 느낄 수 있는 문제점이 있다. A method of selecting or setting a user interface by displaying a GUI (Graphic User Interface) on the screen of the mobile terminal instead of a physical user interface has been proposed. For example, the front of the mobile terminal can be used as a touch screen. However, in such a method, when the user tries to touch the GUI displayed on the front surface of the terminal, the touch means, for example, a finger may cover the screen. Accordingly, the user can not properly view the screen hidden by the touching means, which makes the user feel inconvenient.

또한 사용자가 모바일 단말의 전면을 터치하려면 모바일 단말을 쥐고 있는 손을 떼서 손가락 또는 포인팅 수단을 이용하여 모바일 단말의 전면에 위치하는 터치 영역에 직접 접촉해야 하는 번거로움이 따른다. 나아가 터치 수단의 잦은 터치 때문에 모바일 단말의 전면이 얼룩지게 되어 화면의 분별이 어려워지거나 지저분해지는 문제점이 있다.In addition, in order for the user to touch the front surface of the mobile terminal, it is troublesome to directly touch the touch region located on the front side of the mobile terminal by using a finger or pointing means by releasing the hand holding the mobile terminal. Furthermore, because of the frequent touch of the touch means, the front surface of the mobile terminal becomes stained, which makes it difficult to discriminate the screen or it becomes messy.

본 발명은 사용자 인터페이스의 선택 및 설정이 편리하며 화면을 가리지 않는 모바일 단말 제어장치 및 그 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a mobile terminal control apparatus which is convenient to select and set a user interface and does not select a screen, and a method thereof.

이에 따라 모바일 단말의 후면에 형성된 복수의 터치 센서를 이용하여 모바일 단말의 기능을 선택하거나 설정할 수 있는 모바일 단말 제어장치 및 그 방법을 제안한다.Accordingly, the present invention proposes a mobile terminal control apparatus and method for selecting or setting a function of a mobile terminal using a plurality of touch sensors formed on the rear surface of the mobile terminal.

보다 구체적으로는 본 발명의 일 양상에 따르면 모바일 단말의 후면에 형성된 복수의 터치 센서, 복수의 터치 센서를 통해 손가락 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시하는 터치 인식부 및 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 표시된 사용자 인터페이스를 실행하는 실행부를 포함하는 모바일 단말 제어장치가 제공된다.More specifically, according to one aspect of the present invention, there is provided a mobile terminal including a plurality of touch sensors formed on a rear surface of a mobile terminal, a touch recognition unit for recognizing a finger touch through a plurality of touch sensors and displaying a user interface on a front surface of the mobile terminal, There is provided a mobile terminal control apparatus including an execution unit that recognizes a change of a touch and executes a user interface displayed based on a recognized result.

한편 본 발명의 다른 양상에 따르면 모바일 단말의 후면에 형성된 복수의 터치 센서를 통해 손가락 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시하는 단계 및 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 표시된 사용자 인터페이스를 실행하는 단계를 포함하는 모바일 단말 제어방법이 제공된다.According to another aspect of the present invention, there is provided a method for controlling a mobile terminal, comprising: displaying a user interface on a front surface of a mobile terminal by recognizing a finger touch through a plurality of touch sensors formed on a rear surface of the mobile terminal; There is provided a mobile terminal control method including the step of executing a user interface displayed as a basis.

이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the terms described below are defined in consideration of the functions of the present invention, which may vary depending on the intention of the user, the operator, or the custom. Therefore, the definition should be based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 전개도이다.1 is an exploded view of a mobile terminal control apparatus 1 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 일 실시예에 따른 모바일 단말 제어장치(1)는 모바일 단말의 후면에 복수의 터치 센서(10)가 형성된다. 여기서 모바일 단말은 휴대 전화, 개인 휴대정보 단말기(PDA), MP3 플레이어, 휴대용 멀티미디어 플레이어(PMP) 등을 포함하며 이 외의 모바일 장치 또는 멀티미디어 재생 장치일 수 있다. 모바일 단말의 전면은 LCD(Liquid Crystal Display)와 같은 디스플레이 화면이 포함되며, 디스플레이 화면에 투명한 터치 센서가 배치될 수 있다.Referring to FIG. 1, a mobile terminal control apparatus 1 according to an embodiment of the present invention includes a plurality of touch sensors 10 formed on a rear surface of a mobile terminal. Here, the mobile terminal includes a mobile phone, a personal digital assistant (PDA), an MP3 player, a portable multimedia player (PMP), and the like, and may be a mobile device or a multimedia player. A front surface of the mobile terminal includes a display screen such as an LCD (Liquid Crystal Display), and a transparent touch sensor may be disposed on the display screen.

복수의 터치 센서(10)는 모바일 단말의 후면에 형성된다. 나아가 모바일 단말의 후면뿐만 아니라 측면에 형성될 수도 있다. 이때 복수의 터치 센서(10)는 모바일 단말의 후면 전 영역에 분포되는 그물망의 그리드(grid, 격자) 형태일 수 있다. 즉 도 1과 같이 터치 센서는 복수의 블록 모양으로 각 블록은 블록별로 사용자의 손가락 접촉 또는 접촉 변화를 인식할 수 있다.A plurality of touch sensors 10 are formed on the back surface of the mobile terminal. And may be formed on the back side as well as on the side of the mobile terminal. At this time, the plurality of touch sensors 10 may be in the form of a mesh grid distributed over the entire rear area of the mobile terminal. That is, as shown in FIG. 1, the touch sensor has a plurality of block shapes, and each block can recognize a user's finger contact or contact change for each block.

나아가 복수의 터치 센서(10)는 손가락 접촉에 따라 변화되는 압력을 감지하는 압력 터치 센서, 접촉에 따라 변화되는 정전용량을 감지하는 정전용량 터치 센서 등을 사용할 수 있다.Further, the plurality of touch sensors 10 may use a pressure touch sensor that senses a pressure that changes according to a finger touch, and a capacitive touch sensor that senses a capacitance that changes with touch.

이와 같이 복수의 터치 센서(10)가 모바일 단말의 전면에 형성되는 대신에 후면 또는 측면에 형성됨에 따라, 모바일 단말을 손으로 쥔 상태에서 사용자 인터페이스를 실행 또는 선택이 가능하다. 즉 사용자의 손가락 또는 포인팅 장치와 같은 터치 수단에 의해 모바일 단말의 화면의 일부가 가려져 가려진 영역을 보지 못하는 불편함 없이 모바일 단말을 사용할 수 있다. As described above, the plurality of touch sensors 10 are formed on the rear surface or the side surface instead of being formed on the front surface of the mobile terminal, so that the user interface can be executed or selected while holding the mobile terminal by hand. That is, the mobile terminal can be used without the inconvenience of not seeing an obscured area due to a part of the screen of the mobile terminal by a user's finger or a touching means such as a pointing device.

예를 들면 모바일 단말의 후면에 터치 센서가 없이 전면이 터치 스크린인 경우 사용자가 전면에 표시된 GUI(Graphic User Interface)를 터치하고자 한다면, 예를 들면 지도가 표시된 화면의 일부분에 지도의 확대/축소 등을 위한 GUI가 오버랩(overlap)되어 GUI가 오버랩된 부분의 지도가 가려져 그 부분을 파악하는데 어려움을 느낄 수 있다. For example, if a user touches a GUI (Graphic User Interface) displayed on the front surface of a mobile terminal without a touch sensor on the back of the mobile terminal, for example, The GUI for the GUI overlaps and the map of the overlapped part of the GUI may be obstructed and it may be difficult to grasp the part.

그러나 본 발명의 일 실시예에 따른 모바일 단말의 후면에 형성된 복수의 터치 센서를 이용하면 사용자가 모바일 단말을 쥐고 있는 손 자세를 유지한 상태에서 사용자 인터페이스의 유연한 제어가 가능하므로 위와 같은 불편함을 해소할 수 있다.However, by using a plurality of touch sensors formed on the rear surface of the mobile terminal according to an embodiment of the present invention, the user can flexibly control the user interface while maintaining the hand posture in which the user holds the mobile terminal, can do.

도 2는 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 구성도이다.2 is a configuration diagram of a mobile terminal control apparatus 1 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 복수의 터치 센서(10), 터치 인식부(20), 실행부(30) 및 디스플레이부(40)를 포함하며 나아가 저장부(50)를 더 포함할 수 있다.2, a mobile terminal control apparatus 1 according to an embodiment of the present invention includes a plurality of touch sensors 10, a touch recognition unit 20, an execution unit 30, and a display unit 40 And may further include a storage unit 50.

복수의 터치 센서(10)는 모바일 단말의 후면에 위치한다. 나아가 복수의 터치 센서(10)는 모바일 단말의 후면뿐만 아니라 측면에 형성될 수 있다. 이는 터치 센서(10)를 통해 감지되는 터치 영역이 증가함에 따라 터치되는 손가락의 분별을 더 용이하게 하기 위함이다.A plurality of touch sensors 10 are located on the back side of the mobile terminal. Further, the plurality of touch sensors 10 may be formed on the side surface as well as the rear surface of the mobile terminal. This is to facilitate discrimination of a finger to be touched as the touch region detected through the touch sensor 10 increases.

터치 인식부(20)는 모바일 단말의 후면 또는 측면에 형성된 복수의 터치 센서(10)를 통해 손가락의 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시한다. 이때 디스플레이부(40)를 통해 사용자 인터페이스를 표시할 수 있다. 사용자 인터페이스는 화면에 디스플레이될 수 있는 메뉴, 키(key), 숫자 데이터 또는 문자 데이터 또는 그림 데이터일 수 있다. 나아가 모바일 단말에 실행 가능한 응용 프로그램별로 특정 기능을 갖는 인터페이스, 예를 들면 기능 아이콘일 수도 있다. 한편 사용자 인터페이스는 전술한 인터페이스 이외에도 다양한 실시예가 가능하며 추후 등장할 수 있는 모든 인터페이스를 포함할 수 있다.The touch recognition unit 20 recognizes the touch of a finger through a plurality of touch sensors 10 formed on a rear surface or a side surface of the mobile terminal and displays a user interface on the front surface of the mobile terminal. At this time, the user interface can be displayed through the display unit 40. The user interface may be a menu, key, numerical data or character data or picture data which can be displayed on the screen. Further, it may be an interface having a specific function for each application program executable on the mobile terminal, for example, a function icon. Meanwhile, the user interface may include various interfaces in addition to the interfaces described above, and may include all interfaces that may appear in the future.

터치 인식부(20)는 모바일 단말의 후면에 위치한 복수의 터치 센서(10)로부터 사용자의 손가락의 터치를 감지하고 감지된 신호를 조합한다. 예를 들면 모바일 단말 후면에 블록 형태로 이루어진 복수의 터치 센서(10)를 통해 각 블록별로 손가락의 터치가 감지되면 'high' 신호를, 감지되지 않으면 'low' 신호를 출력할 수 있다. 여기서 'high' 신호를 '1'로 설정하고, 'low' 신호를 '0'으로 설정하여 각 블록별로 해당 비트를 조합하면 손가락의 터치 영역을 인식할 수 있다. 즉 각 비트들의 조합 결과가 '10001100'일 경우 '1'에 해당되는 영역에서 신호가 감지되었으며 터치 인식부(20)는 해당 영역에서 손가락의 터치가 이루어졌음을 인식할 수 있다.The touch recognition unit 20 senses the touch of a user's finger from a plurality of touch sensors 10 located at the rear side of the mobile terminal and combines the sensed signals. For example, a 'high' signal may be output when a touch of a finger is detected for each block through a plurality of touch sensors 10 formed in a block shape on the back side of the mobile terminal, and a 'low' signal may be output if the finger is not sensed. Here, the touch region of the finger can be recognized by setting the 'high' signal to '1' and the 'low' signal to '0' to combine the corresponding bits for each block. That is, when the combination result of each bit is '10001100', a signal is detected in the area corresponding to '1', and the touch recognition unit 20 can recognize that the finger is touched in the corresponding area.

한편 터치 인식부(20)는 인식된 손가락 터치 영역과 대응되는 모바일 단말의 전면에 사용자 인터페이스를 표시할 수 있다. 즉 인식되는 손가락 터치 영역의 분포에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 수를 설정할 수 있다. 이에 대한 상세한 설명은 도 3에서 후술한다.Meanwhile, the touch recognition unit 20 may display a user interface on the front of the mobile terminal corresponding to the recognized finger touch area. That is, the number of user interfaces displayed on the front of the mobile terminal can be set according to the distribution of the recognized finger touch area. A detailed description thereof will be described later with reference to FIG.

또한 터치 인식부(20)는 모바일 단말의 전면에 사용자 인터페이스가 모두 표시되지 못할 경우 추가로 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 나아가 터치 인식부(20)는 인식된 손가락의 형태에 해당되는 가이드 라인을 모바일 단말의 전면에 표시할 수 있다. 나아가 터치 인식부(20)는 실행중인 응용 프로그램에 따른 사용자 인터페이스를 모바일 단말의 전면에 표시할 수도 있다.In addition, if the user interface can not be displayed all over the front of the mobile terminal, the touch recognition unit 20 may display a user interface or a sub-user interface having a moving function on the front of the mobile terminal. Further, the touch recognition unit 20 can display a guide line corresponding to the recognized finger shape on the front side of the mobile terminal. Further, the touch recognition unit 20 may display a user interface according to an application program being executed on the front side of the mobile terminal.

한편 실행부(30)는 터치된 손가락의 터치 변화를 인식하여 인식된 결과를 기초로 화면에 표시된 사용자 인터페이스를 실행한다. 여기서 터치 변화는 터치 영역 변화, 강도 변화 또는 동작 변화를 포함할 수 있다.On the other hand, the execution unit 30 recognizes the touch change of the touched finger and executes the user interface displayed on the screen based on the recognized result. Here, the touch change may include a touch region change, a strength change, or a movement change.

부연하면, 실행부(30)가 터치된 손가락의 터치 영역 변화를 인식하는 경우 실행부(30)는 터치 센서(10)로부터 감지되는 신호 중 연속적으로 변하는 신호를 감지하며, 이때 신호가 감지된 영역으로 손가락 터치가 이동되었음을 인식할 수 있다. 또한 신호가 감지된 블록의 수를 인식할 수 있으므로 신호가 감지된 블록의 수에 따라 터치 영역의 크기를 인식할 수 있다.In addition, when the execution unit 30 recognizes the change of the touched area of the touched finger, the execution unit 30 senses a continuously changing signal among the signals sensed by the touch sensor 10, It is possible to recognize that the finger touch has been moved. Also, since the number of blocks in which signals are detected can be recognized, the size of the touch area can be recognized according to the number of blocks in which signals are detected.

실행부(30)가 손가락의 터치 강도 변화를 인식하는 경우 실행부(30)는 터치 센서(10)로부터 감지되는 터치 강도가 미리 설정된 값 이상일 경우 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행 또는 선택할 수 있다. 예를 들면 터치 강도가 미리 설정된 값인 문턱값(threshold)을 초과하면 사용자가 이에 해당되는 사용자 인터페이스를 선택한 것으로 인식하여 실행할 수 있다.When the execution unit 30 recognizes the change in touch strength of the finger, the execution unit 30 can execute or select the user interface displayed on the front side of the mobile terminal when the touch intensity detected from the touch sensor 10 is equal to or larger than a preset value have. For example, if the touch intensity exceeds a predetermined threshold value, the user can recognize that the user interface is selected and execute the user interface.

나아가 사용되는 문턱값은 2개 이상이 적용될 수 있다. 예를 들면 손가락이 배면에 접촉하고 있음과 손가락이 배면에 힘을 주고 누르고 있음을 터치 강도의 범위로 정의하여 2개의 문턱값을 사용할 수 있다. 이에 따라 2개의 문턱값에 따른 강도 변화에 따라 사용자 인터페이스의 선택 또는 실행 등의 동작을 제어할 수 있다.Further, two or more thresholds may be used. For example, two thresholds can be used, defining that the finger is touching the back surface and that the finger is pressing and pressing the back surface as the range of the touch strength. Accordingly, it is possible to control the operation such as selection or execution of the user interface according to the intensity change according to the two threshold values.

또한 실행부(30)는 터치된 손가락의 터치 동작 변화를 인식할 수 있다. 여기서 터치 동작 변화는 일반적인 모바일 장치를 조작할 때 사용될 수 있는 클릭(click), 탭(tab), 드래그(drag), 플릭(flick) 등의 동작일 수 있으나 그 외의 다양한 동작의 실시예가 가능하다. 클릭 및 탭은 터치된 손가락의 터치 강도 변화에 따른 동작일 수 있으며, 드래그는 터치 영역의 변화에 따른 동작일 수 있다. 동작 변화에 따른 실행부(30)의 사용자 인터페이스 실행에 대한 상세한 설명은 도 4에서 후술한다.The execution unit 30 can also recognize a change in the touch operation of the touched finger. Here, the touch operation change may be an operation such as a click, a tab, a drag, a flick, and the like which can be used when operating a general mobile device, but various other operation examples are possible. The clicks and tabs may be actions according to the change in the touch strength of the touched finger, and the drag may be actions according to the change in the touch area. A detailed description of the execution of the user interface of the execution unit 30 according to the change in operation will be described later with reference to FIG.

한편 실행부(30)는 인식된 손가락의 터치 변화를 보정하여 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행할 수 있다. 이는 모바일 단말의 후면에 터치되는 손가락의 터치 변화가 정확하게 이루어지지 않을 경우에도 이를 최적화하여 사용자가 의도한 대로 사용자 인터페이스를 선택 또는 실행할 수 있도록 하기 위함이다. 실행부(30)의 터치 변화 보정에 대한 상세한 설명은 도 6에서 후술한다.On the other hand, the execution unit 30 can execute the user interface displayed on the front side of the mobile terminal by correcting the touch change of the recognized finger. This is for the purpose of enabling the user to select or execute the user interface as intended by the user even if the touch change of the finger touching the back side of the mobile terminal is not accurately performed. Details of the touch change correction of the execution unit 30 will be described later with reference to FIG.

저장부(50)는 모바일 단말의 전면에 표시되는 사용자 인터페이스를 사용빈도 에 따라 등급별로 저장할 수 있다. 즉 각 사용자 인터페이스에 대한 실행 확률값을 저장할 수 있다. 이때 터치 인식부(20)는 저장부(50)에 저장된 사용자 인터페이스 중 확률값이 높은 사용자 인터페이스를 우선적으로 모바일 단말의 전면에 표시할 수 있다.The storage unit 50 may store the user interface displayed on the front side of the mobile terminal according to the frequency of use. That is, the execution probability value for each user interface can be stored. At this time, the touch recognition unit 20 can preferentially display a user interface having a high probability value among the user interfaces stored in the storage unit 50 on the front side of the mobile terminal.

도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스를 설명하기 위한 참조도이다.3 is a reference diagram for explaining a user interface according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 모바일 단말의 후면에 형성된 복수의 터치 센서(10)를 통해 손가락의 터치를 인식하며, 인식된 손가락 터치 영역과 대응되는 모바일 단말의 전면에 사용자 인터페이스를 표시할 수 있다.Referring to FIG. 3, the mobile terminal control apparatus 1 according to an embodiment of the present invention recognizes the touch of a finger through a plurality of touch sensors 10 formed on the rear side of the mobile terminal, The user interface can be displayed on the front side of the corresponding mobile terminal.

즉 인식되는 손가락 터치 영역의 분포에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 위치 및 수(number)를 설정할 수 있다. 예를 들면 도 3과 같이 모바일 단말의 후면의 오른쪽에 있어서 터치가 감지된 블록들의 집합인 블록 집단이 세 개이면, 모바일 단말 제어장치(1)는 사용자의 세 개의 손가락으로 모바일 단말을 잡고 있음을 인식할 수 있다. 이때 터치 인식부(20)는 모바일 단말의 후면에 터치가 감지된 세 개의 블록 집단과 대응되는 모바일 단말 전면의 오른쪽에 세 개의 사용자 인터페이스를 표시할 수 있다.That is, the position and the number of the user interface displayed on the front of the mobile terminal can be set according to the distribution of the recognized finger touch region. For example, as shown in FIG. 3, if there are three groups of blocks, which are a set of blocks sensed on the right side of the back side of the mobile terminal, the mobile terminal control unit 1 holds the mobile terminal with three fingers of the user Can be recognized. At this time, the touch recognition unit 20 can display three user interfaces on the right side of the front of the mobile terminal corresponding to the three block groups in which the touch is detected on the rear side of the mobile terminal.

구체적으로 모바일 단말의 후면에 손가락이 터치되는 영역의 x축 위치좌표의 평균값을 계산하여 모바일 단말의 전면에 적합한 위치에 사용자 인터페이스를 표시할 수 있다. 예를 들면 모바일 단말 후면의 오른쪽 영역에서 터치가 감지된 경우 모바일 단말의 오른쪽 가장자리에 사용자 인터페이스를 표시할 수 있다. 또한 모바일 단말의 전면에 사용자 인터페이스를 표시할 때 손가락들에 의해 모바일 단말에 터치되는 영역이 y축 좌표상으로 일치하지 않을 경우 이를 보정하여 모바일 단말의 전면에 표시되는 사용자 인터페이스를 y축 좌표상으로 일직선이 되도록 제어할 수 있다.Specifically, the user interface can be displayed at a suitable position on the front surface of the mobile terminal by calculating an average value of the x-axis position coordinates of the area where the finger is touched on the rear surface of the mobile terminal. For example, if a touch is detected in the right area of the back of the mobile terminal, the user interface may be displayed on the right edge of the mobile terminal. In addition, when the user interface is displayed on the front of the mobile terminal, when the area touched by the finger is not coincident with the y axis coordinate, the user interface displayed on the front side of the mobile terminal is displayed on the y axis coordinate It can be controlled to be a straight line.

나아가 사용자가 자주 사용하는 사용 빈도에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 종류, 위치 또는 수를 설정할 수 있다. 이를 위해 모바일 단말 제어장치(1)는 사용자의 사용 빈도에 따라 우선순위를 설정하고, 우선순위가 높은 순으로 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 더 나아가 사용자의 터치된 손가락의 수에 적합하게 우선순위 순으로 사용자 인터페이스를 표시할 수 있다. Furthermore, the type, position, or number of the user interface displayed on the front side of the mobile terminal can be set according to the frequently used frequency of the user. To this end, the mobile terminal control apparatus 1 sets priorities according to the frequency of use by the users, and displays the user interfaces on the front of the mobile terminal in the order of higher priority. Furthermore, the user interface can be displayed in order of priority according to the number of the user's touched fingers.

나아가 사용자의 터치되는 손가락의 수에 따라 모바일 단말의 전면에 표시되는 사용자 인터페이스의 수를 다르게 표시할 수 있다. 예를 들면 사용자가 손가락 한 개를 모바일 단말의 후면에서 띄었을 경우 터치가 감지되는 블록 집단은 2개가 될 것이며 모바일 단말 전면의 오른쪽에도 한 개가 감소된 두 개의 사용자 인터페이스가 표시될 수 있다.Furthermore, the number of user interfaces displayed on the front of the mobile terminal may be differently displayed according to the number of fingers to be touched by the user. For example, if a user fingers a finger on the back of the mobile terminal, the number of blocks to be touched will be two, and two user interfaces with one reduced on the right side of the front of the mobile terminal may be displayed.

나아가 모바일 단말의 전면에 표시되는 사용자 인터페이스의 개수에 따라 사용자 인터페이스의 크기를 다르게 설정할 수 있다. 또한 모바일 단말의 화면 크기 및 사양에 적합하도록 사용자 인터페이스의 수 또는 크기 변화의 제어가 가능하다.Furthermore, the size of the user interface can be set differently according to the number of user interfaces displayed on the front side of the mobile terminal. Also, it is possible to control the change in the number or size of the user interface to conform to the screen size and specification of the mobile terminal.

도 3을 요약하면 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 사 용자가 모바일 단말을 손으로 쥔 자세만으로 사용자 인터페이스를 모바일 단말의 전면에 표시되도록 할 수 있다. 나아가 사용자가 손가락의 최소화된 터치 변화를 통해 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행 또는 선택하도록 제어할 수 있다. 즉 사용자의 손 자세를 유지한 상태에서 모바일 단말을 잡고 있는 손가락 터치의 변화만으로도 유연하게 모바일 단말의 전면에 표시되는 사용자 인터페이스의 제어가 가능하다.3, the mobile terminal control apparatus 1 according to the embodiment of the present invention can display a user interface on the front side of the mobile terminal by only the attitude of the user holding the mobile terminal by hand. Further, the user can control to execute or select the user interface displayed on the front side of the mobile terminal through the minimized touch change of the finger. That is, it is possible to flexibly control the user interface displayed on the front of the mobile terminal by only changing the finger touch holding the mobile terminal while maintaining the hand posture of the user.

따라서 사용자는 간편하게 모바일 단말의 사용자 인터페이스를 실행 또는 선택할 수 있다. 나아가 사용자가 입력을 위해 손을 움직여야만 하는 불편함을 제거함과 동시에 정확한 입력이 가능하다. 예를 들면 모바일 단말의 후면이 복수의 터치 센서를 포함하지 않으며 전면이 터치 스크린일 경우, 사용자는 정확한 입력을 위해 손톱을 사용하거나 손가락을 조심스럽게 갖다 데는 등의 노력을 해야 하나, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 위와 같은 노력 없이도 편리한 사용자 인터페이스 제어가 가능하다.Thus, the user can easily execute or select the user interface of the mobile terminal. Furthermore, accurate input is possible while eliminating the inconvenience that users have to move their hands for input. For example, when the rear surface of the mobile terminal does not include a plurality of touch sensors and the front surface is a touch screen, the user must make efforts to use the fingernail or carefully take the fingers in order to input the accurate information. The mobile terminal control apparatus 1 according to the embodiment can perform a convenient user interface control without the above effort.

도 4는 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 모바일 단말 제어 예시도이다.4 is a diagram illustrating a mobile terminal control of the mobile terminal control apparatus 1 according to an embodiment of the present invention.

도 4를 참조하면, 실행부(30)는 사용자가 모바일 단말을 쥐고 있는 손 자세를 유지한 상태에서 터치된 손가락의 터치 동작 변화를 인식할 수 있다. 터치 동작 변화는 클릭(click), 탭(tab), 드래그(drag), 플릭(flick) 등의 동작일 수 있다. 부연하면 실행부(30)는 손가락 터치의 강도 변화를 클릭 또는 탭 동작으로 인식하여 이를 실행하도록 제어할 수 있다. 또한 손가락 터치의 영역 변화를 드래그 동작으로 인식하여 이를 실행하도록 제어할 수 있다.Referring to FIG. 4, the execution unit 30 may recognize a change in the touch operation of the touched finger while the user holds the hand held hand holding the mobile terminal. The change of the touch operation may be a click, a tab, a drag, a flick, and the like. The execution unit 30 can recognize that the change in the strength of the finger touch is recognized as a click or a tap operation and controls the execution. Also, it is possible to recognize that the area change of the finger touch is recognized as a drag operation and execute it.

예를 들면 도 4와 같이 손가락 터치에 따라 발생되는 연속된 신호가 모바일 단말 오른쪽 후면의 위쪽에서 아래쪽으로 변경된 경우, 실행부(30)는 오른쪽 손가락이 아래로 드래그 되었음을 인식하고, 해당 사용자 인터페이스를 전면의 오른쪽 위에서 아래로 이동시킬 수 있다.For example, when a continuous signal generated by the finger touch is changed from the upper side to the lower side of the right rear side of the mobile terminal as shown in FIG. 4, the execution unit 30 recognizes that the right finger is dragged down, From the upper right to the lower right.

또 다른 예로, 도 4와 같이 모바일 단말의 후면 오른쪽에 세 개의 손가락이 감지된 경우, 이어서 감지된 손가락들의 가운데에 해당되는 손가락을 통해 감지된 신호의 강도가 미리 설정된 문턱값을 초과하면 실행부(30)는 사용자의 가운데에 해당되는 손가락으로 압력이 가해졌음을 인식하고, 해당 사용자 인터페이스인 확대 메뉴 기능을 실행할 수 있다. 또는 가운데에 해당되는 손가락을 통해 감지된 신호가 짧은 시간동안 감지되지 않았다가 다시 감지되면 실행부(30)는 사용자가 가운데 손가락으로 클릭했음을 인식하고, 해당 사용자 인터페이스인 확대 메뉴 기능을 실행할 수 있다. As another example, when three fingers are detected on the rear right side of the mobile terminal as shown in FIG. 4, if the intensity of the signal detected through the finger corresponding to the middle of the detected fingers exceeds a predetermined threshold value, 30) recognizes the pressure applied by the finger corresponding to the middle of the user, and can execute the enlarged menu function corresponding to the user interface. Or if the signal detected through the middle finger is not detected for a short time and is detected again, the execution unit 30 recognizes that the user has clicked with the middle finger and can execute the enlarged menu function corresponding to the user interface.

한편 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)가 사용자의 터치 동작의 움직임을 인식하여 해당 사용자 인터페이스를 제어하는 방법은 전술한 방법 이 외에도 다양한 실시예가 가능하다. 또한 사용자 입력 동작은 전술한 클릭, 탭, 드래그 동작 이외의 일반적인 모바일 단말에서 실행되는 모든 사용자 입력 동작을 포함함은 당업자에 있어서 자명하다.Meanwhile, the mobile terminal control apparatus 1 according to an embodiment of the present invention can recognize the movement of the user's touch operation and control the corresponding user interface by various methods other than the above-described method. It should also be apparent to those skilled in the art that the user input operation includes all user input operations performed in a general mobile terminal other than the above-described click, tab, and drag operations.

이와 같이 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 사용자의 손 자세가 유지된 상태에서 간소화된 손가락의 이동만으로도 사용자 인터페이스를 제어할 수 있다. 이에 따라 모바일 단말 사용의 편의성이 증대될 수 있다. As described above, the mobile terminal control apparatus 1 according to the embodiment of the present invention can control the user interface by simply moving the simplified finger while maintaining the hand posture of the user. Accordingly, the convenience of using the mobile terminal can be increased.

또한 손가락별로 사용자 인터페이스를 제어할 수 있으므로 손가락별 역할 분담이 이루어져 효율적인 사용자 인터페이스 제어가 가능하다. 나아가 손을 떼서 화면에 표시된 사용자 인터페이스를 직접 선택 또는 실행할 필요가 없으므로 화면이 터치 수단, 예를 들면 손가락에 의해 얼룩지거나 더러워지는 오염 현상이 발생되는 것을 방지할 수 있다.In addition, since the user interface can be controlled by each finger, role sharing is performed for each finger, thereby enabling efficient user interface control. Further, since it is not necessary to manually select or execute the user interface displayed on the screen by releasing the hand, it is possible to prevent the screen from being stained or dirty by the touch means, for example, a finger.

도 5는 본 발명의 일 실시예에 따른 터치 강도별 터치 인식을 설명하기 위한 참조도이다.FIG. 5 is a reference view for explaining touch recognition by touch intensity according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 압력 감지 센서인 터치 센서를 통해 손가락의 터치 강도별로 해당되는 사용자 인터페이스의 제어를 다르게 할 수 있다. 예를 들면 도 5와 같이 문턱값이 2개인 경우, 터치 강도가 제1 문턱값을 초과하지 않은 경우는 터치가 이루어지지 않은 것으로 인식하고, 터치 강도가 제1 문턱값을 초과했으나 제2 문턱값을 초과하지 않은 경우는 손가락이 모바일 단말을 쥐고 있는 터치동작으로 인식하여 해당되는 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다.Referring to FIG. 5, the mobile terminal control apparatus 1 according to an embodiment of the present invention may control the corresponding user interface according to the touch intensity of a finger through a touch sensor as a pressure sensing sensor. For example, as shown in FIG. 5, when the threshold value is 2, when the touch intensity does not exceed the first threshold value, it is recognized that the touch is not made. If the touch intensity exceeds the first threshold value, The finger recognizes the finger as a touch operation holding the mobile terminal and displays the corresponding user interface on the front of the mobile terminal.

한편, 터치 강도가 제 2 문턱값을 초과하는 경우 모바일 단말 제어장치(1)는 사용자가 압력을 가했음을 인식하고, 이를 사용자 인터페이스의 클릭 동작으로 실행하도록 제어할 수 있다. 그러나 문턱값의 실시예는 전술한 2개의 문턱값 이외에 하나이거나 그 이상으로 설정될 수 있으며, 문턱값의 강도에 따라 사용자 인터페이스의 동작 제어를 다르게 설정할 수도 있다.On the other hand, when the touch strength exceeds the second threshold value, the mobile terminal control apparatus 1 can recognize that the user has applied the pressure, and can control the user terminal to perform the click operation of the user interface. However, the embodiment of the threshold value may be set to one or more than the above two threshold values, and the operation control of the user interface may be set differently according to the intensity of the threshold value.

도 6은 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)의 터치 변화 보정의 예를 도시한다.6 shows an example of touch change correction of the mobile terminal control apparatus 1 according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 인식된 손가락의 터치 변화를 보정할 수 있다. 일반적으로 사용자가 모바일 단말을 손으로 쥐고 있는 상태에서 사용자의 터치 변화는 사용자가 의도한 대로 발생되지 않는다. 예를 들면 사용자의 동작은 의도했던 정확한 지점으로 형성되지 않거나 직선 운동으로 발생되지 않는 등 정밀성이 떨어질 수 있다.Referring to FIG. 6, the mobile terminal control apparatus 1 according to an embodiment of the present invention can correct a touch change of a recognized finger. Generally, when the user holds the mobile terminal by hand, the touch change of the user does not occur as intended by the user. For example, the motion of the user may not be formed at the exact point that is intended, or may not be precise due to the fact that it is not caused by linear motion.

그러나 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 사용자로부터 발생한 신호를 조작에 용이한 위치 및 크기에 적합하게 변형할 수 있다. 예를 들면 도 6과 같이 사용자가 스크롤 동작을 행하는 경우 실제로는 비스듬한 벡터가 발생하여도 이를 수직 벡터로 변형할 수 있다. However, the mobile terminal control apparatus 1 according to an embodiment of the present invention can modify a signal generated by a user to an appropriate position and size for easy manipulation. For example, when a user performs a scroll operation as shown in FIG. 6, even if an oblique vector actually occurs, it can be transformed into a vertical vector.

또 따른 예로, 도 6과 같이 사용자가 특정 지점을 터치하는 경우 터치된 특정 지점의 일정 범위 내에 해당되는 사용자 인터페이스의 터치로 인식하여 해당되는 사용자 인터페이스를 선택하도록 제어할 수 있다. 구체적으로 터치되는 손가락의 위치와 전면에 표시된 메뉴의 위치가 일치하지 않은 경우 터치된 손가락의 각 지점에 대해서 주변의 메뉴들과의 거리를 계산하여 가장 근접하게 위치하는 메뉴를 선택하여 해당 메뉴를 선택하도록 제어할 수 있다.As another example, when a user touches a specific point as shown in FIG. 6, the user can recognize that the corresponding user interface is selected by recognizing the user interface within a certain range of a specific point touched. Specifically, when the position of the finger being touched does not match the position of the menu displayed on the front side, the distance to the surrounding menus is calculated with respect to each point of the touched finger, and a menu positioned closest to the user is selected. .

이 경우 사용자는 추가적으로 포인팅을 맞추는 노력 없이도 사용자 인터페이스를 선택할 수 있다. 특히 작업 공간이 넓지 않거나 이동중인 경우에 정확한 포인터의 이동 또는 선택을 위한 노력 없이 간단한 손가락 움직임 동작만으로도 사용 자 인터페이스를 원활하게 제어할 수 있다.In this case, the user can select the user interface without further effort to adjust the pointing. In particular, when the work space is not wide or on the move, the user interface can be smoothly controlled with only a simple finger movement operation without an effort to move or select an accurate pointer.

또 다른 예로 사용자가 일정 영역 내에서 드래그 동작을 실행하는 경우 실제로 드래그한 영역보다 크거나 작게 입력 신호를 보정할 수 있다. 예를 들면 도 6과 같이 사용자의 드래그 동작은 작거나 정확하지 않지만 모바일 단말 제어장치(1)는 바탕화면의 줄 간격 맞춤 등의 보정 기능을 통해 해당되는 사용자 인터페이스가 사용자의 의도대로 이동되도록 제어할 수 있다.As another example, when the user performs a drag operation within a certain area, the input signal can be corrected to be larger or smaller than the area actually dragged. For example, as shown in FIG. 6, the drag operation of the user is small or inaccurate, but the mobile terminal control device 1 controls the corresponding user interface to be moved according to the user's intention through a correction function such as line interval alignment of the desktop .

이에 따라 사용자의 입력 과정이 최적화될 수 있다. 즉 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 부정확하거나 정밀성이 떨어지는 사용자의 입력 동작을 상황에 맞게 보정하므로 사용자의 입력 로드를 줄일 수 있다. 또한 모바일 단말의 전면의 화면을 통해 사용자가 입력한 대로 출력되는 것이 아니라 보정이 이루어지므로 출력 과정 또한 최적화될 수 있다. 한편 사용자의 입력 과정 및 출력 과정의 최적화 방법은 전술한 방법 이외에도 다양한 실시예가 가능하다.Thus, the input process of the user can be optimized. That is, the mobile terminal control apparatus 1 according to an embodiment of the present invention can reduce the input load of the user by correcting the input operation of the user who is inaccurate or less accurate. In addition, the output process can be optimized since the correction is performed instead of being output as the user inputs through the screen on the front side of the mobile terminal. On the other hand, the method of optimizing the input process and the output process of the user can be various embodiments other than the above-described method.

도 7은 본 발명의 일 실시예에 따른 추가 사용자 인터페이스를 설명하기 위한 참조도이다.7 is a reference diagram for explaining an additional user interface according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 복수의 터치 센서를 통해 손가락의 터치를 인식하여 모바일 단말의 전면에 사용자 인터페이스를 표시할 때, 인식 결과 모바일 단말의 전면에 사용자 인터페이스가 모두 표시되지 못하면 추가 사용자 인터페이스를 화면에 표시할 수 있다. 즉 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. Referring to FIG. 7, the mobile terminal control apparatus 1 according to an embodiment of the present invention recognizes a touch of a finger through a plurality of touch sensors and displays a user interface on a front surface of the mobile terminal. The user interface can be displayed on the screen. That is, a user interface or a sub-user interface having a moving function can be displayed on the front of the mobile terminal.

예를 들면 도 7과 같이 상하 이동 기능을 갖는 메뉴 키를 화면에 표시할 수 있다. 이 경우 사용자가 위로 이동되는 기능을 갖는 메뉴 키를 클릭 동작으로 선택하면 모바일 단말 제어장치(1)는 모바일 단말의 전면에 표시되지 못한 사용자 인터페이스를 추가로 화면에 표시할 수 있다.For example, as shown in FIG. 7, a menu key having a vertical movement function can be displayed on the screen. In this case, if the user selects the menu key having the function of moving up, the mobile terminal control device 1 can additionally display a user interface that can not be displayed on the front side of the mobile terminal.

이에 따라 사용자 인터페이스, 예를 들면 메뉴의 검색이 가능하다. 여기서 사용자 인터페이스의 실행은 사용자가 손 자세를 유지한 상태에서 손가락의 압력을 높이거나 손가락을 떼었다가 다시 접촉하는 동작을 통해 이루어질 수 있다.Thus, a user interface, for example, a menu can be searched. Here, the execution of the user interface can be accomplished by increasing the pressure of the finger while the user maintains the hand posture, or by releasing the finger and then touching again.

나아가 추가 사용자 인터페이스를 통해 모든 사용자 인터페이스를 모바일 단말의 전면에 표시하지 않아도 되므로, 화면의 디자인 구성이 단순화되므로 사용자 인터페이스 때문에 화면이 가릴 수 있는 현상을 차단할 수 있으며 단순한 사용자 인터페이스 구성으로 인한 편리한 조작이 가능하다.Furthermore, since all user interfaces need not be displayed on the front side of the mobile terminal through the additional user interface, the design configuration of the screen is simplified, thereby preventing the screen from being clogged due to the user interface. Do.

도 8은 본 발명의 일 실시예에 따른 가이드 라인을 설명하기 위한 참조도이다.8 is a reference diagram for explaining a guideline according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 인식된 손가락의 형태에 해당되는 가이드 라인을 모바일 단말의 전면에 표시할 수 있다. 예를 들면 복수의 터치 센서를 통해 신호가 감지된 접촉 영역 집단이 세 개일 경우, 이에 대응되는 모바일 단말의 전면의 위치에 해당되는 영역에 손가락의 외곽선 모양을 가이드 라인 형태로 표시할 수 있다. 이에 따라 사용자는 모바일 단말의 후면을 쥐고 있는 손 자세를 화면을 통해 확인할 수 있으므로 가이드 라인이 없을 경우에 비하여 더 정확한 사용자 인터페이스 입력이 가능하다.Referring to FIG. 8, the mobile terminal control apparatus 1 according to an embodiment of the present invention can display a guide line corresponding to the recognized finger shape on the front side of the mobile terminal. For example, when there are three contact area groups in which a signal is detected through a plurality of touch sensors, the outline shape of the finger may be displayed in a guide line shape in an area corresponding to the position of the front surface of the mobile terminal. Accordingly, since the user can confirm the hand posture holding the rear side of the mobile terminal through the screen, more accurate user interface input is possible than when there is no guideline.

도 9는 본 발명의 일 실시예에 따른 응용 프로그램별 사용자 인터페이스를 설명하기 위한 참조도이다.9 is a reference diagram for explaining a user interface for each application program according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시예에 따른 모바일 단말 제어장치(1)는 실행중인 응용 프로그램에 따른 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 예를 들면 도 9와 같이 응용 프로그램이 전자 도서(Electronic book, E-book)일 경우 사용자 인터페이스는 상하 스크롤 또는 좌우 스크롤 메뉴 키가 포함될 수 있다. 이 경우 상하 스크롤 메뉴 키는 페이지 pre/next 기능에 해당되는 키다. 나아가 사용자가 글을 읽는 경우에는 화면에 메뉴 키가 보여지지 않고, 필요에 따라 사용자가 배면을 터치하면 메뉴 키가 제공되어 조작될 수 있다.Referring to FIG. 9, the mobile terminal control apparatus 1 according to an embodiment of the present invention can display a user interface according to a running application program on the front side of the mobile terminal. For example, if the application program is an electronic book (E-book) as shown in FIG. 9, the user interface may include an up-down scroll or a left-right scroll menu key. In this case, the up / down scroll menu key corresponds to the page pre / next function. Furthermore, when the user reads the text, the menu key is not displayed on the screen. If the user touches the back face as needed, the menu key can be provided and operated.

또 다른 예로 응용 프로그램이 길 찾기 프로그램일 경우 영역 확대, 거리 계산, 면적 계산, 빠른 길 선택에 해당되는 메뉴 키 등의 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 나아가 응용 프로그램별 사용자 인터페이스는 메뉴뿐만 아니라 키, 숫자 데이터 또는 문자 데이터, 그림 데이터일 수 있다. 더 나아가 모바일 단말의 전면에 표시되는 사용자 인터페이스는 응용 프로그램별로 모바일 단말의 특성에 적합하도록 재구성 또는 최소화될 수 있다.As another example, if the application program is a route search program, a user interface such as area enlargement, distance calculation, area calculation, and menu key corresponding to fast route selection can be displayed on the front of the mobile terminal. Further, the application-specific user interface may be not only a menu but also a key, numeric data, character data, and picture data. Furthermore, the user interface displayed on the front side of the mobile terminal can be reconfigured or minimized to fit the characteristics of the mobile terminal for each application program.

한편 모바일 단말 제어장치(1)는 저장부(50)를 통해 사용자 인터페이스를 각 응용 프로그램별로 사용빈도에 따라 등급별로 저장할 수 있다. 이때 터치 인식부(20)는 저장부(50)에 저장된 사용자 인터페이스를 모바일 단말의 전면에 표시하며, 모든 사용자 인터페이스를 표시하지 못할 경우는 도 8과 같이 추가 선택 기능을 갖는 사용자 인터페이스를 화면에 표시할 수 있다.On the other hand, the mobile terminal control apparatus 1 can store the user interface for each application program according to the usage frequency through the storage unit 50 for each class. At this time, the touch recognition unit 20 displays the user interface stored in the storage unit 50 on the front of the mobile terminal. If the user interface can not be displayed, the user interface having the additional selection function is displayed on the screen can do.

도 10은 본 발명의 일 실시예에 따른 모바일 단말 제어방법을 도시한 흐름도이다.10 is a flowchart illustrating a mobile terminal control method according to an embodiment of the present invention.

도 10을 참조하면, 모바일 단말 제어장치(1)는 모바일 단말의 후면에 형성된 복수의 터치 센서(10)를 통해 손가락의 터치를 인식한다(S100). 여기서 복수의 터치 센서(10)는 신호 발생 유무를 인식하는 그리드 형태일 수 있다. 또한 손가락 접촉에 따라 변화되는 압력을 감지하는 압력 터치 센서, 접촉에 따라 변화되는 정전용량을 감지하는 정전용량 터치 센서를 포함할 수 있다.Referring to FIG. 10, the mobile terminal control apparatus 1 recognizes the touch of a finger through a plurality of touch sensors 10 formed on the rear surface of the mobile terminal (S100). Here, the plurality of touch sensors 10 may be in the form of a grid for recognizing whether a signal is generated or not. A pressure touch sensor that senses a pressure that changes with finger contact, and a capacitive touch sensor that senses a capacitance that changes with a touch.

이어서 모바일 단말 제어장치(1)는 인식된 결과에 기초하여 모바일 단말의 전면에 사용자 인터페이스를 표시한다(S110). 사용자 인터페이스는 메뉴, 키, 숫자 데이터 또는 문자 데이터, 그림 데이터일 수 있다. 이때 인식된 터치 영역과 대응되는 모바일 단말의 전면에 사용자 인터페이스를 표시할 수 있다. 나아가 인식 결과 모바일 단말의 전면에 사용자 인터페이스가 모두 표시되지 못할 경우 추가로 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 모바일 단말의 전면에 표시할 수 있다. 나아가 인식된 손가락의 형태에 해당되는 가이드 라인을 모바일 단말의 전면에 표시할 수 있다.Subsequently, the mobile terminal control apparatus 1 displays the user interface on the front side of the mobile terminal based on the recognized result (S110). The user interface may be a menu, a key, numerical data or character data, or picture data. At this time, the user interface may be displayed on the front of the mobile terminal corresponding to the recognized touch area. Furthermore, if the user interface can not be displayed on the front of the mobile terminal, the user interface or the sub-user interface having the movement function can be displayed on the front of the mobile terminal. Furthermore, a guide line corresponding to the recognized finger shape can be displayed on the front of the mobile terminal.

그리고, 모바일 단말 제어장치(1)는 터치된 손가락의 터치 변화를 인식한다(S120). 여기서 손가락의 터치 변화는 터치 영역 변화, 강도 변화 또는 동작 변화일 수 있다. 즉 복수의 터치 센서로부터 변화되는 신호를 통해 터치 영역의 변화를 인식할 수 있다. 또는 복수의 터치 센서를 통해 인식된 손가락의 터치 강도가 미리 설정된 값을 초과했는지의 여부를 인식할 수 있다.Then, the mobile terminal control apparatus 1 recognizes the touch change of the touched finger (S120). Here, the touch change of the finger may be a touch region change, a strength change, or an operation change. That is, the change of the touch region can be recognized through the signals changed from the plurality of touch sensors. Or whether or not the touch strength of the finger recognized through the plurality of touch sensors exceeds a preset value.

모바일 단말 제어장치(1)는 인식된 결과를 기초로 사용자 인터페이스를 실행한다(S130). 이때 실행 동작은 클릭, 드래그, 탭, 플릭 등일 수 있다. 부연하면 클릭 및 탭은 터치된 손가락의 터치 강도 변화에 따른 동작일 수 있으며, 드래그는 터치 영역의 변화에 따른 동작일 수 있다.The mobile terminal control apparatus 1 executes the user interface based on the recognized result (S130). At this time, the execution action may be click, drag, tap, flick, and the like. In addition, the clicks and tabs may be actions according to the change of the touch strength of the touched finger, and the drag may be the action corresponding to the change of the touch region.

나아가 모바일 단말 제어장치(1)는 인식된 손가락의 터치 변화를 보정하여 모바일 단말의 전면에 표시된 사용자 인터페이스를 실행할 수 있다. 즉 부정확하거나 최소화된 사용자의 입력 동작을 상황에 맞게 보정하여 사용자의 입력 로드를 줄일 수 있다. 또한 모바일 단말의 전면의 화면을 통해 사용자가 입력한 대로 출력되는 것이 아니라 보정이 이루어져 출력 과정 또한 최적화될 수 있다.Furthermore, the mobile terminal control apparatus 1 can execute the user interface displayed on the front side of the mobile terminal by correcting the touch change of the recognized finger. That is, the input load of the user can be reduced by correcting the input operation of the incorrect or minimized user according to the situation. Also, the output process may be optimized by not performing the output as the user inputs through the screen on the front side of the mobile terminal but by performing the correction.

요약하면 본 발명의 일 실시예에 따른 모바일 단말 제어장치를 이용하여 화면을 가리지 않으면서도 편리하게 모바일 단말의 사용자 인터페이스를 제어할 수 있다. 즉 사용자의 손 자세가 유지된 상태에서 최소화된 손가락의 이동으로 사용자 인터페이스를 제어할 수 있다. 이에 따라 모바일 단말 사용의 편의성이 증대될 수 있다. In summary, it is possible to conveniently control the user interface of the mobile terminal without blocking the screen using the mobile terminal control apparatus according to an embodiment of the present invention. That is, the user interface can be controlled by moving the minimized finger while maintaining the hand posture of the user. Accordingly, the convenience of using the mobile terminal can be increased.

나아가 손가락별로 사용자 인터페이스를 제어할 수 있으므로 손가락별 역할 분담이 이루어져 효율적인 사용자 인터페이스 제어가 가능하다. 또한 손을 떼서 화면에 표시된 사용자 인터페이스를 직접 선택 또는 실행할 필요가 없으므로 화면이 터치 수단, 예를 들면 손가락에 의한 반복적인 터치로 인해 화면이 얼룩지거나 더러워지는 오염을 방지할 수 있다.Furthermore, since the user interface can be controlled by each finger, role sharing is performed for each finger, thereby enabling efficient user interface control. In addition, since the user does not have to manually release or execute the user interface displayed on the screen, it is possible to prevent contamination of the screen by the touch means, for example, repetitive touching by the finger on the screen.

더 나아가 인식된 손가락의 터치 변화를 보정할 수 있으므로 사용자의 입력 과정이 최적화될 수 있다. 즉 부정확하거나 최소화된 사용자의 입력 동작이 상황에 맞게 보정되므로 사용자의 입력 로드를 줄일 수 있다. 또한 모바일 단말의 전면의 화면을 통해 사용자가 입력한 대로 그래도 출력되는 것이 아니라 보정이 이루어지므로 출력 과정 또한 최적화될 수 있다.Furthermore, since the touch change of the recognized finger can be corrected, the input process of the user can be optimized. That is, since the input operation of an incorrect or minimized user is corrected according to the situation, the input load of the user can be reduced. In addition, the output process can be optimized since the correction is performed instead of being output as though the user input the screen through the screen on the front of the mobile terminal.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

도 1은 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 전개도이다.1 is an exploded view of a mobile terminal control apparatus according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 구성도이다.2 is a configuration diagram of a mobile terminal control apparatus according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스를 설명하기 위한 참조도이다.3 is a reference diagram for explaining a user interface according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 모바일 단말 제어 예시도이다.4 is a diagram illustrating a mobile terminal control of a mobile terminal control apparatus according to an exemplary embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 터치 강도별 터치 인식을 설명하기 위한 참조도이다.FIG. 5 is a reference view for explaining touch recognition by touch intensity according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 모바일 단말 제어장치의 터치 변화 보정의 예시도이다.6 is an exemplary diagram of touch change correction of a mobile terminal control apparatus according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 추가 사용자 인터페이스를 설명하기 위한 참조도이다.7 is a reference diagram for explaining an additional user interface according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 가이드 라인을 설명하기 위한 참조도이다.8 is a reference diagram for explaining a guideline according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따른 응용 프로그램별 사용자 인터페이스를 설명하기 위한 참조도이다.9 is a reference diagram for explaining a user interface for each application program according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 모바일 단말 제어방법을 도시한 흐름도이다.10 is a flowchart illustrating a mobile terminal control method according to an embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명>Description of the Related Art

1 : 모바일 단말 제어장치 10 : 터치 센서1: mobile terminal control device 10: touch sensor

20 : 터치 인식부 30 : 실행부20: touch recognition unit 30: execution unit

40 : 디스플레이부 50 : 저장부40: display unit 50: storage unit

Claims (17)

모바일 단말의 후면에 형성된 복수의 터치 센서;A plurality of touch sensors formed on a rear surface of the mobile terminal; 상기 복수의 터치 센서를 통해 손가락 터치를 인식하여 상기 모바일 단말의 전면에 사용자 인터페이스를 표시하는 터치 인식부; 및A touch recognition unit for recognizing a finger touch through the plurality of touch sensors and displaying a user interface on a front surface of the mobile terminal; And 상기 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 상기 표시된 사용자 인터페이스를 실행하되, 상기 인식된 손가락 터치의 변화를 보정하여 상기 표시된 사용자 인터페이스를 실행하는 실행부를 포함하는 모바일 단말 제어장치.And an execution unit for executing the displayed user interface based on the recognition result of the recognition of the change of the recognized finger touch and executing the displayed user interface by correcting the recognized change of the finger touch. 제 1 항에 있어서,The method according to claim 1, 상기 손가락 터치의 변화는 터치 영역 변화, 강도 변화 또는 동작 변화를 포함하는 모바일 단말 제어장치.Wherein the change of the finger touch includes a touch region change, a strength change, or a movement change. 제 1 항에 있어서,The method according to claim 1, 상기 실행부는 상기 복수의 터치 센서로부터 신호 발생을 인식하여 상기 신호가 발생된 영역의 변화에 따라 상기 표시된 사용자 인터페이스를 실행하는 모바일 단말 제어장치.Wherein the execution unit recognizes a signal generation from the plurality of touch sensors and executes the displayed user interface according to a change in the area where the signal is generated. 제 1 항에 있어서,The method according to claim 1, 상기 실행부는 상기 인식된 손가락 터치의 강도가 미리 설정된 값 이상일 경우 상기 표시된 사용자 인터페이스를 실행하는 모바일 단말 제어장치.Wherein the execution unit executes the displayed user interface when the strength of the recognized finger touch is equal to or greater than a preset value. 삭제delete 제 1 항에 있어서,The method according to claim 1, 상기 터치 인식부는 상기 모바일 단말의 전면 중 상기 인식된 손가락 터치 영역과 대응되는 영역에 상기 사용자 인터페이스를 표시하는 모바일 단말 제어장치.Wherein the touch recognition unit displays the user interface on an area corresponding to the recognized finger touch area of the front face of the mobile terminal. 제 1 항에 있어서,The method according to claim 1, 상기 터치 인식부는 상기 인식 결과 상기 모바일 단말의 전면에 상기 사용자 인터페이스가 모두 표시되지 못할 경우 추가로 이동 기능을 갖는 사용자 인터페이스 또는 서브 사용자 인터페이스를 상기 모바일 단말의 전면에 표시하는 모바일 단말 제어장치.Wherein the touch recognition unit displays a user interface or a sub-user interface having a movement function on the front side of the mobile terminal when the user interface can not be displayed on the front side of the mobile terminal as a result of the recognition. 제 1 항에 있어서,The method according to claim 1, 상기 터치 인식부는 상기 인식된 손가락의 형태에 해당되는 가이드 라인을 상기 모바일 단말의 전면에 표시하는 모바일 단말 제어장치.Wherein the touch recognition unit displays a guide line corresponding to a shape of the recognized finger on the front side of the mobile terminal. 제 1 항에 있어서, The method according to claim 1, 상기 사용자 인터페이스를 사용빈도에 따라 등급별로 저장하는 저장부를 더 포함하며,And a storage unit for storing the user interface according to the frequency of use, 상기 터치 인식부는 상기 저장부에 저장된 사용자 인터페이스를 상기 등급에 따라 상기 모바일 단말의 전면에 표시하는 모바일 단말 제어장치.Wherein the touch recognition unit displays the user interface stored in the storage unit on the front side of the mobile terminal according to the class. 제 1 항에 있어서,The method according to claim 1, 상기 복수의 터치 센서는 상기 모바일 단말의 후면 및 측면에 형성되는 모바일 단말 제어장치.Wherein the plurality of touch sensors are formed on a rear surface and a side surface of the mobile terminal. 제 1 항에 있어서,The method according to claim 1, 상기 복수의 터치 센서는 신호 발생 유무를 인식하는 그리드 형태인 모바일 단말 제어장치.Wherein the plurality of touch sensors are in the form of a grid for recognizing the presence or absence of signal generation. 모바일 단말 제어방법에 있어서,A method for controlling a mobile terminal, (a) 모바일 단말의 후면에 형성된 복수의 터치 센서를 통해 손가락 터치를 인식하여 상기 모바일 단말의 전면에 사용자 인터페이스를 표시하는 단계; 및(a) displaying a user interface on a front surface of the mobile terminal by recognizing a finger touch through a plurality of touch sensors formed on a rear surface of the mobile terminal; And (b) 상기 인식된 손가락 터치의 변화를 인식하여 인식된 결과를 기초로 상기 표시된 사용자 인터페이스를 실행하되, 상기 인식된 손가락 터치의 변화를 보정하여 상기 표시된 사용자 인터페이스를 실행하는 단계를 포함하는 모바일 단말 제어방법.(b) executing the displayed user interface by recognizing a change in the recognized finger touch and correcting a change in the recognized finger touch, and executing the displayed user interface Control method. 제 12 항에 있어서, 상기 (b) 단계는13. The method of claim 12, wherein step (b) (b1) 상기 인식된 손가락의 터치 영역 변화, 강도 변화 또는 동작 변화 중 적어도 하나를 인식하는 단계; 및(b1) recognizing at least one of a touch region change, a strength change or an operation change of the recognized finger; And (b2) 상기 인식된 결과를 기초로 상기 표시된 사용자 인터페이스를 실행하는 단계를 포함하는 모바일 단말 제어방법.(b2) executing the displayed user interface based on the recognized result. 제 13 항에 있어서,14. The method of claim 13, 상기 (b2) 단계는 상기 복수의 터치 센서로부터 인식된 신호 발생 영역의 변화에 따라 상기 표시된 사용자 인터페이스를 실행하는 모바일 단말 제어방법.Wherein the step (b2) executes the displayed user interface according to a change in the signal generation area recognized by the plurality of touch sensors. 제 13 항에 있어서,14. The method of claim 13, 상기 (b2) 단계는 상기 인식된 손가락 터치의 강도가 미리 설정된 값 이상일 경우 상기 표시된 사용자 인터페이스를 실행하는 모바일 단말 제어방법.Wherein the step (b2) executes the displayed user interface when the strength of the recognized finger touch is equal to or greater than a preset value. 삭제delete 제 12 항에 있어서, 상기 (a) 단계는 13. The method of claim 12, wherein step (a) (a1) 상기 복수의 터치 센서를 통해 상기 손가락의 터치 영역을 인식하는 단계; 및(a1) recognizing a touch region of the finger through the plurality of touch sensors; And (a2) 상기 인식된 결과에 기초하여 상기 손가락의 터치 영역과 대응되는 상기 모바일 단말의 전면에 상기 사용자 인터페이스를 표시하는 단계를 포함하는 모바일 단말 제어방법.(a2) displaying the user interface on the front side of the mobile terminal corresponding to the touch region of the finger based on the recognized result.
KR1020080012335A 2008-02-11 2008-02-11 Mobile terminal control device and method thereof Active KR101467513B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080012335A KR101467513B1 (en) 2008-02-11 2008-02-11 Mobile terminal control device and method thereof
US12/222,451 US9060068B2 (en) 2008-02-11 2008-08-08 Apparatus and method for controlling mobile terminal user interface execution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080012335A KR101467513B1 (en) 2008-02-11 2008-02-11 Mobile terminal control device and method thereof

Publications (2)

Publication Number Publication Date
KR20090086842A KR20090086842A (en) 2009-08-14
KR101467513B1 true KR101467513B1 (en) 2014-12-01

Family

ID=40938483

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080012335A Active KR101467513B1 (en) 2008-02-11 2008-02-11 Mobile terminal control device and method thereof

Country Status (2)

Country Link
US (1) US9060068B2 (en)
KR (1) KR101467513B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132643A1 (en) * 2022-01-05 2023-07-13 Samsung Electronics Co., Ltd. Method and electronic device for providing control functionality of display

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200925957A (en) * 2007-12-14 2009-06-16 Htc Corp Function switch methods and systems, and machine readable medium thereof
KR101592296B1 (en) * 2008-09-03 2016-02-05 엘지전자 주식회사 Mobile terminal and its object selection and execution method
KR101598078B1 (en) * 2008-10-06 2016-02-29 삼성전자주식회사 Input device using piezoelectric sensor and its operating method
USD619985S1 (en) * 2009-03-17 2010-07-20 Lg Electronics Inc. Mobile phone
KR20110013606A (en) * 2009-08-03 2011-02-10 엘지전자 주식회사 Menu execution method in mobile communication terminal and mobile communication terminal applying same
KR101613619B1 (en) * 2009-11-30 2016-04-29 삼성전자주식회사 A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
USD641332S1 (en) * 2010-01-06 2011-07-12 Sony Ericsson Mobile Communications Ab Mobile phone
TW201128478A (en) * 2010-02-12 2011-08-16 Novatek Microelectronics Corp Touch sensing method and system using the same
WO2011099361A1 (en) * 2010-02-15 2011-08-18 京セラ株式会社 Electronic device
USD640662S1 (en) * 2010-04-14 2011-06-28 Lg Electronics Inc. Mobile phone
USD633467S1 (en) * 2010-05-14 2011-03-01 Samsung Electronics Co., Ltd. Mobile phone
USD635113S1 (en) * 2010-05-14 2011-03-29 Samsung Electronics Co., Ltd. Mobile phone
USD635541S1 (en) * 2010-05-14 2011-04-05 Samsung Electronics Co., Ltd. Mobile phone
US8698764B1 (en) * 2010-06-30 2014-04-15 Amazon Technologies, Inc. Dorsal touch input
JP5959797B2 (en) * 2010-09-28 2016-08-02 京セラ株式会社 Input device and control method of input device
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
US9244604B1 (en) 2010-11-05 2016-01-26 Amazon Technologies, Inc. Adaptive touch sensor interface
USD648300S1 (en) * 2011-01-14 2011-11-08 Samsung Electronics Co., Ltd. Mobile phone
USD659664S1 (en) * 2011-01-18 2012-05-15 Samsung Electronics Co., Ltd. Mobile phone
USD653228S1 (en) * 2011-01-18 2012-01-31 Samsung Electronics Co., Ltd. Mobile phone
WO2012108213A1 (en) * 2011-02-10 2012-08-16 京セラ株式会社 Input device
US8599158B2 (en) * 2011-06-29 2013-12-03 Nokia Corporation Multi-surface touch sensitive apparatus and method
KR101336709B1 (en) * 2011-10-25 2013-12-04 엘지전자 주식회사 Mobile terminal and operation control method using back cover touch thereof
USD687799S1 (en) * 2011-11-30 2013-08-13 Lg Electronics Inc. Mobile phone
USD698770S1 (en) * 2012-01-06 2014-02-04 Samsung Electronics Co., Ltd. Electronic device
USD706234S1 (en) * 2012-01-06 2014-06-03 Samsung Electronics Co., Ltd. Electronic device
USD698771S1 (en) * 2012-01-06 2014-02-04 Samsung Electronics Co., Ltd. Electronic device
USD681594S1 (en) * 2012-01-11 2013-05-07 Samsung Electronics Co., Ltd. Mobile communication terminal
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6002836B2 (en) 2012-05-09 2016-10-05 アップル インコーポレイテッド Device, method, and graphical user interface for transitioning between display states in response to a gesture
CN105260049B (en) 2012-05-09 2018-10-23 苹果公司 For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user
CN106201316B (en) 2012-05-09 2020-09-29 苹果公司 Apparatus, method and graphical user interface for selecting user interface objects
EP3185116B1 (en) 2012-05-09 2019-09-11 Apple Inc. Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
USD700902S1 (en) * 2012-05-24 2014-03-11 Samsung Electronics Co., Ltd. Mobile phone
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102301592B1 (en) 2012-12-29 2021-09-10 애플 인크. Device, method, and graphical user interface for navigating user interface hierachies
KR101398141B1 (en) 2013-02-08 2014-05-20 엘지전자 주식회사 Mobile terminal
KR102107114B1 (en) 2013-10-30 2020-05-06 엘지전자 주식회사 Mobile terminal
KR101453687B1 (en) * 2013-10-31 2014-10-22 원현준 Power on/off apparatus of mobile terminal and method for controlling the same
US10296165B2 (en) * 2013-12-10 2019-05-21 Lg Electronics Inc. Mobile terminal including display on front surface and rear input unit on rear surface and method for operating mobile terminal based on first input applied to rear input unit and second input applied to display
KR102182165B1 (en) * 2014-07-03 2020-11-24 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN105446520B (en) * 2014-09-30 2018-10-23 南京瀚宇彩欣科技有限责任公司 The method executed without the singlehanded portable electric device, touch-control outer cover and computer for more referring to touch-control of gear
US20160026217A1 (en) * 2014-07-25 2016-01-28 Hannstar Display (Nanjing) Corporation Shadeless touch hand-held electronic device and computer-executed method
TWI536239B (en) * 2014-10-27 2016-06-01 緯創資通股份有限公司 Touch apparatus and touch method
KR20160090183A (en) * 2015-01-21 2016-07-29 엘지전자 주식회사 Mobile terminal
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
WO2017123055A1 (en) * 2016-01-14 2017-07-20 삼성전자주식회사 Method for touch input-based operation and electronic device therefor
KR20170085419A (en) * 2016-01-14 2017-07-24 삼성전자주식회사 Method for operating based on touch input and electronic device thereof
CN105824535A (en) * 2016-03-25 2016-08-03 乐视控股(北京)有限公司 Setting adjusting method and terminal
KR101853961B1 (en) * 2016-04-19 2018-06-20 (주)휴맥스 Apparatus and method of providing media service
US10178306B2 (en) 2016-06-16 2019-01-08 Tracfone Wireless, Inc. Wireless device having dedicated rear panel control
WO2019113895A1 (en) * 2017-12-14 2019-06-20 深圳市柔宇科技有限公司 Control method and electronic device
EP3788775B1 (en) * 2018-05-02 2021-09-22 Telefonaktiebolaget LM Ericsson (publ) User equipment, method by a user equipment, and network node
CN109686292B (en) 2019-01-25 2022-05-27 鄂尔多斯市源盛光电有限责任公司 Gate driving unit, gate driving method, gate driving circuit and display device
JP2024510660A (en) * 2021-03-19 2024-03-08 イソルグ multi finger sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844493A (en) * 1993-12-03 1996-02-16 Synaptics Inc Portable touch-pad-driven computer device
US6020878A (en) * 1998-06-01 2000-02-01 Motorola, Inc. Selective call radio with hinged touchpad
JP2000066803A (en) * 1998-08-17 2000-03-03 Sony Corp Input operation device
KR20060029237A (en) * 2003-06-25 2006-04-05 노키아 코포레이션 Multi-Function User Interface (VI) Input Device for Mobile Terminals

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5898434A (en) * 1991-05-15 1999-04-27 Apple Computer, Inc. User interface system having programmable user interface elements
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
JP2002318640A (en) 2001-04-19 2002-10-31 Casio Comput Co Ltd Small electronic equipment
JP2003296022A (en) * 2002-04-01 2003-10-17 Pioneer Electronic Corp Touch panel integrated display device
JP3852368B2 (en) * 2002-05-16 2006-11-29 ソニー株式会社 Input method and data processing apparatus
JP2004110380A (en) 2002-09-18 2004-04-08 Seiko Instruments Inc Order management system
KR20040058528A (en) 2002-12-27 2004-07-05 주식회사 하이닉스반도체 Keyboard applicable to portable computer
JP2004288077A (en) 2003-03-25 2004-10-14 Gunze Ltd Portable apparatus
JP2006134184A (en) * 2004-11-08 2006-05-25 Honda Access Corp Remote control switch
KR100608576B1 (en) * 2004-11-19 2006-08-03 삼성전자주식회사 Mobile terminal control device and method
KR20070001447A (en) 2005-06-29 2007-01-04 삼성전자주식회사 Handheld terminal with back input
KR101277256B1 (en) * 2006-06-16 2013-07-05 삼성전자주식회사 Apparatus and method for user interface
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile terminal, menu and item selection method
US20090009482A1 (en) * 2007-05-01 2009-01-08 Mcdermid William J Touch sensor pad user input device
US8373665B2 (en) * 2007-07-26 2013-02-12 International Business Machines Corporation Interactive display device
US20090150541A1 (en) * 2007-12-06 2009-06-11 Sony Corporation And Sony Electronics Inc. System and method for dynamically generating user interfaces for network client devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844493A (en) * 1993-12-03 1996-02-16 Synaptics Inc Portable touch-pad-driven computer device
US6020878A (en) * 1998-06-01 2000-02-01 Motorola, Inc. Selective call radio with hinged touchpad
JP2000066803A (en) * 1998-08-17 2000-03-03 Sony Corp Input operation device
KR20060029237A (en) * 2003-06-25 2006-04-05 노키아 코포레이션 Multi-Function User Interface (VI) Input Device for Mobile Terminals

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132643A1 (en) * 2022-01-05 2023-07-13 Samsung Electronics Co., Ltd. Method and electronic device for providing control functionality of display

Also Published As

Publication number Publication date
KR20090086842A (en) 2009-08-14
US9060068B2 (en) 2015-06-16
US20090201260A1 (en) 2009-08-13

Similar Documents

Publication Publication Date Title
KR101467513B1 (en) Mobile terminal control device and method thereof
US9223471B2 (en) Touch screen control
EP2256614B1 (en) Display control apparatus, display control method, and computer program
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
US8261211B2 (en) Monitoring pointer trajectory and modifying display interface
JP4979600B2 (en) Portable terminal device and display control method
EP1569075B1 (en) Pointing device for a terminal having a touch screen and method for using same
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
EP2270641A1 (en) Operation Control Apparatus, Operation Control Method, and Computer Program
US20100073303A1 (en) Method of operating a user interface
US9619454B2 (en) Method for controlling electronic spreadsheet on handheld touch device
JPWO2009031214A1 (en) Portable terminal device and display control method
US20140071049A1 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
KR20150069420A (en) Control method of computer device using keyboard equipped with touch screen
JP2012079279A (en) Information processing apparatus, information processing method and program
US20120179963A1 (en) Multi-touch electronic device, graphic display interface thereof and object selection method of multi-touch display
US20110126100A1 (en) Method of providing gui for guiding start position of user operation and digital device using the same
US11914857B1 (en) Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
US12086382B1 (en) Methods and graphical user interfaces for positioning a selection and selecting on computing devices with touch sensitive displays
WO2013080425A1 (en) Input device, information terminal, input control method and input control program
KR102296968B1 (en) Control method of favorites mode and device including touch screen performing the same
KR101598671B1 (en) Keyboard having touch screen and control method thereof
CN101799727A (en) Signal processing device and method of multipoint touch interface and selecting method of user interface image
KR20110093050A (en) User interface device by detecting touch area increase and decrease and control method thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20080211

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20130111

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20080211

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20140331

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20140828

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20141125

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20141125

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20171018

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20231017

Start annual number: 10

End annual number: 10