JP2016162331A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2016162331A
JP2016162331A JP2015042114A JP2015042114A JP2016162331A JP 2016162331 A JP2016162331 A JP 2016162331A JP 2015042114 A JP2015042114 A JP 2015042114A JP 2015042114 A JP2015042114 A JP 2015042114A JP 2016162331 A JP2016162331 A JP 2016162331A
Authority
JP
Japan
Prior art keywords
image
unit
finger
user
image reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015042114A
Other languages
Japanese (ja)
Other versions
JP2016162331A5 (en
Inventor
真 重光
Makoto Shigemitsu
真 重光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015042114A priority Critical patent/JP2016162331A/en
Publication of JP2016162331A publication Critical patent/JP2016162331A/en
Publication of JP2016162331A5 publication Critical patent/JP2016162331A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザーの指を2次元の画像として読み取る画像読み取り手段を用いてより多様な操作を可能とする。
【解決手段】情報処理装置は、表示面に情報を表示する表示手段と、前記表示面と同じ面に設けられ、ユーザーの指を2次元の画像として読み取る画像読み取り手段と、前記画像読み取り手段により読み取られた画像を用いて、前記指の移動方向を検知する移動検知手段と、前記移動検知手段により検知された移動方向に応じた処理を行う処理手段とを有する。
【選択図】図1
Kind Code: A1 Various operations can be performed using image reading means for reading a user's finger as a two-dimensional image.
An information processing apparatus includes a display unit that displays information on a display surface, an image reading unit that is provided on the same surface as the display surface and that reads a user's finger as a two-dimensional image, and the image reading unit. It has a movement detecting means for detecting the moving direction of the finger using the read image, and a processing means for performing processing according to the moving direction detected by the movement detecting means.
[Selection] Figure 1

Description

本発明は、表示面と同じ面に、ユーザーの指の画像を読み取る読み取り手段を有する情報処理装置に関する。   The present invention relates to an information processing apparatus having reading means for reading an image of a user's finger on the same surface as a display surface.

スマートフォンやタブレット端末等の情報処理装置においてユーザー認証のため、指紋認証を行う技術が知られている。特許文献1および2には、1次元の指紋センサーを用いて指の横方向の移動を検知する技術が記載されている。   A technique for performing fingerprint authentication for user authentication in an information processing apparatus such as a smartphone or a tablet terminal is known. Patent Documents 1 and 2 describe techniques for detecting lateral movement of a finger using a one-dimensional fingerprint sensor.

特開2007−189395号公報JP 2007-189395 A 国際公開第WO2009/147755号International Publication No. WO2009 / 147755

特許文献1および2に記載された技術においては、指の一方向の移動しか検知することができず、指紋センサーを用いて多様な操作を行うことができなかった。   In the techniques described in Patent Documents 1 and 2, it is only possible to detect movement in one direction of a finger, and various operations cannot be performed using a fingerprint sensor.

これに対し本発明は、ユーザーの指を2次元の画像として読み取る画像読み取り手段を用いてより多様な操作を可能とする技術を提供する。   In contrast, the present invention provides a technique that enables various operations using an image reading unit that reads a user's finger as a two-dimensional image.

本発明は、表示面に情報を表示する表示手段と、前記表示面と同じ面に設けられ、ユーザーの指を2次元の画像として読み取る画像読み取り手段と、前記画像読み取り手段により読み取られた画像を用いて、前記指の移動方向を検知する移動検知手段と、前記移動検知手段により検知された移動方向に応じた処理を行う処理手段とを有する情報処理装置を提供する。
この情報処理装置によれば、画像読み取り手段を用いて多様な操作が可能になる。
The present invention provides a display means for displaying information on a display surface, an image reading means provided on the same surface as the display surface, for reading a user's finger as a two-dimensional image, and an image read by the image reading means. The information processing apparatus includes: a movement detection unit that detects a movement direction of the finger; and a processing unit that performs a process according to the movement direction detected by the movement detection unit.
According to this information processing apparatus, various operations can be performed using the image reading means.

前記処理手段において、前記移動方向が第1方向の場合と第2方向の場合とでそれぞれ異なる処理が割り当てられていてもよい。
この情報処理装置によれば、画像読み取り手段上の指の移動方向が第1方向のときと第2方向のときとで異なる処理を行わせることができる。
In the processing means, different processing may be assigned depending on whether the moving direction is the first direction or the second direction.
According to this information processing apparatus, it is possible to perform different processing when the moving direction of the finger on the image reading unit is the first direction and the second direction.

この情報処理装置は、前記画像読み取り手段によって読み取られたユーザーの指の画像を用いて当該ユーザーの指紋認証を行う認証手段と、前記画像読み取り手段により読み取られた画像により示される前記指の移動速度に応じて、当該画像の出力先を前記移動検知手段および前記認証手段のいずれかに切り替える切り替え手段とを有してもよい。
この情報処理装置によれば、指紋認証と指の移動方向に応じた処理とを自動的に切り替えることができる。
The information processing apparatus includes: an authentication unit that performs fingerprint authentication of a user using an image of the user's finger read by the image reading unit; and a moving speed of the finger indicated by the image read by the image reading unit And a switching unit that switches the output destination of the image to one of the movement detection unit and the authentication unit.
According to this information processing apparatus, it is possible to automatically switch between fingerprint authentication and processing according to the direction of finger movement.

この情報処理装置は、自装置の向きを検知する向き検知手段と、前記向き検知手段により検知された向きに応じて、前記移動方向と前記処理手段における処理の関連付けを変える設定手段とを有してもよい。
この情報処理装置によれば、画像読み取り手段上の指の移動方向と実行される処理との対応関係を自機の向きに応じて動的に変更することができる。
The information processing apparatus includes direction detection means for detecting the direction of the own apparatus, and setting means for changing the association between the movement direction and the processing in the processing means in accordance with the direction detected by the direction detection means. May be.
According to this information processing apparatus, it is possible to dynamically change the correspondence between the finger moving direction on the image reading unit and the processing to be executed according to the orientation of the own device.

前記画像読み取り手段は、第1時間間隔で間欠的に画像を読み取り、この情報処理装置は、前記画像読み取り手段により読み取られた画像に前記ユーザーの指が含まれるか判断する判断手段を有し、前記画像に前記ユーザーの指が含まれると前記判断手段により判断された場合、前記画像読み取り手段は、前記第1時間間隔よりも短い第2時間間隔で画像を読み取ってもよい。
この情報処理装置によれば、常に第2時間間隔で画像を読み取る場合と比較して処理の負荷を低減することができる。
The image reading unit intermittently reads an image at a first time interval, and the information processing apparatus includes a determination unit that determines whether the image read by the image reading unit includes the user's finger, When the determination unit determines that the user's finger is included in the image, the image reading unit may read the image at a second time interval shorter than the first time interval.
According to this information processing apparatus, it is possible to reduce the processing load as compared with the case where images are always read at the second time interval.

前記移動検知手段は、前記複数の画像において、前記指が、画像に含まれる状態から画像の外まで移動したことが示された場合、前記ユーザーの指が前記読み取り手段上をスワイプしたことを検知し、前記スワイプが検知された場合、前記処理手段は、前記スワイプの方向に応じて、前記表示手段に表示される情報を切り替えてもよい。
この情報処理装置によれば、画像読み取り手段上を指でスワイプすることによって、表示手段に表示される情報を切り替えることができる。
The movement detecting unit detects that the user's finger swipes on the reading unit when the finger is moved from the state included in the image to the outside of the image in the plurality of images. And when the said swipe is detected, the said process means may switch the information displayed on the said display means according to the direction of the said swipe.
According to this information processing apparatus, information displayed on the display unit can be switched by swiping the image reading unit with a finger.

一実施形態に係る表示システム1の機能構成を示す図。The figure which shows the function structure of the display system 1 which concerns on one Embodiment. 携帯端末10のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of the portable terminal. 携帯端末10の外観を例示する図。The figure which illustrates the external appearance of the portable terminal. 表示装置20のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of the display apparatus 20. 携帯端末10の動作を示すフローチャート。7 is a flowchart showing the operation of the mobile terminal 10. RAM102に記憶されている画像を例示する図。3 is a diagram illustrating an image stored in a RAM 102. FIG.

1.構成
図1は、一実施形態に係る表示システム1の機能構成を示す図である。表示システム1は、携帯端末10および表示装置20を有する。表示装置20は、画像を表示する装置である。携帯端末10は、表示装置20と通信する。この例で、携帯端末10は、表示装置20に対する指示を入力する装置、いわゆるリモートコントローラーとして機能する。
1. Configuration FIG. 1 is a diagram illustrating a functional configuration of a display system 1 according to an embodiment. The display system 1 includes a mobile terminal 10 and a display device 20. The display device 20 is a device that displays an image. The mobile terminal 10 communicates with the display device 20. In this example, the mobile terminal 10 functions as a device that inputs an instruction to the display device 20, that is, a so-called remote controller.

携帯端末10は、表示手段11、画像読み取り手段12、移動検知手段13、処理手段14、認証手段15、切り替え手段16、向き検知手段17、設定手段18、および判断手段19を有する情報処理装置である。   The portable terminal 10 is an information processing apparatus having a display unit 11, an image reading unit 12, a movement detection unit 13, a processing unit 14, an authentication unit 15, a switching unit 16, a direction detection unit 17, a setting unit 18, and a determination unit 19. is there.

表示手段11は、表示面に情報を表示する。画像読み取り手段12は、表示面と同じ面に設けられ、ユーザーの指を2次元の画像として読み取る。移動検知手段13は、画像読み取り手段12により読み取られた画像を用いて、指の移動方向を検知する。処理手段14は、移動検知手段13により検知された移動方向に応じた処理を行う。なお、処理手段14において、移動方向が第1方向の場合と第2方向の場合とでそれぞれ異なる処理が割り当てられている。この例で、処理手段14が実行する処理には、表示装置20への指示の送信が含まれる。   The display means 11 displays information on the display surface. The image reading unit 12 is provided on the same surface as the display surface, and reads the user's finger as a two-dimensional image. The movement detection unit 13 detects the moving direction of the finger using the image read by the image reading unit 12. The processing unit 14 performs processing according to the moving direction detected by the movement detecting unit 13. In the processing means 14, different processing is assigned to each of the movement direction in the first direction and the second direction. In this example, the processing executed by the processing unit 14 includes transmission of an instruction to the display device 20.

認証手段15は、画像読み取り手段12によって読み取られたユーザーの指の画像を用いてそのユーザーの指紋認証を行う。切り替え手段16は、画像読み取り手段12により読み取られた画像により示される指の移動速度に応じて、その画像の出力先を移動検知手段13および認証手段15のいずれかに切り替える。   The authentication unit 15 performs fingerprint authentication of the user using the image of the user's finger read by the image reading unit 12. The switching unit 16 switches the output destination of the image to either the movement detection unit 13 or the authentication unit 15 according to the moving speed of the finger indicated by the image read by the image reading unit 12.

向き検知手段17は、自装置の向きを検知する。ここでいう向きは、例えば重力方向(鉛直下向き)に対する向きである。設定手段18は、向き検知手段17により検知された向きに応じて、移動方向と処理手段14における処理の関連付けを変える。   The direction detection means 17 detects the direction of its own device. The direction here is, for example, a direction with respect to the direction of gravity (vertically downward). The setting unit 18 changes the association between the movement direction and the processing in the processing unit 14 in accordance with the direction detected by the direction detection unit 17.

この例で、画像読み取り手段12は、第1時間間隔で間欠的に画像を読み取っている。判断手段19は、画像読み取り手段12により読み取られた画像にユーザーの指が含まれるか判断する。画像にユーザーの指が含まれると判断された場合、画像読み取り手段12は、第1時間間隔よりも短い第2時間間隔で間欠的に画像を読み取る。   In this example, the image reading unit 12 reads images intermittently at the first time interval. The determination unit 19 determines whether the image read by the image reading unit 12 includes a user's finger. When it is determined that the user's finger is included in the image, the image reading unit 12 intermittently reads the image at a second time interval shorter than the first time interval.

表示装置20は、受信手段21および表示手段22を有する。受信手段21は、携帯端末10からの指示を受信する。表示手段22は、受信した指示に応じて画像を表示する。   The display device 20 includes a receiving unit 21 and a display unit 22. The receiving unit 21 receives an instruction from the mobile terminal 10. The display means 22 displays an image according to the received instruction.

図2は、携帯端末10のハードウェア構成を例示する図である。携帯端末10は、例えば、スマートフォンまたはタブレット端末である。携帯端末10は、CPU100、ROM101、RAM102、ストレージ103、通信IF104、タッチスクリーン105、ホームボタン106、および加速度センサー107を有する。   FIG. 2 is a diagram illustrating a hardware configuration of the mobile terminal 10. The mobile terminal 10 is, for example, a smartphone or a tablet terminal. The mobile terminal 10 includes a CPU 100, a ROM 101, a RAM 102, a storage 103, a communication IF 104, a touch screen 105, a home button 106, and an acceleration sensor 107.

CPU100は、プログラムに従って各種の演算を行う装置である。ROM101は、各種のデータおよびプログラムを記憶した不揮発性の記憶装置である。RAM102は、CPU100がプログラムを実行する際のワークエリアとして機能する揮発性の記憶装置である。ストレージ103は、アプリケーションプログラムおよびアプリケーションプログラムで用いられるデータを記憶する不揮発性の記憶装置である。この例で、ストレージ103は、携帯端末10を動作させるためのオペレーティングシステム(OS)、および携帯端末10を表示装置20のリモートコントローラーとして機能させるためのプログラムを記憶している。   The CPU 100 is a device that performs various calculations according to a program. The ROM 101 is a nonvolatile storage device that stores various data and programs. The RAM 102 is a volatile storage device that functions as a work area when the CPU 100 executes a program. The storage 103 is a non-volatile storage device that stores application programs and data used in the application programs. In this example, the storage 103 stores an operating system (OS) for operating the mobile terminal 10 and a program for causing the mobile terminal 10 to function as a remote controller of the display device 20.

通信IF104は、表示装置20等の他の装置と通信するためのインターフェースである。通信IF104は、所定の通信規格、例えばWiFi(登録商標)またはBluetooth(登録商標)に従って他の装置と通信する。   The communication IF 104 is an interface for communicating with other devices such as the display device 20. The communication IF 104 communicates with other devices in accordance with a predetermined communication standard such as WiFi (registered trademark) or Bluetooth (registered trademark).

タッチスクリーン105は、表示装置およびタッチセンサー(いずれも図示略)を含む。表示装置は、表示面に画像を表示する装置、例えば液晶ディスプレイまたは有機ELディスプレイである。タッチセンサーは、表示面上に設けられ、指示体(例えばユーザーの指)によりタッチされた位置を検知する装置、例えば静電容量式のセンサーである。   The touch screen 105 includes a display device and a touch sensor (both not shown). The display device is a device that displays an image on a display surface, such as a liquid crystal display or an organic EL display. The touch sensor is a device that is provided on the display surface and detects a position touched by an indicator (for example, a user's finger), for example, a capacitive sensor.

ホームボタン106は、ユーザーが携帯端末10に指示を入力するためのボタンであり、タッチスクリーン105の表示面と同じ面に設けられている。ホームボタン106は、押下センサー1061および指紋センサー1062を有する。押下センサー1061は、ユーザーの指により押下されたことを検知するセンサーである。指紋センサー1062は、ユーザーの指から指紋を、2次元画像として読み取るセンサーである。   The home button 106 is a button for the user to input an instruction to the mobile terminal 10, and is provided on the same surface as the display surface of the touch screen 105. The home button 106 includes a press sensor 1061 and a fingerprint sensor 1062. The press sensor 1061 is a sensor that detects that the button is pressed by the user's finger. The fingerprint sensor 1062 is a sensor that reads a fingerprint from a user's finger as a two-dimensional image.

加速度センサー107は、携帯端末10の傾きを測定するためのセンサーである。   The acceleration sensor 107 is a sensor for measuring the tilt of the mobile terminal 10.

タッチスクリーン105は、表示手段11の一例である。CPU100に制御されている指紋センサー1062は、画像読み取り手段12の一例である。CPU100は、移動検知手段13、処理手段14、認証手段15、切り替え手段16、設定手段18、および判断手段19の一例である。加速度センサー107は、向き検知手段17の一例である。   The touch screen 105 is an example of the display unit 11. The fingerprint sensor 1062 controlled by the CPU 100 is an example of the image reading unit 12. The CPU 100 is an example of the movement detection unit 13, the processing unit 14, the authentication unit 15, the switching unit 16, the setting unit 18, and the determination unit 19. The acceleration sensor 107 is an example of the direction detection unit 17.

図3は、携帯端末10の外観を例示する図である。携帯端末10は、筐体のうち一の面にタッチスクリーン105と、さらにその下部にホームボタン106を有する。ユーザーは、タッチスクリーン105に表示された画像を見ながら、ホームボタン106を操作することができる。   FIG. 3 is a diagram illustrating an appearance of the mobile terminal 10. The mobile terminal 10 has a touch screen 105 on one surface of the housing and a home button 106 at the lower part thereof. The user can operate the home button 106 while viewing the image displayed on the touch screen 105.

図4は、表示装置20のハードウェア構成を例示する図である。この例で、表示装置20は、映像を投写する装置すなわちプロジェクターである。表示装置20は、CPU(Central Processing Unit)200、ROM(Read Only Memory)201、RAM(Random Access Memory)202、記憶部203、IF部204、画像処理回路205、および投写ユニット206を有する。   FIG. 4 is a diagram illustrating a hardware configuration of the display device 20. In this example, the display device 20 is a device that projects an image, that is, a projector. The display device 20 includes a central processing unit (CPU) 200, a read only memory (ROM) 201, a random access memory (RAM) 202, a storage unit 203, an IF unit 204, an image processing circuit 205, and a projection unit 206.

CPU100は、表示装置20の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。記憶部203は、データやプログラムなどを記憶する不揮発性の記憶装置であり、例えば、フラッシュROM、SSD(Solid State Drive)、またはHDD(Hard Disk Drive)を含む。なお、記憶部203は、ROM101に含まれていてもよい。あるいは、記憶部203は、ネットワーク上の記憶装置であってもよい。   The CPU 100 is a control device that controls each unit of the display device 20. The ROM 101 is a non-volatile storage device that stores various programs and data. The RAM 102 is a volatile storage device that stores data, and functions as a work area when the CPU 100 executes processing. The storage unit 203 is a nonvolatile storage device that stores data, programs, and the like, and includes, for example, a flash ROM, an SSD (Solid State Drive), or an HDD (Hard Disk Drive). Note that the storage unit 203 may be included in the ROM 101. Alternatively, the storage unit 203 may be a storage device on a network.

IF部204は、外部装置(例えば表示装置20)と信号またはデータのやりとりを仲介するインターフェースである。IF部204は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。   The IF unit 204 is an interface that mediates exchange of signals or data with an external device (for example, the display device 20). The IF unit 204 is a terminal (for example, a VGA terminal, a USB terminal, a wired LAN interface, an S terminal, an RCA terminal, an HDMI (High-Definition Multimedia Interface: registered trademark) terminal) for exchanging signals or data with an external device. Microphone terminal) and a wireless LAN interface. These terminals may include a video output terminal in addition to the video input terminal.

画像処理回路205は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。   The image processing circuit 205 performs predetermined image processing (eg, size change, keystone correction, etc.) on the input video signal (hereinafter referred to as “input video signal”).

投写ユニット206は、画像処理が施された映像信号に従って、スクリーンまたは壁面等の投写面に画像を投写する。投写ユニット206は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光をスクリーンに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。   The projection unit 206 projects an image on a projection surface such as a screen or a wall surface in accordance with a video signal subjected to image processing. The projection unit 206 includes a light source, an optical modulator, and an optical system (all not shown). The light source includes a lamp such as a high-pressure mercury lamp, a halogen lamp, or a metal halide lamp, or a solid light source such as an LED (Light Emitting Diode) or a laser diode, and a drive circuit thereof. The optical modulator is a device that modulates light emitted from a light source according to a video signal, and includes, for example, a liquid crystal panel or a DMD (Digital Mirror Device) and a drive circuit thereof. The liquid crystal panel may be either a transmission type or a reflection type. The optical system includes an element that projects light modulated by the light modulator onto a screen, and includes, for example, a mirror, a lens, and a prism. A light source and a light modulator may be provided for each color component.

IF部204は、受信手段21の一例である。投写ユニット206は、表示手段22の一例である。   The IF unit 204 is an example of the receiving unit 21. The projection unit 206 is an example of the display unit 22.

2.動作
図5は、携帯端末10の動作を示すフローチャートである。図5のフローは、例えば、携帯端末10の電源が投入されたことを契機として、または、特定のプログラムが起動されたことを契機として開始される。図5のフローは、携帯端末10のOS、またはアプリケーションプログラムにより実装される。
2. Operation FIG. 5 is a flowchart showing the operation of the mobile terminal 10. The flow in FIG. 5 is started, for example, when the power of the mobile terminal 10 is turned on or when a specific program is started. The flow of FIG. 5 is implemented by the OS of the mobile terminal 10 or an application program.

図5のフローには記載しないが、指紋センサー1062は本来、指紋認証に用いるために設けられている。指紋認証を行う際、CPU100は、指紋センサー1062が読み取った指紋の画像を、あらかじめ登録されている指紋の画像とパターンマッチングすることにより、正しい指紋であるか(すなわち本人であるか)認証する。指紋認証は、例えば、携帯端末10がスリープモード(タッチスクリーン105を消灯する等、消費電力を低減した動作モード)から通常モード(タッチスクリーン105に画像を表示する等、通常の動作を行うモード)に復帰するときや、特定のサイトにアクセスするため本人認証が求められるときに行われる。   Although not described in the flow of FIG. 5, the fingerprint sensor 1062 is originally provided for use in fingerprint authentication. When performing fingerprint authentication, the CPU 100 authenticates whether the fingerprint image read by the fingerprint sensor 1062 is a correct fingerprint (that is, whether it is the person himself) by pattern matching with a fingerprint image registered in advance. In the fingerprint authentication, for example, the mobile terminal 10 operates from a sleep mode (an operation mode that reduces power consumption such as turning off the touch screen 105) to a normal mode (a mode that performs normal operation such as displaying an image on the touch screen 105). This is done when returning to, or when authentication is required to access a specific site.

また、ホームボタン106は、携帯端末10に指示を入力するためのボタンとしても用いられる。すなわち、ユーザーは、ホームボタン106を押下することにより、操作の「確定」や「OK」に相当する情報がCPU100に入力される。   The home button 106 is also used as a button for inputting an instruction to the mobile terminal 10. That is, when the user presses the home button 106, information corresponding to “confirmation” or “OK” of the operation is input to the CPU 100.

ステップS100において、CPU100は、指紋センサー1062をアクティブにする。アクティブになっている間、指紋センサー1062は、読み取った画像を示す画像信号を出力する。CPU100は、この画像信号により示される画像を示すデータを、時間間隔T1で間欠的にRAM102に書き込む。RAM102には、所定枚数の画像すなわち直近の有限期間の画像の推移が記憶される。   In step S100, the CPU 100 activates the fingerprint sensor 1062. While active, the fingerprint sensor 1062 outputs an image signal indicating the read image. The CPU 100 intermittently writes data indicating the image indicated by the image signal in the RAM 102 at the time interval T1. The RAM 102 stores a transition of a predetermined number of images, that is, images in the latest finite period.

ステップS110において、CPU100は、指紋センサー1062により読み取られた画像にユーザーの指が写っているか判断する。指が写っていないと判断された場合(S110:NO)、CPU100は、指が写っていると判断されるまで待機する。指が写っていると判断された場合(S110:YES)、CPU100は、処理をステップS120に移行する。   In step S <b> 110, the CPU 100 determines whether the user's finger is reflected in the image read by the fingerprint sensor 1062. When it is determined that the finger is not captured (S110: NO), the CPU 100 waits until it is determined that the finger is captured. When it is determined that the finger is captured (S110: YES), the CPU 100 shifts the process to step S120.

ステップS120において、CPU100は、画像信号により示される画像を示すデータをRAM102に書き込む時間間隔をT2に変更する。ここで、時間間隔T2は時間間隔T1よりも短い(T2<T1)。すなわち、携帯端末10は、ある時間間隔T1で指紋センサー1062から画像を読み取っているところ、読み取られた画像に指が含まれると判断されると、より短い時間間隔T2で画像を読み取る。この意味で、以下、時間間隔T1およびT2を、画像の読み取り間隔という。   In step S120, the CPU 100 changes the time interval for writing data indicating the image indicated by the image signal in the RAM 102 to T2. Here, the time interval T2 is shorter than the time interval T1 (T2 <T1). That is, when the mobile terminal 10 reads an image from the fingerprint sensor 1062 at a certain time interval T1, if it is determined that a finger is included in the read image, the mobile terminal 10 reads the image at a shorter time interval T2. In this sense, the time intervals T1 and T2 are hereinafter referred to as image reading intervals.

ステップS130において、CPU100は、所定の操作が行われたか判断する。所定の操作とは、例えばスワイプである。スワイプとは、ホームボタン106を指で覆った状態からホームボタン106の外まで指を移動させることをいう。CPU100は、具体的には、RAM102に記憶されている複数枚の画像を用いて、スワイプが行われたか判断する。   In step S130, the CPU 100 determines whether a predetermined operation has been performed. The predetermined operation is, for example, a swipe. Swipe refers to moving the finger from the state where the home button 106 is covered with the finger to the outside of the home button 106. Specifically, the CPU 100 determines whether or not the swipe has been performed using a plurality of images stored in the RAM 102.

図6は、RAM102に記憶されている画像を例示する図である。この例では、4枚の画像がRAM102に記憶されている。この例では、左端の画像が最も時刻が古く、右にいくにつれ時刻が新しくなる。CPU100は、これらの画像において、指が占める領域の割合を計算する。これらの画像は指紋センサー1062により読み取られたものであるので、指紋を識別できる程度の解像度を有している。しかし、スワイプの判断には指紋(模様)は用いられない。CPU100は、画像のうち指が占める領域(図のハッチング部分)を特定し、さらに、画像の面積に占める割合を計算する。この例では、左端の画像から順に、指が占める割合は、95%、60%、30%、および0%である。CPU100は、この面積率の推移が所定の条件(例えば、面積率が第1しきい値(例えば80%)以上の状態から減少していき、最後にしきい値(例えば10%)以下の状態になったという条件)を満たした場合、スワイプが行われたと判断する。   FIG. 6 is a diagram illustrating an image stored in the RAM 102. In this example, four images are stored in the RAM 102. In this example, the image at the left end has the oldest time, and the time becomes newer as it goes to the right. The CPU 100 calculates the ratio of the area occupied by the finger in these images. Since these images are read by the fingerprint sensor 1062, the resolution is high enough to identify the fingerprint. However, fingerprints (patterns) are not used for swipe determination. The CPU 100 specifies a region occupied by a finger (hatched portion in the figure) in the image, and further calculates a ratio of the image to the area of the image. In this example, in order from the leftmost image, the ratio of fingers is 95%, 60%, 30%, and 0%. The CPU 100 decreases the transition of the area ratio from a predetermined condition (for example, the area ratio is equal to or higher than the first threshold value (for example, 80%), and finally decreases to the threshold value (for example, 10%) or lower. It is determined that a swipe has been performed.

さらに、CPU100は、画像のうち指が占める領域の特徴点(例えば重心)の推移から、指の移動方向を特定する。図6の例では、指が占める領域の重心は右に移動しているので、CPU100は右方向にスワイプが行われたと判断する。なお、ここで説明したスワイプの有無および方向を判断するアルゴリズムはあくまで一例であって、指紋センサー1062により読み取られた複数の画像を用いるものであれば、どのようなアルゴリズムによりスワイプの有無およびその方向が特定されてもよい。   Further, the CPU 100 identifies the moving direction of the finger from the transition of the feature points (for example, the center of gravity) of the area occupied by the finger in the image. In the example of FIG. 6, since the center of gravity of the region occupied by the finger has moved to the right, the CPU 100 determines that the right swipe has been performed. The algorithm for determining the presence and direction of the swipe described here is merely an example, and any algorithm that uses a plurality of images read by the fingerprint sensor 1062 may be used. May be specified.

再び図5を参照する。所定の操作が行われたと判断された場合(S130:YES)、CPU100は、処理をステップS160に移行する。所定の操作が行われたと判断されなかった場合(S130:NO)、CPU100は、処理をステップS140に移行する。   Refer to FIG. 5 again. If it is determined that a predetermined operation has been performed (S130: YES), the CPU 100 shifts the processing to step S160. When it is not determined that the predetermined operation has been performed (S130: NO), the CPU 100 shifts the processing to step S140.

ステップS140において、CPU100は、画像読み取り間隔の変更条件が満たされたか判断する。この条件は、例えば、(i)読み取り間隔がT1からT2に変更されてからしきい値時間が経過した、および(ii)指が含まれていない画像がしきい値時間枚数以上連続して読み取られた、のうち少なくとも一報が満たされたというものである。変更条件が満たされたと判断された場合(S140:YES)、CPU100は、処理をステップS150に移行する。変更条件が満たされていないと判断された場合(S140:NO)、CPU100は、処理をステップS110に移行する。   In step S140, the CPU 100 determines whether a condition for changing the image reading interval is satisfied. This condition is, for example, that (i) a threshold time has elapsed since the reading interval was changed from T1 to T2, and (ii) images that do not include a finger are continuously read for a threshold time number or more. It is said that at least one report was satisfied. When it is determined that the change condition is satisfied (S140: YES), the CPU 100 shifts the process to step S150. When it is determined that the change condition is not satisfied (S140: NO), the CPU 100 shifts the processing to step S110.

ステップS150において、CPU100は、画像の読み取り間隔をT1に変更する。画像の読み取り間隔を変更すると、CPU100は、処理をステップS110に移行する。   In step S150, the CPU 100 changes the image reading interval to T1. When the image reading interval is changed, the CPU 100 shifts the processing to step S110.

ステップS160において、CPU100は、スワイプされた方向に応じた処理を行う。この例では、スワイプされた方向毎に処理が割り当てられており、CPU100は、割り当てられている処理を示す情報を表示装置20に送信する。方向に応じた処理を行うと、CPU100は、処理をステップS150に移行する。表示装置20は、携帯端末10から送信された情報に応じた処理を行う。   In step S160, the CPU 100 performs processing according to the swipe direction. In this example, a process is assigned for each swipe direction, and the CPU 100 transmits information indicating the assigned process to the display device 20. If the process according to a direction is performed, CPU100 will transfer a process to step S150. The display device 20 performs processing according to information transmitted from the mobile terminal 10.

3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.

3−1.変形例1
携帯端末10は表示装置20のリモートコントローラーとして用いられるものに限定されない。携帯端末10は、表示装置20とは独立して単体で用いられてもよい。この場合において、携帯端末10は、OSまたはアプリケーションプログラムの機能により、タッチスクリーン105に画像を表示する。この画像は例えば、特定のフォルダに含まれる複数の画像の中から選択された一の画像である。このとき、ホームボタン106上のスワイプおよびその方向に応じて、タッチスクリーン105に表示される画像を切り替える。
3-1. Modification 1
The portable terminal 10 is not limited to that used as a remote controller for the display device 20. The mobile terminal 10 may be used alone independently of the display device 20. In this case, the mobile terminal 10 displays an image on the touch screen 105 by the function of the OS or application program. This image is, for example, one image selected from a plurality of images included in a specific folder. At this time, the image displayed on the touch screen 105 is switched according to the swipe on the home button 106 and its direction.

例えば、スワイプの方向に応じて以下の処理が割り当てられる。
左方向:前の画像に戻る
右方向:次の画像に進む
上方向:メニューを表示
下方向:メニューを非表示
For example, the following processing is assigned according to the direction of swipe.
Left: Go back to the previous image Right: Go to the next image Up: Show the menu Down: Hide the menu

スワイプの検知がOSに実装されれば、操作(スワイプの方向)に対する処理の割り当てをアプリケーションプログラム毎に設定することができる。   If swipe detection is implemented in the OS, it is possible to set processing allocation for an operation (swipe direction) for each application program.

3−2.変形例2
指紋センサー1062の用途を、検知された指の移動速度に応じて自動的にスワイプ検出から指紋認証に切り替えてもよい。例えば、ステップS140において指の移動速度がしきい値以下であるか判断し、しきい値以下であると判断された場合、指紋センサー1062の用途を指紋認証に切り替えてもよい。あるいは、指紋認証モードにおいて指の移動速度がしきい値よりも速い場合に、指紋センサー1062の用途をスワイプ検知に切り替えてもよい。
3-2. Modification 2
The use of the fingerprint sensor 1062 may be automatically switched from swipe detection to fingerprint authentication according to the detected finger movement speed. For example, in step S140, it is determined whether the moving speed of the finger is equal to or lower than the threshold value. If it is determined that the finger moving speed is equal to or lower than the threshold value, the use of the fingerprint sensor 1062 may be switched to fingerprint authentication. Alternatively, the use of the fingerprint sensor 1062 may be switched to swipe detection when the finger moving speed is faster than the threshold value in the fingerprint authentication mode.

3−3.変形例3
CPU100は、携帯端末10の向きに応じて、スワイプの方向と処理との割り当てを変更してもよい。スワイプの方向は指紋センサー1062により読み取られた複数の画像から判断されるので、ここでいう「スワイプの方向」は指紋センサー1062のセンサー素子の配置を基準として決められる方向である。これに対し、携帯端末10の向きを考慮して、スワイプが重力に対してどの方向に行われているか判断し、その結果に応じて処理を行ってもよい。
3-3. Modification 3
The CPU 100 may change the assignment of the swipe direction and the process according to the orientation of the mobile terminal 10. Since the swipe direction is determined from a plurality of images read by the fingerprint sensor 1062, the “swipe direction” here is a direction determined based on the arrangement of the sensor elements of the fingerprint sensor 1062. On the other hand, in consideration of the direction of the mobile terminal 10, it may be determined in which direction the swipe is performed with respect to gravity, and processing may be performed according to the result.

3−4.他の変形例
指紋センサー1062により読み取られた複数の画像から検知される指の動作は、実施形態で例示したものに限定されない。例えば、CPU100は、指紋センサー1062上に指が載せられたままでどちらかの方向にスライドされたことを検知してもよい。
3-4. Other Modifications Finger movements detected from a plurality of images read by the fingerprint sensor 1062 are not limited to those illustrated in the embodiment. For example, the CPU 100 may detect that the finger is slid in either direction while the finger is placed on the fingerprint sensor 1062.

携帯端末10のハードウェア構成は図2で例示したものに限定されない。要求される機能を実現できるものであれば、携帯端末10はどのようなハードウェア構成を有していてもよい。また、図1の機能構成の一部は省略されてもよい。   The hardware configuration of the mobile terminal 10 is not limited to that illustrated in FIG. The mobile terminal 10 may have any hardware configuration as long as the required function can be realized. Further, a part of the functional configuration of FIG. 1 may be omitted.

表示装置20はプロジェクターに限定されず、液晶ディスプレイや有機ELディスプレイ等、直視の表示装置であってもよい。また、プリンター等、表示装置以外のリモートコントローラーとして携帯端末10が用いられてもよい。   The display device 20 is not limited to a projector, and may be a direct-view display device such as a liquid crystal display or an organic EL display. Moreover, the portable terminal 10 may be used as a remote controller other than the display device such as a printer.

1…表示システム、10…携帯端末、11…表示手段、12…画像読み取り手段、13…移動検知手段、14…処理手段、15…認証手段、16…切り替え手段、17…向き検知手段、18…設定手段、19…判断手段、20…表示装置、21…受信手段、22…表示手段、100…CPU、101…ROM、102…RAM、103…ストレージ、104…通信IF、105…タッチスクリーン、106…ホームボタン、107…加速度センサー、200…CPU、201…ROM、202…RAM、203…記憶部、204…IF部15部、205…画像処理回路、206…投写ユニット DESCRIPTION OF SYMBOLS 1 ... Display system, 10 ... Portable terminal, 11 ... Display means, 12 ... Image reading means, 13 ... Movement detection means, 14 ... Processing means, 15 ... Authentication means, 16 ... Switching means, 17 ... Direction detection means, 18 ... Setting means, 19 ... determining means, 20 ... display device, 21 ... receiving means, 22 ... display means, 100 ... CPU, 101 ... ROM, 102 ... RAM, 103 ... storage, 104 ... communication IF, 105 ... touch screen, 106 ... Home button, 107 ... Acceleration sensor, 200 ... CPU, 201 ... ROM, 202 ... RAM, 203 ... Storage section, 204 ... IF section 15 section, 205 ... Image processing circuit, 206 ... Projection unit

Claims (6)

表示面に情報を表示する表示手段と、
前記表示面と同じ面に設けられ、ユーザーの指を2次元の画像として読み取る画像読み取り手段と、
前記画像読み取り手段により読み取られた画像を用いて、前記指の移動方向を検知する移動検知手段と、
前記移動検知手段により検知された移動方向に応じた処理を行う処理手段と
を有する情報処理装置。
Display means for displaying information on the display surface;
An image reading means provided on the same surface as the display surface, for reading a user's finger as a two-dimensional image;
A movement detecting means for detecting a moving direction of the finger using an image read by the image reading means;
An information processing apparatus comprising: processing means for performing processing according to the movement direction detected by the movement detection means.
前記処理手段において、前記移動方向が第1方向の場合と第2方向の場合とでそれぞれ異なる処理が割り当てられている
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein different processing is assigned to the processing unit depending on whether the moving direction is the first direction or the second direction.
前記画像読み取り手段によって読み取られたユーザーの指の画像を用いて当該ユーザーの指紋認証を行う認証手段と、
前記画像読み取り手段により読み取られた画像により示される前記指の移動速度に応じて、当該画像の出力先を前記移動検知手段および前記認証手段のいずれかに切り替える切り替え手段と
を有する請求項1または2のいずれか一項に記載の情報処理装置。
Authentication means for performing fingerprint authentication of the user using an image of the user's finger read by the image reading means;
3. A switching unit that switches an output destination of the image to either the movement detection unit or the authentication unit in accordance with a moving speed of the finger indicated by the image read by the image reading unit. The information processing apparatus according to any one of the above.
自装置の向きを検知する向き検知手段と、
前記向き検知手段により検知された向きに応じて、前記移動方向と前記処理手段における処理の関連付けを変える設定手段と
を有する請求項1ないし3のいずれか一項に記載の情報処理装置。
Orientation detection means for detecting the orientation of the device itself;
4. The information processing apparatus according to claim 1, further comprising: a setting unit that changes association between the moving direction and the process in the processing unit in accordance with the direction detected by the direction detection unit. 5.
前記画像読み取り手段は、第1時間間隔で間欠的に画像を読み取り、
前記画像読み取り手段により読み取られた画像に前記ユーザーの指が含まれるか判断する判断手段を有し、
前記画像に前記ユーザーの指が含まれると前記判断手段により判断された場合、前記画像読み取り手段は、前記第1時間間隔よりも短い第2時間間隔で画像を読み取る
ことを特徴とする請求項1ないし4のいずれか一項に記載の情報処理装置。
The image reading means intermittently reads an image at a first time interval,
Determining means for determining whether the image of the user is included in the image read by the image reading means;
The image reading unit reads an image at a second time interval shorter than the first time interval when the determination unit determines that the user's finger is included in the image. Information processing apparatus as described in any one of thru | or 4.
前記移動検知手段は、前記複数の画像において、前記指が、画像に含まれる状態から画像の外まで移動したことが示された場合、前記ユーザーの指が前記読み取り手段上をスワイプしたことを検知し、
前記スワイプが検知された場合、前記処理手段は、前記スワイプの方向に応じて、前記表示手段に表示される情報を切り替える
ことを特徴とする請求項1ないし5のいずれか一項に記載の情報処理装置。
The movement detecting unit detects that the user's finger swipes on the reading unit when the finger is moved from the state included in the image to the outside of the image in the plurality of images. And
The information according to any one of claims 1 to 5, wherein when the swipe is detected, the processing unit switches information displayed on the display unit in accordance with a direction of the swipe. Processing equipment.
JP2015042114A 2015-03-04 2015-03-04 Information processing device Withdrawn JP2016162331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015042114A JP2016162331A (en) 2015-03-04 2015-03-04 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015042114A JP2016162331A (en) 2015-03-04 2015-03-04 Information processing device

Publications (2)

Publication Number Publication Date
JP2016162331A true JP2016162331A (en) 2016-09-05
JP2016162331A5 JP2016162331A5 (en) 2017-10-19

Family

ID=56845193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015042114A Withdrawn JP2016162331A (en) 2015-03-04 2015-03-04 Information processing device

Country Status (1)

Country Link
JP (1) JP2016162331A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781513A (en) * 2019-09-17 2020-02-11 上海掌门科技有限公司 Information display method and device
JP2020518897A (en) * 2017-04-20 2020-06-25 株式会社 ハイディープHiDeep Inc. Device and control method capable of touch sensing and touch pressure sensing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114891A1 (en) * 2005-04-25 2006-11-02 Fujitsu Limited File management method
WO2009147755A1 (en) * 2008-06-04 2009-12-10 富士通株式会社 Information processor and input control method
JP2012032894A (en) * 2010-07-28 2012-02-16 Kyocera Corp Electronic apparatus
JP2012113563A (en) * 2010-11-25 2012-06-14 Kyocera Corp Portable electronic equipment
WO2013173838A2 (en) * 2012-05-18 2013-11-21 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114891A1 (en) * 2005-04-25 2006-11-02 Fujitsu Limited File management method
WO2009147755A1 (en) * 2008-06-04 2009-12-10 富士通株式会社 Information processor and input control method
JP2012032894A (en) * 2010-07-28 2012-02-16 Kyocera Corp Electronic apparatus
JP2012113563A (en) * 2010-11-25 2012-06-14 Kyocera Corp Portable electronic equipment
WO2013173838A2 (en) * 2012-05-18 2013-11-21 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020518897A (en) * 2017-04-20 2020-06-25 株式会社 ハイディープHiDeep Inc. Device and control method capable of touch sensing and touch pressure sensing
CN110781513A (en) * 2019-09-17 2020-02-11 上海掌门科技有限公司 Information display method and device
CN110781513B (en) * 2019-09-17 2024-05-03 上海掌门科技有限公司 Information display method and device

Similar Documents

Publication Publication Date Title
CN106257923B (en) Image display system and image display method
US20170038838A1 (en) Information processing system and information processing method
US9898996B2 (en) Display apparatus and display control method
US10276133B2 (en) Projector and display control method for displaying split images
JP6940353B2 (en) Electronics
US20170038912A1 (en) Information providing device
CN105938410B (en) Display device and control method of display device
JP6451225B2 (en) Display device, projector, and display control method
CN105677149B (en) Electronic device and display processing method
JP2016162331A (en) Information processing device
US20150279336A1 (en) Bidirectional display method and bidirectional display device
TWI607343B (en) Information technology device input systems and associated methods
JP2017167789A (en) Electronic device and method for controlling electronic device
US10338750B2 (en) Display apparatus, projector, and display control method
JP6349886B2 (en) Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus
JP2020074089A (en) Electronic device and electronic device control method
KR101880957B1 (en) User-oriented color-controlled electronic pen apparatus
JP6871846B2 (en) Electronics and control methods
JP2017026677A (en) Image projection device and image projection system
JP2015215925A (en) Projector device and projector system
JP6682768B2 (en) Display system, display device, information processing device, and control method
JP2024032042A (en) Detection method, detection device and program
JP2016103060A (en) Image projection device, image projection system, and video supply device
JP6300053B2 (en) Projector device and projector system
JP2017092849A (en) Image display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180817

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180905

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181016