KR101710771B1 - Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs - Google Patents

Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs Download PDF

Info

Publication number
KR101710771B1
KR101710771B1 KR1020147035557A KR20147035557A KR101710771B1 KR 101710771 B1 KR101710771 B1 KR 101710771B1 KR 1020147035557 A KR1020147035557 A KR 1020147035557A KR 20147035557 A KR20147035557 A KR 20147035557A KR 101710771 B1 KR101710771 B1 KR 101710771B1
Authority
KR
South Korea
Prior art keywords
delete delete
user interface
fingerprint
display
fingerprint sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020147035557A
Other languages
Korean (ko)
Other versions
KR20150021943A (en
Inventor
벤자민 제이. 포페
다니엘 더블유. 자비스
니콜라스 지. 메즈
스콧 에이. 마이어스
마이클 에이. 크레텔라
마이클 엥
제임스 에이치. 포스터
테리 엘. 길턴
마이라 해거티
바이런 비. 한
엠. 에반스 핸키
스티븐 피. 호텔링
브라이언 알. 랜드
스티븐 브라이언 린치
폴 미드
머쉬타크 에이. 사와
존 피. 터너스
폴 엠. 톰프슨
마르셀 반 오스
존 에이. 라이트
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20150021943A publication Critical patent/KR20150021943A/en
Application granted granted Critical
Publication of KR101710771B1 publication Critical patent/KR101710771B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Abstract

디스플레이 및 지문 센서를 갖는 전자 디바이스는 제1 사용자 인터페이스를 디스플레이 상에 표시한다. 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에, 디바이스는 지문 센서 상에서의 지문의 이동을 검출한다. 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라, 디바이스는 제1 사용자 인터페이스를 통해 내비게이션하고, 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 디바이스는 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 디스플레이 상에 표시한다.An electronic device having a display and a fingerprint sensor displays a first user interface on a display. While displaying the first user interface on the display, the device detects the movement of the fingerprint on the fingerprint sensor. In response to detecting movement of the fingerprint on the fingerprint sensor: in accordance with the determination that movement of the fingerprint is in the first direction, the device navigates through the first user interface and moves the fingerprint to a second Direction, the device displays on the display a second user interface that is different from the first user interface.

Description

지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스{DEVICE, METHOD, AND GRAPHICAL USER INTERFACE FOR MANIPULATING USER INTERFACES BASED ON FINGERPRINT SENSOR INPUTS}TECHNICAL FIELD [0001] The present invention relates to a device, a method, and a graphical user interface for operating a user interface based on a fingerprint sensor input. BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

관련 출원Related application

본 출원은 2013년 3월 15일자로 출원되고 발명의 명칭이 "지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스(Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs)"인 미국 가특허출원 제61/794,710호; 2012년 7월 3일자 출원되고 발명의 명칭이 "지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스"인 미국 가특허출원 제61/667,926호; 및 2012년 5월 18일자로 출원되고 발명의 명칭이 "지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스"인 미국 가특허출원 제61/649,207호에 대한 우선권을 주장하며, 이 출원들은 전체적으로 본 명세서에 참고로 포함된다.This application is a continuation-in-part of U.S. Patent Application Serial No. 10 / 542,131, filed Mar. 15, 2013, entitled "Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Input quot; on Fingerprint Sensor Inputs ", U.S. Provisional Patent Application No. 61 / 794,710; U.S. Provisional Patent Application No. 61 / 667,926, filed July 3, 2012, entitled " Device, Method and Graphical User Interface for Operating a User Interface Based on Fingerprint Sensor Input "; And U.S. Provisional Patent Application No. 61 / 649,207, filed May 18, 2012, entitled " Device, Method and Graphical User Interface for Operating a User Interface Based on Fingerprint Sensor Input " , Which applications are incorporated herein by reference in their entirety.

본 발명은 전반적으로, 사용자 인터페이스를 조작하기 위한 입력을 검출하는 지문 센서를 갖는 전자 디바이스를 포함하지만 이로 한정되지 않는, 지문 센서를 갖는 전자 디바이스에 관한 것이다.The present invention generally relates to electronic devices having fingerprint sensors, including, but not limited to, electronic devices having fingerprint sensors that detect inputs to manipulate a user interface.

터치-감응 표면(touch-sensitive surface)을 컴퓨터 및 기타 전자 컴퓨팅 디바이스에 대한 입력 디바이스로서 사용하는 것이 최근 몇년간 상당히 증가하였다. 예시적인 터치-감응 표면은 터치패드 및 터치 스크린 디스플레이를 포함한다. 그러한 표면은 디스플레이 상의 사용자 인터페이스 객체들을 조작하기 위해 널리 사용된다. 부가적으로, 일부 전자 디바이스는 사용자를 인증하기 위한 지문 센서를 포함한다.The use of touch-sensitive surfaces as input devices for computers and other electronic computing devices has increased significantly in recent years. An exemplary touch-sensitive surface includes a touchpad and a touchscreen display. Such surfaces are widely used to manipulate user interface objects on the display. Additionally, some electronic devices include a fingerprint sensor for authenticating the user.

예시적인 조작들은 하나 이상의 사용자 인터페이스 객체들의 위치 및/또는 크기를 조정하거나, 버튼을 활성화하거나, 사용자 인터페이스 객체들에 의해 표현되는 파일들/애플리케이션들을 여는 것뿐만 아니라, 메타데이터를 하나 이상의 사용자 인터페이스 객체들과 연관시키는 것 또는 사용자 인터페이스들을 달리 조작하는 것을 포함한다. 예시적인 사용자 인터페이스 객체들은 디지털 이미지, 비디오, 텍스트, 아이콘, 버튼과 같은 제어 요소, 및 기타 그래픽을 포함한다. 일부 환경들에서, 사용자는 그러한 조작들을 파일 관리 프로그램(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.(Apple Inc.)로부터의 파인더(Finder)), 이미지 관리 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 애퍼처(Aperture) 또는 아이포토(iPhoto)), 디지털 콘텐트(예를 들어, 비디오 및 음악) 관리 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이튠즈(iTunes)), 그리기 애플리케이션, 프레젠테이션 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 키노트(Keynote)), 워드 프로세싱 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 페이지스(Pages)), 웹사이트 제작 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이웹(iWeb)), 디스크 저작 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이디비디(iDVD)), 또는 스프레드시트 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 넘버스(Numbers))에서의 사용자 인터페이스 객체들에 대해 수행할 필요가 있을 것이다.Exemplary operations may include manipulating the location of one or more user interface objects such as adjusting the location and / or size of one or more user interface objects, activating buttons, opening files / applications represented by user interface objects, Or otherwise manipulating user interfaces. Exemplary user interface objects include digital images, video, text, icons, control elements such as buttons, and other graphics. In some environments, the user may perform such operations using a file manager (e.g., Finder from Apple Inc. of Cupertino, Calif.), An image management application (e.g., (E.g., Aperture or iPhoto from Apple Inc. of Cupertino, Calif.), Digital content (e.g., video and music) management applications (e.g., Apple (E.g., iTunes from Ink.), A drawing application, a presentation application (e.g., Keynote from Apple Inc., Cupertino, Calif.), A word processing application Pages from Apple Inc., Cupertino, Calif.), Website creation applications (e.g., (IWeb) from Apple Inc. of Tino, a disc authoring application (e.g., iDVD from Apple Inc., Cupertino, Calif.), Or a spreadsheet application (e.g., , Numbers from Apple Inc. of Cupertino, Calif.).

그러나, 이러한 조작들을 수행하기 위한 방법들은 번거롭고 비효율적이다. 게다가, 이러한 방법들은 필요한 것보다 더 오래 걸리고, 이에 의해 에너지를 낭비한다. 이러한 후자의 고려사항은 배터리-작동형 디바이스들에서 특히 중요하다.However, the methods for performing these operations are cumbersome and inefficient. Moreover, these methods take longer than necessary and waste energy. This latter consideration is particularly important in battery-operated devices.

따라서, 사용자 인터페이스를 조작하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 선택적으로, 사용자 인터페이스들을 조작하기 위한 종래의 방법들을 보완하거나 대체한다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.Thus, there is a need for electronic devices having faster and more efficient methods and interfaces for manipulating the user interface. Such methods and interfaces optionally complement or replace conventional methods for manipulating user interfaces. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

터치-감응 표면들을 갖는 전자 디바이스들을 위한 사용자 인터페이스들과 연관된 상기 결점들 및 다른 문제점들은 개시된 디바이스들에 의해 감소되거나 제거된다. 일부 실시예들에서, 디바이스는 데스크톱 컴퓨터이다. 일부 실시예들에서, 디바이스는 휴대용(예를 들어, 노트북 컴퓨터, 태블릿 컴퓨터, 또는 핸드헬드 디바이스)이다. 일부 실시예들에서, 디바이스는 터치패드를 갖는다. 일부 실시예들에서, 디바이스는 터치-감응 디스플레이("터치 스크린" 또는 "터치 스크린 디스플레이"로서 또한 알려짐)를 갖는다. 일부 실시예들에서, 디바이스는 지문 센서를 갖는다. 일부 실시예들에서, 디바이스는 그래픽 사용자 인터페이스(graphical user interface, GUI), 하나 이상의 프로세서들, 메모리, 및 다수의 기능들을 수행하기 위해 메모리에 저장되는 하나 이상의 모듈들, 프로그램들 또는 명령어들의 세트들을 갖는다. 일부 실시예들에서, 사용자는 주로 터치-감응 표면 및/또는 지문 센서 상에서의 손가락 접촉 및 제스처를 통해 GUI와 상호작용한다. 일부 실시예들에서, 기능들은 선택적으로, 이미지 편집, 그리기, 프레젠팅(presenting), 워드 프로세싱, 웹사이트 생성, 디스크 저작, 스프레드시트 작성, 게임 플레잉, 전화 걸기, 화상 회의, 이메일 보내기, 인스턴트 메시징, 운동 지원, 디지털 사진촬영, 디지털 비디오 녹화, 웹 브라우징, 디지털 음악 재생, 및/또는 디지털 비디오 재생을 포함할 수 있다. 이들 기능을 수행하기 위한 실행가능 명령어들은 선택적으로, 비일시적 컴퓨터 판독가능 저장 매체 또는 하나 이상의 프로세서들에 의한 실행을 위해 구성된 다른 컴퓨터 프로그램 제품에 포함된다.Such deficiencies and other problems associated with user interfaces for electronic devices having touch-sensitive surfaces are reduced or eliminated by the disclosed devices. In some embodiments, the device is a desktop computer. In some embodiments, the device is portable (e.g., a notebook computer, tablet computer, or handheld device). In some embodiments, the device has a touchpad. In some embodiments, the device has a touch-sensitive display (also known as a "touch screen" or "touch screen display"). In some embodiments, the device has a fingerprint sensor. In some embodiments, the device includes a graphical user interface (GUI), one or more processors, a memory, and one or more modules, programs, or sets of instructions stored in memory for performing a number of functions . In some embodiments, the user interacts with the GUI primarily through finger touches and gestures on the touch-sensitive surface and / or the fingerprint sensor. In some embodiments, the functions are optionally selected from the group consisting of image editing, drawing, presenting, word processing, website creation, disk authoring, spreadsheet creation, gameplay, dialing, video conferencing, , Motion support, digital photography, digital video recording, web browsing, digital music playback, and / or digital video playback. Executable instructions for performing these functions are optionally included in non-transitory computer readable storage media or other computer program products configured for execution by one or more processors.

일부 실시예들에 따르면, 전자 디바이스는 지문 센서, 디스플레이, 및/또는 터치-감응 표면, 하나 이상의 프로세서들, 메모리, 및 하나 이상의 프로그램들을 포함하고; 하나 이상의 프로그램들은 메모리에 저장되며 하나 이상의 프로세서들에 의해 실행되도록 구성되고, 하나 이상의 프로그램들은 전술된 방법들 중 임의의 방법의 동작들을 수행하기 위한 명령어들을 포함한다. 일부 실시예들에 따르면, 지문 센서, 디스플레이, 선택적으로 터치-감응 표면, 메모리, 및 메모리에 저장된 하나 이상의 프로그램들을 실행시키는 하나 이상의 프로세서들을 갖는 전자 디바이스 상의 그래픽 사용자 인터페이스는, 전술된 방법들 중 임의의 방법에 기술된 바와 같이, 입력들에 응답하여 업데이트되는, 전술된 방법들 중 임의의 방법으로 표시되는 요소들 중 하나 이상을 포함한다. 일부 실시예들에 따르면, 컴퓨터 판독가능 저장 매체는, 지문 센서 및 선택적으로 디스플레이 및/또는 터치-감응 표면을 갖는 전자 디바이스에 의해 실행될 때, 디바이스로 하여금 전술된 방법들 중 임의의 방법의 동작들을 수행하게 하는 명령어들을 내부에 저장하였다. 일부 실시예들에 따르면, 전자 디바이스는, 지문 센서 및 선택적으로 디스플레이 및 터치-감응 표면; 및 전술된 방법들 중 임의의 방법의 동작들을 수행하기 위한 수단을 포함한다. 일부 실시예들에 따르면, 지문 센서 및 선택적으로 디스플레이 및/또는 터치-감응 표면을 갖는 전자 디바이스에서의 사용을 위한 정보 프로세싱 장치가, 전술된 방법들 중 임의의 방법의 동작들을 수행하기 위한 수단을 포함한다.According to some embodiments, an electronic device includes a fingerprint sensor, a display, and / or a touch-sensitive surface, one or more processors, a memory, and one or more programs; One or more programs are stored in memory and configured to be executed by one or more processors, and one or more programs include instructions for performing operations of any of the methods described above. According to some embodiments, a graphical user interface on an electronic device having a fingerprint sensor, a display, optionally a touch-sensitive surface, a memory, and one or more processors executing one or more programs stored in memory, Described in any of the above-described methods, which are updated in response to inputs, as described in the method of < RTI ID = 0.0 > According to some embodiments, the computer-readable storage medium further includes instructions that, when executed by an electronic device having a fingerprint sensor and optionally a display and / or a touch-sensitive surface, cause the device to perform operations of any of the methods described above I have stored the commands to be executed inside. According to some embodiments, the electronic device includes a fingerprint sensor and optionally a display and a touch-sensitive surface; And means for performing operations of any of the methods described above. According to some embodiments, an information processing apparatus for use in an electronic device having a fingerprint sensor and optionally a display and / or a touch-sensitive surface comprises means for performing operations of any of the methods described above .

휴대용 다기능 디바이스 상에서의 사용자 인터페이스들과의 편리한 상호작용을 위한(예를 들어, 애플리케이션을 통해 내비게이션하기 위한, 하나의 애플리케이션 인터페이스로부터 다른 애플리케이션 인터페이스로 전환하기 위한, 또는 멀티태스킹 사용자 인터페이스를 표시하기 위한) 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스들과의 상호작용을 위한(예를 들어, 애플리케이션 사용자 인터페이스를 통해 내비게이션하기 위한, 애플리케이션 사용자 인터페이스들 사이에서 전환하기 위한, 또는 멀티태스킹 사용자 인터페이스를 표시하기 위한) 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.For convenient interaction with user interfaces on a portable multifunction device (e.g., for navigating through an application, for switching from one application interface to another, or for displaying a multitasking user interface) There is a need for electronic devices having faster and more efficient methods and interfaces. Such methods and interfaces are well known in the art for interacting with user interfaces (e.g., for navigating through an application user interface, for switching between application user interfaces, or for displaying a multitasking user interface) The methods of the present invention can be supplemented or substituted. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 디스플레이 상에 제1 사용자 인터페이스를 표시하는 단계를 포함한다. 이 방법은 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에, 지문 센서 상에서의 지문의 이동을 검출하기 위한 단계를 추가로 포함한다. 이 방법은 또한, 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라, 제1 사용자 인터페이스를 통해 내비게이션하는 단계, 및 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 디스플레이 상에 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes displaying a first user interface on a display. The method further includes the step of detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display. The method also includes, in response to detecting movement of the fingerprint on the fingerprint sensor: navigating through the first user interface in accordance with the determination that movement of the fingerprint is in the first direction, and moving the fingerprint in the first direction And displaying a second user interface different from the first user interface on the display, in accordance with a determination that the second user interface is in a second direction different from the first user interface.

일부 실시예들에 따르면, 전자 디바이스는 제1 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛, 지문 센서 유닛, 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 일부 실시예들에서, 프로세싱 유닛은 검출 유닛, 내비게이션 유닛, 디스플레이 인에이블링 유닛(display enabling unit), 및 대체 유닛을 포함한다. 프로세싱 유닛은, 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에, 지문 센서 상에서의 지문의 이동을 검출하고; 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라, 제1 사용자 인터페이스를 통해 내비게이션하고, 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 디스플레이 유닛 상에서의 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스의 표시를 가능하게 하도록 구성된다.According to some embodiments, the electronic device includes a display unit configured to display a first user interface, a fingerprint sensor unit, and a processing unit coupled to the display unit and the fingerprint sensor unit. In some embodiments, the processing unit includes a detection unit, a navigation unit, a display enabling unit, and a replacement unit. The processing unit detects the movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display; In response to detecting movement of the fingerprint on the fingerprint sensor: navigating through the first user interface as the movement of the fingerprint is in the first direction and moving the fingerprint in a second direction different from the first direction , A display of a second user interface different from the first user interface on the display unit is enabled.

따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 사용자 인터페이스들 사이에서의 전환을 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스들 사이에서의 전환을 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and fingerprint sensors provide faster, more efficient methods and interfaces for switching between user interfaces, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for switching between user interfaces.

다수의 목적들을 만족시키는 버튼들을 갖는(예를 들어, 활성화 시 버튼이 디바이스로 하여금 제1 동작, 또는 소정 기준에 따라 제1 동작과는 상이한 제2 동작을 수행하게 하도록 하는) 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 버튼들이 다수의 목적들을 만족시키게 하기 위한 종래의 방법들을 보완 또는 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다. 휴대용 다기능 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 또한 디바이스의 하우징 상에서의 귀중한 물리적 공간을 절약하여, 보다 큰 스크린 및 보다 양호한 사용자 경험을 허용한다.A faster and more efficient method (e.g., allowing a button at activation to cause the device to perform a first action, or a second action different from the first action in accordance with certain criteria) RTI ID = 0.0 > and / or < / RTI > interfaces. Such methods and interfaces may complement or replace conventional methods for allowing buttons to fulfill multiple purposes. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges. For portable multifunctional devices, such methods and interfaces also save valuable physical space on the device ' s housing, allowing for a larger screen and better user experience.

일부 실시예들에 따르면, 통합형 지문 센서를 포함하는 버튼을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 통합형 지문 센서 상에서 지문을 검출하는 단계를 포함한다. 이 방법은, 통합형 지문 센서 상에서 지문을 계속 검출하는 동안에, 버튼의 활성화를 검출하는 단계를 추가로 포함한다. 이 방법은, 버튼의 활성화를 검출하는 것에 응답하여, 그리고 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속적으로 검출되지 않았다는 결정에 따라, 버튼의 활성화와 연관된 미리 정해진 동작인 제1 동작을 수행하는 단계를 추가로 포함한다. 이 방법은, 버튼의 활성화를 검출하는 것에 응답하여, 그리고 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속적으로 검출되었다는 결정에 따라, 제1 동작과는 상이한 제2 동작 - 상기 제2 동작은 버튼의 활성화를 검출하기 직전에 디스플레이 상에 표시되는 사용자 인터페이스와 연관된 동작임 - 을 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a button including an integrated fingerprint sensor. The method includes detecting fingerprints on an integrated fingerprint sensor. The method further includes detecting activation of the button while continuing to detect the fingerprint on the integrated fingerprint sensor. The method comprises the steps of: in response to detecting the activation of the button and in response to a determination that fingerprint has not been continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting activation of the button, To perform the first operation. The method comprises the steps of: in response to detecting activation of the button and in response to a determination that the fingerprint has been continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting activation of the button, The second operation being an operation associated with a user interface displayed on the display immediately prior to detecting activation of the button.

일부 실시예들에 따르면, 전자 디바이스는 통합형 지문 센서 유닛을 갖는 버튼 유닛; 및 버튼 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 통합형 지문 센서 유닛 상에서 지문을 검출하도록 구성된다. 프로세싱 유닛은, 통합형 지문 센서 유닛 상에서 지문을 계속 검출하는 동안에, 버튼 유닛의 활성화를 검출하도록 추가로 구성된다. 프로세싱 유닛은, 버튼 유닛의 활성화를 검출하는 것에 응답하여, 그리고 버튼 유닛의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛 상에서 지문이 계속적으로 검출되지 않았다는 결정에 따라, 버튼 유닛의 활성화와 연관된 미리 정해진 동작인 제1 동작을 수행하도록 추가로 구성된다. 프로세싱 유닛은, 버튼 유닛의 활성화를 검출하는 것에 응답하여, 그리고 버튼 유닛의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛 상에서 지문이 계속적으로 검출되었다는 결정에 따라, 상기 제1 동작과는 상이한 제2 동작 - 상기 제2 동작은 상기 버튼 유닛의 활성화를 검출하기 직전에 디스플레이 유닛 상에 표시되는 사용자 인터페이스와 연관된 동작임 - 을 수행하도록 추가로 구성된다.According to some embodiments, the electronic device includes a button unit having an integrated fingerprint sensor unit; And a processing unit coupled to the button unit. The processing unit is configured to detect the fingerprint on the integrated fingerprint sensor unit. The processing unit is further configured to detect activation of the button unit while the fingerprint is continuously detected on the integrated fingerprint sensor unit. The processing unit may be configured to activate and deactivate the button unit in response to detecting activation of the button unit and upon determining that the fingerprint has not been continuously detected on the integrated fingerprint sensor unit for a predetermined period of time prior to detecting activation of the button unit And is further configured to perform a first operation that is an associated predefined operation. The processing unit may be configured to determine whether the fingerprint is continuously detected on the integrated fingerprint sensor unit for a predetermined period of time prior to detecting activation of the button unit and prior to detecting activation of the button unit, A second different operation, wherein the second operation is an operation associated with a user interface displayed on the display unit immediately prior to detecting activation of the button unit.

따라서, 통합형 지문 센서들을 갖는 버튼들을 구비하는 전자 디바이스들에는 상기 버튼들이 다수의 목적들을 만족시키게 하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 버튼들이 다수의 목적들을 만족시키게 하기 위한 종래의 방법들을 보완 또는 대체할 수 있다.Thus, electronic devices having buttons with integrated fingerprint sensors are provided with faster and more efficient methods and interfaces for allowing the buttons to fulfill a number of purposes, such that validity, efficiency and user satisfaction . Such methods and interfaces may complement or replace conventional methods for allowing buttons to fulfill multiple purposes.

사용자 인터페이스의 배향을 잠금하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스의 배향을 잠금하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for locking the orientation of the user interface. Such methods and interfaces may complement or replace conventional methods for locking the orientation of the user interface. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 디바이스의 제1 배향과 연관된 제1 배향-특정 동작 모드(orientation-specific mode of operation), 및 디바이스의 제1 배향과는 상이한 디바이스의 제2 배향과 연관된 제2 배향-특정 동작 모드를 갖는 사용자 인터페이스를 디스플레이 상에 표시하는 단계; 사용자 인터페이스의 배향이 잠금되지 않은 동안에, 디바이스가 제1 배향에 있을 경우에 사용자 인터페이스를 제1 배향-특정 동작 모드로 표시하는 단계, 및 디바이스가 제2 배향에 있을 경우에 사용자 인터페이스를 제2 배향-특정 동작 모드로 표시하는 단계; 지문 센서 상에서 지문을 검출하는 단계; 사용자 인터페이스가 제1 배향-특정 동작 모드에 있는 동안에, 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 단계; 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여, 사용자 인터페이스를 제1 배향-특정 동작 모드에서 잠금되게 하는 단계; 및 사용자 인터페이스가 제1 배향-특정 동작 모드에서 잠금된 동안에, 디바이스가 제2 배향에 있음을 검출하고 사용자 인터페이스를 제1 배향-특정 동작 모드에서 유지하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes a first orientation-specific mode of operation associated with a first orientation of the device, and a second orientation-specific mode of operation associated with a second orientation of the device different from the first orientation of the device, Displaying a user interface on the display; Displaying the user interface in a first orientation-specific mode of operation when the device is in a first orientation while the orientation of the user interface is unlocked, and displaying the user interface in a second orientation- - displaying in a specific mode of operation; Detecting a fingerprint on the fingerprint sensor; Detecting rotation of the fingerprint on the fingerprint sensor in the first direction while the user interface is in the first orientation-specific mode of operation; Responsive to detecting rotation of the fingerprint on the fingerprint sensor in the first direction, locking the user interface in a first orientation-specific mode of operation; And detecting that the device is in a second orientation and holding the user interface in a first orientation-specific mode of operation while the user interface is locked in the first orientation-specific mode of operation.

일부 실시예들에 따르면, 전자 디바이스는 디바이스의 제1 배향과 연관된 제1 배향-특정 동작 모드, 및 디바이스의 제1 배향과는 상이한 디바이스의 제2 배향과 연관된 제2 배향-특정 동작 모드를 갖는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 사용자 인터페이스의 배향이 잠금되지 않은 동안에: 디바이스가 제1 배향에 있을 경우에 제1 배향-특정 동작 모드로의 사용자 인터페이스의 표시를 가능하게 하고, 디바이스가 제2 배향에 있을 경우에 제2 배향-특정 동작 모드로의 사용자 인터페이스의 표시를 가능하게 하고; 지문 센서 유닛 상에서 지문을 검출하고; 사용자 인터페이스가 제1 배향-특정 동작 모드에 있는 동안에, 제1 방향으로의 지문 센서 유닛 상에서의 지문의 회전을 검출하고; 제1 방향으로의 지문 센서 유닛 상에서의 지문의 회전을 검출하는 것에 응답하여, 사용자 인터페이스를 제1 배향-특정 동작 모드에서 잠금되게 하고; 사용자 인터페이스가 제1 배향-특정 동작 모드에서 잠금된 동안에, 디바이스가 제2 배향에 있음을 검출하고 사용자 인터페이스를 제1 배향-특정 동작 모드에서 유지하도록 구성된다.According to some embodiments, the electronic device has a first orientation-specific mode of operation associated with a first orientation of the device and a second orientation-specific mode of operation associated with a second orientation of the device that is different from the first orientation of the device A display unit configured to display a user interface; A fingerprint sensor unit; And a processing unit coupled to the display unit and the fingerprint sensor unit. The processing unit is configured to enable the display of the user interface in the first orientation-specific mode of operation when the orientation of the user interface is unlocked: when the device is in the first orientation, Enable display of a user interface in a second orientation-specific mode of operation; Detecting a fingerprint on the fingerprint sensor unit; Detecting rotation of the fingerprint on the fingerprint sensor unit in the first direction while the user interface is in the first orientation-specific mode of operation; In response to detecting rotation of the fingerprint on the fingerprint sensor unit in the first direction, locking the user interface in a first orientation-specific mode of operation; Is configured to detect that the device is in a second orientation and to maintain the user interface in a first orientation-specific mode of operation while the user interface is locked in the first orientation-specific mode of operation.

따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 사용자 인터페이스의 배향을 잠금하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스의 배향을 잠금하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and fingerprint sensors provide faster, more efficient methods and interfaces for locking the orientation of the user interface, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for locking the orientation of the user interface.

지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for controlling noise reduction in recorded audio using fingerprint sensors. Such methods and interfaces may supplement or replace conventional methods for controlling noise reduction in recorded audio using a fingerprint sensor. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은 디바이스를 이용하여 미디어를 기록하는 단계를 포함하는데, 여기서 미디어를 기록하는 단계는 오디오를 녹음하는 단계를 포함한다. 이 방법은, 미디어를 기록하는 동안에, 녹음된 오디오에서, 디바이스의 제1 면에서 발생한 잡음을 감소시키는 단계, 지문 센서 상에서 지문을 검출하는 단계, 및 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스의 제1 면에서 발생한 잡음을 감소시키는 것을 중단하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a fingerprint sensor. The method includes recording the media using the device, wherein recording the media includes recording the audio. The method includes the steps of: during recording of the media, in recorded audio, reducing noise generated on a first side of the device, detecting a fingerprint on the fingerprint sensor, and in response to detecting the fingerprint on the fingerprint sensor, And ceasing to reduce the noise generated on the first side of the signal.

일부 실시예들에 따르면, 전자 디바이스는 지문들을 검출하도록 구성된 지문 센서 유닛, 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 디바이스를 이용하여 미디어를 기록하도록 구성되는데, 여기서 미디어를 기록하는 것은 오디오를 녹음하는 것을 포함한다. 프로세싱 유닛은, 미디어를 기록하는 동안에, 녹음된 오디오에서, 디바이스의 제1 면에서 발생한 잡음을 감소시키고, 지문 센서 유닛 상에서 지문을 검출하고, 지문 센서 유닛 상에서 지문을 검출하는 것에 응답하여, 디바이스의 제1 면에서 발생한 잡음을 감소시키는 것을 중단하도록 추가로 구성된다.According to some embodiments, the electronic device includes a fingerprint sensor unit configured to detect fingerprints, and a processing unit coupled to the fingerprint sensor unit. The processing unit is configured to record the media using the device, wherein recording the media includes recording the audio. The processing unit is configured to, during recording of the media, reduce the noise generated in the first side of the device in the recorded audio, detect the fingerprint on the fingerprint sensor unit, and, in response to detecting the fingerprint on the fingerprint sensor unit, And is further configured to stop reducing noise generated on the first side.

따라서, 지문 센서들을 갖는 전자 디바이스들에는, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices with fingerprint sensors are provided with faster and more efficient methods and interfaces for controlling noise reduction in recorded audio using a fingerprint sensor, thereby enabling validation, Increases satisfaction. Such methods and interfaces may supplement or replace conventional methods for controlling noise reduction in recorded audio using a fingerprint sensor.

디바이스의 현재의 사용자에 맞춤된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 디바이스의 현재의 사용자에 맞춤된 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for performing operations customized to the current user of the device. Such methods and interfaces may complement or replace conventional methods tailored to the current user of the device. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이, 각자의 입력 요소 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 하나 이상의 사용자-특정 프로파일들, 및 각자의 사용자 부류에 각각 대응하는, 사용자-특정 프로파일들과는 구별되는 하나 이상의 부류-기반 프로파일들을 포함하는 복수의 프로파일들을 획득하는 단계; 지문 센서 상에서 제1 지문을 검출하는 단계; 제1 지문이 제1 부류-기반 프로파일과 연관된 제1 사용자 부류 내의 사용자의 지문에 대응한다는 결정에 따라 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한, 이전에 등록된 지문으로서의 제1 지문의 인증과는 상관없이, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일로서 선택하는 단계; 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소를 이용하여 수신하는 단계; 및 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 요청 및 제1 부류-기반 프로파일에 기초하여 각자의 동작을 수행하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a respective input element, and a fingerprint sensor. The method comprises the steps of: obtaining a plurality of profiles comprising one or more user-specific profiles, and one or more class-based profiles distinct from user-specific profiles, each corresponding to a respective user class; Detecting a first fingerprint on the fingerprint sensor; Based profile as an active profile in accordance with a determination that the first fingerprint corresponds to a fingerprint of the user in a first user class associated with the first class-based profile, the first fingerprint as a previously registered fingerprint Selecting one or more class-based profiles associated with the device as an activation profile corresponding to the first fingerprint, regardless of the authentication of the first fingerprint; The method comprising: receiving input corresponding to a request to perform one or more operations on a device using its respective input element; And performing respective operations based on the request and the first class-based profile in response to receiving the input using the respective input element while the first class-based profile is selected as the active profile.

일부 실시예들에 따르면, 전자 디바이스는 디스플레이 유닛; 각자의 입력 요소 유닛; 지문 센서 유닛; 및 디스플레이 유닛, 각자의 입력 요소 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 일부 실시예들에서, 프로세싱 유닛은 획득 유닛, 검출 유닛, 선택 유닛, 수행 유닛, 결정 유닛, 및 식별 유닛을 포함한다. 프로세싱 유닛은, 하나 이상의 사용자-특정 프로파일들, 및 각자의 사용자 부류에 각각 대응하는, 사용자-특정 프로파일들과는 구별되는 하나 이상의 부류-기반 프로파일들을 포함하는 복수의 프로파일들을 획득하고; 지문 센서 유닛 상에서 제1 지문을 검출하고; 제1 지문이 제1 부류-기반 프로파일과 연관된 제1 사용자 부류 내의 사용자의 지문에 대응한다는 결정에 따라 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한, 이전에 등록된 지문으로서의 제1 지문의 인증과는 상관없이, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일로서 선택하고; 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소 유닛을 이용하여 수신하고; 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소 유닛을 이용하여 입력을 수신하는 것에 응답하여, 요청 및 제1 부류-기반 프로파일에 기초하여 각자의 동작을 수행하도록 구성된다.According to some embodiments, the electronic device comprises a display unit; Each input element unit; A fingerprint sensor unit; And a processing unit coupled to the display unit, the respective input element unit and the fingerprint sensor unit. In some embodiments, the processing unit includes an acquisition unit, a detection unit, a selection unit, a performance unit, a determination unit, and an identification unit. Wherein the processing unit is configured to: obtain a plurality of profiles including one or more user-specific profiles, and one or more class-based profiles distinct from user-specific profiles, each corresponding to a respective user class; Detecting a first fingerprint on the fingerprint sensor unit; Based profile as an active profile in accordance with a determination that the first fingerprint corresponds to a fingerprint of the user in a first user class associated with the first class-based profile, the first fingerprint as a previously registered fingerprint Irrespective of the authentication of the device, selecting one or more class-based profiles associated with the device as an activation profile corresponding to the first fingerprint; Receive an input corresponding to a request to perform one or more operations on the device using its respective input element unit; In response to receiving inputs using their respective input element units while the first class-based profile is selected as the active profile, to perform their respective operations based on the request and the first class-based profile.

따라서, 디스플레이들, 각자의 입력 요소들 및 지문 센서들을 갖는 전자 디바이스들에는 디바이스의 현재의 사용자에 맞춤된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, their respective input elements, and fingerprint sensors are provided with faster and more efficient methods and interfaces for performing operations customized for the current user of the device, , Increasing efficiency and user satisfaction. Such methods and interfaces may complement or replace conventional methods for performing operations based on a class-based profile.

지문들에 기초하여 로깅 선호도를 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 로깅 선호도를 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다. 휴대용 다기능 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 분실되거나 도난당한 디바이스들이 보다 용이하게 회수되게 한다.There is a need for electronic devices having faster and more efficient methods and interfaces for changing logging preferences based on fingerprints. Such methods and interfaces may complement or replace conventional methods for changing logging preferences. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges. For portable multifunctional devices, such methods and interfaces allow for easier recovery of lost or stolen devices.

일부 실시예들에 따르면, 디스플레이, 각자의 입력 요소 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 지문 센서 상에서 제1 지문을 검출하는 단계 및 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하는 단계를 포함한다. 이 방법은, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라, 각자의 사용자 프로파일을 활성 프로파일로서 설정하는 단계를 추가로 포함한다. 이 방법은, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 임의의 사용자 프로파일과 연관되지 않는다는 결정에 따라, 디폴트 프로파일을 활성 프로파일로서 설정하는 단계를 추가로 포함한다. 이 방법은, 요청된 동작을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소를 이용하여 수신하는 단계를 추가로 포함한다. 이 방법은, 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여 그리고 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제1 세트의 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행하는 단계를 추가로 포함한다. 이 방법은, 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여 그리고 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제2 세트의 동작을 디폴트 프로파일의 로깅 선호도에 따라 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a respective input element, and a fingerprint sensor. The method includes detecting a first fingerprint on the fingerprint sensor and determining whether the first fingerprint is associated with a user profile associated with the device. The method further comprises setting each user's profile as an active profile, after determining whether the first fingerprint is associated with a user profile associated with the device, and upon determining that the first fingerprint is associated with a respective user profile associated with the device . The method comprises the steps of setting a default profile as an active profile, after determining whether the first fingerprint is associated with a user profile associated with the device, and upon determining that the first fingerprint is not associated with any user profile associated with the device . The method further comprises receiving input corresponding to a request to perform the requested operation using its respective input element. The method includes, in response to receiving an input using a respective input element, and in accordance with a determination that each user profile is an active profile, a first set of one or more operations associated with the requested operation, According to the preference. The method comprises the steps of: in response to receiving an input using a respective input element, and in accordance with a determination that the user profile of the respective user is an active profile, Further comprising the step of performing an action according to the logging profile preference of the default profile.

일부 실시예들에 따르면, 전자 디바이스는 요청된 동작을 수행하라는 요청에 대응하는 입력을 수신하도록 구성된 각자의 입력 유닛; 지문 센서 유닛; 및 지문 센서 유닛 및 각자의 입력 유닛에 결합된 프로세싱 유닛을 포함하고, 프로세싱 유닛은, 지문 센서 유닛 상에서 제1 지문을 검출하고, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하도록 구성된다. 프로세싱 유닛은, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에: 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라, 각자의 사용자 프로파일을 활성 프로파일로서 설정하고, 제1 지문이 디바이스와 연관된 어떠한 사용자 프로파일과도 연관되지 않는다는 결정에 따라, 디폴트 프로파일을 활성 프로파일로서 설정하도록 추가로 구성된다. 프로세싱 유닛은, 각자의 입력 유닛을 이용하여 입력을 수신하는 것에 응답하여: 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제1 세트의 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행하고, 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제2 세트의 동작을 디폴트 프로파일의 로깅 선호도에 따라 수행하도록 추가로 구성된다.According to some embodiments, the electronic device comprises a respective input unit configured to receive an input corresponding to a request to perform a requested operation; A fingerprint sensor unit; And a processing unit coupled to the fingerprint sensor unit and the respective input unit, the processing unit configured to detect a first fingerprint on the fingerprint sensor unit and to determine whether the first fingerprint is associated with a user profile associated with the device do. The processing unit may determine, after determining whether the first fingerprint is associated with a user profile associated with the device: after determining that the first fingerprint is associated with a respective user profile associated with the device, The first fingerprint is further configured to set the default profile as an active profile, in accordance with a determination that the first fingerprint is not associated with any user profile associated with the device. The processing unit is further configured to, in response to receiving an input using its respective input unit: in response to a determination that each user profile is an active profile, one or more operations of the first set associated with the requested operation, And to perform a second set of operations associated with the requested operation in accordance with the default profile's logging preference, in accordance with the determination that the default profile is an active profile.

따라서, 입력 요소들 및 지문 센서들을 갖는 전자 디바이스들에는 지문들에 기초하여 로깅 선호도를 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 로깅 선호도를 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices with input elements and fingerprint sensors are provided with faster and more efficient methods and interfaces for changing logging preferences based on fingerprints, thereby increasing validity, efficiency and user satisfaction by such devices . Such methods and interfaces may complement or replace conventional methods for changing logging preferences.

지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다(예를 들어, 지문 검증 정보가 각자의 제한된 동작에 대한 각자의 허가 기준을 충족시키는 경우). 그러한 방법들 및 인터페이스들은 각자의 제한된 동작을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices that have faster and more efficient methods and interfaces for performing their respective limited operations based on fingerprint verification information (e.g., fingerprint verification information may be provided to each individual If they meet the permit criteria). Such methods and interfaces may complement or replace conventional methods for performing their respective limited operations. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 방법은 지문들의 검증을 제어하기 위한 지문 검증 기준을 획득하는 단계를 포함한다. 각자의 제한된 동작들에 대응하는 복수의 각자의 입력들 각각에 대해, 이 방법은 각자의 입력의 지문 특징들을 식별하는 단계, 및 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정하는 단계를 추가로 포함한다: 각자의 입력의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준.마지막으로, 각자의 입력을 검출하는 것에 응답하여, 이 방법은, 지문 검증 정보가 각자의 제한된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 각자의 제한된 동작을 수행하는 단계, 및 지문 검증 정보가 제한된 동작에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라, 각자의 제한된 동작의 수행을 중지하는 단계를 포함한다.According to some embodiments, the method includes obtaining fingerprint verification criteria for controlling verification of fingerprints. For each of a plurality of respective inputs corresponding to their respective limited actions, the method comprises the steps of: identifying fingerprint features of each input; and determining fingerprint verification information for each input based at least in part on: A comparison between the fingerprint features of the respective input and one or more previously registered fingerprints, and a fingerprint verification criterion. Finally, in response to detecting the respective input, The method further comprises the steps of performing a respective limited action in accordance with the determination that the fingerprint verification information meets their respective permission criteria for their respective limited actions and that the fingerprint verification information does not meet the respective authorization criteria for the restricted action And stopping the execution of each of the limited operations in accordance with the determination.

일부 실시예들에 따르면, 전자 디바이스는 정보를 표시하도록 구성된 디스플레이 유닛; 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 지문들의 검증을 제어하기 위한 지문 검증 기준을 획득하도록 구성된다. 각자의 제한된 동작들에 대응하는 복수의 각자의 입력들 각각에 대해, 프로세싱 유닛은 각자의 입력의 지문 특징들을 식별하고, 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정하도록 추가로 구성된다: 각자의 입력의 지문 특징과 하나 이상의 이전에 등록된 지문의 지문 특징 사이의 비교, 및 지문 검증 기준. 마지막으로, 각자의 입력을 검출하는 것에 응답하여, 프로세싱 유닛은, 지문 검증 정보가 각자의 제한된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 각자의 제한된 동작을 수행하고, 지문 검증 정보가 제한된 동작에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라, 각자의 제한된 동작의 수행을 중지하도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display information; A fingerprint sensor unit; And a processing unit coupled to the display unit and the fingerprint sensor unit. The processing unit is configured to obtain fingerprint verification criteria for controlling verification of fingerprints. For each of a plurality of respective inputs corresponding to their respective limited actions, the processing unit identifies the fingerprint features of the respective input, and is further adapted to determine fingerprint verification information for each input based at least in part on : A comparison between the fingerprint characteristics of each input and one or more previously registered fingerprint features, and a fingerprint verification criterion. Finally, in response to detecting their respective inputs, the processing unit performs their respective limited actions in accordance with the determination that the fingerprint verification information meets their respective permission criteria for their respective limited actions, and the fingerprint verification information Are configured to cease performing their respective limited actions in accordance with a determination that they do not meet their respective permit criteria for the restricted action.

따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 지문 검증 정보에 기초하여 각자의 제한된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 각자의 제한된 동작을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays and fingerprint sensors are provided with faster and more efficient methods and interfaces for performing their respective limited actions based on fingerprint verification information, thereby providing a means for validating, . Such methods and interfaces may complement or replace conventional methods for performing their respective limited operations.

아이덴티티 및 위치 정보를 연관시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 아이덴티티 및 위치 정보를 연관시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for associating identity and location information. Such methods and interfaces may complement or replace conventional methods for associating identity and location information. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은 디스플레이 상에 지도를 표시하는 단계 및 활성화 입력을 검출하는 단계를 포함한다. 활성화 입력은 각자의 지리적 위치에 대응하는 지도 상의 표시된 위치 및 지문 센서 상에서 검출된 지문과 연관된다. 이 방법은, 활성화 입력을 검출하는 것에 응답하여, 지문에 대응하는 사용자를 식별하는 단계, 및 각자의 지리적 위치 및 사용자와 연관되는 동작을 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes displaying a map on a display and detecting an activation input. The activation input is associated with the fingerprint detected on the fingerprint sensor and the indicated location on the map corresponding to the respective geographic location. The method further comprises, in response to detecting an activation input, identifying a user corresponding to the fingerprint, and performing an action associated with the user's geographic location and the user.

일부 실시예들에 따르면, 전자 디바이스는 지도를 표시하도록 구성된 디스플레이 유닛; 지문을 검출하도록 구성된 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 일부 실시예들에서, 디스플레이 유닛은 터치-감응 디스플레이 유닛이고, 지문 센서 유닛은 터치-감응 디스플레이 유닛 상에서 지문들을 검출한다. 프로세싱 유닛은, 활성화 입력 - 상기 활성화 입력은 각자의 지리적 위치에 대응하는 지도 상의 표시된 위치 및 지문 센서 유닛 상에서 검출된 지문과 연관됨 - 을 검출하고; 활성화 입력을 검출하는 것에 응답하여: 지문에 대응하는 사용자를 식별하고, 각자의 지리적 위치 및 사용자와 연관되는 동작을 수행하도록 구성된다.According to some embodiments, the electronic device includes a display unit configured to display a map; A fingerprint sensor unit configured to detect fingerprints; And a processing unit coupled to the display unit and the fingerprint sensor unit. In some embodiments, the display unit is a touch-sensitive display unit, and the fingerprint sensor unit detects fingerprints on the touch-sensitive display unit. The processing unit detects an activation input, the activation input being associated with a fingerprint detected on a fingerprint sensor unit and a displayed location on a map corresponding to a respective geographic location; In response to detecting an activation input: identifying a user corresponding to the fingerprint, and performing an action associated with the user's respective geographic location and user.

따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 아이덴티티 및 위치 정보를 연관시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 아이덴티티 및 위치 정보를 연관시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices with displays and fingerprint sensors provide faster and more efficient methods and interfaces for associating identity and location information, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for associating identity and location information.

하나 이상의 사용자들이 그들 자신의 개인 작업 공간 또는 작업 영역을 생성 및 한정할 수 있게 하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 따라서, 개시된 실시예들은 다기능 디바이스 상에서 보다 큰 공유 작업 공간 내에 각자의 작업 공간의 경계들을 한정하도록 그리고 그들의 개인 선호도에 기초하여 그들 각자의 작업 공간을 그들 각자의 맞춤 사용자 설정들과 연관시키도록 터치-감응 표면 상에 사용자가 두는 접촉들에서의 사용자들의 지문들의 검출에 기초하여 하나 이상의 사용자들에게 각자의 작업 공간들을 할당하기 위한 방법들을 제공한다. 그러한 방법들 및 인터페이스들은 작업 공간들을 하나 이상의 사용자들에게 할당하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for allowing one or more users to create and define their own personal workspace or workspace. Thus, the disclosed embodiments provide a touch-sensitive device that is able to define boundaries of their workspace within a larger shared workspace on a multifunction device and associate their respective workspaces with their respective customized user settings based on their personal preferences. And methods for assigning their respective workspaces to one or more users based on the detection of users' fingerprints on contacts the user places on the sensitive surface. Such methods and interfaces may complement or replace conventional methods for assigning workspaces to one or more users. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 터치-감응 표면의 제1 영역을 한정하는 제1 세트의 하나 이상의 입력들을 터치-감응 표면 상에서 검출하는 단계를 포함한다. 이 방법은, 제1 세트의 하나 이상의 입력들을 검출한 후에: 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다고 결정하는 단계, 및 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여, 터치-감응 표면의 제1 영역을 제1 사용자와 연관시키는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a touch-sensitive surface, and a fingerprint sensor. The method includes detecting a first set of one or more inputs on a touch-sensitive surface defining a first region of the touch-sensitive surface. The method comprising: after detecting one or more inputs of the first set: determining that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with a first user, Further comprising associating a first region of the touch-sensitive surface with a first user based, at least in part, on a determination that the one or more inputs comprise a first contact comprising a first fingerprint associated with the first user .

일부 실시예들에 따르면, 전자 디바이스는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛; 상부에서 접촉을 수용하도록 구성된 터치-감응 표면 유닛; 지문 센서 유닛; 및 디스플레이 유닛, 터치-감응 표면 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 터치-감응 표면 유닛의 제1 영역을 한정하는 제1 세트의 하나 이상의 입력들을 터치-감응 표면 유닛 상에서 검출하고; 제1 세트의 하나 이상의 입력을 검출한 후에: 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다고 결정하고, 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여, 터치-감응 표면 유닛의 제1 영역을 제1 사용자와 연관시키도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display one or more user interface objects; A touch-sensitive surface unit configured to receive contact at an upper portion thereof; A fingerprint sensor unit; And a processing unit coupled to the display unit, the touch-sensitive surface unit and the fingerprint sensor unit. The processing unit detects on the touch-sensitive surface unit a first set of one or more inputs defining a first region of the touch-sensitive surface unit; After detecting one or more inputs of the first set: determining that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with a first user, Responsive surface unit is configured to associate a first region of the touch-sensitive surface unit with a first user based, at least in part, on a determination that the first region includes a first contact comprising a first fingerprint associated with a user.

따라서, 디스플레이들, 터치-감응 표면들 및 지문 센서들을 갖는 전자 디바이스들에는 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 작업 공간들을 하나 이상의 사용자들에게 할당하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, touch-sensitive surfaces, and fingerprint sensors are provided with faster and more efficient methods and interfaces for associating regions of the touch-sensitive surface with one or more users, Thereby increasing validity, efficiency and user satisfaction. Such methods and interfaces may complement or replace conventional methods for assigning workspaces to one or more users.

예를 들어, 컴퓨터 키보드 상에서 타이핑하는 경우 또는 음악 키보드 상의 키를 누르는(예를 들어, 피아노를 연주하는) 경우에, 사용되는 적절한 운지법(fingering) 기술에 대해 사용자를 훈련시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 적절한 운지법 기술들에 대해 사용자를 훈련시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.For example, a faster and more efficient method for training a user for appropriate fingering techniques to be used, such as when typing on a computer keyboard or when pressing a key on a music keyboard (e.g., playing a piano) RTI ID = 0.0 > and / or < / RTI > interfaces. Such methods and interfaces may complement or replace conventional methods for training a user for appropriate fingerprinting techniques. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 각자의 활성화 가능한 사용자 인터페이스 객체를 포함하는 사용자 인터페이스를 표시하는 단계, 및 디스플레이 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터(focus selector)에 대응하는 터치-감응 표면 상의 접촉의 지문 패턴을 검출하는 단계를 포함한다. 이 방법은 또한, 디스플레이 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 상의 접촉의 지문 패턴을 검출하는 것에 응답하여: 접촉의 하나 이상의 운지법 특성들을 결정하도록 터치-감응 표면 상의 접촉의 지문 패턴을 분석하는 단계, 및 하나 이상의 운지법 특성들에 기초하여, 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정하는 단계를 포함한다. 이 방법은, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하는 단계, 및 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a touch-sensitive surface. The method includes the steps of displaying a user interface including a respective activatable user interface object, and displaying a fingerprint of the contact on the touch-sensitive surface corresponding to a focus selector on the respective activatable user interface object on the display And detecting the pattern. The method may also include, in response to detecting a fingerprint pattern of contact on the touch-sensitive surface corresponding to a focus selector on the respective activatable user interface object on the display, Analyzing the fingerprint pattern of the contact on the finger, and determining, based on the one or more fingering characteristics, whether the contact meets a predetermined preferred fingering criterion. The method includes providing feedback indicating that a preferred fingering criterion has not been met, in accordance with a determination that the contact does not meet a preferred fingering criterion, and in response to determining that the contact meets a preferred fingering criterion, And performing an action associated with the object.

일부 실시예들에 따르면, 전자 디바이스는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛, 사용자 접촉들을 수용하도록 구성된 터치-감응 표면 유닛, 및 디스플레이 유닛 및 터치-감응 표면 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 각자의 활성화 가능한 사용자 인터페이스 객체를 포함하는 사용자 인터페이스의 표시를 가능하게 하고, 디스플레이 유닛 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛 상의 접촉의 지문 패턴을 검출하도록 구성된다. 프로세싱 유닛은 또한, 디스플레이 유닛 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛 상의 접촉의 지문 패턴을 검출하는 것에 응답하여: 접촉의 하나 이상의 운지법 특성들을 결정하도록 터치-감응 표면 유닛 상의 접촉의 상기 지문 패턴을 분석하고, 하나 이상의 운지법 특성들에 기초하여, 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정하도록 구성된다. 프로세싱 유닛은, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하고, 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하도록 추가로 구성된다.According to some embodiments, the electronic device includes a display unit configured to display a user interface, a touch-sensitive surface unit configured to receive user contacts, and a processing unit coupled to the display unit and the touch-sensitive surface unit. The processing unit enables the display of a user interface including its respective activatable user interface object and a fingerprint pattern of touches on the touch-sensitive surface unit corresponding to a focus selector on the respective activatable user interface object on the display unit . The processing unit is further configured to, in response to detecting a fingerprint pattern of a contact on a touch-sensitive surface unit corresponding to a focus selector on a respective one of the activatable user interface objects on the display unit: Analyzing the fingerprint pattern of the contact on the sensitive surface unit, and determining, based on the one or more fingering characteristics, whether the contact meets a predetermined preferred fingering criterion. The processing unit may provide feedback indicating that the preferred fingering criterion is not met, as determined by the contact not meeting the desired fingering criterion, and providing feedback indicating that the fingering criterion has been met, And is further configured to perform an associated operation.

터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 터치-감응 표면을 동작시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation. Such methods and interfaces may complement or replace conventional methods for operating a touch-sensitive surface. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 터치-감응 표면의 제1 구역 - 상기 터치-감응 표면의 제1 구역은 감도 감소된 동작 모드에 있음 - 내에서의 접촉을 검출하는 단계; 접촉을 검출하는 것에 응답하여: 접촉이 하나 이상의 지문 센서 활성화 기준을 충족시키는지 여부를 결정하는 단계, 접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라, 터치-감응 표면의 제1 구역을 감도 향상된 동작 모드에서 동작시키는 단계, 및 접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, 터치-감응 표면의 제1 구역을 감도 감소된 동작 모드에서 계속 동작시키는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a touch-sensitive surface. The method includes the steps of: detecting a contact within a first zone of the touch-sensitive surface, the first zone of the touch-sensitive surface being in a reduced sensitivity mode of operation; Responsive to detecting the contact: determining whether the contact meets one or more fingerprint sensor activation criteria, determining, based on the determination that the contact meets the fingerprint sensor activation criteria, Operating in an operating mode, and continuing to operate the first zone of the touch-sensitive surface in the reduced sensitivity mode of operation in accordance with the determination that the contact does not meet the fingerprint sensor activation criteria.

일부 실시예들에 따르면, 전자 디바이스는 디스플레이 유닛, 접촉들을 수용하도록 구성된 터치-감응 표면 유닛, 및 디스플레이 유닛 및 터치-감응 표면 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 터치-감응 표면 유닛의 제1 구역 - 상기 터치-감응 표면 유닛의 제1 구역은 감도 감소된 동작 모드에 있음 - 내에서의 접촉을 검출하고; 접촉을 검출하는 것에 응답하여: 접촉이 지문 센서 활성화 기준을 충족시키는지 여부를 결정하고, 접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라, 터치-감응 표면 유닛의 제1 구역을 감도 향상된 동작 모드에서 동작시키고, 접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, 터치-감응 표면 유닛의 제1 구역을 감도 감소된 동작 모드에서 계속 동작시키도록 구성된다.According to some embodiments, the electronic device includes a display unit, a touch-sensitive surface unit configured to receive contacts, and a processing unit coupled to the display unit and the touch-sensitive surface unit. The processing unit detects a contact within a first zone of the touch-sensitive surface unit, the first zone of the touch-sensitive surface unit being in a reduced sensitivity mode of operation; Responsive to detecting a contact: determining whether the contact meets a fingerprint sensor activation criterion and, upon determining that the contact meets a fingerprint sensor activation criterion, determining a first zone of the touch- And to continue to operate the first zone of the touch-sensitive surface unit in the reduced sensitivity mode of operation, in accordance with the determination that the contact does not meet the fingerprint sensor activation criteria.

따라서, 디스플레이들 및 터치-감응 표면들을 갖는 전자 디바이스들에는 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시킴으로써 터치-감응 표면을 동작시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 터치-감응 표면을 동작시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and touch-sensitive surfaces are provided with faster and more efficient methods and interfaces for operating a touch-sensitive surface by operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation, Thereby increasing validity, efficiency and user satisfaction by the devices. Such methods and interfaces may complement or replace conventional methods for operating a touch-sensitive surface.

디바이스들 상에서 특정 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 디바이스들 상에서 특정 동작들을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for performing certain operations on devices. Such methods and interfaces may complement or replace conventional methods for performing certain operations on devices. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 제1 지문을 제1 동작과 연관시키는 단계; 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스(affordance)들을 포함하는 각자의 사용자 인터페이스를 디스플레이 상에 표시하는 단계; 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하는 동안에, 터치-감응 표면 상에서 제1 지문을 검출하는 것을 포함하는 제1 제스처를 검출하는 단계; 및 제1 제스처를 검출하는 것에 응답하여, 제1 동작을 수행하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a touch-sensitive surface. The method includes: associating a first fingerprint with a first action; Displaying on the display a respective user interface including affordances for performing a plurality of operations other than the first operation; Detecting a first gesture comprising detecting a first fingerprint on a touch-sensitive surface, while displaying a respective user interface comprising poses for performing a plurality of operations other than the first operation; And performing a first action in response to detecting the first gesture.

일부 실시예들에 따르면, 전자 디바이스는 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 제스처들을 수용하도록 구성된 터치-감응 표면 유닛; 및 디스플레이 유닛 및 터치-감응 표면 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 제1 지문을 상기 제1 동작과 연관시키고, 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스의 표시를 가능하게 하는 동안에, 터치-감응 표면 유닛 상에서 제1 지문을 검출하는 것을 포함하는 제1 제스처를 검출하고, 제1 제스처를 검출하는 것에 응답하여, 제1 동작을 수행하도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display a respective user interface including the poses for performing a plurality of operations other than the first operation; A touch-sensitive surface unit configured to receive gestures; And a processing unit coupled to the display unit and the touch-sensitive surface unit. The processing unit is operable to associate a first fingerprint with the first operation and to enable display of a respective user interface including poses for performing a plurality of operations other than the first operation, Detecting a first gesture comprising detecting a first fingerprint, and performing a first operation in response to detecting the first gesture.

따라서, 디스플레이들, 터치-감응 표면들 및 지문 센서들을 갖는 전자 디바이스들에는 지문 제스처들과 연관된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 지문 제스처들과 연관된 동작들을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, touch-sensitive surfaces, and fingerprint sensors are provided with faster and more efficient methods and interfaces for performing operations associated with fingerprint gestures, so that the effectiveness, Increase user satisfaction. Such methods and interfaces may complement or replace conventional methods for performing actions associated with fingerprint gestures.

각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for displaying their controls for the user interface based on the detection of the first fingerprint associated with moving their respective controls. Such methods and interfaces may complement or replace conventional methods for displaying the respective controls for the user interface. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은 디스플레이 상에 사용자 인터페이스를 표시하는 단계를 포함한다. 이 방법은 터치-감응 표면 상에서 사용자 인터페이스에 대한 각자의 제어부를 움직이는 것과 연관된 제1 지문 - 상기 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 상의 제1 위치에서의 포커스 셀렉터에 대응함 - 을 검출하는 단계를 추가로 포함한다. 제1 지문을 검출하는 것에 응답하여, 이 방법은 디스플레이 상의 제1 위치에서 각자의 제어부를 표시하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a touch-sensitive surface, and a fingerprint sensor. The method includes displaying a user interface on a display. The method includes detecting a first fingerprint associated with moving a respective control for a user interface on a touch-sensitive surface, wherein the first fingerprint corresponds to a focus selector at a first location on a display that does not include a respective control . ≪ / RTI > In response to detecting the first fingerprint, the method includes displaying each of the controls in a first position on the display.

일부 실시예들에 따르면, 전자 디바이스는 제1 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 하나 이상의 접촉들을 수용하도록 구성된 터치-감응 표면 유닛; 지문 센서 유닛; 및 디스플레이 유닛, 터치-감응 표면 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 터치-감응 표면 유닛 상에서 사용자 인터페이스에 대한 각자의 제어부를 움직이는 것과 연관된 제1 지문 - 상기 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 유닛 상의 제1 위치에서의 포커스 셀렉터에 대응함 - 을 검출하고, 제1 지문을 검출하는 것에 응답하여, 디스플레이 유닛 상의 제1 위치에서 각자의 제어부의 표시를 가능하게 하도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display a first user interface; A touch-sensitive surface unit configured to receive one or more contacts; A fingerprint sensor unit; And a processing unit coupled to the display unit, the touch-sensitive surface unit and the fingerprint sensor unit. Wherein the processing unit comprises: a first fingerprint associated with moving a respective control for a user interface on a touch-sensitive surface unit, the first fingerprint corresponding to a focus selector at a first location on a display unit that does not include its own control; In response to detecting the first fingerprint, enable display of the respective control unit at the first position on the display unit.

따라서, 디스플레이들, 터치-감응 표면들 및 지문 센서들을 갖는 전자 디바이스에는 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, touch-sensitive surfaces, and fingerprint sensors are provided with faster and more efficient methods for displaying their controls for the user interface based on the detection of the first fingerprint associated with moving their respective controls And interfaces are provided, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for displaying the respective controls for the user interface.

제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 제2 전자 디바이스를 보조 디스플레이로서 설정하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for setting a second electronic device as a secondary display of the first electronic device. Such methods and interfaces may complement or replace conventional methods for setting a second electronic device as a secondary display. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 제1 시기에 제1 전자 디바이스의 지문 센서 상에서 제1 지문 - 상기 제1 지문은 각자의 사용자에 대해 등록됨 - 을 검출하는 단계를 포함한다. 이 방법은 또한, 제1 전자 디바이스와는 별개인 제2 전자 디바이스로부터, 제2 시기에 제2 디바이스의 지문 센서 상에서 제2 지문이 검출되었음을 나타내는 정보를 포함하는 통신을 수신하는 단계를 포함한다. 이 방법은, 제1 지문을 검출하고 제2 전자 디바이스로부터 통신을 수신하는 것에 응답하여: 미리 정해진 보조 디스플레이 기준 - 상기 보조 디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 결정하는 단계를 추가로 포함한다. 이 방법은, 보조 디스플레이 기준이 충족된다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 단계, 및 보조 디스플레이 기준이 충족되지 않는다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes detecting a first fingerprint on the fingerprint sensor of the first electronic device at a first time, the first fingerprint being registered for a respective user. The method also includes receiving communication comprising information indicating that a second fingerprint has been detected on a fingerprint sensor of the second device from a second electronic device that is separate from the first electronic device and at a second time. The method further comprises: in response to detecting the first fingerprint and receiving the communication from the second electronic device: a predetermined secondary display criterion, the secondary display criterion comprises a criterion that is met when the second fingerprint is registered for the respective user Includes the step of determining whether the inclusion - inclusion - has been met. The method further comprises transmitting to the second electronic device a response that allows the second electronic device to be set as a secondary display for the first electronic device in accordance with the determination that the secondary display criteria is satisfied, Further comprising stopping sending a response to the second electronic device to enable the second electronic device to be set as an auxiliary display for the first electronic device, according to the determination that the second electronic device is not connected to the second electronic device.

일부 실시예들에 따르면, 전자 디바이스는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 제1 시기에 제1 전자 디바이스의 지문 센서 유닛 상에서 제1 지문 - 상기 제1 지문은 각자의 사용자에 대해 등록됨 - 을 검출하도록 구성된다. 프로세싱 유닛은 또한, 제1 전자 디바이스와는 별개인 제2 전자 디바이스로부터, 제2 시기에 제2 디바이스의 지문 센서 유닛 상에서 제2 지문이 검출되었음을 나타내는 정보를 포함하는 통신을 수신하도록 구성된다. 프로세싱 유닛은, 제1 지문을 검출하고 제2 전자 디바이스로부터 통신을 수신하는 것에 응답하여, 미리 정해진 보조 디스플레이 기준 - 상기 보조 디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 결정하도록 추가로 구성된다. 프로세싱 유닛은 보조 디스플레이 기준이 충족된다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하고, 보조 디스플레이 기준이 충족되지 않는다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지하도록 추가로 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display a user interface; A fingerprint sensor unit; And a processing unit coupled to the display unit and the fingerprint sensor unit. The processing unit is configured to detect a first fingerprint on the fingerprint sensor unit of the first electronic device at a first time, the first fingerprint being registered for a respective user. The processing unit is also configured to receive communications from a second electronic device that is separate from the first electronic device and that includes information indicating that a second fingerprint has been detected on the fingerprint sensor unit of the second device at a second time. In response to detecting the first fingerprint and receiving the communication from the second electronic device, the processing unit determines a predetermined secondary display criterion, the secondary display criterion being a criterion that is satisfied when the second fingerprint is registered for the respective user Is included or not. The processing unit sends a response to the second electronic device to allow the second electronic device to be set as a secondary display for the first electronic device in accordance with the determination that the secondary display criteria is met and determines , The second electronic device is further configured to stop sending a response to the second electronic device to enable it to be set as a secondary display for the first electronic device.

따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 제2 전자 디바이스를 보조 디스플레이로서 설정하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and fingerprint sensors are provided with faster and more efficient methods and interfaces for setting a second electronic device as a secondary display of the first electronic device, thereby enabling the devices to be more efficient, Increase user satisfaction. Such methods and interfaces may complement or replace conventional methods for setting a second electronic device as a secondary display.

지문 배향에 기초하여 빔포밍(beamforming) 파라미터들을 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 빔포밍 파라미터들을 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for modifying beamforming parameters based on fingerprint orientation. Such methods and interfaces may complement or replace conventional methods for modifying beamforming parameters. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.

일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 제1 지문이 지문 센서 상에서 제1 배향으로 검출된 동안에, 이 방법은 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시키는 단계를 포함한다. 이 방법은, 지문 센서 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문 - 상기 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택됨 - 을 검출하는 단계, 및 지문 센서 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시키는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. While the first fingerprint is detected in the first orientation on the fingerprint sensor, the method includes operating a set of one or more audio elements in accordance with the first set of beamforming parameters. The method includes the steps of: selecting a subsequent fingerprint having a second orientation different from the first orientation on the fingerprint sensor, the subsequent fingerprint being selected from a first fingerprint having a changed orientation and a second fingerprint distinct from the first fingerprint - detecting a second set of beamforming parameters in response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor, and a second set of beamforming parameters different from the first set of beamforming parameters, Further comprising the step of operating the elements.

일부 실시예들에 따르면, 전자 디바이스는 정보를 표시하도록 구성된 디스플레이 유닛; 지문 센서; 오디오 신호들을 생성 및/또는 캡처하도록 구성된 한 세트의 하나 이상의 오디오 유닛들; 및 디스플레이 유닛, 지문 센서 유닛 및 한 세트의 하나 이상의 오디오 유닛들에 결합된 프로세싱 유닛을 포함한다. 제1 지문이 지문 센서 유닛 상에서 제1 배향으로 검출된 동안에, 프로세싱 유닛은 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 유닛들을 동작시키도록 구성된다. 프로세싱 유닛은, 지문 센서 유닛 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문 - 상기 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택됨 - 을 검출하고, 지문 센서 유닛 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 유닛들을 동작시키도록 추가로 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display information; Fingerprint sensor; A set of one or more audio units configured to generate and / or capture audio signals; And a processing unit coupled to the display unit, the fingerprint sensor unit and a set of one or more audio units. While the first fingerprint is detected in the first orientation on the fingerprint sensor unit, the processing unit is configured to operate a set of one or more audio units in accordance with the first set of beamforming parameters. Wherein the processing unit further comprises a second fingerprint having a second orientation different from the first orientation on the fingerprint sensor unit, wherein the subsequent fingerprint comprises a first fingerprint having a changed orientation and a second fingerprint different from the first fingerprint In response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor unit, detecting a second set of beamforming parameters based on a second set of beamforming parameters that is different from the first set of beamforming parameters, Units. ≪ / RTI >

따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 지문 배향에 기초하여 빔포밍 파라미터들을 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 빔포밍 파라미터들을 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices with displays and fingerprint sensors are provided with faster and more efficient methods and interfaces for changing beamforming parameters based on fingerprint orientation, thereby increasing effectiveness, efficiency and user satisfaction by such devices . Such methods and interfaces may complement or replace conventional methods for modifying beamforming parameters.

기술된 다양한 실시예들의 보다 양호한 이해를 위하여, 다음의 도면과 관련하여 하기의 발명을 실시하기 위한 구체적인 내용이 참조되어야 하며, 도면에서는 동일한 도면 부호들이 도면 전체에 걸쳐서 대응하는 부분들을 나타낸다.
<도 1a>
도 1a는 일부 실시예들에 따른, 터치-감응 디스플레이 및 지문 센서를 갖는 휴대용 다기능 디바이스를 도시하는 블록도.
<도 1b>
도 1b는 일부 실시예들에 따른, 이벤트 핸들링을 위한 예시적인 컴포넌트들을 도시하는 블록도.
<도 2>
도 2는 일부 실시예들에 따른, 터치 스크린 및 지문 센서를 갖는 휴대용 다기능 디바이스를 도시하는 도면.
<도 3>
도 3은 일부 실시예들에 따른, 디스플레이 및 지문 센서를 포함한 복수의 센서들 및 선택적으로 터치-감응 표면을 갖는 예시적인 다기능 디바이스의 블록도.
<도 4a>
도 4a는 일부 실시예들에 따른, 휴대용 다기능 디바이스 상의 애플리케이션들의 메뉴에 대한 예시적인 사용자 인터페이스를 도시하는 도면.
<도 4b>
도 4b는 일부 실시예들에 따른, 디스플레이와는 별개인 터치-감응 표면 및 지문 세서를 갖는 다기능 디바이스에 대한 예시적인 사용자 인터페이스를 도시하는 도면.
<도 4c>
도 4c는 일부 실시예들에 따른, 연관된 지문들을 갖는 2개의 손들의 개략도.
<도 4d>
도 4d는 일부 실시예들에 따른, 지문 센서 상에서의 지문의 상이한 유형들의 회전을 도시하는 도면.
<도 5a 내지 도 5n>
도 5a 내지 도 5n은 일부 실시예들에 따른, 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 6a 내지 도 6c>
도 6a 내지 도 6c는 일부 실시예들에 따른, 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하는 방법을 예시하는 흐름도.
<도 7>
도 7은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 8a 내지 도 8o>
도 8a 내지 도 8o는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 9a 내지 도 9c>
도 9a 내지 도 9c는 일부 실시예들에 따른, 버튼이 다수의 목적들을 만족시키게 하는 방법을 예시하는 흐름도.
<도 10>
도 10은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 11a 내지 도 11f>
도 11a 내지 도 11f는 일부 실시예들에 따른, 사용자 인터페이스의 배향을 잠금하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 12a 및 도 12b>
도 12a 및 도 12b는 일부 실시예들에 따른, 사용자 인터페이스의 배향을 잠금하는 방법을 예시하는 흐름도.
<도 13>
도 13은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 14a 내지 도 14d>
도 14a 내지 도 14d는 일부 실시예들에 따른, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 15>
도 15는 일부 실시예들에 따른, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하는 방법을 예시하는 흐름도.
<도 16>
도 16은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 17a 내지 도 17k>
도 17a 내지 도 17k는 일부 실시예들에 따른, 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 18a 및 도 18b>
도 18a 및 도 18b는 일부 실시예들에 따른, 부류-기반 프로파일에 기초하여 동작들을 수행하는 방법을 예시하는 흐름도.
<도 19>
도 19는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 20a 내지 도 20f>
도 20a 내지 도 20f는 지문들에 기초하여 로깅 선호도를 변경하는, 디바이스들 상에서 구현되는 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 21a 및 도 21b>
도 21a 및 도 21b는 일부 실시예들에 따른, 지문들에 기초하여 로깅 선호도를 변경하는 방법을 예시하는 흐름도.
<도 22>
도 22는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 23a 내지 도 23g>
도 23a 내지 도 23g는 일부 실시예들에 따른, 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 24a 내지 도 24d>
도 24a 내지 도 24d는 일부 실시예들에 따른, 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하는 방법을 예시하는 흐름도.
<도 25>
도 25는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 26a 내지 도 26g>
도 26a 내지 도 26g는 일부 실시예들에 따른, 아이덴티티 및 위치 정보를 연관시키기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 27>
도 27은 일부 실시예들에 따른, 아이덴티티 및 위치 정보를 연관시키는 방법을 예시하는 흐름도.
<도 28>
도 28은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 29a 내지 도 29s>
도 29a 내지 도 29s는 일부 실시예들에 따른, 하나 이상의 사용자들에게 작업 공간들을 할당하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 30a 및 도 30b>
도 30a 및 도 30b는 일부 실시예들에 따른, 하나 이상의 사용자들에게 작업 공간들을 할당하는 방법을 예시하는 흐름도.
<도 31>
도 31은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 32a 내지 도 32s>
도 32a 내지 도 32s는 일부 실시예들에 따른, 적절한 운지법 기술에 대해 사용자를 훈련시키기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 33a 내지 도 33c>
도 33a 내지 도 33c는 일부 실시예들에 따른, 적절한 운지법 기술에 대해 사용자를 훈련시키는 방법을 예시하는 흐름도.
<도 34>
도 34는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 35a 내지 도 35j>
도 35a 내지 도 35j는 일부 실시예들에 따른, 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 36a 및 도 36b>
도 36a 및 도 36b는 일부 실시예들에 따른, 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키는 방법을 예시하는 흐름도.
<도 37>
도 37은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 38a 내지 도 38p>
도 38a 내지 도 38p는 일부 실시예들에 따른, 지문 제스처들과 연관된 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 39a 내지 도 39e>
도 39a 내지 도 39e는 일부 실시예들에 따른, 지문 제스처들과 연관된 동작들을 수행하는 방법을 예시하는 흐름도.
<도 40>
도 40은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 41a 내지 도 41k>
도 41a 내지 도 41k는 일부 실시예들에 따른, 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 42a 내지 도 42c>
도 42a 내지 도 42c는 일부 실시예들에 따른, 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하는 방법을 예시하는 흐름도.
<도 43>
도 43은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 44a 내지 도 44ee>
도 44a 내지 도 44ee는 일부 실시예들에 따른, 제2 전자 디바이스를 보조 디스플레이로서 설정하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 45a 내지 도 45d>
도 45a 내지 도 45d는 일부 실시예들에 따른, 제2 전자 디바이스를 보조 디스플레이로서 설정하는 방법을 예시하는 흐름도.
<도 46>
도 46은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 47a 내지 도 47l>
도 47a 내지 도 47l은 일부 실시예들에 따른, 지문 배향에 기초하여 빔포밍 파라미터들을 변경하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 48a 및 도 48b>
도 48a 및 도 48b는 일부 실시예들에 따른, 지문 배향에 기초하여 빔포밍 파라미터들을 변경하는 방법을 예시하는 흐름도.
<도 49>
도 49는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
BRIEF DESCRIPTION OF THE DRAWINGS For a better understanding of the various embodiments described, reference should be made to the following detailed description taken in conjunction with the accompanying drawings, wherein like reference numerals designate corresponding parts throughout the figures.
&Lt; RTI ID =
FIG. 1A is a block diagram illustrating a portable multifunction device having a touch-sensitive display and a fingerprint sensor, in accordance with some embodiments. FIG.
&Lt; RTI ID = 0.0 &
1B is a block diagram illustrating exemplary components for event handling, in accordance with some embodiments.
2,
Figure 2 illustrates a portable multifunction device with a touch screen and a fingerprint sensor, in accordance with some embodiments.
3,
3 is a block diagram of an exemplary multifunction device having a plurality of sensors including a display and a fingerprint sensor and optionally a touch-sensitive surface, in accordance with some embodiments.
4A,
4A illustrates an exemplary user interface for a menu of applications on a portable multifunction device, in accordance with some embodiments.
4 (b)
Figure 4B illustrates an exemplary user interface for a multifunction device having a touch-sensitive surface and fingerprint specification that is separate from the display, in accordance with some embodiments.
4C,
Figure 4c is a schematic diagram of two hands with associated fingerprints, in accordance with some embodiments.
4D,
Figure 4d illustrates rotation of different types of fingerprints on a fingerprint sensor, in accordance with some embodiments.
&Lt; RTI ID = 0.0 &gt; 5A-5n &
Figures 5A-5N illustrate exemplary user interfaces for interacting with user interfaces in accordance with movement of a finger on a fingerprint sensor, in accordance with some embodiments.
6A to 6C,
6A-6C are flow diagrams illustrating a method of interacting with user interfaces in accordance with movement of a finger on a fingerprint sensor, in accordance with some embodiments.
7,
7 is a functional block diagram of an electronic device according to some embodiments.
<Figs. 8A to 8O>
Figures 8A-8O illustrate exemplary user interfaces used in conjunction with multipurpose buttons in accordance with some embodiments.
9A to 9C,
9A-9C are flow diagrams illustrating a method for causing a button to satisfy multiple purposes, in accordance with some embodiments.
<Fig. 10>
10 is a functional block diagram of an electronic device according to some embodiments.
11A to 11F,
11A-11F illustrate exemplary user interfaces for locking an orientation of a user interface, in accordance with some embodiments.
12A and 12B,
12A and 12B are flow diagrams illustrating a method of locking an orientation of a user interface, in accordance with some embodiments.
13,
13 is a functional block diagram of an electronic device according to some embodiments.
14A to 14D,
Figures 14A-14D illustrate exemplary user interfaces for controlling noise reduction in recorded audio using a fingerprint sensor, in accordance with some embodiments.
<Fig. 15>
15 is a flow chart illustrating a method of controlling noise reduction in recorded audio using a fingerprint sensor, in accordance with some embodiments.
<Fig. 16>
16 is a functional block diagram of an electronic device according to some embodiments.
17A to 17K,
17A-17K illustrate exemplary user interfaces for performing operations based on a class-based profile, in accordance with some embodiments.
18A and 18B,
18A and 18B are flow diagrams illustrating a method of performing operations based on a class-based profile, in accordance with some embodiments.
19,
19 is a functional block diagram of an electronic device according to some embodiments.
20A to 20F,
Figures 20A-20F illustrate exemplary user interfaces implemented on devices that change logging preferences based on fingerprints.
21A and 21B,
Figures 21A and 21B are flow diagrams illustrating a method for changing logging preferences based on fingerprints, in accordance with some embodiments.
22,
22 is a functional block diagram of an electronic device according to some embodiments.
23A to 23G,
23A-23G illustrate exemplary user interfaces for performing their respective limited actions based on fingerprint verification information, in accordance with some embodiments.
24A to 24D,
24A-24D are flow diagrams illustrating a method of performing a respective limited action based on fingerprint verification information, in accordance with some embodiments.
25,
25 is a functional block diagram of an electronic device according to some embodiments.
26A to 26G,
26A-26G illustrate exemplary user interfaces for associating identity and location information, in accordance with some embodiments.
<Fig. 27>
Figure 27 is a flow chart illustrating a method of associating identity and location information, in accordance with some embodiments.
28,
28 is a functional block diagram of an electronic device according to some embodiments.
29A to 29S,
29A-29S illustrate exemplary user interfaces for assigning workspaces to one or more users, in accordance with some embodiments.
30A and 30B,
30A and 30B are flow diagrams illustrating a method of assigning workspaces to one or more users, in accordance with some embodiments.
31,
31 is a functional block diagram of an electronic device according to some embodiments.
32A to 32S,
Figures 32A-32S illustrate exemplary user interfaces for training a user for appropriate fingering techniques, in accordance with some embodiments.
33A to 33C,
33A-33C are flow diagrams illustrating a method of training a user for appropriate fingering techniques, in accordance with some embodiments.
34,
34 is a functional block diagram of an electronic device according to some embodiments.
<Figs. 35A to 35J>
35A-35J illustrate exemplary user interfaces for operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation, in accordance with some embodiments.
36A and 36B,
36A and 36B are flow diagrams illustrating a method of operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation, in accordance with some embodiments.
37,
37 is a functional block diagram of an electronic device according to some embodiments.
38A to 38P,
Figures 38A-38P illustrate exemplary user interfaces for performing actions associated with fingerprint gestures, in accordance with some embodiments.
39A to 39E,
Figures 39A-39E are flow diagrams illustrating a method of performing actions associated with fingerprint gestures, in accordance with some embodiments.
<Fig. 40>
40 is a functional block diagram of an electronic device according to some embodiments.
41A to 41K,
41A-41K illustrate exemplary user interfaces for displaying a respective control for a user interface based on detection of a first fingerprint associated with moving a respective control, in accordance with some embodiments.
42A to 42C,
42A-42C are flow diagrams illustrating a method of displaying a respective control for a user interface based on detection of a first fingerprint associated with moving a respective control, in accordance with some embodiments.
<Fig. 43>
Figure 43 is a functional block diagram of an electronic device according to some embodiments.
44A to 44E,
Figures 44A-44E illustrate exemplary user interfaces for setting a second electronic device as a secondary display, in accordance with some embodiments.
45A to 45D,
Figures 45A-45D are flow diagrams illustrating a method of setting a second electronic device as a secondary display, in accordance with some embodiments.
46,
46 is a functional block diagram of an electronic device according to some embodiments.
47A to 47L,
Figures 47A-47L illustrate exemplary user interfaces for modifying beamforming parameters based on fingerprint orientation, in accordance with some embodiments.
48A and 48B,
48A and 48B are flow charts illustrating a method of changing beamforming parameters based on a fingerprint orientation, in accordance with some embodiments.
49,
49 is a functional block diagram of an electronic device according to some embodiments.

본 명세서에 기술된 방법들, 디바이스들 및 GUI들은 터치-감응 표면 또는 다른 입력 디바이스 상의 입력들 대신에 또는 그 입력들에 더하여 지문 센서 상의 입력들에 응답한다. 일부 구현예들에서, 개별 지문 능선(ridge)들에 의해 형성되는 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 터치-감응 표면이 지문 센서로서 사용된다. 지문이 지문 센서의 면적만큼 크거나 그보다 더 넓은 면적을 가지는 경우에도 지문 센서는 지문 센서 위에서의 접촉의 이동을 검출할 수 있기 때문에, 별개의 터치-감응 표면 없이 지문 센서가 사용되는 경우, 지문 센서는 훨씬 더 작은 폼 팩터(form factor)를 갖는 터치-감응 표면의 기능들 중 많은 것에 대한 대체물로서 역할할 수 있다. 별개의 터치-감응 표면에 더하여 지문 센서가 사용되는 경우, 지문 센서는 접촉의 비틀림 움직임들의 정확한 검출을 제공하고, 지문 센서 상에서 제스처들을 수행하기 위해 사용되는 손가락들의 상이한 지문들을 식별하며, 디바이스의 현재 사용자를 식별함으로써, 터치-감응 표면을 증강시킬 수 있다. 부가적으로, 별개의 터치스크린 디스플레이에 더하여 지문 센서가 사용되는 경우, 지문 센서는 (예를 들어, 지도, 비디오 또는 게임을 보는 동안에) 손가락들이 디스플레이의 일부분들을 가리는 것을 방지하는 것이 유리한 상황들에서 터치 입력들을 검출할 수 있다. 터치-감응 표면이 지문 센서로서 사용되는 경우, 터치-감응 표면은 선택적으로 사용자 개입 없이 저해상도 모드와 고해상도 모드 사이에서 자동으로 터치-감응 표면(또는 터치-감응 표면의 구역들)을 전환하도록 정의될 수 있는 공간 해상도 설정들을 갖는다. 다수의 상황들에서, 저해상도 모드는 고해상도 모드보다 더 적은 전력을 소비한다. 지문 검출이 필요하지 않을 때 터치-감응 표면을 저해상도 모드에서 동작시키고, 필요로 하는 바를 기준으로 터치-감응 표면 또는 터치-감응 표면의 구역을 고해상도 모드로 전환하는 것의 이점은, 그러한 접근법이 전력을 보존하면서 디바이스를 사용하는 사용자 경험을 향상시키기 위해 필요한 대로 여전히 고해상도 지문 특징 감지를 제공한다는 것이다. 터치-감응 표면이 지문 센서로서 사용되는 구현예들에서, 용어 "지문 센서"는 현재 고해상도 모드에 있는 터치-감응 표면, 또는 터치-감응 표면의 구역을 지칭하는 데 사용된다.The methods, devices, and GUIs described herein respond to inputs on a fingerprint sensor in addition to or in addition to inputs on a touch-sensitive surface or other input device. In some embodiments, a touch-sensitive surface having a spatial resolution high enough to detect fingerprint features formed by individual fingerprint ridges is used as the fingerprint sensor. Since the fingerprint sensor can detect the movement of the contact on the fingerprint sensor even when the fingerprint is larger than or larger than the area of the fingerprint sensor, when the fingerprint sensor is used without a separate touch-sensitive surface, May serve as an alternative to many of the functions of a touch-sensitive surface with a much smaller form factor. When a fingerprint sensor is used in addition to a separate touch-sensitive surface, the fingerprint sensor provides accurate detection of torsional movements of the contact, identifies different fingerprints of the fingers used to perform the gestures on the fingerprint sensor, By identifying the user, the touch-sensitive surface can be augmented. Additionally, where a fingerprint sensor is used in addition to a separate touchscreen display, the fingerprint sensor may be advantageous in situations where it is advantageous to prevent fingers from covering portions of the display (e.g., while viewing a map, video, or game) The touch inputs can be detected. When the touch-sensitive surface is used as a fingerprint sensor, the touch-sensitive surface is automatically defined to switch the touch-sensitive surface (or zones of the touch-sensitive surface) automatically between the low-resolution and high-resolution modes without user intervention Lt; / RTI &gt; In many situations, the low resolution mode consumes less power than the high resolution mode. The advantage of operating the touch-sensitive surface in low-resolution mode when fingerprint detection is not needed and switching the area of the touch-sensitive surface or touch-sensitive surface to the high-resolution mode based on what is needed is that such approach And still provide high resolution fingerprint feature detection as needed to enhance the user experience of using the device while preserving it. In embodiments in which the touch-sensitive surface is used as a fingerprint sensor, the term "fingerprint sensor" is used to refer to a touch-sensitive surface in the current high resolution mode, or a region of the touch- sensitive surface.

하나 이상의 지문 센서들로부터의 입력들이 전자 디바이스의 사용자 인터페이스를 조작하는 데 사용되는 직관적인 사용자 인터페이스를 제공하기 위한 다수의 상이한 접근법들이 이하에서 기술된다. 이들 접근법 중 하나 이상을 (선택적으로는 서로 함께) 사용하는 것은 사용자에게 추가적인 정보 및 기능성을 직관적으로 제공하는 사용자 인터페이스를 제공하는 것을 도울 수 있음으로써, 사용자의 인지적 부담을 감소시키고 인간-기계 인터페이스를 개선한다. 인간-기계 인터페이스에서의 그러한 개선은 사용자들이 디바이스를 더 빠르고 더 효율적으로 사용할 수 있게 한다. 배터리-작동형 디바이스들에 대해, 이들 개선은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다. 설명의 용이성을 위해, 이들 접근법 중 일부의 예시적인 예들을 포함하기 위한 시스템들, 방법들 및 사용자 인터페이스들이 다음과 같이 이하에서 기술된다:A number of different approaches for providing an intuitive user interface in which inputs from one or more fingerprint sensors are used to manipulate a user interface of an electronic device are described below. Using one or more of these approaches (optionally together) may help to provide a user interface that intuitively provides the user with additional information and functionality, thereby reducing the cognitive burden of the user and allowing the user- . Such improvements in the human-machine interface allow users to use the device faster and more efficiently. For battery-operated devices, these improvements conserve power and increase the time between battery charges. For ease of description, systems, methods, and user interfaces for including illustrative examples of some of these approaches are described as follows:

Figure 112014123040953-pct00001
아래에서, 도 5a 내지 도 5n은 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 6a 내지 도 6c는 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하는 방법을 예시하는 흐름도이다. 도 5a 내지 도 5n의 사용자 인터페이스들이 도 6a 내지 도 6c의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00001
Below, FIGS. 5A-5N illustrate exemplary user interfaces for interacting with user interfaces in accordance with movement of the finger on the fingerprint sensor. 6A-6C are flow charts illustrating a method of interacting with user interfaces as a finger moves on a fingerprint sensor. The user interfaces of Figures 5A-5N are used to illustrate the processes of Figures 6A-6C.

Figure 112014123040953-pct00002
아래에서, 도 8a 내지 도 8o는 버튼들이 다수의 목적들을 만족시키게 하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 9a 내지 도 9c는 버튼들이 다수의 목적들을 만족시키게 하는 방법을 예시하는 흐름도이다. 도 8a 내지 도 8o의 사용자 인터페이스들은 도 9a 내지 도 9c의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00002
Below, FIGS. 8A-8O illustrate exemplary user interfaces for allowing buttons to fulfill multiple purposes. Figures 9A-9C are flow charts illustrating a method of allowing buttons to fulfill multiple purposes. The user interfaces of Figures 8A-8O are used to illustrate the processes of Figures 9A-9C.

Figure 112014123040953-pct00003
아래에서, 도 11a 내지 도 11f는 사용자 인터페이스의 배향을 잠금하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 12a 및 도 12b는 사용자 인터페이스의 배향을 잠금하는 방법을 예시하는 흐름도이다. 도 11a 내지 도 11f의 사용자 인터페이스들이 도 12a 및 도 12b의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00003
In the following, FIGS. 11A-11F illustrate exemplary user interfaces for locking the orientation of the user interface. 12A and 12B are flow charts illustrating a method of locking the orientation of the user interface. The user interfaces of Figures 11A-11F are used to illustrate the processes of Figures 12A and 12B.

Figure 112014123040953-pct00004
아래에서, 도 14a 내지 도 14d는 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 15는 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하는 방법을 예시하는 흐름도이다. 도 14a 내지 도 14d의 사용자 인터페이스들이 도 15의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00004
Below, FIGS. 14A-14D illustrate exemplary user interfaces for controlling noise reduction in recorded audio using a fingerprint sensor. 15 is a flow chart illustrating a method of controlling noise reduction in recorded audio using a fingerprint sensor. The user interfaces of FIGS. 14A-14D are used to illustrate the processes of FIG.

Figure 112014123040953-pct00005
아래에서, 도 17a 내지 도 17k는 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 18a 및 도 18b는 부류-기반 프로파일에 기초하여 동작들을 수행하는 방법을 예시하는 흐름도이다. 도 17a 내지 도 17k의 사용자 인터페이스들이 도 18a 및 도 18b의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00005
Below, FIGS. 17A-17K illustrate exemplary user interfaces for performing operations based on a class-based profile. 18A and 18B are flow charts illustrating a method of performing operations based on a class-based profile. The user interfaces of Figures 17A-17K are used to illustrate the processes of Figures 18A and 18B.

Figure 112014123040953-pct00006
아래에서, 도 20a 내지 도 20f는 지문들에 기초하여 로깅 선호도를 변경하는, 디바이스들 상에 구현되는 예시적인 사용자 인터페이스들을 도시한다. 도 21a 및 도 21b는 지문들에 기초하여 로깅 선호도를 변경하는 방법을 예시하는 흐름도이다. 도 20a 내지 도 20f의 사용자 인터페이스들이 도 21a 및 도 21b의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00006
Below, FIGS. 20A-20F illustrate exemplary user interfaces implemented on devices that change logging preferences based on fingerprints. Figures 21A and 21B are flow charts illustrating a method of changing logging preferences based on fingerprints. The user interfaces of Figures 20A-20F are used to illustrate the processes of Figures 21A and 21B.

Figure 112014123040953-pct00007
아래에서, 도 23a 내지 도 23g는 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 24a 내지 도 24d는 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하는 방법을 예시하는 흐름도이다. 도 23a 내지 도 23g의 사용자 인터페이스들이 도 24a 내지 도 24d의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00007
Below, FIGS. 23A-23G illustrate exemplary user interfaces for performing their respective limited actions based on fingerprint verification information. 24A-24D are flow charts illustrating a method of performing their respective limited actions based on fingerprint verification information. The user interfaces of Figures 23A-23G are used to illustrate the processes of Figures 24A-24D.

Figure 112014123040953-pct00008
아래에서, 도 26a 내지 도 26g는 아이덴티티 및 위치 정보를 연관시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 27은 아이덴티티 및 위치 정보를 연관시키는 방법을 예시하는 흐름도이다. 도 26a 내지 도 26g의 사용자 인터페이스들이 도 27의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00008
26A-26G illustrate exemplary user interfaces for associating identity and location information. Figure 27 is a flow chart illustrating a method of associating identity and location information. The user interfaces of Figs. 26A-26G are used to illustrate the processes of Fig.

Figure 112014123040953-pct00009
아래에서, 도 29a 내지 도 29s는 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 30a 및 도 30b는 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키는 방법을 예시하는 흐름도이다. 도 29a 내지 도 29s의 사용자 인터페이스들이 도 30a 및 도 30b의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00009
29A-29S illustrate exemplary user interfaces for associating regions of a touch-sensitive surface with one or more users. 30A and 30B are flow charts illustrating a method of associating regions of a touch-sensitive surface with one or more users. The user interfaces of Figures 29A-29S are used to illustrate the processes of Figures 30A and 30B.

Figure 112014123040953-pct00010
아래에서, 도 32a 내지 도 32s는 적절한 운지법 기술들에 대해 사용자를 훈련시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 33a 내지 도 33c는 적절한 운지법 기술들에 대해 사용자를 훈련시키는 방법을 예시하는 흐름도이다. 도 32a 내지 도 32s의 사용자 인터페이스들이 도 33a 내지 도 33c의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00010
In the following, Figures 32A-32S illustrate exemplary user interfaces for training a user for appropriate fingering techniques. 33A-33C are flow charts illustrating a method of training a user for appropriate fingering techniques. The user interfaces of Figures 32A-32S are used to illustrate the processes of Figures 33A-33C.

Figure 112014123040953-pct00011
아래에서, 도 35a 내지 도 35j는 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 36a 및 도 36b는 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키는 방법을 예시하는 흐름도이다. 도 35a 내지 도 35j의 사용자 인터페이스들이 도 36a 및 도 36b의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00011
Below, FIGS. 35A-35J illustrate exemplary user interfaces for operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation. Figures 36A and 36B are flow charts illustrating a method of operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation. The user interfaces of Figures 35A-35J are used to illustrate the processes of Figures 36A and 36B.

Figure 112014123040953-pct00012
아래에서, 도 38a 내지 도 38p는 지문 제스처들과 연관된 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 39a 내지 도 39e는 지문 제스처들과 연관된 동작들을 수행하는 방법을 예시하는 흐름도이다. 도 38a 내지 도 38p의 사용자 인터페이스들이 도 39a 내지 도 39e의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00012
In the following, Figures 38a-38p illustrate exemplary user interfaces for performing actions associated with fingerprint gestures. Figures 39A-39E are flow charts illustrating a method of performing actions associated with fingerprint gestures. The user interfaces of Figures 38A-P are used to illustrate the processes of Figures 39A-39E.

Figure 112014123040953-pct00013
아래에서, 도 41a 내지 도 41k는 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 42a 내지 도 42c는 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하는 방법을 예시하는 흐름도이다. 도 41a 내지 도 41k의 사용자 인터페이스들이 도 42a 내지 도 42c의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00013
Below, FIGS. 41A-41K illustrate exemplary user interfaces for displaying their controls for a user interface based on the detection of a first fingerprint associated with moving their respective controls. 42A-42C are flow charts illustrating a method of displaying a respective control for a user interface based on detection of a first fingerprint associated with moving a respective control. The user interfaces of Figures 41A-41K are used to illustrate the processes of Figures 42A-C.

Figure 112014123040953-pct00014
아래에서, 도 44a 내지 도 44ee는 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 45a 내지 도 45d는 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하는 방법을 예시하는 흐름도이다. 도 44a 내지 도 44ee의 사용자 인터페이스들이 도 45a 내지 도 45d의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00014
44A-44E show exemplary user interfaces for setting a second electronic device as a secondary display of a first electronic device. 45A-D are flow charts illustrating a method of setting a second electronic device as a secondary display of a first electronic device. The user interfaces of Figures 44a-44ee are used to illustrate the processes of Figures 45a-45d.

Figure 112014123040953-pct00015
아래에서, 도 47a 내지 도 47l은 지문 배향에 기초하여 빔포밍 파라미터들을 변경하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 48a 및 도 48b는 지문 배향에 기초하여 빔포밍 파라미터들을 변경하는 방법을 예시하는 흐름도이다. 도 47a 내지 도 47l의 사용자 인터페이스들이 도 48a 및 도 48b의 프로세스들을 예시하기 위해 사용된다.
Figure 112014123040953-pct00015
Below, FIGS. 47A-47L illustrate exemplary user interfaces for changing beamforming parameters based on fingerprint orientation. 48A and 48B are flow charts illustrating a method of changing beamforming parameters based on fingerprint orientation. The user interfaces of Figures 47A-47L are used to illustrate the processes of Figures 48A and 48B.

예시적인 디바이스들Exemplary devices

이제, 실시예들이 상세하게 참조될 것이며, 그 실시예들의 예들이 첨부 도면들에 도시되어 있다. 하기의 상세한 설명에서, 많은 구체적인 상세사항들이 기술된 다양한 실시예들의 완전한 이해를 제공하기 위해 설명된다. 그러나, 기술된 다양한 실시예들이 이들 구체적인 상세사항 없이 실시될 수 있다는 것은 당업자에게 명백할 것이다. 다른 예들에서, 주지된 방법들, 절차들, 컴포넌트들, 회로들, 및 네트워크들은 실시예들의 태양들을 불필요하게 이해하기 어렵게 하지 않도록 하기 위해 상세히 설명되지 않았다.Reference will now be made in detail to the embodiments, examples of which are illustrated in the accompanying drawings. In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of the various embodiments described. It will be apparent, however, to one skilled in the art that the various embodiments described may be practiced without these specific details. In other instances, well-known methods, procedures, components, circuits, and networks have not been described in detail so as not to unnecessarily obscure aspects of the embodiments.

용어들 "제1", "제2" 등이 일부 경우에 본 명세서에서 다양한 요소들을 기술하는 데 사용될 수 있지만, 이들 요소는 이들 용어로 제한되어서는 안된다는 것이 또한 이해될 것이다. 이들 용어는 하나의 요소를 다른 요소와 구별하는 데에만 사용된다. 예를 들어, 기술된 다양한 실시예들의 범주로부터 벗어남이 없이, 제1 접촉이 제2 접촉으로 지칭될 수 있고, 유사하게, 제2 접촉이 제1 접촉으로 지칭될 수 있다. 제1 접촉 및 제2 접촉 둘 모두가 접촉이지만, 그들이 동일한 접촉인 것은 아니다.It is also to be understood that the terms " first ", "second ", etc., may in some instances be used herein to describe various elements, but these elements should not be limited to these terms. These terms are used only to distinguish one element from another. For example, without departing from the scope of the various embodiments described, a first contact may be referred to as a second contact, and similarly, a second contact may be referred to as a first contact. Both the first contact and the second contact are contacts, but they are not the same contact.

명세서 내의 기술된 다양한 실시예들의 설명에 사용되는 용어는 특정 실시예들을 기술하는 목적만을 위한 것이고, 제한하려는 의도는 아니다. 기술된 다양한 실시예들의 설명 및 첨부된 특허청구범위에 사용되는 바와 같이, 단수의 형태는 문맥상 명백히 달리 나타내지 않는다면 복수의 형태들도 마찬가지로 포함하려는 것으로 의도된다. 또한, 본 명세서에서 사용되는 바와 같은 용어 "및/또는"은 열거되는 관련 항목들 중 하나 이상의 항목의 임의의 그리고 모든 가능한 조합들을 나타내고 그들을 포괄하는 것임이 이해될 것이다. 본 명세서에서 사용될 때 용어들 "포함한다(include)", "포함하는(including)", "포함한다(comprise)", 및/또는 "포함하는(comprising)"은 진술되는 특징들, 정수들, 단계들, 동작들, 요소들, 및/또는 컴포넌트들의 존재를 특정하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들, 및/또는 이들의 그룹들의 존재 또는 추가를 배제하지 않음이 추가로 이해될 것이다.The terminology used in describing the various embodiments described in the specification is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the description of the various embodiments described and in the appended claims, the singular forms are intended to include the plural forms as well, unless the context clearly indicates otherwise. It is also to be understood that the term "and / or" as used herein denotes and encompasses any and all possible combinations of one or more of the listed items of related items. The terms " including, " " including, "and" comprising ", when used in this specification, But are not limited to, the presence or addition of one or more other features, integers, steps, operations, elements, components, and / or groups thereof, Will not be excluded.

본 명세서에서 사용되는 바와 같이, 용어 "~의 경우(if)"는 맥락에 따라 선택적으로 "~할 때(when)" 또는 "~ 시(upon)" 또는 "~라고 결정하는 것에 응답하여" 또는 "~라고 검출하는 것에 응답하여"를 의미하는 것으로 해석된다. 유사하게, 구문 "~라고 결정되는 경우" 또는 "[진술된 상태 또는 이벤트]가 검출된 경우"는 맥락에 따라 선택적으로 "~라고 결정 시" 또는 "~라고 결정하는 것에 응답하여" 또는 "[진술된 상태 또는 이벤트]를 검출할 시" 또는 "[진술된 상태 또는 이벤트]를 검출하는 것에 응답하여"를 의미하는 것으로 해석된다.As used herein, the term " if, "is used to mean selectively in response to a determination of " when" or " upon " Is interpreted to mean "in response to detecting" Similarly, the phrase " when determined "or" when a stated state or event is detected "is optionally " determined &Quot; or "in response to detecting " or " stated state or event "

전자 디바이스들, 그러한 디바이스들에 대한 사용자 인터페이스들, 및 그러한 디바이스들을 사용하기 위한 연관된 프로세스들의 실시예들이 기술된다. 일부 실시예들에서, 디바이스는 PDA 및/또는 음악 플레이어 기능들과 같은 다른 기능들을 또한 포함하는, 이동 전화기와 같은, 휴대용 통신 디바이스이다. 휴대용 다기능 디바이스들의 예시적인 실시예들은 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.(Apple Inc.)로부터의 아이폰(iPhone)(등록상표), 아이팟 터치(iPod Touch)(등록상표), 및 아이패드(iPad)(등록상표) 디바이스들을 제한 없이 포함한다. 터치-감응 표면들(예를 들어, 터치 스크린 디스플레이들 및/또는 터치 패드들)을 갖는 랩톱 또는 태블릿 컴퓨터들과 같은 다른 휴대용 전자 디바이스들이 선택적으로 사용된다. 일부 실시예들에서, 디바이스는 휴대용 통신 디바이스가 아니라 터치-감응 표면(예를 들어, 터치 스크린 디스플레이 및/또는 터치패드)을 갖는 데스크톱 컴퓨터임을 또한 이해하여야 한다.Embodiments of electronic devices, user interfaces to such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, which also includes other functions such as PDA and / or music player functions. Exemplary embodiments of portable multifunction devices include the iPhone (registered trademark), iPod Touch (registered trademark), and iPad (registered trademark) trademarks from Apple Inc. of Cupertino, iPad &lt; / RTI &gt; (registered trademark) devices. Other portable electronic devices such as laptop or tablet computers with touch-sensitive surfaces (e.g., touch screen displays and / or touch pads) are optionally used. It should also be understood that, in some embodiments, the device is not a portable communication device but a desktop computer with a touch-sensitive surface (e.g., a touch screen display and / or a touchpad).

이하의 논의에서, 디스플레이 및 터치-감응 표면을 포함하는 전자 디바이스가 기술된다. 그러나, 전자 디바이스가 선택적으로 물리적 키보드, 마우스 및/또는 조이스틱과 같은 하나 이상의 다른 물리적 사용자-인터페이스 디바이스들을 포함한다는 것을 이해하여야 한다.In the discussion that follows, electronic devices including a display and a touch-sensitive surface are described. However, it should be understood that the electronic device optionally includes one or more other physical user-interface devices, such as a physical keyboard, a mouse, and / or a joystick.

디바이스는 전형적으로, 그리기 애플리케이션, 프레젠테이션 애플리케이션, 워드 프로세싱 애플리케이션, 웹사이트 제작 애플리케이션, 디스크 저작 애플리케이션, 스프레드시트 애플리케이션, 게임 애플리케이션, 전화 애플리케이션, 화상 회의 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 운동 지원 애플리케이션, 사진 관리 애플리케이션, 디지털 카메라 애플리케이션, 디지털 비디오 카메라 애플리케이션, 웹 브라우징 애플리케이션, 디지털 음악 플레이어 애플리케이션, 및/또는 디지털 비디오 플레이어 애플리케이션 중 하나 이상과 같은 다양한 애플리케이션들을 지원한다.A device is typically used in a variety of applications, including drawing applications, presentation applications, word processing applications, web site creation applications, disk authoring applications, spreadsheet applications, Such as one or more of the following: a management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and / or a digital video player application.

디바이스 상에서 실행되는 다양한 애플리케이션들은 선택적으로 터치-감응 표면과 같은 적어도 하나의 공통의 물리적 사용자 인터페이스 디바이스를 사용한다. 터치-감응 표면의 하나 이상의 기능들뿐만 아니라 디바이스 상에 표시되는 대응하는 정보는 하나의 애플리케이션으로부터 다음 애플리케이션으로 그리고/또는 각자의 애플리케이션 내에서 선택적으로 조정되거나 변화된다. 이러한 방식으로, (터치-감응 표면과 같은) 디바이스의 공통의 물리적 아키텍처는 선택적으로 사용자에게 직관적이고 투명한 사용자 인터페이스들을 이용하여 다양한 애플리케이션들을 지원한다.The various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. The one or more functions of the touch-sensitive surface as well as the corresponding information displayed on the device are selectively adjusted or changed from one application to the next and / or within the respective application. In this manner, the common physical architecture of the device (such as a touch-sensitive surface) optionally supports various applications using intuitive and transparent user interfaces to the user.

이제 터치-감응 디스플레이들을 갖는 휴대용 디바이스들의 실시예들에 주목한다. 도 1a는 일부 실시예들에 따른, 터치-감응 디스플레이(112)들을 갖는 휴대용 다기능 디바이스(100)를 도시한 블록도이다. 터치-감응 디스플레이(112)는 때때로 편의상 "터치 스크린"이라 지칭되고, 때때로 터치-감응 디스플레이 시스템으로 공지되거나 지칭될 수 있다. 디바이스(100)는 메모리(102)(선택적으로, 하나 이상의 컴퓨터 판독가능한 저장 매체를 포함함), 메모리 제어기(122), 하나 이상의 프로세싱 유닛(CPU)(120)들, 주변기기 인터페이스(118), RF 회로(108), 오디오 회로(110), 스피커(111), 마이크(113), 입력/출력(I/O) 서브시스템(106), 다른 입력 또는 제어 디바이스(116)들 및 외부 포트(124)를 포함한다. 디바이스(100)는 선택적으로 하나 이상의 광학 센서(164)들을 포함한다. 디바이스(100)는 선택적으로 디바이스(100) 상의 접촉들의 강도를 검출하기 위한 하나 이상의 강도 센서(165)들(예를 들어, 디바이스(100)의 터치-감응 디스플레이 시스템(112)과 같은 터치-감응 표면)을 포함한다. 디바이스(100)는 선택적으로 디바이스(100) 상의 촉각적 출력들을 생성하기 위한 (예를 들어, 디바이스(100)의 터치-감응 디스플레이 시스템(112) 또는 디바이스(300)의 터치패드(355)와 같은 터치-감응 표면 상의 촉각적 출력들을 생성하기 위한) 하나 이상의 촉각적 출력 생성기(167)들을 포함한다. 이들 컴포넌트는 선택적으로 하나 이상의 통신 버스들 또는 신호 라인(103)들을 통해 통신한다.Attention is now directed to embodiments of portable devices having touch-sensitive displays. Figure la is a block diagram illustrating a portable multifunction device 100 having touch-sensitive displays 112, in accordance with some embodiments. The touch-sensitive display 112 is sometimes referred to as a "touch screen" for convenience, and may sometimes be known or referred to as a touch-sensitive display system. The device 100 includes a memory 102 (optionally including one or more computer readable storage media), a memory controller 122, one or more processing units (CPUs) 120, a peripheral interface 118, an RF Circuitry 108, audio circuitry 110, speaker 111, microphone 113, input / output (I / O) subsystem 106, other input or control devices 116, . The device 100 optionally includes one or more optical sensors 164. Device 100 may optionally include one or more intensity sensors 165 (e.g., touch-sensitive devices such as touch-sensitive display system 112 of device 100) for detecting the intensity of contacts on device 100 Surface). The device 100 may optionally be configured to generate tactile outputs on the device 100 (e.g., the touch-sensitive display system 112 of the device 100 or the touch pad 355 of the device 300) And one or more tactile output generators 167 (for generating tactile outputs on the touch-sensitive surface). These components optionally communicate via one or more communication buses or signal lines 103.

본 명세서 및 특허청구범위에 사용되는 바와 같이, 터치-감응 표면 상의 접촉의 "강도(intensity)"라는 용어는 터치-감응 표면 상의 접촉(예를 들어, 손가락 접촉)의 힘 또는 압력(단위면적당 힘)을 지칭하거나, 터치-감응 표면 상의 접촉의 힘 또는 압력에 대한 대체자(substitute)(대리자(proxy))를 지칭한다. 접촉의 강도는 적어도 4개의 구분되는 값들을 포함하는 값들의 범위를 가지며, 보다 전형적으로는 수백 개(예를 들어, 적어도 256개)의 구분되는 값들을 포함한다. 접촉의 강도는, 선택적으로 다양한 접근법들과 다양한 센서들 또는 센서들의 조합을 이용하여 결정(또는 측정)된다. 예를 들어, 터치-감응 표면 아래의 또는 그에 인접한 하나 이상의 힘 센서들이 선택적으로 사용되어, 터치-감응 표면 상의 다양한 지점들에서 힘을 측정한다. 일부 구현예들에서, 다수의 힘 센서들로부터의 힘 측정치들이 조합되어, 접촉의 추정되는 힘(예를 들어, 가중 평균)을 결정한다. 유사하게, 스타일러스의 압력-감응 팁이 선택적으로 사용되어, 터치-감응 표면 상에서의 스타일러스의 압력을 결정한다. 대안적으로, 터치-감응 표면 상에서 검출된 접촉 면적의 크기 및/또는 그에 대한 변화, 접촉 부근의 터치-감응 표면의 커패시턴스(capacitance) 및/또는 그에 대한 변화, 및/또는 접촉 부근의 터치-감응 표면의 저항(resistance) 및/또는 그에 대한 변화는 선택적으로 터치-감응 표면 상의 접촉의 힘 또는 압력에 대한 대체자로서 사용된다. 일부 구현예들에서, 접촉 힘 또는 압력에 대한 대체자 측정치들이 직접 사용되어, 강도 임계치가 초과되었는지 여부를 결정한다(예를 들어, 강도 임계치는 대체자 측정치들에 대응하는 단위로 기술됨). 일부 구현예들에서, 접촉 힘 또는 압력에 대한 대체자 측정치들은 추정된 힘 또는 압력으로 변환되고, 추정된 힘 또는 압력이 사용되어 강도 임계치가 초과되었는지 여부를 결정한다(예를 들어, 강도 임계치는 압력의 단위로 측정된 압력 임계치임).As used herein and in the claims, the term "intensity" of a contact on a touch-sensitive surface refers to the force or pressure of a contact (e.g., finger contact) Quot;), or refers to a substitute (proxy) for the force or pressure of a contact on a touch-sensitive surface. The intensity of the contact has a range of values that include at least four distinct values, and more typically includes hundreds (e.g., at least 256) of distinct values. The strength of the contact is optionally determined (or measured) using various approaches and combinations of various sensors or sensors. For example, one or more force sensors below or near the touch-sensitive surface are selectively used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from a plurality of force sensors are combined to determine an estimated force of contact (e.g., a weighted average). Similarly, the pressure-sensitive tip of the stylus is selectively used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the magnitude and / or variation of the contact area detected on the touch-sensitive surface, the capacitance and / or the capacitance of the touch-sensitive surface near the contact, and / or the touch- The resistance of the surface and / or changes thereto is optionally used as a substitute for the force or pressure of the contact on the touch-sensitive surface. In some embodiments, alternate measures for contact force or pressure are used directly to determine whether the intensity threshold has been exceeded (e.g., the intensity threshold is described in units corresponding to alternate measurements). In some embodiments, alternate measurements for contact force or pressure are converted to an estimated force or pressure, and an estimated force or pressure is used to determine whether the intensity threshold has been exceeded (e.g., Of the pressure threshold).

본 명세서 및 특허청구범위에 사용되는 바와 같이, 용어 "촉각적 출력(tactile output)"은 디바이스의 이전 위치에 대한 디바이스의 물리적 변위(displacement), 디바이스의 다른 컴포넌트(예를 들어, 하우징)에 대한 디바이스의 일 컴포넌트(예를 들어, 터치-감응 표면)의 물리적 변위, 또는 사용자의 촉각을 이용하여 사용자에 의해 검출될 디바이스의 질량 중심에 대한 컴포넌트의 변위를 지칭한다. 예를 들어, 디바이스 또는 디바이스의 컴포넌트가 터치에 감응하는 사용자의 표면(예를 들어, 손가락, 손바닥, 또는 사용자의 손의 기타 부분)과 접촉하는 상황에서, 물리적 변위에 의해 생성된 촉각적 출력은 사용자에 의해 디바이스 또는 디바이스의 컴포넌트의 물리적 특징들에서의 인지된 변화에 대응하는 촉각으로서 해석될 것이다. 예를 들어, 터치-감응 표면(예를 들어, 터치-감응 디스플레이 또는 트랙패드)의 이동은 선택적으로 물리적 액추에이터 버튼의 "다운 클릭(down click)" 또는 "업 클릭(up click)"으로서 사용자에 의해 해석된다. 일부 경우들에서, 사용자의 이동에 의해 물리적으로 눌려진(예를 들어, 변위된) 터치-감응 표면과 연관된 물리적 액추에이터 버튼의 이동이 없을 경우에도, 사용자는 "다운 클릭" 또는 "업 클릭"과 같은 촉각적 감각을 느낄 것이다. 다른 예로서, 터치-감응 표면의 이동은 선택적으로, 터치-감응 표면의 평활도(smoothness)에서의 변화가 존재하지 않는 경우에도, 터치-감응 표면의 "조도(roughness)"로서 사용자에 의해 해석 또는 감지된다. 사용자에 의한 터치의 그러한 해석이 사용자의 개인화된 감각 인식들에 영향을 받기 쉬울 것이지만, 대다수의 사용자들에게 공통적인 많은 터치 감각 인식들이 존재한다. 따라서, 달리 언급되지 않는 한, 촉각적 출력이 사용자의 특정한 감각 인식(예를 들어, "업 클릭", "다운 클릭", "조도")에 대응하는 것으로서 기술될 때, 생성된 촉각적 출력은 전형적인 (또는 평균적인) 사용자에 대해 기술된 감각 인식을 생성할 디바이스 또는 이의 컴포넌트의 물리적 변위에 대응한다.As used in this specification and claims, the term "tactile output" refers to the physical displacement of a device relative to a previous position of the device, the relative position of the device to another component (e.g., housing) Refers to the displacement of the component relative to the center of mass of the device to be detected by the user using the physical displacement of one component of the device (e.g., the touch-sensitive surface) or the tactile angle of the user. For example, in situations where a device or a component of a device contacts a surface of a user (e.g., a finger, palm, or other part of the user's hand) sensitive to the touch, the tactile output produced by the physical displacement Will be interpreted by the user as a tactile sense corresponding to a perceived change in the physical characteristics of the device or component of the device. For example, movement of a touch-sensitive surface (e.g., a touch-sensitive display or trackpad) may optionally be performed by the user as a "down click" or " . In some cases, even when there is no movement of a physical actuator button associated with a touch-sensitive surface that is physically pushed (e.g., displaced) by a user's movement, You will feel a tactile sensation. As another example, the movement of the touch-sensitive surface may optionally be interpreted by the user as the "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch- Is detected. While such interpretation of the touch by the user may be susceptible to the user &apos; s personalized sensory perceptions, there are many touch sensory perceptions common to the majority of users. Thus, unless otherwise noted, when the tactile output is described as corresponding to a user &apos; s specific sensory perception (e.g., "up click", "down click", " Corresponds to the physical displacement of the device or its components that will produce the sensory perception described for a typical (or average) user.

디바이스(100)가 휴대용 다기능 디바이스의 일례일 뿐이고, 디바이스(100)가 선택적으로 도시된 것보다 더 많거나 더 적은 컴포넌트들을 가지거나, 선택적으로 둘 이상의 컴포넌트들을 조합하거나, 선택적으로 컴포넌트들의 상이한 구성 또는 배열을 갖는다는 것을 이해하여야 한다. 도 1a에 도시된 다양한 컴포넌트들은 하나 이상의 신호 프로세싱 및/또는 주문형 집적 회로(application specific integrated circuit)들을 비롯한, 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어 둘 모두의 조합으로 구현된다.It should be understood that the device 100 is only one example of a portable multifunction device, and that the device 100 optionally has more or fewer components than shown, or may optionally combine two or more components or, alternatively, Arrays. &Lt; / RTI &gt; The various components shown in FIG. 1A are implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing and / or application specific integrated circuits.

메모리(102)는 선택적으로 고속 랜덤 액세스 메모리를 포함하고, 또한 선택적으로 하나 이상의 자기 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 고체 메모리 디바이스들과 같은 비휘발성 메모리를 또한 포함한다. CPU(120) 및 주변기기 인터페이스(118)와 같은 디바이스(100)의 다른 컴포넌트들에 의한 메모리(102)에의 액세스는 선택적으로 메모리 제어기(122)에 의해 제어된다.The memory 102 optionally includes high speed random access memory and also optionally includes non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. Access to the memory 102 by other components of the device 100, such as the CPU 120 and the peripheral interface 118, is optionally controlled by the memory controller 122.

주변기기 인터페이스(118)는 디바이스의입력 및 출력 주변기기들을 CPU(120) 및 메모리(102)에 결합하는 데 사용될 수 있다. 하나 이상의 프로세서(120)들은 디바이스(100)에 대한 다양한 기능들을 수행하고 데이터를 처리하기 위해 메모리(102) 내에 저장된 다양한 소프트웨어 프로그램들 및/또는 명령어들의 세트들을 구동하거나 실행시킨다.The peripheral interface 118 may be used to couple the input and output peripherals of the device to the CPU 120 and the memory 102. The one or more processors 120 drive or execute various software programs and / or sets of instructions stored in the memory 102 to perform various functions for the device 100 and process the data.

일부 실시예들에서, 주변기기 인터페이스(118), CPU(120) 및 메모리 제어기(122)는 선택적으로 칩(104)과 같은 단일 칩 상에서 구현된다. 일부 다른 실시예들에서, 이들은 선택적으로 별개의 칩들 상에서 구현된다.In some embodiments, peripheral interface 118, CPU 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. In some other embodiments, these are optionally implemented on separate chips.

RF (radio frequency) 회로(108)는 전자기 신호들로 또한 지칭되는 RF 신호들을 수신 및 송신한다. RF 회로(108)는 전기 신호들을 전자기 신호들로/로부터 변환하고, 전자기 신호들을 통해 통신 네트워크들 및 다른 통신 디바이스들과 통신한다. RF 회로(108)는 선택적으로 안테나 시스템, RF 송수신기, 하나 이상의 증폭기들, 튜너, 하나 이상의 발진기들, 디지털 신호 프로세서, CODEC 칩셋, 가입자 식별 모듈(subscriber identity module, SIM) 카드, 메모리 등을 포함하지만 이들로 한정되지 않는, 이러한 기능들을 수행하기 위한 잘 알려진 회로를 포함한다. RF 회로(108)는 선택적으로 네트워크들, 예를 들어 월드 와이드 웹(WWW)으로 또한 지칭되는 인터넷, 인트라넷, 및/또는 무선 네트워크, 예를 들어 셀룰러 전화 네트워크, 무선 근거리 통신망(local area network, LAN) 및/또는 대도시 통신망(metropolitan area network, MAN), 및 다른 디바이스들과 무선 통신에 의해 통신한다. 무선 통신은 선택적으로 GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), HSDPA(high-speed downlink packet access), HSUPA(high-speed uplink packet access), EV-DO(Evolution, Data-Only), HSPA, HSPA+, DC-HSPDA(Dual-Cell HSPA), LTE(long term evolution), NFC(near field communication), W-CDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), 블루투스, Wi-Fi(Wireless Fidelity)(예를 들어, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n), VoIP(voice over Internet Protocol), Wi-MAX, 이메일용 프로토콜(예를 들어, IMAP(Internet message access protocol) 및/또는 POP(post office protocol)), 인스턴트 메시징(예를 들어, XMPP(extensible messaging and presence protocol), SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS(Instant Messaging and Presence Service), 및/또는 SMS(Short Message Service), 또는 본 명세서의 출원일자로 아직 개발되지 않은 통신 프로토콜들을 포함하는 임의의 다른 적합한 통신 프로토콜을 포함하지만 이로 한정되지 않는 복수의 통신 표준들, 프로토콜들 및 기술들 중 임의의 것을 사용한다.A radio frequency (RF) circuit 108 receives and transmits RF signals, also referred to as electromagnetic signals. The RF circuit 108 converts electrical signals to and from electromagnetic signals and communicates with the communication networks and other communication devices via electromagnetic signals. The RF circuitry 108 optionally includes an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, a subscriber identity module (SIM) card, But are not limited to, well known circuits for performing these functions. The RF circuitry 108 may optionally be implemented in networks, such as the Internet, an intranet, and / or a wireless network, also referred to as the World Wide Web (WWW), such as a cellular telephone network, a local area network ) And / or a metropolitan area network (MAN), and other devices. The wireless communication may optionally include a Global System for Mobile Communications (GSM), an Enhanced Data GSM Environment (EDGE), a high-speed downlink packet access (HSDPA), a high-speed uplink packet access (HSUPA) HSPA, HSPA, DC-HSPDA, long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA) Such as time division multiple access (TDMA), Bluetooth, wireless fidelity (e.g., IEEE 802.11a, IEEE 802.11b, IEEE 802.11g and / or IEEE 802.11n), voice over Internet Protocol (VoIP) (E. G., Extensible messaging and presence protocol (XMPP), Session Initiation Protocol (SIMPLE), and the like) Instant Messaging and Presence Service (IMPS), and / or Short Message Service (SMS) This includes any other suitable communication protocol, including communication protocols not yet developed as of the filing date herein, but a plurality of communication standards are not limited to, using any of the protocols and techniques.

오디오 회로(110), 스피커(111), 및 마이크(113)는 사용자와 디바이스(100) 사이의 오디오 인터페이스를 제공한다. 오디오 회로(110)는 주변기기 인터페이스(118)로부터 오디오 데이터를 수신하고, 그 오디오 데이터를 전기 신호로 변환하고, 그 전기 신호를 스피커(111)로 송신한다. 스피커(111)는 전기 신호를 사람이 들을 수 있는 음파로 변환한다. 오디오 회로(110)는 또한 마이크(113)에 의해 음파로부터 변환된 전기 신호를 수신한다. 오디오 회로(110)는 전기 신호를 오디오 데이터로 변환하고, 프로세싱을 위해 오디오 데이터를 주변기기 인터페이스(118)로 송신한다. 오디오 데이터는 선택적으로 주변기기 인터페이스(118)에 의해 메모리(102) 및/또는 RF 회로(108)로부터 검색되고/되거나 메모리(102) 및/또는 RF 회로(108)로 송신된다. 일부 실시예들에서, 오디오 회로(110)는 또한 헤드셋 잭(예를 들어, 도 2의 212)을 포함한다. 헤드셋 잭은 출력-전용 헤드폰들, 또는 출력(예를 들어, 한쪽 또는 양쪽 귀를 위한 헤드폰) 및 입력(예를 들어, 마이크) 둘 모두를 갖는 헤드셋과 같은 분리가능한 오디오 입력/출력 주변기기들과 오디오 회로(110) 사이의 인터페이스를 제공한다.The audio circuitry 110, the speaker 111, and the microphone 113 provide an audio interface between the user and the device 100. The audio circuit 110 receives audio data from the peripheral interface 118, converts the audio data into an electrical signal, and transmits the electrical signal to the speaker 111. The speaker 111 converts the electric signal into a sound wave that can be heard by a person. The audio circuit 110 also receives electrical signals converted from sound waves by the microphone 113. Audio circuitry 110 converts electrical signals to audio data and transmits audio data to the peripheral interface 118 for processing. The audio data is optionally retrieved from the memory 102 and / or the RF circuit 108 by the peripheral interface 118 and / or transmitted to the memory 102 and / or the RF circuit 108. In some embodiments, the audio circuitry 110 also includes a headset jack (e.g., 212 of FIG. 2). The headset jack can be used to output audio-only headphones or separate audio input / output peripherals such as a headset having output (e.g., headphones for one or both ears) and an input (e.g., a microphone) 0.0 &gt; 110 &lt; / RTI &gt;

I/O 서브시스템(106)은 터치 스크린(112) 및 다른 입력 제어 디바이스(116)들과 같은, 디바이스(100) 상의 입력/출력 주변기기들을 주변기기 인터페이스(118)에 결합시킨다. I/O 서브시스템(106)은 선택적으로 디스플레이 제어기(156), 광학 센서 제어기(158), 강도 센서 제어기(159), 햅틱 피드백 제어기(161) 및 다른 입력 또는 제어 디바이스들을 위한 하나 이상의 입력 제어기(160)들을 포함한다. 하나 이상의 입력 제어기(160)들은 다른 입력 또는 제어 디바이스(116)들로부터/로 전기 신호들을 수신/송신한다. 다른 입력 제어 디바이스(116)들은 선택적으로 물리적 버튼들(예를 들어, 푸시 버튼들, 로커 버튼(rocker button)들 등), 다이얼들, 슬라이더 스위치들, 조이스틱들, 클릭 휠들 등을 포함한다. 일부 다른 실시예들에서, 입력 제어기(들)(160)는 선택적으로 키보드, 적외선 포트, USB 포트, 및 마우스와 같은 포인터 디바이스 중 임의의 것에 결합된다(또는 어떤 것에도 결합되지 않음). 하나 이상의 버튼(예를 들어, 도 2의 208)들은 선택적으로 스피커(111) 및/또는 마이크(113)의 음량 제어를 위한 업/다운 버튼을 포함한다. 하나 이상의 버튼들은 선택적으로 푸시 버튼(예를 들어, 도 2의 206)을 포함한다.The I / O subsystem 106 couples the input / output peripherals on the device 100 to the peripheral interface 118, such as the touch screen 112 and other input control devices 116. I / O subsystem 106 may optionally include one or more input controllers (not shown) for display controller 156, optical sensor controller 158, intensity sensor controller 159, haptic feedback controller 161, and other input or control devices 160). One or more input controllers 160 receive / transmit electrical signals to / from other input or control devices 116. Other input control devices 116 optionally include physical buttons (e.g., push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, input controller (s) 160 is optionally coupled to (or not coupled to) any of the pointer devices such as keyboard, infrared port, USB port, and mouse. One or more buttons (e.g., 208 in FIG. 2) optionally include up / down buttons for volume control of the speaker 111 and / or the microphone 113. The one or more buttons optionally include a push button (e.g., 206 in FIG. 2).

터치-감응 디스플레이(112)는 디바이스와 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 제공한다. 디스플레이 제어기(156)는 터치 스크린(112)으로부터/으로 전기 신호들을 수신 및/또는 송신한다. 터치 스크린(112)은 사용자에게 시각적 출력을 표시한다. 시각적 출력은 선택적으로 그래픽, 텍스트, 아이콘들, 비디오 및 이들의 임의의 조합(총칭하여 "그래픽"으로 지칭함)을 포함한다. 일부 실시예들에서, 시각적 출력의 일부 또는 전부가 사용자-인터페이스 객체들에 대응한다.The touch-sensitive display 112 provides an input interface and an output interface between the device and the user. The display controller 156 receives and / or transmits electrical signals to / from the touch screen 112. The touch screen 112 displays a visual output to the user. The visual output optionally includes graphics, text, icons, video, and any combination thereof (collectively referred to as "graphics"). In some embodiments, some or all of the visual output corresponds to user-interface objects.

터치 스크린(112)은 햅틱 및/또는 촉각적 접촉에 기초하여 사용자로부터 입력을 수용하는 터치-감응 표면, 센서 또는 센서들의 세트를 갖는다. 터치 스크린(112) 및 디스플레이 제어기(156)는 (메모리(102) 내의 임의의 연관된 모듈들 및/또는 명령어들의 세트들과 함께) 터치 스크린(112) 상의 접촉(및 접촉의 임의의 이동 또는 중단)을 검출하고, 검출된 접촉을 터치 스크린(112) 상에 표시된 사용자-인터페이스 객체들(예를 들어, 하나 이상의 소프트 키들, 아이콘들, 웹 페이지들 또는 이미지들)과의 상호작용으로 변환한다. 예시적인 실시예에서, 터치 스크린(112)과 사용자 사이의 접촉 지점은 사용자의 손가락에 대응한다.The touch screen 112 has a touch-sensitive surface, sensor, or set of sensors that accept input from a user based on haptic and / or tactile contact. The touch screen 112 and the display controller 156 can be used to move a touch (and any movement or interruption of contact) on the touch screen 112 (along with any associated modules and / or sets of instructions within the memory 102) And converts the detected contact into interaction with user-interface objects (e.g., one or more soft keys, icons, web pages, or images) displayed on the touch screen 112. In an exemplary embodiment, the point of contact between the touch screen 112 and the user corresponds to the user's finger.

터치 스크린(112)은 선택적으로 LCD(액정 디스플레이) 기술, LPD(발광 중합체 디스플레이) 기술, 또는 LED(발광 다이오드) 기술을 사용하지만, 그외의 디스플레이 기술들이 다른 실시예들에서 사용된다. 터치 스크린(112) 및 디스플레이 제어기(156)는 선택적으로 터치 스크린(112)과의 하나 이상의 접촉 지점들을 결정하기 위해 정전용량, 저항, 적외선 및 표면 음향파 기술들과 다른 근접 센서 어레이들 또는 다른 요소들을 포함하지만 이들로 한정되지 않는, 현재 공지되어 있거나 추후에 개발될 복수의 터치 감지 기술들 중 임의의 것을 이용하여, 접촉 및 그의 임의의 이동 또는 중단을 검출한다. 예시적인 실시예에서, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이폰(등록상표), 아이팟 터치(등록상표), 및 아이패드(등록상표)에서 발견되는 것과 같은 투영형 상호 정전용량식 감지 기술(projected mutual capacitance sensing technology)이 이용된다.The touch screen 112 optionally uses LCD (liquid crystal display) technology, LPD (light emitting polymer display) technology, or LED (light emitting diode) technology, but other display technologies are used in other embodiments. The touchscreen 112 and display controller 156 may optionally include capacitive, resistive, infrared and surface acoustic wave techniques and other proximity sensor arrays or other elements to determine one or more points of contact with the touch screen 112. [ Using any of a plurality of currently known or later developed touch sensing techniques, including, but not limited to, touch sensing, In an exemplary embodiment, a projection-type mutual capacitive sensing, such as that found in the iPhone (registered trademark), iPod touch (registered trademark), and iPad (registered trademark) from Apple Inc. of Cupertino, California, A projected mutual capacitance sensing technology is used.

터치 스크린(112)은 선택적으로 100dpi를 초과하는 비디오 해상도를 갖는다. 일부 실시예들에서, 터치 스크린은 대략 160dpi의 비디오 해상도를 갖는다. 사용자는 선택적으로 스타일러스, 손가락 등과 같은 임의의 적합한 물체 또는 부속물을 이용하여 터치 스크린(112)과 접촉한다. 일부 실시예들에서, 사용자 인터페이스는 손가락-기반 접촉 및 제스처를 주로 이용하여 작업하도록 설계되는데, 이는 터치 스크린 상에서의 손가락의 더 넓은 접촉 면적으로 인해 스타일러스-기반 입력보다 덜 정밀할 수 있다. 일부 실시예들에서, 디바이스는 대략적인 손가락-기반 입력을 사용자가 원하는 행동들을 수행하기 위한 정밀한 포인터/커서 위치 또는 명령으로 변환한다.The touch screen 112 optionally has a video resolution of greater than 100 dpi. In some embodiments, the touch screen has a video resolution of approximately 160 dpi. The user optionally contacts the touch screen 112 using any suitable object or accessory, such as a stylus, a finger, or the like. In some embodiments, the user interface is designed to work primarily with finger-based contacts and gestures, which may be less accurate than the stylus-based input due to the wider contact area of the finger on the touch screen. In some embodiments, the device translates the coarse finger-based input into a precise pointer / cursor position or command for performing the actions desired by the user.

일부 실시예들에서, 터치 스크린에 더하여, 디바이스(100)는 선택적으로 특정 기능들을 활성화 또는 비활성화하기 위한 터치패드(도시되지 않음)를 포함한다. 일부 실시예들에서, 터치패드는 터치 스크린과는 다르게 시각적 출력을 표시하지 않는 디바이스의 터치-감응 영역이다. 터치패드는 선택적으로 터치 스크린(112)으로부터 분리된 터치-감응 표면 또는 터치 스크린에 의해 형성된 터치-감응 표면의 연장부이다.In some embodiments, in addition to the touch screen, the device 100 optionally includes a touch pad (not shown) for activating or deactivating certain functions. In some embodiments, the touchpad is a touch-sensitive area of the device that does not display the visual output unlike the touch screen. The touchpad is optionally an extension of a touch-sensitive surface separated from the touch screen 112 or formed by the touch screen.

디바이스(100)는 또한 다양한 컴포넌트들에 전력을 제공하기 위한 전력 시스템(162)을 포함한다. 전력 시스템(162)은 선택적으로 전력 관리 시스템, 하나 이상의 전원들(예를 들어, 배터리, 교류 전류(AC)), 재충전 시스템, 전력 고장 검출 회로, 전력 변환기 또는 인버터, 전력 상태 표시자(예를 들어, 발광 다이오드(LED)) 및 휴대용 디바이스들 내에서의 전력의 생성, 관리 및 분배와 연관된 임의의 다른 컴포넌트들을 포함한다.The device 100 also includes a power system 162 for providing power to the various components. The power system 162 may optionally include a power management system, one or more power sources (e.g., battery, ac current), a recharging system, a power failure detection circuit, a power converter or inverter, Light emitting diodes (LEDs), and any other components associated with the generation, management, and distribution of power within portable devices.

디바이스(100)는 또한 선택적으로 하나 이상의 광학 센서(164)들을 포함한다. 도 1a는 I/O 서브시스템(106) 내의 광학 센서 제어기(158)에 결합된 광학 센서를 도시한다. 광학 센서(164)는 선택적으로 전하-결합 소자(charge-coupled device, CCD) 또는 CMOS(complementary metal-oxide semiconductor) 포토트랜지스터들을 포함한다. 광학 센서(164)는 하나 이상의 렌즈들을 통해 투영된 주변환경으로부터의 광을 수신하고, 그 광을 이미지를 나타내는 데이터로 변환한다. 광학 센서(164)는 선택적으로, 이미징 모듈(143)(카메라 모듈로 또한 지칭됨)과 함께, 정지 이미지들 또는 비디오를 캡처한다. 일부 실시예들에서, 광학 센서는 디바이스 전면 상의 터치 스크린 디스플레이(112)의 반대편인 디바이스(100)의 배면 상에 위치되어, 터치 스크린 디스플레이는 정지 및/또는 비디오 이미지 획득을 위한 뷰파인더로서 사용될 수 있게 된다. 일부 실시예들에서, 사용자가 터치 스크린 디스플레이 상에서 다른 화상 회의 참가자들을 보는 동안, 사용자의 이미지가 선택적으로 화상 회의를 위해 획득되도록 다른 광학 센서가 디바이스의 전면 상에 위치된다.The device 100 also optionally includes one or more optical sensors 164. FIG. 1A shows an optical sensor coupled to an optical sensor controller 158 in an I / O subsystem 106. FIG. Optical sensor 164 optionally includes a charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) phototransistor. The optical sensor 164 receives light from the environment projected through one or more lenses and converts the light into data representing the image. The optical sensor 164 optionally captures still images or video, along with an imaging module 143 (also referred to as a camera module). In some embodiments, the optical sensor is located on the back of the device 100, which is opposite the touch screen display 112 on the device front, so that the touch screen display can be used as a viewfinder for still and / or video image acquisition . In some embodiments, another optical sensor is positioned on the front of the device such that the user's image is selectively acquired for video conferencing while the user is viewing other video conferencing participants on the touch screen display.

디바이스(100)는 선택적으로 하나 이상의 접촉 강도 센서(165)들을 또한 포함한다. 도 1a는 I/O 서브시스템(106) 내의 강도 센서 제어기(159)에 결합된 접촉 강도 센서를 도시한다. 접촉 강도 센서(165)는 선택적으로 하나 이상의 압전 저항 스트레인 게이지, 용량성 힘 센서, 전기적 힘 센서, 압전 힘 센서, 광학적 힘 센서, 용량성 터치-감응 표면, 또는 다른 강도 센서(예를 들어, 터치-감응 표면 상의 접촉 힘(또는 압력)을 측정하도록 사용되는 센서들)를 포함한다. 접촉 강도 센서(165)는 환경으로부터 접촉 강도 정보(예를 들어, 압력 정보 또는 압력 정보에 대한 대리자)를 수신한다. 일부 실시예들에서, 적어도 하나의 접촉 강도 센서는 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))과 함께 위치되거나 그에 근접한다. 일부 실시예들에서, 적어도 하나의 접촉 강도 센서가 디바이스(100)의 전면 상에 위치된 터치 스크린 디스플레이(112)의 반대편인 디바이스(100)의 배면 상에 위치된다.The device 100 also optionally includes one or more contact strength sensors 165. FIG. 1A illustrates a contact strength sensor coupled to a strength sensor controller 159 in the I / O subsystem 106. FIG. The contact strength sensor 165 may optionally include one or more of a piezoelectric resistance strain gauge, a capacitive force sensor, an electrical force sensor, a piezoelectric force sensor, an optical force sensor, a capacitive touch-sensitive surface, Sensors that are used to measure contact force (or pressure) on the sensitive surface). The contact strength sensor 165 receives contact intensity information (e.g., a surrogate for pressure information or pressure information) from the environment. In some embodiments, at least one contact strength sensor is located or proximate to a touch-sensitive surface (e.g., the touch-sensitive display system 112). In some embodiments, at least one contact strength sensor is positioned on the back side of the device 100 that is opposite the touch screen display 112 located on the front side of the device 100.

디바이스(100)는 선택적으로 하나 이상의 근접 센서(166)들을 또한 포함한다. 도 1a는 주변기기 인터페이스(118)에 결합된 근접 센서(166)를 도시한다. 대안적으로, 근접 센서(166)는 I/O 서브시스템(106) 내의 입력 제어기(160)에 결합된다. 일부 실시예들에서, 근접 센서는 다기능 디바이스가 사용자의 귀 근처에 위치될 때(예를 들어, 사용자가 전화 통화를 하고 있을 때), 터치 스크린(112)을 오프 상태로 하고 디스에이블시킨다.The device 100 also optionally includes one or more proximity sensors 166. 1A shows a proximity sensor 166 coupled to a peripheral interface 118. FIG. Alternatively, the proximity sensor 166 is coupled to the input controller 160 in the I / O subsystem 106. In some embodiments, the proximity sensor turns off and disables the touch screen 112 when the multifunction device is located near the user's ear (e.g., when the user is making a phone call).

디바이스(100)는 또한 선택적으로 하나 이상의 촉각적 출력 생성기(167)들을 포함한다. 도 1a는 I/O 서브시스템(106) 내의 햅틱 피드백 제어기(161)에 결합된 촉각적 출력 생성기를 도시한다. 촉각적 출력 생성기(167)는 선택적으로 스피커들 또는 다른 오디오 컴포넌트들과 같은 하나 이상의 전자음향 디바이스들 및/또는 모터, 솔레노이드, 전기활성 중합체, 압전 액추에이터, 정전 액추에이터, 또는 다른 촉각적 출력 생성 컴포넌트(예를 들어, 전기 신호들을 디바이스 상의 촉각적 출력들로 변환하는 컴포넌트)와 같이 에너지를 선형 움직임으로 변환하는 전자기계 디바이스들을 포함한다. 접촉 강도 센서(165)는 햅틱 피드백 모듈(133)로부터 촉각적 피드백 생성 명령어들을 수신하여 디바이스(100)의 사용자에 의해 감지될 수 있는 디바이스(100) 상의 촉각적 출력들을 생성한다. 일부 실시예들에서, 적어도 하나의 촉각적 출력 생성기가 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))과 함께 위치되거나 그에 근접하며, 선택적으로 터치-감응 표면을 수직으로(예를 들어, 디바이스(100)의 표면 내외로) 또는 수평으로(예를 들어, 디바이스(100)의 표면과 동일한 표면 내에서 전후로) 이동함으로써 촉각적 출력을 생성한다. 일부 실시예들에서, 적어도 하나의 촉각적 출력 생성기 센서는 디바이스(100)의 전면 상에 위치된 터치 스크린 디스플레이(112)의 반대편인 디바이스(100)의 배면 상에 위치된다.The device 100 also optionally includes one or more tactile output generators 167. FIG. 1A illustrates a tactile output generator coupled to a haptic feedback controller 161 in an I / O subsystem 106. FIG. The tactile output generator 167 may optionally include one or more electroacoustic devices, such as speakers or other audio components, and / or other components, such as a motor, solenoid, electroactive polymer, piezoelectric actuator, electrostatic actuator, (E.g., a component that converts electrical signals to tactile outputs on a device). The contact strength sensor 165 receives tactile feedback generation instructions from the haptic feedback module 133 and generates tactile outputs on the device 100 that can be sensed by a user of the device 100. [ In some embodiments, at least one tactile output generator is located or proximate to a touch-sensitive surface (e.g., the touch-sensitive display system 112), and optionally a touch- (E.g., into or out of the surface of the device 100) or horizontally (e.g., back and forth in the same surface as the surface of the device 100). In some embodiments, at least one tactile output generator sensor is located on the back of the device 100, which is opposite the touch screen display 112 located on the front of the device 100.

디바이스(100)는 또한 선택적으로 하나 이상의 가속도계(168)들을 포함한다. 도 1a는 주변기기 인터페이스(118)에 결합된 가속도계(168)를 도시한다. 대안적으로, 가속도계(168)는 선택적으로 I/O 서브시스템(106) 내의 입력 제어기(160)에 결합된다. 일부 실시예들에서, 하나 이상의 가속도계들로부터 수신된 데이터의 분석에 기초하여 터치 스크린 디스플레이 상에 세로보기(portrait view) 또는 가로보기(landscape view)로 정보가 표시된다. 디바이스(100)는 가속도계(들)(168)에 더하여 자력계(도시되지 않음), 및 디바이스(100)의 위치 및 배향(예를 들어, 세로 또는 가로)에 관한 정보를 획득하기 위한 GPS(또는 GLONASS 또는 다른 글로벌 내비게이션 시스템) 수신기(도시되지 않음)를 선택적으로 포함한다.The device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows an accelerometer 168 coupled to a peripheral interface 118. FIG. Alternatively, the accelerometer 168 is optionally coupled to the input controller 160 in the I / O subsystem 106. In some embodiments, information is displayed in a portrait view or a landscape view on the touch screen display based on an analysis of data received from the one or more accelerometers. Device 100 may include a magnetometer (not shown) in addition to accelerometer (s) 168 and a GPS (or GLONASS) device to obtain information about the location and orientation (e.g., vertical or horizontal) Or other global navigation system) receiver (not shown).

일부 실시예들에서, 디바이스(100)는 또한 하나 이상의 지문 센서(169)들을 포함한다(또는 이들과 통신함). 도 1a는 주변기기 인터페이스(118)에 결합된 지문 센서(169)를 도시한다. 대안적으로, 지문 센서(169)들은 선택적으로 I/O 서브시스템(106) 내의 입력 제어기(160)에 결합된다. 그러나 일반적인 일 실시예에서, 지문 식별 동작들은 지문 센서들에 의해 결정된 지문 정보의 보안을 개선하도록 추가적인 보안 특징들을 갖는 보안 전용 컴퓨팅 하드웨어(예를 들어, 하나 이상의 프로세서들, 메모리 및/또는 통신 버스들)를 사용하여 수행된다. 본 명세서에 사용되는 바와 같이, 지문 센서는 인간의 손가락 및 발가락에서 발견되는 것과 같은 피부의 능선 및 골(valley)의 지문 특징들(때때로, "세부 특징들"로 지칭됨)을 구별할 수 있는 센서이다. 지문 센서는, 광학적 지문 이미징, 초음파 지문 이미징, 능동 커패시턴스 지문 이미징, 및 수동 커패시턴스 지문 이미징을 포함하지만, 이로 한정되지 않는, 지문 특징들을 구별하기 위한 다양한 기술들 중 임의의 기술을 사용할 수 있다. 지문 내의 지문 특징들을 구별하는 것에 더하여, 일부 실시예들에서 지문 센서(169)는 시간에 따른 지문 특징들의 이동을 추적할 수 있으며, 이에 의해 지문 센서 상에서의 시간에 따른 지문의 이동을 결정/특성화할 수 있다. 도 1a의 지문 센서(예를 들어, 지문 센서(169))는 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))과는 별개인 것으로 도시되어 있지만, 일부 구현예들에서는 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))이 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가지며, 별개의 지문 센서(예를 들어, 지문 센서(169)) 대신에 또는 이에 더하여 지문 센서로서 사용된다는 것을 이해하여야 한다. 일부 실시예들에서, 디바이스(100)는 디바이스 상에 있거나 디바이스에 근접한 손가락 또는 손의 배향(예를 들어, 지문 센서(169) 위에 있는 손가락의 배향)을 결정하도록 사용되는 한 세트의 하나 이상의 배향 센서들을 포함한다. 부가적으로, 일부 실시예들에서, 한 세트의 하나 이상의 배향 센서들이 디바이스와 상호작용하는 접촉의 회전을 검출하기 위해 지문 센서에 더하여 또는 지문 센서들 대신에 사용된다(예를 들어, 아래에서 기술되는 하나 이상의 방법들에서, 지문/접촉의 회전을 검출하기 위해 지문 센서를 사용하는 대신에, 한 세트의 하나 이상의 배향 센서들이 지문의 특징들을 검출하거나 검출하지 않고서, 지문을 포함하는 접촉의 회전을 검출하도록 사용됨).In some embodiments, the device 100 also includes (or communicates with) one or more fingerprint sensors 169. FIG. 1A shows a fingerprint sensor 169 coupled to a peripheral interface 118. FIG. Alternatively, the fingerprint sensors 169 are optionally coupled to the input controller 160 in the I / O subsystem 106. However, in a typical embodiment, fingerprint identification operations may be performed on security-only computing hardware (e.g., one or more processors, memory and / or communication busses) having additional security features to improve security of fingerprint information determined by the fingerprint sensors ). &Lt; / RTI &gt; As used herein, a fingerprint sensor is a device that can distinguish fingerprint features (sometimes referred to as "detailed features") of skin ridges and valleys, such as those found in human fingers and toes Sensor. The fingerprint sensor may use any of a variety of techniques for distinguishing fingerprint features, including, but not limited to, optical fingerprint imaging, ultrasound fingerprint imaging, active capacitance fingerprint imaging, and passive capacitance fingerprint imaging. In addition to distinguishing the fingerprint features in the fingerprint, in some embodiments, the fingerprint sensor 169 may track movement of the fingerprint features over time, thereby determining / characterizing movement of the fingerprint over time on the fingerprint sensor can do. Although the fingerprint sensor (e.g., fingerprint sensor 169) of FIG. 1A is shown as being separate from the touch-sensitive surface (e.g., the touch-sensitive display system 112) (E.g., a fingerprint sensor (e.g., a fingerprint sensor) that has a spatial resolution that is sufficiently high for the sensing surface (e.g., the touch-sensitive display system 112) to detect fingerprint features formed by the individual fingerprint ridges, 169)) or as a fingerprint sensor. In some embodiments, the device 100 includes a set of one or more orientations used to determine the orientation of a finger or hand on the device or proximate the device (e.g., the orientation of the finger over the fingerprint sensor 169) Sensors. Additionally, in some embodiments, a set of one or more orientation sensors is used in addition to or in place of the fingerprint sensor to detect rotation of the contact that interacts with the device (see, for example, , Instead of using a fingerprint sensor to detect the rotation of the fingerprint / contact, a set of one or more orientation sensors may detect the rotation of the contact, including the fingerprint, without detecting or detecting the features of the fingerprint Lt; / RTI &gt;

일부 실시예들에서, 지문 센서(169)에 의해 생성, 저장 및 프로세싱되는 지문 데이터의 보안성을 향상시키도록, 지문들의 특징들, 및 검출된 지문들의 특징들과 저장된 지문들의 특징들 사이의 비교가 프로세서(120)들과는 별개인 보안 전용 컴퓨팅 하드웨어(예를 들어, 하나 이상의 프로세서들, 메모리 및/또는 통신 버스들)에 의해 수행된다. 일부 실시예들에서, 지문들의 특징들, 및 검출된 지문들의 특징들과 저장된 지문들의 특징들 사이의 비교는 지문 분석 모듈(131)을 이용하여 프로세서(120)들에 의해 수행된다.In some embodiments, the features of the fingerprints, and the comparison between features of the detected fingerprints and stored fingerprints, to improve the security of the fingerprint data generated, stored and processed by the fingerprint sensor 169 Dedicated computing hardware (e.g., one or more processors, memory, and / or communication buses) that is separate from the processors 120. [ In some embodiments, the features of the fingerprints and the comparison between the features of the detected fingerprints and the features of the stored fingerprints are performed by the processors 120 using the fingerprint analysis module 131. [

일부 실시예들에서, 메모리(102) 내에 저장된 소프트웨어 컴포넌트들은 운영 체제(126), 통신 모듈(또는 명령어들의 세트)(128), 접촉/움직임 모듈(또는 명령어들의 세트)(130), 지문 분석 모듈(131), 그래픽 모듈(또는 명령어들의 세트)(132), 텍스트 입력 모듈(또는 명령어들의 세트)(134), GPS 모듈(또는 명령어들의 세트)(135) 및 애플리케이션들(또는 명령어들의 세트)(136)을 포함한다. 또한, 일부 실시예들에서, 메모리(102)는 도 1a 및 도 3에 도시된 바와 같이 디바이스/글로벌 내부 상태(157)를 저장한다. 디바이스/글로벌 내부 상태(157)는 애플리케이션들이, 존재하는 경우, 현재 활성 상태임을 나타내는 활성 애플리케이션 상태; 어떤 애플리케이션들, 뷰들 또는 다른 정보가 터치 스크린 디스플레이(112)의 다양한 구역들을 점유하는지를 나타내는 디스플레이 상태; 디바이스의 다양한 센서들 및 입력 제어 디바이스(116)들로부터 획득된 정보를 포함하는 센서 상태; 및 디바이스의 위치 및/또는 자세에 관한 위치 정보 중 하나 이상을 포함한다.In some embodiments, the software components stored in the memory 102 may include an operating system 126, a communication module (or set of instructions) 128, a touch / motion module (or set of instructions) 130, (Or a set of instructions) 134, a graphics module (or a set of instructions) 132, a text input module (or a set of instructions) 134, a GPS module 136). Further, in some embodiments, the memory 102 stores the device / global internal state 157 as shown in Figures 1A and 3. The device / global internal state 157 is an active application state that indicates that applications, if any, are currently active; Display states that indicate which applications, views or other information occupy various areas of the touch screen display 112; A sensor state comprising information obtained from various sensors of the device and input control devices 116; And position information on the position and / or posture of the device.

운영 체제(126)(예컨대, 다윈(Darwin), RTXC, 리눅스(LINUX), 유닉스(UNIX), OS X, 윈도우즈(WINDOWS), 또는 VxWorks와 같은 내장형 운영 체제)는 일반적인 시스템 태스크들(예컨대, 메모리 관리, 저장 디바이스 제어, 전력 관리 등)을 제어 및 관리하기 위한 다양한 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함하고, 다양한 하드웨어 및 소프트웨어 컴포넌트들 사이의 통신을 용이하게 한다.An operating system 126 (e.g., an embedded operating system such as Darwin, RTXC, Linux, UNIX, OS X, WINDOWS, or VxWorks) Management software, storage device control, power management, etc.) and facilitates communication between the various hardware and software components.

통신 모듈(128)은 하나 이상의 외부 포트(124)들을 통한 다른 디바이스들과의 통신을 용이하게 하고, 또한 RF 회로(108) 및/또는 외부 포트(124)에 의해 수신되는 데이터를 다루기 위한 다양한 소프트웨어 컴포넌트들을 포함한다. 외부 포트(124)(예를 들어, 범용 직렬 버스(Universal Serial Bus: USB), 파이어와이어(FIREWIRE) 등)는 다른 디바이스들에 직접적으로 또는 네트워크(예를 들어, 인터넷, 무선 LAN 등)를 통해 간접적으로 결합하도록 구성된다. 일부 실시예들에서, 외부 포트는 아이팟(애플 인크.의 상표) 디바이스들에서 사용되는 30-핀 커넥터와 동일하거나 유사하고/하거나 호환가능한 멀티-핀(예를 들어, 30-핀) 커넥터이다.Communication module 128 may include various software modules to facilitate communication with other devices via one or more external ports 124 and to handle data received by RF circuitry 108 and / Components. The external port 124 (e.g., Universal Serial Bus (USB), FIREWIRE, etc.) may be connected directly to other devices or via a network (e.g., And indirectly. In some embodiments, the external port is a multi-pin (e.g., 30-pin) connector that is the same or similar and / or compatible with a 30-pin connector used in iPod (Apple Inc.) devices.

접촉/움직임 모듈(130)은 선택적으로 (디스플레이 제어기(156)와 함께) 터치 스크린(112) 및 다른 터치-감응 디바이스들(예를 들어, 터치패드 또는 물리적 클릭 휠)과의 접촉을 검출한다. 접촉/움직임 모듈(130)은 접촉이 발생하였는지 여부를 결정하는 것(예를 들어, 손가락-다운 이벤트의 검출), 접촉 강도를 결정하는 것(예를 들어, 접촉의 힘 또는 압력, 또는 접촉의 힘 또는 압력에 대한 대체자), 접촉의 이동이 존재하는지 여부를 결정하고 터치-감응 표면을 가로지르는 이동을 추적하는 것(예를 들어, 하나 이상의 손가락-드래그 이벤트의 검출) 및 접촉이 중단되었는지 여부를 결정하는 것(예를 들어, 손가락-업 이벤트 또는 접촉 중단의 검출)과 같은 접촉의 검출과 관련된 다양한 동작들을 수행하기 위한 다양한 소프트웨어 컴포넌트들을 포함한다. 접촉/움직임 모듈(130)은 터치-감응 표면으로부터 접촉 데이터를 수신한다. 일련의 접촉 데이터에 의해 표현되는 접촉 지점의 이동을 결정하는 것은 선택적으로, 접촉 지점의 속력(크기), 속도(크기 및 방향), 및/또는 가속도(크기 및/또는 방향의 변화)를 결정하는 것을 포함한다. 이러한 동작들은, 선택적으로 단일 접촉들(예를 들어, 한 손가락 접촉들) 또는 다수의 동시 접촉들(예를 들어, "다중 접촉"/다수의 손가락 접촉들)에 적용된다. 일부 실시예들에서, 접촉/움직임 모듈(130) 및 디스플레이 제어기(156)는 터치패드 상의 접촉을 검출한다.The touch / motion module 130 optionally detects contact with the touch screen 112 (along with the display controller 156) and with other touch-sensitive devices (e.g., a touch pad or physical click wheel). The contact / movement module 130 may be configured to determine whether a contact has occurred (e.g., detecting a finger-down event), determining the contact strength (e.g., the force or pressure of the contact, (E. G., Detection of one or more finger-drag events), and whether the contact has been aborted. &Lt; RTI ID = 0.0 &gt; (E.g., detection of a finger-up event or a contact interruption). The contact / motion module 130 receives contact data from the touch-sensitive surface. Determining the movement of the point of contact represented by the series of contact data may optionally include determining the speed (magnitude), velocity (magnitude and direction), and / or acceleration (variation in magnitude and / or direction) of the point of contact . These operations are optionally applied to single contacts (e.g., one finger contacts) or multiple simultaneous contacts (e.g., "multiple contacts" / multiple finger contacts). In some embodiments, contact / motion module 130 and display controller 156 detect contact on the touchpad.

일부 실시예들에서, 접촉/움직임 모듈(130)은 사용자에 의해 동작이 수행되었는지 여부를 결정하기 위해 (예를 들어, 사용자가 아이콘 상에서 "클릭하였는지" 여부를 결정하기 위해) 한 세트의 하나 이상의 강도 임계치들을 사용한다. 일부 실시예들에서, 적어도 하나의 하위세트의 강도 임계치들이 소프트웨어 파라미터들에 따라 결정된다(예를 들어, 강도 임계치들은 특정 물리적 액추에이터들의 활성화 임계치들에 의해 결정되지 않으며, 디바이스(100)의 물리적 하드웨어를 변경하지 않고서 조정될 수 있음). 예를 들어, 트랙패드 또는 터치 스크린 디스플레이의 마우스 "클릭" 임계치는 트랙패드 또는 터치 스크린 디스플레이 하드웨어를 변경하지 않고서 큰 범위의 미리 정해진 임계치들 중 임의의 것으로 설정될 수 있다. 부가적으로, 일부 구현예들에서, 디바이스의 사용자에게는 (예를 들어, 개별 강도 임계치들을 조정함으로써 그리고/또는 시스템-레벨 클릭 "강도" 파라미터로 복수의 강도 임계치들을 한번에 조정함으로써) 한 세트의 하나 이상의 강도 임계치들을 조정하기 위한 소프트웨어 설정들이 제공된다.In some embodiments, the contact / motion module 130 may include a set of one or more (for example, to determine whether the user has "clicked" on the icon) to determine whether an action has been performed by the user Intensity thresholds are used. In some embodiments, the intensity thresholds of at least one subset are determined according to the software parameters (e.g., the intensity thresholds are not determined by the activation thresholds of the specific physical actuators, Can be adjusted without changing). For example, the mouse "click " threshold of a trackpad or touch screen display can be set to any of a wide range of predetermined thresholds without changing the trackpad or touch screen display hardware. Additionally, in some implementations, a user of the device may be provided with a set of one (e.g., by adjusting individual intensity thresholds and / or adjusting a plurality of intensity thresholds at once with a system-level click "intensity & Software settings for adjusting the intensity thresholds above are provided.

접촉/움직임 모듈(130)은 선택적으로 사용자에 의한 제스처 입력을 검출한다. 터치-감응 표면 상의 상이한 제스처들은 상이한 접촉 패턴들(예를 들어, 상이한 움직임들, 타이밍들, 및/또는 검출된 접촉들의 강도들)을 갖는다. 따라서, 제스처는 선택적으로 특정 접촉 패턴을 검출함으로써 검출된다. 예를 들어, 손가락 탭 제스처(finger tap gesture)를 검출하는 것은 손가락-다운 이벤트를 검출한 다음에 손가락-다운 이벤트와 동일한 위치(또는 실질적으로 동일한 위치)(예를 들어, 아이콘의 위치)에서 손가락 업 이벤트(들어올림)를 검출하는 것을 포함한다. 다른 예로서, 터치-감응 표면 상에서 손가락 문지름 제스처(finger swipe gesture)를 검출하는 것은 손가락-다운 이벤트의 검출, 뒤이은 하나 이상의 손가락-드래그 이벤트들의 검출, 그리고 후속적으로 뒤이은 손가락-업(들어올림) 이벤트의 검출을 포함한다.The touch / motion module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (e.g., different motions, timings, and / or intensities of detected contacts). Thus, the gesture is selectively detected by detecting a specific contact pattern. For example, detecting a finger tap gesture may include detecting a finger tap gesture in the same position (or substantially the same position) as the finger-down event (e.g., at the position of the icon) Up event (lift). As another example, detecting a finger swipe gesture on a touch-sensitive surface may include detecting a finger-down event, subsequent detection of one or more finger-drag events, and subsequent subsequent finger-up Lt; / RTI &gt; event).

그래픽 모듈(132)은, 표시되는 그래픽의 시각적 효과(예를 들어, 밝기, 투명도, 포화도, 콘트라스트 또는 다른 시각적 특성)를 변경하기 위한 컴포넌트들을 포함한, 터치 스크린(112) 또는 다른 디스플레이 상에 그래픽을 렌더링 및 표시하기 위한 다양한 알려진 소프트웨어 컴포넌트들을 포함한다. 본 명세서에 사용되는 바와 같이, 용어 "그래픽"은 텍스트, 웹 페이지들, 아이콘들(예를 들어, 소프트 키들을 포함한 사용자-인터페이스 객체들), 디지털 이미지들, 비디오들, 애니메이션들 등을 제한 없이 포함하는, 사용자에게 표시될 수 있는 임의의 객체를 포함한다.Graphics module 132 may include graphics on touch screen 112 or other display, including components for modifying the visual effects (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) And various known software components for rendering and displaying. As used herein, the term "graphic" refers to a text, web pages, icons (e.g., user-interface objects including soft keys), digital images, videos, animations, Including any object that can be displayed to the user.

일부 실시예들에서, 그래픽 모듈(132)은 사용될 그래픽을 나타내는 데이터를 저장한다. 각각의 그래픽에는 선택적으로 대응하는 코드가 할당된다. 그래픽 모듈(132)은 필요한 경우 좌표 데이터 및 다른 그래픽 특성 데이터와 함께 표시될 그래픽을 특정하는 하나 이상의 코드들을 애플리케이션들 등으로부터 수신하며, 이어서 스크린 이미지 데이터를 생성하여 디스플레이 제어기(156)에 출력한다.In some embodiments, graphics module 132 stores data representing graphics to be used. Each graphic is optionally assigned a corresponding code. Graphics module 132 receives one or more codes from applications or the like that specify graphics to be displayed along with coordinate data and other graphical property data as needed, and then generates and outputs screen image data to display controller 156.

햅틱 피드백 모듈(133)은 디바이스(100)와의 사용자 상호작용에 응답하여 디바이스(100) 상의 하나 이상의 위치들에서의 촉각적 출력들을 생성하도록 촉각적 출력 생성기(들)(167)에 의해 사용되는 명령어들을 생성하기 위한 다양한 소프트웨어 컴포넌트들을 포함한다.The haptic feedback module 133 is responsive to user interaction with the device 100 to generate a tactile output from the tactile output generator (s) 167 to generate tactile outputs at one or more locations on the device 100 Lt; RTI ID = 0.0 &gt; software components. &Lt; / RTI &gt;

선택적으로 그래픽 모듈(132)의 컴포넌트인 텍스트 입력 모듈(134)은 다양한 애플리케이션들(예를 들어, 연락처(137), 이메일(140), IM(141), 브라우저(147) 및 텍스트 입력을 필요로 하는 임의의 다른 애플리케이션)에서 텍스트를 입력하기 위한 소프트 키보드들을 제공한다.Optionally, the text input module 134, which is a component of the graphics module 132, may require various applications (e.g., a contact 137, an email 140, an IM 141, a browser 147, (E.g., any other application that does not use the keyboard).

GPS 모듈(135)은 디바이스의 위치를 결정하고, 이 정보를 다양한 애플리케이션들에서의 사용을 위해 (예를 들어, 위치 기반 다이얼링에서 사용하기 위해 전화(138)에, 사진/비디오 메타데이터로서 카메라(143)에, 그리고 날씨 위젯들, 지역 전화 번호부 위젯들 및 지도/내비게이션 위젯들과 같은 위치 기반 서비스들을 제공하는 애플리케이션들에) 제공한다.GPS module 135 determines the location of the device and sends this information to phone 138 for use in various applications (e.g., for use in location based dialing, camera 138 as photo / video metadata) 143) and to applications that provide location-based services such as weather widgets, local phone book widgets, and map / navigation widgets.

애플리케이션(136)들은 선택적으로 하기의 모듈들(또는 명령어들의 세트들), 또는 이들의 하위세트 또는 상위세트를 포함한다:The applications 136 optionally include the following modules (or sets of instructions), or a subset or superset thereof:

Figure 112014123040953-pct00016
연락처 모듈(137)(때때로 주소록 또는 연락처 목록으로 지칭됨);
Figure 112014123040953-pct00016
A contact module 137 (sometimes referred to as an address book or contact list);

Figure 112014123040953-pct00017
전화 모듈(138);
Figure 112014123040953-pct00017
A telephone module 138;

Figure 112014123040953-pct00018
화상 회의 모듈(139);
Figure 112014123040953-pct00018
A video conference module 139;

Figure 112014123040953-pct00019
이메일 클라이언트 모듈(140);
Figure 112014123040953-pct00019
An email client module 140;

Figure 112014123040953-pct00020
인스턴트 메시징(IM) 모듈(141);
Figure 112014123040953-pct00020
An instant messaging (IM) module 141;

Figure 112014123040953-pct00021
운동 지원 모듈(142);
Figure 112014123040953-pct00021
A motion support module 142;

Figure 112014123040953-pct00022
정지 및/또는 비디오 이미지들을 위한 카메라 모듈(143);
Figure 112014123040953-pct00022
A camera module 143 for stationary and / or video images;

Figure 112014123040953-pct00023
이미지 관리 모듈(144);
Figure 112014123040953-pct00023
An image management module 144;

Figure 112014123040953-pct00024
브라우저 모듈(147);
Figure 112014123040953-pct00024
A browser module 147;

Figure 112014123040953-pct00025
캘린더 모듈(148);
Figure 112014123040953-pct00025
A calendar module 148;

Figure 112014123040953-pct00026
선택적으로, 날씨 위젯(149-1), 주식 위젯(149-2), 계산기 위젯(149-3), 알람 시계 위젯(149-4), 사전 위젯(149-5), 및 사용자에 의해 획득되는 다른 위젯들뿐만 아니라 사용자-생성 위젯(149-6)들 중 하나 이상을 포함하는 위젯 모듈(149)들;
Figure 112014123040953-pct00026
Optionally, the weather widget 149-1, the stock widget 149-2, the calculator widget 149-3, the alarm clock widget 149-4, the dictionary widget 149-5, Widget modules 149 that include one or more of other widgets as well as user-generated widgets 149-6;

Figure 112014123040953-pct00027
사용자-생성 위젯(149-6)들을 만들기 위한 위젯 생성기 모듈(150);
Figure 112014123040953-pct00027
A widget generator module 150 for creating user-generated widgets 149-6;

Figure 112014123040953-pct00028
탐색 모듈(151);
Figure 112014123040953-pct00028
A search module 151;

Figure 112014123040953-pct00029
선택적으로 비디오 플레이어 모듈 및 음악 플레이어 모듈로 구성된 비디오 및 음악 플레이어 모듈(152);
Figure 112014123040953-pct00029
A video and music player module 152 optionally configured with a video player module and a music player module;

Figure 112014123040953-pct00030
노트 모듈(153);
Figure 112014123040953-pct00030
A note module 153;

Figure 112014123040953-pct00031
지도 모듈(154); 및/또는
Figure 112014123040953-pct00031
A map module 154; And / or

Figure 112014123040953-pct00032
온라인 비디오 모듈(155).
Figure 112014123040953-pct00032
Online video module 155.

선택적으로 메모리(102) 내에 저장된 다른 애플리케이션(136)들의 예들은 다른 워드 프로세싱 애플리케이션들, 다른 이미지 편집 애플리케이션들, 그리기 애플리케이션들, 프레젠테이션 애플리케이션들, JAVA-인에이블드 애플리케이션들, 암호화, 디지털 권한 관리, 음성 인식 및 음성 복제를 포함한다.Examples of other applications 136 optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA-enabled applications, encryption, digital rights management, Speech recognition and voice reproduction.

터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 연락처 모듈(137)은 선택적으로 주소록 또는 연락처 목록(예를 들어, 메모리(102) 또는 메모리(370) 내의 연락처 모듈(137)의 애플리케이션 내부 상태(192)에 저장됨)을 관리하는 데 사용되며, 이는 하기를 포함한다: 주소록에 이름(들)을 추가하는 것; 주소록으로부터 이름(들)을 삭제하는 것; 전화 번호(들), 이메일 주소(들), 물리적 주소(들) 또는 기타 정보를 이름과 연관시키는 것; 이미지를 이름과 연관시키는 것; 이름들을 분류 및 구분하는 것; 전화(138), 화상 회의(139), 이메일(140) 또는 IM(141)에 의한 통신을 개시하고/하거나 용이하게 하기 위해 전화 번호들 또는 이메일 주소들을 제공하는 것 등등.In conjunction with the touch screen 112, the display controller 156, the contact module 130, the graphics module 132 and the text input module 134, the contact module 137 may optionally include an address book or contact list (e.g., Stored in the application internal state 192 of the contact module 137 in the memory 102 or memory 370), including: adding the name (s) to the address book; Delete the name (s) from the address book; Associating the telephone number (s), email address (s), physical address (s), or other information with the name; Associating an image with a name; Sorting and distinguishing names; Providing telephone numbers or e-mail addresses to initiate and / or facilitate communication by telephone 138, videoconference 139, e-mail 140 or IM 141, and so on.

RF 회로(108), 오디오 회로(110), 스피커(111), 마이크(113), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 전화 모듈(138)은 선택적으로 전화 번호에 대응하는 문자들의 시퀀스를 입력하고, 주소록(137) 내의 하나 이상의 전화 번호들에 액세스하고, 입력된 전화 번호를 수정하고, 각자의 전화 번호를 다이얼링하고, 대화를 하고, 대화가 완료된 때 접속해제하거나 끊는 데 사용된다. 전술된 바와 같이, 무선 통신은 선택적으로 복수의 통신 표준들, 프로토콜들 및 기술들 중 임의의 것을 사용한다.An RF circuit 108, an audio circuit 110, a speaker 111, a microphone 113, a touch screen 112, a display controller 156, a contact module 130, a graphics module 132 and a text input module 134, the phone module 138 may optionally enter a sequence of characters corresponding to the phone number, access one or more phone numbers in the address book 137, modify the entered phone number, Dials a number, makes a conversation, and disconnects or disconnects when the conversation is complete. As described above, wireless communication optionally uses any of a plurality of communication standards, protocols, and techniques.

RF 회로(108), 오디오 회로(110), 스피커(111), 마이크(113), 터치스크린(112), 디스플레이 제어기(156), 광학 센서(164), 광학 센서 제어기(158), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 연락처 목록(137) 및 전화 모듈(138)과 함께, 화상 회의 모듈(139)은 사용자 명령어들에 따라 사용자와 한 명 이상의 다른 참여자들 사이의 화상 회의를 개시, 시행 및 종료하도록 하는 실행가능 명령어들을 포함한다.The RF circuit 108, the audio circuitry 110, the speaker 111, the microphone 113, the touch screen 112, the display controller 156, the optical sensor 164, the optical sensor controller 158, The video conferencing module 139, in conjunction with the graphics module 132, the text input module 134, the contact list 137, and the phone module 138, may communicate with the user and one or more other participants And initiating, terminating, and terminating a videoconference between the two parties.

RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 이메일 클라이언트 모듈(140)은 사용자 명령어들에 응답하여 이메일을 생성, 전송, 수신, 및 관리하도록 하는 실행가능 명령어들을 포함한다. 이미지 관리 모듈(144)과 함께, 이메일 클라이언트 모듈(140)은 카메라 모듈(143)로 촬영된 정지 또는 비디오 이미지들을 갖는 이메일을 작성 및 전송하는 것이 매우 용이하게 한다.Along with the RF circuitry 108, the touch screen 112, the display controller 156, the contact module 130, the graphics module 132 and the text input module 134, the e-mail client module 140 is connected to user commands Send, receive, and manage email in response. Along with the image management module 144, the email client module 140 makes it very easy to create and send emails with still or video images photographed by the camera module 143.

RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 인스턴트 메시징 모듈(141)은, 인스턴트 메시지에 대응하는 글자들의 시퀀스를 입력하고, 이전에 입력된 글자들을 수정하고, (예를 들어, 전화-기반 인스턴트 메시지들을 위한 SMS 또는 MMS(Multimedia Message Service) 프로토콜을 이용하거나 인터넷-기반 인스턴트 메시지들을 위한 XMPP, SIMPLE 또는 IMPS를 이용하여) 각자의 인스턴트 메시지를 송신하고, 인스턴트 메시지들을 수신하고, 수신된 인스턴트 메시지들을 보도록 하는 실행가능 명령어들을 포함한다. 일부 실시예들에서, 전송된 그리고/또는 수신된 인스턴트 메시지들은 선택적으로 그래픽, 사진, 오디오 파일, 비디오 파일 및/또는 MMS 및/또는 EMS(Enhanced Messaging Service)에서 지원되는 다른 첨부물들을 포함한다. 본 명세서에 사용되는 바와 같이, "인스턴트 메시징"은 전화-기반 메시지들(예를 들어, SMS 또는 MMS를 이용하여 전송된 메시지들) 및 인터넷-기반 메시지들(예를 들어, XMPP, SIMPLE 또는 IMPS를 이용하여 전송된 메시지들) 둘 모두를 지칭한다.Along with the RF circuitry 108, the touch screen 112, the display controller 156, the contact module 130, the graphics module 132 and the text input module 134, the instant messaging module 141 sends an instant message (E.g., using the SMS or MMS (Multimedia Message Service) protocol for phone-based instant messages or the XMPP for Internet-based instant messages, , Using SIMPLE or IMPS) to send their instant messages, receive instant messages, and view the received instant messages. In some embodiments, the transmitted and / or received instant messages optionally include graphics, pictures, audio files, video files and / or other attachments supported by MMS and / or EMS (Enhanced Messaging Service). As used herein, "instant messaging" is intended to encompass both telephone-based messages (e.g., messages sent using SMS or MMS) and Internet-based messages (e.g., XMPP, SIMPLE or IMPS Quot; messages &quot;).

RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), GPS 모듈(135), 지도 모듈(154), 및 음악 플레이어 모듈(146)과 함께, 운동 지원 모듈(142)은 (예컨대, 시간, 거리, 및/또는 열량 소비 목표와 함께) 운동들을 고안하고; 운동 센서들(스포츠 디바이스들)과 통신하고; 운동 센서 데이터를 수신하고; 운동을 모니터링하는 데 사용되는 센서들을 교정하고; 운동 동안 음악을 선택 및 재생하고; 운동 데이터를 표시, 저장 및 송신하도록 하는 실행가능 명령어들을 포함한다.The RF circuit 108, the touch screen 112, the display controller 156, the touch module 130, the graphics module 132, the text input module 134, the GPS module 135, the map module 154, and Along with the music player module 146, the motion support module 142 devises exercises (e.g., with time, distance, and / or calorie expenditure goals); Communicate with motion sensors (sports devices); Receiving motion sensor data; Calibrating the sensors used to monitor movement; Select and play music during exercise; Store, and transmit motion data.

터치 스크린(112), 디스플레이 제어기(156), 광학 센서(들)(164), 광학 센서 제어기(158), 접촉 모듈(130), 그래픽 모듈(132) 및 이미지 관리 모듈(144)과 함께, 카메라 모듈(143)은 정지 이미지들 또는 비디오(비디오 스트림을 포함함)를 캡처하고 이들을 메모리(102) 내에 저장하거나, 정지 이미지 또는 비디오의 특성들을 수정하거나, 메모리(102)로부터 정지 이미지 또는 비디오를 삭제하도록 하는 실행가능 명령어들을 포함한다.Along with the touch screen 112, the display controller 156, the optical sensor (s) 164, the optical sensor controller 158, the contact module 130, the graphics module 132 and the image management module 144, Module 143 may capture still images or video (including video streams) and store them in memory 102, modify properties of still images or video, or delete still images or video from memory 102 &Lt; / RTI &gt;

터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 카메라 모듈(143)과 함께, 이미지 관리 모듈(144)은 정지 및/또는 비디오 이미지들을 배열하거나 수정(예컨대, 편집)하거나 달리 조작하고, 레이블링하고, 삭제하고, (예컨대, 디지털 슬라이드 쇼 또는 앨범에) 표시하고, 저장하도록 하는 실행가능 명령어들을 포함한다.The image management module 144, along with the touch screen 112, the display controller 156, the touch module 130, the graphics module 132, the text input module 134 and the camera module 143, (E. G., Edit) or otherwise manipulate, label, delete, and display (e. G., In a digital slide show or album) video images.

RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 브라우저 모듈(147)은 사용자 명령어들에 따라 인터넷을 브라우징하도록 - 웹 페이지들 또는 그들의 일부분뿐만 아니라 웹 페이지들에 링크된 첨부물들 및 다른 파일들을 탐색, 그에 링크, 수신, 및 표시하는 것을 포함함 - 하는 실행가능 명령어들을 포함한다.The browser module 147, along with the RF circuitry 108, the touch screen 112, the display system controller 156, the touch module 130, the graphics module 132 and the text input module 134, Includes browsing, linking, receiving, and displaying web pages or portions thereof, as well as attachments and other files linked to web pages, to browse the Internet accordingly.

RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 이메일 클라이언트 모듈(140), 및 브라우저 모듈(147)과 함께, 캘린더 모듈(148)은 사용자 명령어들에 따라 캘린더들 및 캘린더들과 관련된 데이터(예컨대, 캘린더 엔트리들, 할 일 목록들 등)를 생성, 표시, 수정, 및 저장하도록 하는 실행가능 명령어들을 포함한다.The RF circuit 108, the touch screen 112, the display system controller 156, the contact module 130, the graphics module 132, the text input module 134, the email client module 140, and the browser module 147 ), The calendar module 148 is operable to generate, display, modify, and store data (e.g., calendar entries, to-do lists, etc.) associated with calendars and calendars in accordance with user instructions .

RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 브라우저 모듈(147)과 함께, 위젯 모듈(149)은 선택적으로 사용자에 의해 다운로드 및 사용되거나(예를 들어, 날씨 위젯(149-1), 주식 위젯(149-2), 계산기 위젯(149-3), 알람 시계 위젯(149-4) 및 사전 위젯(149-5)) 또는 사용자에 의해 생성되는(예를 들어, 사용자-생성 위젯(149-6)) 미니-애플리케이션들이다. 일부 실시예들에서, 위젯은 HTML(Hypertext Markup Language) 파일, CSS(Cascading Style Sheets) 파일 및 자바스크립트(JavaScript) 파일을 포함한다. 일부 실시예들에서, 위젯은 XML(Extensible Markup Language) 파일 및 자바스크립트 파일(예를 들어, 야후!(Yahoo!) 위젯들)을 포함한다.Together with the RF circuitry 108, the touch screen 112, the display system controller 156, the touch module 130, the graphics module 132, the text input module 134 and the browser module 147, May optionally be downloaded and used by the user (e.g., weather widget 149-1, stock widget 149-2, calculator widget 149-3, alarm clock widget 149-4, (E.g., widget 149-5) or a user-generated (e.g., user-generated widget 149-6) mini-applications. In some embodiments, the widget includes a Hypertext Markup Language (HTML) file, a Cascading Style Sheets (CSS) file, and a JavaScript (JavaScript) file. In some embodiments, the widget includes Extensible Markup Language (XML) files and JavaScript files (e.g., Yahoo! widgets).

RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 브라우저 모듈(147)과 함께, 위젯 생성기 모듈(150)은 선택적으로 사용자에 의해 위젯들을 생성(예를 들어, 웹페이지의 사용자 지정 부분을 위젯으로 변경)하기 위해 사용된다.Together with the RF circuitry 108, the touch screen 112, the display system controller 156, the touch module 130, the graphics module 132, the text input module 134 and the browser module 147, 150 may optionally be used by the user to create widgets (e.g., to change a custom portion of a web page into a widget).

터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 탐색 모듈(151)은 사용자 명령어들에 따라 하나 이상의 탐색 기준들(예컨대, 하나 이상의 사용자-특정 검색어)에 일치하는 메모리(102) 내의 텍스트, 음악, 소리, 이미지, 비디오, 및/또는 다른 파일들을 탐색하도록 하는 실행가능 명령어들을 포함한다.Along with the touch screen 112, the display system controller 156, the touch module 130, the graphics module 132 and the text input module 134, the search module 151 may search for one or more search criteria Music, sound, images, video, and / or other files in the memory 102 that correspond to one or more user-specific search terms (e.g., one or more user-specific search terms).

터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110), 스피커(111), RF 회로(108), 및 브라우저 모듈(147)과 함께, 비디오 및 음악 플레이어 모듈(152)은 사용자가 MP3 또는 AAC 파일들과 같은 하나 이상의 파일 포맷들로 저장된 녹음된 음악 및 다른 소리 파일들을 다운로드 및 재생하게 하는 실행가능 명령어들, 및 비디오들을 (예를 들어, 터치 스크린(112) 상에서 또는 외부 포트(124)를 통해 외부의 접속된 디스플레이 상에서) 표시하거나, 상영하거나, 달리 재생하도록 하는 실행가능 명령어들을 포함한다. 일부 실시예들에서, 디바이스(100)는 선택적으로 아이팟(애플 인크.의 상표)와 같은 MP3 플레이어의 기능을 포함한다.Together with the touch screen 112, the display system controller 156, the touch module 130, the graphics module 132, the audio circuitry 110, the speaker 111, the RF circuitry 108 and the browser module 147 , Video and music player module 152 may include executable instructions for causing a user to download and play back recorded music and other sound files stored in one or more file formats such as MP3 or AAC files, (E.g., on a touch screen 112 or on an external connected display on the external port 124) to play, or otherwise play. In some embodiments, the device 100 optionally includes the functionality of an MP3 player such as an iPod (trademark of Apple Inc.).

터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 노트 모듈(153)은 사용자 명령어들에 따라 메모들, 할 일 목록들 등을 생성 및 관리하도록 하는 실행가능 명령어들을 포함한다.Along with the touch screen 112, the display controller 156, the touch module 130, the graphics module 132 and the text input module 134, the note module 153 can display notes, And the like.

RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), GPS 모듈(135) 및 브라우저 모듈(147)과 함께, 지도 모듈(154)은 선택적으로 사용자 명령어들에 따라 지도들 및 지도들에 연관된 데이터(예를 들어, 운전 방향, 특정 위치에서의 또는 그 인근의 상점들 및 다른 관심 지점들에 관한 데이터; 및 다른 위치-기반 데이터)를 수신하고, 표시하고, 수정하고, 저장하는 데 사용된다.The RF circuit 108, the touch screen 112, the display system controller 156, the touch module 130, the graphics module 132, the text input module 134, the GPS module 135 and the browser module 147 Together, the map module 154 may optionally include data associated with maps and maps (e.g., direction of operation, data on points of interest and other points of interest at or near a particular location; And other location-based data), which may be stored in memory.

터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110), 스피커(111), RF 회로(108), 텍스트 입력 모듈(134), 이메일 클라이언트 모듈(140), 및 브라우저 모듈(147)과 함께, 온라인 비디오 모듈(155)은 사용자가 H.264와 같은 하나 이상의 파일 포맷들의 온라인 비디오들을 액세스하고, 브라우징하고, (예컨대, 스트리밍 및/또는 다운로드에 의해) 수신하고, (예컨대, 터치 스크린 상에서 또는 외부 포트(124)를 통해 외부의 접속된 디스플레이 상에서) 재생하고, 특정 온라인 비디오로의 링크와 함께 이메일을 전송하고, 달리 관리하게 하는 명령어들을 포함한다. 일부 실시예들에서, 이메일 클라이언트 모듈(140)보다는 오히려 인스턴트 메시징 모듈(141)이 특정 온라인 비디오로의 링크를 전송하는 데 사용된다.The touch screen 112, the display system controller 156, the touch module 130, the graphics module 132, the audio circuitry 110, the speaker 111, the RF circuitry 108, the text input module 134, Along with the client module 140 and the browser module 147, the on-line video module 155 allows a user to access, browse, and / or stream (e.g., stream and / or stream) online videos of one or more file formats, such as H.264 (E.g., via download) and play (e.g., on a touch screen or external connected display on external port 124), send email with a link to a particular online video, and otherwise manage . In some embodiments, rather than the email client module 140, the instant messaging module 141 is used to send a link to a particular online video.

앞서 확인된 모듈들 및 애플리케이션들 각각은 전술된 하나 이상의 기능들 및 본 출원에 기술된 방법들(예를 들어, 본 명세서에 기술되는 컴퓨터-구현 방법들 및 다른 정보 프로세싱 방법들)을 수행하기 위한 실행가능 명령어들의 세트에 대응한다. 이들 모듈(즉, 명령어들의 세트)은 별개의 소프트웨어 프로그램들, 절차들 또는 모듈들로서 구현될 필요가 없으며, 따라서 이들 모듈의 다양한 하위세트들이 선택적으로 다양한 실시예들에서 결합되거나 달리 재배열된다. 일부 실시예들에서, 메모리(102)가 선택적으로, 위에서 확인된 모듈들 및 데이터 구조들의 하위세트를 저장한다. 또한, 메모리(102)는 선택적으로 전술되지 않은 추가의 모듈들 및 데이터 구조들을 저장한다.Each of the previously identified modules and applications may be configured to perform one or more of the functions described above and methods described herein (e.g., computer-implemented methods and other information processing methods described herein) Corresponding to a set of executable instructions. These modules (i. E., The set of instructions) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules are optionally combined or otherwise rearranged in various embodiments. In some embodiments, the memory 102 optionally stores a subset of the modules and data structures identified above. The memory 102 also stores additional modules and data structures that are not selectively described above.

일부 실시예들에서, 디바이스(100)는 디바이스 상의 미리 정해진 세트의 기능들의 동작이 터치 스크린 및/또는 터치패드를 통해 전용으로 수행되는 디바이스이다. 터치 스크린 및/또는 터치패드를 디바이스(100)의 동작을 위한 주 입력 제어 디바이스로서 사용함으로써, 디바이스(100) 상의 (푸시 버튼들, 다이얼들 등과 같은) 물리적 입력 제어 디바이스들의 수가 선택적으로 감소된다.In some embodiments, the device 100 is a device in which the operation of a predetermined set of functions on the device is performed exclusively through the touch screen and / or the touch pad. The number of physical input control devices (such as push buttons, dials, etc.) on the device 100 is selectively reduced by using the touch screen and / or touchpad as the primary input control device for operation of the device 100. [

터치 스크린 및/또는 터치패드를 통해 전용으로 수행되는 미리 정해진 세트의 기능들은 선택적으로 사용자 인터페이스들 사이의 내비게이션을 포함한다. 일부 실시예들에서, 터치패드는 사용자에 의해 터치될 때, 디바이스(100)를 디바이스(100) 상에 표시되는 임의의 사용자 인터페이스로부터 메인, 홈 또는 루트 메뉴로 내비게이션한다. 일부 실시예들에서, "메뉴 버튼"이 터치패드를 사용하여 구현된다. 일부 다른 실시예들에서, 메뉴 버튼은 터치패드 대신에 물리적 푸시 버튼 또는 다른 물리적 입력 제어 디바이스이다.The predetermined set of functions performed exclusively through the touch screen and / or the touch pad optionally include navigation between user interfaces. In some embodiments, the touchpad, when touched by a user, navigates the device 100 from any user interface displayed on the device 100 to a main, home, or root menu. In some embodiments, a "menu button" is implemented using the touchpad. In some other embodiments, the menu button is a physical push button or other physical input control device instead of a touchpad.

도 1b는 일부 실시예들에 따른, 이벤트 핸들링을 위한 예시적인 컴포넌트들을 도시하는 블록도이다. 일부 실시예들에서, 메모리(102, 도 1a) 또는 메모리(370, 도 3)는 (예를 들어, 운영 체제(126)에서의) 이벤트 분류기(170) 및 각자의 애플리케이션(136-1)(예를 들어, 전술된 애플리케이션들(137-13, 155, 380-390) 중 임의의 것)을 포함한다.1B is a block diagram illustrating exemplary components for event handling, in accordance with some embodiments. In some embodiments, the memory 102 (FIG. 1A) or the memory 370 (FIG. 3) includes an event classifier 170 (for example, at the operating system 126) For example, any of the applications 137-13, 155, 380-390 described above.

이벤트 분류기(170)는 이벤트 정보를 수신하고 그 이벤트 정보를 전달할 애플리케이션(136-1), 및 애플리케이션(136-1)의 애플리케이션 뷰(191)를 결정한다. 이벤트 분류기(170)는 이벤트 모니터(171)와 이벤트 디스패처 모듈(event dispatcher module)(174)을 포함한다. 일부 실시예들에서, 애플리케이션(136-1)은 애플리케이션이 활성 상태이거나 실행 중일 때 터치-감응 디스플레이(112) 상에 표시되는 현재 애플리케이션 뷰(들)를 나타내는 애플리케이션 내부 상태(192)를 포함한다. 일부 실시예들에서, 디바이스/글로벌 내부 상태(157)는 이벤트 분류기(170)에 의해 어떤 애플리케이션(들)이 현재 활성 상태인지를 결정하는 데 이용되며, 애플리케이션 내부 상태(192)는 이벤트 분류기(170)에 의해 이벤트 정보를 전달할 애플리케이션 뷰(191)들을 결정하는 데 이용된다.The event classifier 170 determines the application 136-1 to receive event information and forward the event information, and the application view 191 of the application 136-1. The event classifier 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, the application 136-1 includes an application internal state 192 that represents the current application view (s) displayed on the touch-sensitive display 112 when the application is active or running. In some embodiments, the device / global internal state 157 is used by the event classifier 170 to determine which application (s) are currently active and the application internal state 192 is used by the event classifier 170 To determine the application views 191 that will forward the event information.

일부 실시예들에서, 애플리케이션 내부 상태(192)는 애플리케이션(136-1)이 실행을 재개할 때 이용될 재개 정보, 애플리케이션(136-1)에 의해 표시되고 있거나 표시될 준비가 된 정보를 나타내는 사용자 인터페이스 상태 정보, 사용자가 애플리케이션(136-1)의 이전 상태 또는 뷰로 되돌아가게 하기 위한 상태 큐(queue), 및 사용자에 의해 취해진 이전 행동들의 재실행(redo)/실행취소(undo) 큐 중 하나 이상과 같은 추가의 정보를 포함한다.In some embodiments, the application internal state 192 includes a resume information to be used when the application 136-1 resumes execution, a user 136-1 indicating the information being displayed or ready to be displayed by the application 136-1, Interface status information, a status queue for the user to return to the previous status or view of the application 136-1, and a redo / undo queue of previous actions taken by the user As well as additional information.

이벤트 모니터(171)는 주변기기 인터페이스(118)로부터 이벤트 정보를 수신한다. 이벤트 정보는 서브-이벤트(예를 들어, 다중 터치 제스처의 일부로서 터치-감응 디스플레이(112) 상에서의 사용자 터치)에 대한 정보를 포함한다. 주변기기 인터페이스(118)는 I/O 서브시스템(106) 또는 센서, 예를 들어 근접 센서(166), 가속도계(168)(들), 및/또는 (오디오 회로(110)를 통한) 마이크(113)로부터 수신하는 정보를 전송한다. 주변기기 인터페이스(118)가 I/O 서브시스템(106)으로부터 수신하는 정보는 터치-감응 디스플레이(112) 또는 터치-감응 표면으로부터의 정보를 포함한다.The event monitor 171 receives event information from the peripheral interface 118. The event information includes information about a sub-event (e.g., a user touch on the touch-sensitive display 112 as part of a multi-touch gesture). Peripheral interface 118 may include an I / O subsystem 106 or a sensor, such as proximity sensor 166, accelerometer 168 (s), and / or microphone 113 (via audio circuitry 110) And transmits the received information. The information that the peripheral interface 118 receives from the I / O subsystem 106 includes information from the touch-sensitive display 112 or the touch-sensitive surface.

일부 실시예들에서, 이벤트 모니터(171)는 사전 결정된 간격들로 주변기기 인터페이스(118)에 요청들을 전송한다. 그 응답으로, 주변기기 인터페이스(118)는 이벤트 정보를 송신한다. 다른 실시예들에서, 주변기기 인터페이스(118)는 중요한 이벤트(예를 들어, 사전 결정된 잡음 임계치를 초과하는 입력 및/또는 사전 결정된 지속기간 초과 동안의 입력을 수신하는 것)가 있을 때에만 이벤트 정보를 송신한다.In some embodiments, the event monitor 171 sends requests to the peripheral interface 118 at predetermined intervals. In response, the peripheral interface 118 transmits event information. In other embodiments, the peripheral interface 118 may provide event information only when there is an important event (e.g., input that exceeds a predetermined noise threshold and / or input for a predetermined duration exceeded) .

일부 실시예들에서, 이벤트 분류기(170)는 또한 히트 뷰(hit view) 결정 모듈(172) 및/또는 활성 이벤트 인식기 결정 모듈(173)을 포함한다.In some embodiments, the event categorizer 170 also includes a hit view determination module 172 and / or an active event recognizer determination module 173.

히트 뷰 결정 모듈(172)은 터치-감응 디스플레이(112)가 하나 초과의 뷰를 표시할 때 하나 이상의 뷰들 내에서 서브-이벤트가 발생한 곳을 결정하기 위한 소프트웨어 절차들을 제공한다. 뷰들은 사용자가 디스플레이 상에서 볼 수 있는 제어부들 및 다른 요소들로 구성된다.The hit view determination module 172 provides software procedures for determining where a sub-event occurred in one or more views when the touch-sensitive display 112 displays more than one view. The views consist of controls and other elements that the user can see on the display.

애플리케이션과 연관된 사용자 인터페이스의 다른 태양은 본 명세서에서 때때로 애플리케이션 뷰들 또는 사용자 인터페이스 윈도우들로 지칭되는 한 세트의 뷰들이며, 여기서 정보가 표시되고 터치-기반 제스처가 발생한다. 터치가 검출되는 (각자의 애플리케이션의) 애플리케이션 뷰들은 선택적으로 애플리케이션의 프로그램 또는 뷰 계층구조 내의 프로그램 레벨들에 대응한다. 예를 들어, 터치가 검출되는 최하위 레벨의 뷰는 선택적으로 히트 뷰로 지칭되고, 적절한 입력들로서 인식되는 이벤트들의 세트는 선택적으로 터치-기반 제스처를 시작하는 초기 터치의 히트 뷰에 적어도 부분적으로 기초하여 결정된다.Another aspect of a user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, where information is displayed and a touch-based gesture occurs. The application views (of each application) in which the touch is detected optionally correspond to program levels in the program or view hierarchy of the application. For example, a view of the lowest level at which a touch is detected is optionally referred to as a hit view, and a set of events recognized as appropriate inputs may optionally be determined based at least in part on a hit view of an initial touch initiating a touch- do.

히트 뷰 결정 모듈(172)은 터치-기반 제스처의 서브-이벤트들에 관련된 정보를 수신한다. 애플리케이션이 계층구조에서 조직화된 다수의 뷰들을 갖는 경우, 히트 뷰 결정 모듈(172)은 히트 뷰를 서브-이벤트를 처리해야 하는 계층구조 내의 최하위 뷰로서 식별한다. 대부분의 상황들에서, 히트 뷰는 개시되는 서브-이벤트가 발생하는 최하위 레벨 뷰이다(즉, 이벤트 또는 잠재적 이벤트를 형성하는 서브-이벤트들의 시퀀스 내의 첫 번째 서브-이벤트임). 일단 히트 뷰가 히트 뷰 결정 모듈에 의해 식별되면, 히트 뷰는 전형적으로 그것이 히트 뷰로서 식별되게 하는 것과 동일한 터치나 입력 소스에 관련된 모든 서브-이벤트들을 수신한다.The hit view determination module 172 receives information related to sub-events of the touch-based gesture. If the application has multiple views organized in a hierarchy, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy in which the sub-event should be processed. In most situations, the hit view is the lowest level view at which the sub-event being initiated occurs (i.e., the first sub-event in the sequence of sub-events that form the event or potential event). Once the hit view is identified by the hit view determination module, the hit view typically receives all the sub-events associated with the touch or input source that cause it to be identified as a hit view.

활성 이벤트 인식기 결정 모듈(173)은 뷰 계층구조 내에서의 어떤 뷰 또는 뷰들이 서브-이벤트들의 특정 시퀀스를 수신해야 하는지를 결정한다. 일부 실시예들에서, 활성 이벤트 인식기 결정 모듈(173)은 히트 뷰만이 서브-이벤트들의 특정 시퀀스를 수신해야 하는 것으로 결정한다. 다른 실시예들에서, 활성 이벤트 인식기 결정 모듈(173)은 서브-이벤트의 물리적 위치를 포함하는 모든 뷰들이 적극 참여 뷰(actively involved view)인 것으로 결정하고, 그에 따라 모든 적극 참여 뷰들이 서브-이벤트들의 특정 시퀀스를 수신해야 하는 것으로 결정한다. 다른 실시예들에서, 터치 서브-이벤트들이 전적으로 하나의 특정 뷰와 관련된 영역으로 한정되더라도, 계층구조 내의 상위 뷰들은 여전히 적극 참여 뷰들로서 유지될 것이다.The active event recognizer determination module 173 determines which views or views within the view hierarchy should receive a particular sequence of sub-events. In some embodiments, the active event recognizer determination module 173 determines that only the hit view needs to receive a particular sequence of sub-events. In other embodiments, the active event recognizer determination module 173 determines that all views, including the physical location of the sub-event, are actively involved views so that all active participant views are sub- Lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt; In other embodiments, even though the touch sub-events are entirely confined to the area associated with a particular view, the top views in the hierarchy will still be maintained as active participating views.

이벤트 디스패처 모듈(174)은 이벤트 정보를 이벤트 인식기(예를 들어, 이벤트 인식기(180))에 전달한다. 활성 이벤트 인식기 결정 모듈(173)을 포함하는 실시예들에서, 이벤트 디스패처 모듈(174)은 이벤트 정보를 활성 이벤트 인식기 결정 모듈(173)에 의해 결정된 이벤트 인식기에 전달한다. 일부 실시예들에서, 이벤트 디스패처 모듈(174)은 이벤트 큐 내에 이벤트 정보를 저장하는데, 이벤트 정보는 각자의 이벤트 수신기 모듈(182)에 의해 검색된다.The event dispatcher module 174 passes the event information to an event recognizer (e.g., event recognizer 180). In embodiments including the active event recognizer determination module 173, the event dispatcher module 174 passes the event information to the event recognizer determined by the active event recognizer determination module 173. In some embodiments, the event dispatcher module 174 stores event information in an event queue, which event information is retrieved by its respective event receiver module 182.

일부 실시예들에서, 운영 체제(126)는 이벤트 분류기(170)를 포함한다. 대안적으로, 애플리케이션(136-1)은 이벤트 분류기(170)를 포함한다. 또 다른 실시예에서, 이벤트 분류기(170)는 독립형 모듈이거나 접촉/움직임 모듈(130)과 같이 메모리(102)에 저장되는 다른 모듈의 일부이다.In some embodiments, the operating system 126 includes an event classifier 170. Alternatively, the application 136-1 includes an event classifier 170. In another embodiment, event classifier 170 is a stand-alone module or a portion of another module stored in memory 102, such as contact / motion module 130. [

일부 실시예들에서, 애플리케이션(136-1)은 복수의 이벤트 핸들러(190)들 및 하나 이상의 애플리케이션 뷰(191)들을 포함하며, 이들 각각은 애플리케이션의 사용자 인터페이스의 각자의 뷰 내에서 발생하는 터치 이벤트들을 다루기 위한 명령어들을 포함한다. 애플리케이션(136-1)의 각각의 애플리케이션 뷰(191)는 하나 이상의 이벤트 인식기(180)들을 포함한다. 전형적으로, 각자의 애플리케이션 뷰(191)는 복수의 이벤트 인식기(180)들을 포함한다. 다른 실시예들에서, 이벤트 인식기(180)들 중 하나 이상은 사용자 인터페이스 키트(도시되지 않음) 또는 애플리케이션(136-1)이 메소드(method)들 및 다른 특성들을 이어받게 되는 상위 레벨 객체와 같은 별개의 모듈의 일부이다. 일부 실시예들에서, 각자의 이벤트 핸들러(190)는 데이터 업데이터(176), 객체 업데이터(177), GUI 업데이터(178), 및/또는 이벤트 분류기(170)로부터 수신된 이벤트(179) 데이터 중 하나 이상을 포함한다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176), 객체 업데이터(177) 또는 GUI 업데이터(178)를 활용하거나 호출한다. 대안적으로, 애플리케이션 뷰(191)들 중 하나 이상은 하나 이상의 각자의 이벤트 핸들러(190)들을 포함한다. 또한, 일부 실시예들에서, 데이터 업데이터(176), 객체 업데이터(177), 및 GUI 업데이터(178) 중 하나 이상은 각자의 애플리케이션 뷰(191)에 포함된다.In some embodiments, the application 136-1 includes a plurality of event handlers 190 and one or more application views 191, each of which is associated with a touch event Lt; / RTI &gt; Each application view 191 of application 136-1 includes one or more event recognizers 180. [ Typically, each application view 191 includes a plurality of event recognizers 180. In other embodiments, one or more of the event recognizers 180 may be implemented in a user interface kit (not shown) or in a separate application, such as a high-level object upon which the application 136-1 inherits methods and other properties Of the module. In some embodiments, each of the event handlers 190 includes one of event 179 data received from the data updater 176, the object updater 177, the GUI updater 178, and / or the event classifier 170 Or more. Event handler 190 optionally utilizes or invokes data updater 176, object updater 177 or GUI updater 178 to update the application internal state 192. Alternatively, one or more of the application views 191 include one or more respective event handlers 190. Also, in some embodiments, one or more of data updater 176, object updater 177, and GUI updater 178 are included in their respective application views 191.

각자의 이벤트 인식기(180)는 이벤트 분류기(170)로부터 이벤트 정보(예를 들어, 이벤트 데이터(179))를 수신하며, 이벤트 정보로부터 이벤트를 식별한다. 이벤트 인식기(180)는 이벤트 수신기(182) 및 이벤트 비교기(184)를 포함한다. 일부 실시예들에서, 이벤트 인식기(180)는 또한 적어도 하나의 하위세트의 메타데이터(183) 및 이벤트 전달 명령어(188)들(선택적으로 서브-이벤트 전달 명령어들을 포함함)을 포함한다.Each event recognizer 180 receives event information (e.g., event data 179) from the event classifier 170 and identifies the event from the event information. The event recognizer 180 includes an event receiver 182 and an event comparator 184. In some embodiments, event recognizer 180 also includes at least one subset of metadata 183 and event delivery instructions 188 (optionally including sub-event propagation instructions).

이벤트 수신기(182)는 이벤트 분류기(170)로부터 이벤트 정보를 수신한다. 이벤트 정보는 서브-이벤트, 예를 들어 터치 또는 터치 이동에 대한 정보를 포함한다. 서브-이벤트에 따라, 이벤트 정보는 또한 서브-이벤트의 위치와 같은 추가의 정보를 포함한다. 서브-이벤트가 터치의 움직임과 관련될 때, 이벤트 정보는 또한 선택적으로 서브-이벤트의 속력 및 방향을 포함한다. 일부 실시예들에서, 이벤트는 하나의 배향으로부터 다른 배향으로(예를 들어, 세로 배향으로부터 가로 배향으로 또는 그 반대로)의 디바이스의 회전을 포함하며, 이벤트 정보는 디바이스의 현재 배향(디바이스 자세로 또한 불림)에 관한 대응 정보를 포함한다.The event receiver 182 receives event information from the event classifier 170. The event information includes information on a sub-event, e.g., touch or touch movement. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event is associated with the movement of the touch, the event information also optionally includes the speed and direction of the sub-event. In some embodiments, the event includes rotation of the device from one orientation to another (e.g., from portrait orientation to landscape orientation or vice versa), and the event information includes the current orientation of the device Referred to as &quot; information &quot;).

이벤트 비교기(184)는 이벤트 정보를 미리 정해진 이벤트 또는 서브-이벤트 정의와 비교하고, 그 비교에 기초하여 이벤트 또는 서브-이벤트를 결정하거나, 이벤트 또는 서브-이벤트의 상태를 결정 또는 업데이트한다. 일부 실시예들에서, 이벤트 비교기(184)는 이벤트 정의(186)를 포함한다. 이벤트 정의(186)는 이벤트들(예를 들어, 서브-이벤트들의 미리 정해진 시퀀스들), 예를 들어 이벤트 1(187-1), 이벤트 2(187-2) 등의 정의를 포함한다. 일부 실시예들에서, 이벤트(187) 내의 서브-이벤트들은, 예를 들어 터치 시작, 터치 종료, 터치 이동, 터치 취소, 및 다중 터치를 포함한다. 일례에서, 이벤트 1(187-1)에 대한 정의는 표시된 객체 상에서의 더블 탭(double tap)이다. 더블 탭은, 예를 들어 사전 결정된 페이즈(phase) 동안의 표시된 객체 상에서의 제1 터치(터치 시작), 사전 결정된 페이즈 동안의 제1 들어올림(터치 종료), 사전 결정된 페이즈 동안의 표시된 객체 상에서의 제2 터치(터치 시작), 및 사전 결정된 페이즈 동안의 제2 들어올림(터치 종료)을 포함한다. 다른 예에서, 이벤트 2(187-2)에 대한 정의는 표시된 객체 상에서의 드래깅이다. 드래깅은, 예를 들어 사전 결정된 페이즈 동안의 표시된 객체 상에서의 터치(또는 접촉), 터치-감응 디스플레이(112)를 가로지르는 터치의 이동, 및 터치의 들어올림(터치 종료)을 포함한다. 일부 실시예들에서, 이벤트는 또한 하나 이상의 관련된 이벤트 핸들러(190)들에 대한 정보를 포함한다.The event comparator 184 compares the event information with a predetermined event or sub-event definition, determines an event or sub-event based on the comparison, or determines or updates the status of the event or sub-event. In some embodiments, the event comparator 184 includes an event definition 186. Event definitions 186 include definitions of events (e.g., predetermined sequences of sub-events), such as event 1 187-1, event 2 187-2, and so on. In some embodiments, sub-events in event 187 include, for example, touch start, touch end, touch move, touch cancel, and multiple touch. In one example, the definition for Event 1 187-1 is a double tap on the displayed object. The double tap may include, for example, a first touch (touch start) on a displayed object during a predetermined phase, a first lift (touch end) during a predetermined phase, A second touch (touch start), and a second lift (touch end) during a predetermined phase. In another example, the definition for event two 187-2 is dragging on the displayed object. Dragging includes, for example, touch (or contact) on the displayed object during a predetermined phase, movement of the touch across the touch-sensitive display 112, and lifting of the touch (touch termination). In some embodiments, the event also includes information about one or more associated event handlers 190.

일부 실시예들에서, 이벤트 정의(187)는 각자의 사용자-인터페이스 객체에 대한 이벤트의 정의를 포함한다. 일부 실시예들에서, 이벤트 비교기(184)는 어느 사용자-인터페이스 객체가 서브-이벤트와 연관되어 있는지를 결정하도록 히트 테스트(hit test)를 수행한다. 예를 들어, 3개의 사용자-인터페이스 객체들이 터치-감응 디스플레이(112) 상에 표시된 애플리케이션 뷰에서, 터치- 감응 디스플레이(112) 상에서 터치가 검출되는 경우, 이벤트 비교기(184)는 3개의 사용자-인터페이스 객체들 중 어느 것이 터치(서브-이벤트)와 관련되는지를 결정하도록 히트 테스트를 수행한다. 각각의 표시된 객체가 각자의 이벤트 핸들러(190)와 관련되는 경우, 이벤트 비교기는 어느 이벤트 핸들러(190)가 활성화되어야 하는지를 결정하는 데 히트 테스트의 결과를 이용한다. 예를 들어, 이벤트 비교기(184)는 히트 테스트를 트리거링하는 서브-이벤트 및 객체와 관련되는 이벤트 핸들러를 선택한다.In some embodiments, the event definition 187 includes a definition of an event for each user-interface object. In some embodiments, event comparator 184 performs a hit test to determine which user-interface object is associated with the sub-event. For example, if a touch is detected on the touch-sensitive display 112 in an application view where three user-interface objects are displayed on the touch-sensitive display 112, then the event comparator 184 provides three user- Performs a hit test to determine which of the objects is associated with a touch (sub-event). When each displayed object is associated with its own event handler 190, the event comparator uses the result of the hit test to determine which event handler 190 should be activated. For example, the event comparator 184 selects an event handler associated with the sub-event and the object that trigger the hit test.

일부 실시예들에서, 각자의 이벤트(187)에 대한 정의는 또한 서브-이벤트들의 시퀀스가 이벤트 인식기의 이벤트 유형에 대응하거나 대응하지 않는지 여부가 결정된 후까지 이벤트 정보의 전달을 지연시키는 지연된 동작들을 포함한다.In some embodiments, the definition for each event 187 also includes delayed operations that delay the delivery of event information until after it has been determined whether the sequence of sub-events corresponds to or does not correspond to the event type of the event recognizer do.

일련의 서브이벤트들이 이벤트 정의(186)들 내의 이벤트들 중 임의의 이벤트와 일치하지 않는 것으로 각자의 이벤트 인식기(180)가 결정할 때, 각자의 이벤트 인식기(180)는 이벤트 불가능, 이벤트 실패, 또는 이벤트 종료된 상태를 입력하며, 그 후에 터치-기반 제스처의 연속적인 서브-이벤트들을 무시한다. 이러한 상황에서, 만일 있다면, 히트 뷰에 대해 활성 상태로 유지되는 다른 이벤트 인식기들이 진행 중인 터치-기반 제스처의 서브-이벤트들을 계속해서 추적 및 처리한다.When each event recognizer 180 determines that a series of sub-events do not match any of the events in the event definitions 186, each of the event recognizers 180 may determine that the event is not possible, And then ignores consecutive sub-events of the touch-based gesture. In this situation, other event recognizers that remain active for the hit view, if any, continue to track and process the ongoing touch-based gesture sub-events.

일부 실시예들에서, 각자의 이벤트 인식기(180)는 이벤트 전달 시스템이 어떻게 적극 참여 이벤트 인식기들로의 서브-이벤트 전달을 수행해야 하는지를 나타내는 설정가능한 특성들, 플래그들, 및/또는 목록들을 갖는 메타데이터(183)를 포함한다. 일부 실시예들에서, 메타데이터(183)는 이벤트 인식기들이 어떻게 상호작용하는지, 또는 상호작용하도록 인에이블되는지를 나타내는 설정가능한 특성들, 플래그들, 및/또는 목록들을 포함한다. 일부 실시예들에서, 메타데이터(183)는, 서브-이벤트들이 뷰 또는 프로그램 계층구조에서의 변화하는 레벨들에 전달되는지 여부를 나타내는 구성가능한 특성들, 플래그들, 및/또는 목록들을 포함한다.In some embodiments, each of the event recognizers 180 may include a meta-object having configurable properties, flags, and / or lists that indicate how the event delivery system should perform sub-event delivery to active participant event recognizers Data 183. In some embodiments, the metadata 183 includes configurable properties, flags, and / or lists that indicate how the event recognizers interact, or are enabled to interact. In some embodiments, the metadata 183 includes configurable properties, flags, and / or lists that indicate whether sub-events are delivered to varying levels in the view or program hierarchy.

일부 실시예들에서, 각자의 이벤트 인식기(180)는 이벤트의 하나 이상의 특정 서브-이벤트가 인식될 때 이벤트와 연관된 이벤트 핸들러(190)를 활성화한다. 일부 실시예들에서, 각자의 이벤트 인식기(180)는 이벤트와 관련된 이벤트 정보를 이벤트 핸들러(190)에 전달한다. 이벤트 핸들러(190)를 활성화하는 것은 각자의 히트 뷰에 서브-이벤트들을 전송(및 지연 전송)하는 것과는 구별된다. 일부 실시예들에서, 이벤트 인식기(180)는 인식된 이벤트와 관련된 플래그를 보내고, 그 플래그와 관련된 이벤트 핸들러(190)는 그 플래그를 캡처하고 미리 정해진 프로세스를 수행한다.In some embodiments, each event recognizer 180 activates an event handler 190 associated with the event when one or more particular sub-events of the event are recognized. In some embodiments, each event recognizer 180 passes event information associated with the event to an event handler 190. Activating the event handler 190 is distinct from sending (and delaying) sub-events to their respective hit views. In some embodiments, the event recognizer 180 sends a flag associated with the recognized event, and the event handler 190 associated with the flag captures the flag and performs a predetermined process.

일부 실시예들에서, 이벤트 전달 명령어(188)들은 이벤트 핸들러를 활성화하지 않고 서브-이벤트에 대한 이벤트 정보를 전달하는 서브-이벤트 전달 명령어들을 포함한다. 대신, 서브-이벤트 전달 명령어들은 일련의 서브-이벤트들과 관련된 이벤트 핸들러들에 또는 적극 참여 뷰들에 이벤트 정보를 전달한다. 일련의 서브-이벤트들 또는 적극 참여 뷰들과 관련된 이벤트 핸들러들은 이벤트 정보를 수신하고 사전 결정된 프로세스를 수행한다.In some embodiments, event forwarding instructions 188 include sub-event forwarding instructions that carry event information for a sub-event without activating the event handler. Instead, the sub-event delivery commands deliver event information to event handlers associated with a series of sub-events or to active participation views. Event handlers associated with a series of sub-events or actively participating views receive event information and perform predetermined processes.

일부 실시예들에서, 데이터 업데이터(176)는 애플리케이션(136-1) 내에서 사용되는 데이터를 생성 및 업데이트한다. 예를 들어, 데이터 업데이터(176)는 접촉 모듈(137)에서 이용되는 전화 번호를 업데이트하거나 비디오 플레이어 모듈(145)에서 이용되는 비디오 파일을 저장한다. 일부 실시예들에서, 객체 업데이터(177)는 애플리케이션(136-1)에서 이용되는 객체들을 생성 및 업데이트한다. 예를 들어, 객체 업데이터(176)는 새로운 사용자-인터페이스 객체를 생성하거나 사용자-인터페이스 객체의 위치를 업데이트한다. GUI 업데이터(178)는 GUI를 업데이트한다. 예를 들어, GUI 업데이터(178)는 터치-감응 디스플레이 상의 표시를 위해 디스플레이 정보를 준비하고 이를 그래픽 모듈(132)에 전송한다.In some embodiments, data updater 176 generates and updates data used within application 136-1. For example, the data updater 176 may update the telephone number used in the contact module 137 or store the video file used in the video player module 145. In some embodiments, object updater 177 creates and updates objects used in application 136-1. For example, the object updater 176 may create a new user-interface object or update the location of the user-interface object. The GUI updater 178 updates the GUI. For example, the GUI updater 178 prepares the display information for display on the touch-sensitive display and transmits it to the graphics module 132.

일부 실시예들에서, 이벤트 핸들러(190)(들)는 데이터 업데이터(176), 객체 업데이터(177) 및 GUI 업데이터(178)를 포함하거나 이들에 액세스한다. 일부 실시예들에서, 데이터 업데이터(176), 객체 업데이터(177), 및 GUI 업데이터(178)는 각자의 애플리케이션(136-1) 또는 애플리케이션 뷰(191)의 단일 모듈 내에 포함된다. 다른 실시예들에서, 이들은 2개 이상의 소프트웨어 모듈들에 포함된다.In some embodiments, event handler 190 (s) includes or accesses data updater 176, object updater 177, and GUI updater 178. In some embodiments, data updater 176, object updater 177, and GUI updater 178 are included within a single module of their respective application 136-1 or application view 191. [ In other embodiments, these are included in two or more software modules.

터치-감응 디스플레이들 상의 사용자 터치들의 이벤트 핸들링에 관한 전술된 논의가 입력 디바이스들 - 이들 전부가 터치 스크린 상에서 개시되는 것은 아님 - 을 이용하여 다기능 디바이스(100)들을 동작시키기 위한 사용자 입력들의 다른 형태들에 또한 적용된다는 것을 이해할 것이다. 예를 들어, 마우스 이동 및 마우스 버튼 누름은, 선택적으로 단일 또는 복수의 키보드 누름 또는 홀드; 터치패드 상에서의, 탭, 드래그, 스크롤 등과 같은 접촉 이동들; 펜 스타일러스 입력들; 디바이스의 이동; 구두 명령어들; 검출된 눈 이동들; 생체 측정 입력들; 및/또는 인식되는 이벤트를 정의하는 서브-이벤트에 대응하는 입력들로서 선택적으로 이용되는 이들의 임의의 조합을 이용하여 조정된다.The foregoing discussion of event handling of user touches on touch-sensitive displays may be applied to other types of user inputs for operating the multifunction devices 100 using input devices-not all of which are disclosed on the touch screen &Lt; / RTI &gt; For example, mouse movement and mouse button presses may optionally include single or multiple keyboard presses or holds; Contact movements, such as tapping, dragging, scrolling, etc., on the touchpad; Pen stylus inputs; Device movement; Verbal commands; Detected eye movements; Biometric inputs; And / or any combination thereof, which is optionally used as inputs corresponding to a sub-event defining an event to be recognized.

도 2는 일부 실시예들에 따른, 터치 스크린(112)을 갖는 휴대용 다기능 디바이스(100)를 도시한다. 터치 스크린은 선택적으로 사용자 인터페이스(UI)(200) 내에서 하나 이상의 그래픽들을 표시한다. 이러한 실시예에서뿐만 아니라 하기에 기술되는 다른 실시예들에서, 사용자는 예를 들어 하나 이상의 손가락(202)들(도면에서 축척대로 도시되지 않음) 또는 하나 이상의 스타일러스(203)들(도면에서 축척대로 도시되지 않음)을 이용하여 그래픽 상에 제스처를 행함으로써 그래픽들 중 하나 이상을 선택하는 것이 가능하게 된다. 일부 실시예들에서, 하나 이상의 그래픽들의 선택은 사용자가 하나 이상의 그래픽들과의 접촉을 중단할 때 발생한다. 일부 실시예들에서, 제스처는 선택적으로 디바이스(100)와 접촉한 손가락의 하나 이상의 탭들, (좌에서 우로, 우에서 좌로, 위로 및/또는 아래로의) 하나 이상의 스와이프(swipe)들 및/또는 (우에서 좌로, 좌에서 우로, 위로 및/또는 아래로의) 롤링을 포함한다. 일부 구현예들 또는 상황들에서, 그래픽과의 의도하지 않은 접촉은 그래픽을 선택하지 않는다. 예를 들어, 선택에 대응하는 제스처가 탭인 경우에, 애플리케이션 아이콘 위에서 휩쓰는 스와이프 제스처는 선택적으로, 대응하는 애플리케이션을 선택하지 않는다.Figure 2 illustrates a portable multifunction device 100 having a touch screen 112, in accordance with some embodiments. The touch screen optionally displays one or more graphics within the user interface (UI) In other embodiments described below, as well as in this embodiment, a user may, for example, have one or more fingers 202 (not shown in scale in the drawings) or one or more styli 203 It is possible to select one or more of the graphics by performing a gesture on the graphic. In some embodiments, the selection of one or more graphics occurs when the user stops touching one or more graphics. In some embodiments, the gesture may optionally include one or more taps of the finger in contact with the device 100, one or more swipes (left to right, right to left, up and / or down) Or rolling (right to left, left to right, up and / or down). In some implementations or situations, unintentional contact with graphics does not select graphics. For example, in the case where the gesture corresponding to the selection is a tab, the swipe gesture sweeping over the application icon optionally does not select the corresponding application.

디바이스(100)는 또한 선택적으로 "홈" 또는 메뉴 버튼(204)과 같은 하나 이상의 물리적 버튼들을 포함한다. 전술된 바와 같이, 메뉴 버튼(204)은 선택적으로, 디바이스(100) 상에서 선택적으로 실행되는 애플리케이션들의 세트 내의 임의의 애플리케이션(136)으로 내비게이션하는 데 사용된다. 대안적으로, 일부 실시예들에서, 메뉴 버튼은 터치 스크린(112) 상에 표시된 GUI에서 소프트 키로서 구현된다. 일부 실시예들에서, 버튼(204)은 버튼(204)과 상호작용하는 지문을 식별하기 위한 그리고/또는 버튼(204) 상에서의 지문의 이동을 검출하기 위한 통합형 지문 센서(169-1)를 포함한다. 디바이스는 또한 선택적으로, 디바이스와의 사용자 상호작용을 식별하고/하거나 지문의 움직임을 검출하기 위해, 버튼(204)과는 별개이고, 버튼(204) 내에 통합형 지문 센서(169-1)와 함께 또는 그 대신에 사용되는 하나 이상의 다른 지문 센서(169-2)들을 포함한다. 부가적으로, 다른 지문 센서(169-2)들 중 하나 이상은 선택적으로 버튼(예를 들어, 활성화 강도 임계치 초과의 강도를 갖는 입력을 검출함으로써 활성화되는 압력 감지 구역 또는 사용자에 의해 적용되는 힘에 응답하여 움직이는 물리적 액추에이터)과 연관된다. 터치-감응 표면(예를 들어, 터치 스크린(112))이 개별 지문 능선에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 구현예들에서, 터치-감응 표면(예를 들어, 터치 스크린(112))은 선택적으로 별개의 지문 센서(예를 들어, 지문 센서(169-1) 또는 지문 센서(169-2)) 대신 또는 그에 더하여 지문 센서로서 사용된다. 일부 실시예들에서, 디바이스(100)는 디바이스(100) 상의 손의 배향을 결정하는 데 사용되는 한 세트의 하나 이상의 배향 센서들을 포함한다.The device 100 also optionally includes one or more physical buttons, such as "home" or menu button 204. As described above, the menu button 204 is optionally used to navigate to any application 136 in a set of applications that are selectively executed on the device 100. [ Alternatively, in some embodiments, the menu button is implemented as a soft key in the GUI displayed on the touch screen 112. [ In some embodiments, the button 204 includes an integrated fingerprint sensor 169-1 for identifying a fingerprint that interacts with the button 204 and / or for detecting movement of the fingerprint on the button 204 do. The device may also optionally be coupled to the integrated fingerprint sensor 169-1 in conjunction with the integrated fingerprint sensor 169-1 in the button 204, separate from the button 204, to identify user interaction with the device and / And one or more other fingerprint sensors 169-2 used instead. Additionally, one or more of the other fingerprint sensors 169-2 may be selectively activated by a button (e.g., a pressure sensitive zone that is activated by detecting an input having an intensity above the activation strength threshold, Lt; RTI ID = 0.0 &gt; physical actuator &lt; / RTI &gt; In embodiments where the touch-sensitive surface (e.g., touch screen 112) has a spatial resolution high enough to detect fingerprint features formed by the individual fingerprint ridges, a touch-sensitive surface (e.g., (E.g., fingerprint sensor 169-1 or fingerprint sensor 169-2) is used as a fingerprint sensor instead of or in addition to a separate fingerprint sensor (e.g., fingerprint sensor 169-1 or fingerprint sensor 169-2). In some embodiments, the device 100 includes a set of one or more orientation sensors that are used to determine the orientation of the hand on the device 100.

일 실시예에서, 디바이스(100)는 터치 스크린(112), 메뉴 버튼(204), 디바이스를 전력 온/오프시키고 디바이스를 잠그기 위한 푸시 버튼(206), 볼륨 조정 버튼(208)(들), 가입자 식별 모듈(SIM) 카드 슬롯(210), 헤드 셋 잭(212) 및 도킹/충전 외부 포트(124)를 포함한다. 푸시 버튼(206)은 선택적으로 버튼을 누르고 버튼을 미리 정해진 시간 간격 동안 누른 상태로 유지함으로써 디바이스에서 전력을 온/오프시키고; 버튼을 누르고 미리 정해진 시간 간격이 경과하기 전에 버튼 누름을 해제함으로써 디바이스를 잠그고/잠그거나; 디바이스를 잠금해제하거나 잠금해제 프로세스를 개시하도록 사용된다. 대안적인 실시예에서, 디바이스(100)는 또한 마이크(113)를 통해 일부 기능들의 활성화 또는 비활성화를 위한 구두 입력을 수용한다. 디바이스(100)는 또한 선택적으로 터치 스크린(112) 상의 접촉들의 강도를 검출하기 위한 하나 이상의 접촉 강도 센서(165)들 및/또는 디바이스(100)의 사용자를 위해 촉각적 출력들을 생성하기 위한 하나 이상의 촉각적 출력 생성기(167)들을 포함한다.In one embodiment, the device 100 includes a touch screen 112, a menu button 204, a push button 206 for powering the device on / off and locking the device, a volume control button 208 (s) An identification module (SIM) card slot 210, a headset jack 212, and a docking / charging external port 124. The push button 206 selectively turns on / off power at the device by depressing the button and keeping the button pressed for a predetermined time interval; Lock / unlock the device by depressing the button and releasing the button depression before the predetermined time interval elapses; Is used to unlock the device or initiate the unlocking process. In an alternative embodiment, the device 100 also accepts verbal input for activation or deactivation of some of the functions via the microphone 113. The device 100 may also optionally include one or more contact strength sensors 165 for detecting the strength of contacts on the touch screen 112 and / or one or more contact strength sensors 165 for generating tactile outputs for the user of the device 100. [ Tactile output generators &lt; RTI ID = 0.0 &gt; 167 &lt; / RTI &gt;

도 3은 일부 실시예들에 따른, 디스플레이 및 터치-감응 표면을 갖는 예시적인 다기능 디바이스의 블록도이다. 디바이스(300)가 휴대용일 필요는 없다. 일부 실시예들에서, 디바이스(300)는 랩톱 컴퓨터, 데스크톱 컴퓨터, 태블릿 컴퓨터, 다기능 플레이어 디바이스, 내비게이션 디바이스, (아이들의 학습 장난감과 같은) 교육용 디바이스, 게임 시스템, 또는 제어 디바이스(예를 들어, 가정용 또는 산업용 제어기)이다. 디바이스(300)는 전형적으로 하나 이상의 프로세싱 유닛(CPU)(310)들, 하나 이상의 네트워크 또는 다른 통신 인터페이스(360)들, 메모리(370) 및 이들 컴포넌트를 상호접속하기 위한 하나 이상의 통신 버스(320)들을 포함한다. 통신 버스(320)들은 선택적으로 시스템 컴포넌트들을 상호접속시키고 이들 사이의 통신을 제어하는 회로(때때로 칩셋으로 지칭됨)를 포함한다. 디바이스(300)는 전형적으로 터치 스크린 디스플레이인 디스플레이(340)를 포함하는 입력/출력(I/O) 인터페이스(330)를 포함한다. I/O 인터페이스(330)는 또한 선택적으로 키보드 및/또는 마우스(또는 다른 포인팅 디바이스)(350) 및 터치패드(355), 디바이스(300) 상의 촉각적 출력을 생성하기 위한 (예를 들어, 도 1a와 관련하여 전술된 촉각적 출력 생성기(167)(들)와 유사한) 촉각적 출력 생성기(357), 센서(359)들(예를 들어, 광학 센서, 가속도 센서, 근접도 센서, 터치-감응 센서, 및/또는 도 1a와 관련하여 전술된 접촉 강도 센서(165)(들)와 유사한 접촉 강도 센서, 및/또는 도 1a와 관련하여 전술된 지문 센서(169)(들)와 유사한 지문 센서들)을 포함한다. 부가적으로, 터치-감응 표면(예를 들어, 터치패드(355))이 개별 지문 능선에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 구현예들에서, 터치-감응 표면(예를 들어, 터치패드(355))은 선택적으로 별개의 지문 센서(예를 들어, 센서들(359) 중 하나) 대신 또는 그에 더하여 지문 센서로서 사용된다. 일부 실시예들에서, 디바이스(300)는 디바이스 상에 있거나 디바이스에 근접한 손가락 또는 손의 배향(예를 들어, 지문 센서(169) 위에 있는 손가락의 배향)을 결정하는 데 사용되는 한 세트의 하나 이상의 배향 센서들을 포함한다. 부가적으로, 일부 실시예들에서, 디바이스와 상호작용하는 접촉의 회전을 검출하기 위해 한 세트의 하나 이상의 배향 센서들이 지문 센서에 더하여 또는 그 대신 사용된다. 예를 들어, 아래에서 기술되는 하나 이상의 방법들에서, 지문/접촉의 회전을 검출하기 위해 지문 센서를 사용하는 대신, 한 세트의 하나 이상의 배향 센서들이 지문의 특징들을 검출하거나 검출하지 않고서 지문을 포함하는 접촉의 회전을 검출하는 데 사용된다.Figure 3 is a block diagram of an exemplary multifunction device having a display and a touch-sensitive surface, in accordance with some embodiments. The device 300 need not be portable. In some embodiments, the device 300 may be a laptop computer, a desktop computer, a tablet computer, a multifunctional player device, a navigation device, an educational device (such as a child's learning toy), a gaming system, or a control device Or an industrial controller). Device 300 typically includes one or more processing units (CPUs) 310, one or more networks or other communication interfaces 360, a memory 370, and one or more communication buses 320 for interconnecting these components. . Communication buses 320 optionally include circuitry (sometimes referred to as a chipset) that interconnects system components and controls communication therebetween. The device 300 includes an input / output (I / O) interface 330 that includes a display 340 that is typically a touch screen display. The I / O interface 330 may also optionally include a keyboard and / or mouse (or other pointing device) 350 and a touch pad 355 to generate a tactile output on the device 300 (e.g., A tactile output generator 357 (similar to the tactile output generator 167 (s) described above with respect to Figs. 1a and 1b), sensors 359 (e.g., optical sensors, acceleration sensors, proximity sensors, touch- Sensor and / or a contact strength sensor similar to the contact strength sensor 165 (s) described above with respect to FIG. 1A, and / or fingerprint sensors similar to the fingerprint sensor 169 (s) ). Additionally, in embodiments having a sufficiently high spatial resolution to detect fingerprint features formed by individual fingerprint ridges, a touch-sensitive surface (e.g., touchpad 355) The touchpad 355) is optionally used as a fingerprint sensor in place of or in addition to a separate fingerprint sensor (e.g., one of the sensors 359). In some embodiments, the device 300 may be used to determine a set of one or more (e.g., one or more, more than one, or more than one) Orientation sensors. Additionally, in some embodiments, a set of one or more orientation sensors is used in addition to or in place of the fingerprint sensor to detect rotation of the contact that interacts with the device. For example, in one or more of the methods described below, instead of using a fingerprint sensor to detect rotation of the fingerprint / contact, a set of one or more orientation sensors may include a fingerprint without detecting or detecting features of the fingerprint Is used to detect the rotation of the contact.

메모리(370)는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 고체 메모리 디바이스와 같은 고속의 랜덤 액세스 메모리를 포함하며; 선택적으로 하나 이상의 자기 디스크 저장 디바이스들, 광 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 고체 저장 디바이스들과 같은 비휘발성 메모리를 포함한다. 메모리(370)는 선택적으로 CPU(310)(들)로부터 원격으로 위치된 하나 이상의 저장 디바이스들을 포함한다. 일부 실시예들에서, 메모리(370)는 휴대용 다기능 디바이스(100)(도 1a)의 메모리(102)에 저장된 프로그램들, 모듈들, 및 데이터 구조와 유사한 프로그램들, 모듈들, 및 데이터 구조들 또는 이들의 하위세트를 저장한다. 또한, 메모리(370)는 선택적으로 휴대용 다기능 디바이스(100)의 메모리(102) 내에 존재하지 않는 추가의 프로그램들, 모듈들 및 데이터 구조들을 저장한다. 예를 들어, 디바이스(300)의 메모리(370)는 선택적으로 그리기 모듈(380), 프레젠테이션 모듈(382), 워드 프로세싱 모듈(384), 웹사이트 제작 모듈(386), 디스크 저작 모듈(388), 및/또는 스프레드시트 모듈(390)을 저장하는 반면, 휴대용 다기능 디바이스(100)(도 1a)의 메모리(102)는 선택적으로 이들 모듈을 저장하지 않는다.Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices; And optionally non-volatile memory, such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid state storage devices. The memory 370 optionally includes one or more storage devices remotely located from the CPU 310 (s). In some embodiments, the memory 370 includes programs, modules, and data structures similar to programs, modules, and data structures stored in the memory 102 of the portable multifunction device 100 (FIG. 1A) And stores a subset of these. In addition, the memory 370 optionally stores additional programs, modules and data structures that are not present in the memory 102 of the portable multifunction device 100. For example, the memory 370 of the device 300 may optionally include a drawing module 380, a presentation module 382, a word processing module 384, a website creation module 386, a disk authoring module 388, And / or the spreadsheet module 390, while the memory 102 of the portable multifunction device 100 (FIG. 1A) does not store these modules selectively.

도 3에서의 앞서 확인된 요소들 각각은 선택적으로 전술된 메모리 디바이스들 중 하나 이상에 저장된다. 앞서 확인된 모듈들 각각은 전술된 기능을 수행하기 위한 명령어들의 세트에 대응한다. 앞서 확인된 모듈들 또는 프로그램들(즉, 명령어들의 세트들)은 별개의 소프트웨어 프로그램들, 절차들 또는 모듈들로서 구현될 필요가 없으며, 따라서 다양한 실시예들에서 이들 모듈의 다양한 하위세트들이 선택적으로 조합되거나 달리 재배열된다. 일부 실시예들에서, 메모리(370)가 선택적으로, 위에서 확인된 모듈들 및 데이터 구조들의 하위세트를 저장한다. 또한, 메모리(370)는 선택적으로 전술되지 않은 추가의 모듈들 및 데이터 구조들을 저장한다.Each of the previously identified elements in FIG. 3 is optionally stored in one or more of the memory devices described above. Each of the previously identified modules corresponds to a set of instructions for performing the functions described above. The previously identified modules or programs (i. E. Sets of instructions) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules in various embodiments may be optionally combined Or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not previously described.

이제, 선택적으로 휴대용 다기능 디바이스(100) 상에 구현되는 사용자 인터페이스("UI")들의 실시예들을 주목한다.Now, note the embodiments of user interfaces ("UI") that are optionally implemented on the portable multifunction device 100.

도 4a는 일부 실시예들에 따라 휴대용 다기능 디바이스(100) 상의 애플리케이션들의 메뉴에 대한 예시적인 사용자 인터페이스를 도시한다. 유사한 사용자 인터페이스가 선택적으로 디바이스(300) 상에 구현된다. 일부 실시예들에서, 사용자 인터페이스(400)는 하기의 요소들, 또는 그 하위세트나 상위세트를 포함한다:4A illustrates an exemplary user interface for a menu of applications on a portable multifunction device 100 in accordance with some embodiments. A similar user interface is optionally implemented on the device 300. In some embodiments, user interface 400 includes the following elements, or a subset or superset thereof:

Figure 112014123040953-pct00033
셀룰러 및 Wi-Fi 신호들과 같은 무선 통신(들)을 위한 신호 세기 표시자(들)(402);
Figure 112014123040953-pct00033
Signal strength indicator (s) 402 for wireless communication (s) such as cellular and Wi-Fi signals;

Figure 112014123040953-pct00034
시간(404);
Figure 112014123040953-pct00034
Time 404;

Figure 112014123040953-pct00035
블루투스 표시자(405);
Figure 112014123040953-pct00035
A Bluetooth indicator 405;

Figure 112014123040953-pct00036
배터리 상태 표시자(406);
Figure 112014123040953-pct00036
A battery status indicator 406;

Figure 112014123040953-pct00037
다음과 같은, 빈번하게 사용되는 애플리케이션들에 대한 아이콘들을 갖는 트레이(408):
Figure 112014123040953-pct00037
A tray 408 having icons for frequently used applications, such as:

Figure 112014123040953-pct00038
선택적으로, 놓친 통화 또는 음성메일 메시지들의 개수의 표시자(414)를 포함하는 "전화"로 라벨링된 전화 모듈(138)에 대한 아이콘(416),
Figure 112014123040953-pct00038
Optionally, an icon 416 for the phone module 138 labeled "Phone &quot;, including an indicator 414 of the number of missed calls or voice mail messages,

Figure 112014123040953-pct00039
선택적으로, 읽지 않은 메일들의 개수의 표시자(410)를 포함하는 "메일"로 라벨링된 이메일 클라이언트 모듈(140)에 대한 아이콘(418),
Figure 112014123040953-pct00039
Optionally, an icon 418 for the email client module 140 labeled as "mail " containing an indicator 410 of the number of unread mails,

Figure 112014123040953-pct00040
"브라우저"로 라벨링된 브라우저 모듈(147)에 대한 아이콘(420), 및
Figure 112014123040953-pct00040
An icon 420 for the browser module 147 labeled "Browser &quot;, and

Figure 112014123040953-pct00041
"아이팟"으로 라벨링된 아이팟(애플 인크.의 상표) 모듈(152)로 또한 지칭되는 비디오 및 음악 플레이어 모듈(152)에 대한 아이콘(422);및
Figure 112014123040953-pct00041
An icon 422 for a video and music player module 152, also referred to as an iPod (trademark) module 152 labeled "iPod &quot;; and

Figure 112014123040953-pct00042
다음과 같은, 다른 애플리케이션들에 대한 아이콘들:
Figure 112014123040953-pct00042
Icons for other applications, such as:

Figure 112014123040953-pct00043
"텍스트"로 라벨링된 IM 모듈(141)에 대한 아이콘(424),
Figure 112014123040953-pct00043
An icon 424 for the IM module 141 labeled "text"

Figure 112014123040953-pct00044
"캘린더"로 라벨링된 캘린더 모듈(148)에 대한 아이콘(426),
Figure 112014123040953-pct00044
An icon 426 for the calendar module 148 labeled "Calendar"

Figure 112014123040953-pct00045
"사진"으로 라벨링된 이미지 관리 모듈(144)에 대한 아이콘(428),
Figure 112014123040953-pct00045
An icon 428 for the image management module 144 labeled "Photos"

Figure 112014123040953-pct00046
"카메라"로 라벨링된 카메라 모듈(143)에 대한 아이콘(430),
Figure 112014123040953-pct00046
An icon 430 for the camera module 143 labeled "camera"

Figure 112014123040953-pct00047
"온라인 비디오"로 라벨링된 온라인 비디오 모듈(155)에 대한 아이콘(432);
Figure 112014123040953-pct00047
An icon 432 for the online video module 155 labeled "Online Video &quot;;

Figure 112014123040953-pct00048
"주식"으로 라벨링된 주식 위젯(149-2)에 대한 아이콘(434),
Figure 112014123040953-pct00048
An icon 434 for a stock widget 149-2 labeled "stock"

Figure 112014123040953-pct00049
"지도"로 라벨링된 지도 모듈(154)에 대한 아이콘(436),
Figure 112014123040953-pct00049
An icon 436 for the map module 154 labeled "

Figure 112014123040953-pct00050
"날씨"로 라벨링된 날씨 위젯(149-1)에 대한 아이콘(438);
Figure 112014123040953-pct00050
An icon 438 for the weather widget 149-1 labeled as "weather &quot;;

Figure 112014123040953-pct00051
"시계"로 라벨링된 알람 시계 위젯(149-4)에 대한 아이콘(440),
Figure 112014123040953-pct00051
An icon 440 for the alarm clock widget 149-4 labeled "Clock"

Figure 112014123040953-pct00052
"운동 지원"으로 라벨링된 운동 지원 모듈(142)에 대한 아이콘(442),
Figure 112014123040953-pct00052
An icon 442 for the motion support module 142 labeled "motion support, "

Figure 112014123040953-pct00053
"노트"로 라벨링된 노트 모듈(153)에 대한 아이콘(444), 및
Figure 112014123040953-pct00053
An icon 444 for the note module 153 labeled "Note, "

Figure 112014123040953-pct00054
디바이스(100)에 대한 설정들 및 그의 다양한 애플리케이션(136)들로의 액세스를 제공하는 설정 애플리케이션 또는 모듈에 대한 아이콘(446).
Figure 112014123040953-pct00054
Icons 446 for settings applications or modules that provide settings for the device 100 and its access to various applications 136.

도 4a에 도시된 아이콘 라벨들이 단지 예시적인 것임에 주목하여야 한다. 예를 들어, 비디오 및 음악 플레이어 모듈(152)에 대한 아이콘(422)이 "음악" 또는 "음악 플레이어"로 라벨링된다. 기타 라벨들이 선택적으로 다양한 애플리케이션 아이콘들에 대해 사용된다. 일부 실시예들에서, 각자의 애플리케이션 아이콘에 대한 라벨은 각자의 애플리케이션 아이콘에 대응하는 애플리케이션의 명칭을 포함한다. 일부 실시예들에서, 특정 애플리케이션 아이콘에 대한 라벨은 특정 애플리케이션 아이콘에 대응하는 애플리케이션의 명칭과 구별된다.It should be noted that the icon labels shown in Figure 4A are merely illustrative. For example, the icon 422 for the video and music player module 152 is labeled as "music" or "music player ". Other labels are optionally used for various application icons. In some embodiments, the label for each application icon includes the name of the application corresponding to the respective application icon. In some embodiments, the label for a particular application icon is distinct from the name of the application corresponding to that particular application icon.

도 4b는 통합형 지문 센서(359-1)(또는 별개의 지문 센서(359-2))(예를 들어, 도 1a의 지문 센서(169)와 유사한 방식으로 동작하는 하나 이상의 센서(359)들)를 갖는 디스플레이(450)(예를 들어, 터치 스크린 디스플레이(112))와는 별개인 터치-감응 표면(451)(예를 들어, 도 3의 태블릿 또는 터치패드(355))을 갖는 디바이스(예를 들어, 도 3의 디바이스(300)) 상의 예시적인 사용자 인터페이스를 도시한다. 부가적으로, 터치-감응 표면(451)이 개별 지문 능선에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 구현예들에서, 터치-감응 표면(451)은 선택적으로 별개의 지문 센서(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 대신 또는 그에 더하여 지문 센서로서 사용된다. 디바이스(300)는 또한 선택적으로 터치-감응 표면(451) 상의 접촉들의 강도를 검출하기 위한 하나 이상의 접촉 강도 센서들(예를 들어, 하나 이상의 센서(359-3)들) 및/또는 디바이스(300)의 사용자에 대한 촉각적 출력들을 생성하기 위한 하나 이상의 촉각적 출력 생성기(357)를 포함한다.4B illustrates an integrated fingerprint sensor 359-1 (or a separate fingerprint sensor 359-2) (e.g., one or more sensors 359 that operate in a manner similar to the fingerprint sensor 169 of FIG. 1A) Having a touch-sensitive surface 451 (e.g., tablet or touchpad 355 of FIG. 3) that is distinct from the display 450 (e.g., the touchscreen display 112) (E.g., device 300 of FIG. 3). Additionally, in embodiments where the touch-sensitive surface 451 has a spatial resolution that is sufficiently high to detect fingerprint features formed by the individual fingerprint ridges, the touch-sensitive surface 451 may optionally include a separate fingerprint sensor (E.g., an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2), or as a fingerprint sensor. Device 300 may also optionally include one or more contact strength sensors (e.g., one or more sensors 359-3) and / or device 300 (e.g., one or more sensors) to detect the strength of contacts on touch- ) For generating tactile outputs for a user of the tactile sensor (e.

후속하는 예들 중 일부가 (터치-감응 표면 및 디스플레이가 조합된) 터치 스크린 디스플레이(112) 상의 입력들을 참조하여 주어질 것이지만, 일부 실시예들에서, 디바이스는 도 4b에 도시된 바와 같이 디스플레이와는 별개인 터치-감응 표면 상에서 입력들을 검출한다. 일부 실시예들에서, 터치-감응 표면(예를 들어, 도 4b에서 451)은 디스플레이(예를 들어, 450) 상의 주축(예를 들어, 도 4b에서 453)에 대응하는 주축(예를 들어, 도 4b에서 452)을 갖는다. 이들 실시예에 따르면, 디바이스는 디스플레이 상의 각각의 위치들에 대응하는 위치들(예컨대, 도 4b에서, 460은 468에 대응하고, 462는 470에 대응함)에서 터치-감응 표면(451)과의 접촉들(예컨대, 도 4b에서 460 및 462)을 검출한다. 이러한 방식으로, 터치-감응 표면(예컨대, 도 4b에서 451) 상에서 디바이스에 의해 검출된 사용자 입력들(예컨대, 접촉들(460, 462) 및 그 이동들)은 터치-감응 표면들이 디스플레이와는 별개인 경우 디바이스에 의해 다기능 디바이스의 디스플레이(예컨대, 도 4b에서 450) 상의 사용자 인터페이스를 조작하는 데 사용된다. 유사한 방법들이 선택적으로 본 명세서에 기술되는 다른 사용자 인터페이스들에 사용된다는 것을 이해하여야 한다.Some of the following examples will be given with reference to inputs on the touch screen display 112 (in which the touch-sensitive surface and display are combined), but in some embodiments, the device is distinct from the display Detects inputs on a personal touch-sensitive surface. In some embodiments, the touch-sensitive surface (e. G., 451 in Fig. 4B) has a major axis (e. G., 451 in Fig. 4B) 452 in Fig. 4B). According to these embodiments, the device is in contact with the touch-sensitive surface 451 at positions corresponding to respective positions on the display (e.g., in FIG. 4B, 460 corresponds to 468 and 462 corresponds to 470) (E.g., 460 and 462 in Figure 4B). In this manner, the user inputs (e.g., contacts 460, 462 and the movements) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) Is used by the device to manipulate the user interface on the display of the multifunction device (e.g., 450 in FIG. 4B). It should be appreciated that similar methods are optionally used in other user interfaces described herein.

부가적으로, 하기의 예시들이 손가락 입력들(예를 들어, 손가락 접촉들, 손가락 탭 제스처들, 손가락 스와이프 제스처들)을 주로 참조하여 주어지지만, 일부 실시예들에서, 하나 이상의 사용자 입력들이 다른 입력 디바이스(예를 들어, 마우스 기반 입력 또는 스타일러스 입력)으로부터의 입력으로 대체된다는 것을 이해하여야 한다. 예를 들어, 스와이프 제스처가 선택적으로 (예를 들어, 접촉 대신의) 마우스 클릭 및 뒤이은 (예컨대, 접촉의 이동 대신의) 스와이프의 경로를 따른 커서의 이동으로 대체된다. 다른 예로서, (예를 들어, 접촉의 검출 및 뒤이은 접촉을 검출하는 것을 중지하는 것 대신) 커서가 탭 제스처의 위치 위에 위치되는 동안에 탭 제스처가 선택적으로 마우스 클릭으로 대체될 수 있다. 유사하게, 다수의 사용자 입력들이 동시에 검출되는 경우, 다수의 컴퓨터 마우스들이 선택적으로 동시에 사용되거나, 마우스와 손가락 접촉이 선택적으로 동시에 사용된 것임을 이해하여야 한다.Additionally, while the following examples are given primarily with reference to finger inputs (e.g., finger contacts, finger tap gestures, finger swipe gestures), in some embodiments, one or more user inputs It should be understood that it is replaced by an input from an input device (e.g., a mouse-based input or a stylus input). For example, a swipe gesture is optionally replaced by a mouse click (instead of a contact) and a movement of the cursor along the path of the swipe (e.g., instead of the movement of the contact). As another example, the tap gesture can be selectively replaced with a mouse click while the cursor is positioned over the position of the tap gesture (e.g., instead of detecting contact and stopping detecting subsequent contact). Similarly, when multiple user inputs are detected at the same time, it should be understood that multiple computer mice may be selectively used simultaneously, or a mouse and finger contact may be selectively used simultaneously.

본 명세서에 사용되는 바와 같이, "포커스 셀렉터"는 사용자가 상호작용하는 사용자 인터페이스의 현재 부분을 나타내는 입력 요소를 지칭한다. 커서 또는 다른 위치 마커를 포함하는 일부 구현예들에서, 입력(예를 들어, 누름 입력)이 터치-감응 표면(예를 들어, 도 3의 터치 패드(355) 또는 도 4b의 터치-감응 표면(451)) 상에서 검출되는 반면 커서가 특정 사용자 인터페이스 요소(예를 들어, 버튼, 윈도우, 슬라이더 또는 다른 사용자 인터페이스 요소) 위에 있을 때 특정 사용자 인터페이스 요소가 검출된 입력에 따라 조정되도록, 커서가 "포커스 셀렉터"로서의 역할을 한다. 터치-스크린 디스플레이 상의 사용자 인터페이스 요소들과의 직접적인 상호작용을 가능하게 하는 터치-스크린 디스플레이(예를 들어, 도 1a의 터치-감응 디스플레이 시스템(112) 또는 도 4a의 터치 스크린(112))을 포함하는 일부 구현예들에서, 입력(예를 들어, 접촉에 의한 누름 입력)이 특정 사용자 인터페이스 요소(예를 들어, 버튼, 윈도우, 슬라이더 또는 다른 사용자 인터페이스 요소)의 위치에 있는 터치-스크린 디스플레이 상에서 검출될 때 특정 사용자 인터페이스 요소가 검출된 입력에 따라 조정되도록, 터치-스크린 상에서 검출된 접촉이 "포커스 셀렉터"로서의 역할을 한다. 일부 구현예들에서, (예를 들어 포커스를 하나의 버튼으로부터 다른 버튼으로 움직이는 탭 키 또는 화살표 키를 사용함으로써) 터치-스크린 디스플레이 상의 대응하는 커서의 이동 또는 접촉의 이동 없이 포커스가 사용자 인터페이스의 하나의 구역으로부터 사용자 인터페이스의 다른 구역으로 이동되며, 이러한 구현예들에서, 포커스 셀렉터는 사용자 인터페이스의 상이한 구역들 사이에서의 포커스의 이동에 따라 움직인다. 포커스 셀렉터에 의해 취해지는 구체적인 형태와 무관하게, 포커스 셀렉터는 일반적으로 (예를 들어, 디바이스에게 사용자가 상호작용하고자 하는 사용자 인터페이스의 요소를 나타냄으로써) 사용자 인터페이스와의 사용자의 의도된 상호작용을 전달하기 위해 사용자에 의해 제어되는 사용자 인터페이스 요소(또는 터치-스크린 디스플레이 상의 접촉)이다. 예를 들어, 터치-감응 표면(예를 들어, 터치패드 또는 터치 스크린) 상에서 누름 입력이 검출되는 동안 각각의 버튼 위의 포커스 셀렉터(예를 들어 커서, 접촉 또는 선택 박스)의 위치는 (디바이스의 디스플레이 상에 나타내어진 다른 사용자 인터페이스 요소들과 반대로) 사용자가 각각의 버튼을 활성화하고자 의도함을 나타낸다.As used herein, a "focus selector" refers to an input element that represents the current portion of the user interface with which the user interacts. In some implementations involving cursors or other position markers, an input (e.g., a push input) may be applied to a touch-sensitive surface (e.g., touchpad 355 of FIG. 3 or touch- 451) while the cursor is being adjusted on the detected input while a cursor is on a particular user interface element (e.g., a button, window, slider or other user interface element) "As well. (E.g., touch-sensitive display system 112 of FIG. 1A or touch screen 112 of FIG. 4A) that enables direct interaction with user interface elements on a touch-screen display (E.g., touch input by touch) is detected on a touch-screen display at the location of a particular user interface element (e.g., a button, window, slider or other user interface element) The detected contact on the touch-screen acts as a "focus selector" so that when a particular user interface element is adjusted according to the detected input. In some implementations, focus may be moved to one of the user interfaces (e.g., by using a tab key or an arrow key that moves focus from one button to another) without movement of the corresponding cursor on the touch- From one region of the user interface to another region of the user interface, in which the focus selector moves in accordance with the movement of focus between different regions of the user interface. Regardless of the specific form taken by the focus selector, the focus selector typically communicates the user's intended interaction with the user interface (e.g., by indicating to the device the element of the user interface the user wants to interact with) (Or touches on the touch-screen display) controlled by the user to do so. For example, the position of the focus selector (e.g., cursor, touch or select box) on each button while the push input is detected on the touch-sensitive surface (e.g., touch pad or touch screen) Indicates that the user intends to activate each button (as opposed to other user interface elements shown on the display).

도 4c는 연관된 지문 LP("왼손 새끼손가락" 지문), LR("왼손 약지" 지문), LM("왼손 중지" 지문), LI("왼손 검지" 지문), LT("왼손 엄지" 지문), RT("오른손 엄지" 지문), RI("오른손 검지" 지문), RM("오른손 중지" 지문), RR("오른손 약지" 지문), RP("오른손 새끼손가락" 지문)을 갖는 양 손의 개략도를 도시한다. 이들 약어는 지문 센서와의 상호작용의 예들을 도시하는 다른 도면들에 관하여 사용될 것이다. 본 명세서에 기술된 방법들 중 일부에 있어서, 지문이 확인될 수 있게 할 지문에 대한 정보를 수집함으로써 사용자의 하나 이상의 지문들이 등록된다. 이러한 등록된 지문들 또는 사전-등록된 지문들은 때때로 등록 지문(enrolled fingerprint)들로 또한 지칭된다. 아래에서 기술되는 많은 상황들에서, 지문 센서 상에서 검출된 지문들은 사전에 등록된 지문들(예를 들어, 등록 지문들)에 대해 비교된다.FIG. 4C is a block diagram of a fingerprint reader according to an embodiment of the present invention. Referring to FIG. 4C, there is shown an associated fingerprint LP ("left little finger" fingerprint), LR ("left finger fingerprint" fingerprint), LM ("left hand fingerprint" fingerprint) , A hand with an RT ("right hand thumb" fingerprint), RI ("right hand fingerprint" fingerprint), RM ("right hand stop fingerprint"), RR ("right hand fingerprint" fingerprint) Fig. These abbreviations will be used with respect to the other figures illustrating examples of interaction with a fingerprint sensor. In some of the methods described herein, one or more fingerprints of the user are registered by collecting information about the fingerprint that will enable the fingerprint to be verified. These registered fingerprints or pre-registered fingerprints are sometimes also referred to as enrolled fingerprints. In many of the situations described below, fingerprints detected on the fingerprint sensor are compared against previously registered fingerprints (e.g., enrollment fingerprints).

도 4d는 지문 센서(예를 들어, 버튼(204)에 통합형 지문 센서(169)) 상의 지문의 두 가지 상이한 유형의 회전을 도시한다. 도 4d의 좌측에는, 지문의 중심이 지문 센서의 중심의 주위에서 루핑 움직임(looping motion)(예를 들어, 원형-유형 움직임)으로 움직이는, 지문 센서의 주위에서의 지문 "회전(revolving)"의 예가 있다. 도 4d의 우측에는, 지문의 주축이 지문 센서에 대한 배향을 변경하는 지문 센서 상에서의 지문 "비틀기(twisting)"의 예가 있다. 이들 용어(예를 들어, "회전" 및 "비틀기")는 지문 센서와의 상호작용들의 예들을 도시하는 다른 도면들과 관련하여 지문 센서 상에서의 지문의 상이한 유형들의 회전을 기술하기 위해 사용될 것이다.4D shows two different types of rotation of the fingerprint on the fingerprint sensor (e.g., integrated fingerprint sensor 169 on button 204). On the left side of Fig. 4 (d), the fingerprint " revolving "around the fingerprint sensor moves the center of the fingerprint around the center of the fingerprint sensor in a looping motion (e.g., There is an example. On the right side of FIG. 4 (d) is an example of a fingerprint "twisting" on a fingerprint sensor in which the main axis of the fingerprint changes the orientation with respect to the fingerprint sensor. These terms (e. G., "Rotate" and "twist") will be used to describe rotation of different types of fingerprints on a fingerprint sensor in connection with other figures illustrating examples of interactions with the fingerprint sensor.

도 4d에 도시된 바와 같이, 일부 실시예들에서 지문 센서는 평균 지문보다 작거나 또는 대략 동일한 크기이다. 따라서, 일부 실시예들에서 지문 센서는 지문의 에지들의 이동을 검출하는 대신 또는 그에 더하여 지문의 지문 특징들의 이동을 검출함으로써 지문의 이동(예를 들어, 지문 제스처)을 검출한다. 다시 말하면, 일부 구현예들에서, 지문 센서는 지문(예를 들어, "접촉")의 윤곽의 이동을 결정함으로써가 아니라, 지문 센서 위의 지문의 능선들(또는 능선들에서의 구체적인 특징점들)의 이동을 검출함으로써 지문의 이동을 검출한다. 지문 센서가 지문보다 크거나 작은 것과 무관하게, 지문의 에지 또는 윤곽의 이동에 기초하여 지문의 이동을 검출하는 것 대신, 또는 그에 더하여 지문 특징들의 이동에 기초하여 지문의 이동(예를 들어, 지문 제스처들)을 검출하는 것은 지문의 이동이 훨씬 더 상세하게 추적될 수 있게 하며, 지문이 지문 센서의 전체 또는 많은 부분을 덮고 있을 때에도 지문 이동을 추적할 수 있는 능력을 제공한다.As shown in FIG. 4D, in some embodiments, the fingerprint sensor is smaller or approximately the same size as the average fingerprint. Thus, in some embodiments, the fingerprint sensor detects movement (e.g., a fingerprint gesture) of the fingerprint by detecting movement of the fingerprint features of the fingerprint instead of or in addition to detecting movement of the edges of the fingerprint. In other words, in some implementations, the fingerprint sensor does not determine the movement of the outline of the fingerprint (e.g., "contact"), but rather the fingerprint ridgelines (or specific feature points on the ridges) The movement of the fingerprint is detected. Instead of detecting movement of the fingerprint based on movement of the edge or contour of the fingerprint, regardless of whether the fingerprint sensor is larger or smaller than the fingerprint, movement of the fingerprint based on movement of the fingerprint features (e.g., Gestures) allows the movement of the fingerprint to be tracked in greater detail and provides the ability to track fingerprint movement even when the fingerprint covers all or a large portion of the fingerprint sensor.

사용자 인터페이스 및 연관된 프로세스들User interface and associated processes

사용자 인터페이스들과의 상호작용Interaction with user interfaces

많은 전자 디바이스들은 사용자로 하여금 각자의 사용자 인터페이스들과 연관된 다양한 기능들 및 동작들을 수행할 수 있게 하는 그래픽 사용자 인터페이스들을 구비한다(예를 들어, 홈 스크린 또는 기동될 애플리케이션들을 선택하기 위한 사용자-선택가능한 아이콘들을 갖는 애플리케이션 기동 인터페이스들; 내비게이션 동작들을 수행하기 위한 지도, 계산을 수행하기 위한 계산기, 디지털 사진을 보기 위한 사진 뷰어, 검색 애플리케이션, 카메라 애플리케이션 등과 같은 애플리케이션들과 연관된 애플리케이션 인터페이스들; 다양한 시스템 레벨 기능들과 연관된 시스템 사용자 인터페이스들). 그러한 인터페이스들과 상호작용하는 동안, 사용자는 종종 주어진 사용자 인터페이스를 통해 내비게이션하길 원하거나; 하나의 사용자 인터페이스로부터 다른 사용자 인터페이스로 전환하길 원하거나(예를 들어, 계산기 애플리케이션 인터페이스로부터 사진 뷰잉 애플리케이션 인터페이스로; 또는 홈 스크린 인터페이스로부터 카메라 애플리케이션 인터페이스로; 등); 또는 애플리케이션 사용자 인터페이스로부터 시스템 사용자 인터페이스로(예를 들어, 멀티태스킹 사용자 인터페이스로) 전환하길 원한다. 사용자 인터페이스를 통해 내비게이션하는 일부 접근법들은 (터치 스크린 디스플레이와 같은) 터치-감응 표면의 실질적인 부분을 가로질러 길게 지속되는 스와이핑 제스처를 만드는 것을 포함한다. 애플리케이션 사용자 인터페이스들 사이에서 전환(예를 들어, 애플리케이션들 사이에서 전환)하기 위한 일부 접근법들은, 홈 스크린으로 복귀하고, 그 다음 원하는 애플리케이션에 대응하는 아이콘을 보기 위해 홈 스크린의 페이지들을 통해 토글링하고, 그 다음 원하는 애플리케이션을 기동하기 위해 원하는 애플리케이션에 대응하는 아이콘을 선택하는 것을 포함한다. 유사하게, 멀티태스킹 사용자 인터페이스로 전환하는 일부 접근법들은 시스템 사용자 인터페이스를 표시하기 위해 홈 또는 메뉴 버튼과의 복수의 동시 접촉들을 만드는 것을 포함한다. 이들 접근법은 길고 복잡하며, 사용자에게 터치-감응 표면과 하나 이상의 손가락 접촉의 지속적인 이동 또는 디바이스와의 복수의 순차적인 접촉들을 만들 것을 요구하며, 이는 긴 시간이 걸릴 수 있거나 사용자가 기억하기에 어려울 수 있다.Many electronic devices have graphical user interfaces that allow a user to perform various functions and operations associated with their respective user interfaces (e.g., a home screen or a user-selectable application for selecting applications to be launched Application interfaces associated with applications such as a map for performing navigation operations, a calculator for performing calculations, a photo viewer for viewing digital photos, a search application, a camera application, etc., The system user interfaces associated with the system. During interaction with such interfaces, the user often desires to navigate through a given user interface; (E. G., From a calculator application interface to a photo viewing application interface; or from a home screen interface to a camera application interface); Or from an application user interface to a system user interface (e.g., a multitasking user interface). Some approaches to navigating through the user interface include making long lasting sweep gestures across a substantial portion of the touch-sensitive surface (such as a touch screen display). Some approaches for switching between application user interfaces (e.g., switching between applications) return to the home screen and then toggle through the pages of the home screen to view icons corresponding to the desired application , And then selecting an icon corresponding to the desired application to launch the desired application. Similarly, some approaches to switching to a multitasking user interface include making a plurality of simultaneous contacts with a home or menu button to display a system user interface. These approaches are long and complex and require the user to make continuous movement of one or more finger contacts with the touch-sensitive surface or a plurality of sequential contacts with the device, which can take a long time or be difficult for the user to remember have.

개시된 실시예들은 2개의 방향들 중 하나의 방향으로 (예를 들어, 디바이스 상에 위치된 지문 센서 상에서 검출된) 지문의 단일의 짧은 이동을 이용하여 사용자 인터페이스들과의 편리하고 효율적인 상호작용 방법을 제공한다(예를 들어, 현재 사용자 인터페이스를 통해 내비게이션하거나 상이한 사용자 인터페이스를 표시함). (애플리케이션 사용자 인터페이스와 같은) 제1 사용자 인터페이스를 표시하는 동안, 제1 방향으로(예를 들어, 수평으로 우측에서 좌측으로 또는 좌측에서 우측으로) 지문 센서 상의 지문의 이동을 검출하는 것에 응답하여 디바이스는 제1 사용자 인터페이스를 통해 내비게이션하고(예를 들어, 제1 사용자 인터페이스 내의 콘텐트의 적어도 일부분을 병진이동시키거나 스크롤함), 제2 방향(예를 들어, 수직 방향, 상향 방향)으로 지문 센서 상의 지문 이동을 검출하는 것에 응답하여 디바이스는 제2 사용자 인터페이스(예를 들어, 멀티태스킹 사용자 인터페이스 또는 가장 최근에 사용된 애플리케이션에 대응하는 사용자 인터페이스)를 표시한다. 그 결과, 사용자는 단순히 지문 센서 상의 2개의 방향들 중 한 방향으로의 지문의 이동을 포함하는 제스처를 수행함으로써 2개의 상이한 방식들로 - 예를 들어, 제1 (또는 현재의) 사용자 인터페이스를 통해 내비게이션하거나 제2 사용자 인터페이스를 표시함 - 하나 이상의 사용자 인터페이스와 상호작용하는 향상된 편리성을 갖는다.The disclosed embodiments provide a convenient and efficient method of interaction with user interfaces using a single short movement of the fingerprint in one of two directions (e.g., detected on a fingerprint sensor located on the device) (E.g., navigating through the current user interface or displaying a different user interface). In response to detecting movement of a fingerprint on the fingerprint sensor in a first direction (e.g., horizontally right to left, or left to right) while displaying a first user interface (such as an application user interface) (E.g., translating or scrolling at least a portion of the content within the first user interface) through a first user interface and displaying the fingerprint image in a second direction (e.g., vertical direction, upward direction) In response to detecting fingerprint movement, the device displays a second user interface (e.g., a multitasking user interface or a user interface corresponding to the most recently used application). As a result, the user can perform a gesture involving movement of the fingerprint in one of two directions on the fingerprint sensor in two different ways - for example, through a first (or current) user interface Navigation or displaying a second user interface - has enhanced convenience of interacting with one or more user interfaces.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 5a 내지 도 5n 및 도 6a 내지 도 6c와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위하여, 도 5a 내지 도 5n 및 도 6a 내지 도 6c와 관련하여 기술되는 실시예들은 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 논의될 것이지만, 유사한 동작들이 선택적으로 도 5a 내지 도 5n에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안 통합형 지문 센서(359-1) 상에 도 5a 내지 도 5n에 묘사된 입력들을 검출하는 것에 응답하여 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 도 5a 내지 도 5n에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에 도 5a 내지 도 5n에 묘사된 접촉들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며, 그러한 실시예들에서, 포커스 셀렉터는 커서(5n) 대신에, 선택적으로 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각각의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The devices described below with reference to Figures 5A-5N and 6A-6C include one or more fingerprint sensors 169. [ In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described with reference to Figures 5A-5N and 6A-6C include a display 450, a separate touch-sensitive surface 451 and a separate fingerprint sensor 359-2 5a-5n on the integrated fingerprint sensor 359-1 while displaying the user interfaces shown in Figs. 5a-5n on the display 450, similar operations as will be discussed with respect to Figs. 5a-5n. Is performed on the device having the integrated fingerprint sensor 359-1 in response to detecting the fingerprint sensor 359-1. In addition, similar operations may also be performed while the user interfaces shown in Figures 5A-5N are displayed on the touch screen 112 while the fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1 or a separate fingerprint sensor Is performed on a device having a touch screen 112 in response to detecting the contacts depicted in Figures 5A-5N on the touch screen (e.g., sensor 359-2) (E. G., A point associated with the center of each contact or a respective contact) corresponding to a respective contact, contact, or the center of two or more contacts detected on the touch screen 112. [

도 5a는 휴대용 다기능 디바이스(100)의 디스플레이(502) 상에 표시된 콘텐트(예를 들어, 지도 및 내비게이션 명령)를 갖는 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스와 같은 애플리케이션 사용자 인터페이스)를 도시한다. 일부 실시예들에서, 디스플레이(502)는 터치에 응답하는 터치 센서들의 어레이를 갖는 터치-감응 디스플레이이다. 도 5a에 도시된 바와 같이, 디바이스(100)는 지문 센서(169)를 포함한다. 일부 실시예들에서, 지문 센서(169)는 디스플레이(502)와는 별개이다. 또한, 도 5a에 도시된 바와 같이, 일부 실시예들에서, 지문 센서(169)는 물리적 버튼(예를 들어, 홈 버튼 또는 메뉴 버튼(204))에 통합된다. 일부 실시예들에서, 디바이스는 터치-감응 표면(예를 들어, 터치 감응 디스플레이(502)와 같은 터치 감응 디스플레이의 형태인 디스플레이와 함께 위치된 터치-감응 표면; 및/또는 디바이스 상의 디스플레이와는 별개인 터치 감응 표면)을 포함하며, 지문 센서는 터치-감응 표면과는 별개이다. 이러한 실시예들에서, 지문 센서가 (예를 들어, 지문의 형태인) 손가락 접촉의 위치, 접근도 및/또는 터치에 응답하고 선택적으로 (지문의 이동의 형태인) 손가락 접촉의 이동에 응답하는 반면, (예를 들어, 손가락의 공간 위치 및/또는 이동을 검출하기 위한) 지문 센서의 공간 해상도는 종래의 터치-감응 표면의 해상도보다 더 크고(예를 들어, 더 민감하고); 따라서 지문 센서가 종래의 터치-감응 표면들보다 손가락의 작은 크기의 공간 움직임에 대해 더욱 민감하게 한다.5A shows a first user interface (e.g., an application user interface, such as a map application user interface) having content (e.g., a map and navigation commands) displayed on the display 502 of the portable multifunction device 100 Respectively. In some embodiments, the display 502 is a touch-sensitive display having an array of touch sensors responsive to a touch. As shown in FIG. 5A, the device 100 includes a fingerprint sensor 169. In some embodiments, the fingerprint sensor 169 is separate from the display 502. 5A, in some embodiments, the fingerprint sensor 169 is incorporated into a physical button (e.g., a home button or a menu button 204). In some embodiments, the device includes a touch-sensitive surface (e.g., a touch-sensitive surface located with a display in the form of a touch sensitive display, such as the touch sensitive display 502) and / Personal touch sensitive surface), and the fingerprint sensor is distinct from the touch-sensitive surface. In these embodiments, the fingerprint sensor is responsive to the position of the finger contact (e.g. in the form of a fingerprint), the degree of approach and / or the movement of the finger contact (optionally in the form of movement of the fingerprint) On the other hand, the spatial resolution of the fingerprint sensor (e.g., to detect spatial position and / or movement of the finger) is larger (e.g., more sensitive) than the resolution of a conventional touch-sensitive surface; This makes the fingerprint sensor more sensitive to small spatial movements of the finger than conventional touch-sensitive surfaces.

도 5b 및 도 5c는 제1 사용자 인터페이스를 표시하는 동안 제1 방향으로(예를 들어, 횡방향 또는 수평 방향으로 또는 다목적 디바이스의 단축을 따라; 우측으로부터 좌측으로) 지문 센서(169) 상에서의 지문의 이동을 검출하는 것; 및 그 응답으로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 도시한다. 일부 실시예들에서, 도 5b에 도시된 바와 같이, 제1 사용자 인터페이스(예를 들어, 지도 사용자 인터페이스)가 디스플레이(502) 상에 표시되지만, 지문의 이동(예를 들어, 지문(510) 및 연관된 이동(512))이 지문 센서(169) 상에서 검출된다. 지문 센서(169) 상에서 (예를 들어, 도 5b에 도시된 지문(510)의 위치로부터 도 5c에 도시된 지문(510)의 위치로의) 지문(510)의 이동(512)을 검출하는 것에 응답하여, 디바이스는 제1 사용자 인터페이스를 통해 내비게이션한다. 예를 들어, 디바이스는 도 5b에서 이전에 표시되지 않았던, 도 5c에 도시된 바와 같은 제1 사용자 인터페이스의 추가적인 부분들을 표시하도록 지문(510)의 이동의 방향으로(예를 들어, 우측으로부터 좌측으로) 제1 사용자 인터페이스의 적어도 일부분을 병진이동시킨다. 따라서, 일부 실시예들에서, (예를 들어 제1 애플리케이션 또는 애플리케이션 기동 사용자 인터페이스에 대응하는) 제1 사용자 인터페이스를 표시하는 동안, 지문 센서 상에서 제1 방향으로(예를 들어, 횡방향 또는 수평 방향으로 또는 다목적 디바이스의 단축을 따라, 우측으로부터 좌측으로) 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제1 사용자 인터페이스를 통해 내비게이션한다(예를 들어, 제1 사용자 인터페이스 상에 표시된 콘텐트의 적어도 일부분을 병진이동시킴).Figures 5b and 5c illustrate a fingerprint sensor 169 on a fingerprint sensor 169 in a first direction (e.g., in a lateral or horizontal direction, or along a minor axis of a multipurpose device, from right to left) Detecting the movement of the object; And navigating through the first user interface in response thereto. 5B, a first user interface (e.g., a map user interface) is displayed on the display 502, but the movement of the fingerprint (e.g., fingerprint 510 and / Associated movement 512) is detected on the fingerprint sensor 169. [ Detecting movement 512 of the fingerprint 510 on the fingerprint sensor 169 (e.g., from the location of the fingerprint 510 shown in Figure 5B to the location of the fingerprint 510 shown in Figure 5C) In response, the device navigates through the first user interface. For example, the device may be moved in the direction of movement of fingerprint 510 (e.g., from right to left to display additional portions of the first user interface as shown in FIG. 5C, ) Translate at least a portion of the first user interface. Thus, in some embodiments, while displaying a first user interface (e.g., corresponding to a first application or an application launch user interface), the user interface may be displayed in a first direction (e.g., (E.g., along the short axis of the multipurpose device, from right to left), the device navigates through the first user interface (e.g., at least a portion of the content displayed on the first user interface .

도 5d 및 도 5e는 제1 사용자 인터페이스를 표시하는 동안, 제2 방향으로(예를 들어, 수직 방향으로 또는 다목적 디바이스의 장축을 따라; 상향 방향으로) 지문 센서(169) 상에서의 지문의 이동을 검출하는 것; 및 그 응답으로, 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하는 것을 도시한다. 도 5d에 도시된 바와 같이, 일부 실시예들에서 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션)를 표시하는 동안, 지문(예를 들어, 이동(516)과 연관된 지문(514))의 이동이 디바이스(100)의 지문 센서(169) 상에서 검출되고, 대응하는 이동(516)은 제2 방향으로의(예를 들어, 수직 방향으로의 또는 다목적 디바이스의 장축을 따른; 도 5d에 도시된 디바이스(100)의 배향과 관련하여 상향 방향으로의) 이동이다. 지문(514)의 이동(516)이 제2 방향으로의(예를 들어, 수직 상향 방향으로의; 도 5d에 도시된 지문(514)의 위치로부터 도 5e에 도시된 지문(514)의 위치로의) 이동이라는 결정에 따라, 도 5e에 도시된 바와 같이 제2 사용자 인터페이스(예를 들어, 노트 애플리케이션, 카메라 애플리케이션, 사진 뷰어 애플리케이션 및 음성 메모 녹음 애플리케이션과 같이 가장 최근 사용된 애플리케이션들의 세트에 대응하는 사용자 선택가능한 아이콘들을 포함하는 멀티태스킹 사용자 인터페이스(517); 여기서 멀티태스킹 사용자 인터페이스(517) 내의 아이콘들 중 하나의 선택은 디바이스로 하여금 때때로 우위처리(foreground) 애플리케이션으로 또한 지칭되는 현재 활성화된 애플리케이션으로서 선택된 아이콘에 대응하는 애플리케이션을 구동하게 할 것임)가 표시된다. 예를 들어, "노트" 아이콘의 선택은 디바이스로 하여금 현재 활성화된 애플리케이션으로서 노트 애플리케이션을 구동하게 할 것이며, "카메라" 아이콘의 선택은 디바이스로 하여금 현재 활성화된 애플리케이션으로서 카메라 애플리케이션을 구동하게 할 것이다.5D and 5E illustrate the movement of the fingerprint on the fingerprint sensor 169 in a second direction (e.g., in the vertical direction or along the major axis of the multipurpose device; upward direction) while displaying the first user interface Detecting; And, in response thereto, displaying a second user interface different from the first user interface. While displaying a first user interface (e.g., a map application) in some embodiments, movement of a fingerprint (e.g., fingerprint 514 associated with movement 516), as shown in Figure 5D, Is detected on the fingerprint sensor 169 of the device 100 and the corresponding movement 516 is detected on the fingerprint sensor 169 of the device 100 as shown in Figure 5D (e.g., along the long axis of the versatile device, 0.0 &gt; 100) &lt; / RTI &gt; The movement 516 of the fingerprint 514 is shifted from the position of the fingerprint 514 shown in Figure 5D to the position of the fingerprint 514 shown in Figure 5e in a second direction (e.g., ) Corresponding to the most recently used set of applications, such as a second user interface (e.g., a note application, a camera application, a photo viewer application, and a voice memo recording application, as shown in FIG. 5E) The selection of one of the icons in the multitasking user interface 517 allows the device to select a currently active application, sometimes also referred to as a foreground application The application corresponding to the selected icon will be driven). For example, the selection of the "note" icon will cause the device to run the note application as the currently active application, and the selection of the "camera" icon will cause the device to run the camera application as the currently active application.

따라서, 일부 실시예들에서 애플리케이션 사용자 인터페이스(예를 들어, 도 5d 및 도 5e에 도시된 지도 애플리케이션 사용자 인터페이스)는 제2 사용자 인터페이스에 의해 적어도 부분적으로 대체된다(예를 들어, 지도 애플리케이션은 부분적으로 상향 방향으로 변위되고/되거나 도 5e에 도시된 멀티태스킹 사용자 인터페이스(517)에 의해 적어도 부분적으로 숨겨짐). 일부 실시예들에서, 제2 사용자 인터페이스(예를 들어, 도 5e의 멀티태스킹 사용자 인터페이스(517))를 표시할 때, 애플리케이션 사용자 인터페이스 내의 하나 이상의 상호작용 요소가 사용자-상호작용으로부터 디스에이블된다(예를 들어, 멀티태스킹 사용자 인터페이스(517)가 표시되는 동안, 지도 애플리케이션이 사용자-상호작용으로부터 디스에이블되고, 사용자는 지도 애플리케이션을 스크롤할 수 없거나, 지도 애플리케이션을 통해 내비게이션할 수 없거나, 그 외의 상호작용을 할 수 없을 것임). 따라서, 일부 실시예들에서 (예를 들어, 제1 애플리케이션에 대응하는) 제1 사용자 인터페이스를 표시하는 동안, 제2 방향으로의(예를 들어, 수직 방향으로의 또는 다목적 디바이스의 장축을 따른; 상향 방향으로의) 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제2 시스템 사용자 인터페이스(예를 들어, 멀티태스킹 사용자 인터페이스)를 표시한다.Thus, in some embodiments, an application user interface (e.g., the map application user interface shown in Figures 5D and 5E) is at least partially replaced by a second user interface (e.g., Shifted in the upward direction and / or at least partially hidden by the multitasking user interface 517 shown in FIG. 5e). In some embodiments, when displaying a second user interface (e.g., multitasking user interface 517 of FIG. 5E), one or more interaction elements in the application user interface are disabled from user-interaction For example, while the multitasking user interface 517 is being displayed, the map application may be disabled from user-interaction, the user may not be able to scroll the map application, navigate through the map application, It will not work). Thus, while displaying a first user interface (e.g., corresponding to a first application) in some embodiments, it may be desirable to provide a user interface in a second direction (e.g., along the long axis of the versatile device or in a vertical direction; In response to detecting the movement of the fingerprint (in the upward direction), the device displays a second system user interface (e.g., a multitasking user interface).

도 5f 및 도 5g는 제2 사용자 인터페이스를 표시하는 동안, 제1 방향으로(예를 들어, 횡방향 또는 수평 방향으로 또는 다목적 디바이스의 단축을 따라; 우측으로부터 좌측으로) 지문 센서(169) 상의 지문의 이동을 검출하는 것; 및 그 응답으로 제2 사용자 인터페이스를 통해 내비게이션하는 것을 도시한다. 일부 실시예들에서, 제2 사용자 인터페이스(예를 들어, 도 5f의 멀티태스킹 사용자 인터페이스(517))를 표시하는 동안, 지문의 이동(예를 들어, 지문(518) 및 연관된 이동(520))이 디바이스(100)의 지문 센서(169) 상에서 검출되며, 대응하는 이동은 제1 방향으로의(예를 들어, 횡방향 또는 수평 방향으로의 또는 다목적 디바이스의 단축을 따른; 도 5f에 도시된 디바이스(100)의 배향과 관련하여 우측으로부터 좌측으로의) 이동이다. 지문(518)의 이동(520)을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스(예를 들어, 도 5f 및 도 5g의 멀티태스킹 사용자 인터페이스(517))를 통해 내비게이션한다. 예를 들어, 디바이스는 지문(518)의 이동(520)의 방향으로 제2 사용자 인터페이스의 적어도 일부분을 병진이동시켜, 제2 사용자 인터페이스의 추가적인 부분들(예를 들어, 앞서 도 5f에는 표시되지 않고 도 5g에 도시된 메시지 애플리케이션, 캘린더 애플리케이션 및 시계 애플리케이션에 대한 추가적인 아이콘들 및 앞서 도 5f에서는 표시되었지만 도 5g에서는 표시하는 것이 중단될 노트 애플리케이션, 카메라 애플리케이션, 사진 애플리케이션 및 음성 메모 녹음 애플리케이션에 대한 아이콘들)을 표시한다. 일부 실시예들에서, 지문 센서 상에서 좌측으로부터 우측으로의 지문의 이동을 검출하는 것에 응답하여, 앞서 도 5f에 표시된 노트 애플리케이션, 카메라 애플리케이션, 사진 애플리케이션 및 음성 메모 녹음 애플리케이션에 대한 아이콘들이 재표시될 수 있도록 제2 사용자 인터페이스를 통한 내비게이션이 반전될 것이다.Figures 5F and 5G illustrate a fingerprint sensor 169 on a fingerprint sensor 169 in a first direction (e.g., in a lateral or horizontal direction, or along a minor axis of a multipurpose device, from right to left) Detecting the movement of the object; And navigating through the second user interface in response thereto. (E.g., fingerprint 518 and associated movement 520), while displaying a second user interface (e.g., multitasking user interface 517 of FIG. 5F) Is detected on the fingerprint sensor 169 of the device 100 and the corresponding movement is detected in the first direction (e.g., along the short axis of the versatile device or in the lateral or horizontal direction; (From right to left with respect to the orientation of the substrate 100). In response to detecting movement 520 of the fingerprint 518, the device navigates through a second user interface (e.g., the multitasking user interface 517 of FIGS. 5F and 5G). For example, the device may translate at least a portion of the second user interface in the direction of movement 520 of the fingerprint 518, thereby causing additional portions of the second user interface (e.g., Additional icons for the message application, calendar application, and clock application shown in FIG. 5g and icons for the note application, camera application, photo application, and voice memo recording application that were previously shown in FIG. 5f, ). In some embodiments, in response to detecting fingerprint movement from left to right on the fingerprint sensor, icons for the note application, camera application, photo application, and voice memo recording application shown previously in FIG. 5f may be redisplayed The navigation through the second user interface will be inverted.

또한, 도 5h 및 도 5i는 제2 사용자 인터페이스를 표시하는 동안에, 제3 방향으로(예를 들어, 수직 방향으로 또는 다목적 디바이스의 장축을 따라; 하향 방향으로; 실질적으로 제2 방향에 반대로) 지문 센서(169) 상에서 지문의 이동을 검출하는 것; 및 그에 응답하여 제2 사용자 인터페이스를 표시하는 것을 중단하는 것을 도시한다. 일부 실시예들에서, 도 5h 및 도 5i에 도시된 바와 같이, 제2 사용자 인터페이스를 표시하는 동안 지문의 이동(예를 들어, 지문(522) 및 연관된 이동(524))이 디바이스(100)의 지문 센서(169) 상에서 검출되며, 이동(524)은 제3 방향으로(예를 들어, 도 5h에 도시된 디바이스(100)의 배향에 관하여 다목적 디바이스의 장축을 따라 하향 수직 방향으로; 도 5d 및 도 5e에 관하여 기술된 제2 방향에 대해 실질적으로 반대되는 방향으로) 있다. 제3 방향으로의 지문(522)의 이동(524)을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스(예를 들어, 앞서 도 5h에서 도시된 멀티태스킹 사용자 인터페이스(517))를 표시하는 것을 중단하고 도 5i에 도시된 바와 같이 제1 사용자 인터페이스 또는 지도 애플리케이션 인터페이스을 (예를 들어, 전체적으로) 재표시한다.Figures 5h and 5i also illustrate how a fingerprint may be displayed in a third direction (e.g., in a vertical direction or along a major axis of a multipurpose device, in a downward direction, as opposed to a substantially second direction) Detecting movement of the fingerprint on the sensor 169; And in response, stopping displaying the second user interface. In some embodiments, movement of the fingerprint (e.g., fingerprint 522 and associated movement 524) during display of the second user interface, as shown in Figures 5h and 5i, Is detected on the fingerprint sensor 169 and movement 524 is detected in a third direction (e.g., in a downward vertical direction along the major axis of the multipurpose device with respect to the orientation of the device 100 shown in Figure 5h; In a direction substantially opposite to the second direction described with respect to Figure 5E). In response to detecting the movement 524 of the fingerprint 522 in the third direction, the device may display a second user interface (e.g., the multitasking user interface 517 shown previously in FIG. 5h) And re-displays (e.g., globally) the first user interface or map application interface as shown in Figure 5i.

도 5j 및 도 5k는, 제1 사용자 인터페이스를 표시하는 동안에 (예를 들어, 지문 센서(169)가 선택적으로 통합되어 있는) 물리적 홈 버튼 또는 메뉴 버튼(204)의 이중 활성화를 검출하는 것; 및 그에 응답하여 제2 사용자 인터페이스를 표시하는 것을 도시한다. 일부 실시예들에서, 도 5j 및 도 5k에 도시된 바와 같이, (예를 들어, 500ms, 300ms, 150ms, 50ms, 또는 일부 다른 합리적인 시간 간격보다 작은 시간 간격을 갖는 두 번의 연속적인 탭들 사이의 미리 정해진 시간 경과 간격보다 작은 빠른 연속성을 발생시키는 두 번의 연속적인 탭들 또는 누름 입력들을 통해; 두 번의 연속적인 탭들 사이에 손가락 들어올림이 있거나 없을 수 있음) 물리적 홈 버튼 또는 메뉴 버튼(204)의 이중 활성화(530)를 검출할 때, 도 5k에 도시된 바와 같이 제2 인터페이스(예를 들어, 노트패드 애플리케이션, 카메라 애플리케이션, 사진 뷰어 애플리케이션 및 음성 메모 녹음 애플리케이션과 같은 최근 사용되거나 활성 애플리케이션들에 대응하는 사용자-선택가능한 아이콘들을 갖는, 앞서 도 5e에 도시되었던 멀티태스킹 사용자 인터페이스)가 디스플레이(502)에 표시되고, 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)는 적어도 부분적으로 디스플레이(502)로부터 숨겨지거나 디스플레이(502)를 벗어나게 되고 선택적으로 사용자-상호작용으로부터 비활성화된다.Figures 5J and 5K illustrate how to detect a dual activation of a physical home button or menu button 204 while displaying a first user interface (e.g., fingerprint sensor 169 is optionally integrated); And displaying the second user interface in response thereto. In some embodiments, as shown in Figs. 5J and 5K, a pre-determined time interval between two consecutive taps (e.g., 500 ms, 300 ms, 150 ms, 50 ms, or some other reasonable time interval, (E.g., two consecutive taps or push inputs that result in a fast continuity that is less than a predetermined time lapse interval; there may or may not be a finger lift between two consecutive taps). Dual activation of the physical home button or menu button 204 (E.g., a user corresponding to recently used or active applications, such as a note pad application, a camera application, a photo viewer application, and a voice memo recording application, as shown in Figure 5k) - the multitasking user interface shown in FIG. 5e, with selectable icons) The first user interface is displayed on the display unit 502, (e.g., a map application, the user interface), at least in part off the hide or display 502 from display 502 to be selectively user-it is disabled from interacting.

도 5k 및 도 5l은 제2 사용자 인터페이스를 표시하는 동안에 (예를 들어, 지문 센서(169)에 통합된) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화를 검출하는 것; 및 그에 응답하여 제2 사용자 인터페이스를 표시하는 것을 중단하는 것(예를 들어, 제1 사용자 인터페이스를 재표시 및 재활성화)을 도시한다. 일부 실시예들에서, 도 5k 및 도 5l에 도시된 바와 같이, (예를 들어, 물리적 버튼(204) 상의 탭 입력 또는 누름 입력을 통한) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(532)를 검출함에 따라, 제2 사용자 인터페이스(예를 들어, 노트패드 애플리케이션, 카메라 애플리케이션, 사진 뷰어 애플리케이션 및 음성 메모 녹음 애플리케이션과 같은 최근 사용되었거나 활성 애플리케이션들에 대응하는 사용자-선택가능한 아이콘들을 갖는 도 5k에 도시된 멀티태스킹 사용자 인터페이스)는 도 5l에 도시된 바와 같이 더 이상 디스플레이(502) 상에 표시되지 않는다. 일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)는 (예를 들어, 전체적으로) 재표시되고, (예를 들어, 이전의 비활성화된 상태로부터) 사용자 입력을 위해 재활성화된다.Figures 5K and 5L illustrate the detection of activation of a physical home button or menu button 204 (e.g., incorporated in the fingerprint sensor 169) while displaying a second user interface; And, in response, stopping displaying the second user interface (e.g., redisplaying and reactivating the first user interface). In some embodiments, activation (532) of a physical home button or menu button 204 (e.g., via a tap input or a push input on the physical button 204), as shown in Figures 5k and 5l, 5k with user-selectable icons corresponding to recently used or active applications, such as a second user interface (e.g., a note pad application, a camera application, a photo viewer application and a voice memo recording application) The illustrated multi-tasking user interface) is no longer displayed on the display 502 as shown in FIG. In some embodiments, a first user interface (e.g., a map application user interface) is redisplayed (e.g., globally) and re-activated (e.g., from a previous disabled state) do.

도 5m 및 도 5n은 제1 사용자 인터페이스를 표시하는 동안에 (예를 들어, 지문 센서(169)로 통합된) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화를 검출하는 것; 및 그에 응답하여 제1 사용자 인터페이스를 미리 정해진 사용자 인터페이스(예를 들어, 물리적 홈 버튼 또는 메뉴 버튼(204)과 연관된 홈 스크린 또는 애플리케이션 기동 인터페이스)로 대체하는 것을 도시한다(예를 들어, 제1 사용자 인터페이스를 표시하는 것을 중단함). 일부 실시예들에서, 도 5m 및 도 5n에 도시된 바와 같이, (예를 들어, 물리적 버튼(204) 상의 탭 입력 또는 누름 입력을 통한) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(534)를 검출함에 따라, 제1 사용자 인터페이스(예를 들어, 도 5m에 도시된 멀티태스킹 사용자 인터페이스)는 도 5n에 도시된 바와 같이 더 이상 디스플레이(502) 상에 표시되지 않는다. 일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)는 (예를 들어, 전체적으로) 미리 정해진 사용자 인터페이스(예를 들어, 도 5n에 도시된 바와 같은 홈 스크린 또는 애플리케이션 기동 사용자 인터페이스)로 대체된다. 일부 실시예들에서, 홈 스크린이 표시되는 동안 버튼(204)을 활성화하는 것은 디바이스가 미리 정해진 탐색 사용자 인터페이스를 표시할 수 있게 할 것이다.5M and 5N illustrate the detection of activation of a physical home button or menu button 204 (e.g., integrated into the fingerprint sensor 169) while displaying a first user interface; (E.g., a home screen or an application launch interface associated with a physical home button or menu button 204) in response to a first user interface (e.g., a first user Stop displaying the interface). In some embodiments, as shown in Figures 5M and 5N, the activation (534) of the physical home button or menu button 204 (e.g., via tapping or pushing input on the physical button 204) The first user interface (e.g., the multitasking user interface shown in Figure 5M) is no longer displayed on the display 502 as shown in Figure 5n. In some embodiments, the first user interface (e.g., a map application user interface) may include a predetermined user interface (e.g., a home screen as shown in Figure 5n or an application launch user Interface). In some embodiments, activating the button 204 while the home screen is displayed will allow the device to display a predetermined navigation user interface.

도 6a 내지 도 6c는 일부 실시예들에 따라 지문 센서 상의 손가락의 움직임에 따라 사용자 인터페이스들과 상호작용하는 방법(600)을 예시하는 흐름도이다. 방법(600)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(600) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.6A-6C are flow charts illustrating a method 600 of interacting with user interfaces in accordance with movement of a finger on a fingerprint sensor in accordance with some embodiments. The method 600 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 600 may be selectively combined and / or the order of some operations may be selectively changed.

아래에서 기술되는 바와 같이, 방법(600)은 사용자 인터페이스들과 상호작용하기 위한 직관적인 방식을 제공한다. 이 방법은 사용자 인터페이스들과 상호작용할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 사용자 인터페이스들과 더 빠르고 더 효율적으로 상호작용할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 600 provides an intuitive way to interact with user interfaces. This method reduces the cognitive burden on the user when interacting with the user interfaces, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, enabling a user to interact faster and more efficiently with user interfaces preserves power and increases the time between battery charges.

디바이스는 디스플레이 상에 제1 사용자 인터페이스(예를 들어, 도 5a에 도시된 바와 같은 지도 애플리케이션 사용자 인터페이스 또는 내비게이션 애플리케이션 사용자 인터페이스와 같은 애플리케이션 사용자 인터페이스)를 표시한다(602). 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안, 디바이스는 지문 센서 상에서의 지문의 이동(예를 들어, 도 5b에 도시된 지문(510)의 이동(512); 도 5d에 도시된 지문(514)의 이동(516))을 검출한다(604).The device displays a first user interface (e.g., a map application user interface as shown in Figure 5A or an application user interface such as a navigation application user interface) on the display (602). While displaying the first user interface on the display, the device may move the fingerprint on the fingerprint sensor (e.g., move 512 of the fingerprint 510 shown in FIG. 5B; the fingerprint 514 shown in FIG. 5D) (Step 516).

일부 실시예들에서, 지문 센서는 디스플레이와는 별개이다(예를 들어, 디스플레이와 일치하지 않음)(예를 들어, 도 5a에서 지문 센서(169)는 디스플레이(502)와는 별개임)(606). 디바이스는 터치-감응 표면을 포함하고; 지문 센서는 터치-감응 표면과는 별개이다(예를 들어, 터치-감응 표면과 일치하지 않음)(608).In some embodiments, the fingerprint sensor is separate from the display (e.g., not coincident with the display) (e.g., fingerprint sensor 169 in FIG. 5A is distinct from display 502) . The device comprising a touch-sensitive surface; The fingerprint sensor is separate from the touch-sensitive surface (e.g., not coincident with the touch-sensitive surface) (608).

지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향(예를 들어, 도 5b에서 지문(510)의 이동(512)과 관련하여 전술된 바와 같이, 지문의 이동의 주 성분은 수평으로 우측방향 또는 수평으로 좌측방향임)으로 있었다는 결정에 따라, 디바이스는 (도 5b 및 도 5c에 도시된 지도 인터페이스를 통한 내비게이션과 관련하여 전술된 바와 같이) 제1 사용자 인터페이스를 내비게이션한다(610). 일부 실시예들에서, 디바이스는 (예를 들어 지문의 우측방향 이동을 검출하는 것에 응답하여) 이전 상태, 또는 이전 페이지, 또는 이전 웹페이지, 또는 이전 사진으로 돌아가도록 내비게이션하거나, (예를 들어 지문의 좌측방향 이동을 검출하는 것에 응답하여) 다음 상태, 또는 다음 페이지, 또는 다음 웹페이지, 또는 다음 사진으로 진행한다. 일부 실시예들에서, 디바이스는 지문 센서 상에서의 지문의 이동 방향에 따라 제1 사용자 인터페이스를 수평으로 스크롤한다(예를 들어, 디바이스는 도 5b 및 도 5c에서 지문(510)의 이동과 관련하여 전술된 바와 같이, 수평으로 우측으로부터 좌측으로 이동하는 지문의 이동 방향에 따라, 지도 애플리케이션 사용자 인터페이스와 같은 제1 사용자 인터페이스 상의 콘텐트의 적어도 일부분을 병진이동시킴).In response to detecting the movement of the fingerprint on the fingerprint sensor, movement of the fingerprint may be detected in a first direction (e.g., as described above with respect to movement 512 of fingerprint 510 in Figure 5B) The main component is either horizontally rightward or horizontally leftward), the device can navigate the first user interface (as described above with respect to navigation through the map interface shown in Figs. 5B and 5C) (610). In some embodiments, the device may navigate back to the previous state, or previous page, or previous web page, or previous photo (e.g., in response to detecting a rightward movement of the fingerprint) The next state, or the next page, or the next web page, or the next photo). In some embodiments, the device horizontally scrolls the first user interface in accordance with the direction of movement of the fingerprint on the fingerprint sensor (e.g., the device is tactically associated with movement of the fingerprint 510 in Figures 5b and 5c) Translating at least a portion of the content on the first user interface, such as a map application user interface, in accordance with the direction of movement of the fingerprint moving horizontally from right to left, as described above).

지문의 이동이 제1 방향과는 상이한 제2 방향(예를 들어, 도 5d에 도시된 지문(514)의 이동(516)과 관련하여 전술된 바와 같이, 지문의 이동의 주 성분은 수직으로 하향 방향 또는 수직으로 상향 방향임)으로 있었다는 결정에 따라, 디바이스는 디스플레이 상에 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스(예를 들어, 도 5d 및 도 5e의 멀티태스킹 사용자 인터페이스(517)와 관련하여 전술된 것과 같은 인터페이스)를 표시한다. 일부 실시예들에서, 디바이스는 멀티태스킹 사용자 인터페이스(예를 들어, 도 5e의 멀티태스킹 사용자 인터페이스(517); 또는 가장 최근에 사용된 애플리케이션)를 표시한다. 일부 실시예들에서, 제2 사용자 인터페이스를 표시하는 것은 제1 사용자 인터페이스를 제2 사용자 인터페이스로 대체하는 것을 포함한다. 일부 실시예들에서, 제2 사용자 인터페이스를 표시하는 것은 제1 사용자 인터페이스의 적어도 일부분을 표시하는 것을 중단하는 것을 포함한다(예를 들어, 제2 사용자 인터페이스를 표시하기 위해서 제1 사용자 인터페이스가 적어도 부분적으로 제2 사용자 인터페이스로 덮이거나 제1 사용자 인터페이스가 적어도 부분적으로 디스플레이를 벗어남; 도 5e에 도시된 바와 같이, 지도 애플리케이션 인터페이스는 멀티태스킹 사용자 인터페이스(517)를 표시하기 위해 부분적으로 디스플레이(502)를 벗어남).As described above with respect to movement 516 of the fingerprint 514 shown in FIG. 5D), the main component of fingerprint movement is vertically downward (e.g., (E.g., in a direction that is orthogonal to the multitasking user interface 517), the device is associated with a second user interface (e.g., associated with the multitasking user interface 517 of FIGS. 5D and 5E) The interface as described above). In some embodiments, the device displays a multitasking user interface (e.g., the multitasking user interface 517 of FIG. 5e; or the most recently used application). In some embodiments, displaying the second user interface includes replacing the first user interface with a second user interface. In some embodiments, displaying the second user interface includes stopping displaying at least a portion of the first user interface (e.g., displaying the first user interface at least partially Or the first user interface at least partially exits the display; as shown in FIG. 5E, the map application interface partially overlays the display 502 to display the multitasking user interface 517 Exit).

일부 실시예들에서, 제1 방향은 제2 방향에 대해 수직이다(또는 실질적으로 수직임)(612). 예를 들어, 도 5b 및 도 5c에 도시된 지문(510)의 이동(512)과 관련하여 전술된 바와 같이, 제1 방향은 횡방향 또는 수평 방향 또는 다목적 디바이스의 단축을 따라 우측으로부터 좌측으로의 방향이며; 도 5d 및 도 5e에 도시된 지문(514)의 이동(516)과 관련하여 전술된 바와 같이, 제2 방향은 수직 방향 또는 다목적 디바이스의 장축을 따르는 상향 방향이다(예를 들어, 제1 방향에 대해 수직이거나 실질적으로 수직임).In some embodiments, the first direction is perpendicular (or substantially perpendicular) to the second direction (612). For example, as described above with respect to the movement 512 of the fingerprint 510 shown in FIGS. 5B and 5C, the first direction may be in the lateral or horizontal direction or along the minor axis of the multipurpose device from right to left Direction; As described above with respect to the movement 516 of the fingerprint 514 shown in Figures 5d and 5e, the second direction is a vertical direction or an upward direction along the long axis of the multipurpose device (e.g., Lt; / RTI &gt; or substantially perpendicular).

일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스(예를 들어, 도 5a 내지 도 5d의 지도 애플리케이션 사용자 인터페이스)이고; 제2 사용자 인터페이스는 복수의 동시에 열린 애플리케이션들의 표현들(예를 들어, 선택가능한 아이콘들)(예를 들어, 도 5e에 도시된 바와 같은 노트패드 애플리케이션에 대응하는 "노트" 아이콘, 카메라 애플리케이션에 대응하는 "카메라" 아이콘, 사진 뷰어 애플리케이션에 대응하는 "사진" 아이콘, 및 음성 메모 녹음 애플리케이션에 대응하는 "음성 메모" 아이콘)을 포함하는 멀티태스킹 사용자 인터페이스(예를 들어, 도 5e의 멀티태스킹 사용자 인터페이스(517))이다(614). 일부 실시예들에서, 동시에 열린 애플리케이션들 중 하나의 각자의 표현의 선택을 검출하는 것에 응답하여, 디바이스는 각자의 표현에 대응하는 열린 애플리케이션을 표시한다. 일부 실시예들에서, 멀티태스킹 사용자 인터페이스는 하나 이상의 최근 사용된 애플리케이션들(예를 들어, 디바이스 상에서 최근에 열렸지만 보유된 상태 정보가 현재 저장되어 있지 않은 애플리케이션들)의 표현들(예를 들어, 선택가능한 아이콘들)을 포함한다. 본 명세서 및 특허청구범위에 사용되는 바와 같이, 용어 "열린 애플리케이션"은 (예를 들어, 디바이스/글로벌 내부 상태(157) 및/또는 애플리케이션 내부 상태(192)의 일부로서) 보유된 상태 정보를 갖는 소프트웨어 애플리케이션을 지칭한다. 열린 애플리케이션은 하기의 유형의 애플리케이션들 중 임의의 애플리케이션이다:In some embodiments, the first user interface is a user interface of the first application (e.g., the map application user interface of Figures 5A-5D); The second user interface may include a plurality of simultaneous open applications representations (e.g., selectable icons) (e.g., a "note" icon corresponding to a notepad application such as shown in FIG. A multitasking user interface (e.g., a multitasking user interface, such as the multitasking user interface of FIG. 5e) that includes a " camera "icon that corresponds to a photo viewer application (Step 517). In some embodiments, in response to detecting a selection of a respective representation of one of the simultaneously open applications, the device displays an open application corresponding to the respective representation. In some embodiments, the multitasking user interface may include one or more recently used applications (e. G., Applications that have recently been opened on the device but have no stored state information currently stored on the device) Selectable icons). As used in this specification and claims, the term "open application" refers to an application having state information held (e.g., as part of device / global internal state 157 and / Software application. An open application is any of the following types of applications:

Figure 112014123040953-pct00055
디스플레이(112) 상에 현재 표시된 활성 애플리케이션(또는 대응하는 애플리케이션 뷰가 현재 디스플레이 상에 표시됨);
Figure 112014123040953-pct00055
An active application currently displayed on the display 112 (or a corresponding application view is currently displayed on the display);

Figure 112014123040953-pct00056
현재 디스플레이(112) 상에 표시되지 않았지만, 대응하는 애플리케이션에 대한 하나 이상의 애플리케이션 프로세스들(예를 들어, 명령어들)이 하나 이상의 프로세서(120)들에 의해 프로세싱되고 있는(즉, 실행되고 있는) 후위(background) 애플리케이션(또는 후위 프로세스);
Figure 112014123040953-pct00056
Although not currently displayed on the display 112, one or more application processes (e.g., instructions) for a corresponding application may be processed by one or more processors 120 (e.g., (background) application (or posterior process);

Figure 112014123040953-pct00057
현재 실행되고 있지 않으며 애플리케이션이 휘발성 메모리(예를 들어, DRAM, SRAM, DDR RAM, 또는 메모리(102)의 기타 휘발성 랜덤 액세스 고체 메모리 디바이스)에 저장되어 있는 유예(suspended) 애플리케이션; 및
Figure 112014123040953-pct00057
A suspended application that is not currently executing and the application is stored in volatile memory (e.g., DRAM, SRAM, DDR RAM, or other volatile random access solid state memory device in memory 102); And

Figure 112014123040953-pct00058
현재 실행되고 있지 않으며 애플리케이션이 비휘발성 메모리(예를 들어, 하나 이상의 자기 디스크 저장 디바이스, 광학 디스크 저장 디바이스, 플래시 메모리 디바이스, 또는 메모리(102)의 다른 비휘발성 고체 저장 디바이스들)에 저장되어 있는 동면(hibernated) 애플리케이션.
Figure 112014123040953-pct00058
Stored in a non-volatile memory (e.g., one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid storage devices in memory 102) (hibernated) application.

본 명세서에 사용되는 것과 같이, 용어 "닫힌 애플리케이션"은 보유된 상태 정보 없는 소프트웨어 애플리케이션을 지칭한다(예를 들어, 닫힌 애플리케이션들에 대한 상태 정보가 디바이스의 메모리에 저장되어 있지 않음). 따라서, 애플리케이션을 닫는 것은 해당 애플리케이션에 대한 애플리케이션 프로세스를 중지 및/또는 제거하고, 디바이스의 메모리로부터 해당 애플리케이션에 대한 상태 정보를 제거하는 것을 포함한다. 일반적으로, 제1 애플리케이션 동안에 제2 애플리케이션을 여는 것(예를 들어, 제1 애플리케이션으로부터 제2 애플리케이션으로의 전환)이 제1 애플리케이션을 닫는 것은 아니다. 제2 애플리케이션이 표시되고 제1 애플리케이션의 표시가 중단되는 경우, 표시될 때 활성 애플리케이션이었던 제1 애플리케이션이 후위 애플리케이션, 유예 애플리케이션, 또는 동면 애플리케이션이 될 수 있지만, 제1 애플리케이션은 자신의 상태 정보가 디바이스에 의해 보유되는 동안 열린 애플리케이션으로 남아있다.As used herein, the term "closed application " refers to a software application that does not have retained state information (e.g., state information for closed applications is not stored in the device's memory). Closing the application therefore involves suspending and / or removing the application process for the application and removing status information for the application from the device &apos; s memory. Generally, opening a second application during a first application (e.g., switching from a first application to a second application) does not close the first application. When the second application is displayed and the display of the first application is interrupted, the first application that was the active application when displayed may be a posterior application, a grace application, or a hibernate application, Lt; RTI ID = 0.0 &gt; applications. &Lt; / RTI &gt;

일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 속도로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다(616). 예를 들어, 디바이스는 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 지문 센서 상의 지문의 시작 위치로부터 지문 센서 상의 지문에 의한 각각의 1mm의 이동에 대해 5mm/sec의 속도로 스크롤 또는 병진이동시킨다. 일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 양만큼 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다(618). 예를 들어, 디바이스는 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 지문 센서 상에서 지문에 의한 각각의 1mm의 이동에 대해 5mm만큼 스크롤 또는 병진이동시킨다. 일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 이동 방향에 따라 결정된 방향으로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다(620). 예를 들어, (예를 들어, 도 5b 및 도 5c와 관련하여 전술된 바와 같이) 디바이스는 지문 센서 상에서 지문이 우측으로 이동할 때 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 우측으로 스크롤 또는 병진이동시키며, 지문 센서 상에서 지문이 좌측으로 이동할 때 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 좌측으로 스크롤 또는 병진이동시킨다.In some embodiments, navigating through the first user interface includes navigating through the first user interface at a rate determined by the displacement of the fingerprint on the fingerprint sensor (616). For example, the device scrolls or translates at least a portion of the content displayed in the first user interface at a rate of 5 mm / sec for each 1 mm of movement by fingerprint on the fingerprint sensor from the start position of the fingerprint on the fingerprint sensor. In some embodiments, navigating through the first user interface includes navigating through the first user interface by an amount determined by the displacement of the fingerprint on the fingerprint sensor (618). For example, the device scrolls or translates at least a portion of the content displayed in the first user interface by 5 mm for each 1 mm of movement by fingerprint on the fingerprint sensor. In some embodiments, navigating through the first user interface includes navigating through the first user interface in a direction determined according to the direction of movement of the fingerprint on the fingerprint sensor (620). For example, the device may be capable of scrolling or translating at least a portion of the content displayed on the first user interface to the right when the fingerprint moves to the right on the fingerprint sensor (e.g., as described above with respect to Figures 5b and 5c) And scrolls or translates at least a portion of the content displayed on the first user interface to the left when the fingerprint moves to the left on the fingerprint sensor.

일부 실시예들에서, 제2 사용자 인터페이스를 표시하는 것은 디스플레이 상에 나타나는 제2 사용자 인터페이스의 애니메이션화 천이(animated transition)를 표시하는 것을 포함하고, 애니메이션화 천이의 속도는 지문 센서 상에서의 지문의 변위에 기초한다(622). 예를 들어, 디바이스는 디스플레이의 저부로부터 디스플레이 상으로 활주하는 제2 사용자 인터페이스를 위한 공간을 만들기 위해 디스플레이 상에서 상향 방향으로 활주하는 제1 사용자 인터페이스를 표시한다.In some embodiments, displaying the second user interface comprises displaying an animated transition of a second user interface appearing on the display, wherein the rate of animation transition is based on the displacement of the fingerprint on the fingerprint sensor (622). For example, the device displays a first user interface that slides upwards on the display to create a space for a second user interface that slides from the bottom of the display onto the display.

일부 실시예들에서, 디바이스는 버튼(예를 들어, 도 5a의 홈 버튼 또는 메뉴 버튼(204)과 같은 물리적 버튼)을 포함하고; 지문 센서는 버튼 내로 통합된다(예를 들어, 도 5a에서 지문 센서(169)가 물리적 홈 버튼(204) 내로 통합됨)(624). 일부 실시예들에서, 물리적 버튼은 버튼 상에서 검출된 강도가 활성화 강도 임계치 초과로 증가하였을 때 디바이스에 의해 활성화된 것으로 결정되는 디바이스의 하우징의 강도-감응 구역이다. 일부 실시예들에서, 물리적 버튼은 전자 스위치에 결합되고, 여기서 제1 축(예를 들어, 상하 또는 좌우)을 따르는 물리적 버튼의 이동은 스위치를 닫고 물리적 버튼을 활성화한다(때때로 들을 수 있거나 촉각으로 느낄 수 있는 "클릭"을 발생시킴).In some embodiments, the device includes a button (e.g., a home button in FIG. 5A or a physical button such as a menu button 204); The fingerprint sensor is integrated into the button (e.g., fingerprint sensor 169 is integrated into physical home button 204 in FIG. 5A) (624). In some embodiments, the physical button is the intensity-sensitive area of the housing of the device that is determined to be activated by the device when the intensity detected on the button has increased beyond the activation strength threshold. In some embodiments, a physical button is coupled to an electronic switch, wherein movement of a physical button along a first axis (e.g., up or down or left or right) closes the switch and activates a physical button (sometimes audible or tactile Click "that can be felt).

일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 도 5m의 지도 애플리케이션 사용자 인터페이스)가 표시되는 동안에, 디바이스가 버튼의 활성화(예를 들어, 도 5m에 도시된 바와 같이, 물리적 버튼(204) 상의 누름 입력 또는 탭 입력과 같은 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(534))를 검출한다(626). 예를 들어, 디바이스는 사용자가 버튼을 클릭하는 것 또는 활성화 강도 임계치 초과의 강도로 버튼에 대응하는 강도-감응 구역을 누르는 것을 검출한다. 버튼의 활성화를 검출하는 것에 응답하여, 디바이스는 제1 사용자 인터페이스(예를 들어, 도 5m의 지도 애플리케이션 사용자 인터페이스)를 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스(예를 들어, 도 5n에 도시된 것과 같은 홈 스크린 또는 애플리케이션 기동 인터페이스; 또는 검색 애플리케이션 사용자 인터페이스)로 대체한다(628).In some embodiments, while the first user interface (e.g., the map application user interface of FIG. 5M) is being displayed, when the device activates the button (e.g., the physical button 204 (E.g., activation 534 of a physical home button or menu button 204, such as a push input or a tap input, on the touch screen). For example, the device detects that the user is clicking a button or pressing an intensity-sensitive area corresponding to a button at an intensity exceeding the activation intensity threshold. In response to detecting the activation of the button, the device sends a first user interface (e.g., the map application user interface of Figure 5M) to a predetermined user interface associated with activation of the button (e.g., (E.g., the same home screen or application launch interface; or a search application user interface).

일부 실시예들에서, 제2 사용자 인터페이스(예를 들어, 도 5k의 멀티태스킹 사용자 인터페이스(517))가 표시되는 동안에, 디바이스는 버튼의 활성화(예를 들어, 도 5k에 도시된 바와 같이, 물리적 버튼(204) 상의 탭 입력 또는 누름 입력을 통한 것과 같은 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(532))를 검출한다(630). 예를 들어, 디바이스는 사용자가 버튼을 클릭하는 것 또는 활성화 강도 임계치 초과의 강도로 버튼에 대응하는 강도-감응 구역을 누르는 것을 검출한다. 버튼의 활성화를 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스를 표시하는 것을 중단한다(632)(예를 들어, 그리고 도 5k 및 도 5l과 관련하여 전술된 바와 같이, 지도 애플리케이션 사용자 인터페이스와 같은 제1 사용자 인터페이스를 재표시하거나 재활성화함).In some embodiments, while the second user interface (e.g., multitasking user interface 517 of FIG. 5k) is being displayed, the device may activate the button (e.g., (E.g., activation of a physical home button or menu button 204, such as through a tap input or a push input on button 204). For example, the device detects that the user is clicking a button or pressing an intensity-sensitive area corresponding to a button at an intensity exceeding the activation intensity threshold. In response to detecting the activation of the button, the device stops displaying the second user interface (step 632) (e.g., as described above in connection with FIGS. 5K and 5L, Re-display or reactivate the first user interface).

일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 도 5j의 지도 애플리케이션 사용자 인터페이스)가 표시되는 동안에, 디바이스는 버튼의 이중 활성화(예를 들어, 도 5j와 관련하여 전술된 바와 같이, 예를 들어 500ms, 300ms, 150ms, 50ms, 또는 일부 다른 합리적인 시간 간격보다 작은 간격을 갖는 두 번의 연속적인 탭들 사이의 미리 정해진 시간 경과 간격보다 작은 빠른 연속성을 발생시키는 두 번의 연속적인 탭들 또는 누름 입력들을 통한 물리적 홈 버튼 또는 메뉴 버튼(204)의 이중 활성화(530), 두 번의 연속적인 탭들 사이에 손가락 들어올림이 있거나 없을 수 있음)를 검출한다(634). 예를 들어, 디바이스는 사용자가 버튼을 더블 클릭하거나, 활성화 강도 임계치 초과의 강도로 버튼에 대응하는 강도-감응 구역을 누르고 활성화 강도 임계치 미만으로 강도를 감소시킨 다음, 활성화 임계치 초과의 강도로 강도-감응 구역을 누르는 것을 검출한다. 버튼의 이중 활성화를 검출하는 것에 응답하여, 디바이스는 디스플레이 상에 제2 사용자 인터페이스를 표시한다(예를 들어, 도 5j 및 도 5k와 관련하여 전술된 바와 같이 멀티태스킹 사용자 인터페이스(517)를 표시하거나; 가장 최근 사용된 애플리케이션을 표시함)(636).In some embodiments, while the first user interface (e.g., the map application user interface of FIG. 5J) is being displayed, the device may initiate a dual activation of the button (e.g., For example, two consecutive taps or push inputs that produce a fast continuity that is less than a predetermined time lapse interval between two consecutive taps having intervals less than 500 ms, 300 ms, 150 ms, 50 ms, or some other reasonable time interval A double activation (530) of a physical home button or menu button (204), or no finger lift between two consecutive taps (634). For example, the device may allow the user to press the intensity-sensitive area corresponding to the button at an intensity greater than the activation strength threshold, double-click the button, decrease the intensity below the activation strength threshold, Detecting pressing of the sensitive area. In response to detecting a dual activation of the button, the device displays a second user interface on the display (e.g., displaying the multitasking user interface 517 as described above with respect to Figures 5J and 5K) ; Indicating the most recently used application) (636).

일부 실시예들에서, 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스(예를 들어, 도 5f의 멀티태스킹 사용자 인터페이스(517))를 표시하는 동안에, 디바이스는 제1 방향으로의 지문 센서 상에서의 지문의 이동(예를 들어, 도 5f에 도시된 지문(518) 및 횡방향 또는 수평 방향으로의 또는 다기능 디바이스의 단축을 따른 우측으로부터 좌측으로의 연관된 이동(520))을 검출한다(638). 제1 방향으로의 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스를 통해 내비게이션한다(예를 들어, 디바이스는 지문 센서 상에서의 지문의 이동에 따라 복수의 최근 사용된 애플리케이션들 또는 최근 열린 애플리케이션들의 표현들을 스크롤함)(640). 예를 들어, 도 5f 및 도 5g에 도시된 바와 같이, 디바이스는 제2 사용자 인터페이스의 추가적인 부분들(예를 들어, 이전에 도 5f에서는 표시되지 않았지만 도 5g에는 도시된 바와 같은 메시지 애플리케이션에 대응하는 "메시지" 아이콘, 캘린더 애플리케이션에 대응하는 "캘린더" 아이콘 및 시계 애플리케이션에 대응하는 "시계" 아이콘을 포함하는 추가적인 아이콘들)을 표시하기 위해 지문(518)의 이동(520) 방향으로 제2 사용자 인터페이스(예를 들어, 멀티태스킹 사용자 인터페이스(517))의 적어도 일부분을 병진이동시킨다.In some embodiments, while displaying the second user interface (e.g., the multitasking user interface 517 of FIG. 5F) in accordance with the determination that movement of the fingerprint is in the second direction, (E.g., the fingerprint 518 shown in FIG. 5F and the associated movement 520 in the lateral or horizontal direction or from right to left along the minor axis of the multifunction device) on the fingerprint sensor (638). In response to detecting the movement of the fingerprint on the fingerprint sensor in the first direction, the device navigates through the second user interface (e.g., Scrolling applications or expressions of recently opened applications) 640. For example, as shown in FIGS. 5F and 5G, the device may include additional portions of the second user interface (e.g., a portion corresponding to a message application, not shown in FIG. 5F but shown in FIG. In the direction 520 of movement of the fingerprint 518 to display a " clock "icon corresponding to the clock application and a " (E.g., multitasking user interface 517).

일부 실시예들에서, 제2 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 속도로 제2 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다. 예를 들어, 디바이스는 복수의 최근 사용되거나 현재 열린 애플리케이션들에 대응하는 아이콘들을 지문 센서 상의 지문의 시작 위치로부터 지문 센서 상의 지문에 의한 각각의 1mm의 이동에 대해 5개 아이콘/sec의 속도로 스크롤한다. 일부 실시예들에서, 제2 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 양만큼 제2 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다. 예를 들어, 디바이스는 복수의 최근 사용되거나 현재 열린 애플리케이션들에 대응하는 아이콘들을 지문 센서 상의 지문에 의한 각각의 1mm의 이동에 대해 1개의 아이콘만큼 스크롤한다. 일부 실시예들에서, 제2 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 이동 방향에 따라 결정된 방향으로 제2 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다. 예를 들어, 디바이스는 지문 센서 상에서 지문이 우측으로 이동할 때 복수의 최근 사용되거나 현재 열린 애플리케이션들의 표현들을 우측으로 스크롤하고, 지문 센서 상에서 지문이 좌측으로 이동할 때 복수의 최근 사용된 애플리케이션들의 표현들을 좌측으로 스크롤한다.In some embodiments, navigating through the second user interface includes navigating through the second user interface at a rate determined by the displacement of the fingerprint on the fingerprint sensor. For example, the device scrolls icons corresponding to a plurality of recently used or currently open applications at a rate of 5 icons / sec for each 1 mm movement by fingerprint on the fingerprint sensor from the start position of the fingerprint on the fingerprint sensor do. In some embodiments, navigating through the second user interface includes navigating through the second user interface by an amount determined by the displacement of the fingerprint on the fingerprint sensor. For example, the device scrolls the icons corresponding to a plurality of recently used or currently open applications by one icon for each 1 mm of movement by the fingerprint on the fingerprint sensor. In some embodiments, navigating through the second user interface includes navigating through the second user interface in a direction determined by the direction of movement of the fingerprint on the fingerprint sensor. For example, the device scrolls the representations of a plurality of recently used or currently open applications to the right when the fingerprint moves to the right on the fingerprint sensor, and displays the plurality of recently used applications' representations on the fingerprint sensor to the left .

일부 실시예들에서, 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스(예를 들어, 도 5h의 멀티태스킹 사용자 인터페이스(517))를 표시하는 동안에, 디바이스는 제3 방향(예를 들어, 제2 방향에 실질적으로 반대인 방향; 예컨대 수직 방향 또는 다목적 디바이스의 장축을 따르는 방향; 하향 방향)으로의 지문 센서 상에서의 지문의 이동을 검출한다(642). 예를 들어, 도 5d 및 도 5e의 지문(514)의 이동(516)(예를 들어, 제1 방향으로의 이동)이 다목적 디바이스의 장축을 따르는 수직 방향으로 상향 방향 이동인 반면; 도 5h 및 도 5i의 지문(522)의 이동(524)(예를 들어, 제3 방향으로의 이동)은 다목적 디바이스의 장축을 따르는 (예를 들어, 실질적으로 제2 방향에 반대인) 수직 방향으로 하향 방향 이동이다. 제3 방향으로의 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스를 표시하는 것을 중단한다(644). 예를 들어, 도 5i에 도시된 바와 같이, 디바이스는 이전에 도 5h에서 표시되었던 멀티태스킹 사용자 인터페이스(517)를 표시하는 것을 중단하고, 제2 사용자 인터페이스가 표시되었을 때 표시가 중단되었던 제1 사용자 인터페이스의 부분을 포함하여 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)를 재표시한다.In some embodiments, while displaying the second user interface (e.g., the multitasking user interface 517 of FIG. 5h) in accordance with the determination that movement of the fingerprint is in the second direction, (642) movement of the fingerprint on the fingerprint sensor in a direction substantially opposite to the first direction, e.g., substantially opposite to the second direction, e.g., in the vertical direction or along the major axis of the multipurpose device; For example, movement 516 (e.g., movement in a first direction) of fingerprint 514 of Figures 5d and 5e is an upward movement in the vertical direction along the long axis of the multipurpose device; The movement 524 (e.g., movement in the third direction) of the fingerprint 522 of Figures 5h and 5i may be performed in a vertical direction (e.g., substantially perpendicular to the second direction) along the long axis of the multipurpose device Downward movement. In response to detecting movement of the fingerprint on the fingerprint sensor in the third direction, the device stops displaying the second user interface (644). For example, as shown in FIG. 5i, the device stops displaying the multitasking user interface 517 previously displayed in FIG. 5h, and when the second user interface is displayed, the first user Re-displays the first user interface (e.g., the map application user interface) including the portion of the interface.

도 6a 내지 도 6c의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 6a 내지 도 6c와 관련하여 전술된 방법(600)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(600)과 관련하여 전술된 지문들, 사용자 인터페이스들, 애니메이션화 천이들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 사용자 인터페이스들, 애니메이션화 천이들의 특징들 중 하나 이상을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 6A-6C are only illustrative and that the order in which they are described is not intended to indicate that the order in which they are performed is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention"), It should also be noted that it is also applicable in a similar manner to the method 600 described above with respect to 6c. For example, the fingerprints, user interfaces, and animation transitions described above in connection with method 600 may optionally be combined with other methods described herein (e.g., in the second paragraph within " User interfaces, and features of animated transitions described herein in connection with the methods described herein. For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 7은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(700)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 7에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 7 illustrates a functional block diagram of an electronic device 700 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in FIG. 7 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 7에 도시된 바와 같이, 전자 디바이스(700)는 제1 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(702)을 포함하며, 선택적으로 터치-감응 표면 유닛(704), 지문 센서 유닛(706), 및 디스플레이 유닛(702)과 지문 센서 유닛(706)에 결합된 프로세싱 유닛(708)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(708)은 검출 유닛(710), 내비게이션 유닛(712), 디스플레이 인에이블링 유닛(714), 대체 유닛(716) 및 중단 유닛(718)을 포함한다.7, the electronic device 700 includes a display unit 702 configured to display a first user interface, and optionally includes a touch-sensitive surface unit 704, a fingerprint sensor unit 706, And a processing unit 708 coupled to the display unit 702 and the fingerprint sensor unit 706. In some embodiments, the processing unit 708 includes a detection unit 710, a navigation unit 712, a display enabling unit 714, an alternate unit 716 and an interrupt unit 718.

프로세싱 유닛(708)은 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에 (예를 들어, 검출 유닛(710)을 이용하여) 지문 센서(706) 상에서의 지문의 이동을 검출하고; 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라 (예를 들어, 내비게이션 유닛(712)을 이용하여) 제1 사용자 인터페이스를 통해 내비게이션하고, 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라 (예를 들어, 디스플레이 인에이블링 유닛(714)을 이용하여) 디스플레이 유닛(702) 상에서의 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스의 표시를 가능하게 하도록 구성된다.The processing unit 708 detects the movement of the fingerprint on the fingerprint sensor 706 while displaying the first user interface on the display (e.g., using the detection unit 710); In response to detecting movement of the fingerprint on the fingerprint sensor: navigating through the first user interface (e.g., using the navigation unit 712) in accordance with the determination that movement of the fingerprint is in the first direction, Which is different from the first user interface on the display unit 702 (for example, by using the display enabling unit 714) in accordance with the determination that the movement of the display unit 702 is in a second direction different from the first direction And is configured to enable display of the user interface.

일부 실시예들에서, 제1 방향은 제2 방향에 대해 수직이다.In some embodiments, the first direction is perpendicular to the second direction.

일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고; 제2 사용자 인터페이스는 복수의 동시에 열린 애플리케이션들의 표현들을 포함하는 멀티태스킹 사용자 인터페이스이다.In some embodiments, the first user interface is a user interface of the first application; The second user interface is a multitasking user interface that includes representations of a plurality of simultaneously open applications.

일부 실시예들에서, 프로세싱 유닛(708)은 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스의 표시를 가능하게 하는 동안에, (예를 들어, 검출 유닛(710)을 이용하여) 제1 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하고; 제1 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하는 것에 응답하여, (예를 들어, 내비게이션 유닛(712)을 이용하여) 제2 사용자 인터페이스를 통해 내비게이션하도록 추가로 구성된다.In some embodiments, the processing unit 708 may enable (e. G., Using the detection unit 710), while enabling display of the second user interface in accordance with the determination that movement of the fingerprint is in the second direction, Detecting movement of the fingerprint on the fingerprint sensor 706 in the first direction; Is further configured to navigate through the second user interface (e.g., using the navigation unit 712) in response to detecting movement of the fingerprint on the fingerprint sensor 706 in the first direction.

일부 실시예들에서, 프로세싱 유닛은 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스의 표시를 가능하게 하는 동안에, (예를 들어 검출 유닛(710)을 이용하여) 제3 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하고; 제3 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하는 것에 응답하여, (예를 들어, 중단 인에이블링 유닛(718)을 이용하여) 제2 사용자 인터페이스의 표시를 가능하게 하는 것을 중단하도록 추가로 구성된다.In some embodiments, the processing unit may be configured to enable the display of the second user interface (e.g., using the detection unit 710) in a third direction while enabling the display of the second user interface in accordance with the determination that movement of the fingerprint is in the second direction Detecting movement of the fingerprint on the fingerprint sensor 706 of the fingerprint sensor 706; In response to detecting movement of the fingerprint on the fingerprint sensor 706 in the third direction, it may be desirable to enable the display of the second user interface (e.g., using the interrupt enable unit 718) Stop.

일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서(706) 상에서의 지문의 변위에 따라 결정된 속도로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다.In some embodiments, navigating through the first user interface includes navigating through the first user interface at a rate determined by the displacement of the fingerprint on the fingerprint sensor 706. [

일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서(706) 상에서의 지문의 변위에 따라 결정된 양만큼 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다.In some embodiments, navigating through the first user interface includes navigating through the first user interface by an amount determined by the displacement of the fingerprint on the fingerprint sensor 706. [

일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서(706) 상에서의 지문의 이동 방향에 따라 결정된 방향으로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다.In some embodiments, navigating through the first user interface includes navigating through the first user interface in a direction determined by the direction of movement of the fingerprint on the fingerprint sensor 706. [

일부 실시예들에서, 제2 사용자 인터페이스의 표시를 가능하게 하는 것은 (예를 들어, 디스플레이 인에이블링 유닛(714)을 이용하여) 디스플레이 유닛(702) 상에 나타나는 제2 사용자 인터페이스의 애니메이션화 천이의 표시를 가능하게 하는 것을 포함하고; 애니메이션화 천이의 속도는 지문 센서(706) 상에서의 지문의 변위에 기초한다.In some embodiments, enabling the display of the second user interface may include displaying the second user interface's animated transition (e. G., Using display enable unit 714) Enabling the display; The speed of the animation transition is based on the displacement of the fingerprint on the fingerprint sensor 706.

일부 실시예들에서, 지문 센서(706)는 디스플레이 유닛(702)과는 별개이다.In some embodiments, the fingerprint sensor 706 is separate from the display unit 702.

일부 실시예들에서, 디바이스는 터치-감응 표면 유닛(704)을 포함하고, 지문 센서(706)는 터치-감응 표면 유닛(704)과는 별개이다.In some embodiments, the device includes a touch-sensitive surface unit 704 and the fingerprint sensor 706 is separate from the touch-sensitive surface unit 704.

일부 실시예들에서, 디바이스는 버튼을 포함하고, 지문 센서(706)는 버튼 내로 통합된다.In some embodiments, the device includes a button, and the fingerprint sensor 706 is integrated into the button.

일부 실시예들에서, 프로세싱 유닛(708)은 제1 사용자 인터페이스가 표시되는 동안에, (예를 들어, 검출 유닛(710)을 이용하여) 버튼의 활성화를 검출하고; 버튼의 활성화를 검출하는 것에 응답하여, (예를 들어,대체 유닛(716)을 이용하여) 제1 사용자 인터페이스를 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하도록 추가로 구성된다.In some embodiments, the processing unit 708 detects activation of the button (e.g., using the detection unit 710) while the first user interface is being displayed; In response to detecting the activation of the button, it is further configured to replace the first user interface (e.g., using the alternate unit 716) with a predetermined user interface associated with activation of the button.

일부 실시예들에서, 프로세싱 유닛(708)은 제2 사용자 인터페이스가 표시되는 동안에, (예를 들어, 검출 유닛(710)을 이용하여) 버튼의 활성화를 검출하고; 버튼의 활성화를 검출하는 것에 응답하여, (예를 들어, 중단 유닛(718)을 이용하여) 제2 사용자 인터페이스를 표시하는 것을 중단하도록 추가로 구성된다.In some embodiments, the processing unit 708 detects activation of the button (e.g., using the detection unit 710) while the second user interface is being displayed; In response to detecting activation of the button, it is further configured to stop displaying the second user interface (e.g., using the interrupt unit 718).

일부 실시예들에서, 프로세싱 유닛(708)은 제1 사용자 인터페이스가 표시되는 동안에, (예를 들어 검출 유닛(710)을 이용하여) 버튼의 이중 활성화를 검출하고; 버튼의 이중 활성화를 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(714)을 이용하여) 디스플레이 유닛(702) 상에서의 제2 사용자 인터페이스의 표시를 가능하게 하도록 추가로 구성된다.In some embodiments, the processing unit 708 detects double activation of the button (e.g., using the detection unit 710) while the first user interface is being displayed; (E.g., using the display enabling unit 714) in response to detecting a dual activation of a button on the display unit 702. The display unit 702 is configured to enable display of the second user interface on the display unit 702 (e.g., using the display enabling unit 714).

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 6a 내지 도 6c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 7에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 디스플레이 동작(602), 검출 동작(604), 내비게이션 또는 디스플레이 동작(610) 및 대체 동작(628)은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고, 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 6A-6C are optionally implemented by the components shown in Figs. 1A and 1B or 7. For example, the display operation 602, the detection operation 604, the navigation or display operation 610, and the replace operation 628 may optionally be performed on the event classifier 170, the event recognizer 180 and the event handler 190 &Lt; / RTI &gt; Event monitor 171 in event classifier 170 detects contact on touch-sensitive display 112 and event dispatcher module 174 delivers event information to application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

버튼들이 다수의 목적들을 만족시키게 하기Let the buttons satisfy a number of purposes

다수의 전자 디바이스들은 다양한 사용자 인터페이스들을 표시하도록 구성된다. 이러한 사용자 인터페이스들은 예를 들어 홈 스크린, 검색 스크린, 및/또는 디바이스에 저장된 애플리케이션("앱")들과 연관된 사용자 인터페이스들을 포함할 수 있다. 홈 스크린이 종종 가장 많이 사용되는 사용자 인터페이스이기 때문에, 그러한 디바이스들이 사용자에게 홈 스크린으로 신속하게 내비게이션하는 편리한 방식을 제공하는 것이 바람직하다. 예를 들어, 기존의 방법들 및 디바이스들에서, 전용 "홈" 버튼이 종종 제공된다. 그러나, 일부 디바이스들(예를 들어, 스마트폰과 같은 휴대용 다기능 디바이스)의 크기의 제한으로 인해, 전용 홈 버튼을 제공하는 것은 이러한 디바이스들의 하우징 상에 원치 않는 크기의 공간을 필요로 한다. 따라서, 그러한 디바이스들 상의 버튼들이, 사용자가 활성화하기를 원하는 두 가지의 목적들을 구별하기 위한 편리한 방법을 제공함으로써, 다수의 목적들(예를 들어, 호밍(homing) 목적 및 애플리케이션 종속적 목적)을 만족시키게 하는 것이 바람직하다.A plurality of electronic devices are configured to display various user interfaces. Such user interfaces may include, for example, user interfaces associated with home screens, search screens, and / or applications ("apps") stored on the device. Since the home screen is often the most used user interface, it is desirable that such devices provide a convenient way for the user to quickly navigate to the home screen. For example, in existing methods and devices, dedicated "home" buttons are often provided. However, due to the limited size of some devices (e.g., portable multifunction devices such as smart phones), providing a dedicated home button requires an undesired amount of space on the housing of such devices. Thus, the buttons on such devices satisfy a number of goals (e.g., homing and application dependent purposes) by providing a convenient way to distinguish between the two purposes that the user desires to activate. .

아래에서 기술되는 실시예들에서, 버튼들이 다수의 목적들을 만족시키게 하는 개선된 방법이 제공된다. 아래에서 기술되는 실시예들에서의 버튼들은 통합형 지문 센서들을 포함한다. 그러한 버튼이 사전 결정된 시간량 미만 동안에(예를 들어, 버튼의 빠르게 누르기) 통합형 지문 센서 상에서 지문을 계속 검출한 후에 활성화되는(예를 들어, 눌러지는) 경우, 버튼은 제1 동작(예를 들어, 홈 동작)을 수행한다. 한편, 버튼이 사전 결정된 시간량 초과 동안 지문을 계속 검출한 후에(예를 들어, 지문 센서 상에서 머무른 후에) 활성화되는 경우, 디바이스는 제2 동작(예를 들어, 애플리케이션 특정 동작)을 수행한다.In the embodiments described below, an improved method is provided for allowing buttons to fulfill multiple purposes. The buttons in the embodiments described below include integrated fingerprint sensors. If such a button is activated (e.g., pushed) after continuously detecting a fingerprint on the integrated fingerprint sensor during less than a predetermined amount of time (e. G., Quick pressing of the button) , Home operation). On the other hand, when the button is activated (e.g., after staying on the fingerprint sensor) after continuously detecting the fingerprint for a predetermined amount of time, the device performs a second action (e.g., an application specific action).

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 8a 내지 도 8o 및 도 9a 내지 도 9c와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 8a 내지 도 8o 및 도 9a 내지 도 9c와 관련하여 기술되는 실시예들은, 도 8a 내지 도 8o에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 8a 내지 도 8o에 묘사된 입력들을 검출하는 것에 응답하여 수행되는 디바이스 동작들과 관련하여 논의될 것이다. 그러나, 통합형 지문 센서(359-1)와 함께 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 8a 내지 도 8o에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 상에서 도 8a 내지 도 8o에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다. 일부 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 일부 실시예들에서, 포커스 셀렉터는 복수의 사용자 인터페이스 객체들 내의 각자의 사용자 인터페이스 객체(예를 들어, 도 8k 내지 도 8o와 관련하여 기술되는 바와 같이 "스크롤-휠"에 의해 선택된 객체)를 가리키기 위해 사용될 수 있는 사용자-제어식 포인터이다. 일부 실시예들에서, 포커스 셀렉터의 시각적 표현이 표시된다(예를 들어, 포커스 셀렉터가 가리키는 사용자 인터페이스 객체는 다른 사용자 인터페이스 객체들로부터 시각적으로 구별됨).In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The devices described below in connection with Figures 8A-8O and 9A-9C include one or more fingerprint sensors 169. [ In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 8A to 8O and Figs. 9A to 9C are similar to those of Figs. 8A to 8C in that while the user interfaces shown in Figs. 8A to 8O are displayed on the touch screen 112, (E.g., integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2) in connection with detecting device inputs in response to detecting the inputs depicted in Figures 8a-8o 8A-8O, on a device having a display 450, a separate touch-sensitive surface 451 and a separate fingerprint sensor 359-2 with an integrated fingerprint sensor 359-1, Similar actions are selectively performed in response to detecting the inputs depicted in Figures 8A-8O on the integrated fingerprint sensor 359-1 while displaying the illustrated user interfaces on the display 450. Some operations Examples The focus selector may alternatively be used to select a representative point (e.g., a point associated with the center of each contact or a respective one of the contacts) corresponding to a contact, a contact, In some embodiments, the focus selector is associated with a respective user interface object (e.g., a "scroll-wheel" as described in connection with Figures 8k-8o) within a plurality of user interface objects. In some embodiments, a visual representation of the focus selector is displayed (e.g., the user interface object that the focus selector points to is a user-controlled pointer that can be used to point to other user interface objects Lt; / RTI &gt;

도 8a 내지 도 8d는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시한다. 특히, 도 8a 내지 도 8d는 본 명세서에 기술된 소정의 조건들 하에서,"홈 버튼"(예를 들어, 버튼(204))의 활성화는 디바이스로 하여금 "홈" 동작(예를 들어, 제1 동작)을 수행하게 하며, 그에 따라 (사용자가 선택할 수 있는 애플리케이션들을 나타내는 복수의 아이콘들을 포함하는 애플리케이션-기동 인터페이스를 표시하는) 홈 스크린으로 디바이스가 복귀하는 예를 도시한다. 이러한 예에서, 버튼(204)은 통합형 지문 센서(169)를 포함한다. 다른 조건들 하에서, 도 8g 및 도 8h와 관련하여 기술된 바와 같이, 홈 버튼의 활성화는 디바이스로 하여금 제2의 상이한 동작을 수행하게 한다.Figures 8A-8D illustrate exemplary user interfaces used in conjunction with multipurpose buttons, in accordance with some embodiments. 8A-8D illustrate that activation of a "home button" (e.g., button 204) under certain conditions described herein may cause the device to perform a "home" Operation), thereby returning the device to the home screen (indicating an application-initiated interface comprising a plurality of icons representing the applications the user can select). In this example, the button 204 includes an integrated fingerprint sensor 169. Under other conditions, activation of the home button, as described in connection with Figures 8G and 8H, allows the device to perform a second, different operation.

도 8a는 휴대용 다기능 디바이스(100) 상에서 양궁 비디오 게임 애플리케이션을 실행하는 디바이스의 예를 도시한다.FIG. 8A shows an example of a device that executes an archery video game application on a portable multifunction device 100. FIG.

도 8b는 통합형 지문 센서(169) 상에서의 지문(806)(이 예시에서는 사용자의 오른손 엄지에 대응하는 지문)의 검출을 도시한다. 도 8b는 또한 버튼 상의 지문(806)의 힘뿐만 아니라 지문(806)이 지문 센서 상에서 계속 검출된 시간의 길이의 표시들을 각각 도시한다. 버튼 상의 지문(806)의 힘과 시간의 길이의 각자의 표시들은 전형적으로는 디바이스 상에 나타나지 않지만, 대신에 설명의 편의를 위해 본 도면에 도시되었다. 이러한 예에서, 버튼(204)은 지문(806)의 힘이 활성화 임계치(AT0)를 초과할 때 활성화된다. 일부 실시예들에서, 예를 들어 버튼(204)이 물리적 또는 기계적 버튼인 경우, 활성화 임계치(AT0)는 버튼(204)의 소정의 기계적 특징부들의 스프링 특성들의 함수 및/또는 버튼(204)의 기계적 특징부들 사이의 마찰의 함수이다. 다시 말하면, 일부 실시예들에서, 버튼이 활성화되게 하는 최소 힘이 버튼 상에 존재한다. 일부 실시예들에서, 버튼(204)의 활성화는 "다운-스트로크(down-stroke)"(예를 들어, 지문(806)의 힘이 AT0 미만으로부터 AT0 초과까지 계속 검출되는 경우)에서 발생한다. 일부 실시예들에서, 버튼(204)의 활성화는 "업-스트로크(up-stroke)"(예를 들어, 지문(806)의 힘이 AT0 초과로부터 AT0 미만까지 계속 검출되는 경우)에서 발생한다. 일부 다른 실시예들에서, 예를 들어 버튼(204)이 가상 버튼인 경우, 지문 센서(169)에 의해 검출되는 특정 제스처가 버튼의 활성화를 야기한다.FIG. 8B shows the detection of a fingerprint 806 (fingerprint corresponding to the user's right hand thumb in this example) on the integrated fingerprint sensor 169. FIG. 8B also shows indications of the length of time the fingerprint 806 has been continuously detected on the fingerprint sensor, as well as the force of the fingerprint 806 on the button, respectively. The respective indications of the force and the length of time of the fingerprint 806 on the button typically do not appear on the device, but are instead shown in the figure for convenience of illustration. In this example, the button 204 is activated when the force of the fingerprint 806 exceeds the activation threshold AT 0 . In some embodiments, for example, if the button 204 is a physical or mechanical button, the activation threshold AT 0 is a function of the spring characteristics of certain mechanical features of the button 204 and / Is a function of the friction between the mechanical features. In other words, in some embodiments, there is a minimum force on the button that causes the button to be activated. In some embodiments, activation of the button 204 occurs in a "down-stroke" (e.g., when the force of the fingerprint 806 is continuously detected from less than AT 0 to greater than AT 0 ) do. Activation in some embodiments, the button 204 - generating the "upstroke (up-stroke)" (for example, when the power of the fingerprint 806 that are continuously detected to less than AT 0 from AT 0 excess) do. In some other embodiments, for example, when the button 204 is a virtual button, the specific gesture detected by the fingerprint sensor 169 causes activation of the button.

도 8c 및 도 8d에 도시된 바와 같이, 사전 결정된 기간(PT) 초과의 시간량 동안의 지문(806)의 연속적인 검출 이전에, 디바이스가 (도 8c에 도시된) 버튼(204)의 활성화를 검출하는 경우, 디바이스는 제1 동작을 수행한다. 이러한 예에서, 제1 동작은 (도 8d에 도시된) "홈 동작"이다. 일부 실시예들에서, 사전 결정된 기간(PT) 이상인 시간량 동안의 지문(806)의 연속적인 검출 이전에, 디바이스가 버튼(204)의 활성화를 검출하는 경우, 디바이스는 제1 동작을 수행한다.As shown in Figures 8c and 8d, before the continuous detection of the fingerprint 806 for the amount of time in excess of the predetermined time period PT, the device will activate the button 204 (shown in Figure 8c) When detecting, the device performs a first operation. In this example, the first operation is "home motion" (shown in FIG. 8D). In some embodiments, if the device detects activation of the button 204 prior to subsequent detection of the fingerprint 806 for a time amount greater than or equal to the predetermined time period PT, the device performs the first action.

일부 실시예들에서, 도 8d 내지 도 8f와 관련하여 아래에서 기술된 바와 같이, 제1 동작은 컨텍스트(context) 종속적이다. 예를 들어, 일부 실시예들에서, 제1 동작은 현재 표시되는 사용자 인터페이스에 의존한다(예를 들어, 연관됨). 현재 표시되는 사용자 인터페이스가 표시된 양궁 비디오 게임을 포함하는 앞서의 예에서, 양궁 비디오 게임과 연관된 제1 동작은 디바이스를 홈 스크린으로 복귀시킨다. 도 8d 내지 도 8f는 홈 스크린이 현재 표시된 사용자 인터페이스일 때의 제1 동작의 예를 도시한다.In some embodiments, the first operation is context dependent, as described below with respect to Figures 8d-8f. For example, in some embodiments, the first operation is dependent on (e.g., associated with) the currently displayed user interface. In the previous example, which includes an archery video game displayed with a currently displayed user interface, a first action associated with the archery video game returns the device to the home screen. 8D to 8F show examples of the first operation when the home screen is the currently displayed user interface.

홈 스크린의 예를 도시하는 것에 더하여, 도 8d는 제2 지문(808)의 검출의 예를 또한 도시한다. 지문(808)의 검출은 도 8b와 관련하여 기술된 지문(806)의 검출과 유사하다. 일부 실시예들에서, 지문(808)은 지문(806)의 연속이다(예를 들어, 일부 실시예들에서, 도 8d에 도시된 홈 스크린으로 내비게이션한 후에, 사용자는 이 예에 기술된 기능을 이용하기 위해 지문 센서(169)와의 접촉을 중단 및 재적용할 필요가 없음).In addition to showing an example of the home screen, Fig. 8D also shows an example of the detection of the second fingerprint 808. Fig. The detection of the fingerprint 808 is similar to the detection of the fingerprint 806 described in connection with FIG. 8B. In some embodiments, the fingerprint 808 is a continuation of the fingerprint 806 (e.g., in some embodiments, after navigating to the home screen shown in FIG. 8D, It is not necessary to stop and reapply contact with the fingerprint sensor 169 for use).

도 8e는 도 8c 및 도 8d와 관련하여 앞서 기술된 바와 같은 사전 결정된 기간(PT)이 경과하기 이전의 버튼(204)의 활성화를 도시한다. 이러한 예에서, 사전 결정된 기간(PT)이 경과되지 않았기 때문에, 디바이스는 홈 스크린(예를 들어, 애플리케이션-기동 인터페이스)과 연관된 제1 동작을 수행한다. 이러한 예에서, 제1 동작은 도 8f에 도시된 바와 같이 디바이스를 탐색 스크린으로 내비게이션한다. 일부 실시예들에서, 홈 스크린과 연관된 제1 동작은 사용자를 다른 홈 스크린으로 안내한다(예를 들어, 디바이스는 복수의 홈 스크린 페이지들을 통해 내비게이션하며, 디바이스 상의 다수의 애플리케이션들로 인해 복수의 홈 스크린들이 요구됨).8E shows the activation of the button 204 before a predetermined period of time PT has elapsed, as described above with respect to Figs. 8C and 8D. In this example, because the predetermined period of time PT has not elapsed, the device performs a first operation associated with the home screen (e.g., an application-initiated interface). In this example, the first operation navigates the device to the search screen, as shown in Figure 8f. In some embodiments, a first operation associated with a home screen directs the user to another home screen (e.g., the device navigates through a plurality of home screen pages, and multiple applications on the device cause multiple homes Screens are required).

도 8g 내지 도 8j는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시한다. 특히, 도 8g 내지 도 8j는 사전 결정된 시간 초과 동안의 지문(810)의 연속적인 검출에 후속하여 버튼(204)의 활성화에 따라 제2의 상이한 동작을 수행하는 디바이스의 예를 도시한다. 도 8g에서, 지문(810)이 처음에 검출된다. 따라서, 지속적으로 검출되는 지문(810)의 길이를 나타내는 표시자는 처음에 시간이 경과되지 않았음을 나타낸다. 도 8h는 지문 센서(169) 위에서의 지문(810)의 이동 및 대응하는 궁수(802)의 이동을 나타낸다(예를 들어 이러한 예의 애플리케이션에서, 지문 센서(169)는 버튼(204)의 활성화에 앞서 궁수(802)의 위치를 제어하거나 대안적으로 위치의 변화를 제어하는 "조이스틱"으로서 작용함). 일부 실시예들에서, 그러한 기능(예를 들어, 조이스틱 기능)은 사전 결정된 시간이 경과한 후에 작동 가능하게 되며, 버튼(204)이 활성화될 때까지 작동 가능한 채로 남아있다. 일부 실시예들에서, 그러한 기능은 버튼(204)의 반복되는 활성화들에도 불구하고 지문이 지문 센서(169) 상에서 검출될 때마다 애플리케이션 내에서 작동 가능하다(예를 들어, 지문 센서(169)가 플레이어의 방향을 바꾸는 조이스틱으로서 작용하고 버튼의 활성화가 플레이어로 하여금 자신의 무기를 발사하게 하는 1인칭 슈팅 비디오 게임). 도 8i 및 도 8j는 (도 8i에 도시된) 버튼(204)의 활성화 및 제1 동작(예를 들어, 홈 동작)과 상이한 결과적인 제2 동작(예를 들어, 도 8i 및 도 8j에 도시된 바와 같은 화살의 발사)의 수행을 도시한다.8G-8J illustrate exemplary user interfaces used in connection with multipurpose buttons, in accordance with some embodiments. In particular, Figures 8g-8j illustrate examples of devices that perform a second, different operation in response to activation of button 204 following successive detection of fingerprint 810 during a predetermined timeout. 8G, the fingerprint 810 is initially detected. Thus, the indicator that indicates the length of the fingerprint 810 that is continuously detected indicates that the time has not elapsed at first. Figure 8h shows the movement of the fingerprint 810 on the fingerprint sensor 169 and the movement of the corresponding archer 802 (e.g., in this example application, the fingerprint sensor 169 moves Acting as a "joystick" which controls the position of archer 802 or alternatively controls the change of position). In some embodiments, such a function (e.g., a joystick function) becomes operational after a predetermined amount of time has elapsed and remains operational until the button 204 is activated. In some embodiments, such a function is operable within the application whenever a fingerprint is detected on the fingerprint sensor 169 despite the repeated activations of the button 204 (e.g., the fingerprint sensor 169 A first person shooter video game that acts as a joystick that changes the direction of the player and the activation of the button causes the player to fire their weapon). Figures 8i and 8j illustrate a second action (e. G., Shown in Figures 8i and 8j) that is different from the activation of the button 204 (shown in Figure 8i) and the first action As shown in FIG.

도 8k 내지 도 8o는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시한다. 특히, 도 8k 내지 도 8o는 사용자 인터페이스가 예를 들어 홈 스크린 상의 애플리케이션들(예를 들어, 전화 앱, 브라우저 앱 등)에 대응하는 사용자 선택가능한 아이콘들과 같은 복수의 어포던스들을 포함하는 예를 도시한다. 도 8k 내지 도 8o는 또한 현재 선택된 어포던스에 대응하는 포커스 셀렉터를 도시한다(예를 들어, 디바이스가 전화 애플리케이션을 구동하라는 명령을 아직 수신하지 않았지만, 도 8k 내의 전화 애플리케이션을 나타내는 아이콘이 강조되어 포커스 셀렉터가 전화 애플리케이션 "위에" 있으며 전화 애플리케이션이 현재 선택되었다는 시각적 신호를 제공함). 또한, 도 8k 내지 도 8o는 제2 동작이 복수의 어포던스들 중 현재 선택된 어포던스에 대응하는 애플리케이션과 연관된 동작을 수행하는 것을 포함하는 실시예들의 예를 도시한다.8K-8O illustrate exemplary user interfaces used in connection with multipurpose buttons, in accordance with some embodiments. In particular, Figures 8k-8o illustrate an example in which the user interface includes a plurality of poses, such as user selectable icons corresponding to applications on the home screen (e.g., phone apps, browser apps, etc.) do. 8k-8o also illustrate a focus selector corresponding to the currently selected &lt; Desc / Clms Page number 14 &gt; selected (e.g., the device has not yet received an instruction to run the phone application, Is "above &quot; the phone application and provides a visual indication that the phone application is currently selected). 8k-8o illustrate examples of embodiments that include performing a second action associated with an application corresponding to a currently selected one of a plurality of poses.

도 8k는 포커스 셀렉터의 위치가 지문 센서(169) 둘레에서의 원주방향 이동에 의해 제어되는 예를 도시한다(예를 들어, 지문 센서는 아래에서 설명되는 예시적인 속성들을 갖는 "스크롤-휠"로서 작용함). 이 예에서, 도시된 바와 같은 시계 방향으로의 원주방향 이동은 도 8l(브라우저 앱 위에서의 포커스 셀렉터의 이동) 및 도 8m(메일 앱 위에서의 포커스 셀렉터의 이동)에 도시된 바와 같이 포커스 셀렉터를 우측으로 이동시킨다. 마찬가지로, 도시되지는 않았지만, 지문 센서(169) 둘레에서 반시계 방향으로의 원주방향 이동은 포커스 셀렉터를 반대 방향(예를 들어, 좌측으로) 이동시킨다. 일부 실시예들에서, 복수의 어포던스들이 순서화되어 지문(812)의 원주방향 이동이 포커스 셀렉터를 순서대로 상방 또는 하방으로 증분시킨다(예를 들어, 90도와 같은 미리 정해진 각도의 원호를 그리는 지문의 이동이 포커스 셀렉터를 증분시킴). 일부 실시예들에서, 포커스 셀렉터가 순서에서의 마지막 어포던스에 도달하였을 때, 동일한 방향으로 포커스 셀렉터를 추가로 증분시키는 것은 포커스 셀렉터를 순서에서의 첫 번째 어포던스로 복귀시킨다. 일부 실시예들에서, 디바이스의 정상 모드와는 상이한 디바이스의 액세스 가능한 모드에서 스크롤-휠 기능이 이용가능하다.8K shows an example in which the position of the focus selector is controlled by circumferential movement about the fingerprint sensor 169 (e.g., the fingerprint sensor is a "scroll-wheel" having the exemplary attributes described below Lt; / RTI &gt; In this example, the circumferential movement in the clockwise direction as shown is achieved by moving the focus selector to the right (as shown in Figure 8l (movement of the focus selector on the browser app) and Figure 8m . Similarly, although not shown, a circumferential movement in the counterclockwise direction around the fingerprint sensor 169 moves the focus selector in the opposite direction (e.g., to the left). In some embodiments, the plurality of poses is ordered such that the circumferential movement of the fingerprint 812 increments the focus selector in an upward or downward sequence (e.g., moving a fingerprint that draws a predetermined angle of arc, such as 90 degrees, Incrementing this focus selector). In some embodiments, further incrementing the focus selector in the same direction when the focus selector has reached the last available positive in the sequence returns the focus selector to the first positive in the sequence. In some embodiments, a scroll-wheel function is available in an accessible mode of the device that is different from the normal mode of the device.

도 8n은 전술된 바와 같이 지문(812)의 힘이 활성화 임계치를 초과할 때의 버튼(204)의 활성화의 예를 도시한다. 이러한 예에서, 지문(812)이 사전 결정된 기간(PT) 동안에 계속 검출되었기 때문에, 디바이스는 제2 동작을 수행한다. 이러한 예에서, 제2 동작은 현재 선택된 어포던스에 의존한다. 예를 들어, 도 8o는 디바이스가 지금 이메일 메시지들에 대응하는 사용자 인터페이스 객체(814-1 내지 814-3)들을 포함하는 이메일 인터페이스를 표시하고 있기 때문에, 제2 동작이 메일 앱을 기동하였음을 나타낸다.8n shows an example of activation of the button 204 when the force of the fingerprint 812 exceeds the activation threshold, as described above. In this example, since the fingerprint 812 has been continuously detected during the predetermined period PT, the device performs the second operation. In this example, the second operation depends on the currently selected impedance. For example, Figure 8O indicates that the second action has launched the mail app, since the device is now displaying an email interface that includes user interface objects 814-1 through 814-3 corresponding to email messages .

도 9a 내지 도 9c는 일부 실시예들에 따른, 버튼이 다수의 목적들을 만족시키게 하는 방법(900)을 예시하는 흐름도이다. 방법(900)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(900) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.Figures 9A-9C are flow charts illustrating a method 900 for causing a button to satisfy multiple purposes, in accordance with some embodiments. The method 900 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 900 are selectively combined and / or the order of some operations is selectively changed.

아래에서 기술되는 바와 같이, 방법(900)은 버튼이 다수의 목적들을 만족시키게 하는 직관적인 방식을 제공한다. 이 방법은 버튼들을 사용할 때 사용자의 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 다양한 디바이스 동작들을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 900 provides an intuitive way for a button to fulfill multiple purposes. This method reduces the user's cognitive burden when using buttons, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing the user to perform various device operations faster and more efficiently conserves power and increases the time between battery charges.

통합형 지문 센서를 포함하는 버튼을 갖는 전자 디바이스에서, 디바이스는 통합형 지문 센서 상에서 지문을 검출한다(902). 일부 실시예들에서, 전자 디바이스는 디스플레이를 포함한다(904). 일부 실시예들에서, 통합형 지문 센서 상에서 지문을 검출하기 전에, 디바이스는 디스플레이 상에 제1 사용자 인터페이스(예를 들어, 도 8a에 도시된 사용자 인터페이스)를 표시한다(906).In an electronic device having a button that includes an integrated fingerprint sensor, the device detects fingerprints on the integrated fingerprint sensor (902). In some embodiments, the electronic device includes a display (904). In some embodiments, before detecting a fingerprint on the integrated fingerprint sensor, the device displays a first user interface (e.g., the user interface shown in FIG. 8A) on the display (906).

일부 실시예들에서, 버튼의 활성화를 검출하기 전에(908), 디바이스는 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문을 검출한다(910). 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스는 디스플레이 상에 포커스 셀렉터의 표현(예를 들어, 도 8k의 전화 앱의 강조와 같이 지문을 검출하기 직전에 표시되지 않았던 포커스 셀렉터 표현)을 표시한다(912).In some embodiments, before detecting activation of the button (908), the device detects (910) the fingerprint on the integrated fingerprint sensor for a predetermined period of time. In response to detecting the fingerprint on the integrated fingerprint sensor during a predetermined period of time, the device may display a focus selector on the display (e.g., a focus not shown just before the fingerprint is detected, Selector expression) is displayed (912).

통합형 지문 센서 상에서 지문을 계속 검출하는 동안에, 디바이스는 (예를 들어, 도 8c에 도시된 바와 같이) 버튼의 활성화를 검출한다(914). 일부 실시예들에서, 물리적 버튼은 버튼 상에서 검출된 강도가 활성화 강도 임계치 초과로 증가하였을 때 디바이스에 의해 활성화된 것으로 결정되는 디바이스의 하우징의 강도-감응 구역이다. 일부 실시예들에서, 물리적 버튼은 전자 스위치에 결합되고, 여기서 제1 축(예를 들어, 상하 또는 좌우)을 따르는 물리적 버튼의 이동은 스위치를 닫고 물리적 버튼을 활성화한다(때때로 들을 수 있거나 촉각으로 느낄 수 있는 "클릭"을 발생시킴). 버튼의 활성화를 검출하는 것에 응답하여, 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속 검출되지 않았다는 결정에 따라(예를 들어, 버튼의 활성화를 검출하기 직전 적어도 0.3, 0.5, 1, 또는 2초 동안 지문이 지문 센서 상에서 계속 검출되지 않았음), 디바이스는 버튼의 활성화와 연관된 미리 정해진 제1 동작(예를 들어, 도 8b 내지 도 8d와 관련하여 기술된 호밍 동작, 또는 대안적으로 도 8d 내지 도 8f와 관련하여 수행되는 탐색 스크린 동작)을 수행한다(916).During continued detection of the fingerprint on the integrated fingerprint sensor, the device detects activation of the button (e.g., as shown in FIG. 8C) (914). In some embodiments, the physical button is the intensity-sensitive area of the housing of the device that is determined to be activated by the device when the intensity detected on the button has increased beyond the activation strength threshold. In some embodiments, a physical button is coupled to an electronic switch, wherein movement of a physical button along a first axis (e.g., up or down or left or right) closes the switch and activates a physical button (sometimes audible or tactile Click "that can be felt). In response to detecting activation of the button, determining that the fingerprint has not been continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting activation of the button (e.g., at least 0.3, The fingerprint has not been continuously detected on the fingerprint sensor for 0.5, 1, or 2 seconds), the device may perform a predetermined first action associated with activation of the button (e.g., the humming action described with respect to Figures 8B- Or alternatively a search screen operation performed in connection with Figures 8d-8f).

일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고, 제1 동작은 제1 사용자 인터페이스의 표시를 중단하고 애플리케이션 기동 인터페이스를 표시하는 것을 포함한다(예를 들어, 도 8b 내지 도 8d에 도시된 바와 같이, 양궁 비디오 게임을 표시하는 것을 중단함)(918). 일부 실시예들에서, 제1 사용자 인터페이스는 애플리케이션 기동 인터페이스이고, 제1 동작은 애플리케이션 기동 인터페이스(도 8e)를 표시하는 것을 중단하고 버튼의 활성화와 연관된 미리 정해진 애플리케이션(예를 들어, 도 8f의 검색 사용자 인터페이스)을 표시하는 것을 포함한다(920).In some embodiments, the first user interface is a user interface of the first application, and the first action includes stopping the display of the first user interface and displaying the application launch interface (e.g., Figures 8B- Stop displaying the archery video game, as shown at 8d). In some embodiments, the first user interface is an application launch interface, wherein the first operation stops displaying the application launch interface (FIG. 8E) and the predefined application associated with activation of the button (e.g., Gt; 920). &Lt; / RTI &gt;

버튼의 활성화를 검출하는 것에 응답하여, 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속 검출되었다는 결정에 따라(예를 들어, 버튼의 활성화를 검출하기 직전 적어도 0.3, 0.5, 1, 또는 2초 동안 지문이 지문 센서 상에서 계속 검출되지 않았음), 디바이스는 버튼의 활성화를 검출하기 직전에 디스플레이 상에 표시되는 사용자 인터페이스와 연관된, 제1 동작과는 상이한 제2 동작을 수행한다(예를 들어, 도 8g 내지 도 8j에 도시된 바와 같이 궁사가 자신의 화살을 쏨)(922).In response to detecting activation of the button, the fingerprint is continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting the activation of the button (e.g., at least 0.3, 0.5 , The fingerprint has not been continuously detected on the fingerprint sensor for one or two seconds), the device performs a second action associated with the user interface displayed on the display just before detecting the activation of the button, which is different from the first action (For example, the archer draws his arrow as shown in Figures 8g-8j) (922).

일부 실시예들에서, 제1 애플리케이션의 사용자 인터페이스는 제1 애플리케이션과 연관된 각자의 동작들에 대응하는 복수의 어포던스들(예를 들어, 메뉴, 제어, 하이퍼링크 등)을 포함하고, 제2 동작은 복수의 어포던스들 중 현재 선택된 어포던스에 대응하는 제1 애플리케이션과 연관된 동작을 수행하는 것을 포함한다(예를 들어, 디바이스는 현재 포커스 셀렉터에 근접하거나 포커스 셀렉터와 같은 위치에 있는 애플리케이션 내에 표시된 어포던스에 대응하는 동작을 수행함)(924).In some embodiments, the user interface of the first application includes a plurality of poses (e. G., A menu, control, hyperlink, etc.) corresponding to the respective operations associated with the first application, (E.g., the device is in proximity to the current focus selector or corresponds to an indication of the proximity to the currently selected application in the same position as the focus selector) (Operation 924).

일부 실시예들에서, 제1 사용자 인터페이스는 애플리케이션 기동 인터페이스이고((920) 참조), 애플리케이션 기동 인터페이스는 복수의 애플리케이션들 내의 각자의 애플리케이션에 대응하는 복수의 애플리케이션 기동 어포던스들(예를 들어, 도 8k의 애플리케이션 아이콘들)을 포함하고, 제2 동작은 복수의 애플리케이션 기동 어포던스들 중 현재 선택된 애플리케이션 기동 어포던스에 대응하는 각자의 애플리케이션을 기동하는 것을 포함한다(예를 들어, 디바이스는 현재 포커스 셀렉터에 근접하거나 포커스 셀렉터와 같은 위치에 있는 애플리케이션 아이콘에 대응하는 애플리케이션을 기동함)(926).In some embodiments, the first user interface is an application launch interface (see 920), and the application launch interface may include a plurality of application launch positives corresponding to respective applications in the plurality of applications (e.g., (E.g., the device is currently in proximity to the focus selector), and the second action includes launching each of the applications corresponding to the currently selected application launch positives of the plurality of application launch positives And launches the application corresponding to the application icon in the same position as the focus selector) (926).

일부 실시예들에서, 제2 동작은 제1 사용자 인터페이스 내에서의 포커스 셀렉터의 위치에 종속적이고(예를 들어, 제2 동작은 웹페이지 내의 하이퍼링크의 활성화 또는 애플리케이션 기동 인터페이스 내의 애플리케이션 아이콘에 대응하는 애플리케이션의 기동과 같이, 제1 사용자 인터페이스 내의 특정 사용자 인터페이스 객체의 활성화에 대응하는 동작임), 제1 동작은 제1 사용자 인터페이스 내에서의 포커스 셀렉터의 위치에 대해 독립적이다(928). 예를 들어, 제1 동작은 홈 스크린 또는 애플리케이션 기동 스크린을 표시하는 것, 미리 정해진 애플리케이션을 표시하는 것, 및/또는 현재 표시된 애플리케이션에 대응하는 사용자 인터페이스를 표시하는 것을 중단하는 것을 포함한다. 일부 실시예들에서, 포커스 셀렉터의 표현이 제1 사용자 인터페이스 내에 표시되고 제1 동작을 수행할 때에는 무시된다. 일부 실시예들에서, 포커스 셀렉터의 표현은 제1 사용자 인터페이스 내에 표시되지 않는다.In some embodiments, the second action is dependent on the position of the focus selector within the first user interface (e.g., the second action is to activate the hyperlink in the web page, Operation corresponding to activation of a specific user interface object in the first user interface, such as activation of the application), the first operation is independent of the position of the focus selector within the first user interface (928). For example, the first action may include displaying a home screen or an application launch screen, displaying a predefined application, and / or ceasing displaying the user interface corresponding to the currently displayed application. In some embodiments, the representation of the focus selector is displayed in the first user interface and is ignored when performing the first operation. In some embodiments, the representation of the focus selector is not displayed in the first user interface.

일부 실시예들에서, 버튼의 활성화를 검출하기 전에(930), 디바이스는 디스플레이 상에 포커스 셀렉터의 표현을 표시한다(932). 디바이스는 버튼 상의 지문 센서를 가로지르는 지문의 이동을 검출한다(934). 일부 실시예들에서, 지문 센서를 가로지르는 지문의 이동에 걸쳐, 지문이 지문 센서 상에서 계속 검출된다. 일부 실시예들에서, 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여, 지문의 이동에 따라 디스플레이 상의 포커스 셀렉터의 표현을 이동시킨다(예를 들어, 디바이스는 버튼의 활성화 없이 지문으로 수행되는 스와이프 또는 원형 제스처에 따라 선택가능한 사용자 인터페이스 객체들을 통해 포커스 셀렉터를 스크롤함)(942). 한편, 일부 실시예들에서, 지문의 이동을 검출하는 것에 응답하여 지문의 이동에 따라 디바이스는 제3 동작(예를 들어, 옵션 전환 동작)을 수행한다(936). 일부 실시예들에서, 제3 동작은 복수의 옵션들로부터 각자의 옵션을 현재 선택된 옵션으로서 선택하는 것을 포함하고(예를 들어, 드롭 다운 메뉴(drop down menu)로부터의 옵션 선택 또는 한 세트의 아이템들로부터의 아이템 선택), 제2 동작은 현재 선택된 옵션과 연관된 행동을 수행하는 것을 포함한다(938). 일부 실시예들에서, 제1 동작은 현재 선택된 옵션(예를 들어, 현재 선택된 옵션을 콘텐트 필드에 대한 선택으로서 활용하는 것, 또는 아이템을 사용/활성화하는 것)에 대해 독립적이다(940). 일례로서, 옵션 전환은 게임에서 아이템들과 무기들 사이에서 전환하며, 제2 동작은 게임에서 아이템을 이용하거나 무기를 발사하는 것을 포함한다. 이러한 예에서, 제1 동작은 선택적으로 게임에서 빠져나가서 디바이스의 홈 스크린 또는 애플리케이션 기동 스크린으로 복귀하는 것이다.In some embodiments, before detecting the activation of the button (930), the device displays a representation of the focus selector on the display (932). The device detects movement of the fingerprint across the fingerprint sensor on the button (934). In some embodiments, over the movement of the fingerprint across the fingerprint sensor, the fingerprint is continuously detected on the fingerprint sensor. In some embodiments, in response to detecting movement of the fingerprint on the fingerprint sensor, movement of the representation of the focus selector on the display as the fingerprint moves (e.g., Scrolling the focus selector through selectable user interface objects according to a wipe or circular gesture). On the other hand, in some embodiments, in response to detecting movement of the fingerprint, the device performs (936) a third action (e.g., an option switching action) as the fingerprint moves. In some embodiments, the third action may include selecting a respective option from a plurality of options as the currently selected option (e.g., selecting an option from a drop down menu or a set of items , The second action includes performing an action associated with the currently selected option (938). In some embodiments, the first action is independent of the currently selected option (e.g., utilizing the currently selected option as a selection for the content field, or using / activating the item) (940). As an example, an option switchover switches between items and weapons in a game, and a second action involves using an item in a game or launching a weapon. In this example, the first action is optionally exiting the game and returning to the home screen of the device or the application launch screen.

도 9a 내지 도 9c의 동작들이 기술된 구체적인 순서는 단지 예시적인 것이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 9a 내지 도 9c와 관련하여 전술된 방법(900)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(900)과 관련하여 전술된 지문들, 제스처들, 사용자 인터페이스 객체들, 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 사용자 인터페이스 객체들, 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 9A-9C are described is exemplary only and that the sequences described are not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 900 described above in connection with 9c is also applicable in a similar manner. For example, the fingerprints, gestures, user interface objects, focus selectors described above in connection with method 900 may optionally be combined with other methods described herein (e.g., " Contacts, user interface objects, and focus selectors described herein in connection with the methods listed in the second paragraph of " For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 10은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1000)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 10에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 10 illustrates a functional block diagram of an electronic device 1000 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in FIG. 10 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 10에 도시된 바와 같이, 전자 디바이스(1000)는 지문 센서 유닛(1002)과 통합된 버튼 유닛(1001); 및 버튼 유닛(1001)에 연결된 프로세싱 유닛(1008)을 포함한다. 전자 디바이스(1000)는 선택적으로 하나 이상의 사용자 인터페이스들의 표시를 가능하게 하도록 구성된 디스플레이 유닛(1006); 및 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(1004)을 포함한다. 일부 실시예들에서, 디스플레이 유닛(1006) 및 터치-감응 표면 유닛(1004)은 버튼 유닛(1001) 및/또는 프로세싱 유닛(1008)에 결합된다. 일부 실시예들에서, 프로세싱 유닛(1008)은 검출 유닛(1010), 제1 동작 수행 유닛(1012), 제2 동작 수행 유닛(1014) 및 디스플레이 인에이블링 유닛(1016)을 포함한다.10, the electronic device 1000 includes a button unit 1001 integrated with the fingerprint sensor unit 1002; And a processing unit 1008 coupled to the button unit 1001. The electronic device 1000 may optionally include a display unit 1006 configured to enable display of one or more user interfaces; And a touch-sensitive surface unit 1004 configured to receive contacts. In some embodiments, the display unit 1006 and the touch-sensitive surface unit 1004 are coupled to the button unit 1001 and / or the processing unit 1008. In some embodiments, the processing unit 1008 includes a detection unit 1010, a first operation performing unit 1012, a second operation performing unit 1014, and a display enabling unit 1016.

프로세싱 유닛(1008)은 (예를 들어, 검출 유닛(1010)을 이용하여) 통합형 지문 센서 유닛(1002) 상의 지문을 검출하도록 구성된다. 통합형 지문 센서 유닛(1002) 상에서 계속 지문을 검출하는 동안, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하도록 추가로 구성된다. 버튼 유닛(1001)의 활성화를 검출하는 것에 응답하여: 버튼 유닛(1001)의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문이 계속 검출되지 않았다는 결정에 따라, 프로세싱 유닛(1008)은 (예를 들어, 제1 동작 수행 유닛(1012)을 이용하여) 버튼 유닛(1001)의 활성화와 연관된 미리 정해진 동작인 제1 동작을 수행하도록 구성된다. 버튼 유닛(1001)의 활성화를 검출하는 것에 응답하여: 버튼 유닛(1001)의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문이 계속 검출되었다는 결정에 따라, 프로세싱 유닛(1008)은 (예를 들어, 제2 동작 수행 유닛(1014)을 이용하여) 제1 동작과 상이한 제2 동작을 수행하도록 구성되며, 여기서 제2 동작은 버튼 유닛(1001)의 활성화를 검출하기 직전에 디스플레이 유닛(1006) 상에 표시된 사용자 인터페이스와 연관된 동작이다.The processing unit 1008 is configured to detect a fingerprint on the integrated fingerprint sensor unit 1002 (e.g., using the detection unit 1010). While still detecting the fingerprint on the integrated fingerprint sensor unit 1002, the processing unit 1008 is further configured to detect the activation of the button unit 1001. [ In response to detecting activation of the button unit 1001: in response to the determination that the fingerprint has not been continuously detected on the integrated fingerprint sensor unit 1002 for a predetermined period of time before detecting activation of the button unit 1001, The control unit 1008 is configured to perform a first operation that is a predetermined operation associated with activation of the button unit 1001 (e.g., using the first operation performing unit 1012). In response to detecting activation of the button unit 1001: upon determining that the fingerprint has been continuously detected on the integrated fingerprint sensor unit 1002 for a predetermined period of time prior to detecting activation of the button unit 1001, 1008 are configured to perform a second operation different from the first operation (e.g., using the second operation performing unit 1014), wherein the second operation is performed immediately prior to detecting activation of the button unit 1001 Is an operation associated with the user interface displayed on the display unit 1006 in FIG.

일부 실시예들에서, 디스플레이 유닛(1006)은 통합형 지문 센서 유닛(1002) 상에서 지문을 검출하기 전에 (예를 들어, 디스플레이 인에이블링 유닛(1016)을 이용하여) 제1 사용자 인터페이스의 표시를 가능하게 하도록 구성된다.In some embodiments, the display unit 1006 may enable display of the first user interface (e.g., using the display enabling unit 1016) before detecting the fingerprint on the integrated fingerprint sensor unit 1002 .

일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고; 제1 동작은 제1 사용자 인터페이스의 표시를 가능하게 하는 것을 중단하고 디스플레이 유닛(1006) 상에 애플리케이션 기동 인터페이스의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first user interface is a user interface of the first application; The first action includes stopping enabling the display of the first user interface and enabling display of the application launch interface on the display unit 1006. [

일부 실시예들에서, 제1 애플리케이션의 사용자 인터페이스는 제1 애플리케이션과 연관된 각자의 동작들에 대응하는 복수의 어포던스들을 포함하고, 제2 동작은 복수의 어포던스들 중 현재 선택된 어포던스에 대응하는 제1 애플리케이션과 연관된 동작을 수행하는 것을 포함한다.In some embodiments, the user interface of the first application includes a plurality of poses corresponding to respective operations associated with the first application, and the second operation includes a first application corresponding to the currently selected posibility of the plurality of poses, Lt; RTI ID = 0.0 &gt; and / or &lt; / RTI &gt;

일부 실시예들에서, 제1 사용자 인터페이스는 애플리케이션 기동 인터페이스이고, 제1 동작은 애플리케이션 기동 인터페이스의 표시를 가능하게 하는 것을 중단하고 버튼 유닛(1001)의 활성화와 연관된 미리 정해진 애플리케이션의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first user interface is an application launch interface, wherein the first operation is to stop enabling the display of the application launch interface and enable display of a predetermined application associated with activation of the button unit 1001 .

일부 실시예들에서, 애플리케이션 기동 인터페이스는 복수의 애플리케이션들 중 각자의 애플리케이션들에 대응하는 복수의 애플리케이션 기동 어포던스들을 포함하고, 제2 동작은 복수의 애플리케이션 기동 어포던스들 중 현재 선택된 애플리케이션 기동 어포던스에 대응하는 각자의 애플리케이션을 시동시키는 것을 포함한다.In some embodiments, the application launch interface includes a plurality of application launch aids corresponding to respective ones of the plurality of applications, and the second operation includes a plurality of application launch aids corresponding to the currently selected application launch aids And launching their respective applications.

일부 실시예들에서, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하기 전에: 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문을 검출하고; 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문을 검출하는 것에 응답하여 디스플레이 유닛(1006) 상에 포커스 셀렉터의 표현을 표시하는 것을 가능하게 하도록 추가로 구성된다.In some embodiments, the processing unit 1008 detects fingerprints on the integrated fingerprint sensor unit 1002 for a predetermined period of time before detecting activation of the button unit 1001; And to display the representation of the focus selector on the display unit 1006 in response to detecting the fingerprint on the integrated fingerprint sensor unit 1002 for a predetermined period of time.

일부 실시예들에서, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하기 전에: 디스플레이 유닛(1006) 상에서 포커스 셀렉터의 표현을 표시하고; 지문 센서 유닛(1008) 상에서 지문의 이동을 검출하고, 지문 센서 유닛(1002) 상에서의 지문의 이동을 검출하는 것에 응답하여, 지문의 이동에 따라 디스플레이 유닛(1006) 상에서 포커스 셀렉터의 표현을 이동시키도록 추가로 구성된다.In some embodiments, the processing unit 1008 displays a representation of the focus selector on the display unit 1006 before detecting activation of the button unit 1001; In response to detecting the movement of the fingerprint on the fingerprint sensor unit 1008 and detecting the movement of the fingerprint on the fingerprint sensor unit 1002, the representation of the focus selector on the display unit 1006 is moved in accordance with the movement of the fingerprint .

일부 실시예들에서, 제2 동작은 제1 사용자 인터페이스 내의 포커스 셀렉터의 위치에 종속적이고, 제1 동작은 제1 사용자 인터페이스 내에서의 포커스 셀렉터의 위치에 독립적이다.In some embodiments, the second operation is dependent on the position of the focus selector in the first user interface, and the first operation is independent of the position of the focus selector within the first user interface.

일부 실시예들에서, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하기 전에: 버튼 유닛(1001) 상의 지문 센서 유닛(1002)을 가로지르는 지문의 이동을 검출하고, 지문의 이동을 검출하는 것에 응답하여 지문의 이동에 따라 제3 동작을 수행하도록 추가로 구성된다.In some embodiments, the processing unit 1008 may detect movement of the fingerprint across the fingerprint sensor unit 1002 on the button unit 1001, detect movement of the fingerprint And to perform a third operation in accordance with the movement of the fingerprint in response to the detection.

일부 실시예들에서, 제3 동작은 복수의 옵션들로부터, 현재 선택된 옵션으로서, 각자의 옵션을 선택하는 것을 포함하고, 제2 동작은 현재 선택된 옵션과 연관된 작용을 수행하는 것을 포함한다.In some embodiments, the third action includes selecting an option from the plurality of options as the currently selected option, and the second action includes performing an action associated with the currently selected option.

일부 실시예들에서, 제1 동작은 현재 선택된 옵션에 독립적이다.In some embodiments, the first operation is independent of the currently selected option.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 9a 내지 도 9c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 10에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(901), 디스플레이 동작(906) 및 수행 동작(916)은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 9A-9C are optionally implemented by the components shown in Figs. 1A and 1B or 10. For example, the detection operation 901, the display operation 906 and the performing operation 916 are optionally implemented by the event classifier 170, the event recognizer 180, and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

사용자 인터페이스의 배향의 잠금Locking the orientation of the user interface

다수의 전자 디바이스들은 세로 배향 및 가로 배향과 같은 상이한 배향들을 갖는다. 이러한 디바이스들이 사용자 인터페이스들 및 콘텐트를 표시할 때, 사용자 인터페이스들 및 콘텐트는 전형적으로 디바이스 배향과 동일한 배향으로 표시된다. 때때로, 사용자는 사용자 인터페이스들 및 콘텐트가 디바이스 배향과는 상이한 배향으로 표시되기를 원할 수 있다. 사용자는 사용자 인터페이스들 및 콘텐트의 배향을 잠그기 위한 옵션을 활성화함으로써 디바이스가 사용자 인터페이스들 및 콘텐트를 특정 배향으로 표시하게 할 수 있다. 일부 방법들에서, 배향 잠금 옵션을 활성화하는 것은 메뉴들과 하위-메뉴들을 여는 것 및/또는 복수의 제스처들과 버튼 누르기를 필요로 한다. 아래에서 기술되는 실시예들은 사용자가 더 간단한 입력으로 배향을 잠금하게 함으로써 이러한 방법들을 개선한다. 지문 센서를 갖는 디바이스 상에서, 사용자는 사용자 인터페이스 또는 콘텐트가 원하는 배향으로 표시되어 있는 동안 지문 센서 상에서 지문을 한 방향으로 회전함으로써 사용자 인터페이스들 및 콘텐트 배향을 잠글 수 있으며, 지문 센서 상에서 지문을 반대 방향으로 회전함으로써 배향의 잠금을 해제할 수 있다. 이것은 배향 잠금 프로세스를 사용자들에 대해 보다 효율적이고 간단하게 만든다.Many electronic devices have different orientations such as vertical and horizontal orientation. When such devices display user interfaces and content, user interfaces and content are typically displayed in the same orientation as the device orientation. Occasionally, a user may wish to display user interfaces and content in an orientation different from the device orientation. The user can enable the device to display user interfaces and content in a specific orientation by activating options for locking user interfaces and orientation of the content. In some methods, activating the orientation lock option requires opening menus and sub-menus and / or multiple gestures and button presses. The embodiments described below improve these methods by allowing the user to lock the orientation with a simpler input. On a device with a fingerprint sensor, the user can lock the user interfaces and content orientation by rotating the fingerprint in one direction on the fingerprint sensor while the user interface or content is displayed in the desired orientation, The orientation can be unlocked by rotating. This makes the orientation locking process more efficient and simpler for users.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 11a 내지 도 11f 및 도 12a 및 도 12b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 11a 내지 도 11f 및 도 12a 및 도 12b와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 11a 내지 도 11f에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 11a 내지 도 11f에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to FIGS. 11A-11F and 12A-12B includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-1 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch sensitive display system 112) (Fig. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 11A-11F and Figs. 12A and 12B will be discussed with reference to touch screen 112 and fingerprint sensor 169; In such embodiments, the focus selector may alternatively include a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, a contact, or a touch screen 112 &Lt; / RTI &gt; On a device having a display 450, a separate touch-sensitive surface 451 and an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2, the user interfaces shown in Figures 11A- In response to detecting the inputs depicted in Figures 11A-11F on the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-2 while displaying on the touch screen 450, do.

도 11a는 디바이스(예를 들어, 디바이스(100))의 터치 스크린(112) 상에 표시된 사용자 인터페이스(1102)를 도시한다. 사용자 인터페이스(1102)는 예를 들어 디바이스(100) 상에서 실행되는 애플리케이션 또는 운영 체제의 사용자 인터페이스이다. 예를 들어, 도 11a에 도시된 바와 같은 사용자 인터페이스(1102)는 노트 애플리케이션을 위한 사용자 인터페이스이다. 도 11a에서, 디바이스(100)는 터치 스크린(112)의 수직 높이(즉, 화살표(1100)에 의해 표시된 차원)가 수평 폭(즉, 화살표(1101)에 의해 표시된 차원)보다 더 길도록 배향되었고; 터치 스크린(112)은 세로 배향으로 있다(예를 들어, 터치 스크린(112)의 장축이 화살표(1100)에 의해 표시된 상/하 축에 평행함). 도 11a에서, 사용자 인터페이스(1102)는 터치 스크린(112)의 세로 배향에 따라 세로 모드로 표시되어 있다. 예를 들어, 세로 모드에서, 우측이 위로 온 사용자 인터페이스(1102)는 차원(1101)에서보다 차원(1100)에서 더 길다.11A shows a user interface 1102 displayed on a touch screen 112 of a device (e.g., device 100). User interface 1102 is, for example, the user interface of an application or operating system running on device 100. For example, the user interface 1102 as shown in FIG. 11A is a user interface for a note application. 11A, the device 100 is oriented such that the vertical height of the touch screen 112 (i.e., the dimension indicated by arrow 1100) is longer than the horizontal width (i.e., the dimension indicated by arrow 1101) ; The touch screen 112 is vertically oriented (e.g., the long axis of the touch screen 112 is parallel to the up / down axis indicated by the arrow 1100). In FIG. 11A, the user interface 1102 is displayed in portrait mode according to the vertical orientation of the touch screen 112. For example, in portrait mode, the user interface 1102 with the right side up is longer in dimension 1100 than in dimension 1101.

도 11b에서, 디바이스(100)는 터치 스크린(112)의 수직 높이(즉, 차원(1100))가 수평 폭(즉, 차원(1101))보다 더 짧도록 배향되었고; 터치 스크린(112)은 가로 배향으로 있다(예를 들어, 터치 스크린(112)의 장축이 화살표(1101)에 의해 표시된 좌/우 축에 평행함). 도 11b에서, 사용자 인터페이스(1102)는 터치 스크린(112)의 가로 배향에 따라 가로 모드로 표시되어 있다. 예를 들어, 가로 모드에서, 우측이 위로 온 사용자 인터페이스(1102)는 차원(1100)보다 차원(1101)에서 더 길다.In FIG. 11B, the device 100 is oriented such that the vertical height (i.e., dimension 1100) of the touch screen 112 is shorter than the horizontal width (i.e., dimension 1101); The touch screen 112 is in a transverse orientation (e.g., the long axis of the touch screen 112 is parallel to the left / right axis indicated by arrow 1101). In FIG. 11B, the user interface 1102 is displayed in landscape mode according to the horizontal orientation of the touch screen 112. For example, in landscape mode, the user interface 1102 with the right side up is longer in dimension 1101 than dimension 1100.

도 11a 내지 도 11f에서, 디바이스(100)의 더 긴 차원과 터치 스크린(112)의 더 긴 차원이 평행하다는 것을 이해하여야 한다. 따라서, 디바이스(100)가 세로 배향으로 있을 때, 터치 스크린(112)이 세로 배향(즉, 수평 폭보다 더 긴 수직 높이)으로 있다. 유사하게, 디바이스(100)가 가로 배향으로 있을 때, 터치 스크린(112)이 가로 배향으로 있다. 일부 실시예들에서, 디바이스(100)의 더 긴 차원이 터치 스크린(112)의 더 긴 차원에 대해 수직이며; 디바이스(100)가 가로 배향으로 있을 때, 터치 스크린(112)이 세로 배향으로 있거나, 그 반대이다.In Figures 11A-11F, it should be appreciated that the longer dimension of the device 100 and the longer dimension of the touch screen 112 are parallel. Thus, when the device 100 is in portrait orientation, the touch screen 112 is in a vertical orientation (i.e., a vertical height longer than the horizontal width). Similarly, when the device 100 is in a transverse orientation, the touch screen 112 is in a transverse orientation. In some embodiments, the longer dimension of the device 100 is perpendicular to the longer dimension of the touch screen 112; When the device 100 is in the transverse orientation, the touch screen 112 is in portrait orientation or vice versa.

도 11a 및 도 11b에 도시된 바와 같이, 사용자 인터페이스(1102)는 터치 스크린(112)의 배향에 따라 세로 또는 가로 모드로 표시된다. (예를 들어, 사용자가 터치 스크린(112)의 표면에 대해 수직인 축을 중심으로 디바이스(100)를 회전시킴으로써) 터치 스크린(112)이 배향을 변경하고 사용자 인터페이스(1102)가 특정 배향-특정 모드로 잠금되어 있지 않을 때, 사용자 인터페이스(102)는 (예를 들어, 디바이스에 통합된 가속도계로부터 감지된 중력의 방향에 기초하여) 새로운 배향에 따른 모드로 표시된다. 예를 들어, 디바이스(100)가 도 11a에서와 같은 세로 배향으로부터 도 11b에서와 같은 가로 배향으로 회전된 때, 디바이스(100)는 표시되는 사용자 인터페이스(1102)를 도 11a에서와 같은 세로 모드로부터 도 11b에서와 같은 가로 모드로 변경한다. 유사하게, 디바이스(100)가 도 11b에서와 같은 가로 배향으로부터 도 11a에서와 같은 세로 배향으로 회전될 때, 디바이스(100)는 표시되는 사용자 인터페이스(1102)를 도 11b에서와 같은 가로 모드로부터 도 11a에서와 같은 세로 모드로 변경한다.As shown in FIGS. 11A and 11B, the user interface 1102 is displayed in portrait or landscape mode according to the orientation of the touch screen 112. (E.g., by rotating the device 100 about an axis that is perpendicular to the surface of the touch screen 112), and the user interface 1102 changes the orientation of the touch screen 112 to a particular orientation- The user interface 102 is displayed in a mode according to the new orientation (e.g., based on the direction of gravity sensed from the accelerometer integrated in the device). For example, when the device 100 is rotated from the vertical orientation as in FIG. 11A to the horizontal orientation as in FIG. 11B, the device 100 moves the displayed user interface 1102 from the vertical mode as in FIG. 11A The mode changes to the landscape mode as shown in Fig. 11B. Similarly, when the device 100 is rotated from the landscape orientation as in FIG. 11B to the portrait orientation as in FIG. 11A, the device 100 displays the displayed user interface 1102 from the landscape mode as in FIG. 11B 11a. &Lt; / RTI &gt;

도 11c는 지문 센서(169) 상에서 지문(1104)을 검출하는 디바이스(100)를 도시한다. 지문(1104)은 예를 들어 손가락으로 지문 센서(169) 상에 접촉하는 사용자에 의해 지문 센서(169) 상에 위치된다. 도 11c 및 도 11d는 디바이스(100)가 지문 센서(169) 둘레에서의 지문(1104)의 시계 방향 회전을 검출하는 것을 도시한다. 사용자 인터페이스(1102)가 세로 모드로 표시되는 동안에 지문(1104)의 회전이 검출된다. 일부 실시예들에서, 지문(1104)의 회전은 지문 센서(169) 상에서의 지문(1104)의 비틀기이다. 일부 다른 실시예들에서, 지문(1104)의 회전은 지문 센서(169) 둘레에서의 지문(1104)의 선회(revolution)이다.Fig. 11C shows a device 100 for detecting a fingerprint 1104 on a fingerprint sensor 169. Fig. The fingerprint 1104 is positioned on the fingerprint sensor 169 by a user who contacts the fingerprint sensor 169 with, for example, a finger. Figs. 11C and 11D illustrate that the device 100 detects the clockwise rotation of the fingerprint 1104 around the fingerprint sensor 169. Fig. The rotation of the fingerprint 1104 is detected while the user interface 1102 is displayed in portrait mode. In some embodiments, rotation of the fingerprint 1104 is a twist of the fingerprint 1104 on the fingerprint sensor 169. [ In some other embodiments, the rotation of the fingerprint 1104 is a revolution of the fingerprint 1104 around the fingerprint sensor 169.

사용자 인터페이스(1102)가 세로 모드로 표시된 동안에 지문 센서 둘레에서 시계 방향으로의 지문(1104)의 회전을 검출하는 것에 응답하여, 디바이스(100)는 사용자 인터페이스(1102)를 세로 모드로 잠금시킨다. 일부 실시예들에서, 사용자 인터페이스(1102)가 세로 모드로 잠겼다는 시각적 표지(예를 들어, 도 11d의 아이콘(1106))가 표시된다. 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안, 터치 스크린(112)이 세로 배향이든 가로 배향이든 간에 사용자 인터페이스(1102)는 세로 모드로 표시된다. 세로 모드로 잠금된 사용자 인터페이스(1102)가 표시되고 디바이스(100)가 가로 배향으로 회전될 때, 사용자 인터페이스(1102)는 세로 모드로 유지되고; 사용자 인터페이스(1102)는 90도 회전된 것처럼 표시된다. 예를 들어, 도 11e는 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 가로 배향된 디바이스(100)를 도시하며; 사용자 인터페이스(1102)는 디바이스(100)의 가로 배향에도 불구하고 세로 모드로 표시된다.In response to detecting rotation of the fingerprint 1104 in a clockwise direction around the fingerprint sensor while the user interface 1102 is displayed in portrait mode, the device 100 locks the user interface 1102 in portrait mode. In some embodiments, a visual indicator (e.g., icon 1106 of FIG. 11D) that the user interface 1102 is locked in portrait mode is displayed. While the user interface 1102 is locked in the portrait mode, the user interface 1102 is displayed in portrait mode whether the touch screen 112 is portrait or landscape orientation. When the user interface 1102 locked in portrait mode is displayed and the device 100 is rotated in the landscape orientation, the user interface 1102 is maintained in portrait mode; The user interface 1102 is displayed as if rotated 90 degrees. For example, FIG. 11E shows horizontally oriented device 100 while user interface 1102 is locked in portrait mode; The user interface 1102 is displayed in portrait mode despite the horizontal orientation of the device 100.

사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에, 도 11e 및 도 11f에 도시된 바와 같이, 디바이스(100)는 지문(1108) 및 지문 센서(169) 둘레에서 반시계 방향으로의 지문(1108)의 회전을 검출한다. 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 지문 센서(169) 둘레에서 반시계 방향으로의 지문(1108)의 회전을 검출하는 것에 응답하여, 사용자 인터페이스(1102)는 세로 모드로부터 잠금해제된다. 사용자 인터페이스(1102)가 잠금된 동안 사용자 인터페이스(1102)가 세로 모드로 잠금되었다는 시각적 표지(예를 들어, 도 11d의 아이콘(1106))가 표시되었다면, 시각적 표지의 표시가 중단된다. 예를 들어, 도 11f는 디바이스(100)가 지문 센서(169) 둘레에서 반시계 방향으로의 지문(1108)의 회전을 검출하는 것에 응답하여 아이콘(1106)의 표시가 중단된 것을 도시한다. 사용자 인터페이스(1102)가 세로 모드로부터 잠금해제된 후에, 사용자 인터페이스(1102)의 표시 모드는 다시 도 11a 및 도 11b에 도시된 바와 같이 디바이스(100)의 배향을 따른다(예를 들어, 가속도계 또는 다른 센서를 사용하여 디바이스에 의해 검출되는 중력의 방향에 따름). 예를 들어, 도 11f에서 사용자 인터페이스(1102)가 세로 모드로부터 잠금해제된 후에, 사용자 인터페이스(1102)는 디바이스(100)의 가로 배향에 따라 도 11b에서와 같이 가로 모드로 되돌아간다.While the user interface 1102 is locked in the portrait mode, as shown in Figures 11E and 11F, the device 100 has a fingerprint 1108 and a fingerprint 1108 in a counterclockwise direction around the fingerprint sensor 169, As shown in Fig. In response to detecting rotation of the fingerprint 1108 in the counterclockwise direction around the fingerprint sensor 169 while the user interface 1102 is locked in the portrait mode, the user interface 1102 is unlocked from the portrait mode. If the visual indicator (e.g., icon 1106 of FIG. 11D) that the user interface 1102 is locked in portrait mode while the user interface 1102 is locked is displayed, the display of the visual indicator is stopped. For example, FIG. 11F shows that the display of the icon 1106 is stopped in response to the device 100 detecting the rotation of the fingerprint 1108 in the counterclockwise direction around the fingerprint sensor 169. After the user interface 1102 is unlocked from the portrait mode, the display mode of the user interface 1102 again follows the orientation of the device 100 as shown in Figures 11A and 11B (e.g., Depending on the direction of gravity detected by the device using the sensor). For example, after the user interface 1102 is unlocked from the portrait mode in FIG. 11F, the user interface 1102 returns to landscape mode as in FIG. 11B, depending on the horizontal orientation of the device 100. FIG.

일부 실시예들에서, 전술된 동작들과 유사한 동작들이 사용자 인터페이스(1102)를 가로 모드로 잠금하기 위해서 수행된다. 예를 들어, 사용자 인터페이스(1102)가 (예를 들어, 가로로 배향되어 있는 디바이스(100)를 따라) 가로 모드로 표시되어 있는 동안에 지문(1104)의 회전(도 11c 및 도 11d)과 유사한 지문 회전이 사용자 인터페이스(1102)를 가로 모드로 잠금한다. 사용자 인터페이스(1102)가 가로 모드로 잠금된 동안에 지문(1108)의 회전(도 11e 및 도 11f)과 유사한 지문 회전이 사용자 인터페이스(1102)를 가로 모드로부터 잠금해제한다.In some embodiments, operations similar to those described above are performed to lock the user interface 1102 in the landscape mode. For example, a fingerprint 1104 similar to the rotation of the fingerprint 1104 (FIGS. 11C and 11D) while the user interface 1102 is displayed in landscape mode (e.g., along the horizontally oriented device 100) The rotation locks the user interface 1102 in the landscape mode. A fingerprint rotation similar to the rotation of the fingerprint 1108 (Figs. 11E and 11F) while the user interface 1102 is locked in the landscape mode unlocks the user interface 1102 from the landscape mode.

일부 실시예들에서, 전술된 것과는 반대로, 사용자 인터페이스(1102)를 특정 배향 모드(즉, 세로 모드 또는 가로 모드)로 잠그는 지문 회전이 반시계 방향이고, 잠금해제를 위한 회전이 시계 방향일 수 있다.In some embodiments, as opposed to the foregoing, the fingerprint rotation that locks the user interface 1102 in a particular orientation mode (i.e., portrait or landscape) may be counterclockwise and the rotation for unlocking may be clockwise .

도 12a 및 도 12b는 일부 실시예들에 따른, 사용자 인터페이스의 배향을 잠금하는 방법(1200)을 예시하는 흐름도이다. 방법(1200)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(1200) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.12A and 12B are flow charts illustrating a method 1200 of locking an orientation of a user interface, according to some embodiments. The method 1200 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 1200 may be selectively combined and / or the order of some operations may be selectively changed.

아래에 기술되는 바와 같이, 방법(1200)은 사용자 인터페이스의 배향을 잠금하기 위한 직관적인 방식을 제공한다. 이 방법은 사용자 인터페이스의 배향을 잠금할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 사용자 인터페이스의 배향을 더 빠르고 더 효율적으로 잠금할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 1200 provides an intuitive way to lock the orientation of the user interface. This method reduces the cognitive burden on the user when locking the orientation of the user interface, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing the user to lock the orientation of the user interface faster and more efficiently conserves power and increases the time between battery charges.

디바이스는 디바이스의 제1 배향과 연관된 제1 배향-특정 동작 모드(예를 들어, 세로 모드) 및 디바이스의 제1 배향과는 상이한 디바이스의 제2 배향과 연관된 제2 배향-특정 동작 모드(예를 들어, 가로 모드)를 갖는 사용자 인터페이스를 디스플레이 상에 표시한다(1202). 예를 들어, 도 11a 및 도 11b는 터치 스크린(112) 상에 표시된 사용자 인터페이스(1102)를 도시한다. 사용자 인터페이스(1102)는 디바이스(100)가 세로 배향일 때 세로 모드로 표시되고(도 11a), 디바이스(100)가 가로 배향일 때 가로 모드로 표시된다(도 11b).The device may be in a first orientation-specific mode of operation (e.g., vertical mode) associated with a first orientation of the device and a second orientation-specific mode of operation associated with a second orientation of the device that is different from the first orientation of the device For example, a landscape mode) on the display (1202). For example, FIGS. 11A and 11B illustrate a user interface 1102 displayed on the touch screen 112. FIG. The user interface 1102 is displayed in portrait mode when the device 100 is vertically oriented (Fig. 11A) and displayed in landscape mode when the device 100 is horizontally oriented (Fig. 11B).

일부 실시예들에서, 제1 배향-특정 동작 모드는 세로 배향 동작 모드이고, 제2 배향-특정 동작 모드는 가로 배향 동작 모드이다(1204). 도11a 및 도 11b에 도시된 바와 같이, 사용자 인터페이스(1102)는 세로 모드 또는 가로 모드로 표시된다.In some embodiments, the first orientation-specific mode of operation is a longitudinal orientation mode of operation and the second orientation-specific mode of operation is a horizontal orientation mode of operation 1204. 11A and 11B, the user interface 1102 is displayed in a portrait mode or a landscape mode.

사용자 인터페이스의 배향이 잠금되지 않은 동안에(1206), 디바이스가 제1 배향인 경우 디바이스는 사용자 인터페이스를 제1 배향-특정 동작 모드로 표시하고(1208), 디바이스가 제2 배향인 경우 디바이스는 사용자 인터페이스를 제2 배향-특정 동작 모드로 표시한다(1210). 도 11a 및 도 11b는 특정 배향 모드로 잠금되지 않은 사용자 인터페이스(1102)를 도시한다. 사용자 인터페이스(1102)는 디바이스(100)가 세로 배향일 때 세로 모드로 표시되고(도 11a), 디바이스(100)가 가로 배향일 때 가로 모드로 표시된다(도 11b).While the orientation of the user interface is unlocked 1206, the device displays the user interface in a first orientation-specific mode of operation 1208, and if the device is in the second orientation, In a second orientation-specific mode of operation (1210). Figures 11A and 11B illustrate unlocked user interface 1102 in a specific orientation mode. The user interface 1102 is displayed in portrait mode when the device 100 is vertically oriented (Fig. 11A) and displayed in landscape mode when the device 100 is horizontally oriented (Fig. 11B).

디바이스는 지문 센서 상에서 지문을 검출한다(1212). 예를 들어, 도 11c는 지문 센서(169) 상에서 검출된 지문(1104)을 도시한다. 다른 예로서, 도 11e는 지문 센서(169) 상에서 검출된 지문(1108)을 도시한다. 일부 실시예들에서, 지문 센서는 디스플레이와는 별개이다(1214). 예를 들어, 지문 센서(169)는 터치 스크린(112)과는 별개이다.The device detects the fingerprint on the fingerprint sensor (1212). For example, FIG. 11C shows the fingerprint 1104 detected on the fingerprint sensor 169. FIG. As another example, FIG. 11E shows the fingerprint 1108 detected on the fingerprint sensor 169. In some embodiments, the fingerprint sensor is separate from the display (1214). For example, the fingerprint sensor 169 is separate from the touch screen 112.

사용자 인터페이스가 제1 배향-특정 모드에 있는 동안에, 디바이스는 제1 방향(예를 들어, 시계 방향)으로의 지문 센서 상에서의 지문의 회전을 검출한다(예를 들어, 지문의 배향이 지문 센서의 배향에 대해 변화함)(1216). 예를 들어, 도 11d는 지문(1104)이 지문 센서(169) 상에서 시계 방향으로 회전하는 것(예를 들어, 비틀기)을 검출하는 디바이스(100)를 도시한다. 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여(1218), 디바이스는 사용자 인터페이스를 제1 배향-특정 동작 모드로 잠금되게 한다(1220). 도 11d에서, 예를 들어 사용자 인터페이스(1102)가 세로 모드로 표시되는 동안에 지문(1104)의 시계 방향 회전을 검출하는 것에 응답하여, 디바이스(100)는 (도 11e에 도시된 바와 같이) 사용자 인터페이스(1102)를 세로 모드로 잠금되게 한다.While the user interface is in the first orientation-specific mode, the device detects the rotation of the fingerprint on the fingerprint sensor in a first direction (e.g., clockwise) (e.g., Varying with respect to orientation) 1216. For example, FIG. 11D shows device 100 detecting fingerprint 1104 rotating clockwise (e.g., twisting) on fingerprint sensor 169. In response to detecting rotation of the fingerprint on the fingerprint sensor in the first direction (1218), the device causes the user interface to be locked in a first orientation-specific mode of operation (1220). 11D, in response to detecting, for example, the clockwise rotation of the fingerprint 1104 while the user interface 1102 is being displayed in portrait mode, the device 100 may display a user interface (e.g., (1102) to be locked in portrait mode.

일부 실시예들에서, 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여(1218), 디바이스는 사용자 인터페이스 배향이 제1 배향-특정 동작 모드로 잠금되었다는 시각적 표지를 표시한다(1222). 도 11d에서, 예를 들어 지문(1104)의 시계 방향 회전을 검출하는 것에 응답하여, 디바이스(100)는 사용자 인터페이스(1102)를 세로 모드로 잠금하는 것에 더하여 사용자 인터페이스(1102)가 세로 모드로 잠금되었다는 것을 나타내도록 아이콘(1106)을 표시한다.In some embodiments, in response to detecting rotation of the fingerprint on the fingerprint sensor in the first direction (1218), the device displays a visual indicator that the user interface orientation is locked to the first orientation-specific mode of operation 1222). 11D, in response to detecting, for example, the clockwise rotation of the fingerprint 1104, the device 100 may lock the user interface 1102 in portrait mode, The icon 1106 is displayed.

사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에(1224), 디바이스는 디바이스가 제2 배향에 있고 사용자 인터페이스를 제1 배향-특정 동작 모드로 유지(1226)한다는 것을 검출한다. 예를 들어, 도 11d는 세로 배향된 디바이스(100) 및 세로 모드로 잠금된 사용자 인터페이스(1102)를 도시한다. 디바이스(100)가 (예를 들어, 사용자에 의해) 가로 배향으로 회전되었을 때, 디바이스(100)는 도 11e에 도시된 바와 같이 디바이스가 이제 가로 배향되었으며, 세로 모드로 잠금된 사용자 인터페이스(1102)는 세로 모드로 유지됨을 검출한다.While the user interface is locked in the first orientation-specific mode of operation (1224), the device detects that the device is in the second orientation and maintains the user interface in the first orientation-specific mode of operation (1226). For example, FIG. 11D shows vertically oriented device 100 and vertical mode locked user interface 1102. When the device 100 is rotated in a landscape orientation (e.g., by a user), the device 100 is in a state in which the device is now horizontally oriented, as shown in FIG. 11E, and the user interface 1102, It is detected that the vertical mode is maintained.

일부 실시예들에서, 사용자 인터페이스가 제2 배향-특정 동작 모드에 있는 동안에, 디바이스가 제1 방향(예를 들어, 시계 방향)으로의 지문 센서 상에서의 지문의 회전을 검출하고(예를 들어, 지문 센서의 배향에 대해 지문의 배향이 변경됨); 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여, 디바이스가 사용자 인터페이스를 제2 배향-특정 동작 모드로 잠금되게 하고; 사용자 인터페이스가 제2 배향-특정 동작 모드로 잠금된 동안에, 디바이스는 디바이스가 제1 배향에 있고 사용자 인터페이스가 제2 배향-특정 동작 모드로 유지됨을 검출한다. 따라서, 유사하게 사용자 인터페이스(1102)는 선택적으로 가로 모드로 잠금되며, 디바이스(100)가 세로 배향될 때에도 가로 모드로 표시된다.In some embodiments, while the user interface is in the second orientation-specific mode of operation, the device detects rotation of the fingerprint on the fingerprint sensor in a first direction (e.g., clockwise) (e.g., The orientation of the fingerprint is changed with respect to the orientation of the fingerprint sensor); Responsive to detecting rotation of the fingerprint on the fingerprint sensor in the first direction, causing the device to lock the user interface in a second orientation-specific mode of operation; While the user interface is locked in the second orientation-specific mode of operation, the device detects that the device is in the first orientation and the user interface remains in the second orientation-specific mode of operation. Similarly, the user interface 1102 is optionally locked in landscape mode and is displayed in landscape mode even when the device 100 is vertically oriented.

일부 실시예들에서, 사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에(1224), 디바이스는 제1 방향과는 상이한 제2 방향(예를 들어, 반시계 방향)으로의 지문 센서 상에서의 지문의 회전을 검출한다(1228). 제2 방향으로의 지문의 회전을 검출하는 것에 응답하여, 디바이스는 사용자 인터페이스를 제1 배향-특정 동작 모드로부터 잠금해제한다(1230). 예를 들어, 도 11f는 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 디바이스(100)가 지문(1108)의 반시계 방향 회전(예를 들어, 비틀기)을 검출하는 것을 나타낸다. 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 지문(1108)의 반시계 방향 회전을 검출하는 것에 응답하여, 사용자 인터페이스(1102)가 세로 모드로부터 잠금해제된다.In some embodiments, while the user interface is locked (1224) in the first orientation-specific mode of operation, the device may be moved to a second orientation-specific mode of operation on the fingerprint sensor in a second direction (e.g., counterclockwise) The rotation of the fingerprint is detected (1228). In response to detecting the rotation of the fingerprint in the second direction, the device unlocks the user interface from the first orientation-specific mode of operation (1230). For example, FIG. 11F shows that device 100 detects counterclockwise rotation (e.g., twisting) of fingerprint 1108 while user interface 1102 is locked in portrait mode. In response to detecting the counterclockwise rotation of fingerprint 1108 while user interface 1102 is locked in portrait mode, user interface 1102 is unlocked from portrait mode.

도 12a 및 도 12b의 동작들이 기술된 특정한 순서는 단지 예시적인 것이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 12a 및 도 12b와 관련하여 전술된 방법(1200)에 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(1200)과 관련하여 전술된 지문들 및 사용자 인터페이스들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들 및 사용자 인터페이스들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figures 12A and 12B are described is exemplary only and that the sequences described are not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that the details of the other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that it is also applicable in a similar manner to the method 1200 described above with respect to 12b. For example, the fingerprints and user interfaces described above in connection with method 1200 may optionally be combined with other methods described herein (e.g., methods listed in the second paragraph within " ) Of the fingerprints and user interfaces described herein. For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 13은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1300)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 13에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 13 illustrates a functional block diagram of an electronic device 1300 configured in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in FIG. 13 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 13에 도시된 바와 같이, 전자 디바이스(1300)는 디바이스(1300)의 제1 배향과 연관된 제1 배향-특정 동작 모드 및 디바이스(1300)의 제1 배향과는 상이한 디바이스(1300)의 제2 배향과 연관된 제2 배향-특정 동작 모드를 갖는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(1302)을 포함하고, 선택적으로 터치-감응 표면 유닛(1304), 지문 센서 유닛(1306); 및 디스플레이 유닛(1302), 터치-감응 표면 유닛(1304) 및 지문 센서 유닛(1306)에 결합된 프로세싱 유닛(1308)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1308)은 디스플레이 인에이블링 유닛(1310), 검출 유닛(1312), 잠금 유닛(1314), 유지 유닛(1316) 및 잠금해제 유닛(1318)을 포함한다.13, the electronic device 1300 includes a first orientation-specific mode of operation associated with the first orientation of the device 1300 and a second orientation-specific mode of operation of the device 1300 that is different from the first orientation of the device 1300. [ A display unit (1302) configured to display a user interface having a second orientation-specific mode of operation associated with orientation, and optionally a touch-sensitive surface unit (1304), a fingerprint sensor unit (1306); And a processing unit 1308 coupled to the display unit 1302, the touch-sensitive surface unit 1304 and the fingerprint sensor unit 1306. In some embodiments, the processing unit 1308 includes a display enabling unit 1310, a detection unit 1312, a lock unit 1314, a holding unit 1316 and an unlock unit 1318.

프로세싱 유닛(1308)은, 사용자 인터페이스의 배향이 잠금되지 않은 동안에: 디바이스(1300)가 제1 배향으로 있는 경우에 (예를 들어, 디스플레이 인에이블링 유닛(1310)을 이용하여) 사용자 인터페이스의 제1 배향-특정 동작 모드로의 표시를 가능하게 하고, 디바이스(1300)가 제2 배향으로 있는 경우에 (예를 들어, 디스플레이 인에이블링 유닛(1310)을 이용하여) 사용자 인터페이스의 제2 배향-특정 동작 모드로의 표시를 가능하게 하고; (예를 들어, 검출 유닛(1312)을 이용하여) 지문 센서 유닛(1306) 상의 지문을 검출하고; 사용자 인터페이스가 제1 배향-특정 동작 모드에 있는 동안에, (예를 들어, 검출 유닛(1312)을 이용하여) 지문 센서 유닛(1306) 상에서의 제1 방향으로의 지문의 회전을 검출하고; 제1 방향으로의 지문 센서 유닛(1306) 상에서의 지문의 회전을 검출하는 것에 응답하여, (예를 들어, 잠금 유닛(1314)을 이용하여) 사용자 인터페이스를 제1 배향-특정 동작 모드로 잠금하고; 사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에, (예를 들어, 검출 유닛(1312)을 이용하여) 디바이스(1300)가 제2 배향으로 있음을 검출하고 (예를 들어, 유지 유닛(1316)을 이용하여) 사용자 인터페이스를 제1 배향-특정 동작 모드로 유지하도록 구성된다.The processing unit 1308 may be configured to determine whether the orientation of the user interface is unlocked: when the device 1300 is in the first orientation (e.g., using the display enabling unit 1310) 1 orientation-enables the display in a particular mode of operation and allows the second orientation-specific orientation of the user interface (e.g., using the display enable unit 1310) when the device 1300 is in the second orientation Enable display in a specific mode of operation; (E.g., using the detection unit 1312) to detect a fingerprint on the fingerprint sensor unit 1306; Detecting rotation of the fingerprint in the first direction on the fingerprint sensor unit 1306 (e.g., using the detection unit 1312) while the user interface is in the first orientation-specific mode of operation; In response to detecting the rotation of the fingerprint on the fingerprint sensor unit 1306 in the first direction, locks the user interface in the first orientation-specific mode of operation (e.g., using lock unit 1314) ; While the user interface is locked in the first orientation-specific mode of operation, the device 1300 detects (e.g., using the detection unit 1312) that it is in the second orientation (e.g., 1316) to maintain the user interface in a first orientation-specific mode of operation.

일부 실시예들에서, 프로세싱 유닛(1308)은 사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에, (예를 들어, 검출 유닛(1312)을 이용하여) 제1 방향과는 상이한 제2 방향으로의 지문 센서 유닛(1306) 상에서의 지문의 회전을 검출하고; 제2 방향으로의 지문의 회전을 검출하는 것에 응답하여, (예를 들어, 잠금해제 유닛(1318)을 이용하여) 사용자 인터페이스를 제1 배향-특정 동작 모드로부터 잠금해제하도록 구성된다.In some embodiments, the processing unit 1308 may be configured to determine whether the user interface is locked in the first orientation-specific mode of operation or in a second direction (e.g., using the detection unit 1312) To detect the rotation of the fingerprint on the fingerprint sensor unit 1306; Is configured to unlock the user interface from the first orientation-specific mode of operation (e.g., using the unlock unit 1318) in response to detecting the rotation of the fingerprint in the second direction.

일부 실시예들에서, 프로세싱 유닛(1308)은 제1 방향으로의 지문 센서 유닛(1306) 상에서의 지문의 회전을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(1310)을 이용하여) 사용자 인터페이스 배향이 제1 배향-특정 동작 모드로 잠금되었다는 시각적 표지의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 1308 may be configured to detect fingerprint rotation on the fingerprint sensor unit 1306 in a first direction (e.g., using a display enabling unit 1310) To enable the display of a visual indicator that the user interface orientation is locked in the first orientation-specific mode of operation.

일부 실시예들에서, 제1 배향-특정 동작 모드는 세로 배향 동작 모드이며, 제2 배향-특정 동작 모드는 가로 배향 동작 모드이다.In some embodiments, the first orientation-specific mode of operation is a longitudinal orientation mode of operation and the second orientation-specific mode of operation is a transverse orientation mode of operation.

일부 실시예들에서, 지문 센서 유닛(1306)은 디스플레이 유닛(1302)과는 별개이다.In some embodiments, the fingerprint sensor unit 1306 is separate from the display unit 1302.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 12a 및 도 12b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 13에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(1212, 1216)들, 잠금 동작(1220), 및 검출 및 유지 동작(1226)들은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 12A and 12B are optionally implemented by the components shown in Figs. 1A and 1B or 13. For example, detection operations 1212 and 1216, lock operation 1220, and detection and hold operations 1226 may optionally be implemented by event classifier 170, event recognizer 180 and event handler 190 do. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

지문 센서를 이용한 녹음된 오디오에서의 잡음 감소의 제어Controlling Noise Reduction in Recorded Audio with a Fingerprint Sensor

다수의 전자 디바이스들은 사용자들이 오디오 녹음을 포함한, 미디어의 기록을 할 수 있게 한다. 녹음하는 동안에, 사용자는 전형적으로 녹음된 오디오에서 의도된 소스가 아닌 소스들로부터 비롯된 잡음을 감소시키거나/삭제하기를 원한다. 예를 들어, 사용자는 녹음된 오디오에서 자신의 숨소리를 감소시키기를 원할 수 있다. 그러나, 사용자는 잡음 감소를 마음대로 정지 또는 토글하기를 원할 수 있다. 예를 들어, 사용자는 기록된 미디어의 소정의 부분들 중에 해설을 제공하는 반면, 다른 부분들 동안의 의도하지 않은 사용자 소리를 삭제하길 원할 수 있다. 기존의 디바이스들은 이러한 기능성을 사용자에게 제공하지 않거나 또는 사용자가 다양한 메뉴들 및 사용자 인터페이스들을 통해 내비게이션할 것을 요구한다. 아래에 기술된 실시예들에서, 사용자가 잡음 감소 온 및 오프를 토글하게 하는 지문 센서를 사용함으로써 녹음된 오디오 내의 잡음 감소를 제어하는 개선된 방법이 획득된다. 이 방법은 전자 디바이스 상의 지문 센서에 응답하여 녹음된 오디오 내의 잡음 감소를 제어함으로써 녹음된 오디오 내의 잡음 감소를 제어하는 프로세스를 간소화한다.Many electronic devices allow users to record media, including audio recordings. During recording, the user typically wants to reduce / delete noise originating from sources other than the intended source in the recorded audio. For example, a user may want to reduce his or her breathing in recorded audio. However, the user may want to stop or toggle the noise reduction at will. For example, a user may provide commentary among certain portions of recorded media, while desiring to delete unintended user sounds during other portions. Existing devices do not provide this functionality to the user or require the user to navigate through the various menus and user interfaces. In the embodiments described below, an improved method of controlling noise reduction in recorded audio is achieved by using a fingerprint sensor that allows the user to toggle noise reduction on and off. This method simplifies the process of controlling noise reduction in recorded audio by controlling noise reduction in recorded audio in response to a fingerprint sensor on an electronic device.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 14a 내지 도 14d 및 도 15와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 14a 내지 도 14d 및 도 15와 관련하여 기술되는 실시예들은 디스플레이(450), 터치-감응 표면(451) 및 통합형 지문 센서(359-1)와 관련하여 논의될 것이지만, 도 14a 내지 도 14d에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에 별개의 지문 센서(359-2) 상에서 도 14a 내지 도 14d에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서 수행된다. 또한, 터치 스크린(112) 상에 도 14a 내지 도 14d에 도시된 사용자 인터페이스들을 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 14a 내지 도 14d에 묘사된 접촉들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 터치 스크린(112)을 갖는 디바이스 상에서 수행되며; 이러한 실시예들에서, 포커스 셀렉터는 선택적으로, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 14A-14D and 15 includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). 14A-14D and 15 will be discussed with respect to the display 450, the touch-sensitive surface 451, and the integrated fingerprint sensor 359-1, In response to detecting the inputs depicted in Figures 14A-14D on a separate fingerprint sensor 359-2 while displaying the user interfaces shown in Figures 14A-14D on the display 450, Sensitive surface 451 and a separate fingerprint sensor 359-2 with a separate touch-sensitive surface 451 and a separate fingerprint sensor 359-2. It should also be noted that the fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2) may be used while displaying the user interfaces shown in Figs. 14a-14d on the touch screen 112 ), Similar actions are optionally performed on the device with the touch screen 112, in response to detecting the contacts depicted in Figures 14A-14D; In such embodiments, the focus selector may optionally be configured to detect a touch point on the touch screen 112, such as a touch point (e.g., a touch point) detected on a touch screen 112, representative points corresponding to their respective touches, It is the center of two or more contacts.

도 14a 내지 도 14c는 지문 센서를 이용하여 녹음된 오디오 내의 잡음 감소를 제어하는 예를 도시한다. 도 14a는 잡음 감소 상태(1408) 및 비디오 미리보기(1410)를 갖는 미디어 기록 인터페이스(1406)를 포함하고, 디바이스(예를 들어, 휴대용 다기능 디바이스(100))의 디스플레이(450) 상에 표시된 사용자 인터페이스(1402)를 도시한다. 도 14a는 통합형 지문 센서(359-1)를 갖는 터치-감응 표면(451)을 추가로 도시한다. 도 14a는 또한 통합형 지문 센서(359-1)로부터 떨어져 있는 터치-감응 표면(451) 상의 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출하는 디바이스 및 녹음된 오디오 내에서의 잡음 감소가 온(예를 들어, 활성화)되어 있음을 나타내는 잡음 감소 상태(1408)를 도시한다. 도 14b는 통합형 지문 센서(359-1) 위에서 터치-감응 표면(451) 상의 지문(1404)을 검출하는 디바이스 및 녹음된 오디오 내에서의 잡음 감소가 오프(예를 들어, 비활성화)되어 있음을 나타내는 잡음 감소 상태(1408)를 도시한다. 도 14c는 지문(1404)이 더 이상 통합형 지문 센서(359-1) 상에 존재하지 않음을 검출하는 디바이스 및 녹음된 오디오 내에서의 잡음 감소가 온되어 있음을 나타내는 잡음 감소 상태(1408)를 도시한다.14A to 14C illustrate an example of controlling noise reduction in recorded audio using a fingerprint sensor. 14A includes a media recording interface 1406 having a noise reduction state 1408 and a video preview 1410 and is configured to display a list of users 1410 displayed on the display 450 of a device (e.g., portable multifunction device 100) Interface 1402 of FIG. 14A further illustrates a touch-sensitive surface 451 having an integrated fingerprint sensor 359-1. 14A also shows a device for detecting a fingerprint 1404 (e.g., a touch of the right-hand thumb) on the touch-sensitive surface 451 away from the integrated fingerprint sensor 359-1 and a noise reduction (E. G., Activated). &Lt; / RTI &gt; 14B illustrates a device that detects the fingerprint 1404 on the touch-sensitive surface 451 above the integrated fingerprint sensor 359-1 and a device that detects that the noise reduction in the recorded audio is off (e.g., disabled) Noise reduction state 1408. FIG. 14C shows a device for detecting that the fingerprint 1404 is no longer present on the integrated fingerprint sensor 359-1 and a noise reduction state 1408 indicating that noise reduction in the recorded audio is on do.

도 14d는 녹음된 오디오 내의 잡음 감소를 제어하는 데 사용하기 위한 디스플레이, 지문 센서 및 카메라 센서를 갖는 디바이스의 예를 도시한다. 도 14d는 제1 면(1414) 상의 지문 센서(1418) 및 디스플레이(1422)와 제2 면(1416) 상의 카메라 센서(1420)를 갖는 디바이스(1412)를 도시한다.14D shows an example of a device having a display, a fingerprint sensor and a camera sensor for use in controlling noise reduction in recorded audio. Figure 14d shows a device 1412 having a fingerprint sensor 1418 on a first side 1414 and a camera 1420 on a second side 1416 with a display 1422.

도 15는 일부 실시예들에 따른, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하는 방법(1500)을 예시하는 흐름도이다. 방법(1500)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(1500) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.15 is a flow chart illustrating a method 1500 for controlling noise reduction in recorded audio using a fingerprint sensor, in accordance with some embodiments. The method 1500 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 1500 are selectively combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(1500)은 지문 센서를 이용하여 녹음된 오디오 내의 잡음 감소를 제어하기 위한 직관적인 방식을 제공한다. 이 방법은 녹음된 오디오 내의 잡음 감소를 제어할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 녹음된 오디오에서의 잡음 감소를 더 빠르고 더 효율적으로 제어할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 1500 provides an intuitive way to control noise reduction in recorded audio using a fingerprint sensor. This method reduces the cognitive burden on the user when controlling noise reduction in the recorded audio, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, enabling a user to control noise reduction in recorded audio faster and more efficiently conserves power and increases the time between battery charges.

디바이스는 미디어를 기록하는데(1502), 여기서 미디어의 기록은 오디오 녹음을 포함한다. 예를 들어, 도 14a는 미디어 기록 인터페이스(1406)에 의해 나타내어진 것과 같이 미디어를 기록하는 디바이스를 도시한다.The device records the media (1502), where the recording of the media includes audio recording. For example, FIG. 14A shows a device for recording media as indicated by media recording interface 1406. FIG.

미디어를 기록하는 동안에(1504), 디바이스는, 녹음된 오디오에서, 디바이스의 제1 면 상에서 발생한 잡음을 감소시킨다(1506). 예를 들어, 도 14a에서 잡음 감소 상태(1408)는 디바이스가 녹음된 오디오 내의 잡음을 감소시키고 있음을 나타낸다.During recording media (1504), the device, in the recorded audio, reduces noise generated on the first side of the device (1506). For example, the noise reduction state 1408 in FIG. 14A indicates that the device is reducing noise in the recorded audio.

계속해서 미디어를 기록하는 동안에(1504), 디바이스는 지문 센서 상에서 지문을 검출한다(1508). 예를 들어, 도 14b는 통합형 지문 센서(359-1) 상의 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출하는 디바이스를 도시한다.Subsequently, while recording the media (1504), the device detects the fingerprint on the fingerprint sensor (1508). For example, FIG. 14B shows a device that detects a fingerprint 1404 (e.g., a touch of the right hand thumb) on the integrated fingerprint sensor 359-1.

일부 실시예들에서, 지문 센서는 디바이스의 제1 면 상에 위치된다(1510). 예를 들어, 도 14d는 디바이스(1412)의 제1 면(1414) 상의 지문 센서(1418)를 도시한다.In some embodiments, the fingerprint sensor is positioned 1510 on the first side of the device. For example, FIG. 14D shows a fingerprint sensor 1418 on the first side 1414 of the device 1412.

계속해서 미디어를 기록하는 동안(1504), 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스는 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단한다(1512). 예를 들어, 도 14b는 통합형 지문 센서(359-1) 상에서 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출한 디바이스 및 디바이스가 녹음된 오디오 내의 잡음을 감소시키는 것을 중단하였음을 나타내는 잡음 감소 상태(1408)를 도시한다.Subsequently, while recording the media (1504), in response to detecting the fingerprint on the fingerprint sensor, the device stops (1512) reducing the noise occurring on the first side of the device. For example, FIG. 14B shows that the device that detected the fingerprint 1404 (e.g., the touch of the right hand thumb) on the integrated fingerprint sensor 359-1 and that the device has stopped reducing noise in the recorded audio Noise reduction state 1408. FIG.

일부 실시예들에서, 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단한 후에, 지문이 더 이상 지문 센서 상에 존재하지 않는 경우, 그리고 지문이 더 이상 지문 센서 상에 존재하지 않음을 검출하는 것에 응답하여, 디바이스의 제1 면 상에서 발생하는 녹음된 오디오 내의 잡음을 감소시키는 것을 재개하였음(1516)을 디바이스가 검출한다(1514). 예를 들어, 디바이스는 처음에 (예를 들어, 비디오 예술가가 녹음하고자 의도하지 않은 비디오 예술가에 의해 생성된 숨소리 또는 다른 잡음들이 녹음되는 것을 방지하기 위해) 디바이스의 일 면으로부터의 잡음을 삭제하고, 후속하여 디바이스가 지문 센서 상에서 지문을 검출하는 경우, (예를 들어, 비디오 예술가가 비디오에 대해 해설할 수 있도록) 디바이스가 카메라의 제1 면 상에서의 잡음을 감소시키거나/삭제하는 것을 임시로 중단하며, 그 다음 지문 센서 상에서의 지문의 검출이 중단된 후에 또는 그에 응답하여 (예를 들어, 비디오 예술가가 비디오에 대한 해설을 종료하면) 디바이스의 제1 면 상에서의 잡음들에 대한 잡음 삭제를 재개한다. 도 14c는 예를 들어 통합형 지문 센서(359-1) 상에서 더 이상 지문(1404)을 검출하지 않는 디바이스를 도시한다(예를 들어, 지문(1404)이 통합형 지문 센서(359-1)로부터 들어올려지거나 멀리 이동됨). 도 14c는 디바이스가 녹음된 오디오 내의 잡음을 감소시키는 것을 재개하였음을 나타내는 잡음 감소 상태(1408)를 추가로 도시한다.In some embodiments, after ceasing to reduce noise occurring on the first side of the device, if the fingerprint is no longer present on the fingerprint sensor and the fingerprint is no longer detected on the fingerprint sensor The device detects 1514 that it has resumed 1516 reducing noise in the recorded audio that occurs on the first side of the device. For example, the device may initially remove noise from one side of the device (e.g., to prevent the video artist from recording a breath or other noise created by an unintended video artist) Subsequently, when the device detects a fingerprint on the fingerprint sensor, the device temporarily stops (e.g., allows the video artist to comment on the video) to reduce / delete the noise on the first side of the camera , And then resumes noise cancellation on noises on the first side of the device after detection of the fingerprint on the fingerprint sensor has ceased or in response thereto (e.g., when the video artist has finished commenting on the video) do. 14C illustrates a device that no longer detects a fingerprint 1404 on the integrated fingerprint sensor 359-1 (e.g., the fingerprint 1404 is lifted from the integrated fingerprint sensor 359-1) Or moved away). 14C further illustrates the noise reduction state 1408, which indicates that the device has resumed reducing noise in the recorded audio.

일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면과는 상이한 (예를 들어, 제1 면의 반대편인) 디바이스의 제2 면 상의 카메라 센서로부터 비디오를 녹화하는 것을 포함한다(1518). 예를 들어, 비디오는 정면을 향하는 카메라를 이용하여 녹화되고, 잡음은 디바이스 후방으로부터의 오디오 입력을 삭제하기 위해 음향 빔포밍을 이용하여 감소/삭제된다. 예를 들어, 도 14d는 디바이스(1412)의 제2 면(1416) 상의 카메라 센서(1420)를 도시한다.In some embodiments, recording media includes recording video from a camera sensor on a second side of the device that is different (e.g., opposite the first side) from the first side of the device (1518) . For example, video is recorded using a front facing camera and noise is reduced / eliminated using acoustic beamforming to remove audio input from the back of the device. For example, FIG. 14D shows the camera sensor 1420 on the second side 1416 of the device 1412.

일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면(예를 들어, 사용자가 있는 쪽의 면) 상에 위치된 디스플레이 상에 비디오의 미리보기를 표시하는 것을 포함한다(1520). 다른 관점에서, 이 방법은 디바이스의 제1 면 상에 위치된 디스플레이 상에 비디오의 미리보기를 표시하는 것을 포함한다. 예를 들어, 도 14a는 디바이스의 디스플레이(450) 상의 비디오 미리보기(1410)를 도시한다.In some embodiments, recording the media includes displaying a preview of the video on a display located on a first side of the device (e.g., the side on which the user is present) (1520). In another aspect, the method includes displaying a preview of the video on a display located on a first side of the device. For example, FIG. 14A shows a video preview 1410 on the display 450 of the device.

일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면과는 상이한 디바이스의 제2 면 상에서 발생하는 소리들을 녹음하며, 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스가 디바이스의 제2 면 상에서 발생하는 잡음을 녹음된 오디오 내에서 감소시키는 것을 포함한다(1522). 예를 들어, 도 14b는 통합형 지문 센서(359-1) 상의 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출하는 디바이스를 도시한다. 이 예에서, 이들 실시예에 따라, 디바이스는 (잡음 감소 상태(1408)에 의해 표시된 바와 같이) 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단하였으며, 디바이스의 제2 면 상에서 발생하는 잡음을 감소시킨다(디바이스의 제2 면 상에서의 잡음 감소의 표시는 도 14b에 도시되지 않음).In some embodiments, recording media records sounds that occur on a second side of the device that is different from the first side of the device, and in response to detecting the fingerprint on the fingerprint sensor, Lt; RTI ID = 0.0 &gt; 1522. &lt; / RTI &gt; For example, FIG. 14B shows a device that detects a fingerprint 1404 (e.g., a touch of the right hand thumb) on the integrated fingerprint sensor 359-1. In this example, according to these embodiments, the device ceased to reduce the noise occurring on the first side of the device (as indicated by noise reduction state 1408), and the noise on the second side of the device (An indication of noise reduction on the second side of the device is not shown in Figure 14b).

도 15에서의 동작들이 기술된 특정 순서는 단지 예시적인 것이며 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내는 것으로 의도되지는 않는다는 것을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 15와 관련하여 전술된 방법(1500)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(1500)과 관련하여 전술된 지문들 및 접촉들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들 및 접촉들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be appreciated that the specific sequence in which the operations in FIG. 15 are described is exemplary only and is not intended to represent that the sequences described are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that the details of the other processes described herein with respect to other methods described herein (e.g., the methods listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that it is also applicable in a similar manner to the method 1500 described above. For example, fingerprints and contacts discussed above in connection with method 1500 may optionally be combined with other methods described herein (e.g., those listed in the second paragraph within " And one or more features of the fingerprints and contacts described herein. For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 16은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1600)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 16에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 16 illustrates a functional block diagram of an electronic device 1600 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 16 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 16에 도시된 바와 같이, 전자 디바이스(1600)는 지문 센서 유닛(1606) 및 지문 센서 유닛(1606)에 결합된 프로세싱 유닛(1608)을 포함한다. 일부 실시예들에서, 전자 디바이스(1600)는 프로세싱 유닛(1608)에 결합된 디스플레이 유닛(1602) 및 카메라 센서 유닛(1604)을 추가로 포함한다. 일부 실시예들에서, 프로세싱 유닛(1608)은 기록 유닛(1610), 잡음 감소 유닛(1612), 검출 유닛(1614) 및 디스플레이 인에이블링 유닛(1616)을 포함한다.16, the electronic device 1600 includes a fingerprint sensor unit 1606 and a processing unit 1608 coupled to the fingerprint sensor unit 1606. As shown in Fig. In some embodiments, the electronic device 1600 further includes a display unit 1602 and a camera sensor unit 1604 coupled to the processing unit 1608. In some embodiments, the processing unit 1608 includes a recording unit 1610, a noise reduction unit 1612, a detection unit 1614, and a display enabling unit 1616.

프로세싱 유닛(1608)은 (예를 들어, 기록 유닛(1610)을 이용하여) 디바이스로 미디어를 기록하도록 구성되는데, 여기서 미디어를 기록하는 것은 오디오 녹음을 포함한다. 프로세싱 유닛(1608)은, 미디어를 기록하는 동안에, (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 녹음된 오디오 내에서 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키고, (예를 들어, 검출 유닛(1614)을 이용하여) 지문 센서 유닛 상에서 지문을 검출하며, 지문 센서 유닛 상에서 지문을 검출하는 것에 응답하여 (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단하도록 추가로 구성된다.The processing unit 1608 is configured to write media to the device (e.g., using the write unit 1610), wherein writing the media includes recording audio. The processing unit 1608 may reduce noise generated on the first side of the device in the recorded audio (e.g., using the noise reduction unit 1612) during recording of the media, (E.g., using a noise reduction unit 1612) to detect a fingerprint on the fingerprint sensor unit and to detect a fingerprint on the fingerprint sensor unit (e.g., using a detection unit 1614) Lt; RTI ID = 0.0 &gt; noise. &Lt; / RTI &gt;

일부 실시예들에서, 지문 센서 유닛(1606)은 디바이스의 제1 면 상에 위치된다.In some embodiments, the fingerprint sensor unit 1606 is located on the first side of the device.

일부 실시예들에서, 프로세싱 유닛(1608)은 (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단한 후에 (예를 들어, 검출 유닛(1614)을 이용하여) 지문이 더 이상 지문 센서 상에 있지 않음을 검출하고, (예를 들어, 검출 유닛(1614)을 이용하여) 지문이 더 이상 지문 센서 유닛 상에 있지 않음을 검출하는 것에 응답하여, (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 녹음된 오디오 내에서 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 재개하도록 추가로 구성된다.In some embodiments, after the processing unit 1608 stops reducing the noise occurring on the first side of the device (e.g., using the noise reduction unit 1612) (e.g., (E.g., using the detection unit 1614) to detect that the fingerprint is no longer on the fingerprint sensor and to detect that the fingerprint is no longer on the fingerprint sensor unit (e.g., using the detection unit 1614) (E. G., Using the noise reduction unit 1612) to resume reducing the noise occurring on the first side of the device in the recorded audio.

일부 실시예들에서, 전자 디바이스(1600)는 디바이스의 제1 면과는 상이한 디바이스의 제2 면 상의 카메라 센서 유닛을 추가로 포함하고, 프로세싱 유닛(1608)은 (예를 들어, 기록 유닛(1610)을 이용하여) 카메라 센서 유닛으로부터 비디오를 녹화하도록 추가로 구성된다.In some embodiments, the electronic device 1600 further includes a camera sensor unit on a second side of the device different from the first side of the device, and the processing unit 1608 (e.g., the recording unit 1610 ) To record video from the camera sensor unit.

일부 실시예들에서, 전자 디바이스는 디바이스의 제1 면 상에 위치된 디스플레이 유닛(1602)을 추가로 포함하고, (예를 들어, 기록 유닛(1610)을 이용하여) 미디어를 기록하는 것은 (예를 들어, 디스플레이 인에이블링 유닛(1616)을 이용하여) 디스플레이 유닛 상에 비디오의 미리보기를 표시하는 것을 가능하게 하는 것을 포함한다.In some embodiments, the electronic device further includes a display unit 1602 located on a first side of the device, and writing the media (e.g., using the write unit 1610) (E.g., using the display enabling unit 1616) to display a preview of the video on the display unit.

일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면과는 상이한 디바이스의 제2 면 상에서 발생하는 소리들을 (예를 들어, 기록 유닛(1610)을 이용하여) 기록하는 것을 포함하며, 프로세싱 유닛(1608)은 지문 센서 유닛 상에서 지문을 검출하는 것에 응답하여 (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 디바이스의 제2 면 상에서 발생하는 잡음을 녹음된 오디오에서 감소시키도록 추가로 구성된다.In some embodiments, recording media includes recording sounds (e.g., using the recording unit 1610) that occur on a second side of the device that is different from the first side of the device, Unit 1608 is further configured to reduce noise in the recorded audio in response to detecting the fingerprint on the fingerprint sensor unit (e.g., using noise reduction unit 1612) on the second side of the device .

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 15와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 16에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 기록 동작(1402), 감소 동작(1506) 및 검출 동작(1508)은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to FIG. 15 are optionally implemented by the components shown in FIGS. 1A and 1B or 16. For example, a write operation 1402, a reduce operation 1506, and a detect operation 1508 are optionally implemented by the event classifier 170, the event recognizer 180, and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

부류-기반 프로파일에 기초한 동작들의 수행Performing operations based on a class-based profile

다수의 전자 디바이스들은 복수의 기능들 및 복수의 사용자들을 갖는다. 모든 기능들이 모든 사용자들에게 적합한 것은 아니며, 따라서 일부 사용자에 대한 소정의 기능 제약들이 구현된다. 일부 상황들에서, 디바이스에서의 사용자 식별이 로깅 프로세스를 통해 수행되는데, 여기서 사용자들은 특히 사용자 이름과 패스워드를 이용하여 그들 자신을 식별하게 한다. 그러나, 로깅 프로세스를 통한 사용자들 사이의 전환은 시간-소비적이며 비효율적이다. 또한, 특정 사용자의 아이덴티티가 모든 기능 제약을 위해 필수적인 것은 아니다. 아래에서 기술되는 실시예들은 지문에 의해 식별되는 사용자 부류들에 기초하여 기능들을 제약 또는 수정함으로써 이러한 방법들을 향상시킨다. 디바이스가 사용자의 지문을 검출할 때, 디바이스는 검출된 지문에 기초하여 하나 이상의 사용자 부류를 식별하고, 사용자에 대해 고유하지 않은 적어도 하나의 부류를 포함한, 식별된 사용자 부류들과 연관된 프로파일들을 활성으로서 선택한다. 디바이스가 하나 이상의 동작들을 수행하라는 요청을 수신할 때, 디바이스는 이 요청 및 활성 프로파일들에 기초하여 각자의 동작을 수행한다. 각자의 동작은 요청된 동작(들)에 더한 것이거나 그 대신일 수 있다. 특정 사용자 아이덴티티에 고유하지 않은(예를 들어, 불가지론적인(agnostic)) 사용자 부류들에 기초하여 디바이스 상의 동작들 및 기능들을 커스터마이징함으로써, 빈번한 사용자 로그인 및 로그오프가 비효율적이거나(예를 들어, 부모가 자녀와 디바이스를 공유) 불가능한(예를 들어, 폐쇄된 집단의 사용자들보다 광범위한 인구가 사용하기 위한 공용 또는 준-공용 디바이스들) 상황들에 대해서 디바이스 상에서의 기능 제약들이 구현될 수 있다.A plurality of electronic devices have a plurality of functions and a plurality of users. Not all functions are suitable for all users, so some functional restrictions for some users are implemented. In some situations, user identification at the device is performed through a logging process, where users specifically identify themselves with user names and passwords. However, the transition between users through the logging process is time-consuming and inefficient. Also, the identity of a particular user is not necessarily essential for all functional constraints. The embodiments described below improve these methods by restricting or modifying functions based on user classes identified by fingerprints. When the device detects a fingerprint of the user, the device identifies one or more user classes based on the detected fingerprint and activates the profiles associated with the identified user classes, including at least one class not unique to the user Select. When the device receives a request to perform one or more operations, the device performs its operations based on the request and activation profiles. Each action may be in addition to or instead of the requested action (s). By customizing operations and functions on the device based on user classes that are not native to the particular user identity (e.g., agnostic), frequent user logins and logoffs can be inefficient (e.g., Functional restrictions on the device can be implemented for situations where it is not possible to share devices with children (e.g., public or semi-public devices for use by a wider population than users of a closed group).

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 17a 내지 도 17k 및 도 18a 및 도 18b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 17a 내지 도 17k 및 도 18a 및 도 18b와 관련하여 기술되는 실시예들은 디스플레이(450), 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 논의될 것이지만, 유사한 동작들이 선택적으로 도 17a 내지 도 17k에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안 통합형 지문 센서(359-1) 상에 도 17a 내지 도 17k에 묘사된 입력들을 검출하는 것에 응답하여 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 도 17a 내지 도 17k에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에 도 17a 내지 도 17k에 묘사된 접촉들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며, 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 17A-17K and Figs. 18A and 18B includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 17A-17K and Figs. 18A and 18B are described with respect to the display 450, the touch-sensitive surface 451 and the separate fingerprint sensor 359-2 As will be discussed, similar operations may be used to detect the inputs depicted in Figs. 17A-17K on the integrated fingerprint sensor 359-1 while selectively displaying the user interfaces shown in Figs. 17A-17K on the display 450 The integrated fingerprint sensor 359-1. Similar actions may also be performed by the fingerprint sensor 169 (e.g., the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-1) while displaying the user interfaces shown in Figs. 17A-17K on the touch screen 112 Is performed on a device having a touch screen 112 in response to detecting the contacts depicted in Figs. 17A-17K on a touch screen (e.g., sensor 359-2), in which the focus selector (E.g., a point associated with the center of each contact or a respective contact), or the center of two or more contacts detected on the touch screen 112, corresponding to their respective contacts, contacts.

도 17a는 디스플레이(450), 터치-감응 표면(451) 및 통합형 지문 센서(359-1)를 갖는 디바이스를 도시한다. 사용자 인터페이스(1700)는 디스플레이(450) 상에 표시된다. 도 17a에 도시된 바와 같이, 사용자 인터페이스(1700)는 예를 들어 데스크톱 그래픽 사용자 인터페이스, 홈 스크린 또는 메뉴 등이다. 사용자 인터페이스(1700)는 선택적으로 애플리케이션용 사용자 인터페이스와 같은 다른 유형의 사용자 인터페이스이다. 사용자 인터페이스(1700)는 선택적으로 "설정" 아이콘(1704) 및 (도 4a의) 사용자 인터페이스(400) 내에 표시된 애플리케이션 아이콘들과 유사한 애플리케이션 아이콘들과 같은 하나 이상의 애플리케이션 아이콘을 포함한다. 사용자는 사용자 인터페이스(1700)와 상호작용할 수 있으며, 터치-감응 표면(451), 버튼, 마우스, 또는 키보드와 같은 각자의 입력 요소를 이용하여 디바이스에 의해 하나 이상의 동작이 수행되는 것을 요청할 수 있다. 예를 들어, 사용자는 예로서 터치-감응 표면(451)을 이용하여 "설정"아이콘(1704)을 활성화함으로써 디바이스 설정들을 조정하기 위한 사용자 인터페이스(예를 들어, 도 17c의 설정 사용자 인터페이스(1708))를 활성화할 수 있다(예를 들어, "설정" 아이콘(1704)에 대응하는 디스플레이 상의 위치에 있는 커서(1705)와 같은 포커스 셀렉터와 연관된 터치-감응 표면(451) 상에서 탭 제스처를 수행함).17A shows a device having a display 450, a touch-sensitive surface 451 and an integrated fingerprint sensor 359-1. The user interface 1700 is displayed on the display 450. 17A, the user interface 1700 may be, for example, a desktop graphical user interface, a home screen, a menu, or the like. The user interface 1700 is optionally another type of user interface, such as a user interface for an application. The user interface 1700 optionally includes one or more application icons such as application icons similar to the application icons displayed in the user interface 400 (shown in FIG. A user may interact with the user interface 1700 and request that one or more operations be performed by the device using respective input elements such as a touch-sensitive surface 451, a button, a mouse, or a keyboard. For example, the user may use a user interface (e.g., the settings user interface 1708 of Figure 17C) to adjust device settings by activating the "Settings" icon 1704 using the touch- (E.g., perform a tap gesture on touch-sensitive surface 451 associated with a focus selector, such as cursor 1705, at a location on the display corresponding to a "set" icon 1704).

일부 실시예들에서, 디바이스는 복수의 프로파일들과 연관된다. 복수의 프로파일들은 하나 이상의 사용자-특정 프로파일들 및 하나 이상의 부류-기반 프로파일들을 포함한다. 일부 실시예들에서, 각각의 사용자-특정 프로파일은 각자의 사용자에 대응한다. 일부 실시예들에서, 사용자-특정 프로파일들과 구별되는 부류-기반 프로파일들 각각은 사용자들의 각자의 부류에 대응한다. 일부 실시예들에서, 하나 이상의 부류-기반 프로파일들이 연령-기반 사용자 부류들에 대응한다. 연령-기반 부류-기반 프로파일들의 예들은 성인들에 해당하는 부류-기반 프로파일(예를 들어, 18세 이상의 사용자들), 미성년자에 해당하는 부류-기반 프로파일(예를 들어, 18세 미만의 사용자들) 및 노인에 해당하는 부류-기반 프로파일(예를 들어, 65세 초과의 사용자들)을 포함한다. 일부 실시예들에서, 프로파일들은 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370))로부터 검색된다. 일부 다른 실시예들에서, 프로파일들은 원격 컴퓨터 시스템으로부터 수신된다. 프로파일들은 하나 이상의 특정 동작들(예를 들어, 지문 센서(359) 상에서의 지문의 검출)에 응답하여 또는 미리 정해진 루틴의 일부로서 검색 또는 수신된다.In some embodiments, the device is associated with a plurality of profiles. The plurality of profiles include one or more user-specific profiles and one or more class-based profiles. In some embodiments, each user-specific profile corresponds to a respective user. In some embodiments, each of the class-based profiles distinct from the user-specific profiles corresponds to a respective class of users. In some embodiments, one or more class-based profiles correspond to age-based user classes. Examples of age-based class-based profiles include class-based profiles (e.g., users over 18 years of age) corresponding to adults, class-based profiles corresponding to a minor (e.g., ) And a class-based profile corresponding to the elderly (e.g., users over 65 years old). In some embodiments, the profiles are retrieved from the memory (e.g., memory 102 or memory 370) of the device. In some other embodiments, the profiles are received from a remote computer system. The profiles are retrieved or received in response to one or more specific actions (e.g., detection of a fingerprint on the fingerprint sensor 359) or as part of a predetermined routine.

디바이스는 또한 이전에 디바이스에서 등록되었던 하나 이상의 지문들에 관한 데이터를 포함한다. 각각의 등록된 지문은 각자의 사용자-특정 프로파일에 대응한다. 일부 실시예들에서, 등록된 지문들은 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370))에 저장되고, 메모리로부터 검색된다.The device also includes data relating to one or more fingerprints previously registered in the device. Each registered fingerprint corresponds to a respective user-specific profile. In some embodiments, the registered fingerprints are stored in a memory (e.g., memory 102 or memory 370) of the device and retrieved from memory.

사용자 인터페이스(예를 들어, 사용자 인터페이스(1700))가 디스플레이(450) 상에 표시되는 동안에, 지문이 통합형 지문 센서(359-1) 상에서 검출된다. 도 17a 및 도 17b는 통합형 지문 센서(359-1) 상에서 검출된 상이한 크기들의 지문들을 도시한다. 도 17a는 통합형 지문 센서(359-1) 상에서 검출된 지문(1702)을 도시하고, 도 17b는 지문(1702) 대신 통합형 지문 센서(359-1) 상에서 검출된 지문(1706)을 도시한다. 지문(1702) 및 지문(1706)은 상이한 사용자 부류들에 각각 속하는 두 명의 상이한 사용자들로부터의 지문들이다. 예를 들어, 지문(1702)은 성인 사용자들의 부류 내의 사용자에 속한 것으로 결정되고, 지문(1702)보다 작으며 디바이스에 의해 대략 아동의 지문 크기인 것으로 결정되는 지문(1706)은 아동 사용자들의 부류 내의 사용자에 속한 것으로 결정된다.While the user interface (e.g., user interface 1700) is displayed on the display 450, the fingerprint is detected on the integrated fingerprint sensor 359-1. 17A and 17B show fingerprints of different sizes detected on the integrated fingerprint sensor 359-1. Figure 17A shows the fingerprint 1702 detected on the integrated fingerprint sensor 359-1 and Figure 17B shows the fingerprint 1706 detected on the integrated fingerprint sensor 359-1 instead of the fingerprint 1702. [ Fingerprint 1702 and fingerprint 1706 are fingerprints from two different users, each belonging to different user classes. For example, fingerprint 1702 is determined to belong to a user in a class of adult users, and fingerprint 1706, which is smaller than fingerprint 1702 and determined by the device to be approximately the fingerprint size of the child, It is determined to belong to the user.

검출된 지문에 기초하여, 디바이스는 디바이스와 연관된 부류-기반 프로파일들로부터 하나 이상의 부류-기반 프로파일을 검출된 지문에 대응하는 활성 프로파일들로서 선택한다. 예를 들어, 지문(1702)에 대해서, 디바이스는"성인" 프로파일뿐만 아니라, 지문(1702)이 속한 사용자에 맞는 것으로 디바이스가 결정하는 임의의 다른 부류-기반 프로파일을 활성 프로파일로서 선택한다. 지문(1706)에 대해서, 디바이스는 "아동" 프로파일뿐만 아니라, 지문(1706)이 속한 사용자에 맞는 것으로 디바이스가 결정하는 임의의 다른 부류-기반 프로파일을 선택한다. 사용자가 복수의 부류들과 연관될 수 있다는 것을 이해하여야 한다. 따라서, 주어진 검출된 지문에 대해서, 복수의 부류-기반 프로파일들이 활성으로서 선택될 수 있다(예를 들어, 지문이 사용자들의 "성인" 부류 및 사용자들의 "남성" 부류와 연관되거나 사용자들의 "아동" 부류 및 사용자들의 "여성" 부류와 연관될 수 있음).Based on the detected fingerprints, the device selects one or more class-based profiles from the class-based profiles associated with the device as active profiles corresponding to the detected fingerprints. For example, for a fingerprint 1702, the device selects an "adult" profile as well as any other class-based profile that the device determines to be appropriate for the user to which the fingerprint 1702 belongs as the active profile. For the fingerprint 1706, the device selects a "child" profile as well as any other class-based profile that the device determines to be suitable for the user to which the fingerprint 1706 belongs. It should be appreciated that the user may be associated with a plurality of classes. Thus, for a given detected fingerprint, a plurality of class-based profiles may be selected as active (e.g., fingerprints associated with the "adult" class of users and the "male" class of users, Category " and a "female" category of users).

일부 실시예들에서, 부류-기반 프로파일들이 검출된 지문의 인증과 무관하게 선택된다. 예를 들어, 부류-기반 프로파일들의 선택은 검출된 지문을 디바이스와 연관된 이전에 등록된 지문들과 비교하는 것을 요구하지 않는다. 일부 실시예들에서, 부류-기반 프로파일들의 선택은 검출된 지문의 특징들 및 특성들에 기초한다. 예를 들어, 이러한 각자의 지문들의 크기에 기초하여 지문(1702)에 대해 "성인" 프로파일이 선택되고 지문(1706)에 대해 "아동" 프로파일이 선택되며: 지문(1706)은 그 크기에 기초하여 아동의 지문으로 결정되고 지문(1702)은 그 크기에 기초하여 어른의 지문으로 결정된다.In some embodiments, the class-based profiles are selected regardless of the authentication of the detected fingerprint. For example, the selection of class-based profiles does not require comparing the detected fingerprint to previously registered fingerprints associated with the device. In some embodiments, the selection of the class-based profiles is based on the features and characteristics of the detected fingerprint. For example, an "adult" profile is selected for fingerprint 1702 based on the size of each of these fingerprints and a "child" profile is selected for fingerprint 1706: fingerprint 1706 is based on its size The fingerprint of the child is determined by the fingerprint of the child and the fingerprint 1702 is determined by the fingerprint of the adult based on the size thereof.

일부 실시예들에서, 검출된 지문을 디바이스에서 이전에 등록된 지문들에 비교한 것에 기초한 사용자-특정 프로파일의 선택에 더하여 부류-기반 프로파일들이 선택된다. 일부 실시예들에서, 사용자-특정 프로파일의 식별 또는 선택이 부류-기반 프로파일들의 선택을 돕는다. 예를 들어, 선택적으로 각자의 부류-기반 프로파일들이 정의되는 기초가 되는 부류들의 특징들에 대해 사용자-특정 프로파일을 비교한 것에 기초하여 하나 이상의 부류-기반 프로파일들이 선택된다.In some embodiments, in addition to the selection of a user-specific profile based on a comparison of the detected fingerprint to previously registered fingerprints in the device, the class-based profiles are selected. In some embodiments, the identification or selection of a user-specific profile aids in the selection of the class-based profiles. For example, one or more class-based profiles are selected based on a comparison of user-specific profiles to features of the underlying class on which their respective class-based profiles are defined.

디바이스가 하나 이상의 부류-기반 프로파일을 디바이스를 위한 활성 프로파일로서 선택한 후에, 디바이스는 각자의 입력 요소를 이용하여 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 수신한다. 예를 들어, 디바이스는 설정 사용자 인터페이스(1708)(도 17c)를 표시하라는 요청에 대응하는 "설정" 아이콘(1704)(또는 "설정" 아이콘(446))을 활성화하기 위한 입력(예를 들어, 커서(1705)와 같은 포커스 셀렉터가 "설정" 아이콘(1704) 상에 위치된 동안 터치-감응 표면(451) 상에서의 제스처)을 수신한다. 활성 부류-기반 프로파일들에 따라, 설정 사용자 인터페이스(1708)가 표시되거나 오류 메시지가 대신 표시된다. 예를 들어, 도 17a 및 도 17b에 도시된 바와 같은 디바이스 상에서, "아동" 프로파일이 활성이라면, 설정 사용자 인터페이스(1708)가 표시되지 않는다. 따라서, 예를 들어, 검출된 지문이 지문(1702)(도 17a)이고, 따라서 "아동" 프로파일이 아닌 "성인" 프로파일이 활성으로서 선택된다면, 설정 사용자 인터페이스(1708)는 도 17c에 도시된 바와 같이 표시되며; 설정 사용자 인터페이스(1708)를 표시하는 동작이 요청 및 활성 "성인" 프로파일에 기초하여 수행된다.After the device has selected one or more class-based profiles as the active profile for the device, the device receives input corresponding to the request to perform one or more operations on the device using its respective input element. For example, the device may include an input to activate a "Settings" icon 1704 (or "Settings" icon 446) corresponding to a request to display a settings user interface 1708 (FIG. 17C) Gesture on touch-sensitive surface 451 while a focus selector such as cursor 1705 is positioned on "set" icon 1704). Depending on the active class-based profiles, a setting user interface 1708 is displayed or an error message is displayed instead. For example, on a device such as that shown in FIGS. 17A and 17B, if the "child" profile is active, the setting user interface 1708 is not displayed. Thus, for example, if the detected fingerprint is fingerprint 1702 (Fig. 17A), and thus an "adult" profile other than the "child" profile is selected as active, As shown; An operation to display the settings user interface 1708 is performed based on the request and active "adult" profile.

한편, 검출된 지문이 지문(1706)(도 17b)이고, 따라서 "성인" 프로파일이 아닌 "아동" 프로파일이 활성으로서 선택된다면, 설정 사용자 인터페이스(1708)는 표시되지 않는다. 대신, 도 17d에 도시된 바와 같이 설정 사용자 인터페이스(1708)에 액세스 불가능함을 나타내는 오류 메시지 또는 그와 유사한 것(예를 들어, 오류 메시지(1710))이 표시되고; 오류 메시지(1710)를 표시하는 동작이 요청 및 활성 "아동" 프로파일에 기초하여 수행된다.On the other hand, if the detected fingerprint is fingerprint 1706 (Fig. 17B), and thus a "child" profile other than the "adult" profile is selected as active, the setting user interface 1708 is not displayed. Instead, an error message or the like (e.g., error message 1710) is displayed indicating that the configuration user interface 1708 is inaccessible, as shown in FIG. 17D; An action indicating error message 1710 is performed based on the request and active "child" profile.

디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력의 다른 예는 비디오 애플리케이션을 열라는 요청이다. 예를 들어, 사용자는 온라인 비디오 애플리케이션(예를 들어, 도 1a의 온라인 비디오 모듈(155))을 열기 위해 온라인 비디오 아이콘(432)(도 4a) 위에 포커스 셀렉터가 위치된 동안에 터치-감응 표면(451) 상에서 제스처(예를 들어, 탭 또는 더블 탭 제스처)를 수행한다. 다른 예로서, 사용자는 디바이스에 저장된 비디오들을 보기 위해 애플리케이션(예를 들어, 도 1a의 비디오 및 음악 플레이어 모듈(152))을 열고자 사용자 인터페이스(400) 내의 미디어 또는 비디오 애플리케이션 아이콘(예를 들어, 도 4a의 아이콘(422)) 위에 포커스 셀렉터(예를 들어, 터치스크린(112) 상에서 검출되는 접촉 또는 디스플레이(450) 상에 표시되는 커서)가 위치된 동안에, 터치-감응 표면(451) 상에서 제스처(예를 들어, 탭 또는 더블 탭 제스처)를 수행한다. 편의를 위해, 온라인 비디오들을 보기 위한 애플리케이션 및 디바이스에 저장된 비디오들을 보기 위한 애플리케이션 둘 모두가 아래에서 비디오 애플리케이션(들)으로서 둘 모두 지칭된다.Another example of an input corresponding to a request to perform one or more operations on a device is a request to open a video application. For example, the user may touch the touch-sensitive surface 451 (FIG. 4A) while the focus selector is positioned over the online video icon 432 (FIG. 4A) to open the online video application (E.g., a tap or double tap gesture) on the touch screen. As another example, a user may select a media or video application icon (e.g., an icon) in the user interface 400 to open an application (e.g., the video and music player module 152 of FIG. 1A) Sensitive surface 451 while a focus selector (e.g., a touch detected on the touch screen 112 or a cursor displayed on the display 450) is positioned over the touch-sensitive surface 451 (e.g., the icon 422 of FIG. 4A) (E.g., tap or double tap gesture). For convenience, both an application for viewing online videos and an application for viewing videos stored in a device are both referred to below as the video application (s).

비디오 애플리케이션이 열릴 때, 사용자 인터페이스(1712)와 같은, 비디오 애플리케이션에 대응하는 사용자 인터페이스가 표시된다. 사용자 인터페이스(1712)는 재생을 위해 선택될 수 있는 디바이스에 저장된 비디오(1714)들의 목록을 보여준다. 도 17e 및 도 17f는 비디오 애플리케이션이 기동되었을 때 디바이스에서 어느 부류-기반 프로파일이 활성화되었는지에 따라 사용자 인터페이스(1712) 내에 표시되는 비디오(1714)들의 목록의 차이를 도시한다. 도 17e는 디바이스에서 "성인" 프로파일이 활성화되었을 때 표시되는 비디오(1714)들의 목록을 도시한다. "성인" 프로파일이 활성인 상태에서, 사용자 인터페이스(1712)에 표시된 비디오(1714)들의 목록이 모든 연령 및/또는 아동에게 적합한 비디오들(예를 들어, "모든 연령"으로 등급이 매겨진 비디오(1714-1, 1714-2)들) 및 아동에게 적합하지 않을 수 있는 비디오들(예를 들어, "17+"으로 등급이 매겨진 비디오(1714-3, 1714-4)들)을 포함한다. 도 17f는 "아동" 프로파일이 디바이스에서 활성화되었을 때 표시되는 비디오(1714)들의 목록을 도시한다. "아동" 프로파일이 활성인 상태에서, 사용자 인터페이스(1712)에 표시된 비디오(1714)들의 목록은 모든 연령 및/또는 아동에게 적합한 비디오들(예를 들어, 비디오(1714-1, 1714-2)들)을 포함하고, 아동에게 적합하지 않을 수 있는 비디오들(예를 들어, 비디오(1714-3, 1714-4)들)을 제외시킨다.When the video application is opened, a user interface corresponding to the video application, such as user interface 1712, is displayed. The user interface 1712 shows a list of videos 1714 stored in the device that can be selected for playback. 17E and 17F show the difference in the list of videos 1714 displayed in the user interface 1712 according to which class-based profile is activated in the device when the video application is activated. 17E shows a list of videos 1714 that are displayed when the "adult" profile is activated in the device. With the "adult" profile active, a list of videos 1714 displayed in the user interface 1712 may include videos (e.g., videos rated for all ages and / or children 1714 -1, 1714-2) and videos that may not be suitable for children (e.g., videos 1714-3, 1714-4 rated "17+"). 17F shows a list of videos 1714 that are displayed when the "child" profile is activated on the device. With the "child" profile active, the list of videos 1714 displayed in the user interface 1712 may include videos (e.g., videos 1714-1 and 1714-2) suitable for all ages and / ) And excludes videos (e.g., videos 1714-3, 1714-4) that may not be suitable for the child.

디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력의 다른 예는 비디오를 재생하라는 요청이다. 예를 들어, 사용자는 비디오(1714)를 선택하기 위해 사용자 인터페이스(1712)(도 17e 또는 도 17f) 내의 비디오들의 목록 내의 비디오(1714) 위에 포커스 셀렉터(예를 들어, 터치스크린(112) 상에서 검출되는 접촉 또는 디스플레이(450) 상에 표시되는 커서)가 위치된 동안에, 터치-감응 표면(451) 상에서 제스처(예를 들어, 탭 또는 더블 탭 제스처)를 수행한다. 제스처를 검출하는 것에 응답하여, 비디오 재생 인터페이스(1716)가 표시되고 재생이 시작된다(대안적으로, 사용자가 재생 버튼을 활성화하였을 때 비디오 재생이 시작됨). 비디오 재생 인터페이스(1716)는 비디오 프레임(1718), 재생 제어부(1720)(예를 들어, 재생/일시 정지 버튼, 스크러버) 및 비디오 내의 오디오 콘텐트의 볼륨 레벨을 제어하기 위한 볼륨 제어부(1722)를 포함한다. 볼륨 제어부(1722)는 볼륨 슬라이더 바(1726)와 썸(thumb)(1724)을 포함하고; 볼륨 슬라이더 바(1726) 내의 썸(1724)의 위치는 현재 볼륨 레벨을 나타낸다. 일부 실시예들에서, 비디오(1714)가 재생을 위해 선택될 때 소정의 부류-기반 프로파일들이 디바이스에서 활성이라면, 최대 볼륨 레벨 제약이 시행된다. 예를 들어, 비디오(1714)가 재생을 위해 선택될 때 "아동" 프로파일이 활성이라면, 볼륨 썸(1724)이 볼륨 슬라이더 바(1726) 내의 소정의 레벨을 넘어서 이동하는 것이 제한된다. 예를 들어, 도 17g에서 볼륨 썸(1724)은 볼륨 슬라이더 바(1726) 내에서 영역(1728)으로 이동하는 것이 제한된다. 이는 최대 볼륨을 100% 미만의 레벨로 한도를 정함으로써, 청력 손상을 방지하는 것을 돕는다. "성인" 프로파일이 활성이라면, 최대 볼륨 레벨 제약이 시행되지 않으며; 사용자는 볼륨 슬라이더(1726)의 전체 길이를 따라 볼륨 썸(1724)을 이동시킬 수 있다.Another example of an input corresponding to a request to perform one or more operations on a device is a request to play a video. For example, the user may select a focus selector (e.g., on the touch screen 112) over the video 1714 in the list of videos in the user interface 1712 (Fig. 17E or Fig. 17F) (E.g., tap or double-tap gesture) on the touch-sensitive surface 451 while the cursor (e.g. In response to detecting the gesture, the video playback interface 1716 is displayed and playback begins (alternatively, video playback begins when the user activates the playback button). The video playback interface 1716 includes a video frame 1718, a playback control 1720 (e.g., play / pause button, scrubber), and a volume control 1722 for controlling the volume level of audio content in the video do. Volume control 1722 includes volume slider bar 1726 and thumb 1724; The position of the thumb 1724 in the volume slider bar 1726 indicates the current volume level. In some embodiments, when certain class-based profiles are active in the device when video 1714 is selected for playback, a maximum volume level constraint is enforced. For example, if the " child "profile is active when the video 1714 is selected for playback, the volume thumb 1724 is restricted from moving beyond the predetermined level in the volume slider bar 1726. [ For example, in FIG. 17G, the volume thumb 1724 is restricted from moving into the area 1728 within the volume slider bar 1726. This helps prevent hearing damage by limiting the maximum volume to levels below 100%. If the "adult" profile is active, no maximum volume level constraint is enforced; The user may move the volume thumb 1724 along the entire length of the volume slider 1726. [

디바이스에서 하나 이상의 동작을 수행하기 위한 요청에 대응하는 입력의 다른 예는 문서를 표시하기 위한 요청이다. 예를 들어, 사용자는 문서를 열라는 요청을 한다(예를 들어, 애플리케이션 내의 문서를 선택하거나 웹 브라우저 내의 하이퍼링크를 선택함). 이러한 요청에 응답하여, 디바이스는 사용자 인터페이스(예를 들어, 사용자 인터페이스(1730)) 내에 문서를 표시한다. 사용자 인터페이스(1730)는 워드 프로세싱 애플리케이션, 웹 브라우저, 이-리더(e-reader) 애플리케이션 등과 같은 문서들 또는 텍스트를 표시할 수 있는 임의의 애플리케이션을 위한 사용자 인터페이스이다. 일부 실시예들에서, 디바이스는 활성 부류-기반 프로파일에 기초하여 표시되는 문서에서 줌 스케일(zoom scale) 또는 표시되는 문서 내의 텍스트의 폰트 크기를 자동으로 조정한다. 예를 들어, 도 17h 및 도 17i는 사용자 인터페이스(1730) 내에 표시된 문서(1732)를 도시한다. 활성 부류-기반 프로파일이 "성인"이라면, 줌 레벨은 도 17h에서 문서(1732-1)로 나타내어진 바와 같이 디폴트 또는 보통 레벨(예를 들어, 100%)로 설정된다. 활성 부류-기반 프로파일이 "아동"이거나 노인에 대응하는 부류-기반 프로파일이라면, 줌 레벨은 도 17i에서 문서(1732-2)로 도시된 바와 같이 더 높은 레벨(예를 들어, 200%)로 설정된다. 더 높은 줌 레벨에서, 문서(1732) 내의 텍스트가 디스플레이(450) 상에 더 크게 나타나며, 따라서 아동 또는 노인들이 읽기 쉬워진다.Another example of an input corresponding to a request to perform one or more operations on a device is a request to display a document. For example, a user may request to open a document (e.g., select a document in an application or select a hyperlink in a web browser). In response to this request, the device displays the document in a user interface (e.g., user interface 1730). The user interface 1730 is a user interface for any application that can display text or documents such as word processing applications, web browsers, e-reader applications, and the like. In some embodiments, the device automatically adjusts the zoom scale or the font size of the text in the displayed document in the displayed document based on the active class-based profile. For example, FIGS. 17h and 17i illustrate document 1732 displayed in user interface 1730. FIG. If the active class-based profile is "adult ", the zoom level is set to a default or normal level (e.g., 100%) as shown in document 1732-1 in FIG. 17h. If the active class-based profile is a "child ", or a class-based profile corresponding to the old, the zoom level is set to a higher level (e.g., 200%) as shown by document 1732-2 in FIG. do. At a higher zoom level, the text in the document 1732 appears larger on the display 450, thus making the child or the elderly easier to read.

일부 실시예들에서, 지문(예를 들어, 지문(1702) 또는 지문(1706))이 지문 센서(359-1) 상에서 검출되면, 하나 이상의 부류-기반 프로파일뿐만 아니라 사용자-특정 프로파일이 식별 및 선택된다. 예를 들어, 지문(1702)이 지문 센서(359-1) 상에서 검출되면(도 17a), 디바이스는 전술된 것과 같이 하나 이상의 부류-기반 프로파일을 디바이스 상에서 활성인 것으로 식별 및 선택할 뿐만 아니라, 디바이스 상에 이전에 등록된 지문들로부터 부합 지문을 식별하여, 지문(1702)과 부합하는 식별된 지문과 연관된 사용자-특정 프로파일을 디바이스 상에서 활성 사용자-특정 프로파일로서 선택한다. 유사하게, 지문(1706)이 지문 센서(359-1) 상에서 검출되면(도 17b), 디바이스는 전술된 바와 같이 하나 이상의 부류-기반 프로파일들을 디바이스 상에서 활성인 것으로 식별 및 선택할 뿐만 아니라, 디바이스 상에 이전에 등록된 지문들로부터 부합 지문을 식별하여, 지문(1706)과 부합하는 식별된 지문과 연관된 사용자-특정 프로파일을 디바이스 상에서 활성 사용자-특정 프로파일로서 선택한다.In some embodiments, when a fingerprint (e.g., fingerprint 1702 or fingerprint 1706) is detected on the fingerprint sensor 359-1, one or more class-based profiles as well as a user- do. For example, if a fingerprint 1702 is detected on the fingerprint sensor 359-1 (Fig. 17A), the device can identify and select one or more class-based profiles as active on the device as described above, Identifies a matching fingerprint from previously registered fingerprints and selects a user-specific profile associated with the identified fingerprint that matches the fingerprint 1702 as the active user-specific profile on the device. Similarly, if a fingerprint 1706 is detected on the fingerprint sensor 359-1 (Fig. 17B), the device can identify and select one or more class-based profiles as active on the device as described above, Identifies a matching fingerprint from previously registered fingerprints and selects a user-specific profile associated with the identified fingerprint that matches the fingerprint 1706 as an active user-specific profile on the device.

일부 실시예들에서, 디바이스가 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 수신할 때, 디바이스는 요청에 응답하여 활성 사용자-특정 프로파일에 기초한 각자의 동작을 수행한다. 예를 들어, 도 17j는 애플리케이션(예를 들어, 웹 브라우저) 내의 웹 양식(1734)을 표시하라는 요청에 대응하는 사용자 입력에 응답하여, 디스플레이(450) 상에 표시된 개인 정보를 입력하기 위한 웹 양식(1734)(예를 들어, 알맞은 양식 필드를 갖는 웹 페이지)을 도시한다. 예를 들어, 입력은 (예를 들어, 탭 제스처에 의해; 포커스 셀렉터가 위에 위치된 동안의 마우스 클릭에 의해) 사용자가 웹 양식(1734)으로의 하이퍼링크를 선택하는 것을 포함한다. 웹 양식(1734)은 이름, 하나 이상의 주소-관련 필드(예를 들어, 거리, 도시 등) 및 전화번호와 같은 개인 정보 필드(1736)들을 포함한다. 웹 양식(1734)을 표시하라는 요청을 수신하는 것에 응답하여, 디바이스는 웹 양식(1734)을 표시하고 활성 사용자-특정 프로파일에 기초하여 개인 정보(1738-1 내지 1738-6)로 웹 양식(1734) 내의 필드(1736)들에 정보를 넣는다(예를 들어, "John Doe"에 대한 이름, 주소 및 전화번호). 필드(1736)에 정보를 넣기 위해 사용되는 개인 정보(1738)는 활성 사용자-특정 프로파일과 연관된 연락처 정보와 같은 활성 사용자-특정된 프로파일과 연관된 정보로부터 가져온다.In some embodiments, when the device receives an input corresponding to a request to perform one or more actions, the device performs a respective action based on the active user-specific profile in response to the request. For example, Figure 17J shows a web form for entering personal information displayed on display 450 in response to a user input corresponding to a request to display web form 1734 in an application (e.g., a web browser) (E. G., A web page having an appropriate form field). &Lt; / RTI &gt; For example, the input may include the user selecting a hyperlink to the web form 1734 (e.g., by a tap gesture; by a mouse click while the focus selector is positioned above). Web form 1734 includes personal information fields 1736 such as a name, one or more address-related fields (e.g., street, city, etc.), and a telephone number. In response to receiving the request to display web form 1734, the device displays web form 1734 and displays web forms 1734-1 to 1738-6 as personal information 1738-1 to 1738-6 based on the active user- (E.g., name, address, and phone number for "John Doe &quot;). The personal information 1738 used to populate the field 1736 is derived from information associated with an active user-specific profile, such as contact information associated with an active user-specific profile.

다른 예로서, 도 17k는 애플리케이션(예를 들어, 웹 브라우저) 내의 웹 페이지(1740)를 로딩하라는 요청에 대응하는 사용자 입력에 응답하여 디스플레이(450) 상에 표시되는 개인화된 웹 페이지(1740)를 도시한다. 예를 들어, 입력은 (예를 들어, 탭 제스처에 의해; 포커스 셀렉터가 위에 위치된 동안의 마우스 클릭에 의해) 사용자가 웹 양식(1740)으로의 하이퍼링크를 선택하는 것 또는 웹 페이지(1740)를 로딩하기 위한 로깅 절차를 완료하는 것을 포함한다. 웹 페이지(1740)는 활성 사용자-특정 프로파일과 연관된 사용자에 대해 개인화된 콘텐트를 포함한다. 개인화된 콘텐트는, 예를 들어 웹 애플리케이션들 또는 다른 웹사이트 특징들로의 단축키 또는 링크(1742)들 - 제시된 단축키(1742)들의 세트는 사용자의 선호도 또는 웹 사용의 이력 패턴에 대해 개인화됨 -; 뉴스 피드(news feed)(1744) - 뉴스 카테고리들 및/또는 뉴스 소스들이 사용자의 선호도에 대해 개인화됨 -; 및 사용자와 연관된 위치(예를 들어, 집 주소, 직장 주소, 현재 위치)에 대해 개인화된 날씨(1746)를 포함한다.17K illustrates a personalized web page 1740 displayed on the display 450 in response to a user input corresponding to a request to load a web page 1740 in an application (e.g., a web browser) Respectively. For example, the input may be selected by the user to select a hyperlink to the web form 1740 (e.g., by a tap gesture; by a mouse click while the focus selector is positioned over the web page 1740) Lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt; Web page 1740 includes personalized content for a user associated with an active user-specific profile. The personalized content may be, for example, shortcuts or links 1742 to web applications or other website features - the set of presented shortcuts 1742 are personalized to the user's preferences or the history pattern of web usage; News feed 1744 - news categories and / or news sources are personalized to the user's preferences; And personalized weather 1746 for locations associated with the user (e.g., home address, work address, current location).

개인화된 콘텐트(1742, 1744, 1746)를 갖는 웹 페이지(1740)는 활성 사용자-특정 프로파일과 연관된 쿠키에 따라 로딩되고; 웹 페이지(1740)의 호스트는 웹 페이지(1740)가 쿠키에 기초하여 개인화된 사용자를 식별한다. 쿠키는 예를 들어 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370))에 저장된다.Web page 1740 with personalized content 1742, 1744, 1746 is loaded according to a cookie associated with an active user-specific profile; The host of the web page 1740 identifies a user that the web page 1740 has personalized based on the cookie. The cookie is stored, for example, in a memory (e.g., memory 102 or memory 370) of the device.

도 18a 및 도 18b는 일부 실시예들에 따라 부류-기반 프로파일에 기초하여 동작들을 수행하는 방법(1800)을 예시한 흐름도이다. 방법(1800)은 디스플레이, 지문 센서 및 각자의 입력 요소(예를 들어, 터치-감응 표면, 버튼 또는 키보드)를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 입력 요소는 지문 센서이다. 일부 실시예들에서, 입력 요소는 지문 센서와는 상이한 요소이다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(1800) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.18A and 18B are flowcharts illustrating a method 1800 of performing operations based on a class-based profile in accordance with some embodiments. The method 1800 may be applied to an electronic device (e.g., the device 300 of FIG. 3, or the portable device of FIG. 1A) having a display, a fingerprint sensor and a respective input element (e.g., a touch- Multifunction device 100). In some embodiments, the input element is a fingerprint sensor. In some embodiments, the input element is a different element from the fingerprint sensor. In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 1800 are selectively combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(1800)은 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 직관적인 방식을 제공한다. 이 방법은 부류-기반 프로파일에 기초하여 동작들을 커스터마이징함으로써 동작들을 수행할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 부류-기반 프로파일에 기초한 동작들을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 1800 provides an intuitive way to perform operations based on a class-based profile. This method reduces the cognitive burden on the user when performing operations by customizing operations based on a class-based profile, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing a user to perform operations based on a class-based profile faster and more efficiently conserves power and increases the time between battery charges.

디바이스는 복수의 프로파일들을 획득하는데(예를 들어, 메모리로부터 검색하거나 원격 컴퓨터 시스템으로부터 수신함)(1802), 여기서 복수의 프로파일들은 하나 이상의 사용자-특정 프로파일들 및 사용자-특정 프로파일들과는 구별되고 각자의 사용자 부류에 각각 대응하는 하나 이상의 부류-기반 프로파일들을 포함한다. 프로파일들은 예를 들어 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370)) 또는 클라우드에 저장된다.The device obtains (e. G., Retrieves from memory or receives from a remote computer system) a plurality of profiles 1802, where the plurality of profiles are distinguished from one or more user-specific profiles and user- Lt; / RTI &gt; include one or more class-based profiles corresponding to classes, respectively. The profiles are stored, for example, in the device's memory (e.g., memory 102 or memory 370) or in the cloud.

디바이스는 지문 센서 상에서 제1 지문을 검출한다(1804). 도 17a는 예를 들어 지문(1702)을 검출하는 디바이스를 도시한다. 도 17b는 지문(1706)을 검출하는 디바이스를 도시한다.The device detects the first fingerprint on the fingerprint sensor (1804). 17A shows a device for detecting a fingerprint 1702, for example. Fig. 17B shows a device for detecting a fingerprint 1706. Fig.

디바이스는, 제1 지문을 이전에 등록된 지문으로서 인증하는 것과는 무관하게, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일들로서 선택하는데(예를 들어, 제1 지문이 제1 부류 내의 사용자의 지문과 부합한다고 결정하는 것이 제1 지문을 이전에 등록된 지문들과 직접 비교하는 것을 포함하지는 않음)(1806), 이는 제1 지문이 제1 부류-기반 프로파일과 연관된 사용자들의 제1 부류 내의 사용자의 지문과 부합한다는 결정에 따라, 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한다. 일부 실시예들에서, 지문을 이전에 등록된 지문으로서 인증하지 않고서 제1 부류-기반 프로파일이 선택된다. 예를 들어, 인증이 요구되지 않거나 지문이 이전에 등록된 지문들 중 임의의 것과 부합하지 않는다면, 디바이스는 여전히 지문의 일반화된 특징들에 기초하여 결정된 하나 이상의 활성 부류-기반의 프로파일들에 따라 디바이스의 기능을 조정할 수 있으며, 따라서 지문과 연관된 사용자의 확실한 신원확인을 필요로 하지 않는다.The device selects one or more class-based profiles associated with the device as active profiles corresponding to the first fingerprint, irrespective of authenticating the first fingerprint as a previously registered fingerprint (e.g., 1806) does not include direct comparison of the first fingerprint with previously registered fingerprints), which indicates that the first fingerprint is associated with a user of the first class-based profile And selecting a first class-based profile as the active profile, in accordance with the determination that the fingerprint matches the user's fingerprint in the first class. In some embodiments, a first class-based profile is selected without authenticating the fingerprint as a previously registered fingerprint. For example, if authentication is not required or the fingerprint does not match any of the previously registered fingerprints, then the device will still be able to associate the fingerprint with the device &lt; RTI ID = 0.0 &gt; And thus does not require the identification of the user associated with the fingerprint.

예를 들어, 지문(1702)이 검출되면(도 17a), 디바이스는 지문(1702)이 이전에 등록된 지문과 부합하는지 여부와 무관하게 "성인" 부류-기반 프로파일을 선택한다(예를 들어, "성인" 부류-기반 프로파일은 사용자와 연관된 알려진 지문 패턴에 지문의 패턴을 대조함으로써 사용자를 식별해야 할 필요성 없이, 지문의 크기에 기초하여 선택됨). 지문(1706)이 검출되면(도 17b), 디바이스는 지문(1706)이 이전에 등록된 지문과 부합하는지 여부와 무관하게 "아동" 부류-기반 프로파일을 선택한다(예를 들어, "아동" 부류-기반 프로파일은 사용자와 연관된 알려진 지문 패턴에 지문의 패턴을 대조함으로써 사용자를 식별해야 할 필요성 없이, 지문의 크기에 기초하여 선택됨).For example, if a fingerprint 1702 is detected (FIG. 17A), the device selects an "adult" class-based profile regardless of whether the fingerprint 1702 matches a previously registered fingerprint (e.g., The "adult" class-based profile is selected based on the size of the fingerprint, without the need to identify the user by matching the fingerprint pattern to a known fingerprint pattern associated with the user). 17B), the device selects a "child" class-based profile regardless of whether the fingerprint 1706 matches a previously registered fingerprint (e.g., Based profile is selected based on the size of the fingerprint, without the need to identify the user by matching the fingerprint pattern to a known fingerprint pattern associated with the user).

일부 실시예들에서, 제1 부류-기반 프로파일이 제1 지문의 검출된 크기에 따라 선택된다(1808). 예를 들어, 검출된 제1 지문이 미리 정해진 크기 임계치(예를 들어, 평균 특징 크기, 최대 지름 등) 미만이라면, 제1 지문은 아동의 지문으로 분류되고 포괄적인 아동 프로파일이 디바이스를 위한 활성 프로파일로서 선택된다. 따라서, 일부 실시예들에서, 미리 정해진 또는 사용자-특정된 연령(예를 들어, 12세) 미만인 사용자에 속한 것으로서 제1 지문을 식별한 것에 기초하여, 또는 제1 지문이 아동 지문의 전형적인 특징인 지문 특징들을 갖는다는 결정에 기초하여, 제1 지문은 아동 지문인 것으로 결정되며, 따라서 지문이 특정 아동에 속한 것으로서 등록되지 않았았을지라도 해당 지문은 아동의 지문일 가능성이 매우 높다. 예를 들어, "성인" 프로파일이 지문(1702)에 대해 선택되고, "아동" 프로파일이 지문(1702)보다 작은 지문(1706)에 대해 선택된다.In some embodiments, a first class-based profile is selected 1808 according to the detected size of the first fingerprint. For example, if the detected first fingerprint is less than a predetermined size threshold (e.g., average feature size, maximum diameter, etc.), then the first fingerprint is categorized as a child's fingerprint and a comprehensive child profile is assigned to the active profile . Thus, in some embodiments, based on identifying the first fingerprint as belonging to a user that is less than a predetermined or user-specified age (e.g., 12 years of age), or based on identifying the first fingerprint as a typical feature of the child fingerprint Based on the decision to have fingerprint features, the first fingerprint is determined to be a child fingerprint, and therefore, even though the fingerprint was not registered as belonging to a particular child, the fingerprint is likely to be fingerprint of the child. For example, an "adult" profile is selected for the fingerprint 1702 and a "child" profile is selected for the fingerprint 1706 that is smaller than the fingerprint 1702.

일부 실시예들에서, 제1 부류-기반 프로파일은 제1 부류의 구성원들에 대해 디바이스의 동작을 제약한다(1810). 예를 들어, 아동-특정 프로파일이 활성 프로파일인 경우, 디바이스는 부적절한(예를 들어, 폭력적이거나 그 외에 제한되는) 또는 민감한(예를 들어, 패스워드, 금융 정보, 계정 설정, 및/또는 문서들 및 애플리케이션들의 삭제와 같은 파괴적인 동작들의 수행) 특정 설정들, 애플리케이션들, 정보에의 액세스를 제한한다. 예를 들어, "아동" 프로파일이 활성일 때, 설정 사용자 인터페이스(1708)로의 액세스가 제한된다. 따라서, "아동" 프로파일이 활성화된 동안에 "설정" 아이콘(1704)이 활성이라면, 설정 사용자 인터페이스(1708)(도 17c)가 표시되지 않는다. 대신, 예를 들어 도 17d에 도시된 바와 같이 오류 메시지(1710)가 표시된다.In some embodiments, the first class-based profile constrains the operation of the device for the first class members (1810). For example, if the child-specific profile is an active profile, then the device may display the inappropriate (e.g., violent or otherwise restricted) or sensitive (e.g., password, financial information, account settings, and / Execution of destructive operations such as deletion of applications), thereby limiting access to specific settings, applications, and information. For example, when the "child" profile is active, access to the settings user interface 1708 is limited. Thus, if the "Settings" icon 1704 is active while the "child" profile is active, then the settings user interface 1708 (FIG. Instead, an error message 1710 is displayed, for example, as shown in FIG. 17D.

일부 실시예들에서, 제1 부류-기반 프로파일은 기능들을 제1 부류의 구성원들에게 더 적절하게 만들도록 디바이스의 기능들을 변경한다(1812). 예를 들어, 아동-특정 프로파일이 활성 프로파일일 때, 디바이스는 아동과의 상호작용을 위한 프로그램들을 도입한다(예를 들어, 운동 애플리케이션에서 성인-특정 운동 프로파일들 대신 아동-특정 운동 프로파일들을 이용하거나 이-리더 애플리케이션에서 성인용 책이 아닌 아동용 책을 표시함). 예를 들어, "아동" 프로파일이 활성인 동안, 아동에게 적합하지 않은 비디오들로의 엑세스가 제한된다. 따라서, "아동" 프로파일이 활성인 동안, 도 17f에 도시된 바와 같이, 비디오(1714)들을 나열하는 사용자 인터페이스(1712) 내의 비디오(1714)들의 목록은 아동에게 적합하지 않을 수 있는 비디오들(예를 들어, 비디오(1714-3, 1714-4)들)을 제외시킨다.In some embodiments, the first class-based profile changes 1812 the capabilities of the device to make the functions more appropriate for members of the first class. For example, when the child-specific profile is an active profile, the device introduces programs for interacting with the child (e.g., using child-specific motion profiles instead of adult-specific motion profiles in an exercise application In an e-reader application, displays children's books rather than adult books). For example, while the "child" profile is active, access to videos not suitable for the child is restricted. Thus, while the "child" profile is active, the list of videos 1714 in the user interface 1712 listing the videos 1714, as shown in Figure 17F, For example, videos 1714-3 and 1714-4).

일부 실시예들에서, 지문 센서 상에서 제1 지문을 검출한 후에(1814), 디바이스는 제1 지문의 지문 특징들을 결정하고(1816), 제1 지문의 지문 특징들과 부합하는 이전에 등록된 지문을 식별하며(1818), (예를 들어, 제1 부류-기반 사용자 프로파일을 활성 프로파일로서 선택하는 것에 더하여) 이전에 등록된 지문과 연관된 제1 사용자-특정 프로파일을 활성 프로파일로서 선택한다(1820). 이러한 지문 분석/대조 동작들이 선택적으로 디바이스의 중앙 프로세싱 유닛 또는 지문 센서와 연관된 보안 프로세싱 디바이스에서 수행된다. 일부 실시예들에서, 디바이스는 한 세트의 하나 이상의 사용자-특정 프로파일들 중 임의의 것을 활성 프로파일로서 선택할지 여부를 결정하고, 어떠한 사용자-특정 프로파일도 제1 지문과 연관되지 않는다고 결정되면(예를 들어, 어떠한 사용자-특정 프로파일도 제1 지문과 부합하는 이전에 등록된 지문들과 연관되지 않는다면), 선택적으로 복수의 프로파일들 중 임의의 프로파일을 활성 프로파일로서 선택하지 않는다. 일부 실시예들에서, 사용자-특정 프로파일이 선택되지 않는다면, 디폴트 프로파일이 대신 사용된다. 예를 들어, 지문(1702) 또는 지문(1706)을 검출한 후에, 디바이스는 또한 검출된 지문이 이전에 등록된 지문과 부합하는지 여부를 결정한다. 검출된 지문에 대해 이전에 등록된 지문이 식별된다면, 활성 프로파일로서 선택된 임의의 부류-기반 프로파일들에 더하여, 식별된 이전에 등록된 지문과 연관된 사용자-특정 프로파일이 디바이스 상에서 활성 프로파일로서 선택된다(예를 들어, 도 17j 및 도 17k에 도시된 바와 같이, 검출된 지문에 기초하여 선택된 사용자-특정 프로파일과 연관된 사용자-특정 정보에 따라 웹 양식(1734) 및 웹 페이지(1740)가 로딩됨).In some embodiments, after detecting the first fingerprint on the fingerprint sensor (1814), the device determines (1816) the fingerprint features of the first fingerprint and determines the fingerprint characteristics of the previously registered fingerprint (1818) and selects (1820) the first user-specific profile associated with the previously registered fingerprint as the active profile (e.g., in addition to selecting the first class-based user profile as the active profile) . These fingerprint analysis / verification operations are optionally performed in a security processing device associated with the central processing unit or fingerprint sensor of the device. In some embodiments, the device determines whether to select any of a set of one or more user-specific profiles as the active profile, and if it is determined that no user-specific profile is associated with the first fingerprint (e.g., For example, if no user-specific profile is associated with previously registered fingerprints that match the first fingerprint), and optionally does not select any of the plurality of profiles as the active profile. In some embodiments, if a user-specific profile is not selected, a default profile is used instead. For example, after detecting fingerprint 1702 or fingerprint 1706, the device also determines whether the detected fingerprint matches a previously registered fingerprint. If a previously registered fingerprint is detected for the detected fingerprint, in addition to any class-based profiles selected as the active profile, a user-specific profile associated with the identified previously registered fingerprint is selected as the active profile on the device For example, web form 1734 and web page 1740 are loaded according to user-specific information associated with the selected user-specific profile based on the detected fingerprint, as shown in Figures 17j and 17k).

디바이스는 각각의 입력 요소를 이용하여 입력을 수신하는데(1822), 여기서 입력은 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응한다. 일부 실시예들에서, 디바이스와 연관된 하나 이상의 프로파일들이 활성 프로파일인 동안에(예를 들어, 하나 이상의 프로파일들이 활성 프로파일로서 선택된 후에) 입력이 수신된다. 일부 실시예들에서, 입력을 수신한 것에 응답하여 하나 이상의 프로파일들이 활성 프로파일로서 선택된다. 일부 실시예들에서, 입력은 디바이스의 터치-감응 표면 상에서의 제스처를 포함한다. 일부 실시예들에서, 입력은 근거리 통신 디바이스의 범위 내에서 디바이스를 이동시키는 것과 근거리 통신 디바이스로부터 신호를 수신하는 것을 포함한다. 입력은, 예를 들어 커서(1705)가 "설정" 아이콘(1704) 위에 있는 동안에 "설정" 아이콘(1704)을 활성화하기 위한 터치-감응 표면(451) 상에서의 제스처 또는 마우스 클릭, 사용자 인터페이스(1712)의 표시를 활성화하기 위한 터치-감응 표면(451) 상에서의 제스처 또는 마우스 클릭, 재생을 위한 비디오(1714)를 선택하기 위한 터치-감응 표면(451) 상에서의 제스처 또는 마우스 클릭 등일 수 있다. 일부 실시예들에서, 입력은 선택가능한 아이콘을 포함하는 터치스크린 디스플레이의 일부분 상에서의 탭 제스처인데, 여기서 지문 센서는 터치스크린 디스플레이로 통합되고 지문의 특징들은 탭 제스처에 기초하여 결정된다. 일부 실시예들에서, 입력은 커서가 디스플레이 상의 선택가능한 아이콘 위에 있는 동안의 트랙패드 상의 누름 입력(예를 들어, 활성화 강도 임계치보다 높은 강도의 접촉, 또는 트랙패드 아래의 물리적 액추에이터 또는 별개의 액추에이터 버튼의 접촉 및 활성화)이다.The device receives an input using each input element (1822), where the input corresponds to a request to perform one or more operations on the device. In some embodiments, the input is received while one or more profiles associated with the device are active profiles (e.g., after one or more profiles are selected as the active profile). In some embodiments, one or more profiles are selected as the active profile in response to receiving the input. In some embodiments, the input includes a gesture on the touch-sensitive surface of the device. In some embodiments, the input includes moving the device within the range of the local communication device and receiving a signal from the local communication device. Input may include a gesture or mouse click on the touch-sensitive surface 451 to activate the "Set" icon 1704 while the cursor 1705 is over the " Gesture or mouse click on touch-sensitive surface 451 to activate the display of touch screen 451, gesture or mouse click on touch-sensitive surface 451 to select video 1714 for playback, or the like. In some embodiments, the input is a tap gesture on a portion of the touch screen display that includes a selectable icon, wherein the fingerprint sensor is integrated into the touch screen display and features of the fingerprint are determined based on the tap gesture. In some embodiments, the input may be a push input on the trackpad while the cursor is over a selectable icon on the display (e.g., a contact with an intensity greater than the activation strength threshold, or a physical actuator below the trackpad, or a separate actuator button And activation).

제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 디바이스는 요청 및 제1 부류-기반 프로파일에 기초하여 (그리고, 선택적으로는 하나 이상의 다른 활성 프로파일들에 기초하여) 각자의 동작을 수행한다(1824). 예를 들어, 설정 사용자 인터페이스(1708)를 표시하기 위한 입력(예를 들어, "설정" 아이콘(1704)을 활성화하기 위한 터치-감응 표면 상에서의 제스처)을 수신하는 것에 응답하여, 디바이스는 현재 어느 부류-기반 프로파일이 활성인지에 기초하여 설정 사용자 인터페이스(1708)(도 17c) 또는 오류 메시지(1710)(도 17d)를 표시한다(예를 들어, "성인" 프로파일이 활성이면 설정 사용자 인터페이스가 표시되고, "아동" 프로파일이 활성이면 오류 메시지가 표시됨). 다른 예로서, 입력을 수신하는 것에 응답하여, 디바이스는 현재 어느 부류-기반 프로파일이 활성인지에 기초하여 비디오(1714)들의 전체 목록(도 17e) 또는 비디오(1714)들의 제한된 목록(도 17f)을 표시한다(예를 들어, "성인" 프로파일이 활성이면 비디오들의 전체 목록이 표시되고, "아동" 프로파일이 활성이면 비디오들의 제한된 목록이 표시됨).In response to receiving an input using a respective input element while a first class-based profile is selected as an active profile, the device generates a request based on the request and a first class-based profile (and optionally, (1824). &Lt; / RTI &gt; For example, in response to receiving an input (e.g., a gesture on the touch-sensitive surface for activating the "Settings" icon 1704) to display a settings user interface 1708, (Fig. 17C) or error message 1710 (Fig. 17D) based on whether the class-based profile is active (e.g., if the " , And an error message is displayed if the "child" profile is active). As another example, in response to receiving the input, the device may display a full list of videos 1714 (FIG. 17E) or a limited list of videos 1714 (FIG. 17F) based on which class- (E.g., a full list of videos is displayed if the "adult" profile is active and a limited list of videos is displayed if the "child" profile is active).

일부 실시예들에서, 제1 부류-기반 프로파일이 사용자의 연령에 적어도 부분적으로 기초하고(1826), 요청은 오디오를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자의 연령에 대해 조정된 오디오를 제시하는 것(예를 들어, 아동에 대해 최대 볼륨을 감소시키는 것 및/또는 고령의 성인들에 대해 오디오 주파수를 아래로 시프트하는 것)을 포함한다. 예를 들어, 도 17g에서, "아동" 프로파일이 활성인 동안에 비디오(1714)를 재생할 때, 디바이스는 비디오(1714)를 재생하라는 요청을 수신하는 것에 응답하여 청력 손상 방지를 돕도록 (예를 들어, 볼륨 슬라이더 바(1726) 내의 영역(1728)에 의해 나타내어지는 바와 같이) 비디오(1714) 내의 오디오 콘텐트에 대한 최대 볼륨 레벨의 한도를 정한다.In some embodiments, the first class-based profile is based at least in part on the age of the user (1826), the request includes a request to present content containing audio, Presenting the adjusted audio (e. G., Reducing the maximum volume for the child and / or shifting down the audio frequency for older adults). For example, in Fig. 17G, when playing back video 1714 while the "child" profile is active, the device responds to receiving a request to play video 1714 to help prevent hearing loss (As indicated by the area 1728 in the volume slider bar 1726). &Lt; / RTI &gt;

일부 실시예들에서, 제1 부류-기반 프로파일은 사용자의 연령에 적어도 부분적으로 기초하고(1828), 요청은 시각적 컴포넌트를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자가 시각적 컴포넌트를 더 쉽게 볼 수 있도록 미디어의 시각적 컴포넌트를 조정하는 것(예를 들어, 디스플레이 밝기 또는 콘트라스트를 증가시키는 것, 및/또는 고령의 성인을 위해 텍스트 폰트 크기를 증가시키는 것)을 포함한다. 예를 들어 도 17i에서, "아동" 프로파일 또는 고령자에 대응하는 프로파일들이 활성인 동안에 문서(1732)를 표시할 때, 디바이스는 문서를 표시하라는 요청을 수신하는 것에 응답하여 문서를 더 큰 줌 스케일 또는 더 큰 텍스트 폰트 크기로 표시한다(예를 들어, "성인" 프로파일이 활성이라면 도 17h에 도시된 바와 같이 표준 크기의 텍스트로 문서가 표시되고, "아동" 프로파일이 활성이라면 도 17i에 도시된 바와 같이 더 큰 텍스트로 문서가 표시됨).In some embodiments, the first class-based profile is based at least in part on the age of the user (1828), the request includes a request to present content that includes a visual component, (E.g., increasing the display brightness or contrast, and / or increasing the text font size for older adults) to make it easier to view the media. For example, in FIG. 17i, when displaying the document 1732 while the "child" profile or profiles corresponding to the elderly are active, the device responds to receiving a request to display a document, If the "adult" profile is active, then the document is displayed in standard sized text as shown in FIG. 17h, and if the "child" profile is active, The document will be displayed with larger text).

일부 실시예들에서, 디바이스가 요청과 연관된 하나 이상의 동작들을 수행하도록 허가된 활성 프로파일을 갖지 않는 경우(1830), 각자의 동작은 오류 메시지(예를 들어, 활성 프로파일이 개인 정보로의 액세스와 같은 요청된 동작 또는 뱅킹 애플리케이션과 같은 보안 애플리케이션을 수행하기 위한 승인을 갖지 않음을 나타내는 메시지)이다. 예를 들어, "아동" 프로파일이 활성이고 "성인" 프로파일이 활성이지 않은 동안에 디바이스가 설정 사용자 인터페이스(1708)를 표시하라는 요청을 수신하는 경우, 오류 메시지(1710)가 표시된다(도 17d).In some embodiments, if the device does not have an active profile 1830 that is authorized to perform one or more actions associated with the request, then each action may result in an error message (e.g., A message indicating that it has no authorization to perform a security application such as a requested action or a banking application). For example, if the device receives a request to display the configuration user interface 1708 while the "child" profile is active and the "adult" profile is not active, an error message 1710 is displayed (FIG. 17d).

일부 실시예들에서, 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 디바이스는 각자의 동작을 수행하는 것에 더하여 하나 이상의 동작들을 수행한다(1832)(예를 들어, 디바이스는 사용자의 대략적인 연령에 보다 적절하도록 디바이스의 출력을 변경함으로써, 요청된 동작들을 수행하고 이 동작들을 활성 프로파일에 기초하여 커스터마이징함). 예를 들어, "아동" 프로파일이 활성인 동안에 디바이스가 비디오(1714)를 재생하라는 요청을 수신하는 경우, 도 17g와 관련하여 전술된 바와 같이 비디오가 재생되고 최대 볼륨의 한도가 정해진다.In some embodiments, in response to receiving an input using a respective input element while a first class-based profile is selected as an active profile, the device performs one or more operations in addition to performing its own actions 1832) (e.g., the device performs the requested operations and customizes them based on the active profile by changing the output of the device to be more appropriate for the user's approximate age). For example, if the device receives a request to play video 1714 while the "child" profile is active, the video is played and the maximum volume limit is determined as described above in connection with FIG. 17g.

일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 개인 정보를 입력하기 위한 양식을 표시하라는 요청을 포함하고(예를 들어, 사용자 이름, 주소, 전화번호, 패스워드, 또는 제1 사용자-특정 프로파일과 연관된 지불 정보와 같은 개인 정보를 입력하기 위한 양식 필드들을 포함하는 애플리케이션 또는 웹 페이지를 로딩함)(1834), 각자의 동작은 제1 사용자-특정 프로파일 내의 정보에 기초하여 개인 정보를 양식 내에 자동으로 채우는 것을 포함한다. 예를 들어, 도 17j에서, 웹 양식(1734)을 표시하라는 요청을 수신하는 것에 응답하여, 디바이스는 웹 양식(1734)을 표시하고 현재 활성인 사용자-특정 프로파일에 기초하여 개인 정보(1738)로 필드(1736)들을 자동으로 채운다.In some embodiments, the request to perform one or more actions includes a request to display a form for entering personal information (e.g., a user name, an address, a telephone number, a password, or a first user- (E.g., loading an application or web page that includes form fields for entering personal information, such as payment information associated with a particular user) 1834, each of which may automate personal information based on information in the first user- &Lt; / RTI &gt; For example, in FIG. 17J, in response to receiving a request to display web form 1734, the device displays web form 1734 and displays personal information 1738 based on the currently active user- Fields 1736 automatically.

일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 웹 페이지를 로딩하라는 요청을 포함하고(1836), 각자의 동작은 제1 사용자-특정 프로파일과 연관된 쿠키에 따라 웹 페이지를 로딩하는 것을 포함한다. 예를 들어 도 17k에서, 웹 페이지(1740)를 표시하라는 요청을 수신하는 것에 응답하여, 디바이스가 활성 사용자-특정 프로파일과 연관된 쿠키에 기초하여 현재 활성인 사용자-특정 프로파일에 대응하는 사용자에 대해 개인화된 웹 페이지(1740)를 표시한다. 반면에, 활성 프로파일인 제1 사용자-특정 프로파일 대신 제2 사용자-특정 프로파일이 활성 프로파일이라면, 웹 페이지는 제2 사용자-특정 프로파일과 연관된 다른 쿠키에 따라 로딩될 것이다.In some embodiments, the request to perform one or more actions includes a request to load a web page (1836) and each of the actions includes loading the web page according to a cookie associated with the first user-specific profile . For example, in FIG. 17K, in response to receiving a request to display a web page 1740, the device is personalized for the user corresponding to the user-specific profile currently active based on the cookie associated with the active user- The web page 1740 is displayed. On the other hand, if the second user-specific profile is the active profile instead of the first user-specific profile being the active profile, then the web page will be loaded according to the other cookie associated with the second user-specific profile.

도 18a 및 도 18b의 동작들이 기술된 특정한 순서는 단지 예시적인 것이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 18a 및 도 18b와 관련하여 전술된 방법(1800)에 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(1800)과 관련하여 전술된 지문들, 제스처들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 제스처들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 18A and 18B are described is exemplary only, and that the sequences described are not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph in "Detailed Description of the Invention" Note that it is also applicable in a similar manner to the method 1800 described above with respect to 18b. For example, the fingerprints, gestures, and focus selectors described above in connection with method 1800 may optionally be combined with other methods described herein (e.g., in the second paragraph within " Gestures, and focus selectors described herein in connection with the methods (e.g., methods listed). For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 19는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1900)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 19에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 19 illustrates a functional block diagram of an electronic device 1900 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 19 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 19에 도시된 바와 같이, 전자 디바이스(1900)는 디스플레이 유닛(1902), 각자의 입력 요소 유닛(1904)(예를 들어, 터치-감응 표면, 터치스크린 디스플레이, 마우스, 또는 다른 입력 요소), 지문 센서 유닛(1906), 및 디스플레이 유닛(1902), 각자의 입력 요소 유닛(1904) 및 지문 센서 유닛(1906)에 결합된 프로세싱 유닛(1908)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1908)은 획득 유닛(1910), 검출 유닛(1912), 선택 유닛(1914), 수행 유닛(1916), 결정 유닛(1918), 식별 유닛(1920) 및 디스플레이 인에이블링 유닛(1922)을 포함한다.19, the electronic device 1900 includes a display unit 1902, a respective input element unit 1904 (e.g., a touch-sensitive surface, a touch screen display, a mouse, or other input element) A fingerprint sensor unit 1906 and a processing unit 1908 coupled to the display unit 1902, the respective input element unit 1904 and the fingerprint sensor unit 1906. In some embodiments, the processing unit 1908 includes an acquisition unit 1910, a detection unit 1912, a selection unit 1914, a performance unit 1916, a determination unit 1918, an identification unit 1920, And an abling unit 1922.

프로세싱 유닛(1908)은 (예를 들어, 획득 유닛(1910)을 이용하여) 하나 이상의 사용자-특정 프로파일들, 및 각자의 사용자 부류에 각각 대응하는, 사용자-특정 프로파일들과는 구별되는 하나 이상의 부류-기반 프로파일들을 포함하는 복수의 프로파일들을 획득하고; (예를 들어, 검출 유닛(1912)을 이용하여) 지문 센서 유닛(1906) 상에서 제1 지문을 검출하고; 제1 지문이 제1 부류-기반 프로파일과 연관된 제1 사용자 부류 내의 사용자의 지문에 대응한다는 결정에 따라 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한, (예를 들어, 선택 유닛(1914)을 이용하여) 이전에 등록된 지문으로서의 제1 지문의 인증과는 상관없이, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일로서 선택하고; 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소 유닛(1904)을 이용하여 수신하고; 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소 유닛(1904)을 이용하여 입력을 수신하는 것에 응답하여, (예를 들어, 수행 유닛(1916)을 이용하여) 요청 및 제1 부류-기반 프로파일에 기초하여 각자의 동작을 수행하도록 구성된다.The processing unit 1908 may include one or more user-specific profiles (e.g., using the acquisition unit 1910), one or more user-specific profiles that are distinct from user-specific profiles Obtaining a plurality of profiles including profiles; Detects the first fingerprint on the fingerprint sensor unit 1906 (e.g., using the detection unit 1912); Based profile to the active profile, in response to a determination that the first fingerprint corresponds to the user's fingerprint in the first user class associated with the first class-based profile (e.g., the selection unit 1914 Selecting one or more class-based profiles associated with the device as an activation profile corresponding to the first fingerprint, irrespective of authentication of the first fingerprint as a previously registered fingerprint); Receive input corresponding to a request to perform one or more operations on the device using its respective input element unit (1904); In response to receiving an input using the respective input element unit 1904 while the first class-based profile is selected as the active profile, the request (e.g., using the execution unit 1916) Based profile for each of the plurality of devices.

일부 실시예들에서, 제1 부류-기반 프로파일이 제1 지문의 검출된 크기에 따라 선택된다.In some embodiments, a first class-based profile is selected according to the detected size of the first fingerprint.

일부 실시예들에서, 부류-기반 프로파일은 부류의 구성원들에 대해 디바이스의 동작을 제약한다.In some embodiments, the class-based profile constrains the operation of the device for members of the class.

일부 실시예들에서, 부류-기반 프로파일은 기능들을 부류의 구성원들에게 더 적절하게 만들도록 디바이스의 기능들을 변경한다.In some embodiments, the class-based profile changes the functionality of the device to make the functions more appropriate for the members of the class.

일부 실시예들에서, 부류-기반 프로파일이 사용자의 연령에 적어도 부분적으로 기초하고, 요청은 오디오를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자의 연령에 대해 조정된 오디오를 제시하는 것을 포함한다.In some embodiments, the class-based profile is based at least in part on the age of the user, and the request includes a request to present the content containing audio, wherein each action presents the adjusted audio for the age of the user .

일부 실시예들에서, 부류-기반 프로파일은 사용자의 연령에 적어도 부분적으로 기초하고, 요청은 시각적 컴포넌트를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자가 시각적 컴포넌트를 더 쉽게 볼 수 있도록 미디어의 시각적 컴포넌트를 조정하는 것을 포함한다.In some embodiments, the class-based profile is based at least in part on the age of the user, and the request includes a request to present the content containing the visual component, And adjusting the visual components of the media.

일부 실시예들에서, 디바이스가 요청과 연관된 하나 이상의 동작들을 수행하도록 허가된 활성 프로파일을 갖지 않는 경우, 각자의 동작은 오류 메시지이다.In some embodiments, if the device does not have an active profile that is authorized to perform one or more actions associated with the request, then each action is an error message.

일부 실시예들에서, 프로세싱 유닛(1908)은 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소 유닛(1904)을 이용하여 입력을 수신하는 것에 응답하여, (예를 들어, 수행 유닛(1916)을 이용하여) 각자의 동작을 수행하는 것에 더하여 하나 이상의 동작들을 수행하도록 구성된다.In some embodiments, the processing unit 1908 is responsive to receiving input using its respective input element unit 1904 while the first class-based profile is selected as the active profile (e.g., (E.g., using one or more operations 1916) to perform one or more operations.

일부 실시예들에서, 프로세싱 유닛(1908)은 지문 센서 유닛(1906) 상에서 제1 지문을 검출한 후에, (예를 들어, 결정 유닛(1918)을 이용하여) 제1 지문의 지문 특징들을 결정하고, (예를 들어, 식별 유닛(1920)을 이용하여) 제1 지문의 지문 특징들과 부합하는 이전에 등록된 지문을 식별하며, (예를 들어, 선택 유닛(1914)을 이용하여) 이전에 등록된 지문과 연관된 제1 사용자-특정 프로파일을 활성 프로파일로서 선택하도록 구성된다.In some embodiments, after processing unit 1908 detects the first fingerprint on fingerprint sensor unit 1906, it determines fingerprint features of the first fingerprint (e.g., using decision unit 1918) Identifies previously registered fingerprints that match the fingerprint features of the first fingerprint (e.g., using identification unit 1920), and identifies previously registered fingerprints (e.g., using selection unit 1914) And select a first user-specific profile associated with the registered fingerprint as the active profile.

일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 (예를 들어, 디스플레이 인에이블링 유닛(1922)을 이용하여) 개인 정보를 입력하기 위한 양식의 표시를 가능하게 하라는 요청을 포함하고, 각자의 동작은 제1 사용자-특정 프로파일 내의 정보에 기초하여 양식 내에 개인 정보를 자동으로 채우는 것을 포함한다.In some embodiments, the request to perform one or more actions includes a request to enable the display of a form for entering personal information (e.g., using the display enabling unit 1922) Includes automatically populating personal information in the form based on information in the first user-specific profile.

일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 웹 페이지를 로딩하라는 요청을 포함하고, 각자의 동작은 제1 사용자-특정 프로파일과 연관된 쿠키에 따라 웹 페이지를 로딩하는 것을 포함한다.In some embodiments, the request to perform one or more actions includes a request to load a web page, and each of the actions includes loading the web page according to a cookie associated with the first user-specific profile.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 18a 및 도 18b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 19에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(1804), 선택 동작(1806), 수신 동작(1822) 및 수행 동작(1824)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 18A and 18B are optionally implemented by the components shown in Figs. 1A and 1B or 19. For example, a detection operation 1804, a select operation 1806, a receive operation 1822 and an execute operation 1824 may optionally be implemented by the event classifier 170, the event recognizer 180 and the event handler 190 do. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. When each predetermined event or sub event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

지문에 기초한 로깅 선호도의 변경Changing fingerprint-based logging preferences

다수의 전자 디바이스들은 다양한 방식으로 사용자 활동을 로깅한다. 예를 들어, 일부 디바이스들은 인터넷 브라우징 이력 및/또는 전화 이력과 같은 활동을 로깅한다. 다른 예로서, 일부 디바이스들은 디폴트 사전 내의 단어들에 해당하지 않음에도 불구하고 사용자에 의해 종종 사용되는, 빈번하게 사용되는 단어들을 로깅한다(예를 들어, "블라디보스톡"은 표준 디바이스 사전에 나타나지 않을 수 있지만, 러시아의 블라디보스톡으로부터의 사용자가 문자 "블라디보스톡"을 소정의 횟수만큼 텍스트 메시지에 타이핑하면, 이는 자동으로 추가될 것임). 또 다른 예로서, 일부 디바이스는 (예를 들어 회수(recovery) 애플리케이션을 통한 사용자의 요청에 따라) 디바이스가 분실되었거나 도난당한 것으로 판단되는 경우에 로깅 활동(예를 들어, 글로벌 위치확인 시스템, 또는 "GPS"로부터의 활동)을 시작한다. 그러나, 다수의 디바이스들(예를 들어, 휴대용 다기능 디바이스들)은 로깅 선호도를 변경하기 위한 편리한 방식을 제공하지 않는다. 예를 들어, 사용자가 다른 사용자에게 자신의 디바이스를 빌려주었을 때, 다른 사용자가 디바이스를 사용하기 전에 행동(예를 들어, 설정 메뉴에서의 설정의 변경)이 취해지지 않는 한 디바이스는 원치 않는 브라우저 이력, 전화 이력 및 자동수정(autocorrect) 입력을 계속 로깅할 것이다. 다른 예로서, 사용자가 로깅 특징을 (예를 들어, 예컨대 텍스트 "내 전화기를 찾아라"를 포함함으로써 로깅 동작을 활성화하는 적절한 단문 메시지 서비스, 또는 "SMS" 메시지를 디바이스에 전송함으로써) 원격으로 활성화시키지 않는 한, 그러한 디바이스들은 종종 회수 데이터(예를 들어, GPS 데이터)의 로깅을 중단할 것이다.Many electronic devices log user activity in a variety of ways. For example, some devices log activities such as Internet browsing history and / or phone history. As another example, some devices may log frequently used words that are often used by the user, even though they do not correspond to words in the default dictionary (e.g., "Vladivostok" However, if a user from Vladivostok, Russia, typed the text "Vladivostok" a predetermined number of times into a text message, this would be added automatically). As another example, some devices may use a logging activity (e. G., A global positioning system, or a " GPS "). However, many devices (e.g., portable multifunction devices) do not provide a convenient way to change logging preferences. For example, if a user lends his or her device to another user, and the device does not take action before the other user has used the device (for example, changing the settings in the settings menu) , Phone history, and autocorrect input. As another example, a user may remotely activate a logging feature (e.g., by sending an appropriate short message service, or "SMS" message to the device to activate the logging action, for example by including the text " Unless such devices will often stop logging of retrieved data (e.g., GPS data).

아래에 기술된 실시예들에서, 로깅 선호도를 변경하기 위한 향상된 방법이 지문을 검출하고 지문이 알려진 사용자의 프로파일에 대응하는지 여부를 결정함으로써 달성된다. 그러한 경우, 사용자의 프로파일은 활성 프로파일로서 설정되고, (예를 들어, 로깅 동작들을 포함하는) 한 세트의 동작들이 활성 프로파일에 따라 수행된다. 지문이 알려진 사용자에 대응하지 않는 경우, 활성 프로파일이 디폴트 프로파일(예를 들어, 게스트 프로파일)로 설정되며, 상이한 세트의 동작들이 수행된다. 이 방법은 로깅 선호도를 변경하는 프로세스를 간소화한다.In the embodiments described below, an improved method for changing logging preferences is achieved by detecting the fingerprint and determining whether the fingerprint corresponds to a profile of a known user. In such a case, the user's profile is set as the active profile, and a set of operations (including, for example, logging operations) are performed according to the active profile. If the fingerprint does not correspond to a known user, the active profile is set to a default profile (e.g., a guest profile), and a different set of operations are performed. This approach simplifies the process of changing logging preferences.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 20a 내지 도 20f 및 도 21a 및 도 21b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 20a 내지 도 20f 및 도 21a 및 도 21b와 관련하여 기술되는 실시예들은, 도 20a 내지 도 20f에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안에 터치 스크린(112) 및/또는 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 20a 내지 도 20f에서 묘사된 입력들을 검출하는 것에 응답하여 수행되는 디바이스 동작들과 관련하여 논의될 것이다. 그러나, 통합형 지문 센서(359-1)와 함께 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 20a 내지 도 20f에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 상에서 도 20a 내지 도 20f에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행될 수 있다. 일부 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 일부 실시예들에서, 포커스 셀렉터의 시각적 표현이 표시된다(예를 들어, 포커스 셀렉터가 가리키는 사용자 인터페이스 객체는 다른 사용자 인터페이스 객체들로부터 시각적으로 구별됨).In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 20A-20F and Figs. 21A and 21B includes one or more fingerprint sensors 169. Fig. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 20A to 20F and Figs. 21A and 21B are similar to those of Figs. 20A to 20F in that while the user interfaces shown in Figs. 20A to 20F are displayed on the touch screen 112, In response to detecting the inputs depicted in Figures 20A-20F on a fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2) Will be discussed with respect to the device operations being performed. However, on the device having the display 450, the separate touch-sensitive surface 451 and the separate fingerprint sensor 359-2 together with the integrated fingerprint sensor 359-1, the user shown in Figures 20A-20F Similar actions can optionally be performed in response to detecting the inputs depicted in Figures 20A-20F on the integrated fingerprint sensor 359-1 while displaying the interfaces on the display 450. [ In some embodiments, the focus selector may alternatively include a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, contact, or touch screen 112 &Lt; / RTI &gt; In some embodiments, a visual representation of the focus selector is displayed (e.g., the user interface object pointed to by the focus selector is visually distinct from other user interface objects).

도 20a 내지 도 20d는 스캐닝된 지문이 사용자의 프로파일과 연관된다고 디바이스가 결정하는 일부 실시예들의 예를 도시한다.Figs. 20A-20D show examples of some embodiments in which a device determines that a scanned fingerprint is associated with a user's profile.

도 20a는 지문에 기초하여 로깅 선호도를 변경하는 디바이스 상에서 구현된 예시적인 사용자 인터페이스를 도시한다. 도 20a에서, 디바이스가 잠금되어 있는데, 이는 디바이스가 사용자에 의해 잠금해제될 때까지 디바이스의 적어도 일부 기능(예를 들어, 전화 기능, 애플리케이션들, 사진들 등)이 이용가능하지 않음을 의미한다. 이러한 예에서, 디바이스는 통합형 지문 센서(169)를 포함하는 홈 버튼(204)을 특징으로 한다.Figure 20A illustrates an exemplary user interface implemented on a device that changes logging preferences based on a fingerprint. In FIG. 20A, the device is locked, which means that at least some of the device's capabilities (e.g., phone functions, applications, pictures, etc.) are not available until the device is unlocked by the user. In this example, the device features a home button 204 that includes an integrated fingerprint sensor 169.

도 20b에서, 지문(2006)이 지문 센서(169) 상에서 검출된다. 이러한 예에서, 디바이스에 의해 인식된 지문의 검출은 디바이스를 잠금해제한다. 일부 실시예들에서, 아래에서 기술되는 바와 같이, 인식되지 않는 지문이 검출될 때, 디바이스는 디폴트 또는 게스트 프로파일로 잠금해제된다. 이러한 예에서, 디바이스가 지문을 스캐닝하고 있으며 디바이스를 잠금해제하고 있음을 나타내기 위한 시각적 단서(2004)가 제공된다. 그러나, 일부 실시예들에서, 디바이스는 별도로(예를 들어, 잠금해제를 위한 스와이프(swipe-to-unlock)와 같은 제스처를 통해, 패스워드를 입력함으로써, 이들의 일부 조합, 또는 다른 잠금해제 기능을 통해) 잠금해제되어야 한다. 일부 실시예들에서, 디바이스는 각각이 고유의 사용자 프로파일을 갖는 몇몇 사용자들에 의해 잠금해제될 수 있다. 아래에서 설명되는 바와 같이, 디바이스가 고유한 사용자 프로파일과 연관된 각자의 고유한 사용자에 속하는 것으로 인식되는 지문에 의해 잠금해제되었을 때, 사용자의 프로파일이 활성 프로파일로서 설정된다.In Fig. 20B, the fingerprint 2006 is detected on the fingerprint sensor 169. Fig. In this example, the detection of the fingerprint recognized by the device unlocks the device. In some embodiments, as described below, when an unrecognized fingerprint is detected, the device is unlocked to a default or guest profile. In this example, a visual clue 2004 is provided to indicate that the device is scanning the fingerprint and unlocking the device. However, in some embodiments, the device may be provided separately (e.g., via a gesture such as a swipe-to-unlock, by entering a password, by some combination thereof, Lt; / RTI &gt; In some embodiments, the device may be unlocked by several users each having a unique user profile. As described below, when a device is unlocked by a fingerprint that is perceived as belonging to a respective unique user associated with the unique user profile, the user's profile is set as the active profile.

도 20c에 도시된 예에서 보여지는 바와 같이, 디바이스는 지문이 사용자 John과 연관된 것으로 판단하였으며, 디바이스를 잠금해제하여 John의 프로파일을 활성 프로파일로서 설정하였다. 일부 실시예들에서, 사용자 프로파일은 사용자의 선호도, 설정들, 브라우저 이력, 전화 이력 등에 대한 정보를 (예를 들어, 하나 이상의 데이터베이스 내에) 저장한다. 일부 실시예들에서, 스캐닝된 지문(2006)이 John에 속한다고 디바이스가 결정할 때, 디바이스는 메모리로부터의 데이터베이스로부터 John의 선호도, 설정들, 이력 등을 검색하고 그에 따라 디바이스 거동을 변경한다. 예로서, 도 20c는 전화를 하기 위한 전화 애플리케이션의 선택에 대응하는 입력(예를 들어, 접촉(2008))을 도시한다. 디바이스는 도 20d에 도시된 바와 같이 전화 애플리케이션을 로딩함으로써 응답한다. John의 프로파일이 활성 프로파일이기 때문에, 편리한 다시 전화걸기(call back) 및 빈번하게 전화를 걸었던 번호들에 쉽게 전화를 걸기 위한 능력을 용이하게 하도록, John의 최근 전화 대화들의 목록(예를 들어, 전화 대화를 나타내는 사용자 인터페이스 객체(2009))이 표시된다.As shown in the example shown in Fig. 20C, the device determined that the fingerprint was associated with the user John, unlocked the device, and set John's profile as the active profile. In some embodiments, the user profile stores information (e.g., in one or more databases) about the user's preferences, settings, browser history, phone history, and the like. In some embodiments, when the device determines that the scanned fingerprint 2006 belongs to John, the device retrieves John's preferences, settings, history, etc. from the database from memory and changes the device behavior accordingly. By way of example, FIG. 20C shows an input (e.g., contact 2008) corresponding to a selection of a phone application for making a call. The device responds by loading the phone application as shown in Figure 20D. Because John's profile is an active profile, a list of John's recent phone conversations (e. G., A list of recent phone conversations, e. G. A user interface object 2009 representing a telephone conversation) is displayed.

일부 실시예들에서, 디바이스는 다수의 사용자 프로파일들을 저장한다. 예를 들어, 디바이스가 지문을 스캔하고, 그 지문이 디바이스 상에서 사용자 프로파일을 또한 갖는 사용자 Jane과 연관된 것으로 결정할 때, 디바이스는 Jane의 프로파일을 로딩한다. 예로서, 전화 애플리케이션이 선택될 때 John의 최근 전화 대화들 대신에 Jane의 최근 전화 대화들이 Jane에게 이용가능하다.In some embodiments, the device stores a plurality of user profiles. For example, when a device scans a fingerprint and decides that the fingerprint is associated with a user Jane that also has a user profile on the device, the device loads Jane's profile. As an example, Jane's recent phone conversations are available to Jane instead of John's recent phone conversations when the phone application is selected.

일부 실시예들에서, 도 20a와 도 20b 및 도 20e와 도 20f에 도시된 바와 같이, 디바이스는 지문이 스캐닝되고 해당 지문이 사용자 프로파일을 갖는 사용자에 대응하지 않는다고 결정할 때 자신의 거동을 변경한다. 도 20a 및 도 20b는 이전의 예와 관련하여 이미 기술되었으며, 이 예에서는 지문(2006)이 사용자의 프로파일과 연관되지 않는다는 차이를 갖는다. 따라서, 도 20e에 도시된 바와 같이, 디바이스는 사용자를 "게스트 사용자"로 맞이하는데, 이는 게스트 또는 디폴트 프로파일이 활성 프로파일로서 설정되었음을 나타낸다. 도 20e 및 도 20f는 일부 실시예들에서 활성 프로파일로서 설정되는 디폴트 또는 게스트 프로파일에 따라 디바이스가 자신의 기능을 변경하는 방법의 예를 제공한다. 도 20e는 전화 애플리케이션의 선택에 대응하는 입력(예를 들어, 접촉(2010))의 검출을 도시한다. 활성 사용자의 최근 전화 대화들이 나타내어진 도 20d와는 대조적으로, 도 20f의 디바이스는 최근 대화들이 나열되지 않은 전화용 키패드 인터페이스를 표시한다. 따라서, 허가되지 않은 사용자가 허가된 사용자의 빈도 높은 연락처들을 보거나 그러한 연락처에 전화를 거는 것이 금지된다. 본 개시 내용이 식별된 사용자의 프로파일과 디폴트 사용자의 프로파일 사이의 넓은 범위의 기능 차이를 지원하고자 함을 이해하여야 한다. 디바이스 기능에서의 일부 그러한 선택적 차이들이 도 21a 및 도 21b를 참조하여 기술되는 방법(2100)과 관련하여 설명된다.In some embodiments, the device changes its behavior when it determines that the fingerprint is scanned and the fingerprint does not correspond to a user with a user profile, as shown in Figures 20a and 20b and 20e and 20f. 20A and 20B have already been described with reference to the previous example, and in this example there is a difference that the fingerprint 2006 is not associated with the user's profile. Thus, as shown in FIG. 20E, the device welcomes the user as a "guest user &quot;, which indicates that the guest or default profile is set as the active profile. 20E and 20F provide an example of how a device changes its functionality according to a default or guest profile set as an activation profile in some embodiments. 20E shows the detection of an input (e.g., contact 2010) corresponding to a selection of a phone application. In contrast to Figure 20d, in which recent phone conversations of an active user are shown, the device of Figure 20f displays a keypad interface for a phone that does not list recent conversations. Thus, unauthorized users are prevented from seeing or dialing frequently-used contacts of authorized users. It should be understood that this disclosure is intended to support a wide range of functional differences between the identified user's profile and the default user's profile. Some such optional differences in device functionality are described in connection with the method 2100 described with reference to FIGS. 21A and 21B.

도 21a 및 도 21b는 일부 실시예들에 따른 로깅 선호도를 변경하는 방법(2100)을 예시하는 흐름도이다. 방법(2100)은 각자의 입력 요소를 포함한 하나 이상의 입력 요소들 및 지문 센서를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디바이스는 디스플레이 및 터치-감응 표면을 포함한다.21A and 21B are flow charts illustrating a method 2100 of changing logging preferences in accordance with some embodiments. The method 2100 is performed in an electronic device (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A) having one or more input elements and a fingerprint sensor that includes a respective input element . In some embodiments, the device includes a display and a touch-sensitive surface.

일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고 터치-감응 표면은 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 일부 실시예들에서, 터치-감응 표면은 각자의 입력 요소 및/또는 지문 센서이다. 방법(2100) 내의 일부 동작들이 선택적으로 조합될 수 있고/있거나 일부 동작들의 순서가 선택적으로 변경된다.In some embodiments, the display is a touch screen display and the touch-sensitive surface is on a display. In some embodiments, the display is separate from the touch-sensitive surface. In some embodiments, the touch-sensitive surface is a respective input element and / or a fingerprint sensor. Some of the operations in method 2100 can be selectively combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(2100)은 로깅 선호도를 변경하기 위한 직관적인 방식을 제공한다. 이 방법은 로깅 선호도를 변경할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 로깅 선호도를 더 빠르고 더 효율적으로 변경할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 2100 provides an intuitive way to change logging preferences. This method reduces the cognitive burden on the user when changing logging preferences, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing the user to change logging preferences more quickly and more efficiently conserves power and increases the time between battery charges.

각자의 입력 요소(예를 들어, 터치-감응 표면, 버튼 또는 키보드) 및 지문 센서를 갖는 디바이스는 지문 센서 상에서 제1 지문을 검출한다(2102).A device having a respective input element (e.g., a touch-sensitive surface, a button or a keyboard) and a fingerprint sensor detects a first fingerprint on the fingerprint sensor (2102).

디바이스는 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한다(2104). 일부 실시예들에서, 사용자 프로파일은 디폴트 프로파일이 아닌, 디바이스와 연관된 하나 이상의 사용자-특정 프로파일들, 포괄적 프로파일들 및 기타 비-디폴트 프로파일들의 세트로부터의 프로파일이다. 일부 실시예들에서, 지문 센서 상에서 제1 지문을 검출한 후 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하기 이전에, 디바이스는 제1 지문의 지문 특징들을 결정하고, 제1 지문의 지문 특징들과 부합하거나 연관된 이전에 등록된 지문이 있다면, 이를 식별한다. 제1 지문이 비-디폴트 프로파일과 연관된 각자의 이전에 등록된 지문에 대응하는 경우, 디바이스는 그 지문이 각자의 비-디폴트 프로파일과 연관된다고 결정한다. 대조적으로, 제1 지문이 비-디폴트 프로파일과 연관된 이전에 등록된 지문에 대응하지 않을 때, 디바이스는 지문이 어떠한 비-디폴트 프로파일과도 연관되지 않는다고 결정한다. 이러한 지문 분석/대조 동작들은 선택적으로 디바이스의 중앙 프로세싱 유닛에서 수행되는 반면, 다른 구현들에서 지문 분석/대조 동작들은 지문 센서와 연관된 보안 프로세싱 디바이스에서 수행된다. 이러한 지문 분석/대조 동작들은 선택적으로 지정된 시간에 (예를 들어, 도 20a 내지 도 20c와 관련하여 기술된 바와 같이 디바이스를 잠금해제할 때) 수행된다. 일부 실시예들에서, 지문 분석 및 대조는 지문이 검출되어 지문에 대한 프로파일에 대해 대조될 때마다 수행된다(예를 들어, 디바이스는 거의 끊임없이 사용자를 판단하고자 시도함).The device determines whether the first fingerprint is associated with a user profile associated with the device (2104). In some embodiments, the user profile is a profile from a set of one or more user-specific profiles, comprehensive profiles, and other non-default profiles associated with the device, and not a default profile. In some embodiments, after detecting the first fingerprint on the fingerprint sensor, the device determines fingerprint features of the first fingerprint and determines whether the first fingerprint is associated with a user profile associated with the device, If there is a previously registered fingerprint that matches or is associated with the fingerprint characteristics of the fingerprint. If the first fingerprint corresponds to a respective previously registered fingerprint associated with the non-default profile, the device determines that the fingerprint is associated with its respective non-default profile. In contrast, when the first fingerprint does not correspond to a previously registered fingerprint associated with a non-default profile, the device determines that the fingerprint is not associated with any non-default profile. These fingerprint analysis / verification operations are optionally performed in the central processing unit of the device, while in other implementations the fingerprint analysis / verification operations are performed in a security processing device associated with the fingerprint sensor. These fingerprint analysis / verification operations are optionally performed at a specified time (e.g., when unlocking the device as described in connection with Figures 20a-20c). In some embodiments, fingerprint analysis and verification is performed each time a fingerprint is detected and collated against a profile for the fingerprint (e.g., the device almost constantly attempts to determine the user).

제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에, 그리고 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라서, 디바이스는 각자의 사용자 프로파일을 활성 프로파일로서 설정한다(2106). 일부 실시예들에서, 한번에 단 하나의 사용자 프로파일만이 활성 프로파일이 될 수 있다. 일부 실시예들에서, 복수의 사용자 프로파일들이 동시에 활성 프로파일들이 될 수 있다. 예를 들어, 사용자-특정 프로파일 및 하나 이상의 포괄적인 프로파일들이 선택적으로 활성 프로파일들로서 동시에 선택되며, 복수의 활성 프로파일들과 연관된 설정들 및 기타 특징들이 디바이스에 의해 수신되는 입력들을 해석하기 위해 디바이스에 의해 사용된다. 이전에 논의된 바와 같이, 도 20c 및 도 20d는 디바이스가 단일 사용자의 프로파일(예를 들어, John에 속한 사용자 프로파일)로 설정되는 예를 도시한다.After determining whether the first fingerprint is associated with a user profile associated with the device, and according to a determination that the first fingerprint is associated with a respective user profile associated with the device, the device sets its user profile as the active profile 2106 ). In some embodiments, only one user profile at a time may be the active profile. In some embodiments, a plurality of user profiles can be active profiles at the same time. For example, a user-specific profile and one or more comprehensive profiles are optionally selected at the same time as active profiles, and settings and other features associated with a plurality of active profiles are provided by the device to interpret inputs received by the device Is used. As previously discussed, Figures 20c and 20d show an example in which the device is set to a single user's profile (e.g., a user profile belonging to John).

또한 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 임의의 사용자 프로파일과 연관되지 않는다는 결정에 따라, 디바이스는 디폴트 프로파일을 활성 프로파일로서 설정한다. 일부 실시예들에서, 디폴트 프로파일이 활성 프로파일인 때, 이는 유일한 활성 프로파일이다(예를 들어, 임의의 다른 프로파일이 디폴트 프로파일을 무효화함). 전술된 바와 같이, 도 20e 및 도 20f는 디바이스가 디폴트, 또는 게스트 프로파일로 설정되는 예를 도시한다.Also, after determining whether the first fingerprint is associated with a user profile associated with the device and the determination that the first fingerprint is not associated with any user profile associated with the device, the device sets the default profile as the active profile. In some embodiments, when the default profile is an active profile, this is the only active profile (e.g., any other profile invalidates the default profile). As described above, Figs. 20E and 20F show an example in which a device is set as a default or a guest profile.

디바이스는 각자의 입력 요소를 이용하여 입력을 수신하는데(2108), 여기서 입력은 요청된 동작을 수행하라는 요청에 대응한다. 일부 실시예들에서, 각자의 사용자 프로파일 또는 디폴트 프로파일이 활성 프로파일인 동안에(예를 들어, 각자의 사용자 프로파일 또는 디폴트 프로파일이 활성 프로파일로서 선택된 후에) 입력이 수신된다. 일부 실시예들에서, 디바이스는 입력을 수신하는 것에 응답하여 각자의 사용자 프로파일 또는 디폴트 프로파일을 활성 프로파일로서 선택할지 여부를 결정한다.The device receives input 2108 using its respective input element, where the input corresponds to a request to perform the requested operation. In some embodiments, the input is received while the respective user profile or default profile is the active profile (e.g., after each user profile or default profile is selected as the active profile). In some embodiments, the device, in response to receiving the input, determines whether to select either the user profile or the default profile as the active profile.

각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 디바이스는 제1 세트의 요청된 동작과 연관된 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행한다(2110). 또한, 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 디바이스는 제2 세트의 요청된 동작과 연관된 동작들을 디폴트 프로파일의 로깅 선호도에 따라 수행한다. 일부 실시예들에서, 프로파일의 로깅 선호도는 디바이스 상에서 수행되는 어느 활동들이 디바이스에 의해 로깅되거나 달리 기록될지를 나타내는 명령어에 대응한다. 예를 들어, 제1 사용자의 로깅 선호도는 브라우저 이력이 추적되고 애플리케이션 상태 정보(예를 들어, 열려있는 웹 브라우저 탭)가 저장됨을 나타내는 반면, 디폴트 로깅 선호도는 브라우저 이력이 추적되지 않으며 애플리케이션 상태 정보가 저장되지 않음을 나타낸다(예를 들어, 웹 브라우저가 활성 애플리케이션인 것을 중단할 때, 열려있는 웹 브라우저 탭들이 닫힐 것임).In response to receiving the input using its respective input element, the device determines one or more operations associated with the requested set of operations of the first set in the logging preference of the respective user profile, in accordance with a determination that the respective user profile is an active profile (2110). Also, in response to receiving an input using its respective input element, the device performs operations associated with the second set of requested operations in accordance with the logging profile preference of the default profile, in accordance with the determination that the default profile is an active profile. In some embodiments, the logging preference of the profile corresponds to an instruction indicating which activities performed on the device will be logged or otherwise recorded by the device. For example, the logging preference of the first user indicates that browser history is tracked and application state information (e.g., an open web browser tab) is stored, while default logging preferences indicate that browser history is not tracked and application state information (For example, when the web browser stops being an active application, the open web browser tabs will be closed).

일부 실시예들에서, 제1 세트의 동작들을 수행하는 것은 디바이스 상에서 수행되는 제1 유형의 동작의 로깅 동작들을 포함하고(2112), 제2 세트의 동작들을 수행하는 것은 각자의 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행된 제1 유형의 동작의 로깅 동작들을 중지하는 것을 포함한다. 따라서, 일부 실시예들에서, (예를 들어, 디바이스의 임시의/허가되지 않은 사용자들의 활동들로 사용자의 브라우징 이력 또는 최근 통화 로그를 클러터링(cluttering)하는 것을 막기 위해서) 디바이스는 임시의/허가되지 않은 사용자들의 소정의 활동들을 로깅하지 않는다.In some embodiments, performing the first set of operations comprises logging operations of a first type of operation performed on the device (2112), and performing the second set of operations includes logging preferences of respective user profiles And stopping the logging operations of the first type of operation performed on the device that was to be logged in accordance with &lt; RTI ID = 0.0 &gt; Thus, in some embodiments, the device may be able to temporarily or permanently block the user's browsing history or recent call log (e.g., to prevent cluttering of the user's browsing history or recent call logs with the activities of the temporary / unauthorized users of the device) And does not log certain activities of unauthorized users.

일부 실시예들에서, 제1 유형의 동작은 (예를 들어, 주 사용자에 의한) 디바이스의 이력적인 사용 패턴에 기초하여 디바이스의 동작을 커스터마이징하기 위해 디바이스에 의해 사용되는 동작들을 포함한다(2114). 예를 들어, 임시의/허가되지 않은 사용자가 디바이스를 사용하고 있다고 디바이스가 판단할 때, 디바이스는 허가된 사용자가 디바이스를 다시 사용하기 시작할 때까지, 자동수정 제안, 탐색 이력, 탐색 제안, 브라우저 이력, 사용자 이름/패스워드 로깅 정보, 최근에 사용된 애플리케이션, 최근에 전화한 전화번호, 이메일에 대한 읽음/읽지 않음 표시, 및/또는 디바이스에 대한 읽음/읽지 않음 통지 중 하나 이상을 커스터마이징하는 것을 중단한다. 일부 실시예들에서, 허가된 사용자가 디바이스를 다시 사용하기 시작한 후에, 디바이스는 제1 유형의 동작을 다시 로깅하기 시작한다. 따라서, 일부 실시예에서, 단일의 허가된 주 사용자를 갖는 디바이스의 경우, 사용자가 허가된 사용자의 친구 또는 가족 구성원과 같은 임시의/허가되지 않은 사용자에게 디바이스를 건네는 경우, 허가된 사용자의 사용 패턴들에 기초하여 결정된 디바이스의 "학습된" 커스터마이징이 방해되지 않는다. 오히려, 디바이스가 임시의/허가되지 않은 사용자에 의해 요청된 동작들을 수행하는 동안, 디바이스는 사용 패턴 이력에 따라 디바이스의 행동을 커스터마이징하기 위해 그러한 입력들을 무시한다.In some embodiments, the first type of operation includes operations used by the device to customize the operation of the device based on the device's historical usage pattern (e.g., by the primary user) (2114) . For example, when a device determines that a temporary / unauthorized user is using the device, the device may request an automatic modification proposal, a search history, a search suggestion, a browser history , User name / password logging information, recently used applications, recently dialed phone numbers, read / unread notifications for emails, and / or read / unread notifications for devices . In some embodiments, after the authorized user starts using the device again, the device begins to re-log the operation of the first type. Thus, in some embodiments, in the case of a device with a single authorized primary user, if the user hands the device to a temporary / unauthorized user, such as a friend or family member of an authorized user, The "learned" customization of the determined device is not hindered. Rather, while the device is performing operations requested by a temporary / unauthorized user, the device ignores such inputs to customize the behavior of the device according to the usage pattern history.

일부 실시예들에서, 제2 세트의 동작들을 수행하는 것은 디바이스 상에서 수행되는 제2 동작 유형의 로깅 동작들을 포함하고(2116), 제1 세트의 동작들을 수행하는 것은 디폴트 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행되는 제2 동작 유형의 로깅 동작들을 중지하는 것을 포함한다. 따라서, 일부 실시예들에서 허가되지 않은 사용자가 디바이스를 사용하고 있을 때, 허가되지 않은 사용자의 활동들이 디바이스에 의해 밀착 모니터링된다. 그러나, (예를 들어, 지문 센서 상에서 검출되는 허가된 사용자의 지문들에 의해 결정되는 바와 같이) 허가된 사용자가 디바이스를 사용하고 있을 때, 이러한 데이터는 허가된 사용자의 활동들을 불필요하게 침해하지 않기 위해 저장되지 않는다.In some embodiments, performing the second set of operations includes logging operations of a second type of operation performed on the device (2116), and performing the first set of operations may be performed according to a logging preference of the default user profile And stopping the logging operations of the second type of operation being performed on the device to be logged. Thus, in some embodiments, when an unauthorized user is using the device, the activities of the unauthorized user are closely monitored by the device. However, when an authorized user is using the device (e.g., as determined by fingerprints of an authorized user detected on the fingerprint sensor), such data does not unnecessarily infringe the activities of an authorized user It is not stored for.

일부 실시예들에서, 제2 동작 유형은 분실되거나 도난당한 디바이스와 연관된 범죄과학수사 동작들을 수행하는 것을 돕는 동작들을 포함한다(2118)(예를 들어, 위치 정보, 네트워크 활동, 브라우징 이력, 애플리케이션 이용, 은행 계좌 정보, 이메일, 음성메일 등과 같은 개인 정보에의 액세스를 로깅함). 따라서, 일부 실시예들에서, 디바이스가 허가되지 않은 사용자가 디바이스를 사용하고 있다고 판단하면, 이후에 금융 관련 상세사항들, 개인 이메일 등과 같은 민감한 정보를 위태롭게 했을 수 있는 허가되지 않은 사용자의 행동들이 허가된 사용자에게 나중에 알려질 수 있도록 디바이스는 선택적으로 허가되지 않은 사용자에 의해 수행되는 동작들을 추적하기 시작한다.In some embodiments, the second type of action includes actions 2118 (e. G., Location information, network activity, browsing history, application usage, etc.) to assist in performing criminal investigation activities associated with a lost or stolen device , Bank account information, email, voice mail, etc.). Thus, in some embodiments, if the device determines that an unauthorized user is using the device, then unauthorized user actions that may have jeopardized sensitive information such as financial details, personal e-mail, The device will begin to track operations performed by the user, optionally not authorized.

일부 실시예들에서, 제2 동작 유형은 디바이스의 위치 찾기를 돕는 동작들을 포함한다(예를 들어, GPS, WiFi 또는 다른 소스들로부터 식별된 위치 정보를 로깅함)(2120). 따라서, 일부 실시예들에서, 디바이스가 허가되지 않은 사용자가 디바이스를 이용하고 있다고 판단하면, 디바이스는 선택적으로 디바이스의 회수를 돕기 위해 디바이스 추적을 시작한다.In some embodiments, the second type of operation includes operations to assist in locating the device (e.g., logging location information identified from GPS, WiFi, or other sources) 2120. Thus, in some embodiments, if the device determines that an unauthorized user is using the device, the device optionally begins tracking the device to help recover the device.

일부 실시예들에서, 디바이스는 제2 동작 유형의 로깅 동작들의 표현을 포함하는 로그 기록을 (예를 들어, 주기적으로) 원격 서버에 전송한다. 일부 실시예들에서, 로그 기록은 (오직) 디바이스의 소유주에 대해서만 액세스 가능하며, 디바이스의 회수를 돕기 위해서 디바이스의 위치를 식별하는 것을 돕도록 디바이스 소유주에 의해 사용될 수 있다. 또한 일부 상황들에서, 로그 기록들은 통화 이력, 웹 브라우징 이력, 위치 데이터, 및/또는 지문 센서 상에서 검출되는 지문들의 기록과 같이 디바이스의 허가되지 않은 사용자의 아이덴티티를 판단하는 것을 돕는 정보를 제공한다.In some embodiments, the device sends a log record (e.g., periodically) containing a representation of the logging operations of the second type of operation to the remote server. In some embodiments, logging is accessible only to the owner of the device (only) and may be used by the device owner to help identify the location of the device to aid recovery of the device. Also in some situations, the log records provide information to help determine the identity of an unauthorized user of the device, such as a call log, web browsing history, location data, and / or a record of fingerprints detected on the fingerprint sensor.

도 21a 및 도 21b의 동작들이 기술된 특정한 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 21a 및 도 21b와 관련하여 전술된 방법(2100)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(2100)과 관련하여 전술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스 객체들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스 객체들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of FIGS. 21A and 21B are only illustrative and that the specific order in which they are described is not intended to indicate that the order described is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 2100 described above with respect to 21b is also applicable in a similar manner. For example, the fingerprints, contacts, gestures, and user interface objects described above in connection with method 2100 may optionally be combined with other methods (e.g., " Contacts, gestures, and user interface objects described herein in connection with the methods (e.g., the methods listed in the second paragraph of &lt; / RTI &gt; For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 22는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(2200)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 22에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 22 illustrates a functional block diagram of an electronic device 2200 configured in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 22 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 22에 도시된 바와 같이, 전자 디바이스(2200)는 지문 센서 유닛(2202); 입력 유닛(2204); 및 지문 센서 유닛(2202) 및 입력 유닛(2204)에 결합된 프로세싱 유닛(2208)을 포함한다. 전자 디바이스(2200)는 선택적으로 하나 이상의 인터페이스들 및/또는 하나 이상의 사용자 인터페이스 객체들의 표시를 가능하게 하도록 구성되는 디스플레이 유닛(2206)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(2208)은 검출 유닛(2210), 지문 결정 유닛(2212) 및 하나 이상의 각자의 동작 수행 유닛(2214)을 포함한다. 일부 실시예들에서, 하나 이상의 각자의 동작 수행 유닛(2214)은 하나 이상의 로깅 동작 유닛(2216)들(예를 들어, GPS 로깅 유닛, 브라우저 이력 로깅 유닛 등)을 포함한다.As shown in Fig. 22, the electronic device 2200 includes a fingerprint sensor unit 2202; An input unit 2204; And a processing unit 2208 coupled to the fingerprint sensor unit 2202 and the input unit 2204. The electronic device 2200 optionally includes a display unit 2206 configured to enable display of one or more interfaces and / or one or more user interface objects. In some embodiments, the processing unit 2208 includes a detection unit 2210, a fingerprint determination unit 2212, and one or more respective action performing units 2214. In some embodiments, one or more of each of the operation performing units 2214 includes one or more logging operation units 2216 (e.g., a GPS logging unit, a browser history logging unit, and the like).

프로세싱 유닛(2208)은 지문 센서 유닛(2212) 상에서 제1 지문을 검출하고, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하도록 구성된다. 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라, 프로세싱 유닛(2208)은 각자의 사용자 프로파일을 활성 프로파일로서 설정하도록 구성되고; 제1 지문이 디바이스와 연관된 임의의 사용자 프로파일과 연관되지 않는다는 결정에 따라서, 프로세싱 유닛(2208)은 디폴트 프로파일을 활성 프로파일로서 설정하도록 구성된다. 각자의 입력 유닛(2204)으로부터 입력을 수신하는 것에 응답하여 그리고 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 프로세싱 유닛(2208)은 요청된 동작과 연관된 제1 세트의 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행하도록 구성되고; 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 프로세싱 유닛(2208)은 요청된 동작과 연관된 제2 세트의 동작들을 디폴트 프로파일의 로깅 선호도에 따라 수행하도록 구성된다.The processing unit 2208 is configured to detect a first fingerprint on the fingerprint sensor unit 2212 and to determine whether the first fingerprint is associated with a user profile associated with the device. After determining whether the first fingerprint is associated with a user profile associated with the device and in accordance with the determination that the first fingerprint is associated with a respective user profile associated with the device, the processing unit 2208 sets the respective user profile as the active profile &Lt; / RTI &gt; In response to the determination that the first fingerprint is not associated with any user profile associated with the device, the processing unit 2208 is configured to set the default profile as the active profile. In response to receiving an input from a respective input unit 2204 and in accordance with the determination that the user profile of each is an active profile, the processing unit 2208 sends a first set of one or more operations associated with the requested operation to each user Configured to perform according to the logging preferences of the profile; In accordance with the determination that the default profile is an active profile, the processing unit 2208 is configured to perform a second set of operations associated with the requested operation in accordance with the logging profile preference of the default profile.

일부 실시예들에서, 제1 세트의 동작들을 수행하는 것은 디바이스 상에서 수행된 제1 유형의 동작의 로깅 동작들(예를 들어, 로깅 동작 유닛(2216)을 이용하여 수행됨)을 포함하고; 제2 세트의 동작들을 수행하는 것은 각자의 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행되는 제1 유형의 동작의 로깅 동작들을 중지하는 것을 포함한다.In some embodiments, performing the first set of operations includes logging operations of the first type of operation performed on the device (e.g., performed using the logging operation unit 2216); Performing the second set of actions includes stopping logging operations of a first type of operation performed on the device that would have been logged according to the logging preferences of the respective user profile.

일부 실시예들에서, 제1 유형의 동작들은 디바이스의 사용 패턴들의 이력에 기초하여 디바이스의 동작을 커스터마이징하기 위해 디바이스에 의해 사용되는 동작들을 포함한다.In some embodiments, the first type of operations include operations used by the device to customize the operation of the device based on the history of usage patterns of the device.

일부 실시예들에서, 제2 세트의 동작들을 수행하는 것은 디바이스 상에서 수행되는 제2 유형의 동작의 로깅 동작들(예를 들어, 동일한 로깅 동작 유닛(2216)을 이용해 수행되거나, 대안적으로 제1 세트의 동작들의 로깅 동작들에 사용되는 로깅 동작 유닛(2216)과는 상이한 로깅 동작 유닛(2216)을 이용하여 수행됨)을 포함하고; 제1 세트의 동작들을 수행하는 것은 디폴트 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행되는 제2 유형의 동작의 로깅 동작들을 중지하는 것을 포함한다.In some embodiments, performing a second set of operations may be performed using logging operations of a second type of operation performed on the device (e.g., using the same logging operation unit 2216, Performed using a logging operation unit 2216 that is different from the logging operation unit 2216 used for the logging operations of the set of operations; Performing the first set of actions includes stopping logging operations of a second type of operation performed on the device that would have been logged according to the logging user preference's logging preferences.

일부 실시예들에서, 제2 유형의 동작은 (예를 들어, GPS 로깅 유닛을 이용하여) 분실되거나 도난당한 디바이스와 연관된 범죄과학수사 동작들을 수행하는 것을 돕는 동작들을 포함한다.In some embodiments, the second type of action includes operations that help perform criminal science investigative actions associated with a lost or stolen device (e.g., using a GPS logging unit).

일부 실시예들에서, 제2 유형의 동작은 (예를 들어, GPS 로깅 유닛을 이용하여) 디바이스의 위치 찾기를 돕는 동작들을 포함한다.In some embodiments, the second type of operation includes operations that help locate the device (e.g., using a GPS logging unit).

일부 실시예들에서, 프로세싱 유닛(2208)은 제2 유형의 동작의 로깅 동작들의 표현을 포함하는 로그 기록을 원격 서버에 전송하도록 추가로 구성된다.In some embodiments, the processing unit 2208 is further configured to send a log record to the remote server that includes a representation of the logging operations of the second type of operation.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 21a 및 도 21b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 22에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(2102), 편집 결정 동작(2104) 및 설정 동작(2106)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The above-described operations in conjunction with Figs. 21A and 21B are optionally implemented by the components shown in Figs. 1A and 1B or 22. For example, the detection operation 2102, the edit decision operation 2104, and the setting operation 2106 are optionally implemented by the event classifier 170, the event recognizer 180, and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

지문 검증 정보에 기초한 각자의 제약된 동작의 수행Performing constrained actions based on fingerprint verification information

다수의 전자 디바이스들은 사용자가 유효 허가 크리덴셜(credential)(예를 들어, 패스워드 또는 스와이프 패턴)을 입력한 것에 응답하여 제약된 동작을 수행할 수 있게 된다. 그러나, 그러한 디바이스들은 입력된 허가 크리덴셜을 유효화하기 위해 이전에 저장된 허가 크리덴셜과 입력된 허가 크리덴셜을 비교하는 제약된 동작에 의존한다. 아래에서 기술된 디바이스는 시스템-레벨 지문 검증 기준에 따라 각자의 지문에 대한 (예를 들어, "부합하지 않음," "약하게 부합함" 또는 "강하게 부합함"을 나타내는) 지문 검증 정보를 생성함으로써 기존의 방법들을 향상시킨다. 이어서, 디바이스는 제약된 동작을 수행할지 여부를 결정하기 위해 사전-컴퓨팅된 지문 검증 정보를 활용한다.Multiple electronic devices are enabled to perform a constrained operation in response to a user entering a valid authorization credential (e.g., a password or swipe pattern). However, such devices rely on constrained operations comparing the previously stored authorization credentials with the entered authorization credentials to validate the entered authorization credentials. The devices described below generate fingerprint verification information for each fingerprint (e.g., indicating "incompatible," " weakly matched "or" strong match ") according to a system- Improve existing methods. The device then utilizes the pre-computed fingerprint verification information to determine whether to perform the constrained operation.

디바이스는 (예를 들어, 지문이 각자의 신뢰도 수준에 할당되기 위해 얼마나 많은 검증된 특징점들을 필요로 하는지를 나타내는) 지문의 검증을 제어하기 위한 지문 검증 기준을 획득한다. 이어서, 디바이스는 하기에 적어도 부분적으로 기초하여 각자의 제한된 동작에 대응하는 각자의 입력에 대한 지문 검증 정보를 결정한다: 각자의 입력의 식별된 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준. 디바이스는 지문 검증 정보가 각자의 제약된 동작에 대한 동작-특정(또는 애플리케이션-특정) 허가 기준을 충족시킨다고 결정함에 따라 각자의 제약된 동작만을 수행한다.The device obtains fingerprint verification criteria to control verification of the fingerprint (e.g., indicating how many verified feature points the fingerprint requires to be assigned to its confidence level). The device then determines fingerprint verification information for each input corresponding at least in part to its limited action based on the fingerprint verification information of the respective input and the fingerprint characteristics of the one or more previously registered fingerprints , And fingerprint verification criteria. The device only performs its respective constrained actions as it determines that the fingerprint verification information meets the action-specific (or application-specific) permission criteria for each constrained action.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 23a 내지 도 23g 및 도 24a 내지 도 24d와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 따라, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 23a 내지 도 23g 및 도 24a 내지 도 24d와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2))와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 23a 내지 도 23g에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 23a 내지 도 23g에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 23A-23G and Figs. 24A-24D includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may be implemented as an integrated fingerprint sensor 359-1 or a separate fingerprint sensor (not shown), depending on the hardware and software configuration of the device including the fingerprint sensor 169 359-2). For convenience of description, the embodiments described in connection with Figs. 23A to 23G and Figs. 24A to 24D can be applied to the touch screen 112 and the fingerprint sensor 169 (e.g., the integrated fingerprint sensor 359-1 or A separate fingerprint sensor 359-2); In such embodiments, the focus selector may alternatively include a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, a contact, or a touch screen 112 &Lt; / RTI &gt; On the device having the display 450, the separate touch-sensitive surface 451 and the integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2, the user interfaces shown in Figures 23A- In response to detecting the inputs depicted in Figures 23A-23G on the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-2 during the display on the touch screen 450, do.

도 23a는 게임 애플리케이션(2310) 및 뱅킹 애플리케이션(2312)을 포함하는 복수의 애플리케이션들을 갖는 터치 스크린(112) 상의 사용자 인터페이스(400)를 표시하는 휴대용 다기능 디바이스(100)를 도시한다. 도 23a는 또한 홈 버튼(204)에 통합된 지문 센서(169)(예를 들어, 별개의 지문 센서(359-2))를 갖는 홈 버튼(204)을 도시한다. 대안적으로, 또는 부가적으로, 일부 실시예들에서 지문 센서가 터치 스크린(112)의 적어도 일부분에 통합된다(예를 들어, 통합형 지문 센서(359-1)).23A illustrates a portable multifunction device 100 that displays a user interface 400 on a touch screen 112 having a plurality of applications including a game application 2310 and a banking application 2312. [ Figure 23A also shows a home button 204 having a fingerprint sensor 169 (e.g., a separate fingerprint sensor 359-2) integrated into the home button 204. [ Alternatively, or in addition, in some embodiments, the fingerprint sensor is integrated into at least a portion of the touch screen 112 (e.g., integrated fingerprint sensor 359-1).

도 23b는 터치 스크린(112) 상의 사용자 인터페이스(400)의 뱅킹 애플리케이션(2312) 위에서 사용자 입력(2302)을 검출하는 휴대용 다기능 디바이스(100)를 도시한다. 예를 들어 사용자 입력(2302)은 사용자의 오른손 검지이다. 예를 들어, 뱅킹 애플리케이션(2312)에 대한 액세스는 제약된 동작이다.23B illustrates a portable multifunction device 100 that detects a user input 2302 on the banking application 2312 of the user interface 400 on the touch screen 112. [ For example, the user input 2302 is the user's right hand index. For example, access to the banking application 2312 is a constrained operation.

일부 실시예들에서, 휴대용 다기능 디바이스(100)는 사용자 입력(2302)이 터치 스크린(112) 상의 뱅킹 애플리케이션(2312) 위에 있는 동안에 터치 스크린(112)의 적어도 일부분과 통합된 지문 센서(예를 들어, 통합형 지문 센서(359-1))를 통해 사용자 입력(2302)의 지문 특징들을 식별한다. 예를 들어, 휴대용 다기능 디바이스(100)는 지문 종결부(ending)들, 지문 능선 분기부들, 및 짧은 지문 능선들을 포함하는 사용자 입력(2302)의 특징점들을 식별한다. 또한, 휴대용 다기능 디바이스(100)는 적어도 하기에 부분적으로 기초하여 각자의 사용자 입력(2302)에 대한 지문 검증 정보를 결정한다: 사용자 입력(2302)의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준.In some embodiments, the portable multifunction device 100 may include a fingerprint sensor integrated with at least a portion of the touch screen 112 while the user input 2302 is over the banking application 2312 on the touch screen 112 , Integrated fingerprint sensor 359-1). &Lt; / RTI &gt; For example, the portable multifunction device 100 identifies feature points of the user input 2302 including fingerprint endings, fingerprint ridge branches, and short fingerprint ridges. The portable multifunction device 100 also determines fingerprint verification information for each user input 2302 based, at least in part on the following: fingerprint characteristics of the user input 2302 and one or more previously registered fingerprints Comparison between fingerprint features, and fingerprint verification criteria.

일부 실시예들에서, 지문 검증 기준은 하나 이상의 이전에 등록된 지문들에 관하여 부합하는 특징점들의 백분율에 기초하는 검출된 지문에 대한 복수의 분류들(또는 신뢰도 값들)을 규정한다. 예를 들어, 사용자 입력(2302)은 지문 검증 기준에 따라 3개의 분류들(또는 신뢰도 값들) 중 하나로 분류된다. 이러한 예에서, 지문 검증 정보는 검출된 지문의 특징점들이 30% 이하로 부합하면 사용자 입력(2302)이 "부합하지 않음"을 나타내고, 검출된 지문의 특징점들이 30% 초과 70% 미만으로 부합하면 사용자 입력(2302)이 "약하게 부합함"을 나타내며, 검출된 지문의 특징점들이 70% 초과로 부합하면 사용자 입력(2302)이 "강하게 부합함"을 나타낸다. 일부 실시예들에서, 사용자는 예를 들어 3개의 분류들 중 각자의 하나의 분류와 관련된 상기 백분율 값들 중 하나 이상을 수정함으로써 지문 검증 기준을 수정할 수 있게 된다.In some embodiments, the fingerprint verification criteria defines a plurality of classifications (or confidence values) for the detected fingerprints based on a percentage of matching feature points for one or more previously registered fingerprints. For example, the user input 2302 is categorized into one of three categories (or confidence values) according to the fingerprint verification criteria. In this example, the fingerprint verification information indicates that the user input 2302 is " incompatible "if the detected feature points of the fingerprint match 30% or less and the feature points of the detected fingerprint are more than 30% Input 2302 indicates "weakly matched " and user input 2302 indicates" strong match "if the detected fingerprint feature points meet more than 70%. In some embodiments, the user is allowed to modify the fingerprint verification criteria by, for example, modifying one or more of the percentage values associated with one of the three of the categories.

일부 실시예들에서, 휴대용 다기능 디바이스(100)는 사용자 입력(2302)이 터치 스크린(112) 상에 있는 동안에 사용자 입력(2302)의 지문 특징들을 식별하도록 구성되지 않는다. 다시 말하면, 휴대용 다기능 디바이스(100)는 터치 스크린(112)에 통합된 지문 센서(예를 들어, 통합형 지문 센서(359-1))를 구비하지 않는다. 터치 스크린(112) 상의 뱅킹 애플리케이션(2312)(예를 들어, 제약된 동작) 위에서 사용자 입력(2302)을 검출하는 것에 응답하여, 휴대용 다기능 디바이스(100)는 사용자가 홈 버튼(204)에 통합된 전용 지문 센서(169)(예를 들어, 별개의 지문 센서(359-2)) 상에 지문을 제공하도록 프롬프트한다.In some embodiments, the portable multifunction device 100 is not configured to identify the fingerprint features of the user input 2302 while the user input 2302 is on the touch screen 112. In other words, the portable multifunction device 100 does not have a fingerprint sensor (e.g., integrated fingerprint sensor 359-1) integrated into the touch screen 112. [ In response to detecting the user input 2302 on the banking application 2312 (e.g., a constrained operation) on the touch screen 112, the portable multifunction device 100 may allow the user to interact with the home button 204, And prompts to provide a fingerprint on the dedicated fingerprint sensor 169 (e.g., a separate fingerprint sensor 359-2).

도 23c는 도 23b의 터치 스크린(112) 상의 뱅킹 애플리케이션(2312)(예를 들어, 제약된 동작) 위에서 입력(2302)을 검출하는 것에 응답하여, 사용자가 홈 버튼(204)에 통합된 전용 지문 센서(169) 상에 지문을 제공하도록 유도하는 휴대용 다기능 디바이스(100)를 도시한다. 도 23c는 뱅킹 애플리케이션(2312)에 액세스하기 위해 지문 식별이 요구된다는 것을 나타내는 터치 스크린(112)의 사용자 인터페이스(400) 상에 표시된 텍스트 박스(2304)를 도시한다.23C is a flow chart illustrating a method for determining whether a user has selected a dedicated fingerprint (e.g., fingerprint) integrated in the home button 204, in response to detecting input 2302 on a banking application 2312 (e.g., a constrained operation) Lt; RTI ID = 0.0 &gt; 169 &lt; / RTI &gt; Figure 23C shows a text box 2304 displayed on the user interface 400 of the touch screen 112 indicating that fingerprint identification is required to access the banking application 2312. [

도 23d는 도 23c에서의 프롬프트에 응답하여 홈 버튼(204)과 통합된 지문 센서(169) 위에서 사용자 입력(2306)을 검출하는 휴대용 다기능 디바이스(100)를 도시한다. 예를 들어, 사용자 입력(2306)은 사용자의 오른손 검지이다. 지문 센서(169)는 사용자 입력(2306)의 지문 특징들을 식별하고, 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정한다: 각자의 입력(2306)의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준.Figure 23d shows a portable multifunction device 100 that detects user input 2306 on a fingerprint sensor 169 integrated with a home button 204 in response to the prompt in Figure 23c. For example, user input 2306 is the user's right hand index. The fingerprint sensor 169 identifies the fingerprint features of the user input 2306 and determines fingerprint verification information for each input based at least in part on the fingerprint characteristics of the user input 2306 and the fingerprint characteristics of the input 2306. [ A comparison between fingerprint features of previously registered fingerprints, and fingerprint verification criteria.

도 23e는 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)을 검출하는 것에 응답하여, 그리고 각자의 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준(예를 들어, 뱅킹 애플리케이션(2312)에 의해 설정된 동작-특정 기준)을 충족하지 않는다는 결정에 따라, 디바이스가 각자의 제약된 동작을 수행하는 것을 중지함(예를 들어, 뱅킹 애플리케이션(2312)에 대한 액세스를 거부함)을 나타내는 터치 스크린(112)의 사용자 인터페이스(400) 상에 표시된 텍스트 박스(2308)를 도시한다. 예를 들어, 뱅킹 애플리케이션(2312)의 허가 기준은 뱅킹 애플리케이션(2312)(예를 들어, 보안 애플리케이션)에 액세스하기 위해 "강하게 부합함"을 요구하고, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)에 대응하는 지문 검증 정보는 "약하게 부합함"을 나타낸다. 반면에, 게임 애플리케이션(2310)의 허가 기준은 게임 애플리케이션(2310)(예를 들어, 비보안 애플리케이션)에 액세스하기 위해 "약하게 부합함"만을 요구한다. 이러한 예에서, 각자의 지문 검증 정보가 뱅킹 애플리케이션(2312)의 허가 기준을 충족시키지 않기 때문에 뱅킹 애플리케이션(2312)에의 액세스가 거부된다.23E is a flowchart illustrating a method of generating fingerprint verification information in response to detecting the user input 2302 of FIG. 23B or the user input 2306 of FIG. 23D, and wherein each fingerprint verification information is associated with a respective permission criterion (e.g., (E.g., deny access to the banking application 2312) in response to a determination that the device does not meet the constrained behavior (e.g., the action-specific criteria set by the banking application 2312) And a text box 2308 displayed on the user interface 400 of the touch screen 112. The text box 2308 displays the text box 2308 on the touch screen. For example, the permission criteria of the banking application 2312 may require a " strong match "to access the banking application 2312 (e.g., a security application) The fingerprint verification information corresponding to the user input 2306 of " On the other hand, the permission criteria of game application 2310 require only "weak match" to access game application 2310 (e.g., non-secure application). In this example, access to the banking application 2312 is denied because the fingerprint verification information of each does not meet the permission criteria of the banking application 2312. [

도 23f는 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)을 검출하는 것에 응답하여 그리고 각자의 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 각자의 제약된 동작을 수행하는 것(예를 들어, 뱅킹 애플리케이션(2312)에 대한 액세스를 허가하며 이를 표시함)을 도시한다. 예를 들어, 뱅킹 애플리케이션(2312)의 허가 기준이 뱅킹 애플리케이션(2312)에 액세스하기 위해 "강하게 부합함"을 요구하고, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)에 대응하는 지문 검증 정보가 "강하게 부합함"을 나타낸다. 이러한 예에서, 각자의 지문 검증 정보가 뱅킹 애플리케이션(2312)의 허가 기준을 충족시켰기 때문에 뱅킹 애플리케이션(2312)에 대한 액세스가 허가되며, 뱅킹 애플리케이션(2312)이 터치 스크린(112)의 사용자 인터페이스(400) 상에 표시된다.23F is a flowchart illustrating a method of generating fingerprint information in response to detecting user input 2302 of FIG. 23B or user input 2306 of FIG. 23D and in accordance with a determination that their fingerprint verification information satisfies their respective permission criteria for their respective constrained actions (E.g., allowing and denoting access to the banking application 2312) to perform their respective constrained operations. For example, the authorization criteria of the banking application 2312 may require a "strong match" to access the banking application 2312 and may correspond to the user input 2302 of Figure 23B or the user input 2306 of Figure 23D Fingerprint verification information indicating "strong correspondence ". In this example, access to the banking application 2312 is permitted because each fingerprint verification information meets the permission criteria of the banking application 2312 and the banking application 2312 is displayed on the user interface 400 of the touch screen 112 ).

도 23g는 일부 실시예들에 따라 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행하는 프로세스(2320)의 개략도를 도시한다. 일부 실시예들에서, 프로세스(2320)는 휴대용 다기능 디바이스(100) 또는 휴대용 다기능 디바이스(100)의 컴포넌트에서 수행된다. 일부 실시예들에서, 프로세스(2320)의 적어도 일부분이 휴대용 다기능 디바이스(100)의 컴포넌트에서 수행된다. 예를 들어, 지문 모듈(2322)은 휴대용 다기능 디바이스(100)의 컴포넌트이고, 지문 모듈(2322)은 (예를 들어, 통합형 지문 센서(359-1) 및/또는 별개의 지문 센서(359-2)를 포함하는) 하나 이상의 지문 센서(2324), 지문 메모리(2326) 및 라인(2323)을 통해 하나 이상의 지문 센서(2324)들에 결합되고 라인(2325, 2327)들을 통해 지문 메모리(2326)에 결합되는 지문 프로세싱 로직(2328)을 포함한다.Figure 23g shows a schematic diagram of a process 2320 for performing a respective constrained operation based on fingerprint verification information in accordance with some embodiments. In some embodiments, the process 2320 is performed on a component of the portable multifunction device 100 or the portable multifunction device 100. In some embodiments, In some embodiments, at least a portion of the process 2320 is performed on a component of the portable multifunction device 100. For example, the fingerprint module 2322 is a component of the portable multifunction device 100 and the fingerprint module 2322 may be a component (e.g., an integrated fingerprint sensor 359-1 and / or a separate fingerprint sensor 359-2 (Not shown) coupled to one or more fingerprint sensors 2324 via one or more fingerprint sensors 2324, fingerprint memory 2326 and line 2323 and via lines 2325 and 2327 to fingerprint memory 2326 And fingerprint processing logic 2328 coupled thereto.

하나 이상의 지문 센서(2324)들은 각자의 입력의 지문 특징들을 식별하도록 구성된다. 지문 메모리(2326)는 하나 이상의 이전에 등록된 지문들의 지문 특징들을 저장하도록 구성된다. 일부 실시예들에서, 지문 메모리(2326)는 지문 검증 기준을 또한 저장하도록 추가로 구성된다. 지문 프로세싱 로직(2328)은 하기에 적어도 부분적으로 기초하여 지문 검증 정보를 결정하도록 구성된다: 라인(2325)을 통해 지문 메모리(2326)로부터 획득된 지문 검증 기준; 및 라인(2323)을 통해 하나 이상의 지문 센서(2324)들로부터 획득된 각자의 입력의 지문 특징들과 라인(2327)을 통해 지문 메모리(2326)로부터 획득된 하나 이상의 이전에 등록된 지문들의 지문 특징들의 비교. 지문 프로세싱 로직(2328)은 라인(2337)을 통해 지문 검증 정보를 각자의 제약된 동작 모듈(2337)로 제공하도록 추가로 구성된다. 일부 실시예들에서, 지문 모듈(2322)은 지문 검증 정보의 보안을 강화하도록 추가적인 보안 특징들을 갖는 보안된 전용 컴퓨팅 하드웨어로 이루어진다.One or more fingerprint sensors 2324 are configured to identify fingerprint features of their inputs. Fingerprint memory 2326 is configured to store fingerprint features of one or more previously registered fingerprints. In some embodiments, the fingerprint memory 2326 is further configured to store the fingerprint verification criteria as well. The fingerprint processing logic 2328 is configured to determine the fingerprint verification information based at least in part on the fingerprint verification criteria obtained from the fingerprint memory 2326 via line 2325; And fingerprint characteristics of one or more previously registered fingerprints obtained from fingerprint memory 2326 via line 2327 and fingerprint characteristics of each input obtained from one or more fingerprint sensors 2324 via line 2323, . The fingerprint processing logic 2328 is further configured to provide fingerprint verification information via line 2337 to its respective constrained operation module 2337. [ In some embodiments, the fingerprint module 2322 comprises secured dedicated computing hardware with additional security features to enhance the security of the fingerprint verification information.

일부 실시예들에서, 지문 프로세싱 로직(2328)의 부합 지문 식별 모듈(2332)은 지문 검증 기준에 따라 부합 지문을 식별한다. 일부 실시예들에서, 지문 프로세싱 로직(2328)의 최상 부합 지문 식별 모듈(2332)은 지문 검증 기준에 따라 최상 부합 지문을 식별한다. 또한, 일부 실시예들에서, 신뢰도 할당 모듈(2336)은 최상 부합 지문에 대해 부합 신뢰도 값을 할당한다.In some embodiments, the matching fingerprint identification module 2332 of the fingerprint processing logic 2328 identifies the matching fingerprint according to the fingerprint verification criteria. In some embodiments, the best matching fingerprint identification module 2332 of the fingerprint processing logic 2328 identifies the best matching fingerprint according to the fingerprint verification criteria. Also, in some embodiments, the confidence assignment module 2336 assigns a confidence ration value for the best match fingerprint.

각각의 제약된 동작 모듈(2338)(예를 들어, 뱅킹 애플리케이션)은 지문 프로세싱 로직(2328)으로부터 라인(2337)을 통해 지문 검증 정보를 획득하며, 결정 모듈(2340)을 통해 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시키는지 여부를 결정한다. 수행 모듈(2342)은 지문 프로세싱 로직(2328)으로부터 획득된 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준을 충족시키는 경우, 제약된 동작을 수행한다(예를 들어, 뱅킹 애플리케이션에 대한 액세스를 허여함). 중지 모듈(2344)은 지문 프로세싱 로직(2328)으로부터 획득된 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준을 충족시키지 않는 경우, 제약된 동작의 수행을 중지한다(예를 들어, 뱅킹 애플리케이션에 대한 액세스를 거부함).Each constrained action module 2338 (e.g., a banking application) obtains fingerprint verification information from the fingerprint processing logic 2328 via line 2337, and determines, via the determination module 2340, Lt; RTI ID = 0.0 &gt; constrained &lt; / RTI &gt; Execution module 2342 performs a constrained operation if the fingerprint verification information obtained from fingerprint processing logic 2328 meets its respective permission criteria for the constrained operation (e.g., access to the banking application Granted). The pause module 2344 stops performing the constrained operation if the fingerprint verification information obtained from the fingerprint processing logic 2328 does not meet the respective permission criteria for the constrained operation (e.g., Deny access to).

도 24a 내지 도 24d는 일부 실시예들에 따른 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행하는 방법(2400)을 예시한 흐름도이다. 방법(2400)은 디스플레이 및 지문 센서를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 지문 센서가 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 지문 센서와는 별개이다. 방법(2400) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.24A-24D are flowcharts illustrating a method 2400 of performing a respective constrained operation based on fingerprint verification information in accordance with some embodiments. The method 2400 is performed in an electronic device having a display and a fingerprint sensor (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the fingerprint sensor is on the display. In some embodiments, the display is separate from the fingerprint sensor. Some of the operations in method 2400 are optionally combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(2400)은 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행하기 위한 직관적인 방식을 제공한다. 이 방법은 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 지문 검증 정보에 기초하여 각자의 제한된 동작을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 2400 provides an intuitive way to perform their respective constrained actions based on fingerprint verification information. This method reduces the cognitive burden on the user when performing their respective constrained actions based on the fingerprint verification information, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing a user to perform their respective limited operations faster and more efficiently based on fingerprint verification information conserves power and increases the time between battery charges.

디바이스는 지문의 검증을 제어(예를 들어, 결정 또는 생성)하기 위한 지문 검증 기준을 획득(2402)(예를 들어, 메모리로부터 검색 또는 원격 컴퓨터 시스템으로부터 수신)하거나 (예를 들어, 메모리 내에서 또는 지문 모듈(2322)의 하나 이상의 명령어들 내에서) 지문 검증 기준에 액세스한다. 예를 들어, 지문 검증 기준은 검출된 지문이 이전에 등록된 지문임을 결정하기 위해 검증되어야 하는 지문의 특징점들의 개수를 설정하고/하거나 검출된 지문과 이전에 등록된 지문 사이의 부합의 신뢰도를 나타내는 상이한 신뢰도 수준들에 할당되기 위해서 지문에 대해 지문의 얼마나 많은 검증된 특징점들이 검증될 필요가 있는지를 설정한다. 예를 들어, 도 23g는 지문 검증 정보를 결정하기 위해 라인(2325)을 통해 지문 메모리(2326)로부터 지문 검증 기준을 획득하는 지문 프로세싱 로직(2328)을 도시한다.The device may acquire 2402 (e.g., retrieve from memory or receive from a remote computer system) fingerprint verification criteria to control (e.g., determine or generate) the verification of the fingerprint (e.g., Or within one or more instructions of the fingerprint module 2322). For example, a fingerprint verification criterion can be established by setting the number of feature points of a fingerprint that must be verified to determine that the detected fingerprint is a previously registered fingerprint, and / or establishing the reliability of matching between the detected fingerprint and the previously registered fingerprint Sets how many verified feature points of the fingerprint need to be verified for the fingerprint to be assigned to different confidence levels. For example, FIG. 23g shows fingerprint processing logic 2328 obtaining fingerprint verification criteria from fingerprint memory 2326 via line 2325 to determine fingerprint verification information.

일부 실시예들에서, 지문 검증 기준은 한 세트의 디폴트 기준을 포함하며(2404); 지문 검증 기준을 획득하는 것은: 지문 검증 기준에 대한 수정을 나타내는 기준-조정 입력을 사용자로부터 수신하는 것, 및 기준-조정 입력을 수신한 것에 응답하여 하나 이상의 디폴트 기준을 지문 검증 기준 내의 대응하는 수정된 기준으로 대체하는 것을 포함한다. 예를 들어, 사용자-조정가능한 설정 모드 동안에, 디바이스는 시스템-레벨 검증 기준을 규정하는 사용자 입력을 수신한다. 일부 실시예들에서, 지문 검증 기준을 변경하는 것은 어떤 지문들이 어떤 입력들과 부합하는지를 그리고/또는 부합의 신뢰도 수준을 변경할 것이다. 따라서, 일부 실시예들에서, 디폴트 지문 검증 기준을 사용하여 제1 지문과 제1 신뢰도 수준으로 부합되었을 입력이 대신에, 수정된 지문 검증 기준을 이용하여 (제1 신뢰도 수준과는 상이한) 제2 신뢰도 수준으로 제1 지문과 부합할 것이다.In some embodiments, the fingerprint verification criteria includes a set of default criteria (2404); Obtaining a fingerprint verification criterion comprises: receiving a criterion input from the user, the criterion indicating a modification to the fingerprint verification criterion, and the corresponding correction in the fingerprint verification criterion in response to receiving the criterion- Based on the standards. For example, during a user-adjustable set mode, the device receives a user input that defines a system-level verify criterion. In some embodiments, changing the fingerprint verification criteria will change which fingerprints match which inputs and / or the confidence level of compliance. Thus, in some embodiments, instead of using the default fingerprint verification criteria to indicate that the first fingerprint and the input that would have met the first confidence level are replaced by a second fingerprint verification criterion (different from the first confidence level) It will match the first fingerprint with a level of confidence.

일부 환경들에서, 각자의 입력이 이전에 등록된 지문과 부합하는 것으로 식별되거나 각자의 입력이 이전에 등록된 지문과 부합하는 특정한 신뢰도 수준에 도달하기 위해서 각자의 입력과 이전에 등록된 지문 사이의 더 밀접한 부합이 요구되도록 지문 검증 기준이 조정된다. 예를 들어, 사용자는 잘못된 네거티브 부합 가능성이 대응하여 증가하는 대신 잘못된 포지티브 부합 가능성을 감소시킴으로써 디바이스의 보안을 증가시킨다. 일부 환경들에서, (예를 들어, 지문 부합에 대해 요구되는 신뢰도 수준을 감소시킴으로써) 지문 검증 기준이 조정되어, 각자의 입력을 이전에 등록된 지문과 부합하는 것으로 식별하기 위한 각자의 입력과 이전에 등록된 지문 사이의 덜 밀접한 부합이 수용될 것이다. 예를 들어, 사용자는 잘못된 네거티브 부합 가능성의 대응하는 감소 대신에 잘못된 포지티브 부합 가능성을 증가시킴으로써 디바이스의 보안을 감소시킨다.In some circumstances it may be desirable to determine whether each input is identified as matching a previously registered fingerprint or whether each input is associated with a previously registered fingerprint to arrive at a particular confidence level that matches the previously registered fingerprint Fingerprint verification criteria are adjusted so that more close conformity is required. For example, a user increases the security of a device by reducing the likelihood of false positive compliance, instead of increasing the likelihood of false negative compliance. In some circumstances, the fingerprint verification criteria may be adjusted (e.g., by reducing the level of confidence required for fingerprint matching) so that each input to identify each input as matching the previously registered fingerprint, A less intimate match between registered fingerprints will be accepted. For example, the user reduces the security of the device by increasing the likelihood of false positive conformance instead of a corresponding reduction of false negative conformance probability.

각자의 제약된 동작들에 대응하는 복수의 입력들 각각에 대하여(2406), 디바이스는 각자의 입력의 지문 특징들을 식별한다(2408). 예를 들어 도 23d는 사용자 입력(2306)의 지문 특징들을 식별하는 휴대용 다기능 디바이스(100)의 홈 버튼(204)과 통합된 지문 센서(169)를 도시한다.For each of a plurality of inputs corresponding to their respective constrained actions 2406, the device identifies fingerprint features of each input 2408. For example, Figure 23d shows a fingerprint sensor 169 integrated with the home button 204 of the portable multifunction device 100 that identifies the fingerprint features of the user input 2306.

또한, 각자의 제약된 동작들에 대응하는 복수의 입력들 각각에 대하여(2406), 디바이스는 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정한다(2410): 각자의 입력의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교(2412), 및 지문 검증 기준(2414). 일례로서, 휴대용 다기능 디바이스(100)는 지문 센서(예를 들어, 도 23d의 홈 버튼(204)에 통합형 지문 센서(169)) 상에서 지문(예를 들어, 도 23d의 사용자 입력(2306))을 검출하고, 지문의 특징들을 식별하며, 지문의 특징들을 이전에 등록된 지문의 특징들과 비교한다. 다수의 환경들에서, 검출된 지문(예를 들어, 도 23d의 사용자 입력(2306))의 특징들과 이전에 등록된 지문은 완벽하게 부합하지 않을 것이며(예를 들어, 검출된 지문이 10개의 특징점들 중 5개가 부합함), 따라서 검출된 지문이 이전에 등록된 지문과 부합하는지 아닌지 여부가 모호하다. 이러한 모호성을 해결하기 위해서, 디바이스는 선택적으로 검출된 지문의 특징들과 이전에 등록된 지문의 특징들 사이의 비교 결과에 대해 지문 검증 기준을 적용한다. 예를 들어, 지문 검증 기준은 3개 이하의 특징점들(30% 이하)과 부합하는 검출된 지문은 "부합하지 않음"으로 분류되는 반면, 4 내지 6개의 특징점들(30% 초과, 70% 미만)과 부합하는 검출된 지문은 "약하게 부합함"으로 분류되며, 7개 이상의 특징점들(70% 이상)과 부합하는 검출된 지문은 "강하게 부합함"으로 분류된다고 규정한다.Also, for each of a plurality of inputs corresponding to their respective constrained actions 2406, the device determines 2410 fingerprint verification information for each input based, at least in part, on: A comparison (2412) between fingerprint features and fingerprint features of one or more previously registered fingerprints, and fingerprint verification criteria (2414). By way of example, the portable multifunction device 100 may be adapted to receive fingerprints (e.g., user input 2306 in Figure 23d) on a fingerprint sensor (e.g., integrated fingerprint sensor 169 in home button 204 in Figure 23d) Detects features of the fingerprint, and compares the features of the fingerprint with features of the previously registered fingerprint. In many circumstances, features of the detected fingerprint (e.g., user input 2306 of FIG. 23D) and previously registered fingerprint may not match perfectly (e.g., 5 out of the minutiae), so it is ambiguous whether or not the detected fingerprint matches a previously registered fingerprint. To address this ambiguity, the device applies a fingerprint verification criteria to the results of the comparison between the features of the selectively detected fingerprint and the features of the previously registered fingerprint. For example, a fingerprint verification criterion can be classified as "incompatible" with the detected fingerprints that match three or less feature points (less than 30%), while four to six feature points (greater than 30%, less than 70% ) Are classified as " weakly matched ", and detected fingerprints that match 7 or more minutiae (70% or more) are classified as "strong match ".

일부 실시예들에서, 디바이스는 다수의 상이한(예를 들어, 순차적인) 각자의 입력들에 대해 지문들을 프로세싱하기 위해 동일한 지문 검증 기준을 사용한다(2416). 예를 들어, 지문 검증 기준은 시스템-레벨 기준 또는 동작-독립적 기준이며, 지문 검증 정보가 사용될 동작과 무관하게 지문 검증 정보를 생성하기 위해서 검출된 지문과 이전에 등록된 지문들 간의 비교에 적용된다.In some embodiments, the device uses the same fingerprint verification criteria (2416) to process fingerprints for a number of different (e.g., sequential) inputs. For example, a fingerprint verification criterion is a system-level criterion or an action-independent criterion and is applied to a comparison between a fingerprint that has been detected to generate fingerprint verification information and fingerprints that were previously registered, irrespective of the operation in which the fingerprint verification information is to be used .

일부 실시예들에서, 디바이스는 각자의 입력 내의 특징점들을 식별하고; 각자의 입력 내에서 식별된 특징점들과 복수의 후보 지문들 내의 특징점들을 대조하며; 가장 많은 수의 부합 특징점들을 갖는 각각의 후보 지문을 부합 지문으로 선택함으로써, 지문 검증 정보를 결정한다(2418). 일부 실시예들에서, 지문에 대한 특징점들은 지문 능선 종결부들, 지문 능선 분기부들 및 (때때로 도트라 불리는) 짧은 지문 능선들 중 하나 이상을 포함한다. 지문 능선 종결부는 지문 능선이 종료되는 지점이다. 지문 능선 분기부는 단일 지문 능선이 2개의 지문 능선들로 분할되는 지점이다. 짧은 지문 능선은 지문 내의 지문 능선의 평균 능선 길이보다 뚜렷하게 더 짧은 능선이다. 예를 들어, 도 23g는 가장 많은 수의 부합 특징점들을 갖는 각자의 후보 지문을 부합 지문으로서 선택하도록 구성된 부합 지문 식별 모듈(2332)을 도시한다.In some embodiments, the device identifies feature points in their respective inputs; Collating minutiae points within the plurality of candidate fingerprints with minutiae points identified within their respective inputs; The fingerprint verification information is determined (2418) by selecting each candidate fingerprint having the largest number of matching feature points as the matching fingerprint. In some embodiments, the feature points for the fingerprint include one or more of fingerprint ridge endings, fingerprint ridge branches, and short fingerprint ridges (sometimes called dots). The fingerprint ridge end is the point where the fingerprint ridge ends. The fingerprint ridge branch is where the single fingerprint ridge is divided into two fingerprint ridges. The short fingerprint ridge is a ridge shorter than the average fingerprint ridge length in the fingerprint. For example, FIG. 23G shows a matching fingerprint identification module 2332 configured to select each candidate fingerprint with the largest number of matching feature points as matching fingerprints.

일부 실시예들에서, 디바이스는 각자의 입력 내의 특징점들을 식별하고; 각자의 입력 내에서 식별된 특징점들과 복수의 후보 지문들 내의 특징점들을 대조하며; 가장 많은 수의 부합 특징점들을 갖는 각각의 후보 지문을 최상 부합 지문으로 선택함으로써, 지문 검증 정보를 결정한다(2420). 예를 들어, 도 23g는 가장 많은 수의 부합 특징점들을 갖는 각자의 후보 지문을 최상 부합 지문으로서 선택하도록 구성된 부합 지문 식별 모듈(2334)을 도시한다.In some embodiments, the device identifies feature points in their respective inputs; Collating minutiae points within the plurality of candidate fingerprints with minutiae points identified within their respective inputs; By selecting each candidate fingerprint having the largest number of matching feature points as the best matching fingerprint, the fingerprint verification information is determined (2420). For example, FIG. 23G shows a matching fingerprint identification module 2334 configured to select each candidate fingerprint as the best matching fingerprint with the largest number of matching minutiae.

일부 실시예들에서, 디바이스는 각자의 입력 내의 제1 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라, 최상 부합 지문에 제1 신뢰도 값을 할당한다(2422). 디바이스는 또한 각자의 입력 내의 제2 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라 최상 부합 지문에 제2 신뢰도 값을 할당한다(2424). 제2 개수의 특징점들은 제1 개수의 특징점들보다 더 많으며(2426), 제2 신뢰도 값이 제1 신뢰도 값에 의해 나타내어지는 것보다 각자의 입력과 최상 부합 지문 사이의 더 밀접한 부합을 나타낸다(2428). 예를 들어, 도 23g는 각자의 신뢰도 값을 최상 부합 지문에 할당하도록 구성된 신뢰도 값 할당 모듈(2336)을 도시한다. 일부 실시예들에서, 각자의 입력 내의 제2 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합할 때, 제2 신뢰도 값만이 최상 부합 지문에 할당된다.In some embodiments, the device assigns (2422) a first confidence value to the best matching fingerprint according to a determination that the first number of feature points in each input match the corresponding feature points in the best match fingerprint. The device also assigns 2424 a second confidence value to the best match fingerprint according to a determination that a second number of feature points within each input match the corresponding feature points in the best match fingerprint. The second number of feature points is greater than the first number of feature points 2426 and the second confidence value indicates a closer fit between each input and the best matching fingerprint than is represented by the first confidence value 2428 ). For example, FIG. 23G shows a confidence value assignment module 2336 configured to assign each trust value to the best match fingerprint. In some embodiments, only the second reliability value is assigned to the best matching fingerprint when the second number of minutiae within each input match the corresponding minutiae in the best matching fingerprint.

일부 실시예들에서, 지문 검증 정보는 지문 검증 기준에 따라 결정된 부합 지문을 식별하는 정보(2432)를 포함한다(2430). 예를 들어, 도 23g는 지문 검증 정보 내에 부합 지문을 식별하는 정보를 포함하도록 구성된 부합 지문 식별 모듈(2332)을 도시한다.In some embodiments, the fingerprint verification information includes information 2432 identifying the matching fingerprint determined in accordance with the fingerprint verification criteria (2430). For example, FIG. 23G shows a matching fingerprint identification module 2332 configured to include information identifying a matching fingerprint in the fingerprint verification information.

일부 실시예들에서, 지문 검증 정보는 복수의 이전에 등록된 지문들 중, 지문 검증 기준에 따라 식별되는 최상 부합 지문을 식별하는 정보(2434); 및 제1 입력과 최상 부합 지문 사이의 부합의 신뢰도를 나타내는, 지문 검증 기준에 따라 결정되는 지문 부합 신뢰도 값을 포함한다(2430). 예를 들어, 도 23g는 최상 부합 지문을 식별하는 정보 및 지문 검증 정보 내의 부합 신뢰도 값을 포함하도록 구성된 최상 부합 지문 확인 모듈(2334)을 도시한다.In some embodiments, the fingerprint verification information includes information (2434) identifying a best matching fingerprint identified among the plurality of previously registered fingerprints according to the fingerprint verification criteria; And a fingerprint matching confidence value determined in accordance with a fingerprint verification criterion, which indicates the reliability of matching between the first input and the best matching fingerprint (2430). For example, FIG. 23G shows the best matching fingerprint identification module 2334 configured to include information identifying the best matching fingerprint and the matching confidence value in the fingerprint verification information.

각자의 입력을 검출하는 것에 응답하여(2436), 디바이스는 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준(예를 들어, 동작-특정 허가 기준)을 충족시키지 않는다는 결정에 따라 각자의 제약된 동작의 수행을 중지한다(2438). 예를 들어, 각자의 허가 기준은 이전에 등록된 지문들 중 어떤 지문이 각자의 제약된 동작을 수행하도록 허가되었는지를 나타내며, 선택적으로 각자의 제약된 동작이 수행되기 위해 충족되어야 하는 최소 신뢰도 수준을 나타낸다. 예를 들어, 도 23e는 도 23b의 터치 스크린(112) 상의 사용자 입력(2303) 또는 도 23d의 지문 센서(169) 상의 사용자 입력(2306)에 응답하여, 그리고 (예를 들어, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)의 검출에 응답하여 생성된) 지문 검증 정보가 뱅킹 애플리케이션(2312)에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라, 뱅킹 애플리케이션(2312)에 대한 액세스를 거부하는 휴대용 다기능 디바이스를 도시한다.In response to detecting each input (2436), the device may determine that the fingerprint verification information does not satisfy the respective constrained criteria (e.g., the action-specific permission criteria) The execution of the operation is stopped (2438). For example, each permission criterion indicates which of the previously registered fingerprints is authorized to perform their respective constrained actions, and optionally the minimum confidence level that each constrained action must be satisfied to perform . For example, FIG. 23E may be used in response to user input 2303 on the touch screen 112 of FIG. 23B or user input 2306 on the fingerprint sensor 169 of FIG. 23D, (As generated in response to the detection of user input 2306 in FIG. 23B) or fingerprint verification information in response to detection of user input 2306 in FIG. 23D does not meet their respective authorization criteria for banking application 2312 Lt; RTI ID = 0.0 &gt; access &lt; / RTI &gt;

각자의 입력을 검출하는 것에 응답하여(2436), 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 디바이스가 각자의 제약된 동작을 수행한다(2440). 예를 들어, 도 23f는 도 23b의 터치 스크린(112) 상의 사용자 입력(2302) 또는 도 23d의 지문 센서(169) 상의 사용자 입력(2306)에 응답하여, 그리고 (예를 들어, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)의 검출에 응답하여 생성된) 지문 검증 정보가 뱅킹 애플리케이션(2312)에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 뱅킹 애플리케이션(2312)(예를 들어, 각자의 제약된 동작)에 대한 액세스를 허가하고 이를 표시하는 휴대용 다기능 디바이스(100)를 도시한다.In response to detecting each input (2436), the device performs its respective constrained operation (2440), in accordance with a determination that the fingerprint verification information meets its respective permission criteria for its constrained operation. For example, FIG. 23F may be used in response to user input 2302 on the touch screen 112 of FIG. 23B or user input 2306 on the fingerprint sensor 169 of FIG. 23D, (E.g., in response to detection of input 2302 in FIG. 23B or in response to detection of user input 2306 in FIG. 23D), the banking application 2312 Functional device 100 that permits and indicates access to the device (e.g., each of its constrained actions).

예를 들어, 지문 검증 기준에 따라 검출된 지문이 분류된 후에, 애플리케이션-특정 또는 동작-특정 허가 기준에 따라 이러한 지문 검증 정보(예를 들어, "부합하지 않음," "약하게 부합함," 또는 "강하게 부합함")가 핸들링을 위해 개별 애플리케이션들로 전달된다. 예를 들어 일부 환경들에서, 게임 애플리케이션(2310)과 같은 비보안 애플리케이션(예를 들어, 사용자 식별을 위해서만 지문 검증 정보에 의존하는 애플리케이션)이 약한 부합만을 요구하는 허가 기준을 사용하며, 따라서 게임 애플리케이션(2310)은 (예를 들어, 지문 검증 기준에 따라) 검출된 지문이 제1 지문에 대해 "약하게 부합함" 또는 "강하게 부합함"으로 분류된다면, 검출된 지문을 제1 지문으로서 수용할 것이다. 반면에, 일부 환경들에서, 뱅킹 애플리케이션(2312)과 같은 보안 애플리케이션(예를 들어, 민감한 정보에 대한 액세스를 허용할지 여부를 결정하기 위해 지문 검증 정보에 의존하는 애플리케이션)이 강한 부합을 요구하는 허가 기준을 사용하며, 따라서 뱅킹 애플리케이션(2312)은 (예를 들어, 지문 검증 기준에 따라) 검출된 지문이 제1 지문에 대해 "강하게 부합함"으로 분류될 때에만, 검출된 지문을 제1 지문으로서 수용할 것이다.For example, after the detected fingerprints are classified according to the fingerprint verification criteria, such fingerprint verification information (e.g., "incompatible," "Quot; strong match ") is delivered to the individual applications for handling. For example, in some circumstances, a non-secure application (e.g., an application that relies only on fingerprint verification information for user identification), such as game application 2310, uses a permission criterion that only requires weak compliance, 2310 will accept the detected fingerprint as a first fingerprint if the detected fingerprint is classified as "weakly matched" or "strongly matched" to the first fingerprint (eg, according to the fingerprint verification criteria). On the other hand, in some circumstances, a security application (e.g., an application that relies on fingerprint verification information to determine whether to allow access to sensitive information), such as banking application 2312, And thus the banking application 2312 can only send the detected fingerprint to the first fingerprint (for example, according to the fingerprint verification criteria) only when the detected fingerprint is classified as "strong match" Lt; / RTI &gt;

위의 예에서, 게임 애플리케이션(2310) 및 뱅킹 애플리케이션(2312)은 모두 검출된 지문과 이전에 등록된 지문들을 직접 비교하기보다는 지문 검증 기준에 따라 생성된 사전-컴퓨팅된 지문 검증 정보(예를 들어, "부합하지 않음," "약하게 부합함," 또는 "강하게 부합함")에 의존한다. 예비 사항으로서, 비교 프로세스를 1회 수행하여 복수의 애플리케이션들 또는 프로세스들에게 사전-컴퓨팅된 지문 검증 정보를 제공하는 것은 디바이스(100)에 의해 사용되는 컴퓨팅 리소스를 실질적으로 감소시킬 수 있음으로써, 에너지 효율성, 배터리 수명 및 디바이스(100)의 응답성을 증가시킨다. 또한, 상이한 애플리케이션들 및 프로세스들이 사전-컴퓨팅된 지문 검증 정보를 이용하는 것은 디바이스(100) 또는 사용자가 지문 검증 기준을 조정함으로써 복수의 지문 감응 동작들 또는 애플리케이션들의 보안을 신속하고 효율적으로 쉽게 조정할 수 있게 한다.In the above example, both the gaming application 2310 and the banking application 2312 may be configured to compare pre-computed fingerprint verification information (e.g., fingerprint verification information) generated in accordance with the fingerprint verification criteria, rather than directly comparing the detected fingerprint with previously registered fingerprints , "Incompatible," " weakly matched, "or" strongly matched. " As a preliminary matter, performing the comparison process once to provide pre-computed fingerprint verification information to a plurality of applications or processes can substantially reduce the computing resources used by the device 100, Efficiency, battery life, and responsiveness of the device 100. In addition, the use of pre-computed fingerprint verification information by different applications and processes enables device 100 or a user to easily and quickly adjust the security of a plurality of fingerprint sensitive operations or applications by adjusting the fingerprint verification criteria do.

예를 들어, 디바이스(100)는 비보안 애플리케이션들(예를 들어, 게임 애플리케이션(2310))의 이용의 용이성에 영향을 미치지 않고 보안 애플리케이션들(예를 들어, 뱅킹 애플리케이션(2312))의 보안을 강화하기 위해서, (예를 들어, 하나 이상의 동작 또는 애플리케이션에 대한 허가 정보를 변경하지 않고) 이전에 등록된 지문과 검출된 지문의 "강한 부합"을 위해 필요한 부합 특징점들의 개수(또는 백분율)를 증가시킴으로써 지문 검증 기준을 조정할 수 있다. 유사하게, 디바이스(100)는 잘못된 네거티브 부합의 발생 정도를 감소시키기 위해, (예를 들어, 하나 이상의 동작들 또는 애플리케이션들에 대한 허가 정보를 변경하지 않고) "강한 부합" 및/또는 "약한 부합"을 위해 필요한 부합 특징점들의 개수(또는 백분율)를 감소시킴으로써 지문 검증 기준을 조정할 수 있다(예를 들어, 디바이스가 정확하게 사용자의 지문을 식별하는 것을 반복적으로 실패한다면, 사용자가 더 약한 보안을 수용하고자 선택할 수 있음).For example, the device 100 may enhance the security of secure applications (e. G., The banking application 2312) without affecting the ease of use of non-secure applications (e. G., Gaming application 2310) (Or percentage) of matching feature points needed for a "strong match" of a detected fingerprint with a previously registered fingerprint (e.g., without changing the permission information for one or more operations or applications) Fingerprint verification criteria can be adjusted. Likewise, the device 100 may be configured to perform a "strong match" and / or a "weak match " operation (e.g., without changing the permission information for one or more operations or applications) (E.g., if the device repeatedly fails to accurately identify the user &apos; s fingerprint), the user may wish to accept a weaker security &lt; RTI ID = 0.0 &gt; Can be selected).

일부 실시예들에서, 부합 지문이 제약된 동작을 수행하도록 허가된 사용자와 연관된 지문인 경우(2444), 동작-특정 기준이 충족된다(2442). 예를 들어, 부합 지문은 휴대용 다기능 디바이스(100)에 로그인한(또는 이를 잠금해제한) 사용자의 사용자 프로파일과 연관된다. 일부 실시예들에서, 최상 부합 지문이 각자의 제약된 동작을 수행하도록 허가된 사용자와 연관되고(2446), 신뢰도 값이 각자의 제약된 동작과 연관된 신뢰도 임계치 초과인 경우, 동작-특정 기준이 충족된다(2442).In some embodiments, if the matching fingerprint is a fingerprint associated with the user authorized to perform the constrained operation (2444), then the action-specific criteria is satisfied (2442). For example, the matching fingerprint is associated with the user profile of the user who logged in (or unlocked) the portable multifunction device 100. [ In some embodiments, the best matching fingerprint is associated 2446 with a user authorized to perform its constrained action, and if the confidence value is above the confidence threshold associated with its respective constrained action, then the action-specific criteria are met (2442).

일부 실시예들에서, 복수의 제한된 동작들은 제1 신뢰도 임계치와 연관되는 제1 제한된 동작, 및 제1 신뢰도 임계치와는 상이한 제2 신뢰도 임계치와 연관된 제2 제약된 동작을 포함한다(2448). 따라서, 일부 실시예들에서, 제1 입력이 제1 신뢰도 임계치 초과이고 제2 신뢰도 임계치 미만인 신뢰도 값을 갖는 최상 부합 지문과 부합하는 지문 특징들을 포함하는 경우, 제1 입력은 사용자가 제1 제약된 동작을 수행하게 할 수 있지만 제2 제약된 동작은 수행하게 하지 않을 것이다. 예를 들어, 뱅킹 애플리케이션(2312)을 통해 전자 지불을 하기 위해 사용자를 식별하는 신뢰도 임계치는 게임 애플리케이션(2310)을 위해 사용자를 식별하는 신뢰도 임계치보다 높다. 따라서, 사용자의 지문을 빠르게 저해상도 스캔하는 것이 게임 애플리케이션(2310)을 위해 사용자를 식별하는 데 충분할 수 있지만, 선택적으로 뱅킹 애플리케이션(2312)을 통한 전자 지불이 사용자에 대해 허가되기 위해서는 사용자의 지문을 보다 세심하게 고해상도 스캔하는 것이 요구된다.In some embodiments, the plurality of limited operations include a first limited operation associated with the first reliability threshold and a second constrained operation associated with a second reliability threshold different than the first reliability threshold (2448). Thus, in some embodiments, if the first input includes fingerprint features that match the best matching fingerprint with a confidence value that is greater than the first reliability threshold and less than the second reliability threshold, The second constrained operation will not be performed. For example, the confidence threshold that identifies the user for electronic payment via the banking application 2312 is higher than the confidence threshold that identifies the user for the game application 2310. [ Thus, although it may be sufficient to quickly identify the user for the gaming application 2310 by scanning the user's fingerprint quickly, it may be desirable for the electronic payment via the banking application 2312, Careful high resolution scanning is required.

일부 실시예들에서, 지문 센서는 물리적 버튼에 통합되고(2450); 지문 센서 상에서 지문을 검출하는 것에 응답하여 디바이스가 지문 검증 정보를 결정하며; 버튼의 활성화를 검출하는 것에 응답하여 디바이스가 각자의 제약된 동작을 수행한다. 일부 실시예들에서, 물리적 버튼은 버튼 상에서 검출된 강도가 활성화 강도 임계치 초과로 증가하였을 때 디바이스에 의해 활성화된 것으로 결정되는 디바이스의 하우징의 강도-감응 구역이다. 일부 실시예들에서, 물리적 버튼은 전자 스위치에 결합되고, 여기서 제1 축(예를 들어, 상하 또는 좌우)을 따르는 물리적 버튼의 이동은 스위치를 닫고 물리적 버튼을 활성화한다(때때로 들을 수 있거나 촉각으로 느낄 수 있는 "클릭"을 발생시킴). 예를 들어, 도 23d는 홈 버튼(204)에 통합된 지문 센서(169)를 도시한다. 예를 들어, 도 23d의 지문 센서(169) 상에서 입력(2306)을 검출하는 것에 응답하여, 휴대용 다기능 디바이스(100)는 입력(2306)에 대응하는 지문 검증 정보를 결정한다. 또한, 홈 버튼(204)의 활성화를 검출하는 것에 응답하여(예를 들어, 도 23d의 버튼(204)의 하향 이동), 휴대용 다기능 디바이스(100)가 뱅킹 애플리케이션(2312)에 대한 액세스를 허가하고 도 23f에서와 같이 뱅킹 애플리케이션(2312)을 표시한다.In some embodiments, the fingerprint sensor is integrated (2450) with a physical button; The device determining the fingerprint verification information in response to detecting the fingerprint on the fingerprint sensor; In response to detecting activation of the button, the device performs its respective constrained operation. In some embodiments, the physical button is the intensity-sensitive area of the housing of the device that is determined to be activated by the device when the intensity detected on the button has increased beyond the activation strength threshold. In some embodiments, a physical button is coupled to an electronic switch, wherein movement of a physical button along a first axis (e.g., up or down or left or right) closes the switch and activates a physical button (sometimes audible or tactile Click "that can be felt). For example, FIG. 23D shows a fingerprint sensor 169 incorporated in the home button 204. For example, in response to detecting input 2306 on fingerprint sensor 169 of FIG. 23D, portable multifunction device 100 determines fingerprint verification information corresponding to input 2306. In addition, in response to detecting activation of the home button 204 (e.g., a downward movement of the button 204 of Figure 23D), the portable multifunction device 100 permits access to the banking application 2312 And displays the banking application 2312 as shown in Fig. 23F.

도 24a 내지 도 24d의 동작들이 기술된 특정한 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 24a 내지 도 24d와 관련하여 전술된 방법(2400)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(2400)과 관련하여 전술된 입력 지문들, 접촉들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 입력 지문들, 접촉들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the particular order in which the operations of Figs. 24A-24D are described is exemplary only and does not intend to indicate that the order described is the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. Also, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within the "Detailed Description of the Invention"), It should also be noted that the method 2400 described above with respect to 24d is also applicable in a similar manner. For example, the input fingerprints discussed above in connection with method 2400, contacts may optionally include other methods described herein (e.g., methods listed in the second paragraph within " , The input fingerprints described herein, one or more characteristics of the contacts. For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 25는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(2500)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 25에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 25 illustrates a functional block diagram of an electronic device 2500 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 25 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 25에 도시된 바와 같이, 전자 디바이스(2500)는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛(2502); 지문 센서 유닛(2504); 및 디스플레이 유닛(2502) 및 지문 센서 유닛(2504)에 결합된 프로세싱 유닛(2506)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(2506)은 획득 유닛(2508), 식별 유닛(2510), 결정 유닛(2512), 허가 유닛(2514), 수행 유닛(2516), 할당 유닛(2518) 및 대체 유닛(2520)을 포함한다.As shown in Figure 25, the electronic device 2500 includes a display unit 2502 configured to display one or more user interface objects; A fingerprint sensor unit 2504; And a processing unit 2506 coupled to the display unit 2502 and the fingerprint sensor unit 2504. In some embodiments, the processing unit 2506 includes an acquisition unit 2508, an identification unit 2510, a determination unit 2512, an authorization unit 2514, an execution unit 2516, an assignment unit 2518, (2520).

프로세싱 유닛(2506)은 지문들의 검증을 제어하기 위한 지문 검증 기준을 (예를 들어, 획득 유닛(2508)을 이용하여) 획득하거나 달리 액세스하도록 구성된다. 각자의 제약된 동작들에 대응하는 복수의 각자의 입력들 각각에 대해, 프로세싱 유닛(2506)은 (예를 들어, 식별 유닛(2510)을 이용하여) 각자의 입력의 지문 특징들을 식별하고, 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 (예를 들어, 결정 유닛(2512)을 이용하여) 결정하도록 추가로 구성된다: 각자의 입력의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교,및 지문 검증 기준. 각각의 입력을 검출하는 것에 응답하여, 프로세싱 유닛(2506)은 (예를 들어, 허가 유닛(2514)을 이용하여) 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라 (예를 들어, 수행 유닛(2516)을 이용하여) 각자의 제약된 동작을 수행하고; (예를 들어, 허가 유닛(2514)을 이용하여) 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라 각자의 제약된 동작의 수행을 포기하도록 구성된다.Processing unit 2506 is configured to acquire or otherwise access fingerprint verification criteria (e.g., using acquisition unit 2508) to control verification of fingerprints. For each of a plurality of respective inputs corresponding to their respective constrained actions, the processing unit 2506 identifies the fingerprint features of each input (e.g., using the identification unit 2510) (E.g., using decision unit 2512) fingerprint verification information for each input based, at least in part, on the input fingerprint characteristics of each input: one or more previously registered fingerprint features Comparison between fingerprint features of fingerprints, and fingerprint verification criteria. In response to detecting each input, the processing unit 2506 determines whether the fingerprint verification information (e.g., using the grant unit 2514) meets its respective permission criteria for its constrained operation (E.g., using execution unit 2516) to perform their respective constrained operations; (Using, for example, the grant unit 2514), the fingerprint verification information is configured to abandon the performance of its respective constrained operation in accordance with the determination that it does not meet its respective permission criteria for the constrained operation.

일부 실시예들에서, 동일한 지문 검증 기준이 다수의 상이한 각자의 입력들에 대해 지문들을 프로세싱하도록 사용된다.In some embodiments, the same fingerprint verification criteria is used to process fingerprints for a number of different respective inputs.

일부 실시예들에서, 지문 검증 정보는 지문 검증 기준에 따라 결정된 부합 지문을 식별하는 정보를 포함한다.In some embodiments, the fingerprint verification information includes information identifying a matching fingerprint determined in accordance with the fingerprint verification criteria.

일부 실시예들에서, 부합 지문이 제약된 동작을 수행하도록 허가된 사용자와 연관된 지문일 때 동작-특정 허가 기준이 충족된다.In some embodiments, an action-specific authorization criteria is met when the matching fingerprint is a fingerprint associated with a user authorized to perform the constrained action.

일부 실시예들에서, 프로세싱 유닛은 (예를 들어, 식별 유닛(2510)을 이용하여) 각자의 입력 내의 특징점들을 식별하고, (예를 들어, 결정 유닛(2512)을 이용하여) 각자의 입력 내에서 식별된 특징점들을 복수의 후보 지문들 내의 특징점들과 대조하며, (예를 들어, 결정 유닛(2512)을 이용하여) 가장 많은 개수의 부합 특징점들을 갖는 각자의 후보 지문을 부합 지문으로 선택함으로써 지문 검증 정보를 결정하도록 구성된다.In some embodiments, the processing unit identifies feature points in their respective inputs (e.g., using the identification unit 2510) and determines (e.g., using decision unit 2512) (For example, by using the determination unit 2512), selects the candidate fingerprints having the largest number of matching feature points as the matching fingerprints, and compares the extracted fingerprints with the feature points in the plurality of candidate fingerprints, And to determine the verification information.

일부 실시예들에서, 지문 검증 정보는 복수의 이전에 등록된 지문들 중, 지문 검증 기준에 따라 식별되는 최상 부합 지문을 식별하는 정보; 및 제1 입력과 최상 부합 지문 사이의 부합의 신뢰도를 나타내는, 지문 검증 기준에 따라 결정되는 지문 부합 신뢰도 값을 포함한다.In some embodiments, the fingerprint verification information includes information identifying a best matching fingerprint identified among the plurality of previously registered fingerprints according to the fingerprint verification criteria; And a fingerprint conformance confidence value determined according to a fingerprint verification criterion, which indicates the reliability of matching between the first input and the best matching fingerprint.

일부 실시예들에서, 동작-특정 허가 기준은 최상 부합 지문이 각자의 제약된 동작을 수행하도록 허가된 사용자와 연관된 경우, 및 신뢰도 값이 각자의 제약된 동작과 연관된 신뢰도 임계치 초과인 경우에 충족된다.In some embodiments, the action-specific permission criterion is satisfied when the best match fingerprint is associated with a user authorized to perform its respective constrained action, and when the confidence value is above the confidence threshold associated with its respective constrained action .

일부 실시예들에서, 복수의 제한된 동작들은 제1 신뢰도 임계치와 연관되는 제1 제한된 동작, 및 제1 신뢰도 임계치와는 상이한 제2 신뢰도 임계치와 연관된 제2 제약된 동작을 포함한다.In some embodiments, the plurality of limited operations include a first limited operation associated with a first reliability threshold and a second constrained operation associated with a second reliability threshold different from the first reliability threshold.

일부 실시예들에서, 프로세싱 유닛은 (예를 들어, 식별 유닛(2510)을 이용하여) 각자의 입력 내의 특징점들을 식별하고, (예를 들어, 결정 유닛(2512)을 이용하여) 각자의 입력 내에서 식별된 특징점들을 복수의 후보 지문들 내의 특징점들과 대조하며, (예를 들어, 결정 유닛(2512)을 이용하여) 가장 많은 개수의 부합 특징점들을 갖는 각자의 후보 지문을 최상 부합 지문으로 선택함으로써 지문 검증 정보를 결정하도록 구성된다.In some embodiments, the processing unit identifies feature points in their respective inputs (e.g., using the identification unit 2510) and determines (e.g., using decision unit 2512) (E.g., using decision unit 2512) and selecting each candidate fingerprint with the largest number of matching feature points as the best matching fingerprint, by comparing the feature points identified in the candidate fingerprint with the feature points in the plurality of candidate fingerprints And to determine fingerprint verification information.

일부 실시예들에서, 프로세싱 유닛은 각자의 입력 내의 제1 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라, (예를 들어, 할당 유닛(2518)을 이용하여) 최상 부합 지문에 제1 신뢰도 값을 할당하고; 각자의 입력 내의 제2 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라, (예를 들어, 할당 유닛(2518)을 이용하여) 최상 부합 지문에 제2 신뢰도 값을 할당하도록 구성되며, 여기서 제2 개수의 특징점들은 제1 개수의 특징점들보다 더 많고, 제2 신뢰도 값이 제1 신뢰도 값에 의해 나타내어지는 것보다 각자의 입력과 최상 부합 지문 사이의 더 밀접한 부합을 나타낸다.In some embodiments, the processing unit may determine that the first number of feature points in each input match the corresponding feature points in the best match fingerprint (e.g., using the allocation unit 2518) Assigning a first reliability value to the fingerprint; (E.g., using the assignment unit 2518) to assign a second confidence value to the best matching fingerprint according to the determination that a second number of minutiae within each input match the corresponding minutiae in the best matching fingerprint Wherein the second number of feature points is greater than the first number of feature points and the second confidence value represents a closer fit between the respective input and the best matching fingerprint than is represented by the first confidence value.

일부 실시예들에서, 지문 검증 기준은 한 세트의 디폴트 기준을 포함하고; 프로세싱 유닛(2506)은 지문 검증 기준에 대한 수정을 나타내는 기준-조정 입력을 (예를 들어, 획득 유닛(2508)을 이용하여) 사용자로부터 수신하고, 기준-조정 입력을 수신하는 것에 응답하여 (예를 들어, 대체 유닛(2520)을 이용하여) 하나 이상의 디폴트 기준을 지문 검증 기준 내의 대응하는 수정된 기준으로 대체함으로써, (예를 들어, 획득 유닛(2508)을 이용하여) 지문 검증 기준을 획득하도록 구성된다.In some embodiments, the fingerprint verification criteria comprises a set of default criteria; The processing unit 2506 receives a reference-adjustment input representing the modification to the fingerprint verification criteria from the user (e.g., using the acquisition unit 2508), and in response to receiving the reference-adjustment input (E.g., using an alternate unit 2520) to replace the one or more default criteria with a corresponding modified criterion in the fingerprint verification criteria to obtain a fingerprint verification criteria (e.g., using acquisition unit 2508) .

일부 실시예들에서, 지문 센서 유닛(2504)은 물리적 버튼에 통합되고; 프로세싱 유닛(2506)은 지문 센서 유닛(2504) 상에서 지문을 검출하는 것에 응답하여 (예를 들어, 결정 유닛(2512)을 이용하여) 지문 검증 정보를 결정하도록 구성되며; 프로세싱 유닛(2506)은 버튼의 활성화를 검출하는 것에 응답하여 (예를 들어, 수행 유닛(2516)을 이용하여) 각자의 제약된 동작을 수행하도록 구성된다.In some embodiments, the fingerprint sensor unit 2504 is incorporated into a physical button; The processing unit 2506 is configured to determine the fingerprint verification information in response to detecting the fingerprint on the fingerprint sensor unit 2504 (e.g., using the determination unit 2512); The processing unit 2506 is configured to perform its respective constrained operation in response to detecting activation of the button (e.g., using the execution unit 2516).

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 24a 내지 도 24d와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 25에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 획득 동작(2402), 식별 동작(2408), 결정 동작(2410) 및 수행 동작(2440)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figures 24A-24D are optionally implemented by the components shown in Figures 1A and 1B or 25. For example, the acquisition operation 2402, the identifying operation 2408, the determining operation 2410 and the performing operation 2440 may optionally be implemented by the event classifier 170, the event recognizer 180 and the event handler 190 do. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

아이덴티티 및 위치 정보를 연관시키기Associating identity and location information

다수의 전자 디바이스들은 사용자들이 디스플레이 상에 표시된 쌍방향(interactive) 지도들을 통해 그들의 환경과 상호작용하게 한다. 예를 들어, 이러한 디바이스들(예를 들어, 휴대용 다기능 디바이스들)은 종종 사용자들이 소셜 미디어 사이트 상에 특정한 사업장 또는 잘 알려진 랜드마크에서의 그들의 존재를 나타내게 한다. 이러한 상황들에서, 이러한 전자 디바이스들은 종종 터치 스크린 디스플레이 상에 지도를 표시하며, 사용자는 예를 들어 사업장의 위치 또는 잘 알려진 랜드마크 상에 탭핑함으로써 지도와 상호작용할 수 있다. 다른 예로서, 이러한 전자 디바이스들은 종종 카메라를 포함하며, 디바이스를 이용하여 촬영한 사진들과 아이덴티티 및 위치 메타데이터를 연관시키는 편리한 방식을 사용자에게 제공하는 것이 바람직하다. 예를 들어, 일부 실시예들에서, 사용자는 터치 스크린 디스플레이 상에 표시된 지도 상의 대응하는 위치 상에 탭핑함으로써, 그리고 별개의 입력들을 통해 사진의 저작자의 아이덴티티 및/또는 주제들을 추가로 나타냄으로써 사진의 위치를 나타낼 수 있다. 아이덴티티 및 위치 정보를, 예를 들어 소셜 미디어 포스트와 연관시키거나 사진과 연관된 메타데이터로서 연관시키는 기존의 방법들은 전형적으로 아이덴티티 및 위치 각각을 나타내는 별개의 입력들을 요구한다.Many electronic devices allow users to interact with their environment through interactive maps displayed on the display. For example, such devices (e.g., portable multifunction devices) often cause users to present their presence in a particular business location or well-known landmark on a social media site. In these situations, these electronic devices often display a map on the touch screen display, and the user can interact with the map by tapping, for example, on the location of a business location or a well-known landmark. As another example, such electronic devices often include a camera, and it is desirable to provide the user with a convenient way of associating identity and location metadata with photographs taken with the device. For example, in some embodiments, a user may be able to view a photo by tapping on a corresponding location on the map displayed on the touch screen display, and further displaying the identity and / or subjects of the author of the photo via separate inputs Location. Conventional methods of associating identity and location information with, for example, social media posts or associating them as metadata associated with a photograph typically require separate inputs that represent each of the identities and locations.

아래에 기술되는 실시예들에서, 아이덴티티 및 위치 정보를 연관시키기 위한 게선된 방법이 지도 상에 표시된 위치(예를 들어, 지리적 위치에 대응하는 위치) 및 지문 센서 상에서 검출된 지문 둘 모두와 연관된 입력을 검출함으로써 달성된다. 이 방법은 지문에 대응하는 사용자를 식별하고, 해당 위치에서의 사용자의 존재의 표시를 소셜 미디어에 포스팅하는 것 또는 사진의 위치 및 사용자가 사진의 대상 및/또는 저작자임을 나타내는 메타데이터를 추가하는 것과 같이, 위치 및 사용자와 연관된 동작을 수행한다.In the embodiments described below, a secure method for associating identity and location information is provided with an input associated with both the location indicated on the map (e.g., the location corresponding to the geographic location) and the fingerprint detected on the fingerprint sensor . The method includes identifying a user corresponding to the fingerprint, posting an indication of the presence of the user at the location to the social media, or adding the location of the photo and metadata indicating that the user is the subject and / or author of the photo Likewise, it performs actions associated with the location and the user.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 26a 내지 도 26g 및 도 27과 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 26a 내지 도 26g 및 도 27과 관련하여 기술되는 실시예들은, 도 26a 내지 도 26g에 도시된 사용자 인터페이스를 터치 스크린(112) 상에 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 26a 내지 도 26g에 묘사된 입력들을 검출하는 것에 응답하여 수행되는 디바이스 동작들과 관련하여 논의될 것이다. 그러나, 통합형 지문 센서(359-1)와 함께 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 26a 내지 도 26g에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 상에서 도 26a 내지 도 26g에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행될 수 있다. 일부 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figures 26A-26G and Figure 27 includes one or more fingerprint sensors 169. [ In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described with reference to Figs. 26A to 26G and Fig. 27 can be applied to the fingerprint sensor 169 (Fig. 26A) while displaying the user interface shown in Figs. 26A to 26G on the touch screen 112 Will be discussed with respect to device operations performed in response to detecting the inputs depicted in Figures 26a-26g on an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2 . However, on the device having the display 450, the separate touch-sensitive surface 451 and the separate fingerprint sensor 359-2 together with the integrated fingerprint sensor 359-1, the user shown in Figures 26A- Similar actions can optionally be performed in response to detecting the inputs depicted in Figures 26a-26g on the integrated fingerprint sensor 359-1 while displaying the interfaces on the display 450. [ In some embodiments, the focus selector may alternatively include a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, contact, or touch screen 112 &Lt; / RTI &gt;

도 26a는 지도의 표시를 포함하는 사용자 인터페이스(2601)를 표시하는 디바이스를 도시한다. 이 예에서, 사용자 인터페이스는 사용자들이 지역 사업장 및 랜드마크들로 내비게이션하는 것을 돕는 애플리케이션의 일부로서 표시되어 있다. 예를 들어, 사용자가 탐색 바(2602)에서 용어 "Gala Coffee"를 탐색하면, 디바이스는 몇몇 결과들을 반환하고 그들의 위치들을 사용자 인터페이스(2601) 상에 핀-드롭(pin-drop)(2604)들로서 표시한다.26A shows a device displaying a user interface 2601 that includes an indication of a map. In this example, the user interface is shown as part of an application that helps users navigate to local businesses and landmarks. For example, if the user searches for the term "Gala Coffee" in the navigation bar 2602, the device returns some results and places their locations on the user interface 2601 as pin-drops 2604 Display.

도 26b는 터치 스크린(112) 상에서의 접촉(2606)의 검출 및 별개의 지문 센서(169) 상에서의 지문(2608)의 검출을 도시한다. 접촉(2606)은 식별된 지문뿐만 아니라 지도 상에서의 접촉(2606)의 위치(예를 들어, 접촉(2606)이 수신된 지도 상에서 표시된 위치에 대응하는 물리적 위치) 둘 모두와 연관된 디바이스의 동작을 트리거링하는 활성화 입력의 예이다. 일부 실시예들에서, (예를 들어, 터치 스크린(112)이 지문들을 식별하도록 구성된 경우에) 단일 접촉이 활성화 입력 및 지문이 식별되기 위한 입력 둘 모두로서 작용한다(예를 들어, 접촉(2606)에 대응하는 지문이 검출됨). 일부 실시예들에서, 별개의 지문 센서(169) 상에서 지문이 검출되고, 음성 입력과 같은 다른 유형의 활성화 입력이 디바이스에 의해 검출되어 지도 상의 특정 위치와 연관되며, 이는 도 27과 관련하여 더 상세하게 기술된다.Fig. 26B shows the detection of the contact 2606 on the touch screen 112 and the detection of the fingerprint 2608 on the separate fingerprint sensor 169. Fig. The contact 2606 triggers the operation of the device associated with both the identified fingerprint as well as the location of the contact 2606 on the map (e.g., the physical location corresponding to the location indicated on the map where the contact 2606 is received) Is an example of an activation input. In some embodiments, a single contact acts as both an activation input and an input for the fingerprint to be identified (e.g., if the touch screen 112 is configured to identify fingerprints) ) Is detected). In some embodiments, a fingerprint is detected on a separate fingerprint sensor 169 and other types of activation input, such as a voice input, are detected by the device and associated with a particular location on the map, .

도 26c 내지 도 26g는 디바이스가 일부 실시예들에 따라 수행하는 다양한 동작들의 예를 도시한다. 위에서 언급된 바와 같이, 이러한 동작들은 식별된 지문뿐만 아니라 지도 상의 접촉(2606)의 위치 둘 모두와 연관된다. 본 발명이 위치 및 아이덴티티와 연관된 광범위한 동작들을 지원하고자 하는 것이며, 도 26c 내지 도 26g에 도시된 동작들이 단지 예시적인 것임을 이해하여야 한다.Figures 26C-26G illustrate examples of various operations that a device performs in accordance with some embodiments. As mentioned above, these actions are associated with both the location of the contact 2606 on the map as well as the identified fingerprint. It is to be understood that the present invention is intended to support a wide variety of operations associated with location and identity, and that the operations depicted in Figures 26C-26G are exemplary only.

도 26c는 동작이 특정 "Gala Coffee" 매장에 있는 사용자(예를 들어, 지문이 식별된 사용자)의 존재를 나타내는 것을 포함하는 예를 도시한다. 이러한 예에서, 사용자는 특정 Gala Coffee 매장(2604-2)에 대응하는 특정 핀-드롭을 선택하였다. 일부 실시예들에서, 디바이스는 사용자가 특정 "Gala Coffee"에 "체크인(Check in)"하기를 원하는지를 확인할 것을 사용자에게 요청하고 체크인 위치의 주소를 식별하는 확인 메시지(2605)를 표시한다. 예를 들어, 확인 메시지(2605) 내의 "체크인" 어포던스를 활성화하는 것은 디바이스가 소셜 미디어 웹사이트 상에 사용자의 존재를 포스팅하게 할 것이다.Figure 26C shows an example in which the action includes indicating the presence of a user in a particular "Gala Coffee" store (e.g., a fingerprint identified user). In this example, the user has selected a particular pin-drop corresponding to a particular Gala Coffee store 2604-2. In some embodiments, the device requests the user to confirm that the user wishes to "check in" to a particular "Gala Coffee " and displays a confirmation message 2605 identifying the address of the check-in location. For example, activating the "check in" posibility in the confirmation message 2605 will cause the device to post the presence of the user on the social media web site.

도 26d는 일부 실시예들에 따른, 접촉(2606)에 응답하여 디바이스가 수행하는 동작의 대안적인 (또는 일부 상황들에서는, 추가적인) 예를 도시한다. 도 26c의 경우에서와 같이, 사용자는 "Gala Coffee" 매장(2604-2)에 대응하는 핀-드롭을 선택하였다. 그러나 이 예에서, 디바이스는 사용자가 지불 프롬프트(2610)를 통해 대금을 지불하도록 프롬프팅함으로써 응답한다. 사용자는 프롬프트(2610) 내에 키패드(2612)를 이용하여 금액을 입력한 다음, 지불을 위해 "확인" 버튼(2614)을 선택할 수 있다. 일부 실시예들에서, 사용자는 상이한 손가락들에 대해 상이한 계좌들을 링크할 수 있다. 예를 들어, 오른손 엄지손가락 지문은 사용자의 인출 계좌를 통해 지불이 이루어지도록 하는 반면, 왼손 검지손가락 지문은 사용자의 신용 계좌를 통해 지불이 이루어지게 할 것이다.FIG. 26D illustrates an alternative (or in some circumstances, additional) example of the operation performed by the device in response to the contact 2606, in accordance with some embodiments. As in the case of FIG. 26C, the user has selected a pin-drop corresponding to the "Gala Coffee" store 2604-2. However, in this example, the device responds by prompting the user to pay for the payment via the payment prompt 2610. [ The user may enter the amount using the keypad 2612 in the prompt 2610 and then select the "OK" button 2614 for payment. In some embodiments, a user may link different accounts for different fingers. For example, the right-hand thumb fingerprint will cause the payment to be made through the user's withdrawal account while the left-hand index fingerprint will cause the payment to be made through the user's credit account.

도 26e 내지 도 26g는 일부 실시예들에 따른, 접촉(2616)에 응답하여 수행되는 디바이스 동작의 다른 예를 도시한다. 도 26e는 미국 캘리포니아주 샌프란시스코의 위치로부터 촬영된 금문교의 사진(2615)의 표시를 도시한다. 일부 상황들에서, 사진(2615)은 (예를 들어, 디바이스가 카메라 폰을 갖추고 있는 경우에) 디바이스에 의해 이전에 촬영된 사진이다. 일부 상황들에서, 사진(2615)은 이전에 다른 디바이스에 의해 촬영되어 (예를 들어, 네트워크를 통해, 이메일에 의해서, 인터넷으로부터 다운로드되는 등등으로) 디바이스로 전송된 사진이다. 도 26e에 도시된 바와 같이, 디바이스는 선택적으로 사용자가 메타데이터(이 예에서는, 위치 및 저작자 데이터)를 사진에 추가할 것인지 여부를 사용자에게 묻는 프롬프트를 표시한다. 도 26e는 또한 사용자가 위치 및 저작자 메타데이터를 사진(2615)과 연관시키는 것에 동의함을 나타내는 접촉(2616)의 검출을 도시한다.Figures 26E-G illustrate another example of device operation performed in response to a contact 2616, in accordance with some embodiments. Figure 26E shows a display of a photo 2615 of the Golden Gate Bridge taken from a location in San Francisco, California, USA. In some situations, the photo 2615 is a photo previously taken by the device (e.g., if the device has a camera phone). In some situations, the photo 2615 is a picture that was previously taken by another device (e.g., downloaded over the network, by email, downloaded from the Internet, etc.) to the device. As shown in Figure 26E, the device optionally displays a prompt to the user as to whether the user will add metadata (in this example, location and author data) to the photo. Figure 26E also illustrates the detection of a contact 2616 indicating that the user agrees to associate the location and author metadata with the photo 2615. [

도 26f는 도 26e에 도시된 예를 계속한다. 접촉(2616)을 통해 도 26e에서의 "예" 어포던스를 선택함에 따라, 디바이스는 위치 정보를 포함하는 메타데이터를 사진(2615)과 연관(예를 들어, 지오태깅(geotagging))시키기 위해 지도(2618)를 표시한다. 디바이스는 사진에 대해 특별한 의의를 갖는 지도 상의 위치(예를 들어, 사진이 촬영된 곳)에서 접촉(2620)을 검출한다. 디바이스는 또한 사용자에 대응하는 지문(2622)을 지문 센서(169) 상에서 검출하고 지문이 속한 사용자를 식별한다. 도 26g에 도시된 바와 같이, 디바이스는 지도(2618) 상에서의 접촉(2620)의 위치(이 경우에서는, 미국 캘리포니아주 샌프란시스코 소재의 금문교의 좌표 위치)뿐만 아니라 지문(2622)이 속한 사용자의 아이덴티티(예를 들어, 도 26g에 도시된 바와 같이 Joseph Strauss) 둘 모두와 연관된 데이터를 연관시킨다.Fig. 26F continues the example shown in Fig. 26E. 26E via the contact 2616 the device may send a map (e. G., &Quot; geotagging ") to associate (e.g., geotagging) 2618). The device detects the contact 2620 at a location on the map (e.g. where the photo was taken) that has a particular significance for the photo. The device also detects a fingerprint 2622 corresponding to the user on the fingerprint sensor 169 and identifies the user to whom the fingerprint belongs. As shown in FIG. 26G, the device displays not only the location of the contact 2620 on the map 2618 (in this case, the coordinate position of the Golden Gate Bridge in San Francisco, CA), but also the identity of the user to whom the fingerprint 2622 belongs For example, Joseph Strauss, as shown in Figure 26G.

도 27은 일부 실시예들에 따른, 아이덴티티 및 위치 정보를 연관시키는 방법(2700)을 예시하는 흐름도이다. 방법(2700)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(2700) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.27 is a flow chart illustrating a method 2700 of associating identity and location information, according to some embodiments. The method 2700 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1a). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some operations within the method 2700 are optionally combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(2700)은 아이덴티티 및 위치 정보를 연관시키기 위한 직관적인 방식을 제공한다. 이 방법은 아이덴티티 및 위치 정보를 연관시킬 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 아이덴티티 및 위치 정보를 더 빠르고 더 효율적으로 연관시킬 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 2700 provides an intuitive way to associate identity and location information. This method reduces the cognitive burden on the user when associating identity and location information, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing a user to associate identity and location information faster and more efficiently preserves power and increases the time between battery charges.

디바이스는 지문 센서를 갖는 전자 디바이스의 디스플레이 상에 지도를 표시한다(2702). 예를 들어, 도 26a는 지도를 표시하는, 지문 센서(169)를 갖는 디바이스를 도시한다.The device displays a map on the display of the electronic device having the fingerprint sensor (2702). For example, FIG. 26A shows a device with a fingerprint sensor 169 that displays a map.

디바이스는 각자의 지리적 위치에 대응하는 지도 상의 표시된 위치 및 지문 센서 상에서 검출된 지문과 연관되는 활성화 입력을 검출한다(2704). 예를 들어, 지도 상에 표시된 위치 및 대응하는 지리적 위치와 활성화 입력을 연관시키기 위해 포커스 셀렉터가 지도 상의 표시된 위치에 있는 동안에 활성화 입력이 수행된다(예를 들어, 도 26B의 접촉(2606)). 일부 실시예들에서, 활성화 입력은 지문 센서 상에서 지문이 검출되는 동안에 활성화 입력이 수행된다는 결정에 따라 지문 센서 상에서 검출된 지문과 연관된다.The device detects (2704) an activation input associated with the fingerprint detected on the fingerprint sensor and the indicated location on the map corresponding to the respective geographic location. For example, an activation input is performed (e.g., contact 2606 in FIG. 26B) while the focus selector is in the marked position on the map to associate the activation input with the location displayed on the map and the corresponding geographic location. In some embodiments, the activation input is associated with a fingerprint detected on the fingerprint sensor in accordance with a determination that the activation input is performed while the fingerprint is detected on the fingerprint sensor.

일부 실시예들에서, 활성화 입력은 음성 입력이다. 예를 들어, 도 26a에 도시된 지도를 표시하고 지문 센서 상에서 지문을 검출하는 동안에, 사용자는 "I'm at Gala Coffee on 1st and Cedar"라고 말할 것이고, 이를 디바이스는 East 1st Street와 East Cedar Street의 교차점에 있는 특정 Gala Coffee(핀-드롭(2604-1)에 의해 표현됨)에 대한 활성화 입력으로서 해석할 것이다. 일부 실시예들에서, 활성화 입력은 사용자의 위치를 결정하기 위해 디바이스가 디바이스의 위치 결정 기능을 사용하라는 요청에 대응하는 음성 입력이다. 예를 들어, 지문(2608)이 검출되는 동안에(또는 그 후에, 또는 그 이전에), 사용자는 "Use my current location"이라고 말할 것이며, 디바이스는 (예를 들어, 글로벌 위치확인 시스템 소프트웨어 및/또는 하드웨어를 이용하여) 사용자의 현재 위치를 결정할 것이다. 대안적으로, 사용자는 "I'm at Gala Coffee" 또는 "Check in at Gala Coffee"이라고 말할 것이며, 디바이스는 식별된 사용자를 가장 가까운 Gala Coffee(예를 들어, 사용자가 East 1st Street와 East Cedar Street의 교차점에 있다고 디바이스가 결정했을 때 핀-드롭(2604-1)에 의해 표현되는 Gala Coffee)에 체크인하라는 요청으로서 입력을 인식할 것이다.In some embodiments, the activation input is a voice input. For example, while displaying the map shown in FIG. 26A and detecting fingerprints on the fingerprint sensor, the user would say "I'm at Gala Coffee on 1st and Cedar ", which is displayed on East 1st Street and East Cedar Street Will be interpreted as an activation input to a particular Gala Coffee (represented by pin-drop 2604-1) at the intersection of &lt; RTI ID = 0.0 &gt; In some embodiments, the activation input is a speech input that corresponds to a request by the device to use the positioning function of the device to determine the location of the user. For example, during (or after, or before) the fingerprint 2608 is detected, the user will say "Use my current location" and the device may communicate with the device (e.g., global positioning system software and / Hardware) to determine the user's current location. Alternatively, the user would say "I'm at Gala Coffee" or "Check in at Gala Coffee &quot;, and the device would identify the identified user to the nearest Gala Coffee (e.g., (E.g., Gala Coffee represented by pin-drop 2604-1 when the device determines that it is at the intersection of the pin-drop 2604-1).

일부 실시예들에서, 활성화 입력은 지문 센서와는 상이한 터치-감응 표면 상에서 검출된다(2706)(예를 들어, 활성화 입력은 통합형 지문 센서를 포함하지 않는 터치패드 또는 터치 스크린 디스플레이의 일부분 상에서 검출되고, 활성화 입력은 도 26a 내지 도 26g에 도시된 바와 같이 통합형 지문 센서 상에서 발생한 지문과 동시에 또는 실질적으로 동시에 발생함).In some embodiments, the activation input is detected 2706 on a touch-sensitive surface different from the fingerprint sensor (e.g., the activation input is detected on a portion of the touch screen or touchpad that does not include an integrated fingerprint sensor , The activation input occurs simultaneously or substantially concurrently with fingerprints occurring on the integrated fingerprint sensor as shown in Figures 26A-26G).

일부 실시예들에서, 활성화 입력은 지문 센서 상에서 검출된다(2708)(예를 들어, 활성화 입력은 통합형 지문 센서를 포함하는 터치패드 또는 터치 스크린 디스플레이의 일부분 상에서 검출되고, 통합형 지문 센서는 지문에 대응하는 사용자를 식별하기 위해 사용됨).In some embodiments, an activation input is detected 2708 on the fingerprint sensor (e.g., the activation input is detected on a portion of a touchpad or touch screen display that includes an integrated fingerprint sensor, and the integrated fingerprint sensor responds to the fingerprint Used to identify the user who is doing this).

활성화 입력을 검출하는 것에 응답하여(2710), 디바이스는 지문에 대응하는 사용자를 식별한다(2712)(예를 들어, 지문 센서 상에서 검출된 지문과 일치하는 이전에 등록된 지문을 포함하는 사용자 프로파일을 식별함). 이어서, 디바이스는 각자의 지리적 위치 및 사용자와 연관된 동작을 수행한다(2714).In response to detecting an activation input 2710, the device identifies 2712 a user corresponding to the fingerprint (e.g., a user profile that includes a previously registered fingerprint that matches the fingerprint detected on the fingerprint sensor) Identified. The devices then perform their respective geographic locations and operations associated with the user (2714).

일부 실시예들에서, 각자의 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서의 사용자의 (가상의 또는 물리적) 존재를 나타내는 메시지를 생성하는 것을 포함한다(2716)(예를 들어 도 26a 내지 도 26c에 도시된 바와 같이, 사용자는 사업장의 장소에 대응하는 지도 상의 위치를 선택하면서 동시에 지문 센서 상에서 지문을 가짐으로써, 레스토랑, 매장, 공원, 또는 다른 사업장 장소와 같은 지리적 위치에 "체크인"할 수 있음). 일부 실시예들에서, 생성된 메시지는 사용자가 현재 각자의 지리적 위치에 물리적으로 존재함을 나타낸다. 일부 실시예들에서, 생성된 메시지는 사용자가 각자의 지리적 위치에 이전에 물리적으로 존재했거나 미래에 물리적으로 존재할 것임을 나타낸다. 일부 실시예들에서, 사용자의 존재를 나타내는 메시지는 그 위치에 있는 사용자의 실질적인 물리적 존재를 나타낸다(예를 들어, 사용자는 사용자가 레스토랑에서 식사하고 있음을 나타내도록 레스토랑에서 사용자가 식사하는 동안에 레스토랑에 체크인함). 일부 실시예들에서, 사용자의 존재를 나타내는 메시지는 사용자의 가상 존재를 나타낸다(예를 들어, 사용자는 레스토랑에 예약을 요청하기 위해 레스토랑에 체크인하거나 사용자가 레스토랑에 예약하였음을 나타내도록 레스토랑에 체크인하거나, 사용자가 전화 또는 화상 회의를 통해 원격으로 미팅에 참석하고 있을지라도 미팅이 발생하는 위치에 체크인함).In some embodiments, the respective geographic location and operation associated with the user includes generating a message (2716) (e. G., In Figures 26A-B) to generate a message indicating the user's (virtual or physical) presence at the respective geographic location As shown in FIG. 26C, the user can select a location on the map corresponding to the location of the business location and at the same time have a fingerprint on the fingerprint sensor to "check in" to a geographic location such as a restaurant, store, park, Lt; / RTI &gt; In some embodiments, the generated message indicates that the user is physically present at his current geographic location. In some embodiments, the generated message indicates that the user was previously physically present in his or her geographic location or will be physically present in the future. In some embodiments, the message indicating the presence of the user indicates a substantial physical presence of the user at that location (e.g., the user may be asked to indicate to the restaurant that the user is eating at the restaurant, Check-in). In some embodiments, the message indicating the presence of the user indicates a virtual presence of the user (e.g., the user checks in a restaurant to request a reservation in a restaurant, or checks in a restaurant to indicate that the user has reserved a restaurant) , Checking in to the location where the meeting occurs, even if the user is attending the meeting remotely via a telephone or videoconference).

일부 실시예들에서, 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서 사용자로부터 사업장으로의 지불을 허가하는 것을 포함한다(2718)(예를 들어, 매장에 대한 지불을 허가하는 단계는 도 26d에 도시된 바와 같이 지문 센서 상에 지문이 존재하는 동안에 매장의 위치에 대응하는 지도 상의 위치를 선택하는 것임).In some embodiments, the operations associated with the geographic location and the user include authorizing payment from the user to the business in their respective geographic locations (2718) To select a location on the map corresponding to the location of the store while fingerprints are present on the fingerprint sensor as shown in Fig.

일부 실시예들에서, 지리적 위치 및 사용자와 연관된 동작은 메타데이터를 미디어에 추가하는 것을 포함하며(2720), 메타데이터는 미디어가 각자의 지리적 위치 및 사용자와 연관됨을 나타낸다(예를 들어, 도 26e 내지 도 26g에 도시된 바와 같이, 사진이 촬영된 위치 및 사용자가 사진을 촬영했거나 사용자가 사진에 등장한 위치 둘 모두를 나타내는 메타데이터를 사진에 추가함으로써 사용자에 의해 촬영된 사진 또는 사용자의 사진을 지오태깅함).In some embodiments, the operations associated with the geographic location and the user include adding metadata to the media (2720), and the metadata indicates that the media is associated with a respective geographic location and user (e.g., 26A to 26G, by adding metadata to the photograph indicating the position where the photograph was taken and the position at which the user took the picture or where the user appeared in the picture, Tagging).

도 27에서의 동작들이 기술된 특정 순서는 단지 예시적인 것이며 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내는 것으로 의도되지는 않는다는 것을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 27과 관련하여 전술된 방법(2700)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(2700)과 관련하여 전술된 지문들, 입력들, 지도들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 입력들, 지도들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the particular sequence in which the operations in FIG. 27 are described is exemplary only and is not intended to represent that the sequences described are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that the details of the other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 2700 described above is also applicable in a similar manner. For example, the fingerprints, inputs, maps, and focus selectors described above in connection with method 2700 may optionally be combined with other methods described herein (e.g., in " Inputs, maps, and focus selectors described herein with respect to methods (e.g., methods listed in the second paragraph). For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 28은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(2800)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 28에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 28 illustrates a functional block diagram of an electronic device 2800 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 28 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 28에 도시된 바와 같이, 전자 디바이스(2800)는 지도를 포함한 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(2802); 지문 센서 유닛(2806); 및 디스플레이 유닛(2802) 및 지문 센서 유닛(2806)에 결합된 프로세싱 유닛(2808)을 포함한다. 일부 실시예들에서, 디바이스는 통합형 지문 센서 유닛(2806-1)을 갖는 터치-감응 표면 유닛(2804)을 포함한다. 이러한 실시예들에서, 프로세싱 유닛은 지문 센서 유닛(2804-1)과 함께 터치-감응 표면 유닛(2804)에 결합된다. 일부 실시예들에서, 디바이스는 별개의 지문 센서 유닛(2806-2)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(2808)은 검출 유닛(2810), 식별 유닛(2812) 및 수행 유닛(2814)을 포함한다.28, the electronic device 2800 includes a display unit 2802 configured to display a user interface including a map; A fingerprint sensor unit 2806; And a processing unit 2808 coupled to the display unit 2802 and the fingerprint sensor unit 2806. In some embodiments, the device includes a touch-sensitive surface unit 2804 with an integrated fingerprint sensor unit 2806-1. In these embodiments, the processing unit is coupled to the touch-sensitive surface unit 2804 along with the fingerprint sensor unit 2804-1. In some embodiments, the device includes a separate fingerprint sensor unit 2806-2. In some embodiments, the processing unit 2808 includes a detection unit 2810, an identification unit 2812, and a performance unit 2814.

프로세싱 유닛(2808)은 활성화 입력을 검출하도록 구성되며, 활성화 입력은 각자의 지리적 위치에 대응하는 지도 상에 표시된 위치 및 지문 센서 유닛(2806) 상에서 검출된 지문과 연관된다. 활성화 입력을 검출하는 것에 응답하여: 프로세싱 유닛(2808)은 지문에 대응하는 사용자를 식별하고 각자의 지리적 위치 및 사용자와 연관된 동작을 수행하도록 구성된다.The processing unit 2808 is configured to detect an activation input, wherein the activation input is associated with a fingerprint detected on a fingerprint sensor unit 2806 and a location indicated on the map corresponding to the respective geographic location. In response to detecting the activation input: the processing unit 2808 is configured to identify the user corresponding to the fingerprint and perform an action associated with the respective geographic location and user.

일부 실시예들에서, 활성화 입력이 지문 센서 유닛(2804)과는 상이한 터치-감응 표면 유닛(2804) 상에서 검출된다.In some embodiments, the activation input is detected on a touch-sensitive surface unit 2804 that is different from the fingerprint sensor unit 2804.

일부 실시예들에서, 활성화 입력이 지문 센서 유닛(2804) 상에서 검출된다.In some embodiments, an activation input is detected on the fingerprint sensor unit 2804.

일부 실시예들에서, 위에서 더 상세하게 논의된 바와 같이, 각자의 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서의 사용자의 존재를 나타내는 메시지를 생성하는 것을 포함한다.In some embodiments, as discussed in more detail above, the operations associated with the user's geographic location and the user include generating a message indicating the presence of the user in their respective geographic location.

일부 실시예들에서, 위에서 더 상세하게 논의된 바와 같이, 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서 사용자로부터 사업장으로의 지불을 허가하는 것을 포함한다.In some embodiments, as discussed in more detail above, the operations associated with the geographic location and the user include authorizing payment from the user to the establishment at their respective geographic locations.

일부 실시예들에서, 위에서 더 상세하게 논의된 바와 같이, 지리적 위치 및 사용자와 연관된 동작은 미디어에 메타데이터를 추가하는 것을 포함하며, 메타데이터는 미디어가 각자의 지리적 위치 및 사용자와 연관됨을 나타낸다.In some embodiments, as discussed in more detail above, the operations associated with the geographic location and the user include adding metadata to the media, which indicates that the media is associated with its geographic location and user.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 27과 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 28에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 디스플레이 동작(2702), 검출 동작(2704) 및 식별 동작(2712)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to FIG. 27 are optionally implemented by the components shown in FIG. 1A and FIG. 1B or FIG. For example, a display operation 2702, a detection operation 2704, and an identification operation 2712 are optionally implemented by the event classifier 170, the event recognizer 180, and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

사용자들에게의 작업공간들의 할당Assigning workspaces to users

다수의 전자 디바이스들은 사용자들로 하여금 각자의 사용자 인터페이스들(예를 들어, 데이터 저장 옵션들, 텍스트 편집 애플리케이션들, 그리기 애플리케이션들 등)과 연관된 다양한 기능들 및 동작들을 수행할 수 있게 하는 그래픽 사용자 인터페이스를 구비한다. 또한, 다수의 전자 디바이스들이 둘 이상의 사용자들 사이에서 공유된다. 이러한 공유 디바이스들과 상호작용하는 동안에, 사용자는 흔히 사용자 자신의 선호도에 기초하여 사용자 정의(custom)에 의해 정의된 기능들 및 동작들(예를 들어, 애플리케이션들의 이용 목록, 개인 데이터 저장 공간, 사용자-규정 텍스트 폰트, 라인 폭, 그리기 옵션들과 같은 사용자 정의 데이터 서식설정 옵션들 등)을 갖는 개인 작업공간 또는 작업 영역을 생성 및 정의하기를 원한다.A number of electronic devices provide a graphical user interface (GUI) that allows users to perform various functions and operations associated with their respective user interfaces (e.g., data storage options, text editing applications, drawing applications, Respectively. Also, multiple electronic devices are shared between two or more users. During interaction with these shared devices, the user will often be able to customize the functions and actions defined by the user based on his or her own preferences (e.g., use lists of applications, personal data storage space, - customized data formatting options, such as custom text fonts, line widths, drawing options, and so on).

공유 디바이스 상에 자신만의 개인 작업공간을 생성하고자 하는 사용자들을 위한 일부 접근법들은 (예를 들어, 사용자들을 그들 각자의 계정들에 연관시키기 위한 별개의 사용자 이름들 및 패스워드들을 갖는) 별개의 사용자 계정들을 생성하는 것을 포함한다. 이어서, 사용자들은 그들 각자의 사용자 이름들 및 패스워드들을 이용하여 그들 각자의 계정들로 로그인할 수 있다. 이러한 접근법들은 공유 디바이스 상에서 임의의 주어진 시간에 오직 한 명의 사용자가 자신의 각자의 계정으로 로그인할 수 있을 방식으로 한정됨으로써, 복수의 사용자들이 동시에 동일한 공유 디바이스 상에서 자신의 계정에 액세스하는 것을 어렵게 한다. 또한, 이러한 접근법들은 작업공간들 사이에서 전환하기 위해 메뉴들 및 설정들의 계층을 통해 내비게이션할 것을 요구하며, 이는 사용자들에게 혼란스럽고 시간 소비적일 수 있다.Some approaches for users who wish to create their own personal workspace on a shared device include a separate user account (e.g., having separate user names and passwords for associating users with their respective accounts) Lt; / RTI &gt; Users can then log in with their respective accounts using their respective user names and passwords. These approaches are confined to the way that only one user can log into their respective accounts at any given time on a shared device, thereby making it difficult for multiple users to simultaneously access their accounts on the same shared device. In addition, these approaches require navigating through a hierarchy of menus and settings to switch between workspaces, which can be confusing and time consuming for users.

개시된 실시예들은 영역의 주변부 또는 경계를 정의하기 위해 하나 이상의 접촉들을 이용함으로써 사용자가 다기능 디바이스의 디스플레이 상의 영역을 한정할 수 있게 함으로써 다기능 디바이스 상의 공유된 작업공간을 분할하는, 편리하고 효율적인 방법을 제공한다. 영역을 한정하기 위해 사용자에 의해 사용되는 하나 이상의 접촉들에서 검출된 지문에 적어도 기초하여, 디바이스는 영역을 각자의 사용자와 연관시키고, 그 영역을 사용자의 개인적인 선호도 및 설정들과 연관시킨다. 그 결과, 하나 이상의 사용자들이 신속하고 효율적으로 동일한 물리적 디바이스 상에 각자의 작업공간들 또는 작업 영역들을 정의할 수 있으며, 사용자들의 지문 식별에 기초하여 각자의 작업공간과 연관된 사용자 정의 설정들을 갖는다.The disclosed embodiments provide a convenient and efficient method of partitioning a shared workspace on a multifunction device by allowing a user to define an area on the display of the multifunction device by using one or more contacts to define a periphery or boundary of the area do. Based at least on a fingerprint detected at one or more contacts used by the user to define the area, the device associates the area with its respective user and associates the area with the user's personal preferences and settings. As a result, one or more users can quickly and efficiently define their respective workspaces or workspaces on the same physical device, and have user-defined settings associated with their respective workspaces based on their fingerprint identification.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 29a 내지 도 29s 및 도 30a 및 도 30b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 29a 내지 도 29s 및 도 30a 및 도 30b와 관련하여 기술되는 실시예들은, 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 논의될 것이지만, 디스플레이(450) 상에 도 29a 내지 도 29s에 도시된 사용자 인터페이스들을 표시하는 동안에 통합형 지문 센서(359-1) 상에서 도 29a 내지 도 29s에 묘사된 입력들을 검출하는 것에 응답하여 유사한 동작들이 선택적으로 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 터치 스크린(112) 상에 도 29a 내지 도 29s에 도시된 사용자 인터페이스들을 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 29a 내지 도 29s에 묘사된 입력들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 표시된 커서 대신에, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The devices described below with reference to Figs. 29A-29S and Figs. 30A and 30B include one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 29A to 29S and Figs. 30A and 30B include a display 450, a separate touch-sensitive surface 451 and a separate fingerprint sensor 359-2, 29A to 29S on the integrated fingerprint sensor 359-1 during display of the user interfaces shown in Figures 29A-29S on the display 450. In response to detecting the inputs depicted in Figures 29A-29S, Similar operations are selectively performed on the device having the integrated fingerprint sensor 359-1. It is also contemplated that similar operations may be performed by the fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1) while selectively displaying the user interfaces shown in Figures 29a-29s on the touch screen 112 Sensor 359-2) in response to detecting the inputs depicted in Figures 29A-29S; In such embodiments, the focus selector may alternatively be a touch screen (not shown), instead of a displayed cursor, a representative point corresponding to each contact, a contact (e.g., a point associated with the center of each contact or a respective contact) 112). &Lt; / RTI &gt;

도 29a는 휴대용 다기능 디바이스(100)의 디스플레이(2900) 상에 표시된 사용자 선택가능한 아이콘들(예를 들어, 복수의 기동가능한 애플리케이션들에 대응하는 사용자-선택가능한 아이콘(424-446))들을 갖는 제1 사용자 인터페이스(예를 들어, 애플리케이션 기동 사용자 인터페이스 또는 홈 스크린 인터페이스)를 도시한다. 일부 실시예들에서, 디스플레이(2900)는 터치에 응답하는 터치 센서들의 어레이를 갖는 터치-감응 디스플레이이다. 일부 실시예들에서, 터치 센서들의 어레이는 디스플레이를 형성하는 디스플레이 요소들을 정의하는 평면과 일치하는(예를 들어, 함께 위치되는 또는 동일 평면 상에 있는) 평면 내에 있다. 조합된 디스플레이(2900)와 터치-감응 표면은 때때로 본 명세서에서 터치 스크린(112)으로 지칭된다. 일부 실시예들에서, 디바이스는 터치에 응답하는 터치 센서들의 어레이를 갖는 (예를 들어, 디스플레이와 일치하거나, 함께 위치되거나, 동일 평면 상에 있는 평면 내의) 터치-감응 표면을 포함하고, 터치-감응 표면은 지문 감지 능력을 포함한다(예를 들어, 터치-감응 표면은 높은 공간 정밀도로 지문들을 검출할 수 있는 지문 센서들의 어레이를 포함함). 따라서, 일부 실시예들에서, 디바이스는 터치-감응 표면 상의 하나 이상의 지문들을 검출할 수 있고, 선택적으로 하나 이상의 지문들을 디바이스의 하나 이상의 대응하는 사용자들과 연관시킨다.29A is a flow diagram of a portable multifunction device 100 according to the principles of the present invention. FIG. 29A is a block diagram of a portable multifunction device 100 according to an embodiment of the present invention. 1 user interface (e.g., an application launch user interface or a home screen interface). In some embodiments, the display 2900 is a touch-sensitive display having an array of touch sensors responsive to a touch. In some embodiments, the array of touch sensors is in a plane that coincides with (e.g., co-located or coplanar) the plane defining the display elements that form the display. The combined display 2900 and the touch-sensitive surface are sometimes referred to herein as touch screen 112. In some embodiments, the device includes a touch-sensitive surface (e.g., in a plane coincident with, co-located with, or co-planar with the display) an array of touch sensors responsive to a touch, The responsive surface includes fingerprint sensing capabilities (e.g., the touch-sensitive surface includes an array of fingerprint sensors capable of detecting fingerprints with high spatial precision). Thus, in some embodiments, the device can detect one or more fingerprints on the touch-sensitive surface, and optionally associates one or more fingerprints with one or more corresponding users of the device.

도 29a 및 도 29b는 터치 스크린(112) 상에서 제1 영역을 한정하는(예를 들어, 제1 영역의 경계를 이루는 제1 주변부를 기술하는) 터치 스크린(112) 상의 (예를 들어, 하나 이상의 대응하는 지문들을 갖는 하나 이상의 접촉들을 포함하는) 제1 세트의 하나 이상의 입력들을 검출하는 것을 도시한다. 도 29a 및 도 29b는 하나 이상의 접촉들 중 제1 접촉이 제1 사용자와 연관된 제1 지문을 포함한다고 결정하는 것을 추가로 도시한다. 따라서, 도 29a 및 도 29b는 디바이스가 (예를 들어, 제1 사용자에 대해 특정된 사용자 정의 작업 설정들을 갖는 제1 사용자에 대한 작업공간으로서) 제1 영역을 제1 사용자와 연관시키는 것을 도시한다.29A and 29B illustrate an embodiment of a touchscreen 112 that defines a first area on the touchscreen 112 (e.g., on one or more touchscreens 112 that describe a first periphery that bounds a first area) (E.g., including one or more contacts having corresponding fingerprints). 29A and 29B further illustrate that the first of the one or more contacts includes a first fingerprint associated with the first user. 29A and 29B illustrate associating a first region with a first user (e.g., as a workspace for a first user with user defined job settings specified for the first user) .

도 29a에 도시된 바와 같이, 디바이스는 디바이스(100)의 터치 스크린(112) 상에서 대응하는 지문(2902-a, 2902-b, 2902-c, 2902-d)들을 갖는 접촉들을 포함하는 제1 세트의 하나 이상의 입력들을 검출한다. (예를 들어, 대응하는 지문(2902-a, 2902-b, 2902-c, 2902-d)들을 포함하는) 제1 세트의 입력들은 디바이스의 터치 스크린 표면 상에 (예를 들어, 실질적으로 직사각형인) 제1 영역의 테두리 또는 경계를 형성하는 (예를 들어, 실질적으로 직사각형인) 주변부를 정의한다. 도 29b에 도시된 바와 같이, 디바이스는 지문(2902-a, 2902-b, 2902-c, 2902-d)들 중 하나 이상이 제1 사용자(예를 들어, Jim)와 연관된다고 결정한다. 따라서, 디바이스는 (예를 들어, 검출된 지문들이 사용자의 지문들과 부합한다고 결정하는, 사용자의 지문들의 지문 특징들과 검출된 지문들의 비교에 기초하여) 터치 스크린(112)의 제1 영역을 제1 사용자와 연관시킨다(예를 들어, 지정함). 예를 들어, 제1 영역은 Jim에게 지정된 작업 공간이며, Jim의 선호되는(예를 들어, 사용자 정의에 의해 정의된) 애플리케이션들(및 예를 들어 대응하는 애플리케이션 기동 아이콘들)을 포함한다. 도 29b에 도시된 바와 같이, 사용자는 개인 작업공간을 위한 영역의 경계 또는 주변부를 정의하기 위해 단순히 (예를 들어, 하나 이상의 대응하는 지문들을 갖는 하나 이상의 접촉들을 갖는) 하나 이상의 입력들을 이용함으로써 자신의 사용자 정의 선호도 설정들로 다기능 디바이스 상에서 (예를 들어, 공유 작업공간으로부터) 자신의 개인 작업공간을 분할하거나, 윤곽을 나타내거나, 지정하는 것과 관련하여 개선된 편리성을 갖는다.29A, the device includes a first set of contacts including contacts having corresponding fingerprints 2902-a, 2902-b, 2902-c, 2902-d on the touch screen 112 of the device 100, Lt; / RTI &gt; A first set of inputs (e.g., including corresponding fingerprints 2902-a, 2902-b, 2902-c, 2902-d) are placed on the touch screen surface of the device (e.g., (E. G., Substantially rectangular) that defines the border or boundary of the first region (e. 29B, the device determines that one or more of the fingerprints 2902-a, 2902-b, 2902-c, 2902-d are associated with the first user (e.g., Jim). Thus, the device can determine the first area of the touch screen 112 (e.g., based on a comparison of the detected fingerprints with the fingerprint features of the user's fingerprints, which determines that the detected fingerprints match the user's fingerprints) Associate (e.g., specify) with the first user. For example, the first area is a workspace assigned to Jim and includes Jim's preferred (e.g., user defined) applications (and corresponding application launch icons, for example). As shown in Figure 29B, a user may simply use one or more inputs (e.g., having one or more contacts with one or more corresponding fingerprints) to define the boundary or perimeter of the area for the private workspace Has an improved convenience with respect to splitting, outlining, or specifying his or her personal workspace on a multifunction device (e.g., from a shared workspace) with user preference settings of the user.

유사하게, 도 29c는 휴대용 다기능 디바이스(100)의 터치 스크린(112) 상에 표시된 공동 작업공간 내의 메모들의 목록(예를 들어, 하나 이상의 사용자에 의해서 가장 최근 생성되거나 편집된 메모들)을 갖는 제2 사용자 인터페이스(예를 들어, 노트패드 또는 텍스트 편집 애플리케이션 사용자 인터페이스)를 도시한다. 도 29c 내지 도 29d는 터치 스크린(112) 상에서 제1 사용자(예를 들어, Mark)와 연관된 (예를 들어, 하나 이상의 지문(2906-a, 2906-b, 2906-c, 2906-d)들을 포함하는) 제1 세트의 하나 이상의 입력들을 검출하는 것을 도시하는데, 여기서 제1 세트의 하나 이상의 입력들이 제1 영역을 한정한다.Similarly, FIG. 29C illustrates an embodiment of a portable multifunction device 100 having a list of notes (e.g., most recently created or edited by one or more users) in a collaborative work space displayed on a touch screen 112 2 user interface (e.g., a notepad or text editing application user interface). Figures 29c-29d illustrate one embodiment of the present invention (e.g., one or more fingerprints 2906-a, 2906-b, 2906-c, 2906-d) associated with a first user ) Of the first set of inputs, wherein the one or more inputs of the first set define the first region.

도 29d에 도시된 바와 같이, 제1 세트의 입력들이 제1 사용자에 대응하는 하나 이상의 지문들을 포함한다는 결정에 적어도 기초하여, 제1 세트의 하나 이상의 입력들은 제1 사용자(예를 들어, Mark)와 연관된 제1 영역(예를 들어, 직사각형 텍스트 편집 작업공간(2908))과 연관된다(예를 들어, 제1 영역의 경계 또는 주변부를 정의함). 도 29d에 도시된 바와 같이, 제1 영역 내에 제1 사용자에 의해서 입력된 텍스트(예를 들어, 제2 세트의 하나 이상의 입력들에 의해 입력된 Mark에 의한 새로운 메모)는 제1 사용자(예를 들어, Mark)의 선호도에 기초하여 제1 동작과 연관된다(예를 들어, 제1 영역에 입력된 텍스트가 폰트, 텍스트 크기, 서식설정 등과 같은 사용자 정의 설정들에 따라 표시되고 형식화됨). 도 29e 및 도 29f에 도시된 바와 같이, 디바이스는 제1 영역 밖의(예를 들어, 직사각형 텍스트 편집 작업공간(2908) 밖의) 터치 스크린(112) 상에서 제3 세트의 하나 이상의 입력들(예를 들어, 접촉(2910))을 검출한다. 디바이스가 디스플레이 상의 영역과 연관되지 않은 새로운 메모의 생성에 대응하는 입력들을 검출한다면, 새로운 메모는 디폴트 선호도(예를 들어, 상이한 폰트, 텍스트 크기 및 서식설정 선호도)를 이용하여 생성될 것이다. 도 29e 및 도 29f에 도시된 바와 같이, 제3 세트의 하나 이상의 입력들(예를 들어, 접촉(2910))이 제1 영역 밖에 있다는 결정에 따라서, 디바이스는 제2 동작을 수행한다(예를 들어, 최근에 생성되거나 편집된 메모들의 목록을 재표시하기 위해서 Mark에 의한 새로운 메모를 최소화함).Based on at least a determination that the first set of inputs includes the one or more fingerprints corresponding to the first user, the one or more inputs of the first set may include a first user (e.g., a Mark) (E.g., defining a border or perimeter of the first region) associated with a first region (e.g., a rectangular text editing workspace 2908) associated with the first region. As shown in Figure 29d, the text entered by the first user in the first region (e.g., a new memo by Mark entered by the one or more inputs of the second set) (E.g., the text entered in the first region is displayed and formatted according to user defined settings, such as fonts, text size, formatting, etc.). As shown in Figures 29e and 29f, the device may include a third set of one or more inputs (e. G., On the touch screen 112) outside the first area (e.g., outside the rectangular text editing workspace 2908) , Contact 2910). If the device detects inputs corresponding to the creation of a new memo not associated with a region on the display, the new memo will be created using default preferences (e.g., different fonts, text size and formatting preferences). 29E and 29F, the device performs a second operation (e.g., according to the determination that the third set of one or more inputs (e.g., contact 2910) is outside the first region For example, minimizing new notes by Mark to re-display the list of recently created or edited notes).

따라서, 일부 실시예들에서, 다기능 디바이스 상에서 (예를 들어, 공유 작업공간으로부터) 자신의 개인 작업공간을 분할하거나, 윤곽을 나타내거나, 정의하거나, 지정한 후에, 사용자는 (예를 들어 자신의 개인 작업공간에 대응하는) 제1 영역 내에 하나 이상의 접촉들을 단순히 배치함으로써 (예를 들어, 자신의 사용자 정의 선호도 설정들에 따르거나 연관된) 제1 동작을 수행하고; 제1 영역 밖에 하나 이상의 접촉들을 배치함으로써 제2 동작(예를 들어, 디폴트 선호도에 따라 새로운 노트를 생성하거나 개인화된 작업공간을 해산함)을 수행하는 것에 대한 개선된 편리성을 갖는다.Thus, in some embodiments, after partitioning, outlining, defining, or specifying his / her personal workspace on a multifunction device (e.g., from a shared workspace) Performing a first operation (e.g., in accordance with or associated with its own user preference settings) by simply placing one or more contacts within a first area (corresponding to a workspace); Has the added convenience of performing a second action (e.g., creating a new note or dissolving a personalized workspace according to default preferences) by placing one or more contacts outside the first area.

또 다른 예로서, 도 29g는 휴대용 다기능 디바이스(100)의 터치 스크린(112) 상에 표시된, 그림들을 생성하기 위한 공동의 공유되는(예를 들어, 하나 이상의 사용자들 사이에서 공유되는) 작업공간을 갖는 제3 사용자 인터페이스(예를 들어, 그리기 애플리케이션 사용자 인터페이스)를 도시한다. 도 29h는 터치 스크린(112) 상에서 제1 사용자(예를 들어, Mark)와 연관된 (예를 들어, 하나 이상의 지문(2912-a, 2912-b, 2912-c, 2912-d)들을 포함하는) 제1 세트의 하나 이상의 입력들을 검출하는 것을 도시한다. 도 29i에 도시된 바와 같이, 적어도 제1 세트의 입력들이 제1 사용자에 대응하는(예를 들어, Mark에 대응하는) 하나 이상의 지문들을 포함한다는 결정에 기초하여, 제1 세트의 하나 이상의 입력들은 제1 사용자(예를 들어, Mark)와 연관된 제1 영역(예를 들어, 직사각형 그리기 작업공간(2913))을 정의한다.As another example, Figure 29G shows a workspace shared by a common (e.g., shared among one or more users) for creating pictures, displayed on the touch screen 112 of the portable multifunction device 100 (E.g., a drawing application user interface). Figure 29h illustrates an example of a fingerprint associated with a first user (e.g., Mark) (e.g., including one or more fingerprints 2912-a, 2912-b, 2912-c, 2912- And detecting one or more inputs of the first set. Based on a determination that at least a first set of inputs includes one or more fingerprints (e.g., corresponding to a Mark) corresponding to a first user, as shown in Figure 29i, one or more inputs of the first set (E.g., a rectangular drawing workspace 2913) associated with a first user (e.g., Mark).

도 29j 및 도 29k는 제1 영역 내에서(예를 들어, Mark의 직사각형 그리기 작업공간(2913) 내에서) 터치 스크린(112) 상의 제2 세트의 하나 이상의 입력들(예를 들어, 접촉(2914))을 검출하고, 이러한 접촉을 제1 사용자에게서 기인한다고 간주하는 것을 추가로 도시한다. 예를 들어, Mark의 그리기 작업공간(2913) 내에서 접촉(2914)을 검출할 때, 디바이스는 제1 사용자와 연관된 사용자 정의 설정들에 따라 제1 동작을 수행한다(예를 들어, 디바이스는 컬러 선호도, 테두리 설정 등과 같은 Mark의 선호도 또는 사용자 정의 설정들에 기초하여 접촉(2914)을 이동시킴으로써 제1 영역 내에 그려진 형상을 채우고 형상의 윤곽을 나타냄). 한편, 도 29k 및 도 29l에 도시된 바와 같이, 디바이스는 제1 영역 밖의(예를 들어, Mark의 직사각형 그리기 작업공간(2913) 밖의) 터치 스크린(112) 상에서 제3 세트의 하나 이상의 입력들(예를 들어, 접촉(2916))을 검출하며, (예를 들어 도 29l에 도시된 바와 같은 Mark의 사용자 정의 설정들로부터 구분되는 디폴트 컬러 또는 채우기 설정 및 테두리 설정들과 같은 디폴트 설정들에 따르거나 연관되어) 제2 동작을 수행한다.29J and 29K illustrate one or more inputs of a second set (e.g., contact 2914) on the touch screen 112 within the first area (e.g., within the rectangular drawing workspace 2913 of Mark) ), And further assumes that such contact is due to the first user. For example, when detecting a contact 2914 within the Mark's drawing workspace 2913, the device performs a first operation in accordance with the user-defined settings associated with the first user (e.g., The contact 2914 is moved based on Mark's preferences or user defined settings, such as preferences, border settings, etc., to fill the drawn shape within the first area and outline the shape). On the other hand, as shown in FIGS. 29K and 291, the device may display a third set of one or more inputs (e.g., a touch screen) on the touch screen 112 (e.g., outside of the Mark's rectangular drawing workspace 2913) (E.g., contact 2916), and may be based on default settings, such as default color or fill settings and border settings, which are distinguished from custom settings of Mark as shown in Figure 291 To perform a second operation.

도 29m 내지 도 29q에 도시된 바와 같이, 제1 영역이 제1 사용자와 연관된 동안에, 제2 사용자(예를 들어, Jane)와 연관된 (예를 들어, 이동하는 지문(2918)의 하나 이상의 사례들을 포함하는) 제4 세트의 하나 이상의 입력들이 터치 스크린(112) 상에서 검출된다. 도 29m 내지 도 29q에 도시된 바와 같이, 제4 세트의 하나 이상의 입력들은 적어도 제4 세트의 입력들이 제2 사용자에 대응하는(예를 들어, Jane에 대응하는) 하나 이상의 지문(예를 들어, 지문(2918))들을 포함한다는 결정에 기초하여 제2 사용자(예를 들어, Jane)와 연관된 제2 영역(예를 들어, 직사각형 그리기 작업공간(2919))을 정의한다. 도 29q에 도시된 바와 같이, 제2 영역(예를 들어, 직사각형 그리기 작업공간(2919))은 (예를 들어, 도 29q에 도시된 디바이스의 배향을 참조하여) 디스플레이의 수직 우측 에지에 근접한다. 따라서, (제2 영역 내에 하나 이상의 사용자 인터페이스 객체들을 포함하는) 제2 영역은 제2 영역 디스플레이의 저부로서 디스플레이의 수직 우측 에지를 이용하게 배향된다.(E.g., one or more instances of the moving fingerprint 2918) associated with a second user (e.g., Jane) while the first region is associated with the first user, as shown in Figures 29m-29q A fourth set of inputs is detected on the touch screen 112). As shown in Figures 29m-29q, the one or more inputs of the fourth set include at least a fourth set of inputs comprising one or more fingerprints (e.g., corresponding to Jane) corresponding to the second user (e.g., (E.g., a rectangle drawing workspace 2919) associated with a second user (e.g., Jane) based on the determination that the first user (e.g., fingerprint 2918). As shown in Figure 29q, the second area (e.g., the rectangular drawing workspace 2919) is proximate to the vertical right edge of the display (e.g., with reference to the orientation of the device shown in Figure 29q) . Thus, the second area (comprising one or more user interface objects in the second area) is oriented to use the vertical right edge of the display as the bottom of the second area display.

도 29r 및 도 29s에 도시된 바와 같이, 디바이스는 제2 영역 내에서(예를 들어, Jane의 직사각형 그리기 작업공간(2919) 내에서) 터치 스크린(112) 상의 제2 세트의 하나 이상의 입력들(예를 들어, 접촉(2920))을 검출하고, 접촉(2920)을 제2 사용자(예를 들어, Jane)에게서 기인한다고 간주한다. 예를 들어, Jane의 그리기 작업공간(2919) 내에서 접촉(2919)을 검출함에 따라, 디바이스는 제2 사용자와 연관된 사용자 정의 설정들에 따라 제2 동작을 수행한다(예를 들어, 디바이스는 Jane의 선호도 또는 컬러, 테두리 설정들 등과 같은 사용자 정의 설정들에 기초하여 접촉(2919)의 이동에 의해 제2 영역 내에서 그려지는 형상의 윤곽을 나타내고 형상을 채움). 도 29s에 도시된 바와 같이, Jane의 선호도는 객체들에 대해 Mark의 선호도에 의해 규정된 라인 폭과 채움보다 더 가는 라인 폭과 더 밝은 채움을 규정한다.As shown in Figures 29r and 29s, the device may be moved to one or more inputs (e. G., Within Jane's rectangular drawing workspace 2919) of the second set on the touch screen 112 (E.g., contact 2920) and the contact 2920 is attributed to a second user (e.g., Jane). For example, as detecting contact 2919 within Jane's drawing workspace 2919, the device performs a second action in accordance with the user-defined settings associated with the second user (e.g., the device is Jane Of the shape drawn in the second area by movement of the contact 2919 based on user-defined settings such as color, border settings, etc.). As shown in Figure 29S, Jane's preference defines a line width and fill that is thinner than the line width and fill defined by Mark's preference for objects.

따라서, 일부 실시예들에서, 다기능 디바이스 상에서 (예를 들어, 공유된 작업공간으로부터) 제1 사용자가 자신의 개인 작업공간을 정의한 후에, 제2 사용자가 동시에 (예를 들어, 제1 사용자의 작업공간으로부터 구분되는) 자신만의 작업공간을 정의할 수 있다. 그 결과, 둘 이상의 사용자들이 그들의 각자의 손가락 접촉들에 의해 정의된 주변부를 이용하여 다기능 디바이스 상의 작업공간을 그들 각자의 작업 영역들로 분할함으로써 다기능 디바이스 상의 작업공간을 동시에 공유할 수 있고; 디바이스는 이어서 개별 사용자들의 각각의 작업 영역들을 사용자들 각자의 지문들에 기초하여 각자의 사용자들과 연관시킨다. 일부 실시예들에서, 별개의 작업공간들은 상이한 문서들에 대응한다(예를 들어, Mark에 대해 그리기 문서가 대응하고 Jane에 대해 별개의 그리기 문서가 대응함으로써, 영역(2913, 2919)이 해산되었을 때 Mark 및 Jane에 의해 그려진 객체들이 객체를 그린 각자의 사용자와 연관된 별개의 문서들에 저장될 것임). 일부 실시예들에서, 별개의 작업공간들이 동일한 문서 내의 상이한 작업공간들에 대응한다(예를 들어, Mark와 Jane이 동일한 문서의 상이한 부분들에 기여함으로써, 영역(2913, 2919)이 해산되었을 때 Mark 및 Jane에 의해 그려진 객체들이 계속해서 동일한 문서 내에 나타날 것임).Thus, in some embodiments, after a first user defines his or her personal workspace on a multifunction device (e.g., from a shared workspace), a second user may simultaneously access the workspace of the first user You can define your own workspace (separated from the space). As a result, two or more users can simultaneously share a workspace on the multifunction device by dividing the workspace on the multifunction device into their respective workspaces using the perimeter defined by their respective finger contacts; The device then associates the respective work areas of the individual users with their respective users based on their fingerprints. In some embodiments, the separate workspaces correspond to different documents (e.g., because the drawing document corresponds to Mark and a separate drawing document corresponds to Jane), areas 2913 and 2919 have been disbanded Objects drawn by Mark and Jane will be stored in separate documents associated with each user drawing the object). In some embodiments, separate workspaces correspond to different workspaces in the same document (e.g., when Mark and Jane contribute to different parts of the same document, regions 2913 and 2919 are disbanded Objects drawn by Mark and Jane will continue to appear in the same document).

도 30a 및 도 30b는 일부 실시예들에 따른, 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시켜 할당하는 방법(3000)을 예시하는 흐름도이다. 방법(3000)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3000) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.30A and 30B are flowcharts illustrating a method 3000 of associating and assigning regions of a touch-sensitive surface with one or more users, in accordance with some embodiments. The method 3000 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 3000 may be selectively combined and / or the order of some operations may be selectively changed.

아래에 기술되는 바와 같이, 방법(3000)은 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키기 위한 직관적인 방식을 제공한다. 이 방법은 작업공간을 선택할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 작업공간을 더 빠르고 더 효율적으로 선택 또는 자동 지정할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 3000 provides an intuitive way to associate areas of the touch-sensitive surface with one or more users. This method reduces the cognitive burden on the user when selecting a workspace, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing the user to select or automatically assign a workspace faster and more efficiently conserves power and increases the time between battery charges.

디바이스는 터치-감응 표면의 제1 영역을 한정하는 제1 세트의 하나 이상의 입력들을 터치-감응 표면 상에서 검출한다(3002). 예를 들어, 디바이스는 (예를 들어, 도 29m 내지 도 29p와 관련하여 설명되는 바와 같이) 사용자가 손가락으로 터치-감응 표면의 영역의 윤곽을 나타내는 것을 검출하거나 (예를 들어, 도 29a, 도 29c 및 도 29h와 관련하여 설명되는 바와 같이) 작업공간의 코너들을 식별하기 위해 사용자가 디스플레이 상에 2, 3, 또는 4개의 손가락들을 동시에 놓고 있는 것을 검출한다. 일부 실시예들에서, 터치-감응 표면의 제1 영역은 터치 스크린 디스플레이의 영역(예를 들어, 도 29b의 제1 영역(2904); 도 29d의 제1 영역(2908); 도 5i의 제1 영역(2913))이다(3004).The device detects (3002) a first set of one or more inputs on the touch-sensitive surface defining a first region of the touch-sensitive surface. For example, the device may detect that the user presents a contour of the area of the touch-sensitive surface with a finger (e.g., as described in connection with Figures 29m-29p) 29c and 29h) to detect the corners of the workspace, the user is simultaneously placing 2, 3, or 4 fingers on the display. In some embodiments, the first region of the touch-sensitive surface includes a region of the touch screen display (e.g., a first region 2904 in Figure 29b; a first region 2908 in Figure 29d; Area 2913) (3004).

제1 세트의 하나 이상의 입력들을 검출한 후에(3006), (예를 들어, 제1 세트의 하나 이상의 입력들을 검출하는 것에 응답하여) 디바이스는 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문(예를 들어, 도 29a 및 도 29b의 Jim과 연관된 지문(2902-a, 2902-b, 2902-c, 2902-d)들; 도 29c 및 도 29d의 Mark와 연관된 지문(2906-a, 2906-b, 2906-c, 2906-d)들; 도 29h 및 도 29i의 Mark와 연관된 지문(2912-a, 2912-b, 2912-c, 2912-d)들)을 포함하는 제1 접촉을 포함한다고 결정한다(3008). 디바이스는 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여 터치-감응 표면의 제1 영역을 제1 사용자와 연관시킨다(3010)(예를 들어, 도 29b의 Jim과 연관된 제1 영역(2904); 도 29d의 Mark와 연관된 제1 영역(2908); 도 29i의 Mark와 연관된 제1 영역(2913)). 따라서, 일부 실시예들에서, 사용자는 사용자와 연관된 지문들을 포함하는 하나 이상의 접촉들을 이용하여 공유된 작업공간 내의 영역의 윤곽을 추적함으로써 터치-감응 표면 상의 공유된 작업공간의 일부분을 사용자의 작업공간으로서 선택할 수 있다. 이어서, 사용자는 사용자와 연관된 사용자-특정 동작들을 수행하도록 이러한 개별적인 작업공간을 사용할 수 있다(예를 들어, 도 29b와 관련하여 설명된 바와 같이 사용자 정의 애플리케이션들을 사용; 도 29d와 관련하여 설명된 바와 같이 사용자 정의 폰트 및 글자 크기를 사용; 도 29k와 관련하여 설명된 바와 같이 사용자 정의 라인 폭과 테두리 설정 및 형상 컬러 또는 채우기를 사용).After detecting one or more inputs of the first set (3006), the device determines whether one or more inputs of the first set (e.g., in response to detecting one or more inputs of the first set) (E.g., fingerprints 2902-a, 2902-b, 2902-c, 2902-d associated with Jim in Figures 29A and 29B; fingerprints 2906-a A finger 2912-a, 2912-b, 2912-c, 2912-d associated with the Mark 2906-b, 2906-c, 2906- (3008). The device associates a first region of the touch-sensitive surface with the first user based at least in part upon a determination that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with the first user (E.g., a first region 2904 associated with the Jim in Figure 29b; a first region 2908 associated with the Mark in Figure 29d; a first region 2913 associated with the Mark in Figure 29i). Thus, in some embodiments, a user traces an outline of an area within a shared workspace using one or more contacts, including fingerprints associated with the user, such that a portion of the shared workspace on the touch- As shown in FIG. The user can then use this individual workspace to perform user-specific operations associated with the user (e.g., using user defined applications as described in connection with Figure 29b; as described in connection with Figure 29d Use custom font and font sizes as well; use custom line width and border settings and shape color or fill, as described in connection with FIG. 29k).

일부 실시예들에서, 터치-감응 표면의 제1 영역을 제1 사용자와 연관시킨 후에, 디바이스는 제1 영역의 범위의 시각적 표지를 표시한다(3012). 예를 들어, 디바이스는 제1 영역 둘레의 테두리(예를 들어, 도 29b에서 Jim과 연관된 제1 영역(2904) 둘레의 테두리; 또는 도 29d에서 Mark와 연관된 제1 영역(2908) 둘레의 테두리; 또는 도 29i에서 Mark와 연관된 제1 영역(2913) 둘레의 테두리)를 표시한다.In some embodiments, after associating the first region of the touch-sensitive surface with the first user, the device displays a visual indicator of the extent of the first region (3012). For example, the device may include a border around a first region (e.g., a border around a first region 2904 associated with Jim in Figure 29b; or a border around a first region 2908 associated with Mark in Figure 29d; Or a border around the first region 2913 associated with Mark in Figure 29i).

일부 실시예들에서, 터치-감응 표면의 제1 영역이 제1 사용자와 연관된 동안에(3014), 디바이스는 동작(3016-3034)들과 관련하여 기술되는 하나 이상의 단계들을 수행한다. 디바이스는 제1 영역 내에서 제2 세트의 하나 이상의 입력들을 검출한다(3016). 디바이스는 제2 세트의 하나 이상의 입력들을 제1 사용자에게서 기인한다고 간주한다(3018). 예를 들어, 디바이스는 제1 영역 내에서 제2 세트의 하나 이상의 입력들을 검출하는 것에 응답하여 하나 이상의 동작들을 수행하고, 제2 세트의 하나 이상의 입력들에 따라 생성된 데이터를 제1 사용자와 연관된 저장 위치 내에 저장하거나 이들이 제1 사용자로부터의 입력들인 것처럼 제2 세트의 하나 이상의 입력들을 달리 처리한다. 일부 실시예들에서, 제2 세트의 하나 이상의 입력들은 제2 세트의 하나 이상의 입력들이 사용자에 대응한다는 다른 표지들을 요구하지 않고서 제1 영역 내의 입력들의 위치에 기초하여 제1 사용자에게서 기인한다고 간주된다. 예를 들어, 디바이스는 제2 세트의 하나 이상의 입력들 내의 접촉들의 지문들을 식별하지 않는다. 대신, 제1 영역 내에서 발생한 제스처가 제1 사용자에 의한 입력으로 추정된다.In some embodiments, while the first area of the touch-sensitive surface is associated with a first user (3014), the device performs one or more of the steps described in connection with operations (3016-3034). The device detects 3016 one or more inputs of the second set within the first region. The device considers 3018 one or more inputs of the second set due to the first user. For example, a device may perform one or more operations in response to detecting a second set of one or more inputs within a first region, and may cause data generated according to one or more inputs of a second set to be associated with a first user Store locations or otherwise process one or more inputs of the second set as if they were inputs from a first user. In some embodiments, the one or more inputs of the second set are considered to originate in the first user based on the location of the inputs in the first domain without requiring other indicia that the one or more inputs of the second set correspond to the user . For example, the device does not identify fingerprints of contacts in one or more inputs of the second set. Instead, a gesture occurring in the first area is estimated as an input by the first user.

일부 실시예들에서, 디바이스는 제3 세트의 하나 이상의 입력들을 검출한다(3020). 제3 세트의 하나 이상의 입력들을 검출하는 것에 응답하여(3022), 제3 세트의 하나 이상의 입력들이 제1 영역 내에서 검출되었다는 결정에 따라, 디바이스는 제1 동작을 수행하고(예를 들어, 디바이스는 도 29d와 관련하여 설명된 바와 같이 제1 사용자의 폰트 선호도에 따라 텍스트 편집 동작을 수행하거나; 제1 영역(2913) 내에서 접촉(2914)을 검출함에 따라 디바이스는 도 29j 및 도 29k와 관련하여 설명된 바와 같이 그리기를 위한 제1 사용자의 사용자 정의 라인 폭과 형상 채움을 이용함); 제3 세트의 하나 이상의 입력들이 제1 영역 밖에서 검출된다는 결정에 따라, 디바이스는 제1 동작과는 상이한 제2 동작을 수행한다(예를 들어, 도 29e와 관련하여 설명된 바와 같이 제1 영역(2908) 밖에서 접촉(2910)을 검출함에 따라 디바이스는 제1 사용자에 의해 생성된 새로운 메모를 최소화하고 최근에 생성 또는 편집된 메모들의 목록을 재표시하며; 도 29k 및 도 29l와 관련하여 설명된 바와 같이 제1 영역(2913) 밖에서 접촉(2916)을 검출함에 따라 디바이스는 그리기를 위한 디폴트 라인 폭과 형태 채움을 이용함). 예를 들어, 제1 영역 내의 입력들은 제1 사용자의 사용자 선호도에 따른 시각적 요소들(예를 들어, 제1 사용자와 연관된 텍스트 폰트 선호도, 텍스트 컬러 선호도, 라인 컬러/폭 선호도, 사용자 정의 사전 또는 자동수정 옵션들, 또는 사용자 정의 애플리케이션 툴바 설정들)로 해석되는 반면, 제1 영역 밖의 입력들은 디폴트 사용자 선호도에 따른 시각적 요소들(예를 들어, 디폴트 텍스트 폰트 선호도, 디폴트 텍스트 컬러 선호도, 디폴트 라인 컬러/폭 선호도, 디폴트 사전 또는 자동수정 옵션들, 또는 디폴트 애플리케이션 툴바 설정들)로 해석된다.In some embodiments, the device detects 3020 one or more inputs of the third set. In response to detecting a third set of one or more inputs (3022), in response to determining that a third set of one or more inputs have been detected in the first region, the device performs a first operation (e.g., The device performs the text editing operation according to the font preference of the first user as described in relation to Figure 29d or detects the contact 2914 within the first area 2913, Using the first user &apos; s customized line width and shape fill for drawing as described above); Depending on the determination that one or more inputs of the third set are detected outside the first region, the device performs a second operation different from the first operation (e.g., as described in connection with Figure 29E, 2908, the device minimizes the new memo created by the first user and redisplays the list of recently created or edited memos; as described in connection with Figures 29K and 291 The device uses the default line width and shape fill for drawing as it detects contact 2916 outside the first area 2913). For example, the inputs in the first region may include visual elements (e.g., text font preferences, text color preferences, line color / width preferences, user defined dictionaries, or automatic preferences associated with the first user) (E.g., a default text font preference, a default text color preference, a default line color preference, a default text color preference, etc.) Width preference, default dictionary or auto-modification options, or default application toolbar settings).

일부 실시예들에서, 디바이스는 터치-감응 표면의 제2 영역을 한정하는 터치-감응 표면 상의 제4 세트의 하나 이상의 입력들을 검출한다(3024)(예를 들어, 도 29q의 제2 영역(2919)을 한정하는 지문(2918)을 포함하는 접촉의 이동). 예를 들어, 디바이스는 제2 사용자에 대한 작업공간의 코너들을 식별하기 위해 손가락으로 (예를 들어, 도 29m 내지 도 29q와 관련하여 설명된 바와 같이) 터치-감응 표면의 영역의 윤곽을 나타내거나 제2 사용자가 디스플레이 상에 2, 3 또는 4개의 손가락들을 동시에 놓고 있는 것을 검출한다. 디바이스는 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문(예를 들어, 도 29q에서 Jane과 연관된 지문(2918))을 포함하는 제2 접촉을 포함한다고 결정한다(3026). 디바이스는 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문을 포함하는 제2 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여, 터치-감응 표면의 제2 영역을 제2 사용자와 연관시킨다(3028)(예를 들어, 디바이스는 적어도 지문(2918)이 Jane과 연관된다는 결정에 기초하여 제2 영역(2919)을 Jane과 연관시킴). 일부 실시예들에서, 터치-감응 표면의 제2 영역은 터치-감응 표면의 제1 영역으로부터 구분된다(예를 들어, 제1 영역과 겹쳐지지 않음).In some embodiments, the device detects (3024) one or more inputs of a fourth set on a touch-sensitive surface defining a second area of the touch-sensitive surface (e.g., the second area 2919 Movement of the contact including the fingerprint 2918 defining the fingerprint 2918). For example, the device may outline the area of the touch-sensitive surface with a finger (e.g., as described in connection with Figures 29m-29q) to identify the corners of the workspace for the second user And detects that the second user is simultaneously placing two, three or four fingers on the display. The device determines (3026) that the one or more inputs of the fourth set include a second contact that includes a second fingerprint associated with the second user (e.g. fingerprint 2918 associated with Jane in Figure 29q). The device associates a second region of the touch-sensitive surface with a second user based at least in part on a determination that the one or more inputs of the fourth set include a second contact comprising a second fingerprint associated with the second user (E.g., the device associates the second region 2919 with Jane based at least on the determination that the fingerprint 2918 is associated with Jane). In some embodiments, the second region of the touch-sensitive surface is separated from the first region of the touch-sensitive surface (e.g., does not overlap with the first region).

일부 실시예들에서, 터치-감응 표면의 제1 영역이 제1 사용자와 연관되고 터치-감응 표면의 제2 영역이 제2 사용자와 연관된 동안에, 디바이스는 제5 세트의 하나 이상의 입력들을 검출한다(3030). 제5 세트의 하나 이상의 입력들을 검출하는 것에 응답하여, 제5 세트의 하나 이상의 입력들이 제1 영역 내에서 검출되었다는 결정에 따라(3032), 디바이스는 제1 동작을 수행하고(예를 들어, 제1 영역(2913) 내에서 접촉(2914)을 검출함에 따라, 도 29j 및 도 29k와 관련하여 설명된 바와 같이 디바이스가 Mark의 선호도에 기초한 라인 폭 또는 형상 채움에 대한 사용자 정의 설정들을 이용함); 제5 세트의 하나 이상의 입력들이 제2 영역 내에서 검출된다는 결정에 따라, 디바이스는 제1 동작과는 상이한 제2 동작을 수행한다(예를 들어, 제2 영역(2919) 내에서 접촉(2920)을 검출함에 따라, 도 29r 및 도 29s와 관련하여 설명된 바와 같이 디바이스가 Jane의 선호도에 기초한 라인 폭 또는 형상 채움에 대한 사용자 정의 설정들을 이용함). 예를 들어, 제1 영역 내의 입력들은 제1 사용자의 사용자 선호도에 따른 시각적 요소들로 해석되고(예를 들어, 제1 사용자와 연관된 텍스트 마크업 컬러, 텍스트 폰트 선호도, 텍스트 컬러 선호도, 라인 컬러/폭 선호도, 사용자 정의 사전 또는 자동수정 옵션들, 및/또는 사용자 정의 애플리케이션 툴바 설정들), 제2 영역 내의 입력들은 제2 사용자의 사용자 선호도에 따른 시각적 요소들로 해석된다(예를 들어, 제2 사용자와 연관된 텍스트 마크업 컬러, 텍스트 폰트 선호도, 텍스트 컬러 선호도, 라인 컬러/폭 선호도, 사용자 정의 사전 또는 자동수정 옵션들, 및/또는 사용자 정의 애플리케이션 툴바 설정들).In some embodiments, while the first region of the touch-sensitive surface is associated with a first user and the second region of the touch-sensitive surface is associated with a second user, the device detects one or more inputs of the fifth set 3030). In response to detecting the fifth set of one or more inputs, the device performs a first operation (e.g., 3032) in response to determining that a fifth set of one or more inputs have been detected in the first region The device uses user-defined settings for line width or shape fill based on Mark's preference as described in connection with Figures 29j and 29k as detecting contact 2914 within region 1 2913); Depending on the determination that one or more inputs of the fifth set are detected in the second region, the device performs a second operation different from the first operation (e.g., contact 2920 within the second region 2919) The device uses user-defined settings for line width or shape fill based on Jane's preference, as described in connection with Figures 29r and 29s). For example, the inputs in the first region are interpreted as visual elements according to the user preferences of the first user (e.g., text markup color associated with the first user, text font preference, text color preference, line color / Width preferences, user-defined dictionaries or auto-modification options, and / or user-defined application toolbar settings), the inputs in the second region are interpreted as visual elements according to the user preferences of the second user (e.g., Text font preferences, text color preferences, line color / width preferences, user-defined dictionaries or auto-modification options, and / or custom application toolbar settings).

일부 실시예들에서, 제1 영역은 디스플레이의 제1 에지에 근접하고(예를 들어, 제1 영역(2913)이 도 29g 내지 도 29s에서 도시된 디바이스의 배향과 관련하여 디스플레이의 수평 하부 에지에 근접함); 제1 영역 내에 표시된 하나 이상의 제1 사용자 인터페이스 객체들이 디스플레이의 저부로서 제1 에지를 이용하여 배향되며(예를 들어, Mark의 그리기 작업공간이 도 29i 내지 도 29l과 관련하여 설명된 바와 같이 수평 하부 에지를 저부로서 이용하게 배향됨); 제2 영역이 디스플레이의 제1 에지와는 상이한 디스플레이의 제2 에지에 근접하고(예를 들어, 제2 영역(2919)이 도 29g 내지 도 29s에서 도시된 디바이스의 배향과 관련하여 디스플레이의 수직 우측 에지에 근접함); 제2 영역 내에 표시된 하나 이상의 제2 사용자 인터페이스 객체들이 디스플레이의 저부로서 제2 에지를 이용하여 배향된다(예를 들어, Jane의 그리기 작업공간이 도 29q 내지 도 29s와 관련하여 설명된 바와 같이 수직 우측 에지를 저부로서 이용하게 배향됨). 예를 들어, 디바이스는 객체/텍스트의 "저부"가 제1 영역에 가장 가까운 디스플레이의 에지를 향하도록 제1 영역 내의 텍스트/그래픽 객체들을 배향시킨다. 유사하게, 디바이스는 객체/텍스트의 "저부"가 제2 영역에 가장 가까운 디스플레이의 에지를 향하도록 제2 영역 내의 텍스트/그래픽 객체들을 배향시킨다.In some embodiments, the first region is proximate to the first edge of the display (e.g., the first region 2913 is located at the horizontal lower edge of the display in association with the orientation of the device shown in Figures 29g-29s) Proximity); One or more first user interface objects displayed in the first region are oriented using a first edge as a bottom portion of the display (e.g., the Mark's drawing workspace is oriented horizontally, as described in connection with Figures 29I- Oriented with the edge as the bottom); The second region is close to the second edge of the display that is different from the first edge of the display (e.g., the second region 2919 is located on the vertical right side of the display with respect to the orientation of the device shown in Figures 29g- Near the edge); One or more second user interface objects displayed in the second area are oriented using a second edge as the bottom of the display (e.g., Jane's drawing workspace is oriented in the vertical right direction, as described in connection with Figures 29q- Edge is used as the bottom). For example, the device orientates the text / graphic objects in the first area such that the "bottom" of the object / text is toward the edge of the display closest to the first area. Similarly, the device orientates the text / graphic objects in the second area such that the "bottom" of the object / text is toward the edge of the display closest to the second area.

도 30a 및 도 30b의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 30a 및 도 30b와 관련하여 전술된 방법(3000)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3000)과 관련하여 전술된 지문들, 접촉들, 사용자 인터페이스 객체들, 입력들, 시각적 표지들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 사용자 인터페이스 객체들, 입력들, 시각적 표지들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 30A and 30B are only illustrative and that the order in which they are described is not intended to indicate that the order in which they are described is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that it is also applicable in a similar manner to the method 3000 described above with respect to 30b. For example, the fingerprints, contacts, user interface objects, inputs, visual indicia described above in connection with method 3000 may optionally be combined with other methods described herein (e.g., Contacts, user interface objects, inputs, visual indicia described herein in connection with the methods described in the second paragraph within the " Specification for Specification "). For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 31은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(3100)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 31에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.31 illustrates a functional block diagram of an electronic device 3100 configured in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 31 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 31에 도시된 바와 같이, 전자 디바이스(3100)는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛(3102), 상부에서 접촉을 수용하도록 구성된 터치-감응 표면 유닛(3104), 지문 센서 유닛(3106); 및 디스플레이 유닛(3102), 터치-감응 표면 유닛(3104) 및 지문 센서 유닛(3106)에 결합된 프로세싱 유닛(3108)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(3108)은 검출 유닛(3110), 결정 유닛(3112), 연관 유닛(3114), 디스플레이 인에이블링 유닛(3116), 원인 간주 유닛(3118) 및 수행 유닛(3120)을 포함한다.31, the electronic device 3100 includes a display unit 3102 configured to display one or more user interface objects, a touch-sensitive surface unit 3104 configured to receive contacts at the top, a fingerprint sensor unit 3106 ); And a processing unit 3108 coupled to the display unit 3102, the touch-sensitive surface unit 3104 and the fingerprint sensor unit 3106. In some embodiments, the processing unit 3108 includes a detecting unit 3110, a determining unit 3112, an associating unit 3114, a display enabling unit 3116, a cause referencing unit 3118, and a performing unit 3120 ).

프로세싱 유닛(3108)은 (예를 들어, 검출 유닛(3110)을 이용하여) 터치-감응 표면 유닛(3104)의 제1 영역을 한정하는 터치-감응 표면 유닛(3104) 상의 제1 세트의 하나 이상의 입력들을 검출하고; 제1 세트의 하나 이상의 입력들을 검출한 후에: (예를 들어, 결정 유닛(3112)을 이용하여) 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다고 결정하며; (예를 들어, 연관 유닛(3114)을 이용하여) 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여 터치-감응 표면 유닛(3104)의 제1 영역을 제1 사용자와 연관시키도록 구성된다.Processing unit 3108 may include a first set of one or more of a first set of touch-sensitive surface units 3104 on a touch-sensitive surface unit 3104 that defines a first region of touch-sensitive surface unit 3104 (e.g., using detection unit 3110) Detecting inputs; After detecting one or more inputs of the first set: one or more inputs of the first set (e.g., using decision unit 3112) include a first contact comprising a first fingerprint associated with the first user ; Based on, at least in part, a determination that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with the first user (e.g., using associating unit 3114) Unit 3104 with a first user.

일부 실시예들에서, 터치-감응 표면 유닛(3104)의 제1 영역은 터치 스크린 디스플레이의 영역이다.In some embodiments, the first area of the touch-sensitive surface unit 3104 is the area of the touch screen display.

일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역을 제1 사용자와 연관시킨 후에, (예를 들어, 디스플레이 인에이블링 유닛(3116)을 이용하여) 제1 영역의 범위의 시각적 표지의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 3108 may associate a first area of the touch-sensitive surface unit 3104 with a first user (e.g., using the display enabling unit 3116) And to enable the display of the visual indicia of the range of the first area.

일부 실시예들에서, 프로세싱 유닛(3108)은, 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관된 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 제1 영역 내의 제2 세트의 하나 이상의 입력들을 검출하고; (예를 들어, 원인 간주 유닛(3118)을 이용하여) 제2 세트의 하나 이상의 입력들을 제1 사용자에게서 기인하는 것으로 간주하도록 구성된다.In some embodiments, the processing unit 3108 may be configured to determine whether the first area of the touch-sensitive surface unit 3104 is associated with the first user (e.g., using the detection unit 3110) Detecting one or more inputs of the second set in the second set; (Using, for example, the cause-and-referencing unit 3118) one or more inputs of the second set.

일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관된 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 제3 세트의 하나 이상의 입력들을 검출하고; 제3 세트의 하나 이상의 입력들을 검출하는 것에 응답하여: 제3 세트의 하나 이상의 입력들이 제1 영역 내에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작을 수행하고; 제3 세트의 하나 이상의 입력들이 제1 영역 밖에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작과는 상이한 제2 동작을 수행하도록 구성된다.In some embodiments, the processing unit 3108 may be configured to detect the first set of touch-sensitive surface units 3104 (e.g., using the detection unit 3110) while the first area of the touch- Detecting one or more inputs; In response to detecting the third set of one or more inputs: a first operation is performed (e.g., using the execution unit 3120) in accordance with a determination that one or more inputs of the third set are detected in the first region Perform; Is configured to perform a second operation different from the first operation (e.g., using the execution unit 3120) in accordance with a determination that the third set of one or more inputs is detected outside the first region.

일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관된 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 터치-감응 표면 유닛(3104)의 제2 영역을 한정하는 터치-감응 표면 유닛 상의 제4 세트의 하나 이상의 입력들을 검출하고; (예를 들어, 결정 유닛(3112)을 이용하여) 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문을 포함하는 제2 접촉을 포함한다고 결정하며; 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문을 포함하는 제2 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여 (예를 들어, 연관 유닛(3114)을 이용하여) 터치-감응 표면 유닛(3104)의 제2 영역을 제2 사용자와 연관시키도록 구성된다.In some embodiments, the processing unit 3108 may be configured to detect the touch-sensitive surface 3104 (e.g., using the detection unit 3110) while the first area of the touch- Detect a fourth set of one or more inputs on a touch-sensitive surface unit defining a second region of the unit 3104; (E.g., using decision unit 3112) determines that the fourth set of inputs comprises a second contact comprising a second fingerprint associated with a second user; (E.g., using associating unit 3114) based at least in part on a determination that one or more inputs of the fourth set include a second contact that includes a second fingerprint associated with a second user, Unit 3104 with a second user.

일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관되고 터치-감응 표면 유닛(3104)의 제2 영역이 제2 사용자와 연관되는 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 제5 세트의 하나 이상의 입력들을 검출하고; 제5 세트의 하나 이상의 입력들을 검출하는 것에 응답하여: 제5 세트의 하나 이상의 입력들이 제1 영역 내에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작을 수행하고; 제5 세트의 하나 이상의 입력들이 제2 영역 내에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작과는 상이한 제2 동작을 수행하도록 구성된다.Processing unit 3104 is associated with a first user and a second region of touch-sensitive surface unit 3104 is associated with a second user, in some embodiments, (E.g., using detection unit 3110) to detect a fifth set of one or more inputs; In response to detecting the fifth set of one or more inputs: a first operation is performed (e.g., using the execution unit 3120) in accordance with a determination that one or more inputs of the fifth set are detected in the first region Perform; Is configured to perform a second operation different from the first operation (e.g., using the execution unit 3120) in accordance with a determination that one or more inputs of the fifth set are detected in the second region.

일부 실시예들에서, 제1 영역은 디스플레이 유닛(3102)의 제1 에지에 근접하고; 제1 영역에 표시된 하나 이상의 제1 사용자 인터페이스 객체들이 제1 에지를 디스플레이 유닛(3102)의 저부로서 사용하여 배향되며; 제2 영역은 디스플레이 유닛(3102)의 제1 에지와는 상이한 디스플레이 유닛(3102)의 제2 에지에 근접하고; 제2 영역 내에 표시된 하나 이상의 제2 사용자 인터페이스 객체들이 제2 에지를 디스플레이 유닛(3102)의 저부로서 이용하여 배향된다.In some embodiments, the first region is proximate to the first edge of the display unit 3102; Wherein one or more first user interface objects displayed in the first region are oriented using a first edge as a bottom portion of the display unit (3102); The second region is close to the second edge of the display unit 3102 which is different from the first edge of the display unit 3102; One or more second user interface objects displayed in the second area are oriented using the second edge as the bottom of the display unit 3102. [

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 30a 및 도 30b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 31에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(3002), 결정 동작(3008) 및 연관 동작(3010)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to Figs. 30A and 30B are optionally implemented by the components shown in Figs. 1A and 1B or Fig. For example, detection operation 3002, decision operation 3008 and associated operation 3010 are optionally implemented by event classifier 170, event recognizer 180 and event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

적절한 운지법 기술들에 대한 사용자의 훈련User training on appropriate fingering techniques

전자 디바이스 상에서의 타이핑 및 피아노 또는 전자 키보드 연주와 같은 태스크들을 효율적으로 수행하는 것은 사용자가 적절한 운지법 기술들을 사용할 것을 요구한다. 예를 들어, 키보드(예를 들어, 전자 디바이스 또는 타자기와 연관된 QWERTY 키보드) 상에서 타이핑할 때, 사용자의 속도 및 정확도를 향상시키기 위해서 "터치 타이핑"으로 알려진 기술이 개발되었다. 이러한 기술은 사용자가 QWERTY 키보드 상의 중간 행(middle row) 글자들을 따라 8개의 손가락들(오른손 및 왼손 엄지손가락은 제외함)을 가볍게 올려두는 것을 포함한다(예를 들어, 사용자의 왼손 새끼손가락, 약지, 중지 및 검지가 각각 "A", "S", "D", 및 "F" 키들 상에 배치되고, 사용자의 오른손 검지, 중지, 약지 및 새끼손가락이 각각 "J", "K", "L" 및 ";" 키들 상에 배치됨). 이러한 셋업을 기본 손 위치로 이용하여, 키보드의 각각의 키에 키를 누르도록 사용되어야 하는 손가락이 할당되며, 눌러진 키와 연관된 글자가 접속된 디바이스(예를 들어, 컴퓨터 또는 타자기와 같은 전자 디바이스) 상에 타이핑되게 한다. 터치 타이핑이 능숙한 경우에, 사용자는 글자열을 타이핑하기 위해 시각적 식별보다는 근육 기억에 의존할 수 있으며, 이는 효율성을 향상시킨다. 적절한 타이핑 기술에 대해 사용자를 훈련시키는 종래의 방법은 사용자가 대응하는 손가락을 이용하여 특정한 키를 누르게 하는 명령어들 및/또는 일련의 실전 연습들을 수행하게 하는 명령어들을 포함한다. 그러나, 컴퓨터는 타이핑된 글자들의 정확도와 관련된 피드백을 제공할 수 있지만, 사용자들이 키보드 상의 각자의 키들을 누르기 위해 올바른 손가락을 사용하였는지 여부에 대한 피드백을 제공할 수는 없다.Efficiently performing tasks such as typing on an electronic device and playing a piano or an electronic keyboard require the user to use appropriate fingerprinting techniques. Techniques known as "touch typing" have been developed to improve the speed and accuracy of a user when typing, for example, on a keyboard (e.g., a QWERTY keyboard associated with an electronic device or typewriter). This technique involves lightly lifting eight fingers (except the right and left thumb) along the middle row of letters on the QWERTY keyboard (e.g., the user's left little finger, Quot ;, " K ", " K ", and " L "and"; "keys). Using this setup as the default hand position, a finger is assigned to each key of the keyboard that should be used to press the key, and the character associated with the pressed key is connected to the device (e.g., electronic device such as a computer or typewriter) ). When touch typing is proficient, the user may rely on muscle memory rather than visual identification to type the string, which improves efficiency. Conventional methods of training a user for appropriate typing techniques include those that cause a user to use a corresponding finger to press a particular key and / or to perform a series of exercises. However, the computer can provide feedback related to the accuracy of typed characters, but can not provide feedback as to whether users have used the correct finger to press their respective keys on the keyboard.

유사하게, 높은 숙련도로 음악 키보드를 연주하는 것은 (예를 들어, 적절한 기술로 키들을 누름으로써) 일관적인 소리 품질을 생성하고 (예를 들어, 화음에서 키들의 조합을 동시에 누르거나 악곡에서 일련의 키들을 연속적으로 누름으로써) 충분한 속도 및 정확도를 달성하기 위해서 적절한 운지법 기술을 요구한다. 음악 키보드(예를 들어, 피아노)를 연주하기 위해 음악가를 훈련시키는 종래의 방법들은 적절한 기술을 보여줄 수 있고 학습하는 음악가에게 피드백을 제공할 수 있는 연주자와 일대일(예를 들어, "개인") 레슨들을 포함한다. 그러나, 개인 레슨들은 엄두를 못 낼 만큼 비용이 높을 수 있으며, 전형적으로 사전에 스케줄이 잘 정해져야 한다. 대안적으로, 사용자가 키보드를 전자 디바이스에 접속시킬 수 있게 하거나 터치-감응 표면을 갖는 전자 디바이스를 대리 키보드로서 사용하게 하는 프로그램들이 존재한다. 컴퓨터 상의 타이핑을 학습하기 위해 사용되는 프로그램들과 유사하게, 이러한 프로그램들은 연주되고 있는 음(note)들의 정확도에 대한 피드백을 제공할 수 있지만, 손가락의 운지법 기술에 대해서는 피드백을 제공할 수 없다.Similarly, playing a music keyboard with a high degree of proficiency can produce consistent sound quality (e.g., by pressing keys with the appropriate technique) (e.g., by simultaneously pressing a combination of keys in a chord, Requiring a proper fingering technique to achieve sufficient speed and accuracy). Conventional methods of training musicians to play musical keyboards (e.g., piano) include one-to-one (e.g., "personal") lessons with performers who can demonstrate appropriate skills and can provide feedback to the learning musicians . However, individual lessons can be expensive to defeat and typically require prior scheduling. Alternatively, there are programs that allow a user to connect a keyboard to an electronic device or use an electronic device having a touch-sensitive surface as a surrogate keyboard. Similar to programs used to learn typing on a computer, such programs can provide feedback on the accuracy of the notes being played, but can not provide feedback on finger fingering techniques.

아래에 기술된 실시예들에서, (예를 들어, 음악 키보드를 타이핑 또는 연주하기 위한) 적절한 운지법 기술들을 훈련하기 위한 향상된 방법들 및 사용자 인터페이스들이 손가락 접촉들을 검출하고 손가락 접촉들과 연관된 지문들을 분석함으로써 전자 디바이스에서 달성된다. 이러한 방식으로, 전자 디바이스는 어떤 손가락이 접촉에 사용되었는지를 결정할 수 있으며, 일부 실시예들에서는 손끝(fingertip)의 어떤 부분이 접촉에 사용되었는지를 결정할 수 있다. 유리하게는, 타이핑 및 음악 키보드 연주를 훈련하기 위한 종래의 전자 방법들과는 다르게, 아래에서 기술되는 방법들 및 사용자 인터페이스들은 적절한 운지법 기술들이 사용되고 있는지 여부(예를 들어, 올바른 손가락들이 타이핑에 사용되고 있는지, 사용자가 음악 키보드에 올바른 앙각(elevation)과 방향으로 접촉하고 있는지, 그리고 적절한 조합의 손가락들이 음악적 화음들 및 악곡들을 연주하기 위해서 사용되고 있는지 여부)를 나타내는 피드백을 제공한다. 또한, 아래에서 기술되는 방법들 및 사용자 인터페이스들이 자가 학습에 사용될 수 있어, 개인 음악 레슨들을 받는 것과 연관된 비용과 스케줄 제약을 없앤다.In the embodiments described below, improved methods for training appropriate fingerprinting techniques (e.g., for typing or playing a music keyboard) and user interfaces are provided for detecting finger contacts and analyzing fingerprints associated with finger contacts In an electronic device. In this way, the electronic device can determine which finger was used for contact, and in some embodiments can determine which portion of the fingertip was used for contact. Advantageously, unlike conventional electronic methods for training typing and musical keyboard performances, the methods and user interfaces described below are used to determine whether appropriate fingering techniques are being used (e.g., whether the correct fingers are being used for typing, Whether the user is touching the music keyboard in the correct elevation direction and whether the appropriate combination of fingers is being used to play musical notes and musical compositions). In addition, the methods and user interfaces described below can be used for self-learning, eliminating the cost and schedule constraints associated with receiving personal music lessons.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 아래에서 도 32a 내지 도 32s 및 도 33a 내지 도 33c와 관련하여 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 32a 내지 도 32s 및 도 33a 내지 도 33c와 관련하여 기술되는 실시예들은 통합형 지문 센서(359-1)를 갖는 터치 스크린(112)(예를 들어, 개별적인 지문 능선들에 의해 형성되는 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 터치 스크린(112))과 관련하여 논의될 것이지만, 디스플레이(450) 상에 도 32a 내지 도 32s에 도시된 사용자 인터페이스들을 표시하는 동안에 별개의 지문 센서(359-1) 상에서 도 32a 내지 도 32s에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The devices described below in connection with Figures 32A-32S and Figures 33A-C include one or more fingerprint sensors 169. [ In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 32A-32S and Figs. 33A-C can be applied to a touch screen 112 having an integrated fingerprint sensor 359-1 (e.g., (E.g., a touch screen 112 having a spatial resolution that is sufficiently high to detect fingerprint features formed by the touch screen 112), it is contemplated that while displaying the user interfaces shown in Figures 32a-32s on the display 450, In response to detecting the inputs depicted in Figures 32A-32S on the fingerprint sensor 359-1, similar actions are optionally performed on the device with the integrated fingerprint sensor 359-1.

도 32a 내지 도 32s는 지문 센서들로서 사용되는 것을 가능하게 하는, 개별적인 지문 능선들에 의해 형성되는 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 터치 스크린(112)을 구비하는 다기능 디바이스(100)를 도시한다. 일부 실시예들에서, 대안적으로 또는 이에 더하여, 다기능 디바이스(100)는 별개의 지문 센서(169)를 구비한다. 도 32a 내지 도 32p는 터치 스크린(112) 상에 표시된 사용자 인터페이스(3200)를 도시하며, 사용자 인터페이스(3200)는 복수의 활성화 가능한 사용자 인터페이스 객체들(예를 들어, 키(3202-1 내지 3202-24)들)을 구비하는 음악 키보드(3201)를 포함한다. 도 32q 내지 도 32s는 터치 스크린(112) 상에 표시된 사용자 인터페이스(3240)를 도시하며, 사용자 인터페이스(3240)는 복수의 활성화 가능한 사용자 인터페이스 객체들(예를 들어, 키(3232-1 내지 3232-41)들)을 구비하는 QWERTY 문자 입력 키보드(3222)를 포함한다. 도 32c 내지 도 32k 및 도 32m은 오디오 출력 생성 이벤트(예를 들어, 음악 키보드(3201) 상의 키의 표시에 대응하는 터치 스크린(112) 상의 위치에서의 적격의(qualifying) 접촉의 검출)에 응답하여 스피커(111)에서 생성된 오디오 출력(3208)의 하나 이상의 소리 주파수들을 나타내는 오디오 주파수 계기(3210)를 포함한다. 이러한 오디오 주파수 계기들은 전형적으로 표시된 사용자 인터페이스의 일부가 아니지만, 도면들의 이해를 돕기 위해 제공되어 있다.Figures 32A-32S illustrate a multifunction device 100 having a touch screen 112 with a spatial resolution high enough to detect fingerprint features formed by individual fingerprint ridges, enabling it to be used as fingerprint sensors Respectively. In some embodiments, alternatively or additionally, the multifunction device 100 is provided with a separate fingerprint sensor 169. Figures 32A-32P illustrate a user interface 3200 displayed on the touch screen 112 and the user interface 3200 includes a plurality of activatable user interface objects (e.g., keys 3202-1 through 3202- 24) for playing music. Figures 32q-32s illustrate a user interface 3240 displayed on the touch screen 112. The user interface 3240 includes a plurality of activatable user interface objects (e.g., keys 3232-1 through 3232- And a QWERTY character input keyboard 3222 having keys 41, 41). Figures 32C-32K and 32M illustrate how to respond to an audio output creation event (e.g., detection of qualifying contact at a location on the touch screen 112 corresponding to an indication of a key on the music keyboard 3201) And an audio frequency meter 3210 that represents one or more sound frequencies of the audio output 3208 generated at the speaker 111. [ These audio frequency meters are typically not part of the displayed user interface, but are provided to aid understanding of the drawings.

도 32a 내지 도 32p는 다기능 디바이스(100)가 음악 키보드 내의 활성화 가능한 음악 키의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉의 지문 패턴을 검출하고, 지문 패턴의 하나 이상의 특징들에 기초하여, 터치 스크린(112) 상에 접촉하기 위해 사용된 운지법이 바람직하지 않은 운지법이라면 사용자에게 피드백을 제공하고, 접촉하기 위해 사용된 운지법이 바람직한 운지법이라면 음(예를 들어, 생성된 오디오 출력(3208))을 연주하는 다양한 실시예들을 도시한다.Figures 32A-32P illustrate a multifunction device 100 that detects a fingerprint pattern of a contact at a location on the touch screen 112 that corresponds to an indication of an activatable music key in the music keyboard, and based on one or more characteristics of the fingerprint pattern (E.g., the generated audio output 3208) if the fingering used to contact on the touch screen 112 is an undesirable fingering, and if the fingering used to contact is the preferred fingering, &Lt; / RTI &gt;

예를 들어, 도 32a 내지 도 32g는, 다기능 디바이스(100)가 도 32a에 도시된 바와 같이 음악 키보드(3201) 상의 키(3202-5)(예를 들어, "E3" 키)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3204)의 지문 패턴을 검출하는 다양한 실시예들을 도시한다. 다기능 디바이스(100)는 접촉(3204)의 지문 패턴이 바람직한 운지법에 해당하는지 여부를 결정하며, 바람직한 운지법은 적어도 "E3" 키(3202-5)를 활성화하기 위해 사용되는 접촉(3204)의 지문 패턴에 대응하는 손가락이 사용자의 왼손 중지라는 기준을 포함한다.For example, FIGS. 32A-32G illustrate how the multifunction device 100 responds to the display of key 3202-5 (e.g., "E3" key) on the music keyboard 3201 as shown in FIG. The fingerprint pattern of the contact 3204 at a location on the touch screen 112. The fingerprint pattern of the contact 3204 is detected at a location on the touch screen 112, The multifunction device 100 determines whether the fingerprint pattern of the contact 3204 corresponds to the desired fingerprint and the preferred fingerprint is the fingerprint pattern of the contact 3204 used to activate the "E3" key 3202-5, Includes a criterion that the finger corresponding to the left hand of the user is a left hand stop.

도 32b, 도 32d 내지 도 32f는 적어도 사용자의 왼손 중지가 "E3" 키(3202-5)와 접촉한다는 기준에 기초하여, 접촉(3205)을 만드는 데 사용된 운지법이 바람직하지 않은 다양한 실시예들을 도시한다. 다기능 디바이스(100)는 (예를 들어, 적어도 지문 패턴에 대응하는 손가락의 아이덴티티의 결정을 포함하여) 접촉(3205)의 지문 패턴을 분석하고, 도 32b, 도 32d 내지 도 32f에서 접촉(3205)이 사용자의 왼손 약지(LR)에 의해 만들어졌다고 결정한다. 사용자의 왼손 약지는 사전 결정된 바람직한 손가락(예를 들어, 사용자의 왼손 중지)과 부합하지 않기 때문에, 다기능 디바이스(100)는 바람직한 운지법이 사용되지 않았음을 나타내는 피드백을 사용자에게 제공한다.Figures 32B, 32D-32F illustrate various embodiments where the fingering used to create the contact 3205 is undesirable, based at least on the criteria that the user's left hand stop contacts the "E3" key 3202-5 Respectively. The multifunction device 100 analyzes the fingerprint pattern of the contact 3205 (including, for example, determining at least the identity of the finger corresponding to the fingerprint pattern) and determines the contact 3205 in Figures 32B, 32D- Is made by the user's left hand finger (LR). The multifunction device 100 provides the user with feedback indicating that the desired fingering has not been used since the user's left hand ring finger does not match the predetermined preferred finger (e.g., the user's left hand break).

일부 실시예들에서, 사용자가 잘못된 손가락을 사용하였음을 나타내는 피드백(예를 들어, 사용자의 왼손 중지 대신 사용자의 왼손 약지를 사용)은 시각적 피드백을 포함한다. 예를 들어, 도 32b 및 도 32d에 도시된 바와 같이, "E3"키(3202-5)가 사용자의 왼손 약지(LR)와 접촉될 때, 커다란 "X"(3206)가 터치 스크린(112) 상에 표시된다.In some embodiments, feedback indicating that the user has used the wrong finger (e.g., using the user's left hand finger instead of the user's left hand stop) includes visual feedback. For example, as shown in FIGS. 32B and 32D, when the "E3" key 3202-5 touches the user's left hand medicament LR, a large "X" 3206 touches the touch screen 112, Lt; / RTI &gt;

일부 실시예들에서, 사용자가 잘못된 손가락을 사용하였음을 나타내는 피드백(예를 들어, 사용자의 왼손 중지 대신 사용자의 왼손 약지를 사용)은 가청 피드백을 포함한다. 예를 들어, 도 32e에 도시된 바와 같이, "E3"키(3202-5)가 사용자의 왼손 약지(LR)와 접촉될 때, 다기능 디바이스(100)는 스피커(111)에서 164.81㎐의 주파수를 갖는 진짜 "E3" 톤에서 벗어난 161.00㎐의 주파수(3210)를 갖는 오디오 출력(3208)을 생성한다. 특히 (예를 들어, 악곡의 일부로서) 음들의 시퀀스로 연주되거나 화음으로 연주될 때, 사용자는 음이 "벗어남"을 인지하는데, 이는 사용자가 바람직하지 않은 운지법을 사용하였음을 나타낸다.In some embodiments, feedback indicating that the user has used the wrong finger (e.g., using the user's left hand finger instead of the user's left hand stop) includes audible feedback. For example, as shown in FIG. 32E, when the "E3" key 3202-5 touches the user's left hand ring finger LR, the multifunction device 100 transmits a frequency of 164.81 Hz at the speaker 111 Quot; E3 "tone with a frequency 3210 of 161.00 Hz. In particular, when played with a sequence of notes or as a chord (as part of a piece of music, for example), the user is aware that the note is "off &quot;, indicating that the user has used an undesirable fingering.

일부 실시예들에서, 사용자가 잘못된 손가락을 사용하였음을 나타내는 피드백(예를 들어, 사용자의 왼손 중지 대신 사용자의 왼손 약지를 사용)은 촉각적 피드백을 포함한다. 예를 들어, 도 32f에 도시된 바와 같이, "E3"키(3202-5)가 사용자의 왼손 약지(LR)와 접촉될 때, 다기능 디바이스(100)는 (예를 들어, 촉각적 출력 생성기(167)를 이용하여) 촉각적 출력(3212)을 생성한다.In some embodiments, feedback indicating that the user has used the wrong finger (e.g., using the user's left hand finger instead of the user's left hand stop) includes tactile feedback. For example, as shown in Figure 32F, when the "E3" key 3202-5 is touched with the user's left hand medicament (LR), the multifunction device 100 (eg, the tactile output generator 167) to produce a tactile output 3212. [

도 32c 및 도 32g는 적어도 사용자의 왼손 중지(LM)가 "E3" 키(3202-5)와 접촉된다는 기준에 기초하여, 접촉(3207)을 만드는 데 사용된 운지법이 바람직한 운지법인 다양한 실시예들을 도시한다. 다기능 디바이스(100)는 (예를 들어, 적어도 지문 패턴에 대응하는 손가락의 아이덴티티의 결정을 포함하여) 접촉(3207)의 지문 패턴을 분석하고, 도 32c 및 도 32g에서 접촉(3207)이 사용자의 왼손 중지(LM)에 의해 만들어졌다고 결정한다. 사용자의 왼손 중지가 사전 결정된 바람직한 손가락이기 때문에, 다기능 디바이스(100)는 "E3" 톤의 진짜 주파수에 대응하는 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 생성한다. 도 32c에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 바람직한 운지법이 사용되었음을 나타내는 피드백을 제공하지 않는다. 도 32g에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 터치 스크린(112) 상에 별(3218)을 표시함으로써 바람직한 운지법이 사용되었음을 나타내는 피드백을 제공한다.Figures 32c and 32g illustrate various embodiments that are based on a criterion that at least the user's left hand break (LM) is in contact with the "E3" key 3202-5, wherein the fingering used to create the contact 3207 is a preferred fingering Respectively. The multifunction device 100 analyzes the fingerprint pattern of the contact 3207 (including, for example, determining at least the identity of the finger corresponding to the fingerprint pattern), and in Figures 32C and 32G, It is determined to have been made by left hand stop (LM). Multifunction device 100 generates in speaker 111 an audio output 3208 having a frequency of 164.81 Hz corresponding to the true frequency of the "E3" tone, since the user's left hand stop is a predetermined preferred finger. In Figure 32C, in accordance with some embodiments, the multifunction device 100 does not provide feedback indicating that the preferred fingering has been used. In Figure 32G, in accordance with some embodiments, the multifunction device 100 provides feedback indicating that the preferred fingering is used by marking the star 3218 on the touch screen 112. [

도 32h 내지 도 32j는 C-장조 3화음을 연주하기 위한 바람직한 운지법이 사용자의 왼손 새끼손가락, 왼손 중지 및 왼손 엄지를 포함하는 다양한 실시예들을 도시한다. 예를 들어, 바람직한 운지법 기준은, 도 32h 내지 도 32j의 음악 키보드(3201) 상의 "C" 키(3202-1), "E3" 키(3202-5) 및 "G" 키(3202-8)를 활성화하기 위해 사용되는 접촉(3214, 3217, 3216)들의 지문 패턴들이 각각 바람직한 운지법에 대응한다는 기준을 포함한다.Figures 32h-32j illustrate various embodiments in which the preferred fingering method for playing C-major triad includes the user's left hand little finger, left hand stop and left hand thumb. For example, a preferred fingering criterion is the "C" key 3202-1, the "E3" key 3202-5 and the "G" key 3202-8 on the music keyboard 3201 of FIGS. 32h- Includes a criterion that the fingerprint patterns of the contacts 3214, 3217, and 3216 used to activate the respective fingerprint correspond to the desired fingerprint.

도 32h 내지 도 32i는, 도 32h 내지 도 32i에서 음악 키보드(3201) 상의 "E3" 키(3202-5)를 활성화하기 위해 사용되는 접촉(3217)의 지문 패턴이 사용자의 왼손 중지가 아닌 사용자의 왼손 약지(LR)에 대응하기 때문에, 도 32h 내지 도 32i에서 접촉(3214, 3217, 3216)들을 위해 사용된 운지법이 바람직한 운지법이 아닌 다양한 실시예들을 도시한다. 도 32h에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 터치 스크린(112) 상에 커다란 "X"(3206)를 표시함으로써 바람직하지 않은 운지법이 사용되었음을 나타내는 시각적 피드백을 제공한다. 도 32i에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 터치 스크린(112) 상에 커다란 "X"(3206)를 표시하고 스피커(111)에서 161.00㎐의 주파수를 갖는 톤을 포함하고 들릴 정도로 불협화음인 C-장조 화음을 생성하는 오디오 출력(3208)을 발생시킴으로써 바람직하지 않은 운지법이 사용되었음을 나타내는 시각적 및 오디오 피드백을 제공한다.Figures 32h to 32i illustrate that the fingerprint pattern of the contact 3217 used to activate the "E3" key 3202-5 on the music keyboard 3201 in Figures 32h to 32i is not the user's left- 32H to 32I illustrate various embodiments in which the fingering used for contacts 3214, 3217, and 3216 is not a preferred fingering because it corresponds to the left handed finger LR. In Figure 32H, in accordance with some embodiments, the multifunction device 100 provides visual feedback indicating that undesirable fingering has been used by displaying a large "X" 3206 on the touch screen 112. [ In Figure 32i, in accordance with some embodiments, the multifunction device 100 displays a large "X" 3206 on the touchscreen 112 and includes a tone at a frequency of 161.00 Hz at the speaker 111, To produce audio output 3208 that produces a dissonant C-major chord, thereby providing visual and audio feedback indicating that an undesirable fingering has been used.

도 32j는 적어도 도 32j의 접촉(3219, 3221, 3223)들의 지문 패턴들이 각각 사용자의 왼손 새끼손가락(LP), 왼손 중지(LM) 및 왼손 엄지(LT)에 대응한다는 결정에 기초하여 C-장조 3화음을 연주하기 위해 사용된 운지법이 바람직한 운지법인 실시예를 도시한다. 그 응답으로, 일부 실시예들에서, 다기능 디바이스(100)는 스피커(111)에서 적절하게 조율된 C-장조 3화음에 대응하는 오디오 출력(3208)을 생성하며, 터치 스크린(112) 상에 별(3218)을 표시함으로써 화음을 연주하기 위해 사용된 운지법이 바람직한 운지법임을 나타내는 시각적 피드백을 제공한다.Figure 32j illustrates a C-major (xy) finger pattern based on the determination that the fingerprint patterns of the contacts 3219, 3221, and 3223 of Figure 32j at least correspond to the user's left hand little finger LP, left hand stop LM, and left hand thumb LT, respectively. 3 shows an embodiment in which the fingering method used to play the harmony is the preferred fingering method. In response, in some embodiments, the multifunction device 100 generates an audio output 3208 corresponding to a suitably tuned C-major triad in the speaker 111 and generates a star on the touch screen 112 (3218) to provide visual feedback indicating that the fingering used to play the chord is the preferred fingering.

도 32k 내지 도 32l은, 활성화 접촉의 지문 패턴이 사용자의 손끝의 전체 또는 바닥살(pad)과는 대조적으로 사용자의 손끝의 끝부분을 이용하여 사용자가 터치 스크린(112)을 접촉하는 것에 대응한다는 기준을 바람직한 운지법 기준이 포함하는, 다양한 실시예들을 도시한다.32k-32l illustrate that the fingerprint pattern of the active contact corresponds to the user touching the touch screen 112 using the end of the user's fingertip in contrast to the entire or bottom pad of the user's finger And the preferred fingering standard includes the criteria.

도 32k에 도시된 바와 같이, 다기능 디바이스(100)는 음악 키보드(3201)의 활성화 가능한 "E3" 키(3202-5)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3225)을 검출한다. 도 32k의 접촉(3225)의 지문 패턴이 사용자의 왼손 중지(LM) 손끝의 끝부분에 대응하기 때문에, 다기능 디바이스(100)는 이러한 접촉이 사전 결정된 운지법 기준을 충족시킨다고 결정하고 적절하게 조율된 "E3" 톤에 대응하는 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시킨다. 다기능 디바이스(100)는 일부 실시예들에 따라, 터치 스크린(112) 상에 별(3218)을 표시함으로써 음을 연주하기 위해 사용된 운지법이 바람직한 운지법이었음을 나타내는 시각적 피드백을 또한 제공한다.32K, the multifunction device 100 detects contact 3225 at a location on the touch screen 112 corresponding to an indication of an activatable "E3" key 3202-5 of the music keyboard 3201 do. Because the fingerprint pattern of the contact 3225 of Figure 32k corresponds to the end of the user's left handed stop (LM) fingertip, the multifunction device 100 determines that such contact meets a predetermined fingering criterion, E3 "tone of the audio output 3208 having a frequency of 164.81 Hz. The multifunction device 100 also provides visual feedback indicating that the fingering used to play the note by displaying the star 3218 on the touch screen 112 was a preferred fingering, in accordance with some embodiments.

도 32l은 사용자의 손가락의 끝부분이 키를 활성화하기 위해 사용된다는 기준을 포함하는 바람직한 운지법 기준이 충족되지 않은 실시예를 도시한다. 다기능 디바이스(100)는 도 32l의 음악 키보드(3201) 상의 "E3" 키(3202-5)의 표시에 대응하는 위치에서 터치 스크린(112) 상의 접촉(3227)을 검출한다. 접촉의 지문 패턴이 사용자의 왼손 중지(LM) 손끝의 바닥살에 대응하기 때문에 도 32f의 접촉(3227)이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 바람직한 운지법이 사용되지 않았음을 나타내는 시각적 피드백을 제공하는 커다란"X"(3206)를 터치 스크린(112) 상에 표시한다.Figure 321 illustrates an embodiment in which the preferred fingering criteria are not met, including a criterion that the end of the user's finger is used to activate the key. The multifunction device 100 detects the contact 3227 on the touch screen 112 at a position corresponding to the indication of the "E3" key 3202-5 on the music keyboard 3201 of FIG. Depending on the determination that the contact 3227 of Figure 32f does not meet the desired fingering criteria because the fingerprint pattern of the contact corresponds to the flesh of the user's left handed stop (LM) fingertip, the multifunction device 100 may not use the preferred fingering Quot; X "3206 on the touch screen 112 that provides visual feedback indicating that it is not.

도 32m 내지 도 32p는 바람직한 운지법 기준이 사용자가 음악 키보드의 에지를 향해 뒤로 이동하는 손가락 움직임으로 음악 키를 활성화한다는 기준을 추가로 포함하는 다양한 실시예를 도시한다.Figures 32m through 32p illustrate various embodiments further including a criterion in which the preferred fingering criterion activates the music keys with finger movements in which the user moves back towards the edge of the music keyboard.

도 32m 및 도 32n에 도시된 바와 같이, 다기능 디바이스(100)는 음악 키보드(3201)의 활성화 가능한 "E3" 키(3202-5)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3228)을 검출한다. 접촉(3228)의 지문 패턴이 도 32m의 터치 스크린(112) 상의 위치(3228-a)로부터 도 32n의 터치 스크린(112) 상의 위치(3228-b)로의 접촉(3228)의 이동(3220)을 포함하기 때문에, 다기능 디바이스(100)는 접촉이 사전 결정된 운지법 기준을 충족시킨다고 결정하며, 그 응답으로, 적절하게 조율된 "E3" 톤에 대응하는 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시킨다. 다기능 디바이스(100)는 일부 실시예들에 따라서, 도 32n의 터치 스크린(112) 상에 별(3218)을 표시함으로써 음을 연주하기 위해 사용된 운지법이 바람직한 운지법이었음을 나타내는 시각적 피드백을 또한 제공한다. 도 32m 및 도 32n의 접촉(3228)의 지문 패턴은 또한 사용자의 왼손 중지(LM) 손끝의 끝부분에 대응하며, 이는 일부 실시예들에 따른 바람직한 운지법 기준에 추가로 부합한다.The multifunction device 100 is in contact with a touch 322 at a location on the touch screen 112 corresponding to an indication of an activatable "E3" key 3202-5 of the music keyboard 3201, as shown in Figures 32M and 32N. ). The fingerprint pattern of the contact 3228 moves from the position 3228-a on the touch screen 112 of Figure 32m to the movement 3220 of the contact 3228 from the position 3228-b on the touch screen 112 of Figure 32n The multifunction device 100 determines that the contact meets a predetermined fingering criterion and in response sends an audio output 3208 having a frequency of 164.81 Hz corresponding to the appropriately tuned "E3" (111). The multifunction device 100 also provides visual feedback indicating that the fingering used to play the note by displaying the star 3218 on the touch screen 112 of Figure 32n was a preferred fingering, in accordance with some embodiments . The fingerprint pattern of the contact 3228 of Figures 32m and 32n also corresponds to the end of the user's left handed stop (LM) fingertip, which further conforms to the preferred fingering standard according to some embodiments.

도 32o 및 도 32p에 도시된 바와 같이, 다기능 디바이스(100)는 음악 키보드(3201)의 활성화 가능한 "E3" 키(3202-5)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3229)을 검출한다. 도 32o 및 도 32p의 접촉(3229)의 지문 패턴이 도 32o의 터치 스크린(112) 상의 위치(3229-a)로부터 도 32p의 터치 스크린(112) 상의 위치(3229-b)로의 접촉(3229)의 이동(3230)을 포함하기 때문에, 다기능 디바이스(100)는 접촉이 사전 결정된 운지법 기준을 충족시키지 않는다고 결정하며, 그 응답으로, 도 32p의 터치 스크린(112) 상에 커다란 "X"(3206)를 표시함으로써 음을 연주하기 위해 사용된 운지법이 바람직하지 않음을 나타내는 시각적 피드백을 제공한다.As shown in Figures 32O and 32P, the multifunction device 100 is in contact 3229 at a location on the touch screen 112 corresponding to an indication of an activatable "E3" key 3202-5 of the music keyboard 3201. [ ). The fingerprint pattern of the contact 3229 of Figure 32O and Figure 32P touches the contact 3229 from position 3229-a on the touch screen 112 of Figure 32O to position 3229-b on the touch screen 112 of Figure 32P. The multifunction device 100 determines that the contact does not meet a predetermined fingering criterion and in response replaces the large "X" 3206 on the touch screen 112 of Figure 32P, To provide visual feedback indicating that the fingering method used to play the note is undesirable.

도 32q 내지 도 32s는 다기능 디바이스(100)가 문자 입력 키보드 상의 활성화 가능한 문자 입력 키의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉의 지문 패턴을 검출하고, 지문 패턴의 하나 이상의 특징들에 기초하여 터치 스크린(112) 상에 접촉하기 위해 사용된 운지법이 바람직한 운지법 기준을 충족하지 않는다면 사용자에게 피드백을 제공하고, 접촉하기 위해 사용된 운지법이 바람직한 운지법 기준을 충족시킨다면 문자(예를 들어, "c"(3232-27))를 입력하는 다양한 실시예들을 도시한다. 바람직한 운지법은 적어도 사용자가 자신의 왼손 중지로 "C" 키(3232-27)에 접촉한다는 기준을 포함한다.Figures 32q-32s illustrate how a multifunction device 100 may detect a fingerprint pattern of touches at a location on the touch screen 112 corresponding to a display of an activatable character input key on a character entry keyboard, If the fingering used to contact on the touch screen 112 based on does not meet the desired fingering criterion, then it provides feedback to the user and if the fingering used to contact meets the desired fingering criterion, the character (e.g., " c "3232-27). The preferred fingering method includes a criterion that at least the user touches the "C" key 3232-27 with his left hand stop.

도 32q에서, 다기능 디바이스(100)는 문자 입력 키(3232-27)(예를 들어, "C" 키)의 표시에 대응하는 위치에서 터치 스크린(112) 상의 접촉(3234)을 검출한다. 다기능 디바이스(100)는 적어도 접촉에 대응하는 사용자 손가락의 아이덴티티를 결정하기 위해 도 32q의 접촉(3234)의 지문 패턴을 분석한다.In Fig. 32q, the multifunction device 100 detects a contact 3234 on the touch screen 112 at a position corresponding to a representation of a character input key 3232-27 (e.g., a "C" key). The multifunction device 100 analyzes the fingerprint pattern of the contact 3234 of Figure 32q to determine the identity of the user's finger at least corresponding to the contact.

일부 실시예들에서, 도 32r에 도시된 바와 같이, 다기능 디바이스(100)가 도 32r의 접촉(3236)의 지문 패턴이 사용자의 왼손 검지(LI)에 대응한다고 결정하기 때문에 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키지 않는다. 그 응답으로, 다기능 디바이스(100)는 터치 스크린(112) 상에 커다란 "X"(3206)를 표시하여 사용자가 바람직한 운지법을 사용하지 않았다는 시각적 피드백을 제공한다. 일부 실시예들에 따르면, 도 32r에서 접촉(3236)을 검출하는 것에 응답하여, 다기능 디바이스(100)는 텍스트 박스(3224) 내에 문자"C"(3226-53)를 또한 표시한다.In some embodiments, since the multifunction device 100 determines that the fingerprint pattern of the contact 3236 of Figure 32r corresponds to the user's left hand detection (LI), as shown in Figure 32r, Does not meet the criteria. In response, the multifunction device 100 displays a large "X" 3206 on the touch screen 112 to provide visual feedback that the user has not used the preferred fingering. According to some embodiments, in response to detecting the contact 3236 in Figure 32r, the multifunction device 100 also displays the letter "C" 3226-53 in the text box 3224.

일부 실시예들에서, 도 32s에 도시된 바와 같이, 다기능 디바이스(100)가 도 32s의 접촉(3238)의 지문 패턴이 사용자의 왼손 중지(LM)에 대응한다고 결정하기 때문에, 접촉이 미리 정해진 바람직한 운지법 기준을 충족시킨다. 그 응답으로, 다기능 디바이스(100)가 텍스트 박스(3224) 내에 문자 "c"(3226-53)를 표시한다. 일부 실시예들에서, 문자 입력 키를 활성화하는 접촉이 바람직한 운지법 기준을 충족시키지 않을 때, 디바이스는 문자 입력 키에 대응하는 문자를 입력하지 않는다(예를 들어, 디바이스는 바람직하지 않은 손가락을 이용한 문자 입력 키의 선택을 키를 활성화하는 데에 실패한 것으로서 처리하고, 대신 사용자가 문자를 입력하도록 문자 입력 키를 활성화하기 위해서 바람직한 손가락을 사용할 것을 요구함).In some embodiments, since the multifunction device 100 determines that the fingerprint pattern of the contact 3238 of Figure 32s corresponds to the user's left hand stop (LM), as shown in Figure 32s, Fingerprint standards are met. In response, the multifunction device 100 displays the character "c" 3226-53 in the text box 3224. In some embodiments, when a contact activating a character entry key does not meet a preferred fingering criterion, the device does not input the character corresponding to the character entry key (e.g., the device uses a character with an undesirable finger Processing the selection of the input key as failing to activate the key and instead using the desired finger to activate the character input key so that the user can enter the character).

도 33a 내지 도 33c는 일부 실시예들에 따른, 적절한 운지법 기술에 대해 사용자를 훈련시키는 방법(3300)을 예시하는 흐름도이다. 방법(3300)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3300) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.33A-33C are flow charts illustrating a method 3300 of training a user for appropriate fingering techniques, in accordance with some embodiments. The method 3300 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 3300 are optionally combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(3300)은 적절한 운지법 기술들에 대해 사용자를 훈련시키기 위한 직관적인 방식을 제공한다. 이 방법은 적절한 운지법 기술들을 학습할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 적절한 운지법 기술들을 더 빠르고 더 효율적으로 학습할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 3300 provides an intuitive way to train a user for appropriate fingering techniques. This method reduces the cognitive burden on the user when learning proper fingering techniques, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, enabling the user to learn proper fingerprinting techniques faster and more efficiently preserves power and increases the time between battery charges.

일부 실시예들에서, 터치-감응 표면(예를 들어, 도 32a 내지 도 32s의 터치 스크린(112)) 및 디스플레이(예를 들어, 도 32a 내지 도 32s의 터치 스크린(112))를 갖는 전자 디바이스(예를 들어, 도 32a 내지 도 32s의 다기능 디바이스(100))가 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 키보드(3201)의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 QWERTY 문자 입력 키보드(3222)의 문자 "C" 입력 키(3232-27))를 포함하는 사용자 인터페이스(예를 들어, 도 32a 내지 도 32s 내의 사용자 인터페이스(3200))를 표시한다(3302). 일부 실시예들에서, 사용자 인터페이스는 복수의 활성화 가능한 사용자 인터페이스 객체들(예를 들어, 활성화될 수 있는 복수의 사용자 인터페이스 객체들)을 포함한다. 예를 들어, 사용자 인터페이스(3200)는 도 32a 내지 도 32p의 음악 키보드(3201)의 복수의 활성화 가능한 음악 키(3202-1 내지 3202-24)들을 표시하고, 사용자 인터페이스(3240)는 도 32q 내지 도 32s의 QWERTY 문자 입력 키보드(3222)의 복수의 활성화 가능한 문자 입력 키(3232-1 내지 3232-41)들을 표시한다.In some embodiments, an electronic device (e.g., a touch screen) having a touch-sensitive surface (e.g., touch screen 112 of Figures 32A-32S) and a display (e.g., touch screen 112 of Figures 32A- (E.g., multifunction device 100 of FIGS. 32A-32S) is associated with each activatable user interface object (e.g., the music "E3" key 3202- (E.g., a user interface (e.g., a user interface in Fig. 32A-32S) that includes a character input key 3232-27 of the QWERTY character input keyboard 3222 of Fig. 32 3200)) (3302). In some embodiments, the user interface includes a plurality of activatable user interface objects (e.g., a plurality of user interface objects that can be activated). For example, the user interface 3200 displays a plurality of activatable music keys 3202-1 through 3202-24 of the music keyboard 3201 of FIGS. 32A through 32P, A plurality of activatable character input keys 3232-1 to 3232-41 of the QWERTY character input keyboard 3222 of FIG. 32S are displayed.

일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 활성화 가능한 음악 키 "E3")는 음악 키보드(예를 들어, 도 32a 내지 도 32p의 음악 키보드(3201)와 같은 가상의 피아노 키보드)의 표현에서의 키들(예를 들어, 도 32a 내지 도 32p의 활성화 가능한 음악 키(3202-1 내지 3202-24)들)에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다(3304).In some embodiments, each activatable user interface object (e.g., an activatable music key "E3" in Figures 32A-32P) is associated with a music keyboard (e.g., a music keyboard 3201 A plurality of activatable user interface objects corresponding to keys in the representation of the virtual keyboard (e.g., virtual piano keyboards such as keyboards) (e.g., activatable music keys 3202-1 through 3202-24 of Figures 32A through 32P) (3304).

일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32q 내지 도 32s의 활성화 가능한 문자 "C" 입력 키(3232-27))는 문자 입력 키보드(예를 들어, 도 32q 내지 도 32s의 QWERTY 키보드(3222)와 같은 가상의 텍스트 키보드)의 표현에서의 키들(예를 들어, 활성화 가능한 문자 입력 키(3232-1 내지 3232-41)들)에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다(3306).In some embodiments, each activatable user interface object (e.g., activatable character "C" input key 3232-27 in Figures 32q-32s) Corresponding to the keys (e.g., activatable character input keys 3232-1 through 3232-41) in the representation of a virtual keyboard (e.g., a virtual text keyboard such as the QWERTY keyboard 3222 of Figure 32s) Objects (3306).

전자 디바이스(예를 들어, 다기능 디바이스(100))는 디스플레이(예를 들어, 터치 스크린(112)) 상의 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 키 "E3"(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27)) 위에 있는 포커스 셀렉터(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))에 대응하는 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴을 터치-감응 표면(예를 들어, 터치 스크린(112)) 상에서 검출한다(3308). 일부 실시예들에서, 도 32a 내지 도 32s에 도시된 바와 같이, 디바이스는 각자의 활성화 가능한 사용자 인터페이스 객체 위에서 터치스크린 디스플레이 상의 접촉을 검출한다. 일부 실시예들에서, 디바이스는 포커스 셀렉터를 표시하는 연관된 디스플레이 상의 위치에 대응하는 위치에서, 연관된 디스플레이와는 별개인 터치-감응 표면 상의 접촉을 검출한다.The electronic device (e.g., multifunction device 100) is capable of displaying its respective activatable user interface object on the display (e.g., touch screen 112) (e.g., music key "E3" (E.g., touches 3204, 3205, 3207, 3214 in FIGS. 32A-32S) on a focus selector (e.g., keypad 3202-5 and / or keys 32q- (See, for example, contacts 3204, 3205, and 328 in FIGS. 32A-32S) corresponding to the contacts 324, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, (E.g., touch screen 112) of a fingerprint pattern of a touch screen (e.g., 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, (3308). In some embodiments, as shown in Figures 32A-32S, the device detects contact on the touch screen display on its respective activatable user interface object. In some embodiments, the device detects contact on a touch-sensitive surface that is separate from the associated display, at a location corresponding to the location on the associated display that represents the focus selector.

디스플레이(예를 들어, 터치 스크린(112)) 상의 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27)) 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 상의 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴을 검출하는 것에 응답하여(3310): 디바이스(예를 들어, 다기능 디바이스(100))는 접촉의 하나 이상의 운지법 특징들을 결정하기 위해서 터치-감응 표면(예를 들어, 터치 스크린(112)) 상의 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴을 분석하고(3312), 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 하나 이상의 운지법 특징들에 기초하여 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정한다(3314).(E.g., the music "E3" key 3202-5 of Figures 32a-32p) and / or the respective activatable user interface objects on the display (e.g., touch screen 112) (E.g., touches 3204, 3205, 3207, 3214, 3216, 3217, 3212, 3212, and 324 in Figures 32A through 32D) corresponding to the focus selector on the touch- (E.g., multifunction device 100) in response to detecting a fingerprint pattern of a fingerprint pattern (e.g., 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, (E.g., contacts 3204, 3205, 3207, 3214, 3216, 3210, 3212, 3212, and 324) on a touch-sensitive surface (e.g., touch screen 112) to determine one or more fingering features of the contact (E.g., 3212, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, and / or 3238) 322, 3229, 3234, 3236, and / or 3238) of 32s may be pre-read based on one or more fingering features (3314) whether or not it satisfies a predetermined preferred fingering standard.

일부 실시예들에서, 바람직한 운지법 기준은 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27))를 활성화하기 위해 사용된 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴에 대응하는 손가락이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 손의 미리 정해진 바람직한 손가락과 일치할 때 충족되는 기준을 포함한다(예를 들어, QWERTY 키보드 상의 "j" 키는 바람직하게는 표준 터치-타이핑 기준을 이용하여 오른손 검지에 의해 활성화되고, QWERTY 키보드 상의 "f"키는 바람직하게는 표준 터치-타이핑 기준을 이용하여 왼손 검지에 의해 활성화됨)(3316). 예를 들어, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 대응하는 지문 패턴을 갖는 접촉(3207, 3221, 3225, 3227, 및/또는 3228)에 의해 활성화될 때 도 32c, 도 32g 및 도 32j 내지 도 32n에서 충족된다. 반면에, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 사용자의 왼손 약지(LR)에 대응하는 지문 패턴을 갖는 접촉(3205 및/또는 3217)에 의해 활성화될 때 도 32b, 도 32d 내지 도 32f 및 도 32h 내지 도 32i에서 충족되지 않는다. 다른 예로서, 바람직한 운지법 기준이 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(LM)에 대응하는 지문 패턴을 갖는 접촉(3228)에 의해 활성화될 때 도 32s에서 충족된다. 반면에, 바람직한 운지법 기준이 문자 "C" 입력 키(3232-27)가 사용자의 왼손 검지(LI)에 대응하는 지문 패턴을 갖는 접촉(3236)에 의해 활성화될 때 도 32r에서 충족되지 않는다.In some embodiments, a preferred fingering criterion is a user interface object (e.g., a music "E3" key 3202-5 of Figures 32a-32p and / or a character "C" input of Figures 32q- 325, 3227, 3219, 3221, 3223, 3225, 3227, 3228 (see, for example, (E.g., 3229, 3234, 3236, and / or 3238) corresponds to a predefined preferred finger of a hand for activating an activatable user interface object , The "j" key on the QWERTY keyboard is preferably activated by the right hand detection using the standard touch-typing criteria, and the "f" key on the QWERTY keyboard is preferably activated by the left hand detection Activated) (3316). For example, if the preferred fingering criterion is a contact 3207, 3221, 3225, 3227, and / or 3228 with a fingerprint pattern corresponding to the music "E3" key 3202-5 corresponding to the user &apos; 32c, 32g and 32j to 32n when activated. On the other hand, when the preferred fingering standard is activated by the contacts 3205 and / or 3217 with the fingerprint pattern corresponding to the music "E3" key 3202-5 corresponding to the user's left hand finger LR, To 32f and 32h to 32i. As another example, a preferred fingering criterion is met in Figure 32s when the letter "C" input key 3232-27 is activated by a contact 3228 having a fingerprint pattern corresponding to the user's left hand stop (LM). On the other hand, the preferred fingering criterion is not met in Figure 32r when the letter "C" input key 3232-27 is activated by the contact 3236 having a fingerprint pattern corresponding to the user's left hand detection (LI).

일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면(예를 들어, 터치 스크린(112)) 상의 접촉(예를 들어, 도 32k 내지 도 32p의 접촉(3225, 3227, 3228, 및/또는 3229))의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32k 내지 도 32p의 음악 "E3" 키(3202-5))를 활성화하기 위해 사용되는 손가락과 활성화 가능한 사용자 인터페이스 객체가 표시되는 디스플레이(예를 들어, 터치 스크린(112)) 사이의 앙각의 초기 각도에 대응하고, 이러한 초기 각도가 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 앙각의 바람직한 초기 각도들의 미리 정해진 범위 내에 있을 때 충족되는 기준을 포함한다(예를 들어, 음악 키보드 상의 키가 바람직하게는 표준 피아노 연주 가이드라인을 이용하여 손가락의 바닥살보다는 손가락의 끝부분으로 연주됨)(3318). 예를 들어, 사용자의 손끝의 끝부분에 대응하는 지문 패턴을 갖는 접촉(3225, 3228, 및/또는 3229)에 의해 음악"E3" 키(3202-5)가 활성화될 때, 바람직한 운지법 기준이 도 32k 및 도 32m 내지 도 32p에서 충족된다. 반면에, 사용자의 손끝의 바닥살에 대응하는 지문 패턴을 갖는 접촉(3227)에 의해 음악 "E3" 키(3202-5)가 활성화될 때, 도 32l에서 바람직한 운지법 기준이 충족되지 않는다.In some embodiments, the preferred fingertip reference is a contact (e.g., contact 3225, 3227, 3228, and / or 3229 in Figures 32k-32p) on a touch- (For example, the music "E3" key 3202-5 in FIGS. 32K to 32P) in which the fingerprint pattern of the fingerprint pattern can be activated Corresponds to an initial angle of elevation angle between the elevation angle (e.g., the touch screen 112) and a reference that is met when this initial angle is within a predetermined range of elevation angles preferred for activating the activatable user interface object (E.g., the keys on the music keyboard are preferably played at the end of the finger rather than the bottom of the finger, using standard piano playing guidelines) ) (3318). For example, when the music "E3" key 3202-5 is activated by the contacts 3225, 3228, and / or 3229 having a fingerprint pattern corresponding to the end of the user's fingertip, 32k and Figures 32m to 32p. On the other hand, when the music "E3" key 3202-5 is activated by the contact 3227 having the fingerprint pattern corresponding to the flesh of the user's fingertip, the preferred fingering criterion is not met in Fig.

일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면(예를 들어, 터치 스크린(112)) 상의 접촉(예를 들어, 도 32m 내지 도 32p의 접촉(3228 및/또는 3229))의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 바람직한 움직임들의 미리 정해진 범위 내에 있는, 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32k 내지 도 32p의 음악 "E3" 키(3202-5))를 활성화하는 손가락의 움직임에 대응할 때 충족되는 기준을 포함한다(예를 들어, 음악 키보드 상의 키는 키보드를 향하기보다는 키보드의 에지를 향해 뒤로 이동하는 손가락의 끝부분으로 그리고/또는 미리 정해진 강도로 연주되어야 함)(3320). 예를 들어, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 터치 스크린(112) 상의 접촉의 초기 위치로부터 터치 스크린(112) 상에 표시된 음악 키보드(3201)의 표현의 전방 에지를 향해 뒤로 이동하는 사용자의 손끝 움직임에 대응하는 지문 패턴을 갖는 접촉(3228)에 의해 활성화될 때 도 32m 및 도 32n에서 충족된다(예를 들어, 도 32m의 위치(3228-a)로부터 도 32n의 위치(3228-b)로의 접촉(3228)의 이동(3220)). 반면에, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 터치 스크린(112) 상의 접촉의 초기 위치로부터 터치 스크린(112) 상에 표시된 음악 키보드(3201)의 표현의 전방 에지로부터 멀어지게 앞으로 이동하는 사용자의 손끝 움직임에 대응하는 지문 패턴을 갖는 접촉(3229)에 의해 활성화될 때 도 32o 및 도 32p에서 충족되지 않는다(예를 들어, 도 32o의 위치(3229-a)로부터 도 32p의 위치(3229-b)로의 접촉(3229)의 이동(3220)).In some embodiments, the preferred fingertip reference may be a fingerprint pattern of a touch on the touch-sensitive surface (e.g., touch screen 112) (e.g., contact 3228 and / or 3229 in Figures 32m- Activates a user interface object (e.g., a music "E3" key 3202-5 of Figures 32k-32p) that is within a predetermined range of desirable motions for activating this activatable user interface object (E.g., a key on a music keyboard should be played at the end of a finger that moves back toward the edge of the keyboard and / or at a predetermined intensity) rather than toward the keyboard) (e.g., 3320). For example, the preferred fingering criterion is that the music "E3" key 3202-5 is moved from the initial position of the touch on the touch screen 112 towards the front edge of the representation of the music keyboard 3201 displayed on the touch screen 112 When activated by the contact 3228 having a fingerprint pattern corresponding to the fingertip movement of the user moving backward, is satisfied in Figures 32m and 32n (e.g., from positions 3228-a in Figure 32m to positions 32n- (Movement 3220 of contact 3228 to contact 3228-b). On the other hand, the preferred fingering criterion is that the music "E3" key 3202-5 is moved away from the front edge of the representation of the music keyboard 3201 displayed on the touch screen 112 from the initial position of the touch on the touch screen 112 Is not satisfied in Fig. 32O and Fig. 32P when activated by the contact 3229 having a fingerprint pattern corresponding to the movement of the fingertip of the user moving forward (for example, from the position 3229-a of Fig. 32O to Fig. 32P (Movement 3220 of contact 3229 to position 3229-b).

접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공한다(예를 들어, 도 32b, 도 32d, 도 32h 및 도 32i, 도 32l, 도 32p, 도 32r의 터치 스크린(112) 상에 표시된 커다란 "X"(3206)와 같은 시각적 피드백; 도 32e 및 도 32i의 스피커(111)에서 발생된 161.00㎐의 주파수를 포함하는 오디오 출력(3208)과 같은 가청 피드백; 및/또는 예를 들어 도 32f의 촉각적 출력 생성기(167)에 의해 생성되는 촉각적 출력(3212)과 같은 촉각적 피드백)(3322).(E.g., the contacts 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, and 3238 of FIGS. 32A- (E.g., multifunction device 100) provides feedback indicating that the desired fingering criteria have not been met (e.g., as shown in Figures 32b, 32d, Visual feedback such as a large "X" 3206 displayed on the touch screen 112 of Figure 32h and Figure 32i, Figure 32l, Figure 32p, Figure 32r, and 161.00 Hz generated in the speaker 111 of Figures 32e and 32i (E.g., tactile feedback, such as tactile output 3212, generated by tactile output generator 167 in Figure 32F) 3322, and / or audio feedback, such as audio output 3208, .

일부 실시예들에서, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자"C" 입력 키(3232-27))와 연관된 동작(예를 들어, 음 "E3"을 연주, 또는 활성화 텍스트 박스 내에 문자 "C"를 입력)을 수행한다(3324). 따라서 일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않은 경우에도, 디바이스가 활성화 가능한 사용자 인터페이스 객체를 여전히 활성화하고, 예를 들어 키가 올바르지 않게 "눌렸다는" 시각적, 가청, 및/또는 촉각적 피드백을 제공하면서 키보드 상의 키에 대응하는 음을 연주하는 것과 같이 대응하는 동작을 수행한다. 예를 들어, 접촉(3205 및/또는 3217)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32d 및 도 32h에서 음악 "E3" 키(3202-5)의 활성화에 대응하여 (예를 들어,"E3" 톤의 진짜 주파수에 대응하는) 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시키는 동시에, 키가 바람직하지 않은 운지법을 이용하여 활성화되었다는 상이한 표지를 제공한다(예를 들어, 사용자의 왼손 검지가 음악 "E3" 키(3202-5)를 활성화하기 위해 사용되었기 때문에 도 32d 및 도 32h에서 커다란 "X"(3206)를 표시함). 다른 예시에서, 접촉(3236)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 문자 "C" 입력 키(3232-27)의 활성화에 대응하여 터치 스크린(112) 상에 표시된 텍스트 박스(3224)에 문자 "C"(3226-53)를 입력(예를 들어, 표시)하면서, 키가 바람직하지 않은 운지법을 이용하여 활성화되었다는 상이한 표지를 제공한다(예를 들어, 문자 "C" 입력 키(3232-27)를 활성화하기 위해 사용자의 왼손 검지가 사용되었기 때문에 도 32r에서 커다란 "X"(3206)를 표시함).In some embodiments, the device (e.g., the multifunction device 100) may determine that the contact does not meet the desired fingering criteria by activating the user interface object (e.g., the music " E3 "associated with the character " E3" key 3202-5 and / or the character "C" input keys 3232-27 in Figures 32q- Quot; C "is input) (3324). Thus, in some embodiments, even if a preferred fingering criterion is not met, the device still activates an activatable user interface object, and for example the visual, audible, and / or tactile feedback that the key is & Such as playing a note corresponding to a key on the keyboard, while providing a corresponding key. For example, it may be determined that contact 3205 and / or 3217 does not meet a predetermined fingering criterion including criteria that at least the music "E3" key 3202-5 is activated by the user & Accordingly, the multifunction device 100 has a frequency of 164.81 Hz corresponding to the activation of the music "E3" key 3202-5 (e.g., corresponding to the real frequency of the "E3" tone) in Figs. 32D and 32H E3 "key 3202-i, while the audio output 3208 having the" E3 " key is generated at the speaker 111 and at the same time provides a different indication that the key was activated using an undesirable fingering (e.g., X "3206 in Figures 32 (d) and 32 (h) because it has been used to activate the " X " In another example, in accordance with a determination that contact 3236 does not meet a predetermined fingering criterion including criteria that at least character "C" input key 3232-27 is activated by the user's left hand stop (FM) The device 100 enters the character "C" 3226-53 into the text box 3224 displayed on the touch screen 112 in response to activation of the character "C" input key 3232-27 (For example, because the user's left hand detection is used to activate the letter "C" input key 3232-27) Quot; X "3206 at 32r).

일부 실시예들에서, 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27))와 연관된 동작의 수행을 중지한다(예를 들어, 음 "E3"을 연주하지 않거나, 활성화 텍스트 박스 내에 문자 " C"를 입력하지 않음)(3326). 따라서, 일부 실시예들에서, 바람직한 운지법 기준이 충족되지 못한 경우에, 디바이스는 활성화 가능한 사용자 인터페이스 객체를 활성화하지 않고, 바람직한 운지법 기준이 충족되었다면 연주되었을 키보드 상의 키에 대응하는 음을 연주하는 것과 같은 대응하는 동작을 수행하지 않는다. 예를 들어, 접촉(3205 및/또는 3229)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32b 및 도 32o 및 도 32p에서와 같이 음악 "E3" 키(3202-5)의 활성화에 대응하여 (예를 들어, "E3" 톤의 진짜 주파수에 대응하는) 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시키는 것을 중지한다.In some embodiments, contacts (e.g., contacts 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, (E.g., the music "E3 " in Figures 32A-32P), the device (e.g., multifunction device 100) Quot; key 3202-5 and / or the character "C" input key 3232-27 in Figures 32q-32s) (e.g., Do not enter the letter "C" in the activation text box) (3326). Thus, in some embodiments, if the preferred fingering criterion is not met, the device does not activate an activatable user interface object, but rather plays a note corresponding to a key on the keyboard that would have been played if the desired fingering criteria were met And does not perform a corresponding operation. For example, the contact 3205 and / or 3229 may determine that at least the music "E3" key 3202-5 does not meet a predetermined fingering criterion including a criterion that is activated by the user & Accordingly, the multifunction device 100 is enabled to respond to activation of the music "E3" key 3202-5 (e.g., corresponding to the real frequency of the "E3" tone) And stops generating the audio output 3208 having a frequency of 164.81 Hz in the speaker 111. [

일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디바이스에 의해 발생되는 가청 피드백을 포함한다(예를 들어, 스피커들이 음악 키보드 상의 음을 연주하기 위한 운지법 기준이 충족되지 않았을 때 마치 음악 키보드가 올바르지 않게 연주된 것과 같이 경고 소리를 연주하거나 "벗어난" 음을 연주함)(3328). 예를 들어, 접촉(3205 및/또는 3217)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 스피커(111)에서 (예를 들어, 벗어난 "E3" 톤에 대응하는) 161.00㎐의 주파수를 포함하는 오디오 출력(3208)을 발생시키는데, 이는 사용자에게 도 32e 및 도 32i에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 손가락이 사용되지 않았음을 나타낸다. 일부 실시예들에서, 가청 피드백은 바람직한 운지법이 사용되지 않았음을 나타내기 위해서 오디오 출력의 주파수를 변경하는 대신 또는 그에 더하여 대응하는 음의 음량, 울림 또는 다른 가청 특성을 변경하는 것을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not met includes audible feedback generated by the device (e.g., when the fingering criteria for playing the notes on the music keyboard are not met (3328) Playing a warning sound or playing an "off" sound just as if the music keyboard were played improperly. For example, it may be determined that contact 3205 and / or 3217 does not meet a predetermined fingering criterion including criteria that at least the music "E3" key 3202-5 is activated by the user's left hand stop (LM) Accordingly, the multifunction device 100 generates an audio output 3208 that includes a frequency of 161.00 Hz (e.g., corresponding to an "E3" tone off) in the speaker 111, Indicates that the desired finger has not been used to activate the music "E3" key 3202-5 in 32i. In some embodiments, the audible feedback includes changing the corresponding volume, ringing, or other audible characteristic of the corresponding sound instead of or in addition to changing the frequency of the audio output to indicate that the desired fingering has not been used.

일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디스플레이 상에 표시된 시각적 피드백(예를 들어, 디바이스 플래시들의 표시 또는 접촉 부근의 강조 표시)을 포함한다(3330). 예를 들어, 접촉(3205, 3217, 3227, 및/또는 3229)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32b, 도 32d, 도 32h 및 도32i, 도 32l 및 도 32p에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 손가락이 사용되지 않았음을 나타내는 커다란 "X"(3206)를 터치 스크린(112) 상에 표시한다. 다른 예에서, 접촉(3236)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32r에서 문자 "C" 입력 키(3232-27)를 활성화하기 위해 바람직하지 않은 운지법이 사용되었음을 사용자에게 나타내는 커다란 "X"(3206)를 터치 스크린(112) 상에 표시한다.In some embodiments, the feedback indicating that a preferred fingering criterion is not satisfied includes (3330) visual feedback displayed on the display (e.g., an indication of device flashes or highlighting near the contact). For example, if a contact (3205, 3217, 3227, and / or 3229) has a predetermined fingering criterion including a criterion that at least the music "E3" key 3202-5 is activated by the user's left hand pause (LM) The multifunction device 100 does not use the preferred finger to activate the music "E3" key 3202-5 in Figures 32b, 32d, 32h and 32i, 321 and 32p Quot; X "3206 on the touch screen 112 indicating that it is not. In another example, in accordance with a determination that contact 3236 does not meet a predetermined fingering criterion including criteria that at least character "C" input key 3232-27 is activated by the user's left hand stop (FM) The device 100 displays on the touch screen 112 a large "X" 3206 indicating to the user that an undesired fingerprint has been used to activate the character "C" input key 3232-27 in Figure 32R .

일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디바이스에 의해 생성되는 촉각적 피드백을 포함한다(예를 들어, 디바이스는 웅웅거리거나, 사용자의 운지법이 올바르지 않음을 나타내는 일부 다른 촉각적 출력을 제공함)(3332). 예를 들어, 도 32f의 접촉(3205)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 (예를 들어, 촉각적 출력 생성기(167)를 이용하여) 도 32f에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 손가락이 사용되지 않았음을 나타내는 촉각적 출력(3212)을 생성한다.In some embodiments, feedback indicating that a preferred fingering criterion has not been met includes tactile feedback generated by the device (e.g., the device may be distracted, or some other different indication that the user's fingering is incorrect) Providing a tactile output) 3332. For example, in accordance with the determination that contact 3205 in FIG. 32F does not meet a predetermined fingering criterion that includes a criterion that at least the music "E3" key 3202-5 is activated by the user's left hand stop (LM) , The multifunction device 100 may use the tactile sense to indicate that the preferred finger is not used to activate the music "E3" key 3202-5 in Figure 32F (e.g., using the tactile output generator 167) Quot; output &quot;

접촉(예를 들어, 도 32a 내지 도 32s의 접촉 (3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27))와 연관된 동작을 수행한다(3334). 예를 들어, 디바이스는 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하지 않고 활성화 가능한 사용자 인터페이스 객체를 활성화한다. 예를 들어, 접촉(3207, 3221, 3225, 및/또는 3228)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32c, 도 32g, 도 32j 및 도 32k 및 도 32m 및 도 32n에서 음악 "E3" 키(3202-5)의 활성화에 대응하여 (예를 들어, "E3" 톤의 진짜 주파수에 대응하는) 164.81㎐의 주파수를 포함하는 오디오 출력(3208)을 스피커(111)에서 생성한다. 다른 예에서, 접촉(3238)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32s에서 문자 "C" 입력 키(3232-27)의 활성화에 대응하여 터치 스크린(112) 상에 표시된 텍스트 박스(3224)에 문자 "C"(3226-53)를 입력(예를 들어, 표시)한다.(E.g., the contacts 3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, and 3238 of FIGS. 32A- (E.g., multifunction device 100) may be configured to activate the user interface object (e.g., the music "E3" key 3202-5 of FIGS. 32A-32P), in response to a determination that this preferred fingering criterion is met. And / or the letter "C" input key 3232-27 in Figures 32q-32s). For example, the device activates an activatable user interface object without providing feedback indicating that a preferred fingering criterion has not been met. For example, if the contact 3207, 3221, 3225, and / or 3228 has a predetermined fingering criterion including criteria that at least the music "E3" key 3202-5 is activated by the user's left hand stop (LM) The multifunction device 100 may respond to activation of the music "E3 " key 3202-5 (e.g., in response to activation of the music " E3" key 3202-5 in Figures 32C, 32G, 32J and 32K and 32M and 32N, In the speaker 111, an audio output 3208 containing a frequency of 164.81 Hz (corresponding to the real frequency of the "E3" tone). In another example, in accordance with a determination that contact 3238 meets a predetermined fingering criterion that includes a criterion that at least the character "C" input key 3232-27 is activated by the user's left hand stop (FM) C "3226-53 to text box 3224 displayed on touch screen 112 in response to the activation of character" C "input key 3232-27 in Figure 32S For example).

일부 실시예들에서, 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 바람직한 운지법 기준이 충족되었음을 나타내는 피드백(예를 들어, 시각적, 가청, 및/또는 촉각적 피드백)을 제공한다(3336). 예를 들어, 도 32g, 도 32j 및 도 32k 및 도 32n에서 접촉(3207, 3221, 3225, 및/또는 3228)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32g, 도 32j 및 도 32k 및 도 32n에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 운지법이 사용되었음을 사용자에게 나타내는 별(3218)을 터치 스크린(112) 상에 표시한다. 다른 예에서, 도 32s에서 접촉(3228)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32s에서 문자 "C" 입력 키(3232-27)를 활성화하기 위해 바람직한 운지법이 사용되었음을 사용자에게 나타내는 별(3218)을 터치 스크린(112) 상에 표시한다.In some embodiments, the device (e.g., multifunction device 100) receives feedback (e.g., visual, audible, and / or audible) indicating that the desired fingering criteria has been met, in accordance with the determination that the contact meets the preferred fingering criteria Or tactile feedback) (3336). For example, at least the music "E3" key 3202-5 is in contact with the left hand stop (LM) of the user when the contacts 3207, 3221, 3225 and / or 3228 in Figures 32g, 32j and 32k and 32n , The multifunction device 100 is configured to activate the music "E3" key 3202-5 in Figures 32g, 32j, and 32k and 32n in accordance with a decision to meet a predetermined fingering criterion, And displays on the touch screen 112 a star 3218 indicating to the user that the preferred fingering method has been used. In another example, in accordance with a determination that contact 3228 in FIG. 32S meets a predetermined fingering criterion including criteria that at least character "C" input key 3232-27 is activated by the user's left hand stop (LM) , The multifunction device 100 displays on the touch screen 112 a star 3218 indicating to the user that the preferred fingering has been used to activate the letter "C" input key 3232-27 in Fig. 32S.

도 33a 내지 도 33c의 동작들이 기술된 특정 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 33a 내지 도 33c와 관련하여 전술된 방법(3300)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3300)과 관련하여 전술된 지문들, 접촉들, 사용자 인터페이스 객체들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 사용자 인터페이스 객체들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 33A-33C are described is exemplary only, and that the sequences described are not intended to represent that they are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 3300 described above in connection with 33c is also applicable in a similar manner. For example, the fingerprints, contacts, user interface objects, and focus selectors described above in connection with method 3300 may optionally be combined with other methods described herein (e.g., " Contacts, user interface objects, and focus selectors described herein in connection with the methods listed in the second paragraph of " For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 34는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(3400)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 34에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 34 illustrates a functional block diagram of an electronic device 3400 configured in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It is understood by those skilled in the art that the functional blocks depicted in Figure 34 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 34에 도시된 바와 같이, 전자 디바이스(3400)는 그래픽 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(3402), 사용자 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(3404), 선택적으로 지문 센서 유닛(3405), 가청 피드백을 제공하기 위한 가청 피드백 유닛(3406) 및 촉각적 피드백을 제공하기 위한 촉각적 피드백 유닛(3407)과; 디스플레이 유닛(3402), 터치-감응 표면 유닛(3404), 및 선택적으로 지문 센서 유닛(3405), 가청 피드백 유닛(3406) 및 촉각적 피드백 유닛(3407)에 결합된 프로세싱 유닛(3408)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(3408)은 디스플레이 인에이블링 유닛(3410), 검출 유닛(3412), 분석 유닛(3414), 결정 유닛(3416), 피드백 제공 유닛(3418) 및 수행 유닛(3420)을 포함한다.34, the electronic device 3400 includes a display unit 3402 configured to display a graphical user interface, a touch-sensitive surface unit 3404 configured to receive user contacts, optionally a fingerprint sensor unit 3405, An audible feedback unit 3406 for providing audible feedback, and a tactual feedback unit 3407 for providing tactual feedback; A display unit 3402, a touch-sensitive surface unit 3404 and optionally a processing unit 3408 coupled to a fingerprint sensor unit 3405, an audible feedback unit 3406 and a tactile feedback unit 3407 . In some embodiments, the processing unit 3408 includes a display enabling unit 3410, a detecting unit 3412, an analyzing unit 3414, a determining unit 3416, a feedback providing unit 3418 and a performing unit 3420 ).

프로세싱 유닛(3408)은 (예를 들어, 디스플레이 인에이블링 유닛(3410)을 이용하여) 각각의 활성화 가능한 사용자 인터페이스 객체를 포함하는 사용자 인터페이스의 표시를 가능하게 하고, (예를 들어, 검출 유닛(3412)을 이용하여) 디스플레이 유닛(3402) 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛(3402) 상의 접촉의 지문 패턴을 검출하도록 구성된다. 프로세싱 유닛(3408)은 또한, 디스플레이 유닛(3402) 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛(3402) 상의 접촉의 지문 패턴을 검출하는 것에 응답하여, (예를 들어, 분석 유닛(3414)을 이용하여) 접촉의 하나 이상의 운지법 특징들을 결정하기 위해 터치-감응 표면 유닛(3404) 상의 접촉의 지문 패턴을 분석하고, (예를 들어, 결정 유닛(3416)을 이용하여) 하나 이상의 운지법 특징들에 기초해 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정하도록 구성된다. 프로세싱 유닛(3408)은, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 피드백 제공 유닛(3418)을 이용하여) 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하도록 추가로 구성된다. 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, (예를 들어, 수행 유닛(3420)을 이용하여) 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하도록 추가로 구성된다.The processing unit 3408 enables the display of a user interface including each activatable user interface object (e.g., using the display enabling unit 3410) Sensitive surface unit 3402 corresponding to the focus selector on each of the activatable user interface objects on the display unit 3402 (using the touch-sensitive surface unit 3402). The processing unit 3408 is also responsive to detecting a fingerprint pattern of a touch on the touch-sensitive surface unit 3402 corresponding to a focus selector on the respective activatable user interface object on the display unit 3402, (E.g., using analysis unit 3414) to analyze one or more fingertip features of the touch on touch-sensitive surface unit 3404 to determine one or more fingertip features of the touch (e.g., using decision unit 3416) To determine whether the contact meets a predetermined preferred fingering criterion based on the one or more fingering features. Processing unit 3408 may be further adapted to provide feedback indicating that the preferred fingering criteria have not been met (e.g., using feedback providing unit 3418), in accordance with the determination that the contact does not meet the desired fingering criteria . The processing unit 3408 is further configured to perform an action associated with an activatable user interface object (e.g., using the execution unit 3420) in accordance with a determination that the contact meets the desired fingering criteria.

일부 실시예들에서, 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 수행 유닛(3420)을 이용하여) 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하도록 추가로 구성된다.In some embodiments, processing unit 3408 may be configured to perform an action associated with an activatable user interface object (e.g., using execution unit 3420) in accordance with a determination that the contact does not meet the desired fingering criteria .

일부 실시예들에서, 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 수행 유닛(3420)을 이용하여) 활성화 가능한 사용자 인터페이스 객체와 연관된 동작의 수행을 중지하도록 추가로 구성된다.In some embodiments, processing unit 3408 may perform an action associated with an activatable user interface object (e.g., using execution unit 3420) in accordance with a determination that the contact does not meet the desired fingering criteria Lt; / RTI &gt;

일부 실시예들에서, 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, (예를 들어, 피드백 제공 유닛(3418)을 이용하여) 바람직한 운지법 기준이 충족되었음을 나타내는 피드백을 제공하도록 추가로 구성된다.In some embodiments, the processing unit 3408 may be configured to provide feedback indicating that the preferred fingering criteria have been met (e.g., using the feedback providing unit 3418), in accordance with the determination that the contact meets the desired fingering criteria .

일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체는 음악 키보드의 표현 내의 키들에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다.In some embodiments, each activatable user interface object is one of a plurality of activatable user interface objects corresponding to keys in a representation of a music keyboard.

일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체는 문자 입력 키보드의 표현 내의 키들에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다.In some embodiments, each activatable user interface object is one of a plurality of activatable user interface objects corresponding to keys in the representation of the character input keyboard.

일부 실시예들에서, 바람직한 운지법 기준은 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위해 사용된 접촉의 지문 패턴에 대응하는 손가락이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 손의 미리 정해진 바람직한 손가락과 부합할 때 충족되는 기준을 포함한다.In some embodiments, a preferred fingering criterion is met when a finger corresponding to a fingerprint pattern of a contact used to activate an activatable user interface object matches a predefined preferred finger of a hand for activating an activatable user interface object .

일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면 유닛 상의 접촉의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위해 사용되는 손가락과 활성화 가능한 사용자 인터페이스 객체가 표시되는 디스플레이 유닛(3402) 사이의 앙각의 초기 각도에 대응하고, 이러한 초기 각도가 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 앙각의 바람직한 초기 각도들의 미리 정해진 범위 내에 있을 때 충족되는 기준을 포함한다.In some embodiments, the preferred fingering criterion is that the fingerprint pattern of the contact on the touch-sensitive surface unit has an elevation angle between the finger used for activating the activatable user interface object and the display unit 3402 for displaying the activatable user interface object And includes a criterion that is met when this initial angle is within a predetermined range of preferred initial angles of elevation angle for activating an activatable user interface object.

일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면 유닛(3404) 상의 접촉의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체를 활성화하고 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 미리 정해진 움직임들의 미리 정해진 범위 내에 있는 손가락의 움직임에 대응할 때 충족되는 기준을 포함한다.In some embodiments, the preferred fingering criterion is that the fingerprint pattern of the touch on the touch-sensitive surface unit 3404 is within a predetermined range of predetermined motions for activating the activatable user interface object and activating the activatable user interface object And includes criteria that are met when responding to finger movements.

일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 (예를 들어, 가청 피드백 유닛(3406)을 이용하여) 디바이스(3400)에 의해 발생되는 가청 피드백을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not met includes audible feedback generated by device 3400 (e.g., using audible feedback unit 3406).

일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디스플레이 유닛(3402) 상에 표시되는 시각적 피드백을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not satisfied includes visual feedback displayed on the display unit 3402. [

일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 (예를 들어, 촉각적 피드백 유닛(3407)을 이용하여) 디바이스(3400)에 의해 생성되는 촉각적 피드백을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not satisfied includes tactile feedback generated by device 3400 (e.g., using tactile feedback unit 3407).

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 33a 내지 도 33c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 34에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 표시 동작(3302), 검출 동작(3308), 분석 동작(3312), 결정 동작(3314), 피드백 제공 동작(3322, 3336)들, 수행 동작(3324, 3334)들 및 중지 동작(3326)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with FIGS. 33A-33C are optionally implemented by the components shown in FIGS. 1A and 1B or FIG. For example, the display operation 3302, the detection operation 3308, the analysis operation 3312, the decision operation 3314, the feedback providing operations 3322 and 3336, the performing operations 3324 and 3334, 3326 are optionally implemented by the event classifier 170, the event recognizer 180, and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기Operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation

많은 전자 디바이스들은 로그인을 해야 하는 애플리케이션들 또는 개인 콘텐트에 액세스하는 애플리케이션들과 같이 아이덴티티 인증을 이용하는 애플리케이션들을 구비한다. 아이덴티티 인증 방법은 지문 검출 및 검증이다. 디바이스는 지문들을 검출하기에 충분한 감도의 터치-감응 표면을 포함할 수 있다. 그러나, 이러한 터치-감응 표면들은 더 많은 전력을 소비하며, 디바이스가 배터리로 구동되는 경우, 충전들 사이의 시간을 감소시킨다. 아래에서 기술되는 실시예들은 지문들을 검출하기에 충분한 감도 향상된 모드 또는 감도 감소된 모드에서 동작될 수 있는 구역들로 세분화될 수 있는 터치-감응 표면을 구비하는 디바이스를 포함한다. 하나 이상의 기준들이 충족되면 터치-감응 표면의 일정 구역이 감도 향상된 모드에서 동작되고, 그렇지 않으면 감도 감소된 모드에서 동작된다. 이는 터치-감응 표면 상의 일부분들의 감도를 필요로 하는 바를 기준으로 강화시킨다. 필요로 하는 바를 기준으로 터치-감응 표면의 일부분들을 감도 향상된 모드에서 동작시킴으로써, 디바이스가 지문 검출을 할 수 있게 유지되는 동안에 전력 소비가 감소됨으로써, 배터리 전력을 보존하는 편리하고 효율적인 사용자 인터페이스를 제공한다.Many electronic devices have applications that use identity authentication, such as applications that need to log in or access personal content. The identity authentication method is fingerprint detection and verification. The device may include a touch-sensitive surface of sufficient sensitivity to detect fingerprints. However, these touch-sensitive surfaces consume more power and reduce the time between charges when the device is powered by a battery. Embodiments described below include a device with a touch-sensitive surface that can be subdivided into zones that can be operated in a sensitivity-enhanced mode or a sensitivity-reduced mode sufficient to detect fingerprints. When one or more criteria are met, a certain area of the touch-sensitive surface is operated in a sensitivity enhanced mode, otherwise in a reduced sensitivity mode. This enhances the sensitivity of the portions on the touch-sensitive surface based on what needs to be done. By operating portions of the touch-sensitive surface in a sensitivity-enhanced mode based on what is needed, power consumption is reduced while the device remains capable of fingerprint detection, thereby providing a convenient and efficient user interface that conserves battery power do.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 35a 내지 도 35j 및 도 36a 및 도 36b와 관련하여 아래에서 기술되는 디바이스는 선택적으로 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 35a 내지 도 35j 및 도 36a 및 도 36b와 관련하여 기술되는 실시예들은 터치 스크린(112)과 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 선택적으로 하나 이상의 지문 센서(169)들을 갖는 디바이스 상에서, 도 35a 내지 도 35j에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 터치-감응 표면(451) 상에서 도 35a 내지 도 35j에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The devices described below in connection with FIGS. 35A-35J and 36A-B include selectively one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 35A to 35J and Figs. 36A and 36B will be discussed with reference to the touch screen 112; In such embodiments, the focus selector may alternatively include a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, a contact, or a touch screen 112 &Lt; / RTI &gt; While displaying the user interfaces shown in Figures 35a-35j on the display 450 on a device having a display 450, a separate touch-sensitive surface 451 and optionally one or more fingerprint sensors 169, In response to detecting the inputs depicted in Figures 35a-35j on the touch-sensitive surface 451, similar operations are optionally performed.

도 35a는 디바이스(예를 들어, 디바이스(100))의 터치 스크린(112) 상에 표시된 사용자 인터페이스(3501)를 도시한다. 사용자 인터페이스(3501)는 도 4a와 관련하여 전술된 바와 같이 하나 이상의 애플리케이션 아이콘들을 포함한다. 터치 스크린(112)은 각자의 애플리케이션 아이콘에 각각 대응하는 하나 이상의 구역(3502)들을 포함한다. 도 35a에 도시된 바와 같이, 구역(3502-1)은 "메시지" 아이콘(424)에 대응한다. 구역(3502-2)은 "캘린더" 아이콘(426)에 대응한다. 구역(3502-3)은 "사진" 아이콘(428)에 대응한다. 구역(3502-4)은 "노트" 아이콘(444)에 대응한다. 구역(3502-5)은 "설정" 아이콘(446)에 대응한다. 구역(3502-6)은 "전화" 아이콘(416)에 대응한다. 구역(3502-7)은 "메일" 아이콘(418)에 대응한다. 일부 실시예들에서, 구역들은 터치 감응 표면(예를 들어, 터치 스크린(112))의 사분면들(또는 다른 기하학적 분할들)에 대응한다.35A shows a user interface 3501 displayed on a touch screen 112 of a device (e.g., device 100). The user interface 3501 includes one or more application icons as described above with respect to FIG. 4A. The touch screen 112 includes one or more zones 3502 each corresponding to a respective application icon. As shown in FIG. 35A, zone 3502-1 corresponds to a "message" icon 424. Zone 3502-2 corresponds to a "calendar" icon 426. Zone 3502-3 corresponds to a "photo" icon 428. [ Zone 3502-4 corresponds to a "note" icon 444. Zone 3502-5 corresponds to a "Settings" Zone 3502-6 corresponds to a "phone" Zone 3502-7 corresponds to "mail" icon 418. [ In some embodiments, the zones correspond to quadrants (or other geometric divisions) of the touch sensitive surface (e.g., touch screen 112).

디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드 또는 감도 향상된 모드에서 동작시킨다. 디바이스(100)가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키는 경우, 디바이스(100)는 터치 스크린(112) 상의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내의 접촉의 존재/부재 여부 및 접촉의 이동을 검출할 수 있으며, 또한 접촉이 이전에 등록된 지문으로서 고유하게 식별될 수 있게 하는 세부 특징들과 같은 접촉의 지문 특징들을 검출할 수 있다. 디바이스(100)가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드로 동작시킬 때, 디바이스(100)는 터치 스크린(112) 상의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내의 접촉의 존재/부재 여부 및 접촉의 이동을 검출할 수 있지만, 또한 접촉의 지문 특징들은 검출할 수 없다. 따라서, 예를 들어 감도 향상된 모드에서 동작되고 있는 디바이스(100)의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에 접촉이 위치되면, 디바이스(100)는 아이덴티티 인증 또는 허가된 액세스, 및/또는 접촉의 미세한 이동의 검출에 이용될 수 있는 지문 특징들을 검출할 수 있다. 한편, 감도 감소된 모드에서 동작되는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에 접촉이 위치되면, 디바이스는 접촉의 지문 특징들을 검출할 수 없다. 일부 실시예들에서, 디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 독립적으로 동작시키고, 감도 감소된 모드와 감도 향상된 모드 사이에서 천이시킨다. 일부 실시예들에서, 터치 스크린(112)의 대부분, 또는 선택적으로 전체 터치 스크린(112)이 감도 향상된 동작 모드에서 동작될 수 있다.The device 100 operates in its sensitivity zone (e.g., one of the zones 3502 of Figure 35A) in a sensitivity reduced mode or a sensitivity enhanced mode. Device 100 operates in its own zone (e.g., one of zones 3502 in FIG. 35A) in a sensitivity enhanced mode, (E.g., one of the regions 3502 of FIG. 35A), and further includes features that enable the contact to be uniquely identified as a previously registered fingerprint Fingerprint features of the same contact can be detected. When device 100 operates in a sensitivity reduced mode of its zone (e.g., one of zones 3502 in FIG. 35A), device 100 is in a zone of its own on touch screen 112 (E.g., one of the regions 3502 of FIG. 35A), and the movement of the contact, but also the fingerprint features of the contact can not be detected. Thus, for example, if a contact is located within a respective zone of device 100 (e.g., one of zones 3502 in FIG. 35A) operating in a sensitivity enhanced mode, device 100 may perform identity authentication or Fingerprint features that can be used to detect authorized access, and / or fine movement of a contact. On the other hand, if a contact is located in a respective zone (e.g., one of the zones 3502 in Figure 35A) operating in the reduced sensitivity mode, the device can not detect the fingerprint features of the contact. In some embodiments, the device 100 operates independently of each zone (e.g., one of the zones 3502 of Figure 35A) and transitions between the sensitivity reduced mode and the sensitivity enhanced mode. In some embodiments, most of the touch screen 112, or alternatively the entire touch screen 112, may be operated in a sensitivity enhanced mode of operation.

각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 상에서 접촉이 검출되지 않는 경우, 디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시킨다. 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시키는 것은 동일한 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키는 것보다 더 적은 전력을 소비한다. 디바이스(100)가 감도 감소된 모드에서 동작되고 있는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 접촉을 검출하는 경우, 접촉이 하나 이상의 지문 센서 활성화 기준들을 충족시키면 디바이스(100)가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키고, 그렇지 않으면 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 계속해서 감도 감소된 모드에서 동작시킨다.If no contact is detected on each of the zones (e.g., one of the zones 3502 of Figure 35A), then the device 100 may move to a zone of its own (e.g., one of the zones 3502 of Figure 35A) ) In the reduced sensitivity mode. Operating one of the zones (e.g., one of the zones 3502 in FIG. 35A) in the reduced sensitivity mode may reduce the sensitivity of the same zone (e.g., one of the zones 3502 in FIG. 35A) It consumes less power than operating in enhanced mode. When the device 100 detects a contact within its respective zone (e.g., one of the zones 3502 in FIG. 35A) that is operating in the reduced sensitivity mode, the contact meets one or more fingerprint sensor activation criteria (E.g., one of zones 3502 in FIG. 35A) in a sensitivity enhanced mode, otherwise the device 100 will operate in its own zone (e.g., zone 3502 in FIG. 35A) Lt; / RTI &gt; continues to operate in the reduced sensitivity mode.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 지문-형태 접촉이 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 검출되었을 때 충족된다. 따라서, 예를 들어 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 검출된 지문 형상의 접촉은 감도 향상된 모드를 활성화시킬 수 있지만, 스타일러스 접촉은 그렇지 않을 것이다. 일부 실시예들에서, 단일 접촉 제스처가 감도 향상된 동작 모드를 활성화시키는 반면, 다중-접촉 제스처는 감도 향상된 동작 모드를 활성화시키지 않는다.In some embodiments, one or more fingerprint sensor activation criteria are met when the fingerprint-type contact is detected within a respective zone (e.g., one of zones 3502 in Figure 35A). Thus, for example, a fingerprint-shaped contact detected within a respective zone (e.g., one of zones 3502 in Figure 35A) may activate a sensitivity-enhanced mode, but the stylus contact would not. In some embodiments, a single contact gesture activates a sensitivity enhanced operation mode, while a multi-contact gesture does not activate a sensitivity enhanced operation mode.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 지문 형상의 접촉이 사전 결정된 임계치 속도 미만의 속도로 (또는 사전 결정된 임계치 미만의 회전 속도로) 이동 또는 회전(예를 들어, 비틀기)되는 것으로 검출될 때 충족되는 기준을 포함한다. 예를 들어, 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 통과해 천천히 이동하거나 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 천천히 비틀리는 지문은 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)에 대한 감도 향상된 모드를 활성화시킨다. 일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 접촉에 대응하는 포커스 셀렉터가 지문-감응 사용자 인터페이스 요소 위에 있는 동안에 접촉이 터치 스크린(112) 상에서 검출될 때 충족되는 기준을 포함한다. 일부 실시예들에서, 터치 스크린(112) 상에서 접촉에 대응하는 포커스 셀렉터는 접촉 그 자체이다. 따라서, 예를 들어 이러한 기준은 접촉이 터치 스크린(112) 상의 지문-감응 사용자 인터페이스 요소 위에서 검출될 때 충족된다. 지문-감응 사용자 인터페이스 요소의 예는, 대응하는 애플리케이션이 액세스를 위해 인증 또는 허가를 요구하도록 구성되는 애플리케이션 아이콘이다. 일부 실시예들에서, 애플리케이션이 액세스를 위해 인증 또는 허가를 요구하는지 여부는 디바이스(100)의 사용자에 의해 설정 가능하다. 지문-감응 사용자 인터페이스 요소의 다른 예는 쌍방향 사용자 인터페이스 객체(예를 들어, 가상 다이얼 또는 노브(knob))이다.In some embodiments, the one or more fingerprint sensor activation criteria are detected when the fingerprint-shaped contact is moved or rotated (e.g., twisted) at a velocity below a predetermined threshold velocity (or at a rotational velocity below a predetermined threshold) And includes standards that are met when (E.g., one of the zones 3502 of Figure 35A) or move slowly through their respective zones (e.g., one of the zones 3502 of Figure 35A) A slowly twisted fingerprint activates a sensitivity enhanced mode for each zone (e.g., one of zones 3502 in Figure 35A). In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a contact is detected on the touch screen 112 while the focus selector corresponding to the contact is over the fingerprint-sensitive user interface element. In some embodiments, the focus selector corresponding to the contact on the touch screen 112 is the contact itself. Thus, for example, this criterion is met when a contact is detected on the fingerprint-sensitive user interface element on the touch screen 112. An example of a fingerprint-sensitive user interface element is an application icon that is configured such that the corresponding application requires authentication or authorization for access. In some embodiments, whether or not an application requires authentication or authorization for access is configurable by a user of the device 100. Another example of a fingerprint-sensitive user interface element is a bi-directional user interface object (e.g., a virtual dial or knob).

일부 실시예들에서, 디바이스가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시킬 때, 디바이스는 다른 각자의 구역(3502)들을 감도 감소된 모드에서 동작시킨다. 단 하나의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키는 것은 복수의 각자의 구역(3502)들을 감도 향상된 모드에서 동작시키는 것보다 더 적은 전력을 소비한다. 일부 실시예들에서, 접촉이 더 이상 기준을 충족시키지 않거나, (예를 들어, 터치 스크린(112)으로부터의 접촉의 들어올림에 의해) 접촉이 각자의 구역으로부터 제거되면, 디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시키도록 복귀한다. 일부 실시예들에서, 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시키도록 복귀하는 것은 접촉이 제거되거나 더 이상 기준을 충족시키지 않은 후의 사전 결정된 시간량 이후에 발생한다(예를 들어, 타임아웃).In some embodiments, when the device operates in a sensitivity enhanced mode (e.g., one of the zones 3502 of Figure 35A), the device may transmit the other respective zones 3502 to a sensitivity reduced mode . Operating in a sensitivity-enhanced mode of only one respective zone (e.g., one of zones 3502 in Figure 35A) results in less power than operating a plurality of respective zones 3502 in a sensitivity enhanced mode . In some embodiments, if the contact no longer meets the criteria, or if the contact is removed from its area (e.g., by lifting the contact from the touch screen 112) (E.g., one of the zones 3502 of Figure 35A) to operate in the reduced sensitivity mode. In some embodiments, returning to operate each zone (e.g., one of zones 3502 in FIG. 35A) in a reduced sensitivity mode may result in the removal of the dictionary after the contact is removed or no longer meet the criteria And occurs after a determined amount of time (e.g., timeout).

도 35a는 "메일" 아이콘(418) 상에서 검출된 지문(3504)을 갖는 접촉을 나타낸다. "메일" 아이콘(418)은 디바이스(100)에 의해 감도 감소된 모드에서 동작되고 있는 구역(3502-7)에 대응한다. 도 35a에서, "메일" 아이콘(418)이 대응하는 이메일 클라이언트 모듈(140)은 액세스를 위해 인증 또는 허가가 요구되도록 구성된다. "메일" 아이콘(418) 상에서 지문(3504)을 갖는 접촉을 검출하는 것에 응답하여, 디바이스(100)는 구역(3502-7)을 감도 향상된 모드에서 동작시키기 시작한다. 구역(3502-7)이 감도 향상된 모드에서 동작되면, 디바이스(100)는 허가를 위해서 지문(3504)의 지문 특징들을 검출할 수 있다. 일부 실시예들에서, 디바이스(100)가 지문(3504)이 이전에 등록된 지문에 대응하지 않는다고 결정하거나 이메일 클라이언트 모듈(140)의 허가된 사용자에 속한 것이 아니라고 결정하면, 디바이스(100)는 도 35b에 도시된 바와 같이 사용자에게 이메일 클라이언트 모듈(140)에 액세스하기 위한 허가가 없음을 경고하는 메시지(3506)를 표시한다. 디바이스(100)가 지문(3504)이 이메일 클라이언트 모듈(140)의 허가된 사용자에게 속하는 이전에 등록된 지문에 대응한다고 결정하면, 디바이스(100)는 도 35c에 도시된 바와 같이 이메일 클라이언트 모듈(140)을 활성화하고 이메일 클라이언트 모듈(140)의 사용자 인터페이스(3508)를 표시한다. 사용자 인터페이스(3508)는 예를 들어 이메일 계정들의 목록(3512) 및 대응하는 이메일 수신함들의 목록(3510)을 포함한다.35A shows a contact having a fingerprint 3504 detected on the "mail" The "mail" icon 418 corresponds to zone 3502-7 that is being operated in the reduced sensitivity mode by device 100. In Fig. 35A, the email client module 140 to which the "mail" icon 418 corresponds is configured to require authentication or authorization for access. In response to detecting a contact with the fingerprint 3504 on the "Mail" icon 418, the device 100 begins operating the zone 3502-7 in a sensitivity enhanced mode. If zone 3502-7 is operated in a sensitivity enhanced mode, device 100 may detect fingerprint features of fingerprint 3504 for authorization. In some embodiments, if the device 100 determines that the fingerprint 3504 does not correspond to a previously registered fingerprint or that the fingerprint 3504 does not belong to an authorized user of the email client module 140, A message 3506 warning that the user is not authorized to access the email client module 140 as shown at 35b. If the device 100 determines that the fingerprint 3504 corresponds to a previously registered fingerprint that belongs to an authorized user of the email client module 140 then the device 100 sends the email client module 140 And displays the user interface 3508 of the email client module 140. [ The user interface 3508 includes, for example, a list 3512 of email accounts and a list 3510 of corresponding email inboxes.

일부 실시예들에서, 디바이스(100)의 사용자는 일부 이메일 계정들(및 대응하는 이메일 수신함들)에 액세스할 수 있으며, 다른 것들에는 액세스할 수 없다. 이메일 클라이언트 모듈(140)의 사용자 인터페이스(3508)가 표시되면, 이메일 계정 목록(3512) 및 이메일 수신함 목록(3510)은 구역(3502-7)에서 검출된 지문에 기초해서 사용자가 액세스하도록 허가된 이메일 계정 및 이메일 수신함만을 포함한다.In some embodiments, a user of the device 100 may access some email accounts (and corresponding email inboxes), and not others. When the user interface 3508 of the email client module 140 is displayed, the email account list 3512 and the email inbox list 3510 are displayed as emails that are authorized to be accessed by the user based on the fingerprints detected in the zone 3502-7. Account and email inbox.

도 35d는 잠금 상태의 디바이스(100)를 도시한다. 디바이스(100)가 잠금 상태에 있고 터치 스크린(112)이 활성인 동안(예를 들어, 슬립(sleep) 모드에 있지 않은 동안), 터치 스크린(112) 상에 잠금 스크린이 표시된다. 잠금 스크린은 잠금해제 객체(3516) 및 가상 홈(groove)(또는 잠금해제 이미지)(3518)를 포함하는데, 이때 잠금해제 객체(3516)는 가상 홈(또는 잠금해제 이미지)(3518)의 일 단부(예를 들어, 좌측 단부)에 위치되어 있다. 디바이스(100)는 잠금해제 객체(3516)를 가상 홈(3518)의 대향 단부(예를 들어, 우측 단부)로 드래그함으로써 잠금해제될 수 있다. 터치 스크린(112)은 또한 디바이스(100)가 감도 감소된 모드 또는 감도 향상된 모드에서 동작하는 구역(3520)을 포함한다. 구역(3520) 내에서 검출된 접촉이 없으면, 구역(3520)은 감도 감소된 모드에서 동작된다.35D shows the device 100 in a locked state. The lock screen is displayed on the touch screen 112 while the device 100 is in the locked state and the touch screen 112 is active (e.g., while not in the sleep mode). The lock screen includes an unlocked object 3516 and a virtual groove (or unlocked image) 3518, where the unlocked object 3516 includes an end of the virtual groove (or unlocked image) (For example, the left end). The device 100 may be unlocked by dragging the unlock object 3516 to the opposite end (e.g., the right end) of the virtual groove 3518. [ The touch screen 112 also includes a zone 3520 in which the device 100 operates in a sensitivity reduced mode or a sensitivity enhanced mode. If there is no detected contact in zone 3520, zone 3520 is operated in reduced sensitivity mode.

잠금해제 객체(3516) 상에서의 지문(3514)을 갖는 접촉, 및 가상 홈(3518)의 우측 단부를 향한 접촉과 지문(3514)의 이동이 터치 스크린(112) 상에서 검출된다. 접촉의 이동을 검출하는 것에 응답하여, 도 35e 및 도 35f 및 도 35g에 도시된 바와 같이 잠금해제 객체(3516)가 가상 홈(3518)의 우측 단부를 향해 이동하고; 접촉은 잠금해제 객체(3516)를 가상 홈(3518)의 우측 단부를 향해 드래그한다. 지문(3514)이 구역(3520)에 도달하기 전에(예를 들어, 지문(3514)이 위치(3514-a) 또는 위치(3514-b)에 있는 동안에), 구역(3520)은 감도 감소된 모드에서 유지된다.The touch with the fingerprint 3514 on the unlocked object 3516 and the movement of the fingerprint 3514 towards the right end of the virtual groove 3518 are detected on the touch screen 112. [ In response to detecting the movement of the contact, the unlocking object 3516 moves toward the right end of the virtual groove 3518, as shown in Figures 35e and 35f and 35g; The contact will drag the unlock object 3516 towards the right end of the virtual groove 3518. The region 3520 is in a reduced sensitivity mode 3514 before the fingerprint 3514 reaches the region 3520 (e.g., while the fingerprint 3514 is in position 3514-a or position 3514-b) Lt; / RTI &gt;

도 35f 및 도 35g에서 도시된 바와 같이 디바이스가 구역(3520)에서 지문(3514)을 검출하면(예를 들어, 지문(3514)을 갖는 접촉이 위치(3514-c)로 이동되면), 디바이스(100)는 구역(3520)을 감도 향상된 모드에서 동작시킨다. 일부 실시예들에서, 사전 결정된 속도 임계치 미만으로 구역(3520) 내에서 이동하는 지문(3514)을 갖는 접촉이 검출되면, 디바이스(100)는 구역(3520)을 감도 향상된 모드에서 동작시킨다. 디바이스(100)는 지문(3514)의 하나 이상의 지문 특징들을 검출한다. 검출된 지문 특징들에 기초하여, 디바이스(100)는 지문(3514)이 하나 이상의 잠금해제 기준들을 충족하는지 여부를 결정한다. 도 35g에 도시된 예에서, 지문(3514)이 잠금해제 기준을 충족하면(3522)(예를 들어, 지문이 디바이스(100)의 사용자의 이전에 등록된 지문이면), 디바이스(100)가 잠금해제되고, 예를 들어 애플리케이션 기동 사용자 인터페이스(또는 다른 잠금해제된 인터페이스)가 표시된다. 반대로, 지문(3514)이 잠금해제 기준을 충족시키지 않는 경우(3524)(예를 들어, 지문이 디바이스(100)의 사용자의 이전에 등록된 지문으로서 식별되지 않음), 또는 (예를 들어, 구역(3520)이 감도 감소된 모드에 있기 때문에) 지문(3514)의 특징들이 검출될 수 없는 경우, 디바이스(100)는 잠금 상태에서 유지되고 선택적으로 디바이스(100)를 잠금해제하기 위한 다른 사용자 인터페이스(예를 들어, 패스코드 입력 사용자 인터페이스)를 표시한다. 대안적으로, 지문(3514)이 잠금해제 기준을 충족시키지 않으면(3524), 도 35d에 도시된 잠금 스크린이 재표시된다.If the device detects a fingerprint 3514 in zone 3520 (e.g., a contact with fingerprint 3514 is moved to position 3514-c) as shown in Figures 35f and 35g, 100 operates zone 3520 in a sensitivity enhanced mode. In some embodiments, when a contact with fingerprint 3514 moving within zone 3520 is detected below a predetermined speed threshold, device 100 operates zone 3520 in a sensitivity enhanced mode. The device 100 detects one or more fingerprint features of the fingerprint 3514. Based on the detected fingerprint features, the device 100 determines whether the fingerprint 3514 meets one or more unlock criteria. 35G, if the fingerprint 3514 meets the unlock criteria 3522 (e.g., if the fingerprint is the user's previously registered fingerprint of the device 100) For example, an application launch user interface (or other unlocked interface) is displayed. Conversely, if the fingerprint 3514 does not meet the unlock criteria 3524 (e.g., the fingerprint is not identified as a previously registered fingerprint of the user of the device 100) The device 100 is kept in a locked state and the user interface (not shown) for unlocking the device 100, if the features of the fingerprint 3514 can not be detected (because the fingerprint sensor 3520 is in the reduced sensitivity mode) For example, a passcode input user interface). Alternatively, if the fingerprint 3514 does not meet the unlock criterion (3524), the lock screen shown in Figure 35d is redisplayed.

도 35h는 터치 스크린(112) 상에 표시된 사용자 인터페이스(3526)를 도시한다. 사용자 인터페이스(3526)는 수치 값 필드(3528) 및 가상 노브(3530)를 포함한다. 사용자 인터페이스(3526)는 수치 값 입력 및/또는 조작을 포함하는 애플리케이션(예를 들어, 계산기, 온도조절장치 제어 애플리케이션, 단위 변환기, 스프레드시트)의 사용자 인터페이스이다. 사용자는 수치 값 필드(3528) 내에 표시된 값을 조정하기 위해서 가상 노브(3530)와 상호작용한다. 예를 들어, 사용자는 가상 노브(3530) 위의 터치 스크린(112) 상에 지문을 놓고 가상 노브(3530)를 돌리기 위해 지문을 비튼다. 가상 노브(3530)의 회전에 의해 수치 값 필드(3528) 내의 값이 변화한다.Figure 35h shows the user interface 3526 displayed on the touch screen 112. [ The user interface 3526 includes a numerical value field 3528 and a virtual knob 3530. The user interface 3526 is a user interface of an application (e.g., a calculator, a thermostat control application, a unit converter, a spreadsheet) that includes numerical value entry and / or manipulation. The user interacts with the virtual knob 3530 to adjust the value displayed in the numerical value field 3528. For example, the user places a fingerprint on the touch screen 112 over the virtual knob 3530 and scrolls the fingerprint to turn the virtual knob 3530. The value in the numerical value field 3528 changes by the rotation of the virtual knob 3530. [

도 35h 내지 도 35j에서, 가상 노브(3530)의 영역은 디바이스(100)가 감도 감소된 모드 또는 감도 향상된 모드에서 동작하는 터치 스크린(112)의 구역이다. 가상 노브(3530) 상에서 검출된 지문이 없다면, 디바이스(100)는 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드에서 동작시킨다. 가상 노브(3530) 상에서 지문이 검출되면, 디바이스(100)는 검출된 지문이 비틀리는 속도에 기초하여 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드 또는 감도 향상된 모드에서 동작시킨다. 예를 들어, 도 35i는 가상 손잡이(3530) 상에서 검출된 지문(3532)을 도시한다. 사용자는 사전 결정된 임계치 속도 초과의 속도로 지문(3532)을 비튼다. 지문(3532)의 임계치 초과의 비틀기 속도에 따라, 디바이스(100)는 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드에서 동작시킨다. 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드에서 동작시키는 동안에, 디바이스(100)는 지문(3532)의 움직임(예를 들어, 비틀기)을 검출하지만 지문(3532)의 특징들은 검출하지 않는다. 따라서, 디바이스(100)는 비교적 거칠게 증가하는 지문(3532)의 비틀기를 검출한다. 가상 노브(3530)는 검출된 지문(3532)의 거친 비틀기 증가에 따라 거칠게 증가하며 회전한다. 수치 값 필드(3528) 내의 값은 가상 노브(3530)의 회전의 거친 증가에 따라서 거칠게 증가하며 변화한다.35H-35J, the area of the virtual knob 3530 is the area of the touch screen 112 where the device 100 operates in the reduced sensitivity mode or the enhanced sensitivity mode. If there is no fingerprint detected on the virtual knob 3530, the device 100 operates a portion of the touch screen 112 including the virtual knob 3530 in a reduced sensitivity mode. When a fingerprint is detected on the virtual knob 3530, the device 100 determines whether the portion of the touch screen 112 including the virtual knob 3530 is in a sensitivity-reduced mode or a sensitivity-enhanced mode . For example, FIG. 35I shows the fingerprint 3532 detected on the virtual handle 3530. The user scrolls the fingerprint 3532 at a rate exceeding the predetermined threshold rate. Depending on the warping rate of the threshold of the fingerprint 3532, the device 100 operates the portion of the touch screen 112 including the virtual knob 3530 in the reduced sensitivity mode. The device 100 detects motion (e.g., twisting) of the fingerprint 3532, but does not detect movement of the fingerprint 3532 while operating the portion of the touch screen 112 including the virtual knob 3530 in the reduced sensitivity mode. Are not detected. Thus, the device 100 detects a twist of the fingerprint 3532 that increases relatively roughly. The virtual knob 3530 rotates and rotates in accordance with an increase in the rough twist of the detected fingerprint 3532. [ The value in the numerical value field 3528 increases and varies roughly with the coarse increase of the rotation of the virtual knob 3530.

도 35j는 가상 노브(3530) 상에서 검출되는 지문(3532)과 유사한 지문(3534)을 도시한다. 사용자는 사전 결정된 임계치 속도 미만의 속도로 지문(3534)을 비튼다. 지문(3534)의 임계치 미만의 비틀기 속도에 따라, 디바이스(100)는 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 향상된 모드로 동작시킨다. 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 향상된 모드에서 동작시키는 동안에, 디바이스(100)는 지문(3532)의 특징들뿐만 아니라 그의 비틀림 움직임을 검출한다. 지문(3532)의 특징들을 검출함으로써, 디바이스(100)는 이러한 특징들의 이동을 검출할 수 있으며, 따라서 지문(3532)의 미세한 이동 - 미세한 증분의 비틀기를 포함함 - 을 검출할 수 있다. 가상 노브(3530)는 검출된 지문(3530)의 미세한 비틀기 증가에 따라 미세하게 증가하며 회전한다. 수치 값 필드(3528) 내의 값은 가상 노브(3530)의 회전의 미세한 증가에 따라 미세하게 증가하며 변화한다. 일부 실시예들에서, 디바이스(100)는 비틀기의 속도와 무관하게 가상 노브(3530)에서 비틀리는 지문(3534)을 검출하는 것에 응답하여 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 향상된 모드에서 동작시킨다.35J shows a fingerprint 3534 similar to the fingerprint 3532 detected on the virtual knob 3530. Fig. The user scrolls the fingerprint 3534 at a speed less than a predetermined threshold speed. Depending on the warping speed of the fingerprint 3534 below the threshold, the device 100 operates the portion of the touch screen 112 including the virtual knob 3530 in a sensitivity enhanced mode. While operating the portion of the touch screen 112 that includes the virtual knob 3530 in a sensitivity enhanced mode, the device 100 detects its torsional movement as well as the features of the fingerprint 3532. By detecting the features of the fingerprint 3532, the device 100 can detect movement of these features and thus detect fine movement of the fingerprint 3532 - including a twist of minute increments. The virtual knob 3530 slightly rotates and rotates in accordance with the fine twist increase of the detected fingerprint 3530. [ The value in the numerical value field 3528 slightly increases and changes with a slight increase in rotation of the virtual knob 3530. [ In some embodiments, the device 100 may include a portion of the touch screen 112 that includes a virtual knob 3530 in response to detecting a twist fingerprint 3534 in the virtual knob 3530, In a mode with improved sensitivity.

도 35a 내지 도 35j에 도시된 바와 같이, 터치 스크린(112)은 디바이스(100)가 감도 감소된 모드 또는 감도 향상된 모드에서 동작하는 하나 이상의 구역들을 포함한다. 일부 실시예들에서, 터치 스크린(112)(또는 터치-감응 표면(451))의 임의의 부분이 디바이스(예를 들어, 디바이스(100) 또는 디바이스(300))에 의해서 감도 감소된 모드 또는 감도 향상된 모드에서 동작될 수 있다는 것을 이해하여야 한다. 일부 실시예들에서, 소정의 표시된 사용자 인터페이스에 대해서, 구역(3502), 구역(3520), 또는 가상 노브(3530) 밖의 터치 스크린(112)의 부분들과 같은 터치 스크린(112)(또는 터치-감응 표면(451))의 일부 부분들이 감도 감소된 모드에서 유지되며; 이러한 부분들을 감도 감소된 모드와 감도 향상된 모드 사이에서 천이시킬 수 있는 능력이 디스에이블된다. 예를 들어, 도 35a에 도시된 바와 같은 사용자 인터페이스(3501)의 경우, 구역(3502) 밖의 터치 스크린(112)의 부분들을 감도 감소된 모드와 감도 향상된 모드 사이에서 천이하기 위한 능력이 디스에이블된다. 또한 일부 실시예들에서, 감도 모드들 사이에서 천이하는 것이 가능하게 된 구역은 대응하는 사용자 인터페이스 객체 또는 어포던스와 함께 이동한다. 예를 들어, 도 35a에서, "노트" 아이콘(444)의 위치와 "날씨" 아이콘(438)의 위치가 서로 뒤바뀐다면, 구역(3502-4)은 "노트" 아이콘(444)의 새로운 위치로 이동하고, "노트" 아이콘(444)의 예전 위치(즉, "날씨" 아이콘(438)의 새로운 위치)에 대응하는 터치 스크린(112)의 부분이 감도 감소된 모드와 감도 향상된 모드 사이에서 천이하는 것으로부터 디스에이블된다.As shown in FIGS. 35A-35J, the touch screen 112 includes one or more zones in which the device 100 operates in a sensitivity-reduced mode or a sensitivity-enhanced mode. In some embodiments, any portion of the touch screen 112 (or the touch-sensitive surface 451) may be in a mode or sensitivity-reduced mode (e.g., by a device 100 or a device 300) It should be understood that it may be operated in an enhanced mode. In some embodiments, for a given displayed user interface, a touch screen 112 (or touch-screen), such as portions 3502, 3520, or portions of the touch screen 112 outside the virtual knob 3530, Some of the portions of the sensing surface (451) are kept in the reduced sensitivity mode; The ability to transition between these reduced sensitivity and sensitivity enhanced modes is disabled. For example, in the case of the user interface 3501 as shown in FIG. 35A, the ability to transition portions of the touch screen 112 outside the region 3502 between the reduced sensitivity mode and the enhanced sensitivity mode is disabled . Also, in some embodiments, a zone that is enabled to transition between sensitivity modes moves with a corresponding user interface object or an ambience. For example, in Figure 35A, if the location of the "note" icon 444 and the location of the "weather" icon 438 are reversed, then the region 3502-4 is moved to the new location of the " And the portion of the touch screen 112 corresponding to the old position of the "note" icon 444 (ie, the new position of the "weather" icon 438) transitions between the sensitivity reduced mode and the sensitivity enhanced mode &Lt; / RTI &gt;

일부 실시예들에서, 감도 감소된 모드와 감도 향상된 모드 사이에서 천이되는 터치-감응 표면의 부분들은 개별적으로 인에이블 및 디스에이블될 수 있는 센서들의 상이한 그룹들에 대응한다. 예를 들어, 터치 스크린(112)의 하부 우측 사분면에 대응하는 제1 세트의 센서들, 터치 스크린(112)의 상부 우측 사분면에 대응하는 제2 세트의 센서들, 터치 스크린(112)의 하부 좌측 사분면에 대응하는 제3 세트의 센서들, 및 터치 스크린(112)의 상부 좌측 사분면에 대응하는 제4 세트의 센서들이 각각 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이될 수 있다. 일부 실시예들에서, 위에서 더 상세하게 기술된 바와 같이, 상이한 구역들이 터치 스크린(112) 상의 사용자 인터페이스 객체 또는 접촉의 위치에 기초해 감도 감소된 모드와 감도 향상된 모드 사이에서 천이되도록 선택된다. 감도 향상된 데이터를 필요로 하는 사용자 인터페이스의 구역이 센서들의 세트들의 다수의 구역들에 걸친다고 디바이스가 결정하는 상황들에서, 디바이스는 선택적으로 센서들의 세트들의 다수의 구역들 전부가 감도 향상된 동작 모드에서 동작할 수 있게 하는 반면, 센서들의 하나 이상의 다른 세트들은 계속 감도 감소된 모드에서 동작한다.In some embodiments, portions of the touch-sensitive surface that transition between the reduced sensitivity mode and the reduced sensitivity mode correspond to different groups of sensors that may be enabled and disabled individually. For example, a first set of sensors corresponding to the lower right quadrant of the touch screen 112, a second set of sensors corresponding to the upper right quadrant of the touch screen 112, A third set of sensors corresponding to the quadrant and a fourth set of sensors corresponding to the upper left quadrant of the touch screen 112 can each independently transition between the sensitivity reduced mode and the sensitivity enhanced mode. In some embodiments, as described in more detail above, different regions are selected to transition between a sensitivity-reduced mode and a sensitivity-enhanced mode based on the location of the user interface object or contact on the touch screen 112. In situations where the device determines that the zone of the user interface that requires sensitive data spans multiple zones of the sets of sensors, the device may optionally be configured such that all of the multiple zones of the sets of sensors are in a sensitivity enhanced mode of operation While one or more other sets of sensors operate in a continuously reduced sensitivity mode.

도 36a 및 도 36b는 일부 실시예들에 따른, 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키는 방법(3600)을 예시하는 흐름도이다. 방법(3600)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3600) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.36A and 36B are flow charts illustrating a method 3600 of operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation, in accordance with some embodiments. The method 3600 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 3600 are optionally combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(3600)은 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 직관적인 방식을 제공한다. 이 방법은 터치-감응 표면을 작동시킬 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 감도 향상된 동작 모드에서의 터치-감응 표면의 일부분의 동작을 가능하게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 3600 provides an intuitive way to operate a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation. This method reduces the cognitive burden on the user when operating the touch-sensitive surface, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, enabling operation of a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation conserves power and increases the time between battery charges.

디바이스는 감도 감소된 동작 모드에 있는 터치-감응 표면의 제1 구역 내에서의 접촉을 검출한다(3602). 예를 들어, 도 35a는 감도 감소된 모드에서 동작되는 구역(3502-7) 내에서 검출된 지문(3504)을 갖는 접촉을 도시한다. 도 35f는 감도 감소된 모드에서 동작되는 구역(3520) 내의 위치(3514-c)로 이동하는 지문(3514)을 갖는 접촉을 도시한다. 도 35h는, 또한 감도 감소된 모드에서 동작되는 구역인 가상 노브(3530) 내에서 검출된 지문(3532)을 갖는 접촉을 도시한다. 일부 실시예들에서, 터치-감응 표면은 복수의 상이한 구역들(예를 들어, 터치-감응 표면의 하위세트들에 대응하는 구역들)을 포함하고(3603), 디바이스는 복수의 상이한 구역들 각각을 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이하도록 구성된다(예를 들어, 디바이스는 전체 터치-감응 표면에 대해 감도 향상된 모드를 온 상태로 하지 않고서 구역들 중 하나 이상에 대해서 감도 향상된 모드를 "온" 상태로 할 수 있음). 전체 터치-감응 표면이 감도 향상된 모드에 있어야 할 필요가 없는 경우에 소정의 구역들 내에서 감도 향상된 모드를 온 상태로 하지만 다른 구역들 내에서는 온 상태로 하지 않는 것은 프로세서에 대한 수요를 감소시키고 배터리 수명을 연장시킨다. 예를 들어, 도 35a는 구역(3502-1 내지 3502-7)들을 도시한다. 일부 실시예들에서, 디바이스는 구역(3501-1 내지 3501-7)들(또는 이들 구역을 포함하는 터치 스크린(112)의 구역들) 각각을 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이하도록 구성된다.The device detects contact within the first zone of the touch-sensitive surface in the reduced sensitivity mode of operation (3602). For example, FIG. 35A shows a contact having a fingerprint 3504 detected within a zone 3502-7 operated in a reduced sensitivity mode. Figure 35F shows the contact with fingerprint 3514 moving to position 3514-c in zone 3520 operating in reduced sensitivity mode. Figure 35h shows the contact with the fingerprint 3532 detected in the virtual knob 3530, which is also the zone operated in the reduced sensitivity mode. In some embodiments, the touch-sensitive surface includes (3603) a plurality of different zones (e.g., zones corresponding to subsets of the touch-sensitive surface), and the device includes a plurality of different zones (For example, the device is configured to transition independently of one or more of the zones without increasing the sensitivity-enhanced mode to the entire touch-sensitive surface) Quot; on "state). If the entire touch-sensitive surface does not need to be in a sensitivity-enhanced mode, turning on the sensitivity-enhanced mode in certain zones but not in other zones reduces the demand on the processor, It prolongs the life. For example, FIG. 35A shows zones 3502-1 through 3502-7. In some embodiments, the device can independently transition each of the zones 3501-1 through 3501-7 (or zones of the touch screen 112 including these zones) between the sensitivity reduced mode and the sensitivity enhanced mode .

접촉을 검출하는 것에 응답하여(3604), 디바이스는 접촉이 하나 이상의 지문 센서 활성화 기준들을 충족시키는지 여부를 결정한다(3606). 디바이스(100)는 예를 들어 지문(3504)(또는 지문(3514) 또는 지문(3532) 또는 지문(3534))이 하나 이상의 지문 센서 활성화 기준들을 충족시키는지 여부를 결정한다.In response to detecting contact (3604), the device determines whether the contact meets one or more fingerprint sensor activation criteria (3606). Device 100 determines whether fingerprint 3504 (or fingerprint 3514 or fingerprint 3532 or fingerprint 3534) meets one or more fingerprint sensor activation criteria, for example.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 지문 형상의 접촉이 터치-감응 표면의 제1 구역에서 검출될 때 충족되는 기준을 포함한다(3608). 예를 들어, 지문 센서 활성화 기준은 구역(3502-7) 내의 지문(3504)을 갖는 접촉의 검출(또는 구역(3520) 내에서의 지문(3514)을 갖는 접촉의 검출)에 의해 충족된다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a fingerprint-like contact is detected in a first zone of the touch-sensitive surface (3608). For example, the fingerprint sensor activation criteria is met by detection of a contact with fingerprint 3504 (or detection of contact with fingerprint 3514 in region 3520) within zone 3502-7.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 사전 결정된 속도 미만의 속도로 이동하는 지문 형상의 접촉이 검출될 때 충족되는 기준을 포함한다(3610)(예를 들어, 향상된 감도는 느린 이동을 보다 정확하게 만드는 것을 돕는다/느린 이동은 사용자가 지문 감응 사용자 인터페이스 요소와 상호작용하고 있음을 나타냄). 예를 들어, 지문 센서 활성화 기준은 사전 결정된 임계치 미만의 속도로 가상 노브(3530)에서 비틀리는 지문(3534)의 검출에 의해 충족된다. 다른 예로서, 지문 센서 활성화 기준은 사전 결정된 임계치 미만의 속도로 구역(3520) 내에서 이동하는 지문(3514)을 갖는 접촉의 검출에 의해 충족된다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a fingerprint of touch moving at a rate less than a predetermined rate is detected (3610) (e.g., Helping to make more accurate / slower movement indicates that the user is interacting with the fingerprint sensitive user interface element). For example, a fingerprint sensor activation criterion is met by detection of a fingerprint 3534 that is twisted in the virtual knob 3530 at a rate below a predetermined threshold. As another example, the fingerprint sensor activation criteria is met by detection of a contact having a fingerprint 3514 moving within the region 3520 at a velocity below a predetermined threshold.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 접촉에 대응하는 포커스 셀렉터가 지문-감응 사용자 인터페이스 요소 위에 있는 동안에 접촉이 터치-감응 표면 상에서 검출될 때 충족되는 기준을 포함한다(3612). 예를 들어, 디바이스는 검출된 지문에 따라 동작하는 제어(예를 들어, 지문의 비틀기에 응답하여 동작하는 노브 또는 다이얼, 또는 검출된 지문에 따라서만 활성화되도록 제한되는 어포던스) 위에서 접촉을 검출하고, 접촉에 대응하는 지문이 제어를 작동하기 위해서 식별되고 사용될 수 있도록 접촉 및/또는 제어를 포함하는 터치-감응 표면의 구역 내에서의 지문 감도를 온 상태로 한다. 예를 들어, 지문 센서 활성화 기준은 가상 노브(3530)에서 비틀리는 지문(3534)의 검출에 의해 충족된다. 다른 예로서, 지문 센서 활성화 기준은 구역(3502-7) 내에서 지문(3504)을 갖는 접촉의 검출에 의해 충족된다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when the contact is detected on the touch-sensitive surface while the focus selector corresponding to the contact is over the fingerprint-sensitive user interface element (3612). For example, the device may detect a contact on a control that operates in accordance with a detected fingerprint (e.g., a knob or dial that operates in response to a fingerprint twist, or an impedance that is limited to be activated only in response to a detected fingerprint) The fingerprint sensitivity in the area of the touch-sensitive surface including the contact and / or control is turned on so that the fingerprint corresponding to the contact can be identified and used to operate the control. For example, a fingerprint sensor activation criterion is met by detection of a twist fingerprint 3534 in the virtual knob 3530. As another example, a fingerprint sensor activation criterion is satisfied by detection of a contact having fingerprint 3504 within zone 3502-7.

접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라, 디바이스는 터치-감응 표면의 제1 구역을 감도 향상된 동작 모드에서 동작시킨다(3614)(예를 들어, 터치-감응 표면의 제1 구역 내의 접촉들에 대해서, 디바이스는 접촉의 존재/부재 및 이동을 검출할 수 있으며, 게다가, 디바이스는 접촉이 이전에 등록된 지문으로서 고유하게 식별될 수 있게 하는 세부 특징들과 같은 접촉의 지문 특징들을 검출할 수 있음). 예를 들어, 지문 센서 활성화 기준이 충족될 때 디바이스(100)는 구역(3502-7)(및 유사하게 구역(3520) 또는 가상 노브(3530)를 포함하는 터치 스크린(112)의 일부분)을 감도 향상된 모드에서 동작시킨다.Depending on the determination that the contact meets the fingerprint sensor activation criteria, the device operates (3614) the first zone of the touch-sensitive surface in a sensitivity enhanced mode of operation (e. G., Within the first zone of the touch- The device can detect the presence / absence and movement of the contact, and furthermore the device can detect the fingerprint features of the contact, such as the detailed features allowing the contact to be uniquely identified as the previously registered fingerprint has exist). For example, when the fingerprint sensor activation criterion is met, the device 100 transmits a portion 3502-7 (and similarly a portion of the touch screen 112 including the region 3520 or the virtual knob 3530) Run in enhanced mode.

접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, 디바이스는 터치-감응 표면 표면의 제1 구역을 계속해서 감도 감소된 동작 모드에서 동작시킨다(3618)(예를 들어, 감도 감소된 모드에서 동작되고 있는 터치-감응 표면의 구역들에 대해, 디바이스는 접촉의 존재/부재 및 이동을 검출할 수 있지만, 접촉이 이전에 등록된 지문으로서 고유하게 식별될 수 있게 하는 세부 특징들과 같은 접촉의 지문 특징들을 검출할 수 없음). 예를 들어, 도 35i에서, 지문 센서 활성화 기준이 임계치 속도 미만의 이동 또는 회전을 포함할 때 지문(3532)이 임계치 속도 초과의 속도로 비틀리는 경우에, 디바이스(100)는 가상 노브(3530)를 계속해서 감도 감소된 모드에서 동작시킨다.In response to the determination that the contact does not meet the fingerprint sensor activation criteria, the device continues to operate 3618 the first zone of the touch-sensitive surface surface in a reduced sensitivity mode of operation (e. G., In a reduced sensitivity mode of operation For the zones of the touch-sensitive surface being processed, the device can detect the presence / absence of movement and movement of the contact, but can also detect finger movements of the fingerprint of the contact, such as detailed features that enable the contact to be uniquely identified as a previously registered fingerprint Features can not be detected). For example, in FIG. 35i, when the fingerprint 3532 is twisted at a rate of exceeding the threshold speed, when the fingerprint sensor activation reference includes a shift or rotation below the threshold speed, the device 100 moves the virtual knob 3530, Lt; / RTI &gt; continues to operate in the reduced sensitivity mode.

일부 실시예들에서, 터치-감응 표면의 제1 구역이 감도 향상된 동작 모드에 있는 동안에, 디바이스가 제1 구역 내에서 검출된 접촉의 지문 상세사항들을 검출할 수 있으며(3616); 터치-감응 표면의 제1 구역이 감도 감소된 동작 모드에 있는 동안에, 디바이스는 제1 구역 내에서 검출된 접촉의 지문 상세사항을 검출할 수 없다(3620). 예를 들어, 디바이스(100)가 구역(3502-7)(또는 구역(3520) 또는 구역(3530))을 감도 향상된 모드에서 동작시키는 동안에, 디바이스(100)는 구역 내에서 검출된 접촉(예를 들어, 지문(3504)을 갖는 접촉, 지문(3514)을 갖는 접촉, 지문(3534)을 갖는 접촉)의 지문 상세사항들(예를 들어, 지문 특징들)을 검출할 수 있다. 디바이스(100)가 구역(3502-7)(또는 구역(3520) 또는 구역(3530))을 감도 감소된 모드에서 동작시키는 동안에, 디바이스(100)는 구역 내에서 검출된 접촉의 지문 상세사항들(예를 들어, 지문 특징들)을 검출할 수 없으며, 따라서 구역이 감도 향상된 모드에서 동작하고 있을 때만큼 정확하게 접촉의 이동을 추적하지 않는다.In some embodiments, while the first zone of the touch-sensitive surface is in the sensitivity enhanced mode of operation, the device may detect 3616 the fingerprint details of the detected contact within the first zone; While the first zone of the touch-sensitive surface is in the reduced sensitivity mode of operation, the device can not detect 3620 the fingerprint details of the detected contact within the first zone. For example, while device 100 is operating in zone 3502-7 (or zone 3520 or zone 3530) in a sensitivity enhanced mode, device 100 may detect a detected contact (e.g., (E. G., Fingerprint features) of a contact having a fingerprint 3504, a contact having a fingerprint 3514, a contact having a fingerprint 3534). While the device 100 is operating in the reduced sensitivity mode of the zone 3502-7 (or the zone 3520 or the zone 3530), the device 100 may detect fingerprint details of the detected contact within the zone For example, fingerprint features), and thus does not track movement of the contact as accurately as when the zone is operating in a sensitivity enhanced mode.

일부 실시예들에서, 터치-감응 표면의 제1 구역을 감도 향상된 모드에서 동작시키는 동안에(3622) 디바이스는 접촉의 지문 특징들을 검출하며(3624), 접촉의 지문 특징들을 검출하는 것에 응답하여, 지문 특징들에 따라 동작을 수행한다(3626)(예를 들어, 접촉의 지문 특징들을 검출하는 것에 응답하여, 디바이스는 아이덴티티-기반 동작 또는 접촉의 지문 특징들의 검출을 요구하는 동작을 수행함). 예를 들어, 디바이스는 지문 세부 특징들의 이동을 검출하는 것에 기초하여 접촉의 작은 이동들을 검출하는데, 여기서 이러한 접촉의 작은 이동들은 지문 특징들을 보지 않은 채 전체 접촉의 이동에 기초해서는 검출 가능하지 않을 것이다. 도 35b 및 도 35c에서, 디바이스(100)는 구역(3502-7) 내의 지문(3504)의 특징들을 검출하고, 검출된 지문(3504)의 특징들에 기초하여 오류 메시지(3506)를 표시하거나 이메일 클라이언트 모듈(140)의 사용자 인터페이스(3508)를 표시한다. 도 35g에서, 디바이스(100)는 구역(3520) 내의 지문(3514)의 특징들을 검출하고, 지문(3514)이 잠금해제 기준(3522)을 충족시키는지 또는 잠금해제 기준(3524)을 충족시키지 않는지 여부에 기초하여 디바이스(100)를 잠금해제하거나 디바이스(100)를 남겨둔다. 도 35j에서, 디바이스(100)는 가상 노브(3530) 내에서 지문(3534)의 특징들의 이동을 검출하고, 지문 특징들의 검출된 이동에 따라 가상 노브(3530)를 미세한 증분으로 회전시킨다.In some embodiments, while operating the first zone of the touch-sensitive surface in a sensitivity enhanced mode 3622, the device detects 3624 the fingerprint features of the contact and, in response to detecting fingerprint features of the contact, 3626). (For example, in response to detecting fingerprint features of a contact, the device performs an operation that requires detection of fingerprint features of an identity-based operation or contact). For example, the device detects small movements of the contact based on detecting movement of the fingerprint detail features, wherein small movements of such contact will not be detectable based on movement of the entire contact without looking at the fingerprint features . 35B and 35C the device 100 detects features of the fingerprint 3504 in the area 3502-7 and displays an error message 3506 based on the features of the detected fingerprint 3504, And displays the user interface 3508 of the client module 140. In Figure 35G, the device 100 detects features of the fingerprint 3514 in the area 3520 and determines whether the fingerprint 3514 meets the unlock criterion 3522 or does not meet the unlock criterion 3524 The device 100 is unlocked or the device 100 is left. In Figure 35j, the device 100 detects the movement of the features of the fingerprint 3534 within the virtual knob 3530 and rotates the virtual knob 3530 in fine increments in accordance with the detected movement of the fingerprint features.

일부 실시예들에서, 제1 구역을 감도 향상된 모드에서 동작시키는 동안에(3622), 디바이스는 터치-감응 표면의 하나 이상의 다른 구역들을 감도 감소된 모드에서 동작시킨다(3628)(예를 들어, 제1 구역이 터치-감응 표면 상에서 검출된 접촉들의 지문 상세사항들을 검출할 수 있게 된 동안에, 터치-감응 표면의 다른 구역들은 접촉들의 지문 상세사항들을 검출하지 않고 접촉들의 존재/부재 및 이동을 검출할 수 있음). 예를 들어, 도 35a는 감도 감소된 모드 또는 감도 향상된 모드에서 동작 가능한 (그리고 터치 스크린(112)의 나머지는 감도 감소된 모드에서 동작 가능한)복수의 구역들(3502)을 도시한다. 구역(3502-7)이 감도 향상된 모드에서 동작되는 동안에, 다른 구역(3502)들이 감도 감소된 모드에서 동작된다. 각자의 구역을 감도 향상된 모드에서 동작시키는 동안에 터치 스크린(112)의 구역들 중 일부를 감도 감소된 모드에서 유지하는 것은, 각자의 구역 내에서 사용자를 인증하기 위한 능력 및/또는 향상된 정밀도의 이점을 제공하면서, 감도 향상된 모드가 다른 구역들에 대해서 필요하지 않을 때 다른 구역들을 저전력의 감도 감소된 모드에서 유지함으로써 전력 사용을 감소시킨다.In some embodiments, while operating the first zone in a sensitivity enhanced mode (3622), the device operates (3628) one or more other zones of the touch-sensitive surface in a sensitivity reduced mode (e.g., While the zone is able to detect fingerprint details of the detected contacts on the touch-sensitive surface, other areas of the touch-sensitive surface can detect the presence / absence and movement of the contacts without detecting fingerprint details of the contacts has exist). For example, FIG. 35A illustrates a plurality of zones 3502 that are operable in a reduced-sensitivity or enhanced-sensitivity mode (and the rest of the touch screen 112 is operable in a reduced-sensitivity mode). While zone 3502-7 is operating in the sensitivity enhanced mode, other zones 3502 are operated in reduced sensitivity mode. Maintaining a portion of the areas of the touch screen 112 in reduced sensitivity mode while operating in a sensitivity enhanced mode of operation of their respective zones may provide the ability to authenticate a user within their zone and / While reducing power usage by maintaining the other zones in a reduced-sensitivity, reduced-mode mode when the enhanced mode is not needed for the other zones.

일부 실시예들에서, 터치-감응 표면의 제1 구역을 감도 향상된 모드에서 동작시키는 것은(3630) 터치-감응 표면의 제1 구역을 감도 감소된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다. 따라서, 터치-감응 표면의 제1 구역을 "필요로 하는 바를" 기준으로 감도 감소된 모드로부터 감도 향상된 모드로 전환하는 것은 디바이스의 전반적인 에너지 소비를 감소시킴으로써, 디바이스의 에너지 효율성 및 배터리 수명을 증가시킨다. 예를 들어, 접촉이 구역(3502-7) 내부에서 검출될 때 구역(3502-7)을 감도 향상된 모드에서 동작시키고, 다른 때에는 감도 감소된 모드에서 동작시키는 것은, 구역(3502-7)을 감도 향상된 모드에서 항상 동작시키는 것과 비교해서 전력 소비를 감소시킨다.In some embodiments, operating the first zone of the touch-sensitive surface in the sensitivity enhanced mode (3630) consumes more power than operating the first zone of the touch-sensitive surface in the reduced sensitivity mode. Thus, switching from the reduced sensitivity mode to the sensitivity enhanced mode on the basis of the "needs" of the first zone of the touch-sensitive surface increases the energy efficiency and battery life of the device by reducing the overall energy consumption of the device . For example, operating the zone 3502-7 in the sensitivity enhanced mode when the contact is detected within the zone 3502-7, and otherwise operating in the reduced sensitivity mode may cause zone 3502- Reduces power consumption compared to always operating in enhanced mode.

일부 실시예들에서, (예를 들어, 터치-감응 표면의 나머지를 감도 감소된 모드에서 동작시키는 동안에) 터치-감응 표면의 제1 구역보다 더 많은 구역을 감도 향상된 모드에서 동작시키는 것(3632)은 터치-감응 표면의 제1 구역만을 감도 향상된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다. 따라서, 터치-감응 표면의 제1 구역을 감도 향상된 모드로 동작시키는 동안에 터치-감응 표면의 나머지 구역들을 감도 감소된 모드로 동작시키는 것은 디바이스의 전반적인 에너지 소비를 감소시킴으로써, 디바이스의 에너지 효율 및 배터리 수명을 증가시킨다. 예를 들어, 어느 쪽이든 접촉이 검출되는 구역(3502)(예를 들어, 도 35a의 구역(3502-7))만을 감도 향상된 모드에서 동작시키고 나머지를 감도 감소된 모드에서 동작시키는 것은, 구역(3502)들 중 하나보다 많은 구역을 감도 향상된 모드에서 동작시키는 것에 비교하여 전력 소비를 감소시킨다.In some embodiments, operating (3632) in the enhanced sensitivity mode more areas than the first area of the touch-sensitive surface (e.g., while operating the remainder of the touch-sensitive surface in the reduced sensitivity mode) Lt; RTI ID = 0.0 &gt; 1 &lt; / RTI &gt; area of the touch-sensitive surface. Thus, while operating the first zone of the touch-sensitive surface in a sensitivity enhanced mode, operating the remaining zones of the touch-sensitive surface in a sensitivity reduced mode reduces the overall energy consumption of the device, thereby reducing the energy efficiency of the device and the battery life . For example, operating only the zone 3502 (e.g., zone 3502-7 in FIG. 35A) where the contact is detected in the sensitivity enhanced mode and operating the rest in the reduced sensitivity mode may be performed in zone 3502 &Lt; / RTI &gt; compared to operating in more &lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt;

도 36a 및 도 36b의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 36a 및 도 36b와 관련하여 전술된 방법(3600)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3600)과 관련하여 전술된 지문들, 접촉들, 및 사용자 인터페이스들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 및 사용자 인터페이스들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 36A and 36B are only illustrative and that the order in which they are described is not intended to indicate that the order in which they are described is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. Also, details of other processes described herein in connection with other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 3600 described above with respect to 36b is also applicable in a similar manner. For example, fingerprints, contacts, and user interfaces described above in connection with method 3600 may optionally be combined with other methods described herein (e.g., in the second paragraph within " Contacts, and user interfaces described herein in connection with the methods (e.g., methods listed in FIG. For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 37은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(3700)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 37에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 37 shows a functional block diagram of an electronic device 3700 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 37 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 37에 도시된 바와 같이, 전자 디바이스(3700)는 디스플레이 유닛(3702); 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(3704); 및 디스플레이 유닛(3702)과 터치-감응 표면 유닛(3704)에 결합된 프로세싱 유닛(3708)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(3708)은 검출 유닛(3710), 결정 유닛(3712), 동작 유닛(3714), 수행 유닛(3716) 및 천이 유닛(3718)을 포함한다.37, the electronic device 3700 includes a display unit 3702; A touch-sensitive surface unit (3704) configured to receive contacts; And a processing unit 3708 coupled to the display unit 3702 and the touch-sensitive surface unit 3704. In some embodiments, the processing unit 3708 includes a detection unit 3710, a determination unit 3712, an operation unit 3714, an execution unit 3716, and a transition unit 3718.

프로세싱 유닛(3708)은 (예를 들어, 검출 유닛(3710)을 이용하여) 터치-감응 표면 유닛(3704)의 제1 구역 - 터치-감응 표면 유닛(3704)의 제1 구역은 감도 감소된 동작 모드에 있음 - 에서 접촉을 검출하고; 접촉을 검출하는 것에 응답하여: (예를 들어, 결정 유닛(3712)을 이용하여) 접촉이 지문 센서 활성화 기준을 충족시키는지 여부를 결정하고; 접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라 (예를 들어, 동작 유닛(3714)을 이용하여) 터치-감응 표면 유닛(3704)의 제1 구역을 감도 향상된 동작 모드에서 동작시키고; 접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 동작 유닛(3714)을 이용하여) 터치-감응 표면 유닛(3704)의 제1 구역을 감도 감소된 동작 모드에서 계속 동작시키도록 구성된다.The processing unit 3708 may be configured to provide a first zone of the first zone-touch-sensitive surface unit 3704 of the touch-sensitive surface unit 3704 (e.g., using the detection unit 3710) In the mode - to detect contact; In response to detecting the contact: determining whether the contact meets the fingerprint sensor activation criteria (e.g., using decision unit 3712); Operating the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode of operation in accordance with a determination that the contact meets the fingerprint sensor activation criteria (e.g., using the action unit 3714); Responsive surface unit 3704 continues to operate in a reduced sensitivity mode of operation (e.g., using an action unit 3714), in accordance with a determination that the contact does not meet the fingerprint sensor activation criteria .

일부 실시예들에서, 터치-감응 표면 유닛(3704)의 제1 구역이 감도 향상된 동작 모드에 있는 동안에, 프로세싱 유닛(3708)은 (예를 들어, 검출 유닛(3710)을 이용하여) 제1 구역 내에서 검출된 접촉의 지문 상세사항들을 검출할 수 있고, 터치-감응 표면 유닛(3704)의 제1 구역이 감도 감소된 동작 모드에 있는 동안에, 프로세싱 유닛(3708)은 (예를 들어, 검출 유닛(3710)을 이용하여) 제1 구역 내에서 검출된 접촉의 지문 상세사항들을 검출할 수 없다.In some embodiments, while the first zone of the touch-sensitive surface unit 3704 is in the sensitivity enhanced mode of operation, the processing unit 3708 may determine (e.g., using the detection unit 3710) Sensing surface unit 3704 can detect the fingerprint details of the detected contact within the touch-sensitive surface unit 3704 and while the first zone of the touch-sensitive surface unit 3704 is in the reduced sensitivity mode of operation, the processing unit 3708 (e.g., (Using the fingerprint sensor 3710) can not detect the fingerprint details of the detected contact in the first zone.

일부 실시예들에서, 프로세싱 유닛(3708)은 터치-감응 표면 유닛(3704)의 제1 구역을 감도 향상된 모드에서 동작시키는 동안에: (예를 들어, 검출 유닛(3710)을 이용하여) 접촉의 지문 특징들을 검출하고, 접촉의 지문 특징들을 검출하는 것에 응답하여, (예를 들어, 수행 유닛(3716)을 이용하여) 지문 특징들에 따라 동작을 수행하도록 구성된다.In some embodiments, the processing unit 3708 may be operable to: during operation of the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode: a fingerprint of the contact (e.g., using the detection unit 3710) In response to detecting the features and detecting the fingerprint features of the contact (e.g., using the performance unit 3716).

일부 실시예들에서, 터치-감응 표면 유닛(3704)은 복수의 상이한 영역들을 포함하고, 프로세싱 유닛(3708)은 (예를 들어, 천이 유닛(3718)을 이용하여) 복수의 상이한 영역들 각각을 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이하도록 구성된다.In some embodiments, the touch-sensitive surface unit 3704 includes a plurality of different regions, and the processing unit 3708 includes a plurality of different regions (e.g., using the transition unit 3718) And is configured to independently transition between the sensitivity reduced mode and the sensitivity enhanced mode.

일부 실시예들에서, 프로세싱 유닛(3708)은 제1 구역이 감도 향상된 모드에서 동작되는 동안에 (예를 들어, 동작 유닛(3714)을 이용하여) 터치-감응 표면 유닛(3704)의 다른 영역들 중 하나 이상을 감도 감소된 모드에서 동작시키도록 구성된다.In some embodiments, the processing unit 3708 may be operable to determine whether the first zone is operating in a sensitivity-enhanced mode (e.g., using the operational unit 3714) And to operate one or more in a reduced sensitivity mode.

일부 실시예들에서, 터치-감응 표면 유닛(3704)의 제1 구역을 감도 향상된 모드에서 동작시키는 것은 터치-감응 표면 유닛(3704)의 제1 구역을 감도 감소된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다.In some embodiments, operating the first zone of the touch-sensitive surface unit 3704 in the sensitivity enhanced mode is more efficient than operating the first zone of the touch-sensitive surface unit 3704 in the sensitivity reduced mode Consumes power.

일부 실시예들에서, 터치-감응 표면 유닛(3704)의 제1 구역보다 많은 구역을 감도 향상된 모드에서 동작시키는 것은 터치-감응 표면 유닛(3704)의 제1 구역만을 감도 향상된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다.In some embodiments, operating more than the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode may result in operating only the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode It consumes more power.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은, 터치-감응 표면 유닛(3704)의 제1 구역 내에서 지문 형상의 접촉이 검출될 때 충족되는 기준을 포함한다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a fingerprint-like contact is detected within the first zone of the touch-sensitive surface unit 3704.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 사전 결정된 임계치 속도 미만의 속도로 이동하는 지문 형상의 접촉이 검출될 때 충족되는 기준을 포함한다.In some embodiments, the one or more fingerprint sensor activation criteria include a criterion that is met when a fingerprint of contact moving at a velocity less than a predetermined threshold velocity is detected.

일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 접촉에 대응하는 포커스 셀렉터가 지문-감응 사용자 인터페이스 요소 위에 있는 동안에 접촉이 터치-감응 표면 유닛(3704) 상에서 검출될 때 충족되는 기준을 포함한다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a contact is detected on the touch-sensitive surface unit 3704 while the focus selector corresponding to the contact is over the fingerprint-sensitive user interface element.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 36a 및 도 36b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 37에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(3602), 결정 동작(3606) 및 작동 동작(3614, 3618)들이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 36A and 36B are optionally implemented by the components shown in Figs. 1A and 1B or 37. For example, a detection operation 3602, a decision operation 3606, and an operation 3614, 3618 are optionally implemented by the event classifier 170, the event recognizer 180, and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

지문 제스처들과 연관된 동작들의 수행Performing actions associated with fingerprint gestures

다수의 전자 디바이스들은 각자의 대응하는 사용자 인터페이스들 및 어포던스들와 함께 각자의 동작들을 수행하기 위한 각자의 애플리케이션들을 구비한다. 전형적으로, 디바이스에 의해 동작이 수행되게 하기 위해서, 사용자는 사용자가 디바이스 상에서 (예를 들어, 대응하는 애플리케이션 아이콘을 활성화함으로써) 대응하는 애플리케이션을 기동시켜, 대응하는 사용자 인터페이스들 및 어포던스들이 표시되게 한다. 이어서, 사용자는 사용자 인터페이스 및 어포던스들을 이용하여 동작을 활성화한다. 그러나, 때때로 사용자는 관련 없는 애플리케이션 또는 사용자 인터페이스와 상호작용하는 동안의 순간에 동작이 수행되기를 원한다. 현재의 방법들에서, 사용자가 동작을 수행하기 위해서는 여전히 애플리케이션을 기동시키도록 애플리케이션 아이콘을 활성화하여야 한다. 이는 시간 소비적이고 사용자 경험을 손상시킨다. 아래에서 기술되는 실시예들은 디바이스 상에서 특정 지문을 동작과 연관시킴으로써 이러한 방법을 향상시킨다. 원하는 동작과 관련 없는 사용자 인터페이스가 표시되는 동안에 사용자가 지문으로 제스처를 수행하면, 디바이스가 그 동작을 수행한다. 따라서, 사용자는 동작과 관련 없는 사용자 인터페이스가 표시되는 동안에 동작을 활성화할 수 있으며; 사용자는 동작을 신속하고 효율적으로 활성화하는 능력을 가질 수 있음으로써, 사용자 인터페이스의 속도 및 효율성을 향상시킨다.A plurality of electronic devices have their respective applications for performing their respective operations with their respective user interfaces and positives. Typically, in order for an operation to be performed by a device, a user activates a corresponding application on the device (e.g., by activating the corresponding application icon), causing corresponding user interfaces and poses to be displayed . The user then activates the operation using the user interface and the positives. However, sometimes the user wants the action to be performed at an instant while interacting with an unrelated application or user interface. In current methods, the user must activate the application icon to still launch the application in order to perform the action. This is time consuming and impairs the user experience. The embodiments described below improve this method by associating a particular fingerprint on the device with the operation. If the user performs a gesture with the fingerprint while the user interface unrelated to the desired operation is displayed, the device performs the operation. Thus, the user can activate the operation while the user interface unrelated to the operation is displayed; The user can have the ability to quickly and efficiently activate the operation, thereby improving the speed and efficiency of the user interface.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 38a 내지 도 38p 및 도 39a 내지 도 39e와 관련하여 아래에서 기술되는 디바이스는 선택적으로 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 38a 내지 도 38p 및 도 39a 내지 도 39e와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 선택적으로 하나 이상의 지문 센서(169)들과 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 선택적으로 하나 이상의 지문 센서(169)들을 갖는 디바이스 상에서, 도 38a 내지 도 38p에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 터치-감응 표면(451) 상에서 도 38a 내지 도 38p에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The devices described below in connection with Figs. 38A to 38P and Figs. 39A to 39E optionally include one or more fingerprint sensors 169. Fig. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 38A to 38P and Figs. 39A to 39E will be discussed with reference to touch screen 112 and optionally one or more fingerprint sensors 169; In such embodiments, the focus selector may alternatively include a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, a contact, or a touch screen 112 &Lt; / RTI &gt; While displaying the user interfaces shown in Figures 38a-38p on the display 450 on a device having a display 450, a separate touch-sensitive surface 451 and optionally one or more fingerprint sensors 169, In response to detecting the inputs depicted in Figures 38a-38p on the touch-sensitive surface 451, similar operations are optionally performed.

도 38a는 디바이스(디바이스(100))의 터치 스크린(112) 상에 표시된 사용자 인터페이스(3801)를 도시한다. 터치 스크린(112)은 통합형 지문 센서를 포함한다. 도 38a에서, 각자의 애플리케이션들을 기동하기 위한 하나 이상의 아이콘들을 포함하는 애플리케이션 기동 사용자 인터페이스(3801)가 터치스크린 디스플레이(112) 상에 표시된다. 디바이스에서, 하나 이상의 각자의 지문들이 각자의 동작들과 연관된다. 일부 실시예들에서, 지문들은 손과 손가락별로 구별지어진다. 예를 들어, 오른손 엄지 지문이 각자의 기능 또는 동작과 연관되고, 왼손 엄지 지문이 다른 각자의 기능 또는 동작과 연관된다. 일부 실시예들에서, 카메라-관련 기능 또는 동작(예를 들어, 사진 또는 비디오를 캡처하기 위한 셔터 기능, 카메라 미리보기 표시)이 각자의 지문과 연관된다.38A shows a user interface 3801 displayed on the touch screen 112 of the device (device 100). The touch screen 112 includes an integrated fingerprint sensor. 38A, an application launch user interface 3801 is displayed on the touch screen display 112 that includes one or more icons for activating their respective applications. In a device, one or more of their fingerprints are associated with their respective actions. In some embodiments, fingerprints are distinguished by hand and finger. For example, the right thumb fingerprint is associated with each function or action, and the left thumb fingerprint is associated with each other's function or operation. In some embodiments, a camera-related function or action (e.g., a shutter function for capturing a photo or video, a camera preview display) is associated with each fingerprint.

애플리케이션 기동 사용자 인터페이스(3801)가 터치 스크린(112) 상에 표시되는 동안에, 디바이스는 터치 스크린(112) 상에서 지문(3802)을 이용한 제스처를 검출한다. 지문(3802)은 디바이스에 의해 오른손 엄지 지문으로서 식별된다. 이러한 예에서, 오른손 엄지 지문은 카메라 인터페이스 및 카메라 미리보기의 표시 및 정지 이미지 또는 사진 캡처와 연관된다. 지문(3802)을 이용한 제스처의 검출에 응답하여, 도 38b에 도시된 바와 같이 디바이스는 터치 스크린(112) 상에서 카메라 모듈(143)에 대응하는 카메라 인터페이스(3804)를 표시한다. 일부 실시예들에서, 디바이스는 터치 스크린(112) 상에서 지문(3802)을 검출하는 것에 응답하여 적어도 미리 정해진 시간량 동안 카메라 미리보기(3804)를 표시한다. 카메라 인터페이스(3804)는 카메라 미리보기(3806)를 포함한다. 카메라 미리보기(3806)는 디바이스 상에서 카메라(예를 들어, 광학 센서(들)(164))에 의해 검출된 콘텐트를 보여주고, 디바이스 상에서 미디어 캡처 기능이 활성화되면 카메라에 의해 정지 이미지 또는 비디오로서 캡처될 것을 미리 보여준다.While the application launch user interface 3801 is displayed on the touch screen 112, the device detects a gesture using the fingerprint 3802 on the touch screen 112. [ Fingerprint 3802 is identified by the device as a right-hand thumbprint. In this example, the right-hand thumbprint is associated with the display of the camera interface and the camera preview and still image or photo capture. In response to the detection of the gesture using the fingerprint 3802, the device displays a camera interface 3804 corresponding to the camera module 143 on the touch screen 112 as shown in Fig. 38B. In some embodiments, the device displays the camera preview 3804 for at least a predetermined amount of time in response to detecting the fingerprint 3802 on the touch screen 112. The camera interface 3804 includes a camera preview 3806. The camera preview 3806 shows the content detected by the camera (e.g., optical sensor (s) 164) on the device and is captured by the camera as a still image or video when the media capture function is activated on the device It shows in advance.

일부 실시예들에서, 이전에 등록된 사용자들의 지문의 특징들 또는 미리 정해진 지문 유형들과 연관된 특징들에 대한 비교에 기초하여 터치 스크린(112) 상에서 검출된 지문들이 식별된다. 예를 들어, 지문(3802)은 특정한 사용자의 오른손 엄지 지문으로서의 지문(3802)의 식별, 또는 포괄적인 오른손 엄지 지문으로서의 지문(3802)의 식별(즉, 지문(3802)을 특정 사용자에 속하는 것으로서 식별하지 않음)을 통해 오른손 엄지 지문으로서 식별된다.In some embodiments, fingerprints detected on the touch screen 112 are identified based on a comparison of previously registered users' fingerprint features or features associated with predetermined fingerprint types. For example, the fingerprint 3802 may identify the fingerprint 3802 as a particular user's right-hand thumb fingerprint, or identify the fingerprint 3802 as a generic right-hand thumbprint (i.e., identify fingerprint 3802 as belonging to a particular user) (Not shown).

디바이스는 지문(3802)을 이용한 제스처의 연속성을 검출하며, 이러한 연속성은 도 38c에 도시된 바와 같이 지문(3802)에 대응하는 접촉의 강도가 미리 정해진 강도 임계치(예를 들어, 표준 접촉 검출 강도 임계치 초과의 강도 임계치) 위로 증가하는 것을 포함한다. 예를 들어, 사용자는 지문(3802)에 대응하는 접촉으로 터치 스크린(112)을 누른다. 임계치 위로 증가하는 강도를 검출하는 것에 응답하여, 디바이스는 카메라 미리보기(3806)에 대응하는 정지 이미지 또는 사진의 캡처를 활성화하는 셔터 기능을 활성화한다. 일부 실시예들에서, 도 38c에 도시된 바와 같이, 디바이스는 카메라 애플리케이션(143)을 위한 필름 스트립 또는 카메라 롤로 이동하는 캡처된 사진의 표현(3808)의 애니메이션을 표시한다. 사진이 캡처된 후에, 도 38d에 도시된 바와 같이, 디바이스는 카메라 인터페이스(3804) 및 카메라 인터뷰(3806)를 표시하는 것을 중단하며, 이전에 표시된 사용자 인터페이스(예를 들어, 애플리케이션 기동 사용자 인터페이스(3801))를 재표시한다.The device detects the continuity of the gesture with the fingerprint 3802, and this continuity is determined by the strength of the contact corresponding to the fingerprint 3802 as shown in Figure 38C is less than a predetermined strength threshold (e.g., Gt; intensity threshold). &Lt; / RTI &gt; For example, the user presses the touch screen 112 with a touch corresponding to the fingerprint 3802. In response to detecting the increasing intensity above the threshold, the device activates a shutter function that activates capture of still images or photos corresponding to the camera preview 3806. In some embodiments, as shown in FIG. 38C, the device displays an animation of a representation (3808) of the captured picture moving to a filmstrip or camera roll for the camera application 143. After the picture is captured, the device stops displaying the camera interface 3804 and the camera interview 3806, as shown in Figure 38D, and displays the previously displayed user interface (e.g., the application launch user interface 3801 )).

일부 실시예들에서, 디바이스는 접촉 강도의 증가를 검출하는 것에 응답하기보다는, 각자의 시간 임계치(예를 들어, 2, 5, 10초 또는 임의의 다른 합리적인 시간 임계치)보다 긴 시간 동안 계속해서 지문(3802)을 검출하는 것에 응답하여 콘텐트를 캡처하기 위한 셔터 기능을 활성화한다. 예를 들어, 도 38b의 지문(3802)이 초기 검출로부터 시간 임계치보다 긴 시간 동안 계속해서 검출되면 셔터 기능이 활성화된다. 따라서 일부 실시예들에서, 카메라 인터페이스를 표시하거나 셔터 기능(또는 다른 동작)을 활성화하기 위한 어포던스를 포함하지 않는 사용자 인터페이스가 표시된 동안에도, 사용자는 여전히 각자의 동작(들)과 연관된 지문을 포함하는 제스처를 이용하여 카메라 인터페이스의 표시 및/또는 셔터 기능(또는 다른 동작)을 활성화할 수 있다.In some embodiments, the device may continue to process fingerprint images for a longer period of time than their respective time thresholds (e.g., 2, 5, 10 seconds or any other reasonable time threshold), rather than responding to detecting an increase in contact strength. And activates a shutter function for capturing the content in response to detecting the shutter 3802. For example, if the fingerprint 3802 of FIG. 38B is continuously detected from the initial detection for a time longer than the time threshold, the shutter function is activated. Thus, in some embodiments, even while a user interface is displayed that does not include an affordance for displaying a camera interface or activating a shutter function (or other operation), the user may still include a fingerprint associated with the respective action A gesture can be used to activate the display and / or shutter function (or other action) of the camera interface.

도 38e 내지 도 38h는 각자의 동작을 활성화하기 위한 어포던스를 포함하지 않는 사용자 인터페이스가 표시되는 동안에 각자의 동작을 활성화하는 다른 예를 도시한다. 도 38e는 도 38a에서와 같이 터치 스크린(112) 상에 표시된 애플리케이션 기동 사용자 인터페이스(3801)를 도시한다. 지문(3810)을 이용한 제스처가 터치 스크린(112) 상에서 검출된다. 지문(3810)은 디바이스에 의해 오른손 엄지 지문인 것으로 검출된다. 이러한 예에서, 오른손 엄지 지문은 카메라 인터페이스 및 카메라 미리보기의 표시 및 비디오 녹화와 연관된다. 지문(3810)을 이용한 제스처를 검출하는 것에 응답하여, 디바이스는 도 38f에 도시된 바와 같이 터치 스크린(112) 상의 카메라 인터페이스(3804) 및 카메라 미리보기(3812)를 표시한다. 또한, 디바이스는 카메라 미리보기(3812)에 대응하는 비디오의 녹화를 활성화한다. 비디오가 녹화되는 동안에, 녹화가 진행 중임을 나타낼 뿐만 아니라 진행 중인 녹화의 시간 길이를 나타내도록 녹화 표시자(3813)가 선택적으로 터치 스크린(112) 상에 표시된다. 도 38g는 예를 들어 지문(3810)이 터치 스크린(112)으로부터 들어올려짐으로 인해 지문(3810)을 이용한 제스처가 더 이상 터치 스크린(112) 상에서 검출되지 않음을 나타낸다. 들어올림을 검출하는 것에 응답하여, 디바이스는 비디오의 녹화를 중단하고 카메라 인터페이스(3804) 및 카메라 미리보기(3812)의 표시를 중단하며, 도 38h에 도시된 바와 같이 사용자 인터페이스(3801)를 재표시한다.Figs. 38E to 38H show another example of activating each operation while a user interface that does not include an allowance for activating each operation is displayed. 38E shows an application launch user interface 3801 displayed on the touch screen 112 as in FIG. 38A. A gesture using the fingerprint 3810 is detected on the touch screen 112. Fingerprint 3810 is detected by the device as being a right thumb fingerprint. In this example, the right-hand thumb fingerprint is associated with the display of the camera interface and camera preview and video recording. In response to detecting the gesture with the fingerprint 3810, the device displays the camera interface 3804 and camera preview 3812 on the touch screen 112 as shown in Figure 38F. In addition, the device activates video recording corresponding to the camera preview 3812. While the video is being recorded, a recording indicator 3813 is selectively displayed on the touch screen 112 to indicate that the recording is in progress, as well as the length of time of the ongoing recording. 38g shows that the gesture with the fingerprint 3810 is no longer detected on the touch screen 112 due to, for example, the fingerprint 3810 being lifted from the touch screen 112. FIG. In response to detecting the lifting, the device stops recording the video and stops displaying the camera interface 3804 and the camera preview 3812, and resets the user interface 3801, as shown in Figure 38H, do.

일부 실시예들에서, 지문을 포함하는 제스처는 배향, 위치 및/또는 지속기간에 대해 특정되며, 지문과 연관된 동작이 활성화되었는지 여부는 지문이 배향, 위치 및/또는 지속기간 요건들을 충족시키는지 여부에 의존한다. 예를 들어, 일부 실시예들에서, 지문(3802)이 미리 정해진 시간의 기간보다 짧은 기간 동안 터치 스크린(112) 상에서 검출되면, 동작은 수행되지 않는다. 일부 실시예들에서, 지문이 터치 스크린(112) 상의 사전 결정된 위치(예를 들어, 현재 스크린 배향에 기초하여 터치 스크린(112)의 상부 우측 사분면)가 아닌 위치에서 검출되면(예를 들어, 상부 우측 사분면에 있는 지문(3802, 3810)과 상반되게 지문(3814)이 하부 우측 사분면에 있으면(도 38i)), 동작은 수행되지 않는다. 일부 실시예들에서, 지문이 터치 스크린(112)의 사전 결정된 배향(예를 들어, 지문이 위쪽이 위로 오는(right-side-up) 수직으로부터 45°±10°의 각도)이 아닌 배향으로 검출되면(예를 들어, 배향 각도 범위 내에 있는 지문(3802, 3810)과 상반되게 지문(3816)이 배향 각도 범위 밖에 있으면(도 38j)), 동작은 수행되지 않는다(예를 들어, 미디어가 캡처되지 않고, 디바이스는 현재 표시되는 사용자 인터페이스의 표시를 미디어 캡처 사용자 인터페이스로 대체하지 않음).In some embodiments, a gesture that includes a fingerprint is specified for orientation, position and / or duration, and whether an action associated with the fingerprint is activated indicates whether the fingerprint satisfies orientation, position and / or duration requirements Lt; / RTI &gt; For example, in some embodiments, if the fingerprint 3802 is detected on the touch screen 112 for a period of time less than a predetermined period of time, no action is performed. In some embodiments, if a fingerprint is detected at a location other than a predetermined location on the touch screen 112 (e.g., the upper right quadrant of the touch screen 112 based on the current screen orientation) (e.g., If the fingerprint 3814 is in the lower right quadrant (Fig. 38i), as opposed to the fingerprint 3802, 3810 in the right quadrant, the operation is not performed. In some embodiments, the fingerprint is detected in an orientation that is not in a predetermined orientation of the touch screen 112 (e.g., an angle of 45 ° ± 10 ° from a vertical right-side-up fingerprint) (E.g., if the fingerprint 3816 is outside the orientation angle range (Fig. 38j), as opposed to the fingerprint 3802, 3810 within the orientation angle range), then the action is not performed , The device does not replace the display of the currently displayed user interface with the media capture user interface).

도 38k 내지 도 38l은 각자의 동작을 활성화하기 위한 어포던스를 포함하지 않는 사용자 인터페이스가 표시되는 동안에 각자의 동작을 활성화하는 또 다른 예를 도시한다. 도 38k는 터치 스크린(112) 상에 표시된 노트 애플리케이션에 대한 사용자 인터페이스(3818)를 도시한다. 지문(3820)을 이용한 제스처가 터치 스크린(112) 상에서 검출되고, 그 다음 미리 정해진 기간 후에 터치 스크린(112)으로부터 들어올려진다. 지문(3820)은 디바이스에 의해 오른손 엄지 지문인 것으로 검출된다. 이러한 예에서, 오른손 엄지 지문은 전화 애플리케이션 사용자 인터페이스, 이메일 애플리케이션 사용자 인터페이스, 또는 메시징 애플리케이션 사용자 인터페이스와 같은 통신 인터페이스의 표시와 연관된다. 지문(3820)을 이용한 제스처의 검출 및 후속하여 지문을 들어올리는 것에 응답하여, 디바이스는 도 38l에 나타내어진 바와 같이 터치 스크린(112) 상에 전화 애플리케이션 인터페이스(3822)를 표시한다.38K to 38L illustrate another example of activating each operation while a user interface that does not include an allowance for activating each operation is displayed. Figure 38k shows a user interface 3818 for the note application displayed on the touch screen 112. [ A gesture using the fingerprint 3820 is detected on the touch screen 112 and then lifted from the touch screen 112 after a predetermined period of time. The fingerprint 3820 is detected by the device as being a right thumb fingerprint. In this example, the right-hand thumbprint is associated with an indication of a communication interface, such as a telephone application user interface, an email application user interface, or a messaging application user interface. In response to detecting the gesture with the fingerprint 3820 and subsequently picking up the fingerprint, the device displays the phone application interface 3822 on the touch screen 112 as shown in FIG.

일부 실시예들에서, 다수의 지문들이 디바이스 상에서 상이한 동작들과 각각 연관된다. 예를 들어, 오른손 엄지 지문이 정지 이미지 캡처와 연관되고 왼손 엄지 지문이 비디오 녹화와 연관되는데, 그 예가 도 38m 내지 도 38p에 도시되어 있다. 도 38m은 애플리케이션 기동 사용자 인터페이스(3801)가 터치 스크린(112) 상에 표시된 동안에 터치 스크린(112) 상에서 검출된 지문(3824)을 이용한 제스처를 도시한다. 지문(3824)은 오른손 엄지 지문인 것으로 검출된다. 도 38n에 도시된 바와 같이, 지문(3824)을 이용한 제스처를 검출하는 것에 응답하여 카메라 인터페이스(3804) 및 카메라 미리보기(3826)가 표시되고, 카메라 미리보기(3826)에 대응하는 사진이 캡처된다. 사진이 캡처된 후에, 디바이스는 선택적으로 카메라 인터페이스(3804) 및 카메라 미리보기(3826)의 표시를 중단하며, 이전에 표시된 사용자 인터페이스(예를 들어, 애플리케이션 기동 사용자 인터페이스(3801))를 재표시한다.In some embodiments, multiple fingerprints are each associated with different actions on the device. For example, the right-hand thumb fingerprint is associated with still image capture and the left-hand thumb fingerprint is associated with video recording, an example of which is shown in Figures 38m-38p. Figure 38m shows the gesture with the fingerprint 3824 detected on the touch screen 112 while the application launch user interface 3801 is displayed on the touch screen 112. [ The fingerprint 3824 is detected as a right thumb fingerprint. 38N, the camera interface 3804 and the camera preview 3826 are displayed in response to detecting the gesture with the fingerprint 3824, and a picture corresponding to the camera preview 3826 is captured . After the picture is captured, the device optionally stops displaying the camera interface 3804 and the camera preview 3826 and redisplays the previously displayed user interface (e.g., the application launch user interface 3801) .

도 38o는 사용자 인터페이스(3801)가 터치 스크린(112) 상에 표시된 동안에 터치 스크린(112) 상에서 검출된 지문(3828)을 이용한 제스처를 도시한다. 지문(3828)은 왼손 엄지 지문인 것으로 검출된다. 도 38p에 도시된 바와 같이, 지문(3828)을 이용한 제스처를 검출하는 것에 응답하여 카메라 인터페이스(3804) 및 카메라 미리보기(3830)가 표시되고, 카메라 미리보기(3830)에 대응하는 비디오가 캡처된다. 지문(3828)을 이용한 제스처의 들어올림이 검출된 경우에, 비디오 녹화 및 카메라 인터페이스(3804)와 카메라 미리보기(3830)의 표시가 선택적으로 정지된다. 카메라 인터페이스(3804) 및 카메라 미리보기(3830)가 표시되는 것이 중단된 후에, 디바이스는 사용자 인터페이스(3801)를 재표시한다.Figure 38o shows the gesture with the fingerprint 3828 detected on the touch screen 112 while the user interface 3801 is displayed on the touch screen 112. [ Fingerprint 3828 is detected as being a left-hand thumb fingerprint. 38P, the camera interface 3804 and the camera preview 3830 are displayed in response to detecting the gesture using the fingerprint 3828, and the video corresponding to the camera preview 3830 is captured . The display of the video recording and camera interface 3804 and the camera preview 3830 is selectively stopped when a lifting of the gesture using the fingerprint 3828 is detected. After the camera interface 3804 and camera preview 3830 are stopped being displayed, the device redisplays the user interface 3801. [

도 39a 내지 도 39e는 일부 실시예들에 따라 지문 제스처들과 연관된 동작들을 수행하는 방법(3900)을 예시하는 흐름도이다. 방법(3900)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3900) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.Figures 39A-39E are flow charts illustrating a method 3900 of performing actions associated with fingerprint gestures in accordance with some embodiments. The method 3900 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 3900 are optionally combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(3900)은 지문 제스처들과 연관된 동작들을 수행하기 위한 직관적인 방식을 제공한다. 이 방법은 지문 제스처들과 연관된 동작들을 수행할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 지문 제스터와 연관된 동작들을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 3900 provides an intuitive way to perform actions associated with fingerprint gestures. This method reduces the cognitive burden on the user when performing actions associated with fingerprint gestures, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing a user to perform operations associated with fingerprint gestures faster and more efficiently preserves power and increases the time between battery charges.

디바이스는 제1 지문을 제1 동작과 연관시킨다(3902)(예를 들어, 지문 등록 프로세스 동안에, 오른손 엄지 지문을 카메라 애플리케이션의 셔터 기능에 할당함). 예를 들어, 도 38a 내지 도 38d에서, 오른손 엄지 지문은 카메라 셔터 기능과 연관된다.The device associates (3902) the first fingerprint with the first action (e.g., assigns the right thumb fingerprint to the shutter function of the camera application during the fingerprint registration process). For example, in Figs. 38A to 38D, the right thumb fingerprint is associated with the camera shutter function.

디바이스는 디스플레이 상에 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시한다(3904)(예를 들어, 사용자 인터페이스는 제1 동작을 수행하기 위한 사용자 인터페이스가 아니고, 사용자 인터페이스는 제1 동작을 수행하기 위한 어포던스 또는 다른 사용자 인터페이스 요소들을 포함하지 않음). 도 38a 및 도 38e에 도시된 바와 같이, 터치 스크린(112) 상에 표시된 사용자 인터페이스(3801)는 예를 들어 애플리케이션들을 기동하기 위한 어포던스들(예를 들어, 애플리케이션 아이콘들)을 포함하지만, 사진을 캡처하거나 비디오를 녹화하기 위한 어포던스는 포함하지 않는다. 유사하게, 사용자 인터페이스(3818)(도 38k)는 필기와 관련된 어포던스들(예를 들어, 기존 메모의 열기, 새로운 메모의 생성, 메모의 삭제 등을 위한 각자의 어포던스들)을 포함하지만, 전화 통화를 하는 것과 관련된 어포던스는 포함하지 않는다. 일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하기 위한 표시된 제어부를 포함하지 않는다(3906). 예를 들어, 사용자 인터페이스(3801)(도 38a 또는 도 38e)는 사진을 캡처하거나 비디오를 녹화하기 위한 제어부를 포함하지 않는다. 사용자 인터페이스(3818)(도 38k)는 전화 통화를 하기 위한 제어부 또는 전화 애플리케이션 인터페이스의 표시를 활성화하기 위한 제어부를 포함하지 않는다.The device displays (3904) its respective user interface including the poses for performing a plurality of actions on the display other than the first action (e.g., the user interface is not a user interface for performing the first action , The user interface does not include the affordance or other user interface elements for performing the first operation). 38A and 38E, the user interface 3801 displayed on the touch screen 112 includes, for example, poses (e.g., application icons) for activating applications, It does not include the posibility to capture or record video. Similarly, the user interface 3818 (Figure 38k) includes the poses associated with the handwriting (e.g., opening existing memos, creating new memos, and individual positives for deleting notes) Does not include the associated pos- sions. In some embodiments, each user interface does not include a displayed control for performing the first operation (3906). For example, the user interface 3801 (Fig. 38A or 38E) does not include a control for capturing pictures or recording video. The user interface 3818 (Figure 38k) does not include a control for activating the display of the telephone application or a control for making telephone calls.

일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하기 위해 구성되지 않은 제1 애플리케이션의 사용자 인터페이스이고(3908), 제1 동작은 제1 애플리케이션과는 상이한 제2 애플리케이션에 의해 수행된다. 예를 들어, 사용자 인터페이스(3818)(도 38k)는 카메라 동작들을 수행하기 위해 구성되지 않은 노트 애플리케이션(예를 들어, 노트 모듈(153))에 대한 사용자 인터페이스이다. 카메라 동작들은 카메라 애플리케이션(예를 들어, 카메라 모듈(143))에 의해 수행된다. 일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하도록 구성되지 않은 애플리케이션 기동 스크린의 사용자 인터페이스이고(3910), 제1 동작은 애플리케이션 기동 스크린과는 상이한 각자의 애플리케이션에 의해 수행된다. 예를 들어, 사용자 인터페이스(3801)(도 38a 또는 도 38e)는 카메라 동작들을 수행하도록 구성되지 않은 애플리케이션 기동 스크린이다. 카메라 동작들은 카메라 애플리케이션(예를 들어, 카메라 모듈(143))에 의해 수행된다.In some embodiments, each user interface is a user interface (3908) of a first application that is not configured to perform a first operation, the first operation being performed by a second application different than the first application. For example, user interface 3818 (Figure 38k) is a user interface to a note application (e.g., note module 153) that is not configured to perform camera actions. The camera operations are performed by a camera application (e.g., camera module 143). In some embodiments, each user interface is a user interface (3910) of an application launch screen that is not configured to perform a first operation, the first operation being performed by a respective application different than the application launch screen. For example, the user interface 3801 (Fig. 38A or 38E) is an application launch screen that is not configured to perform camera operations. The camera operations are performed by a camera application (e.g., camera module 143).

제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하는 동안에, 디바이스가 터치-감응 표면 상에서 제1 지문을 검출하는 것을 포함하는 제1 제스처(예를 들어, 탭 제스처, 탭-드래그 제스처, 터치-홀드 제스처, 또는 제1 동작을 수행하는 것과 연관된 다른 미리 정해진 제스처)를 검출한다(3912). 예를 들어, 도 38a는 터치 스크린(112) 상에서 지문(3802)을 포함하는 제스처를 검출하는 디바이스(100)를 도시한다. 도 38e는 터치 스크린(112) 상에서 지문(3810)을 포함하는 제스처를 검출하는 디바이스(100)를 도시한다. 도 38k는 터치 스크린(112) 상에서 지문(3820)을 포함하는 제스처를 검출하는 디바이스(100)를 도시한다.During display of a respective user interface that includes poses for performing a plurality of actions other than the first action, a first gesture (e.g., a tap) involving the device detecting the first fingerprint on the touch- Gesture, tap-drag gesture, touch-hold gesture, or other predetermined gesture associated with performing the first action). For example, FIG. 38A illustrates a device 100 that detects a gesture that includes a fingerprint 3802 on the touch screen 112. FIG. Figure 38E illustrates a device 100 that detects a gesture that includes a fingerprint 3810 on a touch screen 112. [ Figure 38k illustrates a device 100 that detects a gesture that includes a fingerprint 3820 on a touch screen 112. [

일부 실시예들에서, 제1 제스처는 배향-특정 제스처이고, 배향-특정 제스처를 검출하는 것은 터치-감응 표면 상에서 사전 결정된 배향의 제1 지문을 검출하는 것을 포함한다(3914). 예를 들어, 동작은 엄지가 터치-감응 표면의 주축에 대해 미리 정해진 각도(예를 들어, 터치-감응 표면의 주축과 비교하여 45°각도)에 있거나 또는 미리 정해진 각도의 범위(예를 들어, 터치-감응 표면의 주축과 비교하여 45°±5°, 10°, 또는 15°) 내에 있는 동안에 디바이스가 엄지로 수행된 제스처를 검출한 경우에만 수행된다. 반대로, 일부 실시예들에서, 제1 지문이 미리 정해진 각도에 있지 않거나 미리 정해진 각도의 범위 내에 있지 않다면, 제1 동작이 수행되지 않는다(예를 들어, 어떠한 동작도 수행되지 않거나, 제1 동작 대신에 제1 지문의 위치에 있는 현재 표시된 아이콘(또는 다른 사용자 인터페이스 요소)과 연관된 동작이 수행됨). 예를 들어, 도 38a 내지 도 38c에서, 지문(3802)을 이용한 제스처는 선택적으로 배향-특정적이며, 지문(3802)은 디바이스의 긴 에지에 평행한 축에 대해 미리 정해진 각도의 범위(예를 들어, 45°±10°) 내에 있는 것으로 검출된다. 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 한편, 지문(3812)(도 38j)이 미리 정해진 각도 범위 밖에 있으면, 지문(3812)의 검출에 응답하여 카메라 인터페이스 또는 카메라 미리보기가 표시되지 않는다.In some embodiments, the first gesture is an orientation-specific gesture, and detecting the orientation-specific gesture includes detecting a first fingerprint of a predetermined orientation on the touch-sensitive surface (3914). For example, the action may be such that the thumb is at a predetermined angle with respect to the main axis of the touch-sensitive surface (e.g., at a 45 angle relative to the main axis of the touch-sensitive surface) Is performed only when the device detects a gesture performed with the thumb while it is within 45 [deg.] 5 [deg.], 10 [deg.], Or 15 [deg.] As compared to the main axis of the touch-sensitive surface. Conversely, in some embodiments, if the first fingerprint is not at a predetermined angle or within a predetermined range of angles, the first action is not performed (e.g., no action is performed, or instead of the first action An action associated with the currently displayed icon (or other user interface element) at the location of the first fingerprint is performed). 38A-38C, the gesture using the fingerprint 3802 is optionally orientation-specific, and the fingerprint 3802 is a range of predetermined angles (e.g., For example, 45 DEG +/- 10 DEG. In response to detecting the gesture using the fingerprint 3802, the camera interface 3804 and the camera preview 3806 are displayed. On the other hand, if the fingerprint 3812 (Fig. 38J) is outside the predetermined angular range, the camera interface or the camera preview is not displayed in response to the detection of the fingerprint 3812. [

일부 실시예들에서, 제1 제스처는 위치-특정 제스처이며, 위치-특정 제스처를 검출하는 것은 터치-감응 표면 상에서 사전 결정된 위치에 있는 제1 지문을 검출하는 것을 포함한다(3916). 예를 들어, 동작은 엄지가 터치-감응 표면 상의 사전 결정된 위치(예를 들어, 터치-감응 표면의 상부 우측 코너)에 있는 동안에 디바이스가 엄지를 이용하여 수행된 제스처를 검출했을 때에만 수행된다. 반대로, 일부 실시예들에서, 제1 지문이 사전 결정된 위치에 있지 않다면 제1 동작이 수행되지 않는다(예를 들어 어떠한 동작도 수행되지 않거나, 제1 동작 대신에 제1 지문의 위치에 있는 현재 표시된 아이콘(또는 다른 사용자 인터페이스 요소)과 연관된 동작이 수행됨). 예를 들어, 도 38a 내지 도 38c에서, 지문(3802)을 이용한 제스처는 선택적으로 위치-특정적이며, 지문(3802)이 미리 정해진 위치(예를 들어, 현재 스크린 배향에 기초하여 터치 스크린(112)의 상부 우측 사분면) 내에 있는 것으로 검출된다. 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 다른 한편으로, 지문(3810)(도 38I)이 미리 정해진 위치 밖에 있으면, 지문(3810)의 검출에 응답하여 카메라 인터페이스 또는 카메라 미리보기가 표시되지 않는다.In some embodiments, the first gesture is a position-specific gesture, and detecting the position-specific gesture includes detecting a first fingerprint at a predetermined location on the touch-sensitive surface (3916). For example, the action is performed only when the device detects a gesture performed using the thumb while the thumb is at a predetermined position on the touch-sensitive surface (e.g., the upper right corner of the touch-sensitive surface). Conversely, in some embodiments, the first action is not performed if the first fingerprint is not in the predetermined position (e.g., no action is performed, or instead of the first action, An action associated with the icon (or other user interface element) is performed). 38A-38C, the gesture with the fingerprint 3802 is optionally position-specific and the fingerprint 3802 is displayed on the touch screen 112 (e.g., based on the current screen orientation) (I.e., the upper right quadrant of the upper right quadrant). In response to detecting the gesture using the fingerprint 3802, the camera interface 3804 and the camera preview 3806 are displayed. On the other hand, if the fingerprint 3810 (Fig. 38I) is outside the predetermined position, the camera interface or the camera preview is not displayed in response to the detection of the fingerprint 3810. Fig.

일부 실시예들에서, 제1 제스처는 지속기간-특정 제스처이며, 지속기간-특정 제스처를 검출하는 것은 터치-감응 표면 상에서 적어도 사전 결정된 시간량 동안에 제1 지문을 검출하는 것을 포함한다(3918). 예를 들어, 동작은 미리 정해진 기간(예를 들어, 0.05, 0.1, 0.2, 0.5초, 또는 일부 다른 합리적인 시간의 기간)보다 긴 시간 동안 터치-감응 표면 상에 존재하는 오른손 엄지를 이용하여 수행된 제스처를 검출했을 때에만 수행된다. 반대로, 일부 실시예들에서, 제1 지문이 적어도 사전 결정된 시간량 동안 검출되지 않는다면, 제1 동작이 수행되지 않는다(예를 들어 어떠한 동작도 수행되지 않거나, 제1 동작 대신에 제1 지문의 위치에 있는 현재 표시된 아이콘(또는 다른 사용자 인터페이스 요소)과 연관된 동작이 수행됨). 예를 들어, 도 38a 내지 도 38c에서, 지문(3802)을 이용한 제스처는 선택적으로 지속기간-특정적이며, 지문(3802)이 미리 정해진 기간(예를 들어, 0.2초)보다 긴 시간 동안 터치 스크린(112) 상에서 검출된다. 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 한편, 지문(3802)이 미리 정해진 기간보다 짧은 시간 동안 터치 스크린(112) 상에서 검출되면, 그 응답으로 카메라 인터페이스 또는 카메라 미리보기가 표시되지 않는다.In some embodiments, the first gesture is a duration-specific gesture, and detecting the duration-specific gesture comprises detecting a first fingerprint on at least a predetermined amount of time on the touch-sensitive surface (3918). For example, the action may be performed using a right-hand thumb that is present on the touch-sensitive surface for a time longer than a predetermined period of time (e.g., 0.05, 0.1, 0.2, 0.5 seconds, or some other reasonable time period) It is performed only when a gesture is detected. Conversely, in some embodiments, if the first fingerprint is not detected for at least a predetermined amount of time, the first action is not performed (e.g., no action is performed, or instead of the first action, An action associated with the currently displayed icon (or other user interface element) is performed. For example, in FIGS. 38A-C, a gesture using the fingerprint 3802 is optionally duration-specific, and the fingerprint 3802 is displayed on the touch screen 380 for a time longer than a predetermined period (e.g., 0.2 seconds) (112). In response to detecting the gesture using the fingerprint 3802, the camera interface 3804 and the camera preview 3806 are displayed. On the other hand, if the fingerprint 3802 is detected on the touch screen 112 for a time shorter than the predetermined period, the camera interface or the camera preview is not displayed in the response.

일부 실시예들에서, 터치-감응 표면은 통합형 지문 센서를 갖는 터치스크린 디스플레이이다(3920). 도 39a 내지 도 38p에 도시된 디바이스들은 제스처가 검출되는 터치-감응 표면으로서 터치 스크린(예를 들어, 터치 스크린(112))을 구비한다. 터치 스크린은 선택적으로 통합형 지문 센서를 구비한다. 통합형 지문 센서는 선택적으로 터치 스크린(112)의 영역에 걸친다. 일부 실시예들에서, 터치 스크린(112)은 지문들의 능선들을 검출하기 위한 충분히 높은 고해상도 터치 감지 능력을 가지며, 터치 스크린(112)은 지문 센서로서 사용될 수 있다.In some embodiments, the touch-sensitive surface is a touch screen display 3920 with an integrated fingerprint sensor. The devices shown in Figures 39A-38P have a touch screen (e.g., touch screen 112) as the touch-sensitive surface from which the gesture is detected. The touch screen optionally comprises an integrated fingerprint sensor. The integrated fingerprint sensor optionally spans the area of the touch screen 112. In some embodiments, the touch screen 112 has a sufficiently high resolution touch sensing capability to detect ridges of fingerprints, and the touch screen 112 can be used as a fingerprint sensor.

일부 실시예들에서, 제1 지문은 이전에 등록된 지문이고(예를 들어, 제1 지문이 사용자 X의 오른손 엄지로서 등록되어 디바이스의 메모리 내에 저장되었음), 제1 제스처를 검출하는 것은 검출된 지문의 검출된 특징들과 제1 지문의 이전에 등록된 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다(3922)(예를 들어, 사용자에 의해 엄지 지문인 것으로 식별되었던 특정한 사용자의 이전에 등록된 지문에 제1 지문을 대조함으로써 지문이 엄지로서 식별됨). 예를 들어, 지문(3802)의 식별은 이전에 등록된 사용자들의 지문들에 대해 지문(3802)을 비교하는 것과 지문(3802)을 특정한 사용자의 특정한 지문(예를 들어, 오른손 엄지 지문)으로서 식별하는 것을 포함한다.In some embodiments, the first fingerprint is a previously registered fingerprint (e.g., the first fingerprint is registered as the right-hand thumb of user X and stored in the memory of the device), detecting the first gesture is detected And identifying (3922) the detected fingerprint as a first fingerprint based on a comparison between the detected features of the fingerprint and previously registered features of the first fingerprint (e.g., The fingerprint is identified as a thumb by collating the first fingerprint with a previously registered fingerprint of a particular user identified as the fingerprint). For example, identification of the fingerprint 3802 may include comparing the fingerprint 3802 with fingerprints of previously registered users and identifying the fingerprint 3802 as a particular fingerprint of a particular user (e.g., a right-hand thumbprint) .

일부 실시예들에서, 제1 지문은 미리 정해진 유형의 지문(예를 들어, "엄지 지문")이고, 제1 제스처를 검출하는 것은 미리 정해진 유형의 지문과 연관된 특징들과 검출된 지문의 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다(3924)(예를 들어, 제1 지문은 특별히 지문을 특정한 사용자의 특정한 지문으로 식별하지 않고 제1 지문이 포괄적인 "엄지손가락"인 것으로 식별됨). 예를 들어, 지문(3802)의 식별은 사용자-특정적이지 않은 지문 특징들에 지문(3802)을 비교하고(예를 들어, 크기), 지문(3802)을 포괄적인 손가락으로서 식별하는 것을 포함한다(예를 들어, 포괄적인 오른손 엄지, 포괄적인 왼손 검지 등).In some embodiments, the first fingerprint is a predetermined type of fingerprint (e.g., a "thumbprint"), and detecting the first gesture includes detecting features associated with a predetermined type of fingerprint, (E.g., the first fingerprint does not identify the fingerprint as a particular fingerprint of a particular user, and the first fingerprint does not identify the fingerprint as a generic " Thumb "). For example, identification of the fingerprint 3802 includes comparing fingerprint 3802 to non-user-specific fingerprint features (e.g., size) and identifying the fingerprint 3802 as a generic finger (For example, a comprehensive right-handed thumb, a comprehensive left-handed index, etc.).

제1 제스처를 검출하는 것에 응답하여(3926), 디바이스는 제1 동작을 수행한다(3928). 예를 들어, 도 38b에서, 디바이스가 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 다른 예로서, 도 38n에서, 디바이스가 지문(3824)을 이용한 제스처를 검출하는 것에 응답하여 카메라 미리보기(3826)에 대응하는 사진이 캡처된다.In response to detecting the first gesture (3926), the device performs a first operation (3928). For example, in Fig. 38B, in response to the device detecting a gesture with the fingerprint 3802, the camera interface 3804 and the camera preview 3806 are displayed. As another example, in Figure 38n, a photo corresponding to the camera preview 3826 is captured in response to the device detecting a gesture with fingerprint 3824. [

일부 실시예들에서, 터치-감응 표면 상에서 제1 지문을 검출하는 것에 응답하여 제1 동작이 수행된다(3930)(예를 들어, 제1 동작은 터치-감응 표면 상의 제1 지문 검출에 응답하여 수행됨). 예를 들어, 도 38n의 사진 캡처 동작은 디바이스가 지문(3824)을 검출하는 것에 응답하여 디바이스에 의해 수행된다. 다른 예로서, 도 38a의 카메라 인터페이스(3804) 및 카메라 미리보기(3806)의 표시는 디바이스가 지문(3802)을 검출하는 것에 응답하여 디바이스에 의해 수행된다. 일부 실시예들에서, 제1 동작은 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 제1 지문을 검출하는 것에 응답하여 수행된다.In some embodiments, a first operation is performed 3930 in response to detecting the first fingerprint on the touch-sensitive surface (e.g., the first operation may be performed in response to detecting the first fingerprint on the touch- Performed. For example, the photo-capture operation of Figure 38n is performed by the device in response to the device detecting the fingerprint 3824. [ As another example, an indication of the camera interface 3804 and the camera preview 3806 of Figure 38A is performed by the device in response to the device detecting the fingerprint 3802. In some embodiments, the first operation is performed in response to detecting the first fingerprint on the touch-sensitive surface for a time longer than a predetermined amount of time.

일부 실시예들에서, 제1 동작이 터치-감응 표면으로부터의 제1 지문의 들어올림을 검출하는 것에 응답하여 수행된다(3932)(예를 들어, 제1 동작은 터치-감응 표면 상에서 제1 지문을 검출한 후에 터치-감응 표면으로부터의 제1 지문의 들어올림을 검출하는 것에 응답하여 수행됨). 예를 들어, 도 38l에서 전화 애플리케이션 인터페이스(3822)의 표시는 디바이스가 지문(3820)의 들어올림을 검출하는 것에 응답하여 디바이스에 의해 수행된다. 일부 실시예들에서, 제1 동작은 터치-감응 표면 상에서 사전 결정된 시간량보다 긴 시간 동안 제1 지문을 검출한 후에 터치-감응 표면으로부터의 제1 지문의 들어올림을 검출하는 것에 응답하여 수행된다.In some embodiments, a first operation is performed (3932) in response to detecting a lift of a first fingerprint from a touch-sensitive surface (e.g., the first operation is a first fingerprint on the touch- In response to detecting the lifting of the first fingerprint from the touch-sensitive surface). For example, in FIG. 381, an indication of the telephone application interface 3822 is performed by the device in response to the device detecting the lifting of the fingerprint 3820. In some embodiments, the first operation is performed in response to detecting the lifting of the first fingerprint from the touch-sensitive surface after detecting the first fingerprint for a time longer than a predetermined amount of time on the touch-sensitive surface .

일부 실시예들에서, 제1 동작은 사진 촬영을 포함한다(3934). 예를 들어, 도 38m 및 도 38n의 디바이스가 지문(3824)을 검출하는 것에 응답하여 사진을 캡처한다. 일부 실시예들에서, 제1 동작은 비디오 녹화를 포함한다(3936). 예를 들어, 도 38e 및 도 38f의 디바이스는 지문(3810)을 검출하는 것에 응답하여 비디오를 녹화한다. 일부 실시예들에서, 제1 동작은 통신 인터페이스(예를 들어, 제1 지문과 연관된 디폴트 애플리케이션이거나 디바이스의 사용자에 의해 제1 지문과 연관되는 애플리케이션인 전화, 이메일 또는 다른 전자 메시징 애플리케이션을 위한 사용자 인터페이스)를 표시하는 것을 포함한다(3938). 예를 들어, 도 38k 내지 도 38l의 디바이스는 지문(3820)의 검출에 응답하여 전화 애플리케이션 인터페이스(3822)를 표시한다. 일부 실시예들에서, 제1 동작은 카메라 인터페이스를 표시하는 것을 포함한다(3940)(예를 들어, 사진 또는 비디오를 캡처하기 위한 카메라 애플리케이션을 위한 사용자 인터페이스). 예를 들어, 도 38a 및 도 38b의 디바이스는 지문(3802)의 검출에 응답하여 카메라 인터페이스(3804)를 표시한다.In some embodiments, the first action includes photographing (3934). For example, the device of Figures 38m and 38n captures a photo in response to detecting the fingerprint 3824. In some embodiments, the first action includes video recording (3936). For example, the device of Figures 38e and 38f records video in response to detecting the fingerprint 3810. [ In some embodiments, the first operation may be a communication interface (e.g., a default application associated with a first fingerprint or a user interface for a phone, email, or other electronic messaging application that is an application associated with a first fingerprint by a user of the device (3938). &Lt; / RTI &gt; For example, the device of Figures 38k-38l displays phone application interface 3822 in response to detection of fingerprint 3820. [ In some embodiments, the first operation includes displaying a camera interface (3940) (e.g., a user interface for a camera application for capturing a photo or video). For example, the device of FIGS. 38A and 38B displays the camera interface 3804 in response to the detection of the fingerprint 3802.

일부 실시예들에서, 카메라 인터페이스를 표시하는 동안에(3942), 디바이스는 미디어-캡처 기준이 충족되었는지 여부를 결정한다. 미디어-캡처 기준이 충족되었다는 결정에 따라, 디바이스는 카메라를 이용하여 미디어를 캡처하기 시작한다. 미디어-캡처 기준이 충족되지 않았다는 결정에 따라, 디바이스는 카메라를 이용하여 미디어를 캡처하는 것을 중지한다. 예를 들어, 도 38b 및 도 38c에서, 디바이스는 카메라 인터페이스(3806)를 표시한다. 카메라 인터페이스(3806)를 표시하는 동안에, 디바이스는 하나 이상의 미디어 캡처 기준들이 충족되는지 여부를 결정한다. 기준이 충족된다면, 디바이스는 카메라(예를 들어, 광학 센서(들)(164))를 이용하여 미디어(예를 들어, 하나 이상의 사진들, 비디오)를 캡처하기 시작한다. 기준이 충족되지 않는다면, 디바이스는 미디어를 캡처하지 않는다.In some embodiments, while displaying the camera interface (3942), the device determines whether the media-capture criteria are met. In response to the determination that the media-capture criteria have been met, the device begins capturing media using the camera. In response to the determination that the media-capture criteria are not met, the device stops capturing media using the camera. For example, in Figures 38b and 38c, the device displays camera interface 3806. While displaying the camera interface 3806, the device determines whether one or more media capture criteria are met. If the criteria is met, the device begins capturing media (e.g., one or more photos, video) using a camera (e.g., optical sensor (s) 164). If the criterion is not met, the device does not capture the media.

일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 강도 임계치 초과의 강도를 가질 때 충족되는 기준을 포함한다(3944)(예를 들어, 사용자는 카메라 미리보기가 표시되는 동안에 사진을 촬영하거나 비디오 녹화를 시작하기 위해서 지문으로 더 강하게 누름). 예를 들어, 도 38c의 지문(3802)은 각자의 강도 임계치(예를 들어, 터치스크린 디스플레이(112) 상에서 검출된 접촉에 대응하는 접촉-검출 강도 임계치 초과의 강도 임계치) 초과의 강도를 가지며, 따라서 기준을 충족시킨다. 그 응답으로, 디바이스는 사진을 캡처한다.In some embodiments, the media-capture criteria include criteria that are met when the contact corresponding to the first fingerprint has a strength that exceeds its strength threshold (3944) (e.g., Or press fingerprints more strongly to begin video recording). For example, the fingerprint 3802 of Figure 38C has an intensity that exceeds a respective intensity threshold (e.g., an intensity threshold above the touch-detection intensity threshold corresponding to the touch detected on the touch screen display 112) Thus meeting the criteria. In response, the device captures the picture.

일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 시간 임계치보다 긴 시간 동안 계속해서 검출될 때 충족되는 기준을 포함한다(3946)(예를 들어, 카메라 미리보기가 표시된 동안에 사용자는 사진을 찍거나 비디오 녹화를 시작하기 위해서 각각의 시간 임계치보다 긴 시간 동안 터치-감응 표면 상에서 접촉을 유지함). 예를 들어 도 38c에서, 미디어-캡처 기준은 선택적으로 강도 기준이기보다는 지문 검출 지속기간 기준이다. 지속기간 기준은 지문(3802)이 각자의 시간 임계치보다 긴 시간 동안 계속해서 검출될 때 충족된다.In some embodiments, the media-capture criteria include criteria that are met when the contact corresponding to the first fingerprint is continuously detected for a time longer than the respective time threshold (3946) (e.g., During the displayed time, the user maintains contact on the touch-sensitive surface for a time longer than the respective time threshold to take a picture or start video recording). For example, in Figure 38c, the media-capture criteria is optionally based on the fingerprint detection duration rather than the intensity reference. The duration criterion is satisfied when the fingerprint 3802 is continuously detected for a time longer than the respective time threshold.

일부 실시예들에서, 적어도 미리 정해진 시간량 동안에 제1 지문을 검출하는 것에 응답해서, 디바이스는 카메라에 의해 캡처될 미디어의 미리보기를 포함하는 카메라 미리보기를 표시한다(3948). 예를 들어, 도 38b에서, 디바이스는 적어도 미리 정해진 시간량 동안(예를 들어, 0.05, 0.1, 0.2, 0.5초, 또는 일부 다른 합리적인 기간 동안) 지문(3802)을 검출하는 것에 응답하여 카메라 미리보기(3806)를 표시한다.In some embodiments, in response to detecting the first fingerprint for at least a predetermined amount of time, the device displays (3948) a camera preview that includes a preview of the media to be captured by the camera. For example, in FIG. 38B, the device is capable of displaying a camera preview (not shown) in response to detecting a fingerprint 3802 for at least a predetermined amount of time (e.g., 0.05, 0.1, 0.2, 0.5 seconds, or some other reasonable period of time) (3806).

일부 실시예들에서, 카메라 미리보기를 표시하는 동안에, 디바이스는 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출한다(3950)(예를 들어, 디바이스는 제1 지문의 들어올림, 각자의 강도 임계치 초과의 지문의 강도 증가, 또는 사진의 캡처와 연관된 물리적 버튼의 활성화를 검출함). 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출하는 것에 응답하여(3952), 디바이스는 카메라 미리보기에 대응하는 정지 이미지를 캡처하고(3954), 카메라 미리보기를 표시하는 것을 중단하며(3956), 각자의 사용자 인터페이스를 재표시한다(3958). 예를 들어, 터치-감응 표면 상에서 지문을 검출하는 것에 응답하여 디바이스가 카메라 미리보기를 표시한다. 카메라 미리보기를 표시하는 동안에 지문의 들어올림을 검출하는 것에 응답하여, 디바이스는 사진을 촬영하고 카메라 미리보기의 표시를 중단한다. 따라서, 사용자가 각자의 태스크(예를 들어, 뉴스 읽기, 이메일 확인, 또는 일부 다른 태스크)를 위해 디바이스를 이용하는 동안에, 사용자는 최소한의 방해만으로 사진 캡처 모드로 신속하게 천이하고, 사진을 촬영하고, 각자의 태스크에 복귀할 수 있다.In some embodiments, during display of the camera preview, the device detects (3950) an input corresponding to a request to capture the media corresponding to the camera preview (e.g., , Increasing the intensity of the fingerprint beyond the respective intensity threshold, or activating a physical button associated with capturing a photo). In response to detecting 3952 the input corresponding to the request to capture the media corresponding to the camera preview, the device captures 3954 a still image corresponding to the camera preview, and stops displaying the camera preview (3956) and redisplays the respective user interface (3958). For example, the device displays a camera preview in response to detecting a fingerprint on the touch-sensitive surface. In response to detecting the lifting of the fingerprint while displaying the camera preview, the device takes a picture and stops displaying the camera preview. Thus, while the user is using the device for his or her task (e.g., reading a news, checking e-mail, or some other task), the user quickly transitions to the photo capture mode with minimal disruption, You can return to your own task.

예를 들어, 도 38b 내지 도 38d는 카메라 미리보기(3806)가 표시된 동안에 각자의 강도 임계치 위로 증가하는 지문(3802)의 강도를 도시한다. 강도 증가는 카메라 미리보기(3806)에 대응하는 미디어를 캡처하라는 디바이스로의 요청이다. 요청을 검출하는 것에 응답하여, 디바이스는 카메라 미리보기(3806)에 대응하는 사진을 캡처하고, (카메라 인터페이스(3804)의 표시를 중단하는 것과 함께) 카메라 미리보기(3806)의 표시를 중단하며, 사용자 인터페이스(3801)를 재표시한다.For example, Figures 38b-d show the intensity of a fingerprint 3802 that increases above its intensity threshold while the camera preview 3806 is displayed. The increase in intensity is a request to the device to capture the media corresponding to the camera preview 3806. In response to detecting the request, the device captures a picture corresponding to the camera preview 3806, interrupts the display of the camera preview 3806 (with interrupting the display of the camera interface 3804) The user interface 3801 is redisplayed.

일부 실시예들에서, 카메라 미리보기를 표시하는 동안에, 디바이스는 카메라 미리보기에 대응하는 미디어(예를 들어, 연속 사진-캡처 모드에서와 같은 사전 결정된 간격들로 촬영된 일련의 정지 사진들 또는 비디오)를 캡처한다(3960). 일부 실시예들에서, 디바이스는 터치-감응 표면 상에서 제1 지문을 검출하는 것에 응답하여 미디어를 캡처하기 시작한다. 일부 실시예들에서, 디바이스는 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 제1 지문을 검출하는 것 또는 각자의 강도 임계치 위로의 제1 지문의 강도 증가를 검출하는 것과 같이 후속하는 캡처-개시 입력을 검출하는 것에 응답하여 미디어를 캡처하기 시작한다. 예를 들어, 도 38f는 지문(3810)을 검출하는 것에 응답하여, 카메라 미리보기(3812)를 표시하는 동안에 카메라 미리보기(3812)에 대응하는 비디오를 녹화하는 디바이스를 도시한다.In some embodiments, during display of the camera preview, the device may display a series of still pictures or videos (e.g., a series of still pictures or pre- (3960). In some embodiments, the device begins capturing media in response to detecting the first fingerprint on the touch-sensitive surface. In some embodiments, the device is configured to detect a first fingerprint on the touch-sensitive surface for a period of time longer than a predetermined amount of time, or to detect a subsequent increase in the strength of the first fingerprint over a respective intensity threshold, And begins capturing media in response to detecting a start input. For example, Figure 38F illustrates a device that records video corresponding to the camera preview 3812 while displaying the camera preview 3812, in response to detecting the fingerprint 3810. [

일부 실시예들에서, 카메라 미리보기에 대응하는 미디어를 캡처하는 동안에(예를 들어, 일련의 사진들 중 하나 이상의 사진을 촬영한 후에 또는 비디오를 캡처하는 동안에), 디바이스는 미디어의 캡처를 중단하라는 요청에 대응하는 입력을 검출한다(3962)(예를 들어, 디바이스는 제1 지문의 들어올림을 검출하거나, 각자의 강도 임계치 위로의 지문의 강도 증가를 검출하거나, 미디어의 캡처를 중단하는 것과 연관된 물리적 버튼의 활성화를 검출하거나, 미디어 캡처 아이콘에 대응하는 터치-감응 표면 또는 그 일부분 상에서 탭 또는 누름 및 홀드 제스처를 검출함). 미디어를 캡처하는 것을 중단하라는 요청에 대응하는 입력을 검출하는 것에 응답하여(3964), 디바이스는 미디어의 캡처를 중단하고(3966), 카메라 미리보기의 표시를 중단하며(3968), 각자의 사용자 인터페이스를 재표시한다(3970). 일부 실시예들에서, 터치-감응 표면 상에서 지문을 검출하는 것에 응답하여, 디바이스는 카메라 미리보기를 표시한다. 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 지문을 계속 검출하는 것에 응답하여 디바이스가 비디오를 촬영하기 시작하고, 카메라 미리보기를 표시하는 동안에 지문의 들어올림을 검출하는 것에 응답하여 디바이스는 비디오 촬영을 정지하고 카메라 미리보기의 표시를 중단한다. 대안적으로, 터치-감응 표면 상에서 지문을 검출하는 것에 응답하여 디바이스는 카메라 미리보기를 표시하고, 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 지문을 계속 검출하는 것에 응답하여 디바이스가 연속 사진-캡처 모드로 일련의 복수의 사진들을 촬영하며, 카메라 미리보기를 표시하는 동안에 지문의 들어올림을 검출하는 것에 응답하여 디바이스는 카메라 미리보기의 표시를 중단한다. 따라서, 사용자가 각자의 태스크(예를 들어, 뉴스 읽기, 이메일 확인, 또는 일부 다른 태스크)를 위해 디바이스를 이용하는 중에, 사용자는 최소한의 방해만으로 비디오 캡처 모드로 신속하게 천이하고, 비디오 또는 연속 사진을 촬영하며, 각각의 태스크에 복귀할 수 있다. 카메라 미리보기(3812)에 대응하는 비디오가 기록되는 동안에(도 38f), 예를 들어 디바이스는 지문(3810)의 들어올림을 검출한다. 그 응답으로, 디바이스는 비디오 녹화를 정지하고(도 38g), (카메라 인터페이스(3804)의 표시를 중단하는 것과 함께) 카메라 미리보기(3812)의 표시를 중단하며, 사용자 인터페이스(3801)를 재표시한다(도 38h).In some embodiments, while capturing the media corresponding to the camera preview (e.g., after capturing one or more photos of a series of photos or during video capture), the device may request to stop capturing the media (E.g., the device detects 3962 the input corresponding to the request), the device detects an increase in the strength of the fingerprint over its intensity threshold, Detecting activation of a physical button, or detecting a tap or a push-and-hold gesture on a touch-sensitive surface or a portion thereof corresponding to a media capture icon). (3964) in response to detecting an input corresponding to a request to stop capturing media, the device stops (3966) capturing the media, stops displaying the camera preview (3968) (3970). In some embodiments, in response to detecting a fingerprint on the touch-sensitive surface, the device displays a camera preview. Responsive to continuing to detect the fingerprint on the touch-sensitive surface for a time longer than a predetermined amount of time, the device begins capturing the video, and in response to detecting the fingerprint lift while displaying the camera preview, Stop shooting and stop displaying the camera preview. Alternatively, in response to detecting the fingerprint on the touch-sensitive surface, the device displays the camera preview and, in response to continuing to detect the fingerprint on the touch-sensitive surface for a time longer than a predetermined amount of time, - taking a series of pictures in a capture mode, and in response to detecting a fingerprint lift while displaying a camera preview, the device stops displaying the camera preview. Thus, while the user is using the device for his or her task (e.g., reading a news, checking e-mail, or some other task), the user quickly transitions to video capture mode with minimal interruption, And can return to each task. While the video corresponding to the camera preview 3812 is being recorded (Fig. 38F), for example, the device detects the lifting of the fingerprint 3810. In response, the device stops video recording (Fig. 38G), stops displaying the camera preview 3812 (along with stopping the display of the camera interface 3804), resets the user interface 3801 (Fig. 38H).

일부 실시예들에서, 디바이스는 제1 지문과는 상이한 제2 지문을 제1 동작과는 상이한 제2 동작과 연관시킨다(3972)(예를 들어, 지문 등록 프로세스 동안에 오른손 엄지 지문을 카메라 애플리케이션의 셔터 기능에 할당함). 디바이스는 디스플레이 상에 제2 동작을 수행하기 위한 어포던스를 포함하지 않는 각자의 사용자 인터페이스를 표시한다(3976)(예를 들어, 사용자 인터페이스는 애플리케이션 기동 스크린이거나 제2 동작을 수행하기 위한 사용자 인터페이스가 아닌 상이한 애플리케이션에 대한 사용자 인터페이스이고, 사용자 인터페이스는 제2 동작을 수행하기 위한 어포던스 또는 다른 사용자 인터페이스 요소를 포함하지 않음). 각자의 사용자 인터페이스를 표시하는 동안에, 디바이스는 터치-감응 표면 상에서 제2 지문을 검출하는 것을 포함하는 제2 제스처를 검출한다(3978). 터치-감응 표면 상에서 제2 지문을 포함하는 제스처를 검출하는 것에 응답하여, 디바이스는 제2 동작을 수행한다(3980). 예를 들어 도 38m 내지 도 38p에서, 오른손 엄지 지문은 사진 캡처와 연관되고, 왼손 엄지 지문은 비디오 녹화와 연관된다. 디바이스는 사진 캡처 또는 비디오 녹화를 위한 어포던스들을 포함하지 않는 사용자 인터페이스(3801)(도 38m)를 표시한다. 디바이스는 오른손 엄지 지문인 지문(3824)의 검출에 응답하여 사진을 캡처하고, 지문(3828)의 검출에 응답하여 비디오를 녹화한다.In some embodiments, the device associates (3972) a second fingerprint that is different from the first fingerprint to a second action that is different from the first action (e.g., during a fingerprint registration process, Function). The device displays (3976) its respective user interface that does not include an aberration to perform a second action on the display (e.g., the user interface is an application launch screen or is not a user interface for performing a second action The user interface is a user interface for a different application, and the user interface does not include an affordance or other user interface element for performing the second operation). While displaying the respective user interface, the device detects (3978) a second gesture that includes detecting a second fingerprint on the touch-sensitive surface. In response to detecting the gesture comprising the second fingerprint on the touch-sensitive surface, the device performs a second operation (3980). For example, in Figures 38m to 38p, the right hand thumb fingerprint is associated with a photo capture and the left hand thumb fingerprint is associated with video recording. The device displays a user interface 3801 (Fig. 38m) that does not include the poses for photo capturing or video recording. The device captures the picture in response to the detection of the fingerprint 3824, which is the right thumb fingerprint, and records the video in response to the detection of the fingerprint 3828. [

일부 실시예들에서, 제1 동작은 정지 사진들을 캡처하는 것과 연관된 동작(예를 들어, 정지 카메라 애플리케이션 사용자 인터페이스의 표시 또는 사진의 캡처)이고(3974), 제2 동작은 비디오 녹화와 연관된 동작이다(예를 들어, 비디오 카메라 애플리케이션 사용자 인터페이스의 표시 또는 비디오의 촬영). 예를 들어, 사용자가 왼손 엄지 지문을 디바이스의 터치-감응 표면(예를 들어, 터치스크린) 상의 어딘가에 놓는 경우에, 디바이스가 정지 카메라 애플리케이션을 기동할 수 있고, 사용자가 오른손 엄지 지문을 디바이스의 터치-감응 표면(예를 들어, 터치스크린) 상의 어딘가에 놓는 경우에는 디바이스가 비디오 카메라 애플리케이션을 기동할 수 있다. 일부 실시예들에서, 제1 동작 및 제2 동작은 동일한 애플리케이션을 상이한 모드들로 기동한다(예를 들어, 디바이스가 왼손 엄지 지문으로 수행된 제스처를 검출하면 정지 이미지 캡처 모드로, 디바이스가 오른손 엄지 지문으로 수행된 제스처를 검출하면 비디오 캡처 모드로 카메라 애플리케이션이 기동됨). 예를 들어 도 38m 내지 도 38p에서, 오른손 엄지 지문은 사진 캡처와 연관되고, 왼손 엄지 지문은 비디오 녹화와 연관된다.In some embodiments, the first action is (3974) an action associated with capturing still pictures (e.g., an indication of a still camera application user interface or capturing a picture), and the second action is an action associated with video recording (E.g., display of a video camera application user interface or capture of video). For example, if a user places a left thumb fingerprint somewhere on a touch-sensitive surface (e.g., a touch screen) of the device, the device may launch a still camera application, The device can launch the video camera application if it is placed somewhere on the sensitive surface (e.g., a touch screen). In some embodiments, the first operation and the second operation invoke the same application in different modes (e.g., when the device detects a gesture performed with the left hand thumbprint, in a still image capture mode, When the fingerprint gesture is detected, the camera application is activated in video capture mode). For example, in Figures 38m to 38p, the right hand thumb fingerprint is associated with a photo capture and the left hand thumb fingerprint is associated with video recording.

도 39a 내지 도 39e의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 39a 내지 도 39e와 관련하여 전술된 방법(3900)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3900)과 관련하여 전술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 39A-39E are only illustrative, and that the order in which they are described is not intended to be indicative of the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. Further, details of other processes described herein in connection with other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 3900 described above in connection with 39e is also applicable in a similar manner. For example, the fingerprints, contacts, gestures, and user interfaces described above in connection with method 3900 may optionally be combined with other methods described herein (e.g., in " Contacts, gestures, and user interfaces described herein in connection with the methods (e.g., the methods listed in the second paragraph). For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 40은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4000)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 40에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 40 illustrates a functional block diagram of an electronic device 4000 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 40 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 40에 도시된 바와 같이, 전자 디바이스(4000)는 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(4002), 제스처를 수신하도록 구성된 터치-감응 표면 유닛(4004), 선택적으로 지문들을 검출하기 위한 지문 센서 유닛(4006), 및 디스플레이 유닛(4002)과 터치-감응 표면 유닛(4004)에 결합된 프로세싱 유닛(4008)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4008)은 연관 유닛(4010), 검출 유닛(4012), 수행 유닛(4014), 결정 유닛(4016), 시작 유닛(4018), 디스플레이 인에이블링 유닛(4022), 캡처 유닛(4024) 및 중단 유닛(4026)을 포함한다.As shown in Figure 40, the electronic device 4000 includes a display unit 4002 configured to display a respective user interface that includes the poses for performing a plurality of actions other than the first action, a touch configured to receive a gesture Sensitive surface unit 4004, a fingerprint sensor unit 4006 for selectively detecting fingerprints and a processing unit 4008 coupled to the display unit 4002 and the touch-sensitive surface unit 4004. In some embodiments, the processing unit 4008 includes an associating unit 4010, a detecting unit 4012, a performing unit 4014, a determining unit 4016, a starting unit 4018, a display enabling unit 4022, A capture unit 4024, and an interrupt unit 4026.

프로세싱 유닛(4008)은 (예를 들어, 연관 유닛(4010)을 이용하여) 제1 지문을 제1 동작과 연관시키고; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스의 표시를 가능하게 하고; 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스의 표시를 가능하게 하는 동안에, (예를 들어, 검출 유닛(4012)을 이용하여) 터치-감응 표면 유닛(4004) 상의 제1 지문을 검출하는 것을 포함하는 제1 제스처를 검출하고; 제1 제스처를 검출하는 것에 응답하여, (예를 들어, 수행 유닛(4014)을 이용하여) 제1 동작을 수행하도록 구성된다.The processing unit 4008 may associate the first fingerprint with the first action (e.g., using associating unit 4010); (E. G., Using the display enabling unit 4022) to perform a plurality of operations other than the first operation; Sensitive surface unit 4004 (e.g., using the detection unit 4012) while enabling display of a respective user interface that includes poses for performing a plurality of actions other than the first action, Detecting a first gesture comprising detecting a first fingerprint on the first finger; In response to detecting the first gesture, is configured to perform a first operation (e.g., using the execution unit 4014).

일부 실시예들에서, 제1 동작은 터치-감응 표면 유닛(4004) 상에서 제1 지문을 검출하는 것에 응답하여 수행된다.In some embodiments, the first operation is performed in response to detecting the first fingerprint on the touch-sensitive surface unit 4004.

일부 실시예들에서, 제1 동작은 터치-감응 표면 유닛(4004) 상에서 제1 지문의 들어올림을 검출하는 것에 응답하여 수행된다.In some embodiments, the first operation is performed in response to detecting the lifting of the first fingerprint on the touch-sensitive surface unit 4004.

일부 실시예들에서, 제1 제스처는 배향-특정 제스처이고, 배향-특정 제스처를 검출하는 것은 터치-감응 표면 유닛(4004) 상에서 사전 결정된 배향의 제1 지문을 검출하는 것을 포함한다.In some embodiments, the first gesture is an orientation-specific gesture, and detecting the orientation-specific gesture comprises detecting a first fingerprint of a predetermined orientation on the touch-sensitive surface unit 4004.

일부 실시예들에서, 제1 제스처는 위치-특정 제스처이고, 위치-특정 제스처를 검출하는 것은 터치-감응 표면 유닛(4004) 상에서 사전 결정된 위치에 있는 제1 지문을 검출하는 것을 포함한다.In some embodiments, the first gesture is a position-specific gesture, and detecting the position-specific gesture includes detecting a first fingerprint at a predetermined location on the touch-sensitive surface unit 4004.

일부 실시예들에서, 제1 제스처는 지속기간-특정 제스처이고, 지속기간-특정 제스처를 검출하는 것은 터치-감응 표면 유닛(4004) 상에서 적어도 사전 결정된 시간량 동안에 제1 지문을 검출하는 것을 포함한다.In some embodiments, the first gesture is a duration-specific gesture, and detecting the duration-specific gesture includes detecting a first fingerprint on the touch-sensitive surface unit 4004 for at least a predetermined amount of time .

일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하기 위한 표시된 제어부를 포함하지 않는다.In some embodiments, each user interface does not include a displayed control for performing the first operation.

일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하도록 구성되지 않은 제1 애플리케이션의 사용자 인터페이스이고, 제1 동작은 제1 애플리케이션과는 상이한 제2 애플리케이션에 의해 수행된다.In some embodiments, each user interface is a user interface of a first application that is not configured to perform a first operation, the first operation being performed by a second application different than the first application.

일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하도록 구성되지 않은 애플리케이션 기동 스크린의 사용자 인터페이스이고, 제1 동작은 애플리케이션 기동 스크린과는 상이한 각자의 애플리케이션에 의해 수행된다.In some embodiments, each user interface is a user interface of an application launch screen that is not configured to perform the first operation, and the first operation is performed by a respective application different from the application launch screen.

일부 실시예들에서, 제1 동작은 사진 촬영을 포함한다.In some embodiments, the first operation includes photographing.

일부 실시예들에서, 제1 동작은 비디오 녹화를 포함한다.In some embodiments, the first operation includes video recording.

일부 실시예들에서, 제1 동작은 통신 인터페이스의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first operation includes enabling display of the communication interface.

일부 실시예들에서, 제1 동작은 카메라 인터페이스의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first operation includes enabling display of the camera interface.

일부 실시예들에서, 프로세싱 유닛(4008)은, 카메라 인터페이스의 표시를 가능하게 하는 동안에: (예를 들어, 결정 유닛(4016)을 이용하여) 미디어-캡처 기준이 충족되었는지 여부를 결정하고; 미디어-캡처 기준이 충족되었다는 결정에 따라, (예를 들어, 시작 유닛(4018) 또는 캡처 유닛(4024)을 이용하여) 카메라를 이용하여 미디어를 캡처하기 시작하고, 미디어-캡처 기준이 충족되지 않았다는 결정에 따라, (예를 들어, 캡처 유닛(4024)을 이용하여) 카메라를 이용하여 미디어를 캡처하는 것을 중지하도록 구성된다.In some embodiments, the processing unit 4008 determines whether the media-capture criteria have been met (e.g., using decision unit 4016) while enabling display of the camera interface; In accordance with the determination that the media-capture criteria have been met, it begins to capture the media using the camera (e.g., using the start unit 4018 or the capture unit 4024), and determines that the media- And is configured to, depending on the determination, stop capturing the media using the camera (e.g., using capture unit 4024).

일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 강도 임계 초과의 강도를 가질 때 충족되는 기준을 포함한다.In some embodiments, the media-capture criteria include a criterion that is met when the contact corresponding to the first fingerprint has a strength of its own strength threshold.

일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 시간 임계치보다 긴 시간 동안 계속해서 검출되었을 때 충족되는 기준을 포함한다.In some embodiments, the media-capture criteria include criteria that are met when the contact corresponding to the first fingerprint is continuously detected for a time longer than the respective time threshold.

일부 실시예들에서, 프로세싱 유닛(4008)은 적어도 미리 정해진 시간량 동안 제1 지문을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 카메라에 의해 캡처될 미디어의 미리보기를 포함하는 카메라 미리보기의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 4008 may be configured to capture (e.g., using the display enable unit 4022), in response to detecting a first fingerprint for at least a predetermined amount of time, And to enable display of a camera preview that includes a preview of the media.

일부 실시예들에서, 프로세싱 유닛(4008)은 카메라 미리보기의 표시를 가능하게 하는 동안에, (예를 들어, 검출 유닛(4012)을 이용하여) 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출하고; 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출하는 것에 응답하여: (예를 들어, 캡처 유닛(4024)을 이용하여) 카메라 미리보기에 대응하는 정지 이미지를 캡처하고, (예를 들어, 중단 유닛(4026)을 이용하여) 카메라 미리보기의 표시를 가능하게 하는 것을 중단하며; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 각자의 사용자 인터페이스의 표시를 다시 가능하게 하도록 구성된다.In some embodiments, processing unit 4008 may respond to a request to capture media corresponding to a camera preview (e.g., using detection unit 4012) while enabling display of a camera preview Detecting an input to be made; In response to detecting an input corresponding to a request to capture a media corresponding to the camera preview: capture a still image corresponding to the camera preview (e.g., using capture unit 4024) (E.g., using the interrupt unit 4026) to enable the display of the camera preview; (E.g., using the display enabling unit 4022) to re-enable display of their respective user interfaces.

일부 실시예들에서, 프로세싱 유닛(4008)은 카메라 미리보기의 표시를 가능하게 하는 동안에 (예를 들어, 캡처 유닛(4024)을 이용하여) 카메라 미리보기에 대응하는 미디어를 캡처하고; 카메라 미리보기에 대응하는 미디어를 캡처하는 동안에 (예를 들어, 검출 유닛(4012)을 이용하여) 미디어의 캡처를 중단하라는 요청에 대응하는 입력을 검출하며, 미디어의 캡처를 중단하라는 요청에 대응하는 입력을 검출하는 것에 응답하여: (예를 들어, 중단 유닛(4026)을 이용하여) 미디어의 캡처를 중단하고, (예를 들어, 중단 유닛(4026)을 이용하여) 카메라 미리보기의 표시를 가능하게 하는 것을 중단하며; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 각자의 사용자 인터페이스의 표시를 다시 가능하게 하도록 구성된다.In some embodiments, processing unit 4008 captures media corresponding to a camera preview (e.g., using capture unit 4024) while enabling display of the camera preview; (E.g., using detection unit 4012) to capture the media corresponding to the camera preview, and to respond to a request to stop capture of the media In response to detecting the input, it is possible to stop capturing the media (e.g., using the suspend unit 4026) and display the camera preview (e.g., using the suspend unit 4026) To stop making it; (E.g., using the display enabling unit 4022) to re-enable display of their respective user interfaces.

일부 실시예들에서, 터치-감응 표면 유닛(4004)은 통합형 지문 센서를 갖는 터치스크린 디스플레이이다.In some embodiments, the touch-sensitive surface unit 4004 is a touch screen display with an integrated fingerprint sensor.

일부 실시예들에서, 제1 지문은 이전에 등록된 지문이고, 제1 제스처를 검출하는 것은 검출된 지문의 검출된 특징들과 이전에 등록된 제1 지문의 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다.In some embodiments, the first fingerprint is a previously registered fingerprint, and detecting the first gesture is detected based on a comparison between the detected features of the detected fingerprint and the features of the previously registered first fingerprint And identifying the fingerprint as a first fingerprint.

일부 실시예들에서, 제1 지문은 미리 정해진 유형의 지문이고, 제1 제스처를 검출하는 것은 검출된 지문의 특징들과 미리 정해진 유형의 지문과 연관된 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다.In some embodiments, the first fingerprint is a predetermined type of fingerprint, and detecting the first gesture may include detecting the detected fingerprint based on a comparison between features of the detected fingerprint and features associated with a predetermined type of fingerprint And identifying it as the first fingerprint.

일부 실시예들에서, 프로세싱 유닛(4008)은 (예를 들어, 연관 유닛(4010)을 이용하여) 제1 지문과는 상이한 제2 지문을 제1 동작과는 상이한 제2 동작과 연관시키고; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 디스플레이 유닛(4002) 상에서 제2 동작을 수행하기 위한 어포던스를 포함하지 않는 각자의 사용자 인터페이스의 표시를 가능하게 하고; 각자의 사용자 인터페이스의 표시를 가능하게 하는 동안에 (예를 들어, 검출 유닛(4012)을 이용하여) 터치-감응 표면 유닛(4004) 상에서 제2 지문을 검출하는 것을 포함하는 제2 제스처를 검출하며, 터치-감응 표면 유닛(4004) 상에서 제2 지문을 포함하는 제스처를 검출하는 것에 응답하여 (예를 들어, 수행 유닛(4014)을 이용하여) 제2 동작을 수행하도록 구성된다.In some embodiments, the processing unit 4008 may associate a second fingerprint that is different from the first fingerprint (e.g., using associating unit 4010) with a second action that is different than the first action; (E.g., using display enabling unit 4022) to enable display of a respective user interface that does not include an affordance for performing a second operation on display unit 4002; Detecting a second gesture comprising detecting a second fingerprint on the touch-sensitive surface unit 4004 (e.g., using the detection unit 4012) while enabling display of a respective user interface, (E.g., using the execution unit 4014) in response to detecting a gesture that includes the second fingerprint on the touch-sensitive surface unit 4004.

일부 실시예들에서, 제1 동작은 정지 사진들의 캡처와 연관된 동작이고, 제2 동작은 비디오 캡처와 연관된 동작이다.In some embodiments, the first operation is an operation associated with capturing still pictures, and the second operation is an operation associated with capturing video.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 39a 내지 도 39e와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 40에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(3912) 및 수행 동작(3928)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with reference to Figures 39A-39E are optionally implemented by the components shown in Figures 1A and 1B or 40. [ For example, the detection operation 3912 and the performing operation 3928 are optionally implemented by the event classifier 170, the event recognizer 180 and the event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시하기Displaying the respective controls for the user interface based on the detection of the first fingerprint associated with moving the respective controls

다수의 전자 디바이스들은 사용자 인터페이스를 위한 각자의 제어부를 갖는 그래픽 사용자 인터페이스들을 구비한다. 각자의 제어부(예를 들어, 이미지 편집 애플리케이션을 위한 컬러 팔레트)는 예를 들어, 마우스(또는 다른 주변기기 디바이스)에 의해 제어되는 커서를 이용하는 사용자 툴바 또는 메뉴 윈도우 선택에 응답하여 사용자 인터페이스 상에 표시된다. 아래에 기술되는 디바이스는 각자의 제어부를 이동시키는 것과 연관된 제1 지문을 터치-감응 표면 상에서 검출하는 것에 응답하여 사용자 인터페이스를 위한 각자의 제어부를 디스플레이 상에 표시함으로써 기존의 방법들을 개선한다. 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 상의 제1 위치에 있는 포커스 셀렉터에 대응한다.Many electronic devices have graphical user interfaces with their respective controls for the user interface. Each control (e.g., a color palette for an image editing application) is displayed on the user interface in response to a user toolbar or menu window selection using, for example, a cursor controlled by a mouse (or other peripheral device) . The devices described below improve on existing methods by displaying their respective controls for the user interface on the display in response to detecting a first fingerprint on the touch-sensitive surface associated with moving their respective controls. The first fingerprint corresponds to a focus selector in a first position on the display that does not include its own control.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 41a 내지 도 41k 및 도 42a 내지 도 42c와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 41a 내지 도 41k 및 도 42a 내지 도 42c와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2))와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 41a 내지 도 41k에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 41a 내지 도 41k에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 41A-41K and Figs. 42A-42C includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 41A to 41K and Figs. 42A to 42C may be applied to the touch screen 112 and the fingerprint sensor 169 (e.g., the integrated fingerprint sensor 359-1 or 359-1) A separate fingerprint sensor 359-2); In such embodiments, the focus selector may alternatively be associated with a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, a contact, The center of the two or more contacts detected on the touch screen. On the device having the display 450, the separate touch-sensitive surface 451 and the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-2, the user interfaces shown in Figures 41A- In response to detecting the inputs depicted in Figures 41a-41k on the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-2 during display on the display 450, do.

도 41a 내지 도 41k는 터치 스크린(112)의 사용자 인터페이스(4101) 상에 비디오 게임을 표시하는 휴대용 다기능 디바이스(100)를 도시한다. 일부 실시예들에서, 터치 스크린(112)은 지문 센서를 포함하여, 디바이스(100)는 터치 스크린(112) 상의 임의의 위치에서 지문을 검출하게 될 수 있다. 도 41b 내지 도 41f 및 도 41h 내지 도 41k는 사용자 인터페이스(4101) 상에 표시된 일시정지 심볼(4104)에 의해 나타내어진 일시정지 모드에서 비디오 게임을 표시하는 디바이스(100)를 추가로 도시한다.41A-41K illustrate a portable multifunction device 100 that displays a video game on the user interface 4101 of the touch screen 112. As shown in Fig. In some embodiments, the touch screen 112 includes a fingerprint sensor so that the device 100 can detect the fingerprint at any location on the touch screen 112. Figures 41B-41F and 41H-41K further illustrate a device 100 for displaying a video game in a pause mode represented by a pause symbol 4104 displayed on a user interface 4101. [

도 41a는 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)(예를 들어, 비디오 게임의 상호작용 객체의 방향 제어를 위한 방향 패드, d-패드 또는 조이패드)를 이전 위치(4102-a)에 표시하는 것을 도시한다. 이전 위치(4102-a)는 도 41e 내지 도 41h의 제1 위치(4102-b)와는 상이하다. 각자의 제어부(4102)는 각자의 제어부(4102)(예를 들어, 도 41d에서 검출된 지문(4112))를 이동시키는 것과 연관된 제1 지문(예를 들어, 사용자의 오른쪽 새끼손가락)을 검출하기에 앞서 이전 위치(4102-a)에 표시된다. 일부 실시예들에서, 제1 지문은 전형적으로 사용자 인터페이스 객체들의 조작과 연관되지 않은 손가락에 대응한다(예를 들어, 사용자의 약지 또는 새끼손가락). 도 41a는 각자의 제어부(4102) 위에서 지문(4106)(예를 들어, 사용자의 오른손 검지)을 검출하는 것을 추가로 도시한다. 지문(4106)을 검출하는 것에 응답하여, 디바이스(100)는 각자의 제어부(4102)와 연관된 동작들을 수행한다.Figure 41A illustrates a user interface 4102 for each user's control 4102 (e.g., a directional pad, d-pad, or joypad for directional control of an interactive object of a video game) for a user interface 4101 at a previous location 4102- FIG. The previous position 4102-a is different from the first position 4102-b in Figures 41E-41H. The respective control unit 4102 detects the first fingerprint (e.g., the right finger of the user) associated with moving the respective control unit 4102 (for example, the fingerprint 4112 detected in FIG. 41D) A &quot; before &lt; / RTI &gt; In some embodiments, the first fingerprint typically corresponds to a finger that is not associated with manipulation of user interface objects (e.g., the user's finger or small finger). 41A further shows detection of a fingerprint 4106 (e.g., a user's right hand detection) on the respective control unit 4102. [ In response to detecting the fingerprint 4106, the device 100 performs the operations associated with its respective control 4102.

도 41b는 이전 위치(4102-a)에 각자의 제어부(4102)를 표시하는 동안에 터치 스크린(112) 상의 제1 위치에서 각자의 제어부(4102)를 이동시키는 것과 연관된 제1 지문(4108)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것을 도시한다. 제1 위치는 이전 위치와는 상이하며 각자의 제어부(4102)를 포함하지 않는다.41B illustrates a first fingerprint 4108 associated with moving a respective control 4102 at a first position on the touch screen 112 while displaying a respective control 4102 at a previous position 4102- For example, the right hand little finger of the user). The first position is different from the previous position and does not include the respective control unit 4102.

도 41c는 각자의 제어부(4102)가 터치 스크린(112) 상에 표시되지 않은 동안에 터치 스크린(112) 상에서 지문(4110)을 검출하는 것을 도시한다. 지문(4110)을 검출하는 것에 응답하여, 디바이스(100)는 지문(4110)이 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과는 상이한 지문(예를 들어, 사용자의 오른손 검지)이고 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 이동시키는 것과 연관되지 않는다는 결정에 따라 각자의 제어부(4102)를 표시하는 것을 중지한다.Fig. 41C shows that the fingerprint 4110 is detected on the touch screen 112 while the respective control unit 4102 is not displayed on the touch screen 112. Fig. In response to detecting the fingerprint 4110, the device 100 determines that the fingerprint 4110 is a fingerprint different from the first fingerprint (e.g., the user's right hand little finger) (e.g., the user's right hand index finger) And stops displaying the respective control unit 4102 in accordance with the determination that it is not related to moving the respective control unit 4102 for the user interface 4101. [

도 41d는 터치-감응 표면(112) 상의 제1 위치(4112-a)에서 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 이동시키는 것과 연관된 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것을 도시한다. 제1 지문(4112)은 각자의 제어부(4102)를 포함하지 않는 터치 스크린(112) 상의 제1 위치(4112-a)에 있는 포커스 셀렉터(예를 들어, 터치 스크린(112) 상에서 검출된 지문(4112)과 연관된 각자의 접촉의 중심)에 대응한다.Figure 41d illustrates a first fingerprint 4112 associated with moving a respective control 4102 for the user interface 4101 at a first location 4112-a on the touch-sensitive surface 112 (e.g., The right-hand little finger of the user). The first fingerprint 4112 is transmitted to a focus selector (e.g., a fingerprint detected on the touch screen 112) at a first location 4112-a on the touch screen 112 that does not include its control portion 4102 Lt; / RTI &gt; 4112). &Lt; / RTI &gt;

도 41e는 도 41d의 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것에 응답하여 터치 스크린(112) 상의 제1 위치(4102-a)에 각자의 제어부(4102)를 표시하는 것을 도시한다.41E illustrates a first position 4102-a on the touch screen 112 in response to detecting the first fingerprint 4112 (e.g., the user's right hand little finger) in the first position 4112-a of FIG. and the control unit 4102 is displayed in a).

도 41f는 터치 스크린(112) 상에서 제1 위치(4112-a)로부터 제2 위치(4112-b)로의 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)의 드래그 제스처를 검출하는 것을 도시한다. 제2 위치는 제1 위치와 상이하고, 각자의 제어부(4102)를 포함하지 않는다.Figure 41f illustrates the detection of a drag gesture of the first fingerprint 4112 (e.g., the user's right hand little finger) from the first position 4112-a to the second position 4112-b on the touch screen 112 Lt; / RTI &gt; The second position is different from the first position, and does not include the respective control unit 4102. [

도 41g는 도 41e의 위치(4112-a)로부터 제1 지문(4112)의 들어올림을 검출하는 것을 도시한다. 도 41g는 또한 도 41e의 위치(4112-a)로부터 제1 지문(4112)의 들어올림을 검출한 후에 터치 스크린(112) 상의 제1 위치(4102-b)에서의 각자의 제어부(4102)의 표시를 유지하는 것을 포함한다. 도 41g는 각자의 제어부(4102) 위에서 지문(4114)(예를 들어, 사용자의 오른손 검지)을 검출하는 것을 추가로 도시한다. 지문(4114)을 검출하는 것에 응답하여, 디바이스(100)는 각자의 제어부(4102)와 연관된 동작들을 수행한다.FIG. 41G shows detecting the lifting of the first fingerprint 4112 from the position 4112-a in FIG. 41E. Figure 41g also illustrates the position of each control portion 4102 in the first position 4102-b on the touch screen 112 after detecting the lifting of the first fingerprint 4112 from position 4112- And maintaining the display. FIG. 41G further shows detection of the fingerprint 4114 (e.g., the user's right hand detection) on the respective control unit 4102. FIG. In response to detecting the fingerprint 4114, the device 100 performs the operations associated with its respective control 4102.

도 41h는 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 동안에 제2 위치에서 각자의 지문(4116)(예를 들어, 사용자의 오른손 중지)을 검출하는 것을 도시한다. 제2 위치는 제1 위치(4102-b)와 상이하고, 각자의 제어부(4102)를 포함하지 않는다.Figure 41h illustrates how to detect each fingerprint 4116 (e.g., a user's right hand stop) at a second location while displaying their respective controls 4102 at a first location 4102-b on the touch screen 112 Lt; / RTI &gt; The second position is different from the first position 4102-b, and does not include the respective control unit 4102. [

도 41i는 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 동안에 제2 위치에서 각자의 지문(4118)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것을 도시한다. 제2 위치는 제1 위치(4102-b)와 상이하고, 각자의 제어부(4102)를 포함하지 않는다.Figure 41i shows the fingerprint 4118 (e.g., the user's right little finger) at a second location while displaying their respective controls 4102 at a first location 4102-b on the touch screen 112 FIG. The second position is different from the first position 4102-b, and does not include the respective control unit 4102. [

도 41j는 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 것을 중단하고 터치 스크린(112) 상의 제2 위치(4102-c)에서 각자의 제어부(4102)를 표시하는 것을 도시한다. 도 41f의 제2 위치(4112-b)에서 각자의 지문(4112)을 검출하거나 도 41i에서 지문(4118)을 검출하는 것에 응답하여 터치 스크린(112) 상의 제2 위치(4102-c)에 각자의 제어부(4102)가 표시되는데, 이때 각자의 지문(4112, 4118)은 제1 지문이다. 예를 들어, 각자의 지문(4118)이 도 41f에서 제2 위치(4112-b)로 드래그되었을 때, 각자의 제어부(4102)는 터치 스크린(112) 상의 제2 위치(4102-c)에 표시된다. 다른 예에서, 디바이스가 도 41i의 제2 위치에서 각자의 지문(4118)의 터치다운을 검출할 때, 각자의 제어부(4102)가 터치 스크린(112) 상의 제2 위치(4102-c)에 표시된다.Figure 41J shows the display of the respective control portion 4102 in the first position 4102-b and the display of the respective control portion 4102 in the second position 4102-c on the touch screen 112 do. In the second position 4102-c on the touch screen 112 in response to detecting the fingerprint 4112 in the second position 4112-b in Fig. 41f or the fingerprint 4118 in Fig. 41i, The control unit 4102 of the first fingerprint is displayed. At this time, the fingerprint images 4112 and 4118 are the first fingerprint images. For example, when the respective fingerprints 4118 are dragged to the second position 4112-b in Fig. 41f, each of the control units 4102 is displayed in the second position 4102-c on the touch screen 112 do. In another example, when the device detects a touchdown of the respective fingerprint 4118 in the second position of Figure 41i, the respective control portion 4102 is displayed in the second position 4102-c on the touch screen 112 do.

도 41k는 도 41h의 제2 위치에서 각자의 지문(4116)을 검출하는 것에 응답하여, 그리고 각자의 지문(4116)이 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과는 상이한 제2 지문(예를 들어, 사용자의 오른손 중지)이며 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 이동시키는 것과 연관되지 않는다는 결정에 따라, 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)의 표시를 유지하는 것을 도시한다.41K shows a second fingerprint 4116 in response to detecting the fingerprint 4116 in the second position in FIG. 41H and in response to detecting the fingerprint 4116 in the second fingerprint 4116, which is different from the first fingerprint (e.g., The first position 4102-b on the touch screen 112 is moved to the first position 4102-b according to a determination that the fingerprint is a fingerprint (e.g., a user's right hand stop) and not associated with moving the respective control portion 4102 for the user interface 4101. [ The display of each control unit 4102 is maintained.

도 42a 내지 도 42c는 일부 실시예들에 따라서 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시하는 방법(4200)을 예시하는 흐름도이다. 방법(4200)은 디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(4200)의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.42A-42C are flow diagrams illustrating a method 4200 of displaying a respective control for a user interface based on detection of a first fingerprint associated with moving respective controls in accordance with some embodiments. The method 4200 is performed in an electronic device having a display, a touch-sensitive surface, and a fingerprint sensor (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations of method 4200 are selectively combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(4200)은 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시하기 위한 직관적인 방식을 제공한다. 이 방법은 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 더 빠르고 효율적으로 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 4200 provides an intuitive way to display the respective controls for the user interface based on the detection of the first fingerprint associated with moving the respective controls. The method reduces the cognitive burden on the user when displaying his or her control for the user interface based on the detection of the first fingerprint associated with moving the respective control, thereby creating a more efficient human-machine interface do. For battery-operated electronic devices, allowing the user to display their respective controls for the user interface based on the detection of the first fingerprint associated with moving their controls more quickly and efficiently saves power Increase the time between battery charges.

디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스가 디스플레이 상에 사용자 인터페이스를 표시한다(4202). 도 41a 내지 도 41k는 예를 들어 터치 스크린(112) 상에 비디오 게임을 포함하는 사용자 인터페이스(4101)를 표시하는 휴대용 다기능 디바이스(100)를 도시한다.An electronic device having a display, a touch-sensitive surface, and a fingerprint sensor displays a user interface on the display (4202). 41A-41K illustrate a portable multifunction device 100 that displays a user interface 4101 that includes a video game on a touch screen 112, for example.

일부 실시예들에서, 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관된 제1 지문을 검출하기 (바로) 이전에, 디바이스가 제1 위치와는 상이한 이전 위치에 각자의 제어부를 표시하고(4204), 제1 지문을 검출하는 것에 응답하여, 디바이스는 이전 위치에 각자의 제어부를 표시하는 것을 중단한다(예를 들어, 디바이스는 제1 지문을 검출하는 것에 응답하여 이전 위치로부터 새로운 위치로 각자의 제어부를 이동시킴). 도 41a는 예를 들어 각자의 인터페이스(4102)를 이동시키는 것과 연관된 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)을 검출하기 이전에, 이전 위치(4102-a)에 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 표시하는 디바이스(100)를 나타낸다. 도 41a 및 도 41b의 각자의 제어부(4102)의 이전 위치(4102-a)는 도 41e 내지 도 41f의 각자의 제어부(4102)의 제1 위치(4102-b)와는 상이하다. 도 41b는 예를 들어 제1 위치에서 제1 지문(4108)을 검출하는 디바이스(100)를 도시한다. 도 41e는 예를 들어 도 41b의 제1 위치에서 제1 지문(4108)을 검출하는 것에 응답하여 이전 위치(4102-a)에 각자의 제어부(4102)를 표시하는 것을 중단하고 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In some embodiments, the device displays (4204) its control at a previous location that is different from the first location, prior to (immediately) detecting the first fingerprint associated with moving the respective control for the user interface, , The device stops displaying its control at the previous position (e.g., in response to detecting the first fingerprint), in response to detecting the first fingerprint, the device stops displaying its control at the previous position . Figure 41A illustrates the user interface 4101 at the previous location 4102-a before detecting the first fingerprint (e.g., the user's right hand little finger) associated with moving the respective interface 4102, for example, And the device 100 for displaying the control unit 4102 for the respective devices. The previous position 4102-a of the control unit 4102 of each of Figs. 41A and 41B is different from the first position 4102-b of the control unit 4102 of each of Figs. 41E to 41F. 41B illustrates a device 100 that detects a first fingerprint 4108 at a first location, for example. 41E stops displaying the respective control portion 4102 in the previous position 4102-a, for example, in response to detecting the first fingerprint 4108 in the first position in Fig. 41B, (b) shows a device 100 that displays its own control unit 4102. Fig.

일부 실시예들에서, 각자의 제어부가 이전 위치에 표시될 때, 디바이스는 각자의 제어부와 연관된 동작들을 수행함으로써 이전 위치에 대응하는 입력들에 응답한다(4206). 또한 일부 실시예들에서, 각자의 제어부가 이전 위치에 표시될 때, 디바이스는 각자의 제어부와 연관되지 않은 동작들(예를 들어, 스크롤, 선택 등)을 수행함으로써(또는, 선택적으로 입력들이 사용자 인터페이스 내의 다른 동작들에 대응하지 않는다면 어떠한 동작도 수행하지 않음으로써) 제1 위치에 대응하는 입력들에 응답한다. 도 41a는 예를 들어 각자의 제어부(4102)가 이전 위치(4102-a)에 표시된 동안에 각자의 제어부(4102) 위에서 지문(4106)(예를 들어, 사용자의 오른손 검지)을 검출하는 것에 응답하여 각자의 제어부(4102)와 연관된 동작들을 수행하는 디바이스(100)를 도시한다. 일례에서, 디바이스(100)는, 하향 방향에 대응하는 각자의 제어부(4102) 위에서의 지문(4106)의 위치에 따라, 사용자 인터페이스(4101) 상의 비디오 게임의 쌍방향 객체(예를 들어, 차량(4103))의 방향을 변경한다.In some embodiments, when the respective control portion is displayed at the previous position, the device responds to the inputs corresponding to the previous position by performing operations associated with the respective control portion (4206). Also, in some embodiments, when the respective control portion is displayed at the previous position, the device may perform operations (e.g., scrolling, selection, etc.) that are not associated with the respective control portion It responds to inputs corresponding to the first position (by not performing any operation if it does not correspond to other operations in the interface). Figure 41A illustrates an example in which the controller 4102 in response to detecting a fingerprint 4106 (e.g., a user's right hand detection) on its respective control 4102 while the respective control 4102 is displayed at the previous position 4102- Lt; RTI ID = 0.0 &gt; 1002 &lt; / RTI &gt; In one example, the device 100 is capable of displaying a bi-directional object of a video game on the user interface 4101 (e. G., A vehicle 4103) in accordance with the position of the fingerprint 4106 on the respective control portion 4102 corresponding to the downward direction. ).

디바이스는 터치-감응 표면 상에서 사용자 인터페이스를 위한 각자의 제어부를 이동시키는(예를 들어, 디스플레이 상에 재위치시키는) 것과 연관된 제1 (사전 결정된) 지문을 검출하는데(4208), 여기서 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 상의 제1 위치에 있는 포커스 셀렉터에 대응한다. 도 41d는 예를 들어 각자의 제어부(4102)를 포함하지 않는 터치 스크린(112) 상의 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 디바이스(100)를 도시한다. 도 41d에서, 예를 들어, 디바이스(100)는 터치 스크린(112) 상에 각자의 제어부(4102)를 표시하지 않는다. 일부 실시예들에서, 각자의 제어부는 사용자 인터페이스를 위한 숨겨진 제어부(예를 들어, 비디오 게임을 위한 방향 제어부들, 미디어 재생 애플리케이션을 위한 오디오 제어부들, 이미지 편집 애플리케이션을 위한 컬러 팔레트 또는 크로핑(cropping) 도구들, 웹 브라우저 애플리케이션을 위한 내비게이션 제어부들 등)에 대응한다.The device detects 4208 a first (predetermined) fingerprint associated with moving (e.g., repositioning) the respective control for the user interface on the touch-sensitive surface, Corresponds to the focus selector in the first position on the display that does not include its respective control. Figure 41d illustrates the detection of the first fingerprint 4112 (e.g., the user's right hand little finger) at a first location 4112-a on the touch screen 112 that does not include its control portion 4102, Lt; / RTI &gt; In Fig. 41D, for example, the device 100 does not display its own control unit 4102 on the touch screen 112. Fig. In some embodiments, each of the controls may have a hidden control for the user interface (e.g., direction controls for video games, audio controls for media playback applications, color palette for cropping or cropping ) Tools, navigation controls for web browser applications, etc.).

일부 실시예들에서, 각자의 제어부는 비디오 게임을 위한 방향 제어 패드(예를 들어, 소프트-조이스틱, 가상 d-패드/방향 패드/조이패드)이다(4210). 예를 들어, 디바이스가 방향 제어 패드와 상호작용하는 접촉들을 검출할 때(그리고 접촉들이 제1 지문을 포함하지 않을 때), 디바이스는 사용자 인터페이스를 내비게이션하거나 비디오 게임 내에서 차량 또는 캐릭터의 움직임 방향 또는 시야를 변경하는 것과 같이 방향 제어 패드와 연관된 대응하는 동작들을 수행한다. 도 41a 및 도 41b, 및 도 41e 내지 도 41k는 예를 들어 터치 스크린(112) 상에 표시된 비디오 게임을 위한 방향 제어부인 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In some embodiments, the respective control is a direction control pad (e.g., a soft-joystick, virtual d-pad / direction pad / joypad) 4210 for video games. For example, when a device detects contacts that interact with a directional control pad (and the contacts do not include a first fingerprint), the device may navigate the user interface or move the direction of movement of the vehicle or character And performs corresponding actions associated with the direction control pad, such as changing the field of view. 41A and 41B and 41E to 41K illustrate a device 100 that displays a control unit 4102, which is a direction control unit for a video game displayed on the touch screen 112, for example.

제1 지문을 검출하는 것에 응답하여, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부를 표시한다(4212). 도 41e는 예를 들어 도 41b의 제1 위치에서 제1 지문(4108)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하거나 도 41d의 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것에 응답하여, 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In response to detecting the first fingerprint, the device displays its control at a first location on the display (4212). 41E detects the first fingerprint 4108 (e.g., the user's right hand little finger) in the first position of FIG. 41B or the first fingerprint 4112 The device 100 that displays its control portion 4102 at a first location 4102-b on the touch screen 112, in response to detecting a user (e.g., a user's right hand little finger) .

일부 실시예들에서, 각자의 제어부가 제1 위치에 표시될 때, 디바이스는 각자의 제어부와 연관된 동작들을 수행함으로써 제1 위치에 대응하는 입력들에 응답한다(4214). 또한 일부 실시예들에서, 각자의 제어부가 제1 위치에 표시될 때, 디바이스는 각자의 제어부와 연관되지 않은 동작들(예를 들어, 스크롤, 선택 등)을 수행함으로써(또는, 선택적으로 입력들이 사용자 인터페이스 내의 다른 동작들에 대응하지 않는다면 어떠한 동작도 수행하지 않음으로써) 이전 위치에 대응하는 입력들에 응답한다. 도 41g는 예를 들어 각자의 제어부(4102)가 제1 위치(4102-b)에 표시된 동안에 각자의 제어부(4102) 위에서 지문(4114)(예를 들어, 사용자의 오른손 검지)을 검출하는 것에 응답하여 각자의 제어부(4102)와 연관된 동작들을 수행하는 디바이스(100)를 도시한다. 일례에서, 디바이스(100)는, 좌측 방향에 대응하는 각자의 제어부(4102) 위에서의 지문(4114)의 위치에 따라, 사용자 인터페이스(4101) 상의 비디오 게임의 쌍방향 객체(예를 들어, 차량(4103))의 방향을 변경한다.In some embodiments, when the respective control portion is displayed in the first position, the device responds to inputs corresponding to the first position by performing operations associated with the respective control portion (4214). Also, in some embodiments, when the respective control portion is displayed in the first position, the device may perform operations (e.g., scrolling, selection, etc.) that are not associated with the respective control portion And responds to inputs corresponding to the previous position (by not performing any action unless it corresponds to other actions in the user interface). FIG. 41G shows an example of a response to detecting the fingerprint 4114 (e.g., the user's right hand detection) on the respective control unit 4102 while the respective control unit 4102 is displayed at the first position 4102- And performs operations associated with the respective control unit 4102. The device 100 shown in Fig. In one example, the device 100 is capable of displaying a bi-directional object of a video game on the user interface 4101 (e. G., A vehicle 4103) in accordance with the position of the fingerprint 4114 on the respective control portion 4102 corresponding to the left direction. ).

일부 실시예들에서, 각자의 제어부는 제1 지문을 검출하기 (바로) 전에 디스플레이 상에 표시되지 않는다(4216). 예를 들어, 도 41d는 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하기 이전에 터치 스크린(112) 상에 각자의 제어부(4102)를 표시하지 않는 디바이스(100)를 도시한다.In some embodiments, the respective control is not displayed on the display (at 4216) before the first fingerprint is detected (right). For example, FIG. 41D shows how each control portion 4102 (FIG. 41B) on the touch screen 112 before detecting the first fingerprint 4112 (e.g., the user's right hand little finger) in the first position 4112- (Not shown).

일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고(4218), 각자의 제어부가 표시되는 제1 위치는 터치 스크린 디스플레이 상의 제1 지문의 위치에 대응한다. 도 41a 내지 도 41k는 예를 들어 터치-감응 디스플레이 표면 또는 터치 스크린 디스플레이인 터치 스크린(112)을 갖는 휴대용 다기능 디바이스(100)를 도시한다. 또한, 도 41e는 예를 들어 도 41b에서 터치 스크린(112) 상의 제1 위치에 있는 제1 지문(4108)(예를 들어, 사용자의 오른손 새끼손가락)의 위치 또는 도 41d에서 터치 스크린(112) 상의 제1 위치(4112-a)에 있는 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)의 위치에 대응하는 제1 위치(4102-b)에 있는 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In some embodiments, the display is a touchscreen display (4218), and the first location at which the respective controls are displayed corresponds to the location of the first fingerprint on the touchscreen display. 41A-41K illustrate a portable multifunction device 100 having a touch-sensitive display surface or a touchscreen 112 that is a touch screen display, for example. 41E also illustrates the position of the first fingerprint 4108 (e.g., the user's right hand little finger) at a first location on the touch screen 112, e.g., in FIG. 41B, or the location of the touch screen 112, The control unit 4102 in the first position 4102-b corresponding to the position of the first fingerprint 4112 (e.g., the user's right hand little finger) in the first position 4112-a FIG. 2 shows a device 100 for displaying a message.

일부 실시예들에서, 디바이스가 디바이스의 사용자 인터페이스를 재설정하는 것과 연관되지 않은 동작의 정상 모드에 있는 동안에, 디바이스는 제1 지문을 검출하는 것에 응답하여 디스플레이 상의 제1 위치에 각자의 제어부를 표시한다(4220)(예를 들어, 디바이스가 별개의 재설정 모드에 있지 않은 동안에 각자의 제어부가 처음으로 나타나거나 이동됨). 도 41g는 예를 들어 디바이스(100)가 디바이스(100)의 사용자 인터페이스(4101)를 재설정하는 것과 연관되지 않은 동작의 정상 모드(예를 들어, 비디오 게임 플레이 모드)에 있는 동안에 터치 스크린(112) 상의 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 디바이스(100)를 나타낸다.In some embodiments, while the device is in the normal mode of operation not associated with resetting the user interface of the device, the device displays its control in the first position on the display in response to detecting the first fingerprint (E.g., the respective control is first presented or moved while the device is not in a separate reset mode). Figure 41g illustrates the touch screen 112 while the device 100 is in a normal mode of operation (e.g., a video game play mode) that is not associated with resetting the user interface 4101 of the device 100. For example, And the device 100 that displays the respective control unit 4102 in the first position 4102-b on the display unit 4102-b.

일부 실시예들에서, 디바이스는 제1 지문의 들어올림을 검출하고(4222), 제1 지문의 들어올림을 검출한 후에, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부의 표시를 유지한다(4224). 예를 들어, 각자의 제어부는 사용자가 터치-감응 표면 상의 다른 위치에 제1 지문을 배치함으로써 각자의 제어부를 다시 이동시킬 때까지 영구적으로 또는 반영구적으로 제1 위치로 이동된다. 도 41g는 예를 들어 도 41e의 제1 위치(4112-a)로부터 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)의 들어올림을 검출하는 디바이스(100)를 도시한다. 도 41g는 예를 들어 도 41e의 제1 위치(4112-a)로부터 제1 지문(4112)의 들어올림을 검출한 후에 디바이스(100)가 터치 스크린(112) 상의 제1 위치(4102-b)에 각자의 제어부(4102)의 표시를 유지하는 것을 추가로 도시한다.In some embodiments, after the device detects the lifting of the first fingerprint (4222) and detects the lifting of the first fingerprint, the device maintains an indication of its control at the first position on the display (4224 ). For example, the respective controls are moved permanently or semi-permanently to the first position until the user moves their controls again by placing the first fingerprint at another location on the touch-sensitive surface. Figure 41g illustrates a device 100 that detects the lifting of a first fingerprint 4112 (e.g., the user's right hand little finger) from a first position 4112-a in Figure 41e, for example. Figure 41g illustrates that after device 100 detects lifting of first finger 4112 from first position 4112-a in Figure 41e, first position 4102-b on touch screen 112, The display of the respective control unit 4102 is maintained.

일부 실시예들에서, 디스플레이 상의 제1 위치에 각자의 제어부를 표시하는 동안에 디바이스는 디스플레이 상의 제2 위치에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 상의 각자의 지문을 검출하는데(4226), 여기서 제2 위치는 제1 위치와는 상이하며 각자의 제어부를 포함하지 않는다. 일부 실시예들에서, 각자의 지문이 제1 지문일 때, 제2 위치에서 제1 지문을 검출하는 것은 제1 위치로부터 제2 위치로의 이동에 대응하는 제1 지문으로 수행되는 드래그 제스처를 검출하는 것을 포함한다. 일부 실시예들에서, 각자의 지문이 제1 지문일 때, 제2 위치에서 제1 지문을 검출하는 것은 디스플레이 상의 제2 위치에 대응하는 터치-감응 표면 상의 위치에서 제1 지문을 이용하여 수행되는 탭 제스처를 검출하는 것을 포함한다.In some embodiments, the device detects (4226) each fingerprint on a touch-sensitive surface corresponding to a focus selector at a second location on the display while displaying its control at a first location on the display, The two positions are different from the first position and do not include their respective control portions. In some embodiments, detecting the first fingerprint at the second position when the respective fingerprint is the first fingerprint detects a drag gesture performed with the first fingerprint corresponding to the movement from the first position to the second position . In some embodiments, when the respective fingerprint is a first fingerprint, detecting the first fingerprint at the second location is performed using the first fingerprint at a location on the touch-sensitive surface corresponding to the second location on the display Tap gesture.

도 41f는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 동안에 각자의 제어부(4102)를 포함하지 않는 제1 위치(4112-a)로부터 제2 위치(4112-b)로의 각자의 지문(4112)의 드래그 제스처를 검출하는 디바이스(100)를 나타낸다. 이 예에서, 각자의 지문(4112)은 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)이다. 도 41h는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 동안에, 각자의 제어부(4102)를 포함하지 않고 도 41d의 제1 지문(4112)의 제1 위치(4112-a)와는 상이한 제2 위치에서 각자의 지문(4116)(예를 들어, 사용자의 오른손 중지)을 검출하는 디바이스(100)를 도시한다. 이 예에서, 각자의 지문(4116)은 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과는 상이한 제2 지문(예를 들어, 사용자의 오른손 중지)이다. 도 41i는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 동안에, 각자의 제어부(4102)를 포함하지 않고 도 41d의 제1 지문(4112)의 제1 위치(4112-a)와는 상이한 제2 위치에서 각자의 지문(4118)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 디바이스(100)를 도시한다. 이러한 예에서, 각자의 지문(4118)은 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)이다.41F shows a state in which the first position 4112-a, which does not include the respective control units 4102, is moved from the second position 4112-b to the second position 4112-b while the control unit 4102 is displayed at the first position 4102- b &lt; / RTI &gt; of the fingerprint 4112 of the device. In this example, each fingerprint 4112 is a first fingerprint (e.g., the right hand little finger of a user). 41H shows a state in which the control unit 4102 is not included in the control unit 4102 while the control unit 4102 is displayed at the first position 4102-b, (E.g., a user's right hand stop) at a second location different from the fingerprint 4116 (e.g., the user's right hand stop) at a second location different from the first location 4112-a. In this example, each fingerprint 4116 is a second fingerprint (e.g., the user's right hand stop) different from the first fingerprint (e.g., the user's right hand little finger). 41I shows a state in which the control unit 4102 is not included in the first position 4102-b of the first fingerprint 4112 of FIG. (E.g., the right hand little finger of a user) at a second location different from the first location 4112-a. In this example, each fingerprint 4118 is a first fingerprint (e.g., the right hand little finger of a user).

일부 실시예들에서, 각자의 지문을 검출하는 것에 응답하여(4228), 그리고 각자의 지문이 터치-감응 표면 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것(예를 들어, 디스플레이 상에서 재위치시키는 것)과 연관된 제1 (사전 결정된) 지문이라는 결정에 따라, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부를 표시하는 것을 중단하고(4230); 디스플레이 상의 제2 위치에 각자의 제어부를 표시한다(4232)(예를 들어, 제1 지문을 이용한 후속하는 입력을 검출하는 것에 응답하여, 각자의 제어부가 디스플레이 상의 상이한 위치로 이동됨). 도 41j는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 것을 중단하고 제2 위치(4102-c)에 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다. 이러한 예시에서, 도 41f의 제2 위치(4112-b)에서 각자의 지문(4112)을 검출하거나 도 41i의 제2 위치에서 각자의 지문(4118)을 검출하는 것에 응답하여, 그리고 각자의 지문(4112 또는 4118)이 각자의 제어부(4102)를 이동시키는 것과 연관된 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)이라는 결정에 따라, 디바이스(100)는 전술된 동작들을 수행한다.In some embodiments, in response to detecting each fingerprint (4228), each fingerprint may be moved (e.g., by repositioning on the display) a respective control for the user interface on the touch- , The device stops (4230) displaying its control at the first location on the display, depending on the determination that it is the first (predetermined) fingerprint associated with the first fingerprint (4232) (e.g., in response to detecting a subsequent input using the first fingerprint, their controls are moved to different locations on the display) at a second location on the display. 41J shows a device 100 for stopping the display of the control unit 4102 at the first position 4102-b and displaying the respective control unit 4102 at the second position 4102-c, for example Respectively. In this example, in response to detecting the respective fingerprint 4112 in the second position 4112-b of Fig. 41f or detecting the respective fingerprint 4118 in the second position of Fig. 41i, The device 100 performs the operations described above in accordance with the determination that the first fingerprint (e.g., 4112 or 4118) is the first fingerprint associated with moving the respective control portion 4102 (e.g., the right hand little finger of the user).

일부 실시예들에서, 각자의 지문을 검출하는 것에 응답하여, 그리고 각자의 지문이 제1 지문과는 상이한 제2 지문이며 터치-감응 표면 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것(예를 들어, 디스플레이 상에서 재위치시키는 것)과 연관되지 않는다는 결정에 따라, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부를 표시하는 것을 유지한다(4234). 디바이스는 또한 (예를 들어, 제2 지문으로 수행된 제스처가 디스플레이 상의 제2 위치에 표시된 아이콘 또는 다른 사용자 인터페이스 요소와 상호작용하는 제스처라면) 선택적으로 각자의 제어부에 대응하는 동작이 아닌 디스플레이 상의 제2 위치와 연관된 동작을 수행한다. 도 41k는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)의 표시를 유지하는 디바이스(100)를 도시한다. 이러한 예에서, 도 41h의 제2 위치에서 각자의 지문(4116)을 검출하는 것에 응답하여, 그리고 각자의 지문(4116)이 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과 상이한 제2 지문(예를 들어, 사용자의 오른손 중지)이며 각자의 제어부(4102)를 이동시키는 것과 연관되지 않는다는 결정에 따라, 디바이스(100)가 전술된 동작을 수행한다.In some embodiments, in response to detecting each fingerprint, and each fingerprint is a second fingerprint that is different from the first fingerprint and moving its respective control for the user interface on the touch-sensitive surface (E.g., repositioning on the display), the device maintains 4234 displaying its control at the first position on the display. The device may also be configured to selectively display a gesture on the display (e.g., if the gesture performed with the second fingerprint is a gesture interacting with an icon or other user interface element displayed at a second location on the display) 2 &lt; / RTI &gt; location. 41k illustrates a device 100 that maintains an indication of its control portion 4102, for example, at a first location 4102-b. In this example, in response to detecting the respective fingerprint 4116 in the second position of FIG. 41H, and in response to detecting the fingerprint 4116 of the second fingerprint 4116 as a second fingerprint 4116 different from the first fingerprint (for example, In accordance with the determination that fingerprints (e.g., the user's right hand stop) are not associated with moving the respective control portion 4102, the device 100 performs the above-described operations.

도 42a 내지 도 42c의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 42a 내지 도 42c와 관련하여 전술된 방법(4200)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(4200)과 관련하여 전술된 지문들, 사용자 인터페이스 객체들, 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 사용자 인터페이스 객체들, 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 42A-42C are only exemplary and that the order in which they are described is not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 4200 described above with respect to 42c is also applicable in a similar manner. For example, the fingerprints, user interface objects, focus selectors described above in connection with method 4200 may optionally be combined with other methods described herein (e.g., a second User interface objects, and focus selectors described herein in connection with the methods (e.g., methods listed in the paragraph). For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 43은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4300)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 43에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 43 illustrates a functional block diagram of an electronic device 4300 constructed in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 43 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 43에 도시된 바와 같이, 전자 디바이스(4300)는 그래픽 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(4302), 하나 이상의 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(4304), 지문 센서 유닛(4306); 및 디스플레이 유닛(4302), 터치-감응 표면 유닛(4304) 및 지문 센서 유닛(4306)에 결합된 프로세싱 유닛(4308)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4308)은 디스플레이 인에이블링 유닛(4310), 검출 유닛(4312), 수행 유닛(4314) 및 결정 유닛(4316)을 포함한다.43, the electronic device 4300 includes a display unit 4302 configured to display a graphical user interface, a touch-sensitive surface unit 4304 configured to receive one or more contacts, a fingerprint sensor unit 4306; And a processing unit 4308 coupled to the display unit 4302, the touch-sensitive surface unit 4304 and the fingerprint sensor unit 4306. In some embodiments, the processing unit 4308 includes a display enabling unit 4310, a detecting unit 4312, a performing unit 4314, and a determining unit 4316.

프로세싱 유닛(4308)은 (예를 들어, 검출 유닛(4312)을 이용하여) 터치-감응 표면 유닛(4304) 상에서 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관된 제1 지문을 검출하도록 구성되는데, 여기서 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 유닛(4302) 상의 제1 위치에 있는 포커스 셀렉터에 대응한다. 제1 지문을 검출하는 것에 응답하여, 프로세싱 유닛(4308)은 (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에서의 각자의 제어부의 표시를 가능하게 하도록 구성된다.The processing unit 4308 is configured to detect a first fingerprint associated with moving a respective control for a user interface on the touch-sensitive surface unit 4304 (e.g., using the detection unit 4312) Where the first fingerprint corresponds to the focus selector in the first position on the display unit 4302 that does not include its own control. In response to detecting the first fingerprint, the processing unit 4308 may display an indication of its control at a first location on the display unit 4302 (e.g., using the display enabling unit 4310) Lt; / RTI &gt;

일부 실시예들에서, 각자의 제어부는 제1 지문을 검출하기 전에 디스플레이 유닛(4302) 상에 표시되지 않는다.In some embodiments, the respective controls are not displayed on the display unit 4302 before detecting the first fingerprint.

일부 실시예들에서, 프로세싱 유닛(4308)은 (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 제1 지문을 검출하기 전에 제1 위치와는 상이한 이전 위치에 각자의 제어부를 표시하는 것을 가능하게 하고; 제1 지문을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 이전 위치에서 각자의 제어부를 표시하는 것을 중단하도록 구성된다.In some embodiments, the processing unit 4308 may display its control at a previous position different from the first position before detecting the first fingerprint (e.g., using the display enable unit 4310) ; &Lt; / RTI &gt; In response to detecting the first fingerprint, it is configured to stop displaying its control at the previous position (e.g., using the display enabling unit 4310).

일부 실시예들에서, 프로세싱 유닛(4308)은 각자의 제어부가 이전 위치에 표시될 때, (예를 들어, 수행 유닛(4314)을 이용하여) 각자의 제어부와 연관된 동작들을 수행함으로써 이전 위치에 대응하는 입력들에 응답하고; 각자의 제어부가 제1 위치에 표시될 때, (예를 들어, 수행 유닛(4314)을 이용하여) 각자의 제어부와 연관된 동작들을 수행함으로써 제1 위치에 대응하는 입력들에 응답하도록 구성된다.In some embodiments, the processing unit 4308 may be configured to respond to previous positions by performing actions associated with their respective controls (e.g., using execution unit 4314) when their controls are displayed at the previous position Responsive to inputs; Are configured to respond to inputs corresponding to the first position by performing actions associated with their respective controls (e.g., using execution unit 4314) when their respective controls are displayed in the first position.

일부 실시예들에서, 디스플레이 유닛(4302)은 터치 스크린 디스플레이 유닛이고, 각자의 제어부가 표시되는 제1 위치는 터치 스크린 디스플레이 유닛 상의 제1 지문의 위치에 대응한다.In some embodiments, the display unit 4302 is a touch screen display unit, and the first position at which the respective controls are displayed corresponds to the position of the first fingerprint on the touch screen display unit.

일부 실시예들에서, 프로세싱 유닛(4308)은 (예를 들어, 검출 유닛(4312)을 이용하여) 제1 지문의 들어올림을 검출하고; 제1 지문의 들어올림을 검출한 후에, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부를 표시하는 것을 유지하도록 추가로 구성된다.In some embodiments, the processing unit 4308 detects the lifting of the first fingerprint (e.g., using the detection unit 4312); After detecting the lifting of the first fingerprint, additional configuration (e.g., using the display enabling unit 4310) may be configured to maintain displaying the respective controls at a first position on the display unit 4302 do.

일부 실시예들에서, 프로세싱 유닛(4308)은 (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부를 표시하는 동안에, (예를 들어, 검출 유닛(4312)을 이용하여) 디스플레이 유닛(4302) 상의 제2 위치 - 제2 위치는 제1 위치와는 상이하고 각자의 제어부를 포함하지 않음 - 에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛(4304) 상의 각자의 지문을 검출하고; 각자의 지문을 검출하는 것에 응답하여, 그리고 (예를 들어, 결정 유닛(4316)을 이용하여) 각자의 지문이 터치-감응 표면 유닛(4304) 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관된 제1 지문이라는 결정에 따라: (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부를 표시하는 것을 중단하고; (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제2 위치에 각자의 제어부의 표시를 가능하게 하도록 추가로 구성된다.In some embodiments, while processing unit 4308 displays its control at a first location on display unit 4302 (e.g., using display enabling unit 4310) Corresponding to the focus selector in the second position-second position on the display unit 4302 (using the detection unit 4312, which is different from the first position and does not include its own control) Detect each fingerprint on the surface unit 4304; In response to detecting their fingerprints and using their respective fingerprints (e.g., using decision unit 4316) to move their respective controls for the user interface on the touch-sensitive surface unit 4304 According to the determination of the first fingerprint: stop displaying the respective controls at the first position on the display unit 4302 (e.g., using the display enabling unit 4310); (E.g., using the display enabling unit 4310) to enable display of their respective controls in a second position on the display unit 4302. [

일부 실시예들에서, 프로세싱 유닛(4308)은 각자의 지문을 검출하는 것에 응답하여, 그리고 (예를 들어, 결정 유닛(4316)을 이용하여) 각자의 지문이 제1 지문과는 상이하고 터치-감응 표면 유닛(4304) 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관되지 않은 제2 지문이라고 결정함에 따라, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부의 표시 유지하도록 추가로 구성된다.In some embodiments, the processing unit 4308 is responsive to detecting each fingerprint, and each fingerprint is different from the first fingerprint (e.g., using decision unit 4316) (Using, for example, the display enabling unit 4310), the display unit 4302 (e.g., using the display enable unit 4310) determines that the second fingerprint is not associated with moving the respective control for the user interface on the sensitive surface unit 4304 And the display of the respective control unit is held at the first position on the display unit.

일부 실시예들에서, 각자의 제어부는 비디오 게임을 위한 방향 제어 패드이다.In some embodiments, the respective controls are directional control pads for video games.

일부 실시예들에서, 프로세싱 유닛(4308)은 디바이스가 디바이스의 사용자 인터페이스를 재설정하는 것과 연관되지 않은 동작의 정상 모드에 있는 동안에 제1 지문을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 4308 is responsive to detecting the first fingerprint while the device is in the normal mode of operation not associated with resetting the device &apos; s user interface (e.g., (Using the ring unit 4310) to enable display of the respective control unit at the first position on the display unit 4302. [

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 42a 내지 도 42c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 43에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 표시 동작(4204, 4212), 검출 동작(4204, 4222) 및 수행 동작(4210, 4214)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to Figures 42A-42C are optionally implemented by the components shown in Figures 1A and 1B or 43. For example, display operations 4204 and 4212, detection operations 4204 and 4222, and perform operations 4210 and 4214 are optionally implemented by event classifier 170, event recognizer 180 and event handler 190 do. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

전자 디바이스를 보조 디스플레이로서 설정하기Setting up an electronic device as a secondary display

다수의 전자 디바이스들은 콘텐트를 표시하고 사용자가 디바이스와 상호작용하게 하는 그래픽 사용자 인터페이스들을 구비한다. 때때로, 사용자는 디바이스 자체에 통합되거나 디바이스에 접속된 디스플레이를 넘어 그래픽 사용자 인터페이스를 확장하길 원할 수 있다. 예를 들어, 내장 또는 외부 디스플레이를 갖는 데스크톱 또는 랩톱 컴퓨터를 동작시키는 사용자는 선택적으로 케이블을 통해 제2 전자 디바이스 또는 외부 디스플레이를 CPU에 접속시킨 다음, 그래픽 사용자 인터페이스를 제1 디스플레이로부터 제2 디스플레이로 확장하도록 제2 디스플레이를 설정한다. 마찬가지로, 휴대용 다기능 전자 디바이스(예를 들어, 스마트폰, 태블릿 컴퓨터, 또는 디지털 플래너)를 동작시키는 사용자는 선택적으로 디바이스를 보다 쉽게 설정하기 위해서 (예를 들어, 유선 또는 무선 접속을 통해) 휴대용 디바이스를 베이스 컴퓨터에 접속시키고, 휴대용 디바이스 상에 파일들을 전송하거나 휴대용 디바이스로부터 파일들을 전송한다. 이러한 방식으로, 그래픽 사용자 인터페이스의 유효 크기가 증가되어, 디바이스와 상호작용하는 사용자의 능력을 향상시킨다. 그러나, 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하는 현재의 방법들은 제2 디바이스의 디스플레이를 설정하기 위해서 메뉴 및 서브-메뉴를 여는 것 및/또는 복수의 제스처들과 버튼 누름을 요구하는데, 이는 사용자에게 혼란스러울 수 있고/있거나 시간 소비적일 수 있다. 따라서, 사용자가 제2 전자 디바이스를 제1 전자 디바이스에 대한 보조 디스플레이로서 더 효율적이고 편리하게 설정할 수 있게 하는 방법들 및 사용자 인터페이스들을 제공해야 할 필요성이 존재한다.Many electronic devices have graphical user interfaces that display content and allow a user to interact with the device. Occasionally, a user may want to extend the graphical user interface beyond the display integrated into the device itself or connected to the device. For example, a user operating a desktop or laptop computer with an internal or external display may selectively connect a second electronic device or external display to the CPU via a cable, and then connect the graphical user interface from the first display to the second display The second display is set to extend. Likewise, a user operating a portable multifunctional electronic device (e.g., a smartphone, tablet computer, or digital planner) may optionally provide a portable device (e.g., via a wired or wireless connection) Connect to the base computer, transfer files on the portable device, or transfer files from the portable device. In this manner, the effective size of the graphical user interface is increased to enhance the user's ability to interact with the device. Current methods of setting a second electronic device as a secondary display of a first electronic device, however, require opening the menu and sub-menu to set the display of the second device and / or requiring multiple gestures and button presses Which may be confusing and / or time consuming to the user. Thus, there is a need to provide user interfaces and methods that enable a user to more efficiently and conveniently set up a secondary electronic device as a secondary display for the first electronic device.

아래에서 기술되는 실시예들은 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 개선된 방법들 및 사용자 인터페이스들을 제공한다. 보다 구체적으로, 아래에 기술된 일부 실시예들에 따르면, 사용자로 하여금 각각의 디바이스 상의 지문 센서를 단순히 터치함으로써 제2 디바이스를 제1 디바이스에 대한 보조 디스플레이로서 설정하게 하는 방법들 및 사용자 인터페이스들이 제공된다. 일부 실시예들에서, 방법들 및 사용자 인터페이스들은 제1 디바이스 상의 터치로부터의 각자의 지문 식별을 제2 디바이스 상의 터치로부터의 각자의 지문 식별에 상관시키며, 자동으로 제2 디바이스를 제1 디바이스에 대한 보조 디스플레이로서 설정한다. 대안적으로, 일부 실시예들에서, 제1 및 제2 지문들의 검출에 따라서, 사용자가 제2 디바이스를 제1 디바이스의 보조 디스플레이로서 설정하는 것을 확인하도록 프롬프트된다. 아래에 기술된 일부 실시예들에서, 제1 및/또는 제2 전자 디바이스 상의 터치의 배향이 보조 디스플레이 상에 표시되는 콘텐트의 배향을 결정한다. 일부 실시예들에서, 제1 및/또는 제2 디바이스 상의 지문 터치의 식별은 제1 디스플레이의 사용자 인터페이스가 보조 디스플레이 상으로 확장되는 방향을 결정한다. 예를 들어, 일부 실시예들에서, 사용자가 제1 디바이스를 자신의 왼손으로 터치하고 제2 디바이스를 자신의 오른손으로 터치하면, 사용자 인터페이스는 우측에 보조 디스플레이를 두도록 확장되며, 그 반대도 마찬가지이다. 유리하게는, 아래에 기술된 방법들 및 사용자 인터페이스들이 요구되는 단계들의 개수를 감소시킴으로써 제2 전자 디바이스를 제1 디바이스의 보조 디스플레이로서 설정하는 프로세스를 단순화한다.The embodiments described below provide improved methods and user interfaces for setting a second electronic device as a secondary display of a first electronic device. More specifically, according to some embodiments described below, there are provided methods and user interfaces for enabling a user to set a second device as a secondary display for a first device by simply touching a fingerprint sensor on each device do. In some embodiments, the methods and user interfaces correlate their fingerprint identification from a touch on the first device with their fingerprint identification from a touch on the second device, and automatically associate the second device with the fingerprint identification Set as auxiliary display. Alternatively, in some embodiments, upon detection of the first and second fingerprints, the user is prompted to confirm setting the second device as the secondary display of the first device. In some embodiments described below, the orientation of the touch on the first and / or second electronic device determines the orientation of the content displayed on the secondary display. In some embodiments, the identification of the fingerprint touch on the first and / or second device determines the direction in which the user interface of the first display expands onto the secondary display. For example, in some embodiments, if a user touches the first device with his left hand and touches the second device with his right hand, the user interface is extended to have the secondary display on the right, and vice versa . Advantageously, the methods described below and user interfaces simplify the process of setting the second electronic device as the secondary display of the first device by reducing the number of steps required.

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 44a 내지 도 44ee 및 도 45a 내지 도 45d와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 44a 내지 도 44ee 및 도 45a 내지 도 45d와 관련하여 기술되는 실시예들은 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 기술될 것이지만, 유사한 동작들이 선택적으로 도 44a 내지 도 44ee에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안 통합형 지문 센서(359-1) 상에 도 44a 내지 도 44ee에 묘사된 입력들을 검출하는 것에 응답하여 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 도 44a 내지 도 44ee에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에 도 44a 내지 도 44ee에 묘사된 접촉들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로 커서(4422) 대신에, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각각의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 44A-44E and Figs. 45A-45D includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-1 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch sensitive display system 112) (Fig. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 44A to Fig. 44E and Figs. 45A to 45D include a display 450, a separate touch-sensitive surface 451 and a separate fingerprint sensor 359-2 Although similar operations will be described in connection with the input depicted in Figures 44a-44ee on the integrated fingerprint sensor 359-1 while displaying the user interfaces shown in Figures 44a-44ee on the display 450, Is performed on the device having the integrated fingerprint sensor 359-1 in response to detecting the fingerprint sensor 359-1. Similar operations may also be performed by the fingerprint sensor 169 (e.g., the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-1) while displaying the user interfaces shown in Figures 44A-44Eee on the touch screen 112 Is performed on a device having a touch screen 112 in response to detecting the contacts depicted in Figures 44A-44EE on a touch screen (e.g., sensor 359-2); In such embodiments, instead of the cursor 4422, the focus selector may select a representative point corresponding to each contact, contact (e.g., the point associated with each contact's center or each contact) 0.0 &gt; 112 &lt; / RTI &gt;

도 44a 내지 도 44j는 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가짐으로써 지문 센서들로서 사용될 수 있는 터치 스크린(112)을 각각 구비하는 2개의 전자 디바이스들(예를 들어, 다기능 디바이스(100-1, 100-2)들)을 도시한다. 다기능 디바이스(100-1, 100-2)들은 또한 별개의 지문 센서(169)들을 갖는 것으로 도시되어 있다. 일부 실시예들에서, 다기능 디바이스(100-1, 100-2)들 각각은 지문 센서로서 사용될 수 있는 터치 스크린(112), 별개의 지문 센서(169), 또는 둘 모두를 독립적으로 구비한다.Figures 44A-44J illustrate two electronic devices each having a touch screen 112 that can be used as fingerprint sensors by having a spatial resolution sufficiently high to detect fingerprint features formed by individual fingerprint ridges , Multifunction devices 100-1 and 100-2). Multifunction devices 100-1 and 100-2 are also shown as having separate fingerprint sensors 169. [ In some embodiments, each of the multi-function devices 100-1 and 100-2 independently has a touch screen 112, a separate fingerprint sensor 169, or both that can be used as a fingerprint sensor.

도 44a 내지 도 44f는 제1 다기능 디바이스(100-1)가 제1 지문(4402)을 검출하고, 제1 지문(4402)을 검출하는 것과 동시에 또는 그 후에 제2 다기능 디바이스(100-2)가 제2 지문(4403)을 검출하는 다양한 실시예들을 도시한다(예를 들어, 지문들은 동시에, 실질적으로 동시에, 또는 매우 근접한 작은 시간차로 검출됨). 다기능 디바이스(100-2)는 제2 지문(4403)이 검출되었다는 정보를 가지고 다기능 디바이스(100-1)에 전달한다. 미리 정해진 기준이 지문(4402, 4403)들에 의해 충족될 때, 다기능 디바이스(100-1)는 다기능 디바이스(100-2)가 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정될 수 있게 하는 정보를 가지고 다기능 디바이스(100-2)에 응답한다. 미리 정해진 기준이 지문(4402, 4403)들의 검출에 의해 충족되지 않을 때, 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정되지 않는다.Figures 44A-44F illustrate how the first multifunction device 100-1 detects the first fingerprint 4402 and at the same time or after the second multifunction device 100-2 detects the first fingerprint 4402 (E.g., the fingerprints are detected at the same time, substantially simultaneously, or in a very close proximity with a small time difference) to detect the second fingerprint 4403. The multifunction device 100-2 transfers information to the multifunction device 100-1 with information that the second fingerprint 4403 has been detected. When the predetermined reference is satisfied by the fingerprints 4402 and 4403, the multifunction device 100-1 is configured to allow the multifunction device 100-2 to be set as a secondary display for the multifunction device 100-1 Information to the multifunction device 100-2. When the predetermined reference is not satisfied by the detection of the fingerprints 4402 and 4403, the multifunction device 100-2 is not set as the secondary display for the multifunction device 100-1.

도 44a 내지 도 44d는 미리 정해진 기준이 두 디바이스들에 의해 검출된 지문(4402, 4403)들이 동일한 사용자에 대해 등록되어 있다는 기준을 포함하는 실시예를 도시한다. 도 44a에서, 다기능 디바이스(100-1)는 미국의 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시하는 반면, 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 도 44b에서, 다기능 디바이스(100-1)는 사용자의 왼손 검지(LI)에 대응하는 제1 지문(4402)을 검출하고, 다기능 디바이스(100-2)는 사용자의 오른손 검지(RI)에 대응하는 제2 지문(4403)을 검출한다. 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 제2 지문(4403)이 검출되었음을 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 지문의 식별)를 전달한다.Figures 44A-D illustrate an embodiment in which the predetermined criteria include criteria that fingerprints 4402, 4403 detected by two devices are registered for the same user. 44A, the multifunction device 100-1 displays the first user interface including the map 4404-1 of the United States, while the multifunction device 100-2 displays the first user interface including the application start screen 4406, 2 Display the user interface. 44B, the multifunction device 100-1 detects the first fingerprint 4402 corresponding to the user's left hand detection LI and the multifunction device 100-2 detects the first fingerprint 4402 corresponding to the user's right hand detection RI And detects the second fingerprint 4403. The multifunction device 100-2 communicates to the multifunction device 100-1 that the second fingerprint 4403 has been detected and optionally conveys additional information about the fingerprint (e.g. fingerprint identification).

도 44c에서, 지문(4402, 4403)들이 동일한 사용자에 대응하는 경우에(예를 들어, 지문(4402)이 사용자 1의 왼손 검지의 지문이고 지문(4403)이 사용자 1의 오른손 검지의 지문일 때), 미리 정해진 기준이 충족되었기 때문에(예를 들어, 지문(4402, 4403)들 둘 모두가 동일한 사용자에 속한 것으로 식별됨), 다기능 디바이스(100-1)의 터치 스크린(112) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-2) 상으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).In Fig. 44C, when the fingerprints 4402 and 4403 correspond to the same user (for example, when the fingerprint 4402 is the fingerprint of the left hand of the user 1 and the fingerprint 4403 is the fingerprint of the right hand of the user 1) (For example, both of the fingerprints 4402 and 4403 are identified as belonging to the same user) and the touch screen 112 of the multifunction device 100-1 is displayed on the touch screen 112 1 user interface is extended onto the multifunction device 100-2 so that a map 4404 of the United States is displayed on the touch screens 112 of the two multifunctional devices (e.g., -1 as the map 4404-1 on the touch screen 112-1 and the US East as the map 4404-2 on the touch screen 112-2 of the multifunction device 100-2 Displayed).

도 44d에서, 지문(4405, 4407)들이 상이한 사용자들에 대응하는 경우에(예를 들어, 지문(4405)은 사용자 1의 왼손 검지의 지문이고 지문(4407)은 사용자 2의 오른손 검지의 지문일 때), 미리 정해진 기준이 충족되지 않았기 때문에(예를 들어, 지문(4405, 4407)들이 상이한 사용자들에 속한 것으로 식별됨), 제1 사용자 인터페이스는 다기능 디바이스(100-2) 상으로 확장되지 않는다(예를 들어, 다기능 디바이스(100-1)의 터치 스크린(112-1)은 여전히 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시하고, 다기능 디바이스(100-2)의 터치 스크린(112-2)은 여전히 애플리케이션 기동 스크린(4406)을 표시함).In Fig. 44D, when the fingerprints 4405 and 4407 correspond to different users (for example, the fingerprint 4405 is a fingerprint of the left hand of the user 1 and the fingerprint 4407 is the fingerprint of the right hand of the user 2) , The first user interface does not extend onto the multifunction device 100-2 because the predetermined criteria are not met (e.g., fingerprints 4405, 4407 are identified as belonging to different users) (E.g., the touch screen 112-1 of the multifunction device 100-1 still displays the first user interface that includes the map 4404-1 and the touch screen of the multifunction device 100-2 112-2 still display application launch screen 4406).

도 44e 및 도 44f는 미리 정해진 기준이 제1 지문(예를 들어, 각각 도 44e 및 도 44f의 지문(4409) 및 지문(4413))이 검출된 후 사전 결정된 기간 내에 제2 지문(예를 들어, 각각 도 44e 및 도 44f의 지문(4411) 및 지문(4415))이 검출된다는 기준을 포함하는 실시예를 도시하며, 예를 들어 제2 접촉은 제1 접촉이 검출된 후 5초 이내에 발생해야 한다. 예를 들어, 도 44e에서, 다기능 디바이스(100-1)는 제1 시기(예를 들어, 시기 0으로 정의됨)에 제1 지문(4409)을 검출하고, 다기능 디바이스(100-2)는 제1 시기 이후이고 사전 결정된 시간(4408) 이전인 제2 시기(4410)에 제2 지문(4411)을 검출한다. 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 제2 지문(4411)이 검출되었음을 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 지문이 검출되었던 시기)를 전달한다. 미리 정해진 기준이 충족되었기 때문에(예를 들어, 제2 지문(4411)이 제1 지문(4409)이 검출된 후 5초 이내에 검출됨), 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스는 다기능 디바이스(100-2) 상으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨). 반대로, 도 44f에서, 다기능 디바이스(100-1)는 제1 시기(예를 들어, 시기 0으로 정의됨)에 제1 지문(4413)을 검출하고, 다기능 디바이스(100-2)는 제1 시기 이후이고 사전 결정된 시간(4408) 이후인 제2 시기(4459)에 제2 지문(4415)을 검출한다. 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 제2 지문(4415)이 검출되었음을 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 검출된 시간)를 전달한다. 미리 정해진 기준이 충족되지 않았기 때문에(예를 들어, 제2 지문(4415)이 제1 지문(4413)이 검출된 후 5초 이내에 검출되지 않음), 제1 사용자 인터페이스는 다기능 디바이스(100-2) 상으로 확장되지 않는다(예를 들어, 다기능 디바이스(100-1)의 터치 스크린(112-1)은 여전히 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시하고, 다기능 디바이스(100-2)의 터치 스크린(112-2)은 여전히 애플리케이션 개시 스크린(4406)을 표시함).Figures 44E and 44F show how a predetermined criterion is used to determine whether a second fingerprint (e.g., a fingerprint) is detected within a predetermined period of time after a first fingerprint (e.g., fingerprint 4409 and fingerprint 4413 in Figures 44E and 44F, respectively) (Fingerprint 4411 and fingerprint 4415 of Figs. 44E and 44F, respectively) are detected. For example, the second contact should occur within 5 seconds after the first contact is detected do. For example, in Fig. 44E, the multifunction device 100-1 detects the first fingerprint 4409 at a first time (e.g., defined as time 0), and the multifunction device 100-2 And detects the second fingerprint 4411 at a second time 4410 after the first time and before the predetermined time 4408. [ The multifunction device 100-2 transmits to the multifunction device 100-1 that the second fingerprint 4411 has been detected and selectively conveys additional information about the contact (for example, when the fingerprint was detected). (For example, the second fingerprint 4411 is detected within 5 seconds after the first fingerprint 4409 is detected), the touch screen 112-1 of the multifunction device 100-1 The first user interface displayed on the multifunction device 100-2 expands onto the multifunction device 100-2 so that a map 4404 of the United States is displayed on the touch screens 112 of the two multifunction devices (e.g., Is displayed as a map 4404-1 on the touch screen 112 of the multifunction device 100-1 and the US East is displayed on the touch screen 112-2 of the multifunction device 100-2 on the map 4404- 2). 44F, the multifunction device 100-1 detects the first fingerprint 4413 at a first timing (e.g., defined as timing 0), and the multifunction device 100-2 detects the first fingerprint 4413 at the first timing And detects the second fingerprint 4415 at a second time 4459 after the predetermined time 4408. The multifunction device 100-2 communicates to the multifunction device 100-1 that the second fingerprint 4415 has been detected and optionally conveys additional information about the contact (e.g., the detected time). The first user interface is connected to the multifunction device 100-2 because the predetermined criteria are not met (e.g., the second fingerprint 4415 is not detected within 5 seconds after the first fingerprint 4413 is detected) (E.g., the touch screen 112-1 of the multifunction device 100-1 still displays the first user interface including the map 4404-1, and the multifunction device 100-2 ) Touch screen 112-2 still displays application launch screen 4406).

도 44g 및 도 44h는 제2 디바이스를 보조 디스플레이로서 설정하라는 요청에 대한 사용자 확인이 요구되는 다양한 실시예들을 도시한다. 도 44g 및 도 44h에서, 다기능 디바이스(100-1) 및 다기능 디바이스(100-2)는 각각 지문(4417, 4419)을 검출한다. 다기능 디바이스(100-2)는 제2 지문(4419)이 검출되었다는 정보를 가지고 다기능 디바이스(100-1)에 전달한다. 미리 정해진 기준이 달리 지문(4417, 4419)들의 검출에 의해 충족되는 경우에, (도 44g에 도시된 바와 같이) 제2 다기능 디바이스(100-2)의 사용자 및/또는 (도 44h에 도시된 바와 같이) 제1 다기능 디바이스(100-1)의 사용자가 (예를 들어, 도 44g의 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 프롬프트(4412)를 표시함으로써 또는 도 44h의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 프롬프트(4421)를 표시함으로써) 제2 다기능 디바이스(100-2)가 보조 디스플레이로서 설정되어야 한다는 것을 확인하도록 프롬프트된다(예를 들어, 사용자는 Abraham의 아이폰 및/또는 Mary Todd의 아이폰에 접속하라고 요청하였음을 검증하여야 함). 요청에 대한 확인을 수신한 때, 다기능 디바이스(100-1)의 터치스크린(112) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-2) 상으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 도 44c 및 도 44e에 도시된 바와 같이, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).Figures 44g and 44h illustrate various embodiments where a user confirmation is required for a request to set up a secondary device as a secondary display. 44G and 44H, the multifunction device 100-1 and the multifunction device 100-2 detect the fingerprints 4417 and 4419, respectively. The multifunction device 100-2 transfers information to the multifunction device 100-1 with information that the second fingerprint 4419 has been detected. The user of the second multifunction device 100-2 (as shown in Figure 44G) and / or the user of the second multifunction device 100-2 (as shown in Figure 44H), if a predetermined criterion is otherwise satisfied by detection of the fingerprints 4417, (E.g., by displaying a prompt 4412 on the touch screen 112-2 of the multifunction device 100-2 of Figure 44G) or by displaying a prompt 4412 on the touch screen 112-2 of the multifunction device 100-2 It is prompted to confirm that the second multifunction device 100-2 should be set as a secondary display (by displaying a prompt 4421 on the touch screen 112-1 of the multifunction device 100-1) , The user must verify that she has requested access to Abraham's iPhone and / or Mary Todd's iPhone). Upon receipt of the confirmation of the request, the first user interface displayed on the touch screen 112 of the multifunction device 100-1 expands onto the multifunction device 100-2 so that the map 4404 of the United States (For example, as shown in Figs. 44C and 44E, the western United States is displayed on the touch screen 112-1 of the multifunctional device 100-1) Is displayed as a map 4404-1 and the east part of the United States is displayed as a map 4404-2 on the touch screen 112-2 of the multifunction device 100-2).

도 44i 및 도 44j는 지문(예를 들어, 지문(4427) 및/또는 지문(4429))의 배향이 보조 디스플레이 상의 사용자 디스플레이의 배향을 결정하는 실시예를 도시한다. 도 44i에서, 다기능 디바이스(100-1)는 디바이스의 장축과 실질적으로 평행한 제1 배향을 갖는 제1 지문(4427)을 검출한다. 다기능 디바이스(100-2)는 디바이스의 장축에 실질적으로 수직하는 제2 배향을 갖는 제2 지문(4429)을 검출한다. 다기능 디바이스(100-2)는 제2 접촉(4429)이 검출되었다는 정보를 가지고 다기능 디바이스(100-1)에 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 접촉의 배향)를 전달한다. 미리 정해진 기준이 달리 지문(4427, 4429)의 검출에 의해 충족될 때, 다기능 디바이스(100-1) 상의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스는 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 디바이스의 장축에 대한 제2 지문(4429)의 배향에 대응하는 가로 배향으로 확장되어, 도 44j에 도시된 바와 같이 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).Figures 44i and 44j illustrate an embodiment in which the orientation of the fingerprint (e.g. fingerprint 4427 and / or fingerprint 4429) determines the orientation of the user display on the secondary display. In Fig. 44i, the multifunction device 100-1 detects a first fingerprint 4427 having a first orientation that is substantially parallel to the long axis of the device. The multifunction device 100-2 detects a second fingerprint 4429 having a second orientation that is substantially perpendicular to the long axis of the device. The multifunction device 100-2 transfers information to the multifunction device 100-1 with information that the second contact 4429 has been detected and optionally conveys additional information about the contact (e.g., the orientation of the contact) . The first user interface displayed on the touch screen 112-1 on the multifunction device 100-1 is the same as the first user interface displayed on the touch screen 112-1 of the multifunction device 100-2 when a predetermined criterion is otherwise satisfied by detection of the fingerprints 4427, Corresponding to the orientation of the second fingerprint 4429 with respect to the long axis of the device on the touch screen 112-2 so that the map 4404 of the United States as shown in FIG. (E.g., the western United States is displayed as a map 4404-1 on the touch screen 112-1 of the multifunction device 100-1 and the US East is displayed on the touch screen 112 as a multifunction device (Shown as a map 4404-2 on the touch screen 112-2 of the touch screen 100-2).

도 44k 내지 도 44p는 각각이 지문 센서(169)를 구비하는 3개의 전자 디바이스들(예를 들어, 다기능 디바이스(100-1, 100-2, 100-3)들)을 도시한다. 지문의 식별이 제1 전자 디바이스 상에 표시된 사용자 인터페이스가 제2 전자 디바이스로 확장되는 방향을 결정하는 다양한 실시예들이 도 44k 내지 도 44p에 도시되어 있다.Figures 44K-44P illustrate three electronic devices (e.g., multifunction devices 100-1, 100-2, and 100-3) each having a fingerprint sensor 169. Various embodiments in which the identification of the fingerprint determines the direction in which the user interface displayed on the first electronic device expands to the second electronic device is shown in Figures 44K-44P.

일부 실시예들에서, 도 44k 내지 도 44n에 도시된 바와 같이, 제2 지문(예를 들어, 도 44k 내지 도 44l의 지문(4437) 또는 도 44m 내지 도 44n의 지문(4441))에 대응하는 손가락이 속한 손이 사용자 인터페이스가 보조 디스플레이에 의해 확장되는 방향을 결정한다. 예를 들어, 도 44k에서, 사용자의 왼손 검지(LI)에 대응하는 지문(4435)이 제1 다기능 디바이스(100-1) 상의 지문 센서(169-1)에 의해 검출된다. 사용자의 오른손 검지(RI)에 대응하는 지문(4437)은 제2 다기능 디바이스(100-2) 상의 지문 센서(169-2)에 의해 검출된다. 그 응답으로, 도 44l에 도시된 바와 같이 미리 정해진 기준이 달리 지문(4435, 4437)의 검출에 의해 충족될 때, 오른손 검지가 사용자의 우측에 위치되어 있기 때문에 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에서 우측으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 중부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부 해안이 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨). 유사하게, 도 44m에 도시된 바와 같이 사용자의 오른손 검지(RI)에 대응하는 지문(4439)이 제1 다기능 디바이스(100-1) 상의 지문 센서(169-1)에 의해 검출된다. 사용자의 왼손 검지(LI)에 대응하는 지문(4441)은 제2 다기능 디바이스(100-3) 상의 지문 센서(169-3)에 의해 검출된다. 그에 응답으로, 도 44n에 도시된 바와 같이, 미리 정해진 기준이 달리 지문(4439, 4441)에 의해 충족될 때, 왼손 검지가 사용자의 좌측에 위치되어 있기 때문에 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-3)의 터치 스크린(112-3) 상에서 좌측으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 중부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 서부 해안이 다기능 디바이스(100-3)의 터치 스크린(112-3) 상에 지도(4404-3)로서 표시됨).In some embodiments, as shown in Figures 44k-44n, a second fingerprint (e.g., fingerprint 4437 of Figures 44k-441 or fingerprint 4441 of Figures 44m-44n) The hand to which the finger belongs determines the direction in which the user interface is extended by the secondary display. For example, in FIG. 44K, a fingerprint 4435 corresponding to the user's left hand detection (LI) is detected by the fingerprint sensor 169-1 on the first multifunction device 100-1. The fingerprint 4437 corresponding to the user's right hand finger RI is detected by the fingerprint sensor 169-2 on the second multifunction device 100-2. In response to this, when the predetermined reference is otherwise satisfied by detection of the fingerprints 4435 and 4437 as shown in Fig. 44L, since the right hand detection is located on the right side of the user, the touch of the multifunction device 100-1 The first user interface displayed on the screen 112-1 is extended to the right on the touch screen 112-2 of the multifunction device 100-2 so that the US map 4404 is displayed on the touch screen of two multifunction devices (For example, the United States of America is displayed as a map 4404-1 on the touch screen 112-1 of the multifunction device 100-1 and the US East Coast is displayed as a multifunction device 100 -2 on the touch screen 112-2 of the touch screen 112-2). Similarly, a fingerprint 4439 corresponding to the user's right hand finger RI is detected by the fingerprint sensor 169-1 on the first multifunction device 100-1, as shown in FIG. 44M. The fingerprint 4441 corresponding to the user's left hand detection LI is detected by the fingerprint sensor 169-3 on the second multifunction device 100-3. In response, as shown in Fig. 44N, when the predetermined reference is otherwise satisfied by the fingerprints 4439 and 4441, since the left-hand detection is located on the left side of the user, the touch screen of the multifunction device 100-1 The first user interface displayed on the touch screen 112-1 of the multifunction device 100-3 is extended to the left on the touch screen 112-3 of the multifunction device 100-3 so that the map 4404 of the United States is displayed on the touch screen 112 (For example, the United States of America is displayed as a map 4404-1 on the touch screen 112-1 of the multifunction device 100-1 and the US West Coast is displayed as a multifunction device 100- 3 on the touch screen 112-3).

일부 실시예들에서, 도 44o 및 도 44p에 도시된 바와 같이, 제1 지문(예를 들어, 지문(4443))에 대응하는 손가락에 대한, 제2 지문(예를 들어, 지문(4444))에 대응하는 손가락의, 사용자의 손들에서의 순서가 사용자 인터페이스가 보조 디스플레이에 의해 확장되는 방향을 결정한다. 예를 들어, 도 44o에서, 사용자의 오른손 약지(RR)에 대응하는 지문(4443)이 제1 다기능 디바이스(100-1) 상의 지문 센서(169-1)에 의해 검출된다. 사용자의 오른손 검지(RI)에 대응하는 지문(4444)은 제2 다기능 디바이스(100-2) 상의 지문 센서(169-2)에 의해 검출된다. 그 응답으로, 도 44p에 도시된 바와 같이 미리 정해진 기준이 달리 지문(4443, 4444)들의 검출에 의해 충족될 때, 사용자의 손에서 오른손 검지가 오른손 약지의 좌측에 위치되어 있기 때문에, 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스는 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에서 좌측으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린들(112) 상에 표시된다(예를 들어, 미국 중부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 서부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).In some embodiments, a second fingerprint (e.g., fingerprint 4444) for a finger corresponding to a first fingerprint (e.g., fingerprint 4443), as shown in Figures 44O and 44P, The order of the fingers corresponding to the user's hands determines the direction in which the user interface is extended by the secondary display. For example, in Fig. 44O, a fingerprint 4443 corresponding to the user's right-hand finger ring RR is detected by the fingerprint sensor 169-1 on the first multifunction device 100-1. The fingerprint 4444 corresponding to the user's right hand detection index RI is detected by the fingerprint sensor 169-2 on the second multifunction device 100-2. In response to this, when the predetermined reference is otherwise satisfied by detection of the fingerprints 4443 and 4444 as shown in Fig. 44P, since the right hand index finger is located on the left side of the right hand fingerprint in the user's hand, The first user interface displayed on the touch screen 112-1 of the device 100-1 is extended to the left on the touch screen 112-2 of the second multifunction device 100-2, Is displayed on the touchscreens 112 of the two multifunctional devices (e.g., the middle of the United States is displayed as the map 4404-1 on the touch screen 112-1 of the multifunction device 100-1) And the western United States is displayed as a map 4404-2 on the touch screen 112-2 of the multifunction device 100-2).

도 44q 내지 도 44ee는 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가짐으로써 지문 센서들로서 사용될 수 있는 터치 스크린(112)을 각각 구비하는 두 개의 전자 디바이스들(예를 들어, 다기능 디바이스(100-1, 100-2)들)을 도시한다. 다기능 디바이스(100-1, 100-2)들은 또한 별개의 지문 센서(169)들을 갖는 것으로 도시되어 있다. 일부 실시예들에서, 다기능 디바이스(100-1, 100-2)들 각각은 지문 센서로서 사용될 수 있는 터치 스크린(112), 별개의 지문 센서(169), 또는 둘 모두를 독립적으로 구비한다. 도 44q 내지 도 44t에서, 제2 다기능 디바이스(100-2)가 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된 동안에 제1 다기능 디바이스(100-1) 상에서 활성화된 애플리케이션과 연관된 한 세트의 사용자 인터페이스 요소들을 표시하는 다양한 실시예들이 도시되어 있다.Figures 44q-44ee illustrate two electronic devices each having a touch screen 112 that can be used as fingerprint sensors by having a spatial resolution sufficiently high to detect fingerprint features formed by individual fingerprint ridges , Multifunction devices 100-1 and 100-2). Multifunction devices 100-1 and 100-2 are also shown as having separate fingerprint sensors 169. [ In some embodiments, each of the multi-function devices 100-1 and 100-2 independently has a touch screen 112, a separate fingerprint sensor 169, or both that can be used as a fingerprint sensor. In Figures 44q-44t, one set associated with an application activated on the first multifunction device 100-1 while the second multifunction device 100-2 is being set as a secondary display for the first multifunction device 100-1 Various user interface elements are shown.

도 44q에서, 다기능 디바이스(100-1)는 활성 사진 표시 애플리케이션에 대응하는, 미국의 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4445, 4446)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44r에 도시된 바와 같이, 보조 디스플레이로서 설정된 동안에, 다기능 디바이스(100-2)의 터치 스크린(112-2)은 제1 다기능 디바이스(100-1) 상에서 활성인 사진 표시 애플리케이션과 연관된 사용자 인터페이스 요소(4414, 4416, 4447)들(예를 들어, 툴바(4414, 4447) 및 드롭-다운 메뉴(4416))을 표시한다.In Figure 44q, the multifunction device 100-1 displays a first user interface that includes a map 4404-1 of the United States, corresponding to an active photo display application. Multifunction device 100-2 displays a second user interface that includes an application launch screen 4406. [ The second multifunction device 100-2 detects the first multifunction device 100-1 and the second multifunction device 100-2 as they detect the qualifying fingerprints 4445 and 4446 (e.g., fingerprints that meet a predetermined secondary-display criterion) Lt; / RTI &gt; 44R, the touch screen 112-2 of the multifunction device 100-2 is set to the user interface element associated with the photo display application that is active on the first multifunction device 100-1, (E.g., toolbar 4414, 4447 and drop-down menu 4416).

일부 실시예들에서, 도 44s 및 도 44t에 도시된 바와 같이, 보조 디스플레이 상에 표시된 사용자 인터페이스 요소들은 제1 디스플레이 상에서 활성인 애플리케이션 내의 동작들을 수행하기 위한 제어부들이다. 도 44s에서, 제1 다기능 디바이스(100-1)의 보조 디스플레이로서 설정된 제2 다기능 디바이스(100-2)는 다기능 디바이스(100-1) 상에서 활성인 사진 표시 애플리케이션 내의 사진 앨범들을 표시하기 위한 제어부(예를 들어, 사용자 인터페이스 메뉴 요소(4414-b))에 대응하는 터치 스크린(112-2) 상의 위치에서 접촉(4430)을 검출한다. 제2 다기능 디바이스(100-2) 상에서 접촉(4430)을 검출하는 것에 응답하여, 도 44t에 도시된 바와 같이, 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 사용자 인터페이스는 미국의 지도(4404-1)를 표시하는 것으로부터 사진 앨범들에 대한 기동 아이콘(4432)들(예를 들어, 사진 앨범들 "꽃"(4432-1), "우주 공간"(4432-2), "휴가"(4432-3), "겨울"(4432-4)을 나타내는 아이콘들)을 표시하는 것으로 변경된다(예를 들어, 사진 표시 애플리케이션 모드가 사진들이 촬영된 위치들을 표시하는 것으로부터 사용자에 의해 편집된 사진 앨범들을 표시하는 것으로 변경됨). 또한, 제2 다기능 디바이스(100-2) 상에서 접촉(4430)을 검출하는 것에 응답하여, 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된 다기능 디바이스(100-2)의 터치 스크린(112-2)이, 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 기동 아이콘(4432)에 의해 표시되는 사진 앨범들과 관련된 기능들을 수행하기 위한 제어부들에 대응하는 드롭-다운 메뉴(4448)를 표시한다.In some embodiments, the user interface elements displayed on the secondary display, as shown in Figures 44S and 44T, are controls for performing operations within the active application on the primary display. 44s, a second multifunctional device 100-2 set as a secondary display of the first multifunctional device 100-1 includes a controller (not shown) for displaying photo albums in the photo display application that is active on the multifunctional device 100-1 (E.g., user interface menu element 4414-b, for example) on touch screen 112-2. In response to detecting the contact 4430 on the second multifunction device 100-2, the user displayed on the touch screen 112-1 of the first multifunction device 100-1, as shown in Figure 44t, The interface may include activation icons 4432 for photo albums (e.g., photo albums "flowers" 4432-1, "space" 4432- 2), "vacation" 4432-3, and "winter" 4432-4) (for example, the photo display application mode displays the locations where the pictures were taken To display photo albums edited by the user). Further, in response to detecting the contact 4430 on the second multifunction device 100-2, the touch screen 112-2 of the multifunction device 100-2 set as the secondary display for the multifunction device 100-1 ) Corresponding to the controls for performing functions related to the photo albums displayed by the activation icon 4432 displayed on the touch screen 112-1 of the multifunction device 100-1 4448).

일부 실시예들에서, 도 44u 및 도 44v에 도시된 바와 같이, 보조 디스플레이 상에 표시된 사용자 인터페이스 요소들은 제1 디바이스의 표시로부터 확장된 작업공간의 일부분을 포함한다. 도 44u에서, 다기능 디바이스(100-1)는 활성 워드 프로세싱 애플리케이션의 작업공간(4417-1)을 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4449, 4450)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44v에 도시된 바와 같이, 제1 사용자 인터페이스는 다기능 디바이스(100-1, 100-2)들의 터치 스크린(112)들에 걸쳐 연속적인 작업공간(4417)을 생성하도록 보조 디스플레이에 의해 확장된다. 예를 들어, 제2 다기능 디바이스(100-2)가 보조 디스플레이로서 설정된 때, 도 44u에서 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 텍스트(4418)의 두 번째 라인 상에 표시되었던 단어 "ago"(예를 들어, 사용자 인터페이스 객체(4418-1))가 도 44v에서는 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 작업공간(4417-2)(예를 들어, 보조 디스플레이 상에 표시된 연속적인 작업공간(4417)의 일부분)의 첫 번째 라인 상으로 이동한다.In some embodiments, as shown in Figures 44u and 44v, the user interface elements displayed on the secondary display include a portion of the expanded workspace from the representation of the first device. In Figure 44u, the multifunction device 100-1 displays a first user interface that includes the workspace 4417-1 of the active word processing application. Multifunction device 100-2 displays a second user interface that includes an application launch screen 4406. [ The second multifunction device 100-2 detects the first multifunction device 100-1 and the first multifunction device 100-2 by detecting the qualifying fingerprints 4449 and 4450 (e.g., fingerprints meeting the predetermined secondary-display criteria) Lt; / RTI &gt; As shown in Figure 44v, the first user interface is extended by the secondary display to create a continuous workspace 4417 across the touchscreens 112 of the multifunction device 100-1, 100-2. For example, when the second multifunction device 100-2 is set as the secondary display, it is displayed on the second line of the text 4418 on the touch screen 112-1 of the multifunction device 100-1 in Fig. (E.g., user interface object 4418-1) on the touch screen 112-2 of the second multifunction device 100-2 in FIG. For example, a portion of a continuous workspace 4417 displayed on the secondary display).

일부 실시예들에서, 도 44w 내지 도 44y에 도시된 바와 같이, 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 사용자 인터페이스 요소들과의 상호작용에 대응하는 입력이 제2 디바이스에 의해 수신되고 활성 애플리케이션과 연관된 동작들이 제1 디바이스 상에서 수행된다. 예를 들어 도 44w에서, 다기능 디바이스(100-1)는 활성 사진 표시 애플리케이션에 대응하는, 미국의 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4451, 4452)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44x에 도시된 바와 같이, 보조 디스플레이로서 설정된 동안에, 제2 다기능 디바이스(100-2)의 터치 스크린(112-2)은 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 바와 같은 (예를 들어, 지도(4453-2)로서) 미국의 동일한 모습을 포함하는 사용자 인터페이스(4420)를 표시한다(예를 들어, 제2 다기능 디바이스(100-2)가 제1 다기능 디바이스(100-1) 상의 지도(4404-1)의 표시를 확장시키는 대신, 제1 다기능 디바이스(100-1) 상의 표시를 미러링(mirroring)함). 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 포커스 셀렉터(4422)에 대응하는 접촉(4424)이 도 44x의 위치(4424-a)로부터 도 44y의 위치(4424-b)로 이동(4426)하는 것을 포함하는 제스처를 검출한다. 그 응답으로, 제1 다기능 디바이스(100-1)는 도 44x의 위치(4422-a)로부터 도 44y의 위치(4422-b)로의 포커스 셀렉터(4422)의 이동을 표시한다.In some embodiments, while the second electronic device is set as a secondary display for the first electronic device, as shown in Figures 44w-44y, an input corresponding to interaction with the user interface elements is provided to the second device And operations associated with the active application are performed on the first device. For example, in Figure 44w, the multifunction device 100-1 displays a first user interface that includes a map 4404-1 of the United States, corresponding to an active photo display application. Multifunction device 100-2 displays a second user interface that includes an application launch screen 4406. [ The second multifunction device 100-2 detects the first multifunction device 100-1 and the second multifunction device 100-2 as they detect the qualifying fingerprints 4451 and 4452 (e.g., fingerprints that meet a predetermined secondary-display criterion) Lt; / RTI &gt; The touch screen 112-2 of the second multifunction device 100-2 is positioned on the touch screen 112-1 of the first multifunction device 100-1 while being set as the secondary display, The second multifunction device 100-2 displays the user interface 4420 that includes the same appearance of the United States (e.g., as the map 4453-2) as indicated in the first multifunction device 100-2 (e.g., Instead of extending the display of map 4404-1 on device 100-1, mirroring the display on first multifunction device 100-1). The second multifunction device 100-2 is configured such that the contact 4424 corresponding to the focus selector 4422 displayed on the touch screen 112-1 of the first multifunction device 100-1 is in a position 4424- (4426) from position 4424-a of FIG. 44A to position 4424-b of FIG. 44Y. In response, the first multifunction device 100-1 indicates the movement of the focus selector 4422 from the position 4422-a of Figure 44x to the position 4422-b of Figure 44y.

일부 실시예들에서, 도 44z 내지 도 44bb에 도시된 바와 같이, 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스 상의 활성 애플리케이션과 연관된 보조 디스플레이 상의 사용자 인터페이스 요소들과의 상호작용에 대응하는 동작들을 규정하는 제2 디바이스로부터의 동작 데이터가 수신되어 제1 디바이스에 의해 수행된다. 예를 들어, 도 44z에서, 다기능 디바이스(100-1)는 활성 피아노 애플리케이션에 대응하는 키보드(4428-1)를 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4455, 4456)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44aa에 도시된 바와 같이, 보조 디스플레이로서 구성된 동안에, 제2 다기능 디바이스(100-2)의 터치 스크린(112-2)은 키보드(4428)의 확장(예를 들어, 키보드 상의 제2 옥타브 음조에 대응하는 키보드(4428-2))을 표시한다. 도 44bb에서, 제2 다기능 디바이스(100-2)는 피아노 키(4457)(예를 들어, "E" 키)의 표시에 대응하는 터치 스크린(112-2) 상의 위치에서 접촉(4430)을 검출한다. 제2 다기능 디바이스(100-2)는 "E" 키(4457)에 대응하는 음높이(pitch)에서 소리를 생성하는 것을 포함하는 동작이 수행되어야 함을 결정하기 위해 접촉(4430)을 프로세싱한다. 제1 다기능 디바이스(100-1)는 "E" 키(4457)에 대응하는 음높이에서 소리를 생성하는 것과 관련된 동작 데이터를 포함하는 제2 다기능 디바이스(100-2)로부터의 통신을 수신하고, 제2 다기능 디바이스(100-2)로부터 수신된 동작 데이터를 따라 소리(4429)를 생성한다. 일부 실시예들에서, 제1 다기능 디바이스(100-1)에 통신을 전송하는 대신, 제2 다기능 디바이스(100-2)가 "E" 키(4457)에 대응하는 음높이에서 소리를 생성한다.In some embodiments, while the second electronic device is set as the secondary display for the first electronic device, as shown in Figures 44z-44bb, the user interface elements on the secondary display associated with the active application on the first device The operation data from the second device defining the operations corresponding to the interaction of the first device is received and performed by the first device. For example, in Figure 44z, the multifunction device 100-1 displays a first user interface that includes a keyboard 4428-1 corresponding to an active piano application. Multifunction device 100-2 displays a second user interface that includes an application launch screen 4406. [ The second multifunction device 100-2 detects the first multifunction device 100-1 and the first multifunction device 100-1 by detecting the qualifying fingerprints 4455 and 4456 (e.g., fingerprints that meet a predetermined secondary-display criterion) Lt; / RTI &gt; 44A, the touch screen 112-2 of the second multifunction device 100-2 is configured to extend the keyboard 4428 (e.g., to a second octave pitch on the keyboard) Corresponding keyboard 4428-2). In Figure 44bb, the second multifunction device 100-2 detects contact 4430 at a location on the touch screen 112-2 that corresponds to an indication of the piano key 4457 (e.g., an "E" key) do. The second multifunction device 100-2 processes the contact 4430 to determine that an action should be performed that includes generating sound at a pitch corresponding to the "E" key 4457. [ The first multifunction device 100-1 receives communication from the second multifunction device 100-2 that includes operation data related to generating sound at a pitch corresponding to the "E" key 4457, And generates sound 4429 along with the operation data received from the two multi-function device 100-2. In some embodiments, instead of sending the communication to the first multifunction device 100-1, the second multifunction device 100-2 generates sound at a pitch corresponding to the "E" key 4457. [

일부 실시예들에서, 도 44cc 내지 도 44ee에 도시된 바와 같이, 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 각자의 디바이스 각각의 터치-감응 표면(예를 들어, 터치 스크린(112)) 상에서 수행되는 대응하는 제스처들이 제1 디바이스 상의 활성 애플리케이션과 연관된 사용자 인터페이스 객체를 제1 디바이스의 디스플레이와 제2 디바이스의 디스플레이 사이에서 이동하게 할 수 있다. 예를 들어, 도 44cc에서, 다기능 디바이스(100-1)는 활성 사진 표시 애플리케이션에 대응하는 사진 앨범들에 대한 기동 아이콘(4432)들(예를 들어, "꽃"(4432-1), "우주 공간"(4432-2), "휴가"(4432-3) 및 "겨울"(4432-4)의 사진 앨범들을 나타내는 아이콘들)을 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4460, 4462)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44dd에 도시된 바와 같이, 제1 사용자 인터페이스는 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 추가적인 사진 앨범들에 대한 기동 아이콘(4432)들(예를 들어, 사진 앨범들 "사막"(4432-5) 및 "결혼"(4432-6)을 나타내는 아이콘들)을 표시하도록 보조 디스플레이에 의해 확장된다. 제1 다기능 디바이스(100-1)는 기동 아이콘(4432-4)의 표시에 대응하는 터치 스크린(112-1) 상의 접촉(4436)이 도 44dd의 위치(4436-a)로부터 도 44ee의 위치(4436-b)로 이동(4438)하는 것을 포함하는 제1 제스처를 검출한다. 제2 다기능 디바이스(100-2)는 터치 스크린(112-2) 상의 접촉(4440)이 도 44ee의 위치(4440-a)로부터 위치(4440-b)로 이동(4442)하는 것을 포함하는 제2 제스처를 검출한다. 그 응답으로, 기동 아이콘(4432-4)의 표시가 도 44dd의 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 위치(4436-a)로부터 도 44ee의 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 위치(4440-b)로 이동된다.In some embodiments, while the second electronic device is set as a secondary display for the first electronic device, as shown in Figures 44cc through 44ee, the touch-sensitive surface of each of the respective devices (e.g., Corresponding gestures performed on the first device (e.g., 112) may cause a user interface object associated with the active application on the first device to move between the display of the first device and the display of the second device. For example, in Fig. 44cc, the multifunction device 100-1 may display activation icons 4432 (e.g., "flowers" 4432-1, " Space "4432-2," vacation "4432-3, and" winter "4432-4). Multifunction device 100-2 displays a second user interface that includes an application launch screen 4406. [ The second multifunction device 100-2 detects the presence of the first multifunction device 100-1 and the second multifunction device 100-2 as it detects the qualifying fingerprints 4460 and 4462 (e.g., fingerprints that meet a predetermined secondary- Lt; / RTI &gt; As shown in Figure 44dd, the first user interface includes activation icons 4432 for additional photo albums on the touch screen 112-2 of the second multifunction device 100-2 (e.g., The icons representing the albums "desert" 4432-5 and "marriage" 4432-6). The first multifunctional device 100-1 determines whether the contact 4436 on the touch screen 112-1 corresponding to the display of the activation icon 4432-4 is moving from the position 4436- 4436-b) of the first gesture. The second multifunction device 100-2 is configured to move the contact 4440 on the touch screen 112-2 from position 4440-a to position 4440-b, Detect the gesture. 44D from the position 4436-a on the touch screen 112-1 of the first multifunction device 100-1 of Fig. 44d to the second multifunction device B to the location 4440-b on the touch screen 112-2 of the touch screen 100-2.

도 45a 내지 도 45d는 일부 실시예들에 따른, 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하는 방법(4500)을 예시하는 흐름도이다. 방법(4500)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(4500) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.Figures 45A-45D are flow diagrams illustrating a method 4500 of setting a second electronic device as a secondary display of a first electronic device, in accordance with some embodiments. The method 4500 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3, or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 4500 are selectively combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(4500)은 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 직관적인 방식을 제공한다. 이 방법은 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 더 빠르고 효율적으로 설정할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the method 4500 provides an intuitive way to set up the second electronic device as a secondary display of the first electronic device. The method reduces the cognitive burden on the user when setting up the second electronic device as a secondary display of the first electronic device, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing the user to set the second electronic device as a secondary display of the first electronic device faster and more efficiently conserves power and increases the time between battery charges.

일부 실시예들에서, 지문 센서 및 디스플레이를 갖는 제1 전자 디바이스가 제1 시기에 제1 전자 디바이스 상의 지문 센서 상에서 각자의 사용자에 대해 등록된 제1 지문을 검출한다(4502). 예를 들어, 도 44b, 도 44d 내지 도 44k, 도 44m, 도 44o, 도 44q, 도 44u, 도 44w, 도 44z 및 도 44cc는, 다기능 디바이스(100-1)가 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가짐으로써 지문 센서들로서 사용될 수 있는 지문 센서(169-1) 또는 터치 스크린(112-1) 상에서 제1 지문(예를 들어, 지문(4402, 4405, 4409, 4413, 4417, 4423, 4427, 4431, 4435, 4439, 4443, 4445, 4449, 4451, 4455 또는 4460))을 검출하는 다양한 실시예들을 도시한다.In some embodiments, a first electronic device with a fingerprint sensor and a display detects a first fingerprint registered for each user on the fingerprint sensor on the first electronic device at a first time (4502). For example, Figs. 44B, 44D to 44K, 44M, 44O, 44Q, 44U, 44W, 44Z and 44CC illustrate how multifunction device 100-1 is formed by individual fingerprint ridges (E.g., fingerprints 4402, 4405, 4409) on a fingerprint sensor 169-1 or touch screen 112-1 that can be used as fingerprint sensors by having a spatial resolution sufficiently high to detect fingerprint features , 4413, 4417, 4423, 4427, 4431, 4435, 4439, 4443, 4445, 4449, 4451, 4455 or 4460).

제1 전자 디바이스는 제2 지문이 제2 시기에 제2 디바이스의 지문 센서 상에서 검출되었음을 나타내는 정보를 포함하는, 제1 전자 디바이스와 구분되는 제2 전자 디바이스로부터의 통신을 수신한다(4504). 예를 들어, 도 44b, 도 44d 내지 도 44k, 도 44m, 도 44o, 도 44q, 도 44u, 도 44w, 도 44z 및 도 44cc는, 다기능 디바이스(100-2) 또는 다기능 디바이스(100-3)가 지문 센서(169-2) 또는 지문 센서(169-3), 또는 터치 스크린(112-2) 또는 터치 스크린(112-3) 상에서 제2 지문(예를 들어, 지문(4403, 4407, 4411, 4415, 4419, 4425, 4429, 4433, 4437, 4441, 4444, 4446, 4450, 4452, 4456, 또는 4462))을 검출하고, 제2 지문이 검출되었다는 정보와 선택적으로는 접촉에 대한 추가적인 특징 정보(예를 들어, 지문의 식별, 지문이 검출된 시기, 또는 지문의 배향)를 다기능 디바이스(100-1)에 전달하는 다양한 실시예들을 도시한다.The first electronic device receives 4504 communication from a second electronic device distinct from the first electronic device, including information indicating that the second fingerprint is detected on the fingerprint sensor of the second device at a second time. For example, Figures 44b, 44d to 44k, 44m, 44o, 44q, 44u, 44w, 44z, and 44cc illustrate a multi- (E.g., fingerprint 4403, 4407, 4411, 4122) on the fingerprint sensor 169-2 or the fingerprint sensor 169-3, or the touch screen 112-2 or the touch screen 112-3, 4451, 4419, 4425, 4429, 4433, 4437, 4441, 4444, 4446, 4450, 4452, 4456, or 4462), and further information about the second fingerprint being detected, (E.g., identification of the fingerprint, when the fingerprint was detected, or orientation of the fingerprint) to the multifunction device 100-1.

제1 지문을 검출하고 제2 전자 디바이스로부터의 통신을 수신하는 것에 응답하여(4506): 제1 전자 디바이스는 미리 정해진 보조-디스플레이 기준 - 보조-디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 결정한다(4508). 예를 들어 도 44c에 도시된 바와 같이, 지문(4402, 4403)들이 동일한 사용자(예를 들어, 사용자 "1")에 대해 등록되어 있기 때문에, 보조-디스플레이 기준이 충족된다. 반대로, 도 44d에 도시된 바와 같이, 지문(4405, 4407)들은 상이한 사용자들에 대해 등록되어 있기 때문에(예를 들어, 각각 사용자 "1" 및 "2"), 보조-디스플레이 기준이 충족되지 않는다.(4506) in response to detecting the first fingerprint and receiving communication from the second electronic device: the first electronic device has a predetermined secondary display-secondary-display criterion in which the second fingerprint is registered for each user (4508) whether the metric has been met or not. For example, since fingerprints 4402 and 4403 are registered for the same user (e.g., user "1"), as shown in Figure 44C, the secondary-display criteria is met. 44D, fingerprints 4405 and 4407 are registered for different users (e.g., user "1" and "2", respectively) .

일부 실시예들에서, 보조-디스플레이 기준은 제1 시기가 제2 시기의 미리 정해진 시간 내에 있을 때 충족되는 기준을 포함한다(4510). 예를 들어, 제2 디바이스는 제1 지문 및 제2 지문이 동시에 또는 실질적으로 동시에 (예를 들어, 서로 0.5, 1.0, 2, 또는 5초 이내에) 제1 디바이스 및 제2 디바이스 상에서 검출될 때 보조 디스플레이로서 사용된다. 예를 들어 도 44e에 도시된 바와 같이, 제2 지문(4411)이 사전 결정된 시간(4408)(예를 들어, 제1 지문(4409)의 검출 후 5초) 내에 있는 시기(4410)(예를 들어, 제1 지문(4409)의 검출 후 3.5초 후)에 검출되었기 때문에, 보조-디스플레이 기준이 충족된다. 반대로, 도 44f에 도시된 바와 같이, 제2 지문(4415)이 사전 결정된 시간(4408)(예를 들어, 제1 지문(4413)의 검출 후 5초) 내에 있지 않은 시기(4459)(예를 들어, 제1 지문(4413)의 검출 후 6.5초 후)에 발생되었기 때문에, 보조-디스플레이 기준이 충족되지 않는다.In some embodiments, the secondary-display criteria includes criteria that are met when the first time is within a predetermined time of the second time (4510). For example, the second device may be operable when the first fingerprint and the second fingerprint are detected on the first device and the second device simultaneously or substantially simultaneously (e.g., within 0.5, 1.0, 2, or 5 seconds of each other) It is used as a display. 44E in which the second fingerprint 4411 is within a predetermined time 4408 (e.g., five seconds after the detection of the first fingerprint 4409), as shown in Figure 44E, For example, 3.5 seconds after the detection of the first fingerprint 4409), the auxiliary-display criterion is satisfied. Conversely, as shown in FIG. 44F, when the second fingerprint 4415 is not at a time 4459 (e.g., 5 seconds after the detection of the first fingerprint 4413) at a predetermined time 4408 Display criterion is not satisfied because it occurred in the first fingerprint 4413 (after 6.5 seconds after the detection of the first fingerprint 4413).

일부 실시예들에서, 보조-디스플레이 기준은 제2 디바이스를 보조 디스플레이로서 설정할 것이 요청되었다는 확인을 제1 디바이스가 수신하였을 때 충족되는 기준을 포함한다(4512). 일부 실시예들에서, 도 44g 및 도 44h에 도시된 바와 같이, 제2 디바이스(예를 들어, 다기능 디바이스(100-2))를 보조 디스플레이로서 설정하는 것은 하나의 디바이스 상에서 또는 둘 모두의 디바이스들에서 ""연결 승인", "승인", "연결", 또는 유사한 긍정적 선택(예를 들어, 각각 도 44g 및 도 44h의 사용자 인터페이스 객체(4412, 4421)들 내에 표시된 "연결" 프롬프트)을 선택하는 것 및/또는 디바이스들 중 하나 또는 둘 모두(예를 들어, 다기능 디바이스(100-1) 및/또는 다기능 디바이스(100-2)) 상에서 미리 정해진 핀(pin) 또는 패스워드를 입력하는 것을 포함한다. 반대로, 일부 실시예들에서, 일련의 도 44a 내지 도 44c에 도시된 바와 같이, 제2 디바이스(예를 들어, 다기능 디바이스(100-2))는 제1 디바이스에 대한 보조 디바이스로서 제2 디바이스를 설정하기에 전에 수행되는 임의의 추가적인 인증을 요청하지 않고서 제1 디바이스에 대한 보조 디스플레이로서 설정된다(예를 들어, 두 개의 지문(4402, 4403)들이 검출될 때 이러한 설정이 자동으로 발생함).In some embodiments, the secondary-display criteria includes criteria that are met when the first device receives confirmation that the second device has been requested to be set as a secondary display (4512). In some embodiments, setting the secondary device (e.g., multifunction device 100-2) as a secondary display, as shown in Figures 44G and 44H, may be performed on one device or both devices Quot; connection "prompt shown within the user interface objects 4412 and 4421 of Figure 44 (g) and 44 (h), respectively) (E.g., multifunction device 100-1 and / or multifunction device 100-2) and / or inputting a predetermined pin or password on one or both of the devices and / or devices. Conversely, in some embodiments, a second device (e.g., multifunction device 100-2), as shown in a series of Figures 44A-44C, Perform before setting Is, without requesting any additional authentication set as a secondary display on the first device (e.g., two fingerprints (4402, 4403), these settings are automatically generated when to be detected).

보조-디스플레이 기준이 충족된다는 결정에 따라, 제1 전자 디바이스는 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송한다(4514). 예를 들어, 도 44c, 도 44e, 도 44j, 도 44f, 도 44n, 도 44p, 도 44r, 도 44v, 도 44x, 도 44aa 및 도 44dd는, 보조-디스플레이 기준을 충족시킨다는 것에 응답하여, 제2 다기능 디바이스(100-2 또는 100-3)가 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제1 다기능 디바이스(100-1)가 전송하는 다양한 실시예들을 도시한다.In response to the determination that the secondary-display criteria is met, the first electronic device sends (4514) a response to the second electronic device that allows the second electronic device to be set as a secondary display for the first electronic device. For example, Figures 44c, 44e, 44j, 44f, 44n, 44p, 44r, 44v, 44x, 44aa and 44dd show, in response to meeting the sub- Various embodiments in which the first multifunction device 100-1 transmits a response that allows the first multifunction device 100-2 or 100-3 to be set as a secondary display for the first multifunction device 100-1 Respectively.

일부 실시예들에서, 제1 디바이스의 디스플레이 상에 표시되는 사용자 인터페이스의 배향은 제1 디바이스의 디스플레이의 미리 정해진 축에 대한 제1 지문의 배향에 따라 결정되고(4516), 제2 디바이스의 디스플레이 상에 표시되는 사용자 인터페이스의 배향은 제2 디바이스의 디스플레이의 미리 정해진 축에 대한 제2 지문의 배향에 따라 결정된다. 예를 들어, 제1 디바이스 상에 표시되는 사용자 인터페이스 및 제2 디바이스 상에 표시되는 사용자 인터페이스는 이들이 대응하는 디바이스들 상에서 검출된 지문과 각각 정렬되도록 배향된다(예를 들어, 사용자 인터페이스들은 디스플레이들 상의 사용자 인터페이스의 "위"가 지문 센서들 상의 대응하는 지문의 "위"에 대응하도록 배향됨). 따라서 일부 실시예들에서, 도 44i 및 도 44j에 도시된 바와 같이, 지문의 수직 축이 각자의 디바이스의 미리 정해진 수직 축에 실질적으로 평행하면(예를 들어, 제1 접촉(4427)의 수직 축이 도 44i의 제1 다기능 디바이스(100-1)의 장축에 실질적으로 평행하면), 미리 정해진 수직 축과 관련하여 사용자 인터페이스의 저부가 각자의 디바이스의 저부 에지를 따르도록 정렬되고(예를 들어, 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 미국의 지도(4404-1)를 표시하는 사용자 인터페이스가 도 44j에서 세로 배향으로 표시됨), 반면에, 지문의 수직 축이 각자의 디바이스의 미리 정해진 수직 축에 실질적으로 수직하면(예를 들어, 제2 접촉(4433)의 수직 축이 도 44i의 제2 다기능 디바이스(100-2)의 장축에 실질적으로 수직하면), 미리 정해진 수직 축과 관련하여 사용자 인터페이스의 저부가 각자의 디바이스의 측부 에지를 따르도록 정렬된다(예를 들어, 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 미국의 지도(4404-2)를 표시하는 사용자 인터페이스가 도 44j에서 가로 배향으로 표시됨).In some embodiments, the orientation of the user interface displayed on the display of the first device is determined (4516) according to the orientation of the first fingerprint with respect to a predetermined axis of the display of the first device, Is determined according to the orientation of the second fingerprint with respect to the predetermined axis of the display of the second device. For example, the user interface displayed on the first device and the user interface displayed on the second device are oriented such that they are respectively aligned with the fingerprints detected on the corresponding devices (e.g., the user interfaces are displayed on the displays Quot; above "of the user interface is oriented to correspond to" above "the corresponding fingerprint on the fingerprint sensors). Thus, in some embodiments, as shown in Figures 44i and 44j, when the vertical axis of the fingerprint is substantially parallel to a predetermined vertical axis of the respective device (e.g., the vertical axis of the first contact 4427) Is substantially parallel to the long axis of the first multifunction device 100-1 of Fig. 44i), the bottom of the user interface is aligned to follow the bottom edge of the respective device with respect to the predetermined vertical axis (e.g., The user interface representing the US map 4404-1 on the touch screen 112-1 of the one multifunction device 100-1 is shown in portrait orientation in Figure 44j), while the vertical axis of the fingerprint (For example, if the vertical axis of the second contact 4433 is substantially perpendicular to the long axis of the second multifunction device 100-2 of Figure 44i), a predetermined vertical Use in relation to axis The bottom of the interface is aligned to follow the side edge of the respective device (e.g., a user interface that displays the map of the United States 4404-2 on the touch screen 112-2 of the second multifunction device 100-2) Is shown in landscape orientation in Figure 44j).

일부 실시예들에서, 제1 전자 디바이스는 제1 지문의 식별 및 제2 지문의 식별 중 적어도 하나에 따라 보조 디스플레이를 갖는 제1 디바이스의 디스플레이 상에 표시되는 사용자 인터페이스를 확장하는 방향을 결정한다(4518). 예를 들어, 사용자의 오른손의 지문이 제1 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제1 다기능 디바이스(100-1) 상의 지문(4439)이 도 44m에서 사용자의 오른손 검지에 대응함) 및/또는 사용자의 왼손의 지문이 제2 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제2 다기능 디바이스(100-3) 상의 지문(4441)이 도 44m에서 사용자의 왼손 검지에 대응함), 제1 디바이스의 사용자 인터페이스는 제2 디바이스의 디스플레이 상에서 좌측으로 확장된다(예를 들어, 도 44m의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 도 44n의 다기능 디바이스(100-3) 상으로 확장되어, 미국의 서부 해안이 제2 다기능 디바이스(100-3)의 터치 스크린(112-3) 상의 지도(4404-3)로 표시되고, 미국 중부가 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 지도(4404-1)로 표시됨). 유사하게, 사용자의 왼손의 지문이 제1 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제1 다기능 디바이스(100-1) 상의 지문(4435)이 도 44k에서 사용자의 왼손 검지에 대응함) 및/또는 사용자의 오른손의 지문이 제2 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제2 다기능 디바이스(100-2) 상의 지문(4437)이 도 44k에서 사용자의 오른손 검지에 대응함), 제1 디바이스의 사용자 인터페이스는 제2 디바이스의 디스플레이 상에서 우측으로 확장된다(예를 들어, 도 44k의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 도 44l의 다기능 디바이스(100-2) 상으로 확장되어, 미국의 동부 해안이 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 지도(4404-2)로 표시되고, 미국 중부가 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 지도(4404-1)로 표시됨). 따라서, 일부 실시예들에서, 사용자의 왼손으로부터의 지문을 검출하는 디바이스는 사용자의 오른손으로부터의 지문을 검출하는 디바이스의 좌측에 있는 것으로 추정되며, 따라서 사용자 인터페이스의 좌측에 있어야 하는 사용자 인터페이스 객체들은 사용자의 왼손으로부터의 지문을 검출한 디바이스 상에 표시되는 반면, 사용자 인터페이스의 우측에 있어야 하는 사용자 인터페이스 객체들은 사용자의 오른손으로부터의 지문을 검출한 디바이스 상에 표시된다.In some embodiments, the first electronic device determines a direction to expand the user interface displayed on the display of the first device with the secondary display according to at least one of identification of the first fingerprint and identification of the second fingerprint 4518). For example, when the fingerprint of the user's right hand is detected on the fingerprint sensor of the first device (for example, the fingerprint 4439 on the first multifunction device 100-1 corresponds to the detection of the right hand of the user in FIG. 44M) (For example, the fingerprint 4441 on the second multifunction device 100-3 corresponds to the detection of the user's left hand in Figure 44m), and / or when a fingerprint of the user's left hand is detected on the fingerprint sensor of the second device The user interface of the first device is extended to the left on the display of the second device (e.g., the first user interface displayed on the touch screen 112-1 of the multifunction device 100-1 of Figure 44 Function device 100-3 of the first multifunction device 100-3 so that the west coast of the United States is represented by the map 4404-3 on the touch screen 112-3 of the second multifunctional device 100-3, 1 multi-function device 100-1 touch screen 112-1 ) 4404-1). Similarly, when the fingerprint of the user's left hand is detected on the fingerprint sensor of the first device (e.g., the fingerprint 4435 on the first multifunction device 100-1 corresponds to the detection of the user's left hand in Figure 44k) and (Or the fingerprint 4437 on the second multifunction device 100-2 corresponds to the detection of the right hand of the user in Fig. 44K), and the fingerprint of the user's right hand is detected on the fingerprint sensor of the second device The user interface of the first device is extended to the right on the display of the second device (e.g., the first user interface displayed on the touch screen 112-1 of the multifunction device 100-1 of FIG. Function device 100-2 so that the east coast of the United States is represented by a map 4404-2 on the touchscreen 112-2 of the second multifunctional device 100-2, The touch screen 112-1 of the multifunction device 100-1, On the map 4404-1). Thus, in some embodiments, a device that detects a fingerprint from a user's left hand is presumed to be on the left side of the device that detects a fingerprint from the user's right hand, The user interface objects that should be on the right side of the user interface are displayed on the device that detected the fingerprint from the user's right hand.

일부 실시예들에서, 제1 지문에 대응하는 손가락에 대한, 제2 지문에 대응하는 손가락의, 사용자의 손들에서의 순서가 사용자 인터페이스가 보조 디스플레이에 의해 확장되는 방향을 결정한다. 예를 들어, 제2 손가락(예를 들어, 사용자의 오른손 검지(RI))에 대응하는 제2 지문(예를 들어, 도 44o의 제2 다기능 디바이스(100-2) 상에서 검출된 지문(4444))이 제1 지문(예를 들어, 도 44o의 제1 다기능 디바이스(100-1) 상에서 검출된 지문(4443))에 대응하는 제1 손가락(예를 들어, 사용자의 오른손 약지(RR))의 사용자의 좌측에 위치될 때, 제1 디바이스의 사용자 인터페이스가 제2 디바이스의 디스플레이 상에서 좌측으로 확장된다(예를 들어, 도 44o의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 도 44p의 다기능 디바이스(100-2) 상으로 확장되어, 미국의 서부 해안이 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 지도(4404-2)로 표시되고, 미국 중부가 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 지도(4404-1)로 표시됨).In some embodiments, the order in the user's hands of the finger corresponding to the second fingerprint for the finger corresponding to the first fingerprint determines the direction in which the user interface is extended by the secondary display. For example, a fingerprint 4444 detected on a second fingerprint (e.g., on the second multifunction device 100-2 of Fig. 44O) corresponding to a second finger (e.g., the user's right hand finger RI) Of the first finger (e.g., the user's right hand finger RR) corresponding to the first fingerprint (e.g. fingerprint 4443 detected on the first multifunction device 100-1 of Figure 44o) When positioned on the left side of the user, the user interface of the first device is extended to the left on the display of the second device (e.g., on the touch screen 112-1 of the multifunction device 100-1 of Figure 44o) The displayed first user interface is expanded on the multifunction device 100-2 of Figure 44P so that the US West Coast is on the map 4404-2 on the touch screen 112-2 of the second multifunction device 100-2, And the central US is represented by a map 4404-1 on the touch screen 112-1 of the first multifunction device 100-1).

일부 실시예들에서, 제1 지문 및 제2 지문이 검출되고(4420), 제1 애플리케이션이 제1 디바이스에서 활성인 동안에(예를 들어, 제1 다기능 디바이스(100-1)에서, 도 44q, 도 44w 및 도 44cc에 도시된 바와 같이 사진 표시 애플리케이션이 활성이고, 도 44u에 도시된 바와 같이 워드 프로세싱 애플리케이션이 활성이며, 도 44z에 도시된 바와 같이 피아노 애플리케이션이 활성인 경우에), 그리고 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송한 후에: 제1 디바이스는 제2 전자 디바이스를 제1 전자 디바이스에 대한 보조 디스플레이로서 설정한다(4522)(예를 들어, 도 44r, 도 44v, 도 44x, 도 44aa 및 도 44dd에서 제2 다기능 디바이스(100-2)가 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정됨).In some embodiments, a first fingerprint and a second fingerprint are detected 4420, and while the first application is active in the first device (e.g., in the first multifunction device 100-1, The photo presentation application is active as shown in Figures 44w and 44cc, the word processing application is active as shown in Figure 44u, and the piano application is active as shown in Figure 44z), and the second After sending a response to the second electronic device that allows the electronic device to be set as a secondary display for the first electronic device: the first device sets the second electronic device as a secondary display for the first electronic device 4522 (For example, the second multifunction device 100-2 is set as a secondary display for the first multifunction device 100-1 in Figs. 44R, 44V, 44X, 44Aa and 44Dd) ).

제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제2 디바이스가 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들(예를 들어, 도 44r의 메뉴 바(4414, 4447) 및 드롭-다운 메뉴(4416); 도 44v의 텍스트(4418); 도 44x의 미국 지도(4404-2); 도 44aa의 피아노 키보드(4428-2); 및 도 44dd의 사진 앨범들 "사막"(4432-5) 및 "결혼"(4432-6)을 나타내는 아이콘들)을 표시할 수 있게 하는 명령을 제2 디바이스에 전송한다(4524).While the second electronic device is being set as a secondary display for the first device, the first device may be configured such that the second device is associated with a set of one or more user interface elements associated with the first application (e.g., menu bar 4414 , 4447 and drop-down menu 4416; the text 4444 of Figure 44v; the US map 4404-2 of Figure 44x; the piano keyboard 4428-2 of Figure 44aa; and the photo albums of Figure 44d, Desert "4432-5 and" marriage "4432-6) to the second device (4524).

일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 애플리케이션 내의 동작들을 수행하기 위한 하나 이상의 제어부를 포함한다(4526)(예를 들어, 하나 이상의 사용자 인터페이스 요소들은 메뉴, 제어 요소, 또는 제1 애플리케이션과 연관된 다른 사용자 인터페이스 객체를 포함함). 예를 들어, 제2 디바이스의 디스플레이를 보조 디스플레이로서 사용하는 것은 제1 디바이스의 디스플레이 상에 표시된 사용자 인터페이스에 대한 하나 이상의 제어부들(예를 들어, 도 44r의 메뉴 바(4414, 4447) 및 드롭-다운 메뉴(4416))을 제2 디바이스의 디스플레이 상에 배치하는 것을 포함한다. 따라서, 주 디스플레이(예를 들어, 제1 디바이스의 디스플레이 상에 표시된 제1 애플리케이션의 사용자 인터페이스)의 클러터링(cluttering)을 감소시키거나 제거하기 위해 추가적인 메뉴, 팔레트 또는 다른 제어부들이 보조 디스플레이 상에 표시될 수 있다.In some embodiments, a set of one or more user interface elements associated with a first application includes one or more controls 4526 for performing operations within the first application (e.g., one or more user interface elements A control element, or other user interface object associated with the first application). For example, using the display of the second device as a secondary display may include one or more controls for the user interface displayed on the display of the first device (e.g., menu bar 4414, 4447, and drop- Down menu 4416) on the display of the second device. Thus, additional menus, palettes or other controls may be displayed on the secondary display to reduce or eliminate cluttering of the primary display (e.g., the user interface of the first application displayed on the display of the first device) .

일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 디바이스의 디스플레이 상에 표시된 작업공간의 연속인 작업공간의 일부분을 포함한다(4528)(예를 들어, 하나 이상의 사용자 인터페이스 요소들은 문서 바디, 애플리케이션 캔버스, 또는 제1 및 제2 디바이스들의 디스플레이들 위에 걸쳐 있는 다른 가상의 작업공간을 포함함). 예를 들어, 제2 디바이스의 디스플레이를 보조 디스플레이로서 사용하는 것은 제1 애플리케이션에 대한 작업 공간을 제1 디바이스의 디스플레이 및 제2 디바이스의 디스플레이 위에 펼치는 것을 포함한다(예를 들어, 작업공간(4417-1)은 도 44u의 제1 다기능 디바이스(100-1)의 터치 스크린(112-1)으로부터 도 44v의 연속적인 작업공간(4417)의 작업공간(4417-2)으로서 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상으로 확장됨).In some embodiments, the set of one or more user interface elements associated with the first application includes a portion of the workspace that is a continuation of the workspace displayed on the display of the first device (4528) (e.g., one or more The user interface elements include a document body, an application canvas, or other virtual workspace spanning the displays of the first and second devices). For example, using the display of the second device as a secondary display includes expanding the workspace for the first application onto the display of the first device and the display of the second device (e.g., the workspace 4417- 1 is transferred from the touch screen 112-1 of the first multifunction device 100-1 of Figure 44u to the second multifunction device 100-1 as the work space 4417-2 of the continuous work space 4417 of Figure 44v, 2) touch screen 112-2).

일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제2 디바이스에 의해 검출된 입력들을 나타내는 입력 데이터를 수신하는데(4530), 여기서 입력들은 제2 디바이스의 디스플레이 상에 표시된 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소들과의 상호작용들에 대응하며; 제1 디바이스는 입력 데이터에 따라 제1 애플리케이션과 연관된 동작들을 수행한다(4532). 예를 들어, 제1 디바이스는 제2 디바이스에 디스플레이 정보를 전송하며, 제2 디바이스의 디스플레이 상에 표시된 사용자 인터페이스와의 사용자 상호작용을 나타내는 입력 데이터(예를 들어, 도 44x의 접촉(4424)과 같은 터치 지점들의 좌표들 및/또는 도 44x의 위치(4424-a)로부터 도 44y의 위치(4424-b)로의 접촉(4424)의 이동(4426)을 포함하는 제스처)를 수신하며; 그 응답으로, 제1 디바이스는 제1 애플리케이션에 따라 활성 프로그램과 연관된 동작을 수행한다(예를 들어, 제2 다기능 디바이스(100-2)에 의해 제공된 제스처 데이터에 따라 제1 다기능 디바이스(100-1)는 포커스 셀렉터(4422)를 도 44x의 위치(4422-a)로부터 도 44y의 위치(4422-b)로 이동시킴). 따라서, 일부 실시예들에서, 제2 디바이스는 제1 디바이스에 대한 보조 터치패드 또는 터치 스크린으로서 작용한다.In some embodiments, while the second electronic device is set as a secondary display for the first device, the first device receives (4530) input data indicative of the inputs detected by the second device, Corresponding to interactions with one or more user interface elements associated with a first application displayed on a display of the device; The first device performs operations associated with the first application according to the input data (4532). For example, the first device may transmit display information to a second device, and may include input data (e.g., contacts 4424 in Figure 44x) and user input data A gesture that includes coordinates 4424 of a touch 4424 from the position 4424-a of Figure 44x to the position 4424-b of Figure 44y); In response, the first device performs an action associated with the active program in accordance with the first application (e.g., the first multifunction device 100-1 (e.g., in response to the gesture data provided by the second multifunction device 100-2) Moves focus selector 4422 from position 4422-a in Figure 44x to position 4422-b in Figure 44y). Thus, in some embodiments, the second device acts as an auxiliary touchpad or touch screen for the first device.

일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제2 디바이스의 디스플레이 상에 표시되는 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소와의 상호작용에 대응하는 하나 이상의 동작을 규정하는 제2 전자 디바이스로부터의 동작 데이터를 수신하고(4534); 하나 이상의 동작들을 수행한다(4536). 따라서, 일부 실시예들에서, 일부 애플리케이션 프로세싱은 디바이스들 각각에서 수행되고(예를 들어, 제1 디바이스 및 제2 디바이스 각각이 동일한 애플리케이션의 사본들을 가짐), 두 애플리케이션들 각각은 표시된 사용자 인터페이스의 부분에 적합한 제스처에 대한 응답을 생성하며, 두 애플리케이션들은 정보를 공유한다. 예를 들어, (예를 들어, 각각 도 44aa 및 도 44bb에서 다기능 디바이스(100-1, 100-2)들 상에 표시된 키보드(4428-1, 4428-2)들로서) 제1 디바이스의 디스플레이와 제2 디바이스의 디스플레이에 걸쳐 펼쳐진 음악 키보드(예를 들어, 도 44bb의 피아노 키보드(4428))의 경우, 제1 전자 디바이스에 터치 지점들(도 44bb에서의 접촉(4430)의 좌표들)을 전송하는 대신, 제2 디바이스(예를 들어, 도 44bb의 다기능 디바이스(100-2))는 (예를 들어, 도 44bb의 "E" 키(4457)를 포함하는) 음악 키보드의 키들의 절반을 표시하고, 사용자에 의해 활성화된 키에 대응하여 연주할 음을 나타내는 정보를 제1 디바이스에 전송한다(예를 들어, 제2 다기능 디바이스(100-2)는 접촉(4430)이 "E" 키(4457)를 활성화해야 한다고 결정하고 음높이 "E"를 갖는 소리를 연주하기 위한 정보를 제1 다기능 디바이스(100-1)에 전송함). 다른 예로서, 분할된 텍스트 키보드의 경우, 터치 지점들을 제1 전자 디바이스에 전송하는 대신, 제2 전자 디바이스는 사용자에 의해 활성화된 키들에 대응하는 글자들을 전송한다. 제2 디바이스에서 프로세싱의 일부를 수행함으로써, 제1 디바이스 상의 프로세싱 부하가 감소됨으로써, 애플리케이션의 성능을 향상시킨다.In some embodiments, while the second electronic device is set as a secondary display for the first device, the first device may be configured to interact with one or more user interface elements associated with the first application displayed on the display of the second device Receive (4534) operational data from a second electronic device that defines one or more corresponding operations; Perform one or more operations (4536). Thus, in some embodiments, some application processing is performed on each of the devices (e.g., each of the first device and the second device has copies of the same application) And the two applications share the information. For example, the display of the first device and the display of the first device (e.g., as keyboards 4428-1 and 4428-2 displayed on multifunction devices 100-1 and 100-2 in Figures 44aa and 44bb, respectively) (Coordinates of the contact 4430 in Fig. 44Bb) to the first electronic device in the case of a music keyboard (e.g., piano keyboard 4428 of Fig. 44bb) Instead, the second device (e.g., multifunction device 100-2 of Figure 44bb) displays half of the keys of the music keyboard (e.g., including the "E" key 4457 of Figure 44bb) (For example, the second multifunction device 100-2) determines that the contact 4430 is the "E" key 4457, and the second multifunction device 100-2 transmits information indicating the note to be played in response to the user- Quot; E "to the first multifunction device 100-1, and transmits information for playing the sound having the pitch" E &quot; Songham). As another example, in the case of a partitioned text keyboard, instead of transmitting touch points to the first electronic device, the second electronic device transmits characters corresponding to the keys activated by the user. By performing some of the processing in the second device, the processing load on the first device is reduced, thereby improving the performance of the application.

일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제1 디바이스의 터치-감응 표면 상의 제1 제스처를 검출하고(4538)(예를 들어, 제1 제스처는 제1 디바이스의 터치-감응 디스플레이 상의 제1 위치에 대응함), 제2 디바이스의 터치-감응 표면 상에서 검출된 제2 제스처를 나타내는 제2 디바이스로부터 통신을 수신한다(4540)(예를 들어, 제2 제스처는 제2 디바이스의 터치-감응 디스플레이 상의 제2 위치에 대응함). 제1 제스처를 검출하고 제2 제스처를 나타내는 통신을 수신하는 것에 응답하여, 제1 디바이스는 제1 디바이스의 디스플레이(예를 들어, 제1 디바이스의 디스플레이 상의 제1 위치)와 제2 디바이스의 디스플레이(예를 들어, 제2 디바이스의 디스플레이 상의 제2 위치) 사이에서 제1 애플리케이션과 연관된 사용자 인터페이스 객체(예를 들어, 파일, 아이콘, 메뉴, 또는 제어부)를 이동시킨다(4542). 예를 들어, 제1 디바이스는 제1 사용자 인터페이스 객체에 대응하는 제1 위치에서 제1 디바이스의 터치-감응 표면 상의 핀치(pinch) 제스처를 검출하고, 제2 디바이스는 제2 위치에서 제2 디바이스의 터치-감응 표면 상의 디핀치(depinch)를 검출하며, 핀치 및 디핀치 제스처들을 검출하는 것에 응답하여, 제1 사용자 인터페이스 객체는 제1 위치로부터 제2 위치로 이동된다(예를 들어, 제1 디바이스는 제1 사용자 인터페이스 객체를 표시하는 것을 중단하고 제2 디바이스가 제1 사용자 인터페이스 객체를 표시하기 시작함). 다른 예로서, 제1 디바이스(예를 들어, 도 44dd의 제1 다기능 디바이스(100-1))는 제1 사용자 인터페이스 객체(예를 들어, 도 44dd의 사진 앨범 "겨울"을 나타내는 아이콘(4432-4))에 대응하는 제1 위치(예를 들어, 도 44dd의 위치(4436-a))에서 시작하는 제1 터치-감응 표면 상의 드래그 제스처의 제1 부분을 검출하고(예를 들어, 드래그 제스처는 도 44dd의 위치(4436-a)로부터 도 44ee의 터치 스크린(112-1) 상의 위치(4436-b)로의 접촉(4436)의 이동(4438)을 포함함), 제2 디바이스(예를 들어, 다기능 디바이스(100-2))는 제2 위치(예를 들어, 도 44ee의 위치(4440-b))에서 종료하는(예를 들어, 접촉을 들어올리는) 제2 터치-감응 표면 상의 드래그 제스처(예를 들어, 드래그 제스처는 도 44ee의 터치 스크린(112-2)의 위치(4440-a)로부터 위치(4440-b)로의 접촉(4440)의 이동(4442)을 포함함)의 제2 부분을 검출하고, 드래그 제스처의 제1 및 제2 부분들에 응답하여, 제1 사용자 인터페이스 객체가 제1 위치로부터 제2 위치로 이동된다(예를 들어, 도 44ee에 도시된 바와 같이 제1 디바이스는 사진 앨범 "겨울"을 나타내는 아이콘(4432-4)을 표시하는 것을 중단하고 제2 디바이스가 사진 앨범 "겨울"을 나타내는 아이콘(4432-4)을 표시하기 시작함).In some embodiments, while the second electronic device is being set as a secondary display for the first device, the first device detects (4538) the first gesture on the touch-sensitive surface of the first device (e.g., 1 gesture corresponds to a first position on the touch-sensitive display of the first device), and receives (4540) communication from a second device indicating a second gesture detected on the touch-sensitive surface of the second device , The second gesture corresponding to a second location on the touch-sensitive display of the second device). In response to detecting a first gesture and receiving communication indicative of a second gesture, the first device is configured to display the first device's display (e.g., the first location on the display of the first device) (E.g., a file, an icon, a menu, or a control) associated with the first application between a first location on the display of the first device (e.g., a second location on the display of the second device). For example, a first device may detect a pinch gesture on a touch-sensitive surface of a first device at a first location corresponding to a first user interface object, and a second device may detect a pinch gesture Detecting a depinch on the touch-sensitive surface, and in response to detecting pinch and dipinch gestures, the first user interface object is moved from a first position to a second position (e.g., Stops displaying the first user interface object and the second device starts displaying the first user interface object). As another example, a first device (e.g., the first multifunction device 100-1 of Figure 44dd) may include a first user interface object (e.g., an icon 4432- A first portion of the drag gesture on the first touch-sensitive surface starting at a first position (e.g., position 4436-a in Figure 44dd) corresponding to the drag gesture (e.g., Includes the movement 4438 of contact 4436 from position 4436-a in Figure 44dd to position 4436-b on the touch screen 112-1 in Figure 44ee), a second device (e.g., , Multifunction device 100-2) is configured to receive a drag gesture on the second touch-sensitive surface that terminates (e.g., lifts the contact) at a second location (e.g., location 4440- (E.g., the drag gesture includes movement 4442 of contact 4440 from position 4440-a of touch screen 112-2 of Fig. 44ee to position 4440-b) To And in response to the first and second portions of the drag gesture, the first user interface object is moved from the first position to the second position (e.g., as shown in Figure 44ee, The display of the icon 4432-4 representing the album "winter" is stopped and the second device starts displaying the icon 4432-4 representing the photo album "winter ".

보조-디스플레이 기준이 충족되지 않는다는 결정에 따라, 제1 디바이스는 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지한다(4544). 예를 들어, 도 44d에서, 제1 지문(4405)과 제2 지문(4407)이 동일한 사용자에 대해 등록되지 않았기 때문에(예를 들어, 지문(4405)이 사용자 "1"에 대응하고 지문(4407)이 사용자 "2"에 대응함) 보조-디스플레이 기준이 충족되지 않았으며, 따라서 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정되지 않는다. 유사하게, 도 44f에서, 제2 지문(4415)이 제1 지문(4413)의 검출 후 사전 결정된 시간(4408) 내에 검출되지 않았기 때문에(예를 들어, 지문(4415)은 지문(4413)이 검출된 후 5초 초과 후에 검출되었음) 보조-디스플레이 기준이 충족되지 않았으며, 따라서 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정되지 않는다.In response to the determination that the secondary-display criteria is not met, the first device stops sending a response to the second electronic device (4544) that allows the second electronic device to be set as a secondary display for the first electronic device . For example, in FIG. 44D, since the first fingerprint 4405 and the second fingerprint 4407 are not registered for the same user (for example, fingerprint 4405 corresponds to user "1 " ) Corresponds to user "2 ") sub-display criteria have not been met and therefore second multifunction device 100-2 is not set as secondary display for first multifunction device 100-1. Similarly, in Fig. 44F, since the second fingerprint 4415 has not been detected within a predetermined time 4408 after detection of the first fingerprint 4413 (e.g., the fingerprint 4415 is detected when the fingerprint 4413 is detected And the second multifunction device 100-2 is not set as the secondary display for the first multifunction device 100-1, since the auxiliary-display criteria have not been met.

도 45a 내지 도 45d의 동작들이 기술된 특정한 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 45a 내지 도 45d와 관련하여 전술된 방법(4500)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(4500)과 관련하여 전술된 지문들, 접촉들, 제스처들, 사용자 인터페이스 객체들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 제스처들, 사용자 인터페이스 객체들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 45A-45D are described is exemplary only, and that the sequences described are not intended to represent that they are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the method 4500 described above in connection with 45d is also applicable in a similar manner. For example, the fingerprints, contacts, gestures, user interface objects and focus selectors described above in connection with method 4500 may optionally be combined with other methods described herein (e.g., Contacts, gestures, user interface objects, and focus selectors described herein in connection with the methods described in the second paragraph within the " Specific Description " For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 46은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4600)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 46에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, Figure 46 illustrates a functional block diagram of an electronic device 4600 configured in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 46 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 46에 도시된 바와 같이, 전자 디바이스(4600)는 그래픽 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(4602), 선택적으로 터치-감응 표면 유닛(4604), 지문 센서 유닛(4606); 및 디스플레이 유닛(4602), 터치-감응 표면 유닛(4604) 및 지문 센서 유닛(4606)에 결합 프로세싱 유닛(4608)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4608)은 검출 유닛(4610), 수신 유닛(4612), 결정 유닛(4614), 전송 유닛(4616), 디스플레이 유닛(4602) 상에서의 정보의 표시를 가능하게 하기 위한 디스플레이 인에이블링 유닛(4618), 설정 유닛(4620), 수행 유닛(4622) 및 이동 유닛(4624)을 포함한다.As shown in Figure 46, the electronic device 4600 includes a display unit 4602 configured to display a graphical user interface, optionally a touch-sensitive surface unit 4604, a fingerprint sensor unit 4606; And a coupling processing unit 4608 in the display unit 4602, the touch-sensitive surface unit 4604, and the fingerprint sensor unit 4606. In some embodiments, the processing unit 4608 is configured to enable display of information on the detection unit 4610, the reception unit 4612, the determination unit 4614, the transmission unit 4616, the display unit 4602, A display enabling unit 4618, a setting unit 4620, a performing unit 4622, and a moving unit 4624. [

프로세싱 유닛(4608)은 (예를 들어, 검출 유닛(4610)을 이용하여) 제1 시기에 제1 전자 디바이스(4600)의 지문 센서 유닛 상에서 각자의 사용자에 대해 등록된 제1 지문을 검출하도록 구성된다. 프로세싱 유닛(4608)은 또한, 제1 전자 디바이스(4600)와는 별개인 제2 전자 디바이스로부터, 제2 시기에 제2 디바이스의 지문 센서 유닛 상에서 제2 지문이 검출되었음을 나타내는 정보를 포함하는 통신을 (예를 들어, 수신 유닛(4612)을 이용하여) 수신하도록 구성된다. 제1 지문을 검출하고 제2 전자 디바이스로부터 통신을 수신하는 것에 응답하여, 프로세싱 유닛(4608)은 미리 정해진 보조 디스플레이 기준 - 보조 디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 (예를 들어, 결정 유닛(4614)을 이용하여) 결정하도록 구성된다. 보조-디스플레이 기준이 충족된다는 결정에 따라, 프로세싱 유닛(4608)은 (예를 들어, 전송 유닛(4616)을 이용하여) 제2 전자 디바이스가 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하도록 구성된다. 보조 디스플레이 기준이 충족되지 않는다는 결정에 따라, 프로세싱 유닛(4608)은 (예를 들어, 전송 유닛(4616)을 이용하여) 제2 전자 디바이스가 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지하도록 구성된다.The processing unit 4608 is configured to detect a first fingerprint registered for each user on the fingerprint sensor unit of the first electronic device 4600 at a first time (e.g., using the detection unit 4610) do. The processing unit 4608 may also be configured to receive communications from a second electronic device that is separate from the first electronic device 4600 and that includes information indicating that a second fingerprint has been detected on the fingerprint sensor unit of the second device at a second time (E.g., using the receiving unit 4612). In response to detecting the first fingerprint and receiving the communication from the second electronic device, the processing unit 4608 determines that the predetermined secondary display reference-secondary display reference is a criterion that is met when the second fingerprint is registered for each user (E.g., using decision unit 4614) to determine if the request has been satisfied. According to the determination that the secondary-display criteria is met, the processing unit 4608 may determine that the second electronic device (e.g., using the transfer unit 4616) is set as the secondary display for the first electronic device 4600 To the second electronic device. In response to the determination that the secondary display criteria is not satisfied, the processing unit 4608 may determine that the second electronic device (e.g., using the transfer unit 4616) is set as the secondary display for the first electronic device 4600 Lt; RTI ID = 0.0 &gt; electronic device. &Lt; / RTI &gt;

일부 실시예들에서, 보조-디스플레이 기준은 제1 시기가 미리 정해진 제2 시간 내에 있을 때 충족되는 기준을 포함한다.In some embodiments, the auxiliary-display criteria include criteria that are met when the first time is within a second predetermined time period.

일부 실시예들에서, 보조-디스플레이 기준은 보조 디스플레이로서의 제2 디바이스의 설정이 요청되었다는 확인을 (예를 들어, 수신 유닛(4612)을 이용하여) 제1 디바이스가 수신할 때 충족되는 기준을 포함한다.In some embodiments, the secondary-display criteria includes a criterion that is satisfied when the first device receives (e.g., using the receiving unit 4612) confirmation that the setting of the second device as a secondary display has been requested do.

일부 실시예들에서, 제1 디바이스(4600)의 디스플레이 유닛(4602) 상에 표시된 사용자 인터페이스의 배향은 (예를 들어, 결정 유닛(4614)을 이용하여) 제1 디바이스(4600)의 디스플레이 유닛(4602)의 미리 정해진 축에 대한 제1 지문의 배향에 따라 결정되며, 제2 디바이스의 디스플레이 유닛 상에 표시된 사용자 인터페이스의 배향은 (예를 들어, 결정 유닛을 이용하여) 제2 디바이스의 디스플레이 유닛의 미리 정해진 축에 대한 제2 지문의 배향에 따라 결정된다.In some embodiments, the orientation of the user interface displayed on the display unit 4602 of the first device 4600 is determined by the orientation of the display unit 4602 of the first device 4600 (e.g., using the determination unit 4614) 4602), and the orientation of the user interface displayed on the display unit of the second device is determined by the orientation of the first fingerprint of the display unit of the second device (e.g., using a determination unit) Is determined according to the orientation of the second fingerprint with respect to the predetermined axis.

일부 실시예들에서, 프로세싱 유닛(4608)은 (예를 들어, 결정 유닛(4614)을 이용하여) 적어도 제1 지문의 식별 및 제2 지문의 식별 중 하나에 따라 제1 디바이스(4600)의 사용자 인터페이스를 보조 디스플레이에 의해 확장하는 방향을 결정하도록 추가로 구성된다.In some embodiments, the processing unit 4608 may be configured to determine whether the user of the first device 4600 (for example, using the determination unit 4614) And is further configured to determine the direction in which the interface is extended by the secondary display.

일부 실시예들에서, 제1 애플리케이션이 제1 디바이스(4600)에서 활성 애플리케이션인 동안에 제1 지문 및 제2 지문이 검출되고; (예를 들어, 전송 유닛(4616)을 이용하여) 제2 전자 디바이스가 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송한 후에, 프로세싱 유닛(4608)은 (예를 들어, 설정 유닛(4620)을 이용하여) 제2 전자 디바이스를 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정하도록 추가로 구성되며; 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디바이스로서 구성된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 전송 유닛(4616)을 이용하여) 제2 디바이스가 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들을 표시할 수 있게 명령어를 제2 디바이스에 전송하도록 추가로 구성된다.In some embodiments, the first fingerprint and the second fingerprint are detected while the first application is active application in the first device 4600; After sending a response to the second electronic device to enable the second electronic device to be set as a secondary display for the first electronic device 4600 (e.g., using the transfer unit 4616), the processing unit 4608 is further configured to set the second electronic device as a secondary display for the first electronic device 4600 (e.g., using the setting unit 4620); While the second electronic device is configured as an auxiliary device for the first device 4600, the processing unit 4608 may be configured to communicate with the first device 4600 (e.g., using the transfer unit 4616) Lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt; second device to display one or more user interface elements of the first device.

일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 애플리케이션 내의 동작들을 수행하기 위한 하나 이상의 제어부들을 포함한다.In some embodiments, a set of one or more user interface elements associated with a first application includes one or more controls for performing operations within the first application.

일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 디바이스(4600)의 디스플레이 유닛(4602) 상에 표시되는 작업공간의 연속부인 작업공간의 일부분을 포함한다.In some embodiments, a set of one or more user interface elements associated with a first application includes a portion of a workspace that is a continuation of a workspace displayed on a display unit 4602 of the first device 4600.

일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디스플레이로서 설정된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 수신 유닛(4612)을 이용하여) 제2 디바이스에 의해 검출된 입력들을 나타내는 입력 데이터를 수신하도록 추가로 구성되며, 이때 입력들은 제2 디바이스의 디스플레이 유닛(4602) 상에 표시된 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소들과의 상호작용들에 대응하고, 프로세싱 유닛(4608)은 (예를 들어, 수행 유닛(4622)을 이용하여) 입력 데이터에 따라 제1 애플리케이션과 연관된 동작들을 수행하도록 추가로 구성된다.In some embodiments, while the second electronic device is being set as a secondary display for the first device 4600, the processing unit 4608 may be configured (e.g., using the receiving unit 4612) Wherein the inputs correspond to interactions with one or more user interface elements associated with the first application displayed on the display unit 4602 of the second device, The processing unit 4608 is further configured to perform operations associated with the first application in accordance with the input data (e.g., using the execution unit 4622).

일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디스플레이로서 설정된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 수신 유닛(4612)을 이용하여) 제2 디바이스의 디스플레이 유닛 상에 표시된 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소들과의 상호작용들에 대응하는 하나 이상의 동작들을 규정하는 동작 데이터를 제2 전자 디바이스로부터 수신하도록 추가로 구성되며, 프로세싱 유닛(4608)은 (예를 들어, 수행 유닛(4622)을 이용하여) 하나 이상의 동작들을 수행하도록 추가로 구성된다.In some embodiments, while the second electronic device is set as a secondary display for the first device 4600, the processing unit 4608 may be configured to display (e.g., using the receiving unit 4612) Wherein the processing unit (4608) is further configured to receive from the second electronic device operational data defining one or more operations corresponding to interactions with one or more user interface elements associated with the first application displayed on the unit (E.g., using execution unit 4622) to perform one or more operations.

일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디스플레이로서 설정된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 검출 유닛(4610)을 이용하여) 제1 디바이스(4600)의 터치-감응 표면 유닛(4604) 상의 제1 제스처를 검출하도록 추가로 구성된다. 프로세싱 유닛(4608)은 (예를 들어, 수신 유닛(4612)을 이용하여) 제2 디바이스의 터치-감응 표면 유닛 상에서 검출된 제2 제스처를 나타내는 통신을 제2 디바이스로부터 수신하도록 추가로 구성되고, 제1 제스처를 검출하고 제2 제스처를 나타내는 통신을 수신하는 것에 응답하여, 프로세싱 유닛(4608)은 (예를 들어, 이동 유닛(4624)을 이용하여) 제1 디바이스(4600)의 디스플레이 유닛(4602)과 제2 디바이스의 디스플레이 유닛 사이에서 제1 애플리케이션과 연관된 사용자 인터페이스 객체를 이동시키도록 추가로 구성된다.In some embodiments, while the second electronic device is set as a secondary display for the first device 4600, the processing unit 4608 may be configured to communicate with the first device 4600 (e.g., using the detection unit 4610) Sensitive surface unit 4604 of touch-sensitive surface unit 4604. The processing unit 4608 is further configured to receive from the second device a communication indicating a second gesture detected on the touch-sensitive surface unit of the second device (e.g., using the receiving unit 4612) In response to detecting the first gesture and receiving a communication indicative of a second gesture, the processing unit 4608 may cause the display unit 4602 of the first device 4600 (e.g., using the mobile unit 4624) ) And the display unit of the second device to move the user interface object associated with the first application.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 45a 내지 도 45d와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 46에 도시된 구성요소들에 의해 구현된다. 예를 들어, 검출 동작(4502, 4538)들, 수신 동작(4504, 4530, 4534, 4540)들, 결정 동작(4508, 4516, 4518)들, 전송 동작(4514, 4524)들, 중지 동작(4544), 설정 동작(4522), 수행 동작(4532, 4536)들 및 이동 동작(4542)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with reference to Figs. 45A to 45D are optionally implemented by the components shown in Figs. 1A and 1B or 46. For example, detection operations 4502 and 4538, receive operations 4504, 4530, 4534 and 4540, decision operations 4508, 4516 and 4518, transmit operations 4514 and 4524, The setting operation 4522, the performing operations 4532 and 4536 and the moving operation 4542 are optionally implemented by the event classifier 170, the event recognizer 180 and the event handler 190. [ The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, event handler 190 accesses each GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

지문 배향에 기초한 빔포밍 파라미터의 변경Change of beamforming parameters based on fingerprint orientation

다수의 전자 디바이스들은 근접 센서 데이터에 기초한 오디오 요소들의 설정을 가능하게 한다. 예를 들어, 근접 센서로부터의 정보에 기초하여 이동 전화 디바이스가 수신기 모드와 스피커 모드 사이에서 전환할 수 있다. 아래에서 기술되는 디바이스는 한 세트의 하나 이상의 오디오 요소들을 보다 효율적으로 동작시키기 위해서 복수의 빔포밍 파라미터로부터 한 세트의 빔포밍 파라미터들을 선택하도록 검출된 지문 배향의 변경을 이용함으로써 기존의 방법들을 향상시킨다.Many electronic devices enable the setting of audio elements based on proximity sensor data. For example, the mobile phone device can switch between the receiver mode and the speaker mode based on information from the proximity sensor. The device described below enhances existing methods by using a change in the detected fingerprint orientation to select a set of beamforming parameters from a plurality of beamforming parameters to more efficiently operate a set of one or more audio elements .

제1 지문이 지문 센서 상에서 제1 배향으로 검출된 동안에, 디바이스는 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다. 이어서, 디바이스는 지문 센서 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문을 검출한다. 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택된다. 마지막으로, 지문 센서 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 디바이스는 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다.While the first fingerprint is detected in the first orientation on the fingerprint sensor, the device operates a set of one or more audio elements in accordance with the first set of beamforming parameters. The device then detects a subsequent fingerprint on the fingerprint sensor having a second orientation that is different from the first orientation. The subsequent fingerprints are selected from a set of first fingerprints having a modified orientation and a second fingerprint that is separate from the first fingerprints. Finally, in response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor, the device may detect a set of one or more audio elements according to a second set of beamforming parameters different from the first set of beamforming parameters .

일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 47a 내지 도 47l, 및 도 48a 및 도 48b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 47a 내지 도 47l, 및 도 48a 및 도 48b와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)(예를 들어, 통합된 지문 센서(359-1) 또는 별개의 지문 센서(359-2))와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 47a 내지 도 47l에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 47a 내지 도 47l에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a portable multifunction device 100, the display is a touch screen 112, and the touch-sensitive surface includes tactile output generators 167 on the display (FIG. 1A). The device described below with reference to Figs. 47A-47L and Figs. 48A-B includes one or more fingerprint sensors 169. In some embodiments, the one or more fingerprint sensors may include one or more integrated fingerprint sensors 359-35 integrated into a touch-sensitive surface (e.g., a separate touch-sensitive surface 451 or a touch-sensitive display system 112) 1) (FIG. 4B). In some embodiments, the one or more fingerprint sensors may be a separate fingerprint sensor 359-2 (for example, separate touch-sensitive surface 451 or touch sensitive display system 112) separate from the touch- (Fig. 4B). Unless otherwise specified, the fingerprint sensor 169, described below, may optionally include an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-1, depending on the hardware and software configuration of the device including the fingerprint sensor 169. [ (359-2). For convenience of description, the embodiments described in connection with Figs. 47A to 47L and Figs. 48A and 48B include a touch screen 112 and a fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1 ) Or a separate fingerprint sensor 359-2); In such embodiments, the focus selector may alternatively be associated with a representative point (e.g., a point associated with the center of each contact or a point of contact thereof) corresponding to a respective contact, a contact, The center of the two or more contacts detected on the touch screen. On a device having a display 450, a separate touch-sensitive surface 451 and an integrated fingerprint sensor 359-1 or a separate fingerprint sensor 359-2, the user interfaces shown in Figures 47A- In response to detecting the inputs depicted in Figures 47A-47L on the integrated fingerprint sensor 359-1 or the separate fingerprint sensor 359-2 during the display on the touch screen 450, do.

도 47a 내지 도 47c는 오디오 생성 모드에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 오디오 생성 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 스피커(111)를 통해 오디오를 생성한다. 미디어 플레이어(예를 들어, 애플, 인크.의 아이튠즈 애플리케이션)는 도 47a 내지 도 47c에서 터치 스크린(112)의 사용자 인터페이스(4701) 상에 표시된다. 도 47a 내지 도 47c에 도시된 미디어 플레이어는 예를 들어 오디오 파일 또는 스트리밍 오디오를 재생하는 것이다. 도 47a 내지 도 47c는 또한 각자의 지문의 각도를 나타내는 지문 축(4704)과 지문 센서(169)의 각도를 나타내는 지문 센서 축(4706)을 도시한다. 도 47a 내지 도 47c는 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 따라서, 간결성을 위해서 도 47a 내지 도 47c 사이에서의 차이점들만이 논의될 것이다.Figures 47A-47C illustrate a portable multifunction device 100 operating in an audio production mode. While in the audio creation mode, the portable multifunction device 100 generates audio through the speaker 111. [ A media player (e.g., iTunes application from Apple, Inc.) is displayed on the user interface 4701 of the touch screen 112 in Figures 47a-47c. The media player shown in Figs. 47A to 47C is, for example, to play an audio file or streaming audio. Figs. 47A to 47C also show the fingerprint sensor shaft 4706 indicating the angle of the fingerprint of each person and the fingerprint sensor axis 4706 indicating the angle of the fingerprint sensor 169. Fig. Figures 47a-47c are similar in all aspects except for the orientation of their fingerprints; Therefore, for the sake of brevity, only the differences between Figs. 47A to 47C will be discussed.

도 47a는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169)(예를 들어, 통합된 지문 센서(359-1)) 위에 있는 제1 배향의 제1 지문(4702)을 도시한다. 지문(4702)은 예를 들어 사용자의 오른손 엄지이다. 도 47a는 90°에 있는(수직배향인) 지문 축(4704)을 통해 지문(4702)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47a에서 지문 센서(169)의 축에 대한 제1 지문(4702)의 각도는 0°이다.Figure 47A illustrates a first fingerprint 4702 of a first orientation over a fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1) integrated into the home button 204 of the device 100 do. The fingerprint 4702 is, for example, the right thumb of the user. Figure 47A shows the angle of the fingerprint 4702 through the fingerprint axis 4704 at 90 ° (in the vertical orientation) and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47A, the angle of the first fingerprint 4702 with respect to the axis of the fingerprint sensor 169 is 0 DEG.

도 47b는 지문 센서(169) 위에 있는 제2 배향의 제1 지문(4702)을 도시한다. 도 47b는 135°에 있는 지문 축(4704)을 통해 지문(4702)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47b에서, 지문 센서(169)의 축에 대한 제1 지문(4702)의 각도는 45°이다.Fig. 47B shows the first fingerprint 4702 of the second orientation on the fingerprint sensor 169. Fig. Figure 47B shows the angle of the fingerprint 4702 through the fingerprint axis 4704 at 135 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47B, the angle of the first fingerprint 4702 with respect to the axis of the fingerprint sensor 169 is 45 [deg.].

도 47c는 지문 센서(169) 위에 있는 제3 배향의 제1 지문(4702)을 도시한다. 도 47c는 180°에 있는 지문 축(4704)을 통해 지문(4702)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47c에서 지문 센서(169)의 축에 대한 제1 지문(4702)의 각도는 90°이다.47C shows the first fingerprint 4702 of the third orientation on the fingerprint sensor 169. Fig. Figure 47c shows the angle of the fingerprint 4702 through the fingerprint axis 4704 at 180 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47C, the angle of the first fingerprint 4702 with respect to the axis of the fingerprint sensor 169 is 90 [deg.].

도 47d 내지 도 47f는 오디오 캡처 모드에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 오디오 캡처 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 마이크(113)를 통해 오디오를 캡처한다. 도 47d 내지 도 47f는 예를 들어 후속하는 재생 또는 전송을 위해 오디오 신호들을 녹음(또는 캡처)하는 애플, 인크.의 음성 메모 애플리케이션을 도시한다. 도 47d 내지 도 47f는 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 따라서, 간결성을 위해서 도 47d 내지 도 47f 사이에서의 차이점들만이 논의될 것이다.Figures 47d-47f illustrate a portable multifunction device 100 operating in an audio capture mode. While in the audio capture mode, the portable multifunction device 100 captures audio through the microphone 113. 47d-47f illustrate an Apple Inc. voice memo application that records (or captures) audio signals for subsequent playback or transmission, for example. Figures 47d-f are similar on all sides except for the orientation of their fingerprints; Therefore, for the sake of brevity, only the differences between Figures 47d-47f will be discussed.

도 47d는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169)(예를 들어, 통합된 지문 센서(359-1)) 위에 있는 제1 배향의 제1 지문(4708)을 도시한다. 지문(4708)은 예를 들어 사용자의 왼손 엄지이다. 도 47d는 90°에 있는 지문 축(4704)을 통해 지문(4708)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47d에서, 지문 센서(169)의 축에 대한 제1 지문(4708)의 각도는 0°이다.Figure 47d illustrates a first fingerprint 4708 of a first orientation over a fingerprint sensor 169 (e.g., an integrated fingerprint sensor 359-1) integrated into the home button 204 of the device 100 do. The fingerprint 4708 is, for example, the left hand thumb of the user. Figure 47d shows the angle of the fingerprint 4708 through the fingerprint axis 4704 at 90 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47D, the angle of the first fingerprint 4708 with respect to the axis of the fingerprint sensor 169 is 0 DEG.

도 47e는 지문 센서(169) 위에 있는 제2 배향의 제1 지문(4708)을 도시한다. 도 47e는 45°에 있는 지문 축(4704)을 통해 지문(4708)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47e에서, 지문 센서(169)의 축에 대한 제1 지문(4708)의 각도는 45°이다.47E shows the first fingerprint 4708 of the second orientation on the fingerprint sensor 169. Fig. 47E shows the angle of the fingerprint 4708 through the fingerprint axis 4704 at 45 DEG and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 DEG. 47E, the angle of the first fingerprint 4708 with respect to the axis of the fingerprint sensor 169 is 45 [deg.].

도 47f는 지문 센서(169) 위에 있는 제3 배향의 제1 지문(4708)을 도시한다. 도 47f는 0°에 있는 지문 축(4704)을 통해 지문(4708)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47f에서 지문 센서(169)의 축에 대한 제1 지문(4708)의 각도는 90°이다.Fig. 47f shows the first fingerprint 4708 of the third orientation on the fingerprint sensor 169. Fig. Figure 47f shows the angle of the fingerprint 4708 through the fingerprint axis 4704 at 0 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47F, the angle of the first fingerprint 4708 with respect to the axis of the fingerprint sensor 169 is 90 [deg.].

도 47g 내지 도 47i는 스피커 폰 모드에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 음소거 버튼, 키패드 표시 버튼, 스피커 활성화 버튼(4712), 추가 통화 버튼, 페이스타임 활성화 버튼, 연락처 표시 버튼 및 통화 종료 버튼을 포함하는 복수의 버튼들이 터치 스크린(112)의 사용자 인터페이스(4701) 상에 표시된다. 도 47g 내지 도 47i에서, 스피커 폰 모드에 대응하는 스피커 버튼(4712)이 활성화된다. 스피커 폰 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 마이크(113)를 통해 오디오를 캡처하고 스피커(111)를 통해 오디오를 생성한다. 도 47g 내지 도 47i는 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 따라서, 간결성을 위해서 도 47g 내지 도 47i 사이의 차이점들만이 논의될 것이다.Figures 47g-47i illustrate a portable multifunction device 100 operating in speaker phone mode. A plurality of buttons including a mute button, a keypad display button, a speaker activation button 4712, an additional call button, a face time activation button, a contact display button and a call end button are displayed on the user interface 4701 of the touch screen 112 Is displayed. 47G to 47I, the speaker button 4712 corresponding to the speaker phone mode is activated. During the speakerphone mode, the portable multifunction device 100 captures audio through the microphone 113 and generates audio through the speaker 111. [ Figures 47g-47i are similar in all aspects except for the orientation of their fingerprints; Thus, for the sake of brevity, only the differences between Figures 47g-47i will be discussed.

도 47g는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169) 위에 있는 제1 배향의 제1 지문(4710)을 도시한다. 지문(4710)은 예를 들어 사용자의 오른손 엄지이다. 도 47g는 90°에 있는 지문 축(4704)을 통해 지문(4710)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47g에서, 지문 센서(169)의 축에 대한 제1 지문(4710)의 각도는 0°이다.Figure 47g shows a first fingerprint 4710 of a first orientation over the fingerprint sensor 169 integrated into the home button 204 of the device 100. [ The fingerprint 4710 is, for example, the user's right thumb. Figure 47g shows the angle of the fingerprint 4710 through the fingerprint axis 4704 at 90 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47g, the angle of the first fingerprint 4710 with respect to the axis of the fingerprint sensor 169 is 0 [deg.].

도 47h는 지문 센서(169) 위에 있는 제2 배향의 제1 지문(4710)을 도시한다. 도 47h는 135°에 있는 지문 축(4704)을 통해 지문(4710)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47h에서, 지문 센서(169)의 축에 대한 제1 지문(4710)의 각도는 45°이다.47H shows the first fingerprint 4710 of the second orientation on the fingerprint sensor 169. Fig. Figure 47h shows the angle of the fingerprint 4710 through the fingerprint axis 4704 at 135 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47H, the angle of the first fingerprint 4710 with respect to the axis of the fingerprint sensor 169 is 45 [deg.].

도 47i는 지문 센서(169) 위에 있는 제 3 배향의 제1 지문(4710)을 도시한다. 도 47i는 180°에 있는 지문 축(4704)을 통해 지문(4710)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47i에서 지문 센서(169)의 축에 대한 제1 지문(4710)의 각도는 90°이다.47I shows the first fingerprint 4710 of the third orientation on the fingerprint sensor 169. Fig. Figure 47i shows the angle of the fingerprint 4710 through the fingerprint axis 4704 at 180 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47I, the angle of the first fingerprint 4710 with respect to the axis of the fingerprint sensor 169 is 90 [deg.].

도 47j 내지 도 47l은 화상 회의 또는 화상 채팅 모드(예를 들어, 애플, 인크.의 페이스타임 애플리케이션)에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 도 47j 내지 도 47l은 터치 스크린(112) 상에 화상 채팅 참여자를 표시하는 것을 도시한다. 또한, 터치 스크린(112)과 연관된 디바이스(100)의 측에 대해 비디오를 캡처할 수 있도록 된 전방 대면 카메라(도시되지 않음)가 사용자의 비디오를 캡처하여 채팅 참여자에게 비디오를 전송하도록 구성된다. 화상 채팅 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 마이크(113)를 통해 오디오를 캡처하고, (도시되지 않은) 전방 대면 카메라를 통해 비디오를 캡처하며, 스피커(111)를 통해 오디오를 생성한다. 도 47j 내지 도 47l은 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 간결성을 위해서 도 47j 내지 도 47l 사이의 차이점들만이 논의될 것이다.Figures 47J-47L illustrate a portable multifunction device 100 operating in a video conferencing or video chat mode (e.g., Apple, Inc.'s face-time application). Figures 47J-47L illustrate displaying a video chat participant on the touch screen 112. [ Also, a front-facing camera (not shown) adapted to capture video for the side of the device 100 associated with the touch screen 112 is configured to capture the video of the user and transmit the video to the chat participant. While in the video chat mode, the portable multifunction device 100 captures audio through the microphone 113, captures video through a front-facing camera (not shown), and generates audio through the speaker 111 . Figures 47J-47L are similar in all aspects except for the orientation of their fingerprints; Only the differences between Figures 47J-47L will be discussed for brevity.

도 47j는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169) 위에 있는 제1 배향의 제1 지문(4714)을 도시한다. 지문(4714)은 예를 들어 사용자의 오른손 엄지이다. 도 47j는 90°에 있는 지문 축(4704)을 통해 지문(4714)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47j에서, 지문 센서(169)의 축에 대한 제1 지문(4714)의 각도는 0°이다.Figure 47J shows the first fingerprint 4714 of the first orientation over the fingerprint sensor 169 integrated into the home button 204 of the device 100. [ The fingerprint 4714 is, for example, the user's right thumb. Figure 47j shows the angle of the fingerprint 4714 through the fingerprint axis 4704 at 90 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 47J, the angle of the first fingerprint 4714 with respect to the axis of the fingerprint sensor 169 is 0 DEG.

도 47k는 지문 센서(169) 위에 있는 제2 배향의 제2 지문(4716)을 도시한다. 지문(4716)은 예를 들어 사용자의 오른손 엄지이다. 도 47k는 135°에 있는 지문 축(4704)을 통해 지문(4716)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47k에서, 지문 센서(169)의 축에 대한 제2 지문(4716)의 각도는 45°이다.47K shows the second fingerprint 4716 of the second orientation over the fingerprint sensor 169. Fig. The fingerprint 4716 is, for example, the user's right thumb. 47K shows the angle of the fingerprint 4716 through the fingerprint axis 4704 at 135 DEG and the angle of the fingerprint sensor 169 via the fingerprint sensor axis 4706 at 90 DEG. 47K, the angle of the second fingerprint 4716 with respect to the axis of the fingerprint sensor 169 is 45 [deg.].

도 47l은 지문 센서(169) 위에 있는 제 3 배향의 제2 지문(4716)을 도시한다. 도 47l은 180°에 있는 지문 축(4704)을 통해 지문(4716)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47l에서, 지문 센서(169)의 축에 대한 제2 지문(4716)의 각도는 90°이다.471 shows the second fingerprint 4716 of the third orientation on the fingerprint sensor 169. Fig. Figure 471 shows the angle of the fingerprint 4716 through the fingerprint axis 4704 at 180 ° and the angle of the fingerprint sensor 169 through the fingerprint sensor axis 4706 at 90 °. 471, the angle of the second fingerprint 4716 with respect to the axis of the fingerprint sensor 169 is 90 [deg.].

도 48a 및 도 48b는 일부 실시예들에 따라 지문 배향에 기초해 빔포밍 파라미터들을 변경하는 방법(4800)을 예시하는 흐름도이다. 방법(4800)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(4800) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.48A and 48B are flow charts illustrating a method 4800 of changing beamforming parameters based on fingerprint orientation in accordance with some embodiments. The method 4800 is performed in an electronic device having a display and a touch-sensitive surface (e.g., the device 300 of FIG. 3 or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch-sensitive surface is on the display. In some embodiments, the display is separate from the touch-sensitive surface. Some of the operations in method 4800 are optionally combined and / or the order of some operations is selectively changed.

아래에 기술되는 바와 같이, 방법(4800)은 지문 배향에 기초해 빔포밍 파라미터들을 변경하기 위한 직관적인 방식을 제공한다. 이 방법은 빔포밍 파라미터들을 변경할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 사람-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 빔포밍 파라미터들을 지문 배향에 기초하여 더 빠르고 더 효율적으로 변경할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, method 4800 provides an intuitive way to alter beamforming parameters based on fingerprint orientation. This method reduces the cognitive burden on the user when changing beamforming parameters, thereby creating a more efficient human-machine interface. For battery-operated electronic devices, allowing a user to change beamforming parameters faster and more efficiently based on the fingerprint orientation preserves power and increases the time between battery charges.

제1 지문이 지문 센서 상에서 제1 배향으로 검출된 동안에, 디바이스는 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다(4802). 예를 들어, 도 47a는 지문 센서(169) 상에서 제1 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 0°)에 있는 제1 지문(4702)을 도시한다. 예를 들어, 도 47a는 제1 지문(4702)이 지문 센서 축(4706)에 대해 각도 0°에 있는 동안에 제1 세트의 빔포밍 파라미터들에 따라 스피커(111)(예를 들어, 한 세트의 디바이스(100)의 하나 이상의 오디오 요소들 중 하나)를 동작시키는 디바이스(100)를 도시한다.While the first fingerprint is detected in the first orientation on the fingerprint sensor, the device operates a set of one or more audio elements according to the first set of beamforming parameters (4802). For example, FIG. 47A shows a first fingerprint 4702 on a fingerprint sensor 169 in a first orientation (e.g., at an angle of 0 degrees with respect to the fingerprint sensor axis 4706). For example, FIG. 47A illustrates how the first fingerprint 4702 may be moved along the first set of beamforming parameters while the speaker 111 (e.g., one set of (E.g., one of the one or more audio elements of the device 100).

일부 실시예들에서, 한 세트의 하나 이상의 오디오 요소들은 복수의 스피커들을 포함한다(4804). 예를 들어, 빔포밍 파라미터들의 변화는 미리 정해진 위치에서, 미리 정해진 경로를 따라, 또는 스피커들에 대한 미리 정해진 구역 내에서 스피커들의 소리를 증폭시키는 보강 간섭을 생성하기 위해 스피커들에 의해 오디오가 생성되는 시기들을 변화시킨다. 예를 들어, 도 47a 내지 도 47c는 터치 스크린(112) 상에 표시된 미디어 플레이어(예를 들어, 애플, 인크.의 아이튠즈 애플리케이션)을 통해 사용자에 의해 선택된 오디오 파일 또는 스트리밍 오디오에 대응하는 소리를 생성하도록 스피커(111)(예를 들어, 복수의 스피커들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In some embodiments, a set of one or more audio elements includes a plurality of speakers (4804). For example, a change in the beamforming parameters may be generated by the speakers to produce a constructive interference that amplifies the sound of the loudspeakers in a predefined location, along a predefined path, or within a predetermined area for the loudspeakers Change the times when For example, Figures 47a-47c generate audio corresponding to an audio file or streaming audio selected by a user via a media player (e.g., Apple, Inc.'s iTunes application) displayed on the touch screen 112 Lt; / RTI &gt; illustrates a device 100 that operates a speaker 111 (e. G., One of a plurality of speakers)

일부 실시예들에서, 한 세트의 하나 이상의 오디오 요소들은 복수의 마이크들을 포함한다(4806). 예를 들어, 빔포밍 파라미터들의 변화는 미리 정해진 위치에서, 미리 정해진 경로를 따라, 또는 마이크에 대한 미리 정해진 구역 내로부터 마이크에 의해 수신되는 소리를 증폭시키는 보강 간섭을 생성하기 위해 마이크들에 의해 소리가 수신되는 시기들을 변화시킨다. 예를 들어, 도 47d 내지 도 47f는 (예를 들어 애플, 인크.의 메모 애플리케이션을 통한) 오디오 녹음 모드 동안에 소리를 캡처하도록 마이크(111)(예를 들어, 복수의 마이크들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In some embodiments, a set of one or more audio elements includes a plurality of microphones (4806). For example, a change in the beamforming parameters may be detected by microphones to produce constructive interference that amplifies the sound received by the microphone from a predetermined location, along a predefined path, or from within a predetermined area for the microphone Is changed. For example, Figures 47d-47f illustrate how to operate a microphone 111 (e.g., one of a plurality of microphones) to capture sound during an audio recording mode (e.g., via an Apple, Gt; 100 &lt; / RTI &gt;

일부 실시예들에서, 한 세트의 하나 이상의 오디오 요소들은 하나 이상의 마이크들 및 하나 이상의 스피커들을 포함한다(4808). 예를 들어, 도 47g 내지 도 47i는 스피커 폰 모드에 있는 동안에 소리를 생성하고 캡처하기 위해서 스피커(111)(예를 들어, 복수의 스피커들 중 하나) 및 마이크(113)(예를 들어, 복수의 마이크들 중 하나)를 동작시키는 디바이스(100)를 도시한다. 예를 들어, 도 47j 내지 도 47l은 (예를 들어, 애플, 인크.의 페이스타임 애플리케이션을 통한) 화상 채팅 모드에 있는 동안에 소리를 생성하기 위한 스피커(111)(예를 들어, 복수의 스피커들 중 하나) 및 소리를 캡처하기 위한 마이크(113)(예를 들어, 복수의 마이크들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In some embodiments, a set of one or more audio elements includes one or more microphones and one or more speakers (4808). For example, Figures 47g-47i illustrate a speaker 111 (e.g., one of a plurality of speakers) and a microphone 113 (e.g., a plurality of speakers) for generating and capturing sound while in speaker phone mode Lt; RTI ID = 0.0 &gt; 100 &lt; / RTI &gt; For example, Figures 47J-47L illustrate a speaker 111 (e.g., a plurality of speakers) for generating sound while in a video chat mode (e.g., via an Apple, And one or more microphones 113 (e.g., one of a plurality of microphones) for capturing sound.

디바이스는 지문 센서 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문을 검출하는데(4810), 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택된다.The device detects (4810) a subsequent fingerprint with a second orientation that is different from the first orientation on the fingerprint sensor, the subsequent fingerprint comprises a first fingerprint having a changed orientation and a second fingerprint distinct from the first fingerprint .

예를 들어, 도 47b는 지문 센서(169) 상에서 도 47a의 제1 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 0°)과는 상이한 제2 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 45°)을 갖는 후속의 지문(4702)을 검출하는 디바이스(100)를 도시한다. 도 47b의 다음 지문(4702)은 (예를 들어, 지문 센서 축(4706)에 대해 각도 0°인 것과는 대조적으로 각도 45°인) 변경된 배향을 갖는 도 47a의 제1 지문(4702)이다. 이 예에서, 후속의 지문(4702)은 사용자의 오른손 엄지이다. 그러나 일부 실시예들에 따르면, 후속의 지문(4702)은 (1) 도 47a의 제1 배향과 도 47b의 제2 배향 사이에서의 지문 센서(169)와의 사용자의 오른손 엄지의 연속적인 접촉, 또는 (2) 도 47a의 제1 배향을 갖는 사용자의 오른손 엄지의 검출 후에 사용자의 오른손 엄지를 들어올리고 도 47b의 제2 배향을 갖는 사용자의 오른손 엄지를 배치하는 두 가지 시나리오들 중 하나에 대응한다.For example, FIG. 47B shows a second orientation (e.g., a fingerprint sensor axis 4706) that is different from the first orientation of FIG. 47A (e.g., an angle of 0 degrees relative to the fingerprint sensor axis 4706) (E.g., an angle 45 [deg.] With respect to the finger 4706). The next fingerprint 4702 of Figure 47B is the first fingerprint 4702 of Figure 47A with an altered orientation (e.g., at an angle of 45 degrees, as opposed to being at an angle of 0 degrees relative to the fingerprint sensor axis 4706). In this example, the subsequent fingerprint 4702 is the user's right thumb. However, according to some embodiments, the subsequent fingerprint 4702 may be (1) a continuous contact of the user's right hand thumb with the fingerprint sensor 169 between the first orientation of FIG. 47A and the second orientation of FIG. 47B, or (2) corresponds to one of two scenarios of lifting the user's right-hand thumb after detection of the user's right-hand thumb with the first orientation of Figure 47a and placing the user's right-hand thumb with the second orientation of Figure 47b.

예를 들어, 도 47k는 지문 센서(169) 상에서 도 47j의 제1 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 0°)과는 상이한 제2 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 45°)을 갖는 후속의 지문(4716)을 검출하는 디바이스(100)를 도시한다. 도 47k의 후속의 지문(4716)은 도 47j의 제1 지문(4714)과는 별개인 제2 지문이다. 이러한 예에서, 도 47j의 지문 센서(169) 상에서 검출된 지문(4714)은 사용자의 오른손 엄지이며, 도 47k의 지문 센서(169) 상에서 검출된 지문(4716)은 사용자의 오른손 검지이다. 따라서 이러한 예에서, 도 47j에서 사용자의 오른손 엄지의 검출 후에, 사용자의 오른손 엄지가 지문 센서(169)로부터 들어올려지며, 후속하여 도 47k에서 사용자의 오른손 검지가 지문 센서(169) 상에서 검출된다.For example, FIG. 47K shows a second orientation (e.g., a fingerprint sensor axis 4706) that is different from the first orientation of FIG. 47j (e.g., an angle of 0 degrees relative to the fingerprint sensor axis 4706) (E.g., an angle 45 [deg.] With respect to the fingerprint sensor 4706). The subsequent fingerprint 4716 of Figure 47k is a second fingerprint that is separate from the first fingerprint 4714 of Figure 47j. In this example, the fingerprint 4714 detected on the fingerprint sensor 169 of Fig. 47J is the user's right hand thumb, and the fingerprint 4716 detected on the fingerprint sensor 169 of Fig. 47K is the user's right hand finger. Thus, in this example, after the detection of the user's right-hand thumb in Fig. 47J, the user's right-hand thumb is lifted from the fingerprint sensor 169 and subsequently the user's right-hand finger detection is detected on the fingerprint sensor 169 in Fig.

지문 센서 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 디바이스는 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다(4812). 일부 실시예들에서, 빔포밍 파라미터들의 변화는 오디오 요소들의 유효 범위를 확대시키기 위해 복수의 오디오 요소들(예를 들어, 스피커들 또는 마이크들)에 의해 수신된/생성된 오디오의 보강 간섭을 변화시킨다. 예를 들어, 도 47b는 지문 센서(169) 상에서 제2 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 45°)을 갖는 후속의 지문(4702)을 도시한다. 예를 들어, 도 47b는 후속의 지문(4702)이 지문 센서 축(4706)에 대해 45°에 있는 동안에 제2 세트의 빔포밍 파라미터들에 따라 스피커(111)(예를 들어, 디바이스(100)의 한 세트의 하나 이상의 오디오 요소들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor, the device operates a set of one or more audio elements according to a second set of beamforming parameters different from the first set of beamforming parameters 4812). In some embodiments, a change in the beamforming parameters may change the constructive interference of the audio received / generated by the plurality of audio elements (e.g., speakers or microphones) to widen the effective range of the audio elements . For example, FIG. 47B shows a subsequent fingerprint 4702 having a second orientation (e.g., an angle of 45 degrees with respect to fingerprint sensor axis 4706) on fingerprint sensor 169. For example, FIG. 47B illustrates how the speaker 111 (e.g., device 100) may be moved in accordance with a second set of beamforming parameters while a subsequent fingerprint 4702 is at 45 degrees relative to the fingerprint sensor axis 4706. [ (E.g., one of a set of one or more audio elements).

일부 실시예들에서, 지문 센서 상에서 지문의 배향의 변화를 검출하는 것에 응답하여, 디바이스는 대응하는 지문 배향들과 연관된 복수의 세트들의 미리 정해진 빔포밍 파라미터들로부터 제2 세트의 빔포밍 파라미터들을 선택한다(4814). 예를 들어, 제1 세트의 빔포밍 파라미터들은 지문 센서 상에서 지문이 0°에 있는 상황들에 대해 최적화되고(예를 들어, 지문의 축이 지문 센서의 미리 정해진 축과 정렬됨), 제2 세트의 빔포밍 파라미터들은 지문의 각도가 지문 센서 상에서 지문 센서의 미리 정해진 축에 대해 90°인 상황들 등에 대해 최적화된다. 일부 실시예들에서, 빔포밍 파라미터들이 디바이스에 저장되고, 빔포밍 파라미터들은 배향에서의 변화를 검출하는 것에 응답하여 저장장치로부터 검색된다. 일부 실시예들에서, 빔포밍 파라미터들은 필요한 대로 디바이스에 의해 생성된다. 일부 실시예들에서, 복수의 세트들의 미리 정해진 빔포밍 파라미터들은 15°, 30°, 또는 45°와 같이 규칙적으로 이격된 간격들을 갖는 지문 배향들에 대응한다. 예를 들어, 지문 센서의 미리 정해진 축에 대한 지문 센서 상에서의 지문의 각도가 45°일 때, 디바이스는 지문 센서 상에서의 지문의 각도에 따라 상이한 세트들의 기준 빔포밍 파라미터들(예를 들어, 한 세트의 30° 빔포밍 파라미터들 및 한 세트의 60° 빔포밍 파라미터들)로부터의 기여들을 조합한다.In some embodiments, in response to detecting a change in the orientation of the fingerprint on the fingerprint sensor, the device selects a second set of beamforming parameters from a plurality of sets of predetermined beamforming parameters associated with corresponding fingerprint orientations (4814). For example, the first set of beamforming parameters may be optimized for situations where the fingerprint is at 0 [deg.] On the fingerprint sensor (e.g., the axis of the fingerprint is aligned with a predetermined axis of the fingerprint sensor) The beamforming parameters of the fingerprint sensor are optimized for situations such that the angle of the fingerprint is 90 degrees with respect to the predetermined axis of the fingerprint sensor on the fingerprint sensor. In some embodiments, beamforming parameters are stored in the device and beamforming parameters are retrieved from the storage device in response to detecting a change in orientation. In some embodiments, the beamforming parameters are generated by the device as needed. In some embodiments, the predetermined beamforming parameters of the plurality of sets correspond to fingerprint orientations having regularly spaced intervals, such as 15 [deg.], 30 [deg.], Or 45 [deg.]. For example, when the angle of the fingerprint on the fingerprint sensor for a predetermined axis of the fingerprint sensor is 45 [deg.], The device may determine different sets of reference beamforming parameters (e.g., &Lt; / RTI &gt; 30 &lt; RTI ID = 0.0 &gt; beamforming &lt; / RTI &gt; parameters and a set of 60 beamforming parameters).

일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 디바이스의 오디오 요소들에 대한 디바이스의 사용자의 입의 위치에서 있을 수 있는 변화(4818)를 보상한다(4816)(예를 들어, 빔포밍의 변화는 사용자로부터의 소리를 보다 효율적으로 캡처함). 예를 들어, 도 47d 내지 도 47f는 지문 센서(169) 상에서의 지문의 배향의 변화에 따라 빔포밍 파라미터들을 변화시킴으로써 소리 녹음 모드에서 소리를 캡처하는 동안에 마이크(113)에 대한 디바이스(100)의 사용자의 입의 위치에서 있을 수 있는 변화를 보상하는 디바이스(100)를 도시한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters is a change 4818 that may be at the user &apos; s mouth position of the device for the audio elements of the device Compensate 4816 (e.g., change in beamforming captures sound from the user more efficiently). For example, Figures 47d-47f illustrate how the device 100 relative to the microphone 113, while capturing sound in the sound recording mode, by changing the beamforming parameters in accordance with changes in the orientation of the fingerprint on the fingerprint sensor 169 Lt; RTI ID = 0.0 &gt; 100 &lt; / RTI &gt;

일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 디바이스의 오디오 요소들에 대한 디바이스의 사용자의 귀의 위치에서 있을 수 있는 변화(4820)를 보상한다(4816)(예를 들어, 빔포밍의 변화는 사용자에게 소리를 보다 효율적으로 전달함). 예를 들어, 도 47a 내지 도 47c는 지문 센서(169) 상에서의 지문의 배향의 변화에 따라 빔포밍 파라미터들을 변화시킴으로써 미디어 재생 모드에서 소리를 생성하는 동안에 스피커(111)에 대한 디바이스(100)의 사용자의 귀의 위치에서 있을 수 있는 변화를 보상하는 디바이스(100)를 도시한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters may be compensated for a change 4820 that may be at the user &apos; s ear position with respect to the audio elements of the device. (E. G., A change in beamforming propagates sound to the user more efficiently). For example, FIGS. 47A-47C illustrate the effect of changing the orientation of the fingerprint on the device 100 relative to the speaker 111 while generating sound in the media playback mode by varying the beam- Lt; RTI ID = 0.0 &gt; 100 &lt; / RTI &gt;

일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 디바이스의 오디오 요소들에 대한 디바이스 사용자의 손의 위치에서 있을 수 있는 변화(4822)를 보상한다(4816)(예를 들어, 손이 오디오 요소들과 사용자의 손/귀 사이의 경로를 적어도 부분적으로 차단할 가능성이 있다면, 빔포밍의 변화는 사용자로부터의 소리를 보다 효율적으로 캡처하고/하거나 사용자에게 소리를 보다 효율적으로 전달함). 예를 들어, 도 47g 내지 도 47i는 지문 센서(169) 상에서의 지문의 배향의 변화에 따라 빔포밍 파라미터들을 변화시킴으로써 스피커 폰 모드에서 소리를 생성 및 캡처하는 동안에 스피커(111) 및 마이크(113)에 대한 디바이스(100)의 사용자의 손의 위치에서 있을 수 있는 변화를 보상하는 디바이스(100)를 도시한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a change 4822 that may be at the location of the device user's hand with respect to the audio elements of the device (For example, if the hand is likely to at least partially block the path between the audio elements and the user's hand / ear, the change in beamforming may result in a more efficient capture of the sound from the user and / To deliver sound more efficiently). For example, Figures 47g-47i illustrate how the speaker 111 and microphone 113 may be used to generate and capture sound in the speakerphone mode by varying the beamforming parameters in accordance with changes in the orientation of the fingerprint on the fingerprint sensor 169. [ Figure 1 illustrates a device 100 that compensates for possible changes in the position of the user's hand of the device 100 with respect to the user.

도 48a 및 도 48b의 동작들이 기술된 특정한 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 48a 및 도 48b와 관련하여 전술된 방법(4800)에 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(4800)과 관련하여 전술된 지문들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항들은 여기서 반복되지 않는다.It should be understood that the particular order in which the operations of FIGS. 48A and 48B are described is exemplary only, and it is understood that the sequences described are not intended to represent that they are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that other methods described herein (e.g., methods described in the second paragraph within " The details of the processes It should also be noted that it is also applicable in a similar manner to the method 4800 described above with respect to Figures 48A and 48B. For example, the fingerprints described above in connection with method 4800 may optionally be associated with other methods described herein (e. G., Methods listed in the second paragraph within " And one or more features of the fingerprints described herein. For brevity, these details are not repeated here.

일부 실시예들에 따르면, 도 49는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4900)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 49에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, Figure 49 illustrates a functional block diagram of an electronic device 4900 configured in accordance with the principles of the various embodiments described. The functional blocks of the device are implemented by hardware, software, or a combination of hardware and software to selectively implement the principles of the various embodiments described. It will be understood by those skilled in the art that the functional blocks depicted in Figure 49 may be selectively combined or separated into sub-blocks to implement the principles of the various embodiments described. Accordingly, the description herein selectively supports any possible combination or separation or additional limitation of the functional blocks described herein.

도 49에 도시된 바와 같이, 전자 디바이스(4900)는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛(4902); 지문 센서 유닛(4904); 오디오 신호들을 생성 및/또는 캡처하도록 구성된 한 세트의 하나 이상의 오디오 유닛들(4906); 및 디스플레이 유닛(4902), 지문 센서 유닛(4904) 및 한 세트의 하나 이상의 오디오 유닛(4906)들에 결합된 프로세싱 유닛(4908)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4908)은 동작 유닛(4910), 검출 유닛(4912) 및 선택 유닛(4914)을 포함한다.As shown in Figure 49, the electronic device 4900 includes a display unit 4902 configured to display one or more user interface objects; A fingerprint sensor unit 4904; A set of one or more audio units (4906) configured to generate and / or capture audio signals; And a processing unit 4908 coupled to a display unit 4902, a fingerprint sensor unit 4904 and a set of one or more audio units 4906. In some embodiments, the processing unit 4908 includes an operation unit 4910, a detection unit 4912, and a selection unit 4914.

(예를 들어, 검출 유닛(4912)을 이용하여) 제1 지문이 지문 센서 유닛(4904) 상에서 제1 배향으로 검출되는 동안에, 프로세싱 유닛(4908)은 제1 세트의 빔포밍 파라미터들을 따라 (예를 들어, 동작 유닛(4910)을 이용하여) 한 세트의 하나 이상의 오디오 유닛(4906)들을 동작시키도록 구성된다. 프로세싱 유닛(4908)은 (예를 들어, 검출 유닛(4912)을 이용하여) 지문 센서 유닛(4904) 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문 - 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택됨 - 을 검출하고; 지문 센서 유닛(4904) 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, (예를 들어, 동작 유닛(4910)을 이용하여) 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 유닛(4906)들을 동작시키도록 추가로 구성된다.While the first fingerprint is detected in the first orientation on the fingerprint sensor unit 4904 (e.g., using the detection unit 4912), the processing unit 4908 may detect the first fingerprint in accordance with the first set of beamforming parameters (e.g., (E.g., using an operation unit 4910) to operate a set of one or more audio units 4906. The processing unit 4908 may determine that the subsequent fingerprint-subsequent fingerprint with a second orientation that is different from the first orientation on the fingerprint sensor unit 4904 (e.g., using the detection unit 4912) A first fingerprint and a second fingerprint that is separate from the first fingerprint; In response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor unit 4904, a second set of beams (e.g., using operational unit 4910) that is different from the first set of beamforming parameters And is further configured to operate a set of one or more audio units 4906 according to the shaping parameters.

일부 실시예들에서, 한 세트의 하나 이상의 오디오 유닛(4906)들은 복수의 스피커들을 포함한다. 일부 실시예들에서, 한 세트의 하나 이상의 오디오 유닛(4906)들은 복수의 마이크들을 포함한다. 일부 실시예들에서, 한 세트의 하나 이상의 오디오 유닛(4906)들은 하나 이상의 마이크들 및 하나 이상의 스피커들을 포함한다.In some embodiments, a set of one or more audio units 4906 includes a plurality of speakers. In some embodiments, a set of one or more audio units 4906 includes a plurality of microphones. In some embodiments, a set of one or more audio units 4906 includes one or more microphones and one or more speakers.

일부 실시예들에서, 프로세싱 유닛(4908)은 (예를 들어, 검출 유닛(4912)을 이용하여) 지문 센서 유닛(4904) 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여 (예를 들어, 선택 유닛(4914)을 이용하여) 대응하는 지문 배향들과 연관된 복수의 세트들의 미리 정해진 빔포밍 파라미터들로부터 제2 세트의 빔포밍 파라미터들을 선택하도록 추가로 구성된다.In some embodiments, the processing unit 4908 may be configured to detect a fingerprint in response to detecting a subsequent fingerprint having a second orientation on the fingerprint sensor unit 4904 (e.g., using the detection unit 4912) (Using the selection unit 4914) to select a second set of beamforming parameters from a plurality of sets of predetermined beamforming parameters associated with corresponding fingerprint orientations.

일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 하나 이상의 오디오 유닛(4906)들에 대한 디바이스 사용자의 입의 위치에서 있을 수 있는 변화를 보상한다. 일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 하나 이상의 오디오 유닛(4906)들에 대한 디바이스 사용자의 귀의 위치에서 있을 수 있는 변화를 보상한다. 일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 하나 이상의 오디오 유닛(4906)들에 대한 디바이스 사용자의 손의 위치에서 있을 수 있는 변화를 보상한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a change in the position of the mouth of the device user relative to the one or more audio units 4906 do. In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a possible change in the position of the ear of the device user relative to the one or more audio units 4906 . In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a change that may be at the location of the device user's hand relative to the one or more audio units 4906 do.

전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.

도 48a 및 도 48b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 49에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 작동 동작(4802, 4812), 검출 동작(4810) 및 선택 동작(4814)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with reference to Figures 48A and 48B are optionally implemented by the components shown in Figures 1A and 1B or 49. [ For example, operation operations 4802 and 4812, detection operation 4810 and selection operation 4814 are optionally implemented by event classifier 170, event recognizer 180, and event handler 190. The event monitor 171 in the event classifier 170 detects contact on the touch-sensitive display 112 and the event dispatcher module 174 delivers event information to the application 136-1. The respective event recognizer 180 of the application 136-1 compares the event information with the respective event definitions 186 and determines whether the first contact at the first location on the touch- To the same predetermined event or sub-event. If each predetermined event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally utilizes or invokes data updater 176 or object updater 177 to update application internal state 192. [ In some embodiments, the event handler 190 accesses its GUI updater 178 to update what is displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components shown in Figures 1A and 1B.

상기의 기술된 내용은 설명을 위해 특정 실시예들을 참조하여 설명되었다. 그러나, 상기의 예시적인 논의들은 본 발명을 망라하거나 개시된 정확한 형태들로 제한하려는 의도는 아니다. 많은 수정들 및 변형들이 상기 교시 내용들의 관점에서 가능하다. 본 발명의 원리 및 그의 실제적인 응용을 가장 잘 설명하여서 다른 당업자들이 본 발명을 다양한 기술된 실시예에서 그리고 고려되는 특정 용도에 적합한 바와 같은 다양한 변형을 갖고서 가장 잘 사용하는 것을 가능하게 하도록 실시예들이 선택 및 설명되었다.The above description has been described with reference to specific embodiments for purposes of illustration. It should be understood, however, that the foregoing illustrative discussion is not intended to limit the invention to the precise forms disclosed, Many modifications and variations are possible in light of the above teachings. It will be apparent to those skilled in the art that, in order to best explain the principles of the invention and its practical application, it will be apparent to one of ordinary skill in the art that various modifications may be made to the embodiments to enable others skilled in the art to best utilize the invention with various modifications as are suited to the particular use Selected and described.

Claims (464)

지문 센서 및 디스플레이를 갖는 전자 디바이스에 의해 수행되는 방법으로서,
상기 디바이스는 버튼을 포함하고,
상기 지문 센서는 상기 버튼 내로 통합되며,
상기 방법은,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하는 단계;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하는 단계;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계, 및
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하는 단계;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하는 단계; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하는 단계를 포함하는, 방법.
A method performed by an electronic device having a fingerprint sensor and a display,
The device comprising a button,
Wherein the fingerprint sensor is integrated into the button,
The method comprises:
Displaying a first user interface on the display;
Detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction, and
Displaying a second user interface different from the first user interface on the display in accordance with the determination that movement of the fingerprint is in a second direction different from the first direction;
Detecting activation of the button while the first user interface is being displayed; And
Responsive to detecting activation of the button, replacing the first user interface with a predetermined user interface associated with activation of the button.
제1항에 있어서, 상기 제1 방향은 상기 제2 방향에 수직인, 방법.2. The method of claim 1, wherein the first direction is perpendicular to the second direction. 제1항에 있어서,
상기 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고,
상기 제2 사용자 인터페이스는 복수의 동시에 열린 애플리케이션들의 표현들을 포함하는 멀티태스킹 사용자 인터페이스인, 방법.
The method according to claim 1,
Wherein the first user interface is a user interface of the first application,
Wherein the second user interface is a multitasking user interface comprising representations of a plurality of simultaneously open applications.
제1항에 있어서,
상기 지문의 이동이 상기 제2 방향으로 있다는 결정에 따라 상기 제2 사용자 인터페이스를 표시하는 동안에, 상기 제1 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 단계; 및
상기 제1 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여, 상기 제2 사용자 인터페이스를 통해 내비게이션하는 단계를 포함하는, 방법.
The method according to claim 1,
Detecting movement of the fingerprint on the fingerprint sensor in the first direction while displaying the second user interface in accordance with the determination that movement of the fingerprint is in the second direction; And
And navigating through the second user interface in response to detecting movement of the fingerprint on the fingerprint sensor in the first direction.
제1항에 있어서,
상기 지문의 이동이 상기 제2 방향으로 있다는 결정에 따라 상기 제2 사용자 인터페이스를 표시하는 동안에, 제3 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 단계; 및
상기 제3 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여, 상기 제2 사용자 인터페이스를 표시하는 것을 중단하는 단계를 포함하는, 방법.
The method according to claim 1,
Detecting movement of the fingerprint on the fingerprint sensor in a third direction while displaying the second user interface in accordance with the determination that movement of the fingerprint is in the second direction; And
And stopping displaying the second user interface in response to detecting movement of the fingerprint on the fingerprint sensor in the third direction.
제1항에 있어서, 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계는 상기 지문 센서 상에서의 상기 지문의 변위에 따라 일정 속도로 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계를 포함하는, 방법.The method of claim 1, wherein navigating through the first user interface comprises navigating through the first user interface at a constant rate in response to displacement of the fingerprint on the fingerprint sensor. 제1항에 있어서, 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계는 상기 지문 센서 상에서의 상기 지문의 변위에 따라 결정된 양만큼 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계를 포함하는, 방법.2. The method of claim 1, wherein navigating through the first user interface comprises navigating through the first user interface by an amount determined by the displacement of the fingerprint on the fingerprint sensor. 제1항에 있어서, 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계는 상기 지문 센서 상에서의 상기 지문의 이동 방향에 따라 결정된 방향으로 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계를 포함하는, 방법.2. The method of claim 1, wherein navigating through the first user interface comprises navigating through the first user interface in a direction determined by the direction of movement of the fingerprint on the fingerprint sensor. 제1항에 있어서,
상기 제2 사용자 인터페이스를 표시하는 단계는 상기 디스플레이 상에 나타나는 상기 제2 사용자 인터페이스의 애니메이션화 천이(animated transition)를 표시하는 단계를 포함하고,
상기 애니메이션화 천이의 속도는 상기 지문 센서 상에서의 상기 지문의 변위에 기초하는, 방법.
The method according to claim 1,
Wherein displaying the second user interface comprises displaying an animated transition of the second user interface appearing on the display,
Wherein the rate of the animated transition is based on a displacement of the fingerprint on the fingerprint sensor.
제1항에 있어서, 상기 지문 센서는 상기 디스플레이와는 별개인, 방법.2. The method of claim 1, wherein the fingerprint sensor is separate from the display. 제1항에 있어서,
상기 디바이스는 터치-감응 표면(touch-sensitive surface)을 포함하고,
상기 지문 센서는 상기 터치-감응 표면과는 별개인, 방법.
The method according to claim 1,
The device includes a touch-sensitive surface,
Wherein the fingerprint sensor is separate from the touch-sensitive surface.
삭제delete 삭제delete 제1항에 있어서,
상기 제2 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하는 단계; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제2 사용자 인터페이스를 표시하는 것을 중단시키는 단계를 포함하는, 방법.
The method according to claim 1,
Detecting activation of the button while the second user interface is being displayed; And
In response to detecting activation of the button, stopping displaying the second user interface.
제1항에 있어서,
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 이중 활성화를 검출하는 단계; 및
상기 버튼의 이중 활성화를 검출하는 것에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스를 표시하는 단계를 포함하는, 방법.
The method according to claim 1,
Detecting a dual activation of the button while the first user interface is being displayed; And
Responsive to detecting a dual activation of the button, displaying the second user interface on the display.
전자 디바이스로서,
디스플레이;
지문 센서;
하나 이상의 프로세서들;
메모리;
버튼 - 상기 지문 센서는 상기 버튼 내로 통합됨 -; 및
상기 메모리에 저장되고 상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하며,
상기 하나 이상의 프로그램들은,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하기 위한 명령어;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하기 위한 명령어;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하기 위한 명령어, 및
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하기 위한 명령어;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하기 위한 명령어; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하기 위한 명령어
를 포함하는, 전자 디바이스.
As an electronic device,
display;
Fingerprint sensor;
One or more processors;
Memory;
Button; said fingerprint sensor integrated into said button; And
And one or more programs stored in the memory and configured to be executed by the one or more processors,
The one or more programs,
Instructions for displaying a first user interface on the display;
Instructions for detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Instructions for navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction, and
Displaying a second user interface different from the first user interface on the display in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction;
Instructions for detecting activation of the button while the first user interface is being displayed; And
In response to detecting activation of the button, replacing the first user interface with a predetermined user interface associated with activation of the button
.
하나 이상의 프로그램들을 저장하는 컴퓨터 판독가능 저장 매체로서,
상기 하나 이상의 프로그램들은, 디스플레이 및 지문 센서를 갖는 전자 디바이스에 의해 실행될 때, 상기 디바이스로 하여금 - 상기 디바이스는 버튼을 포함하고, 상기 지문 센서는 상기 버튼 내로 통합됨 -,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하게 하고;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하게 하고;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하게 하고,
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하게 하고,
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하게 하고; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하게 하는
명령어들을 포함하는, 컴퓨터 판독가능 저장 매체.
A computer-readable storage medium storing one or more programs,
Wherein the one or more programs, when executed by an electronic device having a display and a fingerprint sensor, cause the device to: - the device includes a button,
Display a first user interface on the display;
Detect movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Allowing navigation through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction,
Display a second user interface different from the first user interface on the display in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction,
Detect activation of the button while the first user interface is being displayed; And
In response to detecting activation of the button, causing the first user interface to replace a predetermined user interface associated with activating the button
&Lt; / RTI &gt; instructions.
전자 디바이스로서,
디스플레이;
지문 센서;
버튼 - 상기 지문 센서는 상기 버튼 내로 통합됨 -; 및
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하기 위한 수단;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하기 위한 수단;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하고,
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하기 위한 수단;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하기 위한 수단; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하기 위한 수단
을 포함하는, 전자 디바이스.
As an electronic device,
display;
Fingerprint sensor;
Button; said fingerprint sensor integrated into said button; And
Means for displaying a first user interface on the display;
Means for detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction,
Means for displaying a second user interface different from the first user interface on the display, in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction;
Means for detecting activation of the button while the first user interface is being displayed; And
Means for replacing the first user interface with a predetermined user interface associated with activation of the button in response to detecting activation of the button;
.
디스플레이 및 지문 센서를 갖는 전자 디바이스에 사용하기 위한 정보 프로세싱 장치로서,
상기 디바이스는 버튼을 포함하고,
상기 지문 센서는 상기 버튼 내로 통합되며,
상기 정보 프로세싱 장치는,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하기 위한 수단;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하기 위한 수단;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하고,
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하기 위한 수단;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하기 위한 수단; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하기 위한 수단
을 포함하는, 정보 프로세싱 장치.
An information processing apparatus for use in an electronic device having a display and a fingerprint sensor,
The device comprising a button,
Wherein the fingerprint sensor is integrated into the button,
The information processing apparatus includes:
Means for displaying a first user interface on the display;
Means for detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction,
Means for displaying a second user interface different from the first user interface on the display, in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction;
Means for detecting activation of the button while the first user interface is being displayed; And
Means for replacing the first user interface with a predetermined user interface associated with activation of the button in response to detecting activation of the button;
Gt; information processing apparatus.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020147035557A 2012-05-18 2013-05-20 Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs Active KR101710771B1 (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261649207P 2012-05-18 2012-05-18
US61/649,207 2012-05-18
US201261667926P 2012-07-03 2012-07-03
US61/667,926 2012-07-03
US201361794710P 2013-03-15 2013-03-15
US61/794,710 2013-03-15
PCT/US2013/041868 WO2013173838A2 (en) 2012-05-18 2013-05-20 Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs

Publications (2)

Publication Number Publication Date
KR20150021943A KR20150021943A (en) 2015-03-03
KR101710771B1 true KR101710771B1 (en) 2017-02-27

Family

ID=48576561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147035557A Active KR101710771B1 (en) 2012-05-18 2013-05-20 Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs

Country Status (9)

Country Link
US (3) US11209961B2 (en)
EP (1) EP2850510A2 (en)
JP (4) JP6023879B2 (en)
KR (1) KR101710771B1 (en)
CN (4) CN111176516B (en)
AU (4) AU2013262488A1 (en)
BR (1) BR112014028774B1 (en)
HK (1) HK1206452A1 (en)
WO (1) WO2013173838A2 (en)

Families Citing this family (398)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0740065B2 (en) 1989-11-18 1995-05-01 防衛庁技術研究本部長 Towed wave receiving method of wire-guided torpedo
JP2000501033A (en) * 1995-11-30 2000-02-02 ヴァーチャル テクノロジーズ インコーポレイテッド Human / machine interface with tactile feedback
JP2010541046A (en) 2007-09-24 2010-12-24 アップル インコーポレイテッド Authentication system built into electronic devices
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
USD852838S1 (en) 2009-08-19 2019-07-02 Fadi Ibsies Display screen with transitional graphical user interface for dental software
US10251735B2 (en) 2009-08-19 2019-04-09 Fadi Ibsies Specialized keyboard for dental examinations
USD775655S1 (en) * 2009-08-19 2017-01-03 Fadi Ibsies Display screen with graphical user interface for dental software
US10254852B2 (en) 2009-08-19 2019-04-09 Fadi Ibsies Specialized keyboard for dental examinations
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
US8917632B2 (en) 2010-04-07 2014-12-23 Apple Inc. Different rate controller configurations for different cameras of a mobile device
US8626530B1 (en) * 2010-08-27 2014-01-07 Walgreen Co. System and method for express refill
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US10275153B2 (en) * 2011-05-19 2019-04-30 Will John Temple Multidirectional button, key, and keyboard
KR102023801B1 (en) 2011-06-05 2019-09-20 애플 인크. Systems and methods for displaying notifications received from multiple applications
US11165963B2 (en) 2011-06-05 2021-11-02 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9268991B2 (en) * 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
CN108052264B (en) 2012-05-09 2021-04-27 苹果公司 Device, method and graphical user interface for moving and placing user interface objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN106201316B (en) 2012-05-09 2020-09-29 苹果公司 Apparatus, method and graphical user interface for selecting user interface objects
EP3185116B1 (en) 2012-05-09 2019-09-11 Apple Inc. Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6002836B2 (en) 2012-05-09 2016-10-05 アップル インコーポレイテッド Device, method, and graphical user interface for transitioning between display states in response to a gesture
CN105260049B (en) 2012-05-09 2018-10-23 苹果公司 For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
CN111176516B (en) 2012-05-18 2023-10-20 苹果公司 Apparatus, method and graphical user interface for manipulating a user interface
DE112013005988B4 (en) 2012-12-14 2023-09-21 Apple Inc. Force detection through changes in capacity
US10817096B2 (en) 2014-02-06 2020-10-27 Apple Inc. Force sensor incorporated into display
KR101435482B1 (en) * 2012-12-17 2014-08-28 크루셜텍 (주) Method, apparatus and computer-readable recording medium for running a program using recognizing fingerprint
TWI540492B (en) * 2012-12-20 2016-07-01 晨星半導體股份有限公司 Electronic device and electronic device controlling method
KR101958517B1 (en) 2012-12-29 2019-03-14 애플 인크. Device, method, and graphical user interface for transitioning between touch input to display output relationships
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
AU2013368445B8 (en) 2012-12-29 2017-02-09 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select contents
CN104903835B (en) 2012-12-29 2018-05-04 苹果公司 For abandoning equipment, method and the graphic user interface of generation tactile output for more contact gestures
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR102301592B1 (en) 2012-12-29 2021-09-10 애플 인크. Device, method, and graphical user interface for navigating user interface hierachies
KR101755625B1 (en) * 2013-01-07 2017-07-07 삼성전자주식회사 Display apparatus, method for ui display thereof and computer-readable recording medium
KR101713784B1 (en) * 2013-01-07 2017-03-08 삼성전자주식회사 Electronic apparatus and Method for controlling electronic apparatus thereof
KR20150113169A (en) 2013-02-08 2015-10-07 애플 인크. Force determination based on capacitive sensing
US9298361B2 (en) 2013-03-15 2016-03-29 Apple Inc. Analyzing applications for different access modes
US9851828B2 (en) 2013-03-15 2017-12-26 Apple Inc. Touch force deflection sensor
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
WO2014157897A1 (en) * 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for switching tasks
US10229258B2 (en) * 2013-03-27 2019-03-12 Samsung Electronics Co., Ltd. Method and device for providing security content
US20140359757A1 (en) * 2013-06-03 2014-12-04 Qualcomm Incorporated User authentication biometrics in mobile devices
FI20135621A7 (en) * 2013-06-04 2014-12-05 Berggram Dev Oy Grid based user interface for chord presentation on a touch screen device
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US20140380198A1 (en) * 2013-06-24 2014-12-25 Xiaomi Inc. Method, device, and terminal apparatus for processing session based on gesture
US9846526B2 (en) * 2013-06-28 2017-12-19 Verizon and Redbox Digital Entertainment Services, LLC Multi-user collaboration tracking methods and systems
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
US11726631B2 (en) * 2013-08-24 2023-08-15 Tara Chand Singhal Apparatus and method for a simplified menu screen in handheld mobile wireless devices
CN104461335A (en) * 2013-09-25 2015-03-25 联想(北京)有限公司 Data processing method and electronic instrument
US10236760B2 (en) 2013-09-30 2019-03-19 Apple Inc. Magnetic actuators for haptic response
US20150127505A1 (en) * 2013-10-11 2015-05-07 Capital One Financial Corporation System and method for generating and transforming data presentation
WO2015057211A1 (en) * 2013-10-16 2015-04-23 Empire Technology Development, Llc Control redistribution among multiple devices
KR102158211B1 (en) * 2013-10-18 2020-09-22 엘지전자 주식회사 The mobile terminal and the control method thereof
US10586028B2 (en) * 2013-10-21 2020-03-10 Purdue Research Foundation Customized biometric data capture for improved security
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
KR102217858B1 (en) * 2013-11-13 2021-02-19 삼성전자주식회사 Method for fingerprint authentication, fingerprint authentication device, and mobile terminal performing thereof
US12080421B2 (en) 2013-12-04 2024-09-03 Apple Inc. Wellness aggregator
US20160019360A1 (en) 2013-12-04 2016-01-21 Apple Inc. Wellness aggregator
US10276001B2 (en) 2013-12-10 2019-04-30 Apple Inc. Band attachment mechanism with haptic response
US9705676B2 (en) * 2013-12-12 2017-07-11 International Business Machines Corporation Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management
USD755809S1 (en) * 2013-12-30 2016-05-10 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US9536130B2 (en) * 2013-12-30 2017-01-03 Google Technology Holdings LLC Electronic device with a fingerprint reader and method for operating the same
TWI539318B (en) * 2013-12-31 2016-06-21 茂丞科技股份有限公司 Electronic device with multi-function sensor and method of operating such device
US20150202533A1 (en) * 2014-01-21 2015-07-23 Nvidia Corporation Mapping touchscreen gestures to ergonomic controls across application scenes
KR102187219B1 (en) * 2014-01-22 2020-12-04 삼성전자주식회사 Electronic device and method for providing control function using fingerprint sensor
US20150205464A1 (en) * 2014-01-22 2015-07-23 Microsoft Corporation Updating a user interface to a service
EP3072040B1 (en) 2014-02-12 2021-12-29 Apple Inc. Force determination employing sheet sensor and capacitive array
KR102177150B1 (en) * 2014-02-19 2020-11-10 삼성전자 주식회사 Apparatus and method for recognizing a fingerprint
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
US9122349B1 (en) 2014-03-19 2015-09-01 Bidirectional Display Inc. Image sensor panel and method for capturing graphical information using same
WO2015143011A1 (en) 2014-03-19 2015-09-24 Bidirectional Display Inc. Image sensor panel and method for capturing graphical information using same
JP5926788B2 (en) * 2014-04-03 2016-05-25 神盾股▲ふん▼有限公司 TFT fingerprint sensor device and method
US10545604B2 (en) 2014-04-21 2020-01-28 Apple Inc. Apportionment of forces for multi-touch input devices of electronic devices
US10198123B2 (en) 2014-04-21 2019-02-05 Apple Inc. Mitigating noise in capacitive sensor
US10845982B2 (en) * 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
US10064060B2 (en) * 2014-05-05 2018-08-28 Apple Inc. Fingerprint activation of a panic mode of operation for a mobile device
US9990483B2 (en) 2014-05-07 2018-06-05 Qualcomm Incorporated Dynamic activation of user profiles based on biometric identification
CN105303372B (en) * 2014-05-29 2022-08-09 苹果公司 User interface for payments
AU2015267671B2 (en) 2014-05-30 2018-04-19 Apple Inc. Transition from use of one device to another
US9967401B2 (en) 2014-05-30 2018-05-08 Apple Inc. User interface for phone call routing among devices
US9811707B2 (en) * 2014-06-04 2017-11-07 Lenovo (Singapore) Pte. Ltd. Fingerprint reader on a portion of a device for changing the configuration of the device
TWD175539S (en) * 2014-06-06 2016-05-11 樂視移動智慧資訊技術(北京)有限公司; Display screen graphical user interface
TWD175824S (en) * 2014-06-06 2016-05-21 樂視網信息技術(北京)股份有限公司; Display screen graphical user interface
US10867149B2 (en) * 2014-06-12 2020-12-15 Verizon Media Inc. User identification through an external device on a per touch basis on touch sensitive devices
CN105260043A (en) * 2014-06-13 2016-01-20 宸鸿科技(厦门)有限公司 Touch panel with fingerprint identification function
CN105468187A (en) * 2014-06-18 2016-04-06 宸鸿科技(厦门)有限公司 Touch panel with fingerprint recognition function
JP2016006613A (en) 2014-06-20 2016-01-14 ソニー株式会社 Information processing device, information processing method, and program
KR102264808B1 (en) * 2014-06-23 2021-06-14 삼성전자주식회사 Method for processing fingerprint and electronic device thereof
US20150379160A1 (en) * 2014-06-29 2015-12-31 Yaniv AVRAHAM Apparatus and methods for transferring focus control and related return content within a graphical user interface
CN105278799B (en) * 2014-07-02 2020-04-07 腾讯科技(深圳)有限公司 Interface switching method and device
TWI549504B (en) * 2014-08-11 2016-09-11 宏碁股份有限公司 Image capturing device and auto-focus compensation method thereof
US9740839B2 (en) * 2014-08-13 2017-08-22 Google Technology Holdings LLC Computing device chording authentication and control
US10339293B2 (en) 2014-08-15 2019-07-02 Apple Inc. Authenticated device used to unlock another device
CN104199602B (en) * 2014-08-26 2018-11-09 联想(北京)有限公司 A kind of information processing method and electronic equipment
US10289260B2 (en) * 2014-08-27 2019-05-14 Honda Motor Co., Ltd. Systems and techniques for application multi-tasking
US9465930B2 (en) 2014-08-29 2016-10-11 Dropbox, Inc. Fingerprint gestures
US20160063645A1 (en) * 2014-08-29 2016-03-03 Hrb Innovations, Inc. Computer program, method, and system for detecting fraudulently filed tax returns
US9864979B2 (en) * 2014-08-29 2018-01-09 Panasonic Intellectual Property Management Co., Ltd. Transaction terminal device
DE202015006141U1 (en) * 2014-09-02 2015-12-14 Apple Inc. Electronic touch communication
US9830782B2 (en) 2014-09-02 2017-11-28 Apple Inc. Haptic notifications
USD762663S1 (en) * 2014-09-02 2016-08-02 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD766325S1 (en) * 2014-09-02 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD766267S1 (en) * 2014-09-02 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
DE112015007313B4 (en) 2014-09-02 2025-02-13 Apple Inc. physical activity and training monitor
WO2016036427A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
KR102475306B1 (en) 2014-09-02 2022-12-08 애플 인크. Semantic framework for variable haptic output
CN104202486A (en) * 2014-09-26 2014-12-10 上海华勤通讯技术有限公司 Mobile terminal and screen unlocking method thereof
WO2016051986A1 (en) * 2014-09-30 2016-04-07 アルプス電気株式会社 Operation device
USRE49437E1 (en) 2014-09-30 2023-02-28 Apple Inc. Audio driver and power supply unit architecture
CN108848432B (en) 2014-09-30 2020-03-24 苹果公司 Loudspeaker
EP3910515A1 (en) * 2014-10-02 2021-11-17 Trunomi Ltd. Systems and methods for context-based permissioning of personally identifiable information
US20160098087A1 (en) * 2014-10-07 2016-04-07 Schneider Electric Buildings, Llc Systems and methods for gesture recognition
CN104331653A (en) * 2014-10-20 2015-02-04 深圳市汇顶科技股份有限公司 Fingerprint decryption method and fingerprint decryption device
US9349034B2 (en) * 2014-10-28 2016-05-24 Rovi Guides, Inc. Methods and systems for invoking functions based on whether a partial print or an entire print is detected
US9721141B2 (en) * 2014-10-30 2017-08-01 Polar Electro Oy Wrist-worn apparatus control with fingerprint data
CN105630345B (en) * 2014-11-06 2019-02-19 阿里巴巴集团控股有限公司 A kind of method and apparatus controlling display direction
WO2016073640A1 (en) * 2014-11-06 2016-05-12 Alibaba Group Holding Limited Method and system for controlling display direction of content
US9588643B2 (en) * 2014-12-18 2017-03-07 Apple Inc. Electronic devices with hand detection circuitry
CN105807981A (en) * 2014-12-31 2016-07-27 中兴通讯股份有限公司 User terminal and working method thereof
US10878715B2 (en) * 2015-02-05 2020-12-29 Type A+ LLC Finger recognition system and method for use in typing
KR102338864B1 (en) 2015-02-12 2021-12-13 삼성전자주식회사 Electronic device and method for registration finger print
WO2016127426A1 (en) * 2015-02-15 2016-08-18 华为技术有限公司 Method and apparatus for displaying application and picture, and electronic device
US9329831B1 (en) * 2015-02-25 2016-05-03 Sonos, Inc. Playback expansion
US9940502B2 (en) 2015-02-27 2018-04-10 Idex Asa Pre-match prediction for pattern testing
US10157306B2 (en) 2015-02-27 2018-12-18 Idex Asa Curve matching and prequalification
US10528789B2 (en) 2015-02-27 2020-01-07 Idex Asa Dynamic match statistics in pattern matching
JP2016162331A (en) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 Information processing device
US10006937B2 (en) 2015-03-06 2018-06-26 Apple Inc. Capacitive sensors for electronic devices and methods of forming the same
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
US9542037B2 (en) * 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
CN106155504B (en) * 2015-03-26 2019-09-10 小米科技有限责任公司 Mould group awakening method and device
US9927892B2 (en) 2015-03-27 2018-03-27 International Business Machines Corporation Multiple touch selection control
EP3252590B1 (en) * 2015-03-31 2021-03-31 Huawei Technologies Co. Ltd. Method for adjusting adjustable parameter of device, and device
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
KR102093196B1 (en) * 2015-04-16 2020-04-14 삼성전자주식회사 Device and method for conrol based on recognizing fingerprint
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
KR102396514B1 (en) * 2015-04-29 2022-05-11 삼성전자주식회사 Fingerprint information processing method and electronic device supporting the same
KR102348486B1 (en) * 2015-04-29 2022-01-07 삼성전자 주식회사 Electronic device
US9753622B2 (en) 2015-05-06 2017-09-05 James L. Moran Customized interactive computing environment
TWI575464B (en) * 2015-06-04 2017-03-21 指紋卡公司 Method and system for fingerprint-based navigation
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
AU2016231472B1 (en) * 2015-06-07 2016-11-10 Apple Inc. Devices and methods for navigating between user interfaces
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10271084B2 (en) * 2015-06-07 2019-04-23 Apple Inc. Video recording and replay
WO2016204528A1 (en) * 2015-06-16 2016-12-22 남기원 Apparatus for smart simple payments, and system therefor
KR102342267B1 (en) * 2015-06-22 2021-12-22 삼성전자주식회사 Portable apparatus and method for changing a screen
JP6140773B2 (en) * 2015-06-26 2017-05-31 京セラ株式会社 Electronic device and method of operating electronic device
US10600219B2 (en) 2015-06-26 2020-03-24 Idex Asa Pattern mapping
CN104915063B (en) * 2015-06-29 2018-09-04 努比亚技术有限公司 The method and apparatus for controlling intelligent terminal
KR102508147B1 (en) 2015-07-01 2023-03-09 엘지전자 주식회사 Display apparatus and controlling method thereof
EP3115932A1 (en) 2015-07-07 2017-01-11 Idex Asa Image reconstruction
TWI547884B (en) * 2015-07-09 2016-09-01 金佶科技股份有限公司 Fingerprint identification module
US9544701B1 (en) 2015-07-19 2017-01-10 Sonos, Inc. Base properties in a media playback system
USD849027S1 (en) * 2015-08-03 2019-05-21 Google Llc Display screen with animated graphical user interface
USD848458S1 (en) * 2015-08-03 2019-05-14 Google Llc Display screen with animated graphical user interface
US9715301B2 (en) 2015-08-04 2017-07-25 Apple Inc. Proximity edge sensing
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US11343101B2 (en) * 2015-08-11 2022-05-24 Vescel, Llc Authentication through verification of an evolving identity credential
WO2017028277A1 (en) * 2015-08-19 2017-02-23 华为技术有限公司 Fingerprint recognition method and mobile terminal
EP4327731A3 (en) 2015-08-20 2024-05-15 Apple Inc. Exercise-based watch face
CN105045519B (en) * 2015-08-27 2018-06-26 广东欧珀移动通信有限公司 The screen control method and user terminal of a kind of user terminal
US10001965B1 (en) 2015-09-03 2018-06-19 Sonos, Inc. Playback system join with base
US11099650B1 (en) 2015-09-07 2021-08-24 Oliver Markus Haynold Camera with improved shutter button
USD786907S1 (en) * 2015-09-08 2017-05-16 Apple Inc. Display screen or portion thereof with graphical user interface
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
US20170076366A1 (en) * 2015-09-11 2017-03-16 Bank Of America Corporation Universal tokenization system
US10249002B2 (en) 2015-09-11 2019-04-02 Bank Of America Corporation System for dynamic visualization of individualized consumption across shared resource allocation structure
KR101781909B1 (en) * 2015-09-15 2017-09-26 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR102399764B1 (en) * 2015-09-22 2022-05-19 삼성전자 주식회사 Method and apparatus for capturing image
CN106547338A (en) * 2015-09-22 2017-03-29 小米科技有限责任公司 Instruction generation method and device
CN114896015B (en) 2015-09-23 2025-03-21 尹特根埃克斯有限公司 System and method for real-time assistance
KR101677392B1 (en) * 2015-09-25 2016-11-17 엘지전자 주식회사 Mobile terminal with payment
KR20180062454A (en) * 2015-09-25 2018-06-08 엘지전자 주식회사 Terminal device and control method of terminal device
US10331873B1 (en) * 2015-10-09 2019-06-25 United Services Automobile Association (“USAA”) Graphical event-based password system
CN106648384B (en) * 2015-10-29 2022-02-08 创新先进技术有限公司 Service calling method and device
US9701202B2 (en) 2015-11-13 2017-07-11 Thunder Power New Energy Vehicle Development Company Limited Vehicle fingerprint bookmark
US9639620B1 (en) * 2015-11-13 2017-05-02 Thunder Power Hong Kong Ltd. Vehicle fingerprint bookmark
US20180356945A1 (en) * 2015-11-24 2018-12-13 California Labs, Inc. Counter-top device and services for displaying, navigating, and sharing collections of media
US9851806B2 (en) 2015-11-24 2017-12-26 International Business Machines Corporation Gesture recognition and control based on finger differentiation
WO2017113119A1 (en) * 2015-12-29 2017-07-06 华为技术有限公司 Method and device for associating application with biological characteristic, and mobile terminal
CN105677220A (en) * 2015-12-31 2016-06-15 联想(北京)有限公司 Information processing method and electronic equipment
CN109241714A (en) * 2016-01-06 2019-01-18 阿里巴巴集团控股有限公司 A kind of information image display methods and device
KR102509018B1 (en) 2016-01-11 2023-03-14 삼성디스플레이 주식회사 Display device and driving method thereof
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10387711B2 (en) 2016-03-07 2019-08-20 Microsoft Technology Licensing, Llc Pixel having a photoemitter and a photodetector triggered by a pixel selector signal bus
US10387710B2 (en) 2016-03-07 2019-08-20 Microsoft Technology Licensing, Llc Image sensing with a waveguide display
AT518250B1 (en) * 2016-03-17 2017-09-15 Bernecker + Rainer Industrie-Elektronik Ges M B H touchscreen
KR20170109408A (en) * 2016-03-21 2017-09-29 삼성전자주식회사 Electronic device and method for controlling thereof
US10007343B2 (en) 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
TWI622893B (en) * 2016-04-11 2018-05-01 宏碁股份有限公司 Electronic device, controlling method and manufacturing method thereof
CN105868608B (en) * 2016-04-12 2018-01-23 广东欧珀移动通信有限公司 The method and terminal of a kind of unlocked by fingerprint
US10298789B2 (en) * 2016-05-11 2019-05-21 Kabushiki Kaisha Toshiba System and method for field customization of multifunction peripherals
USD795907S1 (en) * 2016-05-11 2017-08-29 Jan Magnus Edman Display screen with graphical user interface
USD795908S1 (en) * 2016-05-11 2017-08-29 Jan Magnus Edman Display screen with graphical user interface
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10346599B2 (en) 2016-05-31 2019-07-09 Google Llc Multi-function button for computing devices
KR102561736B1 (en) * 2016-06-01 2023-08-02 삼성전자주식회사 Method for activiating a function using a fingerprint and electronic device including a touch display supporting the same
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US20170364158A1 (en) * 2016-06-20 2017-12-21 Apple Inc. Localized and/or Encapsulated Haptic Actuators and Elements
CN107590373A (en) * 2016-07-06 2018-01-16 成都锐成芯微科技股份有限公司 Mobile terminal fingerprint recognition system and method
CN106201273A (en) * 2016-07-27 2016-12-07 维沃移动通信有限公司 A kind of method for controlling mobile terminal and mobile terminal
CN106462293B (en) * 2016-08-08 2022-04-29 北京小米移动软件有限公司 Terminal, touch response method and device
WO2018027857A1 (en) * 2016-08-11 2018-02-15 张焰焰 Method for pushing information when matching text format and text system
WO2018027856A1 (en) * 2016-08-11 2018-02-15 张焰焰 Method for matching text format with fingerprint, and text system
FR3055158B1 (en) * 2016-08-19 2019-11-08 Ontracks SYSTEM FOR AIDING VISUAL AND LATERALIZED NAVIGATION
WO2018048632A1 (en) * 2016-09-06 2018-03-15 Apple Inc. Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
EP3410263A1 (en) * 2016-09-06 2018-12-05 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
US10466891B2 (en) 2016-09-12 2019-11-05 Apple Inc. Special lock mode user interface
US10736543B2 (en) 2016-09-22 2020-08-11 Apple Inc. Workout monitor interface
US10911863B2 (en) * 2016-09-23 2021-02-02 Apple Inc. Illuminated user interface architecture
CN114675774B (en) * 2016-09-23 2024-12-06 苹果公司 Device, method and graphical user interface for annotating text
JP6078684B1 (en) * 2016-09-30 2017-02-08 グリー株式会社 Program, control method, and information processing apparatus
US10055818B2 (en) 2016-09-30 2018-08-21 Intel Corporation Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display
KR102578253B1 (en) 2016-10-21 2023-09-12 삼성전자 주식회사 Electronic device and method for acquiring fingerprint information thereof
US11494470B2 (en) 2016-10-24 2022-11-08 Sony Corporation Information processing apparatus and information processing method
WO2018088861A1 (en) * 2016-11-11 2018-05-17 Samsung Electronics Co., Ltd. Method and electronic device for providing multi-level security
US10402161B2 (en) 2016-11-13 2019-09-03 Honda Motor Co., Ltd. Human-vehicle interaction
KR102616793B1 (en) 2016-11-15 2023-12-26 삼성전자 주식회사 Electronic device and method for providing scrren thereof
US10599823B2 (en) * 2016-11-18 2020-03-24 Invensense, Inc. Systems and methods for coordinating applications with a user interface
CN106778156A (en) * 2016-11-23 2017-05-31 苏州新捷毅贸易有限公司 Fingerprint Lock method to set up and unlocked by fingerprint method with password combination
KR102564267B1 (en) 2016-12-01 2023-08-07 삼성전자주식회사 Electronic apparatus and operating method thereof
CN106775084B (en) 2016-12-16 2019-04-16 Oppo广东移动通信有限公司 A kind of false-touch prevention method, device and mobile terminal of touch screen
JP6434480B2 (en) 2016-12-19 2018-12-05 ファナック株式会社 Control device
CN108475179B (en) * 2016-12-27 2020-10-23 华为技术有限公司 Fingerprint collection method, fingerprint collection device and terminal
USD831053S1 (en) * 2016-12-30 2018-10-16 Lyft, Inc. Display screen with animated graphical user interface
WO2018126478A1 (en) * 2017-01-09 2018-07-12 英华达(上海)科技有限公司 Mouse, touchpad, input suite, and mobile device
CN108304085B (en) * 2017-01-11 2021-01-01 神盾股份有限公司 Method for judging finger displacement direction and electronic device
US20180206120A1 (en) * 2017-01-16 2018-07-19 International Business Machines Corporation Indicating actual person sending a message based on physical validation
CN108319886B (en) * 2017-01-17 2020-07-21 北京小米移动软件有限公司 Fingerprint identification method and device
US20180200623A1 (en) * 2017-01-19 2018-07-19 Machine Zone, Inc. System and method for controlling game play using fingerprint recognition
KR102070407B1 (en) * 2017-01-31 2020-01-28 삼성전자주식회사 Electronic device and a method for controlling a biometric sensor associated with a display using the same
WO2018144014A1 (en) 2017-02-03 2018-08-09 Hewlett-Packard Development Company, L.P. Biometrics to launch a camera application
US10546109B2 (en) * 2017-02-14 2020-01-28 Qualcomm Incorporated Smart touchscreen display
KR102365678B1 (en) * 2017-03-29 2022-02-21 삼성전자주식회사 Method for Outputting the Screen using the External Device and the Electronic Device supporting the same
CN108664177B (en) * 2017-03-29 2021-11-12 上海耕岩智能科技有限公司 Method and device for opening application based on fingerprint identification
KR102331464B1 (en) * 2017-04-18 2021-11-29 삼성전자주식회사 Method for acquiring biometric information using a biometric information sensing area formed in a display area and electronic device supporting the same
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
WO2018207953A1 (en) * 2017-05-08 2018-11-15 (주)인스타페이 Touch input-based processing method and system
US12242707B2 (en) 2017-05-15 2025-03-04 Apple Inc. Displaying and moving application views on a display of an electronic device
US10845955B2 (en) 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
CN111343060B (en) 2017-05-16 2022-02-11 苹果公司 Method and interface for home media control
EP3380918B1 (en) * 2017-05-16 2023-06-28 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US10365814B2 (en) * 2017-05-16 2019-07-30 Apple Inc. Devices, methods, and graphical user interfaces for providing a home button replacement
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. Tactile feedback for locked device user interfaces
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US11586717B2 (en) 2017-05-23 2023-02-21 Fingerprint Cards Anacatum Ip Ab Method and electronic device for authenticating a user
US10614279B2 (en) * 2017-06-02 2020-04-07 Samsung Electronics Co., Ltd. Apparatus and method for driving fingerprint sensing array provided in touchscreen, and driver integrated circuit for driving the touchscreen including the fingerprint sensing array
US10951043B2 (en) 2017-06-04 2021-03-16 Apple Inc. Multi-device charging user interface
SE1750836A1 (en) * 2017-06-28 2018-12-29 Fingerprint Cards Ab Fingerprint sensor module comprising antenna and method for manufacturing a fingerprint sensor module
US10360428B2 (en) 2017-06-28 2019-07-23 Synaptics Incorporated Fingerprint sensor to support wake on finger and navigation
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
CN107395889B (en) * 2017-07-28 2020-01-21 Oppo广东移动通信有限公司 Method and device for reducing power consumption of mobile terminal, storage medium and mobile terminal
CN109843399B (en) * 2017-08-03 2020-07-21 腾讯科技(深圳)有限公司 Apparatus, method and graphical user interface for providing game control
US11275458B2 (en) 2017-09-07 2022-03-15 Samsung Electronics Co., Ltd. Method, electronic device, and storage medium for fingerprint recognition
CN107918563A (en) 2017-09-30 2018-04-17 华为技术有限公司 A kind of method, data processing equipment and user equipment replicated and paste
SE1751288A1 (en) * 2017-10-17 2019-04-18 Fingerprint Cards Ab Method of controlling an electronic device
CN107861824A (en) * 2017-11-30 2018-03-30 努比亚技术有限公司 A kind of text handling method, mobile terminal and computer-readable recording medium
US10852836B2 (en) * 2017-11-30 2020-12-01 Microsoft Technology Licensing, Llc Visual transformation using a motion profile
USD845337S1 (en) 2017-12-01 2019-04-09 Nasdaq, Inc. Display screen or portion thereof with animated graphical user interface
CN108351707B (en) * 2017-12-22 2021-07-30 达闼机器人有限公司 Man-machine interaction method and device, terminal equipment and computer readable storage medium
JP2018045729A (en) * 2017-12-25 2018-03-22 キヤノン株式会社 Information processing apparatus, information processing method, computer program, and recording medium
KR102543104B1 (en) * 2018-01-18 2023-06-14 삼성전자주식회사 Electronic apparatus and operating method thereof
CN108334228B (en) * 2018-01-30 2021-03-16 厦门天马微电子有限公司 Touch screen, driving method thereof and touch device
US11132106B2 (en) * 2018-03-13 2021-09-28 Vmware, Inc. User-specific applications for shared devices
CN108647032B (en) * 2018-03-29 2022-03-01 珠海市魅族科技有限公司 Application loading method and apparatus, computer apparatus and computer-readable storage medium
CN108549518B (en) * 2018-04-17 2020-09-25 Oppo广东移动通信有限公司 A method, device and terminal device for displaying music information
CN108628644A (en) * 2018-04-19 2018-10-09 维沃移动通信有限公司 A kind of the startup method, apparatus and mobile terminal of application
US10733468B2 (en) * 2018-04-23 2020-08-04 Novatek Microelectronics Corp. Finger stability detecting method and fingerprint sensing device
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
DK180316B1 (en) 2018-06-03 2020-11-06 Apple Inc Devices and methods for interacting with an application switching user interface
US11893228B2 (en) 2018-06-03 2024-02-06 Apple Inc. Devices and methods for interacting with an application switching user interface
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10956029B1 (en) 2018-06-08 2021-03-23 Facebook, Inc. Gesture-based context switching between applications
WO2019091124A1 (en) 2018-06-25 2019-05-16 华为技术有限公司 Terminal user interface display method and terminal
US10656827B2 (en) 2018-06-29 2020-05-19 Synaptics Incorporated Sensor device scanning techniques to determine fast and/or slow motions
US10990260B2 (en) * 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
CN109284060A (en) * 2018-08-30 2019-01-29 Oppo(重庆)智能科技有限公司 Display control method and relevant apparatus
CN110199249B (en) * 2018-09-13 2022-11-04 京东方科技集团股份有限公司 Integrated fingerprint detection touch display device and integration method of fingerprint detection, touch and image display
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US10953307B2 (en) 2018-09-28 2021-03-23 Apple Inc. Swim tracking and notifications for wearable devices
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
USD998630S1 (en) * 2018-10-11 2023-09-12 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD1041511S1 (en) 2018-10-11 2024-09-10 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD917564S1 (en) 2018-10-11 2021-04-27 Masimo Corporation Display screen or portion thereof with graphical user interface
USD917550S1 (en) * 2018-10-11 2021-04-27 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD999246S1 (en) 2018-10-11 2023-09-19 Masimo Corporation Display screen or portion thereof with a graphical user interface
USD998631S1 (en) 2018-10-11 2023-09-12 Masimo Corporation Display screen or portion thereof with a graphical user interface
US11406286B2 (en) 2018-10-11 2022-08-09 Masimo Corporation Patient monitoring device with improved user interface
USD916135S1 (en) 2018-10-11 2021-04-13 Masimo Corporation Display screen or portion thereof with a graphical user interface
CN111124236B (en) 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 Data processing method, device and machine-readable medium
US10965863B2 (en) * 2018-11-01 2021-03-30 Lenovo (Singapore) Pte. Ltd. Changing settings based on a fingerprint
CN109542315B (en) * 2018-11-22 2021-05-25 维沃移动通信有限公司 Control method and system of mobile terminal
USD947233S1 (en) 2018-12-21 2022-03-29 Streamlayer, Inc. Display screen or portion thereof with transitional graphical user interface
US11770579B2 (en) 2018-12-21 2023-09-26 Streamlayer, Inc. Method and system for providing interactive content delivery and audience engagement
USD997952S1 (en) 2018-12-21 2023-09-05 Streamlayer, Inc. Display screen with transitional graphical user interface
CN109683766B (en) * 2018-12-28 2021-08-03 努比亚技术有限公司 Interactive interface control method, mobile terminal and computer readable storage medium
CN109675308A (en) * 2019-01-10 2019-04-26 网易(杭州)网络有限公司 Display control method, device, storage medium, processor and terminal in game
CN111488761B (en) 2019-01-25 2024-04-26 北京小米移动软件有限公司 Fingerprint identification method, fingerprint identification device, electronic equipment and computer readable storage medium
CN111695382B (en) * 2019-03-14 2024-02-13 北京小米移动软件有限公司 Fingerprint acquisition area determining method and fingerprint acquisition area determining device
USD951267S1 (en) * 2019-04-09 2022-05-10 Streamlayer, Inc. Display screen with a transitional graphical user interface for an interactive content overlay
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
US11646591B2 (en) 2019-05-09 2023-05-09 Apple Inc. Indication for protective charging mode
CN110351424A (en) 2019-05-30 2019-10-18 华为技术有限公司 Gesture interaction method and terminal
EP4134811A1 (en) 2019-05-31 2023-02-15 Apple Inc. User interfaces for audio media control
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications
US11979467B2 (en) 2019-06-01 2024-05-07 Apple Inc. Multi-modal activity tracking user interface
US11943594B2 (en) 2019-06-07 2024-03-26 Sonos Inc. Automatically allocating audio portions to playback devices
USD922402S1 (en) * 2019-07-10 2021-06-15 CyCarrier Technology Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD919635S1 (en) * 2019-07-10 2021-05-18 Cycraft Singapore Pte. Ltd. Display screen or portion thereof with graphical user interface
KR102248984B1 (en) * 2019-07-24 2021-05-07 어보브반도체 주식회사 High sensitivity touch sensor
US11551466B2 (en) 2019-08-21 2023-01-10 Novatek Microelectronics Corp. Control circuit and related method for controlling display panel
CN114223022A (en) * 2019-09-18 2022-03-22 索尼集团公司 Fingerprint authentication device, fingerprint authentication method and program
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
CN110795012A (en) * 2019-10-31 2020-02-14 华为技术有限公司 Control method of electronic device, and computer-readable storage medium
US11023124B1 (en) * 2019-12-18 2021-06-01 Motorola Mobility Llc Processing user input received during a display orientation change of a mobile device
USD949188S1 (en) * 2020-01-07 2022-04-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
WO2021156919A1 (en) * 2020-02-03 2021-08-12 ソニーグループ株式会社 Electronic device, information processing method, and program
KR20210103317A (en) 2020-02-13 2021-08-23 삼성전자주식회사 Fingerprint-touch combined sensor and electronic apparatus including the same
DK202070613A1 (en) 2020-02-14 2021-10-15 Apple Inc User interfaces for workout content
US11418713B2 (en) * 2020-04-02 2022-08-16 Qualcomm Incorporated Input based launch sequences for a camera application
US11556095B2 (en) 2020-04-15 2023-01-17 Apple Inc. Modular sensing assembly for an electronic device
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
CN113778574B (en) * 2020-06-08 2022-11-29 荣耀终端有限公司 Card sharing method, electronic device and communication system
US11163970B1 (en) * 2020-06-16 2021-11-02 Google Llc Optical fingerprint system with varying integration times across pixels
DE102020003923B3 (en) * 2020-06-30 2021-11-04 Daimler Ag Control unit with a touch-sensitive control surface
US11381676B2 (en) * 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface
USD1030772S1 (en) * 2020-09-11 2024-06-11 Google Llc Display screen or portion thereof with a transitional graphical user interface
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US12164027B1 (en) 2020-09-14 2024-12-10 Apple Inc. Multi-pathway distance measurements for optical sensors
US11491909B2 (en) 2020-09-16 2022-11-08 Waymo Llc External facing communications for autonomous vehicles
USD1028999S1 (en) 2020-09-17 2024-05-28 Streamlayer, Inc. Display screen with transitional graphical user interface
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
JP7266566B2 (en) * 2020-10-29 2023-04-28 株式会社三菱Ufj銀行 program
WO2022159692A1 (en) * 2021-01-22 2022-07-28 Orchid Sound Technologies LLC System with ultrasound sensor
EP4264460A1 (en) 2021-01-25 2023-10-25 Apple Inc. Implementation of biometric authentication
CN112799578B (en) * 2021-01-26 2022-06-17 挂号网(杭州)科技有限公司 Keyboard drawing method and device, electronic equipment and storage medium
US12210603B2 (en) 2021-03-04 2025-01-28 Apple Inc. User interface for enrolling a biometric feature
MX2023010553A (en) * 2021-03-10 2023-10-04 Bungie Inc Virtual button charging.
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
JP7636231B2 (en) * 2021-03-29 2025-02-26 本田技研工業株式会社 Setting device
WO2022245669A1 (en) 2021-05-15 2022-11-24 Apple Inc. User interfaces for group workouts
US11360634B1 (en) 2021-05-15 2022-06-14 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
JP2023002349A (en) * 2021-06-22 2023-01-10 富士フイルムビジネスイノベーション株式会社 Information processing device and program
US11561612B1 (en) * 2021-08-10 2023-01-24 Synaptics Incorporated AR/VR navigation with authentication using an integrated scrollwheel and fingerprint sensor user input apparatus
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device
EP4388397A1 (en) 2021-09-25 2024-06-26 Apple Inc. Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments
US11704928B1 (en) * 2022-02-17 2023-07-18 Qualcomm Incorporated Force-based finger detection for fingerprint sensor systems
US20250147621A1 (en) * 2022-02-18 2025-05-08 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
US20230267538A1 (en) * 2022-02-22 2023-08-24 Jpmorgan Chase Bank, N.A. Method and system for proxy event visualization
US12272005B2 (en) 2022-02-28 2025-04-08 Apple Inc. System and method of three-dimensional immersive applications in multi-user communication sessions
US12023567B2 (en) 2022-06-05 2024-07-02 Apple Inc. User interfaces for physical activity information
US11977729B2 (en) 2022-06-05 2024-05-07 Apple Inc. Physical activity information user interfaces
US20240103704A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Methods for interacting with user interfaces based on attention
US20240269548A1 (en) * 2023-02-13 2024-08-15 Sony Interactive Entertainment LLC Devices and methods for a game controller
US12189940B2 (en) * 2023-03-27 2025-01-07 Motorola Mobility Llc Fingerprint encoded gesture initiation of device actions

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080165255A1 (en) * 2007-01-05 2008-07-10 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US20110175807A1 (en) * 2010-01-19 2011-07-21 Avaya Inc. Detection of a rolling motion or sliding motion of a body part on a surface

Family Cites Families (633)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ055999A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (npage01)
US4353056A (en) 1980-06-05 1982-10-05 Siemens Corporation Capacitive fingerprint sensor
US4805222A (en) 1985-12-23 1989-02-14 International Bioaccess Systems Corporation Method and apparatus for verifying an individual's identity
EP0441774B1 (en) 1987-10-02 1993-04-28 SENANAYAKE, Daya Ranjit Personal identification system and method
US4993068A (en) 1989-11-27 1991-02-12 Motorola, Inc. Unforgeable personal identification system
GB2244164A (en) 1990-05-18 1991-11-20 Philips Electronic Associated Fingerprint sensing
JPH04158434A (en) 1990-10-23 1992-06-01 Toshiba Corp Pointing device for display device
US5131038A (en) 1990-11-07 1992-07-14 Motorola, Inc. Portable authentification system
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5280527A (en) 1992-04-14 1994-01-18 Kamahira Safe Co., Inc. Biometric token for authorizing access to a host system
EP0593386A3 (en) 1992-10-16 1996-07-31 Ibm Method and apparatus for accessing touch screen desktop objects via fingerprint recognition
JP2813728B2 (en) 1993-11-01 1998-10-22 インターナショナル・ビジネス・マシーンズ・コーポレイション Personal communication device with zoom / pan function
US5526428A (en) 1993-12-29 1996-06-11 International Business Machines Corporation Access control apparatus and method
US5469506A (en) 1994-06-27 1995-11-21 Pitney Bowes Inc. Apparatus for verifying an identification card and identifying a person by means of a biometric characteristic
US5659626A (en) 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
US5615277A (en) 1994-11-28 1997-03-25 Hoffman; Ned Tokenless security system for authorizing access to a secured computer system
US6950810B2 (en) 1994-11-28 2005-09-27 Indivos Corporation Tokenless biometric electronic financial transactions via a third party identicator
US5805719A (en) 1994-11-28 1998-09-08 Smarttouch Tokenless identification of individuals
US6269348B1 (en) 1994-11-28 2001-07-31 Veristar Corporation Tokenless biometric electronic debit and credit transactions
US6366682B1 (en) 1994-11-28 2002-04-02 Indivos Corporation Tokenless electronic transaction system
US7613659B1 (en) 1994-11-28 2009-11-03 Yt Acquisition Corporation System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse
US6154879A (en) 1994-11-28 2000-11-28 Smarttouch, Inc. Tokenless biometric ATM access system
US5870723A (en) 1994-11-28 1999-02-09 Pare, Jr.; David Ferrin Tokenless biometric transaction authorization method and system
US5613012A (en) 1994-11-28 1997-03-18 Smarttouch, Llc. Tokenless identification system for authorization of electronic transactions and electronic transmissions
US5591949A (en) 1995-01-06 1997-01-07 Bernstein; Robert J. Automatic portable account controller for remotely arranging for payment of debt to a vendor
US5838306A (en) 1995-05-05 1998-11-17 Dell U.S.A., L.P. Mouse with security feature
US5724492A (en) * 1995-06-08 1998-03-03 Microsoft Corporation Systems and method for displaying control objects including a plurality of panels
JP3316725B2 (en) 1995-07-06 2002-08-19 三菱電機株式会社 Face image pickup device
JPH09146708A (en) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> Driving method for touch panel and touch input method
CH690048A5 (en) 1995-11-28 2000-03-31 C Sam S A En Formation C O Jue Safety device controlling access to a computer or a network terminal.
US5857028A (en) 1996-01-11 1999-01-05 Frieling; Edward Computer access control by finger anatomy and comprehension testing
US5963679A (en) 1996-01-26 1999-10-05 Harris Corporation Electric field fingerprint sensor apparatus and related methods
US5828773A (en) 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
AUPN802296A0 (en) * 1996-02-12 1996-03-07 Fingerscan Pty Limited An input device for controlling a pointer on the screen of a computer
GB2312040A (en) 1996-04-13 1997-10-15 Xerox Corp A computer mouse
US5856824A (en) 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
US5933134A (en) 1996-06-25 1999-08-03 International Business Machines Corporation Touch screen virtual pointing device which goes into a translucent hibernation state when not in use
JP3711633B2 (en) 1996-06-27 2005-11-02 カシオ計算機株式会社 Touch panel control device
US6219793B1 (en) 1996-09-11 2001-04-17 Hush, Inc. Method of using fingerprints to authenticate wireless communications
US6181803B1 (en) 1996-09-30 2001-01-30 Intel Corporation Apparatus and method for securely processing biometric information to control access to a node
US6367017B1 (en) 1996-11-07 2002-04-02 Litronic Inc. Apparatus and method for providing and authentication system
US6268788B1 (en) 1996-11-07 2001-07-31 Litronic Inc. Apparatus and method for providing an authentication system based on biometrics
US6505177B1 (en) 1996-11-27 2003-01-07 Diebold, Incorporated Automated banking machine apparatus and system
US6901382B1 (en) 1996-11-27 2005-05-31 Diebold, Incorporated Automated banking machine and system
US6498861B1 (en) 1996-12-04 2002-12-24 Activcard Ireland Limited Biometric security encryption system
US6111517A (en) 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US5952998A (en) 1997-01-15 1999-09-14 Compaq Computer Corporation Transparent touchpad with flat panel display for personal computers
JP3469031B2 (en) 1997-02-18 2003-11-25 株式会社東芝 Face image registration apparatus and method
JPH10269358A (en) 1997-03-25 1998-10-09 Sony Corp Object recognition device
US6193153B1 (en) 1997-04-16 2001-02-27 Francis Lambert Method and apparatus for non-intrusive biometric capture
US6901154B2 (en) 1997-04-16 2005-05-31 Activcard Ireland Limited Method of detecting authorised biometric information sensor
US5991408A (en) 1997-05-16 1999-11-23 Veridicom, Inc. Identification and security using biometric measurements
US5920640A (en) 1997-05-16 1999-07-06 Harris Corporation Fingerprint sensor and token reader and associated methods
CA2208179A1 (en) 1997-06-18 1998-12-18 Roland S. Walch Pointing device with optical fingerprint recognition and tracking capability
KR19990009965A (en) 1997-07-14 1999-02-05 정명식 User authentication method using typing pattern
GB2329497B (en) 1997-09-19 2001-01-31 Ibm Method for controlling access to electronically provided services and system for implementing such method
US6611681B2 (en) 1997-09-26 2003-08-26 Daniel A. Henderson Method and apparatus for an improved call interrupt feature in a cordless telephone answering device
US6037882A (en) 1997-09-30 2000-03-14 Levy; David H. Method and apparatus for inputting data to an electronic system
US5974150A (en) 1997-09-30 1999-10-26 Tracer Detection Technology Corp. System and method for authentication of goods
US6084968A (en) 1997-10-29 2000-07-04 Motorola, Inc. Security token and method for wireless applications
US20020097145A1 (en) 1997-11-06 2002-07-25 David M. Tumey Integrated vehicle security system utilizing facial image verification
DK0950229T3 (en) 1997-11-07 2001-04-09 Swisscom Mobile Ag Method, system and arrangement for determining the authenticity of persons
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
US6501846B1 (en) 1997-11-25 2002-12-31 Ethentica, Inc. Method and system for computer access and cursor control using a relief object image generator
GB9725571D0 (en) 1997-12-04 1998-02-04 Philips Electronics Nv Electronic apparatus comprising fingerprint sensing devices
US6490680B1 (en) 1997-12-04 2002-12-03 Tecsec Incorporated Access control and authorization system
JPH11175478A (en) 1997-12-10 1999-07-02 Nec Corp System for authenticating the person himself
US6038666A (en) 1997-12-22 2000-03-14 Trw Inc. Remote identity verification technique using a personal identification device
US6041410A (en) 1997-12-22 2000-03-21 Trw Inc. Personal identification fob
JPH11185016A (en) 1997-12-24 1999-07-09 Sharp Corp Information processor
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
JPH11242745A (en) 1998-02-25 1999-09-07 Victor Co Of Japan Ltd Method for measuring and processing facial image
US6181328B1 (en) 1998-03-02 2001-01-30 International Business Machines Corporation Method and system for calibrating touch screen sensitivities according to particular physical characteristics associated with a user
US6141436A (en) 1998-03-25 2000-10-31 Motorola, Inc. Portable communication device having a fingerprint identification system
US6618806B1 (en) 1998-04-01 2003-09-09 Saflink Corporation System and method for authenticating users in a computer network
US6167517A (en) 1998-04-09 2000-12-26 Oracle Corporation Trusted biometric client authentication
US6880750B2 (en) 1998-04-17 2005-04-19 Randolph M. Pentel Remote ordering device
US20010044906A1 (en) 1998-04-21 2001-11-22 Dimitri Kanevsky Random visual patterns used to obtain secured access
EP1074158B1 (en) 1998-04-23 2008-09-10 Siemens Home and Office Communication Devices GmbH & Co. KG Radio equipment with enhanced user authentication possibilities
US6484260B1 (en) 1998-04-24 2002-11-19 Identix, Inc. Personal identification system
CN1302409A (en) * 1998-05-07 2001-07-04 Art-高级技巧识别技术有限公司 Handwritten and voice control of vehicle components
US6353889B1 (en) 1998-05-13 2002-03-05 Mytec Technologies Inc. Portable device and method for accessing data key actuated devices
US6400836B2 (en) 1998-05-15 2002-06-04 International Business Machines Corporation Combined fingerprint acquisition and control device
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
PT1080415T (en) 1998-05-21 2017-05-02 Equifax Inc System and method for authentication of network users
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US6870946B1 (en) 1998-08-06 2005-03-22 Secugen Corporation Compact optical fingerprint capturing and recognition system
US6636973B1 (en) 1998-09-08 2003-10-21 Hewlett-Packard Development Company, L.P. Secure and dynamic biometrics-based token generation for access control and authentication
JP2000090052A (en) 1998-09-10 2000-03-31 Toshiba Corp Computer system
US6292173B1 (en) 1998-09-11 2001-09-18 Stmicroelectronics S.R.L. Touchpad computer input system and method
JP2000090273A (en) 1998-09-16 2000-03-31 Nec Corp Device and method for processing information while using fingerprint identification
US6950539B2 (en) 1998-09-16 2005-09-27 Digital Persona Configurable multi-function touchpad device
US6256022B1 (en) 1998-11-06 2001-07-03 Stmicroelectronics S.R.L. Low-cost semiconductor user input device
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
GB2344670B (en) 1998-12-12 2003-09-03 Ibm System, apparatus and method for controlling access
JP2000339097A (en) 1998-12-16 2000-12-08 Sony Corp Information processor, its controlling method and recording medium
US6560612B1 (en) 1998-12-16 2003-05-06 Sony Corporation Information processing apparatus, controlling method and program medium
US6317835B1 (en) 1998-12-23 2001-11-13 Radiant Systems, Inc. Method and system for entry of encrypted and non-encrypted information on a touch screen
US6671808B1 (en) 1999-01-15 2003-12-30 Rainbow Technologies, Inc. USB-compliant personal key
US6317834B1 (en) 1999-01-29 2001-11-13 International Business Machines Corporation Biometric authentication system with encrypted models
US6028950A (en) 1999-02-10 2000-02-22 The National Registry, Inc. Fingerprint controlled set-top box
JP2000250862A (en) 1999-03-03 2000-09-14 Toshiba Corp Process supervisory and control system
US6529885B1 (en) 1999-03-18 2003-03-04 Oracle Corporation Methods and systems for carrying out directory-authenticated electronic transactions including contingency-dependent payments via secure electronic bank drafts
US6898577B1 (en) 1999-03-18 2005-05-24 Oracle International Corporation Methods and systems for single sign-on authentication in a multi-vendor e-commerce environment and directory-authenticated bank drafts
JP2000276445A (en) 1999-03-23 2000-10-06 Nec Corp Authentication method and device using biometrics discrimination, authentication execution device, and recording medium recorded with authentication program
JP2000276245A (en) 1999-03-23 2000-10-06 Matsushita Electric Ind Co Ltd Method and device for automatically discriminating and recognizing operator of terminal device
JP3663075B2 (en) 1999-04-05 2005-06-22 シャープ株式会社 Information processing device
US7039221B1 (en) 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
US6615264B1 (en) 1999-04-09 2003-09-02 Sun Microsystems, Inc. Method and apparatus for remotely administered authentication and access control
US6337919B1 (en) 1999-04-28 2002-01-08 Intel Corporation Fingerprint detecting mouse
JP2000315118A (en) 1999-05-06 2000-11-14 Canon Inc Information processor, information processor control method, and storage medium stored with information processor control program
US6282304B1 (en) 1999-05-14 2001-08-28 Biolink Technologies International, Inc. Biometric system for biometric input, comparison, authentication and access control and method therefor
US8438487B1 (en) * 1999-05-24 2013-05-07 Catherine Lin-Hendel Method and system for one-click navigation and browsing of electronic media and their category structure as well as tracking the navigation and browsing thereof
US6957768B1 (en) 1999-05-25 2005-10-25 Silverbrook Research Pty Ltd Computer system control via interface surface
JP2001014051A (en) 1999-06-25 2001-01-19 Matsushita Electric Ind Co Ltd User authentication device
US6886104B1 (en) 1999-06-25 2005-04-26 Cross Match Technologies Rechargeable mobile hand-held fingerprint scanner with a data and power communication interface
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6681034B1 (en) 1999-07-15 2004-01-20 Precise Biometrics Method and system for fingerprint template matching
US6609198B1 (en) 1999-08-05 2003-08-19 Sun Microsystems, Inc. Log-on service providing credential level change without loss of session continuity
US6719200B1 (en) 1999-08-06 2004-04-13 Precise Biometrics Ab Checking of right to access
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
JP2001092554A (en) 1999-09-21 2001-04-06 Seiko Instruments Inc Information processor
US6728881B1 (en) 1999-10-01 2004-04-27 The United States Of America As Represented By The Secretary Of The Army Fingerprint and signature identification and authorization card and pen
US7030860B1 (en) 1999-10-08 2006-04-18 Synaptics Incorporated Flexible transparent touch sensing system for electronic devices
EP2264896A3 (en) 1999-10-27 2012-05-02 Systems Ltd Keyless Integrated keypad system
KR200184982Y1 (en) 1999-11-08 2000-06-15 삼성전자주식회사 Fingerprint recognition having a display apparatus
JP3738629B2 (en) 1999-11-25 2006-01-25 三菱電機株式会社 Portable electronic devices
WO2001041032A1 (en) 1999-11-30 2001-06-07 David Russell Methods, systems, and apparatuses for secure interactions
US6443359B1 (en) 1999-12-03 2002-09-03 Diebold, Incorporated Automated transaction system and method
US6735695B1 (en) 1999-12-20 2004-05-11 International Business Machines Corporation Methods and apparatus for restricting access of a user using random partial biometrics
AU3071001A (en) 1999-12-23 2001-07-09 National University Of Singapore, The Wavelet-enhanced automated fingerprint identification system
US6871287B1 (en) 2000-01-21 2005-03-22 John F. Ellingson System and method for verification of identity
US6721738B2 (en) 2000-02-01 2004-04-13 Gaveo Technology, Llc. Motion password control system
KR100325381B1 (en) 2000-02-11 2002-03-06 안준영 A method of implementing touch pad using fingerprint reader and a touch pad apparatus for functioning as fingerprint scan
US6668332B1 (en) 2000-02-15 2003-12-23 International Business Machines Corporation Functional clock observation controlled by JTAG extensions
GB2365676B (en) * 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
GB0004287D0 (en) 2000-02-23 2000-04-12 Leeper Kim System and method for authenticating electronic documents
US6766456B1 (en) 2000-02-23 2004-07-20 Micron Technology, Inc. Method and system for authenticating a user of a computer system
JP2001236324A (en) 2000-02-24 2001-08-31 Fujitsu Ltd Portable electronic device having personal authentication function based on biometric information
KR20000030544A (en) 2000-03-02 2000-06-05 김종완 Internet Puzzle of Advertisement
CN1263324A (en) 2000-03-20 2000-08-16 后健慈 Fingerprint identification keyboard device and identification method thereof
DE60119418T2 (en) 2000-03-22 2007-05-24 Kabushiki Kaisha Toshiba, Kawasaki Face-capturing recognition device and passport verification device
CA2403394C (en) 2000-03-23 2012-01-03 Cross Match Technologies, Inc. Piezoelectric identification device and applications thereof
US7086085B1 (en) 2000-04-11 2006-08-01 Bruce E Brown Variable trust levels for authentication
WO2001080017A1 (en) 2000-04-18 2001-10-25 Bioconx, Inc. System for logging into multiple network systems
US6775776B1 (en) 2000-06-27 2004-08-10 Intel Corporation Biometric-based authentication in a nonvolatile memory device
US6720860B1 (en) 2000-06-30 2004-04-13 International Business Machines Corporation Password protection using spatial and temporal variation in a high-resolution touch sensitive display
US7310433B2 (en) 2000-07-24 2007-12-18 Ume Tech Yugen Kaisha Fingerprint verification apparatus, fingerprint verification method and a fingerprint verification program
CN1455899A (en) 2000-07-25 2003-11-12 有限会社信息安全 Secret information recorded medium, protection method, protection storing method and system for information access alarming system
JP4469476B2 (en) 2000-08-09 2010-05-26 パナソニック株式会社 Eye position detection method and eye position detection apparatus
KR20020022295A (en) 2000-09-19 2002-03-27 장기화 Device And Method For Face Recognition Using 3 Dimensional Shape Information
US6766040B1 (en) 2000-10-02 2004-07-20 Biometric Solutions, Llc System and method for capturing, enrolling and verifying a fingerprint
WO2002030077A1 (en) 2000-10-05 2002-04-11 Matsushita Electric Industrial Co., Ltd. Judgment level setting method and data receiver
US6585591B1 (en) * 2000-10-12 2003-07-01 Igt Gaming device having an element and element group selection and elimination bonus scheme
US6819219B1 (en) 2000-10-13 2004-11-16 International Business Machines Corporation Method for biometric-based authentication in wireless communication for access control
JP2002159052A (en) 2000-11-17 2002-05-31 Nec Kofu Ltd Mobile terminal with finger print authentication function
US6871193B1 (en) 2000-11-29 2005-03-22 Verizon Corporate Services Group Method and system for partitioned service-enablement gateway with utility and consumer services
US7346778B1 (en) 2000-11-29 2008-03-18 Palmsource, Inc. Security method and apparatus for controlling the data exchange on handheld computers
EP1216900B1 (en) 2000-12-22 2008-01-23 Ford Global Technologies, LLC Remote communication system for use with a vehicle and fob unit therefore
JP2002207525A (en) 2001-01-10 2002-07-26 Matsushita Electric Ind Co Ltd Portable information terminal with fingerprint sensor
US7921297B2 (en) 2001-01-10 2011-04-05 Luis Melisendro Ortiz Random biometric authentication utilizing unique biometric signatures
US20020091937A1 (en) 2001-01-10 2002-07-11 Ortiz Luis M. Random biometric authentication methods and systems
US20020095588A1 (en) 2001-01-12 2002-07-18 Satoshi Shigematsu Authentication token and authentication system
US7124300B1 (en) 2001-01-24 2006-10-17 Palm, Inc. Handheld computer system configured to authenticate a user and power-up in response to a single action by the user
US6871784B2 (en) 2001-02-07 2005-03-29 Trijay Technologies International Corporation Security in mag-stripe card transactions
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20020122026A1 (en) 2001-03-01 2002-09-05 Bergstrom Dean Warren Fingerprint sensor and position controller
JP2002269046A (en) 2001-03-09 2002-09-20 Sharp Corp Information processor
TWI282941B (en) 2001-03-15 2007-06-21 Toshiba Corp Entrance management apparatus and entrance management method by using face features identification
US6848052B2 (en) 2001-03-21 2005-01-25 Activcard Ireland Limited High security personalized wireless portable biometric device
US6603462B2 (en) * 2001-03-21 2003-08-05 Multidigit, Inc. System and method for selecting functions based on a finger feature such as a fingerprint
US6877097B2 (en) 2001-03-21 2005-04-05 Activcard, Inc. Security access method and apparatus
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US20020141586A1 (en) 2001-03-29 2002-10-03 Aladdin Knowledge Systems Ltd. Authentication employing the bluetooth communication protocol
US6850147B2 (en) 2001-04-02 2005-02-01 Mikos, Ltd. Personal biometric key
US20020146157A1 (en) 2001-04-09 2002-10-10 Goodman Mitchell E. Fingerprint acquisition assembly using prism and camera
US6724370B2 (en) 2001-04-12 2004-04-20 International Business Machines Corporation Touchscreen user interface
US20040085300A1 (en) * 2001-05-02 2004-05-06 Alec Matusis Device and method for selecting functions based on intrinsic finger features
EP1257111A1 (en) 2001-05-08 2002-11-13 Siemens Schweiz AG Mobile terminal with an input device on its back side
US6832317B1 (en) 2001-05-10 2004-12-14 Advanced Micro Devices, Inc. Personal computer security mechanism
KR20020087665A (en) 2001-05-15 2002-11-23 엘지전자 주식회사 Method for conducting in a PDA
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
WO2002096181A2 (en) 2001-05-25 2002-12-05 Biometric Informatics Technology, Inc. Fingerprint recognition system
JP2002358162A (en) 2001-06-01 2002-12-13 Sony Corp Picture display device
US20020190960A1 (en) * 2001-06-15 2002-12-19 Shyh-Ren Kuo Method for controlling computer cursor based on identification of user fingerprint
US7203347B2 (en) 2001-06-27 2007-04-10 Activcard Ireland Limited Method and system for extracting an area of interest from within a swipe image of a biological surface
US6836843B2 (en) 2001-06-29 2004-12-28 Hewlett-Packard Development Company, L.P. Access control through secure channel using personal identification system
KR20030005535A (en) * 2001-07-09 2003-01-23 엘지전자 주식회사 Use restraining apparatus and method for mobile communication device using fingerprint recognition
AU2002316679A1 (en) 2001-07-12 2003-01-29 Atrua Technologies, Inc. Method and system for biometric image assembly from multiple partial biometric frame scans
JP2004537116A (en) 2001-07-27 2004-12-09 マルティン セルゲーヴィッチ ヌヌパロフ Method and apparatus for inputting password for accessing computer database
US6757411B2 (en) 2001-08-16 2004-06-29 Liska Biometry Inc. Method and system for fingerprint encoding and authentication
WO2003017244A1 (en) * 2001-08-17 2003-02-27 Multidigit, Inc. System and method for selecting actions based on the identification of user's fingers
JP2003067343A (en) 2001-08-23 2003-03-07 Toshiba Tec Corp Business terminal device
US20030188183A1 (en) 2001-08-27 2003-10-02 Lee Lane W. Unlocking method and system for data on media
US20030048173A1 (en) 2001-09-06 2003-03-13 Satoshi Shigematsu Authentication method, authentication system, and authentication token
US20030046557A1 (en) 2001-09-06 2003-03-06 Miller Keith F. Multipurpose networked data communications system and distributed user control interface therefor
JP2003085540A (en) 2001-09-11 2003-03-20 Sony Corp User interface, authenticating device, device, and portable information terminal
US7027619B2 (en) 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
US20060095369A1 (en) 2001-10-15 2006-05-04 Eyal Hofi Device, method and system for authorizing transactions
JP2003143290A (en) 2001-10-30 2003-05-16 Sanyo Electric Co Ltd Portable telephone set
DE10153591A1 (en) 2001-11-02 2003-05-22 Rene Baltus Recognizing person by detecting and comparing joystick operating dynamics involves
US6735287B2 (en) 2001-11-16 2004-05-11 Sbc Technology Resources, Inc. Method and system for multimodal presence detection
US6985502B2 (en) 2001-11-19 2006-01-10 Hewlett-Packard Development Company, L.P. Time-division multiplexed link for use in a service area network
US8504652B2 (en) 2006-04-10 2013-08-06 Portulim Foundation Llc Method and system for selectively supplying media content to a user and media storage device for use therein
US8266212B2 (en) 2001-11-23 2012-09-11 Igt Game talk service bus
US7363593B1 (en) * 2001-11-30 2008-04-22 Versata Development Group, Inc. System and method for presenting information organized by hierarchical levels
US7137553B2 (en) 2001-12-31 2006-11-21 Digital Data Research Company Security clearance card, system and method of reading a security clearance card
US7394346B2 (en) 2002-01-15 2008-07-01 International Business Machines Corporation Free-space gesture recognition for transaction security and command processing
US6883709B2 (en) 2002-02-12 2005-04-26 Famous Horse, Inc. Biometric identification and security system associated with cash register
US6879243B1 (en) 2002-02-14 2005-04-12 Penco Products, Inc. Electronically-controlled locker system
JP2003298689A (en) * 2002-04-02 2003-10-17 Canon Inc Cellular telephone
JP4022861B2 (en) 2002-04-10 2007-12-19 日本電気株式会社 Fingerprint authentication system, fingerprint authentication method, and fingerprint authentication program
US7111788B2 (en) * 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
US6980081B2 (en) 2002-05-10 2005-12-27 Hewlett-Packard Development Company, L.P. System and method for user authentication
US6853739B2 (en) 2002-05-15 2005-02-08 Bio Com, Llc Identity verification system
US7543156B2 (en) 2002-06-25 2009-06-02 Resilent, Llc Transaction authentication card
KR20040000954A (en) 2002-06-26 2004-01-07 삼성전자주식회사 Method for nevigation key using sensor of fingerprint identification in mobile phone
US7243239B2 (en) 2002-06-28 2007-07-10 Microsoft Corporation Click passwords
US20040104268A1 (en) 2002-07-30 2004-06-03 Bailey Kenneth Stephen Plug in credit card reader module for wireless cellular phone verifications
KR20040025004A (en) 2002-09-18 2004-03-24 주식회사 현대오토넷 Certification system to certify password combined fingerprints
FI20021682L (en) 2002-09-20 2004-03-21 Nokia Corp Method for unlocking a device and an electronic device
HK1062117A2 (en) 2002-09-25 2004-09-17 Univ Hong Kong Polytechnic Method of palm print identification using geometry, line and/or texture features
US20040229560A1 (en) 2002-10-10 2004-11-18 Maloney William C. Methods of tracking and verifying human assets
US7194105B2 (en) 2002-10-16 2007-03-20 Hersch Roger D Authentication of documents and articles by moiré patterns
JP2004151862A (en) 2002-10-29 2004-05-27 Oki Electric Ind Co Ltd Store visitor reception system, its device, and its program
US6886101B2 (en) 2002-10-30 2005-04-26 American Express Travel Related Services Company, Inc. Privacy service
US7676748B1 (en) 2002-11-04 2010-03-09 Sun Microsystems, Inc. System graphics for security shield
JP2004157821A (en) 2002-11-07 2004-06-03 Nec Fielding Ltd Identification system
US6886096B2 (en) 2002-11-14 2005-04-26 Voltage Security, Inc. Identity-based encryption system
JP2004172851A (en) 2002-11-19 2004-06-17 Mitsubishi Electric Corp Program for allowing computer to execute control method of communication terminal and photographing magnification
US7102617B2 (en) 2002-12-30 2006-09-05 Motorola, Inc. Compact optical pointing apparatus and method
US7116805B2 (en) 2003-01-07 2006-10-03 Avagotechnologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint verification device
US7542945B2 (en) 2003-01-15 2009-06-02 Sanmina-Sci Corporation Authentication device, system and methods
KR100816602B1 (en) 2003-02-13 2008-03-24 닛본 덴끼 가부시끼가이샤 Unauthorized person detection device and unauthorized person detection method
KR20040076639A (en) 2003-02-26 2004-09-03 에스케이텔레텍주식회사 Mobile phone and method for quick dialing using fingerprint recognition
US20040172562A1 (en) 2003-03-01 2004-09-02 Vladimir Berger System and method for identity recognition of an individual for enabling an access to a secured system
US20040198486A1 (en) * 2003-03-04 2004-10-07 Walker Jay S. Method and apparatus for determining and presenting outcomes at a gaming device
JP4296008B2 (en) 2003-03-04 2009-07-15 日本信号株式会社 Personal authentication system
JP2004297468A (en) 2003-03-27 2004-10-21 Lg Electronics Inc Remote control unit
US20040196400A1 (en) 2003-04-07 2004-10-07 Stavely Donald J. Digital camera user interface using hand gestures
US7188308B2 (en) * 2003-04-08 2007-03-06 Thomas Weise Interface and method for exploring a collection of data
US20040201595A1 (en) 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
JP2004313459A (en) 2003-04-16 2004-11-11 Seiko Epson Corp Fingerprint matching device, electronic device, and fingerprint matching method
US7274808B2 (en) * 2003-04-18 2007-09-25 Avago Technologies Ecbu Ip (Singapore)Pte Ltd Imaging system and apparatus for combining finger recognition and finger navigation
US20040250138A1 (en) 2003-04-18 2004-12-09 Jonathan Schneider Graphical event-based password system
JP2004334788A (en) 2003-05-12 2004-11-25 Minoru Ikeda Personal identification system, authentication device, personal identification method, program, and recording medium
AU2003902422A0 (en) 2003-05-19 2003-06-05 Intellirad Solutions Pty. Ltd Access security system
US6888445B2 (en) 2003-05-20 2005-05-03 Bradley L. Gotfried Vehicle identification system
KR20070026809A (en) 2003-05-21 2007-03-08 가부시키가이샤 히다치 하이테크놀로지즈 Portable terminal device with fingerprint sensor
WO2005001611A2 (en) 2003-05-30 2005-01-06 Privaris, Inc. A system and methods for assignation and use of media content subscription service privileges
JP2005004490A (en) 2003-06-12 2005-01-06 Murata Mach Ltd Document processor and its program
JPWO2004111940A1 (en) 2003-06-16 2006-07-27 よこはまティーエルオー株式会社 Personal authentication device and system including personal authentication device
US7474772B2 (en) * 2003-06-25 2009-01-06 Atrua Technologies, Inc. System and method for a miniature user input device
US7057607B2 (en) 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
KR100613697B1 (en) 2003-07-18 2006-08-21 학교법인연세대학교 Fingerprint image acquisition method according to sliding / rolling of finger
JP4551635B2 (en) 2003-07-31 2010-09-29 ソニー株式会社 Pipeline processing system and information processing apparatus
JP2005056152A (en) 2003-08-05 2005-03-03 Ricoh Co Ltd Electronic voting system, method, program, and recording medium
WO2005020190A2 (en) 2003-08-11 2005-03-03 Virtualblue, Llc Rectractable flexible digital display apparatus
US20050044387A1 (en) 2003-08-18 2005-02-24 Ozolins Helmars E. Portable access device
US20040230843A1 (en) 2003-08-20 2004-11-18 Wayne Jansen System and method for authenticating users using image selection
JP4633347B2 (en) 2003-08-27 2011-02-16 ソニー株式会社 Electronics
WO2005022473A1 (en) 2003-08-29 2005-03-10 Nokia Corporation Method and device for customized picture-based user identification and authentication
JP4086740B2 (en) 2003-09-09 2008-05-14 日本電気株式会社 Terminal user monitoring system
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
EP1521161A3 (en) 2003-09-25 2006-03-15 Matsushita Electric Industrial Co., Ltd. An apparatus and a method for preventing unauthorized use and a device with a function of preventing unauthorized use
JP4495545B2 (en) 2003-09-25 2010-07-07 パナソニック株式会社 Unauthorized use prevention apparatus and method
US7280677B2 (en) * 2003-10-10 2007-10-09 Authentec, Inc. Electronic device including fingerprint sensor and display having selectable menu items and associated methods
US7492472B2 (en) 2003-10-30 2009-02-17 Xerox Corporation Multimedia communications/collaboration hub
JP4448000B2 (en) 2003-11-05 2010-04-07 キヤノン株式会社 Information transmission apparatus, information transmission destination designation method, storage medium, and program
JP4387764B2 (en) 2003-11-10 2009-12-24 富士通株式会社 Authentication device and authentication system
US7597250B2 (en) 2003-11-17 2009-10-06 Dpd Patent Trust Ltd. RFID reader with multiple interfaces
KR100580630B1 (en) 2003-11-19 2006-05-16 삼성전자주식회사 Person identification device and method using infrared ray
TW200517975A (en) 2003-11-20 2005-06-01 Lightuning Tech Inc Sweep-type fingerprint sensor device capable of guiding a finger in a fixed sweeping direction
US20050114686A1 (en) 2003-11-21 2005-05-26 International Business Machines Corporation System and method for multiple users to securely access encrypted data on computer system
JP4131229B2 (en) 2003-11-25 2008-08-13 日本電気株式会社 Folding mobile phone and method for unlocking folding mobile phone
JP2005175555A (en) 2003-12-08 2005-06-30 Hitachi Ltd Mobile communication device
CN1627317A (en) 2003-12-12 2005-06-15 北京阳光奥森科技有限公司 Method for obtaining image of human faces by using active light source
KR100554129B1 (en) 2003-12-19 2006-02-20 노틸러스효성 주식회사 Personal authentication device using heat information of human body and its method
WO2005064447A2 (en) 2003-12-23 2005-07-14 Authentec, Inc. Electronic device with finger sensor for character entry and associated methods
WO2005069212A1 (en) 2004-01-13 2005-07-28 Fujitsu Limited Authenticator using organism information
JP2005202578A (en) 2004-01-14 2005-07-28 Toshiba Corp Communication device and communication method
US7697729B2 (en) * 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
JP2005219630A (en) 2004-02-05 2005-08-18 Pioneer Electronic Corp Operation control device, processing control device, operation controlling method, its program, and recording medium recording the program
TWI231689B (en) 2004-02-27 2005-04-21 Htc Corp Handheld electronic device
KR100652624B1 (en) 2004-03-02 2006-12-06 엘지전자 주식회사 How to display standby screen of mobile communication terminal
JP2005275488A (en) 2004-03-23 2005-10-06 Nippon Telegr & Teleph Corp <Ntt> Input support method and program
US7693308B2 (en) 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
US7542592B2 (en) 2004-03-29 2009-06-02 Siemesn Corporate Research, Inc. Systems and methods for face detection and recognition using infrared imaging
US7378939B2 (en) 2004-03-30 2008-05-27 Sengupta Uttam K Method and apparatus for providing proximity based authentication, security, and notification in a wireless system
KR100633184B1 (en) * 2004-04-06 2006-10-12 엘지전자 주식회사 Menu setting device and method of image display device
JP4059224B2 (en) 2004-04-13 2008-03-12 株式会社デンソー Driver appearance recognition system
US8358815B2 (en) * 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8165355B2 (en) * 2006-09-11 2012-04-24 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications
US8175345B2 (en) * 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
EP1747525A2 (en) 2004-04-23 2007-01-31 Validity Sensors Inc. Methods and apparatus for acquiring a swiped fingerprint image
FR2869723A1 (en) * 2004-04-29 2005-11-04 Thomson Licensing Sa NON-CONTACT TRANSITION ELEMENT BETWEEN A WAVEGUIDE AND A MOCRORUBAN LINE
JP2005324450A (en) 2004-05-14 2005-11-24 Canon Inc Image forming apparatus, information processing apparatus, job displaying and controlling method, storage medium storing computer-readable program and program
JP4321350B2 (en) 2004-05-14 2009-08-26 パナソニック株式会社 Parameter estimation method, parameter estimation device, and verification method
JP2005339425A (en) 2004-05-31 2005-12-08 Sanyo Electric Co Ltd Personal identification device
US8684839B2 (en) 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
US20060021003A1 (en) 2004-06-23 2006-01-26 Janus Software, Inc Biometric authentication system
TWI267789B (en) 2004-06-30 2006-12-01 Au Optronics Corp Transparent touch panel for recognizing fingerprint
JP2006018613A (en) 2004-07-02 2006-01-19 Oki Electric Ind Co Ltd Automatic transaction device
KR20060003689A (en) 2004-07-07 2006-01-11 엘지전자 주식회사 Menu selection device and method of fingerprint recognition communication terminal
US8190907B2 (en) 2004-08-11 2012-05-29 Sony Computer Entertainment Inc. Process and apparatus for automatically identifying user of consumer electronics
US7328850B2 (en) 2004-08-12 2008-02-12 Codecard, Inc. Financial and similar identification cards and methods relating thereto
JP2006072872A (en) 2004-09-06 2006-03-16 Matsushita Electric Ind Co Ltd Portable information processing apparatus, method for rotating screen of information processing apparatus, and synthesis data rotation method
KR20060022001A (en) 2004-09-06 2006-03-09 현대모비스 주식회사 Car Audio Button Installation Structure
JP4699139B2 (en) 2004-09-14 2011-06-08 富士フイルム株式会社 Security system
JP2006085559A (en) 2004-09-17 2006-03-30 Canon Inc Personal identification system, personal authentication method and storage medium
US20060075250A1 (en) 2004-09-24 2006-04-06 Chung-Wen Liao Touch panel lock and unlock function and hand-held device
JP4266363B2 (en) 2004-09-27 2009-05-20 日本開閉器工業株式会社 Pressure sensitive fingerprint sensor
JP4351982B2 (en) 2004-10-07 2009-10-28 株式会社東芝 Personal authentication method, apparatus and program
JP2006107366A (en) 2004-10-08 2006-04-20 Fujitsu Ltd Biometric information input device, biometric authentication device, biometric information processing method, biometric information processing program, and computer-readable recording medium recording the program
EP1646254B1 (en) 2004-10-11 2008-04-16 Swisscom Mobile AG Identification and/or authentification method by means of fingerprints
JP4442385B2 (en) 2004-10-13 2010-03-31 株式会社カシオ日立モバイルコミュニケーションズ Portable terminal device and program
JP2006121334A (en) 2004-10-20 2006-05-11 Vodafone Kk Information communication terminal and communication management system
JP2006119920A (en) 2004-10-21 2006-05-11 Matsushita Electric Ind Co Ltd Information terminal device
KR20060038274A (en) * 2004-10-29 2006-05-03 엘지전자 주식회사 Fingerprint sensor and fingerprint recognition device of mobile communication terminal using same
US20060093192A1 (en) 2004-11-03 2006-05-04 Bechtel J S Finger guide device
KR100682898B1 (en) 2004-11-09 2007-02-15 삼성전자주식회사 Imaging device using infrared and its image identification method
PL3432181T3 (en) 2004-11-12 2021-07-19 Koninklijke Philips N.V. Distinctive user identification and authentication for multiple user access to display devices
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
US7138905B2 (en) 2004-11-18 2006-11-21 Honeywell International Inc. Controlled environment thermal image detection system and methods regarding same
JP2006146579A (en) 2004-11-19 2006-06-08 Olympus Corp Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus
JP2006157154A (en) 2004-11-25 2006-06-15 Canon Inc Information input apparatus and camera
US20060115130A1 (en) 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US8224753B2 (en) 2004-12-07 2012-07-17 Farsheed Atef System and method for identity verification and management
US20060136734A1 (en) 2004-12-21 2006-06-22 Eastman Kodak Company Identification display device
JP2006189999A (en) 2005-01-04 2006-07-20 Fujitsu Ltd Security management method, program, and information device
JP2006191245A (en) 2005-01-05 2006-07-20 Nec Corp Dial lock function authentication unit and its method, and portable terminal employing it
KR100729280B1 (en) 2005-01-08 2007-06-15 아이리텍 잉크 Iris Identification System and Method using Mobile Device with Stereo Camera
US8438400B2 (en) 2005-01-11 2013-05-07 Indigo Identityware, Inc. Multiple user desktop graphical identification and authentication
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
JP2006215705A (en) 2005-02-02 2006-08-17 Sony Ericsson Mobilecommunications Japan Inc Information communication apparatus, information communication system, information recording device, and information reproducing device
US8145912B2 (en) 2005-03-01 2012-03-27 Qualcomm Incorporated System and method for using a visual password scheme
JP4702598B2 (en) 2005-03-15 2011-06-15 オムロン株式会社 Monitoring system, monitoring apparatus and method, recording medium, and program
JP4734980B2 (en) 2005-03-15 2011-07-27 オムロン株式会社 Face authentication device and control method therefor, electronic device equipped with face authentication device, face authentication device control program, and recording medium recording the program
JP4696608B2 (en) 2005-03-15 2011-06-08 オムロン株式会社 Subject authentication device, mobile phone, and subject authentication program
US7561145B2 (en) * 2005-03-18 2009-07-14 Microsoft Corporation Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
CN101180599A (en) * 2005-03-28 2008-05-14 松下电器产业株式会社 user interface system
JP4739787B2 (en) 2005-03-28 2011-08-03 富士通株式会社 Electronics
US7725511B2 (en) 2005-03-31 2010-05-25 Intel Corporation Bio-metric input mechanism
JP2006303701A (en) 2005-04-18 2006-11-02 Fujitsu Ltd Electronic device, operation inhibition control method thereof, and operation inhibition control program
JP2006301785A (en) 2005-04-18 2006-11-02 Toshiba Corp Information processor and program
JP2006301201A (en) 2005-04-19 2006-11-02 Canon Inc Optical device and camera system
US7590269B2 (en) 2005-04-22 2009-09-15 Microsoft Corporation Integrated control for navigation, authentication, power on and rotation
JP2006308375A (en) 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd Infrared ray using type eye position detection device
TWI267791B (en) 2005-05-13 2006-12-01 Lite On Semiconductor Corp Handheld device for acquiring fingerprint information
US7929946B2 (en) 2005-05-24 2011-04-19 Rathus Spencer A Remote subscriber identification (RSID) system and method
US20090201257A1 (en) 2005-05-27 2009-08-13 Kei Saitoh Display Device
US7810720B2 (en) 2005-06-13 2010-10-12 Robert Lovett Account payment using barcode information exchange
US7347361B2 (en) 2005-06-13 2008-03-25 Robert Lovett System, method and program product for account transaction validation
US8370639B2 (en) 2005-06-16 2013-02-05 Sensible Vision, Inc. System and method for providing secure access to an electronic device using continuous facial biometrics
US20060284853A1 (en) * 2005-06-16 2006-12-21 Xm Satellite Radio, Inc. Context sensitive data input using finger or fingerprint recognition
KR100713494B1 (en) 2005-06-20 2007-04-30 삼성전자주식회사 User authentication method using camera and mobile communication terminal for same
US20060289638A1 (en) 2005-06-27 2006-12-28 Schilling Donald L Voting verification system and method
JP2007011420A (en) 2005-06-28 2007-01-18 Konami Co Ltd Authentication device and game device provided therewith
JP2007011667A (en) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd Iris authentication device and iris authentication method
US20070016958A1 (en) 2005-07-12 2007-01-18 International Business Machines Corporation Allowing any computer users access to use only a selection of the available applications
JP4774245B2 (en) 2005-07-15 2011-09-14 日立オムロンターミナルソリューションズ株式会社 Automatic transaction device for biometric authentication
JP2007036928A (en) 2005-07-29 2007-02-08 Sharp Corp Mobile information terminal device
JP4646734B2 (en) 2005-08-17 2011-03-09 シャープ株式会社 Portable information terminal device
JP2007058397A (en) 2005-08-23 2007-03-08 Konica Minolta Holdings Inc Authentication system, registration system, and medium for certificate
US20070061126A1 (en) * 2005-09-01 2007-03-15 Anthony Russo System for and method of emulating electronic input devices
WO2007029710A1 (en) 2005-09-07 2007-03-15 Matsushita Electric Industrial Co., Ltd. Mobile processor apparatus
US20070287540A1 (en) * 2005-09-08 2007-12-13 Brahmandam Kiran Soft key hot spot activation system and method
EP1924944A4 (en) 2005-09-12 2012-11-07 Sand Box Technologies Inc System and method for controlling distribution of electronic information
US8090945B2 (en) 2005-09-16 2012-01-03 Tara Chand Singhal Systems and methods for multi-factor remote user authentication
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
JP2007097820A (en) 2005-10-04 2007-04-19 Sumitomo Electric Ind Ltd Biopsy system and biopsy method
US7484173B2 (en) 2005-10-18 2009-01-27 International Business Machines Corporation Alternative key pad layout for enhanced security
KR100663437B1 (en) 2005-11-01 2007-01-02 삼성전자주식회사 Remote input method using fingerprint sensor
JP2007128288A (en) * 2005-11-04 2007-05-24 Fuji Xerox Co Ltd Information display system
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
JP2007135149A (en) 2005-11-14 2007-05-31 Nec Corp Mobile portable terminal
US7868874B2 (en) 2005-11-15 2011-01-11 Synaptics Incorporated Methods and systems for detecting a position-based attribute of an object using digital codes
GB0523995D0 (en) 2005-11-25 2006-01-04 Ibm Method,system and computer program product for access control
JP2007148801A (en) 2005-11-28 2007-06-14 Yamatake Corp Fingerprint verification device
SG133415A1 (en) 2005-12-12 2007-07-30 Syed Mahtab Uddin Mahmood Antiphishing login techniques
WO2007072447A2 (en) 2005-12-21 2007-06-28 Koninklijke Philips Electronics N.V. Biometric information detection using sweep-type imager
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4252994B2 (en) 2005-12-26 2009-04-08 株式会社日立製作所 Mobile phone
JP2007172508A (en) 2005-12-26 2007-07-05 Sony Corp Detachable storage device and authentication method
JP2007179213A (en) 2005-12-27 2007-07-12 Kosugi Masami Network confidential information control system
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
CN100999961A (en) 2006-01-14 2007-07-18 姜仁忠 New Sci & Tech. cipher lock and design method of key thereof
KR20070081773A (en) 2006-02-13 2007-08-17 스마트 와이어레스 가부시키가이샤 Infrared face authentication device, portable terminal and security device having same
WO2007093035A1 (en) 2006-02-14 2007-08-23 Sand Box Technologies Inc. System and method for searching rights enabled documents
US20070204037A1 (en) 2006-02-27 2007-08-30 Microsoft Corporation Multiuser Web Service Sign-In
US7630522B2 (en) 2006-03-08 2009-12-08 Microsoft Corporation Biometric measurement using interactive display systems
JP4853063B2 (en) 2006-03-15 2012-01-11 オムロン株式会社 User device, communication device, authentication system, authentication method, authentication program, and recording medium
KR100746874B1 (en) * 2006-03-16 2007-08-07 삼성전자주식회사 Apparatus and method for providing a service using a touch pad in a mobile terminal
JP4669423B2 (en) * 2006-03-20 2011-04-13 富士通株式会社 Electronic device, scroll control device, and program
WO2008008101A2 (en) 2006-03-20 2008-01-17 Black Gerald R Mobile communication device
US20070226778A1 (en) 2006-03-22 2007-09-27 Jorg Pietruszka Bluetooth theft protection
US9195428B2 (en) 2006-04-05 2015-11-24 Nvidia Corporation Method and system for displaying data from auxiliary display subsystem of a notebook on a main display of the notebook
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
KR100847532B1 (en) 2006-04-06 2008-07-21 재단법인서울대학교산학협력재단 User terminal and authentication device used for user authentication using user behavior pattern information
JPWO2007119818A1 (en) 2006-04-14 2009-08-27 日本電気株式会社 Function unlocking system, function unlocking method, and function unlocking program
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
JP2007293628A (en) 2006-04-25 2007-11-08 Toshiba Corp Information processing apparatus
US9152241B2 (en) * 2006-04-28 2015-10-06 Zienon, Llc Method and apparatus for efficient data input
JP4177858B2 (en) 2006-05-18 2008-11-05 株式会社カシオ日立モバイルコミュニケーションズ Portable terminal device with fingerprint authentication function and program
US20070277224A1 (en) 2006-05-24 2007-11-29 Osborn Steven L Methods and Systems for Graphical Image Authentication
US8970502B2 (en) 2006-05-26 2015-03-03 Touchtable Ab User identification for multi-user touch screens
US20070273658A1 (en) 2006-05-26 2007-11-29 Nokia Corporation Cursor actuation with fingerprint recognition
US20110300829A1 (en) 2006-06-09 2011-12-08 Nokia Corporation Fingerprint activated quick function selection
JP4185533B2 (en) 2006-06-15 2008-11-26 株式会社カシオ日立モバイルコミュニケーションズ Portable terminal device with authentication function and program
KR101277256B1 (en) * 2006-06-16 2013-07-05 삼성전자주식회사 Apparatus and method for user interface
KR100856203B1 (en) * 2006-06-27 2008-09-03 삼성전자주식회사 User input device and method using fingerprint recognition sensor
US9235733B2 (en) * 2006-08-11 2016-01-12 J. Douglas Birdwell Mobile biometrics information collection and identification
WO2008022195A1 (en) 2006-08-15 2008-02-21 Hewlett-Packard Development Company, L.P. Device management system for mobile devices that supports multiple-point transport
US7849321B2 (en) 2006-08-23 2010-12-07 Authernative, Inc. Authentication method of random partial digitized path recognition with a challenge built into the path
US7978091B2 (en) 2006-08-24 2011-07-12 Navisense Method and device for a touchless interface
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
US20080069412A1 (en) 2006-09-15 2008-03-20 Champagne Katrina S Contoured biometric sensor
US8452978B2 (en) 2006-09-15 2013-05-28 Identity Metrics, LLC System and method for user authentication and dynamic usability of touch-screen devices
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
KR100783552B1 (en) * 2006-10-11 2007-12-07 삼성전자주식회사 Method and device for input control of a mobile terminal
TWM317045U (en) 2006-10-20 2007-08-11 Techine Technology Co Ltd Mobile apparatus using human face features identification as access control
JP4700109B2 (en) 2006-11-21 2011-06-15 株式会社日立製作所 Biometric authentication device and portable terminal device
JP4946383B2 (en) 2006-11-22 2012-06-06 富士通株式会社 Information processing apparatus, abnormality detection method for information processing apparatus, and control program
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US8607359B2 (en) 2007-01-22 2013-12-10 Dell Products L.P. Removable hard disk with front panel input
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
JP4679529B2 (en) * 2007-01-31 2011-04-27 Necカシオモバイルコミュニケーションズ株式会社 INPUT DEVICE, MOBILE COMMUNICATION TERMINAL, AND PROGRAM
CN101035335A (en) 2007-02-13 2007-09-12 中电通信科技有限责任公司 Mobile phone privacy protection method
US20080235627A1 (en) * 2007-03-21 2008-09-25 Microsoft Corporation Natural interaction by flower-like navigation
US8111879B2 (en) 2007-04-05 2012-02-07 Honeywell International Inc. Face and iris imaging system and method
US7941834B2 (en) 2007-04-05 2011-05-10 Microsoft Corporation Secure web-based user authentication
US8471689B2 (en) 2007-05-11 2013-06-25 Philippe Stanislas Zaborowski Touch-sensitive motion device
US8681104B2 (en) 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
CN101075174A (en) * 2007-06-15 2007-11-21 魏新成 Method for operating functions by extended task column on left edge of computer screen
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8171432B2 (en) * 2008-01-06 2012-05-01 Apple Inc. Touch screen device, method, and graphical user interface for displaying and selecting application options
US8733632B2 (en) 2007-06-22 2014-05-27 Visa U.S.A. Inc. Mobile subscriber device for financial transaction tokens
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
US7835999B2 (en) 2007-06-27 2010-11-16 Microsoft Corporation Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights
US20090006846A1 (en) 2007-06-27 2009-01-01 Apple Inc. Bluetooth device as security access key
US8127254B2 (en) 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8023700B2 (en) * 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
US20090037742A1 (en) 2007-07-31 2009-02-05 International Business Machines Corporation Biometric authentication device, system and method of biometric authentication
US20090043180A1 (en) 2007-08-08 2009-02-12 Nonin Medical, Inc. Sensor and system providing physiologic data and biometric identification
US20080042979A1 (en) 2007-08-19 2008-02-21 Navid Nikbin Method and apparatus for executing commands or inputting data based on finger's characteristics and Multi-Finger key
US20090063352A1 (en) 2007-08-29 2009-03-05 Lance Kaufman Methods and systems for monetary exchange and transfer
US20090058595A1 (en) * 2007-08-30 2009-03-05 Atmel Corporation Biometric Control Device
JP5172847B2 (en) 2007-09-05 2013-03-27 パナソニック株式会社 Electronics
US20090067685A1 (en) 2007-09-07 2009-03-12 Authentec, Inc. Finger sensing apparatus using template watermarking and associated methods
JP2010541046A (en) 2007-09-24 2010-12-24 アップル インコーポレイテッド Authentication system built into electronic devices
CN101415075A (en) * 2007-10-16 2009-04-22 佛山普立华科技有限公司 Digital camera with fingerprint identification function and use method thereof
US8358200B2 (en) * 2007-10-23 2013-01-22 Hewlett-Packard Development Company Method and system for controlling computer applications
US20090125296A1 (en) * 2007-11-08 2009-05-14 Popcap Games, Inc. Methods and systems for using domain specific rules to identify words
JP4744503B2 (en) 2007-11-30 2011-08-10 シャープ株式会社 Operation processing device
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
KR101387527B1 (en) 2007-12-06 2014-04-23 엘지전자 주식회사 Terminal and method for displaying menu icon therefor
US8881049B2 (en) * 2007-12-14 2014-11-04 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
US8244590B2 (en) * 2007-12-21 2012-08-14 Glyde Corporation Software system for decentralizing ecommerce with single page buy
US20090169070A1 (en) * 2007-12-28 2009-07-02 Apple Inc. Control of electronic device by using a person's fingerprints
US20090176565A1 (en) 2008-01-07 2009-07-09 Bally Gaming, Inc. Gaming devices for biometrically identifying a player
KR100817767B1 (en) 2008-01-14 2008-03-31 알서포트 주식회사 Authentication method using icon password
JP2009171234A (en) 2008-01-16 2009-07-30 Sony Ericsson Mobilecommunications Japan Inc Communication terminal, communication system, and communication method
US8803797B2 (en) * 2008-01-18 2014-08-12 Microsoft Corporation Input through sensing of user-applied forces
US9552155B2 (en) 2008-02-04 2017-01-24 Microsoft Technology Liecsnsing, LLC Dynamic soft keyboard
US9785330B1 (en) * 2008-02-13 2017-10-10 Apple Inc. Systems for and methods of providing inertial scrolling and navigation using a fingerprint sensor calculating swiping speed and length
US20090224874A1 (en) * 2008-03-05 2009-09-10 International Business Machines Corporation Apparatus, system, and method for providing authentication and activation functions to a computing device
US9274681B2 (en) * 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
US7486810B1 (en) 2008-04-24 2009-02-03 International Business Machines Corporation On-type biometrics fingerprint soft keyboard
JP5173566B2 (en) 2008-05-07 2013-04-03 キヤノン株式会社 Image processing apparatus, control method therefor, and program
US9035891B2 (en) * 2008-05-16 2015-05-19 International Business Machines Corporation Multi-point touch-sensitive sensor user interface using distinct digit identification
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8345014B2 (en) * 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
US8482381B2 (en) * 2008-07-31 2013-07-09 Palm, Inc. Multi-purpose detector-based input feature for a computing device
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
JP5317590B2 (en) 2008-09-01 2013-10-16 キヤノン株式会社 Job processing apparatus, control method therefor, storage medium, and program
KR101571723B1 (en) 2008-09-02 2015-11-25 엘지전자 주식회사 Mobile terminal and Method for controlling in thereof
CN101382977B (en) * 2008-09-18 2010-09-01 杭州晟元芯片技术有限公司 Control device and method for opening and closing computer software and hardware system based on biology authentication
FR2936326B1 (en) * 2008-09-22 2011-04-29 Stantum DEVICE FOR THE CONTROL OF ELECTRONIC APPARATUS BY HANDLING GRAPHIC OBJECTS ON A MULTICONTACT TOUCH SCREEN
US20100076823A1 (en) 2008-09-24 2010-03-25 Yasha Feldman Voting system and method of voting
US20100115452A1 (en) * 2008-11-03 2010-05-06 Novarra, Inc. Methods and Systems for Providing Navigation Bars in a Client Browser for a Client Device
JP4752900B2 (en) * 2008-11-19 2011-08-17 ソニー株式会社 Image processing apparatus, image display method, and image display program
US9477396B2 (en) * 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
KR20100059698A (en) * 2008-11-25 2010-06-04 삼성전자주식회사 Apparatus and method for providing user interface, and computer-readable recording medium recording the same
EP2192511B1 (en) 2008-12-01 2013-09-11 BlackBerry Limited Simplified biometric character sequence entry
KR20100066036A (en) * 2008-12-09 2010-06-17 삼성전자주식회사 Operation method and apparatus for portable device
JP5212640B2 (en) 2008-12-18 2013-06-19 シャープ株式会社 Interface device and GUI configuration method
CN101770299B (en) * 2008-12-26 2013-11-06 深圳富泰宏精密工业有限公司 System and method for realizing functions of navigation keys
US20100180136A1 (en) 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Wake-On-Event Mode For Biometric Systems
US20100201636A1 (en) * 2009-02-11 2010-08-12 Microsoft Corporation Multi-mode digital graphics authoring
US20100208953A1 (en) 2009-02-17 2010-08-19 Validity Sensors, Inc. Illuminated Fingerprint Sensor and Method
US8605960B2 (en) * 2009-03-02 2013-12-10 Avago Technologies General Ip (Singapore) Pte. Ltd. Fingerprint sensing device
KR101549556B1 (en) * 2009-03-06 2015-09-03 엘지전자 주식회사 Mobile terminal and control method thereof
KR101549557B1 (en) * 2009-03-10 2015-09-03 엘지전자 주식회사 Mobile terminal and control method thereof
US8566045B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US20100237991A1 (en) * 2009-03-17 2010-09-23 Prabhu Krishnanand Biometric scanning arrangement and methods thereof
KR101549558B1 (en) * 2009-03-18 2015-09-03 엘지전자 주식회사 Mobile terminal and control method thereof
US8605961B2 (en) 2009-03-30 2013-12-10 Motorola Mobility Llc Method and apparatus for determining a physiological parameter using a fingerprint sensor on a portable electronic device
KR20100111121A (en) 2009-04-06 2010-10-14 뮤텔테크놀러지 주식회사 Wireless home network system and installing method thereof
US8300023B2 (en) 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
US20100265204A1 (en) * 2009-04-21 2010-10-21 Sony Ericsson Mobile Communications Ab Finger recognition for authentication and graphical user interface input
CN102422304A (en) * 2009-04-29 2012-04-18 惠普发展公司,有限责任合伙企业 Fingerprint scanner
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
KR101597553B1 (en) * 2009-05-25 2016-02-25 엘지전자 주식회사 How to implement the function and its device
KR20100134948A (en) * 2009-06-16 2010-12-24 삼성전자주식회사 Menu display method of a device having a touch screen
US8407613B2 (en) * 2009-07-13 2013-03-26 Apple Inc. Directory management on a portable multifunction device
JP2011022687A (en) 2009-07-14 2011-02-03 Fujitsu Ltd Electronic device having authentication function and authentication method
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium
US20110039602A1 (en) * 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
JP5371626B2 (en) * 2009-08-18 2013-12-18 キヤノン株式会社 Display control device, display control device control method, program, and storage medium
JP2011048523A (en) 2009-08-26 2011-03-10 Kyocera Corp Portable radio terminal
JP2011053974A (en) * 2009-09-02 2011-03-17 Sony Corp Device and method for controlling operation, and computer program
US8413065B2 (en) * 2009-09-07 2013-04-02 Qualcomm Incorporated User interface methods for ending an application
WO2011030357A1 (en) * 2009-09-08 2011-03-17 Telecom Italia S.P.A. Method for exploring a catalog of digital information contents
JP5589326B2 (en) 2009-09-08 2014-09-17 ヤマハ株式会社 Program for realizing electronic music apparatus and control method thereof
KR20120085783A (en) * 2009-09-23 2012-08-01 딩난 한 Method and interface for man-machine interaction
KR101648747B1 (en) 2009-10-07 2016-08-17 삼성전자 주식회사 Method for providing user interface using a plurality of touch sensor and mobile terminal using the same
KR101640464B1 (en) * 2009-10-26 2016-07-18 삼성전자 주식회사 Method for providing user interface based on touch screen and mobile terminal using the same
US8581847B2 (en) * 2009-10-29 2013-11-12 Pixart Imaging Inc. Hybrid pointing device
US9336428B2 (en) * 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
EP2360665A3 (en) * 2009-11-26 2012-03-28 LG Electronics Mobile terminal and control method thereof
KR101649638B1 (en) 2009-11-26 2016-08-19 엘지전자 주식회사 Mobile terminal and control method thereof
US20110138313A1 (en) * 2009-12-03 2011-06-09 Kevin Decker Visually rich tab representation in user interface
US8433110B2 (en) 2009-12-11 2013-04-30 Sonavation, Inc. Pulse-rate detection using a fingerprint sensor
KR101604843B1 (en) * 2009-12-30 2016-03-21 엘지전자 주식회사 Mobile terminal and operation control method thereof
US9785341B2 (en) * 2009-12-31 2017-10-10 Verizon Patent And Licensing Inc. Inter-application navigation apparatuses, systems, and methods
US8862576B2 (en) * 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
KR101631958B1 (en) 2010-01-14 2016-06-20 엘지전자 주식회사 Input device and mobile terminal having the same
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20110285648A1 (en) 2010-01-22 2011-11-24 Lester Ludwig Use of fingerprint scanning sensor data to detect finger roll and pitch angles
US8677268B2 (en) * 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
KR101690786B1 (en) 2010-02-12 2016-12-28 삼성전자주식회사 Device and method for performing multi-tasking
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
JP2011180843A (en) * 2010-03-01 2011-09-15 Sony Corp Apparatus and method for processing information, and program
KR20110103598A (en) 2010-03-15 2011-09-21 주식회사 엘지유플러스 System and method for unlocking the terminal
JP2011229141A (en) 2010-03-31 2011-11-10 Sharp Corp Television receiver and operation mode automatic setting method for television receiver
US9052925B2 (en) 2010-04-07 2015-06-09 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
KR101678812B1 (en) * 2010-05-06 2016-11-23 엘지전자 주식회사 Mobile terminal and operation control method thereof
US8856682B2 (en) * 2010-05-11 2014-10-07 AI Squared Displaying a user interface in a dedicated display area
US20110287741A1 (en) * 2010-05-18 2011-11-24 Prabhu Krishnanand Secure application control in mobile terminal using biometric sensor
EP2388734A1 (en) 2010-05-21 2011-11-23 Research In Motion Limited Fingerprint scanning with a camera
US20110296351A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
WO2011153623A2 (en) * 2010-06-08 2011-12-15 Aastra Technologies Limited Method and system for video communication
CN201765630U (en) 2010-06-28 2011-03-16 杭州晟元芯片技术有限公司 Payment device based on fingerprint identification
US8972903B2 (en) * 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
US9483175B2 (en) * 2010-07-26 2016-11-01 Apple Inc. Device, method, and graphical user interface for navigating through a hierarchy
WO2012016191A1 (en) * 2010-07-29 2012-02-02 Ultra-Scan Corporation Device and method of controlling a computer using centroids
US20120030624A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Displaying Menus
DE102010036906A1 (en) * 2010-08-06 2012-02-09 Tavendo Gmbh Configurable pie menu
WO2012019350A1 (en) * 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen
WO2012022999A1 (en) * 2010-08-20 2012-02-23 Sony Ericsson Mobile Communications Ab Method for an integrated scrollbar options menu and related device and computer program product
US9626099B2 (en) * 2010-08-20 2017-04-18 Avaya Inc. Multi-finger sliding detection using fingerprints to generate different events
KR20120018685A (en) 2010-08-23 2012-03-05 주식회사 팬택 Termianl for recogniging multi user input and control method thereof
US8311514B2 (en) 2010-09-16 2012-11-13 Microsoft Corporation Prevention of accidental device activation
JP5615642B2 (en) 2010-09-22 2014-10-29 京セラ株式会社 Portable terminal, input control program, and input control method
ES2900188T3 (en) * 2010-09-24 2022-03-16 Huawei Tech Co Ltd Portable electronic device and method for controlling the same
CN103119546A (en) * 2010-09-24 2013-05-22 捷讯研究有限公司 Transitional view on a portable electronic device
CA2750352C (en) * 2010-09-24 2019-03-05 Research In Motion Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
KR101741519B1 (en) 2010-09-30 2017-06-01 삼성전자주식회사 3D Glasses and Method for Controlling thereof
US20120084736A1 (en) * 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controlled screen repositioning for one or more displays
US20120086629A1 (en) * 2010-10-07 2012-04-12 Thoern Ola Electronic device having movement-based user input and method
US20120092127A1 (en) 2010-10-18 2012-04-19 Qualcomm Mems Technologies, Inc. Multifunctional input device for authentication and security applications
KR20120042684A (en) 2010-10-23 2012-05-03 김남현 Data transfer/receive method and system using finger printinformation
US8564314B2 (en) 2010-11-02 2013-10-22 Atmel Corporation Capacitive touch sensor for identifying a fingerprint
KR102188757B1 (en) 2010-11-18 2020-12-08 구글 엘엘씨 Surfacing off-screen visible objects
US20120127179A1 (en) * 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface
US9201539B2 (en) * 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
KR20120074490A (en) * 2010-12-28 2012-07-06 삼성전자주식회사 Apparatus and method for displaying menu of portable terminal
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9310940B2 (en) * 2011-01-17 2016-04-12 Pixart Imaging Inc. Capacitive touchscreen or touch panel with fingerprint reader
US8291349B1 (en) * 2011-01-19 2012-10-16 Google Inc. Gesture-based metadata display
JP2015039084A (en) 2011-02-28 2015-02-26 シャープ株式会社 Image display device set
US20120226979A1 (en) * 2011-03-04 2012-09-06 Leica Camera Ag Navigation of a Graphical User Interface Using Multi-Dimensional Menus and Modes
US8904305B2 (en) * 2011-03-11 2014-12-02 Google Inc. Automatically hiding controls
US20120266079A1 (en) * 2011-04-18 2012-10-18 Mark Lee Usability of cross-device user interfaces
US20120268485A1 (en) * 2011-04-22 2012-10-25 Panasonic Corporation Visualization of Query Results in Relation to a Map
US8938101B2 (en) * 2011-04-26 2015-01-20 Sony Computer Entertainment America Llc Apparatus, system, and method for real-time identification of finger impressions for multiple users
US20120280927A1 (en) * 2011-05-04 2012-11-08 Ludwig Lester F Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems
US20120297324A1 (en) * 2011-05-18 2012-11-22 Microsoft Corporation Navigation Control Availability
KR101250250B1 (en) * 2011-05-18 2013-04-03 한국과학기술연구원 Apparatus, method and computer readable recording medium for displaying contents
CN102281539B (en) 2011-08-29 2014-10-29 惠州Tcl移动通信有限公司 Mobile terminal and application program login method thereof
US9348364B2 (en) * 2011-09-09 2016-05-24 Facebook, Inc. Content scrolling and transitioning using touchpad input
US9779112B2 (en) * 2011-09-12 2017-10-03 Here Global B.V. Method and apparatus for providing list-based exploration of mapping data
US8610684B2 (en) * 2011-10-14 2013-12-17 Blackberry Limited System and method for controlling an electronic device having a touch-sensitive non-display area
US8711116B2 (en) * 2011-10-17 2014-04-29 Facebook, Inc. Navigating applications using side-mounted touchpad
KR101160681B1 (en) 2011-10-19 2012-06-28 배경덕 Method, mobile communication terminal and computer-readable recording medium for operating specific function when activaing of mobile communication terminal
US20130129162A1 (en) * 2011-11-22 2013-05-23 Shian-Luen Cheng Method of Executing Software Functions Using Biometric Detection and Related Electronic Device
US8836472B2 (en) * 2011-11-23 2014-09-16 Blackberry Limited Combining navigation and fingerprint sensing
US8572515B2 (en) * 2011-11-30 2013-10-29 Google Inc. Turning on and off full screen mode on a touchscreen
US20130173925A1 (en) * 2011-12-28 2013-07-04 Ester Yen Systems and Methods for Fingerprint-Based Operations
US8890825B2 (en) * 2012-02-20 2014-11-18 Nokia Corporation Apparatus and method for determining the position of user input
US20130219340A1 (en) * 2012-02-21 2013-08-22 Sap Ag Navigation on a Portable Electronic Device
US9817568B2 (en) * 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
TW201339917A (en) * 2012-03-30 2013-10-01 Hon Hai Prec Ind Co Ltd Method and system for controlling touch-sensitive electronic device
US9348987B2 (en) * 2012-04-19 2016-05-24 Apple Inc. Electronic device including finger-operated input device based biometric matching and related methods
US20130307788A1 (en) * 2012-05-16 2013-11-21 Motorola Solutions, Inc. Device and method for automated use of force sensing touch panels
CN111176516B (en) 2012-05-18 2023-10-20 苹果公司 Apparatus, method and graphical user interface for manipulating a user interface
KR20130136173A (en) * 2012-06-04 2013-12-12 삼성전자주식회사 Method for providing fingerprint based shortcut key, machine-readable storage medium and portable terminal
US9152842B2 (en) * 2012-06-29 2015-10-06 Apple Inc. Navigation assisted fingerprint enrollment
US8464181B1 (en) * 2012-07-03 2013-06-11 Google Inc. Floor selection on an interactive digital map
US9201585B1 (en) * 2012-09-17 2015-12-01 Amazon Technologies, Inc. User interface navigation gestures
US9141259B2 (en) * 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface
US9218544B2 (en) 2013-02-01 2015-12-22 Apple Inc. Intelligent matcher based on situational or spatial orientation
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9645651B2 (en) * 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
KR102217858B1 (en) 2013-11-13 2021-02-19 삼성전자주식회사 Method for fingerprint authentication, fingerprint authentication device, and mobile terminal performing thereof
US9705676B2 (en) * 2013-12-12 2017-07-11 International Business Machines Corporation Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management
KR102139795B1 (en) 2014-12-15 2020-07-31 삼성전자주식회사 Method for updating biometric feature pattern and the electronic device therefor
EP3089064A1 (en) 2015-04-08 2016-11-02 LG Electronics Inc. Mobile terminal and method for controlling the same
US9904409B2 (en) 2015-04-15 2018-02-27 Samsung Electronics Co., Ltd. Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same
EP3208733B1 (en) 2016-02-19 2020-07-01 Sony Corporation Terminal device, method, and program
GB2550131A (en) * 2016-05-09 2017-11-15 Web Communications Ltd Apparatus and methods for a user interface
DK179411B1 (en) 2016-09-06 2018-06-06 Apple Inc Devices and methods for processing and rendering touch inputs unambiguous using intensity thresholds based on a prior input intensity
KR102185854B1 (en) 2017-09-09 2020-12-02 애플 인크. Implementation of biometric authentication
CN110020518A (en) 2018-01-10 2019-07-16 敦泰电子有限公司 A kind of terminal control method based on fingerprint recognition key, device and terminal
EP3939375B1 (en) * 2019-03-12 2025-05-21 Omnifi Inc. Radically inexpensive and flexible wireless deployment system and method
KR102646536B1 (en) 2019-04-25 2024-03-13 삼성전자주식회사 Electronic device and method for performing biometrics function and intelligent agent function using user input in the electronic device
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080165255A1 (en) * 2007-01-05 2008-07-10 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US20110175807A1 (en) * 2010-01-19 2011-07-21 Avaya Inc. Detection of a rolling motion or sliding motion of a body part on a surface

Also Published As

Publication number Publication date
AU2018204174B2 (en) 2019-11-07
JP2018200696A (en) 2018-12-20
AU2016219716A1 (en) 2016-09-15
EP2850510A2 (en) 2015-03-25
WO2013173838A2 (en) 2013-11-21
US11989394B2 (en) 2024-05-21
AU2013262488A1 (en) 2014-12-18
JP7345442B2 (en) 2023-09-15
US20150135108A1 (en) 2015-05-14
BR112014028774B1 (en) 2022-05-10
JP2020198105A (en) 2020-12-10
JP6360866B2 (en) 2018-07-18
CN111310619A (en) 2020-06-19
KR20150021943A (en) 2015-03-03
JP6023879B2 (en) 2016-11-09
CN106133748A (en) 2016-11-16
HK1206452A1 (en) 2016-01-08
CN111176516A (en) 2020-05-19
US20220066604A1 (en) 2022-03-03
AU2018204174A1 (en) 2018-06-28
CN111178332A (en) 2020-05-19
BR112014028774A2 (en) 2017-06-27
CN111176516B (en) 2023-10-20
JP2015520456A (en) 2015-07-16
US11209961B2 (en) 2021-12-28
CN111310619B (en) 2021-06-04
CN106133748B (en) 2020-01-31
US20240264727A1 (en) 2024-08-08
AU2020200397B2 (en) 2021-03-11
AU2020200397A1 (en) 2020-02-13
JP2017062800A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
US20220066604A1 (en) Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11636192B2 (en) Secure login with authentication based on a visual representation of data
US20200225819A1 (en) Device, method, and graphical user interface for switching between two user interfaces
KR102242502B1 (en) Devices and methods for accessing general device functions
US20200234027A1 (en) Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
EP3420439B1 (en) Motion-based configuration of a multi-user device
US12189756B2 (en) User interfaces for managing passwords
WO2012088474A2 (en) Device, method, and graphical user interface for switching between two user interfaces

Legal Events

Date Code Title Description
A201 Request for examination
PA0105 International application

Patent event date: 20141218

Patent event code: PA01051R01D

Comment text: International Patent Application

PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20141218

Comment text: Request for Examination of Application

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160216

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20161221

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170221

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170221

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20200115

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210115

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20220118

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20230117

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20240109

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20250106

Start annual number: 9

End annual number: 9