KR101710771B1 - Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs - Google Patents
Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs Download PDFInfo
- Publication number
- KR101710771B1 KR101710771B1 KR1020147035557A KR20147035557A KR101710771B1 KR 101710771 B1 KR101710771 B1 KR 101710771B1 KR 1020147035557 A KR1020147035557 A KR 1020147035557A KR 20147035557 A KR20147035557 A KR 20147035557A KR 101710771 B1 KR101710771 B1 KR 101710771B1
- Authority
- KR
- South Korea
- Prior art keywords
- delete delete
- user interface
- fingerprint
- display
- fingerprint sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 512
- 230000004044 response Effects 0.000 claims abstract description 328
- 230000033001 locomotion Effects 0.000 claims abstract description 224
- 230000004913 activation Effects 0.000 claims description 182
- 230000010365 information processing Effects 0.000 claims description 35
- 230000003213 activating effect Effects 0.000 claims description 32
- 230000007704 transition Effects 0.000 claims description 24
- 238000006073 displacement reaction Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 14
- 230000009977 dual effect Effects 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 description 302
- 238000012545 processing Methods 0.000 description 197
- 230000009471 action Effects 0.000 description 195
- 238000001514 detection method Methods 0.000 description 175
- 238000001994 activation Methods 0.000 description 164
- 230000035945 sensitivity Effects 0.000 description 137
- 238000012795 verification Methods 0.000 description 132
- 210000003811 finger Anatomy 0.000 description 114
- 230000008569 process Effects 0.000 description 74
- 238000010586 diagram Methods 0.000 description 55
- 230000006870 function Effects 0.000 description 48
- 238000004891 communication Methods 0.000 description 43
- 210000003813 thumb Anatomy 0.000 description 40
- 230000000007 visual effect Effects 0.000 description 40
- 230000009467 reduction Effects 0.000 description 38
- 230000001149 cognitive effect Effects 0.000 description 32
- 238000007796 conventional method Methods 0.000 description 32
- 230000008859 change Effects 0.000 description 29
- 230000000295 complement effect Effects 0.000 description 28
- 230000003287 optical effect Effects 0.000 description 21
- 230000002093 peripheral effect Effects 0.000 description 21
- 210000004932 little finger Anatomy 0.000 description 20
- 230000001276 controlling effect Effects 0.000 description 19
- 230000003993 interaction Effects 0.000 description 18
- 241000699666 Mus <mouse, genus> Species 0.000 description 17
- 238000003672 processing method Methods 0.000 description 16
- 238000000926 separation method Methods 0.000 description 15
- 238000013459 approach Methods 0.000 description 14
- 238000013475 authorization Methods 0.000 description 14
- 210000004935 right thumb Anatomy 0.000 description 13
- 238000007726 management method Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 9
- 235000014510 cooky Nutrition 0.000 description 7
- 238000003825 pressing Methods 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 241001422033 Thestylus Species 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000021317 sensory perception Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000005057 finger movement Effects 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 210000004936 left thumb Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 241000218645 Cedrus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000881 depressing effect Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 210000004934 left little finger Anatomy 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000015541 sensory perception of touch Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005923 long-lasting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000004933 right little finger Anatomy 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/218—Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1662—Details related to the integrated keyboard
- G06F1/1671—Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04897—Special input arrangements or commands for improving display capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/161—Indexing scheme relating to constructional details of the monitor
- G06F2200/1614—Image rotation following screen orientation, e.g. switching from landscape to portrait mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1431—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
- Image Input (AREA)
- Collating Specific Patterns (AREA)
Abstract
디스플레이 및 지문 센서를 갖는 전자 디바이스는 제1 사용자 인터페이스를 디스플레이 상에 표시한다. 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에, 디바이스는 지문 센서 상에서의 지문의 이동을 검출한다. 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라, 디바이스는 제1 사용자 인터페이스를 통해 내비게이션하고, 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 디바이스는 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 디스플레이 상에 표시한다.An electronic device having a display and a fingerprint sensor displays a first user interface on a display. While displaying the first user interface on the display, the device detects the movement of the fingerprint on the fingerprint sensor. In response to detecting movement of the fingerprint on the fingerprint sensor: in accordance with the determination that movement of the fingerprint is in the first direction, the device navigates through the first user interface and moves the fingerprint to a second Direction, the device displays on the display a second user interface that is different from the first user interface.
Description
관련 출원Related application
본 출원은 2013년 3월 15일자로 출원되고 발명의 명칭이 "지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스(Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Inputs)"인 미국 가특허출원 제61/794,710호; 2012년 7월 3일자 출원되고 발명의 명칭이 "지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스"인 미국 가특허출원 제61/667,926호; 및 2012년 5월 18일자로 출원되고 발명의 명칭이 "지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스"인 미국 가특허출원 제61/649,207호에 대한 우선권을 주장하며, 이 출원들은 전체적으로 본 명세서에 참고로 포함된다.This application is a continuation-in-part of U.S. Patent Application Serial No. 10 / 542,131, filed Mar. 15, 2013, entitled "Device, Method, and Graphical User Interface for Manipulating User Interfaces Based on Fingerprint Sensor Input quot; on Fingerprint Sensor Inputs ", U.S. Provisional Patent Application No. 61 / 794,710; U.S. Provisional Patent Application No. 61 / 667,926, filed July 3, 2012, entitled " Device, Method and Graphical User Interface for Operating a User Interface Based on Fingerprint Sensor Input "; And U.S. Provisional Patent Application No. 61 / 649,207, filed May 18, 2012, entitled " Device, Method and Graphical User Interface for Operating a User Interface Based on Fingerprint Sensor Input " , Which applications are incorporated herein by reference in their entirety.
본 발명은 전반적으로, 사용자 인터페이스를 조작하기 위한 입력을 검출하는 지문 센서를 갖는 전자 디바이스를 포함하지만 이로 한정되지 않는, 지문 센서를 갖는 전자 디바이스에 관한 것이다.The present invention generally relates to electronic devices having fingerprint sensors, including, but not limited to, electronic devices having fingerprint sensors that detect inputs to manipulate a user interface.
터치-감응 표면(touch-sensitive surface)을 컴퓨터 및 기타 전자 컴퓨팅 디바이스에 대한 입력 디바이스로서 사용하는 것이 최근 몇년간 상당히 증가하였다. 예시적인 터치-감응 표면은 터치패드 및 터치 스크린 디스플레이를 포함한다. 그러한 표면은 디스플레이 상의 사용자 인터페이스 객체들을 조작하기 위해 널리 사용된다. 부가적으로, 일부 전자 디바이스는 사용자를 인증하기 위한 지문 센서를 포함한다.The use of touch-sensitive surfaces as input devices for computers and other electronic computing devices has increased significantly in recent years. An exemplary touch-sensitive surface includes a touchpad and a touchscreen display. Such surfaces are widely used to manipulate user interface objects on the display. Additionally, some electronic devices include a fingerprint sensor for authenticating the user.
예시적인 조작들은 하나 이상의 사용자 인터페이스 객체들의 위치 및/또는 크기를 조정하거나, 버튼을 활성화하거나, 사용자 인터페이스 객체들에 의해 표현되는 파일들/애플리케이션들을 여는 것뿐만 아니라, 메타데이터를 하나 이상의 사용자 인터페이스 객체들과 연관시키는 것 또는 사용자 인터페이스들을 달리 조작하는 것을 포함한다. 예시적인 사용자 인터페이스 객체들은 디지털 이미지, 비디오, 텍스트, 아이콘, 버튼과 같은 제어 요소, 및 기타 그래픽을 포함한다. 일부 환경들에서, 사용자는 그러한 조작들을 파일 관리 프로그램(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.(Apple Inc.)로부터의 파인더(Finder)), 이미지 관리 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 애퍼처(Aperture) 또는 아이포토(iPhoto)), 디지털 콘텐트(예를 들어, 비디오 및 음악) 관리 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이튠즈(iTunes)), 그리기 애플리케이션, 프레젠테이션 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 키노트(Keynote)), 워드 프로세싱 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 페이지스(Pages)), 웹사이트 제작 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이웹(iWeb)), 디스크 저작 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이디비디(iDVD)), 또는 스프레드시트 애플리케이션(예를 들어, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 넘버스(Numbers))에서의 사용자 인터페이스 객체들에 대해 수행할 필요가 있을 것이다.Exemplary operations may include manipulating the location of one or more user interface objects such as adjusting the location and / or size of one or more user interface objects, activating buttons, opening files / applications represented by user interface objects, Or otherwise manipulating user interfaces. Exemplary user interface objects include digital images, video, text, icons, control elements such as buttons, and other graphics. In some environments, the user may perform such operations using a file manager (e.g., Finder from Apple Inc. of Cupertino, Calif.), An image management application (e.g., (E.g., Aperture or iPhoto from Apple Inc. of Cupertino, Calif.), Digital content (e.g., video and music) management applications (e.g., Apple (E.g., iTunes from Ink.), A drawing application, a presentation application (e.g., Keynote from Apple Inc., Cupertino, Calif.), A word processing application Pages from Apple Inc., Cupertino, Calif.), Website creation applications (e.g., (IWeb) from Apple Inc. of Tino, a disc authoring application (e.g., iDVD from Apple Inc., Cupertino, Calif.), Or a spreadsheet application (e.g., , Numbers from Apple Inc. of Cupertino, Calif.).
그러나, 이러한 조작들을 수행하기 위한 방법들은 번거롭고 비효율적이다. 게다가, 이러한 방법들은 필요한 것보다 더 오래 걸리고, 이에 의해 에너지를 낭비한다. 이러한 후자의 고려사항은 배터리-작동형 디바이스들에서 특히 중요하다.However, the methods for performing these operations are cumbersome and inefficient. Moreover, these methods take longer than necessary and waste energy. This latter consideration is particularly important in battery-operated devices.
따라서, 사용자 인터페이스를 조작하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 선택적으로, 사용자 인터페이스들을 조작하기 위한 종래의 방법들을 보완하거나 대체한다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.Thus, there is a need for electronic devices having faster and more efficient methods and interfaces for manipulating the user interface. Such methods and interfaces optionally complement or replace conventional methods for manipulating user interfaces. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
터치-감응 표면들을 갖는 전자 디바이스들을 위한 사용자 인터페이스들과 연관된 상기 결점들 및 다른 문제점들은 개시된 디바이스들에 의해 감소되거나 제거된다. 일부 실시예들에서, 디바이스는 데스크톱 컴퓨터이다. 일부 실시예들에서, 디바이스는 휴대용(예를 들어, 노트북 컴퓨터, 태블릿 컴퓨터, 또는 핸드헬드 디바이스)이다. 일부 실시예들에서, 디바이스는 터치패드를 갖는다. 일부 실시예들에서, 디바이스는 터치-감응 디스플레이("터치 스크린" 또는 "터치 스크린 디스플레이"로서 또한 알려짐)를 갖는다. 일부 실시예들에서, 디바이스는 지문 센서를 갖는다. 일부 실시예들에서, 디바이스는 그래픽 사용자 인터페이스(graphical user interface, GUI), 하나 이상의 프로세서들, 메모리, 및 다수의 기능들을 수행하기 위해 메모리에 저장되는 하나 이상의 모듈들, 프로그램들 또는 명령어들의 세트들을 갖는다. 일부 실시예들에서, 사용자는 주로 터치-감응 표면 및/또는 지문 센서 상에서의 손가락 접촉 및 제스처를 통해 GUI와 상호작용한다. 일부 실시예들에서, 기능들은 선택적으로, 이미지 편집, 그리기, 프레젠팅(presenting), 워드 프로세싱, 웹사이트 생성, 디스크 저작, 스프레드시트 작성, 게임 플레잉, 전화 걸기, 화상 회의, 이메일 보내기, 인스턴트 메시징, 운동 지원, 디지털 사진촬영, 디지털 비디오 녹화, 웹 브라우징, 디지털 음악 재생, 및/또는 디지털 비디오 재생을 포함할 수 있다. 이들 기능을 수행하기 위한 실행가능 명령어들은 선택적으로, 비일시적 컴퓨터 판독가능 저장 매체 또는 하나 이상의 프로세서들에 의한 실행을 위해 구성된 다른 컴퓨터 프로그램 제품에 포함된다.Such deficiencies and other problems associated with user interfaces for electronic devices having touch-sensitive surfaces are reduced or eliminated by the disclosed devices. In some embodiments, the device is a desktop computer. In some embodiments, the device is portable (e.g., a notebook computer, tablet computer, or handheld device). In some embodiments, the device has a touchpad. In some embodiments, the device has a touch-sensitive display (also known as a "touch screen" or "touch screen display"). In some embodiments, the device has a fingerprint sensor. In some embodiments, the device includes a graphical user interface (GUI), one or more processors, a memory, and one or more modules, programs, or sets of instructions stored in memory for performing a number of functions . In some embodiments, the user interacts with the GUI primarily through finger touches and gestures on the touch-sensitive surface and / or the fingerprint sensor. In some embodiments, the functions are optionally selected from the group consisting of image editing, drawing, presenting, word processing, website creation, disk authoring, spreadsheet creation, gameplay, dialing, video conferencing, , Motion support, digital photography, digital video recording, web browsing, digital music playback, and / or digital video playback. Executable instructions for performing these functions are optionally included in non-transitory computer readable storage media or other computer program products configured for execution by one or more processors.
일부 실시예들에 따르면, 전자 디바이스는 지문 센서, 디스플레이, 및/또는 터치-감응 표면, 하나 이상의 프로세서들, 메모리, 및 하나 이상의 프로그램들을 포함하고; 하나 이상의 프로그램들은 메모리에 저장되며 하나 이상의 프로세서들에 의해 실행되도록 구성되고, 하나 이상의 프로그램들은 전술된 방법들 중 임의의 방법의 동작들을 수행하기 위한 명령어들을 포함한다. 일부 실시예들에 따르면, 지문 센서, 디스플레이, 선택적으로 터치-감응 표면, 메모리, 및 메모리에 저장된 하나 이상의 프로그램들을 실행시키는 하나 이상의 프로세서들을 갖는 전자 디바이스 상의 그래픽 사용자 인터페이스는, 전술된 방법들 중 임의의 방법에 기술된 바와 같이, 입력들에 응답하여 업데이트되는, 전술된 방법들 중 임의의 방법으로 표시되는 요소들 중 하나 이상을 포함한다. 일부 실시예들에 따르면, 컴퓨터 판독가능 저장 매체는, 지문 센서 및 선택적으로 디스플레이 및/또는 터치-감응 표면을 갖는 전자 디바이스에 의해 실행될 때, 디바이스로 하여금 전술된 방법들 중 임의의 방법의 동작들을 수행하게 하는 명령어들을 내부에 저장하였다. 일부 실시예들에 따르면, 전자 디바이스는, 지문 센서 및 선택적으로 디스플레이 및 터치-감응 표면; 및 전술된 방법들 중 임의의 방법의 동작들을 수행하기 위한 수단을 포함한다. 일부 실시예들에 따르면, 지문 센서 및 선택적으로 디스플레이 및/또는 터치-감응 표면을 갖는 전자 디바이스에서의 사용을 위한 정보 프로세싱 장치가, 전술된 방법들 중 임의의 방법의 동작들을 수행하기 위한 수단을 포함한다.According to some embodiments, an electronic device includes a fingerprint sensor, a display, and / or a touch-sensitive surface, one or more processors, a memory, and one or more programs; One or more programs are stored in memory and configured to be executed by one or more processors, and one or more programs include instructions for performing operations of any of the methods described above. According to some embodiments, a graphical user interface on an electronic device having a fingerprint sensor, a display, optionally a touch-sensitive surface, a memory, and one or more processors executing one or more programs stored in memory, Described in any of the above-described methods, which are updated in response to inputs, as described in the method of < RTI ID = 0.0 > According to some embodiments, the computer-readable storage medium further includes instructions that, when executed by an electronic device having a fingerprint sensor and optionally a display and / or a touch-sensitive surface, cause the device to perform operations of any of the methods described above I have stored the commands to be executed inside. According to some embodiments, the electronic device includes a fingerprint sensor and optionally a display and a touch-sensitive surface; And means for performing operations of any of the methods described above. According to some embodiments, an information processing apparatus for use in an electronic device having a fingerprint sensor and optionally a display and / or a touch-sensitive surface comprises means for performing operations of any of the methods described above .
휴대용 다기능 디바이스 상에서의 사용자 인터페이스들과의 편리한 상호작용을 위한(예를 들어, 애플리케이션을 통해 내비게이션하기 위한, 하나의 애플리케이션 인터페이스로부터 다른 애플리케이션 인터페이스로 전환하기 위한, 또는 멀티태스킹 사용자 인터페이스를 표시하기 위한) 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스들과의 상호작용을 위한(예를 들어, 애플리케이션 사용자 인터페이스를 통해 내비게이션하기 위한, 애플리케이션 사용자 인터페이스들 사이에서 전환하기 위한, 또는 멀티태스킹 사용자 인터페이스를 표시하기 위한) 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.For convenient interaction with user interfaces on a portable multifunction device (e.g., for navigating through an application, for switching from one application interface to another, or for displaying a multitasking user interface) There is a need for electronic devices having faster and more efficient methods and interfaces. Such methods and interfaces are well known in the art for interacting with user interfaces (e.g., for navigating through an application user interface, for switching between application user interfaces, or for displaying a multitasking user interface) The methods of the present invention can be supplemented or substituted. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 디스플레이 상에 제1 사용자 인터페이스를 표시하는 단계를 포함한다. 이 방법은 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에, 지문 센서 상에서의 지문의 이동을 검출하기 위한 단계를 추가로 포함한다. 이 방법은 또한, 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라, 제1 사용자 인터페이스를 통해 내비게이션하는 단계, 및 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 디스플레이 상에 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes displaying a first user interface on a display. The method further includes the step of detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display. The method also includes, in response to detecting movement of the fingerprint on the fingerprint sensor: navigating through the first user interface in accordance with the determination that movement of the fingerprint is in the first direction, and moving the fingerprint in the first direction And displaying a second user interface different from the first user interface on the display, in accordance with a determination that the second user interface is in a second direction different from the first user interface.
일부 실시예들에 따르면, 전자 디바이스는 제1 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛, 지문 센서 유닛, 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 일부 실시예들에서, 프로세싱 유닛은 검출 유닛, 내비게이션 유닛, 디스플레이 인에이블링 유닛(display enabling unit), 및 대체 유닛을 포함한다. 프로세싱 유닛은, 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에, 지문 센서 상에서의 지문의 이동을 검출하고; 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라, 제1 사용자 인터페이스를 통해 내비게이션하고, 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 디스플레이 유닛 상에서의 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스의 표시를 가능하게 하도록 구성된다.According to some embodiments, the electronic device includes a display unit configured to display a first user interface, a fingerprint sensor unit, and a processing unit coupled to the display unit and the fingerprint sensor unit. In some embodiments, the processing unit includes a detection unit, a navigation unit, a display enabling unit, and a replacement unit. The processing unit detects the movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display; In response to detecting movement of the fingerprint on the fingerprint sensor: navigating through the first user interface as the movement of the fingerprint is in the first direction and moving the fingerprint in a second direction different from the first direction , A display of a second user interface different from the first user interface on the display unit is enabled.
따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 사용자 인터페이스들 사이에서의 전환을 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스들 사이에서의 전환을 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and fingerprint sensors provide faster, more efficient methods and interfaces for switching between user interfaces, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for switching between user interfaces.
다수의 목적들을 만족시키는 버튼들을 갖는(예를 들어, 활성화 시 버튼이 디바이스로 하여금 제1 동작, 또는 소정 기준에 따라 제1 동작과는 상이한 제2 동작을 수행하게 하도록 하는) 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 버튼들이 다수의 목적들을 만족시키게 하기 위한 종래의 방법들을 보완 또는 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다. 휴대용 다기능 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 또한 디바이스의 하우징 상에서의 귀중한 물리적 공간을 절약하여, 보다 큰 스크린 및 보다 양호한 사용자 경험을 허용한다.A faster and more efficient method (e.g., allowing a button at activation to cause the device to perform a first action, or a second action different from the first action in accordance with certain criteria) RTI ID = 0.0 > and / or < / RTI > interfaces. Such methods and interfaces may complement or replace conventional methods for allowing buttons to fulfill multiple purposes. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges. For portable multifunctional devices, such methods and interfaces also save valuable physical space on the device ' s housing, allowing for a larger screen and better user experience.
일부 실시예들에 따르면, 통합형 지문 센서를 포함하는 버튼을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 통합형 지문 센서 상에서 지문을 검출하는 단계를 포함한다. 이 방법은, 통합형 지문 센서 상에서 지문을 계속 검출하는 동안에, 버튼의 활성화를 검출하는 단계를 추가로 포함한다. 이 방법은, 버튼의 활성화를 검출하는 것에 응답하여, 그리고 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속적으로 검출되지 않았다는 결정에 따라, 버튼의 활성화와 연관된 미리 정해진 동작인 제1 동작을 수행하는 단계를 추가로 포함한다. 이 방법은, 버튼의 활성화를 검출하는 것에 응답하여, 그리고 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속적으로 검출되었다는 결정에 따라, 제1 동작과는 상이한 제2 동작 - 상기 제2 동작은 버튼의 활성화를 검출하기 직전에 디스플레이 상에 표시되는 사용자 인터페이스와 연관된 동작임 - 을 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a button including an integrated fingerprint sensor. The method includes detecting fingerprints on an integrated fingerprint sensor. The method further includes detecting activation of the button while continuing to detect the fingerprint on the integrated fingerprint sensor. The method comprises the steps of: in response to detecting the activation of the button and in response to a determination that fingerprint has not been continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting activation of the button, To perform the first operation. The method comprises the steps of: in response to detecting activation of the button and in response to a determination that the fingerprint has been continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting activation of the button, The second operation being an operation associated with a user interface displayed on the display immediately prior to detecting activation of the button.
일부 실시예들에 따르면, 전자 디바이스는 통합형 지문 센서 유닛을 갖는 버튼 유닛; 및 버튼 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 통합형 지문 센서 유닛 상에서 지문을 검출하도록 구성된다. 프로세싱 유닛은, 통합형 지문 센서 유닛 상에서 지문을 계속 검출하는 동안에, 버튼 유닛의 활성화를 검출하도록 추가로 구성된다. 프로세싱 유닛은, 버튼 유닛의 활성화를 검출하는 것에 응답하여, 그리고 버튼 유닛의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛 상에서 지문이 계속적으로 검출되지 않았다는 결정에 따라, 버튼 유닛의 활성화와 연관된 미리 정해진 동작인 제1 동작을 수행하도록 추가로 구성된다. 프로세싱 유닛은, 버튼 유닛의 활성화를 검출하는 것에 응답하여, 그리고 버튼 유닛의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛 상에서 지문이 계속적으로 검출되었다는 결정에 따라, 상기 제1 동작과는 상이한 제2 동작 - 상기 제2 동작은 상기 버튼 유닛의 활성화를 검출하기 직전에 디스플레이 유닛 상에 표시되는 사용자 인터페이스와 연관된 동작임 - 을 수행하도록 추가로 구성된다.According to some embodiments, the electronic device includes a button unit having an integrated fingerprint sensor unit; And a processing unit coupled to the button unit. The processing unit is configured to detect the fingerprint on the integrated fingerprint sensor unit. The processing unit is further configured to detect activation of the button unit while the fingerprint is continuously detected on the integrated fingerprint sensor unit. The processing unit may be configured to activate and deactivate the button unit in response to detecting activation of the button unit and upon determining that the fingerprint has not been continuously detected on the integrated fingerprint sensor unit for a predetermined period of time prior to detecting activation of the button unit And is further configured to perform a first operation that is an associated predefined operation. The processing unit may be configured to determine whether the fingerprint is continuously detected on the integrated fingerprint sensor unit for a predetermined period of time prior to detecting activation of the button unit and prior to detecting activation of the button unit, A second different operation, wherein the second operation is an operation associated with a user interface displayed on the display unit immediately prior to detecting activation of the button unit.
따라서, 통합형 지문 센서들을 갖는 버튼들을 구비하는 전자 디바이스들에는 상기 버튼들이 다수의 목적들을 만족시키게 하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 버튼들이 다수의 목적들을 만족시키게 하기 위한 종래의 방법들을 보완 또는 대체할 수 있다.Thus, electronic devices having buttons with integrated fingerprint sensors are provided with faster and more efficient methods and interfaces for allowing the buttons to fulfill a number of purposes, such that validity, efficiency and user satisfaction . Such methods and interfaces may complement or replace conventional methods for allowing buttons to fulfill multiple purposes.
사용자 인터페이스의 배향을 잠금하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스의 배향을 잠금하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for locking the orientation of the user interface. Such methods and interfaces may complement or replace conventional methods for locking the orientation of the user interface. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 디바이스의 제1 배향과 연관된 제1 배향-특정 동작 모드(orientation-specific mode of operation), 및 디바이스의 제1 배향과는 상이한 디바이스의 제2 배향과 연관된 제2 배향-특정 동작 모드를 갖는 사용자 인터페이스를 디스플레이 상에 표시하는 단계; 사용자 인터페이스의 배향이 잠금되지 않은 동안에, 디바이스가 제1 배향에 있을 경우에 사용자 인터페이스를 제1 배향-특정 동작 모드로 표시하는 단계, 및 디바이스가 제2 배향에 있을 경우에 사용자 인터페이스를 제2 배향-특정 동작 모드로 표시하는 단계; 지문 센서 상에서 지문을 검출하는 단계; 사용자 인터페이스가 제1 배향-특정 동작 모드에 있는 동안에, 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 단계; 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여, 사용자 인터페이스를 제1 배향-특정 동작 모드에서 잠금되게 하는 단계; 및 사용자 인터페이스가 제1 배향-특정 동작 모드에서 잠금된 동안에, 디바이스가 제2 배향에 있음을 검출하고 사용자 인터페이스를 제1 배향-특정 동작 모드에서 유지하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes a first orientation-specific mode of operation associated with a first orientation of the device, and a second orientation-specific mode of operation associated with a second orientation of the device different from the first orientation of the device, Displaying a user interface on the display; Displaying the user interface in a first orientation-specific mode of operation when the device is in a first orientation while the orientation of the user interface is unlocked, and displaying the user interface in a second orientation- - displaying in a specific mode of operation; Detecting a fingerprint on the fingerprint sensor; Detecting rotation of the fingerprint on the fingerprint sensor in the first direction while the user interface is in the first orientation-specific mode of operation; Responsive to detecting rotation of the fingerprint on the fingerprint sensor in the first direction, locking the user interface in a first orientation-specific mode of operation; And detecting that the device is in a second orientation and holding the user interface in a first orientation-specific mode of operation while the user interface is locked in the first orientation-specific mode of operation.
일부 실시예들에 따르면, 전자 디바이스는 디바이스의 제1 배향과 연관된 제1 배향-특정 동작 모드, 및 디바이스의 제1 배향과는 상이한 디바이스의 제2 배향과 연관된 제2 배향-특정 동작 모드를 갖는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 사용자 인터페이스의 배향이 잠금되지 않은 동안에: 디바이스가 제1 배향에 있을 경우에 제1 배향-특정 동작 모드로의 사용자 인터페이스의 표시를 가능하게 하고, 디바이스가 제2 배향에 있을 경우에 제2 배향-특정 동작 모드로의 사용자 인터페이스의 표시를 가능하게 하고; 지문 센서 유닛 상에서 지문을 검출하고; 사용자 인터페이스가 제1 배향-특정 동작 모드에 있는 동안에, 제1 방향으로의 지문 센서 유닛 상에서의 지문의 회전을 검출하고; 제1 방향으로의 지문 센서 유닛 상에서의 지문의 회전을 검출하는 것에 응답하여, 사용자 인터페이스를 제1 배향-특정 동작 모드에서 잠금되게 하고; 사용자 인터페이스가 제1 배향-특정 동작 모드에서 잠금된 동안에, 디바이스가 제2 배향에 있음을 검출하고 사용자 인터페이스를 제1 배향-특정 동작 모드에서 유지하도록 구성된다.According to some embodiments, the electronic device has a first orientation-specific mode of operation associated with a first orientation of the device and a second orientation-specific mode of operation associated with a second orientation of the device that is different from the first orientation of the device A display unit configured to display a user interface; A fingerprint sensor unit; And a processing unit coupled to the display unit and the fingerprint sensor unit. The processing unit is configured to enable the display of the user interface in the first orientation-specific mode of operation when the orientation of the user interface is unlocked: when the device is in the first orientation, Enable display of a user interface in a second orientation-specific mode of operation; Detecting a fingerprint on the fingerprint sensor unit; Detecting rotation of the fingerprint on the fingerprint sensor unit in the first direction while the user interface is in the first orientation-specific mode of operation; In response to detecting rotation of the fingerprint on the fingerprint sensor unit in the first direction, locking the user interface in a first orientation-specific mode of operation; Is configured to detect that the device is in a second orientation and to maintain the user interface in a first orientation-specific mode of operation while the user interface is locked in the first orientation-specific mode of operation.
따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 사용자 인터페이스의 배향을 잠금하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스의 배향을 잠금하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and fingerprint sensors provide faster, more efficient methods and interfaces for locking the orientation of the user interface, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for locking the orientation of the user interface.
지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for controlling noise reduction in recorded audio using fingerprint sensors. Such methods and interfaces may supplement or replace conventional methods for controlling noise reduction in recorded audio using a fingerprint sensor. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은 디바이스를 이용하여 미디어를 기록하는 단계를 포함하는데, 여기서 미디어를 기록하는 단계는 오디오를 녹음하는 단계를 포함한다. 이 방법은, 미디어를 기록하는 동안에, 녹음된 오디오에서, 디바이스의 제1 면에서 발생한 잡음을 감소시키는 단계, 지문 센서 상에서 지문을 검출하는 단계, 및 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스의 제1 면에서 발생한 잡음을 감소시키는 것을 중단하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a fingerprint sensor. The method includes recording the media using the device, wherein recording the media includes recording the audio. The method includes the steps of: during recording of the media, in recorded audio, reducing noise generated on a first side of the device, detecting a fingerprint on the fingerprint sensor, and in response to detecting the fingerprint on the fingerprint sensor, And ceasing to reduce the noise generated on the first side of the signal.
일부 실시예들에 따르면, 전자 디바이스는 지문들을 검출하도록 구성된 지문 센서 유닛, 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 디바이스를 이용하여 미디어를 기록하도록 구성되는데, 여기서 미디어를 기록하는 것은 오디오를 녹음하는 것을 포함한다. 프로세싱 유닛은, 미디어를 기록하는 동안에, 녹음된 오디오에서, 디바이스의 제1 면에서 발생한 잡음을 감소시키고, 지문 센서 유닛 상에서 지문을 검출하고, 지문 센서 유닛 상에서 지문을 검출하는 것에 응답하여, 디바이스의 제1 면에서 발생한 잡음을 감소시키는 것을 중단하도록 추가로 구성된다.According to some embodiments, the electronic device includes a fingerprint sensor unit configured to detect fingerprints, and a processing unit coupled to the fingerprint sensor unit. The processing unit is configured to record the media using the device, wherein recording the media includes recording the audio. The processing unit is configured to, during recording of the media, reduce the noise generated in the first side of the device in the recorded audio, detect the fingerprint on the fingerprint sensor unit, and, in response to detecting the fingerprint on the fingerprint sensor unit, And is further configured to stop reducing noise generated on the first side.
따라서, 지문 센서들을 갖는 전자 디바이스들에는, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices with fingerprint sensors are provided with faster and more efficient methods and interfaces for controlling noise reduction in recorded audio using a fingerprint sensor, thereby enabling validation, Increases satisfaction. Such methods and interfaces may supplement or replace conventional methods for controlling noise reduction in recorded audio using a fingerprint sensor.
디바이스의 현재의 사용자에 맞춤된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 디바이스의 현재의 사용자에 맞춤된 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for performing operations customized to the current user of the device. Such methods and interfaces may complement or replace conventional methods tailored to the current user of the device. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이, 각자의 입력 요소 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 하나 이상의 사용자-특정 프로파일들, 및 각자의 사용자 부류에 각각 대응하는, 사용자-특정 프로파일들과는 구별되는 하나 이상의 부류-기반 프로파일들을 포함하는 복수의 프로파일들을 획득하는 단계; 지문 센서 상에서 제1 지문을 검출하는 단계; 제1 지문이 제1 부류-기반 프로파일과 연관된 제1 사용자 부류 내의 사용자의 지문에 대응한다는 결정에 따라 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한, 이전에 등록된 지문으로서의 제1 지문의 인증과는 상관없이, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일로서 선택하는 단계; 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소를 이용하여 수신하는 단계; 및 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 요청 및 제1 부류-기반 프로파일에 기초하여 각자의 동작을 수행하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a respective input element, and a fingerprint sensor. The method comprises the steps of: obtaining a plurality of profiles comprising one or more user-specific profiles, and one or more class-based profiles distinct from user-specific profiles, each corresponding to a respective user class; Detecting a first fingerprint on the fingerprint sensor; Based profile as an active profile in accordance with a determination that the first fingerprint corresponds to a fingerprint of the user in a first user class associated with the first class-based profile, the first fingerprint as a previously registered fingerprint Selecting one or more class-based profiles associated with the device as an activation profile corresponding to the first fingerprint, regardless of the authentication of the first fingerprint; The method comprising: receiving input corresponding to a request to perform one or more operations on a device using its respective input element; And performing respective operations based on the request and the first class-based profile in response to receiving the input using the respective input element while the first class-based profile is selected as the active profile.
일부 실시예들에 따르면, 전자 디바이스는 디스플레이 유닛; 각자의 입력 요소 유닛; 지문 센서 유닛; 및 디스플레이 유닛, 각자의 입력 요소 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 일부 실시예들에서, 프로세싱 유닛은 획득 유닛, 검출 유닛, 선택 유닛, 수행 유닛, 결정 유닛, 및 식별 유닛을 포함한다. 프로세싱 유닛은, 하나 이상의 사용자-특정 프로파일들, 및 각자의 사용자 부류에 각각 대응하는, 사용자-특정 프로파일들과는 구별되는 하나 이상의 부류-기반 프로파일들을 포함하는 복수의 프로파일들을 획득하고; 지문 센서 유닛 상에서 제1 지문을 검출하고; 제1 지문이 제1 부류-기반 프로파일과 연관된 제1 사용자 부류 내의 사용자의 지문에 대응한다는 결정에 따라 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한, 이전에 등록된 지문으로서의 제1 지문의 인증과는 상관없이, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일로서 선택하고; 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소 유닛을 이용하여 수신하고; 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소 유닛을 이용하여 입력을 수신하는 것에 응답하여, 요청 및 제1 부류-기반 프로파일에 기초하여 각자의 동작을 수행하도록 구성된다.According to some embodiments, the electronic device comprises a display unit; Each input element unit; A fingerprint sensor unit; And a processing unit coupled to the display unit, the respective input element unit and the fingerprint sensor unit. In some embodiments, the processing unit includes an acquisition unit, a detection unit, a selection unit, a performance unit, a determination unit, and an identification unit. Wherein the processing unit is configured to: obtain a plurality of profiles including one or more user-specific profiles, and one or more class-based profiles distinct from user-specific profiles, each corresponding to a respective user class; Detecting a first fingerprint on the fingerprint sensor unit; Based profile as an active profile in accordance with a determination that the first fingerprint corresponds to a fingerprint of the user in a first user class associated with the first class-based profile, the first fingerprint as a previously registered fingerprint Irrespective of the authentication of the device, selecting one or more class-based profiles associated with the device as an activation profile corresponding to the first fingerprint; Receive an input corresponding to a request to perform one or more operations on the device using its respective input element unit; In response to receiving inputs using their respective input element units while the first class-based profile is selected as the active profile, to perform their respective operations based on the request and the first class-based profile.
따라서, 디스플레이들, 각자의 입력 요소들 및 지문 센서들을 갖는 전자 디바이스들에는 디바이스의 현재의 사용자에 맞춤된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, their respective input elements, and fingerprint sensors are provided with faster and more efficient methods and interfaces for performing operations customized for the current user of the device, , Increasing efficiency and user satisfaction. Such methods and interfaces may complement or replace conventional methods for performing operations based on a class-based profile.
지문들에 기초하여 로깅 선호도를 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 로깅 선호도를 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다. 휴대용 다기능 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 분실되거나 도난당한 디바이스들이 보다 용이하게 회수되게 한다.There is a need for electronic devices having faster and more efficient methods and interfaces for changing logging preferences based on fingerprints. Such methods and interfaces may complement or replace conventional methods for changing logging preferences. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges. For portable multifunctional devices, such methods and interfaces allow for easier recovery of lost or stolen devices.
일부 실시예들에 따르면, 디스플레이, 각자의 입력 요소 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 지문 센서 상에서 제1 지문을 검출하는 단계 및 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하는 단계를 포함한다. 이 방법은, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라, 각자의 사용자 프로파일을 활성 프로파일로서 설정하는 단계를 추가로 포함한다. 이 방법은, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 임의의 사용자 프로파일과 연관되지 않는다는 결정에 따라, 디폴트 프로파일을 활성 프로파일로서 설정하는 단계를 추가로 포함한다. 이 방법은, 요청된 동작을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소를 이용하여 수신하는 단계를 추가로 포함한다. 이 방법은, 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여 그리고 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제1 세트의 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행하는 단계를 추가로 포함한다. 이 방법은, 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여 그리고 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제2 세트의 동작을 디폴트 프로파일의 로깅 선호도에 따라 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a respective input element, and a fingerprint sensor. The method includes detecting a first fingerprint on the fingerprint sensor and determining whether the first fingerprint is associated with a user profile associated with the device. The method further comprises setting each user's profile as an active profile, after determining whether the first fingerprint is associated with a user profile associated with the device, and upon determining that the first fingerprint is associated with a respective user profile associated with the device . The method comprises the steps of setting a default profile as an active profile, after determining whether the first fingerprint is associated with a user profile associated with the device, and upon determining that the first fingerprint is not associated with any user profile associated with the device . The method further comprises receiving input corresponding to a request to perform the requested operation using its respective input element. The method includes, in response to receiving an input using a respective input element, and in accordance with a determination that each user profile is an active profile, a first set of one or more operations associated with the requested operation, According to the preference. The method comprises the steps of: in response to receiving an input using a respective input element, and in accordance with a determination that the user profile of the respective user is an active profile, Further comprising the step of performing an action according to the logging profile preference of the default profile.
일부 실시예들에 따르면, 전자 디바이스는 요청된 동작을 수행하라는 요청에 대응하는 입력을 수신하도록 구성된 각자의 입력 유닛; 지문 센서 유닛; 및 지문 센서 유닛 및 각자의 입력 유닛에 결합된 프로세싱 유닛을 포함하고, 프로세싱 유닛은, 지문 센서 유닛 상에서 제1 지문을 검출하고, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하도록 구성된다. 프로세싱 유닛은, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에: 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라, 각자의 사용자 프로파일을 활성 프로파일로서 설정하고, 제1 지문이 디바이스와 연관된 어떠한 사용자 프로파일과도 연관되지 않는다는 결정에 따라, 디폴트 프로파일을 활성 프로파일로서 설정하도록 추가로 구성된다. 프로세싱 유닛은, 각자의 입력 유닛을 이용하여 입력을 수신하는 것에 응답하여: 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제1 세트의 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행하고, 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 요청된 동작과 연관된 제2 세트의 동작을 디폴트 프로파일의 로깅 선호도에 따라 수행하도록 추가로 구성된다.According to some embodiments, the electronic device comprises a respective input unit configured to receive an input corresponding to a request to perform a requested operation; A fingerprint sensor unit; And a processing unit coupled to the fingerprint sensor unit and the respective input unit, the processing unit configured to detect a first fingerprint on the fingerprint sensor unit and to determine whether the first fingerprint is associated with a user profile associated with the device do. The processing unit may determine, after determining whether the first fingerprint is associated with a user profile associated with the device: after determining that the first fingerprint is associated with a respective user profile associated with the device, The first fingerprint is further configured to set the default profile as an active profile, in accordance with a determination that the first fingerprint is not associated with any user profile associated with the device. The processing unit is further configured to, in response to receiving an input using its respective input unit: in response to a determination that each user profile is an active profile, one or more operations of the first set associated with the requested operation, And to perform a second set of operations associated with the requested operation in accordance with the default profile's logging preference, in accordance with the determination that the default profile is an active profile.
따라서, 입력 요소들 및 지문 센서들을 갖는 전자 디바이스들에는 지문들에 기초하여 로깅 선호도를 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 로깅 선호도를 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices with input elements and fingerprint sensors are provided with faster and more efficient methods and interfaces for changing logging preferences based on fingerprints, thereby increasing validity, efficiency and user satisfaction by such devices . Such methods and interfaces may complement or replace conventional methods for changing logging preferences.
지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다(예를 들어, 지문 검증 정보가 각자의 제한된 동작에 대한 각자의 허가 기준을 충족시키는 경우). 그러한 방법들 및 인터페이스들은 각자의 제한된 동작을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices that have faster and more efficient methods and interfaces for performing their respective limited operations based on fingerprint verification information (e.g., fingerprint verification information may be provided to each individual If they meet the permit criteria). Such methods and interfaces may complement or replace conventional methods for performing their respective limited operations. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 방법은 지문들의 검증을 제어하기 위한 지문 검증 기준을 획득하는 단계를 포함한다. 각자의 제한된 동작들에 대응하는 복수의 각자의 입력들 각각에 대해, 이 방법은 각자의 입력의 지문 특징들을 식별하는 단계, 및 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정하는 단계를 추가로 포함한다: 각자의 입력의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준.마지막으로, 각자의 입력을 검출하는 것에 응답하여, 이 방법은, 지문 검증 정보가 각자의 제한된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 각자의 제한된 동작을 수행하는 단계, 및 지문 검증 정보가 제한된 동작에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라, 각자의 제한된 동작의 수행을 중지하는 단계를 포함한다.According to some embodiments, the method includes obtaining fingerprint verification criteria for controlling verification of fingerprints. For each of a plurality of respective inputs corresponding to their respective limited actions, the method comprises the steps of: identifying fingerprint features of each input; and determining fingerprint verification information for each input based at least in part on: A comparison between the fingerprint features of the respective input and one or more previously registered fingerprints, and a fingerprint verification criterion. Finally, in response to detecting the respective input, The method further comprises the steps of performing a respective limited action in accordance with the determination that the fingerprint verification information meets their respective permission criteria for their respective limited actions and that the fingerprint verification information does not meet the respective authorization criteria for the restricted action And stopping the execution of each of the limited operations in accordance with the determination.
일부 실시예들에 따르면, 전자 디바이스는 정보를 표시하도록 구성된 디스플레이 유닛; 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 지문들의 검증을 제어하기 위한 지문 검증 기준을 획득하도록 구성된다. 각자의 제한된 동작들에 대응하는 복수의 각자의 입력들 각각에 대해, 프로세싱 유닛은 각자의 입력의 지문 특징들을 식별하고, 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정하도록 추가로 구성된다: 각자의 입력의 지문 특징과 하나 이상의 이전에 등록된 지문의 지문 특징 사이의 비교, 및 지문 검증 기준. 마지막으로, 각자의 입력을 검출하는 것에 응답하여, 프로세싱 유닛은, 지문 검증 정보가 각자의 제한된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 각자의 제한된 동작을 수행하고, 지문 검증 정보가 제한된 동작에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라, 각자의 제한된 동작의 수행을 중지하도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display information; A fingerprint sensor unit; And a processing unit coupled to the display unit and the fingerprint sensor unit. The processing unit is configured to obtain fingerprint verification criteria for controlling verification of fingerprints. For each of a plurality of respective inputs corresponding to their respective limited actions, the processing unit identifies the fingerprint features of the respective input, and is further adapted to determine fingerprint verification information for each input based at least in part on : A comparison between the fingerprint characteristics of each input and one or more previously registered fingerprint features, and a fingerprint verification criterion. Finally, in response to detecting their respective inputs, the processing unit performs their respective limited actions in accordance with the determination that the fingerprint verification information meets their respective permission criteria for their respective limited actions, and the fingerprint verification information Are configured to cease performing their respective limited actions in accordance with a determination that they do not meet their respective permit criteria for the restricted action.
따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 지문 검증 정보에 기초하여 각자의 제한된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 각자의 제한된 동작을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays and fingerprint sensors are provided with faster and more efficient methods and interfaces for performing their respective limited actions based on fingerprint verification information, thereby providing a means for validating, . Such methods and interfaces may complement or replace conventional methods for performing their respective limited operations.
아이덴티티 및 위치 정보를 연관시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 아이덴티티 및 위치 정보를 연관시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for associating identity and location information. Such methods and interfaces may complement or replace conventional methods for associating identity and location information. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은 디스플레이 상에 지도를 표시하는 단계 및 활성화 입력을 검출하는 단계를 포함한다. 활성화 입력은 각자의 지리적 위치에 대응하는 지도 상의 표시된 위치 및 지문 센서 상에서 검출된 지문과 연관된다. 이 방법은, 활성화 입력을 검출하는 것에 응답하여, 지문에 대응하는 사용자를 식별하는 단계, 및 각자의 지리적 위치 및 사용자와 연관되는 동작을 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes displaying a map on a display and detecting an activation input. The activation input is associated with the fingerprint detected on the fingerprint sensor and the indicated location on the map corresponding to the respective geographic location. The method further comprises, in response to detecting an activation input, identifying a user corresponding to the fingerprint, and performing an action associated with the user's geographic location and the user.
일부 실시예들에 따르면, 전자 디바이스는 지도를 표시하도록 구성된 디스플레이 유닛; 지문을 검출하도록 구성된 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 일부 실시예들에서, 디스플레이 유닛은 터치-감응 디스플레이 유닛이고, 지문 센서 유닛은 터치-감응 디스플레이 유닛 상에서 지문들을 검출한다. 프로세싱 유닛은, 활성화 입력 - 상기 활성화 입력은 각자의 지리적 위치에 대응하는 지도 상의 표시된 위치 및 지문 센서 유닛 상에서 검출된 지문과 연관됨 - 을 검출하고; 활성화 입력을 검출하는 것에 응답하여: 지문에 대응하는 사용자를 식별하고, 각자의 지리적 위치 및 사용자와 연관되는 동작을 수행하도록 구성된다.According to some embodiments, the electronic device includes a display unit configured to display a map; A fingerprint sensor unit configured to detect fingerprints; And a processing unit coupled to the display unit and the fingerprint sensor unit. In some embodiments, the display unit is a touch-sensitive display unit, and the fingerprint sensor unit detects fingerprints on the touch-sensitive display unit. The processing unit detects an activation input, the activation input being associated with a fingerprint detected on a fingerprint sensor unit and a displayed location on a map corresponding to a respective geographic location; In response to detecting an activation input: identifying a user corresponding to the fingerprint, and performing an action associated with the user's respective geographic location and user.
따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 아이덴티티 및 위치 정보를 연관시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 아이덴티티 및 위치 정보를 연관시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices with displays and fingerprint sensors provide faster and more efficient methods and interfaces for associating identity and location information, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for associating identity and location information.
하나 이상의 사용자들이 그들 자신의 개인 작업 공간 또는 작업 영역을 생성 및 한정할 수 있게 하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 따라서, 개시된 실시예들은 다기능 디바이스 상에서 보다 큰 공유 작업 공간 내에 각자의 작업 공간의 경계들을 한정하도록 그리고 그들의 개인 선호도에 기초하여 그들 각자의 작업 공간을 그들 각자의 맞춤 사용자 설정들과 연관시키도록 터치-감응 표면 상에 사용자가 두는 접촉들에서의 사용자들의 지문들의 검출에 기초하여 하나 이상의 사용자들에게 각자의 작업 공간들을 할당하기 위한 방법들을 제공한다. 그러한 방법들 및 인터페이스들은 작업 공간들을 하나 이상의 사용자들에게 할당하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for allowing one or more users to create and define their own personal workspace or workspace. Thus, the disclosed embodiments provide a touch-sensitive device that is able to define boundaries of their workspace within a larger shared workspace on a multifunction device and associate their respective workspaces with their respective customized user settings based on their personal preferences. And methods for assigning their respective workspaces to one or more users based on the detection of users' fingerprints on contacts the user places on the sensitive surface. Such methods and interfaces may complement or replace conventional methods for assigning workspaces to one or more users. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 터치-감응 표면의 제1 영역을 한정하는 제1 세트의 하나 이상의 입력들을 터치-감응 표면 상에서 검출하는 단계를 포함한다. 이 방법은, 제1 세트의 하나 이상의 입력들을 검출한 후에: 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다고 결정하는 단계, 및 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여, 터치-감응 표면의 제1 영역을 제1 사용자와 연관시키는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a touch-sensitive surface, and a fingerprint sensor. The method includes detecting a first set of one or more inputs on a touch-sensitive surface defining a first region of the touch-sensitive surface. The method comprising: after detecting one or more inputs of the first set: determining that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with a first user, Further comprising associating a first region of the touch-sensitive surface with a first user based, at least in part, on a determination that the one or more inputs comprise a first contact comprising a first fingerprint associated with the first user .
일부 실시예들에 따르면, 전자 디바이스는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛; 상부에서 접촉을 수용하도록 구성된 터치-감응 표면 유닛; 지문 센서 유닛; 및 디스플레이 유닛, 터치-감응 표면 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 터치-감응 표면 유닛의 제1 영역을 한정하는 제1 세트의 하나 이상의 입력들을 터치-감응 표면 유닛 상에서 검출하고; 제1 세트의 하나 이상의 입력을 검출한 후에: 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다고 결정하고, 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여, 터치-감응 표면 유닛의 제1 영역을 제1 사용자와 연관시키도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display one or more user interface objects; A touch-sensitive surface unit configured to receive contact at an upper portion thereof; A fingerprint sensor unit; And a processing unit coupled to the display unit, the touch-sensitive surface unit and the fingerprint sensor unit. The processing unit detects on the touch-sensitive surface unit a first set of one or more inputs defining a first region of the touch-sensitive surface unit; After detecting one or more inputs of the first set: determining that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with a first user, Responsive surface unit is configured to associate a first region of the touch-sensitive surface unit with a first user based, at least in part, on a determination that the first region includes a first contact comprising a first fingerprint associated with a user.
따라서, 디스플레이들, 터치-감응 표면들 및 지문 센서들을 갖는 전자 디바이스들에는 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 작업 공간들을 하나 이상의 사용자들에게 할당하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, touch-sensitive surfaces, and fingerprint sensors are provided with faster and more efficient methods and interfaces for associating regions of the touch-sensitive surface with one or more users, Thereby increasing validity, efficiency and user satisfaction. Such methods and interfaces may complement or replace conventional methods for assigning workspaces to one or more users.
예를 들어, 컴퓨터 키보드 상에서 타이핑하는 경우 또는 음악 키보드 상의 키를 누르는(예를 들어, 피아노를 연주하는) 경우에, 사용되는 적절한 운지법(fingering) 기술에 대해 사용자를 훈련시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 적절한 운지법 기술들에 대해 사용자를 훈련시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.For example, a faster and more efficient method for training a user for appropriate fingering techniques to be used, such as when typing on a computer keyboard or when pressing a key on a music keyboard (e.g., playing a piano) RTI ID = 0.0 > and / or < / RTI > interfaces. Such methods and interfaces may complement or replace conventional methods for training a user for appropriate fingerprinting techniques. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 각자의 활성화 가능한 사용자 인터페이스 객체를 포함하는 사용자 인터페이스를 표시하는 단계, 및 디스플레이 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터(focus selector)에 대응하는 터치-감응 표면 상의 접촉의 지문 패턴을 검출하는 단계를 포함한다. 이 방법은 또한, 디스플레이 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 상의 접촉의 지문 패턴을 검출하는 것에 응답하여: 접촉의 하나 이상의 운지법 특성들을 결정하도록 터치-감응 표면 상의 접촉의 지문 패턴을 분석하는 단계, 및 하나 이상의 운지법 특성들에 기초하여, 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정하는 단계를 포함한다. 이 방법은, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하는 단계, 및 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a touch-sensitive surface. The method includes the steps of displaying a user interface including a respective activatable user interface object, and displaying a fingerprint of the contact on the touch-sensitive surface corresponding to a focus selector on the respective activatable user interface object on the display And detecting the pattern. The method may also include, in response to detecting a fingerprint pattern of contact on the touch-sensitive surface corresponding to a focus selector on the respective activatable user interface object on the display, Analyzing the fingerprint pattern of the contact on the finger, and determining, based on the one or more fingering characteristics, whether the contact meets a predetermined preferred fingering criterion. The method includes providing feedback indicating that a preferred fingering criterion has not been met, in accordance with a determination that the contact does not meet a preferred fingering criterion, and in response to determining that the contact meets a preferred fingering criterion, And performing an action associated with the object.
일부 실시예들에 따르면, 전자 디바이스는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛, 사용자 접촉들을 수용하도록 구성된 터치-감응 표면 유닛, 및 디스플레이 유닛 및 터치-감응 표면 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 각자의 활성화 가능한 사용자 인터페이스 객체를 포함하는 사용자 인터페이스의 표시를 가능하게 하고, 디스플레이 유닛 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛 상의 접촉의 지문 패턴을 검출하도록 구성된다. 프로세싱 유닛은 또한, 디스플레이 유닛 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛 상의 접촉의 지문 패턴을 검출하는 것에 응답하여: 접촉의 하나 이상의 운지법 특성들을 결정하도록 터치-감응 표면 유닛 상의 접촉의 상기 지문 패턴을 분석하고, 하나 이상의 운지법 특성들에 기초하여, 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정하도록 구성된다. 프로세싱 유닛은, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하고, 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하도록 추가로 구성된다.According to some embodiments, the electronic device includes a display unit configured to display a user interface, a touch-sensitive surface unit configured to receive user contacts, and a processing unit coupled to the display unit and the touch-sensitive surface unit. The processing unit enables the display of a user interface including its respective activatable user interface object and a fingerprint pattern of touches on the touch-sensitive surface unit corresponding to a focus selector on the respective activatable user interface object on the display unit . The processing unit is further configured to, in response to detecting a fingerprint pattern of a contact on a touch-sensitive surface unit corresponding to a focus selector on a respective one of the activatable user interface objects on the display unit: Analyzing the fingerprint pattern of the contact on the sensitive surface unit, and determining, based on the one or more fingering characteristics, whether the contact meets a predetermined preferred fingering criterion. The processing unit may provide feedback indicating that the preferred fingering criterion is not met, as determined by the contact not meeting the desired fingering criterion, and providing feedback indicating that the fingering criterion has been met, And is further configured to perform an associated operation.
터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 터치-감응 표면을 동작시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation. Such methods and interfaces may complement or replace conventional methods for operating a touch-sensitive surface. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 터치-감응 표면의 제1 구역 - 상기 터치-감응 표면의 제1 구역은 감도 감소된 동작 모드에 있음 - 내에서의 접촉을 검출하는 단계; 접촉을 검출하는 것에 응답하여: 접촉이 하나 이상의 지문 센서 활성화 기준을 충족시키는지 여부를 결정하는 단계, 접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라, 터치-감응 표면의 제1 구역을 감도 향상된 동작 모드에서 동작시키는 단계, 및 접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, 터치-감응 표면의 제1 구역을 감도 감소된 동작 모드에서 계속 동작시키는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a touch-sensitive surface. The method includes the steps of: detecting a contact within a first zone of the touch-sensitive surface, the first zone of the touch-sensitive surface being in a reduced sensitivity mode of operation; Responsive to detecting the contact: determining whether the contact meets one or more fingerprint sensor activation criteria, determining, based on the determination that the contact meets the fingerprint sensor activation criteria, Operating in an operating mode, and continuing to operate the first zone of the touch-sensitive surface in the reduced sensitivity mode of operation in accordance with the determination that the contact does not meet the fingerprint sensor activation criteria.
일부 실시예들에 따르면, 전자 디바이스는 디스플레이 유닛, 접촉들을 수용하도록 구성된 터치-감응 표면 유닛, 및 디스플레이 유닛 및 터치-감응 표면 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 터치-감응 표면 유닛의 제1 구역 - 상기 터치-감응 표면 유닛의 제1 구역은 감도 감소된 동작 모드에 있음 - 내에서의 접촉을 검출하고; 접촉을 검출하는 것에 응답하여: 접촉이 지문 센서 활성화 기준을 충족시키는지 여부를 결정하고, 접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라, 터치-감응 표면 유닛의 제1 구역을 감도 향상된 동작 모드에서 동작시키고, 접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, 터치-감응 표면 유닛의 제1 구역을 감도 감소된 동작 모드에서 계속 동작시키도록 구성된다.According to some embodiments, the electronic device includes a display unit, a touch-sensitive surface unit configured to receive contacts, and a processing unit coupled to the display unit and the touch-sensitive surface unit. The processing unit detects a contact within a first zone of the touch-sensitive surface unit, the first zone of the touch-sensitive surface unit being in a reduced sensitivity mode of operation; Responsive to detecting a contact: determining whether the contact meets a fingerprint sensor activation criterion and, upon determining that the contact meets a fingerprint sensor activation criterion, determining a first zone of the touch- And to continue to operate the first zone of the touch-sensitive surface unit in the reduced sensitivity mode of operation, in accordance with the determination that the contact does not meet the fingerprint sensor activation criteria.
따라서, 디스플레이들 및 터치-감응 표면들을 갖는 전자 디바이스들에는 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시킴으로써 터치-감응 표면을 동작시키기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 터치-감응 표면을 동작시키기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and touch-sensitive surfaces are provided with faster and more efficient methods and interfaces for operating a touch-sensitive surface by operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation, Thereby increasing validity, efficiency and user satisfaction by the devices. Such methods and interfaces may complement or replace conventional methods for operating a touch-sensitive surface.
디바이스들 상에서 특정 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 디바이스들 상에서 특정 동작들을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for performing certain operations on devices. Such methods and interfaces may complement or replace conventional methods for performing certain operations on devices. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 제1 지문을 제1 동작과 연관시키는 단계; 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스(affordance)들을 포함하는 각자의 사용자 인터페이스를 디스플레이 상에 표시하는 단계; 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하는 동안에, 터치-감응 표면 상에서 제1 지문을 검출하는 것을 포함하는 제1 제스처를 검출하는 단계; 및 제1 제스처를 검출하는 것에 응답하여, 제1 동작을 수행하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a touch-sensitive surface. The method includes: associating a first fingerprint with a first action; Displaying on the display a respective user interface including affordances for performing a plurality of operations other than the first operation; Detecting a first gesture comprising detecting a first fingerprint on a touch-sensitive surface, while displaying a respective user interface comprising poses for performing a plurality of operations other than the first operation; And performing a first action in response to detecting the first gesture.
일부 실시예들에 따르면, 전자 디바이스는 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 제스처들을 수용하도록 구성된 터치-감응 표면 유닛; 및 디스플레이 유닛 및 터치-감응 표면 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 제1 지문을 상기 제1 동작과 연관시키고, 제1 동작 이외의 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스의 표시를 가능하게 하는 동안에, 터치-감응 표면 유닛 상에서 제1 지문을 검출하는 것을 포함하는 제1 제스처를 검출하고, 제1 제스처를 검출하는 것에 응답하여, 제1 동작을 수행하도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display a respective user interface including the poses for performing a plurality of operations other than the first operation; A touch-sensitive surface unit configured to receive gestures; And a processing unit coupled to the display unit and the touch-sensitive surface unit. The processing unit is operable to associate a first fingerprint with the first operation and to enable display of a respective user interface including poses for performing a plurality of operations other than the first operation, Detecting a first gesture comprising detecting a first fingerprint, and performing a first operation in response to detecting the first gesture.
따라서, 디스플레이들, 터치-감응 표면들 및 지문 센서들을 갖는 전자 디바이스들에는 지문 제스처들과 연관된 동작들을 수행하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 지문 제스처들과 연관된 동작들을 수행하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, touch-sensitive surfaces, and fingerprint sensors are provided with faster and more efficient methods and interfaces for performing operations associated with fingerprint gestures, so that the effectiveness, Increase user satisfaction. Such methods and interfaces may complement or replace conventional methods for performing actions associated with fingerprint gestures.
각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for displaying their controls for the user interface based on the detection of the first fingerprint associated with moving their respective controls. Such methods and interfaces may complement or replace conventional methods for displaying the respective controls for the user interface. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은 디스플레이 상에 사용자 인터페이스를 표시하는 단계를 포함한다. 이 방법은 터치-감응 표면 상에서 사용자 인터페이스에 대한 각자의 제어부를 움직이는 것과 연관된 제1 지문 - 상기 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 상의 제1 위치에서의 포커스 셀렉터에 대응함 - 을 검출하는 단계를 추가로 포함한다. 제1 지문을 검출하는 것에 응답하여, 이 방법은 디스플레이 상의 제1 위치에서 각자의 제어부를 표시하는 단계를 포함한다.According to some embodiments, a method is performed in an electronic device having a display, a touch-sensitive surface, and a fingerprint sensor. The method includes displaying a user interface on a display. The method includes detecting a first fingerprint associated with moving a respective control for a user interface on a touch-sensitive surface, wherein the first fingerprint corresponds to a focus selector at a first location on a display that does not include a respective control . ≪ / RTI > In response to detecting the first fingerprint, the method includes displaying each of the controls in a first position on the display.
일부 실시예들에 따르면, 전자 디바이스는 제1 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 하나 이상의 접촉들을 수용하도록 구성된 터치-감응 표면 유닛; 지문 센서 유닛; 및 디스플레이 유닛, 터치-감응 표면 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은, 터치-감응 표면 유닛 상에서 사용자 인터페이스에 대한 각자의 제어부를 움직이는 것과 연관된 제1 지문 - 상기 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 유닛 상의 제1 위치에서의 포커스 셀렉터에 대응함 - 을 검출하고, 제1 지문을 검출하는 것에 응답하여, 디스플레이 유닛 상의 제1 위치에서 각자의 제어부의 표시를 가능하게 하도록 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display a first user interface; A touch-sensitive surface unit configured to receive one or more contacts; A fingerprint sensor unit; And a processing unit coupled to the display unit, the touch-sensitive surface unit and the fingerprint sensor unit. Wherein the processing unit comprises: a first fingerprint associated with moving a respective control for a user interface on a touch-sensitive surface unit, the first fingerprint corresponding to a focus selector at a first location on a display unit that does not include its own control; In response to detecting the first fingerprint, enable display of the respective control unit at the first position on the display unit.
따라서, 디스플레이들, 터치-감응 표면들 및 지문 센서들을 갖는 전자 디바이스에는 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Accordingly, electronic devices having displays, touch-sensitive surfaces, and fingerprint sensors are provided with faster and more efficient methods for displaying their controls for the user interface based on the detection of the first fingerprint associated with moving their respective controls And interfaces are provided, thereby increasing validity, efficiency and user satisfaction by such devices. Such methods and interfaces may complement or replace conventional methods for displaying the respective controls for the user interface.
제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 제2 전자 디바이스를 보조 디스플레이로서 설정하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for setting a second electronic device as a secondary display of the first electronic device. Such methods and interfaces may complement or replace conventional methods for setting a second electronic device as a secondary display. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 이 방법은, 제1 시기에 제1 전자 디바이스의 지문 센서 상에서 제1 지문 - 상기 제1 지문은 각자의 사용자에 대해 등록됨 - 을 검출하는 단계를 포함한다. 이 방법은 또한, 제1 전자 디바이스와는 별개인 제2 전자 디바이스로부터, 제2 시기에 제2 디바이스의 지문 센서 상에서 제2 지문이 검출되었음을 나타내는 정보를 포함하는 통신을 수신하는 단계를 포함한다. 이 방법은, 제1 지문을 검출하고 제2 전자 디바이스로부터 통신을 수신하는 것에 응답하여: 미리 정해진 보조 디스플레이 기준 - 상기 보조 디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 결정하는 단계를 추가로 포함한다. 이 방법은, 보조 디스플레이 기준이 충족된다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 단계, 및 보조 디스플레이 기준이 충족되지 않는다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지하는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. The method includes detecting a first fingerprint on the fingerprint sensor of the first electronic device at a first time, the first fingerprint being registered for a respective user. The method also includes receiving communication comprising information indicating that a second fingerprint has been detected on a fingerprint sensor of the second device from a second electronic device that is separate from the first electronic device and at a second time. The method further comprises: in response to detecting the first fingerprint and receiving the communication from the second electronic device: a predetermined secondary display criterion, the secondary display criterion comprises a criterion that is met when the second fingerprint is registered for the respective user Includes the step of determining whether the inclusion - inclusion - has been met. The method further comprises transmitting to the second electronic device a response that allows the second electronic device to be set as a secondary display for the first electronic device in accordance with the determination that the secondary display criteria is satisfied, Further comprising stopping sending a response to the second electronic device to enable the second electronic device to be set as an auxiliary display for the first electronic device, according to the determination that the second electronic device is not connected to the second electronic device.
일부 실시예들에 따르면, 전자 디바이스는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛; 지문 센서 유닛; 및 디스플레이 유닛 및 지문 센서 유닛에 결합된 프로세싱 유닛을 포함한다. 프로세싱 유닛은 제1 시기에 제1 전자 디바이스의 지문 센서 유닛 상에서 제1 지문 - 상기 제1 지문은 각자의 사용자에 대해 등록됨 - 을 검출하도록 구성된다. 프로세싱 유닛은 또한, 제1 전자 디바이스와는 별개인 제2 전자 디바이스로부터, 제2 시기에 제2 디바이스의 지문 센서 유닛 상에서 제2 지문이 검출되었음을 나타내는 정보를 포함하는 통신을 수신하도록 구성된다. 프로세싱 유닛은, 제1 지문을 검출하고 제2 전자 디바이스로부터 통신을 수신하는 것에 응답하여, 미리 정해진 보조 디스플레이 기준 - 상기 보조 디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 결정하도록 추가로 구성된다. 프로세싱 유닛은 보조 디스플레이 기준이 충족된다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하고, 보조 디스플레이 기준이 충족되지 않는다는 결정에 따라, 제2 전자 디바이스가 제1 전자 디바이스를 위한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지하도록 추가로 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display a user interface; A fingerprint sensor unit; And a processing unit coupled to the display unit and the fingerprint sensor unit. The processing unit is configured to detect a first fingerprint on the fingerprint sensor unit of the first electronic device at a first time, the first fingerprint being registered for a respective user. The processing unit is also configured to receive communications from a second electronic device that is separate from the first electronic device and that includes information indicating that a second fingerprint has been detected on the fingerprint sensor unit of the second device at a second time. In response to detecting the first fingerprint and receiving the communication from the second electronic device, the processing unit determines a predetermined secondary display criterion, the secondary display criterion being a criterion that is satisfied when the second fingerprint is registered for the respective user Is included or not. The processing unit sends a response to the second electronic device to allow the second electronic device to be set as a secondary display for the first electronic device in accordance with the determination that the secondary display criteria is met and determines , The second electronic device is further configured to stop sending a response to the second electronic device to enable it to be set as a secondary display for the first electronic device.
따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 제2 전자 디바이스를 보조 디스플레이로서 설정하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices having displays and fingerprint sensors are provided with faster and more efficient methods and interfaces for setting a second electronic device as a secondary display of the first electronic device, thereby enabling the devices to be more efficient, Increase user satisfaction. Such methods and interfaces may complement or replace conventional methods for setting a second electronic device as a secondary display.
지문 배향에 기초하여 빔포밍(beamforming) 파라미터들을 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들을 갖는 전자 디바이스들에 대한 필요성이 존재한다. 그러한 방법들 및 인터페이스들은 빔포밍 파라미터들을 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다. 그러한 방법들 및 인터페이스들은 사용자에 대한 인지적 부담을 감소시키고 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 디바이스들에 대해, 그러한 방법들 및 인터페이스들은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.There is a need for electronic devices having faster and more efficient methods and interfaces for modifying beamforming parameters based on fingerprint orientation. Such methods and interfaces may complement or replace conventional methods for modifying beamforming parameters. Such methods and interfaces reduce the cognitive burden on the user and create a more efficient human-machine interface. For battery-operated devices, such methods and interfaces preserve power and increase the time between battery charges.
일부 실시예들에 따르면, 디스플레이 및 지문 센서를 갖는 전자 디바이스에서 방법이 수행된다. 제1 지문이 지문 센서 상에서 제1 배향으로 검출된 동안에, 이 방법은 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시키는 단계를 포함한다. 이 방법은, 지문 센서 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문 - 상기 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택됨 - 을 검출하는 단계, 및 지문 센서 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시키는 단계를 추가로 포함한다.According to some embodiments, a method is performed in an electronic device having a display and a fingerprint sensor. While the first fingerprint is detected in the first orientation on the fingerprint sensor, the method includes operating a set of one or more audio elements in accordance with the first set of beamforming parameters. The method includes the steps of: selecting a subsequent fingerprint having a second orientation different from the first orientation on the fingerprint sensor, the subsequent fingerprint being selected from a first fingerprint having a changed orientation and a second fingerprint distinct from the first fingerprint - detecting a second set of beamforming parameters in response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor, and a second set of beamforming parameters different from the first set of beamforming parameters, Further comprising the step of operating the elements.
일부 실시예들에 따르면, 전자 디바이스는 정보를 표시하도록 구성된 디스플레이 유닛; 지문 센서; 오디오 신호들을 생성 및/또는 캡처하도록 구성된 한 세트의 하나 이상의 오디오 유닛들; 및 디스플레이 유닛, 지문 센서 유닛 및 한 세트의 하나 이상의 오디오 유닛들에 결합된 프로세싱 유닛을 포함한다. 제1 지문이 지문 센서 유닛 상에서 제1 배향으로 검출된 동안에, 프로세싱 유닛은 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 유닛들을 동작시키도록 구성된다. 프로세싱 유닛은, 지문 센서 유닛 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문 - 상기 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택됨 - 을 검출하고, 지문 센서 유닛 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 유닛들을 동작시키도록 추가로 구성된다.According to some embodiments, the electronic device comprises a display unit configured to display information; Fingerprint sensor; A set of one or more audio units configured to generate and / or capture audio signals; And a processing unit coupled to the display unit, the fingerprint sensor unit and a set of one or more audio units. While the first fingerprint is detected in the first orientation on the fingerprint sensor unit, the processing unit is configured to operate a set of one or more audio units in accordance with the first set of beamforming parameters. Wherein the processing unit further comprises a second fingerprint having a second orientation different from the first orientation on the fingerprint sensor unit, wherein the subsequent fingerprint comprises a first fingerprint having a changed orientation and a second fingerprint different from the first fingerprint In response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor unit, detecting a second set of beamforming parameters based on a second set of beamforming parameters that is different from the first set of beamforming parameters, Units. ≪ / RTI >
따라서, 디스플레이들 및 지문 센서들을 갖는 전자 디바이스들에는 지문 배향에 기초하여 빔포밍 파라미터들을 변경하기 위한 보다 빠르고 보다 효율적인 방법들 및 인터페이스들이 제공됨으로써, 그러한 디바이스들에 의해 유효성, 효율성 및 사용자 만족을 증가시킨다. 그러한 방법들 및 인터페이스들은 빔포밍 파라미터들을 변경하기 위한 종래의 방법들을 보완하거나 대체할 수 있다.Thus, electronic devices with displays and fingerprint sensors are provided with faster and more efficient methods and interfaces for changing beamforming parameters based on fingerprint orientation, thereby increasing effectiveness, efficiency and user satisfaction by such devices . Such methods and interfaces may complement or replace conventional methods for modifying beamforming parameters.
기술된 다양한 실시예들의 보다 양호한 이해를 위하여, 다음의 도면과 관련하여 하기의 발명을 실시하기 위한 구체적인 내용이 참조되어야 하며, 도면에서는 동일한 도면 부호들이 도면 전체에 걸쳐서 대응하는 부분들을 나타낸다.
<도 1a>
도 1a는 일부 실시예들에 따른, 터치-감응 디스플레이 및 지문 센서를 갖는 휴대용 다기능 디바이스를 도시하는 블록도.
<도 1b>
도 1b는 일부 실시예들에 따른, 이벤트 핸들링을 위한 예시적인 컴포넌트들을 도시하는 블록도.
<도 2>
도 2는 일부 실시예들에 따른, 터치 스크린 및 지문 센서를 갖는 휴대용 다기능 디바이스를 도시하는 도면.
<도 3>
도 3은 일부 실시예들에 따른, 디스플레이 및 지문 센서를 포함한 복수의 센서들 및 선택적으로 터치-감응 표면을 갖는 예시적인 다기능 디바이스의 블록도.
<도 4a>
도 4a는 일부 실시예들에 따른, 휴대용 다기능 디바이스 상의 애플리케이션들의 메뉴에 대한 예시적인 사용자 인터페이스를 도시하는 도면.
<도 4b>
도 4b는 일부 실시예들에 따른, 디스플레이와는 별개인 터치-감응 표면 및 지문 세서를 갖는 다기능 디바이스에 대한 예시적인 사용자 인터페이스를 도시하는 도면.
<도 4c>
도 4c는 일부 실시예들에 따른, 연관된 지문들을 갖는 2개의 손들의 개략도.
<도 4d>
도 4d는 일부 실시예들에 따른, 지문 센서 상에서의 지문의 상이한 유형들의 회전을 도시하는 도면.
<도 5a 내지 도 5n>
도 5a 내지 도 5n은 일부 실시예들에 따른, 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 6a 내지 도 6c>
도 6a 내지 도 6c는 일부 실시예들에 따른, 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하는 방법을 예시하는 흐름도.
<도 7>
도 7은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 8a 내지 도 8o>
도 8a 내지 도 8o는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 9a 내지 도 9c>
도 9a 내지 도 9c는 일부 실시예들에 따른, 버튼이 다수의 목적들을 만족시키게 하는 방법을 예시하는 흐름도.
<도 10>
도 10은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 11a 내지 도 11f>
도 11a 내지 도 11f는 일부 실시예들에 따른, 사용자 인터페이스의 배향을 잠금하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 12a 및 도 12b>
도 12a 및 도 12b는 일부 실시예들에 따른, 사용자 인터페이스의 배향을 잠금하는 방법을 예시하는 흐름도.
<도 13>
도 13은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 14a 내지 도 14d>
도 14a 내지 도 14d는 일부 실시예들에 따른, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 15>
도 15는 일부 실시예들에 따른, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하는 방법을 예시하는 흐름도.
<도 16>
도 16은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 17a 내지 도 17k>
도 17a 내지 도 17k는 일부 실시예들에 따른, 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 18a 및 도 18b>
도 18a 및 도 18b는 일부 실시예들에 따른, 부류-기반 프로파일에 기초하여 동작들을 수행하는 방법을 예시하는 흐름도.
<도 19>
도 19는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 20a 내지 도 20f>
도 20a 내지 도 20f는 지문들에 기초하여 로깅 선호도를 변경하는, 디바이스들 상에서 구현되는 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 21a 및 도 21b>
도 21a 및 도 21b는 일부 실시예들에 따른, 지문들에 기초하여 로깅 선호도를 변경하는 방법을 예시하는 흐름도.
<도 22>
도 22는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 23a 내지 도 23g>
도 23a 내지 도 23g는 일부 실시예들에 따른, 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 24a 내지 도 24d>
도 24a 내지 도 24d는 일부 실시예들에 따른, 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하는 방법을 예시하는 흐름도.
<도 25>
도 25는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 26a 내지 도 26g>
도 26a 내지 도 26g는 일부 실시예들에 따른, 아이덴티티 및 위치 정보를 연관시키기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 27>
도 27은 일부 실시예들에 따른, 아이덴티티 및 위치 정보를 연관시키는 방법을 예시하는 흐름도.
<도 28>
도 28은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 29a 내지 도 29s>
도 29a 내지 도 29s는 일부 실시예들에 따른, 하나 이상의 사용자들에게 작업 공간들을 할당하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 30a 및 도 30b>
도 30a 및 도 30b는 일부 실시예들에 따른, 하나 이상의 사용자들에게 작업 공간들을 할당하는 방법을 예시하는 흐름도.
<도 31>
도 31은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 32a 내지 도 32s>
도 32a 내지 도 32s는 일부 실시예들에 따른, 적절한 운지법 기술에 대해 사용자를 훈련시키기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 33a 내지 도 33c>
도 33a 내지 도 33c는 일부 실시예들에 따른, 적절한 운지법 기술에 대해 사용자를 훈련시키는 방법을 예시하는 흐름도.
<도 34>
도 34는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 35a 내지 도 35j>
도 35a 내지 도 35j는 일부 실시예들에 따른, 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 36a 및 도 36b>
도 36a 및 도 36b는 일부 실시예들에 따른, 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키는 방법을 예시하는 흐름도.
<도 37>
도 37은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 38a 내지 도 38p>
도 38a 내지 도 38p는 일부 실시예들에 따른, 지문 제스처들과 연관된 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 39a 내지 도 39e>
도 39a 내지 도 39e는 일부 실시예들에 따른, 지문 제스처들과 연관된 동작들을 수행하는 방법을 예시하는 흐름도.
<도 40>
도 40은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 41a 내지 도 41k>
도 41a 내지 도 41k는 일부 실시예들에 따른, 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 42a 내지 도 42c>
도 42a 내지 도 42c는 일부 실시예들에 따른, 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하는 방법을 예시하는 흐름도.
<도 43>
도 43은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 44a 내지 도 44ee>
도 44a 내지 도 44ee는 일부 실시예들에 따른, 제2 전자 디바이스를 보조 디스플레이로서 설정하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 45a 내지 도 45d>
도 45a 내지 도 45d는 일부 실시예들에 따른, 제2 전자 디바이스를 보조 디스플레이로서 설정하는 방법을 예시하는 흐름도.
<도 46>
도 46은 일부 실시예들에 따른 전자 디바이스의 기능 블록도.
<도 47a 내지 도 47l>
도 47a 내지 도 47l은 일부 실시예들에 따른, 지문 배향에 기초하여 빔포밍 파라미터들을 변경하기 위한 예시적인 사용자 인터페이스들을 도시하는 도면.
<도 48a 및 도 48b>
도 48a 및 도 48b는 일부 실시예들에 따른, 지문 배향에 기초하여 빔포밍 파라미터들을 변경하는 방법을 예시하는 흐름도.
<도 49>
도 49는 일부 실시예들에 따른 전자 디바이스의 기능 블록도.BRIEF DESCRIPTION OF THE DRAWINGS For a better understanding of the various embodiments described, reference should be made to the following detailed description taken in conjunction with the accompanying drawings, wherein like reference numerals designate corresponding parts throughout the figures.
≪ RTI ID =
FIG. 1A is a block diagram illustrating a portable multifunction device having a touch-sensitive display and a fingerprint sensor, in accordance with some embodiments. FIG.
≪ RTI ID = 0.0 &
1B is a block diagram illustrating exemplary components for event handling, in accordance with some embodiments.
2,
Figure 2 illustrates a portable multifunction device with a touch screen and a fingerprint sensor, in accordance with some embodiments.
3,
3 is a block diagram of an exemplary multifunction device having a plurality of sensors including a display and a fingerprint sensor and optionally a touch-sensitive surface, in accordance with some embodiments.
4A,
4A illustrates an exemplary user interface for a menu of applications on a portable multifunction device, in accordance with some embodiments.
4 (b)
Figure 4B illustrates an exemplary user interface for a multifunction device having a touch-sensitive surface and fingerprint specification that is separate from the display, in accordance with some embodiments.
4C,
Figure 4c is a schematic diagram of two hands with associated fingerprints, in accordance with some embodiments.
4D,
Figure 4d illustrates rotation of different types of fingerprints on a fingerprint sensor, in accordance with some embodiments.
≪ RTI ID = 0.0 > 5A-5n &
Figures 5A-5N illustrate exemplary user interfaces for interacting with user interfaces in accordance with movement of a finger on a fingerprint sensor, in accordance with some embodiments.
6A to 6C,
6A-6C are flow diagrams illustrating a method of interacting with user interfaces in accordance with movement of a finger on a fingerprint sensor, in accordance with some embodiments.
7,
7 is a functional block diagram of an electronic device according to some embodiments.
<Figs. 8A to 8O>
Figures 8A-8O illustrate exemplary user interfaces used in conjunction with multipurpose buttons in accordance with some embodiments.
9A to 9C,
9A-9C are flow diagrams illustrating a method for causing a button to satisfy multiple purposes, in accordance with some embodiments.
<Fig. 10>
10 is a functional block diagram of an electronic device according to some embodiments.
11A to 11F,
11A-11F illustrate exemplary user interfaces for locking an orientation of a user interface, in accordance with some embodiments.
12A and 12B,
12A and 12B are flow diagrams illustrating a method of locking an orientation of a user interface, in accordance with some embodiments.
13,
13 is a functional block diagram of an electronic device according to some embodiments.
14A to 14D,
Figures 14A-14D illustrate exemplary user interfaces for controlling noise reduction in recorded audio using a fingerprint sensor, in accordance with some embodiments.
<Fig. 15>
15 is a flow chart illustrating a method of controlling noise reduction in recorded audio using a fingerprint sensor, in accordance with some embodiments.
<Fig. 16>
16 is a functional block diagram of an electronic device according to some embodiments.
17A to 17K,
17A-17K illustrate exemplary user interfaces for performing operations based on a class-based profile, in accordance with some embodiments.
18A and 18B,
18A and 18B are flow diagrams illustrating a method of performing operations based on a class-based profile, in accordance with some embodiments.
19,
19 is a functional block diagram of an electronic device according to some embodiments.
20A to 20F,
Figures 20A-20F illustrate exemplary user interfaces implemented on devices that change logging preferences based on fingerprints.
21A and 21B,
Figures 21A and 21B are flow diagrams illustrating a method for changing logging preferences based on fingerprints, in accordance with some embodiments.
22,
22 is a functional block diagram of an electronic device according to some embodiments.
23A to 23G,
23A-23G illustrate exemplary user interfaces for performing their respective limited actions based on fingerprint verification information, in accordance with some embodiments.
24A to 24D,
24A-24D are flow diagrams illustrating a method of performing a respective limited action based on fingerprint verification information, in accordance with some embodiments.
25,
25 is a functional block diagram of an electronic device according to some embodiments.
26A to 26G,
26A-26G illustrate exemplary user interfaces for associating identity and location information, in accordance with some embodiments.
<Fig. 27>
Figure 27 is a flow chart illustrating a method of associating identity and location information, in accordance with some embodiments.
28,
28 is a functional block diagram of an electronic device according to some embodiments.
29A to 29S,
29A-29S illustrate exemplary user interfaces for assigning workspaces to one or more users, in accordance with some embodiments.
30A and 30B,
30A and 30B are flow diagrams illustrating a method of assigning workspaces to one or more users, in accordance with some embodiments.
31,
31 is a functional block diagram of an electronic device according to some embodiments.
32A to 32S,
Figures 32A-32S illustrate exemplary user interfaces for training a user for appropriate fingering techniques, in accordance with some embodiments.
33A to 33C,
33A-33C are flow diagrams illustrating a method of training a user for appropriate fingering techniques, in accordance with some embodiments.
34,
34 is a functional block diagram of an electronic device according to some embodiments.
<Figs. 35A to 35J>
35A-35J illustrate exemplary user interfaces for operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation, in accordance with some embodiments.
36A and 36B,
36A and 36B are flow diagrams illustrating a method of operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation, in accordance with some embodiments.
37,
37 is a functional block diagram of an electronic device according to some embodiments.
38A to 38P,
Figures 38A-38P illustrate exemplary user interfaces for performing actions associated with fingerprint gestures, in accordance with some embodiments.
39A to 39E,
Figures 39A-39E are flow diagrams illustrating a method of performing actions associated with fingerprint gestures, in accordance with some embodiments.
<Fig. 40>
40 is a functional block diagram of an electronic device according to some embodiments.
41A to 41K,
41A-41K illustrate exemplary user interfaces for displaying a respective control for a user interface based on detection of a first fingerprint associated with moving a respective control, in accordance with some embodiments.
42A to 42C,
42A-42C are flow diagrams illustrating a method of displaying a respective control for a user interface based on detection of a first fingerprint associated with moving a respective control, in accordance with some embodiments.
<Fig. 43>
Figure 43 is a functional block diagram of an electronic device according to some embodiments.
44A to 44E,
Figures 44A-44E illustrate exemplary user interfaces for setting a second electronic device as a secondary display, in accordance with some embodiments.
45A to 45D,
Figures 45A-45D are flow diagrams illustrating a method of setting a second electronic device as a secondary display, in accordance with some embodiments.
46,
46 is a functional block diagram of an electronic device according to some embodiments.
47A to 47L,
Figures 47A-47L illustrate exemplary user interfaces for modifying beamforming parameters based on fingerprint orientation, in accordance with some embodiments.
48A and 48B,
48A and 48B are flow charts illustrating a method of changing beamforming parameters based on a fingerprint orientation, in accordance with some embodiments.
49,
49 is a functional block diagram of an electronic device according to some embodiments.
본 명세서에 기술된 방법들, 디바이스들 및 GUI들은 터치-감응 표면 또는 다른 입력 디바이스 상의 입력들 대신에 또는 그 입력들에 더하여 지문 센서 상의 입력들에 응답한다. 일부 구현예들에서, 개별 지문 능선(ridge)들에 의해 형성되는 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 터치-감응 표면이 지문 센서로서 사용된다. 지문이 지문 센서의 면적만큼 크거나 그보다 더 넓은 면적을 가지는 경우에도 지문 센서는 지문 센서 위에서의 접촉의 이동을 검출할 수 있기 때문에, 별개의 터치-감응 표면 없이 지문 센서가 사용되는 경우, 지문 센서는 훨씬 더 작은 폼 팩터(form factor)를 갖는 터치-감응 표면의 기능들 중 많은 것에 대한 대체물로서 역할할 수 있다. 별개의 터치-감응 표면에 더하여 지문 센서가 사용되는 경우, 지문 센서는 접촉의 비틀림 움직임들의 정확한 검출을 제공하고, 지문 센서 상에서 제스처들을 수행하기 위해 사용되는 손가락들의 상이한 지문들을 식별하며, 디바이스의 현재 사용자를 식별함으로써, 터치-감응 표면을 증강시킬 수 있다. 부가적으로, 별개의 터치스크린 디스플레이에 더하여 지문 센서가 사용되는 경우, 지문 센서는 (예를 들어, 지도, 비디오 또는 게임을 보는 동안에) 손가락들이 디스플레이의 일부분들을 가리는 것을 방지하는 것이 유리한 상황들에서 터치 입력들을 검출할 수 있다. 터치-감응 표면이 지문 센서로서 사용되는 경우, 터치-감응 표면은 선택적으로 사용자 개입 없이 저해상도 모드와 고해상도 모드 사이에서 자동으로 터치-감응 표면(또는 터치-감응 표면의 구역들)을 전환하도록 정의될 수 있는 공간 해상도 설정들을 갖는다. 다수의 상황들에서, 저해상도 모드는 고해상도 모드보다 더 적은 전력을 소비한다. 지문 검출이 필요하지 않을 때 터치-감응 표면을 저해상도 모드에서 동작시키고, 필요로 하는 바를 기준으로 터치-감응 표면 또는 터치-감응 표면의 구역을 고해상도 모드로 전환하는 것의 이점은, 그러한 접근법이 전력을 보존하면서 디바이스를 사용하는 사용자 경험을 향상시키기 위해 필요한 대로 여전히 고해상도 지문 특징 감지를 제공한다는 것이다. 터치-감응 표면이 지문 센서로서 사용되는 구현예들에서, 용어 "지문 센서"는 현재 고해상도 모드에 있는 터치-감응 표면, 또는 터치-감응 표면의 구역을 지칭하는 데 사용된다.The methods, devices, and GUIs described herein respond to inputs on a fingerprint sensor in addition to or in addition to inputs on a touch-sensitive surface or other input device. In some embodiments, a touch-sensitive surface having a spatial resolution high enough to detect fingerprint features formed by individual fingerprint ridges is used as the fingerprint sensor. Since the fingerprint sensor can detect the movement of the contact on the fingerprint sensor even when the fingerprint is larger than or larger than the area of the fingerprint sensor, when the fingerprint sensor is used without a separate touch-sensitive surface, May serve as an alternative to many of the functions of a touch-sensitive surface with a much smaller form factor. When a fingerprint sensor is used in addition to a separate touch-sensitive surface, the fingerprint sensor provides accurate detection of torsional movements of the contact, identifies different fingerprints of the fingers used to perform the gestures on the fingerprint sensor, By identifying the user, the touch-sensitive surface can be augmented. Additionally, where a fingerprint sensor is used in addition to a separate touchscreen display, the fingerprint sensor may be advantageous in situations where it is advantageous to prevent fingers from covering portions of the display (e.g., while viewing a map, video, or game) The touch inputs can be detected. When the touch-sensitive surface is used as a fingerprint sensor, the touch-sensitive surface is automatically defined to switch the touch-sensitive surface (or zones of the touch-sensitive surface) automatically between the low-resolution and high-resolution modes without user intervention Lt; / RTI > In many situations, the low resolution mode consumes less power than the high resolution mode. The advantage of operating the touch-sensitive surface in low-resolution mode when fingerprint detection is not needed and switching the area of the touch-sensitive surface or touch-sensitive surface to the high-resolution mode based on what is needed is that such approach And still provide high resolution fingerprint feature detection as needed to enhance the user experience of using the device while preserving it. In embodiments in which the touch-sensitive surface is used as a fingerprint sensor, the term "fingerprint sensor" is used to refer to a touch-sensitive surface in the current high resolution mode, or a region of the touch- sensitive surface.
하나 이상의 지문 센서들로부터의 입력들이 전자 디바이스의 사용자 인터페이스를 조작하는 데 사용되는 직관적인 사용자 인터페이스를 제공하기 위한 다수의 상이한 접근법들이 이하에서 기술된다. 이들 접근법 중 하나 이상을 (선택적으로는 서로 함께) 사용하는 것은 사용자에게 추가적인 정보 및 기능성을 직관적으로 제공하는 사용자 인터페이스를 제공하는 것을 도울 수 있음으로써, 사용자의 인지적 부담을 감소시키고 인간-기계 인터페이스를 개선한다. 인간-기계 인터페이스에서의 그러한 개선은 사용자들이 디바이스를 더 빠르고 더 효율적으로 사용할 수 있게 한다. 배터리-작동형 디바이스들에 대해, 이들 개선은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다. 설명의 용이성을 위해, 이들 접근법 중 일부의 예시적인 예들을 포함하기 위한 시스템들, 방법들 및 사용자 인터페이스들이 다음과 같이 이하에서 기술된다:A number of different approaches for providing an intuitive user interface in which inputs from one or more fingerprint sensors are used to manipulate a user interface of an electronic device are described below. Using one or more of these approaches (optionally together) may help to provide a user interface that intuitively provides the user with additional information and functionality, thereby reducing the cognitive burden of the user and allowing the user- . Such improvements in the human-machine interface allow users to use the device faster and more efficiently. For battery-operated devices, these improvements conserve power and increase the time between battery charges. For ease of description, systems, methods, and user interfaces for including illustrative examples of some of these approaches are described as follows:
아래에서, 도 5a 내지 도 5n은 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 6a 내지 도 6c는 지문 센서 상에서의 손가락의 이동에 따라 사용자 인터페이스들과 상호작용하는 방법을 예시하는 흐름도이다. 도 5a 내지 도 5n의 사용자 인터페이스들이 도 6a 내지 도 6c의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 5A-5N illustrate exemplary user interfaces for interacting with user interfaces in accordance with movement of the finger on the fingerprint sensor. 6A-6C are flow charts illustrating a method of interacting with user interfaces as a finger moves on a fingerprint sensor. The user interfaces of Figures 5A-5N are used to illustrate the processes of Figures 6A-6C.
아래에서, 도 8a 내지 도 8o는 버튼들이 다수의 목적들을 만족시키게 하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 9a 내지 도 9c는 버튼들이 다수의 목적들을 만족시키게 하는 방법을 예시하는 흐름도이다. 도 8a 내지 도 8o의 사용자 인터페이스들은 도 9a 내지 도 9c의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 8A-8O illustrate exemplary user interfaces for allowing buttons to fulfill multiple purposes. Figures 9A-9C are flow charts illustrating a method of allowing buttons to fulfill multiple purposes. The user interfaces of Figures 8A-8O are used to illustrate the processes of Figures 9A-9C.
아래에서, 도 11a 내지 도 11f는 사용자 인터페이스의 배향을 잠금하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 12a 및 도 12b는 사용자 인터페이스의 배향을 잠금하는 방법을 예시하는 흐름도이다. 도 11a 내지 도 11f의 사용자 인터페이스들이 도 12a 및 도 12b의 프로세스들을 예시하기 위해 사용된다. In the following, FIGS. 11A-11F illustrate exemplary user interfaces for locking the orientation of the user interface. 12A and 12B are flow charts illustrating a method of locking the orientation of the user interface. The user interfaces of Figures 11A-11F are used to illustrate the processes of Figures 12A and 12B.
아래에서, 도 14a 내지 도 14d는 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 15는 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하는 방법을 예시하는 흐름도이다. 도 14a 내지 도 14d의 사용자 인터페이스들이 도 15의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 14A-14D illustrate exemplary user interfaces for controlling noise reduction in recorded audio using a fingerprint sensor. 15 is a flow chart illustrating a method of controlling noise reduction in recorded audio using a fingerprint sensor. The user interfaces of FIGS. 14A-14D are used to illustrate the processes of FIG.
아래에서, 도 17a 내지 도 17k는 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 18a 및 도 18b는 부류-기반 프로파일에 기초하여 동작들을 수행하는 방법을 예시하는 흐름도이다. 도 17a 내지 도 17k의 사용자 인터페이스들이 도 18a 및 도 18b의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 17A-17K illustrate exemplary user interfaces for performing operations based on a class-based profile. 18A and 18B are flow charts illustrating a method of performing operations based on a class-based profile. The user interfaces of Figures 17A-17K are used to illustrate the processes of Figures 18A and 18B.
아래에서, 도 20a 내지 도 20f는 지문들에 기초하여 로깅 선호도를 변경하는, 디바이스들 상에 구현되는 예시적인 사용자 인터페이스들을 도시한다. 도 21a 및 도 21b는 지문들에 기초하여 로깅 선호도를 변경하는 방법을 예시하는 흐름도이다. 도 20a 내지 도 20f의 사용자 인터페이스들이 도 21a 및 도 21b의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 20A-20F illustrate exemplary user interfaces implemented on devices that change logging preferences based on fingerprints. Figures 21A and 21B are flow charts illustrating a method of changing logging preferences based on fingerprints. The user interfaces of Figures 20A-20F are used to illustrate the processes of Figures 21A and 21B.
아래에서, 도 23a 내지 도 23g는 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 24a 내지 도 24d는 지문 검증 정보에 기초하여 각자의 제한된 동작을 수행하는 방법을 예시하는 흐름도이다. 도 23a 내지 도 23g의 사용자 인터페이스들이 도 24a 내지 도 24d의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 23A-23G illustrate exemplary user interfaces for performing their respective limited actions based on fingerprint verification information. 24A-24D are flow charts illustrating a method of performing their respective limited actions based on fingerprint verification information. The user interfaces of Figures 23A-23G are used to illustrate the processes of Figures 24A-24D.
아래에서, 도 26a 내지 도 26g는 아이덴티티 및 위치 정보를 연관시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 27은 아이덴티티 및 위치 정보를 연관시키는 방법을 예시하는 흐름도이다. 도 26a 내지 도 26g의 사용자 인터페이스들이 도 27의 프로세스들을 예시하기 위해 사용된다. 26A-26G illustrate exemplary user interfaces for associating identity and location information. Figure 27 is a flow chart illustrating a method of associating identity and location information. The user interfaces of Figs. 26A-26G are used to illustrate the processes of Fig.
아래에서, 도 29a 내지 도 29s는 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 30a 및 도 30b는 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키는 방법을 예시하는 흐름도이다. 도 29a 내지 도 29s의 사용자 인터페이스들이 도 30a 및 도 30b의 프로세스들을 예시하기 위해 사용된다. 29A-29S illustrate exemplary user interfaces for associating regions of a touch-sensitive surface with one or more users. 30A and 30B are flow charts illustrating a method of associating regions of a touch-sensitive surface with one or more users. The user interfaces of Figures 29A-29S are used to illustrate the processes of Figures 30A and 30B.
아래에서, 도 32a 내지 도 32s는 적절한 운지법 기술들에 대해 사용자를 훈련시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 33a 내지 도 33c는 적절한 운지법 기술들에 대해 사용자를 훈련시키는 방법을 예시하는 흐름도이다. 도 32a 내지 도 32s의 사용자 인터페이스들이 도 33a 내지 도 33c의 프로세스들을 예시하기 위해 사용된다. In the following, Figures 32A-32S illustrate exemplary user interfaces for training a user for appropriate fingering techniques. 33A-33C are flow charts illustrating a method of training a user for appropriate fingering techniques. The user interfaces of Figures 32A-32S are used to illustrate the processes of Figures 33A-33C.
아래에서, 도 35a 내지 도 35j는 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 36a 및 도 36b는 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키는 방법을 예시하는 흐름도이다. 도 35a 내지 도 35j의 사용자 인터페이스들이 도 36a 및 도 36b의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 35A-35J illustrate exemplary user interfaces for operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation. Figures 36A and 36B are flow charts illustrating a method of operating a portion of a touch-sensitive surface in a sensitivity enhanced mode of operation. The user interfaces of Figures 35A-35J are used to illustrate the processes of Figures 36A and 36B.
아래에서, 도 38a 내지 도 38p는 지문 제스처들과 연관된 동작들을 수행하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 39a 내지 도 39e는 지문 제스처들과 연관된 동작들을 수행하는 방법을 예시하는 흐름도이다. 도 38a 내지 도 38p의 사용자 인터페이스들이 도 39a 내지 도 39e의 프로세스들을 예시하기 위해 사용된다. In the following, Figures 38a-38p illustrate exemplary user interfaces for performing actions associated with fingerprint gestures. Figures 39A-39E are flow charts illustrating a method of performing actions associated with fingerprint gestures. The user interfaces of Figures 38A-P are used to illustrate the processes of Figures 39A-39E.
아래에서, 도 41a 내지 도 41k는 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 42a 내지 도 42c는 각자의 제어부를 움직이는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스에 대한 각자의 제어부를 표시하는 방법을 예시하는 흐름도이다. 도 41a 내지 도 41k의 사용자 인터페이스들이 도 42a 내지 도 42c의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 41A-41K illustrate exemplary user interfaces for displaying their controls for a user interface based on the detection of a first fingerprint associated with moving their respective controls. 42A-42C are flow charts illustrating a method of displaying a respective control for a user interface based on detection of a first fingerprint associated with moving a respective control. The user interfaces of Figures 41A-41K are used to illustrate the processes of Figures 42A-C.
아래에서, 도 44a 내지 도 44ee는 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 45a 내지 도 45d는 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하는 방법을 예시하는 흐름도이다. 도 44a 내지 도 44ee의 사용자 인터페이스들이 도 45a 내지 도 45d의 프로세스들을 예시하기 위해 사용된다. 44A-44E show exemplary user interfaces for setting a second electronic device as a secondary display of a first electronic device. 45A-D are flow charts illustrating a method of setting a second electronic device as a secondary display of a first electronic device. The user interfaces of Figures 44a-44ee are used to illustrate the processes of Figures 45a-45d.
아래에서, 도 47a 내지 도 47l은 지문 배향에 기초하여 빔포밍 파라미터들을 변경하기 위한 예시적인 사용자 인터페이스들을 도시한다. 도 48a 및 도 48b는 지문 배향에 기초하여 빔포밍 파라미터들을 변경하는 방법을 예시하는 흐름도이다. 도 47a 내지 도 47l의 사용자 인터페이스들이 도 48a 및 도 48b의 프로세스들을 예시하기 위해 사용된다. Below, FIGS. 47A-47L illustrate exemplary user interfaces for changing beamforming parameters based on fingerprint orientation. 48A and 48B are flow charts illustrating a method of changing beamforming parameters based on fingerprint orientation. The user interfaces of Figures 47A-47L are used to illustrate the processes of Figures 48A and 48B.
예시적인 디바이스들Exemplary devices
이제, 실시예들이 상세하게 참조될 것이며, 그 실시예들의 예들이 첨부 도면들에 도시되어 있다. 하기의 상세한 설명에서, 많은 구체적인 상세사항들이 기술된 다양한 실시예들의 완전한 이해를 제공하기 위해 설명된다. 그러나, 기술된 다양한 실시예들이 이들 구체적인 상세사항 없이 실시될 수 있다는 것은 당업자에게 명백할 것이다. 다른 예들에서, 주지된 방법들, 절차들, 컴포넌트들, 회로들, 및 네트워크들은 실시예들의 태양들을 불필요하게 이해하기 어렵게 하지 않도록 하기 위해 상세히 설명되지 않았다.Reference will now be made in detail to the embodiments, examples of which are illustrated in the accompanying drawings. In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of the various embodiments described. It will be apparent, however, to one skilled in the art that the various embodiments described may be practiced without these specific details. In other instances, well-known methods, procedures, components, circuits, and networks have not been described in detail so as not to unnecessarily obscure aspects of the embodiments.
용어들 "제1", "제2" 등이 일부 경우에 본 명세서에서 다양한 요소들을 기술하는 데 사용될 수 있지만, 이들 요소는 이들 용어로 제한되어서는 안된다는 것이 또한 이해될 것이다. 이들 용어는 하나의 요소를 다른 요소와 구별하는 데에만 사용된다. 예를 들어, 기술된 다양한 실시예들의 범주로부터 벗어남이 없이, 제1 접촉이 제2 접촉으로 지칭될 수 있고, 유사하게, 제2 접촉이 제1 접촉으로 지칭될 수 있다. 제1 접촉 및 제2 접촉 둘 모두가 접촉이지만, 그들이 동일한 접촉인 것은 아니다.It is also to be understood that the terms " first ", "second ", etc., may in some instances be used herein to describe various elements, but these elements should not be limited to these terms. These terms are used only to distinguish one element from another. For example, without departing from the scope of the various embodiments described, a first contact may be referred to as a second contact, and similarly, a second contact may be referred to as a first contact. Both the first contact and the second contact are contacts, but they are not the same contact.
명세서 내의 기술된 다양한 실시예들의 설명에 사용되는 용어는 특정 실시예들을 기술하는 목적만을 위한 것이고, 제한하려는 의도는 아니다. 기술된 다양한 실시예들의 설명 및 첨부된 특허청구범위에 사용되는 바와 같이, 단수의 형태는 문맥상 명백히 달리 나타내지 않는다면 복수의 형태들도 마찬가지로 포함하려는 것으로 의도된다. 또한, 본 명세서에서 사용되는 바와 같은 용어 "및/또는"은 열거되는 관련 항목들 중 하나 이상의 항목의 임의의 그리고 모든 가능한 조합들을 나타내고 그들을 포괄하는 것임이 이해될 것이다. 본 명세서에서 사용될 때 용어들 "포함한다(include)", "포함하는(including)", "포함한다(comprise)", 및/또는 "포함하는(comprising)"은 진술되는 특징들, 정수들, 단계들, 동작들, 요소들, 및/또는 컴포넌트들의 존재를 특정하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들, 및/또는 이들의 그룹들의 존재 또는 추가를 배제하지 않음이 추가로 이해될 것이다.The terminology used in describing the various embodiments described in the specification is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the description of the various embodiments described and in the appended claims, the singular forms are intended to include the plural forms as well, unless the context clearly indicates otherwise. It is also to be understood that the term "and / or" as used herein denotes and encompasses any and all possible combinations of one or more of the listed items of related items. The terms " including, " " including, "and" comprising ", when used in this specification, But are not limited to, the presence or addition of one or more other features, integers, steps, operations, elements, components, and / or groups thereof, Will not be excluded.
본 명세서에서 사용되는 바와 같이, 용어 "~의 경우(if)"는 맥락에 따라 선택적으로 "~할 때(when)" 또는 "~ 시(upon)" 또는 "~라고 결정하는 것에 응답하여" 또는 "~라고 검출하는 것에 응답하여"를 의미하는 것으로 해석된다. 유사하게, 구문 "~라고 결정되는 경우" 또는 "[진술된 상태 또는 이벤트]가 검출된 경우"는 맥락에 따라 선택적으로 "~라고 결정 시" 또는 "~라고 결정하는 것에 응답하여" 또는 "[진술된 상태 또는 이벤트]를 검출할 시" 또는 "[진술된 상태 또는 이벤트]를 검출하는 것에 응답하여"를 의미하는 것으로 해석된다.As used herein, the term " if, "is used to mean selectively in response to a determination of " when" or " upon " Is interpreted to mean "in response to detecting" Similarly, the phrase " when determined "or" when a stated state or event is detected "is optionally " determined &Quot; or "in response to detecting " or " stated state or event "
전자 디바이스들, 그러한 디바이스들에 대한 사용자 인터페이스들, 및 그러한 디바이스들을 사용하기 위한 연관된 프로세스들의 실시예들이 기술된다. 일부 실시예들에서, 디바이스는 PDA 및/또는 음악 플레이어 기능들과 같은 다른 기능들을 또한 포함하는, 이동 전화기와 같은, 휴대용 통신 디바이스이다. 휴대용 다기능 디바이스들의 예시적인 실시예들은 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.(Apple Inc.)로부터의 아이폰(iPhone)(등록상표), 아이팟 터치(iPod Touch)(등록상표), 및 아이패드(iPad)(등록상표) 디바이스들을 제한 없이 포함한다. 터치-감응 표면들(예를 들어, 터치 스크린 디스플레이들 및/또는 터치 패드들)을 갖는 랩톱 또는 태블릿 컴퓨터들과 같은 다른 휴대용 전자 디바이스들이 선택적으로 사용된다. 일부 실시예들에서, 디바이스는 휴대용 통신 디바이스가 아니라 터치-감응 표면(예를 들어, 터치 스크린 디스플레이 및/또는 터치패드)을 갖는 데스크톱 컴퓨터임을 또한 이해하여야 한다.Embodiments of electronic devices, user interfaces to such devices, and associated processes for using such devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, which also includes other functions such as PDA and / or music player functions. Exemplary embodiments of portable multifunction devices include the iPhone (registered trademark), iPod Touch (registered trademark), and iPad (registered trademark) trademarks from Apple Inc. of Cupertino, iPad < / RTI > (registered trademark) devices. Other portable electronic devices such as laptop or tablet computers with touch-sensitive surfaces (e.g., touch screen displays and / or touch pads) are optionally used. It should also be understood that, in some embodiments, the device is not a portable communication device but a desktop computer with a touch-sensitive surface (e.g., a touch screen display and / or a touchpad).
이하의 논의에서, 디스플레이 및 터치-감응 표면을 포함하는 전자 디바이스가 기술된다. 그러나, 전자 디바이스가 선택적으로 물리적 키보드, 마우스 및/또는 조이스틱과 같은 하나 이상의 다른 물리적 사용자-인터페이스 디바이스들을 포함한다는 것을 이해하여야 한다.In the discussion that follows, electronic devices including a display and a touch-sensitive surface are described. However, it should be understood that the electronic device optionally includes one or more other physical user-interface devices, such as a physical keyboard, a mouse, and / or a joystick.
디바이스는 전형적으로, 그리기 애플리케이션, 프레젠테이션 애플리케이션, 워드 프로세싱 애플리케이션, 웹사이트 제작 애플리케이션, 디스크 저작 애플리케이션, 스프레드시트 애플리케이션, 게임 애플리케이션, 전화 애플리케이션, 화상 회의 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 운동 지원 애플리케이션, 사진 관리 애플리케이션, 디지털 카메라 애플리케이션, 디지털 비디오 카메라 애플리케이션, 웹 브라우징 애플리케이션, 디지털 음악 플레이어 애플리케이션, 및/또는 디지털 비디오 플레이어 애플리케이션 중 하나 이상과 같은 다양한 애플리케이션들을 지원한다.A device is typically used in a variety of applications, including drawing applications, presentation applications, word processing applications, web site creation applications, disk authoring applications, spreadsheet applications, Such as one or more of the following: a management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and / or a digital video player application.
디바이스 상에서 실행되는 다양한 애플리케이션들은 선택적으로 터치-감응 표면과 같은 적어도 하나의 공통의 물리적 사용자 인터페이스 디바이스를 사용한다. 터치-감응 표면의 하나 이상의 기능들뿐만 아니라 디바이스 상에 표시되는 대응하는 정보는 하나의 애플리케이션으로부터 다음 애플리케이션으로 그리고/또는 각자의 애플리케이션 내에서 선택적으로 조정되거나 변화된다. 이러한 방식으로, (터치-감응 표면과 같은) 디바이스의 공통의 물리적 아키텍처는 선택적으로 사용자에게 직관적이고 투명한 사용자 인터페이스들을 이용하여 다양한 애플리케이션들을 지원한다.The various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. The one or more functions of the touch-sensitive surface as well as the corresponding information displayed on the device are selectively adjusted or changed from one application to the next and / or within the respective application. In this manner, the common physical architecture of the device (such as a touch-sensitive surface) optionally supports various applications using intuitive and transparent user interfaces to the user.
이제 터치-감응 디스플레이들을 갖는 휴대용 디바이스들의 실시예들에 주목한다. 도 1a는 일부 실시예들에 따른, 터치-감응 디스플레이(112)들을 갖는 휴대용 다기능 디바이스(100)를 도시한 블록도이다. 터치-감응 디스플레이(112)는 때때로 편의상 "터치 스크린"이라 지칭되고, 때때로 터치-감응 디스플레이 시스템으로 공지되거나 지칭될 수 있다. 디바이스(100)는 메모리(102)(선택적으로, 하나 이상의 컴퓨터 판독가능한 저장 매체를 포함함), 메모리 제어기(122), 하나 이상의 프로세싱 유닛(CPU)(120)들, 주변기기 인터페이스(118), RF 회로(108), 오디오 회로(110), 스피커(111), 마이크(113), 입력/출력(I/O) 서브시스템(106), 다른 입력 또는 제어 디바이스(116)들 및 외부 포트(124)를 포함한다. 디바이스(100)는 선택적으로 하나 이상의 광학 센서(164)들을 포함한다. 디바이스(100)는 선택적으로 디바이스(100) 상의 접촉들의 강도를 검출하기 위한 하나 이상의 강도 센서(165)들(예를 들어, 디바이스(100)의 터치-감응 디스플레이 시스템(112)과 같은 터치-감응 표면)을 포함한다. 디바이스(100)는 선택적으로 디바이스(100) 상의 촉각적 출력들을 생성하기 위한 (예를 들어, 디바이스(100)의 터치-감응 디스플레이 시스템(112) 또는 디바이스(300)의 터치패드(355)와 같은 터치-감응 표면 상의 촉각적 출력들을 생성하기 위한) 하나 이상의 촉각적 출력 생성기(167)들을 포함한다. 이들 컴포넌트는 선택적으로 하나 이상의 통신 버스들 또는 신호 라인(103)들을 통해 통신한다.Attention is now directed to embodiments of portable devices having touch-sensitive displays. Figure la is a block diagram illustrating a
본 명세서 및 특허청구범위에 사용되는 바와 같이, 터치-감응 표면 상의 접촉의 "강도(intensity)"라는 용어는 터치-감응 표면 상의 접촉(예를 들어, 손가락 접촉)의 힘 또는 압력(단위면적당 힘)을 지칭하거나, 터치-감응 표면 상의 접촉의 힘 또는 압력에 대한 대체자(substitute)(대리자(proxy))를 지칭한다. 접촉의 강도는 적어도 4개의 구분되는 값들을 포함하는 값들의 범위를 가지며, 보다 전형적으로는 수백 개(예를 들어, 적어도 256개)의 구분되는 값들을 포함한다. 접촉의 강도는, 선택적으로 다양한 접근법들과 다양한 센서들 또는 센서들의 조합을 이용하여 결정(또는 측정)된다. 예를 들어, 터치-감응 표면 아래의 또는 그에 인접한 하나 이상의 힘 센서들이 선택적으로 사용되어, 터치-감응 표면 상의 다양한 지점들에서 힘을 측정한다. 일부 구현예들에서, 다수의 힘 센서들로부터의 힘 측정치들이 조합되어, 접촉의 추정되는 힘(예를 들어, 가중 평균)을 결정한다. 유사하게, 스타일러스의 압력-감응 팁이 선택적으로 사용되어, 터치-감응 표면 상에서의 스타일러스의 압력을 결정한다. 대안적으로, 터치-감응 표면 상에서 검출된 접촉 면적의 크기 및/또는 그에 대한 변화, 접촉 부근의 터치-감응 표면의 커패시턴스(capacitance) 및/또는 그에 대한 변화, 및/또는 접촉 부근의 터치-감응 표면의 저항(resistance) 및/또는 그에 대한 변화는 선택적으로 터치-감응 표면 상의 접촉의 힘 또는 압력에 대한 대체자로서 사용된다. 일부 구현예들에서, 접촉 힘 또는 압력에 대한 대체자 측정치들이 직접 사용되어, 강도 임계치가 초과되었는지 여부를 결정한다(예를 들어, 강도 임계치는 대체자 측정치들에 대응하는 단위로 기술됨). 일부 구현예들에서, 접촉 힘 또는 압력에 대한 대체자 측정치들은 추정된 힘 또는 압력으로 변환되고, 추정된 힘 또는 압력이 사용되어 강도 임계치가 초과되었는지 여부를 결정한다(예를 들어, 강도 임계치는 압력의 단위로 측정된 압력 임계치임).As used herein and in the claims, the term "intensity" of a contact on a touch-sensitive surface refers to the force or pressure of a contact (e.g., finger contact) Quot;), or refers to a substitute (proxy) for the force or pressure of a contact on a touch-sensitive surface. The intensity of the contact has a range of values that include at least four distinct values, and more typically includes hundreds (e.g., at least 256) of distinct values. The strength of the contact is optionally determined (or measured) using various approaches and combinations of various sensors or sensors. For example, one or more force sensors below or near the touch-sensitive surface are selectively used to measure force at various points on the touch-sensitive surface. In some implementations, force measurements from a plurality of force sensors are combined to determine an estimated force of contact (e.g., a weighted average). Similarly, the pressure-sensitive tip of the stylus is selectively used to determine the pressure of the stylus on the touch-sensitive surface. Alternatively, the magnitude and / or variation of the contact area detected on the touch-sensitive surface, the capacitance and / or the capacitance of the touch-sensitive surface near the contact, and / or the touch- The resistance of the surface and / or changes thereto is optionally used as a substitute for the force or pressure of the contact on the touch-sensitive surface. In some embodiments, alternate measures for contact force or pressure are used directly to determine whether the intensity threshold has been exceeded (e.g., the intensity threshold is described in units corresponding to alternate measurements). In some embodiments, alternate measurements for contact force or pressure are converted to an estimated force or pressure, and an estimated force or pressure is used to determine whether the intensity threshold has been exceeded (e.g., Of the pressure threshold).
본 명세서 및 특허청구범위에 사용되는 바와 같이, 용어 "촉각적 출력(tactile output)"은 디바이스의 이전 위치에 대한 디바이스의 물리적 변위(displacement), 디바이스의 다른 컴포넌트(예를 들어, 하우징)에 대한 디바이스의 일 컴포넌트(예를 들어, 터치-감응 표면)의 물리적 변위, 또는 사용자의 촉각을 이용하여 사용자에 의해 검출될 디바이스의 질량 중심에 대한 컴포넌트의 변위를 지칭한다. 예를 들어, 디바이스 또는 디바이스의 컴포넌트가 터치에 감응하는 사용자의 표면(예를 들어, 손가락, 손바닥, 또는 사용자의 손의 기타 부분)과 접촉하는 상황에서, 물리적 변위에 의해 생성된 촉각적 출력은 사용자에 의해 디바이스 또는 디바이스의 컴포넌트의 물리적 특징들에서의 인지된 변화에 대응하는 촉각으로서 해석될 것이다. 예를 들어, 터치-감응 표면(예를 들어, 터치-감응 디스플레이 또는 트랙패드)의 이동은 선택적으로 물리적 액추에이터 버튼의 "다운 클릭(down click)" 또는 "업 클릭(up click)"으로서 사용자에 의해 해석된다. 일부 경우들에서, 사용자의 이동에 의해 물리적으로 눌려진(예를 들어, 변위된) 터치-감응 표면과 연관된 물리적 액추에이터 버튼의 이동이 없을 경우에도, 사용자는 "다운 클릭" 또는 "업 클릭"과 같은 촉각적 감각을 느낄 것이다. 다른 예로서, 터치-감응 표면의 이동은 선택적으로, 터치-감응 표면의 평활도(smoothness)에서의 변화가 존재하지 않는 경우에도, 터치-감응 표면의 "조도(roughness)"로서 사용자에 의해 해석 또는 감지된다. 사용자에 의한 터치의 그러한 해석이 사용자의 개인화된 감각 인식들에 영향을 받기 쉬울 것이지만, 대다수의 사용자들에게 공통적인 많은 터치 감각 인식들이 존재한다. 따라서, 달리 언급되지 않는 한, 촉각적 출력이 사용자의 특정한 감각 인식(예를 들어, "업 클릭", "다운 클릭", "조도")에 대응하는 것으로서 기술될 때, 생성된 촉각적 출력은 전형적인 (또는 평균적인) 사용자에 대해 기술된 감각 인식을 생성할 디바이스 또는 이의 컴포넌트의 물리적 변위에 대응한다.As used in this specification and claims, the term "tactile output" refers to the physical displacement of a device relative to a previous position of the device, the relative position of the device to another component (e.g., housing) Refers to the displacement of the component relative to the center of mass of the device to be detected by the user using the physical displacement of one component of the device (e.g., the touch-sensitive surface) or the tactile angle of the user. For example, in situations where a device or a component of a device contacts a surface of a user (e.g., a finger, palm, or other part of the user's hand) sensitive to the touch, the tactile output produced by the physical displacement Will be interpreted by the user as a tactile sense corresponding to a perceived change in the physical characteristics of the device or component of the device. For example, movement of a touch-sensitive surface (e.g., a touch-sensitive display or trackpad) may optionally be performed by the user as a "down click" or " . In some cases, even when there is no movement of a physical actuator button associated with a touch-sensitive surface that is physically pushed (e.g., displaced) by a user's movement, You will feel a tactile sensation. As another example, the movement of the touch-sensitive surface may optionally be interpreted by the user as the "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch- Is detected. While such interpretation of the touch by the user may be susceptible to the user ' s personalized sensory perceptions, there are many touch sensory perceptions common to the majority of users. Thus, unless otherwise noted, when the tactile output is described as corresponding to a user ' s specific sensory perception (e.g., "up click", "down click", " Corresponds to the physical displacement of the device or its components that will produce the sensory perception described for a typical (or average) user.
디바이스(100)가 휴대용 다기능 디바이스의 일례일 뿐이고, 디바이스(100)가 선택적으로 도시된 것보다 더 많거나 더 적은 컴포넌트들을 가지거나, 선택적으로 둘 이상의 컴포넌트들을 조합하거나, 선택적으로 컴포넌트들의 상이한 구성 또는 배열을 갖는다는 것을 이해하여야 한다. 도 1a에 도시된 다양한 컴포넌트들은 하나 이상의 신호 프로세싱 및/또는 주문형 집적 회로(application specific integrated circuit)들을 비롯한, 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어 둘 모두의 조합으로 구현된다.It should be understood that the
메모리(102)는 선택적으로 고속 랜덤 액세스 메모리를 포함하고, 또한 선택적으로 하나 이상의 자기 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 고체 메모리 디바이스들과 같은 비휘발성 메모리를 또한 포함한다. CPU(120) 및 주변기기 인터페이스(118)와 같은 디바이스(100)의 다른 컴포넌트들에 의한 메모리(102)에의 액세스는 선택적으로 메모리 제어기(122)에 의해 제어된다.The memory 102 optionally includes high speed random access memory and also optionally includes non-volatile memory such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. Access to the memory 102 by other components of the
주변기기 인터페이스(118)는 디바이스의입력 및 출력 주변기기들을 CPU(120) 및 메모리(102)에 결합하는 데 사용될 수 있다. 하나 이상의 프로세서(120)들은 디바이스(100)에 대한 다양한 기능들을 수행하고 데이터를 처리하기 위해 메모리(102) 내에 저장된 다양한 소프트웨어 프로그램들 및/또는 명령어들의 세트들을 구동하거나 실행시킨다.The
일부 실시예들에서, 주변기기 인터페이스(118), CPU(120) 및 메모리 제어기(122)는 선택적으로 칩(104)과 같은 단일 칩 상에서 구현된다. 일부 다른 실시예들에서, 이들은 선택적으로 별개의 칩들 상에서 구현된다.In some embodiments,
RF (radio frequency) 회로(108)는 전자기 신호들로 또한 지칭되는 RF 신호들을 수신 및 송신한다. RF 회로(108)는 전기 신호들을 전자기 신호들로/로부터 변환하고, 전자기 신호들을 통해 통신 네트워크들 및 다른 통신 디바이스들과 통신한다. RF 회로(108)는 선택적으로 안테나 시스템, RF 송수신기, 하나 이상의 증폭기들, 튜너, 하나 이상의 발진기들, 디지털 신호 프로세서, CODEC 칩셋, 가입자 식별 모듈(subscriber identity module, SIM) 카드, 메모리 등을 포함하지만 이들로 한정되지 않는, 이러한 기능들을 수행하기 위한 잘 알려진 회로를 포함한다. RF 회로(108)는 선택적으로 네트워크들, 예를 들어 월드 와이드 웹(WWW)으로 또한 지칭되는 인터넷, 인트라넷, 및/또는 무선 네트워크, 예를 들어 셀룰러 전화 네트워크, 무선 근거리 통신망(local area network, LAN) 및/또는 대도시 통신망(metropolitan area network, MAN), 및 다른 디바이스들과 무선 통신에 의해 통신한다. 무선 통신은 선택적으로 GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), HSDPA(high-speed downlink packet access), HSUPA(high-speed uplink packet access), EV-DO(Evolution, Data-Only), HSPA, HSPA+, DC-HSPDA(Dual-Cell HSPA), LTE(long term evolution), NFC(near field communication), W-CDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), 블루투스, Wi-Fi(Wireless Fidelity)(예를 들어, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n), VoIP(voice over Internet Protocol), Wi-MAX, 이메일용 프로토콜(예를 들어, IMAP(Internet message access protocol) 및/또는 POP(post office protocol)), 인스턴트 메시징(예를 들어, XMPP(extensible messaging and presence protocol), SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS(Instant Messaging and Presence Service), 및/또는 SMS(Short Message Service), 또는 본 명세서의 출원일자로 아직 개발되지 않은 통신 프로토콜들을 포함하는 임의의 다른 적합한 통신 프로토콜을 포함하지만 이로 한정되지 않는 복수의 통신 표준들, 프로토콜들 및 기술들 중 임의의 것을 사용한다.A radio frequency (RF)
오디오 회로(110), 스피커(111), 및 마이크(113)는 사용자와 디바이스(100) 사이의 오디오 인터페이스를 제공한다. 오디오 회로(110)는 주변기기 인터페이스(118)로부터 오디오 데이터를 수신하고, 그 오디오 데이터를 전기 신호로 변환하고, 그 전기 신호를 스피커(111)로 송신한다. 스피커(111)는 전기 신호를 사람이 들을 수 있는 음파로 변환한다. 오디오 회로(110)는 또한 마이크(113)에 의해 음파로부터 변환된 전기 신호를 수신한다. 오디오 회로(110)는 전기 신호를 오디오 데이터로 변환하고, 프로세싱을 위해 오디오 데이터를 주변기기 인터페이스(118)로 송신한다. 오디오 데이터는 선택적으로 주변기기 인터페이스(118)에 의해 메모리(102) 및/또는 RF 회로(108)로부터 검색되고/되거나 메모리(102) 및/또는 RF 회로(108)로 송신된다. 일부 실시예들에서, 오디오 회로(110)는 또한 헤드셋 잭(예를 들어, 도 2의 212)을 포함한다. 헤드셋 잭은 출력-전용 헤드폰들, 또는 출력(예를 들어, 한쪽 또는 양쪽 귀를 위한 헤드폰) 및 입력(예를 들어, 마이크) 둘 모두를 갖는 헤드셋과 같은 분리가능한 오디오 입력/출력 주변기기들과 오디오 회로(110) 사이의 인터페이스를 제공한다.The
I/O 서브시스템(106)은 터치 스크린(112) 및 다른 입력 제어 디바이스(116)들과 같은, 디바이스(100) 상의 입력/출력 주변기기들을 주변기기 인터페이스(118)에 결합시킨다. I/O 서브시스템(106)은 선택적으로 디스플레이 제어기(156), 광학 센서 제어기(158), 강도 센서 제어기(159), 햅틱 피드백 제어기(161) 및 다른 입력 또는 제어 디바이스들을 위한 하나 이상의 입력 제어기(160)들을 포함한다. 하나 이상의 입력 제어기(160)들은 다른 입력 또는 제어 디바이스(116)들로부터/로 전기 신호들을 수신/송신한다. 다른 입력 제어 디바이스(116)들은 선택적으로 물리적 버튼들(예를 들어, 푸시 버튼들, 로커 버튼(rocker button)들 등), 다이얼들, 슬라이더 스위치들, 조이스틱들, 클릭 휠들 등을 포함한다. 일부 다른 실시예들에서, 입력 제어기(들)(160)는 선택적으로 키보드, 적외선 포트, USB 포트, 및 마우스와 같은 포인터 디바이스 중 임의의 것에 결합된다(또는 어떤 것에도 결합되지 않음). 하나 이상의 버튼(예를 들어, 도 2의 208)들은 선택적으로 스피커(111) 및/또는 마이크(113)의 음량 제어를 위한 업/다운 버튼을 포함한다. 하나 이상의 버튼들은 선택적으로 푸시 버튼(예를 들어, 도 2의 206)을 포함한다.The I /
터치-감응 디스플레이(112)는 디바이스와 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 제공한다. 디스플레이 제어기(156)는 터치 스크린(112)으로부터/으로 전기 신호들을 수신 및/또는 송신한다. 터치 스크린(112)은 사용자에게 시각적 출력을 표시한다. 시각적 출력은 선택적으로 그래픽, 텍스트, 아이콘들, 비디오 및 이들의 임의의 조합(총칭하여 "그래픽"으로 지칭함)을 포함한다. 일부 실시예들에서, 시각적 출력의 일부 또는 전부가 사용자-인터페이스 객체들에 대응한다.The touch-
터치 스크린(112)은 햅틱 및/또는 촉각적 접촉에 기초하여 사용자로부터 입력을 수용하는 터치-감응 표면, 센서 또는 센서들의 세트를 갖는다. 터치 스크린(112) 및 디스플레이 제어기(156)는 (메모리(102) 내의 임의의 연관된 모듈들 및/또는 명령어들의 세트들과 함께) 터치 스크린(112) 상의 접촉(및 접촉의 임의의 이동 또는 중단)을 검출하고, 검출된 접촉을 터치 스크린(112) 상에 표시된 사용자-인터페이스 객체들(예를 들어, 하나 이상의 소프트 키들, 아이콘들, 웹 페이지들 또는 이미지들)과의 상호작용으로 변환한다. 예시적인 실시예에서, 터치 스크린(112)과 사용자 사이의 접촉 지점은 사용자의 손가락에 대응한다.The
터치 스크린(112)은 선택적으로 LCD(액정 디스플레이) 기술, LPD(발광 중합체 디스플레이) 기술, 또는 LED(발광 다이오드) 기술을 사용하지만, 그외의 디스플레이 기술들이 다른 실시예들에서 사용된다. 터치 스크린(112) 및 디스플레이 제어기(156)는 선택적으로 터치 스크린(112)과의 하나 이상의 접촉 지점들을 결정하기 위해 정전용량, 저항, 적외선 및 표면 음향파 기술들과 다른 근접 센서 어레이들 또는 다른 요소들을 포함하지만 이들로 한정되지 않는, 현재 공지되어 있거나 추후에 개발될 복수의 터치 감지 기술들 중 임의의 것을 이용하여, 접촉 및 그의 임의의 이동 또는 중단을 검출한다. 예시적인 실시예에서, 미국 캘리포니아주 쿠퍼티노 소재의 애플 인크.로부터의 아이폰(등록상표), 아이팟 터치(등록상표), 및 아이패드(등록상표)에서 발견되는 것과 같은 투영형 상호 정전용량식 감지 기술(projected mutual capacitance sensing technology)이 이용된다.The
터치 스크린(112)은 선택적으로 100dpi를 초과하는 비디오 해상도를 갖는다. 일부 실시예들에서, 터치 스크린은 대략 160dpi의 비디오 해상도를 갖는다. 사용자는 선택적으로 스타일러스, 손가락 등과 같은 임의의 적합한 물체 또는 부속물을 이용하여 터치 스크린(112)과 접촉한다. 일부 실시예들에서, 사용자 인터페이스는 손가락-기반 접촉 및 제스처를 주로 이용하여 작업하도록 설계되는데, 이는 터치 스크린 상에서의 손가락의 더 넓은 접촉 면적으로 인해 스타일러스-기반 입력보다 덜 정밀할 수 있다. 일부 실시예들에서, 디바이스는 대략적인 손가락-기반 입력을 사용자가 원하는 행동들을 수행하기 위한 정밀한 포인터/커서 위치 또는 명령으로 변환한다.The
일부 실시예들에서, 터치 스크린에 더하여, 디바이스(100)는 선택적으로 특정 기능들을 활성화 또는 비활성화하기 위한 터치패드(도시되지 않음)를 포함한다. 일부 실시예들에서, 터치패드는 터치 스크린과는 다르게 시각적 출력을 표시하지 않는 디바이스의 터치-감응 영역이다. 터치패드는 선택적으로 터치 스크린(112)으로부터 분리된 터치-감응 표면 또는 터치 스크린에 의해 형성된 터치-감응 표면의 연장부이다.In some embodiments, in addition to the touch screen, the
디바이스(100)는 또한 다양한 컴포넌트들에 전력을 제공하기 위한 전력 시스템(162)을 포함한다. 전력 시스템(162)은 선택적으로 전력 관리 시스템, 하나 이상의 전원들(예를 들어, 배터리, 교류 전류(AC)), 재충전 시스템, 전력 고장 검출 회로, 전력 변환기 또는 인버터, 전력 상태 표시자(예를 들어, 발광 다이오드(LED)) 및 휴대용 디바이스들 내에서의 전력의 생성, 관리 및 분배와 연관된 임의의 다른 컴포넌트들을 포함한다.The
디바이스(100)는 또한 선택적으로 하나 이상의 광학 센서(164)들을 포함한다. 도 1a는 I/O 서브시스템(106) 내의 광학 센서 제어기(158)에 결합된 광학 센서를 도시한다. 광학 센서(164)는 선택적으로 전하-결합 소자(charge-coupled device, CCD) 또는 CMOS(complementary metal-oxide semiconductor) 포토트랜지스터들을 포함한다. 광학 센서(164)는 하나 이상의 렌즈들을 통해 투영된 주변환경으로부터의 광을 수신하고, 그 광을 이미지를 나타내는 데이터로 변환한다. 광학 센서(164)는 선택적으로, 이미징 모듈(143)(카메라 모듈로 또한 지칭됨)과 함께, 정지 이미지들 또는 비디오를 캡처한다. 일부 실시예들에서, 광학 센서는 디바이스 전면 상의 터치 스크린 디스플레이(112)의 반대편인 디바이스(100)의 배면 상에 위치되어, 터치 스크린 디스플레이는 정지 및/또는 비디오 이미지 획득을 위한 뷰파인더로서 사용될 수 있게 된다. 일부 실시예들에서, 사용자가 터치 스크린 디스플레이 상에서 다른 화상 회의 참가자들을 보는 동안, 사용자의 이미지가 선택적으로 화상 회의를 위해 획득되도록 다른 광학 센서가 디바이스의 전면 상에 위치된다.The
디바이스(100)는 선택적으로 하나 이상의 접촉 강도 센서(165)들을 또한 포함한다. 도 1a는 I/O 서브시스템(106) 내의 강도 센서 제어기(159)에 결합된 접촉 강도 센서를 도시한다. 접촉 강도 센서(165)는 선택적으로 하나 이상의 압전 저항 스트레인 게이지, 용량성 힘 센서, 전기적 힘 센서, 압전 힘 센서, 광학적 힘 센서, 용량성 터치-감응 표면, 또는 다른 강도 센서(예를 들어, 터치-감응 표면 상의 접촉 힘(또는 압력)을 측정하도록 사용되는 센서들)를 포함한다. 접촉 강도 센서(165)는 환경으로부터 접촉 강도 정보(예를 들어, 압력 정보 또는 압력 정보에 대한 대리자)를 수신한다. 일부 실시예들에서, 적어도 하나의 접촉 강도 센서는 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))과 함께 위치되거나 그에 근접한다. 일부 실시예들에서, 적어도 하나의 접촉 강도 센서가 디바이스(100)의 전면 상에 위치된 터치 스크린 디스플레이(112)의 반대편인 디바이스(100)의 배면 상에 위치된다.The
디바이스(100)는 선택적으로 하나 이상의 근접 센서(166)들을 또한 포함한다. 도 1a는 주변기기 인터페이스(118)에 결합된 근접 센서(166)를 도시한다. 대안적으로, 근접 센서(166)는 I/O 서브시스템(106) 내의 입력 제어기(160)에 결합된다. 일부 실시예들에서, 근접 센서는 다기능 디바이스가 사용자의 귀 근처에 위치될 때(예를 들어, 사용자가 전화 통화를 하고 있을 때), 터치 스크린(112)을 오프 상태로 하고 디스에이블시킨다.The
디바이스(100)는 또한 선택적으로 하나 이상의 촉각적 출력 생성기(167)들을 포함한다. 도 1a는 I/O 서브시스템(106) 내의 햅틱 피드백 제어기(161)에 결합된 촉각적 출력 생성기를 도시한다. 촉각적 출력 생성기(167)는 선택적으로 스피커들 또는 다른 오디오 컴포넌트들과 같은 하나 이상의 전자음향 디바이스들 및/또는 모터, 솔레노이드, 전기활성 중합체, 압전 액추에이터, 정전 액추에이터, 또는 다른 촉각적 출력 생성 컴포넌트(예를 들어, 전기 신호들을 디바이스 상의 촉각적 출력들로 변환하는 컴포넌트)와 같이 에너지를 선형 움직임으로 변환하는 전자기계 디바이스들을 포함한다. 접촉 강도 센서(165)는 햅틱 피드백 모듈(133)로부터 촉각적 피드백 생성 명령어들을 수신하여 디바이스(100)의 사용자에 의해 감지될 수 있는 디바이스(100) 상의 촉각적 출력들을 생성한다. 일부 실시예들에서, 적어도 하나의 촉각적 출력 생성기가 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))과 함께 위치되거나 그에 근접하며, 선택적으로 터치-감응 표면을 수직으로(예를 들어, 디바이스(100)의 표면 내외로) 또는 수평으로(예를 들어, 디바이스(100)의 표면과 동일한 표면 내에서 전후로) 이동함으로써 촉각적 출력을 생성한다. 일부 실시예들에서, 적어도 하나의 촉각적 출력 생성기 센서는 디바이스(100)의 전면 상에 위치된 터치 스크린 디스플레이(112)의 반대편인 디바이스(100)의 배면 상에 위치된다.The
디바이스(100)는 또한 선택적으로 하나 이상의 가속도계(168)들을 포함한다. 도 1a는 주변기기 인터페이스(118)에 결합된 가속도계(168)를 도시한다. 대안적으로, 가속도계(168)는 선택적으로 I/O 서브시스템(106) 내의 입력 제어기(160)에 결합된다. 일부 실시예들에서, 하나 이상의 가속도계들로부터 수신된 데이터의 분석에 기초하여 터치 스크린 디스플레이 상에 세로보기(portrait view) 또는 가로보기(landscape view)로 정보가 표시된다. 디바이스(100)는 가속도계(들)(168)에 더하여 자력계(도시되지 않음), 및 디바이스(100)의 위치 및 배향(예를 들어, 세로 또는 가로)에 관한 정보를 획득하기 위한 GPS(또는 GLONASS 또는 다른 글로벌 내비게이션 시스템) 수신기(도시되지 않음)를 선택적으로 포함한다.The
일부 실시예들에서, 디바이스(100)는 또한 하나 이상의 지문 센서(169)들을 포함한다(또는 이들과 통신함). 도 1a는 주변기기 인터페이스(118)에 결합된 지문 센서(169)를 도시한다. 대안적으로, 지문 센서(169)들은 선택적으로 I/O 서브시스템(106) 내의 입력 제어기(160)에 결합된다. 그러나 일반적인 일 실시예에서, 지문 식별 동작들은 지문 센서들에 의해 결정된 지문 정보의 보안을 개선하도록 추가적인 보안 특징들을 갖는 보안 전용 컴퓨팅 하드웨어(예를 들어, 하나 이상의 프로세서들, 메모리 및/또는 통신 버스들)를 사용하여 수행된다. 본 명세서에 사용되는 바와 같이, 지문 센서는 인간의 손가락 및 발가락에서 발견되는 것과 같은 피부의 능선 및 골(valley)의 지문 특징들(때때로, "세부 특징들"로 지칭됨)을 구별할 수 있는 센서이다. 지문 센서는, 광학적 지문 이미징, 초음파 지문 이미징, 능동 커패시턴스 지문 이미징, 및 수동 커패시턴스 지문 이미징을 포함하지만, 이로 한정되지 않는, 지문 특징들을 구별하기 위한 다양한 기술들 중 임의의 기술을 사용할 수 있다. 지문 내의 지문 특징들을 구별하는 것에 더하여, 일부 실시예들에서 지문 센서(169)는 시간에 따른 지문 특징들의 이동을 추적할 수 있으며, 이에 의해 지문 센서 상에서의 시간에 따른 지문의 이동을 결정/특성화할 수 있다. 도 1a의 지문 센서(예를 들어, 지문 센서(169))는 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))과는 별개인 것으로 도시되어 있지만, 일부 구현예들에서는 터치-감응 표면(예를 들어, 터치-감응 디스플레이 시스템(112))이 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가지며, 별개의 지문 센서(예를 들어, 지문 센서(169)) 대신에 또는 이에 더하여 지문 센서로서 사용된다는 것을 이해하여야 한다. 일부 실시예들에서, 디바이스(100)는 디바이스 상에 있거나 디바이스에 근접한 손가락 또는 손의 배향(예를 들어, 지문 센서(169) 위에 있는 손가락의 배향)을 결정하도록 사용되는 한 세트의 하나 이상의 배향 센서들을 포함한다. 부가적으로, 일부 실시예들에서, 한 세트의 하나 이상의 배향 센서들이 디바이스와 상호작용하는 접촉의 회전을 검출하기 위해 지문 센서에 더하여 또는 지문 센서들 대신에 사용된다(예를 들어, 아래에서 기술되는 하나 이상의 방법들에서, 지문/접촉의 회전을 검출하기 위해 지문 센서를 사용하는 대신에, 한 세트의 하나 이상의 배향 센서들이 지문의 특징들을 검출하거나 검출하지 않고서, 지문을 포함하는 접촉의 회전을 검출하도록 사용됨).In some embodiments, the
일부 실시예들에서, 지문 센서(169)에 의해 생성, 저장 및 프로세싱되는 지문 데이터의 보안성을 향상시키도록, 지문들의 특징들, 및 검출된 지문들의 특징들과 저장된 지문들의 특징들 사이의 비교가 프로세서(120)들과는 별개인 보안 전용 컴퓨팅 하드웨어(예를 들어, 하나 이상의 프로세서들, 메모리 및/또는 통신 버스들)에 의해 수행된다. 일부 실시예들에서, 지문들의 특징들, 및 검출된 지문들의 특징들과 저장된 지문들의 특징들 사이의 비교는 지문 분석 모듈(131)을 이용하여 프로세서(120)들에 의해 수행된다.In some embodiments, the features of the fingerprints, and the comparison between features of the detected fingerprints and stored fingerprints, to improve the security of the fingerprint data generated, stored and processed by the
일부 실시예들에서, 메모리(102) 내에 저장된 소프트웨어 컴포넌트들은 운영 체제(126), 통신 모듈(또는 명령어들의 세트)(128), 접촉/움직임 모듈(또는 명령어들의 세트)(130), 지문 분석 모듈(131), 그래픽 모듈(또는 명령어들의 세트)(132), 텍스트 입력 모듈(또는 명령어들의 세트)(134), GPS 모듈(또는 명령어들의 세트)(135) 및 애플리케이션들(또는 명령어들의 세트)(136)을 포함한다. 또한, 일부 실시예들에서, 메모리(102)는 도 1a 및 도 3에 도시된 바와 같이 디바이스/글로벌 내부 상태(157)를 저장한다. 디바이스/글로벌 내부 상태(157)는 애플리케이션들이, 존재하는 경우, 현재 활성 상태임을 나타내는 활성 애플리케이션 상태; 어떤 애플리케이션들, 뷰들 또는 다른 정보가 터치 스크린 디스플레이(112)의 다양한 구역들을 점유하는지를 나타내는 디스플레이 상태; 디바이스의 다양한 센서들 및 입력 제어 디바이스(116)들로부터 획득된 정보를 포함하는 센서 상태; 및 디바이스의 위치 및/또는 자세에 관한 위치 정보 중 하나 이상을 포함한다.In some embodiments, the software components stored in the memory 102 may include an
운영 체제(126)(예컨대, 다윈(Darwin), RTXC, 리눅스(LINUX), 유닉스(UNIX), OS X, 윈도우즈(WINDOWS), 또는 VxWorks와 같은 내장형 운영 체제)는 일반적인 시스템 태스크들(예컨대, 메모리 관리, 저장 디바이스 제어, 전력 관리 등)을 제어 및 관리하기 위한 다양한 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함하고, 다양한 하드웨어 및 소프트웨어 컴포넌트들 사이의 통신을 용이하게 한다.An operating system 126 (e.g., an embedded operating system such as Darwin, RTXC, Linux, UNIX, OS X, WINDOWS, or VxWorks) Management software, storage device control, power management, etc.) and facilitates communication between the various hardware and software components.
통신 모듈(128)은 하나 이상의 외부 포트(124)들을 통한 다른 디바이스들과의 통신을 용이하게 하고, 또한 RF 회로(108) 및/또는 외부 포트(124)에 의해 수신되는 데이터를 다루기 위한 다양한 소프트웨어 컴포넌트들을 포함한다. 외부 포트(124)(예를 들어, 범용 직렬 버스(Universal Serial Bus: USB), 파이어와이어(FIREWIRE) 등)는 다른 디바이스들에 직접적으로 또는 네트워크(예를 들어, 인터넷, 무선 LAN 등)를 통해 간접적으로 결합하도록 구성된다. 일부 실시예들에서, 외부 포트는 아이팟(애플 인크.의 상표) 디바이스들에서 사용되는 30-핀 커넥터와 동일하거나 유사하고/하거나 호환가능한 멀티-핀(예를 들어, 30-핀) 커넥터이다.
접촉/움직임 모듈(130)은 선택적으로 (디스플레이 제어기(156)와 함께) 터치 스크린(112) 및 다른 터치-감응 디바이스들(예를 들어, 터치패드 또는 물리적 클릭 휠)과의 접촉을 검출한다. 접촉/움직임 모듈(130)은 접촉이 발생하였는지 여부를 결정하는 것(예를 들어, 손가락-다운 이벤트의 검출), 접촉 강도를 결정하는 것(예를 들어, 접촉의 힘 또는 압력, 또는 접촉의 힘 또는 압력에 대한 대체자), 접촉의 이동이 존재하는지 여부를 결정하고 터치-감응 표면을 가로지르는 이동을 추적하는 것(예를 들어, 하나 이상의 손가락-드래그 이벤트의 검출) 및 접촉이 중단되었는지 여부를 결정하는 것(예를 들어, 손가락-업 이벤트 또는 접촉 중단의 검출)과 같은 접촉의 검출과 관련된 다양한 동작들을 수행하기 위한 다양한 소프트웨어 컴포넌트들을 포함한다. 접촉/움직임 모듈(130)은 터치-감응 표면으로부터 접촉 데이터를 수신한다. 일련의 접촉 데이터에 의해 표현되는 접촉 지점의 이동을 결정하는 것은 선택적으로, 접촉 지점의 속력(크기), 속도(크기 및 방향), 및/또는 가속도(크기 및/또는 방향의 변화)를 결정하는 것을 포함한다. 이러한 동작들은, 선택적으로 단일 접촉들(예를 들어, 한 손가락 접촉들) 또는 다수의 동시 접촉들(예를 들어, "다중 접촉"/다수의 손가락 접촉들)에 적용된다. 일부 실시예들에서, 접촉/움직임 모듈(130) 및 디스플레이 제어기(156)는 터치패드 상의 접촉을 검출한다.The touch /
일부 실시예들에서, 접촉/움직임 모듈(130)은 사용자에 의해 동작이 수행되었는지 여부를 결정하기 위해 (예를 들어, 사용자가 아이콘 상에서 "클릭하였는지" 여부를 결정하기 위해) 한 세트의 하나 이상의 강도 임계치들을 사용한다. 일부 실시예들에서, 적어도 하나의 하위세트의 강도 임계치들이 소프트웨어 파라미터들에 따라 결정된다(예를 들어, 강도 임계치들은 특정 물리적 액추에이터들의 활성화 임계치들에 의해 결정되지 않으며, 디바이스(100)의 물리적 하드웨어를 변경하지 않고서 조정될 수 있음). 예를 들어, 트랙패드 또는 터치 스크린 디스플레이의 마우스 "클릭" 임계치는 트랙패드 또는 터치 스크린 디스플레이 하드웨어를 변경하지 않고서 큰 범위의 미리 정해진 임계치들 중 임의의 것으로 설정될 수 있다. 부가적으로, 일부 구현예들에서, 디바이스의 사용자에게는 (예를 들어, 개별 강도 임계치들을 조정함으로써 그리고/또는 시스템-레벨 클릭 "강도" 파라미터로 복수의 강도 임계치들을 한번에 조정함으로써) 한 세트의 하나 이상의 강도 임계치들을 조정하기 위한 소프트웨어 설정들이 제공된다.In some embodiments, the contact /
접촉/움직임 모듈(130)은 선택적으로 사용자에 의한 제스처 입력을 검출한다. 터치-감응 표면 상의 상이한 제스처들은 상이한 접촉 패턴들(예를 들어, 상이한 움직임들, 타이밍들, 및/또는 검출된 접촉들의 강도들)을 갖는다. 따라서, 제스처는 선택적으로 특정 접촉 패턴을 검출함으로써 검출된다. 예를 들어, 손가락 탭 제스처(finger tap gesture)를 검출하는 것은 손가락-다운 이벤트를 검출한 다음에 손가락-다운 이벤트와 동일한 위치(또는 실질적으로 동일한 위치)(예를 들어, 아이콘의 위치)에서 손가락 업 이벤트(들어올림)를 검출하는 것을 포함한다. 다른 예로서, 터치-감응 표면 상에서 손가락 문지름 제스처(finger swipe gesture)를 검출하는 것은 손가락-다운 이벤트의 검출, 뒤이은 하나 이상의 손가락-드래그 이벤트들의 검출, 그리고 후속적으로 뒤이은 손가락-업(들어올림) 이벤트의 검출을 포함한다.The touch /
그래픽 모듈(132)은, 표시되는 그래픽의 시각적 효과(예를 들어, 밝기, 투명도, 포화도, 콘트라스트 또는 다른 시각적 특성)를 변경하기 위한 컴포넌트들을 포함한, 터치 스크린(112) 또는 다른 디스플레이 상에 그래픽을 렌더링 및 표시하기 위한 다양한 알려진 소프트웨어 컴포넌트들을 포함한다. 본 명세서에 사용되는 바와 같이, 용어 "그래픽"은 텍스트, 웹 페이지들, 아이콘들(예를 들어, 소프트 키들을 포함한 사용자-인터페이스 객체들), 디지털 이미지들, 비디오들, 애니메이션들 등을 제한 없이 포함하는, 사용자에게 표시될 수 있는 임의의 객체를 포함한다.
일부 실시예들에서, 그래픽 모듈(132)은 사용될 그래픽을 나타내는 데이터를 저장한다. 각각의 그래픽에는 선택적으로 대응하는 코드가 할당된다. 그래픽 모듈(132)은 필요한 경우 좌표 데이터 및 다른 그래픽 특성 데이터와 함께 표시될 그래픽을 특정하는 하나 이상의 코드들을 애플리케이션들 등으로부터 수신하며, 이어서 스크린 이미지 데이터를 생성하여 디스플레이 제어기(156)에 출력한다.In some embodiments,
햅틱 피드백 모듈(133)은 디바이스(100)와의 사용자 상호작용에 응답하여 디바이스(100) 상의 하나 이상의 위치들에서의 촉각적 출력들을 생성하도록 촉각적 출력 생성기(들)(167)에 의해 사용되는 명령어들을 생성하기 위한 다양한 소프트웨어 컴포넌트들을 포함한다.The
선택적으로 그래픽 모듈(132)의 컴포넌트인 텍스트 입력 모듈(134)은 다양한 애플리케이션들(예를 들어, 연락처(137), 이메일(140), IM(141), 브라우저(147) 및 텍스트 입력을 필요로 하는 임의의 다른 애플리케이션)에서 텍스트를 입력하기 위한 소프트 키보드들을 제공한다.Optionally, the
GPS 모듈(135)은 디바이스의 위치를 결정하고, 이 정보를 다양한 애플리케이션들에서의 사용을 위해 (예를 들어, 위치 기반 다이얼링에서 사용하기 위해 전화(138)에, 사진/비디오 메타데이터로서 카메라(143)에, 그리고 날씨 위젯들, 지역 전화 번호부 위젯들 및 지도/내비게이션 위젯들과 같은 위치 기반 서비스들을 제공하는 애플리케이션들에) 제공한다.
애플리케이션(136)들은 선택적으로 하기의 모듈들(또는 명령어들의 세트들), 또는 이들의 하위세트 또는 상위세트를 포함한다:The
연락처 모듈(137)(때때로 주소록 또는 연락처 목록으로 지칭됨); A contact module 137 (sometimes referred to as an address book or contact list);
전화 모듈(138); A
화상 회의 모듈(139); A
이메일 클라이언트 모듈(140); An
인스턴트 메시징(IM) 모듈(141); An instant messaging (IM)
운동 지원 모듈(142); A
정지 및/또는 비디오 이미지들을 위한 카메라 모듈(143); A
이미지 관리 모듈(144); An
브라우저 모듈(147); A
캘린더 모듈(148); A
선택적으로, 날씨 위젯(149-1), 주식 위젯(149-2), 계산기 위젯(149-3), 알람 시계 위젯(149-4), 사전 위젯(149-5), 및 사용자에 의해 획득되는 다른 위젯들뿐만 아니라 사용자-생성 위젯(149-6)들 중 하나 이상을 포함하는 위젯 모듈(149)들; Optionally, the weather widget 149-1, the stock widget 149-2, the calculator widget 149-3, the alarm clock widget 149-4, the dictionary widget 149-5,
사용자-생성 위젯(149-6)들을 만들기 위한 위젯 생성기 모듈(150); A
탐색 모듈(151); A
선택적으로 비디오 플레이어 모듈 및 음악 플레이어 모듈로 구성된 비디오 및 음악 플레이어 모듈(152); A video and
노트 모듈(153); A
지도 모듈(154); 및/또는 A
온라인 비디오 모듈(155).
선택적으로 메모리(102) 내에 저장된 다른 애플리케이션(136)들의 예들은 다른 워드 프로세싱 애플리케이션들, 다른 이미지 편집 애플리케이션들, 그리기 애플리케이션들, 프레젠테이션 애플리케이션들, JAVA-인에이블드 애플리케이션들, 암호화, 디지털 권한 관리, 음성 인식 및 음성 복제를 포함한다.Examples of
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 연락처 모듈(137)은 선택적으로 주소록 또는 연락처 목록(예를 들어, 메모리(102) 또는 메모리(370) 내의 연락처 모듈(137)의 애플리케이션 내부 상태(192)에 저장됨)을 관리하는 데 사용되며, 이는 하기를 포함한다: 주소록에 이름(들)을 추가하는 것; 주소록으로부터 이름(들)을 삭제하는 것; 전화 번호(들), 이메일 주소(들), 물리적 주소(들) 또는 기타 정보를 이름과 연관시키는 것; 이미지를 이름과 연관시키는 것; 이름들을 분류 및 구분하는 것; 전화(138), 화상 회의(139), 이메일(140) 또는 IM(141)에 의한 통신을 개시하고/하거나 용이하게 하기 위해 전화 번호들 또는 이메일 주소들을 제공하는 것 등등.In conjunction with the
RF 회로(108), 오디오 회로(110), 스피커(111), 마이크(113), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 전화 모듈(138)은 선택적으로 전화 번호에 대응하는 문자들의 시퀀스를 입력하고, 주소록(137) 내의 하나 이상의 전화 번호들에 액세스하고, 입력된 전화 번호를 수정하고, 각자의 전화 번호를 다이얼링하고, 대화를 하고, 대화가 완료된 때 접속해제하거나 끊는 데 사용된다. 전술된 바와 같이, 무선 통신은 선택적으로 복수의 통신 표준들, 프로토콜들 및 기술들 중 임의의 것을 사용한다.An
RF 회로(108), 오디오 회로(110), 스피커(111), 마이크(113), 터치스크린(112), 디스플레이 제어기(156), 광학 센서(164), 광학 센서 제어기(158), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 연락처 목록(137) 및 전화 모듈(138)과 함께, 화상 회의 모듈(139)은 사용자 명령어들에 따라 사용자와 한 명 이상의 다른 참여자들 사이의 화상 회의를 개시, 시행 및 종료하도록 하는 실행가능 명령어들을 포함한다.The
RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 이메일 클라이언트 모듈(140)은 사용자 명령어들에 응답하여 이메일을 생성, 전송, 수신, 및 관리하도록 하는 실행가능 명령어들을 포함한다. 이미지 관리 모듈(144)과 함께, 이메일 클라이언트 모듈(140)은 카메라 모듈(143)로 촬영된 정지 또는 비디오 이미지들을 갖는 이메일을 작성 및 전송하는 것이 매우 용이하게 한다.Along with the
RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 인스턴트 메시징 모듈(141)은, 인스턴트 메시지에 대응하는 글자들의 시퀀스를 입력하고, 이전에 입력된 글자들을 수정하고, (예를 들어, 전화-기반 인스턴트 메시지들을 위한 SMS 또는 MMS(Multimedia Message Service) 프로토콜을 이용하거나 인터넷-기반 인스턴트 메시지들을 위한 XMPP, SIMPLE 또는 IMPS를 이용하여) 각자의 인스턴트 메시지를 송신하고, 인스턴트 메시지들을 수신하고, 수신된 인스턴트 메시지들을 보도록 하는 실행가능 명령어들을 포함한다. 일부 실시예들에서, 전송된 그리고/또는 수신된 인스턴트 메시지들은 선택적으로 그래픽, 사진, 오디오 파일, 비디오 파일 및/또는 MMS 및/또는 EMS(Enhanced Messaging Service)에서 지원되는 다른 첨부물들을 포함한다. 본 명세서에 사용되는 바와 같이, "인스턴트 메시징"은 전화-기반 메시지들(예를 들어, SMS 또는 MMS를 이용하여 전송된 메시지들) 및 인터넷-기반 메시지들(예를 들어, XMPP, SIMPLE 또는 IMPS를 이용하여 전송된 메시지들) 둘 모두를 지칭한다.Along with the
RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), GPS 모듈(135), 지도 모듈(154), 및 음악 플레이어 모듈(146)과 함께, 운동 지원 모듈(142)은 (예컨대, 시간, 거리, 및/또는 열량 소비 목표와 함께) 운동들을 고안하고; 운동 센서들(스포츠 디바이스들)과 통신하고; 운동 센서 데이터를 수신하고; 운동을 모니터링하는 데 사용되는 센서들을 교정하고; 운동 동안 음악을 선택 및 재생하고; 운동 데이터를 표시, 저장 및 송신하도록 하는 실행가능 명령어들을 포함한다.The
터치 스크린(112), 디스플레이 제어기(156), 광학 센서(들)(164), 광학 센서 제어기(158), 접촉 모듈(130), 그래픽 모듈(132) 및 이미지 관리 모듈(144)과 함께, 카메라 모듈(143)은 정지 이미지들 또는 비디오(비디오 스트림을 포함함)를 캡처하고 이들을 메모리(102) 내에 저장하거나, 정지 이미지 또는 비디오의 특성들을 수정하거나, 메모리(102)로부터 정지 이미지 또는 비디오를 삭제하도록 하는 실행가능 명령어들을 포함한다.Along with the
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 카메라 모듈(143)과 함께, 이미지 관리 모듈(144)은 정지 및/또는 비디오 이미지들을 배열하거나 수정(예컨대, 편집)하거나 달리 조작하고, 레이블링하고, 삭제하고, (예컨대, 디지털 슬라이드 쇼 또는 앨범에) 표시하고, 저장하도록 하는 실행가능 명령어들을 포함한다.The
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 브라우저 모듈(147)은 사용자 명령어들에 따라 인터넷을 브라우징하도록 - 웹 페이지들 또는 그들의 일부분뿐만 아니라 웹 페이지들에 링크된 첨부물들 및 다른 파일들을 탐색, 그에 링크, 수신, 및 표시하는 것을 포함함 - 하는 실행가능 명령어들을 포함한다.The
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 이메일 클라이언트 모듈(140), 및 브라우저 모듈(147)과 함께, 캘린더 모듈(148)은 사용자 명령어들에 따라 캘린더들 및 캘린더들과 관련된 데이터(예컨대, 캘린더 엔트리들, 할 일 목록들 등)를 생성, 표시, 수정, 및 저장하도록 하는 실행가능 명령어들을 포함한다.The
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 브라우저 모듈(147)과 함께, 위젯 모듈(149)은 선택적으로 사용자에 의해 다운로드 및 사용되거나(예를 들어, 날씨 위젯(149-1), 주식 위젯(149-2), 계산기 위젯(149-3), 알람 시계 위젯(149-4) 및 사전 위젯(149-5)) 또는 사용자에 의해 생성되는(예를 들어, 사용자-생성 위젯(149-6)) 미니-애플리케이션들이다. 일부 실시예들에서, 위젯은 HTML(Hypertext Markup Language) 파일, CSS(Cascading Style Sheets) 파일 및 자바스크립트(JavaScript) 파일을 포함한다. 일부 실시예들에서, 위젯은 XML(Extensible Markup Language) 파일 및 자바스크립트 파일(예를 들어, 야후!(Yahoo!) 위젯들)을 포함한다.Together with the
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 브라우저 모듈(147)과 함께, 위젯 생성기 모듈(150)은 선택적으로 사용자에 의해 위젯들을 생성(예를 들어, 웹페이지의 사용자 지정 부분을 위젯으로 변경)하기 위해 사용된다.Together with the
터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 탐색 모듈(151)은 사용자 명령어들에 따라 하나 이상의 탐색 기준들(예컨대, 하나 이상의 사용자-특정 검색어)에 일치하는 메모리(102) 내의 텍스트, 음악, 소리, 이미지, 비디오, 및/또는 다른 파일들을 탐색하도록 하는 실행가능 명령어들을 포함한다.Along with the
터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110), 스피커(111), RF 회로(108), 및 브라우저 모듈(147)과 함께, 비디오 및 음악 플레이어 모듈(152)은 사용자가 MP3 또는 AAC 파일들과 같은 하나 이상의 파일 포맷들로 저장된 녹음된 음악 및 다른 소리 파일들을 다운로드 및 재생하게 하는 실행가능 명령어들, 및 비디오들을 (예를 들어, 터치 스크린(112) 상에서 또는 외부 포트(124)를 통해 외부의 접속된 디스플레이 상에서) 표시하거나, 상영하거나, 달리 재생하도록 하는 실행가능 명령어들을 포함한다. 일부 실시예들에서, 디바이스(100)는 선택적으로 아이팟(애플 인크.의 상표)와 같은 MP3 플레이어의 기능을 포함한다.Together with the
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 노트 모듈(153)은 사용자 명령어들에 따라 메모들, 할 일 목록들 등을 생성 및 관리하도록 하는 실행가능 명령어들을 포함한다.Along with the
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), GPS 모듈(135) 및 브라우저 모듈(147)과 함께, 지도 모듈(154)은 선택적으로 사용자 명령어들에 따라 지도들 및 지도들에 연관된 데이터(예를 들어, 운전 방향, 특정 위치에서의 또는 그 인근의 상점들 및 다른 관심 지점들에 관한 데이터; 및 다른 위치-기반 데이터)를 수신하고, 표시하고, 수정하고, 저장하는 데 사용된다.The
터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110), 스피커(111), RF 회로(108), 텍스트 입력 모듈(134), 이메일 클라이언트 모듈(140), 및 브라우저 모듈(147)과 함께, 온라인 비디오 모듈(155)은 사용자가 H.264와 같은 하나 이상의 파일 포맷들의 온라인 비디오들을 액세스하고, 브라우징하고, (예컨대, 스트리밍 및/또는 다운로드에 의해) 수신하고, (예컨대, 터치 스크린 상에서 또는 외부 포트(124)를 통해 외부의 접속된 디스플레이 상에서) 재생하고, 특정 온라인 비디오로의 링크와 함께 이메일을 전송하고, 달리 관리하게 하는 명령어들을 포함한다. 일부 실시예들에서, 이메일 클라이언트 모듈(140)보다는 오히려 인스턴트 메시징 모듈(141)이 특정 온라인 비디오로의 링크를 전송하는 데 사용된다.The
앞서 확인된 모듈들 및 애플리케이션들 각각은 전술된 하나 이상의 기능들 및 본 출원에 기술된 방법들(예를 들어, 본 명세서에 기술되는 컴퓨터-구현 방법들 및 다른 정보 프로세싱 방법들)을 수행하기 위한 실행가능 명령어들의 세트에 대응한다. 이들 모듈(즉, 명령어들의 세트)은 별개의 소프트웨어 프로그램들, 절차들 또는 모듈들로서 구현될 필요가 없으며, 따라서 이들 모듈의 다양한 하위세트들이 선택적으로 다양한 실시예들에서 결합되거나 달리 재배열된다. 일부 실시예들에서, 메모리(102)가 선택적으로, 위에서 확인된 모듈들 및 데이터 구조들의 하위세트를 저장한다. 또한, 메모리(102)는 선택적으로 전술되지 않은 추가의 모듈들 및 데이터 구조들을 저장한다.Each of the previously identified modules and applications may be configured to perform one or more of the functions described above and methods described herein (e.g., computer-implemented methods and other information processing methods described herein) Corresponding to a set of executable instructions. These modules (i. E., The set of instructions) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules are optionally combined or otherwise rearranged in various embodiments. In some embodiments, the memory 102 optionally stores a subset of the modules and data structures identified above. The memory 102 also stores additional modules and data structures that are not selectively described above.
일부 실시예들에서, 디바이스(100)는 디바이스 상의 미리 정해진 세트의 기능들의 동작이 터치 스크린 및/또는 터치패드를 통해 전용으로 수행되는 디바이스이다. 터치 스크린 및/또는 터치패드를 디바이스(100)의 동작을 위한 주 입력 제어 디바이스로서 사용함으로써, 디바이스(100) 상의 (푸시 버튼들, 다이얼들 등과 같은) 물리적 입력 제어 디바이스들의 수가 선택적으로 감소된다.In some embodiments, the
터치 스크린 및/또는 터치패드를 통해 전용으로 수행되는 미리 정해진 세트의 기능들은 선택적으로 사용자 인터페이스들 사이의 내비게이션을 포함한다. 일부 실시예들에서, 터치패드는 사용자에 의해 터치될 때, 디바이스(100)를 디바이스(100) 상에 표시되는 임의의 사용자 인터페이스로부터 메인, 홈 또는 루트 메뉴로 내비게이션한다. 일부 실시예들에서, "메뉴 버튼"이 터치패드를 사용하여 구현된다. 일부 다른 실시예들에서, 메뉴 버튼은 터치패드 대신에 물리적 푸시 버튼 또는 다른 물리적 입력 제어 디바이스이다.The predetermined set of functions performed exclusively through the touch screen and / or the touch pad optionally include navigation between user interfaces. In some embodiments, the touchpad, when touched by a user, navigates the
도 1b는 일부 실시예들에 따른, 이벤트 핸들링을 위한 예시적인 컴포넌트들을 도시하는 블록도이다. 일부 실시예들에서, 메모리(102, 도 1a) 또는 메모리(370, 도 3)는 (예를 들어, 운영 체제(126)에서의) 이벤트 분류기(170) 및 각자의 애플리케이션(136-1)(예를 들어, 전술된 애플리케이션들(137-13, 155, 380-390) 중 임의의 것)을 포함한다.1B is a block diagram illustrating exemplary components for event handling, in accordance with some embodiments. In some embodiments, the memory 102 (FIG. 1A) or the memory 370 (FIG. 3) includes an event classifier 170 (for example, at the operating system 126) For example, any of the applications 137-13, 155, 380-390 described above.
이벤트 분류기(170)는 이벤트 정보를 수신하고 그 이벤트 정보를 전달할 애플리케이션(136-1), 및 애플리케이션(136-1)의 애플리케이션 뷰(191)를 결정한다. 이벤트 분류기(170)는 이벤트 모니터(171)와 이벤트 디스패처 모듈(event dispatcher module)(174)을 포함한다. 일부 실시예들에서, 애플리케이션(136-1)은 애플리케이션이 활성 상태이거나 실행 중일 때 터치-감응 디스플레이(112) 상에 표시되는 현재 애플리케이션 뷰(들)를 나타내는 애플리케이션 내부 상태(192)를 포함한다. 일부 실시예들에서, 디바이스/글로벌 내부 상태(157)는 이벤트 분류기(170)에 의해 어떤 애플리케이션(들)이 현재 활성 상태인지를 결정하는 데 이용되며, 애플리케이션 내부 상태(192)는 이벤트 분류기(170)에 의해 이벤트 정보를 전달할 애플리케이션 뷰(191)들을 결정하는 데 이용된다.The event classifier 170 determines the application 136-1 to receive event information and forward the event information, and the
일부 실시예들에서, 애플리케이션 내부 상태(192)는 애플리케이션(136-1)이 실행을 재개할 때 이용될 재개 정보, 애플리케이션(136-1)에 의해 표시되고 있거나 표시될 준비가 된 정보를 나타내는 사용자 인터페이스 상태 정보, 사용자가 애플리케이션(136-1)의 이전 상태 또는 뷰로 되돌아가게 하기 위한 상태 큐(queue), 및 사용자에 의해 취해진 이전 행동들의 재실행(redo)/실행취소(undo) 큐 중 하나 이상과 같은 추가의 정보를 포함한다.In some embodiments, the application
이벤트 모니터(171)는 주변기기 인터페이스(118)로부터 이벤트 정보를 수신한다. 이벤트 정보는 서브-이벤트(예를 들어, 다중 터치 제스처의 일부로서 터치-감응 디스플레이(112) 상에서의 사용자 터치)에 대한 정보를 포함한다. 주변기기 인터페이스(118)는 I/O 서브시스템(106) 또는 센서, 예를 들어 근접 센서(166), 가속도계(168)(들), 및/또는 (오디오 회로(110)를 통한) 마이크(113)로부터 수신하는 정보를 전송한다. 주변기기 인터페이스(118)가 I/O 서브시스템(106)으로부터 수신하는 정보는 터치-감응 디스플레이(112) 또는 터치-감응 표면으로부터의 정보를 포함한다.The event monitor 171 receives event information from the
일부 실시예들에서, 이벤트 모니터(171)는 사전 결정된 간격들로 주변기기 인터페이스(118)에 요청들을 전송한다. 그 응답으로, 주변기기 인터페이스(118)는 이벤트 정보를 송신한다. 다른 실시예들에서, 주변기기 인터페이스(118)는 중요한 이벤트(예를 들어, 사전 결정된 잡음 임계치를 초과하는 입력 및/또는 사전 결정된 지속기간 초과 동안의 입력을 수신하는 것)가 있을 때에만 이벤트 정보를 송신한다.In some embodiments, the
일부 실시예들에서, 이벤트 분류기(170)는 또한 히트 뷰(hit view) 결정 모듈(172) 및/또는 활성 이벤트 인식기 결정 모듈(173)을 포함한다.In some embodiments, the event categorizer 170 also includes a hit
히트 뷰 결정 모듈(172)은 터치-감응 디스플레이(112)가 하나 초과의 뷰를 표시할 때 하나 이상의 뷰들 내에서 서브-이벤트가 발생한 곳을 결정하기 위한 소프트웨어 절차들을 제공한다. 뷰들은 사용자가 디스플레이 상에서 볼 수 있는 제어부들 및 다른 요소들로 구성된다.The hit
애플리케이션과 연관된 사용자 인터페이스의 다른 태양은 본 명세서에서 때때로 애플리케이션 뷰들 또는 사용자 인터페이스 윈도우들로 지칭되는 한 세트의 뷰들이며, 여기서 정보가 표시되고 터치-기반 제스처가 발생한다. 터치가 검출되는 (각자의 애플리케이션의) 애플리케이션 뷰들은 선택적으로 애플리케이션의 프로그램 또는 뷰 계층구조 내의 프로그램 레벨들에 대응한다. 예를 들어, 터치가 검출되는 최하위 레벨의 뷰는 선택적으로 히트 뷰로 지칭되고, 적절한 입력들로서 인식되는 이벤트들의 세트는 선택적으로 터치-기반 제스처를 시작하는 초기 터치의 히트 뷰에 적어도 부분적으로 기초하여 결정된다.Another aspect of a user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, where information is displayed and a touch-based gesture occurs. The application views (of each application) in which the touch is detected optionally correspond to program levels in the program or view hierarchy of the application. For example, a view of the lowest level at which a touch is detected is optionally referred to as a hit view, and a set of events recognized as appropriate inputs may optionally be determined based at least in part on a hit view of an initial touch initiating a touch- do.
히트 뷰 결정 모듈(172)은 터치-기반 제스처의 서브-이벤트들에 관련된 정보를 수신한다. 애플리케이션이 계층구조에서 조직화된 다수의 뷰들을 갖는 경우, 히트 뷰 결정 모듈(172)은 히트 뷰를 서브-이벤트를 처리해야 하는 계층구조 내의 최하위 뷰로서 식별한다. 대부분의 상황들에서, 히트 뷰는 개시되는 서브-이벤트가 발생하는 최하위 레벨 뷰이다(즉, 이벤트 또는 잠재적 이벤트를 형성하는 서브-이벤트들의 시퀀스 내의 첫 번째 서브-이벤트임). 일단 히트 뷰가 히트 뷰 결정 모듈에 의해 식별되면, 히트 뷰는 전형적으로 그것이 히트 뷰로서 식별되게 하는 것과 동일한 터치나 입력 소스에 관련된 모든 서브-이벤트들을 수신한다.The hit
활성 이벤트 인식기 결정 모듈(173)은 뷰 계층구조 내에서의 어떤 뷰 또는 뷰들이 서브-이벤트들의 특정 시퀀스를 수신해야 하는지를 결정한다. 일부 실시예들에서, 활성 이벤트 인식기 결정 모듈(173)은 히트 뷰만이 서브-이벤트들의 특정 시퀀스를 수신해야 하는 것으로 결정한다. 다른 실시예들에서, 활성 이벤트 인식기 결정 모듈(173)은 서브-이벤트의 물리적 위치를 포함하는 모든 뷰들이 적극 참여 뷰(actively involved view)인 것으로 결정하고, 그에 따라 모든 적극 참여 뷰들이 서브-이벤트들의 특정 시퀀스를 수신해야 하는 것으로 결정한다. 다른 실시예들에서, 터치 서브-이벤트들이 전적으로 하나의 특정 뷰와 관련된 영역으로 한정되더라도, 계층구조 내의 상위 뷰들은 여전히 적극 참여 뷰들로서 유지될 것이다.The active event
이벤트 디스패처 모듈(174)은 이벤트 정보를 이벤트 인식기(예를 들어, 이벤트 인식기(180))에 전달한다. 활성 이벤트 인식기 결정 모듈(173)을 포함하는 실시예들에서, 이벤트 디스패처 모듈(174)은 이벤트 정보를 활성 이벤트 인식기 결정 모듈(173)에 의해 결정된 이벤트 인식기에 전달한다. 일부 실시예들에서, 이벤트 디스패처 모듈(174)은 이벤트 큐 내에 이벤트 정보를 저장하는데, 이벤트 정보는 각자의 이벤트 수신기 모듈(182)에 의해 검색된다.The
일부 실시예들에서, 운영 체제(126)는 이벤트 분류기(170)를 포함한다. 대안적으로, 애플리케이션(136-1)은 이벤트 분류기(170)를 포함한다. 또 다른 실시예에서, 이벤트 분류기(170)는 독립형 모듈이거나 접촉/움직임 모듈(130)과 같이 메모리(102)에 저장되는 다른 모듈의 일부이다.In some embodiments, the
일부 실시예들에서, 애플리케이션(136-1)은 복수의 이벤트 핸들러(190)들 및 하나 이상의 애플리케이션 뷰(191)들을 포함하며, 이들 각각은 애플리케이션의 사용자 인터페이스의 각자의 뷰 내에서 발생하는 터치 이벤트들을 다루기 위한 명령어들을 포함한다. 애플리케이션(136-1)의 각각의 애플리케이션 뷰(191)는 하나 이상의 이벤트 인식기(180)들을 포함한다. 전형적으로, 각자의 애플리케이션 뷰(191)는 복수의 이벤트 인식기(180)들을 포함한다. 다른 실시예들에서, 이벤트 인식기(180)들 중 하나 이상은 사용자 인터페이스 키트(도시되지 않음) 또는 애플리케이션(136-1)이 메소드(method)들 및 다른 특성들을 이어받게 되는 상위 레벨 객체와 같은 별개의 모듈의 일부이다. 일부 실시예들에서, 각자의 이벤트 핸들러(190)는 데이터 업데이터(176), 객체 업데이터(177), GUI 업데이터(178), 및/또는 이벤트 분류기(170)로부터 수신된 이벤트(179) 데이터 중 하나 이상을 포함한다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176), 객체 업데이터(177) 또는 GUI 업데이터(178)를 활용하거나 호출한다. 대안적으로, 애플리케이션 뷰(191)들 중 하나 이상은 하나 이상의 각자의 이벤트 핸들러(190)들을 포함한다. 또한, 일부 실시예들에서, 데이터 업데이터(176), 객체 업데이터(177), 및 GUI 업데이터(178) 중 하나 이상은 각자의 애플리케이션 뷰(191)에 포함된다.In some embodiments, the application 136-1 includes a plurality of
각자의 이벤트 인식기(180)는 이벤트 분류기(170)로부터 이벤트 정보(예를 들어, 이벤트 데이터(179))를 수신하며, 이벤트 정보로부터 이벤트를 식별한다. 이벤트 인식기(180)는 이벤트 수신기(182) 및 이벤트 비교기(184)를 포함한다. 일부 실시예들에서, 이벤트 인식기(180)는 또한 적어도 하나의 하위세트의 메타데이터(183) 및 이벤트 전달 명령어(188)들(선택적으로 서브-이벤트 전달 명령어들을 포함함)을 포함한다.Each
이벤트 수신기(182)는 이벤트 분류기(170)로부터 이벤트 정보를 수신한다. 이벤트 정보는 서브-이벤트, 예를 들어 터치 또는 터치 이동에 대한 정보를 포함한다. 서브-이벤트에 따라, 이벤트 정보는 또한 서브-이벤트의 위치와 같은 추가의 정보를 포함한다. 서브-이벤트가 터치의 움직임과 관련될 때, 이벤트 정보는 또한 선택적으로 서브-이벤트의 속력 및 방향을 포함한다. 일부 실시예들에서, 이벤트는 하나의 배향으로부터 다른 배향으로(예를 들어, 세로 배향으로부터 가로 배향으로 또는 그 반대로)의 디바이스의 회전을 포함하며, 이벤트 정보는 디바이스의 현재 배향(디바이스 자세로 또한 불림)에 관한 대응 정보를 포함한다.The
이벤트 비교기(184)는 이벤트 정보를 미리 정해진 이벤트 또는 서브-이벤트 정의와 비교하고, 그 비교에 기초하여 이벤트 또는 서브-이벤트를 결정하거나, 이벤트 또는 서브-이벤트의 상태를 결정 또는 업데이트한다. 일부 실시예들에서, 이벤트 비교기(184)는 이벤트 정의(186)를 포함한다. 이벤트 정의(186)는 이벤트들(예를 들어, 서브-이벤트들의 미리 정해진 시퀀스들), 예를 들어 이벤트 1(187-1), 이벤트 2(187-2) 등의 정의를 포함한다. 일부 실시예들에서, 이벤트(187) 내의 서브-이벤트들은, 예를 들어 터치 시작, 터치 종료, 터치 이동, 터치 취소, 및 다중 터치를 포함한다. 일례에서, 이벤트 1(187-1)에 대한 정의는 표시된 객체 상에서의 더블 탭(double tap)이다. 더블 탭은, 예를 들어 사전 결정된 페이즈(phase) 동안의 표시된 객체 상에서의 제1 터치(터치 시작), 사전 결정된 페이즈 동안의 제1 들어올림(터치 종료), 사전 결정된 페이즈 동안의 표시된 객체 상에서의 제2 터치(터치 시작), 및 사전 결정된 페이즈 동안의 제2 들어올림(터치 종료)을 포함한다. 다른 예에서, 이벤트 2(187-2)에 대한 정의는 표시된 객체 상에서의 드래깅이다. 드래깅은, 예를 들어 사전 결정된 페이즈 동안의 표시된 객체 상에서의 터치(또는 접촉), 터치-감응 디스플레이(112)를 가로지르는 터치의 이동, 및 터치의 들어올림(터치 종료)을 포함한다. 일부 실시예들에서, 이벤트는 또한 하나 이상의 관련된 이벤트 핸들러(190)들에 대한 정보를 포함한다.The
일부 실시예들에서, 이벤트 정의(187)는 각자의 사용자-인터페이스 객체에 대한 이벤트의 정의를 포함한다. 일부 실시예들에서, 이벤트 비교기(184)는 어느 사용자-인터페이스 객체가 서브-이벤트와 연관되어 있는지를 결정하도록 히트 테스트(hit test)를 수행한다. 예를 들어, 3개의 사용자-인터페이스 객체들이 터치-감응 디스플레이(112) 상에 표시된 애플리케이션 뷰에서, 터치- 감응 디스플레이(112) 상에서 터치가 검출되는 경우, 이벤트 비교기(184)는 3개의 사용자-인터페이스 객체들 중 어느 것이 터치(서브-이벤트)와 관련되는지를 결정하도록 히트 테스트를 수행한다. 각각의 표시된 객체가 각자의 이벤트 핸들러(190)와 관련되는 경우, 이벤트 비교기는 어느 이벤트 핸들러(190)가 활성화되어야 하는지를 결정하는 데 히트 테스트의 결과를 이용한다. 예를 들어, 이벤트 비교기(184)는 히트 테스트를 트리거링하는 서브-이벤트 및 객체와 관련되는 이벤트 핸들러를 선택한다.In some embodiments, the event definition 187 includes a definition of an event for each user-interface object. In some embodiments,
일부 실시예들에서, 각자의 이벤트(187)에 대한 정의는 또한 서브-이벤트들의 시퀀스가 이벤트 인식기의 이벤트 유형에 대응하거나 대응하지 않는지 여부가 결정된 후까지 이벤트 정보의 전달을 지연시키는 지연된 동작들을 포함한다.In some embodiments, the definition for each event 187 also includes delayed operations that delay the delivery of event information until after it has been determined whether the sequence of sub-events corresponds to or does not correspond to the event type of the event recognizer do.
일련의 서브이벤트들이 이벤트 정의(186)들 내의 이벤트들 중 임의의 이벤트와 일치하지 않는 것으로 각자의 이벤트 인식기(180)가 결정할 때, 각자의 이벤트 인식기(180)는 이벤트 불가능, 이벤트 실패, 또는 이벤트 종료된 상태를 입력하며, 그 후에 터치-기반 제스처의 연속적인 서브-이벤트들을 무시한다. 이러한 상황에서, 만일 있다면, 히트 뷰에 대해 활성 상태로 유지되는 다른 이벤트 인식기들이 진행 중인 터치-기반 제스처의 서브-이벤트들을 계속해서 추적 및 처리한다.When each
일부 실시예들에서, 각자의 이벤트 인식기(180)는 이벤트 전달 시스템이 어떻게 적극 참여 이벤트 인식기들로의 서브-이벤트 전달을 수행해야 하는지를 나타내는 설정가능한 특성들, 플래그들, 및/또는 목록들을 갖는 메타데이터(183)를 포함한다. 일부 실시예들에서, 메타데이터(183)는 이벤트 인식기들이 어떻게 상호작용하는지, 또는 상호작용하도록 인에이블되는지를 나타내는 설정가능한 특성들, 플래그들, 및/또는 목록들을 포함한다. 일부 실시예들에서, 메타데이터(183)는, 서브-이벤트들이 뷰 또는 프로그램 계층구조에서의 변화하는 레벨들에 전달되는지 여부를 나타내는 구성가능한 특성들, 플래그들, 및/또는 목록들을 포함한다.In some embodiments, each of the
일부 실시예들에서, 각자의 이벤트 인식기(180)는 이벤트의 하나 이상의 특정 서브-이벤트가 인식될 때 이벤트와 연관된 이벤트 핸들러(190)를 활성화한다. 일부 실시예들에서, 각자의 이벤트 인식기(180)는 이벤트와 관련된 이벤트 정보를 이벤트 핸들러(190)에 전달한다. 이벤트 핸들러(190)를 활성화하는 것은 각자의 히트 뷰에 서브-이벤트들을 전송(및 지연 전송)하는 것과는 구별된다. 일부 실시예들에서, 이벤트 인식기(180)는 인식된 이벤트와 관련된 플래그를 보내고, 그 플래그와 관련된 이벤트 핸들러(190)는 그 플래그를 캡처하고 미리 정해진 프로세스를 수행한다.In some embodiments, each
일부 실시예들에서, 이벤트 전달 명령어(188)들은 이벤트 핸들러를 활성화하지 않고 서브-이벤트에 대한 이벤트 정보를 전달하는 서브-이벤트 전달 명령어들을 포함한다. 대신, 서브-이벤트 전달 명령어들은 일련의 서브-이벤트들과 관련된 이벤트 핸들러들에 또는 적극 참여 뷰들에 이벤트 정보를 전달한다. 일련의 서브-이벤트들 또는 적극 참여 뷰들과 관련된 이벤트 핸들러들은 이벤트 정보를 수신하고 사전 결정된 프로세스를 수행한다.In some embodiments,
일부 실시예들에서, 데이터 업데이터(176)는 애플리케이션(136-1) 내에서 사용되는 데이터를 생성 및 업데이트한다. 예를 들어, 데이터 업데이터(176)는 접촉 모듈(137)에서 이용되는 전화 번호를 업데이트하거나 비디오 플레이어 모듈(145)에서 이용되는 비디오 파일을 저장한다. 일부 실시예들에서, 객체 업데이터(177)는 애플리케이션(136-1)에서 이용되는 객체들을 생성 및 업데이트한다. 예를 들어, 객체 업데이터(176)는 새로운 사용자-인터페이스 객체를 생성하거나 사용자-인터페이스 객체의 위치를 업데이트한다. GUI 업데이터(178)는 GUI를 업데이트한다. 예를 들어, GUI 업데이터(178)는 터치-감응 디스플레이 상의 표시를 위해 디스플레이 정보를 준비하고 이를 그래픽 모듈(132)에 전송한다.In some embodiments,
일부 실시예들에서, 이벤트 핸들러(190)(들)는 데이터 업데이터(176), 객체 업데이터(177) 및 GUI 업데이터(178)를 포함하거나 이들에 액세스한다. 일부 실시예들에서, 데이터 업데이터(176), 객체 업데이터(177), 및 GUI 업데이터(178)는 각자의 애플리케이션(136-1) 또는 애플리케이션 뷰(191)의 단일 모듈 내에 포함된다. 다른 실시예들에서, 이들은 2개 이상의 소프트웨어 모듈들에 포함된다.In some embodiments, event handler 190 (s) includes or accesses
터치-감응 디스플레이들 상의 사용자 터치들의 이벤트 핸들링에 관한 전술된 논의가 입력 디바이스들 - 이들 전부가 터치 스크린 상에서 개시되는 것은 아님 - 을 이용하여 다기능 디바이스(100)들을 동작시키기 위한 사용자 입력들의 다른 형태들에 또한 적용된다는 것을 이해할 것이다. 예를 들어, 마우스 이동 및 마우스 버튼 누름은, 선택적으로 단일 또는 복수의 키보드 누름 또는 홀드; 터치패드 상에서의, 탭, 드래그, 스크롤 등과 같은 접촉 이동들; 펜 스타일러스 입력들; 디바이스의 이동; 구두 명령어들; 검출된 눈 이동들; 생체 측정 입력들; 및/또는 인식되는 이벤트를 정의하는 서브-이벤트에 대응하는 입력들로서 선택적으로 이용되는 이들의 임의의 조합을 이용하여 조정된다.The foregoing discussion of event handling of user touches on touch-sensitive displays may be applied to other types of user inputs for operating the
도 2는 일부 실시예들에 따른, 터치 스크린(112)을 갖는 휴대용 다기능 디바이스(100)를 도시한다. 터치 스크린은 선택적으로 사용자 인터페이스(UI)(200) 내에서 하나 이상의 그래픽들을 표시한다. 이러한 실시예에서뿐만 아니라 하기에 기술되는 다른 실시예들에서, 사용자는 예를 들어 하나 이상의 손가락(202)들(도면에서 축척대로 도시되지 않음) 또는 하나 이상의 스타일러스(203)들(도면에서 축척대로 도시되지 않음)을 이용하여 그래픽 상에 제스처를 행함으로써 그래픽들 중 하나 이상을 선택하는 것이 가능하게 된다. 일부 실시예들에서, 하나 이상의 그래픽들의 선택은 사용자가 하나 이상의 그래픽들과의 접촉을 중단할 때 발생한다. 일부 실시예들에서, 제스처는 선택적으로 디바이스(100)와 접촉한 손가락의 하나 이상의 탭들, (좌에서 우로, 우에서 좌로, 위로 및/또는 아래로의) 하나 이상의 스와이프(swipe)들 및/또는 (우에서 좌로, 좌에서 우로, 위로 및/또는 아래로의) 롤링을 포함한다. 일부 구현예들 또는 상황들에서, 그래픽과의 의도하지 않은 접촉은 그래픽을 선택하지 않는다. 예를 들어, 선택에 대응하는 제스처가 탭인 경우에, 애플리케이션 아이콘 위에서 휩쓰는 스와이프 제스처는 선택적으로, 대응하는 애플리케이션을 선택하지 않는다.Figure 2 illustrates a
디바이스(100)는 또한 선택적으로 "홈" 또는 메뉴 버튼(204)과 같은 하나 이상의 물리적 버튼들을 포함한다. 전술된 바와 같이, 메뉴 버튼(204)은 선택적으로, 디바이스(100) 상에서 선택적으로 실행되는 애플리케이션들의 세트 내의 임의의 애플리케이션(136)으로 내비게이션하는 데 사용된다. 대안적으로, 일부 실시예들에서, 메뉴 버튼은 터치 스크린(112) 상에 표시된 GUI에서 소프트 키로서 구현된다. 일부 실시예들에서, 버튼(204)은 버튼(204)과 상호작용하는 지문을 식별하기 위한 그리고/또는 버튼(204) 상에서의 지문의 이동을 검출하기 위한 통합형 지문 센서(169-1)를 포함한다. 디바이스는 또한 선택적으로, 디바이스와의 사용자 상호작용을 식별하고/하거나 지문의 움직임을 검출하기 위해, 버튼(204)과는 별개이고, 버튼(204) 내에 통합형 지문 센서(169-1)와 함께 또는 그 대신에 사용되는 하나 이상의 다른 지문 센서(169-2)들을 포함한다. 부가적으로, 다른 지문 센서(169-2)들 중 하나 이상은 선택적으로 버튼(예를 들어, 활성화 강도 임계치 초과의 강도를 갖는 입력을 검출함으로써 활성화되는 압력 감지 구역 또는 사용자에 의해 적용되는 힘에 응답하여 움직이는 물리적 액추에이터)과 연관된다. 터치-감응 표면(예를 들어, 터치 스크린(112))이 개별 지문 능선에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 구현예들에서, 터치-감응 표면(예를 들어, 터치 스크린(112))은 선택적으로 별개의 지문 센서(예를 들어, 지문 센서(169-1) 또는 지문 센서(169-2)) 대신 또는 그에 더하여 지문 센서로서 사용된다. 일부 실시예들에서, 디바이스(100)는 디바이스(100) 상의 손의 배향을 결정하는 데 사용되는 한 세트의 하나 이상의 배향 센서들을 포함한다.The
일 실시예에서, 디바이스(100)는 터치 스크린(112), 메뉴 버튼(204), 디바이스를 전력 온/오프시키고 디바이스를 잠그기 위한 푸시 버튼(206), 볼륨 조정 버튼(208)(들), 가입자 식별 모듈(SIM) 카드 슬롯(210), 헤드 셋 잭(212) 및 도킹/충전 외부 포트(124)를 포함한다. 푸시 버튼(206)은 선택적으로 버튼을 누르고 버튼을 미리 정해진 시간 간격 동안 누른 상태로 유지함으로써 디바이스에서 전력을 온/오프시키고; 버튼을 누르고 미리 정해진 시간 간격이 경과하기 전에 버튼 누름을 해제함으로써 디바이스를 잠그고/잠그거나; 디바이스를 잠금해제하거나 잠금해제 프로세스를 개시하도록 사용된다. 대안적인 실시예에서, 디바이스(100)는 또한 마이크(113)를 통해 일부 기능들의 활성화 또는 비활성화를 위한 구두 입력을 수용한다. 디바이스(100)는 또한 선택적으로 터치 스크린(112) 상의 접촉들의 강도를 검출하기 위한 하나 이상의 접촉 강도 센서(165)들 및/또는 디바이스(100)의 사용자를 위해 촉각적 출력들을 생성하기 위한 하나 이상의 촉각적 출력 생성기(167)들을 포함한다.In one embodiment, the
도 3은 일부 실시예들에 따른, 디스플레이 및 터치-감응 표면을 갖는 예시적인 다기능 디바이스의 블록도이다. 디바이스(300)가 휴대용일 필요는 없다. 일부 실시예들에서, 디바이스(300)는 랩톱 컴퓨터, 데스크톱 컴퓨터, 태블릿 컴퓨터, 다기능 플레이어 디바이스, 내비게이션 디바이스, (아이들의 학습 장난감과 같은) 교육용 디바이스, 게임 시스템, 또는 제어 디바이스(예를 들어, 가정용 또는 산업용 제어기)이다. 디바이스(300)는 전형적으로 하나 이상의 프로세싱 유닛(CPU)(310)들, 하나 이상의 네트워크 또는 다른 통신 인터페이스(360)들, 메모리(370) 및 이들 컴포넌트를 상호접속하기 위한 하나 이상의 통신 버스(320)들을 포함한다. 통신 버스(320)들은 선택적으로 시스템 컴포넌트들을 상호접속시키고 이들 사이의 통신을 제어하는 회로(때때로 칩셋으로 지칭됨)를 포함한다. 디바이스(300)는 전형적으로 터치 스크린 디스플레이인 디스플레이(340)를 포함하는 입력/출력(I/O) 인터페이스(330)를 포함한다. I/O 인터페이스(330)는 또한 선택적으로 키보드 및/또는 마우스(또는 다른 포인팅 디바이스)(350) 및 터치패드(355), 디바이스(300) 상의 촉각적 출력을 생성하기 위한 (예를 들어, 도 1a와 관련하여 전술된 촉각적 출력 생성기(167)(들)와 유사한) 촉각적 출력 생성기(357), 센서(359)들(예를 들어, 광학 센서, 가속도 센서, 근접도 센서, 터치-감응 센서, 및/또는 도 1a와 관련하여 전술된 접촉 강도 센서(165)(들)와 유사한 접촉 강도 센서, 및/또는 도 1a와 관련하여 전술된 지문 센서(169)(들)와 유사한 지문 센서들)을 포함한다. 부가적으로, 터치-감응 표면(예를 들어, 터치패드(355))이 개별 지문 능선에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 구현예들에서, 터치-감응 표면(예를 들어, 터치패드(355))은 선택적으로 별개의 지문 센서(예를 들어, 센서들(359) 중 하나) 대신 또는 그에 더하여 지문 센서로서 사용된다. 일부 실시예들에서, 디바이스(300)는 디바이스 상에 있거나 디바이스에 근접한 손가락 또는 손의 배향(예를 들어, 지문 센서(169) 위에 있는 손가락의 배향)을 결정하는 데 사용되는 한 세트의 하나 이상의 배향 센서들을 포함한다. 부가적으로, 일부 실시예들에서, 디바이스와 상호작용하는 접촉의 회전을 검출하기 위해 한 세트의 하나 이상의 배향 센서들이 지문 센서에 더하여 또는 그 대신 사용된다. 예를 들어, 아래에서 기술되는 하나 이상의 방법들에서, 지문/접촉의 회전을 검출하기 위해 지문 센서를 사용하는 대신, 한 세트의 하나 이상의 배향 센서들이 지문의 특징들을 검출하거나 검출하지 않고서 지문을 포함하는 접촉의 회전을 검출하는 데 사용된다.Figure 3 is a block diagram of an exemplary multifunction device having a display and a touch-sensitive surface, in accordance with some embodiments. The
메모리(370)는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 고체 메모리 디바이스와 같은 고속의 랜덤 액세스 메모리를 포함하며; 선택적으로 하나 이상의 자기 디스크 저장 디바이스들, 광 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 또는 다른 비휘발성 고체 저장 디바이스들과 같은 비휘발성 메모리를 포함한다. 메모리(370)는 선택적으로 CPU(310)(들)로부터 원격으로 위치된 하나 이상의 저장 디바이스들을 포함한다. 일부 실시예들에서, 메모리(370)는 휴대용 다기능 디바이스(100)(도 1a)의 메모리(102)에 저장된 프로그램들, 모듈들, 및 데이터 구조와 유사한 프로그램들, 모듈들, 및 데이터 구조들 또는 이들의 하위세트를 저장한다. 또한, 메모리(370)는 선택적으로 휴대용 다기능 디바이스(100)의 메모리(102) 내에 존재하지 않는 추가의 프로그램들, 모듈들 및 데이터 구조들을 저장한다. 예를 들어, 디바이스(300)의 메모리(370)는 선택적으로 그리기 모듈(380), 프레젠테이션 모듈(382), 워드 프로세싱 모듈(384), 웹사이트 제작 모듈(386), 디스크 저작 모듈(388), 및/또는 스프레드시트 모듈(390)을 저장하는 반면, 휴대용 다기능 디바이스(100)(도 1a)의 메모리(102)는 선택적으로 이들 모듈을 저장하지 않는다.Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory devices; And optionally non-volatile memory, such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid state storage devices. The memory 370 optionally includes one or more storage devices remotely located from the CPU 310 (s). In some embodiments, the memory 370 includes programs, modules, and data structures similar to programs, modules, and data structures stored in the memory 102 of the portable multifunction device 100 (FIG. 1A) And stores a subset of these. In addition, the memory 370 optionally stores additional programs, modules and data structures that are not present in the memory 102 of the
도 3에서의 앞서 확인된 요소들 각각은 선택적으로 전술된 메모리 디바이스들 중 하나 이상에 저장된다. 앞서 확인된 모듈들 각각은 전술된 기능을 수행하기 위한 명령어들의 세트에 대응한다. 앞서 확인된 모듈들 또는 프로그램들(즉, 명령어들의 세트들)은 별개의 소프트웨어 프로그램들, 절차들 또는 모듈들로서 구현될 필요가 없으며, 따라서 다양한 실시예들에서 이들 모듈의 다양한 하위세트들이 선택적으로 조합되거나 달리 재배열된다. 일부 실시예들에서, 메모리(370)가 선택적으로, 위에서 확인된 모듈들 및 데이터 구조들의 하위세트를 저장한다. 또한, 메모리(370)는 선택적으로 전술되지 않은 추가의 모듈들 및 데이터 구조들을 저장한다.Each of the previously identified elements in FIG. 3 is optionally stored in one or more of the memory devices described above. Each of the previously identified modules corresponds to a set of instructions for performing the functions described above. The previously identified modules or programs (i. E. Sets of instructions) need not be implemented as separate software programs, procedures, or modules, and thus various subsets of these modules in various embodiments may be optionally combined Or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. In addition, memory 370 optionally stores additional modules and data structures not previously described.
이제, 선택적으로 휴대용 다기능 디바이스(100) 상에 구현되는 사용자 인터페이스("UI")들의 실시예들을 주목한다.Now, note the embodiments of user interfaces ("UI") that are optionally implemented on the
도 4a는 일부 실시예들에 따라 휴대용 다기능 디바이스(100) 상의 애플리케이션들의 메뉴에 대한 예시적인 사용자 인터페이스를 도시한다. 유사한 사용자 인터페이스가 선택적으로 디바이스(300) 상에 구현된다. 일부 실시예들에서, 사용자 인터페이스(400)는 하기의 요소들, 또는 그 하위세트나 상위세트를 포함한다:4A illustrates an exemplary user interface for a menu of applications on a
셀룰러 및 Wi-Fi 신호들과 같은 무선 통신(들)을 위한 신호 세기 표시자(들)(402); Signal strength indicator (s) 402 for wireless communication (s) such as cellular and Wi-Fi signals;
시간(404);
블루투스 표시자(405); A
배터리 상태 표시자(406); A
다음과 같은, 빈번하게 사용되는 애플리케이션들에 대한 아이콘들을 갖는 트레이(408): A
선택적으로, 놓친 통화 또는 음성메일 메시지들의 개수의 표시자(414)를 포함하는 "전화"로 라벨링된 전화 모듈(138)에 대한 아이콘(416), Optionally, an icon 416 for the
선택적으로, 읽지 않은 메일들의 개수의 표시자(410)를 포함하는 "메일"로 라벨링된 이메일 클라이언트 모듈(140)에 대한 아이콘(418), Optionally, an icon 418 for the
"브라우저"로 라벨링된 브라우저 모듈(147)에 대한 아이콘(420), 및 An icon 420 for the
"아이팟"으로 라벨링된 아이팟(애플 인크.의 상표) 모듈(152)로 또한 지칭되는 비디오 및 음악 플레이어 모듈(152)에 대한 아이콘(422);및 An
다음과 같은, 다른 애플리케이션들에 대한 아이콘들: Icons for other applications, such as:
"텍스트"로 라벨링된 IM 모듈(141)에 대한 아이콘(424), An
"캘린더"로 라벨링된 캘린더 모듈(148)에 대한 아이콘(426), An
"사진"으로 라벨링된 이미지 관리 모듈(144)에 대한 아이콘(428), An
"카메라"로 라벨링된 카메라 모듈(143)에 대한 아이콘(430), An
"온라인 비디오"로 라벨링된 온라인 비디오 모듈(155)에 대한 아이콘(432); An
"주식"으로 라벨링된 주식 위젯(149-2)에 대한 아이콘(434), An
"지도"로 라벨링된 지도 모듈(154)에 대한 아이콘(436), An
"날씨"로 라벨링된 날씨 위젯(149-1)에 대한 아이콘(438); An
"시계"로 라벨링된 알람 시계 위젯(149-4)에 대한 아이콘(440), An
"운동 지원"으로 라벨링된 운동 지원 모듈(142)에 대한 아이콘(442), An
"노트"로 라벨링된 노트 모듈(153)에 대한 아이콘(444), 및 An
디바이스(100)에 대한 설정들 및 그의 다양한 애플리케이션(136)들로의 액세스를 제공하는 설정 애플리케이션 또는 모듈에 대한 아이콘(446).
도 4a에 도시된 아이콘 라벨들이 단지 예시적인 것임에 주목하여야 한다. 예를 들어, 비디오 및 음악 플레이어 모듈(152)에 대한 아이콘(422)이 "음악" 또는 "음악 플레이어"로 라벨링된다. 기타 라벨들이 선택적으로 다양한 애플리케이션 아이콘들에 대해 사용된다. 일부 실시예들에서, 각자의 애플리케이션 아이콘에 대한 라벨은 각자의 애플리케이션 아이콘에 대응하는 애플리케이션의 명칭을 포함한다. 일부 실시예들에서, 특정 애플리케이션 아이콘에 대한 라벨은 특정 애플리케이션 아이콘에 대응하는 애플리케이션의 명칭과 구별된다.It should be noted that the icon labels shown in Figure 4A are merely illustrative. For example, the
도 4b는 통합형 지문 센서(359-1)(또는 별개의 지문 센서(359-2))(예를 들어, 도 1a의 지문 센서(169)와 유사한 방식으로 동작하는 하나 이상의 센서(359)들)를 갖는 디스플레이(450)(예를 들어, 터치 스크린 디스플레이(112))와는 별개인 터치-감응 표면(451)(예를 들어, 도 3의 태블릿 또는 터치패드(355))을 갖는 디바이스(예를 들어, 도 3의 디바이스(300)) 상의 예시적인 사용자 인터페이스를 도시한다. 부가적으로, 터치-감응 표면(451)이 개별 지문 능선에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 구현예들에서, 터치-감응 표면(451)은 선택적으로 별개의 지문 센서(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 대신 또는 그에 더하여 지문 센서로서 사용된다. 디바이스(300)는 또한 선택적으로 터치-감응 표면(451) 상의 접촉들의 강도를 검출하기 위한 하나 이상의 접촉 강도 센서들(예를 들어, 하나 이상의 센서(359-3)들) 및/또는 디바이스(300)의 사용자에 대한 촉각적 출력들을 생성하기 위한 하나 이상의 촉각적 출력 생성기(357)를 포함한다.4B illustrates an integrated fingerprint sensor 359-1 (or a separate fingerprint sensor 359-2) (e.g., one or
후속하는 예들 중 일부가 (터치-감응 표면 및 디스플레이가 조합된) 터치 스크린 디스플레이(112) 상의 입력들을 참조하여 주어질 것이지만, 일부 실시예들에서, 디바이스는 도 4b에 도시된 바와 같이 디스플레이와는 별개인 터치-감응 표면 상에서 입력들을 검출한다. 일부 실시예들에서, 터치-감응 표면(예를 들어, 도 4b에서 451)은 디스플레이(예를 들어, 450) 상의 주축(예를 들어, 도 4b에서 453)에 대응하는 주축(예를 들어, 도 4b에서 452)을 갖는다. 이들 실시예에 따르면, 디바이스는 디스플레이 상의 각각의 위치들에 대응하는 위치들(예컨대, 도 4b에서, 460은 468에 대응하고, 462는 470에 대응함)에서 터치-감응 표면(451)과의 접촉들(예컨대, 도 4b에서 460 및 462)을 검출한다. 이러한 방식으로, 터치-감응 표면(예컨대, 도 4b에서 451) 상에서 디바이스에 의해 검출된 사용자 입력들(예컨대, 접촉들(460, 462) 및 그 이동들)은 터치-감응 표면들이 디스플레이와는 별개인 경우 디바이스에 의해 다기능 디바이스의 디스플레이(예컨대, 도 4b에서 450) 상의 사용자 인터페이스를 조작하는 데 사용된다. 유사한 방법들이 선택적으로 본 명세서에 기술되는 다른 사용자 인터페이스들에 사용된다는 것을 이해하여야 한다.Some of the following examples will be given with reference to inputs on the touch screen display 112 (in which the touch-sensitive surface and display are combined), but in some embodiments, the device is distinct from the display Detects inputs on a personal touch-sensitive surface. In some embodiments, the touch-sensitive surface (e. G., 451 in Fig. 4B) has a major axis (e. G., 451 in Fig. 4B) 452 in Fig. 4B). According to these embodiments, the device is in contact with the touch-
부가적으로, 하기의 예시들이 손가락 입력들(예를 들어, 손가락 접촉들, 손가락 탭 제스처들, 손가락 스와이프 제스처들)을 주로 참조하여 주어지지만, 일부 실시예들에서, 하나 이상의 사용자 입력들이 다른 입력 디바이스(예를 들어, 마우스 기반 입력 또는 스타일러스 입력)으로부터의 입력으로 대체된다는 것을 이해하여야 한다. 예를 들어, 스와이프 제스처가 선택적으로 (예를 들어, 접촉 대신의) 마우스 클릭 및 뒤이은 (예컨대, 접촉의 이동 대신의) 스와이프의 경로를 따른 커서의 이동으로 대체된다. 다른 예로서, (예를 들어, 접촉의 검출 및 뒤이은 접촉을 검출하는 것을 중지하는 것 대신) 커서가 탭 제스처의 위치 위에 위치되는 동안에 탭 제스처가 선택적으로 마우스 클릭으로 대체될 수 있다. 유사하게, 다수의 사용자 입력들이 동시에 검출되는 경우, 다수의 컴퓨터 마우스들이 선택적으로 동시에 사용되거나, 마우스와 손가락 접촉이 선택적으로 동시에 사용된 것임을 이해하여야 한다.Additionally, while the following examples are given primarily with reference to finger inputs (e.g., finger contacts, finger tap gestures, finger swipe gestures), in some embodiments, one or more user inputs It should be understood that it is replaced by an input from an input device (e.g., a mouse-based input or a stylus input). For example, a swipe gesture is optionally replaced by a mouse click (instead of a contact) and a movement of the cursor along the path of the swipe (e.g., instead of the movement of the contact). As another example, the tap gesture can be selectively replaced with a mouse click while the cursor is positioned over the position of the tap gesture (e.g., instead of detecting contact and stopping detecting subsequent contact). Similarly, when multiple user inputs are detected at the same time, it should be understood that multiple computer mice may be selectively used simultaneously, or a mouse and finger contact may be selectively used simultaneously.
본 명세서에 사용되는 바와 같이, "포커스 셀렉터"는 사용자가 상호작용하는 사용자 인터페이스의 현재 부분을 나타내는 입력 요소를 지칭한다. 커서 또는 다른 위치 마커를 포함하는 일부 구현예들에서, 입력(예를 들어, 누름 입력)이 터치-감응 표면(예를 들어, 도 3의 터치 패드(355) 또는 도 4b의 터치-감응 표면(451)) 상에서 검출되는 반면 커서가 특정 사용자 인터페이스 요소(예를 들어, 버튼, 윈도우, 슬라이더 또는 다른 사용자 인터페이스 요소) 위에 있을 때 특정 사용자 인터페이스 요소가 검출된 입력에 따라 조정되도록, 커서가 "포커스 셀렉터"로서의 역할을 한다. 터치-스크린 디스플레이 상의 사용자 인터페이스 요소들과의 직접적인 상호작용을 가능하게 하는 터치-스크린 디스플레이(예를 들어, 도 1a의 터치-감응 디스플레이 시스템(112) 또는 도 4a의 터치 스크린(112))을 포함하는 일부 구현예들에서, 입력(예를 들어, 접촉에 의한 누름 입력)이 특정 사용자 인터페이스 요소(예를 들어, 버튼, 윈도우, 슬라이더 또는 다른 사용자 인터페이스 요소)의 위치에 있는 터치-스크린 디스플레이 상에서 검출될 때 특정 사용자 인터페이스 요소가 검출된 입력에 따라 조정되도록, 터치-스크린 상에서 검출된 접촉이 "포커스 셀렉터"로서의 역할을 한다. 일부 구현예들에서, (예를 들어 포커스를 하나의 버튼으로부터 다른 버튼으로 움직이는 탭 키 또는 화살표 키를 사용함으로써) 터치-스크린 디스플레이 상의 대응하는 커서의 이동 또는 접촉의 이동 없이 포커스가 사용자 인터페이스의 하나의 구역으로부터 사용자 인터페이스의 다른 구역으로 이동되며, 이러한 구현예들에서, 포커스 셀렉터는 사용자 인터페이스의 상이한 구역들 사이에서의 포커스의 이동에 따라 움직인다. 포커스 셀렉터에 의해 취해지는 구체적인 형태와 무관하게, 포커스 셀렉터는 일반적으로 (예를 들어, 디바이스에게 사용자가 상호작용하고자 하는 사용자 인터페이스의 요소를 나타냄으로써) 사용자 인터페이스와의 사용자의 의도된 상호작용을 전달하기 위해 사용자에 의해 제어되는 사용자 인터페이스 요소(또는 터치-스크린 디스플레이 상의 접촉)이다. 예를 들어, 터치-감응 표면(예를 들어, 터치패드 또는 터치 스크린) 상에서 누름 입력이 검출되는 동안 각각의 버튼 위의 포커스 셀렉터(예를 들어 커서, 접촉 또는 선택 박스)의 위치는 (디바이스의 디스플레이 상에 나타내어진 다른 사용자 인터페이스 요소들과 반대로) 사용자가 각각의 버튼을 활성화하고자 의도함을 나타낸다.As used herein, a "focus selector" refers to an input element that represents the current portion of the user interface with which the user interacts. In some implementations involving cursors or other position markers, an input (e.g., a push input) may be applied to a touch-sensitive surface (e.g.,
도 4c는 연관된 지문 LP("왼손 새끼손가락" 지문), LR("왼손 약지" 지문), LM("왼손 중지" 지문), LI("왼손 검지" 지문), LT("왼손 엄지" 지문), RT("오른손 엄지" 지문), RI("오른손 검지" 지문), RM("오른손 중지" 지문), RR("오른손 약지" 지문), RP("오른손 새끼손가락" 지문)을 갖는 양 손의 개략도를 도시한다. 이들 약어는 지문 센서와의 상호작용의 예들을 도시하는 다른 도면들에 관하여 사용될 것이다. 본 명세서에 기술된 방법들 중 일부에 있어서, 지문이 확인될 수 있게 할 지문에 대한 정보를 수집함으로써 사용자의 하나 이상의 지문들이 등록된다. 이러한 등록된 지문들 또는 사전-등록된 지문들은 때때로 등록 지문(enrolled fingerprint)들로 또한 지칭된다. 아래에서 기술되는 많은 상황들에서, 지문 센서 상에서 검출된 지문들은 사전에 등록된 지문들(예를 들어, 등록 지문들)에 대해 비교된다.FIG. 4C is a block diagram of a fingerprint reader according to an embodiment of the present invention. Referring to FIG. 4C, there is shown an associated fingerprint LP ("left little finger" fingerprint), LR ("left finger fingerprint" fingerprint), LM ("left hand fingerprint" fingerprint) , A hand with an RT ("right hand thumb" fingerprint), RI ("right hand fingerprint" fingerprint), RM ("right hand stop fingerprint"), RR ("right hand fingerprint" fingerprint) Fig. These abbreviations will be used with respect to the other figures illustrating examples of interaction with a fingerprint sensor. In some of the methods described herein, one or more fingerprints of the user are registered by collecting information about the fingerprint that will enable the fingerprint to be verified. These registered fingerprints or pre-registered fingerprints are sometimes also referred to as enrolled fingerprints. In many of the situations described below, fingerprints detected on the fingerprint sensor are compared against previously registered fingerprints (e.g., enrollment fingerprints).
도 4d는 지문 센서(예를 들어, 버튼(204)에 통합형 지문 센서(169)) 상의 지문의 두 가지 상이한 유형의 회전을 도시한다. 도 4d의 좌측에는, 지문의 중심이 지문 센서의 중심의 주위에서 루핑 움직임(looping motion)(예를 들어, 원형-유형 움직임)으로 움직이는, 지문 센서의 주위에서의 지문 "회전(revolving)"의 예가 있다. 도 4d의 우측에는, 지문의 주축이 지문 센서에 대한 배향을 변경하는 지문 센서 상에서의 지문 "비틀기(twisting)"의 예가 있다. 이들 용어(예를 들어, "회전" 및 "비틀기")는 지문 센서와의 상호작용들의 예들을 도시하는 다른 도면들과 관련하여 지문 센서 상에서의 지문의 상이한 유형들의 회전을 기술하기 위해 사용될 것이다.4D shows two different types of rotation of the fingerprint on the fingerprint sensor (e.g.,
도 4d에 도시된 바와 같이, 일부 실시예들에서 지문 센서는 평균 지문보다 작거나 또는 대략 동일한 크기이다. 따라서, 일부 실시예들에서 지문 센서는 지문의 에지들의 이동을 검출하는 대신 또는 그에 더하여 지문의 지문 특징들의 이동을 검출함으로써 지문의 이동(예를 들어, 지문 제스처)을 검출한다. 다시 말하면, 일부 구현예들에서, 지문 센서는 지문(예를 들어, "접촉")의 윤곽의 이동을 결정함으로써가 아니라, 지문 센서 위의 지문의 능선들(또는 능선들에서의 구체적인 특징점들)의 이동을 검출함으로써 지문의 이동을 검출한다. 지문 센서가 지문보다 크거나 작은 것과 무관하게, 지문의 에지 또는 윤곽의 이동에 기초하여 지문의 이동을 검출하는 것 대신, 또는 그에 더하여 지문 특징들의 이동에 기초하여 지문의 이동(예를 들어, 지문 제스처들)을 검출하는 것은 지문의 이동이 훨씬 더 상세하게 추적될 수 있게 하며, 지문이 지문 센서의 전체 또는 많은 부분을 덮고 있을 때에도 지문 이동을 추적할 수 있는 능력을 제공한다.As shown in FIG. 4D, in some embodiments, the fingerprint sensor is smaller or approximately the same size as the average fingerprint. Thus, in some embodiments, the fingerprint sensor detects movement (e.g., a fingerprint gesture) of the fingerprint by detecting movement of the fingerprint features of the fingerprint instead of or in addition to detecting movement of the edges of the fingerprint. In other words, in some implementations, the fingerprint sensor does not determine the movement of the outline of the fingerprint (e.g., "contact"), but rather the fingerprint ridgelines (or specific feature points on the ridges) The movement of the fingerprint is detected. Instead of detecting movement of the fingerprint based on movement of the edge or contour of the fingerprint, regardless of whether the fingerprint sensor is larger or smaller than the fingerprint, movement of the fingerprint based on movement of the fingerprint features (e.g., Gestures) allows the movement of the fingerprint to be tracked in greater detail and provides the ability to track fingerprint movement even when the fingerprint covers all or a large portion of the fingerprint sensor.
사용자 인터페이스 및 연관된 프로세스들User interface and associated processes
사용자 인터페이스들과의 상호작용Interaction with user interfaces
많은 전자 디바이스들은 사용자로 하여금 각자의 사용자 인터페이스들과 연관된 다양한 기능들 및 동작들을 수행할 수 있게 하는 그래픽 사용자 인터페이스들을 구비한다(예를 들어, 홈 스크린 또는 기동될 애플리케이션들을 선택하기 위한 사용자-선택가능한 아이콘들을 갖는 애플리케이션 기동 인터페이스들; 내비게이션 동작들을 수행하기 위한 지도, 계산을 수행하기 위한 계산기, 디지털 사진을 보기 위한 사진 뷰어, 검색 애플리케이션, 카메라 애플리케이션 등과 같은 애플리케이션들과 연관된 애플리케이션 인터페이스들; 다양한 시스템 레벨 기능들과 연관된 시스템 사용자 인터페이스들). 그러한 인터페이스들과 상호작용하는 동안, 사용자는 종종 주어진 사용자 인터페이스를 통해 내비게이션하길 원하거나; 하나의 사용자 인터페이스로부터 다른 사용자 인터페이스로 전환하길 원하거나(예를 들어, 계산기 애플리케이션 인터페이스로부터 사진 뷰잉 애플리케이션 인터페이스로; 또는 홈 스크린 인터페이스로부터 카메라 애플리케이션 인터페이스로; 등); 또는 애플리케이션 사용자 인터페이스로부터 시스템 사용자 인터페이스로(예를 들어, 멀티태스킹 사용자 인터페이스로) 전환하길 원한다. 사용자 인터페이스를 통해 내비게이션하는 일부 접근법들은 (터치 스크린 디스플레이와 같은) 터치-감응 표면의 실질적인 부분을 가로질러 길게 지속되는 스와이핑 제스처를 만드는 것을 포함한다. 애플리케이션 사용자 인터페이스들 사이에서 전환(예를 들어, 애플리케이션들 사이에서 전환)하기 위한 일부 접근법들은, 홈 스크린으로 복귀하고, 그 다음 원하는 애플리케이션에 대응하는 아이콘을 보기 위해 홈 스크린의 페이지들을 통해 토글링하고, 그 다음 원하는 애플리케이션을 기동하기 위해 원하는 애플리케이션에 대응하는 아이콘을 선택하는 것을 포함한다. 유사하게, 멀티태스킹 사용자 인터페이스로 전환하는 일부 접근법들은 시스템 사용자 인터페이스를 표시하기 위해 홈 또는 메뉴 버튼과의 복수의 동시 접촉들을 만드는 것을 포함한다. 이들 접근법은 길고 복잡하며, 사용자에게 터치-감응 표면과 하나 이상의 손가락 접촉의 지속적인 이동 또는 디바이스와의 복수의 순차적인 접촉들을 만들 것을 요구하며, 이는 긴 시간이 걸릴 수 있거나 사용자가 기억하기에 어려울 수 있다.Many electronic devices have graphical user interfaces that allow a user to perform various functions and operations associated with their respective user interfaces (e.g., a home screen or a user-selectable application for selecting applications to be launched Application interfaces associated with applications such as a map for performing navigation operations, a calculator for performing calculations, a photo viewer for viewing digital photos, a search application, a camera application, etc., The system user interfaces associated with the system. During interaction with such interfaces, the user often desires to navigate through a given user interface; (E. G., From a calculator application interface to a photo viewing application interface; or from a home screen interface to a camera application interface); Or from an application user interface to a system user interface (e.g., a multitasking user interface). Some approaches to navigating through the user interface include making long lasting sweep gestures across a substantial portion of the touch-sensitive surface (such as a touch screen display). Some approaches for switching between application user interfaces (e.g., switching between applications) return to the home screen and then toggle through the pages of the home screen to view icons corresponding to the desired application , And then selecting an icon corresponding to the desired application to launch the desired application. Similarly, some approaches to switching to a multitasking user interface include making a plurality of simultaneous contacts with a home or menu button to display a system user interface. These approaches are long and complex and require the user to make continuous movement of one or more finger contacts with the touch-sensitive surface or a plurality of sequential contacts with the device, which can take a long time or be difficult for the user to remember have.
개시된 실시예들은 2개의 방향들 중 하나의 방향으로 (예를 들어, 디바이스 상에 위치된 지문 센서 상에서 검출된) 지문의 단일의 짧은 이동을 이용하여 사용자 인터페이스들과의 편리하고 효율적인 상호작용 방법을 제공한다(예를 들어, 현재 사용자 인터페이스를 통해 내비게이션하거나 상이한 사용자 인터페이스를 표시함). (애플리케이션 사용자 인터페이스와 같은) 제1 사용자 인터페이스를 표시하는 동안, 제1 방향으로(예를 들어, 수평으로 우측에서 좌측으로 또는 좌측에서 우측으로) 지문 센서 상의 지문의 이동을 검출하는 것에 응답하여 디바이스는 제1 사용자 인터페이스를 통해 내비게이션하고(예를 들어, 제1 사용자 인터페이스 내의 콘텐트의 적어도 일부분을 병진이동시키거나 스크롤함), 제2 방향(예를 들어, 수직 방향, 상향 방향)으로 지문 센서 상의 지문 이동을 검출하는 것에 응답하여 디바이스는 제2 사용자 인터페이스(예를 들어, 멀티태스킹 사용자 인터페이스 또는 가장 최근에 사용된 애플리케이션에 대응하는 사용자 인터페이스)를 표시한다. 그 결과, 사용자는 단순히 지문 센서 상의 2개의 방향들 중 한 방향으로의 지문의 이동을 포함하는 제스처를 수행함으로써 2개의 상이한 방식들로 - 예를 들어, 제1 (또는 현재의) 사용자 인터페이스를 통해 내비게이션하거나 제2 사용자 인터페이스를 표시함 - 하나 이상의 사용자 인터페이스와 상호작용하는 향상된 편리성을 갖는다.The disclosed embodiments provide a convenient and efficient method of interaction with user interfaces using a single short movement of the fingerprint in one of two directions (e.g., detected on a fingerprint sensor located on the device) (E.g., navigating through the current user interface or displaying a different user interface). In response to detecting movement of a fingerprint on the fingerprint sensor in a first direction (e.g., horizontally right to left, or left to right) while displaying a first user interface (such as an application user interface) (E.g., translating or scrolling at least a portion of the content within the first user interface) through a first user interface and displaying the fingerprint image in a second direction (e.g., vertical direction, upward direction) In response to detecting fingerprint movement, the device displays a second user interface (e.g., a multitasking user interface or a user interface corresponding to the most recently used application). As a result, the user can perform a gesture involving movement of the fingerprint in one of two directions on the fingerprint sensor in two different ways - for example, through a first (or current) user interface Navigation or displaying a second user interface - has enhanced convenience of interacting with one or more user interfaces.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 5a 내지 도 5n 및 도 6a 내지 도 6c와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위하여, 도 5a 내지 도 5n 및 도 6a 내지 도 6c와 관련하여 기술되는 실시예들은 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 논의될 것이지만, 유사한 동작들이 선택적으로 도 5a 내지 도 5n에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안 통합형 지문 센서(359-1) 상에 도 5a 내지 도 5n에 묘사된 입력들을 검출하는 것에 응답하여 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 도 5a 내지 도 5n에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에 도 5a 내지 도 5n에 묘사된 접촉들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며, 그러한 실시예들에서, 포커스 셀렉터는 커서(5n) 대신에, 선택적으로 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각각의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 5a는 휴대용 다기능 디바이스(100)의 디스플레이(502) 상에 표시된 콘텐트(예를 들어, 지도 및 내비게이션 명령)를 갖는 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스와 같은 애플리케이션 사용자 인터페이스)를 도시한다. 일부 실시예들에서, 디스플레이(502)는 터치에 응답하는 터치 센서들의 어레이를 갖는 터치-감응 디스플레이이다. 도 5a에 도시된 바와 같이, 디바이스(100)는 지문 센서(169)를 포함한다. 일부 실시예들에서, 지문 센서(169)는 디스플레이(502)와는 별개이다. 또한, 도 5a에 도시된 바와 같이, 일부 실시예들에서, 지문 센서(169)는 물리적 버튼(예를 들어, 홈 버튼 또는 메뉴 버튼(204))에 통합된다. 일부 실시예들에서, 디바이스는 터치-감응 표면(예를 들어, 터치 감응 디스플레이(502)와 같은 터치 감응 디스플레이의 형태인 디스플레이와 함께 위치된 터치-감응 표면; 및/또는 디바이스 상의 디스플레이와는 별개인 터치 감응 표면)을 포함하며, 지문 센서는 터치-감응 표면과는 별개이다. 이러한 실시예들에서, 지문 센서가 (예를 들어, 지문의 형태인) 손가락 접촉의 위치, 접근도 및/또는 터치에 응답하고 선택적으로 (지문의 이동의 형태인) 손가락 접촉의 이동에 응답하는 반면, (예를 들어, 손가락의 공간 위치 및/또는 이동을 검출하기 위한) 지문 센서의 공간 해상도는 종래의 터치-감응 표면의 해상도보다 더 크고(예를 들어, 더 민감하고); 따라서 지문 센서가 종래의 터치-감응 표면들보다 손가락의 작은 크기의 공간 움직임에 대해 더욱 민감하게 한다.5A shows a first user interface (e.g., an application user interface, such as a map application user interface) having content (e.g., a map and navigation commands) displayed on the
도 5b 및 도 5c는 제1 사용자 인터페이스를 표시하는 동안 제1 방향으로(예를 들어, 횡방향 또는 수평 방향으로 또는 다목적 디바이스의 단축을 따라; 우측으로부터 좌측으로) 지문 센서(169) 상에서의 지문의 이동을 검출하는 것; 및 그 응답으로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 도시한다. 일부 실시예들에서, 도 5b에 도시된 바와 같이, 제1 사용자 인터페이스(예를 들어, 지도 사용자 인터페이스)가 디스플레이(502) 상에 표시되지만, 지문의 이동(예를 들어, 지문(510) 및 연관된 이동(512))이 지문 센서(169) 상에서 검출된다. 지문 센서(169) 상에서 (예를 들어, 도 5b에 도시된 지문(510)의 위치로부터 도 5c에 도시된 지문(510)의 위치로의) 지문(510)의 이동(512)을 검출하는 것에 응답하여, 디바이스는 제1 사용자 인터페이스를 통해 내비게이션한다. 예를 들어, 디바이스는 도 5b에서 이전에 표시되지 않았던, 도 5c에 도시된 바와 같은 제1 사용자 인터페이스의 추가적인 부분들을 표시하도록 지문(510)의 이동의 방향으로(예를 들어, 우측으로부터 좌측으로) 제1 사용자 인터페이스의 적어도 일부분을 병진이동시킨다. 따라서, 일부 실시예들에서, (예를 들어 제1 애플리케이션 또는 애플리케이션 기동 사용자 인터페이스에 대응하는) 제1 사용자 인터페이스를 표시하는 동안, 지문 센서 상에서 제1 방향으로(예를 들어, 횡방향 또는 수평 방향으로 또는 다목적 디바이스의 단축을 따라, 우측으로부터 좌측으로) 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제1 사용자 인터페이스를 통해 내비게이션한다(예를 들어, 제1 사용자 인터페이스 상에 표시된 콘텐트의 적어도 일부분을 병진이동시킴).Figures 5b and 5c illustrate a
도 5d 및 도 5e는 제1 사용자 인터페이스를 표시하는 동안, 제2 방향으로(예를 들어, 수직 방향으로 또는 다목적 디바이스의 장축을 따라; 상향 방향으로) 지문 센서(169) 상에서의 지문의 이동을 검출하는 것; 및 그 응답으로, 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하는 것을 도시한다. 도 5d에 도시된 바와 같이, 일부 실시예들에서 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션)를 표시하는 동안, 지문(예를 들어, 이동(516)과 연관된 지문(514))의 이동이 디바이스(100)의 지문 센서(169) 상에서 검출되고, 대응하는 이동(516)은 제2 방향으로의(예를 들어, 수직 방향으로의 또는 다목적 디바이스의 장축을 따른; 도 5d에 도시된 디바이스(100)의 배향과 관련하여 상향 방향으로의) 이동이다. 지문(514)의 이동(516)이 제2 방향으로의(예를 들어, 수직 상향 방향으로의; 도 5d에 도시된 지문(514)의 위치로부터 도 5e에 도시된 지문(514)의 위치로의) 이동이라는 결정에 따라, 도 5e에 도시된 바와 같이 제2 사용자 인터페이스(예를 들어, 노트 애플리케이션, 카메라 애플리케이션, 사진 뷰어 애플리케이션 및 음성 메모 녹음 애플리케이션과 같이 가장 최근 사용된 애플리케이션들의 세트에 대응하는 사용자 선택가능한 아이콘들을 포함하는 멀티태스킹 사용자 인터페이스(517); 여기서 멀티태스킹 사용자 인터페이스(517) 내의 아이콘들 중 하나의 선택은 디바이스로 하여금 때때로 우위처리(foreground) 애플리케이션으로 또한 지칭되는 현재 활성화된 애플리케이션으로서 선택된 아이콘에 대응하는 애플리케이션을 구동하게 할 것임)가 표시된다. 예를 들어, "노트" 아이콘의 선택은 디바이스로 하여금 현재 활성화된 애플리케이션으로서 노트 애플리케이션을 구동하게 할 것이며, "카메라" 아이콘의 선택은 디바이스로 하여금 현재 활성화된 애플리케이션으로서 카메라 애플리케이션을 구동하게 할 것이다.5D and 5E illustrate the movement of the fingerprint on the
따라서, 일부 실시예들에서 애플리케이션 사용자 인터페이스(예를 들어, 도 5d 및 도 5e에 도시된 지도 애플리케이션 사용자 인터페이스)는 제2 사용자 인터페이스에 의해 적어도 부분적으로 대체된다(예를 들어, 지도 애플리케이션은 부분적으로 상향 방향으로 변위되고/되거나 도 5e에 도시된 멀티태스킹 사용자 인터페이스(517)에 의해 적어도 부분적으로 숨겨짐). 일부 실시예들에서, 제2 사용자 인터페이스(예를 들어, 도 5e의 멀티태스킹 사용자 인터페이스(517))를 표시할 때, 애플리케이션 사용자 인터페이스 내의 하나 이상의 상호작용 요소가 사용자-상호작용으로부터 디스에이블된다(예를 들어, 멀티태스킹 사용자 인터페이스(517)가 표시되는 동안, 지도 애플리케이션이 사용자-상호작용으로부터 디스에이블되고, 사용자는 지도 애플리케이션을 스크롤할 수 없거나, 지도 애플리케이션을 통해 내비게이션할 수 없거나, 그 외의 상호작용을 할 수 없을 것임). 따라서, 일부 실시예들에서 (예를 들어, 제1 애플리케이션에 대응하는) 제1 사용자 인터페이스를 표시하는 동안, 제2 방향으로의(예를 들어, 수직 방향으로의 또는 다목적 디바이스의 장축을 따른; 상향 방향으로의) 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제2 시스템 사용자 인터페이스(예를 들어, 멀티태스킹 사용자 인터페이스)를 표시한다.Thus, in some embodiments, an application user interface (e.g., the map application user interface shown in Figures 5D and 5E) is at least partially replaced by a second user interface (e.g., Shifted in the upward direction and / or at least partially hidden by the
도 5f 및 도 5g는 제2 사용자 인터페이스를 표시하는 동안, 제1 방향으로(예를 들어, 횡방향 또는 수평 방향으로 또는 다목적 디바이스의 단축을 따라; 우측으로부터 좌측으로) 지문 센서(169) 상의 지문의 이동을 검출하는 것; 및 그 응답으로 제2 사용자 인터페이스를 통해 내비게이션하는 것을 도시한다. 일부 실시예들에서, 제2 사용자 인터페이스(예를 들어, 도 5f의 멀티태스킹 사용자 인터페이스(517))를 표시하는 동안, 지문의 이동(예를 들어, 지문(518) 및 연관된 이동(520))이 디바이스(100)의 지문 센서(169) 상에서 검출되며, 대응하는 이동은 제1 방향으로의(예를 들어, 횡방향 또는 수평 방향으로의 또는 다목적 디바이스의 단축을 따른; 도 5f에 도시된 디바이스(100)의 배향과 관련하여 우측으로부터 좌측으로의) 이동이다. 지문(518)의 이동(520)을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스(예를 들어, 도 5f 및 도 5g의 멀티태스킹 사용자 인터페이스(517))를 통해 내비게이션한다. 예를 들어, 디바이스는 지문(518)의 이동(520)의 방향으로 제2 사용자 인터페이스의 적어도 일부분을 병진이동시켜, 제2 사용자 인터페이스의 추가적인 부분들(예를 들어, 앞서 도 5f에는 표시되지 않고 도 5g에 도시된 메시지 애플리케이션, 캘린더 애플리케이션 및 시계 애플리케이션에 대한 추가적인 아이콘들 및 앞서 도 5f에서는 표시되었지만 도 5g에서는 표시하는 것이 중단될 노트 애플리케이션, 카메라 애플리케이션, 사진 애플리케이션 및 음성 메모 녹음 애플리케이션에 대한 아이콘들)을 표시한다. 일부 실시예들에서, 지문 센서 상에서 좌측으로부터 우측으로의 지문의 이동을 검출하는 것에 응답하여, 앞서 도 5f에 표시된 노트 애플리케이션, 카메라 애플리케이션, 사진 애플리케이션 및 음성 메모 녹음 애플리케이션에 대한 아이콘들이 재표시될 수 있도록 제2 사용자 인터페이스를 통한 내비게이션이 반전될 것이다.Figures 5F and 5G illustrate a
또한, 도 5h 및 도 5i는 제2 사용자 인터페이스를 표시하는 동안에, 제3 방향으로(예를 들어, 수직 방향으로 또는 다목적 디바이스의 장축을 따라; 하향 방향으로; 실질적으로 제2 방향에 반대로) 지문 센서(169) 상에서 지문의 이동을 검출하는 것; 및 그에 응답하여 제2 사용자 인터페이스를 표시하는 것을 중단하는 것을 도시한다. 일부 실시예들에서, 도 5h 및 도 5i에 도시된 바와 같이, 제2 사용자 인터페이스를 표시하는 동안 지문의 이동(예를 들어, 지문(522) 및 연관된 이동(524))이 디바이스(100)의 지문 센서(169) 상에서 검출되며, 이동(524)은 제3 방향으로(예를 들어, 도 5h에 도시된 디바이스(100)의 배향에 관하여 다목적 디바이스의 장축을 따라 하향 수직 방향으로; 도 5d 및 도 5e에 관하여 기술된 제2 방향에 대해 실질적으로 반대되는 방향으로) 있다. 제3 방향으로의 지문(522)의 이동(524)을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스(예를 들어, 앞서 도 5h에서 도시된 멀티태스킹 사용자 인터페이스(517))를 표시하는 것을 중단하고 도 5i에 도시된 바와 같이 제1 사용자 인터페이스 또는 지도 애플리케이션 인터페이스을 (예를 들어, 전체적으로) 재표시한다.Figures 5h and 5i also illustrate how a fingerprint may be displayed in a third direction (e.g., in a vertical direction or along a major axis of a multipurpose device, in a downward direction, as opposed to a substantially second direction) Detecting movement of the fingerprint on the
도 5j 및 도 5k는, 제1 사용자 인터페이스를 표시하는 동안에 (예를 들어, 지문 센서(169)가 선택적으로 통합되어 있는) 물리적 홈 버튼 또는 메뉴 버튼(204)의 이중 활성화를 검출하는 것; 및 그에 응답하여 제2 사용자 인터페이스를 표시하는 것을 도시한다. 일부 실시예들에서, 도 5j 및 도 5k에 도시된 바와 같이, (예를 들어, 500ms, 300ms, 150ms, 50ms, 또는 일부 다른 합리적인 시간 간격보다 작은 시간 간격을 갖는 두 번의 연속적인 탭들 사이의 미리 정해진 시간 경과 간격보다 작은 빠른 연속성을 발생시키는 두 번의 연속적인 탭들 또는 누름 입력들을 통해; 두 번의 연속적인 탭들 사이에 손가락 들어올림이 있거나 없을 수 있음) 물리적 홈 버튼 또는 메뉴 버튼(204)의 이중 활성화(530)를 검출할 때, 도 5k에 도시된 바와 같이 제2 인터페이스(예를 들어, 노트패드 애플리케이션, 카메라 애플리케이션, 사진 뷰어 애플리케이션 및 음성 메모 녹음 애플리케이션과 같은 최근 사용되거나 활성 애플리케이션들에 대응하는 사용자-선택가능한 아이콘들을 갖는, 앞서 도 5e에 도시되었던 멀티태스킹 사용자 인터페이스)가 디스플레이(502)에 표시되고, 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)는 적어도 부분적으로 디스플레이(502)로부터 숨겨지거나 디스플레이(502)를 벗어나게 되고 선택적으로 사용자-상호작용으로부터 비활성화된다.Figures 5J and 5K illustrate how to detect a dual activation of a physical home button or
도 5k 및 도 5l은 제2 사용자 인터페이스를 표시하는 동안에 (예를 들어, 지문 센서(169)에 통합된) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화를 검출하는 것; 및 그에 응답하여 제2 사용자 인터페이스를 표시하는 것을 중단하는 것(예를 들어, 제1 사용자 인터페이스를 재표시 및 재활성화)을 도시한다. 일부 실시예들에서, 도 5k 및 도 5l에 도시된 바와 같이, (예를 들어, 물리적 버튼(204) 상의 탭 입력 또는 누름 입력을 통한) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(532)를 검출함에 따라, 제2 사용자 인터페이스(예를 들어, 노트패드 애플리케이션, 카메라 애플리케이션, 사진 뷰어 애플리케이션 및 음성 메모 녹음 애플리케이션과 같은 최근 사용되었거나 활성 애플리케이션들에 대응하는 사용자-선택가능한 아이콘들을 갖는 도 5k에 도시된 멀티태스킹 사용자 인터페이스)는 도 5l에 도시된 바와 같이 더 이상 디스플레이(502) 상에 표시되지 않는다. 일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)는 (예를 들어, 전체적으로) 재표시되고, (예를 들어, 이전의 비활성화된 상태로부터) 사용자 입력을 위해 재활성화된다.Figures 5K and 5L illustrate the detection of activation of a physical home button or menu button 204 (e.g., incorporated in the fingerprint sensor 169) while displaying a second user interface; And, in response, stopping displaying the second user interface (e.g., redisplaying and reactivating the first user interface). In some embodiments, activation (532) of a physical home button or menu button 204 (e.g., via a tap input or a push input on the physical button 204), as shown in Figures 5k and 5l, 5k with user-selectable icons corresponding to recently used or active applications, such as a second user interface (e.g., a note pad application, a camera application, a photo viewer application and a voice memo recording application) The illustrated multi-tasking user interface) is no longer displayed on the
도 5m 및 도 5n은 제1 사용자 인터페이스를 표시하는 동안에 (예를 들어, 지문 센서(169)로 통합된) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화를 검출하는 것; 및 그에 응답하여 제1 사용자 인터페이스를 미리 정해진 사용자 인터페이스(예를 들어, 물리적 홈 버튼 또는 메뉴 버튼(204)과 연관된 홈 스크린 또는 애플리케이션 기동 인터페이스)로 대체하는 것을 도시한다(예를 들어, 제1 사용자 인터페이스를 표시하는 것을 중단함). 일부 실시예들에서, 도 5m 및 도 5n에 도시된 바와 같이, (예를 들어, 물리적 버튼(204) 상의 탭 입력 또는 누름 입력을 통한) 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(534)를 검출함에 따라, 제1 사용자 인터페이스(예를 들어, 도 5m에 도시된 멀티태스킹 사용자 인터페이스)는 도 5n에 도시된 바와 같이 더 이상 디스플레이(502) 상에 표시되지 않는다. 일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)는 (예를 들어, 전체적으로) 미리 정해진 사용자 인터페이스(예를 들어, 도 5n에 도시된 바와 같은 홈 스크린 또는 애플리케이션 기동 사용자 인터페이스)로 대체된다. 일부 실시예들에서, 홈 스크린이 표시되는 동안 버튼(204)을 활성화하는 것은 디바이스가 미리 정해진 탐색 사용자 인터페이스를 표시할 수 있게 할 것이다.5M and 5N illustrate the detection of activation of a physical home button or menu button 204 (e.g., integrated into the fingerprint sensor 169) while displaying a first user interface; (E.g., a home screen or an application launch interface associated with a physical home button or menu button 204) in response to a first user interface (e.g., a first user Stop displaying the interface). In some embodiments, as shown in Figures 5M and 5N, the activation (534) of the physical home button or menu button 204 (e.g., via tapping or pushing input on the physical button 204) The first user interface (e.g., the multitasking user interface shown in Figure 5M) is no longer displayed on the
도 6a 내지 도 6c는 일부 실시예들에 따라 지문 센서 상의 손가락의 움직임에 따라 사용자 인터페이스들과 상호작용하는 방법(600)을 예시하는 흐름도이다. 방법(600)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(600) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.6A-6C are flow charts illustrating a
아래에서 기술되는 바와 같이, 방법(600)은 사용자 인터페이스들과 상호작용하기 위한 직관적인 방식을 제공한다. 이 방법은 사용자 인터페이스들과 상호작용할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 사용자 인터페이스들과 더 빠르고 더 효율적으로 상호작용할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
디바이스는 디스플레이 상에 제1 사용자 인터페이스(예를 들어, 도 5a에 도시된 바와 같은 지도 애플리케이션 사용자 인터페이스 또는 내비게이션 애플리케이션 사용자 인터페이스와 같은 애플리케이션 사용자 인터페이스)를 표시한다(602). 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안, 디바이스는 지문 센서 상에서의 지문의 이동(예를 들어, 도 5b에 도시된 지문(510)의 이동(512); 도 5d에 도시된 지문(514)의 이동(516))을 검출한다(604).The device displays a first user interface (e.g., a map application user interface as shown in Figure 5A or an application user interface such as a navigation application user interface) on the display (602). While displaying the first user interface on the display, the device may move the fingerprint on the fingerprint sensor (e.g., move 512 of the
일부 실시예들에서, 지문 센서는 디스플레이와는 별개이다(예를 들어, 디스플레이와 일치하지 않음)(예를 들어, 도 5a에서 지문 센서(169)는 디스플레이(502)와는 별개임)(606). 디바이스는 터치-감응 표면을 포함하고; 지문 센서는 터치-감응 표면과는 별개이다(예를 들어, 터치-감응 표면과 일치하지 않음)(608).In some embodiments, the fingerprint sensor is separate from the display (e.g., not coincident with the display) (e.g.,
지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향(예를 들어, 도 5b에서 지문(510)의 이동(512)과 관련하여 전술된 바와 같이, 지문의 이동의 주 성분은 수평으로 우측방향 또는 수평으로 좌측방향임)으로 있었다는 결정에 따라, 디바이스는 (도 5b 및 도 5c에 도시된 지도 인터페이스를 통한 내비게이션과 관련하여 전술된 바와 같이) 제1 사용자 인터페이스를 내비게이션한다(610). 일부 실시예들에서, 디바이스는 (예를 들어 지문의 우측방향 이동을 검출하는 것에 응답하여) 이전 상태, 또는 이전 페이지, 또는 이전 웹페이지, 또는 이전 사진으로 돌아가도록 내비게이션하거나, (예를 들어 지문의 좌측방향 이동을 검출하는 것에 응답하여) 다음 상태, 또는 다음 페이지, 또는 다음 웹페이지, 또는 다음 사진으로 진행한다. 일부 실시예들에서, 디바이스는 지문 센서 상에서의 지문의 이동 방향에 따라 제1 사용자 인터페이스를 수평으로 스크롤한다(예를 들어, 디바이스는 도 5b 및 도 5c에서 지문(510)의 이동과 관련하여 전술된 바와 같이, 수평으로 우측으로부터 좌측으로 이동하는 지문의 이동 방향에 따라, 지도 애플리케이션 사용자 인터페이스와 같은 제1 사용자 인터페이스 상의 콘텐트의 적어도 일부분을 병진이동시킴).In response to detecting the movement of the fingerprint on the fingerprint sensor, movement of the fingerprint may be detected in a first direction (e.g., as described above with respect to
지문의 이동이 제1 방향과는 상이한 제2 방향(예를 들어, 도 5d에 도시된 지문(514)의 이동(516)과 관련하여 전술된 바와 같이, 지문의 이동의 주 성분은 수직으로 하향 방향 또는 수직으로 상향 방향임)으로 있었다는 결정에 따라, 디바이스는 디스플레이 상에 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스(예를 들어, 도 5d 및 도 5e의 멀티태스킹 사용자 인터페이스(517)와 관련하여 전술된 것과 같은 인터페이스)를 표시한다. 일부 실시예들에서, 디바이스는 멀티태스킹 사용자 인터페이스(예를 들어, 도 5e의 멀티태스킹 사용자 인터페이스(517); 또는 가장 최근에 사용된 애플리케이션)를 표시한다. 일부 실시예들에서, 제2 사용자 인터페이스를 표시하는 것은 제1 사용자 인터페이스를 제2 사용자 인터페이스로 대체하는 것을 포함한다. 일부 실시예들에서, 제2 사용자 인터페이스를 표시하는 것은 제1 사용자 인터페이스의 적어도 일부분을 표시하는 것을 중단하는 것을 포함한다(예를 들어, 제2 사용자 인터페이스를 표시하기 위해서 제1 사용자 인터페이스가 적어도 부분적으로 제2 사용자 인터페이스로 덮이거나 제1 사용자 인터페이스가 적어도 부분적으로 디스플레이를 벗어남; 도 5e에 도시된 바와 같이, 지도 애플리케이션 인터페이스는 멀티태스킹 사용자 인터페이스(517)를 표시하기 위해 부분적으로 디스플레이(502)를 벗어남).As described above with respect to
일부 실시예들에서, 제1 방향은 제2 방향에 대해 수직이다(또는 실질적으로 수직임)(612). 예를 들어, 도 5b 및 도 5c에 도시된 지문(510)의 이동(512)과 관련하여 전술된 바와 같이, 제1 방향은 횡방향 또는 수평 방향 또는 다목적 디바이스의 단축을 따라 우측으로부터 좌측으로의 방향이며; 도 5d 및 도 5e에 도시된 지문(514)의 이동(516)과 관련하여 전술된 바와 같이, 제2 방향은 수직 방향 또는 다목적 디바이스의 장축을 따르는 상향 방향이다(예를 들어, 제1 방향에 대해 수직이거나 실질적으로 수직임).In some embodiments, the first direction is perpendicular (or substantially perpendicular) to the second direction (612). For example, as described above with respect to the
일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스(예를 들어, 도 5a 내지 도 5d의 지도 애플리케이션 사용자 인터페이스)이고; 제2 사용자 인터페이스는 복수의 동시에 열린 애플리케이션들의 표현들(예를 들어, 선택가능한 아이콘들)(예를 들어, 도 5e에 도시된 바와 같은 노트패드 애플리케이션에 대응하는 "노트" 아이콘, 카메라 애플리케이션에 대응하는 "카메라" 아이콘, 사진 뷰어 애플리케이션에 대응하는 "사진" 아이콘, 및 음성 메모 녹음 애플리케이션에 대응하는 "음성 메모" 아이콘)을 포함하는 멀티태스킹 사용자 인터페이스(예를 들어, 도 5e의 멀티태스킹 사용자 인터페이스(517))이다(614). 일부 실시예들에서, 동시에 열린 애플리케이션들 중 하나의 각자의 표현의 선택을 검출하는 것에 응답하여, 디바이스는 각자의 표현에 대응하는 열린 애플리케이션을 표시한다. 일부 실시예들에서, 멀티태스킹 사용자 인터페이스는 하나 이상의 최근 사용된 애플리케이션들(예를 들어, 디바이스 상에서 최근에 열렸지만 보유된 상태 정보가 현재 저장되어 있지 않은 애플리케이션들)의 표현들(예를 들어, 선택가능한 아이콘들)을 포함한다. 본 명세서 및 특허청구범위에 사용되는 바와 같이, 용어 "열린 애플리케이션"은 (예를 들어, 디바이스/글로벌 내부 상태(157) 및/또는 애플리케이션 내부 상태(192)의 일부로서) 보유된 상태 정보를 갖는 소프트웨어 애플리케이션을 지칭한다. 열린 애플리케이션은 하기의 유형의 애플리케이션들 중 임의의 애플리케이션이다:In some embodiments, the first user interface is a user interface of the first application (e.g., the map application user interface of Figures 5A-5D); The second user interface may include a plurality of simultaneous open applications representations (e.g., selectable icons) (e.g., a "note" icon corresponding to a notepad application such as shown in FIG. A multitasking user interface (e.g., a multitasking user interface, such as the multitasking user interface of FIG. 5e) that includes a " camera "icon that corresponds to a photo viewer application (Step 517). In some embodiments, in response to detecting a selection of a respective representation of one of the simultaneously open applications, the device displays an open application corresponding to the respective representation. In some embodiments, the multitasking user interface may include one or more recently used applications (e. G., Applications that have recently been opened on the device but have no stored state information currently stored on the device) Selectable icons). As used in this specification and claims, the term "open application" refers to an application having state information held (e.g., as part of device / global
디스플레이(112) 상에 현재 표시된 활성 애플리케이션(또는 대응하는 애플리케이션 뷰가 현재 디스플레이 상에 표시됨); An active application currently displayed on the display 112 (or a corresponding application view is currently displayed on the display);
현재 디스플레이(112) 상에 표시되지 않았지만, 대응하는 애플리케이션에 대한 하나 이상의 애플리케이션 프로세스들(예를 들어, 명령어들)이 하나 이상의 프로세서(120)들에 의해 프로세싱되고 있는(즉, 실행되고 있는) 후위(background) 애플리케이션(또는 후위 프로세스); Although not currently displayed on the
현재 실행되고 있지 않으며 애플리케이션이 휘발성 메모리(예를 들어, DRAM, SRAM, DDR RAM, 또는 메모리(102)의 기타 휘발성 랜덤 액세스 고체 메모리 디바이스)에 저장되어 있는 유예(suspended) 애플리케이션; 및 A suspended application that is not currently executing and the application is stored in volatile memory (e.g., DRAM, SRAM, DDR RAM, or other volatile random access solid state memory device in memory 102); And
현재 실행되고 있지 않으며 애플리케이션이 비휘발성 메모리(예를 들어, 하나 이상의 자기 디스크 저장 디바이스, 광학 디스크 저장 디바이스, 플래시 메모리 디바이스, 또는 메모리(102)의 다른 비휘발성 고체 저장 디바이스들)에 저장되어 있는 동면(hibernated) 애플리케이션. Stored in a non-volatile memory (e.g., one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid storage devices in memory 102) (hibernated) application.
본 명세서에 사용되는 것과 같이, 용어 "닫힌 애플리케이션"은 보유된 상태 정보 없는 소프트웨어 애플리케이션을 지칭한다(예를 들어, 닫힌 애플리케이션들에 대한 상태 정보가 디바이스의 메모리에 저장되어 있지 않음). 따라서, 애플리케이션을 닫는 것은 해당 애플리케이션에 대한 애플리케이션 프로세스를 중지 및/또는 제거하고, 디바이스의 메모리로부터 해당 애플리케이션에 대한 상태 정보를 제거하는 것을 포함한다. 일반적으로, 제1 애플리케이션 동안에 제2 애플리케이션을 여는 것(예를 들어, 제1 애플리케이션으로부터 제2 애플리케이션으로의 전환)이 제1 애플리케이션을 닫는 것은 아니다. 제2 애플리케이션이 표시되고 제1 애플리케이션의 표시가 중단되는 경우, 표시될 때 활성 애플리케이션이었던 제1 애플리케이션이 후위 애플리케이션, 유예 애플리케이션, 또는 동면 애플리케이션이 될 수 있지만, 제1 애플리케이션은 자신의 상태 정보가 디바이스에 의해 보유되는 동안 열린 애플리케이션으로 남아있다.As used herein, the term "closed application " refers to a software application that does not have retained state information (e.g., state information for closed applications is not stored in the device's memory). Closing the application therefore involves suspending and / or removing the application process for the application and removing status information for the application from the device ' s memory. Generally, opening a second application during a first application (e.g., switching from a first application to a second application) does not close the first application. When the second application is displayed and the display of the first application is interrupted, the first application that was the active application when displayed may be a posterior application, a grace application, or a hibernate application, Lt; RTI ID = 0.0 > applications. ≪ / RTI >
일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 속도로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다(616). 예를 들어, 디바이스는 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 지문 센서 상의 지문의 시작 위치로부터 지문 센서 상의 지문에 의한 각각의 1mm의 이동에 대해 5mm/sec의 속도로 스크롤 또는 병진이동시킨다. 일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 양만큼 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다(618). 예를 들어, 디바이스는 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 지문 센서 상에서 지문에 의한 각각의 1mm의 이동에 대해 5mm만큼 스크롤 또는 병진이동시킨다. 일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 이동 방향에 따라 결정된 방향으로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다(620). 예를 들어, (예를 들어, 도 5b 및 도 5c와 관련하여 전술된 바와 같이) 디바이스는 지문 센서 상에서 지문이 우측으로 이동할 때 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 우측으로 스크롤 또는 병진이동시키며, 지문 센서 상에서 지문이 좌측으로 이동할 때 제1 사용자 인터페이스에 표시된 콘텐트의 적어도 일부분을 좌측으로 스크롤 또는 병진이동시킨다.In some embodiments, navigating through the first user interface includes navigating through the first user interface at a rate determined by the displacement of the fingerprint on the fingerprint sensor (616). For example, the device scrolls or translates at least a portion of the content displayed in the first user interface at a rate of 5 mm / sec for each 1 mm of movement by fingerprint on the fingerprint sensor from the start position of the fingerprint on the fingerprint sensor. In some embodiments, navigating through the first user interface includes navigating through the first user interface by an amount determined by the displacement of the fingerprint on the fingerprint sensor (618). For example, the device scrolls or translates at least a portion of the content displayed in the first user interface by 5 mm for each 1 mm of movement by fingerprint on the fingerprint sensor. In some embodiments, navigating through the first user interface includes navigating through the first user interface in a direction determined according to the direction of movement of the fingerprint on the fingerprint sensor (620). For example, the device may be capable of scrolling or translating at least a portion of the content displayed on the first user interface to the right when the fingerprint moves to the right on the fingerprint sensor (e.g., as described above with respect to Figures 5b and 5c) And scrolls or translates at least a portion of the content displayed on the first user interface to the left when the fingerprint moves to the left on the fingerprint sensor.
일부 실시예들에서, 제2 사용자 인터페이스를 표시하는 것은 디스플레이 상에 나타나는 제2 사용자 인터페이스의 애니메이션화 천이(animated transition)를 표시하는 것을 포함하고, 애니메이션화 천이의 속도는 지문 센서 상에서의 지문의 변위에 기초한다(622). 예를 들어, 디바이스는 디스플레이의 저부로부터 디스플레이 상으로 활주하는 제2 사용자 인터페이스를 위한 공간을 만들기 위해 디스플레이 상에서 상향 방향으로 활주하는 제1 사용자 인터페이스를 표시한다.In some embodiments, displaying the second user interface comprises displaying an animated transition of a second user interface appearing on the display, wherein the rate of animation transition is based on the displacement of the fingerprint on the fingerprint sensor (622). For example, the device displays a first user interface that slides upwards on the display to create a space for a second user interface that slides from the bottom of the display onto the display.
일부 실시예들에서, 디바이스는 버튼(예를 들어, 도 5a의 홈 버튼 또는 메뉴 버튼(204)과 같은 물리적 버튼)을 포함하고; 지문 센서는 버튼 내로 통합된다(예를 들어, 도 5a에서 지문 센서(169)가 물리적 홈 버튼(204) 내로 통합됨)(624). 일부 실시예들에서, 물리적 버튼은 버튼 상에서 검출된 강도가 활성화 강도 임계치 초과로 증가하였을 때 디바이스에 의해 활성화된 것으로 결정되는 디바이스의 하우징의 강도-감응 구역이다. 일부 실시예들에서, 물리적 버튼은 전자 스위치에 결합되고, 여기서 제1 축(예를 들어, 상하 또는 좌우)을 따르는 물리적 버튼의 이동은 스위치를 닫고 물리적 버튼을 활성화한다(때때로 들을 수 있거나 촉각으로 느낄 수 있는 "클릭"을 발생시킴).In some embodiments, the device includes a button (e.g., a home button in FIG. 5A or a physical button such as a menu button 204); The fingerprint sensor is integrated into the button (e.g.,
일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 도 5m의 지도 애플리케이션 사용자 인터페이스)가 표시되는 동안에, 디바이스가 버튼의 활성화(예를 들어, 도 5m에 도시된 바와 같이, 물리적 버튼(204) 상의 누름 입력 또는 탭 입력과 같은 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(534))를 검출한다(626). 예를 들어, 디바이스는 사용자가 버튼을 클릭하는 것 또는 활성화 강도 임계치 초과의 강도로 버튼에 대응하는 강도-감응 구역을 누르는 것을 검출한다. 버튼의 활성화를 검출하는 것에 응답하여, 디바이스는 제1 사용자 인터페이스(예를 들어, 도 5m의 지도 애플리케이션 사용자 인터페이스)를 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스(예를 들어, 도 5n에 도시된 것과 같은 홈 스크린 또는 애플리케이션 기동 인터페이스; 또는 검색 애플리케이션 사용자 인터페이스)로 대체한다(628).In some embodiments, while the first user interface (e.g., the map application user interface of FIG. 5M) is being displayed, when the device activates the button (e.g., the physical button 204 (E.g.,
일부 실시예들에서, 제2 사용자 인터페이스(예를 들어, 도 5k의 멀티태스킹 사용자 인터페이스(517))가 표시되는 동안에, 디바이스는 버튼의 활성화(예를 들어, 도 5k에 도시된 바와 같이, 물리적 버튼(204) 상의 탭 입력 또는 누름 입력을 통한 것과 같은 물리적 홈 버튼 또는 메뉴 버튼(204)의 활성화(532))를 검출한다(630). 예를 들어, 디바이스는 사용자가 버튼을 클릭하는 것 또는 활성화 강도 임계치 초과의 강도로 버튼에 대응하는 강도-감응 구역을 누르는 것을 검출한다. 버튼의 활성화를 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스를 표시하는 것을 중단한다(632)(예를 들어, 그리고 도 5k 및 도 5l과 관련하여 전술된 바와 같이, 지도 애플리케이션 사용자 인터페이스와 같은 제1 사용자 인터페이스를 재표시하거나 재활성화함).In some embodiments, while the second user interface (e.g.,
일부 실시예들에서, 제1 사용자 인터페이스(예를 들어, 도 5j의 지도 애플리케이션 사용자 인터페이스)가 표시되는 동안에, 디바이스는 버튼의 이중 활성화(예를 들어, 도 5j와 관련하여 전술된 바와 같이, 예를 들어 500ms, 300ms, 150ms, 50ms, 또는 일부 다른 합리적인 시간 간격보다 작은 간격을 갖는 두 번의 연속적인 탭들 사이의 미리 정해진 시간 경과 간격보다 작은 빠른 연속성을 발생시키는 두 번의 연속적인 탭들 또는 누름 입력들을 통한 물리적 홈 버튼 또는 메뉴 버튼(204)의 이중 활성화(530), 두 번의 연속적인 탭들 사이에 손가락 들어올림이 있거나 없을 수 있음)를 검출한다(634). 예를 들어, 디바이스는 사용자가 버튼을 더블 클릭하거나, 활성화 강도 임계치 초과의 강도로 버튼에 대응하는 강도-감응 구역을 누르고 활성화 강도 임계치 미만으로 강도를 감소시킨 다음, 활성화 임계치 초과의 강도로 강도-감응 구역을 누르는 것을 검출한다. 버튼의 이중 활성화를 검출하는 것에 응답하여, 디바이스는 디스플레이 상에 제2 사용자 인터페이스를 표시한다(예를 들어, 도 5j 및 도 5k와 관련하여 전술된 바와 같이 멀티태스킹 사용자 인터페이스(517)를 표시하거나; 가장 최근 사용된 애플리케이션을 표시함)(636).In some embodiments, while the first user interface (e.g., the map application user interface of FIG. 5J) is being displayed, the device may initiate a dual activation of the button (e.g., For example, two consecutive taps or push inputs that produce a fast continuity that is less than a predetermined time lapse interval between two consecutive taps having intervals less than 500 ms, 300 ms, 150 ms, 50 ms, or some other reasonable time interval A double activation (530) of a physical home button or menu button (204), or no finger lift between two consecutive taps (634). For example, the device may allow the user to press the intensity-sensitive area corresponding to the button at an intensity greater than the activation strength threshold, double-click the button, decrease the intensity below the activation strength threshold, Detecting pressing of the sensitive area. In response to detecting a dual activation of the button, the device displays a second user interface on the display (e.g., displaying the
일부 실시예들에서, 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스(예를 들어, 도 5f의 멀티태스킹 사용자 인터페이스(517))를 표시하는 동안에, 디바이스는 제1 방향으로의 지문 센서 상에서의 지문의 이동(예를 들어, 도 5f에 도시된 지문(518) 및 횡방향 또는 수평 방향으로의 또는 다기능 디바이스의 단축을 따른 우측으로부터 좌측으로의 연관된 이동(520))을 검출한다(638). 제1 방향으로의 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스를 통해 내비게이션한다(예를 들어, 디바이스는 지문 센서 상에서의 지문의 이동에 따라 복수의 최근 사용된 애플리케이션들 또는 최근 열린 애플리케이션들의 표현들을 스크롤함)(640). 예를 들어, 도 5f 및 도 5g에 도시된 바와 같이, 디바이스는 제2 사용자 인터페이스의 추가적인 부분들(예를 들어, 이전에 도 5f에서는 표시되지 않았지만 도 5g에는 도시된 바와 같은 메시지 애플리케이션에 대응하는 "메시지" 아이콘, 캘린더 애플리케이션에 대응하는 "캘린더" 아이콘 및 시계 애플리케이션에 대응하는 "시계" 아이콘을 포함하는 추가적인 아이콘들)을 표시하기 위해 지문(518)의 이동(520) 방향으로 제2 사용자 인터페이스(예를 들어, 멀티태스킹 사용자 인터페이스(517))의 적어도 일부분을 병진이동시킨다.In some embodiments, while displaying the second user interface (e.g., the
일부 실시예들에서, 제2 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 속도로 제2 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다. 예를 들어, 디바이스는 복수의 최근 사용되거나 현재 열린 애플리케이션들에 대응하는 아이콘들을 지문 센서 상의 지문의 시작 위치로부터 지문 센서 상의 지문에 의한 각각의 1mm의 이동에 대해 5개 아이콘/sec의 속도로 스크롤한다. 일부 실시예들에서, 제2 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 변위에 따라 결정된 양만큼 제2 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다. 예를 들어, 디바이스는 복수의 최근 사용되거나 현재 열린 애플리케이션들에 대응하는 아이콘들을 지문 센서 상의 지문에 의한 각각의 1mm의 이동에 대해 1개의 아이콘만큼 스크롤한다. 일부 실시예들에서, 제2 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서 상에서의 지문의 이동 방향에 따라 결정된 방향으로 제2 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다. 예를 들어, 디바이스는 지문 센서 상에서 지문이 우측으로 이동할 때 복수의 최근 사용되거나 현재 열린 애플리케이션들의 표현들을 우측으로 스크롤하고, 지문 센서 상에서 지문이 좌측으로 이동할 때 복수의 최근 사용된 애플리케이션들의 표현들을 좌측으로 스크롤한다.In some embodiments, navigating through the second user interface includes navigating through the second user interface at a rate determined by the displacement of the fingerprint on the fingerprint sensor. For example, the device scrolls icons corresponding to a plurality of recently used or currently open applications at a rate of 5 icons / sec for each 1 mm movement by fingerprint on the fingerprint sensor from the start position of the fingerprint on the fingerprint sensor do. In some embodiments, navigating through the second user interface includes navigating through the second user interface by an amount determined by the displacement of the fingerprint on the fingerprint sensor. For example, the device scrolls the icons corresponding to a plurality of recently used or currently open applications by one icon for each 1 mm of movement by the fingerprint on the fingerprint sensor. In some embodiments, navigating through the second user interface includes navigating through the second user interface in a direction determined by the direction of movement of the fingerprint on the fingerprint sensor. For example, the device scrolls the representations of a plurality of recently used or currently open applications to the right when the fingerprint moves to the right on the fingerprint sensor, and displays the plurality of recently used applications' representations on the fingerprint sensor to the left .
일부 실시예들에서, 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스(예를 들어, 도 5h의 멀티태스킹 사용자 인터페이스(517))를 표시하는 동안에, 디바이스는 제3 방향(예를 들어, 제2 방향에 실질적으로 반대인 방향; 예컨대 수직 방향 또는 다목적 디바이스의 장축을 따르는 방향; 하향 방향)으로의 지문 센서 상에서의 지문의 이동을 검출한다(642). 예를 들어, 도 5d 및 도 5e의 지문(514)의 이동(516)(예를 들어, 제1 방향으로의 이동)이 다목적 디바이스의 장축을 따르는 수직 방향으로 상향 방향 이동인 반면; 도 5h 및 도 5i의 지문(522)의 이동(524)(예를 들어, 제3 방향으로의 이동)은 다목적 디바이스의 장축을 따르는 (예를 들어, 실질적으로 제2 방향에 반대인) 수직 방향으로 하향 방향 이동이다. 제3 방향으로의 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여, 디바이스는 제2 사용자 인터페이스를 표시하는 것을 중단한다(644). 예를 들어, 도 5i에 도시된 바와 같이, 디바이스는 이전에 도 5h에서 표시되었던 멀티태스킹 사용자 인터페이스(517)를 표시하는 것을 중단하고, 제2 사용자 인터페이스가 표시되었을 때 표시가 중단되었던 제1 사용자 인터페이스의 부분을 포함하여 제1 사용자 인터페이스(예를 들어, 지도 애플리케이션 사용자 인터페이스)를 재표시한다.In some embodiments, while displaying the second user interface (e.g., the
도 6a 내지 도 6c의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 6a 내지 도 6c와 관련하여 전술된 방법(600)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(600)과 관련하여 전술된 지문들, 사용자 인터페이스들, 애니메이션화 천이들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 사용자 인터페이스들, 애니메이션화 천이들의 특징들 중 하나 이상을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 6A-6C are only illustrative and that the order in which they are described is not intended to indicate that the order in which they are performed is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention"), It should also be noted that it is also applicable in a similar manner to the
일부 실시예들에 따르면, 도 7은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(700)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 7에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 7 illustrates a functional block diagram of an
도 7에 도시된 바와 같이, 전자 디바이스(700)는 제1 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(702)을 포함하며, 선택적으로 터치-감응 표면 유닛(704), 지문 센서 유닛(706), 및 디스플레이 유닛(702)과 지문 센서 유닛(706)에 결합된 프로세싱 유닛(708)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(708)은 검출 유닛(710), 내비게이션 유닛(712), 디스플레이 인에이블링 유닛(714), 대체 유닛(716) 및 중단 유닛(718)을 포함한다.7, the
프로세싱 유닛(708)은 디스플레이 상에 제1 사용자 인터페이스를 표시하는 동안에 (예를 들어, 검출 유닛(710)을 이용하여) 지문 센서(706) 상에서의 지문의 이동을 검출하고; 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여: 지문의 이동이 제1 방향으로 있다는 결정에 따라 (예를 들어, 내비게이션 유닛(712)을 이용하여) 제1 사용자 인터페이스를 통해 내비게이션하고, 지문의 이동이 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라 (예를 들어, 디스플레이 인에이블링 유닛(714)을 이용하여) 디스플레이 유닛(702) 상에서의 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스의 표시를 가능하게 하도록 구성된다.The processing unit 708 detects the movement of the fingerprint on the
일부 실시예들에서, 제1 방향은 제2 방향에 대해 수직이다.In some embodiments, the first direction is perpendicular to the second direction.
일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고; 제2 사용자 인터페이스는 복수의 동시에 열린 애플리케이션들의 표현들을 포함하는 멀티태스킹 사용자 인터페이스이다.In some embodiments, the first user interface is a user interface of the first application; The second user interface is a multitasking user interface that includes representations of a plurality of simultaneously open applications.
일부 실시예들에서, 프로세싱 유닛(708)은 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스의 표시를 가능하게 하는 동안에, (예를 들어, 검출 유닛(710)을 이용하여) 제1 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하고; 제1 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하는 것에 응답하여, (예를 들어, 내비게이션 유닛(712)을 이용하여) 제2 사용자 인터페이스를 통해 내비게이션하도록 추가로 구성된다.In some embodiments, the processing unit 708 may enable (e. G., Using the detection unit 710), while enabling display of the second user interface in accordance with the determination that movement of the fingerprint is in the second direction, Detecting movement of the fingerprint on the
일부 실시예들에서, 프로세싱 유닛은 지문의 이동이 제2 방향으로 있다는 결정에 따라 제2 사용자 인터페이스의 표시를 가능하게 하는 동안에, (예를 들어 검출 유닛(710)을 이용하여) 제3 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하고; 제3 방향으로의 지문 센서(706) 상에서의 지문의 이동을 검출하는 것에 응답하여, (예를 들어, 중단 인에이블링 유닛(718)을 이용하여) 제2 사용자 인터페이스의 표시를 가능하게 하는 것을 중단하도록 추가로 구성된다.In some embodiments, the processing unit may be configured to enable the display of the second user interface (e.g., using the detection unit 710) in a third direction while enabling the display of the second user interface in accordance with the determination that movement of the fingerprint is in the second direction Detecting movement of the fingerprint on the
일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서(706) 상에서의 지문의 변위에 따라 결정된 속도로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다.In some embodiments, navigating through the first user interface includes navigating through the first user interface at a rate determined by the displacement of the fingerprint on the
일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서(706) 상에서의 지문의 변위에 따라 결정된 양만큼 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다.In some embodiments, navigating through the first user interface includes navigating through the first user interface by an amount determined by the displacement of the fingerprint on the
일부 실시예들에서, 제1 사용자 인터페이스를 통해 내비게이션하는 것은 지문 센서(706) 상에서의 지문의 이동 방향에 따라 결정된 방향으로 제1 사용자 인터페이스를 통해 내비게이션하는 것을 포함한다.In some embodiments, navigating through the first user interface includes navigating through the first user interface in a direction determined by the direction of movement of the fingerprint on the
일부 실시예들에서, 제2 사용자 인터페이스의 표시를 가능하게 하는 것은 (예를 들어, 디스플레이 인에이블링 유닛(714)을 이용하여) 디스플레이 유닛(702) 상에 나타나는 제2 사용자 인터페이스의 애니메이션화 천이의 표시를 가능하게 하는 것을 포함하고; 애니메이션화 천이의 속도는 지문 센서(706) 상에서의 지문의 변위에 기초한다.In some embodiments, enabling the display of the second user interface may include displaying the second user interface's animated transition (e. G., Using display enable unit 714) Enabling the display; The speed of the animation transition is based on the displacement of the fingerprint on the
일부 실시예들에서, 지문 센서(706)는 디스플레이 유닛(702)과는 별개이다.In some embodiments, the
일부 실시예들에서, 디바이스는 터치-감응 표면 유닛(704)을 포함하고, 지문 센서(706)는 터치-감응 표면 유닛(704)과는 별개이다.In some embodiments, the device includes a touch-
일부 실시예들에서, 디바이스는 버튼을 포함하고, 지문 센서(706)는 버튼 내로 통합된다.In some embodiments, the device includes a button, and the
일부 실시예들에서, 프로세싱 유닛(708)은 제1 사용자 인터페이스가 표시되는 동안에, (예를 들어, 검출 유닛(710)을 이용하여) 버튼의 활성화를 검출하고; 버튼의 활성화를 검출하는 것에 응답하여, (예를 들어,대체 유닛(716)을 이용하여) 제1 사용자 인터페이스를 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하도록 추가로 구성된다.In some embodiments, the processing unit 708 detects activation of the button (e.g., using the detection unit 710) while the first user interface is being displayed; In response to detecting the activation of the button, it is further configured to replace the first user interface (e.g., using the alternate unit 716) with a predetermined user interface associated with activation of the button.
일부 실시예들에서, 프로세싱 유닛(708)은 제2 사용자 인터페이스가 표시되는 동안에, (예를 들어, 검출 유닛(710)을 이용하여) 버튼의 활성화를 검출하고; 버튼의 활성화를 검출하는 것에 응답하여, (예를 들어, 중단 유닛(718)을 이용하여) 제2 사용자 인터페이스를 표시하는 것을 중단하도록 추가로 구성된다.In some embodiments, the processing unit 708 detects activation of the button (e.g., using the detection unit 710) while the second user interface is being displayed; In response to detecting activation of the button, it is further configured to stop displaying the second user interface (e.g., using the interrupt unit 718).
일부 실시예들에서, 프로세싱 유닛(708)은 제1 사용자 인터페이스가 표시되는 동안에, (예를 들어 검출 유닛(710)을 이용하여) 버튼의 이중 활성화를 검출하고; 버튼의 이중 활성화를 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(714)을 이용하여) 디스플레이 유닛(702) 상에서의 제2 사용자 인터페이스의 표시를 가능하게 하도록 추가로 구성된다.In some embodiments, the processing unit 708 detects double activation of the button (e.g., using the detection unit 710) while the first user interface is being displayed; (E.g., using the display enabling unit 714) in response to detecting a dual activation of a button on the display unit 702. The display unit 702 is configured to enable display of the second user interface on the display unit 702 (e.g., using the display enabling unit 714).
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 6a 내지 도 6c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 7에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 디스플레이 동작(602), 검출 동작(604), 내비게이션 또는 디스플레이 동작(610) 및 대체 동작(628)은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고, 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 6A-6C are optionally implemented by the components shown in Figs. 1A and 1B or 7. For example, the
버튼들이 다수의 목적들을 만족시키게 하기Let the buttons satisfy a number of purposes
다수의 전자 디바이스들은 다양한 사용자 인터페이스들을 표시하도록 구성된다. 이러한 사용자 인터페이스들은 예를 들어 홈 스크린, 검색 스크린, 및/또는 디바이스에 저장된 애플리케이션("앱")들과 연관된 사용자 인터페이스들을 포함할 수 있다. 홈 스크린이 종종 가장 많이 사용되는 사용자 인터페이스이기 때문에, 그러한 디바이스들이 사용자에게 홈 스크린으로 신속하게 내비게이션하는 편리한 방식을 제공하는 것이 바람직하다. 예를 들어, 기존의 방법들 및 디바이스들에서, 전용 "홈" 버튼이 종종 제공된다. 그러나, 일부 디바이스들(예를 들어, 스마트폰과 같은 휴대용 다기능 디바이스)의 크기의 제한으로 인해, 전용 홈 버튼을 제공하는 것은 이러한 디바이스들의 하우징 상에 원치 않는 크기의 공간을 필요로 한다. 따라서, 그러한 디바이스들 상의 버튼들이, 사용자가 활성화하기를 원하는 두 가지의 목적들을 구별하기 위한 편리한 방법을 제공함으로써, 다수의 목적들(예를 들어, 호밍(homing) 목적 및 애플리케이션 종속적 목적)을 만족시키게 하는 것이 바람직하다.A plurality of electronic devices are configured to display various user interfaces. Such user interfaces may include, for example, user interfaces associated with home screens, search screens, and / or applications ("apps") stored on the device. Since the home screen is often the most used user interface, it is desirable that such devices provide a convenient way for the user to quickly navigate to the home screen. For example, in existing methods and devices, dedicated "home" buttons are often provided. However, due to the limited size of some devices (e.g., portable multifunction devices such as smart phones), providing a dedicated home button requires an undesired amount of space on the housing of such devices. Thus, the buttons on such devices satisfy a number of goals (e.g., homing and application dependent purposes) by providing a convenient way to distinguish between the two purposes that the user desires to activate. .
아래에서 기술되는 실시예들에서, 버튼들이 다수의 목적들을 만족시키게 하는 개선된 방법이 제공된다. 아래에서 기술되는 실시예들에서의 버튼들은 통합형 지문 센서들을 포함한다. 그러한 버튼이 사전 결정된 시간량 미만 동안에(예를 들어, 버튼의 빠르게 누르기) 통합형 지문 센서 상에서 지문을 계속 검출한 후에 활성화되는(예를 들어, 눌러지는) 경우, 버튼은 제1 동작(예를 들어, 홈 동작)을 수행한다. 한편, 버튼이 사전 결정된 시간량 초과 동안 지문을 계속 검출한 후에(예를 들어, 지문 센서 상에서 머무른 후에) 활성화되는 경우, 디바이스는 제2 동작(예를 들어, 애플리케이션 특정 동작)을 수행한다.In the embodiments described below, an improved method is provided for allowing buttons to fulfill multiple purposes. The buttons in the embodiments described below include integrated fingerprint sensors. If such a button is activated (e.g., pushed) after continuously detecting a fingerprint on the integrated fingerprint sensor during less than a predetermined amount of time (e. G., Quick pressing of the button) , Home operation). On the other hand, when the button is activated (e.g., after staying on the fingerprint sensor) after continuously detecting the fingerprint for a predetermined amount of time, the device performs a second action (e.g., an application specific action).
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 8a 내지 도 8o 및 도 9a 내지 도 9c와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 8a 내지 도 8o 및 도 9a 내지 도 9c와 관련하여 기술되는 실시예들은, 도 8a 내지 도 8o에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 8a 내지 도 8o에 묘사된 입력들을 검출하는 것에 응답하여 수행되는 디바이스 동작들과 관련하여 논의될 것이다. 그러나, 통합형 지문 센서(359-1)와 함께 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 8a 내지 도 8o에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 상에서 도 8a 내지 도 8o에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다. 일부 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 일부 실시예들에서, 포커스 셀렉터는 복수의 사용자 인터페이스 객체들 내의 각자의 사용자 인터페이스 객체(예를 들어, 도 8k 내지 도 8o와 관련하여 기술되는 바와 같이 "스크롤-휠"에 의해 선택된 객체)를 가리키기 위해 사용될 수 있는 사용자-제어식 포인터이다. 일부 실시예들에서, 포커스 셀렉터의 시각적 표현이 표시된다(예를 들어, 포커스 셀렉터가 가리키는 사용자 인터페이스 객체는 다른 사용자 인터페이스 객체들로부터 시각적으로 구별됨).In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 8a 내지 도 8d는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시한다. 특히, 도 8a 내지 도 8d는 본 명세서에 기술된 소정의 조건들 하에서,"홈 버튼"(예를 들어, 버튼(204))의 활성화는 디바이스로 하여금 "홈" 동작(예를 들어, 제1 동작)을 수행하게 하며, 그에 따라 (사용자가 선택할 수 있는 애플리케이션들을 나타내는 복수의 아이콘들을 포함하는 애플리케이션-기동 인터페이스를 표시하는) 홈 스크린으로 디바이스가 복귀하는 예를 도시한다. 이러한 예에서, 버튼(204)은 통합형 지문 센서(169)를 포함한다. 다른 조건들 하에서, 도 8g 및 도 8h와 관련하여 기술된 바와 같이, 홈 버튼의 활성화는 디바이스로 하여금 제2의 상이한 동작을 수행하게 한다.Figures 8A-8D illustrate exemplary user interfaces used in conjunction with multipurpose buttons, in accordance with some embodiments. 8A-8D illustrate that activation of a "home button" (e.g., button 204) under certain conditions described herein may cause the device to perform a "home" Operation), thereby returning the device to the home screen (indicating an application-initiated interface comprising a plurality of icons representing the applications the user can select). In this example, the
도 8a는 휴대용 다기능 디바이스(100) 상에서 양궁 비디오 게임 애플리케이션을 실행하는 디바이스의 예를 도시한다.FIG. 8A shows an example of a device that executes an archery video game application on a
도 8b는 통합형 지문 센서(169) 상에서의 지문(806)(이 예시에서는 사용자의 오른손 엄지에 대응하는 지문)의 검출을 도시한다. 도 8b는 또한 버튼 상의 지문(806)의 힘뿐만 아니라 지문(806)이 지문 센서 상에서 계속 검출된 시간의 길이의 표시들을 각각 도시한다. 버튼 상의 지문(806)의 힘과 시간의 길이의 각자의 표시들은 전형적으로는 디바이스 상에 나타나지 않지만, 대신에 설명의 편의를 위해 본 도면에 도시되었다. 이러한 예에서, 버튼(204)은 지문(806)의 힘이 활성화 임계치(AT0)를 초과할 때 활성화된다. 일부 실시예들에서, 예를 들어 버튼(204)이 물리적 또는 기계적 버튼인 경우, 활성화 임계치(AT0)는 버튼(204)의 소정의 기계적 특징부들의 스프링 특성들의 함수 및/또는 버튼(204)의 기계적 특징부들 사이의 마찰의 함수이다. 다시 말하면, 일부 실시예들에서, 버튼이 활성화되게 하는 최소 힘이 버튼 상에 존재한다. 일부 실시예들에서, 버튼(204)의 활성화는 "다운-스트로크(down-stroke)"(예를 들어, 지문(806)의 힘이 AT0 미만으로부터 AT0 초과까지 계속 검출되는 경우)에서 발생한다. 일부 실시예들에서, 버튼(204)의 활성화는 "업-스트로크(up-stroke)"(예를 들어, 지문(806)의 힘이 AT0 초과로부터 AT0 미만까지 계속 검출되는 경우)에서 발생한다. 일부 다른 실시예들에서, 예를 들어 버튼(204)이 가상 버튼인 경우, 지문 센서(169)에 의해 검출되는 특정 제스처가 버튼의 활성화를 야기한다.FIG. 8B shows the detection of a fingerprint 806 (fingerprint corresponding to the user's right hand thumb in this example) on the
도 8c 및 도 8d에 도시된 바와 같이, 사전 결정된 기간(PT) 초과의 시간량 동안의 지문(806)의 연속적인 검출 이전에, 디바이스가 (도 8c에 도시된) 버튼(204)의 활성화를 검출하는 경우, 디바이스는 제1 동작을 수행한다. 이러한 예에서, 제1 동작은 (도 8d에 도시된) "홈 동작"이다. 일부 실시예들에서, 사전 결정된 기간(PT) 이상인 시간량 동안의 지문(806)의 연속적인 검출 이전에, 디바이스가 버튼(204)의 활성화를 검출하는 경우, 디바이스는 제1 동작을 수행한다.As shown in Figures 8c and 8d, before the continuous detection of the
일부 실시예들에서, 도 8d 내지 도 8f와 관련하여 아래에서 기술된 바와 같이, 제1 동작은 컨텍스트(context) 종속적이다. 예를 들어, 일부 실시예들에서, 제1 동작은 현재 표시되는 사용자 인터페이스에 의존한다(예를 들어, 연관됨). 현재 표시되는 사용자 인터페이스가 표시된 양궁 비디오 게임을 포함하는 앞서의 예에서, 양궁 비디오 게임과 연관된 제1 동작은 디바이스를 홈 스크린으로 복귀시킨다. 도 8d 내지 도 8f는 홈 스크린이 현재 표시된 사용자 인터페이스일 때의 제1 동작의 예를 도시한다.In some embodiments, the first operation is context dependent, as described below with respect to Figures 8d-8f. For example, in some embodiments, the first operation is dependent on (e.g., associated with) the currently displayed user interface. In the previous example, which includes an archery video game displayed with a currently displayed user interface, a first action associated with the archery video game returns the device to the home screen. 8D to 8F show examples of the first operation when the home screen is the currently displayed user interface.
홈 스크린의 예를 도시하는 것에 더하여, 도 8d는 제2 지문(808)의 검출의 예를 또한 도시한다. 지문(808)의 검출은 도 8b와 관련하여 기술된 지문(806)의 검출과 유사하다. 일부 실시예들에서, 지문(808)은 지문(806)의 연속이다(예를 들어, 일부 실시예들에서, 도 8d에 도시된 홈 스크린으로 내비게이션한 후에, 사용자는 이 예에 기술된 기능을 이용하기 위해 지문 센서(169)와의 접촉을 중단 및 재적용할 필요가 없음).In addition to showing an example of the home screen, Fig. 8D also shows an example of the detection of the
도 8e는 도 8c 및 도 8d와 관련하여 앞서 기술된 바와 같은 사전 결정된 기간(PT)이 경과하기 이전의 버튼(204)의 활성화를 도시한다. 이러한 예에서, 사전 결정된 기간(PT)이 경과되지 않았기 때문에, 디바이스는 홈 스크린(예를 들어, 애플리케이션-기동 인터페이스)과 연관된 제1 동작을 수행한다. 이러한 예에서, 제1 동작은 도 8f에 도시된 바와 같이 디바이스를 탐색 스크린으로 내비게이션한다. 일부 실시예들에서, 홈 스크린과 연관된 제1 동작은 사용자를 다른 홈 스크린으로 안내한다(예를 들어, 디바이스는 복수의 홈 스크린 페이지들을 통해 내비게이션하며, 디바이스 상의 다수의 애플리케이션들로 인해 복수의 홈 스크린들이 요구됨).8E shows the activation of the
도 8g 내지 도 8j는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시한다. 특히, 도 8g 내지 도 8j는 사전 결정된 시간 초과 동안의 지문(810)의 연속적인 검출에 후속하여 버튼(204)의 활성화에 따라 제2의 상이한 동작을 수행하는 디바이스의 예를 도시한다. 도 8g에서, 지문(810)이 처음에 검출된다. 따라서, 지속적으로 검출되는 지문(810)의 길이를 나타내는 표시자는 처음에 시간이 경과되지 않았음을 나타낸다. 도 8h는 지문 센서(169) 위에서의 지문(810)의 이동 및 대응하는 궁수(802)의 이동을 나타낸다(예를 들어 이러한 예의 애플리케이션에서, 지문 센서(169)는 버튼(204)의 활성화에 앞서 궁수(802)의 위치를 제어하거나 대안적으로 위치의 변화를 제어하는 "조이스틱"으로서 작용함). 일부 실시예들에서, 그러한 기능(예를 들어, 조이스틱 기능)은 사전 결정된 시간이 경과한 후에 작동 가능하게 되며, 버튼(204)이 활성화될 때까지 작동 가능한 채로 남아있다. 일부 실시예들에서, 그러한 기능은 버튼(204)의 반복되는 활성화들에도 불구하고 지문이 지문 센서(169) 상에서 검출될 때마다 애플리케이션 내에서 작동 가능하다(예를 들어, 지문 센서(169)가 플레이어의 방향을 바꾸는 조이스틱으로서 작용하고 버튼의 활성화가 플레이어로 하여금 자신의 무기를 발사하게 하는 1인칭 슈팅 비디오 게임). 도 8i 및 도 8j는 (도 8i에 도시된) 버튼(204)의 활성화 및 제1 동작(예를 들어, 홈 동작)과 상이한 결과적인 제2 동작(예를 들어, 도 8i 및 도 8j에 도시된 바와 같은 화살의 발사)의 수행을 도시한다.8G-8J illustrate exemplary user interfaces used in connection with multipurpose buttons, in accordance with some embodiments. In particular, Figures 8g-8j illustrate examples of devices that perform a second, different operation in response to activation of
도 8k 내지 도 8o는 일부 실시예들에 따른, 다목적 버튼들과 관련하여 사용되는 예시적인 사용자 인터페이스들을 도시한다. 특히, 도 8k 내지 도 8o는 사용자 인터페이스가 예를 들어 홈 스크린 상의 애플리케이션들(예를 들어, 전화 앱, 브라우저 앱 등)에 대응하는 사용자 선택가능한 아이콘들과 같은 복수의 어포던스들을 포함하는 예를 도시한다. 도 8k 내지 도 8o는 또한 현재 선택된 어포던스에 대응하는 포커스 셀렉터를 도시한다(예를 들어, 디바이스가 전화 애플리케이션을 구동하라는 명령을 아직 수신하지 않았지만, 도 8k 내의 전화 애플리케이션을 나타내는 아이콘이 강조되어 포커스 셀렉터가 전화 애플리케이션 "위에" 있으며 전화 애플리케이션이 현재 선택되었다는 시각적 신호를 제공함). 또한, 도 8k 내지 도 8o는 제2 동작이 복수의 어포던스들 중 현재 선택된 어포던스에 대응하는 애플리케이션과 연관된 동작을 수행하는 것을 포함하는 실시예들의 예를 도시한다.8K-8O illustrate exemplary user interfaces used in connection with multipurpose buttons, in accordance with some embodiments. In particular, Figures 8k-8o illustrate an example in which the user interface includes a plurality of poses, such as user selectable icons corresponding to applications on the home screen (e.g., phone apps, browser apps, etc.) do. 8k-8o also illustrate a focus selector corresponding to the currently selected < Desc /
도 8k는 포커스 셀렉터의 위치가 지문 센서(169) 둘레에서의 원주방향 이동에 의해 제어되는 예를 도시한다(예를 들어, 지문 센서는 아래에서 설명되는 예시적인 속성들을 갖는 "스크롤-휠"로서 작용함). 이 예에서, 도시된 바와 같은 시계 방향으로의 원주방향 이동은 도 8l(브라우저 앱 위에서의 포커스 셀렉터의 이동) 및 도 8m(메일 앱 위에서의 포커스 셀렉터의 이동)에 도시된 바와 같이 포커스 셀렉터를 우측으로 이동시킨다. 마찬가지로, 도시되지는 않았지만, 지문 센서(169) 둘레에서 반시계 방향으로의 원주방향 이동은 포커스 셀렉터를 반대 방향(예를 들어, 좌측으로) 이동시킨다. 일부 실시예들에서, 복수의 어포던스들이 순서화되어 지문(812)의 원주방향 이동이 포커스 셀렉터를 순서대로 상방 또는 하방으로 증분시킨다(예를 들어, 90도와 같은 미리 정해진 각도의 원호를 그리는 지문의 이동이 포커스 셀렉터를 증분시킴). 일부 실시예들에서, 포커스 셀렉터가 순서에서의 마지막 어포던스에 도달하였을 때, 동일한 방향으로 포커스 셀렉터를 추가로 증분시키는 것은 포커스 셀렉터를 순서에서의 첫 번째 어포던스로 복귀시킨다. 일부 실시예들에서, 디바이스의 정상 모드와는 상이한 디바이스의 액세스 가능한 모드에서 스크롤-휠 기능이 이용가능하다.8K shows an example in which the position of the focus selector is controlled by circumferential movement about the fingerprint sensor 169 (e.g., the fingerprint sensor is a "scroll-wheel" having the exemplary attributes described below Lt; / RTI > In this example, the circumferential movement in the clockwise direction as shown is achieved by moving the focus selector to the right (as shown in Figure 8l (movement of the focus selector on the browser app) and Figure 8m . Similarly, although not shown, a circumferential movement in the counterclockwise direction around the
도 8n은 전술된 바와 같이 지문(812)의 힘이 활성화 임계치를 초과할 때의 버튼(204)의 활성화의 예를 도시한다. 이러한 예에서, 지문(812)이 사전 결정된 기간(PT) 동안에 계속 검출되었기 때문에, 디바이스는 제2 동작을 수행한다. 이러한 예에서, 제2 동작은 현재 선택된 어포던스에 의존한다. 예를 들어, 도 8o는 디바이스가 지금 이메일 메시지들에 대응하는 사용자 인터페이스 객체(814-1 내지 814-3)들을 포함하는 이메일 인터페이스를 표시하고 있기 때문에, 제2 동작이 메일 앱을 기동하였음을 나타낸다.8n shows an example of activation of the
도 9a 내지 도 9c는 일부 실시예들에 따른, 버튼이 다수의 목적들을 만족시키게 하는 방법(900)을 예시하는 흐름도이다. 방법(900)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(900) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.Figures 9A-9C are flow charts illustrating a
아래에서 기술되는 바와 같이, 방법(900)은 버튼이 다수의 목적들을 만족시키게 하는 직관적인 방식을 제공한다. 이 방법은 버튼들을 사용할 때 사용자의 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 다양한 디바이스 동작들을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
통합형 지문 센서를 포함하는 버튼을 갖는 전자 디바이스에서, 디바이스는 통합형 지문 센서 상에서 지문을 검출한다(902). 일부 실시예들에서, 전자 디바이스는 디스플레이를 포함한다(904). 일부 실시예들에서, 통합형 지문 센서 상에서 지문을 검출하기 전에, 디바이스는 디스플레이 상에 제1 사용자 인터페이스(예를 들어, 도 8a에 도시된 사용자 인터페이스)를 표시한다(906).In an electronic device having a button that includes an integrated fingerprint sensor, the device detects fingerprints on the integrated fingerprint sensor (902). In some embodiments, the electronic device includes a display (904). In some embodiments, before detecting a fingerprint on the integrated fingerprint sensor, the device displays a first user interface (e.g., the user interface shown in FIG. 8A) on the display (906).
일부 실시예들에서, 버튼의 활성화를 검출하기 전에(908), 디바이스는 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문을 검출한다(910). 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스는 디스플레이 상에 포커스 셀렉터의 표현(예를 들어, 도 8k의 전화 앱의 강조와 같이 지문을 검출하기 직전에 표시되지 않았던 포커스 셀렉터 표현)을 표시한다(912).In some embodiments, before detecting activation of the button (908), the device detects (910) the fingerprint on the integrated fingerprint sensor for a predetermined period of time. In response to detecting the fingerprint on the integrated fingerprint sensor during a predetermined period of time, the device may display a focus selector on the display (e.g., a focus not shown just before the fingerprint is detected, Selector expression) is displayed (912).
통합형 지문 센서 상에서 지문을 계속 검출하는 동안에, 디바이스는 (예를 들어, 도 8c에 도시된 바와 같이) 버튼의 활성화를 검출한다(914). 일부 실시예들에서, 물리적 버튼은 버튼 상에서 검출된 강도가 활성화 강도 임계치 초과로 증가하였을 때 디바이스에 의해 활성화된 것으로 결정되는 디바이스의 하우징의 강도-감응 구역이다. 일부 실시예들에서, 물리적 버튼은 전자 스위치에 결합되고, 여기서 제1 축(예를 들어, 상하 또는 좌우)을 따르는 물리적 버튼의 이동은 스위치를 닫고 물리적 버튼을 활성화한다(때때로 들을 수 있거나 촉각으로 느낄 수 있는 "클릭"을 발생시킴). 버튼의 활성화를 검출하는 것에 응답하여, 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속 검출되지 않았다는 결정에 따라(예를 들어, 버튼의 활성화를 검출하기 직전 적어도 0.3, 0.5, 1, 또는 2초 동안 지문이 지문 센서 상에서 계속 검출되지 않았음), 디바이스는 버튼의 활성화와 연관된 미리 정해진 제1 동작(예를 들어, 도 8b 내지 도 8d와 관련하여 기술된 호밍 동작, 또는 대안적으로 도 8d 내지 도 8f와 관련하여 수행되는 탐색 스크린 동작)을 수행한다(916).During continued detection of the fingerprint on the integrated fingerprint sensor, the device detects activation of the button (e.g., as shown in FIG. 8C) (914). In some embodiments, the physical button is the intensity-sensitive area of the housing of the device that is determined to be activated by the device when the intensity detected on the button has increased beyond the activation strength threshold. In some embodiments, a physical button is coupled to an electronic switch, wherein movement of a physical button along a first axis (e.g., up or down or left or right) closes the switch and activates a physical button (sometimes audible or tactile Click "that can be felt). In response to detecting activation of the button, determining that the fingerprint has not been continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting activation of the button (e.g., at least 0.3, The fingerprint has not been continuously detected on the fingerprint sensor for 0.5, 1, or 2 seconds), the device may perform a predetermined first action associated with activation of the button (e.g., the humming action described with respect to Figures 8B- Or alternatively a search screen operation performed in connection with Figures 8d-8f).
일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고, 제1 동작은 제1 사용자 인터페이스의 표시를 중단하고 애플리케이션 기동 인터페이스를 표시하는 것을 포함한다(예를 들어, 도 8b 내지 도 8d에 도시된 바와 같이, 양궁 비디오 게임을 표시하는 것을 중단함)(918). 일부 실시예들에서, 제1 사용자 인터페이스는 애플리케이션 기동 인터페이스이고, 제1 동작은 애플리케이션 기동 인터페이스(도 8e)를 표시하는 것을 중단하고 버튼의 활성화와 연관된 미리 정해진 애플리케이션(예를 들어, 도 8f의 검색 사용자 인터페이스)을 표시하는 것을 포함한다(920).In some embodiments, the first user interface is a user interface of the first application, and the first action includes stopping the display of the first user interface and displaying the application launch interface (e.g., Figures 8B- Stop displaying the archery video game, as shown at 8d). In some embodiments, the first user interface is an application launch interface, wherein the first operation stops displaying the application launch interface (FIG. 8E) and the predefined application associated with activation of the button (e.g., Gt; 920). ≪ / RTI >
버튼의 활성화를 검출하는 것에 응답하여, 버튼의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 상에서 지문이 계속 검출되었다는 결정에 따라(예를 들어, 버튼의 활성화를 검출하기 직전 적어도 0.3, 0.5, 1, 또는 2초 동안 지문이 지문 센서 상에서 계속 검출되지 않았음), 디바이스는 버튼의 활성화를 검출하기 직전에 디스플레이 상에 표시되는 사용자 인터페이스와 연관된, 제1 동작과는 상이한 제2 동작을 수행한다(예를 들어, 도 8g 내지 도 8j에 도시된 바와 같이 궁사가 자신의 화살을 쏨)(922).In response to detecting activation of the button, the fingerprint is continuously detected on the integrated fingerprint sensor for a predetermined period of time prior to detecting the activation of the button (e.g., at least 0.3, 0.5 , The fingerprint has not been continuously detected on the fingerprint sensor for one or two seconds), the device performs a second action associated with the user interface displayed on the display just before detecting the activation of the button, which is different from the first action (For example, the archer draws his arrow as shown in Figures 8g-8j) (922).
일부 실시예들에서, 제1 애플리케이션의 사용자 인터페이스는 제1 애플리케이션과 연관된 각자의 동작들에 대응하는 복수의 어포던스들(예를 들어, 메뉴, 제어, 하이퍼링크 등)을 포함하고, 제2 동작은 복수의 어포던스들 중 현재 선택된 어포던스에 대응하는 제1 애플리케이션과 연관된 동작을 수행하는 것을 포함한다(예를 들어, 디바이스는 현재 포커스 셀렉터에 근접하거나 포커스 셀렉터와 같은 위치에 있는 애플리케이션 내에 표시된 어포던스에 대응하는 동작을 수행함)(924).In some embodiments, the user interface of the first application includes a plurality of poses (e. G., A menu, control, hyperlink, etc.) corresponding to the respective operations associated with the first application, (E.g., the device is in proximity to the current focus selector or corresponds to an indication of the proximity to the currently selected application in the same position as the focus selector) (Operation 924).
일부 실시예들에서, 제1 사용자 인터페이스는 애플리케이션 기동 인터페이스이고((920) 참조), 애플리케이션 기동 인터페이스는 복수의 애플리케이션들 내의 각자의 애플리케이션에 대응하는 복수의 애플리케이션 기동 어포던스들(예를 들어, 도 8k의 애플리케이션 아이콘들)을 포함하고, 제2 동작은 복수의 애플리케이션 기동 어포던스들 중 현재 선택된 애플리케이션 기동 어포던스에 대응하는 각자의 애플리케이션을 기동하는 것을 포함한다(예를 들어, 디바이스는 현재 포커스 셀렉터에 근접하거나 포커스 셀렉터와 같은 위치에 있는 애플리케이션 아이콘에 대응하는 애플리케이션을 기동함)(926).In some embodiments, the first user interface is an application launch interface (see 920), and the application launch interface may include a plurality of application launch positives corresponding to respective applications in the plurality of applications (e.g., (E.g., the device is currently in proximity to the focus selector), and the second action includes launching each of the applications corresponding to the currently selected application launch positives of the plurality of application launch positives And launches the application corresponding to the application icon in the same position as the focus selector) (926).
일부 실시예들에서, 제2 동작은 제1 사용자 인터페이스 내에서의 포커스 셀렉터의 위치에 종속적이고(예를 들어, 제2 동작은 웹페이지 내의 하이퍼링크의 활성화 또는 애플리케이션 기동 인터페이스 내의 애플리케이션 아이콘에 대응하는 애플리케이션의 기동과 같이, 제1 사용자 인터페이스 내의 특정 사용자 인터페이스 객체의 활성화에 대응하는 동작임), 제1 동작은 제1 사용자 인터페이스 내에서의 포커스 셀렉터의 위치에 대해 독립적이다(928). 예를 들어, 제1 동작은 홈 스크린 또는 애플리케이션 기동 스크린을 표시하는 것, 미리 정해진 애플리케이션을 표시하는 것, 및/또는 현재 표시된 애플리케이션에 대응하는 사용자 인터페이스를 표시하는 것을 중단하는 것을 포함한다. 일부 실시예들에서, 포커스 셀렉터의 표현이 제1 사용자 인터페이스 내에 표시되고 제1 동작을 수행할 때에는 무시된다. 일부 실시예들에서, 포커스 셀렉터의 표현은 제1 사용자 인터페이스 내에 표시되지 않는다.In some embodiments, the second action is dependent on the position of the focus selector within the first user interface (e.g., the second action is to activate the hyperlink in the web page, Operation corresponding to activation of a specific user interface object in the first user interface, such as activation of the application), the first operation is independent of the position of the focus selector within the first user interface (928). For example, the first action may include displaying a home screen or an application launch screen, displaying a predefined application, and / or ceasing displaying the user interface corresponding to the currently displayed application. In some embodiments, the representation of the focus selector is displayed in the first user interface and is ignored when performing the first operation. In some embodiments, the representation of the focus selector is not displayed in the first user interface.
일부 실시예들에서, 버튼의 활성화를 검출하기 전에(930), 디바이스는 디스플레이 상에 포커스 셀렉터의 표현을 표시한다(932). 디바이스는 버튼 상의 지문 센서를 가로지르는 지문의 이동을 검출한다(934). 일부 실시예들에서, 지문 센서를 가로지르는 지문의 이동에 걸쳐, 지문이 지문 센서 상에서 계속 검출된다. 일부 실시예들에서, 지문 센서 상에서의 지문의 이동을 검출하는 것에 응답하여, 지문의 이동에 따라 디스플레이 상의 포커스 셀렉터의 표현을 이동시킨다(예를 들어, 디바이스는 버튼의 활성화 없이 지문으로 수행되는 스와이프 또는 원형 제스처에 따라 선택가능한 사용자 인터페이스 객체들을 통해 포커스 셀렉터를 스크롤함)(942). 한편, 일부 실시예들에서, 지문의 이동을 검출하는 것에 응답하여 지문의 이동에 따라 디바이스는 제3 동작(예를 들어, 옵션 전환 동작)을 수행한다(936). 일부 실시예들에서, 제3 동작은 복수의 옵션들로부터 각자의 옵션을 현재 선택된 옵션으로서 선택하는 것을 포함하고(예를 들어, 드롭 다운 메뉴(drop down menu)로부터의 옵션 선택 또는 한 세트의 아이템들로부터의 아이템 선택), 제2 동작은 현재 선택된 옵션과 연관된 행동을 수행하는 것을 포함한다(938). 일부 실시예들에서, 제1 동작은 현재 선택된 옵션(예를 들어, 현재 선택된 옵션을 콘텐트 필드에 대한 선택으로서 활용하는 것, 또는 아이템을 사용/활성화하는 것)에 대해 독립적이다(940). 일례로서, 옵션 전환은 게임에서 아이템들과 무기들 사이에서 전환하며, 제2 동작은 게임에서 아이템을 이용하거나 무기를 발사하는 것을 포함한다. 이러한 예에서, 제1 동작은 선택적으로 게임에서 빠져나가서 디바이스의 홈 스크린 또는 애플리케이션 기동 스크린으로 복귀하는 것이다.In some embodiments, before detecting the activation of the button (930), the device displays a representation of the focus selector on the display (932). The device detects movement of the fingerprint across the fingerprint sensor on the button (934). In some embodiments, over the movement of the fingerprint across the fingerprint sensor, the fingerprint is continuously detected on the fingerprint sensor. In some embodiments, in response to detecting movement of the fingerprint on the fingerprint sensor, movement of the representation of the focus selector on the display as the fingerprint moves (e.g., Scrolling the focus selector through selectable user interface objects according to a wipe or circular gesture). On the other hand, in some embodiments, in response to detecting movement of the fingerprint, the device performs (936) a third action (e.g., an option switching action) as the fingerprint moves. In some embodiments, the third action may include selecting a respective option from a plurality of options as the currently selected option (e.g., selecting an option from a drop down menu or a set of items , The second action includes performing an action associated with the currently selected option (938). In some embodiments, the first action is independent of the currently selected option (e.g., utilizing the currently selected option as a selection for the content field, or using / activating the item) (940). As an example, an option switchover switches between items and weapons in a game, and a second action involves using an item in a game or launching a weapon. In this example, the first action is optionally exiting the game and returning to the home screen of the device or the application launch screen.
도 9a 내지 도 9c의 동작들이 기술된 구체적인 순서는 단지 예시적인 것이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 9a 내지 도 9c와 관련하여 전술된 방법(900)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(900)과 관련하여 전술된 지문들, 제스처들, 사용자 인터페이스 객체들, 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 사용자 인터페이스 객체들, 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 9A-9C are described is exemplary only and that the sequences described are not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 10은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1000)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 10에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 10 illustrates a functional block diagram of an
도 10에 도시된 바와 같이, 전자 디바이스(1000)는 지문 센서 유닛(1002)과 통합된 버튼 유닛(1001); 및 버튼 유닛(1001)에 연결된 프로세싱 유닛(1008)을 포함한다. 전자 디바이스(1000)는 선택적으로 하나 이상의 사용자 인터페이스들의 표시를 가능하게 하도록 구성된 디스플레이 유닛(1006); 및 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(1004)을 포함한다. 일부 실시예들에서, 디스플레이 유닛(1006) 및 터치-감응 표면 유닛(1004)은 버튼 유닛(1001) 및/또는 프로세싱 유닛(1008)에 결합된다. 일부 실시예들에서, 프로세싱 유닛(1008)은 검출 유닛(1010), 제1 동작 수행 유닛(1012), 제2 동작 수행 유닛(1014) 및 디스플레이 인에이블링 유닛(1016)을 포함한다.10, the
프로세싱 유닛(1008)은 (예를 들어, 검출 유닛(1010)을 이용하여) 통합형 지문 센서 유닛(1002) 상의 지문을 검출하도록 구성된다. 통합형 지문 센서 유닛(1002) 상에서 계속 지문을 검출하는 동안, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하도록 추가로 구성된다. 버튼 유닛(1001)의 활성화를 검출하는 것에 응답하여: 버튼 유닛(1001)의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문이 계속 검출되지 않았다는 결정에 따라, 프로세싱 유닛(1008)은 (예를 들어, 제1 동작 수행 유닛(1012)을 이용하여) 버튼 유닛(1001)의 활성화와 연관된 미리 정해진 동작인 제1 동작을 수행하도록 구성된다. 버튼 유닛(1001)의 활성화를 검출하는 것에 응답하여: 버튼 유닛(1001)의 활성화를 검출하기 전에 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문이 계속 검출되었다는 결정에 따라, 프로세싱 유닛(1008)은 (예를 들어, 제2 동작 수행 유닛(1014)을 이용하여) 제1 동작과 상이한 제2 동작을 수행하도록 구성되며, 여기서 제2 동작은 버튼 유닛(1001)의 활성화를 검출하기 직전에 디스플레이 유닛(1006) 상에 표시된 사용자 인터페이스와 연관된 동작이다.The processing unit 1008 is configured to detect a fingerprint on the integrated fingerprint sensor unit 1002 (e.g., using the detection unit 1010). While still detecting the fingerprint on the integrated
일부 실시예들에서, 디스플레이 유닛(1006)은 통합형 지문 센서 유닛(1002) 상에서 지문을 검출하기 전에 (예를 들어, 디스플레이 인에이블링 유닛(1016)을 이용하여) 제1 사용자 인터페이스의 표시를 가능하게 하도록 구성된다.In some embodiments, the
일부 실시예들에서, 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고; 제1 동작은 제1 사용자 인터페이스의 표시를 가능하게 하는 것을 중단하고 디스플레이 유닛(1006) 상에 애플리케이션 기동 인터페이스의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first user interface is a user interface of the first application; The first action includes stopping enabling the display of the first user interface and enabling display of the application launch interface on the
일부 실시예들에서, 제1 애플리케이션의 사용자 인터페이스는 제1 애플리케이션과 연관된 각자의 동작들에 대응하는 복수의 어포던스들을 포함하고, 제2 동작은 복수의 어포던스들 중 현재 선택된 어포던스에 대응하는 제1 애플리케이션과 연관된 동작을 수행하는 것을 포함한다.In some embodiments, the user interface of the first application includes a plurality of poses corresponding to respective operations associated with the first application, and the second operation includes a first application corresponding to the currently selected posibility of the plurality of poses, Lt; RTI ID = 0.0 > and / or < / RTI >
일부 실시예들에서, 제1 사용자 인터페이스는 애플리케이션 기동 인터페이스이고, 제1 동작은 애플리케이션 기동 인터페이스의 표시를 가능하게 하는 것을 중단하고 버튼 유닛(1001)의 활성화와 연관된 미리 정해진 애플리케이션의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first user interface is an application launch interface, wherein the first operation is to stop enabling the display of the application launch interface and enable display of a predetermined application associated with activation of the
일부 실시예들에서, 애플리케이션 기동 인터페이스는 복수의 애플리케이션들 중 각자의 애플리케이션들에 대응하는 복수의 애플리케이션 기동 어포던스들을 포함하고, 제2 동작은 복수의 애플리케이션 기동 어포던스들 중 현재 선택된 애플리케이션 기동 어포던스에 대응하는 각자의 애플리케이션을 시동시키는 것을 포함한다.In some embodiments, the application launch interface includes a plurality of application launch aids corresponding to respective ones of the plurality of applications, and the second operation includes a plurality of application launch aids corresponding to the currently selected application launch aids And launching their respective applications.
일부 실시예들에서, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하기 전에: 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문을 검출하고; 사전 결정된 기간 초과 동안 통합형 지문 센서 유닛(1002) 상에서 지문을 검출하는 것에 응답하여 디스플레이 유닛(1006) 상에 포커스 셀렉터의 표현을 표시하는 것을 가능하게 하도록 추가로 구성된다.In some embodiments, the processing unit 1008 detects fingerprints on the integrated
일부 실시예들에서, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하기 전에: 디스플레이 유닛(1006) 상에서 포커스 셀렉터의 표현을 표시하고; 지문 센서 유닛(1008) 상에서 지문의 이동을 검출하고, 지문 센서 유닛(1002) 상에서의 지문의 이동을 검출하는 것에 응답하여, 지문의 이동에 따라 디스플레이 유닛(1006) 상에서 포커스 셀렉터의 표현을 이동시키도록 추가로 구성된다.In some embodiments, the processing unit 1008 displays a representation of the focus selector on the
일부 실시예들에서, 제2 동작은 제1 사용자 인터페이스 내의 포커스 셀렉터의 위치에 종속적이고, 제1 동작은 제1 사용자 인터페이스 내에서의 포커스 셀렉터의 위치에 독립적이다.In some embodiments, the second operation is dependent on the position of the focus selector in the first user interface, and the first operation is independent of the position of the focus selector within the first user interface.
일부 실시예들에서, 프로세싱 유닛(1008)은 버튼 유닛(1001)의 활성화를 검출하기 전에: 버튼 유닛(1001) 상의 지문 센서 유닛(1002)을 가로지르는 지문의 이동을 검출하고, 지문의 이동을 검출하는 것에 응답하여 지문의 이동에 따라 제3 동작을 수행하도록 추가로 구성된다.In some embodiments, the processing unit 1008 may detect movement of the fingerprint across the
일부 실시예들에서, 제3 동작은 복수의 옵션들로부터, 현재 선택된 옵션으로서, 각자의 옵션을 선택하는 것을 포함하고, 제2 동작은 현재 선택된 옵션과 연관된 작용을 수행하는 것을 포함한다.In some embodiments, the third action includes selecting an option from the plurality of options as the currently selected option, and the second action includes performing an action associated with the currently selected option.
일부 실시예들에서, 제1 동작은 현재 선택된 옵션에 독립적이다.In some embodiments, the first operation is independent of the currently selected option.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 9a 내지 도 9c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 10에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(901), 디스플레이 동작(906) 및 수행 동작(916)은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 9A-9C are optionally implemented by the components shown in Figs. 1A and 1B or 10. For example, the
사용자 인터페이스의 배향의 잠금Locking the orientation of the user interface
다수의 전자 디바이스들은 세로 배향 및 가로 배향과 같은 상이한 배향들을 갖는다. 이러한 디바이스들이 사용자 인터페이스들 및 콘텐트를 표시할 때, 사용자 인터페이스들 및 콘텐트는 전형적으로 디바이스 배향과 동일한 배향으로 표시된다. 때때로, 사용자는 사용자 인터페이스들 및 콘텐트가 디바이스 배향과는 상이한 배향으로 표시되기를 원할 수 있다. 사용자는 사용자 인터페이스들 및 콘텐트의 배향을 잠그기 위한 옵션을 활성화함으로써 디바이스가 사용자 인터페이스들 및 콘텐트를 특정 배향으로 표시하게 할 수 있다. 일부 방법들에서, 배향 잠금 옵션을 활성화하는 것은 메뉴들과 하위-메뉴들을 여는 것 및/또는 복수의 제스처들과 버튼 누르기를 필요로 한다. 아래에서 기술되는 실시예들은 사용자가 더 간단한 입력으로 배향을 잠금하게 함으로써 이러한 방법들을 개선한다. 지문 센서를 갖는 디바이스 상에서, 사용자는 사용자 인터페이스 또는 콘텐트가 원하는 배향으로 표시되어 있는 동안 지문 센서 상에서 지문을 한 방향으로 회전함으로써 사용자 인터페이스들 및 콘텐트 배향을 잠글 수 있으며, 지문 센서 상에서 지문을 반대 방향으로 회전함으로써 배향의 잠금을 해제할 수 있다. 이것은 배향 잠금 프로세스를 사용자들에 대해 보다 효율적이고 간단하게 만든다.Many electronic devices have different orientations such as vertical and horizontal orientation. When such devices display user interfaces and content, user interfaces and content are typically displayed in the same orientation as the device orientation. Occasionally, a user may wish to display user interfaces and content in an orientation different from the device orientation. The user can enable the device to display user interfaces and content in a specific orientation by activating options for locking user interfaces and orientation of the content. In some methods, activating the orientation lock option requires opening menus and sub-menus and / or multiple gestures and button presses. The embodiments described below improve these methods by allowing the user to lock the orientation with a simpler input. On a device with a fingerprint sensor, the user can lock the user interfaces and content orientation by rotating the fingerprint in one direction on the fingerprint sensor while the user interface or content is displayed in the desired orientation, The orientation can be unlocked by rotating. This makes the orientation locking process more efficient and simpler for users.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 11a 내지 도 11f 및 도 12a 및 도 12b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 11a 내지 도 11f 및 도 12a 및 도 12b와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 11a 내지 도 11f에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 11a 내지 도 11f에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 11a는 디바이스(예를 들어, 디바이스(100))의 터치 스크린(112) 상에 표시된 사용자 인터페이스(1102)를 도시한다. 사용자 인터페이스(1102)는 예를 들어 디바이스(100) 상에서 실행되는 애플리케이션 또는 운영 체제의 사용자 인터페이스이다. 예를 들어, 도 11a에 도시된 바와 같은 사용자 인터페이스(1102)는 노트 애플리케이션을 위한 사용자 인터페이스이다. 도 11a에서, 디바이스(100)는 터치 스크린(112)의 수직 높이(즉, 화살표(1100)에 의해 표시된 차원)가 수평 폭(즉, 화살표(1101)에 의해 표시된 차원)보다 더 길도록 배향되었고; 터치 스크린(112)은 세로 배향으로 있다(예를 들어, 터치 스크린(112)의 장축이 화살표(1100)에 의해 표시된 상/하 축에 평행함). 도 11a에서, 사용자 인터페이스(1102)는 터치 스크린(112)의 세로 배향에 따라 세로 모드로 표시되어 있다. 예를 들어, 세로 모드에서, 우측이 위로 온 사용자 인터페이스(1102)는 차원(1101)에서보다 차원(1100)에서 더 길다.11A shows a
도 11b에서, 디바이스(100)는 터치 스크린(112)의 수직 높이(즉, 차원(1100))가 수평 폭(즉, 차원(1101))보다 더 짧도록 배향되었고; 터치 스크린(112)은 가로 배향으로 있다(예를 들어, 터치 스크린(112)의 장축이 화살표(1101)에 의해 표시된 좌/우 축에 평행함). 도 11b에서, 사용자 인터페이스(1102)는 터치 스크린(112)의 가로 배향에 따라 가로 모드로 표시되어 있다. 예를 들어, 가로 모드에서, 우측이 위로 온 사용자 인터페이스(1102)는 차원(1100)보다 차원(1101)에서 더 길다.In FIG. 11B, the
도 11a 내지 도 11f에서, 디바이스(100)의 더 긴 차원과 터치 스크린(112)의 더 긴 차원이 평행하다는 것을 이해하여야 한다. 따라서, 디바이스(100)가 세로 배향으로 있을 때, 터치 스크린(112)이 세로 배향(즉, 수평 폭보다 더 긴 수직 높이)으로 있다. 유사하게, 디바이스(100)가 가로 배향으로 있을 때, 터치 스크린(112)이 가로 배향으로 있다. 일부 실시예들에서, 디바이스(100)의 더 긴 차원이 터치 스크린(112)의 더 긴 차원에 대해 수직이며; 디바이스(100)가 가로 배향으로 있을 때, 터치 스크린(112)이 세로 배향으로 있거나, 그 반대이다.In Figures 11A-11F, it should be appreciated that the longer dimension of the
도 11a 및 도 11b에 도시된 바와 같이, 사용자 인터페이스(1102)는 터치 스크린(112)의 배향에 따라 세로 또는 가로 모드로 표시된다. (예를 들어, 사용자가 터치 스크린(112)의 표면에 대해 수직인 축을 중심으로 디바이스(100)를 회전시킴으로써) 터치 스크린(112)이 배향을 변경하고 사용자 인터페이스(1102)가 특정 배향-특정 모드로 잠금되어 있지 않을 때, 사용자 인터페이스(102)는 (예를 들어, 디바이스에 통합된 가속도계로부터 감지된 중력의 방향에 기초하여) 새로운 배향에 따른 모드로 표시된다. 예를 들어, 디바이스(100)가 도 11a에서와 같은 세로 배향으로부터 도 11b에서와 같은 가로 배향으로 회전된 때, 디바이스(100)는 표시되는 사용자 인터페이스(1102)를 도 11a에서와 같은 세로 모드로부터 도 11b에서와 같은 가로 모드로 변경한다. 유사하게, 디바이스(100)가 도 11b에서와 같은 가로 배향으로부터 도 11a에서와 같은 세로 배향으로 회전될 때, 디바이스(100)는 표시되는 사용자 인터페이스(1102)를 도 11b에서와 같은 가로 모드로부터 도 11a에서와 같은 세로 모드로 변경한다.As shown in FIGS. 11A and 11B, the
도 11c는 지문 센서(169) 상에서 지문(1104)을 검출하는 디바이스(100)를 도시한다. 지문(1104)은 예를 들어 손가락으로 지문 센서(169) 상에 접촉하는 사용자에 의해 지문 센서(169) 상에 위치된다. 도 11c 및 도 11d는 디바이스(100)가 지문 센서(169) 둘레에서의 지문(1104)의 시계 방향 회전을 검출하는 것을 도시한다. 사용자 인터페이스(1102)가 세로 모드로 표시되는 동안에 지문(1104)의 회전이 검출된다. 일부 실시예들에서, 지문(1104)의 회전은 지문 센서(169) 상에서의 지문(1104)의 비틀기이다. 일부 다른 실시예들에서, 지문(1104)의 회전은 지문 센서(169) 둘레에서의 지문(1104)의 선회(revolution)이다.Fig. 11C shows a
사용자 인터페이스(1102)가 세로 모드로 표시된 동안에 지문 센서 둘레에서 시계 방향으로의 지문(1104)의 회전을 검출하는 것에 응답하여, 디바이스(100)는 사용자 인터페이스(1102)를 세로 모드로 잠금시킨다. 일부 실시예들에서, 사용자 인터페이스(1102)가 세로 모드로 잠겼다는 시각적 표지(예를 들어, 도 11d의 아이콘(1106))가 표시된다. 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안, 터치 스크린(112)이 세로 배향이든 가로 배향이든 간에 사용자 인터페이스(1102)는 세로 모드로 표시된다. 세로 모드로 잠금된 사용자 인터페이스(1102)가 표시되고 디바이스(100)가 가로 배향으로 회전될 때, 사용자 인터페이스(1102)는 세로 모드로 유지되고; 사용자 인터페이스(1102)는 90도 회전된 것처럼 표시된다. 예를 들어, 도 11e는 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 가로 배향된 디바이스(100)를 도시하며; 사용자 인터페이스(1102)는 디바이스(100)의 가로 배향에도 불구하고 세로 모드로 표시된다.In response to detecting rotation of the
사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에, 도 11e 및 도 11f에 도시된 바와 같이, 디바이스(100)는 지문(1108) 및 지문 센서(169) 둘레에서 반시계 방향으로의 지문(1108)의 회전을 검출한다. 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 지문 센서(169) 둘레에서 반시계 방향으로의 지문(1108)의 회전을 검출하는 것에 응답하여, 사용자 인터페이스(1102)는 세로 모드로부터 잠금해제된다. 사용자 인터페이스(1102)가 잠금된 동안 사용자 인터페이스(1102)가 세로 모드로 잠금되었다는 시각적 표지(예를 들어, 도 11d의 아이콘(1106))가 표시되었다면, 시각적 표지의 표시가 중단된다. 예를 들어, 도 11f는 디바이스(100)가 지문 센서(169) 둘레에서 반시계 방향으로의 지문(1108)의 회전을 검출하는 것에 응답하여 아이콘(1106)의 표시가 중단된 것을 도시한다. 사용자 인터페이스(1102)가 세로 모드로부터 잠금해제된 후에, 사용자 인터페이스(1102)의 표시 모드는 다시 도 11a 및 도 11b에 도시된 바와 같이 디바이스(100)의 배향을 따른다(예를 들어, 가속도계 또는 다른 센서를 사용하여 디바이스에 의해 검출되는 중력의 방향에 따름). 예를 들어, 도 11f에서 사용자 인터페이스(1102)가 세로 모드로부터 잠금해제된 후에, 사용자 인터페이스(1102)는 디바이스(100)의 가로 배향에 따라 도 11b에서와 같이 가로 모드로 되돌아간다.While the
일부 실시예들에서, 전술된 동작들과 유사한 동작들이 사용자 인터페이스(1102)를 가로 모드로 잠금하기 위해서 수행된다. 예를 들어, 사용자 인터페이스(1102)가 (예를 들어, 가로로 배향되어 있는 디바이스(100)를 따라) 가로 모드로 표시되어 있는 동안에 지문(1104)의 회전(도 11c 및 도 11d)과 유사한 지문 회전이 사용자 인터페이스(1102)를 가로 모드로 잠금한다. 사용자 인터페이스(1102)가 가로 모드로 잠금된 동안에 지문(1108)의 회전(도 11e 및 도 11f)과 유사한 지문 회전이 사용자 인터페이스(1102)를 가로 모드로부터 잠금해제한다.In some embodiments, operations similar to those described above are performed to lock the
일부 실시예들에서, 전술된 것과는 반대로, 사용자 인터페이스(1102)를 특정 배향 모드(즉, 세로 모드 또는 가로 모드)로 잠그는 지문 회전이 반시계 방향이고, 잠금해제를 위한 회전이 시계 방향일 수 있다.In some embodiments, as opposed to the foregoing, the fingerprint rotation that locks the
도 12a 및 도 12b는 일부 실시예들에 따른, 사용자 인터페이스의 배향을 잠금하는 방법(1200)을 예시하는 흐름도이다. 방법(1200)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(1200) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.12A and 12B are flow charts illustrating a
아래에 기술되는 바와 같이, 방법(1200)은 사용자 인터페이스의 배향을 잠금하기 위한 직관적인 방식을 제공한다. 이 방법은 사용자 인터페이스의 배향을 잠금할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 사용자 인터페이스의 배향을 더 빠르고 더 효율적으로 잠금할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
디바이스는 디바이스의 제1 배향과 연관된 제1 배향-특정 동작 모드(예를 들어, 세로 모드) 및 디바이스의 제1 배향과는 상이한 디바이스의 제2 배향과 연관된 제2 배향-특정 동작 모드(예를 들어, 가로 모드)를 갖는 사용자 인터페이스를 디스플레이 상에 표시한다(1202). 예를 들어, 도 11a 및 도 11b는 터치 스크린(112) 상에 표시된 사용자 인터페이스(1102)를 도시한다. 사용자 인터페이스(1102)는 디바이스(100)가 세로 배향일 때 세로 모드로 표시되고(도 11a), 디바이스(100)가 가로 배향일 때 가로 모드로 표시된다(도 11b).The device may be in a first orientation-specific mode of operation (e.g., vertical mode) associated with a first orientation of the device and a second orientation-specific mode of operation associated with a second orientation of the device that is different from the first orientation of the device For example, a landscape mode) on the display (1202). For example, FIGS. 11A and 11B illustrate a
일부 실시예들에서, 제1 배향-특정 동작 모드는 세로 배향 동작 모드이고, 제2 배향-특정 동작 모드는 가로 배향 동작 모드이다(1204). 도11a 및 도 11b에 도시된 바와 같이, 사용자 인터페이스(1102)는 세로 모드 또는 가로 모드로 표시된다.In some embodiments, the first orientation-specific mode of operation is a longitudinal orientation mode of operation and the second orientation-specific mode of operation is a horizontal orientation mode of
사용자 인터페이스의 배향이 잠금되지 않은 동안에(1206), 디바이스가 제1 배향인 경우 디바이스는 사용자 인터페이스를 제1 배향-특정 동작 모드로 표시하고(1208), 디바이스가 제2 배향인 경우 디바이스는 사용자 인터페이스를 제2 배향-특정 동작 모드로 표시한다(1210). 도 11a 및 도 11b는 특정 배향 모드로 잠금되지 않은 사용자 인터페이스(1102)를 도시한다. 사용자 인터페이스(1102)는 디바이스(100)가 세로 배향일 때 세로 모드로 표시되고(도 11a), 디바이스(100)가 가로 배향일 때 가로 모드로 표시된다(도 11b).While the orientation of the user interface is unlocked 1206, the device displays the user interface in a first orientation-specific mode of
디바이스는 지문 센서 상에서 지문을 검출한다(1212). 예를 들어, 도 11c는 지문 센서(169) 상에서 검출된 지문(1104)을 도시한다. 다른 예로서, 도 11e는 지문 센서(169) 상에서 검출된 지문(1108)을 도시한다. 일부 실시예들에서, 지문 센서는 디스플레이와는 별개이다(1214). 예를 들어, 지문 센서(169)는 터치 스크린(112)과는 별개이다.The device detects the fingerprint on the fingerprint sensor (1212). For example, FIG. 11C shows the
사용자 인터페이스가 제1 배향-특정 모드에 있는 동안에, 디바이스는 제1 방향(예를 들어, 시계 방향)으로의 지문 센서 상에서의 지문의 회전을 검출한다(예를 들어, 지문의 배향이 지문 센서의 배향에 대해 변화함)(1216). 예를 들어, 도 11d는 지문(1104)이 지문 센서(169) 상에서 시계 방향으로 회전하는 것(예를 들어, 비틀기)을 검출하는 디바이스(100)를 도시한다. 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여(1218), 디바이스는 사용자 인터페이스를 제1 배향-특정 동작 모드로 잠금되게 한다(1220). 도 11d에서, 예를 들어 사용자 인터페이스(1102)가 세로 모드로 표시되는 동안에 지문(1104)의 시계 방향 회전을 검출하는 것에 응답하여, 디바이스(100)는 (도 11e에 도시된 바와 같이) 사용자 인터페이스(1102)를 세로 모드로 잠금되게 한다.While the user interface is in the first orientation-specific mode, the device detects the rotation of the fingerprint on the fingerprint sensor in a first direction (e.g., clockwise) (e.g., Varying with respect to orientation) 1216. For example, FIG. 11D shows
일부 실시예들에서, 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여(1218), 디바이스는 사용자 인터페이스 배향이 제1 배향-특정 동작 모드로 잠금되었다는 시각적 표지를 표시한다(1222). 도 11d에서, 예를 들어 지문(1104)의 시계 방향 회전을 검출하는 것에 응답하여, 디바이스(100)는 사용자 인터페이스(1102)를 세로 모드로 잠금하는 것에 더하여 사용자 인터페이스(1102)가 세로 모드로 잠금되었다는 것을 나타내도록 아이콘(1106)을 표시한다.In some embodiments, in response to detecting rotation of the fingerprint on the fingerprint sensor in the first direction (1218), the device displays a visual indicator that the user interface orientation is locked to the first orientation-specific mode of operation 1222). 11D, in response to detecting, for example, the clockwise rotation of the
사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에(1224), 디바이스는 디바이스가 제2 배향에 있고 사용자 인터페이스를 제1 배향-특정 동작 모드로 유지(1226)한다는 것을 검출한다. 예를 들어, 도 11d는 세로 배향된 디바이스(100) 및 세로 모드로 잠금된 사용자 인터페이스(1102)를 도시한다. 디바이스(100)가 (예를 들어, 사용자에 의해) 가로 배향으로 회전되었을 때, 디바이스(100)는 도 11e에 도시된 바와 같이 디바이스가 이제 가로 배향되었으며, 세로 모드로 잠금된 사용자 인터페이스(1102)는 세로 모드로 유지됨을 검출한다.While the user interface is locked in the first orientation-specific mode of operation (1224), the device detects that the device is in the second orientation and maintains the user interface in the first orientation-specific mode of operation (1226). For example, FIG. 11D shows vertically oriented
일부 실시예들에서, 사용자 인터페이스가 제2 배향-특정 동작 모드에 있는 동안에, 디바이스가 제1 방향(예를 들어, 시계 방향)으로의 지문 센서 상에서의 지문의 회전을 검출하고(예를 들어, 지문 센서의 배향에 대해 지문의 배향이 변경됨); 제1 방향으로의 지문 센서 상에서의 지문의 회전을 검출하는 것에 응답하여, 디바이스가 사용자 인터페이스를 제2 배향-특정 동작 모드로 잠금되게 하고; 사용자 인터페이스가 제2 배향-특정 동작 모드로 잠금된 동안에, 디바이스는 디바이스가 제1 배향에 있고 사용자 인터페이스가 제2 배향-특정 동작 모드로 유지됨을 검출한다. 따라서, 유사하게 사용자 인터페이스(1102)는 선택적으로 가로 모드로 잠금되며, 디바이스(100)가 세로 배향될 때에도 가로 모드로 표시된다.In some embodiments, while the user interface is in the second orientation-specific mode of operation, the device detects rotation of the fingerprint on the fingerprint sensor in a first direction (e.g., clockwise) (e.g., The orientation of the fingerprint is changed with respect to the orientation of the fingerprint sensor); Responsive to detecting rotation of the fingerprint on the fingerprint sensor in the first direction, causing the device to lock the user interface in a second orientation-specific mode of operation; While the user interface is locked in the second orientation-specific mode of operation, the device detects that the device is in the first orientation and the user interface remains in the second orientation-specific mode of operation. Similarly, the
일부 실시예들에서, 사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에(1224), 디바이스는 제1 방향과는 상이한 제2 방향(예를 들어, 반시계 방향)으로의 지문 센서 상에서의 지문의 회전을 검출한다(1228). 제2 방향으로의 지문의 회전을 검출하는 것에 응답하여, 디바이스는 사용자 인터페이스를 제1 배향-특정 동작 모드로부터 잠금해제한다(1230). 예를 들어, 도 11f는 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 디바이스(100)가 지문(1108)의 반시계 방향 회전(예를 들어, 비틀기)을 검출하는 것을 나타낸다. 사용자 인터페이스(1102)가 세로 모드로 잠금된 동안에 지문(1108)의 반시계 방향 회전을 검출하는 것에 응답하여, 사용자 인터페이스(1102)가 세로 모드로부터 잠금해제된다.In some embodiments, while the user interface is locked (1224) in the first orientation-specific mode of operation, the device may be moved to a second orientation-specific mode of operation on the fingerprint sensor in a second direction (e.g., counterclockwise) The rotation of the fingerprint is detected (1228). In response to detecting the rotation of the fingerprint in the second direction, the device unlocks the user interface from the first orientation-specific mode of operation (1230). For example, FIG. 11F shows that
도 12a 및 도 12b의 동작들이 기술된 특정한 순서는 단지 예시적인 것이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 12a 및 도 12b와 관련하여 전술된 방법(1200)에 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(1200)과 관련하여 전술된 지문들 및 사용자 인터페이스들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들 및 사용자 인터페이스들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figures 12A and 12B are described is exemplary only and that the sequences described are not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that the details of the other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that it is also applicable in a similar manner to the
일부 실시예들에 따르면, 도 13은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1300)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 13에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 13 illustrates a functional block diagram of an
도 13에 도시된 바와 같이, 전자 디바이스(1300)는 디바이스(1300)의 제1 배향과 연관된 제1 배향-특정 동작 모드 및 디바이스(1300)의 제1 배향과는 상이한 디바이스(1300)의 제2 배향과 연관된 제2 배향-특정 동작 모드를 갖는 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(1302)을 포함하고, 선택적으로 터치-감응 표면 유닛(1304), 지문 센서 유닛(1306); 및 디스플레이 유닛(1302), 터치-감응 표면 유닛(1304) 및 지문 센서 유닛(1306)에 결합된 프로세싱 유닛(1308)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1308)은 디스플레이 인에이블링 유닛(1310), 검출 유닛(1312), 잠금 유닛(1314), 유지 유닛(1316) 및 잠금해제 유닛(1318)을 포함한다.13, the
프로세싱 유닛(1308)은, 사용자 인터페이스의 배향이 잠금되지 않은 동안에: 디바이스(1300)가 제1 배향으로 있는 경우에 (예를 들어, 디스플레이 인에이블링 유닛(1310)을 이용하여) 사용자 인터페이스의 제1 배향-특정 동작 모드로의 표시를 가능하게 하고, 디바이스(1300)가 제2 배향으로 있는 경우에 (예를 들어, 디스플레이 인에이블링 유닛(1310)을 이용하여) 사용자 인터페이스의 제2 배향-특정 동작 모드로의 표시를 가능하게 하고; (예를 들어, 검출 유닛(1312)을 이용하여) 지문 센서 유닛(1306) 상의 지문을 검출하고; 사용자 인터페이스가 제1 배향-특정 동작 모드에 있는 동안에, (예를 들어, 검출 유닛(1312)을 이용하여) 지문 센서 유닛(1306) 상에서의 제1 방향으로의 지문의 회전을 검출하고; 제1 방향으로의 지문 센서 유닛(1306) 상에서의 지문의 회전을 검출하는 것에 응답하여, (예를 들어, 잠금 유닛(1314)을 이용하여) 사용자 인터페이스를 제1 배향-특정 동작 모드로 잠금하고; 사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에, (예를 들어, 검출 유닛(1312)을 이용하여) 디바이스(1300)가 제2 배향으로 있음을 검출하고 (예를 들어, 유지 유닛(1316)을 이용하여) 사용자 인터페이스를 제1 배향-특정 동작 모드로 유지하도록 구성된다.The processing unit 1308 may be configured to determine whether the orientation of the user interface is unlocked: when the
일부 실시예들에서, 프로세싱 유닛(1308)은 사용자 인터페이스가 제1 배향-특정 동작 모드로 잠금된 동안에, (예를 들어, 검출 유닛(1312)을 이용하여) 제1 방향과는 상이한 제2 방향으로의 지문 센서 유닛(1306) 상에서의 지문의 회전을 검출하고; 제2 방향으로의 지문의 회전을 검출하는 것에 응답하여, (예를 들어, 잠금해제 유닛(1318)을 이용하여) 사용자 인터페이스를 제1 배향-특정 동작 모드로부터 잠금해제하도록 구성된다.In some embodiments, the processing unit 1308 may be configured to determine whether the user interface is locked in the first orientation-specific mode of operation or in a second direction (e.g., using the detection unit 1312) To detect the rotation of the fingerprint on the
일부 실시예들에서, 프로세싱 유닛(1308)은 제1 방향으로의 지문 센서 유닛(1306) 상에서의 지문의 회전을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(1310)을 이용하여) 사용자 인터페이스 배향이 제1 배향-특정 동작 모드로 잠금되었다는 시각적 표지의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 1308 may be configured to detect fingerprint rotation on the
일부 실시예들에서, 제1 배향-특정 동작 모드는 세로 배향 동작 모드이며, 제2 배향-특정 동작 모드는 가로 배향 동작 모드이다.In some embodiments, the first orientation-specific mode of operation is a longitudinal orientation mode of operation and the second orientation-specific mode of operation is a transverse orientation mode of operation.
일부 실시예들에서, 지문 센서 유닛(1306)은 디스플레이 유닛(1302)과는 별개이다.In some embodiments, the
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 12a 및 도 12b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 13에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(1212, 1216)들, 잠금 동작(1220), 및 검출 및 유지 동작(1226)들은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 12A and 12B are optionally implemented by the components shown in Figs. 1A and 1B or 13. For example,
지문 센서를 이용한 녹음된 오디오에서의 잡음 감소의 제어Controlling Noise Reduction in Recorded Audio with a Fingerprint Sensor
다수의 전자 디바이스들은 사용자들이 오디오 녹음을 포함한, 미디어의 기록을 할 수 있게 한다. 녹음하는 동안에, 사용자는 전형적으로 녹음된 오디오에서 의도된 소스가 아닌 소스들로부터 비롯된 잡음을 감소시키거나/삭제하기를 원한다. 예를 들어, 사용자는 녹음된 오디오에서 자신의 숨소리를 감소시키기를 원할 수 있다. 그러나, 사용자는 잡음 감소를 마음대로 정지 또는 토글하기를 원할 수 있다. 예를 들어, 사용자는 기록된 미디어의 소정의 부분들 중에 해설을 제공하는 반면, 다른 부분들 동안의 의도하지 않은 사용자 소리를 삭제하길 원할 수 있다. 기존의 디바이스들은 이러한 기능성을 사용자에게 제공하지 않거나 또는 사용자가 다양한 메뉴들 및 사용자 인터페이스들을 통해 내비게이션할 것을 요구한다. 아래에 기술된 실시예들에서, 사용자가 잡음 감소 온 및 오프를 토글하게 하는 지문 센서를 사용함으로써 녹음된 오디오 내의 잡음 감소를 제어하는 개선된 방법이 획득된다. 이 방법은 전자 디바이스 상의 지문 센서에 응답하여 녹음된 오디오 내의 잡음 감소를 제어함으로써 녹음된 오디오 내의 잡음 감소를 제어하는 프로세스를 간소화한다.Many electronic devices allow users to record media, including audio recordings. During recording, the user typically wants to reduce / delete noise originating from sources other than the intended source in the recorded audio. For example, a user may want to reduce his or her breathing in recorded audio. However, the user may want to stop or toggle the noise reduction at will. For example, a user may provide commentary among certain portions of recorded media, while desiring to delete unintended user sounds during other portions. Existing devices do not provide this functionality to the user or require the user to navigate through the various menus and user interfaces. In the embodiments described below, an improved method of controlling noise reduction in recorded audio is achieved by using a fingerprint sensor that allows the user to toggle noise reduction on and off. This method simplifies the process of controlling noise reduction in recorded audio by controlling noise reduction in recorded audio in response to a fingerprint sensor on an electronic device.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 14a 내지 도 14d 및 도 15와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 14a 내지 도 14d 및 도 15와 관련하여 기술되는 실시예들은 디스플레이(450), 터치-감응 표면(451) 및 통합형 지문 센서(359-1)와 관련하여 논의될 것이지만, 도 14a 내지 도 14d에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에 별개의 지문 센서(359-2) 상에서 도 14a 내지 도 14d에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서 수행된다. 또한, 터치 스크린(112) 상에 도 14a 내지 도 14d에 도시된 사용자 인터페이스들을 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 14a 내지 도 14d에 묘사된 접촉들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 터치 스크린(112)을 갖는 디바이스 상에서 수행되며; 이러한 실시예들에서, 포커스 셀렉터는 선택적으로, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 14a 내지 도 14c는 지문 센서를 이용하여 녹음된 오디오 내의 잡음 감소를 제어하는 예를 도시한다. 도 14a는 잡음 감소 상태(1408) 및 비디오 미리보기(1410)를 갖는 미디어 기록 인터페이스(1406)를 포함하고, 디바이스(예를 들어, 휴대용 다기능 디바이스(100))의 디스플레이(450) 상에 표시된 사용자 인터페이스(1402)를 도시한다. 도 14a는 통합형 지문 센서(359-1)를 갖는 터치-감응 표면(451)을 추가로 도시한다. 도 14a는 또한 통합형 지문 센서(359-1)로부터 떨어져 있는 터치-감응 표면(451) 상의 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출하는 디바이스 및 녹음된 오디오 내에서의 잡음 감소가 온(예를 들어, 활성화)되어 있음을 나타내는 잡음 감소 상태(1408)를 도시한다. 도 14b는 통합형 지문 센서(359-1) 위에서 터치-감응 표면(451) 상의 지문(1404)을 검출하는 디바이스 및 녹음된 오디오 내에서의 잡음 감소가 오프(예를 들어, 비활성화)되어 있음을 나타내는 잡음 감소 상태(1408)를 도시한다. 도 14c는 지문(1404)이 더 이상 통합형 지문 센서(359-1) 상에 존재하지 않음을 검출하는 디바이스 및 녹음된 오디오 내에서의 잡음 감소가 온되어 있음을 나타내는 잡음 감소 상태(1408)를 도시한다.14A to 14C illustrate an example of controlling noise reduction in recorded audio using a fingerprint sensor. 14A includes a
도 14d는 녹음된 오디오 내의 잡음 감소를 제어하는 데 사용하기 위한 디스플레이, 지문 센서 및 카메라 센서를 갖는 디바이스의 예를 도시한다. 도 14d는 제1 면(1414) 상의 지문 센서(1418) 및 디스플레이(1422)와 제2 면(1416) 상의 카메라 센서(1420)를 갖는 디바이스(1412)를 도시한다.14D shows an example of a device having a display, a fingerprint sensor and a camera sensor for use in controlling noise reduction in recorded audio. Figure 14d shows a device 1412 having a
도 15는 일부 실시예들에 따른, 지문 센서를 이용하여, 녹음된 오디오에서의 잡음 감소를 제어하는 방법(1500)을 예시하는 흐름도이다. 방법(1500)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(1500) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.15 is a flow chart illustrating a
아래에 기술되는 바와 같이, 방법(1500)은 지문 센서를 이용하여 녹음된 오디오 내의 잡음 감소를 제어하기 위한 직관적인 방식을 제공한다. 이 방법은 녹음된 오디오 내의 잡음 감소를 제어할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 녹음된 오디오에서의 잡음 감소를 더 빠르고 더 효율적으로 제어할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
디바이스는 미디어를 기록하는데(1502), 여기서 미디어의 기록은 오디오 녹음을 포함한다. 예를 들어, 도 14a는 미디어 기록 인터페이스(1406)에 의해 나타내어진 것과 같이 미디어를 기록하는 디바이스를 도시한다.The device records the media (1502), where the recording of the media includes audio recording. For example, FIG. 14A shows a device for recording media as indicated by
미디어를 기록하는 동안에(1504), 디바이스는, 녹음된 오디오에서, 디바이스의 제1 면 상에서 발생한 잡음을 감소시킨다(1506). 예를 들어, 도 14a에서 잡음 감소 상태(1408)는 디바이스가 녹음된 오디오 내의 잡음을 감소시키고 있음을 나타낸다.During recording media (1504), the device, in the recorded audio, reduces noise generated on the first side of the device (1506). For example, the
계속해서 미디어를 기록하는 동안에(1504), 디바이스는 지문 센서 상에서 지문을 검출한다(1508). 예를 들어, 도 14b는 통합형 지문 센서(359-1) 상의 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출하는 디바이스를 도시한다.Subsequently, while recording the media (1504), the device detects the fingerprint on the fingerprint sensor (1508). For example, FIG. 14B shows a device that detects a fingerprint 1404 (e.g., a touch of the right hand thumb) on the integrated fingerprint sensor 359-1.
일부 실시예들에서, 지문 센서는 디바이스의 제1 면 상에 위치된다(1510). 예를 들어, 도 14d는 디바이스(1412)의 제1 면(1414) 상의 지문 센서(1418)를 도시한다.In some embodiments, the fingerprint sensor is positioned 1510 on the first side of the device. For example, FIG. 14D shows a
계속해서 미디어를 기록하는 동안(1504), 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스는 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단한다(1512). 예를 들어, 도 14b는 통합형 지문 센서(359-1) 상에서 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출한 디바이스 및 디바이스가 녹음된 오디오 내의 잡음을 감소시키는 것을 중단하였음을 나타내는 잡음 감소 상태(1408)를 도시한다.Subsequently, while recording the media (1504), in response to detecting the fingerprint on the fingerprint sensor, the device stops (1512) reducing the noise occurring on the first side of the device. For example, FIG. 14B shows that the device that detected the fingerprint 1404 (e.g., the touch of the right hand thumb) on the integrated fingerprint sensor 359-1 and that the device has stopped reducing noise in the recorded audio
일부 실시예들에서, 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단한 후에, 지문이 더 이상 지문 센서 상에 존재하지 않는 경우, 그리고 지문이 더 이상 지문 센서 상에 존재하지 않음을 검출하는 것에 응답하여, 디바이스의 제1 면 상에서 발생하는 녹음된 오디오 내의 잡음을 감소시키는 것을 재개하였음(1516)을 디바이스가 검출한다(1514). 예를 들어, 디바이스는 처음에 (예를 들어, 비디오 예술가가 녹음하고자 의도하지 않은 비디오 예술가에 의해 생성된 숨소리 또는 다른 잡음들이 녹음되는 것을 방지하기 위해) 디바이스의 일 면으로부터의 잡음을 삭제하고, 후속하여 디바이스가 지문 센서 상에서 지문을 검출하는 경우, (예를 들어, 비디오 예술가가 비디오에 대해 해설할 수 있도록) 디바이스가 카메라의 제1 면 상에서의 잡음을 감소시키거나/삭제하는 것을 임시로 중단하며, 그 다음 지문 센서 상에서의 지문의 검출이 중단된 후에 또는 그에 응답하여 (예를 들어, 비디오 예술가가 비디오에 대한 해설을 종료하면) 디바이스의 제1 면 상에서의 잡음들에 대한 잡음 삭제를 재개한다. 도 14c는 예를 들어 통합형 지문 센서(359-1) 상에서 더 이상 지문(1404)을 검출하지 않는 디바이스를 도시한다(예를 들어, 지문(1404)이 통합형 지문 센서(359-1)로부터 들어올려지거나 멀리 이동됨). 도 14c는 디바이스가 녹음된 오디오 내의 잡음을 감소시키는 것을 재개하였음을 나타내는 잡음 감소 상태(1408)를 추가로 도시한다.In some embodiments, after ceasing to reduce noise occurring on the first side of the device, if the fingerprint is no longer present on the fingerprint sensor and the fingerprint is no longer detected on the fingerprint sensor The device detects 1514 that it has resumed 1516 reducing noise in the recorded audio that occurs on the first side of the device. For example, the device may initially remove noise from one side of the device (e.g., to prevent the video artist from recording a breath or other noise created by an unintended video artist) Subsequently, when the device detects a fingerprint on the fingerprint sensor, the device temporarily stops (e.g., allows the video artist to comment on the video) to reduce / delete the noise on the first side of the camera , And then resumes noise cancellation on noises on the first side of the device after detection of the fingerprint on the fingerprint sensor has ceased or in response thereto (e.g., when the video artist has finished commenting on the video) do. 14C illustrates a device that no longer detects a
일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면과는 상이한 (예를 들어, 제1 면의 반대편인) 디바이스의 제2 면 상의 카메라 센서로부터 비디오를 녹화하는 것을 포함한다(1518). 예를 들어, 비디오는 정면을 향하는 카메라를 이용하여 녹화되고, 잡음은 디바이스 후방으로부터의 오디오 입력을 삭제하기 위해 음향 빔포밍을 이용하여 감소/삭제된다. 예를 들어, 도 14d는 디바이스(1412)의 제2 면(1416) 상의 카메라 센서(1420)를 도시한다.In some embodiments, recording media includes recording video from a camera sensor on a second side of the device that is different (e.g., opposite the first side) from the first side of the device (1518) . For example, video is recorded using a front facing camera and noise is reduced / eliminated using acoustic beamforming to remove audio input from the back of the device. For example, FIG. 14D shows the
일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면(예를 들어, 사용자가 있는 쪽의 면) 상에 위치된 디스플레이 상에 비디오의 미리보기를 표시하는 것을 포함한다(1520). 다른 관점에서, 이 방법은 디바이스의 제1 면 상에 위치된 디스플레이 상에 비디오의 미리보기를 표시하는 것을 포함한다. 예를 들어, 도 14a는 디바이스의 디스플레이(450) 상의 비디오 미리보기(1410)를 도시한다.In some embodiments, recording the media includes displaying a preview of the video on a display located on a first side of the device (e.g., the side on which the user is present) (1520). In another aspect, the method includes displaying a preview of the video on a display located on a first side of the device. For example, FIG. 14A shows a
일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면과는 상이한 디바이스의 제2 면 상에서 발생하는 소리들을 녹음하며, 지문 센서 상에서 지문을 검출하는 것에 응답하여, 디바이스가 디바이스의 제2 면 상에서 발생하는 잡음을 녹음된 오디오 내에서 감소시키는 것을 포함한다(1522). 예를 들어, 도 14b는 통합형 지문 센서(359-1) 상의 지문(1404)(예를 들어, 오른손 엄지의 접촉)을 검출하는 디바이스를 도시한다. 이 예에서, 이들 실시예에 따라, 디바이스는 (잡음 감소 상태(1408)에 의해 표시된 바와 같이) 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단하였으며, 디바이스의 제2 면 상에서 발생하는 잡음을 감소시킨다(디바이스의 제2 면 상에서의 잡음 감소의 표시는 도 14b에 도시되지 않음).In some embodiments, recording media records sounds that occur on a second side of the device that is different from the first side of the device, and in response to detecting the fingerprint on the fingerprint sensor, Lt; RTI ID = 0.0 > 1522. < / RTI > For example, FIG. 14B shows a device that detects a fingerprint 1404 (e.g., a touch of the right hand thumb) on the integrated fingerprint sensor 359-1. In this example, according to these embodiments, the device ceased to reduce the noise occurring on the first side of the device (as indicated by noise reduction state 1408), and the noise on the second side of the device (An indication of noise reduction on the second side of the device is not shown in Figure 14b).
도 15에서의 동작들이 기술된 특정 순서는 단지 예시적인 것이며 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내는 것으로 의도되지는 않는다는 것을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 15와 관련하여 전술된 방법(1500)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(1500)과 관련하여 전술된 지문들 및 접촉들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들 및 접촉들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be appreciated that the specific sequence in which the operations in FIG. 15 are described is exemplary only and is not intended to represent that the sequences described are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that the details of the other processes described herein with respect to other methods described herein (e.g., the methods listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that it is also applicable in a similar manner to the
일부 실시예들에 따르면, 도 16은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1600)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 16에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 16 illustrates a functional block diagram of an
도 16에 도시된 바와 같이, 전자 디바이스(1600)는 지문 센서 유닛(1606) 및 지문 센서 유닛(1606)에 결합된 프로세싱 유닛(1608)을 포함한다. 일부 실시예들에서, 전자 디바이스(1600)는 프로세싱 유닛(1608)에 결합된 디스플레이 유닛(1602) 및 카메라 센서 유닛(1604)을 추가로 포함한다. 일부 실시예들에서, 프로세싱 유닛(1608)은 기록 유닛(1610), 잡음 감소 유닛(1612), 검출 유닛(1614) 및 디스플레이 인에이블링 유닛(1616)을 포함한다.16, the
프로세싱 유닛(1608)은 (예를 들어, 기록 유닛(1610)을 이용하여) 디바이스로 미디어를 기록하도록 구성되는데, 여기서 미디어를 기록하는 것은 오디오 녹음을 포함한다. 프로세싱 유닛(1608)은, 미디어를 기록하는 동안에, (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 녹음된 오디오 내에서 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키고, (예를 들어, 검출 유닛(1614)을 이용하여) 지문 센서 유닛 상에서 지문을 검출하며, 지문 센서 유닛 상에서 지문을 검출하는 것에 응답하여 (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단하도록 추가로 구성된다.The processing unit 1608 is configured to write media to the device (e.g., using the write unit 1610), wherein writing the media includes recording audio. The processing unit 1608 may reduce noise generated on the first side of the device in the recorded audio (e.g., using the noise reduction unit 1612) during recording of the media, (E.g., using a noise reduction unit 1612) to detect a fingerprint on the fingerprint sensor unit and to detect a fingerprint on the fingerprint sensor unit (e.g., using a detection unit 1614) Lt; RTI ID = 0.0 > noise. ≪ / RTI >
일부 실시예들에서, 지문 센서 유닛(1606)은 디바이스의 제1 면 상에 위치된다.In some embodiments, the fingerprint sensor unit 1606 is located on the first side of the device.
일부 실시예들에서, 프로세싱 유닛(1608)은 (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 중단한 후에 (예를 들어, 검출 유닛(1614)을 이용하여) 지문이 더 이상 지문 센서 상에 있지 않음을 검출하고, (예를 들어, 검출 유닛(1614)을 이용하여) 지문이 더 이상 지문 센서 유닛 상에 있지 않음을 검출하는 것에 응답하여, (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 녹음된 오디오 내에서 디바이스의 제1 면 상에서 발생하는 잡음을 감소시키는 것을 재개하도록 추가로 구성된다.In some embodiments, after the processing unit 1608 stops reducing the noise occurring on the first side of the device (e.g., using the noise reduction unit 1612) (e.g., (E.g., using the detection unit 1614) to detect that the fingerprint is no longer on the fingerprint sensor and to detect that the fingerprint is no longer on the fingerprint sensor unit (e.g., using the detection unit 1614) (E. G., Using the noise reduction unit 1612) to resume reducing the noise occurring on the first side of the device in the recorded audio.
일부 실시예들에서, 전자 디바이스(1600)는 디바이스의 제1 면과는 상이한 디바이스의 제2 면 상의 카메라 센서 유닛을 추가로 포함하고, 프로세싱 유닛(1608)은 (예를 들어, 기록 유닛(1610)을 이용하여) 카메라 센서 유닛으로부터 비디오를 녹화하도록 추가로 구성된다.In some embodiments, the
일부 실시예들에서, 전자 디바이스는 디바이스의 제1 면 상에 위치된 디스플레이 유닛(1602)을 추가로 포함하고, (예를 들어, 기록 유닛(1610)을 이용하여) 미디어를 기록하는 것은 (예를 들어, 디스플레이 인에이블링 유닛(1616)을 이용하여) 디스플레이 유닛 상에 비디오의 미리보기를 표시하는 것을 가능하게 하는 것을 포함한다.In some embodiments, the electronic device further includes a
일부 실시예들에서, 미디어를 기록하는 것은 디바이스의 제1 면과는 상이한 디바이스의 제2 면 상에서 발생하는 소리들을 (예를 들어, 기록 유닛(1610)을 이용하여) 기록하는 것을 포함하며, 프로세싱 유닛(1608)은 지문 센서 유닛 상에서 지문을 검출하는 것에 응답하여 (예를 들어, 잡음 감소 유닛(1612)을 이용하여) 디바이스의 제2 면 상에서 발생하는 잡음을 녹음된 오디오에서 감소시키도록 추가로 구성된다.In some embodiments, recording media includes recording sounds (e.g., using the recording unit 1610) that occur on a second side of the device that is different from the first side of the device, Unit 1608 is further configured to reduce noise in the recorded audio in response to detecting the fingerprint on the fingerprint sensor unit (e.g., using noise reduction unit 1612) on the second side of the device .
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 15와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 16에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 기록 동작(1402), 감소 동작(1506) 및 검출 동작(1508)은 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to FIG. 15 are optionally implemented by the components shown in FIGS. 1A and 1B or 16. For example, a
부류-기반 프로파일에 기초한 동작들의 수행Performing operations based on a class-based profile
다수의 전자 디바이스들은 복수의 기능들 및 복수의 사용자들을 갖는다. 모든 기능들이 모든 사용자들에게 적합한 것은 아니며, 따라서 일부 사용자에 대한 소정의 기능 제약들이 구현된다. 일부 상황들에서, 디바이스에서의 사용자 식별이 로깅 프로세스를 통해 수행되는데, 여기서 사용자들은 특히 사용자 이름과 패스워드를 이용하여 그들 자신을 식별하게 한다. 그러나, 로깅 프로세스를 통한 사용자들 사이의 전환은 시간-소비적이며 비효율적이다. 또한, 특정 사용자의 아이덴티티가 모든 기능 제약을 위해 필수적인 것은 아니다. 아래에서 기술되는 실시예들은 지문에 의해 식별되는 사용자 부류들에 기초하여 기능들을 제약 또는 수정함으로써 이러한 방법들을 향상시킨다. 디바이스가 사용자의 지문을 검출할 때, 디바이스는 검출된 지문에 기초하여 하나 이상의 사용자 부류를 식별하고, 사용자에 대해 고유하지 않은 적어도 하나의 부류를 포함한, 식별된 사용자 부류들과 연관된 프로파일들을 활성으로서 선택한다. 디바이스가 하나 이상의 동작들을 수행하라는 요청을 수신할 때, 디바이스는 이 요청 및 활성 프로파일들에 기초하여 각자의 동작을 수행한다. 각자의 동작은 요청된 동작(들)에 더한 것이거나 그 대신일 수 있다. 특정 사용자 아이덴티티에 고유하지 않은(예를 들어, 불가지론적인(agnostic)) 사용자 부류들에 기초하여 디바이스 상의 동작들 및 기능들을 커스터마이징함으로써, 빈번한 사용자 로그인 및 로그오프가 비효율적이거나(예를 들어, 부모가 자녀와 디바이스를 공유) 불가능한(예를 들어, 폐쇄된 집단의 사용자들보다 광범위한 인구가 사용하기 위한 공용 또는 준-공용 디바이스들) 상황들에 대해서 디바이스 상에서의 기능 제약들이 구현될 수 있다.A plurality of electronic devices have a plurality of functions and a plurality of users. Not all functions are suitable for all users, so some functional restrictions for some users are implemented. In some situations, user identification at the device is performed through a logging process, where users specifically identify themselves with user names and passwords. However, the transition between users through the logging process is time-consuming and inefficient. Also, the identity of a particular user is not necessarily essential for all functional constraints. The embodiments described below improve these methods by restricting or modifying functions based on user classes identified by fingerprints. When the device detects a fingerprint of the user, the device identifies one or more user classes based on the detected fingerprint and activates the profiles associated with the identified user classes, including at least one class not unique to the user Select. When the device receives a request to perform one or more operations, the device performs its operations based on the request and activation profiles. Each action may be in addition to or instead of the requested action (s). By customizing operations and functions on the device based on user classes that are not native to the particular user identity (e.g., agnostic), frequent user logins and logoffs can be inefficient (e.g., Functional restrictions on the device can be implemented for situations where it is not possible to share devices with children (e.g., public or semi-public devices for use by a wider population than users of a closed group).
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 17a 내지 도 17k 및 도 18a 및 도 18b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 17a 내지 도 17k 및 도 18a 및 도 18b와 관련하여 기술되는 실시예들은 디스플레이(450), 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 논의될 것이지만, 유사한 동작들이 선택적으로 도 17a 내지 도 17k에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안 통합형 지문 센서(359-1) 상에 도 17a 내지 도 17k에 묘사된 입력들을 검출하는 것에 응답하여 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 도 17a 내지 도 17k에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에 도 17a 내지 도 17k에 묘사된 접촉들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며, 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 17a는 디스플레이(450), 터치-감응 표면(451) 및 통합형 지문 센서(359-1)를 갖는 디바이스를 도시한다. 사용자 인터페이스(1700)는 디스플레이(450) 상에 표시된다. 도 17a에 도시된 바와 같이, 사용자 인터페이스(1700)는 예를 들어 데스크톱 그래픽 사용자 인터페이스, 홈 스크린 또는 메뉴 등이다. 사용자 인터페이스(1700)는 선택적으로 애플리케이션용 사용자 인터페이스와 같은 다른 유형의 사용자 인터페이스이다. 사용자 인터페이스(1700)는 선택적으로 "설정" 아이콘(1704) 및 (도 4a의) 사용자 인터페이스(400) 내에 표시된 애플리케이션 아이콘들과 유사한 애플리케이션 아이콘들과 같은 하나 이상의 애플리케이션 아이콘을 포함한다. 사용자는 사용자 인터페이스(1700)와 상호작용할 수 있으며, 터치-감응 표면(451), 버튼, 마우스, 또는 키보드와 같은 각자의 입력 요소를 이용하여 디바이스에 의해 하나 이상의 동작이 수행되는 것을 요청할 수 있다. 예를 들어, 사용자는 예로서 터치-감응 표면(451)을 이용하여 "설정"아이콘(1704)을 활성화함으로써 디바이스 설정들을 조정하기 위한 사용자 인터페이스(예를 들어, 도 17c의 설정 사용자 인터페이스(1708))를 활성화할 수 있다(예를 들어, "설정" 아이콘(1704)에 대응하는 디스플레이 상의 위치에 있는 커서(1705)와 같은 포커스 셀렉터와 연관된 터치-감응 표면(451) 상에서 탭 제스처를 수행함).17A shows a device having a
일부 실시예들에서, 디바이스는 복수의 프로파일들과 연관된다. 복수의 프로파일들은 하나 이상의 사용자-특정 프로파일들 및 하나 이상의 부류-기반 프로파일들을 포함한다. 일부 실시예들에서, 각각의 사용자-특정 프로파일은 각자의 사용자에 대응한다. 일부 실시예들에서, 사용자-특정 프로파일들과 구별되는 부류-기반 프로파일들 각각은 사용자들의 각자의 부류에 대응한다. 일부 실시예들에서, 하나 이상의 부류-기반 프로파일들이 연령-기반 사용자 부류들에 대응한다. 연령-기반 부류-기반 프로파일들의 예들은 성인들에 해당하는 부류-기반 프로파일(예를 들어, 18세 이상의 사용자들), 미성년자에 해당하는 부류-기반 프로파일(예를 들어, 18세 미만의 사용자들) 및 노인에 해당하는 부류-기반 프로파일(예를 들어, 65세 초과의 사용자들)을 포함한다. 일부 실시예들에서, 프로파일들은 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370))로부터 검색된다. 일부 다른 실시예들에서, 프로파일들은 원격 컴퓨터 시스템으로부터 수신된다. 프로파일들은 하나 이상의 특정 동작들(예를 들어, 지문 센서(359) 상에서의 지문의 검출)에 응답하여 또는 미리 정해진 루틴의 일부로서 검색 또는 수신된다.In some embodiments, the device is associated with a plurality of profiles. The plurality of profiles include one or more user-specific profiles and one or more class-based profiles. In some embodiments, each user-specific profile corresponds to a respective user. In some embodiments, each of the class-based profiles distinct from the user-specific profiles corresponds to a respective class of users. In some embodiments, one or more class-based profiles correspond to age-based user classes. Examples of age-based class-based profiles include class-based profiles (e.g., users over 18 years of age) corresponding to adults, class-based profiles corresponding to a minor (e.g., ) And a class-based profile corresponding to the elderly (e.g., users over 65 years old). In some embodiments, the profiles are retrieved from the memory (e.g., memory 102 or memory 370) of the device. In some other embodiments, the profiles are received from a remote computer system. The profiles are retrieved or received in response to one or more specific actions (e.g., detection of a fingerprint on the fingerprint sensor 359) or as part of a predetermined routine.
디바이스는 또한 이전에 디바이스에서 등록되었던 하나 이상의 지문들에 관한 데이터를 포함한다. 각각의 등록된 지문은 각자의 사용자-특정 프로파일에 대응한다. 일부 실시예들에서, 등록된 지문들은 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370))에 저장되고, 메모리로부터 검색된다.The device also includes data relating to one or more fingerprints previously registered in the device. Each registered fingerprint corresponds to a respective user-specific profile. In some embodiments, the registered fingerprints are stored in a memory (e.g., memory 102 or memory 370) of the device and retrieved from memory.
사용자 인터페이스(예를 들어, 사용자 인터페이스(1700))가 디스플레이(450) 상에 표시되는 동안에, 지문이 통합형 지문 센서(359-1) 상에서 검출된다. 도 17a 및 도 17b는 통합형 지문 센서(359-1) 상에서 검출된 상이한 크기들의 지문들을 도시한다. 도 17a는 통합형 지문 센서(359-1) 상에서 검출된 지문(1702)을 도시하고, 도 17b는 지문(1702) 대신 통합형 지문 센서(359-1) 상에서 검출된 지문(1706)을 도시한다. 지문(1702) 및 지문(1706)은 상이한 사용자 부류들에 각각 속하는 두 명의 상이한 사용자들로부터의 지문들이다. 예를 들어, 지문(1702)은 성인 사용자들의 부류 내의 사용자에 속한 것으로 결정되고, 지문(1702)보다 작으며 디바이스에 의해 대략 아동의 지문 크기인 것으로 결정되는 지문(1706)은 아동 사용자들의 부류 내의 사용자에 속한 것으로 결정된다.While the user interface (e.g., user interface 1700) is displayed on the
검출된 지문에 기초하여, 디바이스는 디바이스와 연관된 부류-기반 프로파일들로부터 하나 이상의 부류-기반 프로파일을 검출된 지문에 대응하는 활성 프로파일들로서 선택한다. 예를 들어, 지문(1702)에 대해서, 디바이스는"성인" 프로파일뿐만 아니라, 지문(1702)이 속한 사용자에 맞는 것으로 디바이스가 결정하는 임의의 다른 부류-기반 프로파일을 활성 프로파일로서 선택한다. 지문(1706)에 대해서, 디바이스는 "아동" 프로파일뿐만 아니라, 지문(1706)이 속한 사용자에 맞는 것으로 디바이스가 결정하는 임의의 다른 부류-기반 프로파일을 선택한다. 사용자가 복수의 부류들과 연관될 수 있다는 것을 이해하여야 한다. 따라서, 주어진 검출된 지문에 대해서, 복수의 부류-기반 프로파일들이 활성으로서 선택될 수 있다(예를 들어, 지문이 사용자들의 "성인" 부류 및 사용자들의 "남성" 부류와 연관되거나 사용자들의 "아동" 부류 및 사용자들의 "여성" 부류와 연관될 수 있음).Based on the detected fingerprints, the device selects one or more class-based profiles from the class-based profiles associated with the device as active profiles corresponding to the detected fingerprints. For example, for a
일부 실시예들에서, 부류-기반 프로파일들이 검출된 지문의 인증과 무관하게 선택된다. 예를 들어, 부류-기반 프로파일들의 선택은 검출된 지문을 디바이스와 연관된 이전에 등록된 지문들과 비교하는 것을 요구하지 않는다. 일부 실시예들에서, 부류-기반 프로파일들의 선택은 검출된 지문의 특징들 및 특성들에 기초한다. 예를 들어, 이러한 각자의 지문들의 크기에 기초하여 지문(1702)에 대해 "성인" 프로파일이 선택되고 지문(1706)에 대해 "아동" 프로파일이 선택되며: 지문(1706)은 그 크기에 기초하여 아동의 지문으로 결정되고 지문(1702)은 그 크기에 기초하여 어른의 지문으로 결정된다.In some embodiments, the class-based profiles are selected regardless of the authentication of the detected fingerprint. For example, the selection of class-based profiles does not require comparing the detected fingerprint to previously registered fingerprints associated with the device. In some embodiments, the selection of the class-based profiles is based on the features and characteristics of the detected fingerprint. For example, an "adult" profile is selected for
일부 실시예들에서, 검출된 지문을 디바이스에서 이전에 등록된 지문들에 비교한 것에 기초한 사용자-특정 프로파일의 선택에 더하여 부류-기반 프로파일들이 선택된다. 일부 실시예들에서, 사용자-특정 프로파일의 식별 또는 선택이 부류-기반 프로파일들의 선택을 돕는다. 예를 들어, 선택적으로 각자의 부류-기반 프로파일들이 정의되는 기초가 되는 부류들의 특징들에 대해 사용자-특정 프로파일을 비교한 것에 기초하여 하나 이상의 부류-기반 프로파일들이 선택된다.In some embodiments, in addition to the selection of a user-specific profile based on a comparison of the detected fingerprint to previously registered fingerprints in the device, the class-based profiles are selected. In some embodiments, the identification or selection of a user-specific profile aids in the selection of the class-based profiles. For example, one or more class-based profiles are selected based on a comparison of user-specific profiles to features of the underlying class on which their respective class-based profiles are defined.
디바이스가 하나 이상의 부류-기반 프로파일을 디바이스를 위한 활성 프로파일로서 선택한 후에, 디바이스는 각자의 입력 요소를 이용하여 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 수신한다. 예를 들어, 디바이스는 설정 사용자 인터페이스(1708)(도 17c)를 표시하라는 요청에 대응하는 "설정" 아이콘(1704)(또는 "설정" 아이콘(446))을 활성화하기 위한 입력(예를 들어, 커서(1705)와 같은 포커스 셀렉터가 "설정" 아이콘(1704) 상에 위치된 동안 터치-감응 표면(451) 상에서의 제스처)을 수신한다. 활성 부류-기반 프로파일들에 따라, 설정 사용자 인터페이스(1708)가 표시되거나 오류 메시지가 대신 표시된다. 예를 들어, 도 17a 및 도 17b에 도시된 바와 같은 디바이스 상에서, "아동" 프로파일이 활성이라면, 설정 사용자 인터페이스(1708)가 표시되지 않는다. 따라서, 예를 들어, 검출된 지문이 지문(1702)(도 17a)이고, 따라서 "아동" 프로파일이 아닌 "성인" 프로파일이 활성으로서 선택된다면, 설정 사용자 인터페이스(1708)는 도 17c에 도시된 바와 같이 표시되며; 설정 사용자 인터페이스(1708)를 표시하는 동작이 요청 및 활성 "성인" 프로파일에 기초하여 수행된다.After the device has selected one or more class-based profiles as the active profile for the device, the device receives input corresponding to the request to perform one or more operations on the device using its respective input element. For example, the device may include an input to activate a "Settings" icon 1704 (or "Settings" icon 446) corresponding to a request to display a settings user interface 1708 (FIG. 17C) Gesture on touch-
한편, 검출된 지문이 지문(1706)(도 17b)이고, 따라서 "성인" 프로파일이 아닌 "아동" 프로파일이 활성으로서 선택된다면, 설정 사용자 인터페이스(1708)는 표시되지 않는다. 대신, 도 17d에 도시된 바와 같이 설정 사용자 인터페이스(1708)에 액세스 불가능함을 나타내는 오류 메시지 또는 그와 유사한 것(예를 들어, 오류 메시지(1710))이 표시되고; 오류 메시지(1710)를 표시하는 동작이 요청 및 활성 "아동" 프로파일에 기초하여 수행된다.On the other hand, if the detected fingerprint is fingerprint 1706 (Fig. 17B), and thus a "child" profile other than the "adult" profile is selected as active, the setting
디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력의 다른 예는 비디오 애플리케이션을 열라는 요청이다. 예를 들어, 사용자는 온라인 비디오 애플리케이션(예를 들어, 도 1a의 온라인 비디오 모듈(155))을 열기 위해 온라인 비디오 아이콘(432)(도 4a) 위에 포커스 셀렉터가 위치된 동안에 터치-감응 표면(451) 상에서 제스처(예를 들어, 탭 또는 더블 탭 제스처)를 수행한다. 다른 예로서, 사용자는 디바이스에 저장된 비디오들을 보기 위해 애플리케이션(예를 들어, 도 1a의 비디오 및 음악 플레이어 모듈(152))을 열고자 사용자 인터페이스(400) 내의 미디어 또는 비디오 애플리케이션 아이콘(예를 들어, 도 4a의 아이콘(422)) 위에 포커스 셀렉터(예를 들어, 터치스크린(112) 상에서 검출되는 접촉 또는 디스플레이(450) 상에 표시되는 커서)가 위치된 동안에, 터치-감응 표면(451) 상에서 제스처(예를 들어, 탭 또는 더블 탭 제스처)를 수행한다. 편의를 위해, 온라인 비디오들을 보기 위한 애플리케이션 및 디바이스에 저장된 비디오들을 보기 위한 애플리케이션 둘 모두가 아래에서 비디오 애플리케이션(들)으로서 둘 모두 지칭된다.Another example of an input corresponding to a request to perform one or more operations on a device is a request to open a video application. For example, the user may touch the touch-sensitive surface 451 (FIG. 4A) while the focus selector is positioned over the online video icon 432 (FIG. 4A) to open the online video application (E.g., a tap or double tap gesture) on the touch screen. As another example, a user may select a media or video application icon (e.g., an icon) in the
비디오 애플리케이션이 열릴 때, 사용자 인터페이스(1712)와 같은, 비디오 애플리케이션에 대응하는 사용자 인터페이스가 표시된다. 사용자 인터페이스(1712)는 재생을 위해 선택될 수 있는 디바이스에 저장된 비디오(1714)들의 목록을 보여준다. 도 17e 및 도 17f는 비디오 애플리케이션이 기동되었을 때 디바이스에서 어느 부류-기반 프로파일이 활성화되었는지에 따라 사용자 인터페이스(1712) 내에 표시되는 비디오(1714)들의 목록의 차이를 도시한다. 도 17e는 디바이스에서 "성인" 프로파일이 활성화되었을 때 표시되는 비디오(1714)들의 목록을 도시한다. "성인" 프로파일이 활성인 상태에서, 사용자 인터페이스(1712)에 표시된 비디오(1714)들의 목록이 모든 연령 및/또는 아동에게 적합한 비디오들(예를 들어, "모든 연령"으로 등급이 매겨진 비디오(1714-1, 1714-2)들) 및 아동에게 적합하지 않을 수 있는 비디오들(예를 들어, "17+"으로 등급이 매겨진 비디오(1714-3, 1714-4)들)을 포함한다. 도 17f는 "아동" 프로파일이 디바이스에서 활성화되었을 때 표시되는 비디오(1714)들의 목록을 도시한다. "아동" 프로파일이 활성인 상태에서, 사용자 인터페이스(1712)에 표시된 비디오(1714)들의 목록은 모든 연령 및/또는 아동에게 적합한 비디오들(예를 들어, 비디오(1714-1, 1714-2)들)을 포함하고, 아동에게 적합하지 않을 수 있는 비디오들(예를 들어, 비디오(1714-3, 1714-4)들)을 제외시킨다.When the video application is opened, a user interface corresponding to the video application, such as
디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력의 다른 예는 비디오를 재생하라는 요청이다. 예를 들어, 사용자는 비디오(1714)를 선택하기 위해 사용자 인터페이스(1712)(도 17e 또는 도 17f) 내의 비디오들의 목록 내의 비디오(1714) 위에 포커스 셀렉터(예를 들어, 터치스크린(112) 상에서 검출되는 접촉 또는 디스플레이(450) 상에 표시되는 커서)가 위치된 동안에, 터치-감응 표면(451) 상에서 제스처(예를 들어, 탭 또는 더블 탭 제스처)를 수행한다. 제스처를 검출하는 것에 응답하여, 비디오 재생 인터페이스(1716)가 표시되고 재생이 시작된다(대안적으로, 사용자가 재생 버튼을 활성화하였을 때 비디오 재생이 시작됨). 비디오 재생 인터페이스(1716)는 비디오 프레임(1718), 재생 제어부(1720)(예를 들어, 재생/일시 정지 버튼, 스크러버) 및 비디오 내의 오디오 콘텐트의 볼륨 레벨을 제어하기 위한 볼륨 제어부(1722)를 포함한다. 볼륨 제어부(1722)는 볼륨 슬라이더 바(1726)와 썸(thumb)(1724)을 포함하고; 볼륨 슬라이더 바(1726) 내의 썸(1724)의 위치는 현재 볼륨 레벨을 나타낸다. 일부 실시예들에서, 비디오(1714)가 재생을 위해 선택될 때 소정의 부류-기반 프로파일들이 디바이스에서 활성이라면, 최대 볼륨 레벨 제약이 시행된다. 예를 들어, 비디오(1714)가 재생을 위해 선택될 때 "아동" 프로파일이 활성이라면, 볼륨 썸(1724)이 볼륨 슬라이더 바(1726) 내의 소정의 레벨을 넘어서 이동하는 것이 제한된다. 예를 들어, 도 17g에서 볼륨 썸(1724)은 볼륨 슬라이더 바(1726) 내에서 영역(1728)으로 이동하는 것이 제한된다. 이는 최대 볼륨을 100% 미만의 레벨로 한도를 정함으로써, 청력 손상을 방지하는 것을 돕는다. "성인" 프로파일이 활성이라면, 최대 볼륨 레벨 제약이 시행되지 않으며; 사용자는 볼륨 슬라이더(1726)의 전체 길이를 따라 볼륨 썸(1724)을 이동시킬 수 있다.Another example of an input corresponding to a request to perform one or more operations on a device is a request to play a video. For example, the user may select a focus selector (e.g., on the touch screen 112) over the video 1714 in the list of videos in the user interface 1712 (Fig. 17E or Fig. 17F) (E.g., tap or double-tap gesture) on the touch-
디바이스에서 하나 이상의 동작을 수행하기 위한 요청에 대응하는 입력의 다른 예는 문서를 표시하기 위한 요청이다. 예를 들어, 사용자는 문서를 열라는 요청을 한다(예를 들어, 애플리케이션 내의 문서를 선택하거나 웹 브라우저 내의 하이퍼링크를 선택함). 이러한 요청에 응답하여, 디바이스는 사용자 인터페이스(예를 들어, 사용자 인터페이스(1730)) 내에 문서를 표시한다. 사용자 인터페이스(1730)는 워드 프로세싱 애플리케이션, 웹 브라우저, 이-리더(e-reader) 애플리케이션 등과 같은 문서들 또는 텍스트를 표시할 수 있는 임의의 애플리케이션을 위한 사용자 인터페이스이다. 일부 실시예들에서, 디바이스는 활성 부류-기반 프로파일에 기초하여 표시되는 문서에서 줌 스케일(zoom scale) 또는 표시되는 문서 내의 텍스트의 폰트 크기를 자동으로 조정한다. 예를 들어, 도 17h 및 도 17i는 사용자 인터페이스(1730) 내에 표시된 문서(1732)를 도시한다. 활성 부류-기반 프로파일이 "성인"이라면, 줌 레벨은 도 17h에서 문서(1732-1)로 나타내어진 바와 같이 디폴트 또는 보통 레벨(예를 들어, 100%)로 설정된다. 활성 부류-기반 프로파일이 "아동"이거나 노인에 대응하는 부류-기반 프로파일이라면, 줌 레벨은 도 17i에서 문서(1732-2)로 도시된 바와 같이 더 높은 레벨(예를 들어, 200%)로 설정된다. 더 높은 줌 레벨에서, 문서(1732) 내의 텍스트가 디스플레이(450) 상에 더 크게 나타나며, 따라서 아동 또는 노인들이 읽기 쉬워진다.Another example of an input corresponding to a request to perform one or more operations on a device is a request to display a document. For example, a user may request to open a document (e.g., select a document in an application or select a hyperlink in a web browser). In response to this request, the device displays the document in a user interface (e.g., user interface 1730). The
일부 실시예들에서, 지문(예를 들어, 지문(1702) 또는 지문(1706))이 지문 센서(359-1) 상에서 검출되면, 하나 이상의 부류-기반 프로파일뿐만 아니라 사용자-특정 프로파일이 식별 및 선택된다. 예를 들어, 지문(1702)이 지문 센서(359-1) 상에서 검출되면(도 17a), 디바이스는 전술된 것과 같이 하나 이상의 부류-기반 프로파일을 디바이스 상에서 활성인 것으로 식별 및 선택할 뿐만 아니라, 디바이스 상에 이전에 등록된 지문들로부터 부합 지문을 식별하여, 지문(1702)과 부합하는 식별된 지문과 연관된 사용자-특정 프로파일을 디바이스 상에서 활성 사용자-특정 프로파일로서 선택한다. 유사하게, 지문(1706)이 지문 센서(359-1) 상에서 검출되면(도 17b), 디바이스는 전술된 바와 같이 하나 이상의 부류-기반 프로파일들을 디바이스 상에서 활성인 것으로 식별 및 선택할 뿐만 아니라, 디바이스 상에 이전에 등록된 지문들로부터 부합 지문을 식별하여, 지문(1706)과 부합하는 식별된 지문과 연관된 사용자-특정 프로파일을 디바이스 상에서 활성 사용자-특정 프로파일로서 선택한다.In some embodiments, when a fingerprint (e.g.,
일부 실시예들에서, 디바이스가 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 수신할 때, 디바이스는 요청에 응답하여 활성 사용자-특정 프로파일에 기초한 각자의 동작을 수행한다. 예를 들어, 도 17j는 애플리케이션(예를 들어, 웹 브라우저) 내의 웹 양식(1734)을 표시하라는 요청에 대응하는 사용자 입력에 응답하여, 디스플레이(450) 상에 표시된 개인 정보를 입력하기 위한 웹 양식(1734)(예를 들어, 알맞은 양식 필드를 갖는 웹 페이지)을 도시한다. 예를 들어, 입력은 (예를 들어, 탭 제스처에 의해; 포커스 셀렉터가 위에 위치된 동안의 마우스 클릭에 의해) 사용자가 웹 양식(1734)으로의 하이퍼링크를 선택하는 것을 포함한다. 웹 양식(1734)은 이름, 하나 이상의 주소-관련 필드(예를 들어, 거리, 도시 등) 및 전화번호와 같은 개인 정보 필드(1736)들을 포함한다. 웹 양식(1734)을 표시하라는 요청을 수신하는 것에 응답하여, 디바이스는 웹 양식(1734)을 표시하고 활성 사용자-특정 프로파일에 기초하여 개인 정보(1738-1 내지 1738-6)로 웹 양식(1734) 내의 필드(1736)들에 정보를 넣는다(예를 들어, "John Doe"에 대한 이름, 주소 및 전화번호). 필드(1736)에 정보를 넣기 위해 사용되는 개인 정보(1738)는 활성 사용자-특정 프로파일과 연관된 연락처 정보와 같은 활성 사용자-특정된 프로파일과 연관된 정보로부터 가져온다.In some embodiments, when the device receives an input corresponding to a request to perform one or more actions, the device performs a respective action based on the active user-specific profile in response to the request. For example, Figure 17J shows a web form for entering personal information displayed on
다른 예로서, 도 17k는 애플리케이션(예를 들어, 웹 브라우저) 내의 웹 페이지(1740)를 로딩하라는 요청에 대응하는 사용자 입력에 응답하여 디스플레이(450) 상에 표시되는 개인화된 웹 페이지(1740)를 도시한다. 예를 들어, 입력은 (예를 들어, 탭 제스처에 의해; 포커스 셀렉터가 위에 위치된 동안의 마우스 클릭에 의해) 사용자가 웹 양식(1740)으로의 하이퍼링크를 선택하는 것 또는 웹 페이지(1740)를 로딩하기 위한 로깅 절차를 완료하는 것을 포함한다. 웹 페이지(1740)는 활성 사용자-특정 프로파일과 연관된 사용자에 대해 개인화된 콘텐트를 포함한다. 개인화된 콘텐트는, 예를 들어 웹 애플리케이션들 또는 다른 웹사이트 특징들로의 단축키 또는 링크(1742)들 - 제시된 단축키(1742)들의 세트는 사용자의 선호도 또는 웹 사용의 이력 패턴에 대해 개인화됨 -; 뉴스 피드(news feed)(1744) - 뉴스 카테고리들 및/또는 뉴스 소스들이 사용자의 선호도에 대해 개인화됨 -; 및 사용자와 연관된 위치(예를 들어, 집 주소, 직장 주소, 현재 위치)에 대해 개인화된 날씨(1746)를 포함한다.17K illustrates a personalized web page 1740 displayed on the
개인화된 콘텐트(1742, 1744, 1746)를 갖는 웹 페이지(1740)는 활성 사용자-특정 프로파일과 연관된 쿠키에 따라 로딩되고; 웹 페이지(1740)의 호스트는 웹 페이지(1740)가 쿠키에 기초하여 개인화된 사용자를 식별한다. 쿠키는 예를 들어 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370))에 저장된다.Web page 1740 with
도 18a 및 도 18b는 일부 실시예들에 따라 부류-기반 프로파일에 기초하여 동작들을 수행하는 방법(1800)을 예시한 흐름도이다. 방법(1800)은 디스플레이, 지문 센서 및 각자의 입력 요소(예를 들어, 터치-감응 표면, 버튼 또는 키보드)를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 입력 요소는 지문 센서이다. 일부 실시예들에서, 입력 요소는 지문 센서와는 상이한 요소이다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(1800) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.18A and 18B are flowcharts illustrating a
아래에 기술되는 바와 같이, 방법(1800)은 부류-기반 프로파일에 기초하여 동작들을 수행하기 위한 직관적인 방식을 제공한다. 이 방법은 부류-기반 프로파일에 기초하여 동작들을 커스터마이징함으로써 동작들을 수행할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 부류-기반 프로파일에 기초한 동작들을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
디바이스는 복수의 프로파일들을 획득하는데(예를 들어, 메모리로부터 검색하거나 원격 컴퓨터 시스템으로부터 수신함)(1802), 여기서 복수의 프로파일들은 하나 이상의 사용자-특정 프로파일들 및 사용자-특정 프로파일들과는 구별되고 각자의 사용자 부류에 각각 대응하는 하나 이상의 부류-기반 프로파일들을 포함한다. 프로파일들은 예를 들어 디바이스의 메모리(예를 들어, 메모리(102) 또는 메모리(370)) 또는 클라우드에 저장된다.The device obtains (e. G., Retrieves from memory or receives from a remote computer system) a plurality of
디바이스는 지문 센서 상에서 제1 지문을 검출한다(1804). 도 17a는 예를 들어 지문(1702)을 검출하는 디바이스를 도시한다. 도 17b는 지문(1706)을 검출하는 디바이스를 도시한다.The device detects the first fingerprint on the fingerprint sensor (1804). 17A shows a device for detecting a
디바이스는, 제1 지문을 이전에 등록된 지문으로서 인증하는 것과는 무관하게, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일들로서 선택하는데(예를 들어, 제1 지문이 제1 부류 내의 사용자의 지문과 부합한다고 결정하는 것이 제1 지문을 이전에 등록된 지문들과 직접 비교하는 것을 포함하지는 않음)(1806), 이는 제1 지문이 제1 부류-기반 프로파일과 연관된 사용자들의 제1 부류 내의 사용자의 지문과 부합한다는 결정에 따라, 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한다. 일부 실시예들에서, 지문을 이전에 등록된 지문으로서 인증하지 않고서 제1 부류-기반 프로파일이 선택된다. 예를 들어, 인증이 요구되지 않거나 지문이 이전에 등록된 지문들 중 임의의 것과 부합하지 않는다면, 디바이스는 여전히 지문의 일반화된 특징들에 기초하여 결정된 하나 이상의 활성 부류-기반의 프로파일들에 따라 디바이스의 기능을 조정할 수 있으며, 따라서 지문과 연관된 사용자의 확실한 신원확인을 필요로 하지 않는다.The device selects one or more class-based profiles associated with the device as active profiles corresponding to the first fingerprint, irrespective of authenticating the first fingerprint as a previously registered fingerprint (e.g., 1806) does not include direct comparison of the first fingerprint with previously registered fingerprints), which indicates that the first fingerprint is associated with a user of the first class-based profile And selecting a first class-based profile as the active profile, in accordance with the determination that the fingerprint matches the user's fingerprint in the first class. In some embodiments, a first class-based profile is selected without authenticating the fingerprint as a previously registered fingerprint. For example, if authentication is not required or the fingerprint does not match any of the previously registered fingerprints, then the device will still be able to associate the fingerprint with the device < RTI ID = 0.0 > And thus does not require the identification of the user associated with the fingerprint.
예를 들어, 지문(1702)이 검출되면(도 17a), 디바이스는 지문(1702)이 이전에 등록된 지문과 부합하는지 여부와 무관하게 "성인" 부류-기반 프로파일을 선택한다(예를 들어, "성인" 부류-기반 프로파일은 사용자와 연관된 알려진 지문 패턴에 지문의 패턴을 대조함으로써 사용자를 식별해야 할 필요성 없이, 지문의 크기에 기초하여 선택됨). 지문(1706)이 검출되면(도 17b), 디바이스는 지문(1706)이 이전에 등록된 지문과 부합하는지 여부와 무관하게 "아동" 부류-기반 프로파일을 선택한다(예를 들어, "아동" 부류-기반 프로파일은 사용자와 연관된 알려진 지문 패턴에 지문의 패턴을 대조함으로써 사용자를 식별해야 할 필요성 없이, 지문의 크기에 기초하여 선택됨).For example, if a
일부 실시예들에서, 제1 부류-기반 프로파일이 제1 지문의 검출된 크기에 따라 선택된다(1808). 예를 들어, 검출된 제1 지문이 미리 정해진 크기 임계치(예를 들어, 평균 특징 크기, 최대 지름 등) 미만이라면, 제1 지문은 아동의 지문으로 분류되고 포괄적인 아동 프로파일이 디바이스를 위한 활성 프로파일로서 선택된다. 따라서, 일부 실시예들에서, 미리 정해진 또는 사용자-특정된 연령(예를 들어, 12세) 미만인 사용자에 속한 것으로서 제1 지문을 식별한 것에 기초하여, 또는 제1 지문이 아동 지문의 전형적인 특징인 지문 특징들을 갖는다는 결정에 기초하여, 제1 지문은 아동 지문인 것으로 결정되며, 따라서 지문이 특정 아동에 속한 것으로서 등록되지 않았았을지라도 해당 지문은 아동의 지문일 가능성이 매우 높다. 예를 들어, "성인" 프로파일이 지문(1702)에 대해 선택되고, "아동" 프로파일이 지문(1702)보다 작은 지문(1706)에 대해 선택된다.In some embodiments, a first class-based profile is selected 1808 according to the detected size of the first fingerprint. For example, if the detected first fingerprint is less than a predetermined size threshold (e.g., average feature size, maximum diameter, etc.), then the first fingerprint is categorized as a child's fingerprint and a comprehensive child profile is assigned to the active profile . Thus, in some embodiments, based on identifying the first fingerprint as belonging to a user that is less than a predetermined or user-specified age (e.g., 12 years of age), or based on identifying the first fingerprint as a typical feature of the child fingerprint Based on the decision to have fingerprint features, the first fingerprint is determined to be a child fingerprint, and therefore, even though the fingerprint was not registered as belonging to a particular child, the fingerprint is likely to be fingerprint of the child. For example, an "adult" profile is selected for the
일부 실시예들에서, 제1 부류-기반 프로파일은 제1 부류의 구성원들에 대해 디바이스의 동작을 제약한다(1810). 예를 들어, 아동-특정 프로파일이 활성 프로파일인 경우, 디바이스는 부적절한(예를 들어, 폭력적이거나 그 외에 제한되는) 또는 민감한(예를 들어, 패스워드, 금융 정보, 계정 설정, 및/또는 문서들 및 애플리케이션들의 삭제와 같은 파괴적인 동작들의 수행) 특정 설정들, 애플리케이션들, 정보에의 액세스를 제한한다. 예를 들어, "아동" 프로파일이 활성일 때, 설정 사용자 인터페이스(1708)로의 액세스가 제한된다. 따라서, "아동" 프로파일이 활성화된 동안에 "설정" 아이콘(1704)이 활성이라면, 설정 사용자 인터페이스(1708)(도 17c)가 표시되지 않는다. 대신, 예를 들어 도 17d에 도시된 바와 같이 오류 메시지(1710)가 표시된다.In some embodiments, the first class-based profile constrains the operation of the device for the first class members (1810). For example, if the child-specific profile is an active profile, then the device may display the inappropriate (e.g., violent or otherwise restricted) or sensitive (e.g., password, financial information, account settings, and / Execution of destructive operations such as deletion of applications), thereby limiting access to specific settings, applications, and information. For example, when the "child" profile is active, access to the
일부 실시예들에서, 제1 부류-기반 프로파일은 기능들을 제1 부류의 구성원들에게 더 적절하게 만들도록 디바이스의 기능들을 변경한다(1812). 예를 들어, 아동-특정 프로파일이 활성 프로파일일 때, 디바이스는 아동과의 상호작용을 위한 프로그램들을 도입한다(예를 들어, 운동 애플리케이션에서 성인-특정 운동 프로파일들 대신 아동-특정 운동 프로파일들을 이용하거나 이-리더 애플리케이션에서 성인용 책이 아닌 아동용 책을 표시함). 예를 들어, "아동" 프로파일이 활성인 동안, 아동에게 적합하지 않은 비디오들로의 엑세스가 제한된다. 따라서, "아동" 프로파일이 활성인 동안, 도 17f에 도시된 바와 같이, 비디오(1714)들을 나열하는 사용자 인터페이스(1712) 내의 비디오(1714)들의 목록은 아동에게 적합하지 않을 수 있는 비디오들(예를 들어, 비디오(1714-3, 1714-4)들)을 제외시킨다.In some embodiments, the first class-based
일부 실시예들에서, 지문 센서 상에서 제1 지문을 검출한 후에(1814), 디바이스는 제1 지문의 지문 특징들을 결정하고(1816), 제1 지문의 지문 특징들과 부합하는 이전에 등록된 지문을 식별하며(1818), (예를 들어, 제1 부류-기반 사용자 프로파일을 활성 프로파일로서 선택하는 것에 더하여) 이전에 등록된 지문과 연관된 제1 사용자-특정 프로파일을 활성 프로파일로서 선택한다(1820). 이러한 지문 분석/대조 동작들이 선택적으로 디바이스의 중앙 프로세싱 유닛 또는 지문 센서와 연관된 보안 프로세싱 디바이스에서 수행된다. 일부 실시예들에서, 디바이스는 한 세트의 하나 이상의 사용자-특정 프로파일들 중 임의의 것을 활성 프로파일로서 선택할지 여부를 결정하고, 어떠한 사용자-특정 프로파일도 제1 지문과 연관되지 않는다고 결정되면(예를 들어, 어떠한 사용자-특정 프로파일도 제1 지문과 부합하는 이전에 등록된 지문들과 연관되지 않는다면), 선택적으로 복수의 프로파일들 중 임의의 프로파일을 활성 프로파일로서 선택하지 않는다. 일부 실시예들에서, 사용자-특정 프로파일이 선택되지 않는다면, 디폴트 프로파일이 대신 사용된다. 예를 들어, 지문(1702) 또는 지문(1706)을 검출한 후에, 디바이스는 또한 검출된 지문이 이전에 등록된 지문과 부합하는지 여부를 결정한다. 검출된 지문에 대해 이전에 등록된 지문이 식별된다면, 활성 프로파일로서 선택된 임의의 부류-기반 프로파일들에 더하여, 식별된 이전에 등록된 지문과 연관된 사용자-특정 프로파일이 디바이스 상에서 활성 프로파일로서 선택된다(예를 들어, 도 17j 및 도 17k에 도시된 바와 같이, 검출된 지문에 기초하여 선택된 사용자-특정 프로파일과 연관된 사용자-특정 정보에 따라 웹 양식(1734) 및 웹 페이지(1740)가 로딩됨).In some embodiments, after detecting the first fingerprint on the fingerprint sensor (1814), the device determines (1816) the fingerprint features of the first fingerprint and determines the fingerprint characteristics of the previously registered fingerprint (1818) and selects (1820) the first user-specific profile associated with the previously registered fingerprint as the active profile (e.g., in addition to selecting the first class-based user profile as the active profile) . These fingerprint analysis / verification operations are optionally performed in a security processing device associated with the central processing unit or fingerprint sensor of the device. In some embodiments, the device determines whether to select any of a set of one or more user-specific profiles as the active profile, and if it is determined that no user-specific profile is associated with the first fingerprint (e.g., For example, if no user-specific profile is associated with previously registered fingerprints that match the first fingerprint), and optionally does not select any of the plurality of profiles as the active profile. In some embodiments, if a user-specific profile is not selected, a default profile is used instead. For example, after detecting
디바이스는 각각의 입력 요소를 이용하여 입력을 수신하는데(1822), 여기서 입력은 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응한다. 일부 실시예들에서, 디바이스와 연관된 하나 이상의 프로파일들이 활성 프로파일인 동안에(예를 들어, 하나 이상의 프로파일들이 활성 프로파일로서 선택된 후에) 입력이 수신된다. 일부 실시예들에서, 입력을 수신한 것에 응답하여 하나 이상의 프로파일들이 활성 프로파일로서 선택된다. 일부 실시예들에서, 입력은 디바이스의 터치-감응 표면 상에서의 제스처를 포함한다. 일부 실시예들에서, 입력은 근거리 통신 디바이스의 범위 내에서 디바이스를 이동시키는 것과 근거리 통신 디바이스로부터 신호를 수신하는 것을 포함한다. 입력은, 예를 들어 커서(1705)가 "설정" 아이콘(1704) 위에 있는 동안에 "설정" 아이콘(1704)을 활성화하기 위한 터치-감응 표면(451) 상에서의 제스처 또는 마우스 클릭, 사용자 인터페이스(1712)의 표시를 활성화하기 위한 터치-감응 표면(451) 상에서의 제스처 또는 마우스 클릭, 재생을 위한 비디오(1714)를 선택하기 위한 터치-감응 표면(451) 상에서의 제스처 또는 마우스 클릭 등일 수 있다. 일부 실시예들에서, 입력은 선택가능한 아이콘을 포함하는 터치스크린 디스플레이의 일부분 상에서의 탭 제스처인데, 여기서 지문 센서는 터치스크린 디스플레이로 통합되고 지문의 특징들은 탭 제스처에 기초하여 결정된다. 일부 실시예들에서, 입력은 커서가 디스플레이 상의 선택가능한 아이콘 위에 있는 동안의 트랙패드 상의 누름 입력(예를 들어, 활성화 강도 임계치보다 높은 강도의 접촉, 또는 트랙패드 아래의 물리적 액추에이터 또는 별개의 액추에이터 버튼의 접촉 및 활성화)이다.The device receives an input using each input element (1822), where the input corresponds to a request to perform one or more operations on the device. In some embodiments, the input is received while one or more profiles associated with the device are active profiles (e.g., after one or more profiles are selected as the active profile). In some embodiments, one or more profiles are selected as the active profile in response to receiving the input. In some embodiments, the input includes a gesture on the touch-sensitive surface of the device. In some embodiments, the input includes moving the device within the range of the local communication device and receiving a signal from the local communication device. Input may include a gesture or mouse click on the touch-
제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 디바이스는 요청 및 제1 부류-기반 프로파일에 기초하여 (그리고, 선택적으로는 하나 이상의 다른 활성 프로파일들에 기초하여) 각자의 동작을 수행한다(1824). 예를 들어, 설정 사용자 인터페이스(1708)를 표시하기 위한 입력(예를 들어, "설정" 아이콘(1704)을 활성화하기 위한 터치-감응 표면 상에서의 제스처)을 수신하는 것에 응답하여, 디바이스는 현재 어느 부류-기반 프로파일이 활성인지에 기초하여 설정 사용자 인터페이스(1708)(도 17c) 또는 오류 메시지(1710)(도 17d)를 표시한다(예를 들어, "성인" 프로파일이 활성이면 설정 사용자 인터페이스가 표시되고, "아동" 프로파일이 활성이면 오류 메시지가 표시됨). 다른 예로서, 입력을 수신하는 것에 응답하여, 디바이스는 현재 어느 부류-기반 프로파일이 활성인지에 기초하여 비디오(1714)들의 전체 목록(도 17e) 또는 비디오(1714)들의 제한된 목록(도 17f)을 표시한다(예를 들어, "성인" 프로파일이 활성이면 비디오들의 전체 목록이 표시되고, "아동" 프로파일이 활성이면 비디오들의 제한된 목록이 표시됨).In response to receiving an input using a respective input element while a first class-based profile is selected as an active profile, the device generates a request based on the request and a first class-based profile (and optionally, (1824). ≪ / RTI > For example, in response to receiving an input (e.g., a gesture on the touch-sensitive surface for activating the "Settings" icon 1704) to display a
일부 실시예들에서, 제1 부류-기반 프로파일이 사용자의 연령에 적어도 부분적으로 기초하고(1826), 요청은 오디오를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자의 연령에 대해 조정된 오디오를 제시하는 것(예를 들어, 아동에 대해 최대 볼륨을 감소시키는 것 및/또는 고령의 성인들에 대해 오디오 주파수를 아래로 시프트하는 것)을 포함한다. 예를 들어, 도 17g에서, "아동" 프로파일이 활성인 동안에 비디오(1714)를 재생할 때, 디바이스는 비디오(1714)를 재생하라는 요청을 수신하는 것에 응답하여 청력 손상 방지를 돕도록 (예를 들어, 볼륨 슬라이더 바(1726) 내의 영역(1728)에 의해 나타내어지는 바와 같이) 비디오(1714) 내의 오디오 콘텐트에 대한 최대 볼륨 레벨의 한도를 정한다.In some embodiments, the first class-based profile is based at least in part on the age of the user (1826), the request includes a request to present content containing audio, Presenting the adjusted audio (e. G., Reducing the maximum volume for the child and / or shifting down the audio frequency for older adults). For example, in Fig. 17G, when playing back video 1714 while the "child" profile is active, the device responds to receiving a request to play video 1714 to help prevent hearing loss (As indicated by the
일부 실시예들에서, 제1 부류-기반 프로파일은 사용자의 연령에 적어도 부분적으로 기초하고(1828), 요청은 시각적 컴포넌트를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자가 시각적 컴포넌트를 더 쉽게 볼 수 있도록 미디어의 시각적 컴포넌트를 조정하는 것(예를 들어, 디스플레이 밝기 또는 콘트라스트를 증가시키는 것, 및/또는 고령의 성인을 위해 텍스트 폰트 크기를 증가시키는 것)을 포함한다. 예를 들어 도 17i에서, "아동" 프로파일 또는 고령자에 대응하는 프로파일들이 활성인 동안에 문서(1732)를 표시할 때, 디바이스는 문서를 표시하라는 요청을 수신하는 것에 응답하여 문서를 더 큰 줌 스케일 또는 더 큰 텍스트 폰트 크기로 표시한다(예를 들어, "성인" 프로파일이 활성이라면 도 17h에 도시된 바와 같이 표준 크기의 텍스트로 문서가 표시되고, "아동" 프로파일이 활성이라면 도 17i에 도시된 바와 같이 더 큰 텍스트로 문서가 표시됨).In some embodiments, the first class-based profile is based at least in part on the age of the user (1828), the request includes a request to present content that includes a visual component, (E.g., increasing the display brightness or contrast, and / or increasing the text font size for older adults) to make it easier to view the media. For example, in FIG. 17i, when displaying the document 1732 while the "child" profile or profiles corresponding to the elderly are active, the device responds to receiving a request to display a document, If the "adult" profile is active, then the document is displayed in standard sized text as shown in FIG. 17h, and if the "child" profile is active, The document will be displayed with larger text).
일부 실시예들에서, 디바이스가 요청과 연관된 하나 이상의 동작들을 수행하도록 허가된 활성 프로파일을 갖지 않는 경우(1830), 각자의 동작은 오류 메시지(예를 들어, 활성 프로파일이 개인 정보로의 액세스와 같은 요청된 동작 또는 뱅킹 애플리케이션과 같은 보안 애플리케이션을 수행하기 위한 승인을 갖지 않음을 나타내는 메시지)이다. 예를 들어, "아동" 프로파일이 활성이고 "성인" 프로파일이 활성이지 않은 동안에 디바이스가 설정 사용자 인터페이스(1708)를 표시하라는 요청을 수신하는 경우, 오류 메시지(1710)가 표시된다(도 17d).In some embodiments, if the device does not have an
일부 실시예들에서, 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 디바이스는 각자의 동작을 수행하는 것에 더하여 하나 이상의 동작들을 수행한다(1832)(예를 들어, 디바이스는 사용자의 대략적인 연령에 보다 적절하도록 디바이스의 출력을 변경함으로써, 요청된 동작들을 수행하고 이 동작들을 활성 프로파일에 기초하여 커스터마이징함). 예를 들어, "아동" 프로파일이 활성인 동안에 디바이스가 비디오(1714)를 재생하라는 요청을 수신하는 경우, 도 17g와 관련하여 전술된 바와 같이 비디오가 재생되고 최대 볼륨의 한도가 정해진다.In some embodiments, in response to receiving an input using a respective input element while a first class-based profile is selected as an active profile, the device performs one or more operations in addition to performing its own actions 1832) (e.g., the device performs the requested operations and customizes them based on the active profile by changing the output of the device to be more appropriate for the user's approximate age). For example, if the device receives a request to play video 1714 while the "child" profile is active, the video is played and the maximum volume limit is determined as described above in connection with FIG. 17g.
일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 개인 정보를 입력하기 위한 양식을 표시하라는 요청을 포함하고(예를 들어, 사용자 이름, 주소, 전화번호, 패스워드, 또는 제1 사용자-특정 프로파일과 연관된 지불 정보와 같은 개인 정보를 입력하기 위한 양식 필드들을 포함하는 애플리케이션 또는 웹 페이지를 로딩함)(1834), 각자의 동작은 제1 사용자-특정 프로파일 내의 정보에 기초하여 개인 정보를 양식 내에 자동으로 채우는 것을 포함한다. 예를 들어, 도 17j에서, 웹 양식(1734)을 표시하라는 요청을 수신하는 것에 응답하여, 디바이스는 웹 양식(1734)을 표시하고 현재 활성인 사용자-특정 프로파일에 기초하여 개인 정보(1738)로 필드(1736)들을 자동으로 채운다.In some embodiments, the request to perform one or more actions includes a request to display a form for entering personal information (e.g., a user name, an address, a telephone number, a password, or a first user- (E.g., loading an application or web page that includes form fields for entering personal information, such as payment information associated with a particular user) 1834, each of which may automate personal information based on information in the first user- ≪ / RTI > For example, in FIG. 17J, in response to receiving a request to display
일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 웹 페이지를 로딩하라는 요청을 포함하고(1836), 각자의 동작은 제1 사용자-특정 프로파일과 연관된 쿠키에 따라 웹 페이지를 로딩하는 것을 포함한다. 예를 들어 도 17k에서, 웹 페이지(1740)를 표시하라는 요청을 수신하는 것에 응답하여, 디바이스가 활성 사용자-특정 프로파일과 연관된 쿠키에 기초하여 현재 활성인 사용자-특정 프로파일에 대응하는 사용자에 대해 개인화된 웹 페이지(1740)를 표시한다. 반면에, 활성 프로파일인 제1 사용자-특정 프로파일 대신 제2 사용자-특정 프로파일이 활성 프로파일이라면, 웹 페이지는 제2 사용자-특정 프로파일과 연관된 다른 쿠키에 따라 로딩될 것이다.In some embodiments, the request to perform one or more actions includes a request to load a web page (1836) and each of the actions includes loading the web page according to a cookie associated with the first user-specific profile . For example, in FIG. 17K, in response to receiving a request to display a web page 1740, the device is personalized for the user corresponding to the user-specific profile currently active based on the cookie associated with the active user- The web page 1740 is displayed. On the other hand, if the second user-specific profile is the active profile instead of the first user-specific profile being the active profile, then the web page will be loaded according to the other cookie associated with the second user-specific profile.
도 18a 및 도 18b의 동작들이 기술된 특정한 순서는 단지 예시적인 것이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 18a 및 도 18b와 관련하여 전술된 방법(1800)에 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(1800)과 관련하여 전술된 지문들, 제스처들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 제스처들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 18A and 18B are described is exemplary only, and that the sequences described are not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph in "Detailed Description of the Invention" Note that it is also applicable in a similar manner to the
일부 실시예들에 따르면, 도 19는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(1900)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 19에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 19 illustrates a functional block diagram of an
도 19에 도시된 바와 같이, 전자 디바이스(1900)는 디스플레이 유닛(1902), 각자의 입력 요소 유닛(1904)(예를 들어, 터치-감응 표면, 터치스크린 디스플레이, 마우스, 또는 다른 입력 요소), 지문 센서 유닛(1906), 및 디스플레이 유닛(1902), 각자의 입력 요소 유닛(1904) 및 지문 센서 유닛(1906)에 결합된 프로세싱 유닛(1908)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1908)은 획득 유닛(1910), 검출 유닛(1912), 선택 유닛(1914), 수행 유닛(1916), 결정 유닛(1918), 식별 유닛(1920) 및 디스플레이 인에이블링 유닛(1922)을 포함한다.19, the
프로세싱 유닛(1908)은 (예를 들어, 획득 유닛(1910)을 이용하여) 하나 이상의 사용자-특정 프로파일들, 및 각자의 사용자 부류에 각각 대응하는, 사용자-특정 프로파일들과는 구별되는 하나 이상의 부류-기반 프로파일들을 포함하는 복수의 프로파일들을 획득하고; (예를 들어, 검출 유닛(1912)을 이용하여) 지문 센서 유닛(1906) 상에서 제1 지문을 검출하고; 제1 지문이 제1 부류-기반 프로파일과 연관된 제1 사용자 부류 내의 사용자의 지문에 대응한다는 결정에 따라 제1 부류-기반 프로파일을 활성 프로파일로서 선택하는 것을 포함한, (예를 들어, 선택 유닛(1914)을 이용하여) 이전에 등록된 지문으로서의 제1 지문의 인증과는 상관없이, 디바이스와 연관된 하나 이상의 부류-기반 프로파일들을 제1 지문에 대응하는 활성 프로파일로서 선택하고; 디바이스에서 하나 이상의 동작들을 수행하라는 요청에 대응하는 입력을 각자의 입력 요소 유닛(1904)을 이용하여 수신하고; 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소 유닛(1904)을 이용하여 입력을 수신하는 것에 응답하여, (예를 들어, 수행 유닛(1916)을 이용하여) 요청 및 제1 부류-기반 프로파일에 기초하여 각자의 동작을 수행하도록 구성된다.The processing unit 1908 may include one or more user-specific profiles (e.g., using the acquisition unit 1910), one or more user-specific profiles that are distinct from user-specific profiles Obtaining a plurality of profiles including profiles; Detects the first fingerprint on the fingerprint sensor unit 1906 (e.g., using the detection unit 1912); Based profile to the active profile, in response to a determination that the first fingerprint corresponds to the user's fingerprint in the first user class associated with the first class-based profile (e.g., the selection unit 1914 Selecting one or more class-based profiles associated with the device as an activation profile corresponding to the first fingerprint, irrespective of authentication of the first fingerprint as a previously registered fingerprint); Receive input corresponding to a request to perform one or more operations on the device using its respective input element unit (1904); In response to receiving an input using the respective
일부 실시예들에서, 제1 부류-기반 프로파일이 제1 지문의 검출된 크기에 따라 선택된다.In some embodiments, a first class-based profile is selected according to the detected size of the first fingerprint.
일부 실시예들에서, 부류-기반 프로파일은 부류의 구성원들에 대해 디바이스의 동작을 제약한다.In some embodiments, the class-based profile constrains the operation of the device for members of the class.
일부 실시예들에서, 부류-기반 프로파일은 기능들을 부류의 구성원들에게 더 적절하게 만들도록 디바이스의 기능들을 변경한다.In some embodiments, the class-based profile changes the functionality of the device to make the functions more appropriate for the members of the class.
일부 실시예들에서, 부류-기반 프로파일이 사용자의 연령에 적어도 부분적으로 기초하고, 요청은 오디오를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자의 연령에 대해 조정된 오디오를 제시하는 것을 포함한다.In some embodiments, the class-based profile is based at least in part on the age of the user, and the request includes a request to present the content containing audio, wherein each action presents the adjusted audio for the age of the user .
일부 실시예들에서, 부류-기반 프로파일은 사용자의 연령에 적어도 부분적으로 기초하고, 요청은 시각적 컴포넌트를 포함하는 콘텐트를 제시하라는 요청을 포함하며, 각자의 동작은 사용자가 시각적 컴포넌트를 더 쉽게 볼 수 있도록 미디어의 시각적 컴포넌트를 조정하는 것을 포함한다.In some embodiments, the class-based profile is based at least in part on the age of the user, and the request includes a request to present the content containing the visual component, And adjusting the visual components of the media.
일부 실시예들에서, 디바이스가 요청과 연관된 하나 이상의 동작들을 수행하도록 허가된 활성 프로파일을 갖지 않는 경우, 각자의 동작은 오류 메시지이다.In some embodiments, if the device does not have an active profile that is authorized to perform one or more actions associated with the request, then each action is an error message.
일부 실시예들에서, 프로세싱 유닛(1908)은 제1 부류-기반 프로파일이 활성 프로파일로서 선택된 동안에 각자의 입력 요소 유닛(1904)을 이용하여 입력을 수신하는 것에 응답하여, (예를 들어, 수행 유닛(1916)을 이용하여) 각자의 동작을 수행하는 것에 더하여 하나 이상의 동작들을 수행하도록 구성된다.In some embodiments, the processing unit 1908 is responsive to receiving input using its respective
일부 실시예들에서, 프로세싱 유닛(1908)은 지문 센서 유닛(1906) 상에서 제1 지문을 검출한 후에, (예를 들어, 결정 유닛(1918)을 이용하여) 제1 지문의 지문 특징들을 결정하고, (예를 들어, 식별 유닛(1920)을 이용하여) 제1 지문의 지문 특징들과 부합하는 이전에 등록된 지문을 식별하며, (예를 들어, 선택 유닛(1914)을 이용하여) 이전에 등록된 지문과 연관된 제1 사용자-특정 프로파일을 활성 프로파일로서 선택하도록 구성된다.In some embodiments, after processing unit 1908 detects the first fingerprint on
일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 (예를 들어, 디스플레이 인에이블링 유닛(1922)을 이용하여) 개인 정보를 입력하기 위한 양식의 표시를 가능하게 하라는 요청을 포함하고, 각자의 동작은 제1 사용자-특정 프로파일 내의 정보에 기초하여 양식 내에 개인 정보를 자동으로 채우는 것을 포함한다.In some embodiments, the request to perform one or more actions includes a request to enable the display of a form for entering personal information (e.g., using the display enabling unit 1922) Includes automatically populating personal information in the form based on information in the first user-specific profile.
일부 실시예들에서, 하나 이상의 동작들을 수행하라는 요청은 웹 페이지를 로딩하라는 요청을 포함하고, 각자의 동작은 제1 사용자-특정 프로파일과 연관된 쿠키에 따라 웹 페이지를 로딩하는 것을 포함한다.In some embodiments, the request to perform one or more actions includes a request to load a web page, and each of the actions includes loading the web page according to a cookie associated with the first user-specific profile.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 18a 및 도 18b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 19에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(1804), 선택 동작(1806), 수신 동작(1822) 및 수행 동작(1824)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 18A and 18B are optionally implemented by the components shown in Figs. 1A and 1B or 19. For example, a
지문에 기초한 로깅 선호도의 변경Changing fingerprint-based logging preferences
다수의 전자 디바이스들은 다양한 방식으로 사용자 활동을 로깅한다. 예를 들어, 일부 디바이스들은 인터넷 브라우징 이력 및/또는 전화 이력과 같은 활동을 로깅한다. 다른 예로서, 일부 디바이스들은 디폴트 사전 내의 단어들에 해당하지 않음에도 불구하고 사용자에 의해 종종 사용되는, 빈번하게 사용되는 단어들을 로깅한다(예를 들어, "블라디보스톡"은 표준 디바이스 사전에 나타나지 않을 수 있지만, 러시아의 블라디보스톡으로부터의 사용자가 문자 "블라디보스톡"을 소정의 횟수만큼 텍스트 메시지에 타이핑하면, 이는 자동으로 추가될 것임). 또 다른 예로서, 일부 디바이스는 (예를 들어 회수(recovery) 애플리케이션을 통한 사용자의 요청에 따라) 디바이스가 분실되었거나 도난당한 것으로 판단되는 경우에 로깅 활동(예를 들어, 글로벌 위치확인 시스템, 또는 "GPS"로부터의 활동)을 시작한다. 그러나, 다수의 디바이스들(예를 들어, 휴대용 다기능 디바이스들)은 로깅 선호도를 변경하기 위한 편리한 방식을 제공하지 않는다. 예를 들어, 사용자가 다른 사용자에게 자신의 디바이스를 빌려주었을 때, 다른 사용자가 디바이스를 사용하기 전에 행동(예를 들어, 설정 메뉴에서의 설정의 변경)이 취해지지 않는 한 디바이스는 원치 않는 브라우저 이력, 전화 이력 및 자동수정(autocorrect) 입력을 계속 로깅할 것이다. 다른 예로서, 사용자가 로깅 특징을 (예를 들어, 예컨대 텍스트 "내 전화기를 찾아라"를 포함함으로써 로깅 동작을 활성화하는 적절한 단문 메시지 서비스, 또는 "SMS" 메시지를 디바이스에 전송함으로써) 원격으로 활성화시키지 않는 한, 그러한 디바이스들은 종종 회수 데이터(예를 들어, GPS 데이터)의 로깅을 중단할 것이다.Many electronic devices log user activity in a variety of ways. For example, some devices log activities such as Internet browsing history and / or phone history. As another example, some devices may log frequently used words that are often used by the user, even though they do not correspond to words in the default dictionary (e.g., "Vladivostok" However, if a user from Vladivostok, Russia, typed the text "Vladivostok" a predetermined number of times into a text message, this would be added automatically). As another example, some devices may use a logging activity (e. G., A global positioning system, or a " GPS "). However, many devices (e.g., portable multifunction devices) do not provide a convenient way to change logging preferences. For example, if a user lends his or her device to another user, and the device does not take action before the other user has used the device (for example, changing the settings in the settings menu) , Phone history, and autocorrect input. As another example, a user may remotely activate a logging feature (e.g., by sending an appropriate short message service, or "SMS" message to the device to activate the logging action, for example by including the text " Unless such devices will often stop logging of retrieved data (e.g., GPS data).
아래에 기술된 실시예들에서, 로깅 선호도를 변경하기 위한 향상된 방법이 지문을 검출하고 지문이 알려진 사용자의 프로파일에 대응하는지 여부를 결정함으로써 달성된다. 그러한 경우, 사용자의 프로파일은 활성 프로파일로서 설정되고, (예를 들어, 로깅 동작들을 포함하는) 한 세트의 동작들이 활성 프로파일에 따라 수행된다. 지문이 알려진 사용자에 대응하지 않는 경우, 활성 프로파일이 디폴트 프로파일(예를 들어, 게스트 프로파일)로 설정되며, 상이한 세트의 동작들이 수행된다. 이 방법은 로깅 선호도를 변경하는 프로세스를 간소화한다.In the embodiments described below, an improved method for changing logging preferences is achieved by detecting the fingerprint and determining whether the fingerprint corresponds to a profile of a known user. In such a case, the user's profile is set as the active profile, and a set of operations (including, for example, logging operations) are performed according to the active profile. If the fingerprint does not correspond to a known user, the active profile is set to a default profile (e.g., a guest profile), and a different set of operations are performed. This approach simplifies the process of changing logging preferences.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 20a 내지 도 20f 및 도 21a 및 도 21b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 20a 내지 도 20f 및 도 21a 및 도 21b와 관련하여 기술되는 실시예들은, 도 20a 내지 도 20f에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안에 터치 스크린(112) 및/또는 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 20a 내지 도 20f에서 묘사된 입력들을 검출하는 것에 응답하여 수행되는 디바이스 동작들과 관련하여 논의될 것이다. 그러나, 통합형 지문 센서(359-1)와 함께 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 20a 내지 도 20f에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 상에서 도 20a 내지 도 20f에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행될 수 있다. 일부 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 일부 실시예들에서, 포커스 셀렉터의 시각적 표현이 표시된다(예를 들어, 포커스 셀렉터가 가리키는 사용자 인터페이스 객체는 다른 사용자 인터페이스 객체들로부터 시각적으로 구별됨).In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 20a 내지 도 20d는 스캐닝된 지문이 사용자의 프로파일과 연관된다고 디바이스가 결정하는 일부 실시예들의 예를 도시한다.Figs. 20A-20D show examples of some embodiments in which a device determines that a scanned fingerprint is associated with a user's profile.
도 20a는 지문에 기초하여 로깅 선호도를 변경하는 디바이스 상에서 구현된 예시적인 사용자 인터페이스를 도시한다. 도 20a에서, 디바이스가 잠금되어 있는데, 이는 디바이스가 사용자에 의해 잠금해제될 때까지 디바이스의 적어도 일부 기능(예를 들어, 전화 기능, 애플리케이션들, 사진들 등)이 이용가능하지 않음을 의미한다. 이러한 예에서, 디바이스는 통합형 지문 센서(169)를 포함하는 홈 버튼(204)을 특징으로 한다.Figure 20A illustrates an exemplary user interface implemented on a device that changes logging preferences based on a fingerprint. In FIG. 20A, the device is locked, which means that at least some of the device's capabilities (e.g., phone functions, applications, pictures, etc.) are not available until the device is unlocked by the user. In this example, the device features a
도 20b에서, 지문(2006)이 지문 센서(169) 상에서 검출된다. 이러한 예에서, 디바이스에 의해 인식된 지문의 검출은 디바이스를 잠금해제한다. 일부 실시예들에서, 아래에서 기술되는 바와 같이, 인식되지 않는 지문이 검출될 때, 디바이스는 디폴트 또는 게스트 프로파일로 잠금해제된다. 이러한 예에서, 디바이스가 지문을 스캐닝하고 있으며 디바이스를 잠금해제하고 있음을 나타내기 위한 시각적 단서(2004)가 제공된다. 그러나, 일부 실시예들에서, 디바이스는 별도로(예를 들어, 잠금해제를 위한 스와이프(swipe-to-unlock)와 같은 제스처를 통해, 패스워드를 입력함으로써, 이들의 일부 조합, 또는 다른 잠금해제 기능을 통해) 잠금해제되어야 한다. 일부 실시예들에서, 디바이스는 각각이 고유의 사용자 프로파일을 갖는 몇몇 사용자들에 의해 잠금해제될 수 있다. 아래에서 설명되는 바와 같이, 디바이스가 고유한 사용자 프로파일과 연관된 각자의 고유한 사용자에 속하는 것으로 인식되는 지문에 의해 잠금해제되었을 때, 사용자의 프로파일이 활성 프로파일로서 설정된다.In Fig. 20B, the
도 20c에 도시된 예에서 보여지는 바와 같이, 디바이스는 지문이 사용자 John과 연관된 것으로 판단하였으며, 디바이스를 잠금해제하여 John의 프로파일을 활성 프로파일로서 설정하였다. 일부 실시예들에서, 사용자 프로파일은 사용자의 선호도, 설정들, 브라우저 이력, 전화 이력 등에 대한 정보를 (예를 들어, 하나 이상의 데이터베이스 내에) 저장한다. 일부 실시예들에서, 스캐닝된 지문(2006)이 John에 속한다고 디바이스가 결정할 때, 디바이스는 메모리로부터의 데이터베이스로부터 John의 선호도, 설정들, 이력 등을 검색하고 그에 따라 디바이스 거동을 변경한다. 예로서, 도 20c는 전화를 하기 위한 전화 애플리케이션의 선택에 대응하는 입력(예를 들어, 접촉(2008))을 도시한다. 디바이스는 도 20d에 도시된 바와 같이 전화 애플리케이션을 로딩함으로써 응답한다. John의 프로파일이 활성 프로파일이기 때문에, 편리한 다시 전화걸기(call back) 및 빈번하게 전화를 걸었던 번호들에 쉽게 전화를 걸기 위한 능력을 용이하게 하도록, John의 최근 전화 대화들의 목록(예를 들어, 전화 대화를 나타내는 사용자 인터페이스 객체(2009))이 표시된다.As shown in the example shown in Fig. 20C, the device determined that the fingerprint was associated with the user John, unlocked the device, and set John's profile as the active profile. In some embodiments, the user profile stores information (e.g., in one or more databases) about the user's preferences, settings, browser history, phone history, and the like. In some embodiments, when the device determines that the scanned
일부 실시예들에서, 디바이스는 다수의 사용자 프로파일들을 저장한다. 예를 들어, 디바이스가 지문을 스캔하고, 그 지문이 디바이스 상에서 사용자 프로파일을 또한 갖는 사용자 Jane과 연관된 것으로 결정할 때, 디바이스는 Jane의 프로파일을 로딩한다. 예로서, 전화 애플리케이션이 선택될 때 John의 최근 전화 대화들 대신에 Jane의 최근 전화 대화들이 Jane에게 이용가능하다.In some embodiments, the device stores a plurality of user profiles. For example, when a device scans a fingerprint and decides that the fingerprint is associated with a user Jane that also has a user profile on the device, the device loads Jane's profile. As an example, Jane's recent phone conversations are available to Jane instead of John's recent phone conversations when the phone application is selected.
일부 실시예들에서, 도 20a와 도 20b 및 도 20e와 도 20f에 도시된 바와 같이, 디바이스는 지문이 스캐닝되고 해당 지문이 사용자 프로파일을 갖는 사용자에 대응하지 않는다고 결정할 때 자신의 거동을 변경한다. 도 20a 및 도 20b는 이전의 예와 관련하여 이미 기술되었으며, 이 예에서는 지문(2006)이 사용자의 프로파일과 연관되지 않는다는 차이를 갖는다. 따라서, 도 20e에 도시된 바와 같이, 디바이스는 사용자를 "게스트 사용자"로 맞이하는데, 이는 게스트 또는 디폴트 프로파일이 활성 프로파일로서 설정되었음을 나타낸다. 도 20e 및 도 20f는 일부 실시예들에서 활성 프로파일로서 설정되는 디폴트 또는 게스트 프로파일에 따라 디바이스가 자신의 기능을 변경하는 방법의 예를 제공한다. 도 20e는 전화 애플리케이션의 선택에 대응하는 입력(예를 들어, 접촉(2010))의 검출을 도시한다. 활성 사용자의 최근 전화 대화들이 나타내어진 도 20d와는 대조적으로, 도 20f의 디바이스는 최근 대화들이 나열되지 않은 전화용 키패드 인터페이스를 표시한다. 따라서, 허가되지 않은 사용자가 허가된 사용자의 빈도 높은 연락처들을 보거나 그러한 연락처에 전화를 거는 것이 금지된다. 본 개시 내용이 식별된 사용자의 프로파일과 디폴트 사용자의 프로파일 사이의 넓은 범위의 기능 차이를 지원하고자 함을 이해하여야 한다. 디바이스 기능에서의 일부 그러한 선택적 차이들이 도 21a 및 도 21b를 참조하여 기술되는 방법(2100)과 관련하여 설명된다.In some embodiments, the device changes its behavior when it determines that the fingerprint is scanned and the fingerprint does not correspond to a user with a user profile, as shown in Figures 20a and 20b and 20e and 20f. 20A and 20B have already been described with reference to the previous example, and in this example there is a difference that the
도 21a 및 도 21b는 일부 실시예들에 따른 로깅 선호도를 변경하는 방법(2100)을 예시하는 흐름도이다. 방법(2100)은 각자의 입력 요소를 포함한 하나 이상의 입력 요소들 및 지문 센서를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디바이스는 디스플레이 및 터치-감응 표면을 포함한다.21A and 21B are flow charts illustrating a
일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고 터치-감응 표면은 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 일부 실시예들에서, 터치-감응 표면은 각자의 입력 요소 및/또는 지문 센서이다. 방법(2100) 내의 일부 동작들이 선택적으로 조합될 수 있고/있거나 일부 동작들의 순서가 선택적으로 변경된다.In some embodiments, the display is a touch screen display and the touch-sensitive surface is on a display. In some embodiments, the display is separate from the touch-sensitive surface. In some embodiments, the touch-sensitive surface is a respective input element and / or a fingerprint sensor. Some of the operations in
아래에 기술되는 바와 같이, 방법(2100)은 로깅 선호도를 변경하기 위한 직관적인 방식을 제공한다. 이 방법은 로깅 선호도를 변경할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 로깅 선호도를 더 빠르고 더 효율적으로 변경할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
각자의 입력 요소(예를 들어, 터치-감응 표면, 버튼 또는 키보드) 및 지문 센서를 갖는 디바이스는 지문 센서 상에서 제1 지문을 검출한다(2102).A device having a respective input element (e.g., a touch-sensitive surface, a button or a keyboard) and a fingerprint sensor detects a first fingerprint on the fingerprint sensor (2102).
디바이스는 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한다(2104). 일부 실시예들에서, 사용자 프로파일은 디폴트 프로파일이 아닌, 디바이스와 연관된 하나 이상의 사용자-특정 프로파일들, 포괄적 프로파일들 및 기타 비-디폴트 프로파일들의 세트로부터의 프로파일이다. 일부 실시예들에서, 지문 센서 상에서 제1 지문을 검출한 후 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하기 이전에, 디바이스는 제1 지문의 지문 특징들을 결정하고, 제1 지문의 지문 특징들과 부합하거나 연관된 이전에 등록된 지문이 있다면, 이를 식별한다. 제1 지문이 비-디폴트 프로파일과 연관된 각자의 이전에 등록된 지문에 대응하는 경우, 디바이스는 그 지문이 각자의 비-디폴트 프로파일과 연관된다고 결정한다. 대조적으로, 제1 지문이 비-디폴트 프로파일과 연관된 이전에 등록된 지문에 대응하지 않을 때, 디바이스는 지문이 어떠한 비-디폴트 프로파일과도 연관되지 않는다고 결정한다. 이러한 지문 분석/대조 동작들은 선택적으로 디바이스의 중앙 프로세싱 유닛에서 수행되는 반면, 다른 구현들에서 지문 분석/대조 동작들은 지문 센서와 연관된 보안 프로세싱 디바이스에서 수행된다. 이러한 지문 분석/대조 동작들은 선택적으로 지정된 시간에 (예를 들어, 도 20a 내지 도 20c와 관련하여 기술된 바와 같이 디바이스를 잠금해제할 때) 수행된다. 일부 실시예들에서, 지문 분석 및 대조는 지문이 검출되어 지문에 대한 프로파일에 대해 대조될 때마다 수행된다(예를 들어, 디바이스는 거의 끊임없이 사용자를 판단하고자 시도함).The device determines whether the first fingerprint is associated with a user profile associated with the device (2104). In some embodiments, the user profile is a profile from a set of one or more user-specific profiles, comprehensive profiles, and other non-default profiles associated with the device, and not a default profile. In some embodiments, after detecting the first fingerprint on the fingerprint sensor, the device determines fingerprint features of the first fingerprint and determines whether the first fingerprint is associated with a user profile associated with the device, If there is a previously registered fingerprint that matches or is associated with the fingerprint characteristics of the fingerprint. If the first fingerprint corresponds to a respective previously registered fingerprint associated with the non-default profile, the device determines that the fingerprint is associated with its respective non-default profile. In contrast, when the first fingerprint does not correspond to a previously registered fingerprint associated with a non-default profile, the device determines that the fingerprint is not associated with any non-default profile. These fingerprint analysis / verification operations are optionally performed in the central processing unit of the device, while in other implementations the fingerprint analysis / verification operations are performed in a security processing device associated with the fingerprint sensor. These fingerprint analysis / verification operations are optionally performed at a specified time (e.g., when unlocking the device as described in connection with Figures 20a-20c). In some embodiments, fingerprint analysis and verification is performed each time a fingerprint is detected and collated against a profile for the fingerprint (e.g., the device almost constantly attempts to determine the user).
제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에, 그리고 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라서, 디바이스는 각자의 사용자 프로파일을 활성 프로파일로서 설정한다(2106). 일부 실시예들에서, 한번에 단 하나의 사용자 프로파일만이 활성 프로파일이 될 수 있다. 일부 실시예들에서, 복수의 사용자 프로파일들이 동시에 활성 프로파일들이 될 수 있다. 예를 들어, 사용자-특정 프로파일 및 하나 이상의 포괄적인 프로파일들이 선택적으로 활성 프로파일들로서 동시에 선택되며, 복수의 활성 프로파일들과 연관된 설정들 및 기타 특징들이 디바이스에 의해 수신되는 입력들을 해석하기 위해 디바이스에 의해 사용된다. 이전에 논의된 바와 같이, 도 20c 및 도 20d는 디바이스가 단일 사용자의 프로파일(예를 들어, John에 속한 사용자 프로파일)로 설정되는 예를 도시한다.After determining whether the first fingerprint is associated with a user profile associated with the device, and according to a determination that the first fingerprint is associated with a respective user profile associated with the device, the device sets its user profile as the active profile 2106 ). In some embodiments, only one user profile at a time may be the active profile. In some embodiments, a plurality of user profiles can be active profiles at the same time. For example, a user-specific profile and one or more comprehensive profiles are optionally selected at the same time as active profiles, and settings and other features associated with a plurality of active profiles are provided by the device to interpret inputs received by the device Is used. As previously discussed, Figures 20c and 20d show an example in which the device is set to a single user's profile (e.g., a user profile belonging to John).
또한 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 임의의 사용자 프로파일과 연관되지 않는다는 결정에 따라, 디바이스는 디폴트 프로파일을 활성 프로파일로서 설정한다. 일부 실시예들에서, 디폴트 프로파일이 활성 프로파일인 때, 이는 유일한 활성 프로파일이다(예를 들어, 임의의 다른 프로파일이 디폴트 프로파일을 무효화함). 전술된 바와 같이, 도 20e 및 도 20f는 디바이스가 디폴트, 또는 게스트 프로파일로 설정되는 예를 도시한다.Also, after determining whether the first fingerprint is associated with a user profile associated with the device and the determination that the first fingerprint is not associated with any user profile associated with the device, the device sets the default profile as the active profile. In some embodiments, when the default profile is an active profile, this is the only active profile (e.g., any other profile invalidates the default profile). As described above, Figs. 20E and 20F show an example in which a device is set as a default or a guest profile.
디바이스는 각자의 입력 요소를 이용하여 입력을 수신하는데(2108), 여기서 입력은 요청된 동작을 수행하라는 요청에 대응한다. 일부 실시예들에서, 각자의 사용자 프로파일 또는 디폴트 프로파일이 활성 프로파일인 동안에(예를 들어, 각자의 사용자 프로파일 또는 디폴트 프로파일이 활성 프로파일로서 선택된 후에) 입력이 수신된다. 일부 실시예들에서, 디바이스는 입력을 수신하는 것에 응답하여 각자의 사용자 프로파일 또는 디폴트 프로파일을 활성 프로파일로서 선택할지 여부를 결정한다.The device receives
각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 디바이스는 제1 세트의 요청된 동작과 연관된 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행한다(2110). 또한, 각자의 입력 요소를 이용하여 입력을 수신하는 것에 응답하여, 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 디바이스는 제2 세트의 요청된 동작과 연관된 동작들을 디폴트 프로파일의 로깅 선호도에 따라 수행한다. 일부 실시예들에서, 프로파일의 로깅 선호도는 디바이스 상에서 수행되는 어느 활동들이 디바이스에 의해 로깅되거나 달리 기록될지를 나타내는 명령어에 대응한다. 예를 들어, 제1 사용자의 로깅 선호도는 브라우저 이력이 추적되고 애플리케이션 상태 정보(예를 들어, 열려있는 웹 브라우저 탭)가 저장됨을 나타내는 반면, 디폴트 로깅 선호도는 브라우저 이력이 추적되지 않으며 애플리케이션 상태 정보가 저장되지 않음을 나타낸다(예를 들어, 웹 브라우저가 활성 애플리케이션인 것을 중단할 때, 열려있는 웹 브라우저 탭들이 닫힐 것임).In response to receiving the input using its respective input element, the device determines one or more operations associated with the requested set of operations of the first set in the logging preference of the respective user profile, in accordance with a determination that the respective user profile is an active profile (2110). Also, in response to receiving an input using its respective input element, the device performs operations associated with the second set of requested operations in accordance with the logging profile preference of the default profile, in accordance with the determination that the default profile is an active profile. In some embodiments, the logging preference of the profile corresponds to an instruction indicating which activities performed on the device will be logged or otherwise recorded by the device. For example, the logging preference of the first user indicates that browser history is tracked and application state information (e.g., an open web browser tab) is stored, while default logging preferences indicate that browser history is not tracked and application state information (For example, when the web browser stops being an active application, the open web browser tabs will be closed).
일부 실시예들에서, 제1 세트의 동작들을 수행하는 것은 디바이스 상에서 수행되는 제1 유형의 동작의 로깅 동작들을 포함하고(2112), 제2 세트의 동작들을 수행하는 것은 각자의 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행된 제1 유형의 동작의 로깅 동작들을 중지하는 것을 포함한다. 따라서, 일부 실시예들에서, (예를 들어, 디바이스의 임시의/허가되지 않은 사용자들의 활동들로 사용자의 브라우징 이력 또는 최근 통화 로그를 클러터링(cluttering)하는 것을 막기 위해서) 디바이스는 임시의/허가되지 않은 사용자들의 소정의 활동들을 로깅하지 않는다.In some embodiments, performing the first set of operations comprises logging operations of a first type of operation performed on the device (2112), and performing the second set of operations includes logging preferences of respective user profiles And stopping the logging operations of the first type of operation performed on the device that was to be logged in accordance with < RTI ID = 0.0 > Thus, in some embodiments, the device may be able to temporarily or permanently block the user's browsing history or recent call log (e.g., to prevent cluttering of the user's browsing history or recent call logs with the activities of the temporary / unauthorized users of the device) And does not log certain activities of unauthorized users.
일부 실시예들에서, 제1 유형의 동작은 (예를 들어, 주 사용자에 의한) 디바이스의 이력적인 사용 패턴에 기초하여 디바이스의 동작을 커스터마이징하기 위해 디바이스에 의해 사용되는 동작들을 포함한다(2114). 예를 들어, 임시의/허가되지 않은 사용자가 디바이스를 사용하고 있다고 디바이스가 판단할 때, 디바이스는 허가된 사용자가 디바이스를 다시 사용하기 시작할 때까지, 자동수정 제안, 탐색 이력, 탐색 제안, 브라우저 이력, 사용자 이름/패스워드 로깅 정보, 최근에 사용된 애플리케이션, 최근에 전화한 전화번호, 이메일에 대한 읽음/읽지 않음 표시, 및/또는 디바이스에 대한 읽음/읽지 않음 통지 중 하나 이상을 커스터마이징하는 것을 중단한다. 일부 실시예들에서, 허가된 사용자가 디바이스를 다시 사용하기 시작한 후에, 디바이스는 제1 유형의 동작을 다시 로깅하기 시작한다. 따라서, 일부 실시예에서, 단일의 허가된 주 사용자를 갖는 디바이스의 경우, 사용자가 허가된 사용자의 친구 또는 가족 구성원과 같은 임시의/허가되지 않은 사용자에게 디바이스를 건네는 경우, 허가된 사용자의 사용 패턴들에 기초하여 결정된 디바이스의 "학습된" 커스터마이징이 방해되지 않는다. 오히려, 디바이스가 임시의/허가되지 않은 사용자에 의해 요청된 동작들을 수행하는 동안, 디바이스는 사용 패턴 이력에 따라 디바이스의 행동을 커스터마이징하기 위해 그러한 입력들을 무시한다.In some embodiments, the first type of operation includes operations used by the device to customize the operation of the device based on the device's historical usage pattern (e.g., by the primary user) (2114) . For example, when a device determines that a temporary / unauthorized user is using the device, the device may request an automatic modification proposal, a search history, a search suggestion, a browser history , User name / password logging information, recently used applications, recently dialed phone numbers, read / unread notifications for emails, and / or read / unread notifications for devices . In some embodiments, after the authorized user starts using the device again, the device begins to re-log the operation of the first type. Thus, in some embodiments, in the case of a device with a single authorized primary user, if the user hands the device to a temporary / unauthorized user, such as a friend or family member of an authorized user, The "learned" customization of the determined device is not hindered. Rather, while the device is performing operations requested by a temporary / unauthorized user, the device ignores such inputs to customize the behavior of the device according to the usage pattern history.
일부 실시예들에서, 제2 세트의 동작들을 수행하는 것은 디바이스 상에서 수행되는 제2 동작 유형의 로깅 동작들을 포함하고(2116), 제1 세트의 동작들을 수행하는 것은 디폴트 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행되는 제2 동작 유형의 로깅 동작들을 중지하는 것을 포함한다. 따라서, 일부 실시예들에서 허가되지 않은 사용자가 디바이스를 사용하고 있을 때, 허가되지 않은 사용자의 활동들이 디바이스에 의해 밀착 모니터링된다. 그러나, (예를 들어, 지문 센서 상에서 검출되는 허가된 사용자의 지문들에 의해 결정되는 바와 같이) 허가된 사용자가 디바이스를 사용하고 있을 때, 이러한 데이터는 허가된 사용자의 활동들을 불필요하게 침해하지 않기 위해 저장되지 않는다.In some embodiments, performing the second set of operations includes logging operations of a second type of operation performed on the device (2116), and performing the first set of operations may be performed according to a logging preference of the default user profile And stopping the logging operations of the second type of operation being performed on the device to be logged. Thus, in some embodiments, when an unauthorized user is using the device, the activities of the unauthorized user are closely monitored by the device. However, when an authorized user is using the device (e.g., as determined by fingerprints of an authorized user detected on the fingerprint sensor), such data does not unnecessarily infringe the activities of an authorized user It is not stored for.
일부 실시예들에서, 제2 동작 유형은 분실되거나 도난당한 디바이스와 연관된 범죄과학수사 동작들을 수행하는 것을 돕는 동작들을 포함한다(2118)(예를 들어, 위치 정보, 네트워크 활동, 브라우징 이력, 애플리케이션 이용, 은행 계좌 정보, 이메일, 음성메일 등과 같은 개인 정보에의 액세스를 로깅함). 따라서, 일부 실시예들에서, 디바이스가 허가되지 않은 사용자가 디바이스를 사용하고 있다고 판단하면, 이후에 금융 관련 상세사항들, 개인 이메일 등과 같은 민감한 정보를 위태롭게 했을 수 있는 허가되지 않은 사용자의 행동들이 허가된 사용자에게 나중에 알려질 수 있도록 디바이스는 선택적으로 허가되지 않은 사용자에 의해 수행되는 동작들을 추적하기 시작한다.In some embodiments, the second type of action includes actions 2118 (e. G., Location information, network activity, browsing history, application usage, etc.) to assist in performing criminal investigation activities associated with a lost or stolen device , Bank account information, email, voice mail, etc.). Thus, in some embodiments, if the device determines that an unauthorized user is using the device, then unauthorized user actions that may have jeopardized sensitive information such as financial details, personal e-mail, The device will begin to track operations performed by the user, optionally not authorized.
일부 실시예들에서, 제2 동작 유형은 디바이스의 위치 찾기를 돕는 동작들을 포함한다(예를 들어, GPS, WiFi 또는 다른 소스들로부터 식별된 위치 정보를 로깅함)(2120). 따라서, 일부 실시예들에서, 디바이스가 허가되지 않은 사용자가 디바이스를 이용하고 있다고 판단하면, 디바이스는 선택적으로 디바이스의 회수를 돕기 위해 디바이스 추적을 시작한다.In some embodiments, the second type of operation includes operations to assist in locating the device (e.g., logging location information identified from GPS, WiFi, or other sources) 2120. Thus, in some embodiments, if the device determines that an unauthorized user is using the device, the device optionally begins tracking the device to help recover the device.
일부 실시예들에서, 디바이스는 제2 동작 유형의 로깅 동작들의 표현을 포함하는 로그 기록을 (예를 들어, 주기적으로) 원격 서버에 전송한다. 일부 실시예들에서, 로그 기록은 (오직) 디바이스의 소유주에 대해서만 액세스 가능하며, 디바이스의 회수를 돕기 위해서 디바이스의 위치를 식별하는 것을 돕도록 디바이스 소유주에 의해 사용될 수 있다. 또한 일부 상황들에서, 로그 기록들은 통화 이력, 웹 브라우징 이력, 위치 데이터, 및/또는 지문 센서 상에서 검출되는 지문들의 기록과 같이 디바이스의 허가되지 않은 사용자의 아이덴티티를 판단하는 것을 돕는 정보를 제공한다.In some embodiments, the device sends a log record (e.g., periodically) containing a representation of the logging operations of the second type of operation to the remote server. In some embodiments, logging is accessible only to the owner of the device (only) and may be used by the device owner to help identify the location of the device to aid recovery of the device. Also in some situations, the log records provide information to help determine the identity of an unauthorized user of the device, such as a call log, web browsing history, location data, and / or a record of fingerprints detected on the fingerprint sensor.
도 21a 및 도 21b의 동작들이 기술된 특정한 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 21a 및 도 21b와 관련하여 전술된 방법(2100)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(2100)과 관련하여 전술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스 객체들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스 객체들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of FIGS. 21A and 21B are only illustrative and that the specific order in which they are described is not intended to indicate that the order described is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 22는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(2200)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 22에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 22 illustrates a functional block diagram of an
도 22에 도시된 바와 같이, 전자 디바이스(2200)는 지문 센서 유닛(2202); 입력 유닛(2204); 및 지문 센서 유닛(2202) 및 입력 유닛(2204)에 결합된 프로세싱 유닛(2208)을 포함한다. 전자 디바이스(2200)는 선택적으로 하나 이상의 인터페이스들 및/또는 하나 이상의 사용자 인터페이스 객체들의 표시를 가능하게 하도록 구성되는 디스플레이 유닛(2206)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(2208)은 검출 유닛(2210), 지문 결정 유닛(2212) 및 하나 이상의 각자의 동작 수행 유닛(2214)을 포함한다. 일부 실시예들에서, 하나 이상의 각자의 동작 수행 유닛(2214)은 하나 이상의 로깅 동작 유닛(2216)들(예를 들어, GPS 로깅 유닛, 브라우저 이력 로깅 유닛 등)을 포함한다.As shown in Fig. 22, the
프로세싱 유닛(2208)은 지문 센서 유닛(2212) 상에서 제1 지문을 검출하고, 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정하도록 구성된다. 제1 지문이 디바이스와 연관된 사용자 프로파일과 연관되는지 여부를 결정한 후에 그리고 제1 지문이 디바이스와 연관된 각자의 사용자 프로파일과 연관된다는 결정에 따라, 프로세싱 유닛(2208)은 각자의 사용자 프로파일을 활성 프로파일로서 설정하도록 구성되고; 제1 지문이 디바이스와 연관된 임의의 사용자 프로파일과 연관되지 않는다는 결정에 따라서, 프로세싱 유닛(2208)은 디폴트 프로파일을 활성 프로파일로서 설정하도록 구성된다. 각자의 입력 유닛(2204)으로부터 입력을 수신하는 것에 응답하여 그리고 각자의 사용자 프로파일이 활성 프로파일이라는 결정에 따라, 프로세싱 유닛(2208)은 요청된 동작과 연관된 제1 세트의 하나 이상의 동작들을 각자의 사용자 프로파일의 로깅 선호도에 따라 수행하도록 구성되고; 디폴트 프로파일이 활성 프로파일이라는 결정에 따라, 프로세싱 유닛(2208)은 요청된 동작과 연관된 제2 세트의 동작들을 디폴트 프로파일의 로깅 선호도에 따라 수행하도록 구성된다.The processing unit 2208 is configured to detect a first fingerprint on the
일부 실시예들에서, 제1 세트의 동작들을 수행하는 것은 디바이스 상에서 수행된 제1 유형의 동작의 로깅 동작들(예를 들어, 로깅 동작 유닛(2216)을 이용하여 수행됨)을 포함하고; 제2 세트의 동작들을 수행하는 것은 각자의 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행되는 제1 유형의 동작의 로깅 동작들을 중지하는 것을 포함한다.In some embodiments, performing the first set of operations includes logging operations of the first type of operation performed on the device (e.g., performed using the logging operation unit 2216); Performing the second set of actions includes stopping logging operations of a first type of operation performed on the device that would have been logged according to the logging preferences of the respective user profile.
일부 실시예들에서, 제1 유형의 동작들은 디바이스의 사용 패턴들의 이력에 기초하여 디바이스의 동작을 커스터마이징하기 위해 디바이스에 의해 사용되는 동작들을 포함한다.In some embodiments, the first type of operations include operations used by the device to customize the operation of the device based on the history of usage patterns of the device.
일부 실시예들에서, 제2 세트의 동작들을 수행하는 것은 디바이스 상에서 수행되는 제2 유형의 동작의 로깅 동작들(예를 들어, 동일한 로깅 동작 유닛(2216)을 이용해 수행되거나, 대안적으로 제1 세트의 동작들의 로깅 동작들에 사용되는 로깅 동작 유닛(2216)과는 상이한 로깅 동작 유닛(2216)을 이용하여 수행됨)을 포함하고; 제1 세트의 동작들을 수행하는 것은 디폴트 사용자 프로파일의 로깅 선호도에 따라 로깅되었을 디바이스 상에서 수행되는 제2 유형의 동작의 로깅 동작들을 중지하는 것을 포함한다.In some embodiments, performing a second set of operations may be performed using logging operations of a second type of operation performed on the device (e.g., using the same
일부 실시예들에서, 제2 유형의 동작은 (예를 들어, GPS 로깅 유닛을 이용하여) 분실되거나 도난당한 디바이스와 연관된 범죄과학수사 동작들을 수행하는 것을 돕는 동작들을 포함한다.In some embodiments, the second type of action includes operations that help perform criminal science investigative actions associated with a lost or stolen device (e.g., using a GPS logging unit).
일부 실시예들에서, 제2 유형의 동작은 (예를 들어, GPS 로깅 유닛을 이용하여) 디바이스의 위치 찾기를 돕는 동작들을 포함한다.In some embodiments, the second type of operation includes operations that help locate the device (e.g., using a GPS logging unit).
일부 실시예들에서, 프로세싱 유닛(2208)은 제2 유형의 동작의 로깅 동작들의 표현을 포함하는 로그 기록을 원격 서버에 전송하도록 추가로 구성된다.In some embodiments, the processing unit 2208 is further configured to send a log record to the remote server that includes a representation of the logging operations of the second type of operation.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 21a 및 도 21b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 22에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(2102), 편집 결정 동작(2104) 및 설정 동작(2106)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The above-described operations in conjunction with Figs. 21A and 21B are optionally implemented by the components shown in Figs. 1A and 1B or 22. For example, the
지문 검증 정보에 기초한 각자의 제약된 동작의 수행Performing constrained actions based on fingerprint verification information
다수의 전자 디바이스들은 사용자가 유효 허가 크리덴셜(credential)(예를 들어, 패스워드 또는 스와이프 패턴)을 입력한 것에 응답하여 제약된 동작을 수행할 수 있게 된다. 그러나, 그러한 디바이스들은 입력된 허가 크리덴셜을 유효화하기 위해 이전에 저장된 허가 크리덴셜과 입력된 허가 크리덴셜을 비교하는 제약된 동작에 의존한다. 아래에서 기술된 디바이스는 시스템-레벨 지문 검증 기준에 따라 각자의 지문에 대한 (예를 들어, "부합하지 않음," "약하게 부합함" 또는 "강하게 부합함"을 나타내는) 지문 검증 정보를 생성함으로써 기존의 방법들을 향상시킨다. 이어서, 디바이스는 제약된 동작을 수행할지 여부를 결정하기 위해 사전-컴퓨팅된 지문 검증 정보를 활용한다.Multiple electronic devices are enabled to perform a constrained operation in response to a user entering a valid authorization credential (e.g., a password or swipe pattern). However, such devices rely on constrained operations comparing the previously stored authorization credentials with the entered authorization credentials to validate the entered authorization credentials. The devices described below generate fingerprint verification information for each fingerprint (e.g., indicating "incompatible," " weakly matched "or" strong match ") according to a system- Improve existing methods. The device then utilizes the pre-computed fingerprint verification information to determine whether to perform the constrained operation.
디바이스는 (예를 들어, 지문이 각자의 신뢰도 수준에 할당되기 위해 얼마나 많은 검증된 특징점들을 필요로 하는지를 나타내는) 지문의 검증을 제어하기 위한 지문 검증 기준을 획득한다. 이어서, 디바이스는 하기에 적어도 부분적으로 기초하여 각자의 제한된 동작에 대응하는 각자의 입력에 대한 지문 검증 정보를 결정한다: 각자의 입력의 식별된 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준. 디바이스는 지문 검증 정보가 각자의 제약된 동작에 대한 동작-특정(또는 애플리케이션-특정) 허가 기준을 충족시킨다고 결정함에 따라 각자의 제약된 동작만을 수행한다.The device obtains fingerprint verification criteria to control verification of the fingerprint (e.g., indicating how many verified feature points the fingerprint requires to be assigned to its confidence level). The device then determines fingerprint verification information for each input corresponding at least in part to its limited action based on the fingerprint verification information of the respective input and the fingerprint characteristics of the one or more previously registered fingerprints , And fingerprint verification criteria. The device only performs its respective constrained actions as it determines that the fingerprint verification information meets the action-specific (or application-specific) permission criteria for each constrained action.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 23a 내지 도 23g 및 도 24a 내지 도 24d와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 따라, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 23a 내지 도 23g 및 도 24a 내지 도 24d와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2))와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 23a 내지 도 23g에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 23a 내지 도 23g에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 23a는 게임 애플리케이션(2310) 및 뱅킹 애플리케이션(2312)을 포함하는 복수의 애플리케이션들을 갖는 터치 스크린(112) 상의 사용자 인터페이스(400)를 표시하는 휴대용 다기능 디바이스(100)를 도시한다. 도 23a는 또한 홈 버튼(204)에 통합된 지문 센서(169)(예를 들어, 별개의 지문 센서(359-2))를 갖는 홈 버튼(204)을 도시한다. 대안적으로, 또는 부가적으로, 일부 실시예들에서 지문 센서가 터치 스크린(112)의 적어도 일부분에 통합된다(예를 들어, 통합형 지문 센서(359-1)).23A illustrates a
도 23b는 터치 스크린(112) 상의 사용자 인터페이스(400)의 뱅킹 애플리케이션(2312) 위에서 사용자 입력(2302)을 검출하는 휴대용 다기능 디바이스(100)를 도시한다. 예를 들어 사용자 입력(2302)은 사용자의 오른손 검지이다. 예를 들어, 뱅킹 애플리케이션(2312)에 대한 액세스는 제약된 동작이다.23B illustrates a
일부 실시예들에서, 휴대용 다기능 디바이스(100)는 사용자 입력(2302)이 터치 스크린(112) 상의 뱅킹 애플리케이션(2312) 위에 있는 동안에 터치 스크린(112)의 적어도 일부분과 통합된 지문 센서(예를 들어, 통합형 지문 센서(359-1))를 통해 사용자 입력(2302)의 지문 특징들을 식별한다. 예를 들어, 휴대용 다기능 디바이스(100)는 지문 종결부(ending)들, 지문 능선 분기부들, 및 짧은 지문 능선들을 포함하는 사용자 입력(2302)의 특징점들을 식별한다. 또한, 휴대용 다기능 디바이스(100)는 적어도 하기에 부분적으로 기초하여 각자의 사용자 입력(2302)에 대한 지문 검증 정보를 결정한다: 사용자 입력(2302)의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준.In some embodiments, the
일부 실시예들에서, 지문 검증 기준은 하나 이상의 이전에 등록된 지문들에 관하여 부합하는 특징점들의 백분율에 기초하는 검출된 지문에 대한 복수의 분류들(또는 신뢰도 값들)을 규정한다. 예를 들어, 사용자 입력(2302)은 지문 검증 기준에 따라 3개의 분류들(또는 신뢰도 값들) 중 하나로 분류된다. 이러한 예에서, 지문 검증 정보는 검출된 지문의 특징점들이 30% 이하로 부합하면 사용자 입력(2302)이 "부합하지 않음"을 나타내고, 검출된 지문의 특징점들이 30% 초과 70% 미만으로 부합하면 사용자 입력(2302)이 "약하게 부합함"을 나타내며, 검출된 지문의 특징점들이 70% 초과로 부합하면 사용자 입력(2302)이 "강하게 부합함"을 나타낸다. 일부 실시예들에서, 사용자는 예를 들어 3개의 분류들 중 각자의 하나의 분류와 관련된 상기 백분율 값들 중 하나 이상을 수정함으로써 지문 검증 기준을 수정할 수 있게 된다.In some embodiments, the fingerprint verification criteria defines a plurality of classifications (or confidence values) for the detected fingerprints based on a percentage of matching feature points for one or more previously registered fingerprints. For example, the
일부 실시예들에서, 휴대용 다기능 디바이스(100)는 사용자 입력(2302)이 터치 스크린(112) 상에 있는 동안에 사용자 입력(2302)의 지문 특징들을 식별하도록 구성되지 않는다. 다시 말하면, 휴대용 다기능 디바이스(100)는 터치 스크린(112)에 통합된 지문 센서(예를 들어, 통합형 지문 센서(359-1))를 구비하지 않는다. 터치 스크린(112) 상의 뱅킹 애플리케이션(2312)(예를 들어, 제약된 동작) 위에서 사용자 입력(2302)을 검출하는 것에 응답하여, 휴대용 다기능 디바이스(100)는 사용자가 홈 버튼(204)에 통합된 전용 지문 센서(169)(예를 들어, 별개의 지문 센서(359-2)) 상에 지문을 제공하도록 프롬프트한다.In some embodiments, the
도 23c는 도 23b의 터치 스크린(112) 상의 뱅킹 애플리케이션(2312)(예를 들어, 제약된 동작) 위에서 입력(2302)을 검출하는 것에 응답하여, 사용자가 홈 버튼(204)에 통합된 전용 지문 센서(169) 상에 지문을 제공하도록 유도하는 휴대용 다기능 디바이스(100)를 도시한다. 도 23c는 뱅킹 애플리케이션(2312)에 액세스하기 위해 지문 식별이 요구된다는 것을 나타내는 터치 스크린(112)의 사용자 인터페이스(400) 상에 표시된 텍스트 박스(2304)를 도시한다.23C is a flow chart illustrating a method for determining whether a user has selected a dedicated fingerprint (e.g., fingerprint) integrated in the
도 23d는 도 23c에서의 프롬프트에 응답하여 홈 버튼(204)과 통합된 지문 센서(169) 위에서 사용자 입력(2306)을 검출하는 휴대용 다기능 디바이스(100)를 도시한다. 예를 들어, 사용자 입력(2306)은 사용자의 오른손 검지이다. 지문 센서(169)는 사용자 입력(2306)의 지문 특징들을 식별하고, 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정한다: 각자의 입력(2306)의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교, 및 지문 검증 기준.Figure 23d shows a
도 23e는 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)을 검출하는 것에 응답하여, 그리고 각자의 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준(예를 들어, 뱅킹 애플리케이션(2312)에 의해 설정된 동작-특정 기준)을 충족하지 않는다는 결정에 따라, 디바이스가 각자의 제약된 동작을 수행하는 것을 중지함(예를 들어, 뱅킹 애플리케이션(2312)에 대한 액세스를 거부함)을 나타내는 터치 스크린(112)의 사용자 인터페이스(400) 상에 표시된 텍스트 박스(2308)를 도시한다. 예를 들어, 뱅킹 애플리케이션(2312)의 허가 기준은 뱅킹 애플리케이션(2312)(예를 들어, 보안 애플리케이션)에 액세스하기 위해 "강하게 부합함"을 요구하고, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)에 대응하는 지문 검증 정보는 "약하게 부합함"을 나타낸다. 반면에, 게임 애플리케이션(2310)의 허가 기준은 게임 애플리케이션(2310)(예를 들어, 비보안 애플리케이션)에 액세스하기 위해 "약하게 부합함"만을 요구한다. 이러한 예에서, 각자의 지문 검증 정보가 뱅킹 애플리케이션(2312)의 허가 기준을 충족시키지 않기 때문에 뱅킹 애플리케이션(2312)에의 액세스가 거부된다.23E is a flowchart illustrating a method of generating fingerprint verification information in response to detecting the
도 23f는 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)을 검출하는 것에 응답하여 그리고 각자의 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 각자의 제약된 동작을 수행하는 것(예를 들어, 뱅킹 애플리케이션(2312)에 대한 액세스를 허가하며 이를 표시함)을 도시한다. 예를 들어, 뱅킹 애플리케이션(2312)의 허가 기준이 뱅킹 애플리케이션(2312)에 액세스하기 위해 "강하게 부합함"을 요구하고, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)에 대응하는 지문 검증 정보가 "강하게 부합함"을 나타낸다. 이러한 예에서, 각자의 지문 검증 정보가 뱅킹 애플리케이션(2312)의 허가 기준을 충족시켰기 때문에 뱅킹 애플리케이션(2312)에 대한 액세스가 허가되며, 뱅킹 애플리케이션(2312)이 터치 스크린(112)의 사용자 인터페이스(400) 상에 표시된다.23F is a flowchart illustrating a method of generating fingerprint information in response to detecting
도 23g는 일부 실시예들에 따라 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행하는 프로세스(2320)의 개략도를 도시한다. 일부 실시예들에서, 프로세스(2320)는 휴대용 다기능 디바이스(100) 또는 휴대용 다기능 디바이스(100)의 컴포넌트에서 수행된다. 일부 실시예들에서, 프로세스(2320)의 적어도 일부분이 휴대용 다기능 디바이스(100)의 컴포넌트에서 수행된다. 예를 들어, 지문 모듈(2322)은 휴대용 다기능 디바이스(100)의 컴포넌트이고, 지문 모듈(2322)은 (예를 들어, 통합형 지문 센서(359-1) 및/또는 별개의 지문 센서(359-2)를 포함하는) 하나 이상의 지문 센서(2324), 지문 메모리(2326) 및 라인(2323)을 통해 하나 이상의 지문 센서(2324)들에 결합되고 라인(2325, 2327)들을 통해 지문 메모리(2326)에 결합되는 지문 프로세싱 로직(2328)을 포함한다.Figure 23g shows a schematic diagram of a
하나 이상의 지문 센서(2324)들은 각자의 입력의 지문 특징들을 식별하도록 구성된다. 지문 메모리(2326)는 하나 이상의 이전에 등록된 지문들의 지문 특징들을 저장하도록 구성된다. 일부 실시예들에서, 지문 메모리(2326)는 지문 검증 기준을 또한 저장하도록 추가로 구성된다. 지문 프로세싱 로직(2328)은 하기에 적어도 부분적으로 기초하여 지문 검증 정보를 결정하도록 구성된다: 라인(2325)을 통해 지문 메모리(2326)로부터 획득된 지문 검증 기준; 및 라인(2323)을 통해 하나 이상의 지문 센서(2324)들로부터 획득된 각자의 입력의 지문 특징들과 라인(2327)을 통해 지문 메모리(2326)로부터 획득된 하나 이상의 이전에 등록된 지문들의 지문 특징들의 비교. 지문 프로세싱 로직(2328)은 라인(2337)을 통해 지문 검증 정보를 각자의 제약된 동작 모듈(2337)로 제공하도록 추가로 구성된다. 일부 실시예들에서, 지문 모듈(2322)은 지문 검증 정보의 보안을 강화하도록 추가적인 보안 특징들을 갖는 보안된 전용 컴퓨팅 하드웨어로 이루어진다.One or
일부 실시예들에서, 지문 프로세싱 로직(2328)의 부합 지문 식별 모듈(2332)은 지문 검증 기준에 따라 부합 지문을 식별한다. 일부 실시예들에서, 지문 프로세싱 로직(2328)의 최상 부합 지문 식별 모듈(2332)은 지문 검증 기준에 따라 최상 부합 지문을 식별한다. 또한, 일부 실시예들에서, 신뢰도 할당 모듈(2336)은 최상 부합 지문에 대해 부합 신뢰도 값을 할당한다.In some embodiments, the matching
각각의 제약된 동작 모듈(2338)(예를 들어, 뱅킹 애플리케이션)은 지문 프로세싱 로직(2328)으로부터 라인(2337)을 통해 지문 검증 정보를 획득하며, 결정 모듈(2340)을 통해 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시키는지 여부를 결정한다. 수행 모듈(2342)은 지문 프로세싱 로직(2328)으로부터 획득된 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준을 충족시키는 경우, 제약된 동작을 수행한다(예를 들어, 뱅킹 애플리케이션에 대한 액세스를 허여함). 중지 모듈(2344)은 지문 프로세싱 로직(2328)으로부터 획득된 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준을 충족시키지 않는 경우, 제약된 동작의 수행을 중지한다(예를 들어, 뱅킹 애플리케이션에 대한 액세스를 거부함).Each constrained action module 2338 (e.g., a banking application) obtains fingerprint verification information from the
도 24a 내지 도 24d는 일부 실시예들에 따른 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행하는 방법(2400)을 예시한 흐름도이다. 방법(2400)은 디스플레이 및 지문 센서를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 지문 센서가 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 지문 센서와는 별개이다. 방법(2400) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.24A-24D are flowcharts illustrating a
아래에 기술되는 바와 같이, 방법(2400)은 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행하기 위한 직관적인 방식을 제공한다. 이 방법은 지문 검증 정보에 기초하여 각자의 제약된 동작을 수행할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 지문 검증 정보에 기초하여 각자의 제한된 동작을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
디바이스는 지문의 검증을 제어(예를 들어, 결정 또는 생성)하기 위한 지문 검증 기준을 획득(2402)(예를 들어, 메모리로부터 검색 또는 원격 컴퓨터 시스템으로부터 수신)하거나 (예를 들어, 메모리 내에서 또는 지문 모듈(2322)의 하나 이상의 명령어들 내에서) 지문 검증 기준에 액세스한다. 예를 들어, 지문 검증 기준은 검출된 지문이 이전에 등록된 지문임을 결정하기 위해 검증되어야 하는 지문의 특징점들의 개수를 설정하고/하거나 검출된 지문과 이전에 등록된 지문 사이의 부합의 신뢰도를 나타내는 상이한 신뢰도 수준들에 할당되기 위해서 지문에 대해 지문의 얼마나 많은 검증된 특징점들이 검증될 필요가 있는지를 설정한다. 예를 들어, 도 23g는 지문 검증 정보를 결정하기 위해 라인(2325)을 통해 지문 메모리(2326)로부터 지문 검증 기준을 획득하는 지문 프로세싱 로직(2328)을 도시한다.The device may acquire 2402 (e.g., retrieve from memory or receive from a remote computer system) fingerprint verification criteria to control (e.g., determine or generate) the verification of the fingerprint (e.g., Or within one or more instructions of the fingerprint module 2322). For example, a fingerprint verification criterion can be established by setting the number of feature points of a fingerprint that must be verified to determine that the detected fingerprint is a previously registered fingerprint, and / or establishing the reliability of matching between the detected fingerprint and the previously registered fingerprint Sets how many verified feature points of the fingerprint need to be verified for the fingerprint to be assigned to different confidence levels. For example, FIG. 23g shows
일부 실시예들에서, 지문 검증 기준은 한 세트의 디폴트 기준을 포함하며(2404); 지문 검증 기준을 획득하는 것은: 지문 검증 기준에 대한 수정을 나타내는 기준-조정 입력을 사용자로부터 수신하는 것, 및 기준-조정 입력을 수신한 것에 응답하여 하나 이상의 디폴트 기준을 지문 검증 기준 내의 대응하는 수정된 기준으로 대체하는 것을 포함한다. 예를 들어, 사용자-조정가능한 설정 모드 동안에, 디바이스는 시스템-레벨 검증 기준을 규정하는 사용자 입력을 수신한다. 일부 실시예들에서, 지문 검증 기준을 변경하는 것은 어떤 지문들이 어떤 입력들과 부합하는지를 그리고/또는 부합의 신뢰도 수준을 변경할 것이다. 따라서, 일부 실시예들에서, 디폴트 지문 검증 기준을 사용하여 제1 지문과 제1 신뢰도 수준으로 부합되었을 입력이 대신에, 수정된 지문 검증 기준을 이용하여 (제1 신뢰도 수준과는 상이한) 제2 신뢰도 수준으로 제1 지문과 부합할 것이다.In some embodiments, the fingerprint verification criteria includes a set of default criteria (2404); Obtaining a fingerprint verification criterion comprises: receiving a criterion input from the user, the criterion indicating a modification to the fingerprint verification criterion, and the corresponding correction in the fingerprint verification criterion in response to receiving the criterion- Based on the standards. For example, during a user-adjustable set mode, the device receives a user input that defines a system-level verify criterion. In some embodiments, changing the fingerprint verification criteria will change which fingerprints match which inputs and / or the confidence level of compliance. Thus, in some embodiments, instead of using the default fingerprint verification criteria to indicate that the first fingerprint and the input that would have met the first confidence level are replaced by a second fingerprint verification criterion (different from the first confidence level) It will match the first fingerprint with a level of confidence.
일부 환경들에서, 각자의 입력이 이전에 등록된 지문과 부합하는 것으로 식별되거나 각자의 입력이 이전에 등록된 지문과 부합하는 특정한 신뢰도 수준에 도달하기 위해서 각자의 입력과 이전에 등록된 지문 사이의 더 밀접한 부합이 요구되도록 지문 검증 기준이 조정된다. 예를 들어, 사용자는 잘못된 네거티브 부합 가능성이 대응하여 증가하는 대신 잘못된 포지티브 부합 가능성을 감소시킴으로써 디바이스의 보안을 증가시킨다. 일부 환경들에서, (예를 들어, 지문 부합에 대해 요구되는 신뢰도 수준을 감소시킴으로써) 지문 검증 기준이 조정되어, 각자의 입력을 이전에 등록된 지문과 부합하는 것으로 식별하기 위한 각자의 입력과 이전에 등록된 지문 사이의 덜 밀접한 부합이 수용될 것이다. 예를 들어, 사용자는 잘못된 네거티브 부합 가능성의 대응하는 감소 대신에 잘못된 포지티브 부합 가능성을 증가시킴으로써 디바이스의 보안을 감소시킨다.In some circumstances it may be desirable to determine whether each input is identified as matching a previously registered fingerprint or whether each input is associated with a previously registered fingerprint to arrive at a particular confidence level that matches the previously registered fingerprint Fingerprint verification criteria are adjusted so that more close conformity is required. For example, a user increases the security of a device by reducing the likelihood of false positive compliance, instead of increasing the likelihood of false negative compliance. In some circumstances, the fingerprint verification criteria may be adjusted (e.g., by reducing the level of confidence required for fingerprint matching) so that each input to identify each input as matching the previously registered fingerprint, A less intimate match between registered fingerprints will be accepted. For example, the user reduces the security of the device by increasing the likelihood of false positive conformance instead of a corresponding reduction of false negative conformance probability.
각자의 제약된 동작들에 대응하는 복수의 입력들 각각에 대하여(2406), 디바이스는 각자의 입력의 지문 특징들을 식별한다(2408). 예를 들어 도 23d는 사용자 입력(2306)의 지문 특징들을 식별하는 휴대용 다기능 디바이스(100)의 홈 버튼(204)과 통합된 지문 센서(169)를 도시한다.For each of a plurality of inputs corresponding to their respective
또한, 각자의 제약된 동작들에 대응하는 복수의 입력들 각각에 대하여(2406), 디바이스는 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 결정한다(2410): 각자의 입력의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교(2412), 및 지문 검증 기준(2414). 일례로서, 휴대용 다기능 디바이스(100)는 지문 센서(예를 들어, 도 23d의 홈 버튼(204)에 통합형 지문 센서(169)) 상에서 지문(예를 들어, 도 23d의 사용자 입력(2306))을 검출하고, 지문의 특징들을 식별하며, 지문의 특징들을 이전에 등록된 지문의 특징들과 비교한다. 다수의 환경들에서, 검출된 지문(예를 들어, 도 23d의 사용자 입력(2306))의 특징들과 이전에 등록된 지문은 완벽하게 부합하지 않을 것이며(예를 들어, 검출된 지문이 10개의 특징점들 중 5개가 부합함), 따라서 검출된 지문이 이전에 등록된 지문과 부합하는지 아닌지 여부가 모호하다. 이러한 모호성을 해결하기 위해서, 디바이스는 선택적으로 검출된 지문의 특징들과 이전에 등록된 지문의 특징들 사이의 비교 결과에 대해 지문 검증 기준을 적용한다. 예를 들어, 지문 검증 기준은 3개 이하의 특징점들(30% 이하)과 부합하는 검출된 지문은 "부합하지 않음"으로 분류되는 반면, 4 내지 6개의 특징점들(30% 초과, 70% 미만)과 부합하는 검출된 지문은 "약하게 부합함"으로 분류되며, 7개 이상의 특징점들(70% 이상)과 부합하는 검출된 지문은 "강하게 부합함"으로 분류된다고 규정한다.Also, for each of a plurality of inputs corresponding to their respective
일부 실시예들에서, 디바이스는 다수의 상이한(예를 들어, 순차적인) 각자의 입력들에 대해 지문들을 프로세싱하기 위해 동일한 지문 검증 기준을 사용한다(2416). 예를 들어, 지문 검증 기준은 시스템-레벨 기준 또는 동작-독립적 기준이며, 지문 검증 정보가 사용될 동작과 무관하게 지문 검증 정보를 생성하기 위해서 검출된 지문과 이전에 등록된 지문들 간의 비교에 적용된다.In some embodiments, the device uses the same fingerprint verification criteria (2416) to process fingerprints for a number of different (e.g., sequential) inputs. For example, a fingerprint verification criterion is a system-level criterion or an action-independent criterion and is applied to a comparison between a fingerprint that has been detected to generate fingerprint verification information and fingerprints that were previously registered, irrespective of the operation in which the fingerprint verification information is to be used .
일부 실시예들에서, 디바이스는 각자의 입력 내의 특징점들을 식별하고; 각자의 입력 내에서 식별된 특징점들과 복수의 후보 지문들 내의 특징점들을 대조하며; 가장 많은 수의 부합 특징점들을 갖는 각각의 후보 지문을 부합 지문으로 선택함으로써, 지문 검증 정보를 결정한다(2418). 일부 실시예들에서, 지문에 대한 특징점들은 지문 능선 종결부들, 지문 능선 분기부들 및 (때때로 도트라 불리는) 짧은 지문 능선들 중 하나 이상을 포함한다. 지문 능선 종결부는 지문 능선이 종료되는 지점이다. 지문 능선 분기부는 단일 지문 능선이 2개의 지문 능선들로 분할되는 지점이다. 짧은 지문 능선은 지문 내의 지문 능선의 평균 능선 길이보다 뚜렷하게 더 짧은 능선이다. 예를 들어, 도 23g는 가장 많은 수의 부합 특징점들을 갖는 각자의 후보 지문을 부합 지문으로서 선택하도록 구성된 부합 지문 식별 모듈(2332)을 도시한다.In some embodiments, the device identifies feature points in their respective inputs; Collating minutiae points within the plurality of candidate fingerprints with minutiae points identified within their respective inputs; The fingerprint verification information is determined (2418) by selecting each candidate fingerprint having the largest number of matching feature points as the matching fingerprint. In some embodiments, the feature points for the fingerprint include one or more of fingerprint ridge endings, fingerprint ridge branches, and short fingerprint ridges (sometimes called dots). The fingerprint ridge end is the point where the fingerprint ridge ends. The fingerprint ridge branch is where the single fingerprint ridge is divided into two fingerprint ridges. The short fingerprint ridge is a ridge shorter than the average fingerprint ridge length in the fingerprint. For example, FIG. 23G shows a matching
일부 실시예들에서, 디바이스는 각자의 입력 내의 특징점들을 식별하고; 각자의 입력 내에서 식별된 특징점들과 복수의 후보 지문들 내의 특징점들을 대조하며; 가장 많은 수의 부합 특징점들을 갖는 각각의 후보 지문을 최상 부합 지문으로 선택함으로써, 지문 검증 정보를 결정한다(2420). 예를 들어, 도 23g는 가장 많은 수의 부합 특징점들을 갖는 각자의 후보 지문을 최상 부합 지문으로서 선택하도록 구성된 부합 지문 식별 모듈(2334)을 도시한다.In some embodiments, the device identifies feature points in their respective inputs; Collating minutiae points within the plurality of candidate fingerprints with minutiae points identified within their respective inputs; By selecting each candidate fingerprint having the largest number of matching feature points as the best matching fingerprint, the fingerprint verification information is determined (2420). For example, FIG. 23G shows a matching
일부 실시예들에서, 디바이스는 각자의 입력 내의 제1 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라, 최상 부합 지문에 제1 신뢰도 값을 할당한다(2422). 디바이스는 또한 각자의 입력 내의 제2 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라 최상 부합 지문에 제2 신뢰도 값을 할당한다(2424). 제2 개수의 특징점들은 제1 개수의 특징점들보다 더 많으며(2426), 제2 신뢰도 값이 제1 신뢰도 값에 의해 나타내어지는 것보다 각자의 입력과 최상 부합 지문 사이의 더 밀접한 부합을 나타낸다(2428). 예를 들어, 도 23g는 각자의 신뢰도 값을 최상 부합 지문에 할당하도록 구성된 신뢰도 값 할당 모듈(2336)을 도시한다. 일부 실시예들에서, 각자의 입력 내의 제2 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합할 때, 제2 신뢰도 값만이 최상 부합 지문에 할당된다.In some embodiments, the device assigns (2422) a first confidence value to the best matching fingerprint according to a determination that the first number of feature points in each input match the corresponding feature points in the best match fingerprint. The device also assigns 2424 a second confidence value to the best match fingerprint according to a determination that a second number of feature points within each input match the corresponding feature points in the best match fingerprint. The second number of feature points is greater than the first number of
일부 실시예들에서, 지문 검증 정보는 지문 검증 기준에 따라 결정된 부합 지문을 식별하는 정보(2432)를 포함한다(2430). 예를 들어, 도 23g는 지문 검증 정보 내에 부합 지문을 식별하는 정보를 포함하도록 구성된 부합 지문 식별 모듈(2332)을 도시한다.In some embodiments, the fingerprint verification information includes
일부 실시예들에서, 지문 검증 정보는 복수의 이전에 등록된 지문들 중, 지문 검증 기준에 따라 식별되는 최상 부합 지문을 식별하는 정보(2434); 및 제1 입력과 최상 부합 지문 사이의 부합의 신뢰도를 나타내는, 지문 검증 기준에 따라 결정되는 지문 부합 신뢰도 값을 포함한다(2430). 예를 들어, 도 23g는 최상 부합 지문을 식별하는 정보 및 지문 검증 정보 내의 부합 신뢰도 값을 포함하도록 구성된 최상 부합 지문 확인 모듈(2334)을 도시한다.In some embodiments, the fingerprint verification information includes information (2434) identifying a best matching fingerprint identified among the plurality of previously registered fingerprints according to the fingerprint verification criteria; And a fingerprint matching confidence value determined in accordance with a fingerprint verification criterion, which indicates the reliability of matching between the first input and the best matching fingerprint (2430). For example, FIG. 23G shows the best matching
각자의 입력을 검출하는 것에 응답하여(2436), 디바이스는 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준(예를 들어, 동작-특정 허가 기준)을 충족시키지 않는다는 결정에 따라 각자의 제약된 동작의 수행을 중지한다(2438). 예를 들어, 각자의 허가 기준은 이전에 등록된 지문들 중 어떤 지문이 각자의 제약된 동작을 수행하도록 허가되었는지를 나타내며, 선택적으로 각자의 제약된 동작이 수행되기 위해 충족되어야 하는 최소 신뢰도 수준을 나타낸다. 예를 들어, 도 23e는 도 23b의 터치 스크린(112) 상의 사용자 입력(2303) 또는 도 23d의 지문 센서(169) 상의 사용자 입력(2306)에 응답하여, 그리고 (예를 들어, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)의 검출에 응답하여 생성된) 지문 검증 정보가 뱅킹 애플리케이션(2312)에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라, 뱅킹 애플리케이션(2312)에 대한 액세스를 거부하는 휴대용 다기능 디바이스를 도시한다.In response to detecting each input (2436), the device may determine that the fingerprint verification information does not satisfy the respective constrained criteria (e.g., the action-specific permission criteria) The execution of the operation is stopped (2438). For example, each permission criterion indicates which of the previously registered fingerprints is authorized to perform their respective constrained actions, and optionally the minimum confidence level that each constrained action must be satisfied to perform . For example, FIG. 23E may be used in response to user input 2303 on the
각자의 입력을 검출하는 것에 응답하여(2436), 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 디바이스가 각자의 제약된 동작을 수행한다(2440). 예를 들어, 도 23f는 도 23b의 터치 스크린(112) 상의 사용자 입력(2302) 또는 도 23d의 지문 센서(169) 상의 사용자 입력(2306)에 응답하여, 그리고 (예를 들어, 도 23b의 사용자 입력(2302) 또는 도 23d의 사용자 입력(2306)의 검출에 응답하여 생성된) 지문 검증 정보가 뱅킹 애플리케이션(2312)에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라, 뱅킹 애플리케이션(2312)(예를 들어, 각자의 제약된 동작)에 대한 액세스를 허가하고 이를 표시하는 휴대용 다기능 디바이스(100)를 도시한다.In response to detecting each input (2436), the device performs its respective constrained operation (2440), in accordance with a determination that the fingerprint verification information meets its respective permission criteria for its constrained operation. For example, FIG. 23F may be used in response to
예를 들어, 지문 검증 기준에 따라 검출된 지문이 분류된 후에, 애플리케이션-특정 또는 동작-특정 허가 기준에 따라 이러한 지문 검증 정보(예를 들어, "부합하지 않음," "약하게 부합함," 또는 "강하게 부합함")가 핸들링을 위해 개별 애플리케이션들로 전달된다. 예를 들어 일부 환경들에서, 게임 애플리케이션(2310)과 같은 비보안 애플리케이션(예를 들어, 사용자 식별을 위해서만 지문 검증 정보에 의존하는 애플리케이션)이 약한 부합만을 요구하는 허가 기준을 사용하며, 따라서 게임 애플리케이션(2310)은 (예를 들어, 지문 검증 기준에 따라) 검출된 지문이 제1 지문에 대해 "약하게 부합함" 또는 "강하게 부합함"으로 분류된다면, 검출된 지문을 제1 지문으로서 수용할 것이다. 반면에, 일부 환경들에서, 뱅킹 애플리케이션(2312)과 같은 보안 애플리케이션(예를 들어, 민감한 정보에 대한 액세스를 허용할지 여부를 결정하기 위해 지문 검증 정보에 의존하는 애플리케이션)이 강한 부합을 요구하는 허가 기준을 사용하며, 따라서 뱅킹 애플리케이션(2312)은 (예를 들어, 지문 검증 기준에 따라) 검출된 지문이 제1 지문에 대해 "강하게 부합함"으로 분류될 때에만, 검출된 지문을 제1 지문으로서 수용할 것이다.For example, after the detected fingerprints are classified according to the fingerprint verification criteria, such fingerprint verification information (e.g., "incompatible," "Quot; strong match ") is delivered to the individual applications for handling. For example, in some circumstances, a non-secure application (e.g., an application that relies only on fingerprint verification information for user identification), such as
위의 예에서, 게임 애플리케이션(2310) 및 뱅킹 애플리케이션(2312)은 모두 검출된 지문과 이전에 등록된 지문들을 직접 비교하기보다는 지문 검증 기준에 따라 생성된 사전-컴퓨팅된 지문 검증 정보(예를 들어, "부합하지 않음," "약하게 부합함," 또는 "강하게 부합함")에 의존한다. 예비 사항으로서, 비교 프로세스를 1회 수행하여 복수의 애플리케이션들 또는 프로세스들에게 사전-컴퓨팅된 지문 검증 정보를 제공하는 것은 디바이스(100)에 의해 사용되는 컴퓨팅 리소스를 실질적으로 감소시킬 수 있음으로써, 에너지 효율성, 배터리 수명 및 디바이스(100)의 응답성을 증가시킨다. 또한, 상이한 애플리케이션들 및 프로세스들이 사전-컴퓨팅된 지문 검증 정보를 이용하는 것은 디바이스(100) 또는 사용자가 지문 검증 기준을 조정함으로써 복수의 지문 감응 동작들 또는 애플리케이션들의 보안을 신속하고 효율적으로 쉽게 조정할 수 있게 한다.In the above example, both the
예를 들어, 디바이스(100)는 비보안 애플리케이션들(예를 들어, 게임 애플리케이션(2310))의 이용의 용이성에 영향을 미치지 않고 보안 애플리케이션들(예를 들어, 뱅킹 애플리케이션(2312))의 보안을 강화하기 위해서, (예를 들어, 하나 이상의 동작 또는 애플리케이션에 대한 허가 정보를 변경하지 않고) 이전에 등록된 지문과 검출된 지문의 "강한 부합"을 위해 필요한 부합 특징점들의 개수(또는 백분율)를 증가시킴으로써 지문 검증 기준을 조정할 수 있다. 유사하게, 디바이스(100)는 잘못된 네거티브 부합의 발생 정도를 감소시키기 위해, (예를 들어, 하나 이상의 동작들 또는 애플리케이션들에 대한 허가 정보를 변경하지 않고) "강한 부합" 및/또는 "약한 부합"을 위해 필요한 부합 특징점들의 개수(또는 백분율)를 감소시킴으로써 지문 검증 기준을 조정할 수 있다(예를 들어, 디바이스가 정확하게 사용자의 지문을 식별하는 것을 반복적으로 실패한다면, 사용자가 더 약한 보안을 수용하고자 선택할 수 있음).For example, the
일부 실시예들에서, 부합 지문이 제약된 동작을 수행하도록 허가된 사용자와 연관된 지문인 경우(2444), 동작-특정 기준이 충족된다(2442). 예를 들어, 부합 지문은 휴대용 다기능 디바이스(100)에 로그인한(또는 이를 잠금해제한) 사용자의 사용자 프로파일과 연관된다. 일부 실시예들에서, 최상 부합 지문이 각자의 제약된 동작을 수행하도록 허가된 사용자와 연관되고(2446), 신뢰도 값이 각자의 제약된 동작과 연관된 신뢰도 임계치 초과인 경우, 동작-특정 기준이 충족된다(2442).In some embodiments, if the matching fingerprint is a fingerprint associated with the user authorized to perform the constrained operation (2444), then the action-specific criteria is satisfied (2442). For example, the matching fingerprint is associated with the user profile of the user who logged in (or unlocked) the
일부 실시예들에서, 복수의 제한된 동작들은 제1 신뢰도 임계치와 연관되는 제1 제한된 동작, 및 제1 신뢰도 임계치와는 상이한 제2 신뢰도 임계치와 연관된 제2 제약된 동작을 포함한다(2448). 따라서, 일부 실시예들에서, 제1 입력이 제1 신뢰도 임계치 초과이고 제2 신뢰도 임계치 미만인 신뢰도 값을 갖는 최상 부합 지문과 부합하는 지문 특징들을 포함하는 경우, 제1 입력은 사용자가 제1 제약된 동작을 수행하게 할 수 있지만 제2 제약된 동작은 수행하게 하지 않을 것이다. 예를 들어, 뱅킹 애플리케이션(2312)을 통해 전자 지불을 하기 위해 사용자를 식별하는 신뢰도 임계치는 게임 애플리케이션(2310)을 위해 사용자를 식별하는 신뢰도 임계치보다 높다. 따라서, 사용자의 지문을 빠르게 저해상도 스캔하는 것이 게임 애플리케이션(2310)을 위해 사용자를 식별하는 데 충분할 수 있지만, 선택적으로 뱅킹 애플리케이션(2312)을 통한 전자 지불이 사용자에 대해 허가되기 위해서는 사용자의 지문을 보다 세심하게 고해상도 스캔하는 것이 요구된다.In some embodiments, the plurality of limited operations include a first limited operation associated with the first reliability threshold and a second constrained operation associated with a second reliability threshold different than the first reliability threshold (2448). Thus, in some embodiments, if the first input includes fingerprint features that match the best matching fingerprint with a confidence value that is greater than the first reliability threshold and less than the second reliability threshold, The second constrained operation will not be performed. For example, the confidence threshold that identifies the user for electronic payment via the
일부 실시예들에서, 지문 센서는 물리적 버튼에 통합되고(2450); 지문 센서 상에서 지문을 검출하는 것에 응답하여 디바이스가 지문 검증 정보를 결정하며; 버튼의 활성화를 검출하는 것에 응답하여 디바이스가 각자의 제약된 동작을 수행한다. 일부 실시예들에서, 물리적 버튼은 버튼 상에서 검출된 강도가 활성화 강도 임계치 초과로 증가하였을 때 디바이스에 의해 활성화된 것으로 결정되는 디바이스의 하우징의 강도-감응 구역이다. 일부 실시예들에서, 물리적 버튼은 전자 스위치에 결합되고, 여기서 제1 축(예를 들어, 상하 또는 좌우)을 따르는 물리적 버튼의 이동은 스위치를 닫고 물리적 버튼을 활성화한다(때때로 들을 수 있거나 촉각으로 느낄 수 있는 "클릭"을 발생시킴). 예를 들어, 도 23d는 홈 버튼(204)에 통합된 지문 센서(169)를 도시한다. 예를 들어, 도 23d의 지문 센서(169) 상에서 입력(2306)을 검출하는 것에 응답하여, 휴대용 다기능 디바이스(100)는 입력(2306)에 대응하는 지문 검증 정보를 결정한다. 또한, 홈 버튼(204)의 활성화를 검출하는 것에 응답하여(예를 들어, 도 23d의 버튼(204)의 하향 이동), 휴대용 다기능 디바이스(100)가 뱅킹 애플리케이션(2312)에 대한 액세스를 허가하고 도 23f에서와 같이 뱅킹 애플리케이션(2312)을 표시한다.In some embodiments, the fingerprint sensor is integrated (2450) with a physical button; The device determining the fingerprint verification information in response to detecting the fingerprint on the fingerprint sensor; In response to detecting activation of the button, the device performs its respective constrained operation. In some embodiments, the physical button is the intensity-sensitive area of the housing of the device that is determined to be activated by the device when the intensity detected on the button has increased beyond the activation strength threshold. In some embodiments, a physical button is coupled to an electronic switch, wherein movement of a physical button along a first axis (e.g., up or down or left or right) closes the switch and activates a physical button (sometimes audible or tactile Click "that can be felt). For example, FIG. 23D shows a
도 24a 내지 도 24d의 동작들이 기술된 특정한 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 24a 내지 도 24d와 관련하여 전술된 방법(2400)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(2400)과 관련하여 전술된 입력 지문들, 접촉들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 입력 지문들, 접촉들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the particular order in which the operations of Figs. 24A-24D are described is exemplary only and does not intend to indicate that the order described is the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. Also, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within the "Detailed Description of the Invention"), It should also be noted that the
일부 실시예들에 따르면, 도 25는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(2500)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 25에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 25 illustrates a functional block diagram of an
도 25에 도시된 바와 같이, 전자 디바이스(2500)는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛(2502); 지문 센서 유닛(2504); 및 디스플레이 유닛(2502) 및 지문 센서 유닛(2504)에 결합된 프로세싱 유닛(2506)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(2506)은 획득 유닛(2508), 식별 유닛(2510), 결정 유닛(2512), 허가 유닛(2514), 수행 유닛(2516), 할당 유닛(2518) 및 대체 유닛(2520)을 포함한다.As shown in Figure 25, the
프로세싱 유닛(2506)은 지문들의 검증을 제어하기 위한 지문 검증 기준을 (예를 들어, 획득 유닛(2508)을 이용하여) 획득하거나 달리 액세스하도록 구성된다. 각자의 제약된 동작들에 대응하는 복수의 각자의 입력들 각각에 대해, 프로세싱 유닛(2506)은 (예를 들어, 식별 유닛(2510)을 이용하여) 각자의 입력의 지문 특징들을 식별하고, 하기에 적어도 부분적으로 기초하여 각자의 입력에 대한 지문 검증 정보를 (예를 들어, 결정 유닛(2512)을 이용하여) 결정하도록 추가로 구성된다: 각자의 입력의 지문 특징들과 하나 이상의 이전에 등록된 지문들의 지문 특징들 사이의 비교,및 지문 검증 기준. 각각의 입력을 검출하는 것에 응답하여, 프로세싱 유닛(2506)은 (예를 들어, 허가 유닛(2514)을 이용하여) 지문 검증 정보가 각자의 제약된 동작에 대한 각자의 허가 기준을 충족시킨다는 결정에 따라 (예를 들어, 수행 유닛(2516)을 이용하여) 각자의 제약된 동작을 수행하고; (예를 들어, 허가 유닛(2514)을 이용하여) 지문 검증 정보가 제약된 동작에 대한 각자의 허가 기준을 충족시키지 않는다는 결정에 따라 각자의 제약된 동작의 수행을 포기하도록 구성된다.Processing unit 2506 is configured to acquire or otherwise access fingerprint verification criteria (e.g., using acquisition unit 2508) to control verification of fingerprints. For each of a plurality of respective inputs corresponding to their respective constrained actions, the processing unit 2506 identifies the fingerprint features of each input (e.g., using the identification unit 2510) (E.g., using decision unit 2512) fingerprint verification information for each input based, at least in part, on the input fingerprint characteristics of each input: one or more previously registered fingerprint features Comparison between fingerprint features of fingerprints, and fingerprint verification criteria. In response to detecting each input, the processing unit 2506 determines whether the fingerprint verification information (e.g., using the grant unit 2514) meets its respective permission criteria for its constrained operation (E.g., using execution unit 2516) to perform their respective constrained operations; (Using, for example, the grant unit 2514), the fingerprint verification information is configured to abandon the performance of its respective constrained operation in accordance with the determination that it does not meet its respective permission criteria for the constrained operation.
일부 실시예들에서, 동일한 지문 검증 기준이 다수의 상이한 각자의 입력들에 대해 지문들을 프로세싱하도록 사용된다.In some embodiments, the same fingerprint verification criteria is used to process fingerprints for a number of different respective inputs.
일부 실시예들에서, 지문 검증 정보는 지문 검증 기준에 따라 결정된 부합 지문을 식별하는 정보를 포함한다.In some embodiments, the fingerprint verification information includes information identifying a matching fingerprint determined in accordance with the fingerprint verification criteria.
일부 실시예들에서, 부합 지문이 제약된 동작을 수행하도록 허가된 사용자와 연관된 지문일 때 동작-특정 허가 기준이 충족된다.In some embodiments, an action-specific authorization criteria is met when the matching fingerprint is a fingerprint associated with a user authorized to perform the constrained action.
일부 실시예들에서, 프로세싱 유닛은 (예를 들어, 식별 유닛(2510)을 이용하여) 각자의 입력 내의 특징점들을 식별하고, (예를 들어, 결정 유닛(2512)을 이용하여) 각자의 입력 내에서 식별된 특징점들을 복수의 후보 지문들 내의 특징점들과 대조하며, (예를 들어, 결정 유닛(2512)을 이용하여) 가장 많은 개수의 부합 특징점들을 갖는 각자의 후보 지문을 부합 지문으로 선택함으로써 지문 검증 정보를 결정하도록 구성된다.In some embodiments, the processing unit identifies feature points in their respective inputs (e.g., using the identification unit 2510) and determines (e.g., using decision unit 2512) (For example, by using the determination unit 2512), selects the candidate fingerprints having the largest number of matching feature points as the matching fingerprints, and compares the extracted fingerprints with the feature points in the plurality of candidate fingerprints, And to determine the verification information.
일부 실시예들에서, 지문 검증 정보는 복수의 이전에 등록된 지문들 중, 지문 검증 기준에 따라 식별되는 최상 부합 지문을 식별하는 정보; 및 제1 입력과 최상 부합 지문 사이의 부합의 신뢰도를 나타내는, 지문 검증 기준에 따라 결정되는 지문 부합 신뢰도 값을 포함한다.In some embodiments, the fingerprint verification information includes information identifying a best matching fingerprint identified among the plurality of previously registered fingerprints according to the fingerprint verification criteria; And a fingerprint conformance confidence value determined according to a fingerprint verification criterion, which indicates the reliability of matching between the first input and the best matching fingerprint.
일부 실시예들에서, 동작-특정 허가 기준은 최상 부합 지문이 각자의 제약된 동작을 수행하도록 허가된 사용자와 연관된 경우, 및 신뢰도 값이 각자의 제약된 동작과 연관된 신뢰도 임계치 초과인 경우에 충족된다.In some embodiments, the action-specific permission criterion is satisfied when the best match fingerprint is associated with a user authorized to perform its respective constrained action, and when the confidence value is above the confidence threshold associated with its respective constrained action .
일부 실시예들에서, 복수의 제한된 동작들은 제1 신뢰도 임계치와 연관되는 제1 제한된 동작, 및 제1 신뢰도 임계치와는 상이한 제2 신뢰도 임계치와 연관된 제2 제약된 동작을 포함한다.In some embodiments, the plurality of limited operations include a first limited operation associated with a first reliability threshold and a second constrained operation associated with a second reliability threshold different from the first reliability threshold.
일부 실시예들에서, 프로세싱 유닛은 (예를 들어, 식별 유닛(2510)을 이용하여) 각자의 입력 내의 특징점들을 식별하고, (예를 들어, 결정 유닛(2512)을 이용하여) 각자의 입력 내에서 식별된 특징점들을 복수의 후보 지문들 내의 특징점들과 대조하며, (예를 들어, 결정 유닛(2512)을 이용하여) 가장 많은 개수의 부합 특징점들을 갖는 각자의 후보 지문을 최상 부합 지문으로 선택함으로써 지문 검증 정보를 결정하도록 구성된다.In some embodiments, the processing unit identifies feature points in their respective inputs (e.g., using the identification unit 2510) and determines (e.g., using decision unit 2512) (E.g., using decision unit 2512) and selecting each candidate fingerprint with the largest number of matching feature points as the best matching fingerprint, by comparing the feature points identified in the candidate fingerprint with the feature points in the plurality of candidate fingerprints And to determine fingerprint verification information.
일부 실시예들에서, 프로세싱 유닛은 각자의 입력 내의 제1 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라, (예를 들어, 할당 유닛(2518)을 이용하여) 최상 부합 지문에 제1 신뢰도 값을 할당하고; 각자의 입력 내의 제2 개수의 특징점들이 최상 부합 지문 내의 대응하는 특징점들과 부합한다는 결정에 따라, (예를 들어, 할당 유닛(2518)을 이용하여) 최상 부합 지문에 제2 신뢰도 값을 할당하도록 구성되며, 여기서 제2 개수의 특징점들은 제1 개수의 특징점들보다 더 많고, 제2 신뢰도 값이 제1 신뢰도 값에 의해 나타내어지는 것보다 각자의 입력과 최상 부합 지문 사이의 더 밀접한 부합을 나타낸다.In some embodiments, the processing unit may determine that the first number of feature points in each input match the corresponding feature points in the best match fingerprint (e.g., using the allocation unit 2518) Assigning a first reliability value to the fingerprint; (E.g., using the assignment unit 2518) to assign a second confidence value to the best matching fingerprint according to the determination that a second number of minutiae within each input match the corresponding minutiae in the best matching fingerprint Wherein the second number of feature points is greater than the first number of feature points and the second confidence value represents a closer fit between the respective input and the best matching fingerprint than is represented by the first confidence value.
일부 실시예들에서, 지문 검증 기준은 한 세트의 디폴트 기준을 포함하고; 프로세싱 유닛(2506)은 지문 검증 기준에 대한 수정을 나타내는 기준-조정 입력을 (예를 들어, 획득 유닛(2508)을 이용하여) 사용자로부터 수신하고, 기준-조정 입력을 수신하는 것에 응답하여 (예를 들어, 대체 유닛(2520)을 이용하여) 하나 이상의 디폴트 기준을 지문 검증 기준 내의 대응하는 수정된 기준으로 대체함으로써, (예를 들어, 획득 유닛(2508)을 이용하여) 지문 검증 기준을 획득하도록 구성된다.In some embodiments, the fingerprint verification criteria comprises a set of default criteria; The processing unit 2506 receives a reference-adjustment input representing the modification to the fingerprint verification criteria from the user (e.g., using the acquisition unit 2508), and in response to receiving the reference-adjustment input (E.g., using an alternate unit 2520) to replace the one or more default criteria with a corresponding modified criterion in the fingerprint verification criteria to obtain a fingerprint verification criteria (e.g., using acquisition unit 2508) .
일부 실시예들에서, 지문 센서 유닛(2504)은 물리적 버튼에 통합되고; 프로세싱 유닛(2506)은 지문 센서 유닛(2504) 상에서 지문을 검출하는 것에 응답하여 (예를 들어, 결정 유닛(2512)을 이용하여) 지문 검증 정보를 결정하도록 구성되며; 프로세싱 유닛(2506)은 버튼의 활성화를 검출하는 것에 응답하여 (예를 들어, 수행 유닛(2516)을 이용하여) 각자의 제약된 동작을 수행하도록 구성된다.In some embodiments, the
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 24a 내지 도 24d와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 25에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 획득 동작(2402), 식별 동작(2408), 결정 동작(2410) 및 수행 동작(2440)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figures 24A-24D are optionally implemented by the components shown in Figures 1A and 1B or 25. For example, the
아이덴티티 및 위치 정보를 연관시키기Associating identity and location information
다수의 전자 디바이스들은 사용자들이 디스플레이 상에 표시된 쌍방향(interactive) 지도들을 통해 그들의 환경과 상호작용하게 한다. 예를 들어, 이러한 디바이스들(예를 들어, 휴대용 다기능 디바이스들)은 종종 사용자들이 소셜 미디어 사이트 상에 특정한 사업장 또는 잘 알려진 랜드마크에서의 그들의 존재를 나타내게 한다. 이러한 상황들에서, 이러한 전자 디바이스들은 종종 터치 스크린 디스플레이 상에 지도를 표시하며, 사용자는 예를 들어 사업장의 위치 또는 잘 알려진 랜드마크 상에 탭핑함으로써 지도와 상호작용할 수 있다. 다른 예로서, 이러한 전자 디바이스들은 종종 카메라를 포함하며, 디바이스를 이용하여 촬영한 사진들과 아이덴티티 및 위치 메타데이터를 연관시키는 편리한 방식을 사용자에게 제공하는 것이 바람직하다. 예를 들어, 일부 실시예들에서, 사용자는 터치 스크린 디스플레이 상에 표시된 지도 상의 대응하는 위치 상에 탭핑함으로써, 그리고 별개의 입력들을 통해 사진의 저작자의 아이덴티티 및/또는 주제들을 추가로 나타냄으로써 사진의 위치를 나타낼 수 있다. 아이덴티티 및 위치 정보를, 예를 들어 소셜 미디어 포스트와 연관시키거나 사진과 연관된 메타데이터로서 연관시키는 기존의 방법들은 전형적으로 아이덴티티 및 위치 각각을 나타내는 별개의 입력들을 요구한다.Many electronic devices allow users to interact with their environment through interactive maps displayed on the display. For example, such devices (e.g., portable multifunction devices) often cause users to present their presence in a particular business location or well-known landmark on a social media site. In these situations, these electronic devices often display a map on the touch screen display, and the user can interact with the map by tapping, for example, on the location of a business location or a well-known landmark. As another example, such electronic devices often include a camera, and it is desirable to provide the user with a convenient way of associating identity and location metadata with photographs taken with the device. For example, in some embodiments, a user may be able to view a photo by tapping on a corresponding location on the map displayed on the touch screen display, and further displaying the identity and / or subjects of the author of the photo via separate inputs Location. Conventional methods of associating identity and location information with, for example, social media posts or associating them as metadata associated with a photograph typically require separate inputs that represent each of the identities and locations.
아래에 기술되는 실시예들에서, 아이덴티티 및 위치 정보를 연관시키기 위한 게선된 방법이 지도 상에 표시된 위치(예를 들어, 지리적 위치에 대응하는 위치) 및 지문 센서 상에서 검출된 지문 둘 모두와 연관된 입력을 검출함으로써 달성된다. 이 방법은 지문에 대응하는 사용자를 식별하고, 해당 위치에서의 사용자의 존재의 표시를 소셜 미디어에 포스팅하는 것 또는 사진의 위치 및 사용자가 사진의 대상 및/또는 저작자임을 나타내는 메타데이터를 추가하는 것과 같이, 위치 및 사용자와 연관된 동작을 수행한다.In the embodiments described below, a secure method for associating identity and location information is provided with an input associated with both the location indicated on the map (e.g., the location corresponding to the geographic location) and the fingerprint detected on the fingerprint sensor . The method includes identifying a user corresponding to the fingerprint, posting an indication of the presence of the user at the location to the social media, or adding the location of the photo and metadata indicating that the user is the subject and / or author of the photo Likewise, it performs actions associated with the location and the user.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 26a 내지 도 26g 및 도 27과 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 26a 내지 도 26g 및 도 27과 관련하여 기술되는 실시예들은, 도 26a 내지 도 26g에 도시된 사용자 인터페이스를 터치 스크린(112) 상에 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 26a 내지 도 26g에 묘사된 입력들을 검출하는 것에 응답하여 수행되는 디바이스 동작들과 관련하여 논의될 것이다. 그러나, 통합형 지문 센서(359-1)와 함께 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 26a 내지 도 26g에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 상에서 도 26a 내지 도 26g에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행될 수 있다. 일부 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 26a는 지도의 표시를 포함하는 사용자 인터페이스(2601)를 표시하는 디바이스를 도시한다. 이 예에서, 사용자 인터페이스는 사용자들이 지역 사업장 및 랜드마크들로 내비게이션하는 것을 돕는 애플리케이션의 일부로서 표시되어 있다. 예를 들어, 사용자가 탐색 바(2602)에서 용어 "Gala Coffee"를 탐색하면, 디바이스는 몇몇 결과들을 반환하고 그들의 위치들을 사용자 인터페이스(2601) 상에 핀-드롭(pin-drop)(2604)들로서 표시한다.26A shows a device displaying a
도 26b는 터치 스크린(112) 상에서의 접촉(2606)의 검출 및 별개의 지문 센서(169) 상에서의 지문(2608)의 검출을 도시한다. 접촉(2606)은 식별된 지문뿐만 아니라 지도 상에서의 접촉(2606)의 위치(예를 들어, 접촉(2606)이 수신된 지도 상에서 표시된 위치에 대응하는 물리적 위치) 둘 모두와 연관된 디바이스의 동작을 트리거링하는 활성화 입력의 예이다. 일부 실시예들에서, (예를 들어, 터치 스크린(112)이 지문들을 식별하도록 구성된 경우에) 단일 접촉이 활성화 입력 및 지문이 식별되기 위한 입력 둘 모두로서 작용한다(예를 들어, 접촉(2606)에 대응하는 지문이 검출됨). 일부 실시예들에서, 별개의 지문 센서(169) 상에서 지문이 검출되고, 음성 입력과 같은 다른 유형의 활성화 입력이 디바이스에 의해 검출되어 지도 상의 특정 위치와 연관되며, 이는 도 27과 관련하여 더 상세하게 기술된다.Fig. 26B shows the detection of the
도 26c 내지 도 26g는 디바이스가 일부 실시예들에 따라 수행하는 다양한 동작들의 예를 도시한다. 위에서 언급된 바와 같이, 이러한 동작들은 식별된 지문뿐만 아니라 지도 상의 접촉(2606)의 위치 둘 모두와 연관된다. 본 발명이 위치 및 아이덴티티와 연관된 광범위한 동작들을 지원하고자 하는 것이며, 도 26c 내지 도 26g에 도시된 동작들이 단지 예시적인 것임을 이해하여야 한다.Figures 26C-26G illustrate examples of various operations that a device performs in accordance with some embodiments. As mentioned above, these actions are associated with both the location of the
도 26c는 동작이 특정 "Gala Coffee" 매장에 있는 사용자(예를 들어, 지문이 식별된 사용자)의 존재를 나타내는 것을 포함하는 예를 도시한다. 이러한 예에서, 사용자는 특정 Gala Coffee 매장(2604-2)에 대응하는 특정 핀-드롭을 선택하였다. 일부 실시예들에서, 디바이스는 사용자가 특정 "Gala Coffee"에 "체크인(Check in)"하기를 원하는지를 확인할 것을 사용자에게 요청하고 체크인 위치의 주소를 식별하는 확인 메시지(2605)를 표시한다. 예를 들어, 확인 메시지(2605) 내의 "체크인" 어포던스를 활성화하는 것은 디바이스가 소셜 미디어 웹사이트 상에 사용자의 존재를 포스팅하게 할 것이다.Figure 26C shows an example in which the action includes indicating the presence of a user in a particular "Gala Coffee" store (e.g., a fingerprint identified user). In this example, the user has selected a particular pin-drop corresponding to a particular Gala Coffee store 2604-2. In some embodiments, the device requests the user to confirm that the user wishes to "check in" to a particular "Gala Coffee " and displays a
도 26d는 일부 실시예들에 따른, 접촉(2606)에 응답하여 디바이스가 수행하는 동작의 대안적인 (또는 일부 상황들에서는, 추가적인) 예를 도시한다. 도 26c의 경우에서와 같이, 사용자는 "Gala Coffee" 매장(2604-2)에 대응하는 핀-드롭을 선택하였다. 그러나 이 예에서, 디바이스는 사용자가 지불 프롬프트(2610)를 통해 대금을 지불하도록 프롬프팅함으로써 응답한다. 사용자는 프롬프트(2610) 내에 키패드(2612)를 이용하여 금액을 입력한 다음, 지불을 위해 "확인" 버튼(2614)을 선택할 수 있다. 일부 실시예들에서, 사용자는 상이한 손가락들에 대해 상이한 계좌들을 링크할 수 있다. 예를 들어, 오른손 엄지손가락 지문은 사용자의 인출 계좌를 통해 지불이 이루어지도록 하는 반면, 왼손 검지손가락 지문은 사용자의 신용 계좌를 통해 지불이 이루어지게 할 것이다.FIG. 26D illustrates an alternative (or in some circumstances, additional) example of the operation performed by the device in response to the
도 26e 내지 도 26g는 일부 실시예들에 따른, 접촉(2616)에 응답하여 수행되는 디바이스 동작의 다른 예를 도시한다. 도 26e는 미국 캘리포니아주 샌프란시스코의 위치로부터 촬영된 금문교의 사진(2615)의 표시를 도시한다. 일부 상황들에서, 사진(2615)은 (예를 들어, 디바이스가 카메라 폰을 갖추고 있는 경우에) 디바이스에 의해 이전에 촬영된 사진이다. 일부 상황들에서, 사진(2615)은 이전에 다른 디바이스에 의해 촬영되어 (예를 들어, 네트워크를 통해, 이메일에 의해서, 인터넷으로부터 다운로드되는 등등으로) 디바이스로 전송된 사진이다. 도 26e에 도시된 바와 같이, 디바이스는 선택적으로 사용자가 메타데이터(이 예에서는, 위치 및 저작자 데이터)를 사진에 추가할 것인지 여부를 사용자에게 묻는 프롬프트를 표시한다. 도 26e는 또한 사용자가 위치 및 저작자 메타데이터를 사진(2615)과 연관시키는 것에 동의함을 나타내는 접촉(2616)의 검출을 도시한다.Figures 26E-G illustrate another example of device operation performed in response to a contact 2616, in accordance with some embodiments. Figure 26E shows a display of a
도 26f는 도 26e에 도시된 예를 계속한다. 접촉(2616)을 통해 도 26e에서의 "예" 어포던스를 선택함에 따라, 디바이스는 위치 정보를 포함하는 메타데이터를 사진(2615)과 연관(예를 들어, 지오태깅(geotagging))시키기 위해 지도(2618)를 표시한다. 디바이스는 사진에 대해 특별한 의의를 갖는 지도 상의 위치(예를 들어, 사진이 촬영된 곳)에서 접촉(2620)을 검출한다. 디바이스는 또한 사용자에 대응하는 지문(2622)을 지문 센서(169) 상에서 검출하고 지문이 속한 사용자를 식별한다. 도 26g에 도시된 바와 같이, 디바이스는 지도(2618) 상에서의 접촉(2620)의 위치(이 경우에서는, 미국 캘리포니아주 샌프란시스코 소재의 금문교의 좌표 위치)뿐만 아니라 지문(2622)이 속한 사용자의 아이덴티티(예를 들어, 도 26g에 도시된 바와 같이 Joseph Strauss) 둘 모두와 연관된 데이터를 연관시킨다.Fig. 26F continues the example shown in Fig. 26E. 26E via the contact 2616 the device may send a map (e. G., &Quot; geotagging ") to associate (e.g., geotagging) 2618). The device detects the
도 27은 일부 실시예들에 따른, 아이덴티티 및 위치 정보를 연관시키는 방법(2700)을 예시하는 흐름도이다. 방법(2700)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(2700) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.27 is a flow chart illustrating a
아래에 기술되는 바와 같이, 방법(2700)은 아이덴티티 및 위치 정보를 연관시키기 위한 직관적인 방식을 제공한다. 이 방법은 아이덴티티 및 위치 정보를 연관시킬 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 아이덴티티 및 위치 정보를 더 빠르고 더 효율적으로 연관시킬 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
디바이스는 지문 센서를 갖는 전자 디바이스의 디스플레이 상에 지도를 표시한다(2702). 예를 들어, 도 26a는 지도를 표시하는, 지문 센서(169)를 갖는 디바이스를 도시한다.The device displays a map on the display of the electronic device having the fingerprint sensor (2702). For example, FIG. 26A shows a device with a
디바이스는 각자의 지리적 위치에 대응하는 지도 상의 표시된 위치 및 지문 센서 상에서 검출된 지문과 연관되는 활성화 입력을 검출한다(2704). 예를 들어, 지도 상에 표시된 위치 및 대응하는 지리적 위치와 활성화 입력을 연관시키기 위해 포커스 셀렉터가 지도 상의 표시된 위치에 있는 동안에 활성화 입력이 수행된다(예를 들어, 도 26B의 접촉(2606)). 일부 실시예들에서, 활성화 입력은 지문 센서 상에서 지문이 검출되는 동안에 활성화 입력이 수행된다는 결정에 따라 지문 센서 상에서 검출된 지문과 연관된다.The device detects (2704) an activation input associated with the fingerprint detected on the fingerprint sensor and the indicated location on the map corresponding to the respective geographic location. For example, an activation input is performed (e.g.,
일부 실시예들에서, 활성화 입력은 음성 입력이다. 예를 들어, 도 26a에 도시된 지도를 표시하고 지문 센서 상에서 지문을 검출하는 동안에, 사용자는 "I'm at Gala Coffee on 1st and Cedar"라고 말할 것이고, 이를 디바이스는 East 1st Street와 East Cedar Street의 교차점에 있는 특정 Gala Coffee(핀-드롭(2604-1)에 의해 표현됨)에 대한 활성화 입력으로서 해석할 것이다. 일부 실시예들에서, 활성화 입력은 사용자의 위치를 결정하기 위해 디바이스가 디바이스의 위치 결정 기능을 사용하라는 요청에 대응하는 음성 입력이다. 예를 들어, 지문(2608)이 검출되는 동안에(또는 그 후에, 또는 그 이전에), 사용자는 "Use my current location"이라고 말할 것이며, 디바이스는 (예를 들어, 글로벌 위치확인 시스템 소프트웨어 및/또는 하드웨어를 이용하여) 사용자의 현재 위치를 결정할 것이다. 대안적으로, 사용자는 "I'm at Gala Coffee" 또는 "Check in at Gala Coffee"이라고 말할 것이며, 디바이스는 식별된 사용자를 가장 가까운 Gala Coffee(예를 들어, 사용자가 East 1st Street와 East Cedar Street의 교차점에 있다고 디바이스가 결정했을 때 핀-드롭(2604-1)에 의해 표현되는 Gala Coffee)에 체크인하라는 요청으로서 입력을 인식할 것이다.In some embodiments, the activation input is a voice input. For example, while displaying the map shown in FIG. 26A and detecting fingerprints on the fingerprint sensor, the user would say "I'm at Gala Coffee on 1st and Cedar ", which is displayed on East 1st Street and East Cedar Street Will be interpreted as an activation input to a particular Gala Coffee (represented by pin-drop 2604-1) at the intersection of < RTI ID = 0.0 > In some embodiments, the activation input is a speech input that corresponds to a request by the device to use the positioning function of the device to determine the location of the user. For example, during (or after, or before) the
일부 실시예들에서, 활성화 입력은 지문 센서와는 상이한 터치-감응 표면 상에서 검출된다(2706)(예를 들어, 활성화 입력은 통합형 지문 센서를 포함하지 않는 터치패드 또는 터치 스크린 디스플레이의 일부분 상에서 검출되고, 활성화 입력은 도 26a 내지 도 26g에 도시된 바와 같이 통합형 지문 센서 상에서 발생한 지문과 동시에 또는 실질적으로 동시에 발생함).In some embodiments, the activation input is detected 2706 on a touch-sensitive surface different from the fingerprint sensor (e.g., the activation input is detected on a portion of the touch screen or touchpad that does not include an integrated fingerprint sensor , The activation input occurs simultaneously or substantially concurrently with fingerprints occurring on the integrated fingerprint sensor as shown in Figures 26A-26G).
일부 실시예들에서, 활성화 입력은 지문 센서 상에서 검출된다(2708)(예를 들어, 활성화 입력은 통합형 지문 센서를 포함하는 터치패드 또는 터치 스크린 디스플레이의 일부분 상에서 검출되고, 통합형 지문 센서는 지문에 대응하는 사용자를 식별하기 위해 사용됨).In some embodiments, an activation input is detected 2708 on the fingerprint sensor (e.g., the activation input is detected on a portion of a touchpad or touch screen display that includes an integrated fingerprint sensor, and the integrated fingerprint sensor responds to the fingerprint Used to identify the user who is doing this).
활성화 입력을 검출하는 것에 응답하여(2710), 디바이스는 지문에 대응하는 사용자를 식별한다(2712)(예를 들어, 지문 센서 상에서 검출된 지문과 일치하는 이전에 등록된 지문을 포함하는 사용자 프로파일을 식별함). 이어서, 디바이스는 각자의 지리적 위치 및 사용자와 연관된 동작을 수행한다(2714).In response to detecting an
일부 실시예들에서, 각자의 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서의 사용자의 (가상의 또는 물리적) 존재를 나타내는 메시지를 생성하는 것을 포함한다(2716)(예를 들어 도 26a 내지 도 26c에 도시된 바와 같이, 사용자는 사업장의 장소에 대응하는 지도 상의 위치를 선택하면서 동시에 지문 센서 상에서 지문을 가짐으로써, 레스토랑, 매장, 공원, 또는 다른 사업장 장소와 같은 지리적 위치에 "체크인"할 수 있음). 일부 실시예들에서, 생성된 메시지는 사용자가 현재 각자의 지리적 위치에 물리적으로 존재함을 나타낸다. 일부 실시예들에서, 생성된 메시지는 사용자가 각자의 지리적 위치에 이전에 물리적으로 존재했거나 미래에 물리적으로 존재할 것임을 나타낸다. 일부 실시예들에서, 사용자의 존재를 나타내는 메시지는 그 위치에 있는 사용자의 실질적인 물리적 존재를 나타낸다(예를 들어, 사용자는 사용자가 레스토랑에서 식사하고 있음을 나타내도록 레스토랑에서 사용자가 식사하는 동안에 레스토랑에 체크인함). 일부 실시예들에서, 사용자의 존재를 나타내는 메시지는 사용자의 가상 존재를 나타낸다(예를 들어, 사용자는 레스토랑에 예약을 요청하기 위해 레스토랑에 체크인하거나 사용자가 레스토랑에 예약하였음을 나타내도록 레스토랑에 체크인하거나, 사용자가 전화 또는 화상 회의를 통해 원격으로 미팅에 참석하고 있을지라도 미팅이 발생하는 위치에 체크인함).In some embodiments, the respective geographic location and operation associated with the user includes generating a message (2716) (e. G., In Figures 26A-B) to generate a message indicating the user's (virtual or physical) presence at the respective geographic location As shown in FIG. 26C, the user can select a location on the map corresponding to the location of the business location and at the same time have a fingerprint on the fingerprint sensor to "check in" to a geographic location such as a restaurant, store, park, Lt; / RTI > In some embodiments, the generated message indicates that the user is physically present at his current geographic location. In some embodiments, the generated message indicates that the user was previously physically present in his or her geographic location or will be physically present in the future. In some embodiments, the message indicating the presence of the user indicates a substantial physical presence of the user at that location (e.g., the user may be asked to indicate to the restaurant that the user is eating at the restaurant, Check-in). In some embodiments, the message indicating the presence of the user indicates a virtual presence of the user (e.g., the user checks in a restaurant to request a reservation in a restaurant, or checks in a restaurant to indicate that the user has reserved a restaurant) , Checking in to the location where the meeting occurs, even if the user is attending the meeting remotely via a telephone or videoconference).
일부 실시예들에서, 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서 사용자로부터 사업장으로의 지불을 허가하는 것을 포함한다(2718)(예를 들어, 매장에 대한 지불을 허가하는 단계는 도 26d에 도시된 바와 같이 지문 센서 상에 지문이 존재하는 동안에 매장의 위치에 대응하는 지도 상의 위치를 선택하는 것임).In some embodiments, the operations associated with the geographic location and the user include authorizing payment from the user to the business in their respective geographic locations (2718) To select a location on the map corresponding to the location of the store while fingerprints are present on the fingerprint sensor as shown in Fig.
일부 실시예들에서, 지리적 위치 및 사용자와 연관된 동작은 메타데이터를 미디어에 추가하는 것을 포함하며(2720), 메타데이터는 미디어가 각자의 지리적 위치 및 사용자와 연관됨을 나타낸다(예를 들어, 도 26e 내지 도 26g에 도시된 바와 같이, 사진이 촬영된 위치 및 사용자가 사진을 촬영했거나 사용자가 사진에 등장한 위치 둘 모두를 나타내는 메타데이터를 사진에 추가함으로써 사용자에 의해 촬영된 사진 또는 사용자의 사진을 지오태깅함).In some embodiments, the operations associated with the geographic location and the user include adding metadata to the media (2720), and the metadata indicates that the media is associated with a respective geographic location and user (e.g., 26A to 26G, by adding metadata to the photograph indicating the position where the photograph was taken and the position at which the user took the picture or where the user appeared in the picture, Tagging).
도 27에서의 동작들이 기술된 특정 순서는 단지 예시적인 것이며 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내는 것으로 의도되지는 않는다는 것을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 27과 관련하여 전술된 방법(2700)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(2700)과 관련하여 전술된 지문들, 입력들, 지도들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 입력들, 지도들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the particular sequence in which the operations in FIG. 27 are described is exemplary only and is not intended to represent that the sequences described are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that the details of the other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 28은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(2800)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 28에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 28 illustrates a functional block diagram of an
도 28에 도시된 바와 같이, 전자 디바이스(2800)는 지도를 포함한 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(2802); 지문 센서 유닛(2806); 및 디스플레이 유닛(2802) 및 지문 센서 유닛(2806)에 결합된 프로세싱 유닛(2808)을 포함한다. 일부 실시예들에서, 디바이스는 통합형 지문 센서 유닛(2806-1)을 갖는 터치-감응 표면 유닛(2804)을 포함한다. 이러한 실시예들에서, 프로세싱 유닛은 지문 센서 유닛(2804-1)과 함께 터치-감응 표면 유닛(2804)에 결합된다. 일부 실시예들에서, 디바이스는 별개의 지문 센서 유닛(2806-2)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(2808)은 검출 유닛(2810), 식별 유닛(2812) 및 수행 유닛(2814)을 포함한다.28, the
프로세싱 유닛(2808)은 활성화 입력을 검출하도록 구성되며, 활성화 입력은 각자의 지리적 위치에 대응하는 지도 상에 표시된 위치 및 지문 센서 유닛(2806) 상에서 검출된 지문과 연관된다. 활성화 입력을 검출하는 것에 응답하여: 프로세싱 유닛(2808)은 지문에 대응하는 사용자를 식별하고 각자의 지리적 위치 및 사용자와 연관된 동작을 수행하도록 구성된다.The processing unit 2808 is configured to detect an activation input, wherein the activation input is associated with a fingerprint detected on a fingerprint sensor unit 2806 and a location indicated on the map corresponding to the respective geographic location. In response to detecting the activation input: the processing unit 2808 is configured to identify the user corresponding to the fingerprint and perform an action associated with the respective geographic location and user.
일부 실시예들에서, 활성화 입력이 지문 센서 유닛(2804)과는 상이한 터치-감응 표면 유닛(2804) 상에서 검출된다.In some embodiments, the activation input is detected on a touch-sensitive surface unit 2804 that is different from the fingerprint sensor unit 2804.
일부 실시예들에서, 활성화 입력이 지문 센서 유닛(2804) 상에서 검출된다.In some embodiments, an activation input is detected on the fingerprint sensor unit 2804.
일부 실시예들에서, 위에서 더 상세하게 논의된 바와 같이, 각자의 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서의 사용자의 존재를 나타내는 메시지를 생성하는 것을 포함한다.In some embodiments, as discussed in more detail above, the operations associated with the user's geographic location and the user include generating a message indicating the presence of the user in their respective geographic location.
일부 실시예들에서, 위에서 더 상세하게 논의된 바와 같이, 지리적 위치 및 사용자와 연관된 동작은 각자의 지리적 위치에서 사용자로부터 사업장으로의 지불을 허가하는 것을 포함한다.In some embodiments, as discussed in more detail above, the operations associated with the geographic location and the user include authorizing payment from the user to the establishment at their respective geographic locations.
일부 실시예들에서, 위에서 더 상세하게 논의된 바와 같이, 지리적 위치 및 사용자와 연관된 동작은 미디어에 메타데이터를 추가하는 것을 포함하며, 메타데이터는 미디어가 각자의 지리적 위치 및 사용자와 연관됨을 나타낸다.In some embodiments, as discussed in more detail above, the operations associated with the geographic location and the user include adding metadata to the media, which indicates that the media is associated with its geographic location and user.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 27과 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 28에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 디스플레이 동작(2702), 검출 동작(2704) 및 식별 동작(2712)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to FIG. 27 are optionally implemented by the components shown in FIG. 1A and FIG. 1B or FIG. For example, a
사용자들에게의 작업공간들의 할당Assigning workspaces to users
다수의 전자 디바이스들은 사용자들로 하여금 각자의 사용자 인터페이스들(예를 들어, 데이터 저장 옵션들, 텍스트 편집 애플리케이션들, 그리기 애플리케이션들 등)과 연관된 다양한 기능들 및 동작들을 수행할 수 있게 하는 그래픽 사용자 인터페이스를 구비한다. 또한, 다수의 전자 디바이스들이 둘 이상의 사용자들 사이에서 공유된다. 이러한 공유 디바이스들과 상호작용하는 동안에, 사용자는 흔히 사용자 자신의 선호도에 기초하여 사용자 정의(custom)에 의해 정의된 기능들 및 동작들(예를 들어, 애플리케이션들의 이용 목록, 개인 데이터 저장 공간, 사용자-규정 텍스트 폰트, 라인 폭, 그리기 옵션들과 같은 사용자 정의 데이터 서식설정 옵션들 등)을 갖는 개인 작업공간 또는 작업 영역을 생성 및 정의하기를 원한다.A number of electronic devices provide a graphical user interface (GUI) that allows users to perform various functions and operations associated with their respective user interfaces (e.g., data storage options, text editing applications, drawing applications, Respectively. Also, multiple electronic devices are shared between two or more users. During interaction with these shared devices, the user will often be able to customize the functions and actions defined by the user based on his or her own preferences (e.g., use lists of applications, personal data storage space, - customized data formatting options, such as custom text fonts, line widths, drawing options, and so on).
공유 디바이스 상에 자신만의 개인 작업공간을 생성하고자 하는 사용자들을 위한 일부 접근법들은 (예를 들어, 사용자들을 그들 각자의 계정들에 연관시키기 위한 별개의 사용자 이름들 및 패스워드들을 갖는) 별개의 사용자 계정들을 생성하는 것을 포함한다. 이어서, 사용자들은 그들 각자의 사용자 이름들 및 패스워드들을 이용하여 그들 각자의 계정들로 로그인할 수 있다. 이러한 접근법들은 공유 디바이스 상에서 임의의 주어진 시간에 오직 한 명의 사용자가 자신의 각자의 계정으로 로그인할 수 있을 방식으로 한정됨으로써, 복수의 사용자들이 동시에 동일한 공유 디바이스 상에서 자신의 계정에 액세스하는 것을 어렵게 한다. 또한, 이러한 접근법들은 작업공간들 사이에서 전환하기 위해 메뉴들 및 설정들의 계층을 통해 내비게이션할 것을 요구하며, 이는 사용자들에게 혼란스럽고 시간 소비적일 수 있다.Some approaches for users who wish to create their own personal workspace on a shared device include a separate user account (e.g., having separate user names and passwords for associating users with their respective accounts) Lt; / RTI > Users can then log in with their respective accounts using their respective user names and passwords. These approaches are confined to the way that only one user can log into their respective accounts at any given time on a shared device, thereby making it difficult for multiple users to simultaneously access their accounts on the same shared device. In addition, these approaches require navigating through a hierarchy of menus and settings to switch between workspaces, which can be confusing and time consuming for users.
개시된 실시예들은 영역의 주변부 또는 경계를 정의하기 위해 하나 이상의 접촉들을 이용함으로써 사용자가 다기능 디바이스의 디스플레이 상의 영역을 한정할 수 있게 함으로써 다기능 디바이스 상의 공유된 작업공간을 분할하는, 편리하고 효율적인 방법을 제공한다. 영역을 한정하기 위해 사용자에 의해 사용되는 하나 이상의 접촉들에서 검출된 지문에 적어도 기초하여, 디바이스는 영역을 각자의 사용자와 연관시키고, 그 영역을 사용자의 개인적인 선호도 및 설정들과 연관시킨다. 그 결과, 하나 이상의 사용자들이 신속하고 효율적으로 동일한 물리적 디바이스 상에 각자의 작업공간들 또는 작업 영역들을 정의할 수 있으며, 사용자들의 지문 식별에 기초하여 각자의 작업공간과 연관된 사용자 정의 설정들을 갖는다.The disclosed embodiments provide a convenient and efficient method of partitioning a shared workspace on a multifunction device by allowing a user to define an area on the display of the multifunction device by using one or more contacts to define a periphery or boundary of the area do. Based at least on a fingerprint detected at one or more contacts used by the user to define the area, the device associates the area with its respective user and associates the area with the user's personal preferences and settings. As a result, one or more users can quickly and efficiently define their respective workspaces or workspaces on the same physical device, and have user-defined settings associated with their respective workspaces based on their fingerprint identification.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 29a 내지 도 29s 및 도 30a 및 도 30b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 29a 내지 도 29s 및 도 30a 및 도 30b와 관련하여 기술되는 실시예들은, 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 논의될 것이지만, 디스플레이(450) 상에 도 29a 내지 도 29s에 도시된 사용자 인터페이스들을 표시하는 동안에 통합형 지문 센서(359-1) 상에서 도 29a 내지 도 29s에 묘사된 입력들을 검출하는 것에 응답하여 유사한 동작들이 선택적으로 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 터치 스크린(112) 상에 도 29a 내지 도 29s에 도시된 사용자 인터페이스들을 표시하는 동안에 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에서 도 29a 내지 도 29s에 묘사된 입력들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 표시된 커서 대신에, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 29a는 휴대용 다기능 디바이스(100)의 디스플레이(2900) 상에 표시된 사용자 선택가능한 아이콘들(예를 들어, 복수의 기동가능한 애플리케이션들에 대응하는 사용자-선택가능한 아이콘(424-446))들을 갖는 제1 사용자 인터페이스(예를 들어, 애플리케이션 기동 사용자 인터페이스 또는 홈 스크린 인터페이스)를 도시한다. 일부 실시예들에서, 디스플레이(2900)는 터치에 응답하는 터치 센서들의 어레이를 갖는 터치-감응 디스플레이이다. 일부 실시예들에서, 터치 센서들의 어레이는 디스플레이를 형성하는 디스플레이 요소들을 정의하는 평면과 일치하는(예를 들어, 함께 위치되는 또는 동일 평면 상에 있는) 평면 내에 있다. 조합된 디스플레이(2900)와 터치-감응 표면은 때때로 본 명세서에서 터치 스크린(112)으로 지칭된다. 일부 실시예들에서, 디바이스는 터치에 응답하는 터치 센서들의 어레이를 갖는 (예를 들어, 디스플레이와 일치하거나, 함께 위치되거나, 동일 평면 상에 있는 평면 내의) 터치-감응 표면을 포함하고, 터치-감응 표면은 지문 감지 능력을 포함한다(예를 들어, 터치-감응 표면은 높은 공간 정밀도로 지문들을 검출할 수 있는 지문 센서들의 어레이를 포함함). 따라서, 일부 실시예들에서, 디바이스는 터치-감응 표면 상의 하나 이상의 지문들을 검출할 수 있고, 선택적으로 하나 이상의 지문들을 디바이스의 하나 이상의 대응하는 사용자들과 연관시킨다.29A is a flow diagram of a
도 29a 및 도 29b는 터치 스크린(112) 상에서 제1 영역을 한정하는(예를 들어, 제1 영역의 경계를 이루는 제1 주변부를 기술하는) 터치 스크린(112) 상의 (예를 들어, 하나 이상의 대응하는 지문들을 갖는 하나 이상의 접촉들을 포함하는) 제1 세트의 하나 이상의 입력들을 검출하는 것을 도시한다. 도 29a 및 도 29b는 하나 이상의 접촉들 중 제1 접촉이 제1 사용자와 연관된 제1 지문을 포함한다고 결정하는 것을 추가로 도시한다. 따라서, 도 29a 및 도 29b는 디바이스가 (예를 들어, 제1 사용자에 대해 특정된 사용자 정의 작업 설정들을 갖는 제1 사용자에 대한 작업공간으로서) 제1 영역을 제1 사용자와 연관시키는 것을 도시한다.29A and 29B illustrate an embodiment of a
도 29a에 도시된 바와 같이, 디바이스는 디바이스(100)의 터치 스크린(112) 상에서 대응하는 지문(2902-a, 2902-b, 2902-c, 2902-d)들을 갖는 접촉들을 포함하는 제1 세트의 하나 이상의 입력들을 검출한다. (예를 들어, 대응하는 지문(2902-a, 2902-b, 2902-c, 2902-d)들을 포함하는) 제1 세트의 입력들은 디바이스의 터치 스크린 표면 상에 (예를 들어, 실질적으로 직사각형인) 제1 영역의 테두리 또는 경계를 형성하는 (예를 들어, 실질적으로 직사각형인) 주변부를 정의한다. 도 29b에 도시된 바와 같이, 디바이스는 지문(2902-a, 2902-b, 2902-c, 2902-d)들 중 하나 이상이 제1 사용자(예를 들어, Jim)와 연관된다고 결정한다. 따라서, 디바이스는 (예를 들어, 검출된 지문들이 사용자의 지문들과 부합한다고 결정하는, 사용자의 지문들의 지문 특징들과 검출된 지문들의 비교에 기초하여) 터치 스크린(112)의 제1 영역을 제1 사용자와 연관시킨다(예를 들어, 지정함). 예를 들어, 제1 영역은 Jim에게 지정된 작업 공간이며, Jim의 선호되는(예를 들어, 사용자 정의에 의해 정의된) 애플리케이션들(및 예를 들어 대응하는 애플리케이션 기동 아이콘들)을 포함한다. 도 29b에 도시된 바와 같이, 사용자는 개인 작업공간을 위한 영역의 경계 또는 주변부를 정의하기 위해 단순히 (예를 들어, 하나 이상의 대응하는 지문들을 갖는 하나 이상의 접촉들을 갖는) 하나 이상의 입력들을 이용함으로써 자신의 사용자 정의 선호도 설정들로 다기능 디바이스 상에서 (예를 들어, 공유 작업공간으로부터) 자신의 개인 작업공간을 분할하거나, 윤곽을 나타내거나, 지정하는 것과 관련하여 개선된 편리성을 갖는다.29A, the device includes a first set of contacts including contacts having corresponding fingerprints 2902-a, 2902-b, 2902-c, 2902-d on the
유사하게, 도 29c는 휴대용 다기능 디바이스(100)의 터치 스크린(112) 상에 표시된 공동 작업공간 내의 메모들의 목록(예를 들어, 하나 이상의 사용자에 의해서 가장 최근 생성되거나 편집된 메모들)을 갖는 제2 사용자 인터페이스(예를 들어, 노트패드 또는 텍스트 편집 애플리케이션 사용자 인터페이스)를 도시한다. 도 29c 내지 도 29d는 터치 스크린(112) 상에서 제1 사용자(예를 들어, Mark)와 연관된 (예를 들어, 하나 이상의 지문(2906-a, 2906-b, 2906-c, 2906-d)들을 포함하는) 제1 세트의 하나 이상의 입력들을 검출하는 것을 도시하는데, 여기서 제1 세트의 하나 이상의 입력들이 제1 영역을 한정한다.Similarly, FIG. 29C illustrates an embodiment of a
도 29d에 도시된 바와 같이, 제1 세트의 입력들이 제1 사용자에 대응하는 하나 이상의 지문들을 포함한다는 결정에 적어도 기초하여, 제1 세트의 하나 이상의 입력들은 제1 사용자(예를 들어, Mark)와 연관된 제1 영역(예를 들어, 직사각형 텍스트 편집 작업공간(2908))과 연관된다(예를 들어, 제1 영역의 경계 또는 주변부를 정의함). 도 29d에 도시된 바와 같이, 제1 영역 내에 제1 사용자에 의해서 입력된 텍스트(예를 들어, 제2 세트의 하나 이상의 입력들에 의해 입력된 Mark에 의한 새로운 메모)는 제1 사용자(예를 들어, Mark)의 선호도에 기초하여 제1 동작과 연관된다(예를 들어, 제1 영역에 입력된 텍스트가 폰트, 텍스트 크기, 서식설정 등과 같은 사용자 정의 설정들에 따라 표시되고 형식화됨). 도 29e 및 도 29f에 도시된 바와 같이, 디바이스는 제1 영역 밖의(예를 들어, 직사각형 텍스트 편집 작업공간(2908) 밖의) 터치 스크린(112) 상에서 제3 세트의 하나 이상의 입력들(예를 들어, 접촉(2910))을 검출한다. 디바이스가 디스플레이 상의 영역과 연관되지 않은 새로운 메모의 생성에 대응하는 입력들을 검출한다면, 새로운 메모는 디폴트 선호도(예를 들어, 상이한 폰트, 텍스트 크기 및 서식설정 선호도)를 이용하여 생성될 것이다. 도 29e 및 도 29f에 도시된 바와 같이, 제3 세트의 하나 이상의 입력들(예를 들어, 접촉(2910))이 제1 영역 밖에 있다는 결정에 따라서, 디바이스는 제2 동작을 수행한다(예를 들어, 최근에 생성되거나 편집된 메모들의 목록을 재표시하기 위해서 Mark에 의한 새로운 메모를 최소화함).Based on at least a determination that the first set of inputs includes the one or more fingerprints corresponding to the first user, the one or more inputs of the first set may include a first user (e.g., a Mark) (E.g., defining a border or perimeter of the first region) associated with a first region (e.g., a rectangular text editing workspace 2908) associated with the first region. As shown in Figure 29d, the text entered by the first user in the first region (e.g., a new memo by Mark entered by the one or more inputs of the second set) (E.g., the text entered in the first region is displayed and formatted according to user defined settings, such as fonts, text size, formatting, etc.). As shown in Figures 29e and 29f, the device may include a third set of one or more inputs (e. G., On the touch screen 112) outside the first area (e.g., outside the rectangular text editing workspace 2908) , Contact 2910). If the device detects inputs corresponding to the creation of a new memo not associated with a region on the display, the new memo will be created using default preferences (e.g., different fonts, text size and formatting preferences). 29E and 29F, the device performs a second operation (e.g., according to the determination that the third set of one or more inputs (e.g., contact 2910) is outside the first region For example, minimizing new notes by Mark to re-display the list of recently created or edited notes).
따라서, 일부 실시예들에서, 다기능 디바이스 상에서 (예를 들어, 공유 작업공간으로부터) 자신의 개인 작업공간을 분할하거나, 윤곽을 나타내거나, 정의하거나, 지정한 후에, 사용자는 (예를 들어 자신의 개인 작업공간에 대응하는) 제1 영역 내에 하나 이상의 접촉들을 단순히 배치함으로써 (예를 들어, 자신의 사용자 정의 선호도 설정들에 따르거나 연관된) 제1 동작을 수행하고; 제1 영역 밖에 하나 이상의 접촉들을 배치함으로써 제2 동작(예를 들어, 디폴트 선호도에 따라 새로운 노트를 생성하거나 개인화된 작업공간을 해산함)을 수행하는 것에 대한 개선된 편리성을 갖는다.Thus, in some embodiments, after partitioning, outlining, defining, or specifying his / her personal workspace on a multifunction device (e.g., from a shared workspace) Performing a first operation (e.g., in accordance with or associated with its own user preference settings) by simply placing one or more contacts within a first area (corresponding to a workspace); Has the added convenience of performing a second action (e.g., creating a new note or dissolving a personalized workspace according to default preferences) by placing one or more contacts outside the first area.
또 다른 예로서, 도 29g는 휴대용 다기능 디바이스(100)의 터치 스크린(112) 상에 표시된, 그림들을 생성하기 위한 공동의 공유되는(예를 들어, 하나 이상의 사용자들 사이에서 공유되는) 작업공간을 갖는 제3 사용자 인터페이스(예를 들어, 그리기 애플리케이션 사용자 인터페이스)를 도시한다. 도 29h는 터치 스크린(112) 상에서 제1 사용자(예를 들어, Mark)와 연관된 (예를 들어, 하나 이상의 지문(2912-a, 2912-b, 2912-c, 2912-d)들을 포함하는) 제1 세트의 하나 이상의 입력들을 검출하는 것을 도시한다. 도 29i에 도시된 바와 같이, 적어도 제1 세트의 입력들이 제1 사용자에 대응하는(예를 들어, Mark에 대응하는) 하나 이상의 지문들을 포함한다는 결정에 기초하여, 제1 세트의 하나 이상의 입력들은 제1 사용자(예를 들어, Mark)와 연관된 제1 영역(예를 들어, 직사각형 그리기 작업공간(2913))을 정의한다.As another example, Figure 29G shows a workspace shared by a common (e.g., shared among one or more users) for creating pictures, displayed on the
도 29j 및 도 29k는 제1 영역 내에서(예를 들어, Mark의 직사각형 그리기 작업공간(2913) 내에서) 터치 스크린(112) 상의 제2 세트의 하나 이상의 입력들(예를 들어, 접촉(2914))을 검출하고, 이러한 접촉을 제1 사용자에게서 기인한다고 간주하는 것을 추가로 도시한다. 예를 들어, Mark의 그리기 작업공간(2913) 내에서 접촉(2914)을 검출할 때, 디바이스는 제1 사용자와 연관된 사용자 정의 설정들에 따라 제1 동작을 수행한다(예를 들어, 디바이스는 컬러 선호도, 테두리 설정 등과 같은 Mark의 선호도 또는 사용자 정의 설정들에 기초하여 접촉(2914)을 이동시킴으로써 제1 영역 내에 그려진 형상을 채우고 형상의 윤곽을 나타냄). 한편, 도 29k 및 도 29l에 도시된 바와 같이, 디바이스는 제1 영역 밖의(예를 들어, Mark의 직사각형 그리기 작업공간(2913) 밖의) 터치 스크린(112) 상에서 제3 세트의 하나 이상의 입력들(예를 들어, 접촉(2916))을 검출하며, (예를 들어 도 29l에 도시된 바와 같은 Mark의 사용자 정의 설정들로부터 구분되는 디폴트 컬러 또는 채우기 설정 및 테두리 설정들과 같은 디폴트 설정들에 따르거나 연관되어) 제2 동작을 수행한다.29J and 29K illustrate one or more inputs of a second set (e.g., contact 2914) on the
도 29m 내지 도 29q에 도시된 바와 같이, 제1 영역이 제1 사용자와 연관된 동안에, 제2 사용자(예를 들어, Jane)와 연관된 (예를 들어, 이동하는 지문(2918)의 하나 이상의 사례들을 포함하는) 제4 세트의 하나 이상의 입력들이 터치 스크린(112) 상에서 검출된다. 도 29m 내지 도 29q에 도시된 바와 같이, 제4 세트의 하나 이상의 입력들은 적어도 제4 세트의 입력들이 제2 사용자에 대응하는(예를 들어, Jane에 대응하는) 하나 이상의 지문(예를 들어, 지문(2918))들을 포함한다는 결정에 기초하여 제2 사용자(예를 들어, Jane)와 연관된 제2 영역(예를 들어, 직사각형 그리기 작업공간(2919))을 정의한다. 도 29q에 도시된 바와 같이, 제2 영역(예를 들어, 직사각형 그리기 작업공간(2919))은 (예를 들어, 도 29q에 도시된 디바이스의 배향을 참조하여) 디스플레이의 수직 우측 에지에 근접한다. 따라서, (제2 영역 내에 하나 이상의 사용자 인터페이스 객체들을 포함하는) 제2 영역은 제2 영역 디스플레이의 저부로서 디스플레이의 수직 우측 에지를 이용하게 배향된다.(E.g., one or more instances of the moving fingerprint 2918) associated with a second user (e.g., Jane) while the first region is associated with the first user, as shown in Figures 29m-29q A fourth set of inputs is detected on the touch screen 112). As shown in Figures 29m-29q, the one or more inputs of the fourth set include at least a fourth set of inputs comprising one or more fingerprints (e.g., corresponding to Jane) corresponding to the second user (e.g., (E.g., a rectangle drawing workspace 2919) associated with a second user (e.g., Jane) based on the determination that the first user (e.g., fingerprint 2918). As shown in Figure 29q, the second area (e.g., the rectangular drawing workspace 2919) is proximate to the vertical right edge of the display (e.g., with reference to the orientation of the device shown in Figure 29q) . Thus, the second area (comprising one or more user interface objects in the second area) is oriented to use the vertical right edge of the display as the bottom of the second area display.
도 29r 및 도 29s에 도시된 바와 같이, 디바이스는 제2 영역 내에서(예를 들어, Jane의 직사각형 그리기 작업공간(2919) 내에서) 터치 스크린(112) 상의 제2 세트의 하나 이상의 입력들(예를 들어, 접촉(2920))을 검출하고, 접촉(2920)을 제2 사용자(예를 들어, Jane)에게서 기인한다고 간주한다. 예를 들어, Jane의 그리기 작업공간(2919) 내에서 접촉(2919)을 검출함에 따라, 디바이스는 제2 사용자와 연관된 사용자 정의 설정들에 따라 제2 동작을 수행한다(예를 들어, 디바이스는 Jane의 선호도 또는 컬러, 테두리 설정들 등과 같은 사용자 정의 설정들에 기초하여 접촉(2919)의 이동에 의해 제2 영역 내에서 그려지는 형상의 윤곽을 나타내고 형상을 채움). 도 29s에 도시된 바와 같이, Jane의 선호도는 객체들에 대해 Mark의 선호도에 의해 규정된 라인 폭과 채움보다 더 가는 라인 폭과 더 밝은 채움을 규정한다.As shown in Figures 29r and 29s, the device may be moved to one or more inputs (e. G., Within Jane's rectangular drawing workspace 2919) of the second set on the touch screen 112 (E.g., contact 2920) and the
따라서, 일부 실시예들에서, 다기능 디바이스 상에서 (예를 들어, 공유된 작업공간으로부터) 제1 사용자가 자신의 개인 작업공간을 정의한 후에, 제2 사용자가 동시에 (예를 들어, 제1 사용자의 작업공간으로부터 구분되는) 자신만의 작업공간을 정의할 수 있다. 그 결과, 둘 이상의 사용자들이 그들의 각자의 손가락 접촉들에 의해 정의된 주변부를 이용하여 다기능 디바이스 상의 작업공간을 그들 각자의 작업 영역들로 분할함으로써 다기능 디바이스 상의 작업공간을 동시에 공유할 수 있고; 디바이스는 이어서 개별 사용자들의 각각의 작업 영역들을 사용자들 각자의 지문들에 기초하여 각자의 사용자들과 연관시킨다. 일부 실시예들에서, 별개의 작업공간들은 상이한 문서들에 대응한다(예를 들어, Mark에 대해 그리기 문서가 대응하고 Jane에 대해 별개의 그리기 문서가 대응함으로써, 영역(2913, 2919)이 해산되었을 때 Mark 및 Jane에 의해 그려진 객체들이 객체를 그린 각자의 사용자와 연관된 별개의 문서들에 저장될 것임). 일부 실시예들에서, 별개의 작업공간들이 동일한 문서 내의 상이한 작업공간들에 대응한다(예를 들어, Mark와 Jane이 동일한 문서의 상이한 부분들에 기여함으로써, 영역(2913, 2919)이 해산되었을 때 Mark 및 Jane에 의해 그려진 객체들이 계속해서 동일한 문서 내에 나타날 것임).Thus, in some embodiments, after a first user defines his or her personal workspace on a multifunction device (e.g., from a shared workspace), a second user may simultaneously access the workspace of the first user You can define your own workspace (separated from the space). As a result, two or more users can simultaneously share a workspace on the multifunction device by dividing the workspace on the multifunction device into their respective workspaces using the perimeter defined by their respective finger contacts; The device then associates the respective work areas of the individual users with their respective users based on their fingerprints. In some embodiments, the separate workspaces correspond to different documents (e.g., because the drawing document corresponds to Mark and a separate drawing document corresponds to Jane),
도 30a 및 도 30b는 일부 실시예들에 따른, 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시켜 할당하는 방법(3000)을 예시하는 흐름도이다. 방법(3000)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3000) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.30A and 30B are flowcharts illustrating a
아래에 기술되는 바와 같이, 방법(3000)은 터치-감응 표면의 영역들을 하나 이상의 사용자들과 연관시키기 위한 직관적인 방식을 제공한다. 이 방법은 작업공간을 선택할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 작업공간을 더 빠르고 더 효율적으로 선택 또는 자동 지정할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
디바이스는 터치-감응 표면의 제1 영역을 한정하는 제1 세트의 하나 이상의 입력들을 터치-감응 표면 상에서 검출한다(3002). 예를 들어, 디바이스는 (예를 들어, 도 29m 내지 도 29p와 관련하여 설명되는 바와 같이) 사용자가 손가락으로 터치-감응 표면의 영역의 윤곽을 나타내는 것을 검출하거나 (예를 들어, 도 29a, 도 29c 및 도 29h와 관련하여 설명되는 바와 같이) 작업공간의 코너들을 식별하기 위해 사용자가 디스플레이 상에 2, 3, 또는 4개의 손가락들을 동시에 놓고 있는 것을 검출한다. 일부 실시예들에서, 터치-감응 표면의 제1 영역은 터치 스크린 디스플레이의 영역(예를 들어, 도 29b의 제1 영역(2904); 도 29d의 제1 영역(2908); 도 5i의 제1 영역(2913))이다(3004).The device detects (3002) a first set of one or more inputs on the touch-sensitive surface defining a first region of the touch-sensitive surface. For example, the device may detect that the user presents a contour of the area of the touch-sensitive surface with a finger (e.g., as described in connection with Figures 29m-29p) 29c and 29h) to detect the corners of the workspace, the user is simultaneously placing 2, 3, or 4 fingers on the display. In some embodiments, the first region of the touch-sensitive surface includes a region of the touch screen display (e.g., a
제1 세트의 하나 이상의 입력들을 검출한 후에(3006), (예를 들어, 제1 세트의 하나 이상의 입력들을 검출하는 것에 응답하여) 디바이스는 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문(예를 들어, 도 29a 및 도 29b의 Jim과 연관된 지문(2902-a, 2902-b, 2902-c, 2902-d)들; 도 29c 및 도 29d의 Mark와 연관된 지문(2906-a, 2906-b, 2906-c, 2906-d)들; 도 29h 및 도 29i의 Mark와 연관된 지문(2912-a, 2912-b, 2912-c, 2912-d)들)을 포함하는 제1 접촉을 포함한다고 결정한다(3008). 디바이스는 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여 터치-감응 표면의 제1 영역을 제1 사용자와 연관시킨다(3010)(예를 들어, 도 29b의 Jim과 연관된 제1 영역(2904); 도 29d의 Mark와 연관된 제1 영역(2908); 도 29i의 Mark와 연관된 제1 영역(2913)). 따라서, 일부 실시예들에서, 사용자는 사용자와 연관된 지문들을 포함하는 하나 이상의 접촉들을 이용하여 공유된 작업공간 내의 영역의 윤곽을 추적함으로써 터치-감응 표면 상의 공유된 작업공간의 일부분을 사용자의 작업공간으로서 선택할 수 있다. 이어서, 사용자는 사용자와 연관된 사용자-특정 동작들을 수행하도록 이러한 개별적인 작업공간을 사용할 수 있다(예를 들어, 도 29b와 관련하여 설명된 바와 같이 사용자 정의 애플리케이션들을 사용; 도 29d와 관련하여 설명된 바와 같이 사용자 정의 폰트 및 글자 크기를 사용; 도 29k와 관련하여 설명된 바와 같이 사용자 정의 라인 폭과 테두리 설정 및 형상 컬러 또는 채우기를 사용).After detecting one or more inputs of the first set (3006), the device determines whether one or more inputs of the first set (e.g., in response to detecting one or more inputs of the first set) (E.g., fingerprints 2902-a, 2902-b, 2902-c, 2902-d associated with Jim in Figures 29A and 29B; fingerprints 2906-a A finger 2912-a, 2912-b, 2912-c, 2912-d associated with the Mark 2906-b, 2906-c, 2906- (3008). The device associates a first region of the touch-sensitive surface with the first user based at least in part upon a determination that the one or more inputs of the first set include a first contact comprising a first fingerprint associated with the first user (E.g., a
일부 실시예들에서, 터치-감응 표면의 제1 영역을 제1 사용자와 연관시킨 후에, 디바이스는 제1 영역의 범위의 시각적 표지를 표시한다(3012). 예를 들어, 디바이스는 제1 영역 둘레의 테두리(예를 들어, 도 29b에서 Jim과 연관된 제1 영역(2904) 둘레의 테두리; 또는 도 29d에서 Mark와 연관된 제1 영역(2908) 둘레의 테두리; 또는 도 29i에서 Mark와 연관된 제1 영역(2913) 둘레의 테두리)를 표시한다.In some embodiments, after associating the first region of the touch-sensitive surface with the first user, the device displays a visual indicator of the extent of the first region (3012). For example, the device may include a border around a first region (e.g., a border around a
일부 실시예들에서, 터치-감응 표면의 제1 영역이 제1 사용자와 연관된 동안에(3014), 디바이스는 동작(3016-3034)들과 관련하여 기술되는 하나 이상의 단계들을 수행한다. 디바이스는 제1 영역 내에서 제2 세트의 하나 이상의 입력들을 검출한다(3016). 디바이스는 제2 세트의 하나 이상의 입력들을 제1 사용자에게서 기인한다고 간주한다(3018). 예를 들어, 디바이스는 제1 영역 내에서 제2 세트의 하나 이상의 입력들을 검출하는 것에 응답하여 하나 이상의 동작들을 수행하고, 제2 세트의 하나 이상의 입력들에 따라 생성된 데이터를 제1 사용자와 연관된 저장 위치 내에 저장하거나 이들이 제1 사용자로부터의 입력들인 것처럼 제2 세트의 하나 이상의 입력들을 달리 처리한다. 일부 실시예들에서, 제2 세트의 하나 이상의 입력들은 제2 세트의 하나 이상의 입력들이 사용자에 대응한다는 다른 표지들을 요구하지 않고서 제1 영역 내의 입력들의 위치에 기초하여 제1 사용자에게서 기인한다고 간주된다. 예를 들어, 디바이스는 제2 세트의 하나 이상의 입력들 내의 접촉들의 지문들을 식별하지 않는다. 대신, 제1 영역 내에서 발생한 제스처가 제1 사용자에 의한 입력으로 추정된다.In some embodiments, while the first area of the touch-sensitive surface is associated with a first user (3014), the device performs one or more of the steps described in connection with operations (3016-3034). The device detects 3016 one or more inputs of the second set within the first region. The device considers 3018 one or more inputs of the second set due to the first user. For example, a device may perform one or more operations in response to detecting a second set of one or more inputs within a first region, and may cause data generated according to one or more inputs of a second set to be associated with a first user Store locations or otherwise process one or more inputs of the second set as if they were inputs from a first user. In some embodiments, the one or more inputs of the second set are considered to originate in the first user based on the location of the inputs in the first domain without requiring other indicia that the one or more inputs of the second set correspond to the user . For example, the device does not identify fingerprints of contacts in one or more inputs of the second set. Instead, a gesture occurring in the first area is estimated as an input by the first user.
일부 실시예들에서, 디바이스는 제3 세트의 하나 이상의 입력들을 검출한다(3020). 제3 세트의 하나 이상의 입력들을 검출하는 것에 응답하여(3022), 제3 세트의 하나 이상의 입력들이 제1 영역 내에서 검출되었다는 결정에 따라, 디바이스는 제1 동작을 수행하고(예를 들어, 디바이스는 도 29d와 관련하여 설명된 바와 같이 제1 사용자의 폰트 선호도에 따라 텍스트 편집 동작을 수행하거나; 제1 영역(2913) 내에서 접촉(2914)을 검출함에 따라 디바이스는 도 29j 및 도 29k와 관련하여 설명된 바와 같이 그리기를 위한 제1 사용자의 사용자 정의 라인 폭과 형상 채움을 이용함); 제3 세트의 하나 이상의 입력들이 제1 영역 밖에서 검출된다는 결정에 따라, 디바이스는 제1 동작과는 상이한 제2 동작을 수행한다(예를 들어, 도 29e와 관련하여 설명된 바와 같이 제1 영역(2908) 밖에서 접촉(2910)을 검출함에 따라 디바이스는 제1 사용자에 의해 생성된 새로운 메모를 최소화하고 최근에 생성 또는 편집된 메모들의 목록을 재표시하며; 도 29k 및 도 29l와 관련하여 설명된 바와 같이 제1 영역(2913) 밖에서 접촉(2916)을 검출함에 따라 디바이스는 그리기를 위한 디폴트 라인 폭과 형태 채움을 이용함). 예를 들어, 제1 영역 내의 입력들은 제1 사용자의 사용자 선호도에 따른 시각적 요소들(예를 들어, 제1 사용자와 연관된 텍스트 폰트 선호도, 텍스트 컬러 선호도, 라인 컬러/폭 선호도, 사용자 정의 사전 또는 자동수정 옵션들, 또는 사용자 정의 애플리케이션 툴바 설정들)로 해석되는 반면, 제1 영역 밖의 입력들은 디폴트 사용자 선호도에 따른 시각적 요소들(예를 들어, 디폴트 텍스트 폰트 선호도, 디폴트 텍스트 컬러 선호도, 디폴트 라인 컬러/폭 선호도, 디폴트 사전 또는 자동수정 옵션들, 또는 디폴트 애플리케이션 툴바 설정들)로 해석된다.In some embodiments, the device detects 3020 one or more inputs of the third set. In response to detecting a third set of one or more inputs (3022), in response to determining that a third set of one or more inputs have been detected in the first region, the device performs a first operation (e.g., The device performs the text editing operation according to the font preference of the first user as described in relation to Figure 29d or detects the
일부 실시예들에서, 디바이스는 터치-감응 표면의 제2 영역을 한정하는 터치-감응 표면 상의 제4 세트의 하나 이상의 입력들을 검출한다(3024)(예를 들어, 도 29q의 제2 영역(2919)을 한정하는 지문(2918)을 포함하는 접촉의 이동). 예를 들어, 디바이스는 제2 사용자에 대한 작업공간의 코너들을 식별하기 위해 손가락으로 (예를 들어, 도 29m 내지 도 29q와 관련하여 설명된 바와 같이) 터치-감응 표면의 영역의 윤곽을 나타내거나 제2 사용자가 디스플레이 상에 2, 3 또는 4개의 손가락들을 동시에 놓고 있는 것을 검출한다. 디바이스는 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문(예를 들어, 도 29q에서 Jane과 연관된 지문(2918))을 포함하는 제2 접촉을 포함한다고 결정한다(3026). 디바이스는 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문을 포함하는 제2 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여, 터치-감응 표면의 제2 영역을 제2 사용자와 연관시킨다(3028)(예를 들어, 디바이스는 적어도 지문(2918)이 Jane과 연관된다는 결정에 기초하여 제2 영역(2919)을 Jane과 연관시킴). 일부 실시예들에서, 터치-감응 표면의 제2 영역은 터치-감응 표면의 제1 영역으로부터 구분된다(예를 들어, 제1 영역과 겹쳐지지 않음).In some embodiments, the device detects (3024) one or more inputs of a fourth set on a touch-sensitive surface defining a second area of the touch-sensitive surface (e.g., the
일부 실시예들에서, 터치-감응 표면의 제1 영역이 제1 사용자와 연관되고 터치-감응 표면의 제2 영역이 제2 사용자와 연관된 동안에, 디바이스는 제5 세트의 하나 이상의 입력들을 검출한다(3030). 제5 세트의 하나 이상의 입력들을 검출하는 것에 응답하여, 제5 세트의 하나 이상의 입력들이 제1 영역 내에서 검출되었다는 결정에 따라(3032), 디바이스는 제1 동작을 수행하고(예를 들어, 제1 영역(2913) 내에서 접촉(2914)을 검출함에 따라, 도 29j 및 도 29k와 관련하여 설명된 바와 같이 디바이스가 Mark의 선호도에 기초한 라인 폭 또는 형상 채움에 대한 사용자 정의 설정들을 이용함); 제5 세트의 하나 이상의 입력들이 제2 영역 내에서 검출된다는 결정에 따라, 디바이스는 제1 동작과는 상이한 제2 동작을 수행한다(예를 들어, 제2 영역(2919) 내에서 접촉(2920)을 검출함에 따라, 도 29r 및 도 29s와 관련하여 설명된 바와 같이 디바이스가 Jane의 선호도에 기초한 라인 폭 또는 형상 채움에 대한 사용자 정의 설정들을 이용함). 예를 들어, 제1 영역 내의 입력들은 제1 사용자의 사용자 선호도에 따른 시각적 요소들로 해석되고(예를 들어, 제1 사용자와 연관된 텍스트 마크업 컬러, 텍스트 폰트 선호도, 텍스트 컬러 선호도, 라인 컬러/폭 선호도, 사용자 정의 사전 또는 자동수정 옵션들, 및/또는 사용자 정의 애플리케이션 툴바 설정들), 제2 영역 내의 입력들은 제2 사용자의 사용자 선호도에 따른 시각적 요소들로 해석된다(예를 들어, 제2 사용자와 연관된 텍스트 마크업 컬러, 텍스트 폰트 선호도, 텍스트 컬러 선호도, 라인 컬러/폭 선호도, 사용자 정의 사전 또는 자동수정 옵션들, 및/또는 사용자 정의 애플리케이션 툴바 설정들).In some embodiments, while the first region of the touch-sensitive surface is associated with a first user and the second region of the touch-sensitive surface is associated with a second user, the device detects one or more inputs of the fifth set 3030). In response to detecting the fifth set of one or more inputs, the device performs a first operation (e.g., 3032) in response to determining that a fifth set of one or more inputs have been detected in the first region The device uses user-defined settings for line width or shape fill based on Mark's preference as described in connection with Figures 29j and 29k as detecting
일부 실시예들에서, 제1 영역은 디스플레이의 제1 에지에 근접하고(예를 들어, 제1 영역(2913)이 도 29g 내지 도 29s에서 도시된 디바이스의 배향과 관련하여 디스플레이의 수평 하부 에지에 근접함); 제1 영역 내에 표시된 하나 이상의 제1 사용자 인터페이스 객체들이 디스플레이의 저부로서 제1 에지를 이용하여 배향되며(예를 들어, Mark의 그리기 작업공간이 도 29i 내지 도 29l과 관련하여 설명된 바와 같이 수평 하부 에지를 저부로서 이용하게 배향됨); 제2 영역이 디스플레이의 제1 에지와는 상이한 디스플레이의 제2 에지에 근접하고(예를 들어, 제2 영역(2919)이 도 29g 내지 도 29s에서 도시된 디바이스의 배향과 관련하여 디스플레이의 수직 우측 에지에 근접함); 제2 영역 내에 표시된 하나 이상의 제2 사용자 인터페이스 객체들이 디스플레이의 저부로서 제2 에지를 이용하여 배향된다(예를 들어, Jane의 그리기 작업공간이 도 29q 내지 도 29s와 관련하여 설명된 바와 같이 수직 우측 에지를 저부로서 이용하게 배향됨). 예를 들어, 디바이스는 객체/텍스트의 "저부"가 제1 영역에 가장 가까운 디스플레이의 에지를 향하도록 제1 영역 내의 텍스트/그래픽 객체들을 배향시킨다. 유사하게, 디바이스는 객체/텍스트의 "저부"가 제2 영역에 가장 가까운 디스플레이의 에지를 향하도록 제2 영역 내의 텍스트/그래픽 객체들을 배향시킨다.In some embodiments, the first region is proximate to the first edge of the display (e.g., the
도 30a 및 도 30b의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 30a 및 도 30b와 관련하여 전술된 방법(3000)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3000)과 관련하여 전술된 지문들, 접촉들, 사용자 인터페이스 객체들, 입력들, 시각적 표지들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 사용자 인터페이스 객체들, 입력들, 시각적 표지들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 30A and 30B are only illustrative and that the order in which they are described is not intended to indicate that the order in which they are described is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that it is also applicable in a similar manner to the
일부 실시예들에 따르면, 도 31은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(3100)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 31에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.31 illustrates a functional block diagram of an
도 31에 도시된 바와 같이, 전자 디바이스(3100)는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛(3102), 상부에서 접촉을 수용하도록 구성된 터치-감응 표면 유닛(3104), 지문 센서 유닛(3106); 및 디스플레이 유닛(3102), 터치-감응 표면 유닛(3104) 및 지문 센서 유닛(3106)에 결합된 프로세싱 유닛(3108)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(3108)은 검출 유닛(3110), 결정 유닛(3112), 연관 유닛(3114), 디스플레이 인에이블링 유닛(3116), 원인 간주 유닛(3118) 및 수행 유닛(3120)을 포함한다.31, the
프로세싱 유닛(3108)은 (예를 들어, 검출 유닛(3110)을 이용하여) 터치-감응 표면 유닛(3104)의 제1 영역을 한정하는 터치-감응 표면 유닛(3104) 상의 제1 세트의 하나 이상의 입력들을 검출하고; 제1 세트의 하나 이상의 입력들을 검출한 후에: (예를 들어, 결정 유닛(3112)을 이용하여) 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다고 결정하며; (예를 들어, 연관 유닛(3114)을 이용하여) 제1 세트의 하나 이상의 입력들이 제1 사용자와 연관된 제1 지문을 포함하는 제1 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여 터치-감응 표면 유닛(3104)의 제1 영역을 제1 사용자와 연관시키도록 구성된다.Processing unit 3108 may include a first set of one or more of a first set of touch-
일부 실시예들에서, 터치-감응 표면 유닛(3104)의 제1 영역은 터치 스크린 디스플레이의 영역이다.In some embodiments, the first area of the touch-
일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역을 제1 사용자와 연관시킨 후에, (예를 들어, 디스플레이 인에이블링 유닛(3116)을 이용하여) 제1 영역의 범위의 시각적 표지의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 3108 may associate a first area of the touch-
일부 실시예들에서, 프로세싱 유닛(3108)은, 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관된 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 제1 영역 내의 제2 세트의 하나 이상의 입력들을 검출하고; (예를 들어, 원인 간주 유닛(3118)을 이용하여) 제2 세트의 하나 이상의 입력들을 제1 사용자에게서 기인하는 것으로 간주하도록 구성된다.In some embodiments, the processing unit 3108 may be configured to determine whether the first area of the touch-
일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관된 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 제3 세트의 하나 이상의 입력들을 검출하고; 제3 세트의 하나 이상의 입력들을 검출하는 것에 응답하여: 제3 세트의 하나 이상의 입력들이 제1 영역 내에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작을 수행하고; 제3 세트의 하나 이상의 입력들이 제1 영역 밖에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작과는 상이한 제2 동작을 수행하도록 구성된다.In some embodiments, the processing unit 3108 may be configured to detect the first set of touch-sensitive surface units 3104 (e.g., using the detection unit 3110) while the first area of the touch- Detecting one or more inputs; In response to detecting the third set of one or more inputs: a first operation is performed (e.g., using the execution unit 3120) in accordance with a determination that one or more inputs of the third set are detected in the first region Perform; Is configured to perform a second operation different from the first operation (e.g., using the execution unit 3120) in accordance with a determination that the third set of one or more inputs is detected outside the first region.
일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관된 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 터치-감응 표면 유닛(3104)의 제2 영역을 한정하는 터치-감응 표면 유닛 상의 제4 세트의 하나 이상의 입력들을 검출하고; (예를 들어, 결정 유닛(3112)을 이용하여) 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문을 포함하는 제2 접촉을 포함한다고 결정하며; 제4 세트의 하나 이상의 입력들이 제2 사용자와 연관된 제2 지문을 포함하는 제2 접촉을 포함한다는 결정에 적어도 부분적으로 기초하여 (예를 들어, 연관 유닛(3114)을 이용하여) 터치-감응 표면 유닛(3104)의 제2 영역을 제2 사용자와 연관시키도록 구성된다.In some embodiments, the processing unit 3108 may be configured to detect the touch-sensitive surface 3104 (e.g., using the detection unit 3110) while the first area of the touch- Detect a fourth set of one or more inputs on a touch-sensitive surface unit defining a second region of the
일부 실시예들에서, 프로세싱 유닛(3108)은 터치-감응 표면 유닛(3104)의 제1 영역이 제1 사용자와 연관되고 터치-감응 표면 유닛(3104)의 제2 영역이 제2 사용자와 연관되는 동안에, (예를 들어, 검출 유닛(3110)을 이용하여) 제5 세트의 하나 이상의 입력들을 검출하고; 제5 세트의 하나 이상의 입력들을 검출하는 것에 응답하여: 제5 세트의 하나 이상의 입력들이 제1 영역 내에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작을 수행하고; 제5 세트의 하나 이상의 입력들이 제2 영역 내에서 검출된다는 결정에 따라 (예를 들어, 수행 유닛(3120)을 이용하여) 제1 동작과는 상이한 제2 동작을 수행하도록 구성된다.
일부 실시예들에서, 제1 영역은 디스플레이 유닛(3102)의 제1 에지에 근접하고; 제1 영역에 표시된 하나 이상의 제1 사용자 인터페이스 객체들이 제1 에지를 디스플레이 유닛(3102)의 저부로서 사용하여 배향되며; 제2 영역은 디스플레이 유닛(3102)의 제1 에지와는 상이한 디스플레이 유닛(3102)의 제2 에지에 근접하고; 제2 영역 내에 표시된 하나 이상의 제2 사용자 인터페이스 객체들이 제2 에지를 디스플레이 유닛(3102)의 저부로서 이용하여 배향된다.In some embodiments, the first region is proximate to the first edge of the
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 30a 및 도 30b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 31에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(3002), 결정 동작(3008) 및 연관 동작(3010)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to Figs. 30A and 30B are optionally implemented by the components shown in Figs. 1A and 1B or Fig. For example,
적절한 운지법 기술들에 대한 사용자의 훈련User training on appropriate fingering techniques
전자 디바이스 상에서의 타이핑 및 피아노 또는 전자 키보드 연주와 같은 태스크들을 효율적으로 수행하는 것은 사용자가 적절한 운지법 기술들을 사용할 것을 요구한다. 예를 들어, 키보드(예를 들어, 전자 디바이스 또는 타자기와 연관된 QWERTY 키보드) 상에서 타이핑할 때, 사용자의 속도 및 정확도를 향상시키기 위해서 "터치 타이핑"으로 알려진 기술이 개발되었다. 이러한 기술은 사용자가 QWERTY 키보드 상의 중간 행(middle row) 글자들을 따라 8개의 손가락들(오른손 및 왼손 엄지손가락은 제외함)을 가볍게 올려두는 것을 포함한다(예를 들어, 사용자의 왼손 새끼손가락, 약지, 중지 및 검지가 각각 "A", "S", "D", 및 "F" 키들 상에 배치되고, 사용자의 오른손 검지, 중지, 약지 및 새끼손가락이 각각 "J", "K", "L" 및 ";" 키들 상에 배치됨). 이러한 셋업을 기본 손 위치로 이용하여, 키보드의 각각의 키에 키를 누르도록 사용되어야 하는 손가락이 할당되며, 눌러진 키와 연관된 글자가 접속된 디바이스(예를 들어, 컴퓨터 또는 타자기와 같은 전자 디바이스) 상에 타이핑되게 한다. 터치 타이핑이 능숙한 경우에, 사용자는 글자열을 타이핑하기 위해 시각적 식별보다는 근육 기억에 의존할 수 있으며, 이는 효율성을 향상시킨다. 적절한 타이핑 기술에 대해 사용자를 훈련시키는 종래의 방법은 사용자가 대응하는 손가락을 이용하여 특정한 키를 누르게 하는 명령어들 및/또는 일련의 실전 연습들을 수행하게 하는 명령어들을 포함한다. 그러나, 컴퓨터는 타이핑된 글자들의 정확도와 관련된 피드백을 제공할 수 있지만, 사용자들이 키보드 상의 각자의 키들을 누르기 위해 올바른 손가락을 사용하였는지 여부에 대한 피드백을 제공할 수는 없다.Efficiently performing tasks such as typing on an electronic device and playing a piano or an electronic keyboard require the user to use appropriate fingerprinting techniques. Techniques known as "touch typing" have been developed to improve the speed and accuracy of a user when typing, for example, on a keyboard (e.g., a QWERTY keyboard associated with an electronic device or typewriter). This technique involves lightly lifting eight fingers (except the right and left thumb) along the middle row of letters on the QWERTY keyboard (e.g., the user's left little finger, Quot ;, " K ", " K ", and " L "and"; "keys). Using this setup as the default hand position, a finger is assigned to each key of the keyboard that should be used to press the key, and the character associated with the pressed key is connected to the device (e.g., electronic device such as a computer or typewriter) ). When touch typing is proficient, the user may rely on muscle memory rather than visual identification to type the string, which improves efficiency. Conventional methods of training a user for appropriate typing techniques include those that cause a user to use a corresponding finger to press a particular key and / or to perform a series of exercises. However, the computer can provide feedback related to the accuracy of typed characters, but can not provide feedback as to whether users have used the correct finger to press their respective keys on the keyboard.
유사하게, 높은 숙련도로 음악 키보드를 연주하는 것은 (예를 들어, 적절한 기술로 키들을 누름으로써) 일관적인 소리 품질을 생성하고 (예를 들어, 화음에서 키들의 조합을 동시에 누르거나 악곡에서 일련의 키들을 연속적으로 누름으로써) 충분한 속도 및 정확도를 달성하기 위해서 적절한 운지법 기술을 요구한다. 음악 키보드(예를 들어, 피아노)를 연주하기 위해 음악가를 훈련시키는 종래의 방법들은 적절한 기술을 보여줄 수 있고 학습하는 음악가에게 피드백을 제공할 수 있는 연주자와 일대일(예를 들어, "개인") 레슨들을 포함한다. 그러나, 개인 레슨들은 엄두를 못 낼 만큼 비용이 높을 수 있으며, 전형적으로 사전에 스케줄이 잘 정해져야 한다. 대안적으로, 사용자가 키보드를 전자 디바이스에 접속시킬 수 있게 하거나 터치-감응 표면을 갖는 전자 디바이스를 대리 키보드로서 사용하게 하는 프로그램들이 존재한다. 컴퓨터 상의 타이핑을 학습하기 위해 사용되는 프로그램들과 유사하게, 이러한 프로그램들은 연주되고 있는 음(note)들의 정확도에 대한 피드백을 제공할 수 있지만, 손가락의 운지법 기술에 대해서는 피드백을 제공할 수 없다.Similarly, playing a music keyboard with a high degree of proficiency can produce consistent sound quality (e.g., by pressing keys with the appropriate technique) (e.g., by simultaneously pressing a combination of keys in a chord, Requiring a proper fingering technique to achieve sufficient speed and accuracy). Conventional methods of training musicians to play musical keyboards (e.g., piano) include one-to-one (e.g., "personal") lessons with performers who can demonstrate appropriate skills and can provide feedback to the learning musicians . However, individual lessons can be expensive to defeat and typically require prior scheduling. Alternatively, there are programs that allow a user to connect a keyboard to an electronic device or use an electronic device having a touch-sensitive surface as a surrogate keyboard. Similar to programs used to learn typing on a computer, such programs can provide feedback on the accuracy of the notes being played, but can not provide feedback on finger fingering techniques.
아래에 기술된 실시예들에서, (예를 들어, 음악 키보드를 타이핑 또는 연주하기 위한) 적절한 운지법 기술들을 훈련하기 위한 향상된 방법들 및 사용자 인터페이스들이 손가락 접촉들을 검출하고 손가락 접촉들과 연관된 지문들을 분석함으로써 전자 디바이스에서 달성된다. 이러한 방식으로, 전자 디바이스는 어떤 손가락이 접촉에 사용되었는지를 결정할 수 있으며, 일부 실시예들에서는 손끝(fingertip)의 어떤 부분이 접촉에 사용되었는지를 결정할 수 있다. 유리하게는, 타이핑 및 음악 키보드 연주를 훈련하기 위한 종래의 전자 방법들과는 다르게, 아래에서 기술되는 방법들 및 사용자 인터페이스들은 적절한 운지법 기술들이 사용되고 있는지 여부(예를 들어, 올바른 손가락들이 타이핑에 사용되고 있는지, 사용자가 음악 키보드에 올바른 앙각(elevation)과 방향으로 접촉하고 있는지, 그리고 적절한 조합의 손가락들이 음악적 화음들 및 악곡들을 연주하기 위해서 사용되고 있는지 여부)를 나타내는 피드백을 제공한다. 또한, 아래에서 기술되는 방법들 및 사용자 인터페이스들이 자가 학습에 사용될 수 있어, 개인 음악 레슨들을 받는 것과 연관된 비용과 스케줄 제약을 없앤다.In the embodiments described below, improved methods for training appropriate fingerprinting techniques (e.g., for typing or playing a music keyboard) and user interfaces are provided for detecting finger contacts and analyzing fingerprints associated with finger contacts In an electronic device. In this way, the electronic device can determine which finger was used for contact, and in some embodiments can determine which portion of the fingertip was used for contact. Advantageously, unlike conventional electronic methods for training typing and musical keyboard performances, the methods and user interfaces described below are used to determine whether appropriate fingering techniques are being used (e.g., whether the correct fingers are being used for typing, Whether the user is touching the music keyboard in the correct elevation direction and whether the appropriate combination of fingers is being used to play musical notes and musical compositions). In addition, the methods and user interfaces described below can be used for self-learning, eliminating the cost and schedule constraints associated with receiving personal music lessons.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 아래에서 도 32a 내지 도 32s 및 도 33a 내지 도 33c와 관련하여 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 32a 내지 도 32s 및 도 33a 내지 도 33c와 관련하여 기술되는 실시예들은 통합형 지문 센서(359-1)를 갖는 터치 스크린(112)(예를 들어, 개별적인 지문 능선들에 의해 형성되는 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 터치 스크린(112))과 관련하여 논의될 것이지만, 디스플레이(450) 상에 도 32a 내지 도 32s에 도시된 사용자 인터페이스들을 표시하는 동안에 별개의 지문 센서(359-1) 상에서 도 32a 내지 도 32s에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 32a 내지 도 32s는 지문 센서들로서 사용되는 것을 가능하게 하는, 개별적인 지문 능선들에 의해 형성되는 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 갖는 터치 스크린(112)을 구비하는 다기능 디바이스(100)를 도시한다. 일부 실시예들에서, 대안적으로 또는 이에 더하여, 다기능 디바이스(100)는 별개의 지문 센서(169)를 구비한다. 도 32a 내지 도 32p는 터치 스크린(112) 상에 표시된 사용자 인터페이스(3200)를 도시하며, 사용자 인터페이스(3200)는 복수의 활성화 가능한 사용자 인터페이스 객체들(예를 들어, 키(3202-1 내지 3202-24)들)을 구비하는 음악 키보드(3201)를 포함한다. 도 32q 내지 도 32s는 터치 스크린(112) 상에 표시된 사용자 인터페이스(3240)를 도시하며, 사용자 인터페이스(3240)는 복수의 활성화 가능한 사용자 인터페이스 객체들(예를 들어, 키(3232-1 내지 3232-41)들)을 구비하는 QWERTY 문자 입력 키보드(3222)를 포함한다. 도 32c 내지 도 32k 및 도 32m은 오디오 출력 생성 이벤트(예를 들어, 음악 키보드(3201) 상의 키의 표시에 대응하는 터치 스크린(112) 상의 위치에서의 적격의(qualifying) 접촉의 검출)에 응답하여 스피커(111)에서 생성된 오디오 출력(3208)의 하나 이상의 소리 주파수들을 나타내는 오디오 주파수 계기(3210)를 포함한다. 이러한 오디오 주파수 계기들은 전형적으로 표시된 사용자 인터페이스의 일부가 아니지만, 도면들의 이해를 돕기 위해 제공되어 있다.Figures 32A-32S illustrate a
도 32a 내지 도 32p는 다기능 디바이스(100)가 음악 키보드 내의 활성화 가능한 음악 키의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉의 지문 패턴을 검출하고, 지문 패턴의 하나 이상의 특징들에 기초하여, 터치 스크린(112) 상에 접촉하기 위해 사용된 운지법이 바람직하지 않은 운지법이라면 사용자에게 피드백을 제공하고, 접촉하기 위해 사용된 운지법이 바람직한 운지법이라면 음(예를 들어, 생성된 오디오 출력(3208))을 연주하는 다양한 실시예들을 도시한다.Figures 32A-32P illustrate a
예를 들어, 도 32a 내지 도 32g는, 다기능 디바이스(100)가 도 32a에 도시된 바와 같이 음악 키보드(3201) 상의 키(3202-5)(예를 들어, "E3" 키)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3204)의 지문 패턴을 검출하는 다양한 실시예들을 도시한다. 다기능 디바이스(100)는 접촉(3204)의 지문 패턴이 바람직한 운지법에 해당하는지 여부를 결정하며, 바람직한 운지법은 적어도 "E3" 키(3202-5)를 활성화하기 위해 사용되는 접촉(3204)의 지문 패턴에 대응하는 손가락이 사용자의 왼손 중지라는 기준을 포함한다.For example, FIGS. 32A-32G illustrate how the
도 32b, 도 32d 내지 도 32f는 적어도 사용자의 왼손 중지가 "E3" 키(3202-5)와 접촉한다는 기준에 기초하여, 접촉(3205)을 만드는 데 사용된 운지법이 바람직하지 않은 다양한 실시예들을 도시한다. 다기능 디바이스(100)는 (예를 들어, 적어도 지문 패턴에 대응하는 손가락의 아이덴티티의 결정을 포함하여) 접촉(3205)의 지문 패턴을 분석하고, 도 32b, 도 32d 내지 도 32f에서 접촉(3205)이 사용자의 왼손 약지(LR)에 의해 만들어졌다고 결정한다. 사용자의 왼손 약지는 사전 결정된 바람직한 손가락(예를 들어, 사용자의 왼손 중지)과 부합하지 않기 때문에, 다기능 디바이스(100)는 바람직한 운지법이 사용되지 않았음을 나타내는 피드백을 사용자에게 제공한다.Figures 32B, 32D-32F illustrate various embodiments where the fingering used to create the
일부 실시예들에서, 사용자가 잘못된 손가락을 사용하였음을 나타내는 피드백(예를 들어, 사용자의 왼손 중지 대신 사용자의 왼손 약지를 사용)은 시각적 피드백을 포함한다. 예를 들어, 도 32b 및 도 32d에 도시된 바와 같이, "E3"키(3202-5)가 사용자의 왼손 약지(LR)와 접촉될 때, 커다란 "X"(3206)가 터치 스크린(112) 상에 표시된다.In some embodiments, feedback indicating that the user has used the wrong finger (e.g., using the user's left hand finger instead of the user's left hand stop) includes visual feedback. For example, as shown in FIGS. 32B and 32D, when the "E3" key 3202-5 touches the user's left hand medicament LR, a large "X" 3206 touches the
일부 실시예들에서, 사용자가 잘못된 손가락을 사용하였음을 나타내는 피드백(예를 들어, 사용자의 왼손 중지 대신 사용자의 왼손 약지를 사용)은 가청 피드백을 포함한다. 예를 들어, 도 32e에 도시된 바와 같이, "E3"키(3202-5)가 사용자의 왼손 약지(LR)와 접촉될 때, 다기능 디바이스(100)는 스피커(111)에서 164.81㎐의 주파수를 갖는 진짜 "E3" 톤에서 벗어난 161.00㎐의 주파수(3210)를 갖는 오디오 출력(3208)을 생성한다. 특히 (예를 들어, 악곡의 일부로서) 음들의 시퀀스로 연주되거나 화음으로 연주될 때, 사용자는 음이 "벗어남"을 인지하는데, 이는 사용자가 바람직하지 않은 운지법을 사용하였음을 나타낸다.In some embodiments, feedback indicating that the user has used the wrong finger (e.g., using the user's left hand finger instead of the user's left hand stop) includes audible feedback. For example, as shown in FIG. 32E, when the "E3" key 3202-5 touches the user's left hand ring finger LR, the
일부 실시예들에서, 사용자가 잘못된 손가락을 사용하였음을 나타내는 피드백(예를 들어, 사용자의 왼손 중지 대신 사용자의 왼손 약지를 사용)은 촉각적 피드백을 포함한다. 예를 들어, 도 32f에 도시된 바와 같이, "E3"키(3202-5)가 사용자의 왼손 약지(LR)와 접촉될 때, 다기능 디바이스(100)는 (예를 들어, 촉각적 출력 생성기(167)를 이용하여) 촉각적 출력(3212)을 생성한다.In some embodiments, feedback indicating that the user has used the wrong finger (e.g., using the user's left hand finger instead of the user's left hand stop) includes tactile feedback. For example, as shown in Figure 32F, when the "E3" key 3202-5 is touched with the user's left hand medicament (LR), the multifunction device 100 (eg, the tactile output generator 167) to produce a
도 32c 및 도 32g는 적어도 사용자의 왼손 중지(LM)가 "E3" 키(3202-5)와 접촉된다는 기준에 기초하여, 접촉(3207)을 만드는 데 사용된 운지법이 바람직한 운지법인 다양한 실시예들을 도시한다. 다기능 디바이스(100)는 (예를 들어, 적어도 지문 패턴에 대응하는 손가락의 아이덴티티의 결정을 포함하여) 접촉(3207)의 지문 패턴을 분석하고, 도 32c 및 도 32g에서 접촉(3207)이 사용자의 왼손 중지(LM)에 의해 만들어졌다고 결정한다. 사용자의 왼손 중지가 사전 결정된 바람직한 손가락이기 때문에, 다기능 디바이스(100)는 "E3" 톤의 진짜 주파수에 대응하는 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 생성한다. 도 32c에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 바람직한 운지법이 사용되었음을 나타내는 피드백을 제공하지 않는다. 도 32g에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 터치 스크린(112) 상에 별(3218)을 표시함으로써 바람직한 운지법이 사용되었음을 나타내는 피드백을 제공한다.Figures 32c and 32g illustrate various embodiments that are based on a criterion that at least the user's left hand break (LM) is in contact with the "E3" key 3202-5, wherein the fingering used to create the
도 32h 내지 도 32j는 C-장조 3화음을 연주하기 위한 바람직한 운지법이 사용자의 왼손 새끼손가락, 왼손 중지 및 왼손 엄지를 포함하는 다양한 실시예들을 도시한다. 예를 들어, 바람직한 운지법 기준은, 도 32h 내지 도 32j의 음악 키보드(3201) 상의 "C" 키(3202-1), "E3" 키(3202-5) 및 "G" 키(3202-8)를 활성화하기 위해 사용되는 접촉(3214, 3217, 3216)들의 지문 패턴들이 각각 바람직한 운지법에 대응한다는 기준을 포함한다.Figures 32h-32j illustrate various embodiments in which the preferred fingering method for playing C-major triad includes the user's left hand little finger, left hand stop and left hand thumb. For example, a preferred fingering criterion is the "C" key 3202-1, the "E3" key 3202-5 and the "G" key 3202-8 on the
도 32h 내지 도 32i는, 도 32h 내지 도 32i에서 음악 키보드(3201) 상의 "E3" 키(3202-5)를 활성화하기 위해 사용되는 접촉(3217)의 지문 패턴이 사용자의 왼손 중지가 아닌 사용자의 왼손 약지(LR)에 대응하기 때문에, 도 32h 내지 도 32i에서 접촉(3214, 3217, 3216)들을 위해 사용된 운지법이 바람직한 운지법이 아닌 다양한 실시예들을 도시한다. 도 32h에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 터치 스크린(112) 상에 커다란 "X"(3206)를 표시함으로써 바람직하지 않은 운지법이 사용되었음을 나타내는 시각적 피드백을 제공한다. 도 32i에서, 일부 실시예들에 따라, 다기능 디바이스(100)는 터치 스크린(112) 상에 커다란 "X"(3206)를 표시하고 스피커(111)에서 161.00㎐의 주파수를 갖는 톤을 포함하고 들릴 정도로 불협화음인 C-장조 화음을 생성하는 오디오 출력(3208)을 발생시킴으로써 바람직하지 않은 운지법이 사용되었음을 나타내는 시각적 및 오디오 피드백을 제공한다.Figures 32h to 32i illustrate that the fingerprint pattern of the
도 32j는 적어도 도 32j의 접촉(3219, 3221, 3223)들의 지문 패턴들이 각각 사용자의 왼손 새끼손가락(LP), 왼손 중지(LM) 및 왼손 엄지(LT)에 대응한다는 결정에 기초하여 C-장조 3화음을 연주하기 위해 사용된 운지법이 바람직한 운지법인 실시예를 도시한다. 그 응답으로, 일부 실시예들에서, 다기능 디바이스(100)는 스피커(111)에서 적절하게 조율된 C-장조 3화음에 대응하는 오디오 출력(3208)을 생성하며, 터치 스크린(112) 상에 별(3218)을 표시함으로써 화음을 연주하기 위해 사용된 운지법이 바람직한 운지법임을 나타내는 시각적 피드백을 제공한다.Figure 32j illustrates a C-major (xy) finger pattern based on the determination that the fingerprint patterns of the
도 32k 내지 도 32l은, 활성화 접촉의 지문 패턴이 사용자의 손끝의 전체 또는 바닥살(pad)과는 대조적으로 사용자의 손끝의 끝부분을 이용하여 사용자가 터치 스크린(112)을 접촉하는 것에 대응한다는 기준을 바람직한 운지법 기준이 포함하는, 다양한 실시예들을 도시한다.32k-32l illustrate that the fingerprint pattern of the active contact corresponds to the user touching the
도 32k에 도시된 바와 같이, 다기능 디바이스(100)는 음악 키보드(3201)의 활성화 가능한 "E3" 키(3202-5)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3225)을 검출한다. 도 32k의 접촉(3225)의 지문 패턴이 사용자의 왼손 중지(LM) 손끝의 끝부분에 대응하기 때문에, 다기능 디바이스(100)는 이러한 접촉이 사전 결정된 운지법 기준을 충족시킨다고 결정하고 적절하게 조율된 "E3" 톤에 대응하는 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시킨다. 다기능 디바이스(100)는 일부 실시예들에 따라, 터치 스크린(112) 상에 별(3218)을 표시함으로써 음을 연주하기 위해 사용된 운지법이 바람직한 운지법이었음을 나타내는 시각적 피드백을 또한 제공한다.32K, the
도 32l은 사용자의 손가락의 끝부분이 키를 활성화하기 위해 사용된다는 기준을 포함하는 바람직한 운지법 기준이 충족되지 않은 실시예를 도시한다. 다기능 디바이스(100)는 도 32l의 음악 키보드(3201) 상의 "E3" 키(3202-5)의 표시에 대응하는 위치에서 터치 스크린(112) 상의 접촉(3227)을 검출한다. 접촉의 지문 패턴이 사용자의 왼손 중지(LM) 손끝의 바닥살에 대응하기 때문에 도 32f의 접촉(3227)이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 바람직한 운지법이 사용되지 않았음을 나타내는 시각적 피드백을 제공하는 커다란"X"(3206)를 터치 스크린(112) 상에 표시한다.Figure 321 illustrates an embodiment in which the preferred fingering criteria are not met, including a criterion that the end of the user's finger is used to activate the key. The
도 32m 내지 도 32p는 바람직한 운지법 기준이 사용자가 음악 키보드의 에지를 향해 뒤로 이동하는 손가락 움직임으로 음악 키를 활성화한다는 기준을 추가로 포함하는 다양한 실시예를 도시한다.Figures 32m through 32p illustrate various embodiments further including a criterion in which the preferred fingering criterion activates the music keys with finger movements in which the user moves back towards the edge of the music keyboard.
도 32m 및 도 32n에 도시된 바와 같이, 다기능 디바이스(100)는 음악 키보드(3201)의 활성화 가능한 "E3" 키(3202-5)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3228)을 검출한다. 접촉(3228)의 지문 패턴이 도 32m의 터치 스크린(112) 상의 위치(3228-a)로부터 도 32n의 터치 스크린(112) 상의 위치(3228-b)로의 접촉(3228)의 이동(3220)을 포함하기 때문에, 다기능 디바이스(100)는 접촉이 사전 결정된 운지법 기준을 충족시킨다고 결정하며, 그 응답으로, 적절하게 조율된 "E3" 톤에 대응하는 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시킨다. 다기능 디바이스(100)는 일부 실시예들에 따라서, 도 32n의 터치 스크린(112) 상에 별(3218)을 표시함으로써 음을 연주하기 위해 사용된 운지법이 바람직한 운지법이었음을 나타내는 시각적 피드백을 또한 제공한다. 도 32m 및 도 32n의 접촉(3228)의 지문 패턴은 또한 사용자의 왼손 중지(LM) 손끝의 끝부분에 대응하며, 이는 일부 실시예들에 따른 바람직한 운지법 기준에 추가로 부합한다.The
도 32o 및 도 32p에 도시된 바와 같이, 다기능 디바이스(100)는 음악 키보드(3201)의 활성화 가능한 "E3" 키(3202-5)의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉(3229)을 검출한다. 도 32o 및 도 32p의 접촉(3229)의 지문 패턴이 도 32o의 터치 스크린(112) 상의 위치(3229-a)로부터 도 32p의 터치 스크린(112) 상의 위치(3229-b)로의 접촉(3229)의 이동(3230)을 포함하기 때문에, 다기능 디바이스(100)는 접촉이 사전 결정된 운지법 기준을 충족시키지 않는다고 결정하며, 그 응답으로, 도 32p의 터치 스크린(112) 상에 커다란 "X"(3206)를 표시함으로써 음을 연주하기 위해 사용된 운지법이 바람직하지 않음을 나타내는 시각적 피드백을 제공한다.As shown in Figures 32O and 32P, the
도 32q 내지 도 32s는 다기능 디바이스(100)가 문자 입력 키보드 상의 활성화 가능한 문자 입력 키의 표시에 대응하는 터치 스크린(112) 상의 위치에서 접촉의 지문 패턴을 검출하고, 지문 패턴의 하나 이상의 특징들에 기초하여 터치 스크린(112) 상에 접촉하기 위해 사용된 운지법이 바람직한 운지법 기준을 충족하지 않는다면 사용자에게 피드백을 제공하고, 접촉하기 위해 사용된 운지법이 바람직한 운지법 기준을 충족시킨다면 문자(예를 들어, "c"(3232-27))를 입력하는 다양한 실시예들을 도시한다. 바람직한 운지법은 적어도 사용자가 자신의 왼손 중지로 "C" 키(3232-27)에 접촉한다는 기준을 포함한다.Figures 32q-32s illustrate how a
도 32q에서, 다기능 디바이스(100)는 문자 입력 키(3232-27)(예를 들어, "C" 키)의 표시에 대응하는 위치에서 터치 스크린(112) 상의 접촉(3234)을 검출한다. 다기능 디바이스(100)는 적어도 접촉에 대응하는 사용자 손가락의 아이덴티티를 결정하기 위해 도 32q의 접촉(3234)의 지문 패턴을 분석한다.In Fig. 32q, the
일부 실시예들에서, 도 32r에 도시된 바와 같이, 다기능 디바이스(100)가 도 32r의 접촉(3236)의 지문 패턴이 사용자의 왼손 검지(LI)에 대응한다고 결정하기 때문에 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키지 않는다. 그 응답으로, 다기능 디바이스(100)는 터치 스크린(112) 상에 커다란 "X"(3206)를 표시하여 사용자가 바람직한 운지법을 사용하지 않았다는 시각적 피드백을 제공한다. 일부 실시예들에 따르면, 도 32r에서 접촉(3236)을 검출하는 것에 응답하여, 다기능 디바이스(100)는 텍스트 박스(3224) 내에 문자"C"(3226-53)를 또한 표시한다.In some embodiments, since the
일부 실시예들에서, 도 32s에 도시된 바와 같이, 다기능 디바이스(100)가 도 32s의 접촉(3238)의 지문 패턴이 사용자의 왼손 중지(LM)에 대응한다고 결정하기 때문에, 접촉이 미리 정해진 바람직한 운지법 기준을 충족시킨다. 그 응답으로, 다기능 디바이스(100)가 텍스트 박스(3224) 내에 문자 "c"(3226-53)를 표시한다. 일부 실시예들에서, 문자 입력 키를 활성화하는 접촉이 바람직한 운지법 기준을 충족시키지 않을 때, 디바이스는 문자 입력 키에 대응하는 문자를 입력하지 않는다(예를 들어, 디바이스는 바람직하지 않은 손가락을 이용한 문자 입력 키의 선택을 키를 활성화하는 데에 실패한 것으로서 처리하고, 대신 사용자가 문자를 입력하도록 문자 입력 키를 활성화하기 위해서 바람직한 손가락을 사용할 것을 요구함).In some embodiments, since the
도 33a 내지 도 33c는 일부 실시예들에 따른, 적절한 운지법 기술에 대해 사용자를 훈련시키는 방법(3300)을 예시하는 흐름도이다. 방법(3300)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3300) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.33A-33C are flow charts illustrating a
아래에 기술되는 바와 같이, 방법(3300)은 적절한 운지법 기술들에 대해 사용자를 훈련시키기 위한 직관적인 방식을 제공한다. 이 방법은 적절한 운지법 기술들을 학습할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 적절한 운지법 기술들을 더 빠르고 더 효율적으로 학습할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
일부 실시예들에서, 터치-감응 표면(예를 들어, 도 32a 내지 도 32s의 터치 스크린(112)) 및 디스플레이(예를 들어, 도 32a 내지 도 32s의 터치 스크린(112))를 갖는 전자 디바이스(예를 들어, 도 32a 내지 도 32s의 다기능 디바이스(100))가 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 키보드(3201)의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 QWERTY 문자 입력 키보드(3222)의 문자 "C" 입력 키(3232-27))를 포함하는 사용자 인터페이스(예를 들어, 도 32a 내지 도 32s 내의 사용자 인터페이스(3200))를 표시한다(3302). 일부 실시예들에서, 사용자 인터페이스는 복수의 활성화 가능한 사용자 인터페이스 객체들(예를 들어, 활성화될 수 있는 복수의 사용자 인터페이스 객체들)을 포함한다. 예를 들어, 사용자 인터페이스(3200)는 도 32a 내지 도 32p의 음악 키보드(3201)의 복수의 활성화 가능한 음악 키(3202-1 내지 3202-24)들을 표시하고, 사용자 인터페이스(3240)는 도 32q 내지 도 32s의 QWERTY 문자 입력 키보드(3222)의 복수의 활성화 가능한 문자 입력 키(3232-1 내지 3232-41)들을 표시한다.In some embodiments, an electronic device (e.g., a touch screen) having a touch-sensitive surface (e.g.,
일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 활성화 가능한 음악 키 "E3")는 음악 키보드(예를 들어, 도 32a 내지 도 32p의 음악 키보드(3201)와 같은 가상의 피아노 키보드)의 표현에서의 키들(예를 들어, 도 32a 내지 도 32p의 활성화 가능한 음악 키(3202-1 내지 3202-24)들)에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다(3304).In some embodiments, each activatable user interface object (e.g., an activatable music key "E3" in Figures 32A-32P) is associated with a music keyboard (e.g., a music keyboard 3201 A plurality of activatable user interface objects corresponding to keys in the representation of the virtual keyboard (e.g., virtual piano keyboards such as keyboards) (e.g., activatable music keys 3202-1 through 3202-24 of Figures 32A through 32P) (3304).
일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32q 내지 도 32s의 활성화 가능한 문자 "C" 입력 키(3232-27))는 문자 입력 키보드(예를 들어, 도 32q 내지 도 32s의 QWERTY 키보드(3222)와 같은 가상의 텍스트 키보드)의 표현에서의 키들(예를 들어, 활성화 가능한 문자 입력 키(3232-1 내지 3232-41)들)에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다(3306).In some embodiments, each activatable user interface object (e.g., activatable character "C" input key 3232-27 in Figures 32q-32s) Corresponding to the keys (e.g., activatable character input keys 3232-1 through 3232-41) in the representation of a virtual keyboard (e.g., a virtual text keyboard such as the
전자 디바이스(예를 들어, 다기능 디바이스(100))는 디스플레이(예를 들어, 터치 스크린(112)) 상의 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 키 "E3"(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27)) 위에 있는 포커스 셀렉터(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))에 대응하는 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴을 터치-감응 표면(예를 들어, 터치 스크린(112)) 상에서 검출한다(3308). 일부 실시예들에서, 도 32a 내지 도 32s에 도시된 바와 같이, 디바이스는 각자의 활성화 가능한 사용자 인터페이스 객체 위에서 터치스크린 디스플레이 상의 접촉을 검출한다. 일부 실시예들에서, 디바이스는 포커스 셀렉터를 표시하는 연관된 디스플레이 상의 위치에 대응하는 위치에서, 연관된 디스플레이와는 별개인 터치-감응 표면 상의 접촉을 검출한다.The electronic device (e.g., multifunction device 100) is capable of displaying its respective activatable user interface object on the display (e.g., touch screen 112) (e.g., music key "E3" (E.g., touches 3204, 3205, 3207, 3214 in FIGS. 32A-32S) on a focus selector (e.g., keypad 3202-5 and / or keys 32q- (See, for example,
디스플레이(예를 들어, 터치 스크린(112)) 상의 각자의 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27)) 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 상의 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴을 검출하는 것에 응답하여(3310): 디바이스(예를 들어, 다기능 디바이스(100))는 접촉의 하나 이상의 운지법 특징들을 결정하기 위해서 터치-감응 표면(예를 들어, 터치 스크린(112)) 상의 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴을 분석하고(3312), 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 하나 이상의 운지법 특징들에 기초하여 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정한다(3314).(E.g., the music "E3" key 3202-5 of Figures 32a-32p) and / or the respective activatable user interface objects on the display (e.g., touch screen 112) (E.g., touches 3204, 3205, 3207, 3214, 3216, 3217, 3212, 3212, and 324 in Figures 32A through 32D) corresponding to the focus selector on the touch- (E.g., multifunction device 100) in response to detecting a fingerprint pattern of a fingerprint pattern (e.g., 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, (E.g.,
일부 실시예들에서, 바람직한 운지법 기준은 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27))를 활성화하기 위해 사용된 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))의 지문 패턴에 대응하는 손가락이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 손의 미리 정해진 바람직한 손가락과 일치할 때 충족되는 기준을 포함한다(예를 들어, QWERTY 키보드 상의 "j" 키는 바람직하게는 표준 터치-타이핑 기준을 이용하여 오른손 검지에 의해 활성화되고, QWERTY 키보드 상의 "f"키는 바람직하게는 표준 터치-타이핑 기준을 이용하여 왼손 검지에 의해 활성화됨)(3316). 예를 들어, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 대응하는 지문 패턴을 갖는 접촉(3207, 3221, 3225, 3227, 및/또는 3228)에 의해 활성화될 때 도 32c, 도 32g 및 도 32j 내지 도 32n에서 충족된다. 반면에, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 사용자의 왼손 약지(LR)에 대응하는 지문 패턴을 갖는 접촉(3205 및/또는 3217)에 의해 활성화될 때 도 32b, 도 32d 내지 도 32f 및 도 32h 내지 도 32i에서 충족되지 않는다. 다른 예로서, 바람직한 운지법 기준이 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(LM)에 대응하는 지문 패턴을 갖는 접촉(3228)에 의해 활성화될 때 도 32s에서 충족된다. 반면에, 바람직한 운지법 기준이 문자 "C" 입력 키(3232-27)가 사용자의 왼손 검지(LI)에 대응하는 지문 패턴을 갖는 접촉(3236)에 의해 활성화될 때 도 32r에서 충족되지 않는다.In some embodiments, a preferred fingering criterion is a user interface object (e.g., a music "E3" key 3202-5 of Figures 32a-32p and / or a character "C" input of Figures 32q- 325, 3227, 3219, 3221, 3223, 3225, 3227, 3228 (see, for example, (E.g., 3229, 3234, 3236, and / or 3238) corresponds to a predefined preferred finger of a hand for activating an activatable user interface object , The "j" key on the QWERTY keyboard is preferably activated by the right hand detection using the standard touch-typing criteria, and the "f" key on the QWERTY keyboard is preferably activated by the left hand detection Activated) (3316). For example, if the preferred fingering criterion is a
일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면(예를 들어, 터치 스크린(112)) 상의 접촉(예를 들어, 도 32k 내지 도 32p의 접촉(3225, 3227, 3228, 및/또는 3229))의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32k 내지 도 32p의 음악 "E3" 키(3202-5))를 활성화하기 위해 사용되는 손가락과 활성화 가능한 사용자 인터페이스 객체가 표시되는 디스플레이(예를 들어, 터치 스크린(112)) 사이의 앙각의 초기 각도에 대응하고, 이러한 초기 각도가 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 앙각의 바람직한 초기 각도들의 미리 정해진 범위 내에 있을 때 충족되는 기준을 포함한다(예를 들어, 음악 키보드 상의 키가 바람직하게는 표준 피아노 연주 가이드라인을 이용하여 손가락의 바닥살보다는 손가락의 끝부분으로 연주됨)(3318). 예를 들어, 사용자의 손끝의 끝부분에 대응하는 지문 패턴을 갖는 접촉(3225, 3228, 및/또는 3229)에 의해 음악"E3" 키(3202-5)가 활성화될 때, 바람직한 운지법 기준이 도 32k 및 도 32m 내지 도 32p에서 충족된다. 반면에, 사용자의 손끝의 바닥살에 대응하는 지문 패턴을 갖는 접촉(3227)에 의해 음악 "E3" 키(3202-5)가 활성화될 때, 도 32l에서 바람직한 운지법 기준이 충족되지 않는다.In some embodiments, the preferred fingertip reference is a contact (e.g.,
일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면(예를 들어, 터치 스크린(112)) 상의 접촉(예를 들어, 도 32m 내지 도 32p의 접촉(3228 및/또는 3229))의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 바람직한 움직임들의 미리 정해진 범위 내에 있는, 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32k 내지 도 32p의 음악 "E3" 키(3202-5))를 활성화하는 손가락의 움직임에 대응할 때 충족되는 기준을 포함한다(예를 들어, 음악 키보드 상의 키는 키보드를 향하기보다는 키보드의 에지를 향해 뒤로 이동하는 손가락의 끝부분으로 그리고/또는 미리 정해진 강도로 연주되어야 함)(3320). 예를 들어, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 터치 스크린(112) 상의 접촉의 초기 위치로부터 터치 스크린(112) 상에 표시된 음악 키보드(3201)의 표현의 전방 에지를 향해 뒤로 이동하는 사용자의 손끝 움직임에 대응하는 지문 패턴을 갖는 접촉(3228)에 의해 활성화될 때 도 32m 및 도 32n에서 충족된다(예를 들어, 도 32m의 위치(3228-a)로부터 도 32n의 위치(3228-b)로의 접촉(3228)의 이동(3220)). 반면에, 바람직한 운지법 기준이 음악 "E3" 키(3202-5)가 터치 스크린(112) 상의 접촉의 초기 위치로부터 터치 스크린(112) 상에 표시된 음악 키보드(3201)의 표현의 전방 에지로부터 멀어지게 앞으로 이동하는 사용자의 손끝 움직임에 대응하는 지문 패턴을 갖는 접촉(3229)에 의해 활성화될 때 도 32o 및 도 32p에서 충족되지 않는다(예를 들어, 도 32o의 위치(3229-a)로부터 도 32p의 위치(3229-b)로의 접촉(3229)의 이동(3220)).In some embodiments, the preferred fingertip reference may be a fingerprint pattern of a touch on the touch-sensitive surface (e.g., touch screen 112) (e.g.,
접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공한다(예를 들어, 도 32b, 도 32d, 도 32h 및 도 32i, 도 32l, 도 32p, 도 32r의 터치 스크린(112) 상에 표시된 커다란 "X"(3206)와 같은 시각적 피드백; 도 32e 및 도 32i의 스피커(111)에서 발생된 161.00㎐의 주파수를 포함하는 오디오 출력(3208)과 같은 가청 피드백; 및/또는 예를 들어 도 32f의 촉각적 출력 생성기(167)에 의해 생성되는 촉각적 출력(3212)과 같은 촉각적 피드백)(3322).(E.g., the
일부 실시예들에서, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자"C" 입력 키(3232-27))와 연관된 동작(예를 들어, 음 "E3"을 연주, 또는 활성화 텍스트 박스 내에 문자 "C"를 입력)을 수행한다(3324). 따라서 일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않은 경우에도, 디바이스가 활성화 가능한 사용자 인터페이스 객체를 여전히 활성화하고, 예를 들어 키가 올바르지 않게 "눌렸다는" 시각적, 가청, 및/또는 촉각적 피드백을 제공하면서 키보드 상의 키에 대응하는 음을 연주하는 것과 같이 대응하는 동작을 수행한다. 예를 들어, 접촉(3205 및/또는 3217)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32d 및 도 32h에서 음악 "E3" 키(3202-5)의 활성화에 대응하여 (예를 들어,"E3" 톤의 진짜 주파수에 대응하는) 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시키는 동시에, 키가 바람직하지 않은 운지법을 이용하여 활성화되었다는 상이한 표지를 제공한다(예를 들어, 사용자의 왼손 검지가 음악 "E3" 키(3202-5)를 활성화하기 위해 사용되었기 때문에 도 32d 및 도 32h에서 커다란 "X"(3206)를 표시함). 다른 예시에서, 접촉(3236)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 문자 "C" 입력 키(3232-27)의 활성화에 대응하여 터치 스크린(112) 상에 표시된 텍스트 박스(3224)에 문자 "C"(3226-53)를 입력(예를 들어, 표시)하면서, 키가 바람직하지 않은 운지법을 이용하여 활성화되었다는 상이한 표지를 제공한다(예를 들어, 문자 "C" 입력 키(3232-27)를 활성화하기 위해 사용자의 왼손 검지가 사용되었기 때문에 도 32r에서 커다란 "X"(3206)를 표시함).In some embodiments, the device (e.g., the multifunction device 100) may determine that the contact does not meet the desired fingering criteria by activating the user interface object (e.g., the music " E3 "associated with the character " E3" key 3202-5 and / or the character "C" input keys 3232-27 in Figures 32q- Quot; C "is input) (3324). Thus, in some embodiments, even if a preferred fingering criterion is not met, the device still activates an activatable user interface object, and for example the visual, audible, and / or tactile feedback that the key is & Such as playing a note corresponding to a key on the keyboard, while providing a corresponding key. For example, it may be determined that
일부 실시예들에서, 접촉(예를 들어, 도 32a 내지 도 32s의 접촉(3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27))와 연관된 동작의 수행을 중지한다(예를 들어, 음 "E3"을 연주하지 않거나, 활성화 텍스트 박스 내에 문자 " C"를 입력하지 않음)(3326). 따라서, 일부 실시예들에서, 바람직한 운지법 기준이 충족되지 못한 경우에, 디바이스는 활성화 가능한 사용자 인터페이스 객체를 활성화하지 않고, 바람직한 운지법 기준이 충족되었다면 연주되었을 키보드 상의 키에 대응하는 음을 연주하는 것과 같은 대응하는 동작을 수행하지 않는다. 예를 들어, 접촉(3205 및/또는 3229)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32b 및 도 32o 및 도 32p에서와 같이 음악 "E3" 키(3202-5)의 활성화에 대응하여 (예를 들어, "E3" 톤의 진짜 주파수에 대응하는) 164.81㎐의 주파수를 갖는 오디오 출력(3208)을 스피커(111)에서 발생시키는 것을 중지한다.In some embodiments, contacts (e.g.,
일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디바이스에 의해 발생되는 가청 피드백을 포함한다(예를 들어, 스피커들이 음악 키보드 상의 음을 연주하기 위한 운지법 기준이 충족되지 않았을 때 마치 음악 키보드가 올바르지 않게 연주된 것과 같이 경고 소리를 연주하거나 "벗어난" 음을 연주함)(3328). 예를 들어, 접촉(3205 및/또는 3217)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 스피커(111)에서 (예를 들어, 벗어난 "E3" 톤에 대응하는) 161.00㎐의 주파수를 포함하는 오디오 출력(3208)을 발생시키는데, 이는 사용자에게 도 32e 및 도 32i에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 손가락이 사용되지 않았음을 나타낸다. 일부 실시예들에서, 가청 피드백은 바람직한 운지법이 사용되지 않았음을 나타내기 위해서 오디오 출력의 주파수를 변경하는 대신 또는 그에 더하여 대응하는 음의 음량, 울림 또는 다른 가청 특성을 변경하는 것을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not met includes audible feedback generated by the device (e.g., when the fingering criteria for playing the notes on the music keyboard are not met (3328) Playing a warning sound or playing an "off" sound just as if the music keyboard were played improperly. For example, it may be determined that
일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디스플레이 상에 표시된 시각적 피드백(예를 들어, 디바이스 플래시들의 표시 또는 접촉 부근의 강조 표시)을 포함한다(3330). 예를 들어, 접촉(3205, 3217, 3227, 및/또는 3229)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32b, 도 32d, 도 32h 및 도32i, 도 32l 및 도 32p에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 손가락이 사용되지 않았음을 나타내는 커다란 "X"(3206)를 터치 스크린(112) 상에 표시한다. 다른 예에서, 접촉(3236)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 도 32r에서 문자 "C" 입력 키(3232-27)를 활성화하기 위해 바람직하지 않은 운지법이 사용되었음을 사용자에게 나타내는 커다란 "X"(3206)를 터치 스크린(112) 상에 표시한다.In some embodiments, the feedback indicating that a preferred fingering criterion is not satisfied includes (3330) visual feedback displayed on the display (e.g., an indication of device flashes or highlighting near the contact). For example, if a contact (3205, 3217, 3227, and / or 3229) has a predetermined fingering criterion including a criterion that at least the music "E3" key 3202-5 is activated by the user's left hand pause (LM) The
일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디바이스에 의해 생성되는 촉각적 피드백을 포함한다(예를 들어, 디바이스는 웅웅거리거나, 사용자의 운지법이 올바르지 않음을 나타내는 일부 다른 촉각적 출력을 제공함)(3332). 예를 들어, 도 32f의 접촉(3205)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시키지 않는다는 결정에 따라, 다기능 디바이스(100)는 (예를 들어, 촉각적 출력 생성기(167)를 이용하여) 도 32f에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 손가락이 사용되지 않았음을 나타내는 촉각적 출력(3212)을 생성한다.In some embodiments, feedback indicating that a preferred fingering criterion has not been met includes tactile feedback generated by the device (e.g., the device may be distracted, or some other different indication that the user's fingering is incorrect) Providing a tactile output) 3332. For example, in accordance with the determination that contact 3205 in FIG. 32F does not meet a predetermined fingering criterion that includes a criterion that at least the music "E3" key 3202-5 is activated by the user's left hand stop (LM) , The
접촉(예를 들어, 도 32a 내지 도 32s의 접촉 (3204, 3205, 3207, 3214, 3216, 3217, 3219, 3221, 3223, 3225, 3227, 3228, 3229, 3234, 3236, 및/또는 3238))이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 활성화 가능한 사용자 인터페이스 객체(예를 들어, 도 32a 내지 도 32p의 음악 "E3" 키(3202-5) 및/또는 도 32q 내지 도 32s의 문자 "C" 입력 키(3232-27))와 연관된 동작을 수행한다(3334). 예를 들어, 디바이스는 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하지 않고 활성화 가능한 사용자 인터페이스 객체를 활성화한다. 예를 들어, 접촉(3207, 3221, 3225, 및/또는 3228)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32c, 도 32g, 도 32j 및 도 32k 및 도 32m 및 도 32n에서 음악 "E3" 키(3202-5)의 활성화에 대응하여 (예를 들어, "E3" 톤의 진짜 주파수에 대응하는) 164.81㎐의 주파수를 포함하는 오디오 출력(3208)을 스피커(111)에서 생성한다. 다른 예에서, 접촉(3238)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(FM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32s에서 문자 "C" 입력 키(3232-27)의 활성화에 대응하여 터치 스크린(112) 상에 표시된 텍스트 박스(3224)에 문자 "C"(3226-53)를 입력(예를 들어, 표시)한다.(E.g., the
일부 실시예들에서, 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, 디바이스(예를 들어, 다기능 디바이스(100))는 바람직한 운지법 기준이 충족되었음을 나타내는 피드백(예를 들어, 시각적, 가청, 및/또는 촉각적 피드백)을 제공한다(3336). 예를 들어, 도 32g, 도 32j 및 도 32k 및 도 32n에서 접촉(3207, 3221, 3225, 및/또는 3228)이 적어도 음악 "E3" 키(3202-5)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32g, 도 32j 및 도 32k 및 도 32n에서 음악 "E3" 키(3202-5)를 활성화하기 위해 바람직한 운지법이 사용되었음을 사용자에게 나타내는 별(3218)을 터치 스크린(112) 상에 표시한다. 다른 예에서, 도 32s에서 접촉(3228)이 적어도 문자 "C" 입력 키(3232-27)가 사용자의 왼손 중지(LM)에 의해 활성화된다는 기준을 포함하는 미리 정해진 운지법 기준을 충족시킨다는 결정에 따라, 다기능 디바이스(100)는 도 32s에서 문자 "C" 입력 키(3232-27)를 활성화하기 위해 바람직한 운지법이 사용되었음을 사용자에게 나타내는 별(3218)을 터치 스크린(112) 상에 표시한다.In some embodiments, the device (e.g., multifunction device 100) receives feedback (e.g., visual, audible, and / or audible) indicating that the desired fingering criteria has been met, in accordance with the determination that the contact meets the preferred fingering criteria Or tactile feedback) (3336). For example, at least the music "E3" key 3202-5 is in contact with the left hand stop (LM) of the user when the
도 33a 내지 도 33c의 동작들이 기술된 특정 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 33a 내지 도 33c와 관련하여 전술된 방법(3300)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3300)과 관련하여 전술된 지문들, 접촉들, 사용자 인터페이스 객체들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 사용자 인터페이스 객체들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 33A-33C are described is exemplary only, and that the sequences described are not intended to represent that they are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 34는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(3400)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 34에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 34 illustrates a functional block diagram of an
도 34에 도시된 바와 같이, 전자 디바이스(3400)는 그래픽 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(3402), 사용자 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(3404), 선택적으로 지문 센서 유닛(3405), 가청 피드백을 제공하기 위한 가청 피드백 유닛(3406) 및 촉각적 피드백을 제공하기 위한 촉각적 피드백 유닛(3407)과; 디스플레이 유닛(3402), 터치-감응 표면 유닛(3404), 및 선택적으로 지문 센서 유닛(3405), 가청 피드백 유닛(3406) 및 촉각적 피드백 유닛(3407)에 결합된 프로세싱 유닛(3408)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(3408)은 디스플레이 인에이블링 유닛(3410), 검출 유닛(3412), 분석 유닛(3414), 결정 유닛(3416), 피드백 제공 유닛(3418) 및 수행 유닛(3420)을 포함한다.34, the
프로세싱 유닛(3408)은 (예를 들어, 디스플레이 인에이블링 유닛(3410)을 이용하여) 각각의 활성화 가능한 사용자 인터페이스 객체를 포함하는 사용자 인터페이스의 표시를 가능하게 하고, (예를 들어, 검출 유닛(3412)을 이용하여) 디스플레이 유닛(3402) 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛(3402) 상의 접촉의 지문 패턴을 검출하도록 구성된다. 프로세싱 유닛(3408)은 또한, 디스플레이 유닛(3402) 상의 각자의 활성화 가능한 사용자 인터페이스 객체 위에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛(3402) 상의 접촉의 지문 패턴을 검출하는 것에 응답하여, (예를 들어, 분석 유닛(3414)을 이용하여) 접촉의 하나 이상의 운지법 특징들을 결정하기 위해 터치-감응 표면 유닛(3404) 상의 접촉의 지문 패턴을 분석하고, (예를 들어, 결정 유닛(3416)을 이용하여) 하나 이상의 운지법 특징들에 기초해 접촉이 미리 정해진 바람직한 운지법 기준을 충족시키는지 여부를 결정하도록 구성된다. 프로세싱 유닛(3408)은, 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 피드백 제공 유닛(3418)을 이용하여) 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백을 제공하도록 추가로 구성된다. 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, (예를 들어, 수행 유닛(3420)을 이용하여) 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하도록 추가로 구성된다.The processing unit 3408 enables the display of a user interface including each activatable user interface object (e.g., using the display enabling unit 3410) Sensitive surface unit 3402 corresponding to the focus selector on each of the activatable user interface objects on the display unit 3402 (using the touch-sensitive surface unit 3402). The processing unit 3408 is also responsive to detecting a fingerprint pattern of a touch on the touch-sensitive surface unit 3402 corresponding to a focus selector on the respective activatable user interface object on the display unit 3402, (E.g., using analysis unit 3414) to analyze one or more fingertip features of the touch on touch-
일부 실시예들에서, 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 수행 유닛(3420)을 이용하여) 활성화 가능한 사용자 인터페이스 객체와 연관된 동작을 수행하도록 추가로 구성된다.In some embodiments, processing unit 3408 may be configured to perform an action associated with an activatable user interface object (e.g., using execution unit 3420) in accordance with a determination that the contact does not meet the desired fingering criteria .
일부 실시예들에서, 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 수행 유닛(3420)을 이용하여) 활성화 가능한 사용자 인터페이스 객체와 연관된 동작의 수행을 중지하도록 추가로 구성된다.In some embodiments, processing unit 3408 may perform an action associated with an activatable user interface object (e.g., using execution unit 3420) in accordance with a determination that the contact does not meet the desired fingering criteria Lt; / RTI >
일부 실시예들에서, 프로세싱 유닛(3408)은 접촉이 바람직한 운지법 기준을 충족시킨다는 결정에 따라, (예를 들어, 피드백 제공 유닛(3418)을 이용하여) 바람직한 운지법 기준이 충족되었음을 나타내는 피드백을 제공하도록 추가로 구성된다.In some embodiments, the processing unit 3408 may be configured to provide feedback indicating that the preferred fingering criteria have been met (e.g., using the feedback providing unit 3418), in accordance with the determination that the contact meets the desired fingering criteria .
일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체는 음악 키보드의 표현 내의 키들에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다.In some embodiments, each activatable user interface object is one of a plurality of activatable user interface objects corresponding to keys in a representation of a music keyboard.
일부 실시예들에서, 각자의 활성화 가능한 사용자 인터페이스 객체는 문자 입력 키보드의 표현 내의 키들에 대응하는 복수의 활성화 가능한 사용자 인터페이스 객체들 중 하나이다.In some embodiments, each activatable user interface object is one of a plurality of activatable user interface objects corresponding to keys in the representation of the character input keyboard.
일부 실시예들에서, 바람직한 운지법 기준은 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위해 사용된 접촉의 지문 패턴에 대응하는 손가락이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 손의 미리 정해진 바람직한 손가락과 부합할 때 충족되는 기준을 포함한다.In some embodiments, a preferred fingering criterion is met when a finger corresponding to a fingerprint pattern of a contact used to activate an activatable user interface object matches a predefined preferred finger of a hand for activating an activatable user interface object .
일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면 유닛 상의 접촉의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위해 사용되는 손가락과 활성화 가능한 사용자 인터페이스 객체가 표시되는 디스플레이 유닛(3402) 사이의 앙각의 초기 각도에 대응하고, 이러한 초기 각도가 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 앙각의 바람직한 초기 각도들의 미리 정해진 범위 내에 있을 때 충족되는 기준을 포함한다.In some embodiments, the preferred fingering criterion is that the fingerprint pattern of the contact on the touch-sensitive surface unit has an elevation angle between the finger used for activating the activatable user interface object and the display unit 3402 for displaying the activatable user interface object And includes a criterion that is met when this initial angle is within a predetermined range of preferred initial angles of elevation angle for activating an activatable user interface object.
일부 실시예들에서, 바람직한 운지법 기준은 터치-감응 표면 유닛(3404) 상의 접촉의 지문 패턴이 활성화 가능한 사용자 인터페이스 객체를 활성화하고 활성화 가능한 사용자 인터페이스 객체를 활성화하기 위한 미리 정해진 움직임들의 미리 정해진 범위 내에 있는 손가락의 움직임에 대응할 때 충족되는 기준을 포함한다.In some embodiments, the preferred fingering criterion is that the fingerprint pattern of the touch on the touch-
일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 (예를 들어, 가청 피드백 유닛(3406)을 이용하여) 디바이스(3400)에 의해 발생되는 가청 피드백을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not met includes audible feedback generated by device 3400 (e.g., using audible feedback unit 3406).
일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 디스플레이 유닛(3402) 상에 표시되는 시각적 피드백을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not satisfied includes visual feedback displayed on the display unit 3402. [
일부 실시예들에서, 바람직한 운지법 기준이 충족되지 않았음을 나타내는 피드백은 (예를 들어, 촉각적 피드백 유닛(3407)을 이용하여) 디바이스(3400)에 의해 생성되는 촉각적 피드백을 포함한다.In some embodiments, feedback indicating that a preferred fingering criterion is not satisfied includes tactile feedback generated by device 3400 (e.g., using tactile feedback unit 3407).
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 33a 내지 도 33c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 34에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 표시 동작(3302), 검출 동작(3308), 분석 동작(3312), 결정 동작(3314), 피드백 제공 동작(3322, 3336)들, 수행 동작(3324, 3334)들 및 중지 동작(3326)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with FIGS. 33A-33C are optionally implemented by the components shown in FIGS. 1A and 1B or FIG. For example, the
터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기Operating a portion of the touch-sensitive surface in a sensitivity enhanced mode of operation
많은 전자 디바이스들은 로그인을 해야 하는 애플리케이션들 또는 개인 콘텐트에 액세스하는 애플리케이션들과 같이 아이덴티티 인증을 이용하는 애플리케이션들을 구비한다. 아이덴티티 인증 방법은 지문 검출 및 검증이다. 디바이스는 지문들을 검출하기에 충분한 감도의 터치-감응 표면을 포함할 수 있다. 그러나, 이러한 터치-감응 표면들은 더 많은 전력을 소비하며, 디바이스가 배터리로 구동되는 경우, 충전들 사이의 시간을 감소시킨다. 아래에서 기술되는 실시예들은 지문들을 검출하기에 충분한 감도 향상된 모드 또는 감도 감소된 모드에서 동작될 수 있는 구역들로 세분화될 수 있는 터치-감응 표면을 구비하는 디바이스를 포함한다. 하나 이상의 기준들이 충족되면 터치-감응 표면의 일정 구역이 감도 향상된 모드에서 동작되고, 그렇지 않으면 감도 감소된 모드에서 동작된다. 이는 터치-감응 표면 상의 일부분들의 감도를 필요로 하는 바를 기준으로 강화시킨다. 필요로 하는 바를 기준으로 터치-감응 표면의 일부분들을 감도 향상된 모드에서 동작시킴으로써, 디바이스가 지문 검출을 할 수 있게 유지되는 동안에 전력 소비가 감소됨으로써, 배터리 전력을 보존하는 편리하고 효율적인 사용자 인터페이스를 제공한다.Many electronic devices have applications that use identity authentication, such as applications that need to log in or access personal content. The identity authentication method is fingerprint detection and verification. The device may include a touch-sensitive surface of sufficient sensitivity to detect fingerprints. However, these touch-sensitive surfaces consume more power and reduce the time between charges when the device is powered by a battery. Embodiments described below include a device with a touch-sensitive surface that can be subdivided into zones that can be operated in a sensitivity-enhanced mode or a sensitivity-reduced mode sufficient to detect fingerprints. When one or more criteria are met, a certain area of the touch-sensitive surface is operated in a sensitivity enhanced mode, otherwise in a reduced sensitivity mode. This enhances the sensitivity of the portions on the touch-sensitive surface based on what needs to be done. By operating portions of the touch-sensitive surface in a sensitivity-enhanced mode based on what is needed, power consumption is reduced while the device remains capable of fingerprint detection, thereby providing a convenient and efficient user interface that conserves battery power do.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 35a 내지 도 35j 및 도 36a 및 도 36b와 관련하여 아래에서 기술되는 디바이스는 선택적으로 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 35a 내지 도 35j 및 도 36a 및 도 36b와 관련하여 기술되는 실시예들은 터치 스크린(112)과 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 선택적으로 하나 이상의 지문 센서(169)들을 갖는 디바이스 상에서, 도 35a 내지 도 35j에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 터치-감응 표면(451) 상에서 도 35a 내지 도 35j에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 35a는 디바이스(예를 들어, 디바이스(100))의 터치 스크린(112) 상에 표시된 사용자 인터페이스(3501)를 도시한다. 사용자 인터페이스(3501)는 도 4a와 관련하여 전술된 바와 같이 하나 이상의 애플리케이션 아이콘들을 포함한다. 터치 스크린(112)은 각자의 애플리케이션 아이콘에 각각 대응하는 하나 이상의 구역(3502)들을 포함한다. 도 35a에 도시된 바와 같이, 구역(3502-1)은 "메시지" 아이콘(424)에 대응한다. 구역(3502-2)은 "캘린더" 아이콘(426)에 대응한다. 구역(3502-3)은 "사진" 아이콘(428)에 대응한다. 구역(3502-4)은 "노트" 아이콘(444)에 대응한다. 구역(3502-5)은 "설정" 아이콘(446)에 대응한다. 구역(3502-6)은 "전화" 아이콘(416)에 대응한다. 구역(3502-7)은 "메일" 아이콘(418)에 대응한다. 일부 실시예들에서, 구역들은 터치 감응 표면(예를 들어, 터치 스크린(112))의 사분면들(또는 다른 기하학적 분할들)에 대응한다.35A shows a
디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드 또는 감도 향상된 모드에서 동작시킨다. 디바이스(100)가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키는 경우, 디바이스(100)는 터치 스크린(112) 상의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내의 접촉의 존재/부재 여부 및 접촉의 이동을 검출할 수 있으며, 또한 접촉이 이전에 등록된 지문으로서 고유하게 식별될 수 있게 하는 세부 특징들과 같은 접촉의 지문 특징들을 검출할 수 있다. 디바이스(100)가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드로 동작시킬 때, 디바이스(100)는 터치 스크린(112) 상의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내의 접촉의 존재/부재 여부 및 접촉의 이동을 검출할 수 있지만, 또한 접촉의 지문 특징들은 검출할 수 없다. 따라서, 예를 들어 감도 향상된 모드에서 동작되고 있는 디바이스(100)의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에 접촉이 위치되면, 디바이스(100)는 아이덴티티 인증 또는 허가된 액세스, 및/또는 접촉의 미세한 이동의 검출에 이용될 수 있는 지문 특징들을 검출할 수 있다. 한편, 감도 감소된 모드에서 동작되는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에 접촉이 위치되면, 디바이스는 접촉의 지문 특징들을 검출할 수 없다. 일부 실시예들에서, 디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 독립적으로 동작시키고, 감도 감소된 모드와 감도 향상된 모드 사이에서 천이시킨다. 일부 실시예들에서, 터치 스크린(112)의 대부분, 또는 선택적으로 전체 터치 스크린(112)이 감도 향상된 동작 모드에서 동작될 수 있다.The
각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 상에서 접촉이 검출되지 않는 경우, 디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시킨다. 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시키는 것은 동일한 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키는 것보다 더 적은 전력을 소비한다. 디바이스(100)가 감도 감소된 모드에서 동작되고 있는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 접촉을 검출하는 경우, 접촉이 하나 이상의 지문 센서 활성화 기준들을 충족시키면 디바이스(100)가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키고, 그렇지 않으면 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 계속해서 감도 감소된 모드에서 동작시킨다.If no contact is detected on each of the zones (e.g., one of the zones 3502 of Figure 35A), then the
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 지문-형태 접촉이 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 검출되었을 때 충족된다. 따라서, 예를 들어 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 검출된 지문 형상의 접촉은 감도 향상된 모드를 활성화시킬 수 있지만, 스타일러스 접촉은 그렇지 않을 것이다. 일부 실시예들에서, 단일 접촉 제스처가 감도 향상된 동작 모드를 활성화시키는 반면, 다중-접촉 제스처는 감도 향상된 동작 모드를 활성화시키지 않는다.In some embodiments, one or more fingerprint sensor activation criteria are met when the fingerprint-type contact is detected within a respective zone (e.g., one of zones 3502 in Figure 35A). Thus, for example, a fingerprint-shaped contact detected within a respective zone (e.g., one of zones 3502 in Figure 35A) may activate a sensitivity-enhanced mode, but the stylus contact would not. In some embodiments, a single contact gesture activates a sensitivity enhanced operation mode, while a multi-contact gesture does not activate a sensitivity enhanced operation mode.
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 지문 형상의 접촉이 사전 결정된 임계치 속도 미만의 속도로 (또는 사전 결정된 임계치 미만의 회전 속도로) 이동 또는 회전(예를 들어, 비틀기)되는 것으로 검출될 때 충족되는 기준을 포함한다. 예를 들어, 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 통과해 천천히 이동하거나 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나) 내에서 천천히 비틀리는 지문은 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)에 대한 감도 향상된 모드를 활성화시킨다. 일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 접촉에 대응하는 포커스 셀렉터가 지문-감응 사용자 인터페이스 요소 위에 있는 동안에 접촉이 터치 스크린(112) 상에서 검출될 때 충족되는 기준을 포함한다. 일부 실시예들에서, 터치 스크린(112) 상에서 접촉에 대응하는 포커스 셀렉터는 접촉 그 자체이다. 따라서, 예를 들어 이러한 기준은 접촉이 터치 스크린(112) 상의 지문-감응 사용자 인터페이스 요소 위에서 검출될 때 충족된다. 지문-감응 사용자 인터페이스 요소의 예는, 대응하는 애플리케이션이 액세스를 위해 인증 또는 허가를 요구하도록 구성되는 애플리케이션 아이콘이다. 일부 실시예들에서, 애플리케이션이 액세스를 위해 인증 또는 허가를 요구하는지 여부는 디바이스(100)의 사용자에 의해 설정 가능하다. 지문-감응 사용자 인터페이스 요소의 다른 예는 쌍방향 사용자 인터페이스 객체(예를 들어, 가상 다이얼 또는 노브(knob))이다.In some embodiments, the one or more fingerprint sensor activation criteria are detected when the fingerprint-shaped contact is moved or rotated (e.g., twisted) at a velocity below a predetermined threshold velocity (or at a rotational velocity below a predetermined threshold) And includes standards that are met when (E.g., one of the zones 3502 of Figure 35A) or move slowly through their respective zones (e.g., one of the zones 3502 of Figure 35A) A slowly twisted fingerprint activates a sensitivity enhanced mode for each zone (e.g., one of zones 3502 in Figure 35A). In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a contact is detected on the
일부 실시예들에서, 디바이스가 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시킬 때, 디바이스는 다른 각자의 구역(3502)들을 감도 감소된 모드에서 동작시킨다. 단 하나의 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 향상된 모드에서 동작시키는 것은 복수의 각자의 구역(3502)들을 감도 향상된 모드에서 동작시키는 것보다 더 적은 전력을 소비한다. 일부 실시예들에서, 접촉이 더 이상 기준을 충족시키지 않거나, (예를 들어, 터치 스크린(112)으로부터의 접촉의 들어올림에 의해) 접촉이 각자의 구역으로부터 제거되면, 디바이스(100)는 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시키도록 복귀한다. 일부 실시예들에서, 각자의 구역(예를 들어, 도 35a의 구역(3502)들 중 하나)을 감도 감소된 모드에서 동작시키도록 복귀하는 것은 접촉이 제거되거나 더 이상 기준을 충족시키지 않은 후의 사전 결정된 시간량 이후에 발생한다(예를 들어, 타임아웃).In some embodiments, when the device operates in a sensitivity enhanced mode (e.g., one of the zones 3502 of Figure 35A), the device may transmit the other respective zones 3502 to a sensitivity reduced mode . Operating in a sensitivity-enhanced mode of only one respective zone (e.g., one of zones 3502 in Figure 35A) results in less power than operating a plurality of respective zones 3502 in a sensitivity enhanced mode . In some embodiments, if the contact no longer meets the criteria, or if the contact is removed from its area (e.g., by lifting the contact from the touch screen 112) (E.g., one of the zones 3502 of Figure 35A) to operate in the reduced sensitivity mode. In some embodiments, returning to operate each zone (e.g., one of zones 3502 in FIG. 35A) in a reduced sensitivity mode may result in the removal of the dictionary after the contact is removed or no longer meet the criteria And occurs after a determined amount of time (e.g., timeout).
도 35a는 "메일" 아이콘(418) 상에서 검출된 지문(3504)을 갖는 접촉을 나타낸다. "메일" 아이콘(418)은 디바이스(100)에 의해 감도 감소된 모드에서 동작되고 있는 구역(3502-7)에 대응한다. 도 35a에서, "메일" 아이콘(418)이 대응하는 이메일 클라이언트 모듈(140)은 액세스를 위해 인증 또는 허가가 요구되도록 구성된다. "메일" 아이콘(418) 상에서 지문(3504)을 갖는 접촉을 검출하는 것에 응답하여, 디바이스(100)는 구역(3502-7)을 감도 향상된 모드에서 동작시키기 시작한다. 구역(3502-7)이 감도 향상된 모드에서 동작되면, 디바이스(100)는 허가를 위해서 지문(3504)의 지문 특징들을 검출할 수 있다. 일부 실시예들에서, 디바이스(100)가 지문(3504)이 이전에 등록된 지문에 대응하지 않는다고 결정하거나 이메일 클라이언트 모듈(140)의 허가된 사용자에 속한 것이 아니라고 결정하면, 디바이스(100)는 도 35b에 도시된 바와 같이 사용자에게 이메일 클라이언트 모듈(140)에 액세스하기 위한 허가가 없음을 경고하는 메시지(3506)를 표시한다. 디바이스(100)가 지문(3504)이 이메일 클라이언트 모듈(140)의 허가된 사용자에게 속하는 이전에 등록된 지문에 대응한다고 결정하면, 디바이스(100)는 도 35c에 도시된 바와 같이 이메일 클라이언트 모듈(140)을 활성화하고 이메일 클라이언트 모듈(140)의 사용자 인터페이스(3508)를 표시한다. 사용자 인터페이스(3508)는 예를 들어 이메일 계정들의 목록(3512) 및 대응하는 이메일 수신함들의 목록(3510)을 포함한다.35A shows a contact having a
일부 실시예들에서, 디바이스(100)의 사용자는 일부 이메일 계정들(및 대응하는 이메일 수신함들)에 액세스할 수 있으며, 다른 것들에는 액세스할 수 없다. 이메일 클라이언트 모듈(140)의 사용자 인터페이스(3508)가 표시되면, 이메일 계정 목록(3512) 및 이메일 수신함 목록(3510)은 구역(3502-7)에서 검출된 지문에 기초해서 사용자가 액세스하도록 허가된 이메일 계정 및 이메일 수신함만을 포함한다.In some embodiments, a user of the
도 35d는 잠금 상태의 디바이스(100)를 도시한다. 디바이스(100)가 잠금 상태에 있고 터치 스크린(112)이 활성인 동안(예를 들어, 슬립(sleep) 모드에 있지 않은 동안), 터치 스크린(112) 상에 잠금 스크린이 표시된다. 잠금 스크린은 잠금해제 객체(3516) 및 가상 홈(groove)(또는 잠금해제 이미지)(3518)를 포함하는데, 이때 잠금해제 객체(3516)는 가상 홈(또는 잠금해제 이미지)(3518)의 일 단부(예를 들어, 좌측 단부)에 위치되어 있다. 디바이스(100)는 잠금해제 객체(3516)를 가상 홈(3518)의 대향 단부(예를 들어, 우측 단부)로 드래그함으로써 잠금해제될 수 있다. 터치 스크린(112)은 또한 디바이스(100)가 감도 감소된 모드 또는 감도 향상된 모드에서 동작하는 구역(3520)을 포함한다. 구역(3520) 내에서 검출된 접촉이 없으면, 구역(3520)은 감도 감소된 모드에서 동작된다.35D shows the
잠금해제 객체(3516) 상에서의 지문(3514)을 갖는 접촉, 및 가상 홈(3518)의 우측 단부를 향한 접촉과 지문(3514)의 이동이 터치 스크린(112) 상에서 검출된다. 접촉의 이동을 검출하는 것에 응답하여, 도 35e 및 도 35f 및 도 35g에 도시된 바와 같이 잠금해제 객체(3516)가 가상 홈(3518)의 우측 단부를 향해 이동하고; 접촉은 잠금해제 객체(3516)를 가상 홈(3518)의 우측 단부를 향해 드래그한다. 지문(3514)이 구역(3520)에 도달하기 전에(예를 들어, 지문(3514)이 위치(3514-a) 또는 위치(3514-b)에 있는 동안에), 구역(3520)은 감도 감소된 모드에서 유지된다.The touch with the
도 35f 및 도 35g에서 도시된 바와 같이 디바이스가 구역(3520)에서 지문(3514)을 검출하면(예를 들어, 지문(3514)을 갖는 접촉이 위치(3514-c)로 이동되면), 디바이스(100)는 구역(3520)을 감도 향상된 모드에서 동작시킨다. 일부 실시예들에서, 사전 결정된 속도 임계치 미만으로 구역(3520) 내에서 이동하는 지문(3514)을 갖는 접촉이 검출되면, 디바이스(100)는 구역(3520)을 감도 향상된 모드에서 동작시킨다. 디바이스(100)는 지문(3514)의 하나 이상의 지문 특징들을 검출한다. 검출된 지문 특징들에 기초하여, 디바이스(100)는 지문(3514)이 하나 이상의 잠금해제 기준들을 충족하는지 여부를 결정한다. 도 35g에 도시된 예에서, 지문(3514)이 잠금해제 기준을 충족하면(3522)(예를 들어, 지문이 디바이스(100)의 사용자의 이전에 등록된 지문이면), 디바이스(100)가 잠금해제되고, 예를 들어 애플리케이션 기동 사용자 인터페이스(또는 다른 잠금해제된 인터페이스)가 표시된다. 반대로, 지문(3514)이 잠금해제 기준을 충족시키지 않는 경우(3524)(예를 들어, 지문이 디바이스(100)의 사용자의 이전에 등록된 지문으로서 식별되지 않음), 또는 (예를 들어, 구역(3520)이 감도 감소된 모드에 있기 때문에) 지문(3514)의 특징들이 검출될 수 없는 경우, 디바이스(100)는 잠금 상태에서 유지되고 선택적으로 디바이스(100)를 잠금해제하기 위한 다른 사용자 인터페이스(예를 들어, 패스코드 입력 사용자 인터페이스)를 표시한다. 대안적으로, 지문(3514)이 잠금해제 기준을 충족시키지 않으면(3524), 도 35d에 도시된 잠금 스크린이 재표시된다.If the device detects a
도 35h는 터치 스크린(112) 상에 표시된 사용자 인터페이스(3526)를 도시한다. 사용자 인터페이스(3526)는 수치 값 필드(3528) 및 가상 노브(3530)를 포함한다. 사용자 인터페이스(3526)는 수치 값 입력 및/또는 조작을 포함하는 애플리케이션(예를 들어, 계산기, 온도조절장치 제어 애플리케이션, 단위 변환기, 스프레드시트)의 사용자 인터페이스이다. 사용자는 수치 값 필드(3528) 내에 표시된 값을 조정하기 위해서 가상 노브(3530)와 상호작용한다. 예를 들어, 사용자는 가상 노브(3530) 위의 터치 스크린(112) 상에 지문을 놓고 가상 노브(3530)를 돌리기 위해 지문을 비튼다. 가상 노브(3530)의 회전에 의해 수치 값 필드(3528) 내의 값이 변화한다.Figure 35h shows the
도 35h 내지 도 35j에서, 가상 노브(3530)의 영역은 디바이스(100)가 감도 감소된 모드 또는 감도 향상된 모드에서 동작하는 터치 스크린(112)의 구역이다. 가상 노브(3530) 상에서 검출된 지문이 없다면, 디바이스(100)는 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드에서 동작시킨다. 가상 노브(3530) 상에서 지문이 검출되면, 디바이스(100)는 검출된 지문이 비틀리는 속도에 기초하여 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드 또는 감도 향상된 모드에서 동작시킨다. 예를 들어, 도 35i는 가상 손잡이(3530) 상에서 검출된 지문(3532)을 도시한다. 사용자는 사전 결정된 임계치 속도 초과의 속도로 지문(3532)을 비튼다. 지문(3532)의 임계치 초과의 비틀기 속도에 따라, 디바이스(100)는 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드에서 동작시킨다. 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 감소된 모드에서 동작시키는 동안에, 디바이스(100)는 지문(3532)의 움직임(예를 들어, 비틀기)을 검출하지만 지문(3532)의 특징들은 검출하지 않는다. 따라서, 디바이스(100)는 비교적 거칠게 증가하는 지문(3532)의 비틀기를 검출한다. 가상 노브(3530)는 검출된 지문(3532)의 거친 비틀기 증가에 따라 거칠게 증가하며 회전한다. 수치 값 필드(3528) 내의 값은 가상 노브(3530)의 회전의 거친 증가에 따라서 거칠게 증가하며 변화한다.35H-35J, the area of the
도 35j는 가상 노브(3530) 상에서 검출되는 지문(3532)과 유사한 지문(3534)을 도시한다. 사용자는 사전 결정된 임계치 속도 미만의 속도로 지문(3534)을 비튼다. 지문(3534)의 임계치 미만의 비틀기 속도에 따라, 디바이스(100)는 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 향상된 모드로 동작시킨다. 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 향상된 모드에서 동작시키는 동안에, 디바이스(100)는 지문(3532)의 특징들뿐만 아니라 그의 비틀림 움직임을 검출한다. 지문(3532)의 특징들을 검출함으로써, 디바이스(100)는 이러한 특징들의 이동을 검출할 수 있으며, 따라서 지문(3532)의 미세한 이동 - 미세한 증분의 비틀기를 포함함 - 을 검출할 수 있다. 가상 노브(3530)는 검출된 지문(3530)의 미세한 비틀기 증가에 따라 미세하게 증가하며 회전한다. 수치 값 필드(3528) 내의 값은 가상 노브(3530)의 회전의 미세한 증가에 따라 미세하게 증가하며 변화한다. 일부 실시예들에서, 디바이스(100)는 비틀기의 속도와 무관하게 가상 노브(3530)에서 비틀리는 지문(3534)을 검출하는 것에 응답하여 가상 노브(3530)를 포함하는 터치 스크린(112)의 부분을 감도 향상된 모드에서 동작시킨다.35J shows a
도 35a 내지 도 35j에 도시된 바와 같이, 터치 스크린(112)은 디바이스(100)가 감도 감소된 모드 또는 감도 향상된 모드에서 동작하는 하나 이상의 구역들을 포함한다. 일부 실시예들에서, 터치 스크린(112)(또는 터치-감응 표면(451))의 임의의 부분이 디바이스(예를 들어, 디바이스(100) 또는 디바이스(300))에 의해서 감도 감소된 모드 또는 감도 향상된 모드에서 동작될 수 있다는 것을 이해하여야 한다. 일부 실시예들에서, 소정의 표시된 사용자 인터페이스에 대해서, 구역(3502), 구역(3520), 또는 가상 노브(3530) 밖의 터치 스크린(112)의 부분들과 같은 터치 스크린(112)(또는 터치-감응 표면(451))의 일부 부분들이 감도 감소된 모드에서 유지되며; 이러한 부분들을 감도 감소된 모드와 감도 향상된 모드 사이에서 천이시킬 수 있는 능력이 디스에이블된다. 예를 들어, 도 35a에 도시된 바와 같은 사용자 인터페이스(3501)의 경우, 구역(3502) 밖의 터치 스크린(112)의 부분들을 감도 감소된 모드와 감도 향상된 모드 사이에서 천이하기 위한 능력이 디스에이블된다. 또한 일부 실시예들에서, 감도 모드들 사이에서 천이하는 것이 가능하게 된 구역은 대응하는 사용자 인터페이스 객체 또는 어포던스와 함께 이동한다. 예를 들어, 도 35a에서, "노트" 아이콘(444)의 위치와 "날씨" 아이콘(438)의 위치가 서로 뒤바뀐다면, 구역(3502-4)은 "노트" 아이콘(444)의 새로운 위치로 이동하고, "노트" 아이콘(444)의 예전 위치(즉, "날씨" 아이콘(438)의 새로운 위치)에 대응하는 터치 스크린(112)의 부분이 감도 감소된 모드와 감도 향상된 모드 사이에서 천이하는 것으로부터 디스에이블된다.As shown in FIGS. 35A-35J, the
일부 실시예들에서, 감도 감소된 모드와 감도 향상된 모드 사이에서 천이되는 터치-감응 표면의 부분들은 개별적으로 인에이블 및 디스에이블될 수 있는 센서들의 상이한 그룹들에 대응한다. 예를 들어, 터치 스크린(112)의 하부 우측 사분면에 대응하는 제1 세트의 센서들, 터치 스크린(112)의 상부 우측 사분면에 대응하는 제2 세트의 센서들, 터치 스크린(112)의 하부 좌측 사분면에 대응하는 제3 세트의 센서들, 및 터치 스크린(112)의 상부 좌측 사분면에 대응하는 제4 세트의 센서들이 각각 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이될 수 있다. 일부 실시예들에서, 위에서 더 상세하게 기술된 바와 같이, 상이한 구역들이 터치 스크린(112) 상의 사용자 인터페이스 객체 또는 접촉의 위치에 기초해 감도 감소된 모드와 감도 향상된 모드 사이에서 천이되도록 선택된다. 감도 향상된 데이터를 필요로 하는 사용자 인터페이스의 구역이 센서들의 세트들의 다수의 구역들에 걸친다고 디바이스가 결정하는 상황들에서, 디바이스는 선택적으로 센서들의 세트들의 다수의 구역들 전부가 감도 향상된 동작 모드에서 동작할 수 있게 하는 반면, 센서들의 하나 이상의 다른 세트들은 계속 감도 감소된 모드에서 동작한다.In some embodiments, portions of the touch-sensitive surface that transition between the reduced sensitivity mode and the reduced sensitivity mode correspond to different groups of sensors that may be enabled and disabled individually. For example, a first set of sensors corresponding to the lower right quadrant of the
도 36a 및 도 36b는 일부 실시예들에 따른, 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키는 방법(3600)을 예시하는 흐름도이다. 방법(3600)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3600) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.36A and 36B are flow charts illustrating a
아래에 기술되는 바와 같이, 방법(3600)은 터치-감응 표면의 일부분을 감도 향상된 동작 모드에서 동작시키기 위한 직관적인 방식을 제공한다. 이 방법은 터치-감응 표면을 작동시킬 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 감도 향상된 동작 모드에서의 터치-감응 표면의 일부분의 동작을 가능하게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
디바이스는 감도 감소된 동작 모드에 있는 터치-감응 표면의 제1 구역 내에서의 접촉을 검출한다(3602). 예를 들어, 도 35a는 감도 감소된 모드에서 동작되는 구역(3502-7) 내에서 검출된 지문(3504)을 갖는 접촉을 도시한다. 도 35f는 감도 감소된 모드에서 동작되는 구역(3520) 내의 위치(3514-c)로 이동하는 지문(3514)을 갖는 접촉을 도시한다. 도 35h는, 또한 감도 감소된 모드에서 동작되는 구역인 가상 노브(3530) 내에서 검출된 지문(3532)을 갖는 접촉을 도시한다. 일부 실시예들에서, 터치-감응 표면은 복수의 상이한 구역들(예를 들어, 터치-감응 표면의 하위세트들에 대응하는 구역들)을 포함하고(3603), 디바이스는 복수의 상이한 구역들 각각을 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이하도록 구성된다(예를 들어, 디바이스는 전체 터치-감응 표면에 대해 감도 향상된 모드를 온 상태로 하지 않고서 구역들 중 하나 이상에 대해서 감도 향상된 모드를 "온" 상태로 할 수 있음). 전체 터치-감응 표면이 감도 향상된 모드에 있어야 할 필요가 없는 경우에 소정의 구역들 내에서 감도 향상된 모드를 온 상태로 하지만 다른 구역들 내에서는 온 상태로 하지 않는 것은 프로세서에 대한 수요를 감소시키고 배터리 수명을 연장시킨다. 예를 들어, 도 35a는 구역(3502-1 내지 3502-7)들을 도시한다. 일부 실시예들에서, 디바이스는 구역(3501-1 내지 3501-7)들(또는 이들 구역을 포함하는 터치 스크린(112)의 구역들) 각각을 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이하도록 구성된다.The device detects contact within the first zone of the touch-sensitive surface in the reduced sensitivity mode of operation (3602). For example, FIG. 35A shows a contact having a
접촉을 검출하는 것에 응답하여(3604), 디바이스는 접촉이 하나 이상의 지문 센서 활성화 기준들을 충족시키는지 여부를 결정한다(3606). 디바이스(100)는 예를 들어 지문(3504)(또는 지문(3514) 또는 지문(3532) 또는 지문(3534))이 하나 이상의 지문 센서 활성화 기준들을 충족시키는지 여부를 결정한다.In response to detecting contact (3604), the device determines whether the contact meets one or more fingerprint sensor activation criteria (3606).
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 지문 형상의 접촉이 터치-감응 표면의 제1 구역에서 검출될 때 충족되는 기준을 포함한다(3608). 예를 들어, 지문 센서 활성화 기준은 구역(3502-7) 내의 지문(3504)을 갖는 접촉의 검출(또는 구역(3520) 내에서의 지문(3514)을 갖는 접촉의 검출)에 의해 충족된다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a fingerprint-like contact is detected in a first zone of the touch-sensitive surface (3608). For example, the fingerprint sensor activation criteria is met by detection of a contact with fingerprint 3504 (or detection of contact with
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 사전 결정된 속도 미만의 속도로 이동하는 지문 형상의 접촉이 검출될 때 충족되는 기준을 포함한다(3610)(예를 들어, 향상된 감도는 느린 이동을 보다 정확하게 만드는 것을 돕는다/느린 이동은 사용자가 지문 감응 사용자 인터페이스 요소와 상호작용하고 있음을 나타냄). 예를 들어, 지문 센서 활성화 기준은 사전 결정된 임계치 미만의 속도로 가상 노브(3530)에서 비틀리는 지문(3534)의 검출에 의해 충족된다. 다른 예로서, 지문 센서 활성화 기준은 사전 결정된 임계치 미만의 속도로 구역(3520) 내에서 이동하는 지문(3514)을 갖는 접촉의 검출에 의해 충족된다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a fingerprint of touch moving at a rate less than a predetermined rate is detected (3610) (e.g., Helping to make more accurate / slower movement indicates that the user is interacting with the fingerprint sensitive user interface element). For example, a fingerprint sensor activation criterion is met by detection of a
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 접촉에 대응하는 포커스 셀렉터가 지문-감응 사용자 인터페이스 요소 위에 있는 동안에 접촉이 터치-감응 표면 상에서 검출될 때 충족되는 기준을 포함한다(3612). 예를 들어, 디바이스는 검출된 지문에 따라 동작하는 제어(예를 들어, 지문의 비틀기에 응답하여 동작하는 노브 또는 다이얼, 또는 검출된 지문에 따라서만 활성화되도록 제한되는 어포던스) 위에서 접촉을 검출하고, 접촉에 대응하는 지문이 제어를 작동하기 위해서 식별되고 사용될 수 있도록 접촉 및/또는 제어를 포함하는 터치-감응 표면의 구역 내에서의 지문 감도를 온 상태로 한다. 예를 들어, 지문 센서 활성화 기준은 가상 노브(3530)에서 비틀리는 지문(3534)의 검출에 의해 충족된다. 다른 예로서, 지문 센서 활성화 기준은 구역(3502-7) 내에서 지문(3504)을 갖는 접촉의 검출에 의해 충족된다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when the contact is detected on the touch-sensitive surface while the focus selector corresponding to the contact is over the fingerprint-sensitive user interface element (3612). For example, the device may detect a contact on a control that operates in accordance with a detected fingerprint (e.g., a knob or dial that operates in response to a fingerprint twist, or an impedance that is limited to be activated only in response to a detected fingerprint) The fingerprint sensitivity in the area of the touch-sensitive surface including the contact and / or control is turned on so that the fingerprint corresponding to the contact can be identified and used to operate the control. For example, a fingerprint sensor activation criterion is met by detection of a
접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라, 디바이스는 터치-감응 표면의 제1 구역을 감도 향상된 동작 모드에서 동작시킨다(3614)(예를 들어, 터치-감응 표면의 제1 구역 내의 접촉들에 대해서, 디바이스는 접촉의 존재/부재 및 이동을 검출할 수 있으며, 게다가, 디바이스는 접촉이 이전에 등록된 지문으로서 고유하게 식별될 수 있게 하는 세부 특징들과 같은 접촉의 지문 특징들을 검출할 수 있음). 예를 들어, 지문 센서 활성화 기준이 충족될 때 디바이스(100)는 구역(3502-7)(및 유사하게 구역(3520) 또는 가상 노브(3530)를 포함하는 터치 스크린(112)의 일부분)을 감도 향상된 모드에서 동작시킨다.Depending on the determination that the contact meets the fingerprint sensor activation criteria, the device operates (3614) the first zone of the touch-sensitive surface in a sensitivity enhanced mode of operation (e. G., Within the first zone of the touch- The device can detect the presence / absence and movement of the contact, and furthermore the device can detect the fingerprint features of the contact, such as the detailed features allowing the contact to be uniquely identified as the previously registered fingerprint has exist). For example, when the fingerprint sensor activation criterion is met, the
접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, 디바이스는 터치-감응 표면 표면의 제1 구역을 계속해서 감도 감소된 동작 모드에서 동작시킨다(3618)(예를 들어, 감도 감소된 모드에서 동작되고 있는 터치-감응 표면의 구역들에 대해, 디바이스는 접촉의 존재/부재 및 이동을 검출할 수 있지만, 접촉이 이전에 등록된 지문으로서 고유하게 식별될 수 있게 하는 세부 특징들과 같은 접촉의 지문 특징들을 검출할 수 없음). 예를 들어, 도 35i에서, 지문 센서 활성화 기준이 임계치 속도 미만의 이동 또는 회전을 포함할 때 지문(3532)이 임계치 속도 초과의 속도로 비틀리는 경우에, 디바이스(100)는 가상 노브(3530)를 계속해서 감도 감소된 모드에서 동작시킨다.In response to the determination that the contact does not meet the fingerprint sensor activation criteria, the device continues to operate 3618 the first zone of the touch-sensitive surface surface in a reduced sensitivity mode of operation (e. G., In a reduced sensitivity mode of operation For the zones of the touch-sensitive surface being processed, the device can detect the presence / absence of movement and movement of the contact, but can also detect finger movements of the fingerprint of the contact, such as detailed features that enable the contact to be uniquely identified as a previously registered fingerprint Features can not be detected). For example, in FIG. 35i, when the
일부 실시예들에서, 터치-감응 표면의 제1 구역이 감도 향상된 동작 모드에 있는 동안에, 디바이스가 제1 구역 내에서 검출된 접촉의 지문 상세사항들을 검출할 수 있으며(3616); 터치-감응 표면의 제1 구역이 감도 감소된 동작 모드에 있는 동안에, 디바이스는 제1 구역 내에서 검출된 접촉의 지문 상세사항을 검출할 수 없다(3620). 예를 들어, 디바이스(100)가 구역(3502-7)(또는 구역(3520) 또는 구역(3530))을 감도 향상된 모드에서 동작시키는 동안에, 디바이스(100)는 구역 내에서 검출된 접촉(예를 들어, 지문(3504)을 갖는 접촉, 지문(3514)을 갖는 접촉, 지문(3534)을 갖는 접촉)의 지문 상세사항들(예를 들어, 지문 특징들)을 검출할 수 있다. 디바이스(100)가 구역(3502-7)(또는 구역(3520) 또는 구역(3530))을 감도 감소된 모드에서 동작시키는 동안에, 디바이스(100)는 구역 내에서 검출된 접촉의 지문 상세사항들(예를 들어, 지문 특징들)을 검출할 수 없으며, 따라서 구역이 감도 향상된 모드에서 동작하고 있을 때만큼 정확하게 접촉의 이동을 추적하지 않는다.In some embodiments, while the first zone of the touch-sensitive surface is in the sensitivity enhanced mode of operation, the device may detect 3616 the fingerprint details of the detected contact within the first zone; While the first zone of the touch-sensitive surface is in the reduced sensitivity mode of operation, the device can not detect 3620 the fingerprint details of the detected contact within the first zone. For example, while
일부 실시예들에서, 터치-감응 표면의 제1 구역을 감도 향상된 모드에서 동작시키는 동안에(3622) 디바이스는 접촉의 지문 특징들을 검출하며(3624), 접촉의 지문 특징들을 검출하는 것에 응답하여, 지문 특징들에 따라 동작을 수행한다(3626)(예를 들어, 접촉의 지문 특징들을 검출하는 것에 응답하여, 디바이스는 아이덴티티-기반 동작 또는 접촉의 지문 특징들의 검출을 요구하는 동작을 수행함). 예를 들어, 디바이스는 지문 세부 특징들의 이동을 검출하는 것에 기초하여 접촉의 작은 이동들을 검출하는데, 여기서 이러한 접촉의 작은 이동들은 지문 특징들을 보지 않은 채 전체 접촉의 이동에 기초해서는 검출 가능하지 않을 것이다. 도 35b 및 도 35c에서, 디바이스(100)는 구역(3502-7) 내의 지문(3504)의 특징들을 검출하고, 검출된 지문(3504)의 특징들에 기초하여 오류 메시지(3506)를 표시하거나 이메일 클라이언트 모듈(140)의 사용자 인터페이스(3508)를 표시한다. 도 35g에서, 디바이스(100)는 구역(3520) 내의 지문(3514)의 특징들을 검출하고, 지문(3514)이 잠금해제 기준(3522)을 충족시키는지 또는 잠금해제 기준(3524)을 충족시키지 않는지 여부에 기초하여 디바이스(100)를 잠금해제하거나 디바이스(100)를 남겨둔다. 도 35j에서, 디바이스(100)는 가상 노브(3530) 내에서 지문(3534)의 특징들의 이동을 검출하고, 지문 특징들의 검출된 이동에 따라 가상 노브(3530)를 미세한 증분으로 회전시킨다.In some embodiments, while operating the first zone of the touch-sensitive surface in a sensitivity enhanced
일부 실시예들에서, 제1 구역을 감도 향상된 모드에서 동작시키는 동안에(3622), 디바이스는 터치-감응 표면의 하나 이상의 다른 구역들을 감도 감소된 모드에서 동작시킨다(3628)(예를 들어, 제1 구역이 터치-감응 표면 상에서 검출된 접촉들의 지문 상세사항들을 검출할 수 있게 된 동안에, 터치-감응 표면의 다른 구역들은 접촉들의 지문 상세사항들을 검출하지 않고 접촉들의 존재/부재 및 이동을 검출할 수 있음). 예를 들어, 도 35a는 감도 감소된 모드 또는 감도 향상된 모드에서 동작 가능한 (그리고 터치 스크린(112)의 나머지는 감도 감소된 모드에서 동작 가능한)복수의 구역들(3502)을 도시한다. 구역(3502-7)이 감도 향상된 모드에서 동작되는 동안에, 다른 구역(3502)들이 감도 감소된 모드에서 동작된다. 각자의 구역을 감도 향상된 모드에서 동작시키는 동안에 터치 스크린(112)의 구역들 중 일부를 감도 감소된 모드에서 유지하는 것은, 각자의 구역 내에서 사용자를 인증하기 위한 능력 및/또는 향상된 정밀도의 이점을 제공하면서, 감도 향상된 모드가 다른 구역들에 대해서 필요하지 않을 때 다른 구역들을 저전력의 감도 감소된 모드에서 유지함으로써 전력 사용을 감소시킨다.In some embodiments, while operating the first zone in a sensitivity enhanced mode (3622), the device operates (3628) one or more other zones of the touch-sensitive surface in a sensitivity reduced mode (e.g., While the zone is able to detect fingerprint details of the detected contacts on the touch-sensitive surface, other areas of the touch-sensitive surface can detect the presence / absence and movement of the contacts without detecting fingerprint details of the contacts has exist). For example, FIG. 35A illustrates a plurality of zones 3502 that are operable in a reduced-sensitivity or enhanced-sensitivity mode (and the rest of the
일부 실시예들에서, 터치-감응 표면의 제1 구역을 감도 향상된 모드에서 동작시키는 것은(3630) 터치-감응 표면의 제1 구역을 감도 감소된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다. 따라서, 터치-감응 표면의 제1 구역을 "필요로 하는 바를" 기준으로 감도 감소된 모드로부터 감도 향상된 모드로 전환하는 것은 디바이스의 전반적인 에너지 소비를 감소시킴으로써, 디바이스의 에너지 효율성 및 배터리 수명을 증가시킨다. 예를 들어, 접촉이 구역(3502-7) 내부에서 검출될 때 구역(3502-7)을 감도 향상된 모드에서 동작시키고, 다른 때에는 감도 감소된 모드에서 동작시키는 것은, 구역(3502-7)을 감도 향상된 모드에서 항상 동작시키는 것과 비교해서 전력 소비를 감소시킨다.In some embodiments, operating the first zone of the touch-sensitive surface in the sensitivity enhanced mode (3630) consumes more power than operating the first zone of the touch-sensitive surface in the reduced sensitivity mode. Thus, switching from the reduced sensitivity mode to the sensitivity enhanced mode on the basis of the "needs" of the first zone of the touch-sensitive surface increases the energy efficiency and battery life of the device by reducing the overall energy consumption of the device . For example, operating the zone 3502-7 in the sensitivity enhanced mode when the contact is detected within the zone 3502-7, and otherwise operating in the reduced sensitivity mode may cause zone 3502- Reduces power consumption compared to always operating in enhanced mode.
일부 실시예들에서, (예를 들어, 터치-감응 표면의 나머지를 감도 감소된 모드에서 동작시키는 동안에) 터치-감응 표면의 제1 구역보다 더 많은 구역을 감도 향상된 모드에서 동작시키는 것(3632)은 터치-감응 표면의 제1 구역만을 감도 향상된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다. 따라서, 터치-감응 표면의 제1 구역을 감도 향상된 모드로 동작시키는 동안에 터치-감응 표면의 나머지 구역들을 감도 감소된 모드로 동작시키는 것은 디바이스의 전반적인 에너지 소비를 감소시킴으로써, 디바이스의 에너지 효율 및 배터리 수명을 증가시킨다. 예를 들어, 어느 쪽이든 접촉이 검출되는 구역(3502)(예를 들어, 도 35a의 구역(3502-7))만을 감도 향상된 모드에서 동작시키고 나머지를 감도 감소된 모드에서 동작시키는 것은, 구역(3502)들 중 하나보다 많은 구역을 감도 향상된 모드에서 동작시키는 것에 비교하여 전력 소비를 감소시킨다.In some embodiments, operating (3632) in the enhanced sensitivity mode more areas than the first area of the touch-sensitive surface (e.g., while operating the remainder of the touch-sensitive surface in the reduced sensitivity mode) Lt; RTI ID = 0.0 > 1 < / RTI > area of the touch-sensitive surface. Thus, while operating the first zone of the touch-sensitive surface in a sensitivity enhanced mode, operating the remaining zones of the touch-sensitive surface in a sensitivity reduced mode reduces the overall energy consumption of the device, thereby reducing the energy efficiency of the device and the battery life . For example, operating only the zone 3502 (e.g., zone 3502-7 in FIG. 35A) where the contact is detected in the sensitivity enhanced mode and operating the rest in the reduced sensitivity mode may be performed in zone 3502 ≪ / RTI > compared to operating in more < RTI ID = 0.0 > a < / RTI >
도 36a 및 도 36b의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 36a 및 도 36b와 관련하여 전술된 방법(3600)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3600)과 관련하여 전술된 지문들, 접촉들, 및 사용자 인터페이스들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 및 사용자 인터페이스들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 36A and 36B are only illustrative and that the order in which they are described is not intended to indicate that the order in which they are described is the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. Also, details of other processes described herein in connection with other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 37은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(3700)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 37에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 37 shows a functional block diagram of an
도 37에 도시된 바와 같이, 전자 디바이스(3700)는 디스플레이 유닛(3702); 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(3704); 및 디스플레이 유닛(3702)과 터치-감응 표면 유닛(3704)에 결합된 프로세싱 유닛(3708)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(3708)은 검출 유닛(3710), 결정 유닛(3712), 동작 유닛(3714), 수행 유닛(3716) 및 천이 유닛(3718)을 포함한다.37, the
프로세싱 유닛(3708)은 (예를 들어, 검출 유닛(3710)을 이용하여) 터치-감응 표면 유닛(3704)의 제1 구역 - 터치-감응 표면 유닛(3704)의 제1 구역은 감도 감소된 동작 모드에 있음 - 에서 접촉을 검출하고; 접촉을 검출하는 것에 응답하여: (예를 들어, 결정 유닛(3712)을 이용하여) 접촉이 지문 센서 활성화 기준을 충족시키는지 여부를 결정하고; 접촉이 지문 센서 활성화 기준을 충족시킨다는 결정에 따라 (예를 들어, 동작 유닛(3714)을 이용하여) 터치-감응 표면 유닛(3704)의 제1 구역을 감도 향상된 동작 모드에서 동작시키고; 접촉이 지문 센서 활성화 기준을 충족시키지 않는다는 결정에 따라, (예를 들어, 동작 유닛(3714)을 이용하여) 터치-감응 표면 유닛(3704)의 제1 구역을 감도 감소된 동작 모드에서 계속 동작시키도록 구성된다.The processing unit 3708 may be configured to provide a first zone of the first zone-touch-sensitive surface unit 3704 of the touch-sensitive surface unit 3704 (e.g., using the detection unit 3710) In the mode - to detect contact; In response to detecting the contact: determining whether the contact meets the fingerprint sensor activation criteria (e.g., using decision unit 3712); Operating the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode of operation in accordance with a determination that the contact meets the fingerprint sensor activation criteria (e.g., using the action unit 3714); Responsive surface unit 3704 continues to operate in a reduced sensitivity mode of operation (e.g., using an action unit 3714), in accordance with a determination that the contact does not meet the fingerprint sensor activation criteria .
일부 실시예들에서, 터치-감응 표면 유닛(3704)의 제1 구역이 감도 향상된 동작 모드에 있는 동안에, 프로세싱 유닛(3708)은 (예를 들어, 검출 유닛(3710)을 이용하여) 제1 구역 내에서 검출된 접촉의 지문 상세사항들을 검출할 수 있고, 터치-감응 표면 유닛(3704)의 제1 구역이 감도 감소된 동작 모드에 있는 동안에, 프로세싱 유닛(3708)은 (예를 들어, 검출 유닛(3710)을 이용하여) 제1 구역 내에서 검출된 접촉의 지문 상세사항들을 검출할 수 없다.In some embodiments, while the first zone of the touch-sensitive surface unit 3704 is in the sensitivity enhanced mode of operation, the processing unit 3708 may determine (e.g., using the detection unit 3710) Sensing surface unit 3704 can detect the fingerprint details of the detected contact within the touch-sensitive surface unit 3704 and while the first zone of the touch-sensitive surface unit 3704 is in the reduced sensitivity mode of operation, the processing unit 3708 (e.g., (Using the fingerprint sensor 3710) can not detect the fingerprint details of the detected contact in the first zone.
일부 실시예들에서, 프로세싱 유닛(3708)은 터치-감응 표면 유닛(3704)의 제1 구역을 감도 향상된 모드에서 동작시키는 동안에: (예를 들어, 검출 유닛(3710)을 이용하여) 접촉의 지문 특징들을 검출하고, 접촉의 지문 특징들을 검출하는 것에 응답하여, (예를 들어, 수행 유닛(3716)을 이용하여) 지문 특징들에 따라 동작을 수행하도록 구성된다.In some embodiments, the processing unit 3708 may be operable to: during operation of the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode: a fingerprint of the contact (e.g., using the detection unit 3710) In response to detecting the features and detecting the fingerprint features of the contact (e.g., using the performance unit 3716).
일부 실시예들에서, 터치-감응 표면 유닛(3704)은 복수의 상이한 영역들을 포함하고, 프로세싱 유닛(3708)은 (예를 들어, 천이 유닛(3718)을 이용하여) 복수의 상이한 영역들 각각을 감도 감소된 모드와 감도 향상된 모드 사이에서 독립적으로 천이하도록 구성된다.In some embodiments, the touch-sensitive surface unit 3704 includes a plurality of different regions, and the processing unit 3708 includes a plurality of different regions (e.g., using the transition unit 3718) And is configured to independently transition between the sensitivity reduced mode and the sensitivity enhanced mode.
일부 실시예들에서, 프로세싱 유닛(3708)은 제1 구역이 감도 향상된 모드에서 동작되는 동안에 (예를 들어, 동작 유닛(3714)을 이용하여) 터치-감응 표면 유닛(3704)의 다른 영역들 중 하나 이상을 감도 감소된 모드에서 동작시키도록 구성된다.In some embodiments, the processing unit 3708 may be operable to determine whether the first zone is operating in a sensitivity-enhanced mode (e.g., using the operational unit 3714) And to operate one or more in a reduced sensitivity mode.
일부 실시예들에서, 터치-감응 표면 유닛(3704)의 제1 구역을 감도 향상된 모드에서 동작시키는 것은 터치-감응 표면 유닛(3704)의 제1 구역을 감도 감소된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다.In some embodiments, operating the first zone of the touch-sensitive surface unit 3704 in the sensitivity enhanced mode is more efficient than operating the first zone of the touch-sensitive surface unit 3704 in the sensitivity reduced mode Consumes power.
일부 실시예들에서, 터치-감응 표면 유닛(3704)의 제1 구역보다 많은 구역을 감도 향상된 모드에서 동작시키는 것은 터치-감응 표면 유닛(3704)의 제1 구역만을 감도 향상된 모드에서 동작시키는 것보다 더 많은 전력을 소비한다.In some embodiments, operating more than the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode may result in operating only the first zone of the touch-sensitive surface unit 3704 in a sensitivity enhanced mode It consumes more power.
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은, 터치-감응 표면 유닛(3704)의 제1 구역 내에서 지문 형상의 접촉이 검출될 때 충족되는 기준을 포함한다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a fingerprint-like contact is detected within the first zone of the touch-sensitive surface unit 3704.
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 사전 결정된 임계치 속도 미만의 속도로 이동하는 지문 형상의 접촉이 검출될 때 충족되는 기준을 포함한다.In some embodiments, the one or more fingerprint sensor activation criteria include a criterion that is met when a fingerprint of contact moving at a velocity less than a predetermined threshold velocity is detected.
일부 실시예들에서, 하나 이상의 지문 센서 활성화 기준들은 접촉에 대응하는 포커스 셀렉터가 지문-감응 사용자 인터페이스 요소 위에 있는 동안에 접촉이 터치-감응 표면 유닛(3704) 상에서 검출될 때 충족되는 기준을 포함한다.In some embodiments, the one or more fingerprint sensor activation criteria include criteria that are met when a contact is detected on the touch-sensitive surface unit 3704 while the focus selector corresponding to the contact is over the fingerprint-sensitive user interface element.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 36a 및 도 36b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 37에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(3602), 결정 동작(3606) 및 작동 동작(3614, 3618)들이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above in connection with Figs. 36A and 36B are optionally implemented by the components shown in Figs. 1A and 1B or 37. For example, a
지문 제스처들과 연관된 동작들의 수행Performing actions associated with fingerprint gestures
다수의 전자 디바이스들은 각자의 대응하는 사용자 인터페이스들 및 어포던스들와 함께 각자의 동작들을 수행하기 위한 각자의 애플리케이션들을 구비한다. 전형적으로, 디바이스에 의해 동작이 수행되게 하기 위해서, 사용자는 사용자가 디바이스 상에서 (예를 들어, 대응하는 애플리케이션 아이콘을 활성화함으로써) 대응하는 애플리케이션을 기동시켜, 대응하는 사용자 인터페이스들 및 어포던스들이 표시되게 한다. 이어서, 사용자는 사용자 인터페이스 및 어포던스들을 이용하여 동작을 활성화한다. 그러나, 때때로 사용자는 관련 없는 애플리케이션 또는 사용자 인터페이스와 상호작용하는 동안의 순간에 동작이 수행되기를 원한다. 현재의 방법들에서, 사용자가 동작을 수행하기 위해서는 여전히 애플리케이션을 기동시키도록 애플리케이션 아이콘을 활성화하여야 한다. 이는 시간 소비적이고 사용자 경험을 손상시킨다. 아래에서 기술되는 실시예들은 디바이스 상에서 특정 지문을 동작과 연관시킴으로써 이러한 방법을 향상시킨다. 원하는 동작과 관련 없는 사용자 인터페이스가 표시되는 동안에 사용자가 지문으로 제스처를 수행하면, 디바이스가 그 동작을 수행한다. 따라서, 사용자는 동작과 관련 없는 사용자 인터페이스가 표시되는 동안에 동작을 활성화할 수 있으며; 사용자는 동작을 신속하고 효율적으로 활성화하는 능력을 가질 수 있음으로써, 사용자 인터페이스의 속도 및 효율성을 향상시킨다.A plurality of electronic devices have their respective applications for performing their respective operations with their respective user interfaces and positives. Typically, in order for an operation to be performed by a device, a user activates a corresponding application on the device (e.g., by activating the corresponding application icon), causing corresponding user interfaces and poses to be displayed . The user then activates the operation using the user interface and the positives. However, sometimes the user wants the action to be performed at an instant while interacting with an unrelated application or user interface. In current methods, the user must activate the application icon to still launch the application in order to perform the action. This is time consuming and impairs the user experience. The embodiments described below improve this method by associating a particular fingerprint on the device with the operation. If the user performs a gesture with the fingerprint while the user interface unrelated to the desired operation is displayed, the device performs the operation. Thus, the user can activate the operation while the user interface unrelated to the operation is displayed; The user can have the ability to quickly and efficiently activate the operation, thereby improving the speed and efficiency of the user interface.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 38a 내지 도 38p 및 도 39a 내지 도 39e와 관련하여 아래에서 기술되는 디바이스는 선택적으로 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 38a 내지 도 38p 및 도 39a 내지 도 39e와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 선택적으로 하나 이상의 지문 센서(169)들과 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로, 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 선택적으로 하나 이상의 지문 센서(169)들을 갖는 디바이스 상에서, 도 38a 내지 도 38p에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 터치-감응 표면(451) 상에서 도 38a 내지 도 38p에서 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 38a는 디바이스(디바이스(100))의 터치 스크린(112) 상에 표시된 사용자 인터페이스(3801)를 도시한다. 터치 스크린(112)은 통합형 지문 센서를 포함한다. 도 38a에서, 각자의 애플리케이션들을 기동하기 위한 하나 이상의 아이콘들을 포함하는 애플리케이션 기동 사용자 인터페이스(3801)가 터치스크린 디스플레이(112) 상에 표시된다. 디바이스에서, 하나 이상의 각자의 지문들이 각자의 동작들과 연관된다. 일부 실시예들에서, 지문들은 손과 손가락별로 구별지어진다. 예를 들어, 오른손 엄지 지문이 각자의 기능 또는 동작과 연관되고, 왼손 엄지 지문이 다른 각자의 기능 또는 동작과 연관된다. 일부 실시예들에서, 카메라-관련 기능 또는 동작(예를 들어, 사진 또는 비디오를 캡처하기 위한 셔터 기능, 카메라 미리보기 표시)이 각자의 지문과 연관된다.38A shows a
애플리케이션 기동 사용자 인터페이스(3801)가 터치 스크린(112) 상에 표시되는 동안에, 디바이스는 터치 스크린(112) 상에서 지문(3802)을 이용한 제스처를 검출한다. 지문(3802)은 디바이스에 의해 오른손 엄지 지문으로서 식별된다. 이러한 예에서, 오른손 엄지 지문은 카메라 인터페이스 및 카메라 미리보기의 표시 및 정지 이미지 또는 사진 캡처와 연관된다. 지문(3802)을 이용한 제스처의 검출에 응답하여, 도 38b에 도시된 바와 같이 디바이스는 터치 스크린(112) 상에서 카메라 모듈(143)에 대응하는 카메라 인터페이스(3804)를 표시한다. 일부 실시예들에서, 디바이스는 터치 스크린(112) 상에서 지문(3802)을 검출하는 것에 응답하여 적어도 미리 정해진 시간량 동안 카메라 미리보기(3804)를 표시한다. 카메라 인터페이스(3804)는 카메라 미리보기(3806)를 포함한다. 카메라 미리보기(3806)는 디바이스 상에서 카메라(예를 들어, 광학 센서(들)(164))에 의해 검출된 콘텐트를 보여주고, 디바이스 상에서 미디어 캡처 기능이 활성화되면 카메라에 의해 정지 이미지 또는 비디오로서 캡처될 것을 미리 보여준다.While the application
일부 실시예들에서, 이전에 등록된 사용자들의 지문의 특징들 또는 미리 정해진 지문 유형들과 연관된 특징들에 대한 비교에 기초하여 터치 스크린(112) 상에서 검출된 지문들이 식별된다. 예를 들어, 지문(3802)은 특정한 사용자의 오른손 엄지 지문으로서의 지문(3802)의 식별, 또는 포괄적인 오른손 엄지 지문으로서의 지문(3802)의 식별(즉, 지문(3802)을 특정 사용자에 속하는 것으로서 식별하지 않음)을 통해 오른손 엄지 지문으로서 식별된다.In some embodiments, fingerprints detected on the
디바이스는 지문(3802)을 이용한 제스처의 연속성을 검출하며, 이러한 연속성은 도 38c에 도시된 바와 같이 지문(3802)에 대응하는 접촉의 강도가 미리 정해진 강도 임계치(예를 들어, 표준 접촉 검출 강도 임계치 초과의 강도 임계치) 위로 증가하는 것을 포함한다. 예를 들어, 사용자는 지문(3802)에 대응하는 접촉으로 터치 스크린(112)을 누른다. 임계치 위로 증가하는 강도를 검출하는 것에 응답하여, 디바이스는 카메라 미리보기(3806)에 대응하는 정지 이미지 또는 사진의 캡처를 활성화하는 셔터 기능을 활성화한다. 일부 실시예들에서, 도 38c에 도시된 바와 같이, 디바이스는 카메라 애플리케이션(143)을 위한 필름 스트립 또는 카메라 롤로 이동하는 캡처된 사진의 표현(3808)의 애니메이션을 표시한다. 사진이 캡처된 후에, 도 38d에 도시된 바와 같이, 디바이스는 카메라 인터페이스(3804) 및 카메라 인터뷰(3806)를 표시하는 것을 중단하며, 이전에 표시된 사용자 인터페이스(예를 들어, 애플리케이션 기동 사용자 인터페이스(3801))를 재표시한다.The device detects the continuity of the gesture with the
일부 실시예들에서, 디바이스는 접촉 강도의 증가를 검출하는 것에 응답하기보다는, 각자의 시간 임계치(예를 들어, 2, 5, 10초 또는 임의의 다른 합리적인 시간 임계치)보다 긴 시간 동안 계속해서 지문(3802)을 검출하는 것에 응답하여 콘텐트를 캡처하기 위한 셔터 기능을 활성화한다. 예를 들어, 도 38b의 지문(3802)이 초기 검출로부터 시간 임계치보다 긴 시간 동안 계속해서 검출되면 셔터 기능이 활성화된다. 따라서 일부 실시예들에서, 카메라 인터페이스를 표시하거나 셔터 기능(또는 다른 동작)을 활성화하기 위한 어포던스를 포함하지 않는 사용자 인터페이스가 표시된 동안에도, 사용자는 여전히 각자의 동작(들)과 연관된 지문을 포함하는 제스처를 이용하여 카메라 인터페이스의 표시 및/또는 셔터 기능(또는 다른 동작)을 활성화할 수 있다.In some embodiments, the device may continue to process fingerprint images for a longer period of time than their respective time thresholds (e.g., 2, 5, 10 seconds or any other reasonable time threshold), rather than responding to detecting an increase in contact strength. And activates a shutter function for capturing the content in response to detecting the
도 38e 내지 도 38h는 각자의 동작을 활성화하기 위한 어포던스를 포함하지 않는 사용자 인터페이스가 표시되는 동안에 각자의 동작을 활성화하는 다른 예를 도시한다. 도 38e는 도 38a에서와 같이 터치 스크린(112) 상에 표시된 애플리케이션 기동 사용자 인터페이스(3801)를 도시한다. 지문(3810)을 이용한 제스처가 터치 스크린(112) 상에서 검출된다. 지문(3810)은 디바이스에 의해 오른손 엄지 지문인 것으로 검출된다. 이러한 예에서, 오른손 엄지 지문은 카메라 인터페이스 및 카메라 미리보기의 표시 및 비디오 녹화와 연관된다. 지문(3810)을 이용한 제스처를 검출하는 것에 응답하여, 디바이스는 도 38f에 도시된 바와 같이 터치 스크린(112) 상의 카메라 인터페이스(3804) 및 카메라 미리보기(3812)를 표시한다. 또한, 디바이스는 카메라 미리보기(3812)에 대응하는 비디오의 녹화를 활성화한다. 비디오가 녹화되는 동안에, 녹화가 진행 중임을 나타낼 뿐만 아니라 진행 중인 녹화의 시간 길이를 나타내도록 녹화 표시자(3813)가 선택적으로 터치 스크린(112) 상에 표시된다. 도 38g는 예를 들어 지문(3810)이 터치 스크린(112)으로부터 들어올려짐으로 인해 지문(3810)을 이용한 제스처가 더 이상 터치 스크린(112) 상에서 검출되지 않음을 나타낸다. 들어올림을 검출하는 것에 응답하여, 디바이스는 비디오의 녹화를 중단하고 카메라 인터페이스(3804) 및 카메라 미리보기(3812)의 표시를 중단하며, 도 38h에 도시된 바와 같이 사용자 인터페이스(3801)를 재표시한다.Figs. 38E to 38H show another example of activating each operation while a user interface that does not include an allowance for activating each operation is displayed. 38E shows an application
일부 실시예들에서, 지문을 포함하는 제스처는 배향, 위치 및/또는 지속기간에 대해 특정되며, 지문과 연관된 동작이 활성화되었는지 여부는 지문이 배향, 위치 및/또는 지속기간 요건들을 충족시키는지 여부에 의존한다. 예를 들어, 일부 실시예들에서, 지문(3802)이 미리 정해진 시간의 기간보다 짧은 기간 동안 터치 스크린(112) 상에서 검출되면, 동작은 수행되지 않는다. 일부 실시예들에서, 지문이 터치 스크린(112) 상의 사전 결정된 위치(예를 들어, 현재 스크린 배향에 기초하여 터치 스크린(112)의 상부 우측 사분면)가 아닌 위치에서 검출되면(예를 들어, 상부 우측 사분면에 있는 지문(3802, 3810)과 상반되게 지문(3814)이 하부 우측 사분면에 있으면(도 38i)), 동작은 수행되지 않는다. 일부 실시예들에서, 지문이 터치 스크린(112)의 사전 결정된 배향(예를 들어, 지문이 위쪽이 위로 오는(right-side-up) 수직으로부터 45°±10°의 각도)이 아닌 배향으로 검출되면(예를 들어, 배향 각도 범위 내에 있는 지문(3802, 3810)과 상반되게 지문(3816)이 배향 각도 범위 밖에 있으면(도 38j)), 동작은 수행되지 않는다(예를 들어, 미디어가 캡처되지 않고, 디바이스는 현재 표시되는 사용자 인터페이스의 표시를 미디어 캡처 사용자 인터페이스로 대체하지 않음).In some embodiments, a gesture that includes a fingerprint is specified for orientation, position and / or duration, and whether an action associated with the fingerprint is activated indicates whether the fingerprint satisfies orientation, position and / or duration requirements Lt; / RTI > For example, in some embodiments, if the
도 38k 내지 도 38l은 각자의 동작을 활성화하기 위한 어포던스를 포함하지 않는 사용자 인터페이스가 표시되는 동안에 각자의 동작을 활성화하는 또 다른 예를 도시한다. 도 38k는 터치 스크린(112) 상에 표시된 노트 애플리케이션에 대한 사용자 인터페이스(3818)를 도시한다. 지문(3820)을 이용한 제스처가 터치 스크린(112) 상에서 검출되고, 그 다음 미리 정해진 기간 후에 터치 스크린(112)으로부터 들어올려진다. 지문(3820)은 디바이스에 의해 오른손 엄지 지문인 것으로 검출된다. 이러한 예에서, 오른손 엄지 지문은 전화 애플리케이션 사용자 인터페이스, 이메일 애플리케이션 사용자 인터페이스, 또는 메시징 애플리케이션 사용자 인터페이스와 같은 통신 인터페이스의 표시와 연관된다. 지문(3820)을 이용한 제스처의 검출 및 후속하여 지문을 들어올리는 것에 응답하여, 디바이스는 도 38l에 나타내어진 바와 같이 터치 스크린(112) 상에 전화 애플리케이션 인터페이스(3822)를 표시한다.38K to 38L illustrate another example of activating each operation while a user interface that does not include an allowance for activating each operation is displayed. Figure 38k shows a
일부 실시예들에서, 다수의 지문들이 디바이스 상에서 상이한 동작들과 각각 연관된다. 예를 들어, 오른손 엄지 지문이 정지 이미지 캡처와 연관되고 왼손 엄지 지문이 비디오 녹화와 연관되는데, 그 예가 도 38m 내지 도 38p에 도시되어 있다. 도 38m은 애플리케이션 기동 사용자 인터페이스(3801)가 터치 스크린(112) 상에 표시된 동안에 터치 스크린(112) 상에서 검출된 지문(3824)을 이용한 제스처를 도시한다. 지문(3824)은 오른손 엄지 지문인 것으로 검출된다. 도 38n에 도시된 바와 같이, 지문(3824)을 이용한 제스처를 검출하는 것에 응답하여 카메라 인터페이스(3804) 및 카메라 미리보기(3826)가 표시되고, 카메라 미리보기(3826)에 대응하는 사진이 캡처된다. 사진이 캡처된 후에, 디바이스는 선택적으로 카메라 인터페이스(3804) 및 카메라 미리보기(3826)의 표시를 중단하며, 이전에 표시된 사용자 인터페이스(예를 들어, 애플리케이션 기동 사용자 인터페이스(3801))를 재표시한다.In some embodiments, multiple fingerprints are each associated with different actions on the device. For example, the right-hand thumb fingerprint is associated with still image capture and the left-hand thumb fingerprint is associated with video recording, an example of which is shown in Figures 38m-38p. Figure 38m shows the gesture with the
도 38o는 사용자 인터페이스(3801)가 터치 스크린(112) 상에 표시된 동안에 터치 스크린(112) 상에서 검출된 지문(3828)을 이용한 제스처를 도시한다. 지문(3828)은 왼손 엄지 지문인 것으로 검출된다. 도 38p에 도시된 바와 같이, 지문(3828)을 이용한 제스처를 검출하는 것에 응답하여 카메라 인터페이스(3804) 및 카메라 미리보기(3830)가 표시되고, 카메라 미리보기(3830)에 대응하는 비디오가 캡처된다. 지문(3828)을 이용한 제스처의 들어올림이 검출된 경우에, 비디오 녹화 및 카메라 인터페이스(3804)와 카메라 미리보기(3830)의 표시가 선택적으로 정지된다. 카메라 인터페이스(3804) 및 카메라 미리보기(3830)가 표시되는 것이 중단된 후에, 디바이스는 사용자 인터페이스(3801)를 재표시한다.Figure 38o shows the gesture with the
도 39a 내지 도 39e는 일부 실시예들에 따라 지문 제스처들과 연관된 동작들을 수행하는 방법(3900)을 예시하는 흐름도이다. 방법(3900)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(3900) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.Figures 39A-39E are flow charts illustrating a
아래에 기술되는 바와 같이, 방법(3900)은 지문 제스처들과 연관된 동작들을 수행하기 위한 직관적인 방식을 제공한다. 이 방법은 지문 제스처들과 연관된 동작들을 수행할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 지문 제스터와 연관된 동작들을 더 빠르고 더 효율적으로 수행할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
디바이스는 제1 지문을 제1 동작과 연관시킨다(3902)(예를 들어, 지문 등록 프로세스 동안에, 오른손 엄지 지문을 카메라 애플리케이션의 셔터 기능에 할당함). 예를 들어, 도 38a 내지 도 38d에서, 오른손 엄지 지문은 카메라 셔터 기능과 연관된다.The device associates (3902) the first fingerprint with the first action (e.g., assigns the right thumb fingerprint to the shutter function of the camera application during the fingerprint registration process). For example, in Figs. 38A to 38D, the right thumb fingerprint is associated with the camera shutter function.
디바이스는 디스플레이 상에 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시한다(3904)(예를 들어, 사용자 인터페이스는 제1 동작을 수행하기 위한 사용자 인터페이스가 아니고, 사용자 인터페이스는 제1 동작을 수행하기 위한 어포던스 또는 다른 사용자 인터페이스 요소들을 포함하지 않음). 도 38a 및 도 38e에 도시된 바와 같이, 터치 스크린(112) 상에 표시된 사용자 인터페이스(3801)는 예를 들어 애플리케이션들을 기동하기 위한 어포던스들(예를 들어, 애플리케이션 아이콘들)을 포함하지만, 사진을 캡처하거나 비디오를 녹화하기 위한 어포던스는 포함하지 않는다. 유사하게, 사용자 인터페이스(3818)(도 38k)는 필기와 관련된 어포던스들(예를 들어, 기존 메모의 열기, 새로운 메모의 생성, 메모의 삭제 등을 위한 각자의 어포던스들)을 포함하지만, 전화 통화를 하는 것과 관련된 어포던스는 포함하지 않는다. 일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하기 위한 표시된 제어부를 포함하지 않는다(3906). 예를 들어, 사용자 인터페이스(3801)(도 38a 또는 도 38e)는 사진을 캡처하거나 비디오를 녹화하기 위한 제어부를 포함하지 않는다. 사용자 인터페이스(3818)(도 38k)는 전화 통화를 하기 위한 제어부 또는 전화 애플리케이션 인터페이스의 표시를 활성화하기 위한 제어부를 포함하지 않는다.The device displays (3904) its respective user interface including the poses for performing a plurality of actions on the display other than the first action (e.g., the user interface is not a user interface for performing the first action , The user interface does not include the affordance or other user interface elements for performing the first operation). 38A and 38E, the
일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하기 위해 구성되지 않은 제1 애플리케이션의 사용자 인터페이스이고(3908), 제1 동작은 제1 애플리케이션과는 상이한 제2 애플리케이션에 의해 수행된다. 예를 들어, 사용자 인터페이스(3818)(도 38k)는 카메라 동작들을 수행하기 위해 구성되지 않은 노트 애플리케이션(예를 들어, 노트 모듈(153))에 대한 사용자 인터페이스이다. 카메라 동작들은 카메라 애플리케이션(예를 들어, 카메라 모듈(143))에 의해 수행된다. 일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하도록 구성되지 않은 애플리케이션 기동 스크린의 사용자 인터페이스이고(3910), 제1 동작은 애플리케이션 기동 스크린과는 상이한 각자의 애플리케이션에 의해 수행된다. 예를 들어, 사용자 인터페이스(3801)(도 38a 또는 도 38e)는 카메라 동작들을 수행하도록 구성되지 않은 애플리케이션 기동 스크린이다. 카메라 동작들은 카메라 애플리케이션(예를 들어, 카메라 모듈(143))에 의해 수행된다.In some embodiments, each user interface is a user interface (3908) of a first application that is not configured to perform a first operation, the first operation being performed by a second application different than the first application. For example, user interface 3818 (Figure 38k) is a user interface to a note application (e.g., note module 153) that is not configured to perform camera actions. The camera operations are performed by a camera application (e.g., camera module 143). In some embodiments, each user interface is a user interface (3910) of an application launch screen that is not configured to perform a first operation, the first operation being performed by a respective application different than the application launch screen. For example, the user interface 3801 (Fig. 38A or 38E) is an application launch screen that is not configured to perform camera operations. The camera operations are performed by a camera application (e.g., camera module 143).
제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하는 동안에, 디바이스가 터치-감응 표면 상에서 제1 지문을 검출하는 것을 포함하는 제1 제스처(예를 들어, 탭 제스처, 탭-드래그 제스처, 터치-홀드 제스처, 또는 제1 동작을 수행하는 것과 연관된 다른 미리 정해진 제스처)를 검출한다(3912). 예를 들어, 도 38a는 터치 스크린(112) 상에서 지문(3802)을 포함하는 제스처를 검출하는 디바이스(100)를 도시한다. 도 38e는 터치 스크린(112) 상에서 지문(3810)을 포함하는 제스처를 검출하는 디바이스(100)를 도시한다. 도 38k는 터치 스크린(112) 상에서 지문(3820)을 포함하는 제스처를 검출하는 디바이스(100)를 도시한다.During display of a respective user interface that includes poses for performing a plurality of actions other than the first action, a first gesture (e.g., a tap) involving the device detecting the first fingerprint on the touch- Gesture, tap-drag gesture, touch-hold gesture, or other predetermined gesture associated with performing the first action). For example, FIG. 38A illustrates a
일부 실시예들에서, 제1 제스처는 배향-특정 제스처이고, 배향-특정 제스처를 검출하는 것은 터치-감응 표면 상에서 사전 결정된 배향의 제1 지문을 검출하는 것을 포함한다(3914). 예를 들어, 동작은 엄지가 터치-감응 표면의 주축에 대해 미리 정해진 각도(예를 들어, 터치-감응 표면의 주축과 비교하여 45°각도)에 있거나 또는 미리 정해진 각도의 범위(예를 들어, 터치-감응 표면의 주축과 비교하여 45°±5°, 10°, 또는 15°) 내에 있는 동안에 디바이스가 엄지로 수행된 제스처를 검출한 경우에만 수행된다. 반대로, 일부 실시예들에서, 제1 지문이 미리 정해진 각도에 있지 않거나 미리 정해진 각도의 범위 내에 있지 않다면, 제1 동작이 수행되지 않는다(예를 들어, 어떠한 동작도 수행되지 않거나, 제1 동작 대신에 제1 지문의 위치에 있는 현재 표시된 아이콘(또는 다른 사용자 인터페이스 요소)과 연관된 동작이 수행됨). 예를 들어, 도 38a 내지 도 38c에서, 지문(3802)을 이용한 제스처는 선택적으로 배향-특정적이며, 지문(3802)은 디바이스의 긴 에지에 평행한 축에 대해 미리 정해진 각도의 범위(예를 들어, 45°±10°) 내에 있는 것으로 검출된다. 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 한편, 지문(3812)(도 38j)이 미리 정해진 각도 범위 밖에 있으면, 지문(3812)의 검출에 응답하여 카메라 인터페이스 또는 카메라 미리보기가 표시되지 않는다.In some embodiments, the first gesture is an orientation-specific gesture, and detecting the orientation-specific gesture includes detecting a first fingerprint of a predetermined orientation on the touch-sensitive surface (3914). For example, the action may be such that the thumb is at a predetermined angle with respect to the main axis of the touch-sensitive surface (e.g., at a 45 angle relative to the main axis of the touch-sensitive surface) Is performed only when the device detects a gesture performed with the thumb while it is within 45 [deg.] 5 [deg.], 10 [deg.], Or 15 [deg.] As compared to the main axis of the touch-sensitive surface. Conversely, in some embodiments, if the first fingerprint is not at a predetermined angle or within a predetermined range of angles, the first action is not performed (e.g., no action is performed, or instead of the first action An action associated with the currently displayed icon (or other user interface element) at the location of the first fingerprint is performed). 38A-38C, the gesture using the
일부 실시예들에서, 제1 제스처는 위치-특정 제스처이며, 위치-특정 제스처를 검출하는 것은 터치-감응 표면 상에서 사전 결정된 위치에 있는 제1 지문을 검출하는 것을 포함한다(3916). 예를 들어, 동작은 엄지가 터치-감응 표면 상의 사전 결정된 위치(예를 들어, 터치-감응 표면의 상부 우측 코너)에 있는 동안에 디바이스가 엄지를 이용하여 수행된 제스처를 검출했을 때에만 수행된다. 반대로, 일부 실시예들에서, 제1 지문이 사전 결정된 위치에 있지 않다면 제1 동작이 수행되지 않는다(예를 들어 어떠한 동작도 수행되지 않거나, 제1 동작 대신에 제1 지문의 위치에 있는 현재 표시된 아이콘(또는 다른 사용자 인터페이스 요소)과 연관된 동작이 수행됨). 예를 들어, 도 38a 내지 도 38c에서, 지문(3802)을 이용한 제스처는 선택적으로 위치-특정적이며, 지문(3802)이 미리 정해진 위치(예를 들어, 현재 스크린 배향에 기초하여 터치 스크린(112)의 상부 우측 사분면) 내에 있는 것으로 검출된다. 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 다른 한편으로, 지문(3810)(도 38I)이 미리 정해진 위치 밖에 있으면, 지문(3810)의 검출에 응답하여 카메라 인터페이스 또는 카메라 미리보기가 표시되지 않는다.In some embodiments, the first gesture is a position-specific gesture, and detecting the position-specific gesture includes detecting a first fingerprint at a predetermined location on the touch-sensitive surface (3916). For example, the action is performed only when the device detects a gesture performed using the thumb while the thumb is at a predetermined position on the touch-sensitive surface (e.g., the upper right corner of the touch-sensitive surface). Conversely, in some embodiments, the first action is not performed if the first fingerprint is not in the predetermined position (e.g., no action is performed, or instead of the first action, An action associated with the icon (or other user interface element) is performed). 38A-38C, the gesture with the
일부 실시예들에서, 제1 제스처는 지속기간-특정 제스처이며, 지속기간-특정 제스처를 검출하는 것은 터치-감응 표면 상에서 적어도 사전 결정된 시간량 동안에 제1 지문을 검출하는 것을 포함한다(3918). 예를 들어, 동작은 미리 정해진 기간(예를 들어, 0.05, 0.1, 0.2, 0.5초, 또는 일부 다른 합리적인 시간의 기간)보다 긴 시간 동안 터치-감응 표면 상에 존재하는 오른손 엄지를 이용하여 수행된 제스처를 검출했을 때에만 수행된다. 반대로, 일부 실시예들에서, 제1 지문이 적어도 사전 결정된 시간량 동안 검출되지 않는다면, 제1 동작이 수행되지 않는다(예를 들어 어떠한 동작도 수행되지 않거나, 제1 동작 대신에 제1 지문의 위치에 있는 현재 표시된 아이콘(또는 다른 사용자 인터페이스 요소)과 연관된 동작이 수행됨). 예를 들어, 도 38a 내지 도 38c에서, 지문(3802)을 이용한 제스처는 선택적으로 지속기간-특정적이며, 지문(3802)이 미리 정해진 기간(예를 들어, 0.2초)보다 긴 시간 동안 터치 스크린(112) 상에서 검출된다. 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 한편, 지문(3802)이 미리 정해진 기간보다 짧은 시간 동안 터치 스크린(112) 상에서 검출되면, 그 응답으로 카메라 인터페이스 또는 카메라 미리보기가 표시되지 않는다.In some embodiments, the first gesture is a duration-specific gesture, and detecting the duration-specific gesture comprises detecting a first fingerprint on at least a predetermined amount of time on the touch-sensitive surface (3918). For example, the action may be performed using a right-hand thumb that is present on the touch-sensitive surface for a time longer than a predetermined period of time (e.g., 0.05, 0.1, 0.2, 0.5 seconds, or some other reasonable time period) It is performed only when a gesture is detected. Conversely, in some embodiments, if the first fingerprint is not detected for at least a predetermined amount of time, the first action is not performed (e.g., no action is performed, or instead of the first action, An action associated with the currently displayed icon (or other user interface element) is performed. For example, in FIGS. 38A-C, a gesture using the
일부 실시예들에서, 터치-감응 표면은 통합형 지문 센서를 갖는 터치스크린 디스플레이이다(3920). 도 39a 내지 도 38p에 도시된 디바이스들은 제스처가 검출되는 터치-감응 표면으로서 터치 스크린(예를 들어, 터치 스크린(112))을 구비한다. 터치 스크린은 선택적으로 통합형 지문 센서를 구비한다. 통합형 지문 센서는 선택적으로 터치 스크린(112)의 영역에 걸친다. 일부 실시예들에서, 터치 스크린(112)은 지문들의 능선들을 검출하기 위한 충분히 높은 고해상도 터치 감지 능력을 가지며, 터치 스크린(112)은 지문 센서로서 사용될 수 있다.In some embodiments, the touch-sensitive surface is a
일부 실시예들에서, 제1 지문은 이전에 등록된 지문이고(예를 들어, 제1 지문이 사용자 X의 오른손 엄지로서 등록되어 디바이스의 메모리 내에 저장되었음), 제1 제스처를 검출하는 것은 검출된 지문의 검출된 특징들과 제1 지문의 이전에 등록된 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다(3922)(예를 들어, 사용자에 의해 엄지 지문인 것으로 식별되었던 특정한 사용자의 이전에 등록된 지문에 제1 지문을 대조함으로써 지문이 엄지로서 식별됨). 예를 들어, 지문(3802)의 식별은 이전에 등록된 사용자들의 지문들에 대해 지문(3802)을 비교하는 것과 지문(3802)을 특정한 사용자의 특정한 지문(예를 들어, 오른손 엄지 지문)으로서 식별하는 것을 포함한다.In some embodiments, the first fingerprint is a previously registered fingerprint (e.g., the first fingerprint is registered as the right-hand thumb of user X and stored in the memory of the device), detecting the first gesture is detected And identifying (3922) the detected fingerprint as a first fingerprint based on a comparison between the detected features of the fingerprint and previously registered features of the first fingerprint (e.g., The fingerprint is identified as a thumb by collating the first fingerprint with a previously registered fingerprint of a particular user identified as the fingerprint). For example, identification of the
일부 실시예들에서, 제1 지문은 미리 정해진 유형의 지문(예를 들어, "엄지 지문")이고, 제1 제스처를 검출하는 것은 미리 정해진 유형의 지문과 연관된 특징들과 검출된 지문의 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다(3924)(예를 들어, 제1 지문은 특별히 지문을 특정한 사용자의 특정한 지문으로 식별하지 않고 제1 지문이 포괄적인 "엄지손가락"인 것으로 식별됨). 예를 들어, 지문(3802)의 식별은 사용자-특정적이지 않은 지문 특징들에 지문(3802)을 비교하고(예를 들어, 크기), 지문(3802)을 포괄적인 손가락으로서 식별하는 것을 포함한다(예를 들어, 포괄적인 오른손 엄지, 포괄적인 왼손 검지 등).In some embodiments, the first fingerprint is a predetermined type of fingerprint (e.g., a "thumbprint"), and detecting the first gesture includes detecting features associated with a predetermined type of fingerprint, (E.g., the first fingerprint does not identify the fingerprint as a particular fingerprint of a particular user, and the first fingerprint does not identify the fingerprint as a generic " Thumb "). For example, identification of the
제1 제스처를 검출하는 것에 응답하여(3926), 디바이스는 제1 동작을 수행한다(3928). 예를 들어, 도 38b에서, 디바이스가 지문(3802)을 이용한 제스처를 검출하는 것에 응답하여, 카메라 인터페이스(3804) 및 카메라 미리보기(3806)가 표시된다. 다른 예로서, 도 38n에서, 디바이스가 지문(3824)을 이용한 제스처를 검출하는 것에 응답하여 카메라 미리보기(3826)에 대응하는 사진이 캡처된다.In response to detecting the first gesture (3926), the device performs a first operation (3928). For example, in Fig. 38B, in response to the device detecting a gesture with the
일부 실시예들에서, 터치-감응 표면 상에서 제1 지문을 검출하는 것에 응답하여 제1 동작이 수행된다(3930)(예를 들어, 제1 동작은 터치-감응 표면 상의 제1 지문 검출에 응답하여 수행됨). 예를 들어, 도 38n의 사진 캡처 동작은 디바이스가 지문(3824)을 검출하는 것에 응답하여 디바이스에 의해 수행된다. 다른 예로서, 도 38a의 카메라 인터페이스(3804) 및 카메라 미리보기(3806)의 표시는 디바이스가 지문(3802)을 검출하는 것에 응답하여 디바이스에 의해 수행된다. 일부 실시예들에서, 제1 동작은 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 제1 지문을 검출하는 것에 응답하여 수행된다.In some embodiments, a first operation is performed 3930 in response to detecting the first fingerprint on the touch-sensitive surface (e.g., the first operation may be performed in response to detecting the first fingerprint on the touch- Performed. For example, the photo-capture operation of Figure 38n is performed by the device in response to the device detecting the
일부 실시예들에서, 제1 동작이 터치-감응 표면으로부터의 제1 지문의 들어올림을 검출하는 것에 응답하여 수행된다(3932)(예를 들어, 제1 동작은 터치-감응 표면 상에서 제1 지문을 검출한 후에 터치-감응 표면으로부터의 제1 지문의 들어올림을 검출하는 것에 응답하여 수행됨). 예를 들어, 도 38l에서 전화 애플리케이션 인터페이스(3822)의 표시는 디바이스가 지문(3820)의 들어올림을 검출하는 것에 응답하여 디바이스에 의해 수행된다. 일부 실시예들에서, 제1 동작은 터치-감응 표면 상에서 사전 결정된 시간량보다 긴 시간 동안 제1 지문을 검출한 후에 터치-감응 표면으로부터의 제1 지문의 들어올림을 검출하는 것에 응답하여 수행된다.In some embodiments, a first operation is performed (3932) in response to detecting a lift of a first fingerprint from a touch-sensitive surface (e.g., the first operation is a first fingerprint on the touch- In response to detecting the lifting of the first fingerprint from the touch-sensitive surface). For example, in FIG. 381, an indication of the
일부 실시예들에서, 제1 동작은 사진 촬영을 포함한다(3934). 예를 들어, 도 38m 및 도 38n의 디바이스가 지문(3824)을 검출하는 것에 응답하여 사진을 캡처한다. 일부 실시예들에서, 제1 동작은 비디오 녹화를 포함한다(3936). 예를 들어, 도 38e 및 도 38f의 디바이스는 지문(3810)을 검출하는 것에 응답하여 비디오를 녹화한다. 일부 실시예들에서, 제1 동작은 통신 인터페이스(예를 들어, 제1 지문과 연관된 디폴트 애플리케이션이거나 디바이스의 사용자에 의해 제1 지문과 연관되는 애플리케이션인 전화, 이메일 또는 다른 전자 메시징 애플리케이션을 위한 사용자 인터페이스)를 표시하는 것을 포함한다(3938). 예를 들어, 도 38k 내지 도 38l의 디바이스는 지문(3820)의 검출에 응답하여 전화 애플리케이션 인터페이스(3822)를 표시한다. 일부 실시예들에서, 제1 동작은 카메라 인터페이스를 표시하는 것을 포함한다(3940)(예를 들어, 사진 또는 비디오를 캡처하기 위한 카메라 애플리케이션을 위한 사용자 인터페이스). 예를 들어, 도 38a 및 도 38b의 디바이스는 지문(3802)의 검출에 응답하여 카메라 인터페이스(3804)를 표시한다.In some embodiments, the first action includes photographing (3934). For example, the device of Figures 38m and 38n captures a photo in response to detecting the
일부 실시예들에서, 카메라 인터페이스를 표시하는 동안에(3942), 디바이스는 미디어-캡처 기준이 충족되었는지 여부를 결정한다. 미디어-캡처 기준이 충족되었다는 결정에 따라, 디바이스는 카메라를 이용하여 미디어를 캡처하기 시작한다. 미디어-캡처 기준이 충족되지 않았다는 결정에 따라, 디바이스는 카메라를 이용하여 미디어를 캡처하는 것을 중지한다. 예를 들어, 도 38b 및 도 38c에서, 디바이스는 카메라 인터페이스(3806)를 표시한다. 카메라 인터페이스(3806)를 표시하는 동안에, 디바이스는 하나 이상의 미디어 캡처 기준들이 충족되는지 여부를 결정한다. 기준이 충족된다면, 디바이스는 카메라(예를 들어, 광학 센서(들)(164))를 이용하여 미디어(예를 들어, 하나 이상의 사진들, 비디오)를 캡처하기 시작한다. 기준이 충족되지 않는다면, 디바이스는 미디어를 캡처하지 않는다.In some embodiments, while displaying the camera interface (3942), the device determines whether the media-capture criteria are met. In response to the determination that the media-capture criteria have been met, the device begins capturing media using the camera. In response to the determination that the media-capture criteria are not met, the device stops capturing media using the camera. For example, in Figures 38b and 38c, the device displays
일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 강도 임계치 초과의 강도를 가질 때 충족되는 기준을 포함한다(3944)(예를 들어, 사용자는 카메라 미리보기가 표시되는 동안에 사진을 촬영하거나 비디오 녹화를 시작하기 위해서 지문으로 더 강하게 누름). 예를 들어, 도 38c의 지문(3802)은 각자의 강도 임계치(예를 들어, 터치스크린 디스플레이(112) 상에서 검출된 접촉에 대응하는 접촉-검출 강도 임계치 초과의 강도 임계치) 초과의 강도를 가지며, 따라서 기준을 충족시킨다. 그 응답으로, 디바이스는 사진을 캡처한다.In some embodiments, the media-capture criteria include criteria that are met when the contact corresponding to the first fingerprint has a strength that exceeds its strength threshold (3944) (e.g., Or press fingerprints more strongly to begin video recording). For example, the
일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 시간 임계치보다 긴 시간 동안 계속해서 검출될 때 충족되는 기준을 포함한다(3946)(예를 들어, 카메라 미리보기가 표시된 동안에 사용자는 사진을 찍거나 비디오 녹화를 시작하기 위해서 각각의 시간 임계치보다 긴 시간 동안 터치-감응 표면 상에서 접촉을 유지함). 예를 들어 도 38c에서, 미디어-캡처 기준은 선택적으로 강도 기준이기보다는 지문 검출 지속기간 기준이다. 지속기간 기준은 지문(3802)이 각자의 시간 임계치보다 긴 시간 동안 계속해서 검출될 때 충족된다.In some embodiments, the media-capture criteria include criteria that are met when the contact corresponding to the first fingerprint is continuously detected for a time longer than the respective time threshold (3946) (e.g., During the displayed time, the user maintains contact on the touch-sensitive surface for a time longer than the respective time threshold to take a picture or start video recording). For example, in Figure 38c, the media-capture criteria is optionally based on the fingerprint detection duration rather than the intensity reference. The duration criterion is satisfied when the
일부 실시예들에서, 적어도 미리 정해진 시간량 동안에 제1 지문을 검출하는 것에 응답해서, 디바이스는 카메라에 의해 캡처될 미디어의 미리보기를 포함하는 카메라 미리보기를 표시한다(3948). 예를 들어, 도 38b에서, 디바이스는 적어도 미리 정해진 시간량 동안(예를 들어, 0.05, 0.1, 0.2, 0.5초, 또는 일부 다른 합리적인 기간 동안) 지문(3802)을 검출하는 것에 응답하여 카메라 미리보기(3806)를 표시한다.In some embodiments, in response to detecting the first fingerprint for at least a predetermined amount of time, the device displays (3948) a camera preview that includes a preview of the media to be captured by the camera. For example, in FIG. 38B, the device is capable of displaying a camera preview (not shown) in response to detecting a
일부 실시예들에서, 카메라 미리보기를 표시하는 동안에, 디바이스는 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출한다(3950)(예를 들어, 디바이스는 제1 지문의 들어올림, 각자의 강도 임계치 초과의 지문의 강도 증가, 또는 사진의 캡처와 연관된 물리적 버튼의 활성화를 검출함). 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출하는 것에 응답하여(3952), 디바이스는 카메라 미리보기에 대응하는 정지 이미지를 캡처하고(3954), 카메라 미리보기를 표시하는 것을 중단하며(3956), 각자의 사용자 인터페이스를 재표시한다(3958). 예를 들어, 터치-감응 표면 상에서 지문을 검출하는 것에 응답하여 디바이스가 카메라 미리보기를 표시한다. 카메라 미리보기를 표시하는 동안에 지문의 들어올림을 검출하는 것에 응답하여, 디바이스는 사진을 촬영하고 카메라 미리보기의 표시를 중단한다. 따라서, 사용자가 각자의 태스크(예를 들어, 뉴스 읽기, 이메일 확인, 또는 일부 다른 태스크)를 위해 디바이스를 이용하는 동안에, 사용자는 최소한의 방해만으로 사진 캡처 모드로 신속하게 천이하고, 사진을 촬영하고, 각자의 태스크에 복귀할 수 있다.In some embodiments, during display of the camera preview, the device detects (3950) an input corresponding to a request to capture the media corresponding to the camera preview (e.g., , Increasing the intensity of the fingerprint beyond the respective intensity threshold, or activating a physical button associated with capturing a photo). In response to detecting 3952 the input corresponding to the request to capture the media corresponding to the camera preview, the device captures 3954 a still image corresponding to the camera preview, and stops displaying the camera preview (3956) and redisplays the respective user interface (3958). For example, the device displays a camera preview in response to detecting a fingerprint on the touch-sensitive surface. In response to detecting the lifting of the fingerprint while displaying the camera preview, the device takes a picture and stops displaying the camera preview. Thus, while the user is using the device for his or her task (e.g., reading a news, checking e-mail, or some other task), the user quickly transitions to the photo capture mode with minimal disruption, You can return to your own task.
예를 들어, 도 38b 내지 도 38d는 카메라 미리보기(3806)가 표시된 동안에 각자의 강도 임계치 위로 증가하는 지문(3802)의 강도를 도시한다. 강도 증가는 카메라 미리보기(3806)에 대응하는 미디어를 캡처하라는 디바이스로의 요청이다. 요청을 검출하는 것에 응답하여, 디바이스는 카메라 미리보기(3806)에 대응하는 사진을 캡처하고, (카메라 인터페이스(3804)의 표시를 중단하는 것과 함께) 카메라 미리보기(3806)의 표시를 중단하며, 사용자 인터페이스(3801)를 재표시한다.For example, Figures 38b-d show the intensity of a
일부 실시예들에서, 카메라 미리보기를 표시하는 동안에, 디바이스는 카메라 미리보기에 대응하는 미디어(예를 들어, 연속 사진-캡처 모드에서와 같은 사전 결정된 간격들로 촬영된 일련의 정지 사진들 또는 비디오)를 캡처한다(3960). 일부 실시예들에서, 디바이스는 터치-감응 표면 상에서 제1 지문을 검출하는 것에 응답하여 미디어를 캡처하기 시작한다. 일부 실시예들에서, 디바이스는 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 제1 지문을 검출하는 것 또는 각자의 강도 임계치 위로의 제1 지문의 강도 증가를 검출하는 것과 같이 후속하는 캡처-개시 입력을 검출하는 것에 응답하여 미디어를 캡처하기 시작한다. 예를 들어, 도 38f는 지문(3810)을 검출하는 것에 응답하여, 카메라 미리보기(3812)를 표시하는 동안에 카메라 미리보기(3812)에 대응하는 비디오를 녹화하는 디바이스를 도시한다.In some embodiments, during display of the camera preview, the device may display a series of still pictures or videos (e.g., a series of still pictures or pre- (3960). In some embodiments, the device begins capturing media in response to detecting the first fingerprint on the touch-sensitive surface. In some embodiments, the device is configured to detect a first fingerprint on the touch-sensitive surface for a period of time longer than a predetermined amount of time, or to detect a subsequent increase in the strength of the first fingerprint over a respective intensity threshold, And begins capturing media in response to detecting a start input. For example, Figure 38F illustrates a device that records video corresponding to the
일부 실시예들에서, 카메라 미리보기에 대응하는 미디어를 캡처하는 동안에(예를 들어, 일련의 사진들 중 하나 이상의 사진을 촬영한 후에 또는 비디오를 캡처하는 동안에), 디바이스는 미디어의 캡처를 중단하라는 요청에 대응하는 입력을 검출한다(3962)(예를 들어, 디바이스는 제1 지문의 들어올림을 검출하거나, 각자의 강도 임계치 위로의 지문의 강도 증가를 검출하거나, 미디어의 캡처를 중단하는 것과 연관된 물리적 버튼의 활성화를 검출하거나, 미디어 캡처 아이콘에 대응하는 터치-감응 표면 또는 그 일부분 상에서 탭 또는 누름 및 홀드 제스처를 검출함). 미디어를 캡처하는 것을 중단하라는 요청에 대응하는 입력을 검출하는 것에 응답하여(3964), 디바이스는 미디어의 캡처를 중단하고(3966), 카메라 미리보기의 표시를 중단하며(3968), 각자의 사용자 인터페이스를 재표시한다(3970). 일부 실시예들에서, 터치-감응 표면 상에서 지문을 검출하는 것에 응답하여, 디바이스는 카메라 미리보기를 표시한다. 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 지문을 계속 검출하는 것에 응답하여 디바이스가 비디오를 촬영하기 시작하고, 카메라 미리보기를 표시하는 동안에 지문의 들어올림을 검출하는 것에 응답하여 디바이스는 비디오 촬영을 정지하고 카메라 미리보기의 표시를 중단한다. 대안적으로, 터치-감응 표면 상에서 지문을 검출하는 것에 응답하여 디바이스는 카메라 미리보기를 표시하고, 사전 결정된 시간량보다 긴 시간 동안 터치-감응 표면 상에서 지문을 계속 검출하는 것에 응답하여 디바이스가 연속 사진-캡처 모드로 일련의 복수의 사진들을 촬영하며, 카메라 미리보기를 표시하는 동안에 지문의 들어올림을 검출하는 것에 응답하여 디바이스는 카메라 미리보기의 표시를 중단한다. 따라서, 사용자가 각자의 태스크(예를 들어, 뉴스 읽기, 이메일 확인, 또는 일부 다른 태스크)를 위해 디바이스를 이용하는 중에, 사용자는 최소한의 방해만으로 비디오 캡처 모드로 신속하게 천이하고, 비디오 또는 연속 사진을 촬영하며, 각각의 태스크에 복귀할 수 있다. 카메라 미리보기(3812)에 대응하는 비디오가 기록되는 동안에(도 38f), 예를 들어 디바이스는 지문(3810)의 들어올림을 검출한다. 그 응답으로, 디바이스는 비디오 녹화를 정지하고(도 38g), (카메라 인터페이스(3804)의 표시를 중단하는 것과 함께) 카메라 미리보기(3812)의 표시를 중단하며, 사용자 인터페이스(3801)를 재표시한다(도 38h).In some embodiments, while capturing the media corresponding to the camera preview (e.g., after capturing one or more photos of a series of photos or during video capture), the device may request to stop capturing the media (E.g., the device detects 3962 the input corresponding to the request), the device detects an increase in the strength of the fingerprint over its intensity threshold, Detecting activation of a physical button, or detecting a tap or a push-and-hold gesture on a touch-sensitive surface or a portion thereof corresponding to a media capture icon). (3964) in response to detecting an input corresponding to a request to stop capturing media, the device stops (3966) capturing the media, stops displaying the camera preview (3968) (3970). In some embodiments, in response to detecting a fingerprint on the touch-sensitive surface, the device displays a camera preview. Responsive to continuing to detect the fingerprint on the touch-sensitive surface for a time longer than a predetermined amount of time, the device begins capturing the video, and in response to detecting the fingerprint lift while displaying the camera preview, Stop shooting and stop displaying the camera preview. Alternatively, in response to detecting the fingerprint on the touch-sensitive surface, the device displays the camera preview and, in response to continuing to detect the fingerprint on the touch-sensitive surface for a time longer than a predetermined amount of time, - taking a series of pictures in a capture mode, and in response to detecting a fingerprint lift while displaying a camera preview, the device stops displaying the camera preview. Thus, while the user is using the device for his or her task (e.g., reading a news, checking e-mail, or some other task), the user quickly transitions to video capture mode with minimal interruption, And can return to each task. While the video corresponding to the
일부 실시예들에서, 디바이스는 제1 지문과는 상이한 제2 지문을 제1 동작과는 상이한 제2 동작과 연관시킨다(3972)(예를 들어, 지문 등록 프로세스 동안에 오른손 엄지 지문을 카메라 애플리케이션의 셔터 기능에 할당함). 디바이스는 디스플레이 상에 제2 동작을 수행하기 위한 어포던스를 포함하지 않는 각자의 사용자 인터페이스를 표시한다(3976)(예를 들어, 사용자 인터페이스는 애플리케이션 기동 스크린이거나 제2 동작을 수행하기 위한 사용자 인터페이스가 아닌 상이한 애플리케이션에 대한 사용자 인터페이스이고, 사용자 인터페이스는 제2 동작을 수행하기 위한 어포던스 또는 다른 사용자 인터페이스 요소를 포함하지 않음). 각자의 사용자 인터페이스를 표시하는 동안에, 디바이스는 터치-감응 표면 상에서 제2 지문을 검출하는 것을 포함하는 제2 제스처를 검출한다(3978). 터치-감응 표면 상에서 제2 지문을 포함하는 제스처를 검출하는 것에 응답하여, 디바이스는 제2 동작을 수행한다(3980). 예를 들어 도 38m 내지 도 38p에서, 오른손 엄지 지문은 사진 캡처와 연관되고, 왼손 엄지 지문은 비디오 녹화와 연관된다. 디바이스는 사진 캡처 또는 비디오 녹화를 위한 어포던스들을 포함하지 않는 사용자 인터페이스(3801)(도 38m)를 표시한다. 디바이스는 오른손 엄지 지문인 지문(3824)의 검출에 응답하여 사진을 캡처하고, 지문(3828)의 검출에 응답하여 비디오를 녹화한다.In some embodiments, the device associates (3972) a second fingerprint that is different from the first fingerprint to a second action that is different from the first action (e.g., during a fingerprint registration process, Function). The device displays (3976) its respective user interface that does not include an aberration to perform a second action on the display (e.g., the user interface is an application launch screen or is not a user interface for performing a second action The user interface is a user interface for a different application, and the user interface does not include an affordance or other user interface element for performing the second operation). While displaying the respective user interface, the device detects (3978) a second gesture that includes detecting a second fingerprint on the touch-sensitive surface. In response to detecting the gesture comprising the second fingerprint on the touch-sensitive surface, the device performs a second operation (3980). For example, in Figures 38m to 38p, the right hand thumb fingerprint is associated with a photo capture and the left hand thumb fingerprint is associated with video recording. The device displays a user interface 3801 (Fig. 38m) that does not include the poses for photo capturing or video recording. The device captures the picture in response to the detection of the
일부 실시예들에서, 제1 동작은 정지 사진들을 캡처하는 것과 연관된 동작(예를 들어, 정지 카메라 애플리케이션 사용자 인터페이스의 표시 또는 사진의 캡처)이고(3974), 제2 동작은 비디오 녹화와 연관된 동작이다(예를 들어, 비디오 카메라 애플리케이션 사용자 인터페이스의 표시 또는 비디오의 촬영). 예를 들어, 사용자가 왼손 엄지 지문을 디바이스의 터치-감응 표면(예를 들어, 터치스크린) 상의 어딘가에 놓는 경우에, 디바이스가 정지 카메라 애플리케이션을 기동할 수 있고, 사용자가 오른손 엄지 지문을 디바이스의 터치-감응 표면(예를 들어, 터치스크린) 상의 어딘가에 놓는 경우에는 디바이스가 비디오 카메라 애플리케이션을 기동할 수 있다. 일부 실시예들에서, 제1 동작 및 제2 동작은 동일한 애플리케이션을 상이한 모드들로 기동한다(예를 들어, 디바이스가 왼손 엄지 지문으로 수행된 제스처를 검출하면 정지 이미지 캡처 모드로, 디바이스가 오른손 엄지 지문으로 수행된 제스처를 검출하면 비디오 캡처 모드로 카메라 애플리케이션이 기동됨). 예를 들어 도 38m 내지 도 38p에서, 오른손 엄지 지문은 사진 캡처와 연관되고, 왼손 엄지 지문은 비디오 녹화와 연관된다.In some embodiments, the first action is (3974) an action associated with capturing still pictures (e.g., an indication of a still camera application user interface or capturing a picture), and the second action is an action associated with video recording (E.g., display of a video camera application user interface or capture of video). For example, if a user places a left thumb fingerprint somewhere on a touch-sensitive surface (e.g., a touch screen) of the device, the device may launch a still camera application, The device can launch the video camera application if it is placed somewhere on the sensitive surface (e.g., a touch screen). In some embodiments, the first operation and the second operation invoke the same application in different modes (e.g., when the device detects a gesture performed with the left hand thumbprint, in a still image capture mode, When the fingerprint gesture is detected, the camera application is activated in video capture mode). For example, in Figures 38m to 38p, the right hand thumb fingerprint is associated with a photo capture and the left hand thumb fingerprint is associated with video recording.
도 39a 내지 도 39e의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 39a 내지 도 39e와 관련하여 전술된 방법(3900)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(3900)과 관련하여 전술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 제스처들 및 사용자 인터페이스들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 39A-39E are only illustrative, and that the order in which they are described is not intended to be indicative of the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. Further, details of other processes described herein in connection with other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 40은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4000)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 40에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 40 illustrates a functional block diagram of an
도 40에 도시된 바와 같이, 전자 디바이스(4000)는 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(4002), 제스처를 수신하도록 구성된 터치-감응 표면 유닛(4004), 선택적으로 지문들을 검출하기 위한 지문 센서 유닛(4006), 및 디스플레이 유닛(4002)과 터치-감응 표면 유닛(4004)에 결합된 프로세싱 유닛(4008)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4008)은 연관 유닛(4010), 검출 유닛(4012), 수행 유닛(4014), 결정 유닛(4016), 시작 유닛(4018), 디스플레이 인에이블링 유닛(4022), 캡처 유닛(4024) 및 중단 유닛(4026)을 포함한다.As shown in Figure 40, the
프로세싱 유닛(4008)은 (예를 들어, 연관 유닛(4010)을 이용하여) 제1 지문을 제1 동작과 연관시키고; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스의 표시를 가능하게 하고; 제1 동작이 아닌 복수의 동작들을 수행하기 위한 어포던스들을 포함하는 각자의 사용자 인터페이스의 표시를 가능하게 하는 동안에, (예를 들어, 검출 유닛(4012)을 이용하여) 터치-감응 표면 유닛(4004) 상의 제1 지문을 검출하는 것을 포함하는 제1 제스처를 검출하고; 제1 제스처를 검출하는 것에 응답하여, (예를 들어, 수행 유닛(4014)을 이용하여) 제1 동작을 수행하도록 구성된다.The processing unit 4008 may associate the first fingerprint with the first action (e.g., using associating unit 4010); (E. G., Using the display enabling unit 4022) to perform a plurality of operations other than the first operation; Sensitive surface unit 4004 (e.g., using the detection unit 4012) while enabling display of a respective user interface that includes poses for performing a plurality of actions other than the first action, Detecting a first gesture comprising detecting a first fingerprint on the first finger; In response to detecting the first gesture, is configured to perform a first operation (e.g., using the execution unit 4014).
일부 실시예들에서, 제1 동작은 터치-감응 표면 유닛(4004) 상에서 제1 지문을 검출하는 것에 응답하여 수행된다.In some embodiments, the first operation is performed in response to detecting the first fingerprint on the touch-sensitive surface unit 4004.
일부 실시예들에서, 제1 동작은 터치-감응 표면 유닛(4004) 상에서 제1 지문의 들어올림을 검출하는 것에 응답하여 수행된다.In some embodiments, the first operation is performed in response to detecting the lifting of the first fingerprint on the touch-sensitive surface unit 4004.
일부 실시예들에서, 제1 제스처는 배향-특정 제스처이고, 배향-특정 제스처를 검출하는 것은 터치-감응 표면 유닛(4004) 상에서 사전 결정된 배향의 제1 지문을 검출하는 것을 포함한다.In some embodiments, the first gesture is an orientation-specific gesture, and detecting the orientation-specific gesture comprises detecting a first fingerprint of a predetermined orientation on the touch-sensitive surface unit 4004.
일부 실시예들에서, 제1 제스처는 위치-특정 제스처이고, 위치-특정 제스처를 검출하는 것은 터치-감응 표면 유닛(4004) 상에서 사전 결정된 위치에 있는 제1 지문을 검출하는 것을 포함한다.In some embodiments, the first gesture is a position-specific gesture, and detecting the position-specific gesture includes detecting a first fingerprint at a predetermined location on the touch-sensitive surface unit 4004.
일부 실시예들에서, 제1 제스처는 지속기간-특정 제스처이고, 지속기간-특정 제스처를 검출하는 것은 터치-감응 표면 유닛(4004) 상에서 적어도 사전 결정된 시간량 동안에 제1 지문을 검출하는 것을 포함한다.In some embodiments, the first gesture is a duration-specific gesture, and detecting the duration-specific gesture includes detecting a first fingerprint on the touch-sensitive surface unit 4004 for at least a predetermined amount of time .
일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하기 위한 표시된 제어부를 포함하지 않는다.In some embodiments, each user interface does not include a displayed control for performing the first operation.
일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하도록 구성되지 않은 제1 애플리케이션의 사용자 인터페이스이고, 제1 동작은 제1 애플리케이션과는 상이한 제2 애플리케이션에 의해 수행된다.In some embodiments, each user interface is a user interface of a first application that is not configured to perform a first operation, the first operation being performed by a second application different than the first application.
일부 실시예들에서, 각자의 사용자 인터페이스는 제1 동작을 수행하도록 구성되지 않은 애플리케이션 기동 스크린의 사용자 인터페이스이고, 제1 동작은 애플리케이션 기동 스크린과는 상이한 각자의 애플리케이션에 의해 수행된다.In some embodiments, each user interface is a user interface of an application launch screen that is not configured to perform the first operation, and the first operation is performed by a respective application different from the application launch screen.
일부 실시예들에서, 제1 동작은 사진 촬영을 포함한다.In some embodiments, the first operation includes photographing.
일부 실시예들에서, 제1 동작은 비디오 녹화를 포함한다.In some embodiments, the first operation includes video recording.
일부 실시예들에서, 제1 동작은 통신 인터페이스의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first operation includes enabling display of the communication interface.
일부 실시예들에서, 제1 동작은 카메라 인터페이스의 표시를 가능하게 하는 것을 포함한다.In some embodiments, the first operation includes enabling display of the camera interface.
일부 실시예들에서, 프로세싱 유닛(4008)은, 카메라 인터페이스의 표시를 가능하게 하는 동안에: (예를 들어, 결정 유닛(4016)을 이용하여) 미디어-캡처 기준이 충족되었는지 여부를 결정하고; 미디어-캡처 기준이 충족되었다는 결정에 따라, (예를 들어, 시작 유닛(4018) 또는 캡처 유닛(4024)을 이용하여) 카메라를 이용하여 미디어를 캡처하기 시작하고, 미디어-캡처 기준이 충족되지 않았다는 결정에 따라, (예를 들어, 캡처 유닛(4024)을 이용하여) 카메라를 이용하여 미디어를 캡처하는 것을 중지하도록 구성된다.In some embodiments, the processing unit 4008 determines whether the media-capture criteria have been met (e.g., using decision unit 4016) while enabling display of the camera interface; In accordance with the determination that the media-capture criteria have been met, it begins to capture the media using the camera (e.g., using the start unit 4018 or the capture unit 4024), and determines that the media- And is configured to, depending on the determination, stop capturing the media using the camera (e.g., using capture unit 4024).
일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 강도 임계 초과의 강도를 가질 때 충족되는 기준을 포함한다.In some embodiments, the media-capture criteria include a criterion that is met when the contact corresponding to the first fingerprint has a strength of its own strength threshold.
일부 실시예들에서, 미디어-캡처 기준은 제1 지문에 대응하는 접촉이 각자의 시간 임계치보다 긴 시간 동안 계속해서 검출되었을 때 충족되는 기준을 포함한다.In some embodiments, the media-capture criteria include criteria that are met when the contact corresponding to the first fingerprint is continuously detected for a time longer than the respective time threshold.
일부 실시예들에서, 프로세싱 유닛(4008)은 적어도 미리 정해진 시간량 동안 제1 지문을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 카메라에 의해 캡처될 미디어의 미리보기를 포함하는 카메라 미리보기의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 4008 may be configured to capture (e.g., using the display enable unit 4022), in response to detecting a first fingerprint for at least a predetermined amount of time, And to enable display of a camera preview that includes a preview of the media.
일부 실시예들에서, 프로세싱 유닛(4008)은 카메라 미리보기의 표시를 가능하게 하는 동안에, (예를 들어, 검출 유닛(4012)을 이용하여) 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출하고; 카메라 미리보기에 대응하는 미디어를 캡처하라는 요청에 대응하는 입력을 검출하는 것에 응답하여: (예를 들어, 캡처 유닛(4024)을 이용하여) 카메라 미리보기에 대응하는 정지 이미지를 캡처하고, (예를 들어, 중단 유닛(4026)을 이용하여) 카메라 미리보기의 표시를 가능하게 하는 것을 중단하며; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 각자의 사용자 인터페이스의 표시를 다시 가능하게 하도록 구성된다.In some embodiments, processing unit 4008 may respond to a request to capture media corresponding to a camera preview (e.g., using detection unit 4012) while enabling display of a camera preview Detecting an input to be made; In response to detecting an input corresponding to a request to capture a media corresponding to the camera preview: capture a still image corresponding to the camera preview (e.g., using capture unit 4024) (E.g., using the interrupt unit 4026) to enable the display of the camera preview; (E.g., using the display enabling unit 4022) to re-enable display of their respective user interfaces.
일부 실시예들에서, 프로세싱 유닛(4008)은 카메라 미리보기의 표시를 가능하게 하는 동안에 (예를 들어, 캡처 유닛(4024)을 이용하여) 카메라 미리보기에 대응하는 미디어를 캡처하고; 카메라 미리보기에 대응하는 미디어를 캡처하는 동안에 (예를 들어, 검출 유닛(4012)을 이용하여) 미디어의 캡처를 중단하라는 요청에 대응하는 입력을 검출하며, 미디어의 캡처를 중단하라는 요청에 대응하는 입력을 검출하는 것에 응답하여: (예를 들어, 중단 유닛(4026)을 이용하여) 미디어의 캡처를 중단하고, (예를 들어, 중단 유닛(4026)을 이용하여) 카메라 미리보기의 표시를 가능하게 하는 것을 중단하며; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 각자의 사용자 인터페이스의 표시를 다시 가능하게 하도록 구성된다.In some embodiments, processing unit 4008 captures media corresponding to a camera preview (e.g., using capture unit 4024) while enabling display of the camera preview; (E.g., using detection unit 4012) to capture the media corresponding to the camera preview, and to respond to a request to stop capture of the media In response to detecting the input, it is possible to stop capturing the media (e.g., using the suspend unit 4026) and display the camera preview (e.g., using the suspend unit 4026) To stop making it; (E.g., using the display enabling unit 4022) to re-enable display of their respective user interfaces.
일부 실시예들에서, 터치-감응 표면 유닛(4004)은 통합형 지문 센서를 갖는 터치스크린 디스플레이이다.In some embodiments, the touch-sensitive surface unit 4004 is a touch screen display with an integrated fingerprint sensor.
일부 실시예들에서, 제1 지문은 이전에 등록된 지문이고, 제1 제스처를 검출하는 것은 검출된 지문의 검출된 특징들과 이전에 등록된 제1 지문의 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다.In some embodiments, the first fingerprint is a previously registered fingerprint, and detecting the first gesture is detected based on a comparison between the detected features of the detected fingerprint and the features of the previously registered first fingerprint And identifying the fingerprint as a first fingerprint.
일부 실시예들에서, 제1 지문은 미리 정해진 유형의 지문이고, 제1 제스처를 검출하는 것은 검출된 지문의 특징들과 미리 정해진 유형의 지문과 연관된 특징들 사이의 비교에 기초하여 검출된 지문을 제1 지문으로서 식별하는 것을 포함한다.In some embodiments, the first fingerprint is a predetermined type of fingerprint, and detecting the first gesture may include detecting the detected fingerprint based on a comparison between features of the detected fingerprint and features associated with a predetermined type of fingerprint And identifying it as the first fingerprint.
일부 실시예들에서, 프로세싱 유닛(4008)은 (예를 들어, 연관 유닛(4010)을 이용하여) 제1 지문과는 상이한 제2 지문을 제1 동작과는 상이한 제2 동작과 연관시키고; (예를 들어, 디스플레이 인에이블링 유닛(4022)을 이용하여) 디스플레이 유닛(4002) 상에서 제2 동작을 수행하기 위한 어포던스를 포함하지 않는 각자의 사용자 인터페이스의 표시를 가능하게 하고; 각자의 사용자 인터페이스의 표시를 가능하게 하는 동안에 (예를 들어, 검출 유닛(4012)을 이용하여) 터치-감응 표면 유닛(4004) 상에서 제2 지문을 검출하는 것을 포함하는 제2 제스처를 검출하며, 터치-감응 표면 유닛(4004) 상에서 제2 지문을 포함하는 제스처를 검출하는 것에 응답하여 (예를 들어, 수행 유닛(4014)을 이용하여) 제2 동작을 수행하도록 구성된다.In some embodiments, the processing unit 4008 may associate a second fingerprint that is different from the first fingerprint (e.g., using associating unit 4010) with a second action that is different than the first action; (E.g., using display enabling unit 4022) to enable display of a respective user interface that does not include an affordance for performing a second operation on
일부 실시예들에서, 제1 동작은 정지 사진들의 캡처와 연관된 동작이고, 제2 동작은 비디오 캡처와 연관된 동작이다.In some embodiments, the first operation is an operation associated with capturing still pictures, and the second operation is an operation associated with capturing video.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 39a 내지 도 39e와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 40에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 검출 동작(3912) 및 수행 동작(3928)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with reference to Figures 39A-39E are optionally implemented by the components shown in Figures 1A and 1B or 40. [ For example, the
각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시하기Displaying the respective controls for the user interface based on the detection of the first fingerprint associated with moving the respective controls
다수의 전자 디바이스들은 사용자 인터페이스를 위한 각자의 제어부를 갖는 그래픽 사용자 인터페이스들을 구비한다. 각자의 제어부(예를 들어, 이미지 편집 애플리케이션을 위한 컬러 팔레트)는 예를 들어, 마우스(또는 다른 주변기기 디바이스)에 의해 제어되는 커서를 이용하는 사용자 툴바 또는 메뉴 윈도우 선택에 응답하여 사용자 인터페이스 상에 표시된다. 아래에 기술되는 디바이스는 각자의 제어부를 이동시키는 것과 연관된 제1 지문을 터치-감응 표면 상에서 검출하는 것에 응답하여 사용자 인터페이스를 위한 각자의 제어부를 디스플레이 상에 표시함으로써 기존의 방법들을 개선한다. 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 상의 제1 위치에 있는 포커스 셀렉터에 대응한다.Many electronic devices have graphical user interfaces with their respective controls for the user interface. Each control (e.g., a color palette for an image editing application) is displayed on the user interface in response to a user toolbar or menu window selection using, for example, a cursor controlled by a mouse (or other peripheral device) . The devices described below improve on existing methods by displaying their respective controls for the user interface on the display in response to detecting a first fingerprint on the touch-sensitive surface associated with moving their respective controls. The first fingerprint corresponds to a focus selector in a first position on the display that does not include its own control.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 41a 내지 도 41k 및 도 42a 내지 도 42c와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 41a 내지 도 41k 및 도 42a 내지 도 42c와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2))와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 41a 내지 도 41k에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 41a 내지 도 41k에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 41a 내지 도 41k는 터치 스크린(112)의 사용자 인터페이스(4101) 상에 비디오 게임을 표시하는 휴대용 다기능 디바이스(100)를 도시한다. 일부 실시예들에서, 터치 스크린(112)은 지문 센서를 포함하여, 디바이스(100)는 터치 스크린(112) 상의 임의의 위치에서 지문을 검출하게 될 수 있다. 도 41b 내지 도 41f 및 도 41h 내지 도 41k는 사용자 인터페이스(4101) 상에 표시된 일시정지 심볼(4104)에 의해 나타내어진 일시정지 모드에서 비디오 게임을 표시하는 디바이스(100)를 추가로 도시한다.41A-41K illustrate a
도 41a는 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)(예를 들어, 비디오 게임의 상호작용 객체의 방향 제어를 위한 방향 패드, d-패드 또는 조이패드)를 이전 위치(4102-a)에 표시하는 것을 도시한다. 이전 위치(4102-a)는 도 41e 내지 도 41h의 제1 위치(4102-b)와는 상이하다. 각자의 제어부(4102)는 각자의 제어부(4102)(예를 들어, 도 41d에서 검출된 지문(4112))를 이동시키는 것과 연관된 제1 지문(예를 들어, 사용자의 오른쪽 새끼손가락)을 검출하기에 앞서 이전 위치(4102-a)에 표시된다. 일부 실시예들에서, 제1 지문은 전형적으로 사용자 인터페이스 객체들의 조작과 연관되지 않은 손가락에 대응한다(예를 들어, 사용자의 약지 또는 새끼손가락). 도 41a는 각자의 제어부(4102) 위에서 지문(4106)(예를 들어, 사용자의 오른손 검지)을 검출하는 것을 추가로 도시한다. 지문(4106)을 검출하는 것에 응답하여, 디바이스(100)는 각자의 제어부(4102)와 연관된 동작들을 수행한다.Figure 41A illustrates a
도 41b는 이전 위치(4102-a)에 각자의 제어부(4102)를 표시하는 동안에 터치 스크린(112) 상의 제1 위치에서 각자의 제어부(4102)를 이동시키는 것과 연관된 제1 지문(4108)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것을 도시한다. 제1 위치는 이전 위치와는 상이하며 각자의 제어부(4102)를 포함하지 않는다.41B illustrates a
도 41c는 각자의 제어부(4102)가 터치 스크린(112) 상에 표시되지 않은 동안에 터치 스크린(112) 상에서 지문(4110)을 검출하는 것을 도시한다. 지문(4110)을 검출하는 것에 응답하여, 디바이스(100)는 지문(4110)이 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과는 상이한 지문(예를 들어, 사용자의 오른손 검지)이고 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 이동시키는 것과 연관되지 않는다는 결정에 따라 각자의 제어부(4102)를 표시하는 것을 중지한다.Fig. 41C shows that the
도 41d는 터치-감응 표면(112) 상의 제1 위치(4112-a)에서 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 이동시키는 것과 연관된 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것을 도시한다. 제1 지문(4112)은 각자의 제어부(4102)를 포함하지 않는 터치 스크린(112) 상의 제1 위치(4112-a)에 있는 포커스 셀렉터(예를 들어, 터치 스크린(112) 상에서 검출된 지문(4112)과 연관된 각자의 접촉의 중심)에 대응한다.Figure 41d illustrates a
도 41e는 도 41d의 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것에 응답하여 터치 스크린(112) 상의 제1 위치(4102-a)에 각자의 제어부(4102)를 표시하는 것을 도시한다.41E illustrates a first position 4102-a on the
도 41f는 터치 스크린(112) 상에서 제1 위치(4112-a)로부터 제2 위치(4112-b)로의 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)의 드래그 제스처를 검출하는 것을 도시한다. 제2 위치는 제1 위치와 상이하고, 각자의 제어부(4102)를 포함하지 않는다.Figure 41f illustrates the detection of a drag gesture of the first fingerprint 4112 (e.g., the user's right hand little finger) from the first position 4112-a to the second position 4112-b on the
도 41g는 도 41e의 위치(4112-a)로부터 제1 지문(4112)의 들어올림을 검출하는 것을 도시한다. 도 41g는 또한 도 41e의 위치(4112-a)로부터 제1 지문(4112)의 들어올림을 검출한 후에 터치 스크린(112) 상의 제1 위치(4102-b)에서의 각자의 제어부(4102)의 표시를 유지하는 것을 포함한다. 도 41g는 각자의 제어부(4102) 위에서 지문(4114)(예를 들어, 사용자의 오른손 검지)을 검출하는 것을 추가로 도시한다. 지문(4114)을 검출하는 것에 응답하여, 디바이스(100)는 각자의 제어부(4102)와 연관된 동작들을 수행한다.FIG. 41G shows detecting the lifting of the
도 41h는 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 동안에 제2 위치에서 각자의 지문(4116)(예를 들어, 사용자의 오른손 중지)을 검출하는 것을 도시한다. 제2 위치는 제1 위치(4102-b)와 상이하고, 각자의 제어부(4102)를 포함하지 않는다.Figure 41h illustrates how to detect each fingerprint 4116 (e.g., a user's right hand stop) at a second location while displaying their
도 41i는 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 동안에 제2 위치에서 각자의 지문(4118)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것을 도시한다. 제2 위치는 제1 위치(4102-b)와 상이하고, 각자의 제어부(4102)를 포함하지 않는다.Figure 41i shows the fingerprint 4118 (e.g., the user's right little finger) at a second location while displaying their
도 41j는 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 것을 중단하고 터치 스크린(112) 상의 제2 위치(4102-c)에서 각자의 제어부(4102)를 표시하는 것을 도시한다. 도 41f의 제2 위치(4112-b)에서 각자의 지문(4112)을 검출하거나 도 41i에서 지문(4118)을 검출하는 것에 응답하여 터치 스크린(112) 상의 제2 위치(4102-c)에 각자의 제어부(4102)가 표시되는데, 이때 각자의 지문(4112, 4118)은 제1 지문이다. 예를 들어, 각자의 지문(4118)이 도 41f에서 제2 위치(4112-b)로 드래그되었을 때, 각자의 제어부(4102)는 터치 스크린(112) 상의 제2 위치(4102-c)에 표시된다. 다른 예에서, 디바이스가 도 41i의 제2 위치에서 각자의 지문(4118)의 터치다운을 검출할 때, 각자의 제어부(4102)가 터치 스크린(112) 상의 제2 위치(4102-c)에 표시된다.Figure 41J shows the display of the
도 41k는 도 41h의 제2 위치에서 각자의 지문(4116)을 검출하는 것에 응답하여, 그리고 각자의 지문(4116)이 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과는 상이한 제2 지문(예를 들어, 사용자의 오른손 중지)이며 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 이동시키는 것과 연관되지 않는다는 결정에 따라, 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)의 표시를 유지하는 것을 도시한다.41K shows a
도 42a 내지 도 42c는 일부 실시예들에 따라서 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시하는 방법(4200)을 예시하는 흐름도이다. 방법(4200)은 디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(4200)의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.42A-42C are flow diagrams illustrating a
아래에 기술되는 바와 같이, 방법(4200)은 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시하기 위한 직관적인 방식을 제공한다. 이 방법은 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 더 빠르고 효율적으로 각자의 제어부를 이동시키는 것과 연관된 제1 지문의 검출에 기초하여 사용자 인터페이스를 위한 각자의 제어부를 표시할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
디스플레이, 터치-감응 표면 및 지문 센서를 갖는 전자 디바이스가 디스플레이 상에 사용자 인터페이스를 표시한다(4202). 도 41a 내지 도 41k는 예를 들어 터치 스크린(112) 상에 비디오 게임을 포함하는 사용자 인터페이스(4101)를 표시하는 휴대용 다기능 디바이스(100)를 도시한다.An electronic device having a display, a touch-sensitive surface, and a fingerprint sensor displays a user interface on the display (4202). 41A-41K illustrate a
일부 실시예들에서, 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관된 제1 지문을 검출하기 (바로) 이전에, 디바이스가 제1 위치와는 상이한 이전 위치에 각자의 제어부를 표시하고(4204), 제1 지문을 검출하는 것에 응답하여, 디바이스는 이전 위치에 각자의 제어부를 표시하는 것을 중단한다(예를 들어, 디바이스는 제1 지문을 검출하는 것에 응답하여 이전 위치로부터 새로운 위치로 각자의 제어부를 이동시킴). 도 41a는 예를 들어 각자의 인터페이스(4102)를 이동시키는 것과 연관된 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)을 검출하기 이전에, 이전 위치(4102-a)에 사용자 인터페이스(4101)를 위한 각자의 제어부(4102)를 표시하는 디바이스(100)를 나타낸다. 도 41a 및 도 41b의 각자의 제어부(4102)의 이전 위치(4102-a)는 도 41e 내지 도 41f의 각자의 제어부(4102)의 제1 위치(4102-b)와는 상이하다. 도 41b는 예를 들어 제1 위치에서 제1 지문(4108)을 검출하는 디바이스(100)를 도시한다. 도 41e는 예를 들어 도 41b의 제1 위치에서 제1 지문(4108)을 검출하는 것에 응답하여 이전 위치(4102-a)에 각자의 제어부(4102)를 표시하는 것을 중단하고 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In some embodiments, the device displays (4204) its control at a previous location that is different from the first location, prior to (immediately) detecting the first fingerprint associated with moving the respective control for the user interface, , The device stops displaying its control at the previous position (e.g., in response to detecting the first fingerprint), in response to detecting the first fingerprint, the device stops displaying its control at the previous position . Figure 41A illustrates the
일부 실시예들에서, 각자의 제어부가 이전 위치에 표시될 때, 디바이스는 각자의 제어부와 연관된 동작들을 수행함으로써 이전 위치에 대응하는 입력들에 응답한다(4206). 또한 일부 실시예들에서, 각자의 제어부가 이전 위치에 표시될 때, 디바이스는 각자의 제어부와 연관되지 않은 동작들(예를 들어, 스크롤, 선택 등)을 수행함으로써(또는, 선택적으로 입력들이 사용자 인터페이스 내의 다른 동작들에 대응하지 않는다면 어떠한 동작도 수행하지 않음으로써) 제1 위치에 대응하는 입력들에 응답한다. 도 41a는 예를 들어 각자의 제어부(4102)가 이전 위치(4102-a)에 표시된 동안에 각자의 제어부(4102) 위에서 지문(4106)(예를 들어, 사용자의 오른손 검지)을 검출하는 것에 응답하여 각자의 제어부(4102)와 연관된 동작들을 수행하는 디바이스(100)를 도시한다. 일례에서, 디바이스(100)는, 하향 방향에 대응하는 각자의 제어부(4102) 위에서의 지문(4106)의 위치에 따라, 사용자 인터페이스(4101) 상의 비디오 게임의 쌍방향 객체(예를 들어, 차량(4103))의 방향을 변경한다.In some embodiments, when the respective control portion is displayed at the previous position, the device responds to the inputs corresponding to the previous position by performing operations associated with the respective control portion (4206). Also, in some embodiments, when the respective control portion is displayed at the previous position, the device may perform operations (e.g., scrolling, selection, etc.) that are not associated with the respective control portion It responds to inputs corresponding to the first position (by not performing any operation if it does not correspond to other operations in the interface). Figure 41A illustrates an example in which the
디바이스는 터치-감응 표면 상에서 사용자 인터페이스를 위한 각자의 제어부를 이동시키는(예를 들어, 디스플레이 상에 재위치시키는) 것과 연관된 제1 (사전 결정된) 지문을 검출하는데(4208), 여기서 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 상의 제1 위치에 있는 포커스 셀렉터에 대응한다. 도 41d는 예를 들어 각자의 제어부(4102)를 포함하지 않는 터치 스크린(112) 상의 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 디바이스(100)를 도시한다. 도 41d에서, 예를 들어, 디바이스(100)는 터치 스크린(112) 상에 각자의 제어부(4102)를 표시하지 않는다. 일부 실시예들에서, 각자의 제어부는 사용자 인터페이스를 위한 숨겨진 제어부(예를 들어, 비디오 게임을 위한 방향 제어부들, 미디어 재생 애플리케이션을 위한 오디오 제어부들, 이미지 편집 애플리케이션을 위한 컬러 팔레트 또는 크로핑(cropping) 도구들, 웹 브라우저 애플리케이션을 위한 내비게이션 제어부들 등)에 대응한다.The device detects 4208 a first (predetermined) fingerprint associated with moving (e.g., repositioning) the respective control for the user interface on the touch-sensitive surface, Corresponds to the focus selector in the first position on the display that does not include its respective control. Figure 41d illustrates the detection of the first fingerprint 4112 (e.g., the user's right hand little finger) at a first location 4112-a on the
일부 실시예들에서, 각자의 제어부는 비디오 게임을 위한 방향 제어 패드(예를 들어, 소프트-조이스틱, 가상 d-패드/방향 패드/조이패드)이다(4210). 예를 들어, 디바이스가 방향 제어 패드와 상호작용하는 접촉들을 검출할 때(그리고 접촉들이 제1 지문을 포함하지 않을 때), 디바이스는 사용자 인터페이스를 내비게이션하거나 비디오 게임 내에서 차량 또는 캐릭터의 움직임 방향 또는 시야를 변경하는 것과 같이 방향 제어 패드와 연관된 대응하는 동작들을 수행한다. 도 41a 및 도 41b, 및 도 41e 내지 도 41k는 예를 들어 터치 스크린(112) 상에 표시된 비디오 게임을 위한 방향 제어부인 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In some embodiments, the respective control is a direction control pad (e.g., a soft-joystick, virtual d-pad / direction pad / joypad) 4210 for video games. For example, when a device detects contacts that interact with a directional control pad (and the contacts do not include a first fingerprint), the device may navigate the user interface or move the direction of movement of the vehicle or character And performs corresponding actions associated with the direction control pad, such as changing the field of view. 41A and 41B and 41E to 41K illustrate a
제1 지문을 검출하는 것에 응답하여, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부를 표시한다(4212). 도 41e는 예를 들어 도 41b의 제1 위치에서 제1 지문(4108)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하거나 도 41d의 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 것에 응답하여, 터치 스크린(112) 상의 제1 위치(4102-b)에서 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In response to detecting the first fingerprint, the device displays its control at a first location on the display (4212). 41E detects the first fingerprint 4108 (e.g., the user's right hand little finger) in the first position of FIG. 41B or the
일부 실시예들에서, 각자의 제어부가 제1 위치에 표시될 때, 디바이스는 각자의 제어부와 연관된 동작들을 수행함으로써 제1 위치에 대응하는 입력들에 응답한다(4214). 또한 일부 실시예들에서, 각자의 제어부가 제1 위치에 표시될 때, 디바이스는 각자의 제어부와 연관되지 않은 동작들(예를 들어, 스크롤, 선택 등)을 수행함으로써(또는, 선택적으로 입력들이 사용자 인터페이스 내의 다른 동작들에 대응하지 않는다면 어떠한 동작도 수행하지 않음으로써) 이전 위치에 대응하는 입력들에 응답한다. 도 41g는 예를 들어 각자의 제어부(4102)가 제1 위치(4102-b)에 표시된 동안에 각자의 제어부(4102) 위에서 지문(4114)(예를 들어, 사용자의 오른손 검지)을 검출하는 것에 응답하여 각자의 제어부(4102)와 연관된 동작들을 수행하는 디바이스(100)를 도시한다. 일례에서, 디바이스(100)는, 좌측 방향에 대응하는 각자의 제어부(4102) 위에서의 지문(4114)의 위치에 따라, 사용자 인터페이스(4101) 상의 비디오 게임의 쌍방향 객체(예를 들어, 차량(4103))의 방향을 변경한다.In some embodiments, when the respective control portion is displayed in the first position, the device responds to inputs corresponding to the first position by performing operations associated with the respective control portion (4214). Also, in some embodiments, when the respective control portion is displayed in the first position, the device may perform operations (e.g., scrolling, selection, etc.) that are not associated with the respective control portion And responds to inputs corresponding to the previous position (by not performing any action unless it corresponds to other actions in the user interface). FIG. 41G shows an example of a response to detecting the fingerprint 4114 (e.g., the user's right hand detection) on the
일부 실시예들에서, 각자의 제어부는 제1 지문을 검출하기 (바로) 전에 디스플레이 상에 표시되지 않는다(4216). 예를 들어, 도 41d는 제1 위치(4112-a)에서 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하기 이전에 터치 스크린(112) 상에 각자의 제어부(4102)를 표시하지 않는 디바이스(100)를 도시한다.In some embodiments, the respective control is not displayed on the display (at 4216) before the first fingerprint is detected (right). For example, FIG. 41D shows how each control portion 4102 (FIG. 41B) on the
일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고(4218), 각자의 제어부가 표시되는 제1 위치는 터치 스크린 디스플레이 상의 제1 지문의 위치에 대응한다. 도 41a 내지 도 41k는 예를 들어 터치-감응 디스플레이 표면 또는 터치 스크린 디스플레이인 터치 스크린(112)을 갖는 휴대용 다기능 디바이스(100)를 도시한다. 또한, 도 41e는 예를 들어 도 41b에서 터치 스크린(112) 상의 제1 위치에 있는 제1 지문(4108)(예를 들어, 사용자의 오른손 새끼손가락)의 위치 또는 도 41d에서 터치 스크린(112) 상의 제1 위치(4112-a)에 있는 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)의 위치에 대응하는 제1 위치(4102-b)에 있는 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다.In some embodiments, the display is a touchscreen display (4218), and the first location at which the respective controls are displayed corresponds to the location of the first fingerprint on the touchscreen display. 41A-41K illustrate a
일부 실시예들에서, 디바이스가 디바이스의 사용자 인터페이스를 재설정하는 것과 연관되지 않은 동작의 정상 모드에 있는 동안에, 디바이스는 제1 지문을 검출하는 것에 응답하여 디스플레이 상의 제1 위치에 각자의 제어부를 표시한다(4220)(예를 들어, 디바이스가 별개의 재설정 모드에 있지 않은 동안에 각자의 제어부가 처음으로 나타나거나 이동됨). 도 41g는 예를 들어 디바이스(100)가 디바이스(100)의 사용자 인터페이스(4101)를 재설정하는 것과 연관되지 않은 동작의 정상 모드(예를 들어, 비디오 게임 플레이 모드)에 있는 동안에 터치 스크린(112) 상의 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 디바이스(100)를 나타낸다.In some embodiments, while the device is in the normal mode of operation not associated with resetting the user interface of the device, the device displays its control in the first position on the display in response to detecting the first fingerprint (E.g., the respective control is first presented or moved while the device is not in a separate reset mode). Figure 41g illustrates the
일부 실시예들에서, 디바이스는 제1 지문의 들어올림을 검출하고(4222), 제1 지문의 들어올림을 검출한 후에, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부의 표시를 유지한다(4224). 예를 들어, 각자의 제어부는 사용자가 터치-감응 표면 상의 다른 위치에 제1 지문을 배치함으로써 각자의 제어부를 다시 이동시킬 때까지 영구적으로 또는 반영구적으로 제1 위치로 이동된다. 도 41g는 예를 들어 도 41e의 제1 위치(4112-a)로부터 제1 지문(4112)(예를 들어, 사용자의 오른손 새끼손가락)의 들어올림을 검출하는 디바이스(100)를 도시한다. 도 41g는 예를 들어 도 41e의 제1 위치(4112-a)로부터 제1 지문(4112)의 들어올림을 검출한 후에 디바이스(100)가 터치 스크린(112) 상의 제1 위치(4102-b)에 각자의 제어부(4102)의 표시를 유지하는 것을 추가로 도시한다.In some embodiments, after the device detects the lifting of the first fingerprint (4222) and detects the lifting of the first fingerprint, the device maintains an indication of its control at the first position on the display (4224 ). For example, the respective controls are moved permanently or semi-permanently to the first position until the user moves their controls again by placing the first fingerprint at another location on the touch-sensitive surface. Figure 41g illustrates a
일부 실시예들에서, 디스플레이 상의 제1 위치에 각자의 제어부를 표시하는 동안에 디바이스는 디스플레이 상의 제2 위치에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 상의 각자의 지문을 검출하는데(4226), 여기서 제2 위치는 제1 위치와는 상이하며 각자의 제어부를 포함하지 않는다. 일부 실시예들에서, 각자의 지문이 제1 지문일 때, 제2 위치에서 제1 지문을 검출하는 것은 제1 위치로부터 제2 위치로의 이동에 대응하는 제1 지문으로 수행되는 드래그 제스처를 검출하는 것을 포함한다. 일부 실시예들에서, 각자의 지문이 제1 지문일 때, 제2 위치에서 제1 지문을 검출하는 것은 디스플레이 상의 제2 위치에 대응하는 터치-감응 표면 상의 위치에서 제1 지문을 이용하여 수행되는 탭 제스처를 검출하는 것을 포함한다.In some embodiments, the device detects (4226) each fingerprint on a touch-sensitive surface corresponding to a focus selector at a second location on the display while displaying its control at a first location on the display, The two positions are different from the first position and do not include their respective control portions. In some embodiments, detecting the first fingerprint at the second position when the respective fingerprint is the first fingerprint detects a drag gesture performed with the first fingerprint corresponding to the movement from the first position to the second position . In some embodiments, when the respective fingerprint is a first fingerprint, detecting the first fingerprint at the second location is performed using the first fingerprint at a location on the touch-sensitive surface corresponding to the second location on the display Tap gesture.
도 41f는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 동안에 각자의 제어부(4102)를 포함하지 않는 제1 위치(4112-a)로부터 제2 위치(4112-b)로의 각자의 지문(4112)의 드래그 제스처를 검출하는 디바이스(100)를 나타낸다. 이 예에서, 각자의 지문(4112)은 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)이다. 도 41h는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 동안에, 각자의 제어부(4102)를 포함하지 않고 도 41d의 제1 지문(4112)의 제1 위치(4112-a)와는 상이한 제2 위치에서 각자의 지문(4116)(예를 들어, 사용자의 오른손 중지)을 검출하는 디바이스(100)를 도시한다. 이 예에서, 각자의 지문(4116)은 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과는 상이한 제2 지문(예를 들어, 사용자의 오른손 중지)이다. 도 41i는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 동안에, 각자의 제어부(4102)를 포함하지 않고 도 41d의 제1 지문(4112)의 제1 위치(4112-a)와는 상이한 제2 위치에서 각자의 지문(4118)(예를 들어, 사용자의 오른손 새끼손가락)을 검출하는 디바이스(100)를 도시한다. 이러한 예에서, 각자의 지문(4118)은 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)이다.41F shows a state in which the first position 4112-a, which does not include the
일부 실시예들에서, 각자의 지문을 검출하는 것에 응답하여(4228), 그리고 각자의 지문이 터치-감응 표면 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것(예를 들어, 디스플레이 상에서 재위치시키는 것)과 연관된 제1 (사전 결정된) 지문이라는 결정에 따라, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부를 표시하는 것을 중단하고(4230); 디스플레이 상의 제2 위치에 각자의 제어부를 표시한다(4232)(예를 들어, 제1 지문을 이용한 후속하는 입력을 검출하는 것에 응답하여, 각자의 제어부가 디스플레이 상의 상이한 위치로 이동됨). 도 41j는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)를 표시하는 것을 중단하고 제2 위치(4102-c)에 각자의 제어부(4102)를 표시하는 디바이스(100)를 도시한다. 이러한 예시에서, 도 41f의 제2 위치(4112-b)에서 각자의 지문(4112)을 검출하거나 도 41i의 제2 위치에서 각자의 지문(4118)을 검출하는 것에 응답하여, 그리고 각자의 지문(4112 또는 4118)이 각자의 제어부(4102)를 이동시키는 것과 연관된 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)이라는 결정에 따라, 디바이스(100)는 전술된 동작들을 수행한다.In some embodiments, in response to detecting each fingerprint (4228), each fingerprint may be moved (e.g., by repositioning on the display) a respective control for the user interface on the touch- , The device stops (4230) displaying its control at the first location on the display, depending on the determination that it is the first (predetermined) fingerprint associated with the first fingerprint (4232) (e.g., in response to detecting a subsequent input using the first fingerprint, their controls are moved to different locations on the display) at a second location on the display. 41J shows a
일부 실시예들에서, 각자의 지문을 검출하는 것에 응답하여, 그리고 각자의 지문이 제1 지문과는 상이한 제2 지문이며 터치-감응 표면 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것(예를 들어, 디스플레이 상에서 재위치시키는 것)과 연관되지 않는다는 결정에 따라, 디바이스는 디스플레이 상의 제1 위치에 각자의 제어부를 표시하는 것을 유지한다(4234). 디바이스는 또한 (예를 들어, 제2 지문으로 수행된 제스처가 디스플레이 상의 제2 위치에 표시된 아이콘 또는 다른 사용자 인터페이스 요소와 상호작용하는 제스처라면) 선택적으로 각자의 제어부에 대응하는 동작이 아닌 디스플레이 상의 제2 위치와 연관된 동작을 수행한다. 도 41k는 예를 들어 제1 위치(4102-b)에 각자의 제어부(4102)의 표시를 유지하는 디바이스(100)를 도시한다. 이러한 예에서, 도 41h의 제2 위치에서 각자의 지문(4116)을 검출하는 것에 응답하여, 그리고 각자의 지문(4116)이 제1 지문(예를 들어, 사용자의 오른손 새끼손가락)과 상이한 제2 지문(예를 들어, 사용자의 오른손 중지)이며 각자의 제어부(4102)를 이동시키는 것과 연관되지 않는다는 결정에 따라, 디바이스(100)가 전술된 동작을 수행한다.In some embodiments, in response to detecting each fingerprint, and each fingerprint is a second fingerprint that is different from the first fingerprint and moving its respective control for the user interface on the touch-sensitive surface (E.g., repositioning on the display), the device maintains 4234 displaying its control at the first position on the display. The device may also be configured to selectively display a gesture on the display (e.g., if the gesture performed with the second fingerprint is a gesture interacting with an icon or other user interface element displayed at a second location on the display) 2 < / RTI > location. 41k illustrates a
도 42a 내지 도 42c의 동작들이 기술된 특정 순서가 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서를 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 42a 내지 도 42c와 관련하여 전술된 방법(4200)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(4200)과 관련하여 전술된 지문들, 사용자 인터페이스 객체들, 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 사용자 인터페이스 객체들, 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the operations of Figures 42A-42C are only exemplary and that the order in which they are described is not intended to represent the only order in which operations may be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 43은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4300)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 43에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, FIG. 43 illustrates a functional block diagram of an
도 43에 도시된 바와 같이, 전자 디바이스(4300)는 그래픽 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(4302), 하나 이상의 접촉들을 수용하도록 구성된 터치-감응 표면 유닛(4304), 지문 센서 유닛(4306); 및 디스플레이 유닛(4302), 터치-감응 표면 유닛(4304) 및 지문 센서 유닛(4306)에 결합된 프로세싱 유닛(4308)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4308)은 디스플레이 인에이블링 유닛(4310), 검출 유닛(4312), 수행 유닛(4314) 및 결정 유닛(4316)을 포함한다.43, the
프로세싱 유닛(4308)은 (예를 들어, 검출 유닛(4312)을 이용하여) 터치-감응 표면 유닛(4304) 상에서 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관된 제1 지문을 검출하도록 구성되는데, 여기서 제1 지문은 각자의 제어부를 포함하지 않는 디스플레이 유닛(4302) 상의 제1 위치에 있는 포커스 셀렉터에 대응한다. 제1 지문을 검출하는 것에 응답하여, 프로세싱 유닛(4308)은 (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에서의 각자의 제어부의 표시를 가능하게 하도록 구성된다.The processing unit 4308 is configured to detect a first fingerprint associated with moving a respective control for a user interface on the touch-sensitive surface unit 4304 (e.g., using the detection unit 4312) Where the first fingerprint corresponds to the focus selector in the first position on the
일부 실시예들에서, 각자의 제어부는 제1 지문을 검출하기 전에 디스플레이 유닛(4302) 상에 표시되지 않는다.In some embodiments, the respective controls are not displayed on the
일부 실시예들에서, 프로세싱 유닛(4308)은 (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 제1 지문을 검출하기 전에 제1 위치와는 상이한 이전 위치에 각자의 제어부를 표시하는 것을 가능하게 하고; 제1 지문을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 이전 위치에서 각자의 제어부를 표시하는 것을 중단하도록 구성된다.In some embodiments, the processing unit 4308 may display its control at a previous position different from the first position before detecting the first fingerprint (e.g., using the display enable unit 4310) ; ≪ / RTI > In response to detecting the first fingerprint, it is configured to stop displaying its control at the previous position (e.g., using the display enabling unit 4310).
일부 실시예들에서, 프로세싱 유닛(4308)은 각자의 제어부가 이전 위치에 표시될 때, (예를 들어, 수행 유닛(4314)을 이용하여) 각자의 제어부와 연관된 동작들을 수행함으로써 이전 위치에 대응하는 입력들에 응답하고; 각자의 제어부가 제1 위치에 표시될 때, (예를 들어, 수행 유닛(4314)을 이용하여) 각자의 제어부와 연관된 동작들을 수행함으로써 제1 위치에 대응하는 입력들에 응답하도록 구성된다.In some embodiments, the processing unit 4308 may be configured to respond to previous positions by performing actions associated with their respective controls (e.g., using execution unit 4314) when their controls are displayed at the previous position Responsive to inputs; Are configured to respond to inputs corresponding to the first position by performing actions associated with their respective controls (e.g., using execution unit 4314) when their respective controls are displayed in the first position.
일부 실시예들에서, 디스플레이 유닛(4302)은 터치 스크린 디스플레이 유닛이고, 각자의 제어부가 표시되는 제1 위치는 터치 스크린 디스플레이 유닛 상의 제1 지문의 위치에 대응한다.In some embodiments, the
일부 실시예들에서, 프로세싱 유닛(4308)은 (예를 들어, 검출 유닛(4312)을 이용하여) 제1 지문의 들어올림을 검출하고; 제1 지문의 들어올림을 검출한 후에, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부를 표시하는 것을 유지하도록 추가로 구성된다.In some embodiments, the processing unit 4308 detects the lifting of the first fingerprint (e.g., using the detection unit 4312); After detecting the lifting of the first fingerprint, additional configuration (e.g., using the display enabling unit 4310) may be configured to maintain displaying the respective controls at a first position on the
일부 실시예들에서, 프로세싱 유닛(4308)은 (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부를 표시하는 동안에, (예를 들어, 검출 유닛(4312)을 이용하여) 디스플레이 유닛(4302) 상의 제2 위치 - 제2 위치는 제1 위치와는 상이하고 각자의 제어부를 포함하지 않음 - 에 있는 포커스 셀렉터에 대응하는 터치-감응 표면 유닛(4304) 상의 각자의 지문을 검출하고; 각자의 지문을 검출하는 것에 응답하여, 그리고 (예를 들어, 결정 유닛(4316)을 이용하여) 각자의 지문이 터치-감응 표면 유닛(4304) 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관된 제1 지문이라는 결정에 따라: (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부를 표시하는 것을 중단하고; (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제2 위치에 각자의 제어부의 표시를 가능하게 하도록 추가로 구성된다.In some embodiments, while processing unit 4308 displays its control at a first location on display unit 4302 (e.g., using display enabling unit 4310) Corresponding to the focus selector in the second position-second position on the display unit 4302 (using the detection unit 4312, which is different from the first position and does not include its own control) Detect each fingerprint on the surface unit 4304; In response to detecting their fingerprints and using their respective fingerprints (e.g., using decision unit 4316) to move their respective controls for the user interface on the touch-sensitive surface unit 4304 According to the determination of the first fingerprint: stop displaying the respective controls at the first position on the display unit 4302 (e.g., using the display enabling unit 4310); (E.g., using the display enabling unit 4310) to enable display of their respective controls in a second position on the
일부 실시예들에서, 프로세싱 유닛(4308)은 각자의 지문을 검출하는 것에 응답하여, 그리고 (예를 들어, 결정 유닛(4316)을 이용하여) 각자의 지문이 제1 지문과는 상이하고 터치-감응 표면 유닛(4304) 상의 사용자 인터페이스를 위한 각자의 제어부를 이동시키는 것과 연관되지 않은 제2 지문이라고 결정함에 따라, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부의 표시 유지하도록 추가로 구성된다.In some embodiments, the processing unit 4308 is responsive to detecting each fingerprint, and each fingerprint is different from the first fingerprint (e.g., using decision unit 4316) (Using, for example, the display enabling unit 4310), the display unit 4302 (e.g., using the display enable unit 4310) determines that the second fingerprint is not associated with moving the respective control for the user interface on the sensitive surface unit 4304 And the display of the respective control unit is held at the first position on the display unit.
일부 실시예들에서, 각자의 제어부는 비디오 게임을 위한 방향 제어 패드이다.In some embodiments, the respective controls are directional control pads for video games.
일부 실시예들에서, 프로세싱 유닛(4308)은 디바이스가 디바이스의 사용자 인터페이스를 재설정하는 것과 연관되지 않은 동작의 정상 모드에 있는 동안에 제1 지문을 검출하는 것에 응답하여, (예를 들어, 디스플레이 인에이블링 유닛(4310)을 이용하여) 디스플레이 유닛(4302) 상의 제1 위치에 각자의 제어부의 표시를 가능하게 하도록 구성된다.In some embodiments, the processing unit 4308 is responsive to detecting the first fingerprint while the device is in the normal mode of operation not associated with resetting the device ' s user interface (e.g., (Using the ring unit 4310) to enable display of the respective control unit at the first position on the
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 42a 내지 도 42c와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 43에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 표시 동작(4204, 4212), 검출 동작(4204, 4222) 및 수행 동작(4210, 4214)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with respect to Figures 42A-42C are optionally implemented by the components shown in Figures 1A and 1B or 43. For example,
전자 디바이스를 보조 디스플레이로서 설정하기Setting up an electronic device as a secondary display
다수의 전자 디바이스들은 콘텐트를 표시하고 사용자가 디바이스와 상호작용하게 하는 그래픽 사용자 인터페이스들을 구비한다. 때때로, 사용자는 디바이스 자체에 통합되거나 디바이스에 접속된 디스플레이를 넘어 그래픽 사용자 인터페이스를 확장하길 원할 수 있다. 예를 들어, 내장 또는 외부 디스플레이를 갖는 데스크톱 또는 랩톱 컴퓨터를 동작시키는 사용자는 선택적으로 케이블을 통해 제2 전자 디바이스 또는 외부 디스플레이를 CPU에 접속시킨 다음, 그래픽 사용자 인터페이스를 제1 디스플레이로부터 제2 디스플레이로 확장하도록 제2 디스플레이를 설정한다. 마찬가지로, 휴대용 다기능 전자 디바이스(예를 들어, 스마트폰, 태블릿 컴퓨터, 또는 디지털 플래너)를 동작시키는 사용자는 선택적으로 디바이스를 보다 쉽게 설정하기 위해서 (예를 들어, 유선 또는 무선 접속을 통해) 휴대용 디바이스를 베이스 컴퓨터에 접속시키고, 휴대용 디바이스 상에 파일들을 전송하거나 휴대용 디바이스로부터 파일들을 전송한다. 이러한 방식으로, 그래픽 사용자 인터페이스의 유효 크기가 증가되어, 디바이스와 상호작용하는 사용자의 능력을 향상시킨다. 그러나, 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하는 현재의 방법들은 제2 디바이스의 디스플레이를 설정하기 위해서 메뉴 및 서브-메뉴를 여는 것 및/또는 복수의 제스처들과 버튼 누름을 요구하는데, 이는 사용자에게 혼란스러울 수 있고/있거나 시간 소비적일 수 있다. 따라서, 사용자가 제2 전자 디바이스를 제1 전자 디바이스에 대한 보조 디스플레이로서 더 효율적이고 편리하게 설정할 수 있게 하는 방법들 및 사용자 인터페이스들을 제공해야 할 필요성이 존재한다.Many electronic devices have graphical user interfaces that display content and allow a user to interact with the device. Occasionally, a user may want to extend the graphical user interface beyond the display integrated into the device itself or connected to the device. For example, a user operating a desktop or laptop computer with an internal or external display may selectively connect a second electronic device or external display to the CPU via a cable, and then connect the graphical user interface from the first display to the second display The second display is set to extend. Likewise, a user operating a portable multifunctional electronic device (e.g., a smartphone, tablet computer, or digital planner) may optionally provide a portable device (e.g., via a wired or wireless connection) Connect to the base computer, transfer files on the portable device, or transfer files from the portable device. In this manner, the effective size of the graphical user interface is increased to enhance the user's ability to interact with the device. Current methods of setting a second electronic device as a secondary display of a first electronic device, however, require opening the menu and sub-menu to set the display of the second device and / or requiring multiple gestures and button presses Which may be confusing and / or time consuming to the user. Thus, there is a need to provide user interfaces and methods that enable a user to more efficiently and conveniently set up a secondary electronic device as a secondary display for the first electronic device.
아래에서 기술되는 실시예들은 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 개선된 방법들 및 사용자 인터페이스들을 제공한다. 보다 구체적으로, 아래에 기술된 일부 실시예들에 따르면, 사용자로 하여금 각각의 디바이스 상의 지문 센서를 단순히 터치함으로써 제2 디바이스를 제1 디바이스에 대한 보조 디스플레이로서 설정하게 하는 방법들 및 사용자 인터페이스들이 제공된다. 일부 실시예들에서, 방법들 및 사용자 인터페이스들은 제1 디바이스 상의 터치로부터의 각자의 지문 식별을 제2 디바이스 상의 터치로부터의 각자의 지문 식별에 상관시키며, 자동으로 제2 디바이스를 제1 디바이스에 대한 보조 디스플레이로서 설정한다. 대안적으로, 일부 실시예들에서, 제1 및 제2 지문들의 검출에 따라서, 사용자가 제2 디바이스를 제1 디바이스의 보조 디스플레이로서 설정하는 것을 확인하도록 프롬프트된다. 아래에 기술된 일부 실시예들에서, 제1 및/또는 제2 전자 디바이스 상의 터치의 배향이 보조 디스플레이 상에 표시되는 콘텐트의 배향을 결정한다. 일부 실시예들에서, 제1 및/또는 제2 디바이스 상의 지문 터치의 식별은 제1 디스플레이의 사용자 인터페이스가 보조 디스플레이 상으로 확장되는 방향을 결정한다. 예를 들어, 일부 실시예들에서, 사용자가 제1 디바이스를 자신의 왼손으로 터치하고 제2 디바이스를 자신의 오른손으로 터치하면, 사용자 인터페이스는 우측에 보조 디스플레이를 두도록 확장되며, 그 반대도 마찬가지이다. 유리하게는, 아래에 기술된 방법들 및 사용자 인터페이스들이 요구되는 단계들의 개수를 감소시킴으로써 제2 전자 디바이스를 제1 디바이스의 보조 디스플레이로서 설정하는 프로세스를 단순화한다.The embodiments described below provide improved methods and user interfaces for setting a second electronic device as a secondary display of a first electronic device. More specifically, according to some embodiments described below, there are provided methods and user interfaces for enabling a user to set a second device as a secondary display for a first device by simply touching a fingerprint sensor on each device do. In some embodiments, the methods and user interfaces correlate their fingerprint identification from a touch on the first device with their fingerprint identification from a touch on the second device, and automatically associate the second device with the fingerprint identification Set as auxiliary display. Alternatively, in some embodiments, upon detection of the first and second fingerprints, the user is prompted to confirm setting the second device as the secondary display of the first device. In some embodiments described below, the orientation of the touch on the first and / or second electronic device determines the orientation of the content displayed on the secondary display. In some embodiments, the identification of the fingerprint touch on the first and / or second device determines the direction in which the user interface of the first display expands onto the secondary display. For example, in some embodiments, if a user touches the first device with his left hand and touches the second device with his right hand, the user interface is extended to have the secondary display on the right, and vice versa . Advantageously, the methods described below and user interfaces simplify the process of setting the second electronic device as the secondary display of the first device by reducing the number of steps required.
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))를 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 44a 내지 도 44ee 및 도 45a 내지 도 45d와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 44a 내지 도 44ee 및 도 45a 내지 도 45d와 관련하여 기술되는 실시예들은 디스플레이(450), 별개의 터치-감응 표면(451) 및 별개의 지문 센서(359-2)와 관련하여 기술될 것이지만, 유사한 동작들이 선택적으로 도 44a 내지 도 44ee에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안 통합형 지문 센서(359-1) 상에 도 44a 내지 도 44ee에 묘사된 입력들을 검출하는 것에 응답하여 통합형 지문 센서(359-1)를 갖는 디바이스 상에서 수행된다. 또한, 유사한 동작들이 선택적으로 도 44a 내지 도 44ee에 도시된 사용자 인터페이스들을 터치 스크린(112) 상에 표시하는 동안 지문 센서(169)(예를 들어, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)) 상에 도 44a 내지 도 44ee에 묘사된 접촉들을 검출하는 것에 응답하여 터치 스크린(112)을 갖는 디바이스 상에서 수행되며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로 커서(4422) 대신에, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각각의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 44a 내지 도 44j는 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가짐으로써 지문 센서들로서 사용될 수 있는 터치 스크린(112)을 각각 구비하는 2개의 전자 디바이스들(예를 들어, 다기능 디바이스(100-1, 100-2)들)을 도시한다. 다기능 디바이스(100-1, 100-2)들은 또한 별개의 지문 센서(169)들을 갖는 것으로 도시되어 있다. 일부 실시예들에서, 다기능 디바이스(100-1, 100-2)들 각각은 지문 센서로서 사용될 수 있는 터치 스크린(112), 별개의 지문 센서(169), 또는 둘 모두를 독립적으로 구비한다.Figures 44A-44J illustrate two electronic devices each having a
도 44a 내지 도 44f는 제1 다기능 디바이스(100-1)가 제1 지문(4402)을 검출하고, 제1 지문(4402)을 검출하는 것과 동시에 또는 그 후에 제2 다기능 디바이스(100-2)가 제2 지문(4403)을 검출하는 다양한 실시예들을 도시한다(예를 들어, 지문들은 동시에, 실질적으로 동시에, 또는 매우 근접한 작은 시간차로 검출됨). 다기능 디바이스(100-2)는 제2 지문(4403)이 검출되었다는 정보를 가지고 다기능 디바이스(100-1)에 전달한다. 미리 정해진 기준이 지문(4402, 4403)들에 의해 충족될 때, 다기능 디바이스(100-1)는 다기능 디바이스(100-2)가 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정될 수 있게 하는 정보를 가지고 다기능 디바이스(100-2)에 응답한다. 미리 정해진 기준이 지문(4402, 4403)들의 검출에 의해 충족되지 않을 때, 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정되지 않는다.Figures 44A-44F illustrate how the first multifunction device 100-1 detects the
도 44a 내지 도 44d는 미리 정해진 기준이 두 디바이스들에 의해 검출된 지문(4402, 4403)들이 동일한 사용자에 대해 등록되어 있다는 기준을 포함하는 실시예를 도시한다. 도 44a에서, 다기능 디바이스(100-1)는 미국의 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시하는 반면, 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 도 44b에서, 다기능 디바이스(100-1)는 사용자의 왼손 검지(LI)에 대응하는 제1 지문(4402)을 검출하고, 다기능 디바이스(100-2)는 사용자의 오른손 검지(RI)에 대응하는 제2 지문(4403)을 검출한다. 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 제2 지문(4403)이 검출되었음을 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 지문의 식별)를 전달한다.Figures 44A-D illustrate an embodiment in which the predetermined criteria include criteria that
도 44c에서, 지문(4402, 4403)들이 동일한 사용자에 대응하는 경우에(예를 들어, 지문(4402)이 사용자 1의 왼손 검지의 지문이고 지문(4403)이 사용자 1의 오른손 검지의 지문일 때), 미리 정해진 기준이 충족되었기 때문에(예를 들어, 지문(4402, 4403)들 둘 모두가 동일한 사용자에 속한 것으로 식별됨), 다기능 디바이스(100-1)의 터치 스크린(112) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-2) 상으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).In Fig. 44C, when the
도 44d에서, 지문(4405, 4407)들이 상이한 사용자들에 대응하는 경우에(예를 들어, 지문(4405)은 사용자 1의 왼손 검지의 지문이고 지문(4407)은 사용자 2의 오른손 검지의 지문일 때), 미리 정해진 기준이 충족되지 않았기 때문에(예를 들어, 지문(4405, 4407)들이 상이한 사용자들에 속한 것으로 식별됨), 제1 사용자 인터페이스는 다기능 디바이스(100-2) 상으로 확장되지 않는다(예를 들어, 다기능 디바이스(100-1)의 터치 스크린(112-1)은 여전히 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시하고, 다기능 디바이스(100-2)의 터치 스크린(112-2)은 여전히 애플리케이션 기동 스크린(4406)을 표시함).In Fig. 44D, when the
도 44e 및 도 44f는 미리 정해진 기준이 제1 지문(예를 들어, 각각 도 44e 및 도 44f의 지문(4409) 및 지문(4413))이 검출된 후 사전 결정된 기간 내에 제2 지문(예를 들어, 각각 도 44e 및 도 44f의 지문(4411) 및 지문(4415))이 검출된다는 기준을 포함하는 실시예를 도시하며, 예를 들어 제2 접촉은 제1 접촉이 검출된 후 5초 이내에 발생해야 한다. 예를 들어, 도 44e에서, 다기능 디바이스(100-1)는 제1 시기(예를 들어, 시기 0으로 정의됨)에 제1 지문(4409)을 검출하고, 다기능 디바이스(100-2)는 제1 시기 이후이고 사전 결정된 시간(4408) 이전인 제2 시기(4410)에 제2 지문(4411)을 검출한다. 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 제2 지문(4411)이 검출되었음을 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 지문이 검출되었던 시기)를 전달한다. 미리 정해진 기준이 충족되었기 때문에(예를 들어, 제2 지문(4411)이 제1 지문(4409)이 검출된 후 5초 이내에 검출됨), 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스는 다기능 디바이스(100-2) 상으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨). 반대로, 도 44f에서, 다기능 디바이스(100-1)는 제1 시기(예를 들어, 시기 0으로 정의됨)에 제1 지문(4413)을 검출하고, 다기능 디바이스(100-2)는 제1 시기 이후이고 사전 결정된 시간(4408) 이후인 제2 시기(4459)에 제2 지문(4415)을 검출한다. 다기능 디바이스(100-2)는 다기능 디바이스(100-1)에 제2 지문(4415)이 검출되었음을 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 검출된 시간)를 전달한다. 미리 정해진 기준이 충족되지 않았기 때문에(예를 들어, 제2 지문(4415)이 제1 지문(4413)이 검출된 후 5초 이내에 검출되지 않음), 제1 사용자 인터페이스는 다기능 디바이스(100-2) 상으로 확장되지 않는다(예를 들어, 다기능 디바이스(100-1)의 터치 스크린(112-1)은 여전히 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시하고, 다기능 디바이스(100-2)의 터치 스크린(112-2)은 여전히 애플리케이션 개시 스크린(4406)을 표시함).Figures 44E and 44F show how a predetermined criterion is used to determine whether a second fingerprint (e.g., a fingerprint) is detected within a predetermined period of time after a first fingerprint (e.g.,
도 44g 및 도 44h는 제2 디바이스를 보조 디스플레이로서 설정하라는 요청에 대한 사용자 확인이 요구되는 다양한 실시예들을 도시한다. 도 44g 및 도 44h에서, 다기능 디바이스(100-1) 및 다기능 디바이스(100-2)는 각각 지문(4417, 4419)을 검출한다. 다기능 디바이스(100-2)는 제2 지문(4419)이 검출되었다는 정보를 가지고 다기능 디바이스(100-1)에 전달한다. 미리 정해진 기준이 달리 지문(4417, 4419)들의 검출에 의해 충족되는 경우에, (도 44g에 도시된 바와 같이) 제2 다기능 디바이스(100-2)의 사용자 및/또는 (도 44h에 도시된 바와 같이) 제1 다기능 디바이스(100-1)의 사용자가 (예를 들어, 도 44g의 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 프롬프트(4412)를 표시함으로써 또는 도 44h의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 프롬프트(4421)를 표시함으로써) 제2 다기능 디바이스(100-2)가 보조 디스플레이로서 설정되어야 한다는 것을 확인하도록 프롬프트된다(예를 들어, 사용자는 Abraham의 아이폰 및/또는 Mary Todd의 아이폰에 접속하라고 요청하였음을 검증하여야 함). 요청에 대한 확인을 수신한 때, 다기능 디바이스(100-1)의 터치스크린(112) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-2) 상으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 도 44c 및 도 44e에 도시된 바와 같이, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).Figures 44g and 44h illustrate various embodiments where a user confirmation is required for a request to set up a secondary device as a secondary display. 44G and 44H, the multifunction device 100-1 and the multifunction device 100-2 detect the
도 44i 및 도 44j는 지문(예를 들어, 지문(4427) 및/또는 지문(4429))의 배향이 보조 디스플레이 상의 사용자 디스플레이의 배향을 결정하는 실시예를 도시한다. 도 44i에서, 다기능 디바이스(100-1)는 디바이스의 장축과 실질적으로 평행한 제1 배향을 갖는 제1 지문(4427)을 검출한다. 다기능 디바이스(100-2)는 디바이스의 장축에 실질적으로 수직하는 제2 배향을 갖는 제2 지문(4429)을 검출한다. 다기능 디바이스(100-2)는 제2 접촉(4429)이 검출되었다는 정보를 가지고 다기능 디바이스(100-1)에 전달하며, 선택적으로 접촉에 대한 추가적인 정보(예를 들어, 접촉의 배향)를 전달한다. 미리 정해진 기준이 달리 지문(4427, 4429)의 검출에 의해 충족될 때, 다기능 디바이스(100-1) 상의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스는 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 디바이스의 장축에 대한 제2 지문(4429)의 배향에 대응하는 가로 배향으로 확장되어, 도 44j에 도시된 바와 같이 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 서부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).Figures 44i and 44j illustrate an embodiment in which the orientation of the fingerprint (
도 44k 내지 도 44p는 각각이 지문 센서(169)를 구비하는 3개의 전자 디바이스들(예를 들어, 다기능 디바이스(100-1, 100-2, 100-3)들)을 도시한다. 지문의 식별이 제1 전자 디바이스 상에 표시된 사용자 인터페이스가 제2 전자 디바이스로 확장되는 방향을 결정하는 다양한 실시예들이 도 44k 내지 도 44p에 도시되어 있다.Figures 44K-44P illustrate three electronic devices (e.g., multifunction devices 100-1, 100-2, and 100-3) each having a
일부 실시예들에서, 도 44k 내지 도 44n에 도시된 바와 같이, 제2 지문(예를 들어, 도 44k 내지 도 44l의 지문(4437) 또는 도 44m 내지 도 44n의 지문(4441))에 대응하는 손가락이 속한 손이 사용자 인터페이스가 보조 디스플레이에 의해 확장되는 방향을 결정한다. 예를 들어, 도 44k에서, 사용자의 왼손 검지(LI)에 대응하는 지문(4435)이 제1 다기능 디바이스(100-1) 상의 지문 센서(169-1)에 의해 검출된다. 사용자의 오른손 검지(RI)에 대응하는 지문(4437)은 제2 다기능 디바이스(100-2) 상의 지문 센서(169-2)에 의해 검출된다. 그 응답으로, 도 44l에 도시된 바와 같이 미리 정해진 기준이 달리 지문(4435, 4437)의 검출에 의해 충족될 때, 오른손 검지가 사용자의 우측에 위치되어 있기 때문에 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에서 우측으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 중부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 동부 해안이 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨). 유사하게, 도 44m에 도시된 바와 같이 사용자의 오른손 검지(RI)에 대응하는 지문(4439)이 제1 다기능 디바이스(100-1) 상의 지문 센서(169-1)에 의해 검출된다. 사용자의 왼손 검지(LI)에 대응하는 지문(4441)은 제2 다기능 디바이스(100-3) 상의 지문 센서(169-3)에 의해 검출된다. 그에 응답으로, 도 44n에 도시된 바와 같이, 미리 정해진 기준이 달리 지문(4439, 4441)에 의해 충족될 때, 왼손 검지가 사용자의 좌측에 위치되어 있기 때문에 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 다기능 디바이스(100-3)의 터치 스크린(112-3) 상에서 좌측으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린(112)들 상에 표시된다(예를 들어, 미국 중부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 서부 해안이 다기능 디바이스(100-3)의 터치 스크린(112-3) 상에 지도(4404-3)로서 표시됨).In some embodiments, as shown in Figures 44k-44n, a second fingerprint (e.g.,
일부 실시예들에서, 도 44o 및 도 44p에 도시된 바와 같이, 제1 지문(예를 들어, 지문(4443))에 대응하는 손가락에 대한, 제2 지문(예를 들어, 지문(4444))에 대응하는 손가락의, 사용자의 손들에서의 순서가 사용자 인터페이스가 보조 디스플레이에 의해 확장되는 방향을 결정한다. 예를 들어, 도 44o에서, 사용자의 오른손 약지(RR)에 대응하는 지문(4443)이 제1 다기능 디바이스(100-1) 상의 지문 센서(169-1)에 의해 검출된다. 사용자의 오른손 검지(RI)에 대응하는 지문(4444)은 제2 다기능 디바이스(100-2) 상의 지문 센서(169-2)에 의해 검출된다. 그 응답으로, 도 44p에 도시된 바와 같이 미리 정해진 기준이 달리 지문(4443, 4444)들의 검출에 의해 충족될 때, 사용자의 손에서 오른손 검지가 오른손 약지의 좌측에 위치되어 있기 때문에, 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스는 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에서 좌측으로 확장되어, 미국의 지도(4404)가 두 개의 다기능 디바이스들의 터치 스크린들(112) 상에 표시된다(예를 들어, 미국 중부가 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 지도(4404-1)로서 표시되고, 미국 서부가 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 지도(4404-2)로서 표시됨).In some embodiments, a second fingerprint (e.g., fingerprint 4444) for a finger corresponding to a first fingerprint (e.g., fingerprint 4443), as shown in Figures 44O and 44P, The order of the fingers corresponding to the user's hands determines the direction in which the user interface is extended by the secondary display. For example, in Fig. 44O, a
도 44q 내지 도 44ee는 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가짐으로써 지문 센서들로서 사용될 수 있는 터치 스크린(112)을 각각 구비하는 두 개의 전자 디바이스들(예를 들어, 다기능 디바이스(100-1, 100-2)들)을 도시한다. 다기능 디바이스(100-1, 100-2)들은 또한 별개의 지문 센서(169)들을 갖는 것으로 도시되어 있다. 일부 실시예들에서, 다기능 디바이스(100-1, 100-2)들 각각은 지문 센서로서 사용될 수 있는 터치 스크린(112), 별개의 지문 센서(169), 또는 둘 모두를 독립적으로 구비한다. 도 44q 내지 도 44t에서, 제2 다기능 디바이스(100-2)가 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된 동안에 제1 다기능 디바이스(100-1) 상에서 활성화된 애플리케이션과 연관된 한 세트의 사용자 인터페이스 요소들을 표시하는 다양한 실시예들이 도시되어 있다.Figures 44q-44ee illustrate two electronic devices each having a
도 44q에서, 다기능 디바이스(100-1)는 활성 사진 표시 애플리케이션에 대응하는, 미국의 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4445, 4446)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44r에 도시된 바와 같이, 보조 디스플레이로서 설정된 동안에, 다기능 디바이스(100-2)의 터치 스크린(112-2)은 제1 다기능 디바이스(100-1) 상에서 활성인 사진 표시 애플리케이션과 연관된 사용자 인터페이스 요소(4414, 4416, 4447)들(예를 들어, 툴바(4414, 4447) 및 드롭-다운 메뉴(4416))을 표시한다.In Figure 44q, the multifunction device 100-1 displays a first user interface that includes a map 4404-1 of the United States, corresponding to an active photo display application. Multifunction device 100-2 displays a second user interface that includes an
일부 실시예들에서, 도 44s 및 도 44t에 도시된 바와 같이, 보조 디스플레이 상에 표시된 사용자 인터페이스 요소들은 제1 디스플레이 상에서 활성인 애플리케이션 내의 동작들을 수행하기 위한 제어부들이다. 도 44s에서, 제1 다기능 디바이스(100-1)의 보조 디스플레이로서 설정된 제2 다기능 디바이스(100-2)는 다기능 디바이스(100-1) 상에서 활성인 사진 표시 애플리케이션 내의 사진 앨범들을 표시하기 위한 제어부(예를 들어, 사용자 인터페이스 메뉴 요소(4414-b))에 대응하는 터치 스크린(112-2) 상의 위치에서 접촉(4430)을 검출한다. 제2 다기능 디바이스(100-2) 상에서 접촉(4430)을 검출하는 것에 응답하여, 도 44t에 도시된 바와 같이, 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 사용자 인터페이스는 미국의 지도(4404-1)를 표시하는 것으로부터 사진 앨범들에 대한 기동 아이콘(4432)들(예를 들어, 사진 앨범들 "꽃"(4432-1), "우주 공간"(4432-2), "휴가"(4432-3), "겨울"(4432-4)을 나타내는 아이콘들)을 표시하는 것으로 변경된다(예를 들어, 사진 표시 애플리케이션 모드가 사진들이 촬영된 위치들을 표시하는 것으로부터 사용자에 의해 편집된 사진 앨범들을 표시하는 것으로 변경됨). 또한, 제2 다기능 디바이스(100-2) 상에서 접촉(4430)을 검출하는 것에 응답하여, 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된 다기능 디바이스(100-2)의 터치 스크린(112-2)이, 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 기동 아이콘(4432)에 의해 표시되는 사진 앨범들과 관련된 기능들을 수행하기 위한 제어부들에 대응하는 드롭-다운 메뉴(4448)를 표시한다.In some embodiments, the user interface elements displayed on the secondary display, as shown in Figures 44S and 44T, are controls for performing operations within the active application on the primary display. 44s, a second multifunctional device 100-2 set as a secondary display of the first multifunctional device 100-1 includes a controller (not shown) for displaying photo albums in the photo display application that is active on the multifunctional device 100-1 (E.g., user interface menu element 4414-b, for example) on touch screen 112-2. In response to detecting the
일부 실시예들에서, 도 44u 및 도 44v에 도시된 바와 같이, 보조 디스플레이 상에 표시된 사용자 인터페이스 요소들은 제1 디바이스의 표시로부터 확장된 작업공간의 일부분을 포함한다. 도 44u에서, 다기능 디바이스(100-1)는 활성 워드 프로세싱 애플리케이션의 작업공간(4417-1)을 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4449, 4450)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44v에 도시된 바와 같이, 제1 사용자 인터페이스는 다기능 디바이스(100-1, 100-2)들의 터치 스크린(112)들에 걸쳐 연속적인 작업공간(4417)을 생성하도록 보조 디스플레이에 의해 확장된다. 예를 들어, 제2 다기능 디바이스(100-2)가 보조 디스플레이로서 설정된 때, 도 44u에서 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 텍스트(4418)의 두 번째 라인 상에 표시되었던 단어 "ago"(예를 들어, 사용자 인터페이스 객체(4418-1))가 도 44v에서는 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 작업공간(4417-2)(예를 들어, 보조 디스플레이 상에 표시된 연속적인 작업공간(4417)의 일부분)의 첫 번째 라인 상으로 이동한다.In some embodiments, as shown in Figures 44u and 44v, the user interface elements displayed on the secondary display include a portion of the expanded workspace from the representation of the first device. In Figure 44u, the multifunction device 100-1 displays a first user interface that includes the workspace 4417-1 of the active word processing application. Multifunction device 100-2 displays a second user interface that includes an
일부 실시예들에서, 도 44w 내지 도 44y에 도시된 바와 같이, 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 사용자 인터페이스 요소들과의 상호작용에 대응하는 입력이 제2 디바이스에 의해 수신되고 활성 애플리케이션과 연관된 동작들이 제1 디바이스 상에서 수행된다. 예를 들어 도 44w에서, 다기능 디바이스(100-1)는 활성 사진 표시 애플리케이션에 대응하는, 미국의 지도(4404-1)를 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4451, 4452)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44x에 도시된 바와 같이, 보조 디스플레이로서 설정된 동안에, 제2 다기능 디바이스(100-2)의 터치 스크린(112-2)은 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 바와 같은 (예를 들어, 지도(4453-2)로서) 미국의 동일한 모습을 포함하는 사용자 인터페이스(4420)를 표시한다(예를 들어, 제2 다기능 디바이스(100-2)가 제1 다기능 디바이스(100-1) 상의 지도(4404-1)의 표시를 확장시키는 대신, 제1 다기능 디바이스(100-1) 상의 표시를 미러링(mirroring)함). 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 포커스 셀렉터(4422)에 대응하는 접촉(4424)이 도 44x의 위치(4424-a)로부터 도 44y의 위치(4424-b)로 이동(4426)하는 것을 포함하는 제스처를 검출한다. 그 응답으로, 제1 다기능 디바이스(100-1)는 도 44x의 위치(4422-a)로부터 도 44y의 위치(4422-b)로의 포커스 셀렉터(4422)의 이동을 표시한다.In some embodiments, while the second electronic device is set as a secondary display for the first electronic device, as shown in Figures 44w-44y, an input corresponding to interaction with the user interface elements is provided to the second device And operations associated with the active application are performed on the first device. For example, in Figure 44w, the multifunction device 100-1 displays a first user interface that includes a map 4404-1 of the United States, corresponding to an active photo display application. Multifunction device 100-2 displays a second user interface that includes an
일부 실시예들에서, 도 44z 내지 도 44bb에 도시된 바와 같이, 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스 상의 활성 애플리케이션과 연관된 보조 디스플레이 상의 사용자 인터페이스 요소들과의 상호작용에 대응하는 동작들을 규정하는 제2 디바이스로부터의 동작 데이터가 수신되어 제1 디바이스에 의해 수행된다. 예를 들어, 도 44z에서, 다기능 디바이스(100-1)는 활성 피아노 애플리케이션에 대응하는 키보드(4428-1)를 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4455, 4456)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44aa에 도시된 바와 같이, 보조 디스플레이로서 구성된 동안에, 제2 다기능 디바이스(100-2)의 터치 스크린(112-2)은 키보드(4428)의 확장(예를 들어, 키보드 상의 제2 옥타브 음조에 대응하는 키보드(4428-2))을 표시한다. 도 44bb에서, 제2 다기능 디바이스(100-2)는 피아노 키(4457)(예를 들어, "E" 키)의 표시에 대응하는 터치 스크린(112-2) 상의 위치에서 접촉(4430)을 검출한다. 제2 다기능 디바이스(100-2)는 "E" 키(4457)에 대응하는 음높이(pitch)에서 소리를 생성하는 것을 포함하는 동작이 수행되어야 함을 결정하기 위해 접촉(4430)을 프로세싱한다. 제1 다기능 디바이스(100-1)는 "E" 키(4457)에 대응하는 음높이에서 소리를 생성하는 것과 관련된 동작 데이터를 포함하는 제2 다기능 디바이스(100-2)로부터의 통신을 수신하고, 제2 다기능 디바이스(100-2)로부터 수신된 동작 데이터를 따라 소리(4429)를 생성한다. 일부 실시예들에서, 제1 다기능 디바이스(100-1)에 통신을 전송하는 대신, 제2 다기능 디바이스(100-2)가 "E" 키(4457)에 대응하는 음높이에서 소리를 생성한다.In some embodiments, while the second electronic device is set as the secondary display for the first electronic device, as shown in Figures 44z-44bb, the user interface elements on the secondary display associated with the active application on the first device The operation data from the second device defining the operations corresponding to the interaction of the first device is received and performed by the first device. For example, in Figure 44z, the multifunction device 100-1 displays a first user interface that includes a keyboard 4428-1 corresponding to an active piano application. Multifunction device 100-2 displays a second user interface that includes an
일부 실시예들에서, 도 44cc 내지 도 44ee에 도시된 바와 같이, 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 각자의 디바이스 각각의 터치-감응 표면(예를 들어, 터치 스크린(112)) 상에서 수행되는 대응하는 제스처들이 제1 디바이스 상의 활성 애플리케이션과 연관된 사용자 인터페이스 객체를 제1 디바이스의 디스플레이와 제2 디바이스의 디스플레이 사이에서 이동하게 할 수 있다. 예를 들어, 도 44cc에서, 다기능 디바이스(100-1)는 활성 사진 표시 애플리케이션에 대응하는 사진 앨범들에 대한 기동 아이콘(4432)들(예를 들어, "꽃"(4432-1), "우주 공간"(4432-2), "휴가"(4432-3) 및 "겨울"(4432-4)의 사진 앨범들을 나타내는 아이콘들)을 포함하는 제1 사용자 인터페이스를 표시한다. 다기능 디바이스(100-2)는 애플리케이션 기동 스크린(4406)을 포함하는 제2 사용자 인터페이스를 표시한다. 적격의 지문(4460, 4462)들(예를 들어, 미리 정해진 보조-디스플레이 기준을 충족시키는 지문들)을 검출함에 따라, 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정된다. 도 44dd에 도시된 바와 같이, 제1 사용자 인터페이스는 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상에 추가적인 사진 앨범들에 대한 기동 아이콘(4432)들(예를 들어, 사진 앨범들 "사막"(4432-5) 및 "결혼"(4432-6)을 나타내는 아이콘들)을 표시하도록 보조 디스플레이에 의해 확장된다. 제1 다기능 디바이스(100-1)는 기동 아이콘(4432-4)의 표시에 대응하는 터치 스크린(112-1) 상의 접촉(4436)이 도 44dd의 위치(4436-a)로부터 도 44ee의 위치(4436-b)로 이동(4438)하는 것을 포함하는 제1 제스처를 검출한다. 제2 다기능 디바이스(100-2)는 터치 스크린(112-2) 상의 접촉(4440)이 도 44ee의 위치(4440-a)로부터 위치(4440-b)로 이동(4442)하는 것을 포함하는 제2 제스처를 검출한다. 그 응답으로, 기동 아이콘(4432-4)의 표시가 도 44dd의 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 위치(4436-a)로부터 도 44ee의 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 위치(4440-b)로 이동된다.In some embodiments, while the second electronic device is set as a secondary display for the first electronic device, as shown in Figures 44cc through 44ee, the touch-sensitive surface of each of the respective devices (e.g., Corresponding gestures performed on the first device (e.g., 112) may cause a user interface object associated with the active application on the first device to move between the display of the first device and the display of the second device. For example, in Fig. 44cc, the multifunction device 100-1 may display activation icons 4432 (e.g., "flowers" 4432-1, " Space "4432-2," vacation "4432-3, and" winter "4432-4). Multifunction device 100-2 displays a second user interface that includes an
도 45a 내지 도 45d는 일부 실시예들에 따른, 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하는 방법(4500)을 예시하는 흐름도이다. 방법(4500)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300), 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(4500) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.Figures 45A-45D are flow diagrams illustrating a
아래에 기술되는 바와 같이, 방법(4500)은 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정하기 위한 직관적인 방식을 제공한다. 이 방법은 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 설정할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 인간-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 제2 전자 디바이스를 제1 전자 디바이스의 보조 디스플레이로서 더 빠르고 효율적으로 설정할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below, the
일부 실시예들에서, 지문 센서 및 디스플레이를 갖는 제1 전자 디바이스가 제1 시기에 제1 전자 디바이스 상의 지문 센서 상에서 각자의 사용자에 대해 등록된 제1 지문을 검출한다(4502). 예를 들어, 도 44b, 도 44d 내지 도 44k, 도 44m, 도 44o, 도 44q, 도 44u, 도 44w, 도 44z 및 도 44cc는, 다기능 디바이스(100-1)가 개별 지문 능선들에 의해 형성된 지문 특징들을 검출하기에 충분히 높은 공간 해상도를 가짐으로써 지문 센서들로서 사용될 수 있는 지문 센서(169-1) 또는 터치 스크린(112-1) 상에서 제1 지문(예를 들어, 지문(4402, 4405, 4409, 4413, 4417, 4423, 4427, 4431, 4435, 4439, 4443, 4445, 4449, 4451, 4455 또는 4460))을 검출하는 다양한 실시예들을 도시한다.In some embodiments, a first electronic device with a fingerprint sensor and a display detects a first fingerprint registered for each user on the fingerprint sensor on the first electronic device at a first time (4502). For example, Figs. 44B, 44D to 44K, 44M, 44O, 44Q, 44U, 44W, 44Z and 44CC illustrate how multifunction device 100-1 is formed by individual fingerprint ridges (E.g.,
제1 전자 디바이스는 제2 지문이 제2 시기에 제2 디바이스의 지문 센서 상에서 검출되었음을 나타내는 정보를 포함하는, 제1 전자 디바이스와 구분되는 제2 전자 디바이스로부터의 통신을 수신한다(4504). 예를 들어, 도 44b, 도 44d 내지 도 44k, 도 44m, 도 44o, 도 44q, 도 44u, 도 44w, 도 44z 및 도 44cc는, 다기능 디바이스(100-2) 또는 다기능 디바이스(100-3)가 지문 센서(169-2) 또는 지문 센서(169-3), 또는 터치 스크린(112-2) 또는 터치 스크린(112-3) 상에서 제2 지문(예를 들어, 지문(4403, 4407, 4411, 4415, 4419, 4425, 4429, 4433, 4437, 4441, 4444, 4446, 4450, 4452, 4456, 또는 4462))을 검출하고, 제2 지문이 검출되었다는 정보와 선택적으로는 접촉에 대한 추가적인 특징 정보(예를 들어, 지문의 식별, 지문이 검출된 시기, 또는 지문의 배향)를 다기능 디바이스(100-1)에 전달하는 다양한 실시예들을 도시한다.The first electronic device receives 4504 communication from a second electronic device distinct from the first electronic device, including information indicating that the second fingerprint is detected on the fingerprint sensor of the second device at a second time. For example, Figures 44b, 44d to 44k, 44m, 44o, 44q, 44u, 44w, 44z, and 44cc illustrate a multi- (E.g.,
제1 지문을 검출하고 제2 전자 디바이스로부터의 통신을 수신하는 것에 응답하여(4506): 제1 전자 디바이스는 미리 정해진 보조-디스플레이 기준 - 보조-디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 결정한다(4508). 예를 들어 도 44c에 도시된 바와 같이, 지문(4402, 4403)들이 동일한 사용자(예를 들어, 사용자 "1")에 대해 등록되어 있기 때문에, 보조-디스플레이 기준이 충족된다. 반대로, 도 44d에 도시된 바와 같이, 지문(4405, 4407)들은 상이한 사용자들에 대해 등록되어 있기 때문에(예를 들어, 각각 사용자 "1" 및 "2"), 보조-디스플레이 기준이 충족되지 않는다.(4506) in response to detecting the first fingerprint and receiving communication from the second electronic device: the first electronic device has a predetermined secondary display-secondary-display criterion in which the second fingerprint is registered for each user (4508) whether the metric has been met or not. For example, since
일부 실시예들에서, 보조-디스플레이 기준은 제1 시기가 제2 시기의 미리 정해진 시간 내에 있을 때 충족되는 기준을 포함한다(4510). 예를 들어, 제2 디바이스는 제1 지문 및 제2 지문이 동시에 또는 실질적으로 동시에 (예를 들어, 서로 0.5, 1.0, 2, 또는 5초 이내에) 제1 디바이스 및 제2 디바이스 상에서 검출될 때 보조 디스플레이로서 사용된다. 예를 들어 도 44e에 도시된 바와 같이, 제2 지문(4411)이 사전 결정된 시간(4408)(예를 들어, 제1 지문(4409)의 검출 후 5초) 내에 있는 시기(4410)(예를 들어, 제1 지문(4409)의 검출 후 3.5초 후)에 검출되었기 때문에, 보조-디스플레이 기준이 충족된다. 반대로, 도 44f에 도시된 바와 같이, 제2 지문(4415)이 사전 결정된 시간(4408)(예를 들어, 제1 지문(4413)의 검출 후 5초) 내에 있지 않은 시기(4459)(예를 들어, 제1 지문(4413)의 검출 후 6.5초 후)에 발생되었기 때문에, 보조-디스플레이 기준이 충족되지 않는다.In some embodiments, the secondary-display criteria includes criteria that are met when the first time is within a predetermined time of the second time (4510). For example, the second device may be operable when the first fingerprint and the second fingerprint are detected on the first device and the second device simultaneously or substantially simultaneously (e.g., within 0.5, 1.0, 2, or 5 seconds of each other) It is used as a display. 44E in which the
일부 실시예들에서, 보조-디스플레이 기준은 제2 디바이스를 보조 디스플레이로서 설정할 것이 요청되었다는 확인을 제1 디바이스가 수신하였을 때 충족되는 기준을 포함한다(4512). 일부 실시예들에서, 도 44g 및 도 44h에 도시된 바와 같이, 제2 디바이스(예를 들어, 다기능 디바이스(100-2))를 보조 디스플레이로서 설정하는 것은 하나의 디바이스 상에서 또는 둘 모두의 디바이스들에서 ""연결 승인", "승인", "연결", 또는 유사한 긍정적 선택(예를 들어, 각각 도 44g 및 도 44h의 사용자 인터페이스 객체(4412, 4421)들 내에 표시된 "연결" 프롬프트)을 선택하는 것 및/또는 디바이스들 중 하나 또는 둘 모두(예를 들어, 다기능 디바이스(100-1) 및/또는 다기능 디바이스(100-2)) 상에서 미리 정해진 핀(pin) 또는 패스워드를 입력하는 것을 포함한다. 반대로, 일부 실시예들에서, 일련의 도 44a 내지 도 44c에 도시된 바와 같이, 제2 디바이스(예를 들어, 다기능 디바이스(100-2))는 제1 디바이스에 대한 보조 디바이스로서 제2 디바이스를 설정하기에 전에 수행되는 임의의 추가적인 인증을 요청하지 않고서 제1 디바이스에 대한 보조 디스플레이로서 설정된다(예를 들어, 두 개의 지문(4402, 4403)들이 검출될 때 이러한 설정이 자동으로 발생함).In some embodiments, the secondary-display criteria includes criteria that are met when the first device receives confirmation that the second device has been requested to be set as a secondary display (4512). In some embodiments, setting the secondary device (e.g., multifunction device 100-2) as a secondary display, as shown in Figures 44G and 44H, may be performed on one device or both devices Quot; connection "prompt shown within the
보조-디스플레이 기준이 충족된다는 결정에 따라, 제1 전자 디바이스는 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송한다(4514). 예를 들어, 도 44c, 도 44e, 도 44j, 도 44f, 도 44n, 도 44p, 도 44r, 도 44v, 도 44x, 도 44aa 및 도 44dd는, 보조-디스플레이 기준을 충족시킨다는 것에 응답하여, 제2 다기능 디바이스(100-2 또는 100-3)가 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제1 다기능 디바이스(100-1)가 전송하는 다양한 실시예들을 도시한다.In response to the determination that the secondary-display criteria is met, the first electronic device sends (4514) a response to the second electronic device that allows the second electronic device to be set as a secondary display for the first electronic device. For example, Figures 44c, 44e, 44j, 44f, 44n, 44p, 44r, 44v, 44x, 44aa and 44dd show, in response to meeting the sub- Various embodiments in which the first multifunction device 100-1 transmits a response that allows the first multifunction device 100-2 or 100-3 to be set as a secondary display for the first multifunction device 100-1 Respectively.
일부 실시예들에서, 제1 디바이스의 디스플레이 상에 표시되는 사용자 인터페이스의 배향은 제1 디바이스의 디스플레이의 미리 정해진 축에 대한 제1 지문의 배향에 따라 결정되고(4516), 제2 디바이스의 디스플레이 상에 표시되는 사용자 인터페이스의 배향은 제2 디바이스의 디스플레이의 미리 정해진 축에 대한 제2 지문의 배향에 따라 결정된다. 예를 들어, 제1 디바이스 상에 표시되는 사용자 인터페이스 및 제2 디바이스 상에 표시되는 사용자 인터페이스는 이들이 대응하는 디바이스들 상에서 검출된 지문과 각각 정렬되도록 배향된다(예를 들어, 사용자 인터페이스들은 디스플레이들 상의 사용자 인터페이스의 "위"가 지문 센서들 상의 대응하는 지문의 "위"에 대응하도록 배향됨). 따라서 일부 실시예들에서, 도 44i 및 도 44j에 도시된 바와 같이, 지문의 수직 축이 각자의 디바이스의 미리 정해진 수직 축에 실질적으로 평행하면(예를 들어, 제1 접촉(4427)의 수직 축이 도 44i의 제1 다기능 디바이스(100-1)의 장축에 실질적으로 평행하면), 미리 정해진 수직 축과 관련하여 사용자 인터페이스의 저부가 각자의 디바이스의 저부 에지를 따르도록 정렬되고(예를 들어, 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 미국의 지도(4404-1)를 표시하는 사용자 인터페이스가 도 44j에서 세로 배향으로 표시됨), 반면에, 지문의 수직 축이 각자의 디바이스의 미리 정해진 수직 축에 실질적으로 수직하면(예를 들어, 제2 접촉(4433)의 수직 축이 도 44i의 제2 다기능 디바이스(100-2)의 장축에 실질적으로 수직하면), 미리 정해진 수직 축과 관련하여 사용자 인터페이스의 저부가 각자의 디바이스의 측부 에지를 따르도록 정렬된다(예를 들어, 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 미국의 지도(4404-2)를 표시하는 사용자 인터페이스가 도 44j에서 가로 배향으로 표시됨).In some embodiments, the orientation of the user interface displayed on the display of the first device is determined (4516) according to the orientation of the first fingerprint with respect to a predetermined axis of the display of the first device, Is determined according to the orientation of the second fingerprint with respect to the predetermined axis of the display of the second device. For example, the user interface displayed on the first device and the user interface displayed on the second device are oriented such that they are respectively aligned with the fingerprints detected on the corresponding devices (e.g., the user interfaces are displayed on the displays Quot; above "of the user interface is oriented to correspond to" above "the corresponding fingerprint on the fingerprint sensors). Thus, in some embodiments, as shown in Figures 44i and 44j, when the vertical axis of the fingerprint is substantially parallel to a predetermined vertical axis of the respective device (e.g., the vertical axis of the first contact 4427) Is substantially parallel to the long axis of the first multifunction device 100-1 of Fig. 44i), the bottom of the user interface is aligned to follow the bottom edge of the respective device with respect to the predetermined vertical axis (e.g., The user interface representing the US map 4404-1 on the touch screen 112-1 of the one multifunction device 100-1 is shown in portrait orientation in Figure 44j), while the vertical axis of the fingerprint (For example, if the vertical axis of the
일부 실시예들에서, 제1 전자 디바이스는 제1 지문의 식별 및 제2 지문의 식별 중 적어도 하나에 따라 보조 디스플레이를 갖는 제1 디바이스의 디스플레이 상에 표시되는 사용자 인터페이스를 확장하는 방향을 결정한다(4518). 예를 들어, 사용자의 오른손의 지문이 제1 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제1 다기능 디바이스(100-1) 상의 지문(4439)이 도 44m에서 사용자의 오른손 검지에 대응함) 및/또는 사용자의 왼손의 지문이 제2 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제2 다기능 디바이스(100-3) 상의 지문(4441)이 도 44m에서 사용자의 왼손 검지에 대응함), 제1 디바이스의 사용자 인터페이스는 제2 디바이스의 디스플레이 상에서 좌측으로 확장된다(예를 들어, 도 44m의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 도 44n의 다기능 디바이스(100-3) 상으로 확장되어, 미국의 서부 해안이 제2 다기능 디바이스(100-3)의 터치 스크린(112-3) 상의 지도(4404-3)로 표시되고, 미국 중부가 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 지도(4404-1)로 표시됨). 유사하게, 사용자의 왼손의 지문이 제1 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제1 다기능 디바이스(100-1) 상의 지문(4435)이 도 44k에서 사용자의 왼손 검지에 대응함) 및/또는 사용자의 오른손의 지문이 제2 디바이스의 지문 센서 상에서 검출될 때(예를 들어, 제2 다기능 디바이스(100-2) 상의 지문(4437)이 도 44k에서 사용자의 오른손 검지에 대응함), 제1 디바이스의 사용자 인터페이스는 제2 디바이스의 디스플레이 상에서 우측으로 확장된다(예를 들어, 도 44k의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 도 44l의 다기능 디바이스(100-2) 상으로 확장되어, 미국의 동부 해안이 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 지도(4404-2)로 표시되고, 미국 중부가 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 지도(4404-1)로 표시됨). 따라서, 일부 실시예들에서, 사용자의 왼손으로부터의 지문을 검출하는 디바이스는 사용자의 오른손으로부터의 지문을 검출하는 디바이스의 좌측에 있는 것으로 추정되며, 따라서 사용자 인터페이스의 좌측에 있어야 하는 사용자 인터페이스 객체들은 사용자의 왼손으로부터의 지문을 검출한 디바이스 상에 표시되는 반면, 사용자 인터페이스의 우측에 있어야 하는 사용자 인터페이스 객체들은 사용자의 오른손으로부터의 지문을 검출한 디바이스 상에 표시된다.In some embodiments, the first electronic device determines a direction to expand the user interface displayed on the display of the first device with the secondary display according to at least one of identification of the first fingerprint and identification of the second fingerprint 4518). For example, when the fingerprint of the user's right hand is detected on the fingerprint sensor of the first device (for example, the
일부 실시예들에서, 제1 지문에 대응하는 손가락에 대한, 제2 지문에 대응하는 손가락의, 사용자의 손들에서의 순서가 사용자 인터페이스가 보조 디스플레이에 의해 확장되는 방향을 결정한다. 예를 들어, 제2 손가락(예를 들어, 사용자의 오른손 검지(RI))에 대응하는 제2 지문(예를 들어, 도 44o의 제2 다기능 디바이스(100-2) 상에서 검출된 지문(4444))이 제1 지문(예를 들어, 도 44o의 제1 다기능 디바이스(100-1) 상에서 검출된 지문(4443))에 대응하는 제1 손가락(예를 들어, 사용자의 오른손 약지(RR))의 사용자의 좌측에 위치될 때, 제1 디바이스의 사용자 인터페이스가 제2 디바이스의 디스플레이 상에서 좌측으로 확장된다(예를 들어, 도 44o의 다기능 디바이스(100-1)의 터치 스크린(112-1) 상에 표시된 제1 사용자 인터페이스가 도 44p의 다기능 디바이스(100-2) 상으로 확장되어, 미국의 서부 해안이 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상의 지도(4404-2)로 표시되고, 미국 중부가 제1 다기능 디바이스(100-1)의 터치 스크린(112-1) 상의 지도(4404-1)로 표시됨).In some embodiments, the order in the user's hands of the finger corresponding to the second fingerprint for the finger corresponding to the first fingerprint determines the direction in which the user interface is extended by the secondary display. For example, a
일부 실시예들에서, 제1 지문 및 제2 지문이 검출되고(4420), 제1 애플리케이션이 제1 디바이스에서 활성인 동안에(예를 들어, 제1 다기능 디바이스(100-1)에서, 도 44q, 도 44w 및 도 44cc에 도시된 바와 같이 사진 표시 애플리케이션이 활성이고, 도 44u에 도시된 바와 같이 워드 프로세싱 애플리케이션이 활성이며, 도 44z에 도시된 바와 같이 피아노 애플리케이션이 활성인 경우에), 그리고 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송한 후에: 제1 디바이스는 제2 전자 디바이스를 제1 전자 디바이스에 대한 보조 디스플레이로서 설정한다(4522)(예를 들어, 도 44r, 도 44v, 도 44x, 도 44aa 및 도 44dd에서 제2 다기능 디바이스(100-2)가 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정됨).In some embodiments, a first fingerprint and a second fingerprint are detected 4420, and while the first application is active in the first device (e.g., in the first multifunction device 100-1, The photo presentation application is active as shown in Figures 44w and 44cc, the word processing application is active as shown in Figure 44u, and the piano application is active as shown in Figure 44z), and the second After sending a response to the second electronic device that allows the electronic device to be set as a secondary display for the first electronic device: the first device sets the second electronic device as a secondary display for the first electronic device 4522 (For example, the second multifunction device 100-2 is set as a secondary display for the first multifunction device 100-1 in Figs. 44R, 44V, 44X, 44Aa and 44Dd) ).
제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제2 디바이스가 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들(예를 들어, 도 44r의 메뉴 바(4414, 4447) 및 드롭-다운 메뉴(4416); 도 44v의 텍스트(4418); 도 44x의 미국 지도(4404-2); 도 44aa의 피아노 키보드(4428-2); 및 도 44dd의 사진 앨범들 "사막"(4432-5) 및 "결혼"(4432-6)을 나타내는 아이콘들)을 표시할 수 있게 하는 명령을 제2 디바이스에 전송한다(4524).While the second electronic device is being set as a secondary display for the first device, the first device may be configured such that the second device is associated with a set of one or more user interface elements associated with the first application (e.g.,
일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 애플리케이션 내의 동작들을 수행하기 위한 하나 이상의 제어부를 포함한다(4526)(예를 들어, 하나 이상의 사용자 인터페이스 요소들은 메뉴, 제어 요소, 또는 제1 애플리케이션과 연관된 다른 사용자 인터페이스 객체를 포함함). 예를 들어, 제2 디바이스의 디스플레이를 보조 디스플레이로서 사용하는 것은 제1 디바이스의 디스플레이 상에 표시된 사용자 인터페이스에 대한 하나 이상의 제어부들(예를 들어, 도 44r의 메뉴 바(4414, 4447) 및 드롭-다운 메뉴(4416))을 제2 디바이스의 디스플레이 상에 배치하는 것을 포함한다. 따라서, 주 디스플레이(예를 들어, 제1 디바이스의 디스플레이 상에 표시된 제1 애플리케이션의 사용자 인터페이스)의 클러터링(cluttering)을 감소시키거나 제거하기 위해 추가적인 메뉴, 팔레트 또는 다른 제어부들이 보조 디스플레이 상에 표시될 수 있다.In some embodiments, a set of one or more user interface elements associated with a first application includes one or
일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 디바이스의 디스플레이 상에 표시된 작업공간의 연속인 작업공간의 일부분을 포함한다(4528)(예를 들어, 하나 이상의 사용자 인터페이스 요소들은 문서 바디, 애플리케이션 캔버스, 또는 제1 및 제2 디바이스들의 디스플레이들 위에 걸쳐 있는 다른 가상의 작업공간을 포함함). 예를 들어, 제2 디바이스의 디스플레이를 보조 디스플레이로서 사용하는 것은 제1 애플리케이션에 대한 작업 공간을 제1 디바이스의 디스플레이 및 제2 디바이스의 디스플레이 위에 펼치는 것을 포함한다(예를 들어, 작업공간(4417-1)은 도 44u의 제1 다기능 디바이스(100-1)의 터치 스크린(112-1)으로부터 도 44v의 연속적인 작업공간(4417)의 작업공간(4417-2)으로서 제2 다기능 디바이스(100-2)의 터치 스크린(112-2) 상으로 확장됨).In some embodiments, the set of one or more user interface elements associated with the first application includes a portion of the workspace that is a continuation of the workspace displayed on the display of the first device (4528) (e.g., one or more The user interface elements include a document body, an application canvas, or other virtual workspace spanning the displays of the first and second devices). For example, using the display of the second device as a secondary display includes expanding the workspace for the first application onto the display of the first device and the display of the second device (e.g., the workspace 4417- 1 is transferred from the touch screen 112-1 of the first multifunction device 100-1 of Figure 44u to the second multifunction device 100-1 as the work space 4417-2 of the
일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제2 디바이스에 의해 검출된 입력들을 나타내는 입력 데이터를 수신하는데(4530), 여기서 입력들은 제2 디바이스의 디스플레이 상에 표시된 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소들과의 상호작용들에 대응하며; 제1 디바이스는 입력 데이터에 따라 제1 애플리케이션과 연관된 동작들을 수행한다(4532). 예를 들어, 제1 디바이스는 제2 디바이스에 디스플레이 정보를 전송하며, 제2 디바이스의 디스플레이 상에 표시된 사용자 인터페이스와의 사용자 상호작용을 나타내는 입력 데이터(예를 들어, 도 44x의 접촉(4424)과 같은 터치 지점들의 좌표들 및/또는 도 44x의 위치(4424-a)로부터 도 44y의 위치(4424-b)로의 접촉(4424)의 이동(4426)을 포함하는 제스처)를 수신하며; 그 응답으로, 제1 디바이스는 제1 애플리케이션에 따라 활성 프로그램과 연관된 동작을 수행한다(예를 들어, 제2 다기능 디바이스(100-2)에 의해 제공된 제스처 데이터에 따라 제1 다기능 디바이스(100-1)는 포커스 셀렉터(4422)를 도 44x의 위치(4422-a)로부터 도 44y의 위치(4422-b)로 이동시킴). 따라서, 일부 실시예들에서, 제2 디바이스는 제1 디바이스에 대한 보조 터치패드 또는 터치 스크린으로서 작용한다.In some embodiments, while the second electronic device is set as a secondary display for the first device, the first device receives (4530) input data indicative of the inputs detected by the second device, Corresponding to interactions with one or more user interface elements associated with a first application displayed on a display of the device; The first device performs operations associated with the first application according to the input data (4532). For example, the first device may transmit display information to a second device, and may include input data (e.g.,
일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제2 디바이스의 디스플레이 상에 표시되는 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소와의 상호작용에 대응하는 하나 이상의 동작을 규정하는 제2 전자 디바이스로부터의 동작 데이터를 수신하고(4534); 하나 이상의 동작들을 수행한다(4536). 따라서, 일부 실시예들에서, 일부 애플리케이션 프로세싱은 디바이스들 각각에서 수행되고(예를 들어, 제1 디바이스 및 제2 디바이스 각각이 동일한 애플리케이션의 사본들을 가짐), 두 애플리케이션들 각각은 표시된 사용자 인터페이스의 부분에 적합한 제스처에 대한 응답을 생성하며, 두 애플리케이션들은 정보를 공유한다. 예를 들어, (예를 들어, 각각 도 44aa 및 도 44bb에서 다기능 디바이스(100-1, 100-2)들 상에 표시된 키보드(4428-1, 4428-2)들로서) 제1 디바이스의 디스플레이와 제2 디바이스의 디스플레이에 걸쳐 펼쳐진 음악 키보드(예를 들어, 도 44bb의 피아노 키보드(4428))의 경우, 제1 전자 디바이스에 터치 지점들(도 44bb에서의 접촉(4430)의 좌표들)을 전송하는 대신, 제2 디바이스(예를 들어, 도 44bb의 다기능 디바이스(100-2))는 (예를 들어, 도 44bb의 "E" 키(4457)를 포함하는) 음악 키보드의 키들의 절반을 표시하고, 사용자에 의해 활성화된 키에 대응하여 연주할 음을 나타내는 정보를 제1 디바이스에 전송한다(예를 들어, 제2 다기능 디바이스(100-2)는 접촉(4430)이 "E" 키(4457)를 활성화해야 한다고 결정하고 음높이 "E"를 갖는 소리를 연주하기 위한 정보를 제1 다기능 디바이스(100-1)에 전송함). 다른 예로서, 분할된 텍스트 키보드의 경우, 터치 지점들을 제1 전자 디바이스에 전송하는 대신, 제2 전자 디바이스는 사용자에 의해 활성화된 키들에 대응하는 글자들을 전송한다. 제2 디바이스에서 프로세싱의 일부를 수행함으로써, 제1 디바이스 상의 프로세싱 부하가 감소됨으로써, 애플리케이션의 성능을 향상시킨다.In some embodiments, while the second electronic device is set as a secondary display for the first device, the first device may be configured to interact with one or more user interface elements associated with the first application displayed on the display of the second device Receive (4534) operational data from a second electronic device that defines one or more corresponding operations; Perform one or more operations (4536). Thus, in some embodiments, some application processing is performed on each of the devices (e.g., each of the first device and the second device has copies of the same application) And the two applications share the information. For example, the display of the first device and the display of the first device (e.g., as keyboards 4428-1 and 4428-2 displayed on multifunction devices 100-1 and 100-2 in Figures 44aa and 44bb, respectively) (Coordinates of the
일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스에 대한 보조 디스플레이로서 설정된 동안에, 제1 디바이스는 제1 디바이스의 터치-감응 표면 상의 제1 제스처를 검출하고(4538)(예를 들어, 제1 제스처는 제1 디바이스의 터치-감응 디스플레이 상의 제1 위치에 대응함), 제2 디바이스의 터치-감응 표면 상에서 검출된 제2 제스처를 나타내는 제2 디바이스로부터 통신을 수신한다(4540)(예를 들어, 제2 제스처는 제2 디바이스의 터치-감응 디스플레이 상의 제2 위치에 대응함). 제1 제스처를 검출하고 제2 제스처를 나타내는 통신을 수신하는 것에 응답하여, 제1 디바이스는 제1 디바이스의 디스플레이(예를 들어, 제1 디바이스의 디스플레이 상의 제1 위치)와 제2 디바이스의 디스플레이(예를 들어, 제2 디바이스의 디스플레이 상의 제2 위치) 사이에서 제1 애플리케이션과 연관된 사용자 인터페이스 객체(예를 들어, 파일, 아이콘, 메뉴, 또는 제어부)를 이동시킨다(4542). 예를 들어, 제1 디바이스는 제1 사용자 인터페이스 객체에 대응하는 제1 위치에서 제1 디바이스의 터치-감응 표면 상의 핀치(pinch) 제스처를 검출하고, 제2 디바이스는 제2 위치에서 제2 디바이스의 터치-감응 표면 상의 디핀치(depinch)를 검출하며, 핀치 및 디핀치 제스처들을 검출하는 것에 응답하여, 제1 사용자 인터페이스 객체는 제1 위치로부터 제2 위치로 이동된다(예를 들어, 제1 디바이스는 제1 사용자 인터페이스 객체를 표시하는 것을 중단하고 제2 디바이스가 제1 사용자 인터페이스 객체를 표시하기 시작함). 다른 예로서, 제1 디바이스(예를 들어, 도 44dd의 제1 다기능 디바이스(100-1))는 제1 사용자 인터페이스 객체(예를 들어, 도 44dd의 사진 앨범 "겨울"을 나타내는 아이콘(4432-4))에 대응하는 제1 위치(예를 들어, 도 44dd의 위치(4436-a))에서 시작하는 제1 터치-감응 표면 상의 드래그 제스처의 제1 부분을 검출하고(예를 들어, 드래그 제스처는 도 44dd의 위치(4436-a)로부터 도 44ee의 터치 스크린(112-1) 상의 위치(4436-b)로의 접촉(4436)의 이동(4438)을 포함함), 제2 디바이스(예를 들어, 다기능 디바이스(100-2))는 제2 위치(예를 들어, 도 44ee의 위치(4440-b))에서 종료하는(예를 들어, 접촉을 들어올리는) 제2 터치-감응 표면 상의 드래그 제스처(예를 들어, 드래그 제스처는 도 44ee의 터치 스크린(112-2)의 위치(4440-a)로부터 위치(4440-b)로의 접촉(4440)의 이동(4442)을 포함함)의 제2 부분을 검출하고, 드래그 제스처의 제1 및 제2 부분들에 응답하여, 제1 사용자 인터페이스 객체가 제1 위치로부터 제2 위치로 이동된다(예를 들어, 도 44ee에 도시된 바와 같이 제1 디바이스는 사진 앨범 "겨울"을 나타내는 아이콘(4432-4)을 표시하는 것을 중단하고 제2 디바이스가 사진 앨범 "겨울"을 나타내는 아이콘(4432-4)을 표시하기 시작함).In some embodiments, while the second electronic device is being set as a secondary display for the first device, the first device detects (4538) the first gesture on the touch-sensitive surface of the first device (e.g., 1 gesture corresponds to a first position on the touch-sensitive display of the first device), and receives (4540) communication from a second device indicating a second gesture detected on the touch-sensitive surface of the second device , The second gesture corresponding to a second location on the touch-sensitive display of the second device). In response to detecting a first gesture and receiving communication indicative of a second gesture, the first device is configured to display the first device's display (e.g., the first location on the display of the first device) (E.g., a file, an icon, a menu, or a control) associated with the first application between a first location on the display of the first device (e.g., a second location on the display of the second device). For example, a first device may detect a pinch gesture on a touch-sensitive surface of a first device at a first location corresponding to a first user interface object, and a second device may detect a pinch gesture Detecting a depinch on the touch-sensitive surface, and in response to detecting pinch and dipinch gestures, the first user interface object is moved from a first position to a second position (e.g., Stops displaying the first user interface object and the second device starts displaying the first user interface object). As another example, a first device (e.g., the first multifunction device 100-1 of Figure 44dd) may include a first user interface object (e.g., an icon 4432- A first portion of the drag gesture on the first touch-sensitive surface starting at a first position (e.g., position 4436-a in Figure 44dd) corresponding to the drag gesture (e.g., Includes the
보조-디스플레이 기준이 충족되지 않는다는 결정에 따라, 제1 디바이스는 제2 전자 디바이스가 제1 전자 디바이스에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지한다(4544). 예를 들어, 도 44d에서, 제1 지문(4405)과 제2 지문(4407)이 동일한 사용자에 대해 등록되지 않았기 때문에(예를 들어, 지문(4405)이 사용자 "1"에 대응하고 지문(4407)이 사용자 "2"에 대응함) 보조-디스플레이 기준이 충족되지 않았으며, 따라서 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정되지 않는다. 유사하게, 도 44f에서, 제2 지문(4415)이 제1 지문(4413)의 검출 후 사전 결정된 시간(4408) 내에 검출되지 않았기 때문에(예를 들어, 지문(4415)은 지문(4413)이 검출된 후 5초 초과 후에 검출되었음) 보조-디스플레이 기준이 충족되지 않았으며, 따라서 제2 다기능 디바이스(100-2)는 제1 다기능 디바이스(100-1)에 대한 보조 디스플레이로서 설정되지 않는다.In response to the determination that the secondary-display criteria is not met, the first device stops sending a response to the second electronic device (4544) that allows the second electronic device to be set as a secondary display for the first electronic device . For example, in FIG. 44D, since the
도 45a 내지 도 45d의 동작들이 기술된 특정한 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 45a 내지 도 45d와 관련하여 전술된 방법(4500)에도 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(4500)과 관련하여 전술된 지문들, 접촉들, 제스처들, 사용자 인터페이스 객체들 및 포커스 셀렉터들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들, 접촉들, 제스처들, 사용자 인터페이스 객체들 및 포커스 셀렉터들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항은 여기서 반복되지 않는다.It should be understood that the specific sequence in which the operations of Figs. 45A-45D are described is exemplary only, and that the sequences described are not intended to represent that they are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., those listed in the second paragraph within "Detailed Description of the Invention" It should also be noted that the
일부 실시예들에 따르면, 도 46은 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4600)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 46에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, Figure 46 illustrates a functional block diagram of an
도 46에 도시된 바와 같이, 전자 디바이스(4600)는 그래픽 사용자 인터페이스를 표시하도록 구성된 디스플레이 유닛(4602), 선택적으로 터치-감응 표면 유닛(4604), 지문 센서 유닛(4606); 및 디스플레이 유닛(4602), 터치-감응 표면 유닛(4604) 및 지문 센서 유닛(4606)에 결합 프로세싱 유닛(4608)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4608)은 검출 유닛(4610), 수신 유닛(4612), 결정 유닛(4614), 전송 유닛(4616), 디스플레이 유닛(4602) 상에서의 정보의 표시를 가능하게 하기 위한 디스플레이 인에이블링 유닛(4618), 설정 유닛(4620), 수행 유닛(4622) 및 이동 유닛(4624)을 포함한다.As shown in Figure 46, the
프로세싱 유닛(4608)은 (예를 들어, 검출 유닛(4610)을 이용하여) 제1 시기에 제1 전자 디바이스(4600)의 지문 센서 유닛 상에서 각자의 사용자에 대해 등록된 제1 지문을 검출하도록 구성된다. 프로세싱 유닛(4608)은 또한, 제1 전자 디바이스(4600)와는 별개인 제2 전자 디바이스로부터, 제2 시기에 제2 디바이스의 지문 센서 유닛 상에서 제2 지문이 검출되었음을 나타내는 정보를 포함하는 통신을 (예를 들어, 수신 유닛(4612)을 이용하여) 수신하도록 구성된다. 제1 지문을 검출하고 제2 전자 디바이스로부터 통신을 수신하는 것에 응답하여, 프로세싱 유닛(4608)은 미리 정해진 보조 디스플레이 기준 - 보조 디스플레이 기준은 제2 지문이 각자의 사용자에 대해 등록된 때 충족되는 기준을 포함함 - 이 충족되었는지 여부를 (예를 들어, 결정 유닛(4614)을 이용하여) 결정하도록 구성된다. 보조-디스플레이 기준이 충족된다는 결정에 따라, 프로세싱 유닛(4608)은 (예를 들어, 전송 유닛(4616)을 이용하여) 제2 전자 디바이스가 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하도록 구성된다. 보조 디스플레이 기준이 충족되지 않는다는 결정에 따라, 프로세싱 유닛(4608)은 (예를 들어, 전송 유닛(4616)을 이용하여) 제2 전자 디바이스가 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송하는 것을 중지하도록 구성된다.The processing unit 4608 is configured to detect a first fingerprint registered for each user on the fingerprint sensor unit of the first
일부 실시예들에서, 보조-디스플레이 기준은 제1 시기가 미리 정해진 제2 시간 내에 있을 때 충족되는 기준을 포함한다.In some embodiments, the auxiliary-display criteria include criteria that are met when the first time is within a second predetermined time period.
일부 실시예들에서, 보조-디스플레이 기준은 보조 디스플레이로서의 제2 디바이스의 설정이 요청되었다는 확인을 (예를 들어, 수신 유닛(4612)을 이용하여) 제1 디바이스가 수신할 때 충족되는 기준을 포함한다.In some embodiments, the secondary-display criteria includes a criterion that is satisfied when the first device receives (e.g., using the receiving unit 4612) confirmation that the setting of the second device as a secondary display has been requested do.
일부 실시예들에서, 제1 디바이스(4600)의 디스플레이 유닛(4602) 상에 표시된 사용자 인터페이스의 배향은 (예를 들어, 결정 유닛(4614)을 이용하여) 제1 디바이스(4600)의 디스플레이 유닛(4602)의 미리 정해진 축에 대한 제1 지문의 배향에 따라 결정되며, 제2 디바이스의 디스플레이 유닛 상에 표시된 사용자 인터페이스의 배향은 (예를 들어, 결정 유닛을 이용하여) 제2 디바이스의 디스플레이 유닛의 미리 정해진 축에 대한 제2 지문의 배향에 따라 결정된다.In some embodiments, the orientation of the user interface displayed on the
일부 실시예들에서, 프로세싱 유닛(4608)은 (예를 들어, 결정 유닛(4614)을 이용하여) 적어도 제1 지문의 식별 및 제2 지문의 식별 중 하나에 따라 제1 디바이스(4600)의 사용자 인터페이스를 보조 디스플레이에 의해 확장하는 방향을 결정하도록 추가로 구성된다.In some embodiments, the processing unit 4608 may be configured to determine whether the user of the first device 4600 (for example, using the determination unit 4614) And is further configured to determine the direction in which the interface is extended by the secondary display.
일부 실시예들에서, 제1 애플리케이션이 제1 디바이스(4600)에서 활성 애플리케이션인 동안에 제1 지문 및 제2 지문이 검출되고; (예를 들어, 전송 유닛(4616)을 이용하여) 제2 전자 디바이스가 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정될 수 있게 하는 응답을 제2 전자 디바이스에 전송한 후에, 프로세싱 유닛(4608)은 (예를 들어, 설정 유닛(4620)을 이용하여) 제2 전자 디바이스를 제1 전자 디바이스(4600)에 대한 보조 디스플레이로서 설정하도록 추가로 구성되며; 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디바이스로서 구성된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 전송 유닛(4616)을 이용하여) 제2 디바이스가 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들을 표시할 수 있게 명령어를 제2 디바이스에 전송하도록 추가로 구성된다.In some embodiments, the first fingerprint and the second fingerprint are detected while the first application is active application in the
일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 애플리케이션 내의 동작들을 수행하기 위한 하나 이상의 제어부들을 포함한다.In some embodiments, a set of one or more user interface elements associated with a first application includes one or more controls for performing operations within the first application.
일부 실시예들에서, 제1 애플리케이션과 연관된 한 세트의 하나 이상의 사용자 인터페이스 요소들은 제1 디바이스(4600)의 디스플레이 유닛(4602) 상에 표시되는 작업공간의 연속부인 작업공간의 일부분을 포함한다.In some embodiments, a set of one or more user interface elements associated with a first application includes a portion of a workspace that is a continuation of a workspace displayed on a
일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디스플레이로서 설정된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 수신 유닛(4612)을 이용하여) 제2 디바이스에 의해 검출된 입력들을 나타내는 입력 데이터를 수신하도록 추가로 구성되며, 이때 입력들은 제2 디바이스의 디스플레이 유닛(4602) 상에 표시된 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소들과의 상호작용들에 대응하고, 프로세싱 유닛(4608)은 (예를 들어, 수행 유닛(4622)을 이용하여) 입력 데이터에 따라 제1 애플리케이션과 연관된 동작들을 수행하도록 추가로 구성된다.In some embodiments, while the second electronic device is being set as a secondary display for the
일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디스플레이로서 설정된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 수신 유닛(4612)을 이용하여) 제2 디바이스의 디스플레이 유닛 상에 표시된 제1 애플리케이션과 연관된 하나 이상의 사용자 인터페이스 요소들과의 상호작용들에 대응하는 하나 이상의 동작들을 규정하는 동작 데이터를 제2 전자 디바이스로부터 수신하도록 추가로 구성되며, 프로세싱 유닛(4608)은 (예를 들어, 수행 유닛(4622)을 이용하여) 하나 이상의 동작들을 수행하도록 추가로 구성된다.In some embodiments, while the second electronic device is set as a secondary display for the
일부 실시예들에서, 제2 전자 디바이스가 제1 디바이스(4600)에 대한 보조 디스플레이로서 설정된 동안에, 프로세싱 유닛(4608)은 (예를 들어, 검출 유닛(4610)을 이용하여) 제1 디바이스(4600)의 터치-감응 표면 유닛(4604) 상의 제1 제스처를 검출하도록 추가로 구성된다. 프로세싱 유닛(4608)은 (예를 들어, 수신 유닛(4612)을 이용하여) 제2 디바이스의 터치-감응 표면 유닛 상에서 검출된 제2 제스처를 나타내는 통신을 제2 디바이스로부터 수신하도록 추가로 구성되고, 제1 제스처를 검출하고 제2 제스처를 나타내는 통신을 수신하는 것에 응답하여, 프로세싱 유닛(4608)은 (예를 들어, 이동 유닛(4624)을 이용하여) 제1 디바이스(4600)의 디스플레이 유닛(4602)과 제2 디바이스의 디스플레이 유닛 사이에서 제1 애플리케이션과 연관된 사용자 인터페이스 객체를 이동시키도록 추가로 구성된다.In some embodiments, while the second electronic device is set as a secondary display for the
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 45a 내지 도 45d와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 46에 도시된 구성요소들에 의해 구현된다. 예를 들어, 검출 동작(4502, 4538)들, 수신 동작(4504, 4530, 4534, 4540)들, 결정 동작(4508, 4516, 4518)들, 전송 동작(4514, 4524)들, 중지 동작(4544), 설정 동작(4522), 수행 동작(4532, 4536)들 및 이동 동작(4542)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각각의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with reference to Figs. 45A to 45D are optionally implemented by the components shown in Figs. 1A and 1B or 46. For example,
지문 배향에 기초한 빔포밍 파라미터의 변경Change of beamforming parameters based on fingerprint orientation
다수의 전자 디바이스들은 근접 센서 데이터에 기초한 오디오 요소들의 설정을 가능하게 한다. 예를 들어, 근접 센서로부터의 정보에 기초하여 이동 전화 디바이스가 수신기 모드와 스피커 모드 사이에서 전환할 수 있다. 아래에서 기술되는 디바이스는 한 세트의 하나 이상의 오디오 요소들을 보다 효율적으로 동작시키기 위해서 복수의 빔포밍 파라미터로부터 한 세트의 빔포밍 파라미터들을 선택하도록 검출된 지문 배향의 변경을 이용함으로써 기존의 방법들을 향상시킨다.Many electronic devices enable the setting of audio elements based on proximity sensor data. For example, the mobile phone device can switch between the receiver mode and the speaker mode based on information from the proximity sensor. The device described below enhances existing methods by using a change in the detected fingerprint orientation to select a set of beamforming parameters from a plurality of beamforming parameters to more efficiently operate a set of one or more audio elements .
제1 지문이 지문 센서 상에서 제1 배향으로 검출된 동안에, 디바이스는 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다. 이어서, 디바이스는 지문 센서 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문을 검출한다. 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택된다. 마지막으로, 지문 센서 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 디바이스는 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다.While the first fingerprint is detected in the first orientation on the fingerprint sensor, the device operates a set of one or more audio elements in accordance with the first set of beamforming parameters. The device then detects a subsequent fingerprint on the fingerprint sensor having a second orientation that is different from the first orientation. The subsequent fingerprints are selected from a set of first fingerprints having a modified orientation and a second fingerprint that is separate from the first fingerprints. Finally, in response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor, the device may detect a set of one or more audio elements according to a second set of beamforming parameters different from the first set of beamforming parameters .
일부 실시예들에서, 디바이스는 별개의 디스플레이(예를 들어, 디스플레이(450)) 및 별개의 터치-감응 표면(예를 들어, 터치-감응 표면(451))을 갖는 전자 디바이스이다. 일부 실시예들에서, 디바이스는 휴대용 다기능 디바이스(100)이고, 디스플레이는 터치 스크린(112)이며, 터치-감응 표면은 디스플레이(도 1a) 상의 촉각적 출력 생성기(167)들을 포함한다. 도 47a 내지 도 47l, 및 도 48a 및 도 48b와 관련하여 아래에서 기술되는 디바이스는 하나 이상의 지문 센서(169)들을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치-감응 디스플레이 시스템(112))에 통합된 하나 이상의 통합형 지문 센서(359-1)들(도 4b)을 포함한다. 일부 실시예들에서, 하나 이상의 지문 센서들은 터치-감응 표면(예를 들어, 별개의 터치-감응 표면(451) 또는 터치 감응 디스플레이 시스템(112))과는 별개인 별개의 지문 센서(359-2)들(도 4b)을 포함한다. 달리 명시되지 않는 한, 아래에서 기술되는 지문 센서(169)는 선택적으로 지문 센서(169)를 포함하는 디바이스의 하드웨어 및 소프트웨어의 구성에 의존하여, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)이다. 설명의 편의를 위해, 도 47a 내지 도 47l, 및 도 48a 및 도 48b와 관련하여 기술되는 실시예들은 터치 스크린(112) 및 지문 센서(169)(예를 들어, 통합된 지문 센서(359-1) 또는 별개의 지문 센서(359-2))와 관련하여 논의될 것이며; 그러한 실시예들에서, 포커스 셀렉터는 선택적으로 커서 대신의, 각자의 접촉, 접촉에 대응하는 대표적인 지점(예를 들어, 각자의 접촉의 중심 또는 각자의 접촉과 연관된 지점), 또는 터치 스크린(112) 상에서 검출된 둘 이상의 접촉들의 중심이다. 디스플레이(450), 별개의 터치-감응 표면(451) 및 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2)를 갖는 디바이스 상에서, 도 47a 내지 도 47l에 도시된 사용자 인터페이스들을 디스플레이(450) 상에 표시하는 동안에, 통합형 지문 센서(359-1) 또는 별개의 지문 센서(359-2) 상에서 도 47a 내지 도 47l에 묘사된 입력들을 검출하는 것에 응답하여, 유사한 동작들이 선택적으로 수행된다.In some embodiments, the device is an electronic device having a separate display (e.g., display 450) and a separate touch-sensitive surface (e.g., touch-sensitive surface 451). In some embodiments, the device is a
도 47a 내지 도 47c는 오디오 생성 모드에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 오디오 생성 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 스피커(111)를 통해 오디오를 생성한다. 미디어 플레이어(예를 들어, 애플, 인크.의 아이튠즈 애플리케이션)는 도 47a 내지 도 47c에서 터치 스크린(112)의 사용자 인터페이스(4701) 상에 표시된다. 도 47a 내지 도 47c에 도시된 미디어 플레이어는 예를 들어 오디오 파일 또는 스트리밍 오디오를 재생하는 것이다. 도 47a 내지 도 47c는 또한 각자의 지문의 각도를 나타내는 지문 축(4704)과 지문 센서(169)의 각도를 나타내는 지문 센서 축(4706)을 도시한다. 도 47a 내지 도 47c는 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 따라서, 간결성을 위해서 도 47a 내지 도 47c 사이에서의 차이점들만이 논의될 것이다.Figures 47A-47C illustrate a
도 47a는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169)(예를 들어, 통합된 지문 센서(359-1)) 위에 있는 제1 배향의 제1 지문(4702)을 도시한다. 지문(4702)은 예를 들어 사용자의 오른손 엄지이다. 도 47a는 90°에 있는(수직배향인) 지문 축(4704)을 통해 지문(4702)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47a에서 지문 센서(169)의 축에 대한 제1 지문(4702)의 각도는 0°이다.Figure 47A illustrates a
도 47b는 지문 센서(169) 위에 있는 제2 배향의 제1 지문(4702)을 도시한다. 도 47b는 135°에 있는 지문 축(4704)을 통해 지문(4702)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47b에서, 지문 센서(169)의 축에 대한 제1 지문(4702)의 각도는 45°이다.Fig. 47B shows the
도 47c는 지문 센서(169) 위에 있는 제3 배향의 제1 지문(4702)을 도시한다. 도 47c는 180°에 있는 지문 축(4704)을 통해 지문(4702)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47c에서 지문 센서(169)의 축에 대한 제1 지문(4702)의 각도는 90°이다.47C shows the
도 47d 내지 도 47f는 오디오 캡처 모드에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 오디오 캡처 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 마이크(113)를 통해 오디오를 캡처한다. 도 47d 내지 도 47f는 예를 들어 후속하는 재생 또는 전송을 위해 오디오 신호들을 녹음(또는 캡처)하는 애플, 인크.의 음성 메모 애플리케이션을 도시한다. 도 47d 내지 도 47f는 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 따라서, 간결성을 위해서 도 47d 내지 도 47f 사이에서의 차이점들만이 논의될 것이다.Figures 47d-47f illustrate a
도 47d는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169)(예를 들어, 통합된 지문 센서(359-1)) 위에 있는 제1 배향의 제1 지문(4708)을 도시한다. 지문(4708)은 예를 들어 사용자의 왼손 엄지이다. 도 47d는 90°에 있는 지문 축(4704)을 통해 지문(4708)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47d에서, 지문 센서(169)의 축에 대한 제1 지문(4708)의 각도는 0°이다.Figure 47d illustrates a
도 47e는 지문 센서(169) 위에 있는 제2 배향의 제1 지문(4708)을 도시한다. 도 47e는 45°에 있는 지문 축(4704)을 통해 지문(4708)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47e에서, 지문 센서(169)의 축에 대한 제1 지문(4708)의 각도는 45°이다.47E shows the
도 47f는 지문 센서(169) 위에 있는 제3 배향의 제1 지문(4708)을 도시한다. 도 47f는 0°에 있는 지문 축(4704)을 통해 지문(4708)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47f에서 지문 센서(169)의 축에 대한 제1 지문(4708)의 각도는 90°이다.Fig. 47f shows the
도 47g 내지 도 47i는 스피커 폰 모드에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 음소거 버튼, 키패드 표시 버튼, 스피커 활성화 버튼(4712), 추가 통화 버튼, 페이스타임 활성화 버튼, 연락처 표시 버튼 및 통화 종료 버튼을 포함하는 복수의 버튼들이 터치 스크린(112)의 사용자 인터페이스(4701) 상에 표시된다. 도 47g 내지 도 47i에서, 스피커 폰 모드에 대응하는 스피커 버튼(4712)이 활성화된다. 스피커 폰 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 마이크(113)를 통해 오디오를 캡처하고 스피커(111)를 통해 오디오를 생성한다. 도 47g 내지 도 47i는 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 따라서, 간결성을 위해서 도 47g 내지 도 47i 사이의 차이점들만이 논의될 것이다.Figures 47g-47i illustrate a
도 47g는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169) 위에 있는 제1 배향의 제1 지문(4710)을 도시한다. 지문(4710)은 예를 들어 사용자의 오른손 엄지이다. 도 47g는 90°에 있는 지문 축(4704)을 통해 지문(4710)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47g에서, 지문 센서(169)의 축에 대한 제1 지문(4710)의 각도는 0°이다.Figure 47g shows a
도 47h는 지문 센서(169) 위에 있는 제2 배향의 제1 지문(4710)을 도시한다. 도 47h는 135°에 있는 지문 축(4704)을 통해 지문(4710)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47h에서, 지문 센서(169)의 축에 대한 제1 지문(4710)의 각도는 45°이다.47H shows the
도 47i는 지문 센서(169) 위에 있는 제 3 배향의 제1 지문(4710)을 도시한다. 도 47i는 180°에 있는 지문 축(4704)을 통해 지문(4710)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47i에서 지문 센서(169)의 축에 대한 제1 지문(4710)의 각도는 90°이다.47I shows the
도 47j 내지 도 47l은 화상 회의 또는 화상 채팅 모드(예를 들어, 애플, 인크.의 페이스타임 애플리케이션)에서 동작하는 휴대용 다기능 디바이스(100)를 도시한다. 도 47j 내지 도 47l은 터치 스크린(112) 상에 화상 채팅 참여자를 표시하는 것을 도시한다. 또한, 터치 스크린(112)과 연관된 디바이스(100)의 측에 대해 비디오를 캡처할 수 있도록 된 전방 대면 카메라(도시되지 않음)가 사용자의 비디오를 캡처하여 채팅 참여자에게 비디오를 전송하도록 구성된다. 화상 채팅 모드에 있는 동안에, 휴대용 다기능 디바이스(100)는 마이크(113)를 통해 오디오를 캡처하고, (도시되지 않은) 전방 대면 카메라를 통해 비디오를 캡처하며, 스피커(111)를 통해 오디오를 생성한다. 도 47j 내지 도 47l은 각자의 지문의 배향을 제외하면 모든 측면들에서 유사하며; 간결성을 위해서 도 47j 내지 도 47l 사이의 차이점들만이 논의될 것이다.Figures 47J-47L illustrate a
도 47j는 디바이스(100)의 홈 버튼(204) 내로 통합된 지문 센서(169) 위에 있는 제1 배향의 제1 지문(4714)을 도시한다. 지문(4714)은 예를 들어 사용자의 오른손 엄지이다. 도 47j는 90°에 있는 지문 축(4704)을 통해 지문(4714)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47j에서, 지문 센서(169)의 축에 대한 제1 지문(4714)의 각도는 0°이다.Figure 47J shows the
도 47k는 지문 센서(169) 위에 있는 제2 배향의 제2 지문(4716)을 도시한다. 지문(4716)은 예를 들어 사용자의 오른손 엄지이다. 도 47k는 135°에 있는 지문 축(4704)을 통해 지문(4716)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47k에서, 지문 센서(169)의 축에 대한 제2 지문(4716)의 각도는 45°이다.47K shows the
도 47l은 지문 센서(169) 위에 있는 제 3 배향의 제2 지문(4716)을 도시한다. 도 47l은 180°에 있는 지문 축(4704)을 통해 지문(4716)의 각도를 나타내고, 90°에 있는 지문 센서 축(4706)을 통해 지문 센서(169)의 각도를 나타낸다. 따라서, 도 47l에서, 지문 센서(169)의 축에 대한 제2 지문(4716)의 각도는 90°이다.471 shows the
도 48a 및 도 48b는 일부 실시예들에 따라 지문 배향에 기초해 빔포밍 파라미터들을 변경하는 방법(4800)을 예시하는 흐름도이다. 방법(4800)은 디스플레이 및 터치-감응 표면을 갖는 전자 디바이스(예를 들어, 도 3의 디바이스(300) 또는 도 1a의 휴대용 다기능 디바이스(100))에서 수행된다. 일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이이고, 터치-감응 표면이 디스플레이 상에 있다. 일부 실시예들에서, 디스플레이는 터치-감응 표면과는 별개이다. 방법(4800) 내의 일부 동작들이 선택적으로 조합되고/되거나 일부 동작들의 순서가 선택적으로 변경된다.48A and 48B are flow charts illustrating a
아래에 기술되는 바와 같이, 방법(4800)은 지문 배향에 기초해 빔포밍 파라미터들을 변경하기 위한 직관적인 방식을 제공한다. 이 방법은 빔포밍 파라미터들을 변경할 때 사용자에 대한 인지적 부담을 감소시키며, 이에 의해 보다 효율적인 사람-기계 인터페이스를 생성한다. 배터리-작동형 전자 디바이스들에 대해, 사용자가 빔포밍 파라미터들을 지문 배향에 기초하여 더 빠르고 더 효율적으로 변경할 수 있게 하는 것은 전력을 보존하고 배터리 충전들 사이의 시간을 증가시킨다.As described below,
제1 지문이 지문 센서 상에서 제1 배향으로 검출된 동안에, 디바이스는 제1 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다(4802). 예를 들어, 도 47a는 지문 센서(169) 상에서 제1 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 0°)에 있는 제1 지문(4702)을 도시한다. 예를 들어, 도 47a는 제1 지문(4702)이 지문 센서 축(4706)에 대해 각도 0°에 있는 동안에 제1 세트의 빔포밍 파라미터들에 따라 스피커(111)(예를 들어, 한 세트의 디바이스(100)의 하나 이상의 오디오 요소들 중 하나)를 동작시키는 디바이스(100)를 도시한다.While the first fingerprint is detected in the first orientation on the fingerprint sensor, the device operates a set of one or more audio elements according to the first set of beamforming parameters (4802). For example, FIG. 47A shows a
일부 실시예들에서, 한 세트의 하나 이상의 오디오 요소들은 복수의 스피커들을 포함한다(4804). 예를 들어, 빔포밍 파라미터들의 변화는 미리 정해진 위치에서, 미리 정해진 경로를 따라, 또는 스피커들에 대한 미리 정해진 구역 내에서 스피커들의 소리를 증폭시키는 보강 간섭을 생성하기 위해 스피커들에 의해 오디오가 생성되는 시기들을 변화시킨다. 예를 들어, 도 47a 내지 도 47c는 터치 스크린(112) 상에 표시된 미디어 플레이어(예를 들어, 애플, 인크.의 아이튠즈 애플리케이션)을 통해 사용자에 의해 선택된 오디오 파일 또는 스트리밍 오디오에 대응하는 소리를 생성하도록 스피커(111)(예를 들어, 복수의 스피커들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In some embodiments, a set of one or more audio elements includes a plurality of speakers (4804). For example, a change in the beamforming parameters may be generated by the speakers to produce a constructive interference that amplifies the sound of the loudspeakers in a predefined location, along a predefined path, or within a predetermined area for the loudspeakers Change the times when For example, Figures 47a-47c generate audio corresponding to an audio file or streaming audio selected by a user via a media player (e.g., Apple, Inc.'s iTunes application) displayed on the
일부 실시예들에서, 한 세트의 하나 이상의 오디오 요소들은 복수의 마이크들을 포함한다(4806). 예를 들어, 빔포밍 파라미터들의 변화는 미리 정해진 위치에서, 미리 정해진 경로를 따라, 또는 마이크에 대한 미리 정해진 구역 내로부터 마이크에 의해 수신되는 소리를 증폭시키는 보강 간섭을 생성하기 위해 마이크들에 의해 소리가 수신되는 시기들을 변화시킨다. 예를 들어, 도 47d 내지 도 47f는 (예를 들어 애플, 인크.의 메모 애플리케이션을 통한) 오디오 녹음 모드 동안에 소리를 캡처하도록 마이크(111)(예를 들어, 복수의 마이크들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In some embodiments, a set of one or more audio elements includes a plurality of microphones (4806). For example, a change in the beamforming parameters may be detected by microphones to produce constructive interference that amplifies the sound received by the microphone from a predetermined location, along a predefined path, or from within a predetermined area for the microphone Is changed. For example, Figures 47d-47f illustrate how to operate a microphone 111 (e.g., one of a plurality of microphones) to capture sound during an audio recording mode (e.g., via an Apple, Gt; 100 < / RTI >
일부 실시예들에서, 한 세트의 하나 이상의 오디오 요소들은 하나 이상의 마이크들 및 하나 이상의 스피커들을 포함한다(4808). 예를 들어, 도 47g 내지 도 47i는 스피커 폰 모드에 있는 동안에 소리를 생성하고 캡처하기 위해서 스피커(111)(예를 들어, 복수의 스피커들 중 하나) 및 마이크(113)(예를 들어, 복수의 마이크들 중 하나)를 동작시키는 디바이스(100)를 도시한다. 예를 들어, 도 47j 내지 도 47l은 (예를 들어, 애플, 인크.의 페이스타임 애플리케이션을 통한) 화상 채팅 모드에 있는 동안에 소리를 생성하기 위한 스피커(111)(예를 들어, 복수의 스피커들 중 하나) 및 소리를 캡처하기 위한 마이크(113)(예를 들어, 복수의 마이크들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In some embodiments, a set of one or more audio elements includes one or more microphones and one or more speakers (4808). For example, Figures 47g-47i illustrate a speaker 111 (e.g., one of a plurality of speakers) and a microphone 113 (e.g., a plurality of speakers) for generating and capturing sound while in speaker phone mode Lt; RTI ID = 0.0 > 100 < / RTI > For example, Figures 47J-47L illustrate a speaker 111 (e.g., a plurality of speakers) for generating sound while in a video chat mode (e.g., via an Apple, And one or more microphones 113 (e.g., one of a plurality of microphones) for capturing sound.
디바이스는 지문 센서 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문을 검출하는데(4810), 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택된다.The device detects (4810) a subsequent fingerprint with a second orientation that is different from the first orientation on the fingerprint sensor, the subsequent fingerprint comprises a first fingerprint having a changed orientation and a second fingerprint distinct from the first fingerprint .
예를 들어, 도 47b는 지문 센서(169) 상에서 도 47a의 제1 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 0°)과는 상이한 제2 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 45°)을 갖는 후속의 지문(4702)을 검출하는 디바이스(100)를 도시한다. 도 47b의 다음 지문(4702)은 (예를 들어, 지문 센서 축(4706)에 대해 각도 0°인 것과는 대조적으로 각도 45°인) 변경된 배향을 갖는 도 47a의 제1 지문(4702)이다. 이 예에서, 후속의 지문(4702)은 사용자의 오른손 엄지이다. 그러나 일부 실시예들에 따르면, 후속의 지문(4702)은 (1) 도 47a의 제1 배향과 도 47b의 제2 배향 사이에서의 지문 센서(169)와의 사용자의 오른손 엄지의 연속적인 접촉, 또는 (2) 도 47a의 제1 배향을 갖는 사용자의 오른손 엄지의 검출 후에 사용자의 오른손 엄지를 들어올리고 도 47b의 제2 배향을 갖는 사용자의 오른손 엄지를 배치하는 두 가지 시나리오들 중 하나에 대응한다.For example, FIG. 47B shows a second orientation (e.g., a fingerprint sensor axis 4706) that is different from the first orientation of FIG. 47A (e.g., an angle of 0 degrees relative to the fingerprint sensor axis 4706) (E.g., an angle 45 [deg.] With respect to the finger 4706). The
예를 들어, 도 47k는 지문 센서(169) 상에서 도 47j의 제1 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 0°)과는 상이한 제2 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 45°)을 갖는 후속의 지문(4716)을 검출하는 디바이스(100)를 도시한다. 도 47k의 후속의 지문(4716)은 도 47j의 제1 지문(4714)과는 별개인 제2 지문이다. 이러한 예에서, 도 47j의 지문 센서(169) 상에서 검출된 지문(4714)은 사용자의 오른손 엄지이며, 도 47k의 지문 센서(169) 상에서 검출된 지문(4716)은 사용자의 오른손 검지이다. 따라서 이러한 예에서, 도 47j에서 사용자의 오른손 엄지의 검출 후에, 사용자의 오른손 엄지가 지문 센서(169)로부터 들어올려지며, 후속하여 도 47k에서 사용자의 오른손 검지가 지문 센서(169) 상에서 검출된다.For example, FIG. 47K shows a second orientation (e.g., a fingerprint sensor axis 4706) that is different from the first orientation of FIG. 47j (e.g., an angle of 0 degrees relative to the fingerprint sensor axis 4706) (E.g., an angle 45 [deg.] With respect to the fingerprint sensor 4706). The
지문 센서 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, 디바이스는 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 요소들을 동작시킨다(4812). 일부 실시예들에서, 빔포밍 파라미터들의 변화는 오디오 요소들의 유효 범위를 확대시키기 위해 복수의 오디오 요소들(예를 들어, 스피커들 또는 마이크들)에 의해 수신된/생성된 오디오의 보강 간섭을 변화시킨다. 예를 들어, 도 47b는 지문 센서(169) 상에서 제2 배향(예를 들어, 지문 센서 축(4706)에 대해 각도 45°)을 갖는 후속의 지문(4702)을 도시한다. 예를 들어, 도 47b는 후속의 지문(4702)이 지문 센서 축(4706)에 대해 45°에 있는 동안에 제2 세트의 빔포밍 파라미터들에 따라 스피커(111)(예를 들어, 디바이스(100)의 한 세트의 하나 이상의 오디오 요소들 중 하나)를 동작시키는 디바이스(100)를 도시한다.In response to detecting a subsequent fingerprint with a second orientation on the fingerprint sensor, the device operates a set of one or more audio elements according to a second set of beamforming parameters different from the first set of beamforming parameters 4812). In some embodiments, a change in the beamforming parameters may change the constructive interference of the audio received / generated by the plurality of audio elements (e.g., speakers or microphones) to widen the effective range of the audio elements . For example, FIG. 47B shows a
일부 실시예들에서, 지문 센서 상에서 지문의 배향의 변화를 검출하는 것에 응답하여, 디바이스는 대응하는 지문 배향들과 연관된 복수의 세트들의 미리 정해진 빔포밍 파라미터들로부터 제2 세트의 빔포밍 파라미터들을 선택한다(4814). 예를 들어, 제1 세트의 빔포밍 파라미터들은 지문 센서 상에서 지문이 0°에 있는 상황들에 대해 최적화되고(예를 들어, 지문의 축이 지문 센서의 미리 정해진 축과 정렬됨), 제2 세트의 빔포밍 파라미터들은 지문의 각도가 지문 센서 상에서 지문 센서의 미리 정해진 축에 대해 90°인 상황들 등에 대해 최적화된다. 일부 실시예들에서, 빔포밍 파라미터들이 디바이스에 저장되고, 빔포밍 파라미터들은 배향에서의 변화를 검출하는 것에 응답하여 저장장치로부터 검색된다. 일부 실시예들에서, 빔포밍 파라미터들은 필요한 대로 디바이스에 의해 생성된다. 일부 실시예들에서, 복수의 세트들의 미리 정해진 빔포밍 파라미터들은 15°, 30°, 또는 45°와 같이 규칙적으로 이격된 간격들을 갖는 지문 배향들에 대응한다. 예를 들어, 지문 센서의 미리 정해진 축에 대한 지문 센서 상에서의 지문의 각도가 45°일 때, 디바이스는 지문 센서 상에서의 지문의 각도에 따라 상이한 세트들의 기준 빔포밍 파라미터들(예를 들어, 한 세트의 30° 빔포밍 파라미터들 및 한 세트의 60° 빔포밍 파라미터들)로부터의 기여들을 조합한다.In some embodiments, in response to detecting a change in the orientation of the fingerprint on the fingerprint sensor, the device selects a second set of beamforming parameters from a plurality of sets of predetermined beamforming parameters associated with corresponding fingerprint orientations (4814). For example, the first set of beamforming parameters may be optimized for situations where the fingerprint is at 0 [deg.] On the fingerprint sensor (e.g., the axis of the fingerprint is aligned with a predetermined axis of the fingerprint sensor) The beamforming parameters of the fingerprint sensor are optimized for situations such that the angle of the fingerprint is 90 degrees with respect to the predetermined axis of the fingerprint sensor on the fingerprint sensor. In some embodiments, beamforming parameters are stored in the device and beamforming parameters are retrieved from the storage device in response to detecting a change in orientation. In some embodiments, the beamforming parameters are generated by the device as needed. In some embodiments, the predetermined beamforming parameters of the plurality of sets correspond to fingerprint orientations having regularly spaced intervals, such as 15 [deg.], 30 [deg.], Or 45 [deg.]. For example, when the angle of the fingerprint on the fingerprint sensor for a predetermined axis of the fingerprint sensor is 45 [deg.], The device may determine different sets of reference beamforming parameters (e.g., ≪ / RTI > 30 < RTI ID = 0.0 > beamforming < / RTI > parameters and a set of 60 beamforming parameters).
일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 디바이스의 오디오 요소들에 대한 디바이스의 사용자의 입의 위치에서 있을 수 있는 변화(4818)를 보상한다(4816)(예를 들어, 빔포밍의 변화는 사용자로부터의 소리를 보다 효율적으로 캡처함). 예를 들어, 도 47d 내지 도 47f는 지문 센서(169) 상에서의 지문의 배향의 변화에 따라 빔포밍 파라미터들을 변화시킴으로써 소리 녹음 모드에서 소리를 캡처하는 동안에 마이크(113)에 대한 디바이스(100)의 사용자의 입의 위치에서 있을 수 있는 변화를 보상하는 디바이스(100)를 도시한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters is a
일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 디바이스의 오디오 요소들에 대한 디바이스의 사용자의 귀의 위치에서 있을 수 있는 변화(4820)를 보상한다(4816)(예를 들어, 빔포밍의 변화는 사용자에게 소리를 보다 효율적으로 전달함). 예를 들어, 도 47a 내지 도 47c는 지문 센서(169) 상에서의 지문의 배향의 변화에 따라 빔포밍 파라미터들을 변화시킴으로써 미디어 재생 모드에서 소리를 생성하는 동안에 스피커(111)에 대한 디바이스(100)의 사용자의 귀의 위치에서 있을 수 있는 변화를 보상하는 디바이스(100)를 도시한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters may be compensated for a
일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 디바이스의 오디오 요소들에 대한 디바이스 사용자의 손의 위치에서 있을 수 있는 변화(4822)를 보상한다(4816)(예를 들어, 손이 오디오 요소들과 사용자의 손/귀 사이의 경로를 적어도 부분적으로 차단할 가능성이 있다면, 빔포밍의 변화는 사용자로부터의 소리를 보다 효율적으로 캡처하고/하거나 사용자에게 소리를 보다 효율적으로 전달함). 예를 들어, 도 47g 내지 도 47i는 지문 센서(169) 상에서의 지문의 배향의 변화에 따라 빔포밍 파라미터들을 변화시킴으로써 스피커 폰 모드에서 소리를 생성 및 캡처하는 동안에 스피커(111) 및 마이크(113)에 대한 디바이스(100)의 사용자의 손의 위치에서 있을 수 있는 변화를 보상하는 디바이스(100)를 도시한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a
도 48a 및 도 48b의 동작들이 기술된 특정한 순서는 단지 예시적이며, 기술된 순서가 동작들이 수행될 수 있는 유일한 순서임을 나타내고자 하는 것이 아님을 이해하여야 한다. 당업자는 본 명세서에 기술된 동작들을 재순서화하는 다양한 방법들을 인식할 것이다. 또한, 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 다른 프로세스들의 상세사항들이 도 48a 및 도 48b와 관련하여 전술된 방법(4800)에 유사한 방식으로 또한 적용가능함에 주목하여야 한다. 예를 들어, 방법(4800)과 관련하여 전술된 지문들은 선택적으로 본 명세서에 기술된 다른 방법들(예를 들어, "발명을 실시하기 위한 구체적인 내용" 내의 두번째 단락에서 나열된 방법들)과 관련하여 본 명세서에 기술된 지문들의 하나 이상의 특징들을 갖는다. 간결성을 위해, 이들 상세사항들은 여기서 반복되지 않는다.It should be understood that the particular order in which the operations of FIGS. 48A and 48B are described is exemplary only, and it is understood that the sequences described are not intended to represent that they are the only order in which operations can be performed. Those skilled in the art will recognize various ways of reordering the operations described herein. It should also be noted that other methods described herein (e.g., methods described in the second paragraph within " The details of the processes It should also be noted that it is also applicable in a similar manner to the
일부 실시예들에 따르면, 도 49는 기술된 다양한 실시예들의 원리들에 따라 구성된 전자 디바이스(4900)의 기능 블록도를 도시한다. 디바이스의 기능 블록들은 선택적으로 기술된 다양한 실시예들의 원리들을 실행하기 위한 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현된다. 기술된 다양한 실시예들의 원리들을 구현하기 위해 도 49에서 묘사된 기능 블록들이 선택적으로 조합되거나 하위 블록들로 분리될 수 있음이 당업자에 의해 이해된다. 따라서, 본 명세서의 설명은 선택적으로 본 명세서에 기술된 기능 블록들의 임의의 가능한 조합 또는 분리 또는 추가적 한정을 지원한다.According to some embodiments, Figure 49 illustrates a functional block diagram of an
도 49에 도시된 바와 같이, 전자 디바이스(4900)는 하나 이상의 사용자 인터페이스 객체들을 표시하도록 구성된 디스플레이 유닛(4902); 지문 센서 유닛(4904); 오디오 신호들을 생성 및/또는 캡처하도록 구성된 한 세트의 하나 이상의 오디오 유닛들(4906); 및 디스플레이 유닛(4902), 지문 센서 유닛(4904) 및 한 세트의 하나 이상의 오디오 유닛(4906)들에 결합된 프로세싱 유닛(4908)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(4908)은 동작 유닛(4910), 검출 유닛(4912) 및 선택 유닛(4914)을 포함한다.As shown in Figure 49, the
(예를 들어, 검출 유닛(4912)을 이용하여) 제1 지문이 지문 센서 유닛(4904) 상에서 제1 배향으로 검출되는 동안에, 프로세싱 유닛(4908)은 제1 세트의 빔포밍 파라미터들을 따라 (예를 들어, 동작 유닛(4910)을 이용하여) 한 세트의 하나 이상의 오디오 유닛(4906)들을 동작시키도록 구성된다. 프로세싱 유닛(4908)은 (예를 들어, 검출 유닛(4912)을 이용하여) 지문 센서 유닛(4904) 상에서 제1 배향과는 상이한 제2 배향을 갖는 후속의 지문 - 후속의 지문은 변경된 배향을 갖는 제1 지문 및 제1 지문과는 별개인 제2 지문으로 이루어진 세트로부터 선택됨 - 을 검출하고; 지문 센서 유닛(4904) 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여, (예를 들어, 동작 유닛(4910)을 이용하여) 제1 세트의 빔포밍 파라미터들과는 상이한 제2 세트의 빔포밍 파라미터들에 따라 한 세트의 하나 이상의 오디오 유닛(4906)들을 동작시키도록 추가로 구성된다.While the first fingerprint is detected in the first orientation on the fingerprint sensor unit 4904 (e.g., using the detection unit 4912), the processing unit 4908 may detect the first fingerprint in accordance with the first set of beamforming parameters (e.g., (E.g., using an operation unit 4910) to operate a set of one or more audio units 4906. The processing unit 4908 may determine that the subsequent fingerprint-subsequent fingerprint with a second orientation that is different from the first orientation on the fingerprint sensor unit 4904 (e.g., using the detection unit 4912) A first fingerprint and a second fingerprint that is separate from the first fingerprint; In response to detecting a subsequent fingerprint with a second orientation on the
일부 실시예들에서, 한 세트의 하나 이상의 오디오 유닛(4906)들은 복수의 스피커들을 포함한다. 일부 실시예들에서, 한 세트의 하나 이상의 오디오 유닛(4906)들은 복수의 마이크들을 포함한다. 일부 실시예들에서, 한 세트의 하나 이상의 오디오 유닛(4906)들은 하나 이상의 마이크들 및 하나 이상의 스피커들을 포함한다.In some embodiments, a set of one or more audio units 4906 includes a plurality of speakers. In some embodiments, a set of one or more audio units 4906 includes a plurality of microphones. In some embodiments, a set of one or more audio units 4906 includes one or more microphones and one or more speakers.
일부 실시예들에서, 프로세싱 유닛(4908)은 (예를 들어, 검출 유닛(4912)을 이용하여) 지문 센서 유닛(4904) 상에서 제2 배향을 갖는 후속의 지문을 검출하는 것에 응답하여 (예를 들어, 선택 유닛(4914)을 이용하여) 대응하는 지문 배향들과 연관된 복수의 세트들의 미리 정해진 빔포밍 파라미터들로부터 제2 세트의 빔포밍 파라미터들을 선택하도록 추가로 구성된다.In some embodiments, the processing unit 4908 may be configured to detect a fingerprint in response to detecting a subsequent fingerprint having a second orientation on the fingerprint sensor unit 4904 (e.g., using the detection unit 4912) (Using the selection unit 4914) to select a second set of beamforming parameters from a plurality of sets of predetermined beamforming parameters associated with corresponding fingerprint orientations.
일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 하나 이상의 오디오 유닛(4906)들에 대한 디바이스 사용자의 입의 위치에서 있을 수 있는 변화를 보상한다. 일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 하나 이상의 오디오 유닛(4906)들에 대한 디바이스 사용자의 귀의 위치에서 있을 수 있는 변화를 보상한다. 일부 실시예들에서, 제1 세트의 빔포밍 파라미터들과 제2 세트의 빔포밍 파라미터들 사이의 차이는 하나 이상의 오디오 유닛(4906)들에 대한 디바이스 사용자의 손의 위치에서 있을 수 있는 변화를 보상한다.In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a change in the position of the mouth of the device user relative to the one or more audio units 4906 do. In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a possible change in the position of the ear of the device user relative to the one or more audio units 4906 . In some embodiments, the difference between the first set of beamforming parameters and the second set of beamforming parameters compensates for a change that may be at the location of the device user's hand relative to the one or more audio units 4906 do.
전술된 정보 프로세싱 방법들 내의 동작들은 선택적으로 (예를 들어, 도 1a 및 도 3과 관련하여 전술된 바와 같은) 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은 정보 프로세싱 장치 내의 하나 이상의 기능적 모듈을 실행시킴으로써 구현된다.Operations in the above-described information processing methods may optionally be implemented by executing one or more functional modules in an information processing device, such as general purpose processors or application specific chips (e.g., as described above with respect to FIGS. 1A and 3) do.
도 48a 및 도 48b와 관련하여 전술된 동작들은 선택적으로 도 1a 및 도 1b 또는 도 49에 도시된 컴포넌트들에 의해 구현된다. 예를 들어, 작동 동작(4802, 4812), 검출 동작(4810) 및 선택 동작(4814)이 선택적으로 이벤트 분류기(170), 이벤트 인식기(180) 및 이벤트 핸들러(190)에 의해 구현된다. 이벤트 분류기(170) 내의 이벤트 모니터(171)는 터치-감응 디스플레이(112) 상에서의 접촉을 검출하고 이벤트 디스패처 모듈(174)은 이벤트 정보를 애플리케이션(136-1)에 전달한다. 애플리케이션(136-1)의 각자의 이벤트 인식기(180)는 이벤트 정보를 각자의 이벤트 정의(186)와 비교하고, 터치-감응 표면 상의 제1 위치에서의 제1 접촉이 사용자 인터페이스 상의 객체의 선택과 같은 미리 정해진 이벤트 또는 서브-이벤트에 대응하는지 여부를 결정한다. 각자의 미리 정해진 이벤트 또는 서브-이벤트가 검출되는 경우, 이벤트 인식기(180)는 이벤트 또는 서브-이벤트의 검출과 관련된 이벤트 핸들러(190)를 활성화시킨다. 이벤트 핸들러(190)는 선택적으로 애플리케이션 내부 상태(192)를 업데이트하기 위해서 데이터 업데이터(176) 또는 객체 업데이터(177)를 활용하거나 호출한다. 일부 실시예들에서, 이벤트 핸들러(190)는 애플리케이션에 의해 표시되는 것을 업데이트하기 위해 각자의 GUI 업데이터(178)에 액세스한다. 유사하게, 다른 프로세스들이 어떻게 도 1a 및 도 1b에 도시된 컴포넌트들에 기초하여 구현될 수 있는지는 당업자에게 자명할 것이다.The operations described above with reference to Figures 48A and 48B are optionally implemented by the components shown in Figures 1A and 1B or 49. [ For example,
상기의 기술된 내용은 설명을 위해 특정 실시예들을 참조하여 설명되었다. 그러나, 상기의 예시적인 논의들은 본 발명을 망라하거나 개시된 정확한 형태들로 제한하려는 의도는 아니다. 많은 수정들 및 변형들이 상기 교시 내용들의 관점에서 가능하다. 본 발명의 원리 및 그의 실제적인 응용을 가장 잘 설명하여서 다른 당업자들이 본 발명을 다양한 기술된 실시예에서 그리고 고려되는 특정 용도에 적합한 바와 같은 다양한 변형을 갖고서 가장 잘 사용하는 것을 가능하게 하도록 실시예들이 선택 및 설명되었다.The above description has been described with reference to specific embodiments for purposes of illustration. It should be understood, however, that the foregoing illustrative discussion is not intended to limit the invention to the precise forms disclosed, Many modifications and variations are possible in light of the above teachings. It will be apparent to those skilled in the art that, in order to best explain the principles of the invention and its practical application, it will be apparent to one of ordinary skill in the art that various modifications may be made to the embodiments to enable others skilled in the art to best utilize the invention with various modifications as are suited to the particular use Selected and described.
Claims (464)
상기 디바이스는 버튼을 포함하고,
상기 지문 센서는 상기 버튼 내로 통합되며,
상기 방법은,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하는 단계;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하는 단계;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하는 단계, 및
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하는 단계;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하는 단계; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하는 단계를 포함하는, 방법.A method performed by an electronic device having a fingerprint sensor and a display,
The device comprising a button,
Wherein the fingerprint sensor is integrated into the button,
The method comprises:
Displaying a first user interface on the display;
Detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction, and
Displaying a second user interface different from the first user interface on the display in accordance with the determination that movement of the fingerprint is in a second direction different from the first direction;
Detecting activation of the button while the first user interface is being displayed; And
Responsive to detecting activation of the button, replacing the first user interface with a predetermined user interface associated with activation of the button.
상기 제1 사용자 인터페이스는 제1 애플리케이션의 사용자 인터페이스이고,
상기 제2 사용자 인터페이스는 복수의 동시에 열린 애플리케이션들의 표현들을 포함하는 멀티태스킹 사용자 인터페이스인, 방법.The method according to claim 1,
Wherein the first user interface is a user interface of the first application,
Wherein the second user interface is a multitasking user interface comprising representations of a plurality of simultaneously open applications.
상기 지문의 이동이 상기 제2 방향으로 있다는 결정에 따라 상기 제2 사용자 인터페이스를 표시하는 동안에, 상기 제1 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 단계; 및
상기 제1 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여, 상기 제2 사용자 인터페이스를 통해 내비게이션하는 단계를 포함하는, 방법.The method according to claim 1,
Detecting movement of the fingerprint on the fingerprint sensor in the first direction while displaying the second user interface in accordance with the determination that movement of the fingerprint is in the second direction; And
And navigating through the second user interface in response to detecting movement of the fingerprint on the fingerprint sensor in the first direction.
상기 지문의 이동이 상기 제2 방향으로 있다는 결정에 따라 상기 제2 사용자 인터페이스를 표시하는 동안에, 제3 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 단계; 및
상기 제3 방향으로의 상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여, 상기 제2 사용자 인터페이스를 표시하는 것을 중단하는 단계를 포함하는, 방법.The method according to claim 1,
Detecting movement of the fingerprint on the fingerprint sensor in a third direction while displaying the second user interface in accordance with the determination that movement of the fingerprint is in the second direction; And
And stopping displaying the second user interface in response to detecting movement of the fingerprint on the fingerprint sensor in the third direction.
상기 제2 사용자 인터페이스를 표시하는 단계는 상기 디스플레이 상에 나타나는 상기 제2 사용자 인터페이스의 애니메이션화 천이(animated transition)를 표시하는 단계를 포함하고,
상기 애니메이션화 천이의 속도는 상기 지문 센서 상에서의 상기 지문의 변위에 기초하는, 방법.The method according to claim 1,
Wherein displaying the second user interface comprises displaying an animated transition of the second user interface appearing on the display,
Wherein the rate of the animated transition is based on a displacement of the fingerprint on the fingerprint sensor.
상기 디바이스는 터치-감응 표면(touch-sensitive surface)을 포함하고,
상기 지문 센서는 상기 터치-감응 표면과는 별개인, 방법.The method according to claim 1,
The device includes a touch-sensitive surface,
Wherein the fingerprint sensor is separate from the touch-sensitive surface.
상기 제2 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하는 단계; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제2 사용자 인터페이스를 표시하는 것을 중단시키는 단계를 포함하는, 방법.The method according to claim 1,
Detecting activation of the button while the second user interface is being displayed; And
In response to detecting activation of the button, stopping displaying the second user interface.
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 이중 활성화를 검출하는 단계; 및
상기 버튼의 이중 활성화를 검출하는 것에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스를 표시하는 단계를 포함하는, 방법.The method according to claim 1,
Detecting a dual activation of the button while the first user interface is being displayed; And
Responsive to detecting a dual activation of the button, displaying the second user interface on the display.
디스플레이;
지문 센서;
하나 이상의 프로세서들;
메모리;
버튼 - 상기 지문 센서는 상기 버튼 내로 통합됨 -; 및
상기 메모리에 저장되고 상기 하나 이상의 프로세서들에 의해 실행되도록 구성된 하나 이상의 프로그램들을 포함하며,
상기 하나 이상의 프로그램들은,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하기 위한 명령어;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하기 위한 명령어;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하기 위한 명령어, 및
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하기 위한 명령어;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하기 위한 명령어; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하기 위한 명령어
를 포함하는, 전자 디바이스.As an electronic device,
display;
Fingerprint sensor;
One or more processors;
Memory;
Button; said fingerprint sensor integrated into said button; And
And one or more programs stored in the memory and configured to be executed by the one or more processors,
The one or more programs,
Instructions for displaying a first user interface on the display;
Instructions for detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Instructions for navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction, and
Displaying a second user interface different from the first user interface on the display in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction;
Instructions for detecting activation of the button while the first user interface is being displayed; And
In response to detecting activation of the button, replacing the first user interface with a predetermined user interface associated with activation of the button
.
상기 하나 이상의 프로그램들은, 디스플레이 및 지문 센서를 갖는 전자 디바이스에 의해 실행될 때, 상기 디바이스로 하여금 - 상기 디바이스는 버튼을 포함하고, 상기 지문 센서는 상기 버튼 내로 통합됨 -,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하게 하고;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하게 하고;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하게 하고,
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하게 하고,
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하게 하고; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하게 하는
명령어들을 포함하는, 컴퓨터 판독가능 저장 매체.A computer-readable storage medium storing one or more programs,
Wherein the one or more programs, when executed by an electronic device having a display and a fingerprint sensor, cause the device to: - the device includes a button,
Display a first user interface on the display;
Detect movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Allowing navigation through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction,
Display a second user interface different from the first user interface on the display in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction,
Detect activation of the button while the first user interface is being displayed; And
In response to detecting activation of the button, causing the first user interface to replace a predetermined user interface associated with activating the button
≪ / RTI > instructions.
디스플레이;
지문 센서;
버튼 - 상기 지문 센서는 상기 버튼 내로 통합됨 -; 및
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하기 위한 수단;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하기 위한 수단;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하고,
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하기 위한 수단;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하기 위한 수단; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하기 위한 수단
을 포함하는, 전자 디바이스.As an electronic device,
display;
Fingerprint sensor;
Button; said fingerprint sensor integrated into said button; And
Means for displaying a first user interface on the display;
Means for detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction,
Means for displaying a second user interface different from the first user interface on the display, in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction;
Means for detecting activation of the button while the first user interface is being displayed; And
Means for replacing the first user interface with a predetermined user interface associated with activation of the button in response to detecting activation of the button;
.
상기 디바이스는 버튼을 포함하고,
상기 지문 센서는 상기 버튼 내로 통합되며,
상기 정보 프로세싱 장치는,
상기 디스플레이 상에 제1 사용자 인터페이스를 표시하기 위한 수단;
상기 디스플레이 상에 상기 제1 사용자 인터페이스를 표시하는 동안에, 상기 지문 센서 상에서의 지문의 이동을 검출하기 위한 수단;
상기 지문 센서 상에서의 상기 지문의 이동을 검출하는 것에 응답하여:
상기 지문의 이동이 제1 방향으로 있다는 결정에 따라, 상기 제1 사용자 인터페이스를 통해 내비게이션하고,
상기 지문의 이동이 상기 제1 방향과는 상이한 제2 방향으로 있다는 결정에 따라, 상기 디스플레이 상에 상기 제1 사용자 인터페이스와는 상이한 제2 사용자 인터페이스를 표시하기 위한 수단;
상기 제1 사용자 인터페이스가 표시되는 동안에, 상기 버튼의 활성화를 검출하기 위한 수단; 및
상기 버튼의 활성화를 검출하는 것에 응답하여, 상기 제1 사용자 인터페이스를 상기 버튼의 활성화와 연관된 미리 정해진 사용자 인터페이스로 대체하기 위한 수단
을 포함하는, 정보 프로세싱 장치.An information processing apparatus for use in an electronic device having a display and a fingerprint sensor,
The device comprising a button,
Wherein the fingerprint sensor is integrated into the button,
The information processing apparatus includes:
Means for displaying a first user interface on the display;
Means for detecting movement of the fingerprint on the fingerprint sensor while displaying the first user interface on the display;
In response to detecting movement of the fingerprint on the fingerprint sensor:
Navigating through the first user interface in accordance with a determination that movement of the fingerprint is in a first direction,
Means for displaying a second user interface different from the first user interface on the display, in accordance with a determination that movement of the fingerprint is in a second direction different from the first direction;
Means for detecting activation of the button while the first user interface is being displayed; And
Means for replacing the first user interface with a predetermined user interface associated with activation of the button in response to detecting activation of the button;
Gt; information processing apparatus.
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261649207P | 2012-05-18 | 2012-05-18 | |
US61/649,207 | 2012-05-18 | ||
US201261667926P | 2012-07-03 | 2012-07-03 | |
US61/667,926 | 2012-07-03 | ||
US201361794710P | 2013-03-15 | 2013-03-15 | |
US61/794,710 | 2013-03-15 | ||
PCT/US2013/041868 WO2013173838A2 (en) | 2012-05-18 | 2013-05-20 | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150021943A KR20150021943A (en) | 2015-03-03 |
KR101710771B1 true KR101710771B1 (en) | 2017-02-27 |
Family
ID=48576561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147035557A Active KR101710771B1 (en) | 2012-05-18 | 2013-05-20 | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
Country Status (9)
Country | Link |
---|---|
US (3) | US11209961B2 (en) |
EP (1) | EP2850510A2 (en) |
JP (4) | JP6023879B2 (en) |
KR (1) | KR101710771B1 (en) |
CN (4) | CN111176516B (en) |
AU (4) | AU2013262488A1 (en) |
BR (1) | BR112014028774B1 (en) |
HK (1) | HK1206452A1 (en) |
WO (1) | WO2013173838A2 (en) |
Families Citing this family (398)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0740065B2 (en) | 1989-11-18 | 1995-05-01 | 防衛庁技術研究本部長 | Towed wave receiving method of wire-guided torpedo |
JP2000501033A (en) * | 1995-11-30 | 2000-02-02 | ヴァーチャル テクノロジーズ インコーポレイテッド | Human / machine interface with tactile feedback |
JP2010541046A (en) | 2007-09-24 | 2010-12-24 | アップル インコーポレイテッド | Authentication system built into electronic devices |
US8594740B2 (en) | 2008-06-11 | 2013-11-26 | Pantech Co., Ltd. | Mobile communication terminal and data input method |
USD852838S1 (en) | 2009-08-19 | 2019-07-02 | Fadi Ibsies | Display screen with transitional graphical user interface for dental software |
US10251735B2 (en) | 2009-08-19 | 2019-04-09 | Fadi Ibsies | Specialized keyboard for dental examinations |
USD775655S1 (en) * | 2009-08-19 | 2017-01-03 | Fadi Ibsies | Display screen with graphical user interface for dental software |
US10254852B2 (en) | 2009-08-19 | 2019-04-09 | Fadi Ibsies | Specialized keyboard for dental examinations |
US8487759B2 (en) | 2009-09-30 | 2013-07-16 | Apple Inc. | Self adapting haptic device |
US8917632B2 (en) | 2010-04-07 | 2014-12-23 | Apple Inc. | Different rate controller configurations for different cameras of a mobile device |
US8626530B1 (en) * | 2010-08-27 | 2014-01-07 | Walgreen Co. | System and method for express refill |
US10120446B2 (en) | 2010-11-19 | 2018-11-06 | Apple Inc. | Haptic input device |
US10275153B2 (en) * | 2011-05-19 | 2019-04-30 | Will John Temple | Multidirectional button, key, and keyboard |
KR102023801B1 (en) | 2011-06-05 | 2019-09-20 | 애플 인크. | Systems and methods for displaying notifications received from multiple applications |
US11165963B2 (en) | 2011-06-05 | 2021-11-02 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US9002322B2 (en) | 2011-09-29 | 2015-04-07 | Apple Inc. | Authentication with secondary approver |
US8769624B2 (en) | 2011-09-29 | 2014-07-01 | Apple Inc. | Access control utilizing indirect authentication |
US9268991B2 (en) * | 2012-03-27 | 2016-02-23 | Synaptics Incorporated | Method of and system for enrolling and matching biometric data |
CN108052264B (en) | 2012-05-09 | 2021-04-27 | 苹果公司 | Device, method and graphical user interface for moving and placing user interface objects |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
CN106201316B (en) | 2012-05-09 | 2020-09-29 | 苹果公司 | Apparatus, method and graphical user interface for selecting user interface objects |
EP3185116B1 (en) | 2012-05-09 | 2019-09-11 | Apple Inc. | Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
JP6002836B2 (en) | 2012-05-09 | 2016-10-05 | アップル インコーポレイテッド | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
CN105260049B (en) | 2012-05-09 | 2018-10-23 | 苹果公司 | For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
EP2847662B1 (en) | 2012-05-09 | 2020-02-19 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
CN111176516B (en) | 2012-05-18 | 2023-10-20 | 苹果公司 | Apparatus, method and graphical user interface for manipulating a user interface |
DE112013005988B4 (en) | 2012-12-14 | 2023-09-21 | Apple Inc. | Force detection through changes in capacity |
US10817096B2 (en) | 2014-02-06 | 2020-10-27 | Apple Inc. | Force sensor incorporated into display |
KR101435482B1 (en) * | 2012-12-17 | 2014-08-28 | 크루셜텍 (주) | Method, apparatus and computer-readable recording medium for running a program using recognizing fingerprint |
TWI540492B (en) * | 2012-12-20 | 2016-07-01 | 晨星半導體股份有限公司 | Electronic device and electronic device controlling method |
KR101958517B1 (en) | 2012-12-29 | 2019-03-14 | 애플 인크. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
AU2013368445B8 (en) | 2012-12-29 | 2017-02-09 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select contents |
CN104903835B (en) | 2012-12-29 | 2018-05-04 | 苹果公司 | For abandoning equipment, method and the graphic user interface of generation tactile output for more contact gestures |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
KR102301592B1 (en) | 2012-12-29 | 2021-09-10 | 애플 인크. | Device, method, and graphical user interface for navigating user interface hierachies |
KR101755625B1 (en) * | 2013-01-07 | 2017-07-07 | 삼성전자주식회사 | Display apparatus, method for ui display thereof and computer-readable recording medium |
KR101713784B1 (en) * | 2013-01-07 | 2017-03-08 | 삼성전자주식회사 | Electronic apparatus and Method for controlling electronic apparatus thereof |
KR20150113169A (en) | 2013-02-08 | 2015-10-07 | 애플 인크. | Force determination based on capacitive sensing |
US9298361B2 (en) | 2013-03-15 | 2016-03-29 | Apple Inc. | Analyzing applications for different access modes |
US9851828B2 (en) | 2013-03-15 | 2017-12-26 | Apple Inc. | Touch force deflection sensor |
WO2014143776A2 (en) | 2013-03-15 | 2014-09-18 | Bodhi Technology Ventures Llc | Providing remote interactions with host device using a wireless device |
WO2014157897A1 (en) * | 2013-03-27 | 2014-10-02 | Samsung Electronics Co., Ltd. | Method and device for switching tasks |
US10229258B2 (en) * | 2013-03-27 | 2019-03-12 | Samsung Electronics Co., Ltd. | Method and device for providing security content |
US20140359757A1 (en) * | 2013-06-03 | 2014-12-04 | Qualcomm Incorporated | User authentication biometrics in mobile devices |
FI20135621A7 (en) * | 2013-06-04 | 2014-12-05 | Berggram Dev Oy | Grid based user interface for chord presentation on a touch screen device |
US10031586B2 (en) * | 2013-06-12 | 2018-07-24 | Amazon Technologies, Inc. | Motion-based gestures for a computing device |
US20140380198A1 (en) * | 2013-06-24 | 2014-12-25 | Xiaomi Inc. | Method, device, and terminal apparatus for processing session based on gesture |
US9846526B2 (en) * | 2013-06-28 | 2017-12-19 | Verizon and Redbox Digital Entertainment Services, LLC | Multi-user collaboration tracking methods and systems |
US9671889B1 (en) | 2013-07-25 | 2017-06-06 | Apple Inc. | Input member with capacitive sensor |
US11726631B2 (en) * | 2013-08-24 | 2023-08-15 | Tara Chand Singhal | Apparatus and method for a simplified menu screen in handheld mobile wireless devices |
CN104461335A (en) * | 2013-09-25 | 2015-03-25 | 联想(北京)有限公司 | Data processing method and electronic instrument |
US10236760B2 (en) | 2013-09-30 | 2019-03-19 | Apple Inc. | Magnetic actuators for haptic response |
US20150127505A1 (en) * | 2013-10-11 | 2015-05-07 | Capital One Financial Corporation | System and method for generating and transforming data presentation |
WO2015057211A1 (en) * | 2013-10-16 | 2015-04-23 | Empire Technology Development, Llc | Control redistribution among multiple devices |
KR102158211B1 (en) * | 2013-10-18 | 2020-09-22 | 엘지전자 주식회사 | The mobile terminal and the control method thereof |
US10586028B2 (en) * | 2013-10-21 | 2020-03-10 | Purdue Research Foundation | Customized biometric data capture for improved security |
US9317118B2 (en) | 2013-10-22 | 2016-04-19 | Apple Inc. | Touch surface for simulating materials |
KR102217858B1 (en) * | 2013-11-13 | 2021-02-19 | 삼성전자주식회사 | Method for fingerprint authentication, fingerprint authentication device, and mobile terminal performing thereof |
US12080421B2 (en) | 2013-12-04 | 2024-09-03 | Apple Inc. | Wellness aggregator |
US20160019360A1 (en) | 2013-12-04 | 2016-01-21 | Apple Inc. | Wellness aggregator |
US10276001B2 (en) | 2013-12-10 | 2019-04-30 | Apple Inc. | Band attachment mechanism with haptic response |
US9705676B2 (en) * | 2013-12-12 | 2017-07-11 | International Business Machines Corporation | Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management |
USD755809S1 (en) * | 2013-12-30 | 2016-05-10 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
US9536130B2 (en) * | 2013-12-30 | 2017-01-03 | Google Technology Holdings LLC | Electronic device with a fingerprint reader and method for operating the same |
TWI539318B (en) * | 2013-12-31 | 2016-06-21 | 茂丞科技股份有限公司 | Electronic device with multi-function sensor and method of operating such device |
US20150202533A1 (en) * | 2014-01-21 | 2015-07-23 | Nvidia Corporation | Mapping touchscreen gestures to ergonomic controls across application scenes |
KR102187219B1 (en) * | 2014-01-22 | 2020-12-04 | 삼성전자주식회사 | Electronic device and method for providing control function using fingerprint sensor |
US20150205464A1 (en) * | 2014-01-22 | 2015-07-23 | Microsoft Corporation | Updating a user interface to a service |
EP3072040B1 (en) | 2014-02-12 | 2021-12-29 | Apple Inc. | Force determination employing sheet sensor and capacitive array |
KR102177150B1 (en) * | 2014-02-19 | 2020-11-10 | 삼성전자 주식회사 | Apparatus and method for recognizing a fingerprint |
USD738910S1 (en) * | 2014-03-19 | 2015-09-15 | Wargaming.Net Llp | Display screen with animated graphical user interface |
US9122349B1 (en) | 2014-03-19 | 2015-09-01 | Bidirectional Display Inc. | Image sensor panel and method for capturing graphical information using same |
WO2015143011A1 (en) | 2014-03-19 | 2015-09-24 | Bidirectional Display Inc. | Image sensor panel and method for capturing graphical information using same |
JP5926788B2 (en) * | 2014-04-03 | 2016-05-25 | 神盾股▲ふん▼有限公司 | TFT fingerprint sensor device and method |
US10545604B2 (en) | 2014-04-21 | 2020-01-28 | Apple Inc. | Apportionment of forces for multi-touch input devices of electronic devices |
US10198123B2 (en) | 2014-04-21 | 2019-02-05 | Apple Inc. | Mitigating noise in capacitive sensor |
US10845982B2 (en) * | 2014-04-28 | 2020-11-24 | Facebook, Inc. | Providing intelligent transcriptions of sound messages in a messaging application |
US10064060B2 (en) * | 2014-05-05 | 2018-08-28 | Apple Inc. | Fingerprint activation of a panic mode of operation for a mobile device |
US9990483B2 (en) | 2014-05-07 | 2018-06-05 | Qualcomm Incorporated | Dynamic activation of user profiles based on biometric identification |
CN105303372B (en) * | 2014-05-29 | 2022-08-09 | 苹果公司 | User interface for payments |
AU2015267671B2 (en) | 2014-05-30 | 2018-04-19 | Apple Inc. | Transition from use of one device to another |
US9967401B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | User interface for phone call routing among devices |
US9811707B2 (en) * | 2014-06-04 | 2017-11-07 | Lenovo (Singapore) Pte. Ltd. | Fingerprint reader on a portion of a device for changing the configuration of the device |
TWD175539S (en) * | 2014-06-06 | 2016-05-11 | 樂視移動智慧資訊技術(北京)有限公司; | Display screen graphical user interface |
TWD175824S (en) * | 2014-06-06 | 2016-05-21 | 樂視網信息技術(北京)股份有限公司; | Display screen graphical user interface |
US10867149B2 (en) * | 2014-06-12 | 2020-12-15 | Verizon Media Inc. | User identification through an external device on a per touch basis on touch sensitive devices |
CN105260043A (en) * | 2014-06-13 | 2016-01-20 | 宸鸿科技(厦门)有限公司 | Touch panel with fingerprint identification function |
CN105468187A (en) * | 2014-06-18 | 2016-04-06 | 宸鸿科技(厦门)有限公司 | Touch panel with fingerprint recognition function |
JP2016006613A (en) | 2014-06-20 | 2016-01-14 | ソニー株式会社 | Information processing device, information processing method, and program |
KR102264808B1 (en) * | 2014-06-23 | 2021-06-14 | 삼성전자주식회사 | Method for processing fingerprint and electronic device thereof |
US20150379160A1 (en) * | 2014-06-29 | 2015-12-31 | Yaniv AVRAHAM | Apparatus and methods for transferring focus control and related return content within a graphical user interface |
CN105278799B (en) * | 2014-07-02 | 2020-04-07 | 腾讯科技(深圳)有限公司 | Interface switching method and device |
TWI549504B (en) * | 2014-08-11 | 2016-09-11 | 宏碁股份有限公司 | Image capturing device and auto-focus compensation method thereof |
US9740839B2 (en) * | 2014-08-13 | 2017-08-22 | Google Technology Holdings LLC | Computing device chording authentication and control |
US10339293B2 (en) | 2014-08-15 | 2019-07-02 | Apple Inc. | Authenticated device used to unlock another device |
CN104199602B (en) * | 2014-08-26 | 2018-11-09 | 联想(北京)有限公司 | A kind of information processing method and electronic equipment |
US10289260B2 (en) * | 2014-08-27 | 2019-05-14 | Honda Motor Co., Ltd. | Systems and techniques for application multi-tasking |
US9465930B2 (en) | 2014-08-29 | 2016-10-11 | Dropbox, Inc. | Fingerprint gestures |
US20160063645A1 (en) * | 2014-08-29 | 2016-03-03 | Hrb Innovations, Inc. | Computer program, method, and system for detecting fraudulently filed tax returns |
US9864979B2 (en) * | 2014-08-29 | 2018-01-09 | Panasonic Intellectual Property Management Co., Ltd. | Transaction terminal device |
DE202015006141U1 (en) * | 2014-09-02 | 2015-12-14 | Apple Inc. | Electronic touch communication |
US9830782B2 (en) | 2014-09-02 | 2017-11-28 | Apple Inc. | Haptic notifications |
USD762663S1 (en) * | 2014-09-02 | 2016-08-02 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
USD766325S1 (en) * | 2014-09-02 | 2016-09-13 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
USD766267S1 (en) * | 2014-09-02 | 2016-09-13 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
DE112015007313B4 (en) | 2014-09-02 | 2025-02-13 | Apple Inc. | physical activity and training monitor |
WO2016036427A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Electronic device with rotatable input mechanism |
KR102475306B1 (en) | 2014-09-02 | 2022-12-08 | 애플 인크. | Semantic framework for variable haptic output |
CN104202486A (en) * | 2014-09-26 | 2014-12-10 | 上海华勤通讯技术有限公司 | Mobile terminal and screen unlocking method thereof |
WO2016051986A1 (en) * | 2014-09-30 | 2016-04-07 | アルプス電気株式会社 | Operation device |
USRE49437E1 (en) | 2014-09-30 | 2023-02-28 | Apple Inc. | Audio driver and power supply unit architecture |
CN108848432B (en) | 2014-09-30 | 2020-03-24 | 苹果公司 | Loudspeaker |
EP3910515A1 (en) * | 2014-10-02 | 2021-11-17 | Trunomi Ltd. | Systems and methods for context-based permissioning of personally identifiable information |
US20160098087A1 (en) * | 2014-10-07 | 2016-04-07 | Schneider Electric Buildings, Llc | Systems and methods for gesture recognition |
CN104331653A (en) * | 2014-10-20 | 2015-02-04 | 深圳市汇顶科技股份有限公司 | Fingerprint decryption method and fingerprint decryption device |
US9349034B2 (en) * | 2014-10-28 | 2016-05-24 | Rovi Guides, Inc. | Methods and systems for invoking functions based on whether a partial print or an entire print is detected |
US9721141B2 (en) * | 2014-10-30 | 2017-08-01 | Polar Electro Oy | Wrist-worn apparatus control with fingerprint data |
CN105630345B (en) * | 2014-11-06 | 2019-02-19 | 阿里巴巴集团控股有限公司 | A kind of method and apparatus controlling display direction |
WO2016073640A1 (en) * | 2014-11-06 | 2016-05-12 | Alibaba Group Holding Limited | Method and system for controlling display direction of content |
US9588643B2 (en) * | 2014-12-18 | 2017-03-07 | Apple Inc. | Electronic devices with hand detection circuitry |
CN105807981A (en) * | 2014-12-31 | 2016-07-27 | 中兴通讯股份有限公司 | User terminal and working method thereof |
US10878715B2 (en) * | 2015-02-05 | 2020-12-29 | Type A+ LLC | Finger recognition system and method for use in typing |
KR102338864B1 (en) | 2015-02-12 | 2021-12-13 | 삼성전자주식회사 | Electronic device and method for registration finger print |
WO2016127426A1 (en) * | 2015-02-15 | 2016-08-18 | 华为技术有限公司 | Method and apparatus for displaying application and picture, and electronic device |
US9329831B1 (en) * | 2015-02-25 | 2016-05-03 | Sonos, Inc. | Playback expansion |
US9940502B2 (en) | 2015-02-27 | 2018-04-10 | Idex Asa | Pre-match prediction for pattern testing |
US10157306B2 (en) | 2015-02-27 | 2018-12-18 | Idex Asa | Curve matching and prequalification |
US10528789B2 (en) | 2015-02-27 | 2020-01-07 | Idex Asa | Dynamic match statistics in pattern matching |
JP2016162331A (en) * | 2015-03-04 | 2016-09-05 | セイコーエプソン株式会社 | Information processing device |
US10006937B2 (en) | 2015-03-06 | 2018-06-26 | Apple Inc. | Capacitive sensors for electronic devices and methods of forming the same |
US10353467B2 (en) | 2015-03-06 | 2019-07-16 | Apple Inc. | Calibration of haptic devices |
US9542037B2 (en) * | 2015-03-08 | 2017-01-10 | Apple Inc. | Device, method, and user interface for processing intensity of touch contacts |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
CN106155504B (en) * | 2015-03-26 | 2019-09-10 | 小米科技有限责任公司 | Mould group awakening method and device |
US9927892B2 (en) | 2015-03-27 | 2018-03-27 | International Business Machines Corporation | Multiple touch selection control |
EP3252590B1 (en) * | 2015-03-31 | 2021-03-31 | Huawei Technologies Co. Ltd. | Method for adjusting adjustable parameter of device, and device |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
KR102093196B1 (en) * | 2015-04-16 | 2020-04-14 | 삼성전자주식회사 | Device and method for conrol based on recognizing fingerprint |
AU2016100399B4 (en) | 2015-04-17 | 2017-02-02 | Apple Inc. | Contracting and elongating materials for providing input and output for an electronic device |
KR102396514B1 (en) * | 2015-04-29 | 2022-05-11 | 삼성전자주식회사 | Fingerprint information processing method and electronic device supporting the same |
KR102348486B1 (en) * | 2015-04-29 | 2022-01-07 | 삼성전자 주식회사 | Electronic device |
US9753622B2 (en) | 2015-05-06 | 2017-09-05 | James L. Moran | Customized interactive computing environment |
TWI575464B (en) * | 2015-06-04 | 2017-03-21 | 指紋卡公司 | Method and system for fingerprint-based navigation |
US9940637B2 (en) | 2015-06-05 | 2018-04-10 | Apple Inc. | User interface for loyalty accounts and private label accounts |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
AU2016231472B1 (en) * | 2015-06-07 | 2016-11-10 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10271084B2 (en) * | 2015-06-07 | 2019-04-23 | Apple Inc. | Video recording and replay |
WO2016204528A1 (en) * | 2015-06-16 | 2016-12-22 | 남기원 | Apparatus for smart simple payments, and system therefor |
KR102342267B1 (en) * | 2015-06-22 | 2021-12-22 | 삼성전자주식회사 | Portable apparatus and method for changing a screen |
JP6140773B2 (en) * | 2015-06-26 | 2017-05-31 | 京セラ株式会社 | Electronic device and method of operating electronic device |
US10600219B2 (en) | 2015-06-26 | 2020-03-24 | Idex Asa | Pattern mapping |
CN104915063B (en) * | 2015-06-29 | 2018-09-04 | 努比亚技术有限公司 | The method and apparatus for controlling intelligent terminal |
KR102508147B1 (en) | 2015-07-01 | 2023-03-09 | 엘지전자 주식회사 | Display apparatus and controlling method thereof |
EP3115932A1 (en) | 2015-07-07 | 2017-01-11 | Idex Asa | Image reconstruction |
TWI547884B (en) * | 2015-07-09 | 2016-09-01 | 金佶科技股份有限公司 | Fingerprint identification module |
US9544701B1 (en) | 2015-07-19 | 2017-01-10 | Sonos, Inc. | Base properties in a media playback system |
USD849027S1 (en) * | 2015-08-03 | 2019-05-21 | Google Llc | Display screen with animated graphical user interface |
USD848458S1 (en) * | 2015-08-03 | 2019-05-14 | Google Llc | Display screen with animated graphical user interface |
US9715301B2 (en) | 2015-08-04 | 2017-07-25 | Apple Inc. | Proximity edge sensing |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US11343101B2 (en) * | 2015-08-11 | 2022-05-24 | Vescel, Llc | Authentication through verification of an evolving identity credential |
WO2017028277A1 (en) * | 2015-08-19 | 2017-02-23 | 华为技术有限公司 | Fingerprint recognition method and mobile terminal |
EP4327731A3 (en) | 2015-08-20 | 2024-05-15 | Apple Inc. | Exercise-based watch face |
CN105045519B (en) * | 2015-08-27 | 2018-06-26 | 广东欧珀移动通信有限公司 | The screen control method and user terminal of a kind of user terminal |
US10001965B1 (en) | 2015-09-03 | 2018-06-19 | Sonos, Inc. | Playback system join with base |
US11099650B1 (en) | 2015-09-07 | 2021-08-24 | Oliver Markus Haynold | Camera with improved shutter button |
USD786907S1 (en) * | 2015-09-08 | 2017-05-16 | Apple Inc. | Display screen or portion thereof with graphical user interface |
WO2017044618A1 (en) | 2015-09-08 | 2017-03-16 | Apple Inc. | Linear actuators for use in electronic devices |
US20170076366A1 (en) * | 2015-09-11 | 2017-03-16 | Bank Of America Corporation | Universal tokenization system |
US10249002B2 (en) | 2015-09-11 | 2019-04-02 | Bank Of America Corporation | System for dynamic visualization of individualized consumption across shared resource allocation structure |
KR101781909B1 (en) * | 2015-09-15 | 2017-09-26 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR102399764B1 (en) * | 2015-09-22 | 2022-05-19 | 삼성전자 주식회사 | Method and apparatus for capturing image |
CN106547338A (en) * | 2015-09-22 | 2017-03-29 | 小米科技有限责任公司 | Instruction generation method and device |
CN114896015B (en) | 2015-09-23 | 2025-03-21 | 尹特根埃克斯有限公司 | System and method for real-time assistance |
KR101677392B1 (en) * | 2015-09-25 | 2016-11-17 | 엘지전자 주식회사 | Mobile terminal with payment |
KR20180062454A (en) * | 2015-09-25 | 2018-06-08 | 엘지전자 주식회사 | Terminal device and control method of terminal device |
US10331873B1 (en) * | 2015-10-09 | 2019-06-25 | United Services Automobile Association (“USAA”) | Graphical event-based password system |
CN106648384B (en) * | 2015-10-29 | 2022-02-08 | 创新先进技术有限公司 | Service calling method and device |
US9701202B2 (en) | 2015-11-13 | 2017-07-11 | Thunder Power New Energy Vehicle Development Company Limited | Vehicle fingerprint bookmark |
US9639620B1 (en) * | 2015-11-13 | 2017-05-02 | Thunder Power Hong Kong Ltd. | Vehicle fingerprint bookmark |
US20180356945A1 (en) * | 2015-11-24 | 2018-12-13 | California Labs, Inc. | Counter-top device and services for displaying, navigating, and sharing collections of media |
US9851806B2 (en) | 2015-11-24 | 2017-12-26 | International Business Machines Corporation | Gesture recognition and control based on finger differentiation |
WO2017113119A1 (en) * | 2015-12-29 | 2017-07-06 | 华为技术有限公司 | Method and device for associating application with biological characteristic, and mobile terminal |
CN105677220A (en) * | 2015-12-31 | 2016-06-15 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN109241714A (en) * | 2016-01-06 | 2019-01-18 | 阿里巴巴集团控股有限公司 | A kind of information image display methods and device |
KR102509018B1 (en) | 2016-01-11 | 2023-03-14 | 삼성디스플레이 주식회사 | Display device and driving method thereof |
US10039080B2 (en) | 2016-03-04 | 2018-07-31 | Apple Inc. | Situationally-aware alerts |
US10387711B2 (en) | 2016-03-07 | 2019-08-20 | Microsoft Technology Licensing, Llc | Pixel having a photoemitter and a photodetector triggered by a pixel selector signal bus |
US10387710B2 (en) | 2016-03-07 | 2019-08-20 | Microsoft Technology Licensing, Llc | Image sensing with a waveguide display |
AT518250B1 (en) * | 2016-03-17 | 2017-09-15 | Bernecker + Rainer Industrie-Elektronik Ges M B H | touchscreen |
KR20170109408A (en) * | 2016-03-21 | 2017-09-29 | 삼성전자주식회사 | Electronic device and method for controlling thereof |
US10007343B2 (en) | 2016-03-31 | 2018-06-26 | Apple Inc. | Force sensor in an input device |
US10268272B2 (en) | 2016-03-31 | 2019-04-23 | Apple Inc. | Dampening mechanical modes of a haptic actuator using a delay |
TWI622893B (en) * | 2016-04-11 | 2018-05-01 | 宏碁股份有限公司 | Electronic device, controlling method and manufacturing method thereof |
CN105868608B (en) * | 2016-04-12 | 2018-01-23 | 广东欧珀移动通信有限公司 | The method and terminal of a kind of unlocked by fingerprint |
US10298789B2 (en) * | 2016-05-11 | 2019-05-21 | Kabushiki Kaisha Toshiba | System and method for field customization of multifunction peripherals |
USD795907S1 (en) * | 2016-05-11 | 2017-08-29 | Jan Magnus Edman | Display screen with graphical user interface |
USD795908S1 (en) * | 2016-05-11 | 2017-08-29 | Jan Magnus Edman | Display screen with graphical user interface |
DK179186B1 (en) | 2016-05-19 | 2018-01-15 | Apple Inc | REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION |
US10346599B2 (en) | 2016-05-31 | 2019-07-09 | Google Llc | Multi-function button for computing devices |
KR102561736B1 (en) * | 2016-06-01 | 2023-08-02 | 삼성전자주식회사 | Method for activiating a function using a fingerprint and electronic device including a touch display supporting the same |
US10637986B2 (en) | 2016-06-10 | 2020-04-28 | Apple Inc. | Displaying and updating a set of application views |
DK201770423A1 (en) | 2016-06-11 | 2018-01-15 | Apple Inc | Activity and workout updates |
DK201670737A1 (en) | 2016-06-12 | 2018-01-22 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback |
US11580608B2 (en) | 2016-06-12 | 2023-02-14 | Apple Inc. | Managing contact information for communication applications |
DK179823B1 (en) | 2016-06-12 | 2019-07-12 | Apple Inc. | Devices, methods, and graphical user interfaces for providing haptic feedback |
US11216119B2 (en) | 2016-06-12 | 2022-01-04 | Apple Inc. | Displaying a predetermined view of an application |
DK201670622A1 (en) | 2016-06-12 | 2018-02-12 | Apple Inc | User interfaces for transactions |
US20170364158A1 (en) * | 2016-06-20 | 2017-12-21 | Apple Inc. | Localized and/or Encapsulated Haptic Actuators and Elements |
CN107590373A (en) * | 2016-07-06 | 2018-01-16 | 成都锐成芯微科技股份有限公司 | Mobile terminal fingerprint recognition system and method |
CN106201273A (en) * | 2016-07-27 | 2016-12-07 | 维沃移动通信有限公司 | A kind of method for controlling mobile terminal and mobile terminal |
CN106462293B (en) * | 2016-08-08 | 2022-04-29 | 北京小米移动软件有限公司 | Terminal, touch response method and device |
WO2018027857A1 (en) * | 2016-08-11 | 2018-02-15 | 张焰焰 | Method for pushing information when matching text format and text system |
WO2018027856A1 (en) * | 2016-08-11 | 2018-02-15 | 张焰焰 | Method for matching text format with fingerprint, and text system |
FR3055158B1 (en) * | 2016-08-19 | 2019-11-08 | Ontracks | SYSTEM FOR AIDING VISUAL AND LATERALIZED NAVIGATION |
WO2018048632A1 (en) * | 2016-09-06 | 2018-03-15 | Apple Inc. | Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button |
DK201670728A1 (en) | 2016-09-06 | 2018-03-19 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button |
EP3410263A1 (en) * | 2016-09-06 | 2018-12-05 | Apple Inc. | Devices, methods, and graphical user interfaces for providing haptic feedback |
DK201670720A1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs |
DK179278B1 (en) | 2016-09-06 | 2018-03-26 | Apple Inc | Devices, methods and graphical user interfaces for haptic mixing |
US10466891B2 (en) | 2016-09-12 | 2019-11-05 | Apple Inc. | Special lock mode user interface |
US10736543B2 (en) | 2016-09-22 | 2020-08-11 | Apple Inc. | Workout monitor interface |
US10911863B2 (en) * | 2016-09-23 | 2021-02-02 | Apple Inc. | Illuminated user interface architecture |
CN114675774B (en) * | 2016-09-23 | 2024-12-06 | 苹果公司 | Device, method and graphical user interface for annotating text |
JP6078684B1 (en) * | 2016-09-30 | 2017-02-08 | グリー株式会社 | Program, control method, and information processing apparatus |
US10055818B2 (en) | 2016-09-30 | 2018-08-21 | Intel Corporation | Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display |
KR102578253B1 (en) | 2016-10-21 | 2023-09-12 | 삼성전자 주식회사 | Electronic device and method for acquiring fingerprint information thereof |
US11494470B2 (en) | 2016-10-24 | 2022-11-08 | Sony Corporation | Information processing apparatus and information processing method |
WO2018088861A1 (en) * | 2016-11-11 | 2018-05-17 | Samsung Electronics Co., Ltd. | Method and electronic device for providing multi-level security |
US10402161B2 (en) | 2016-11-13 | 2019-09-03 | Honda Motor Co., Ltd. | Human-vehicle interaction |
KR102616793B1 (en) | 2016-11-15 | 2023-12-26 | 삼성전자 주식회사 | Electronic device and method for providing scrren thereof |
US10599823B2 (en) * | 2016-11-18 | 2020-03-24 | Invensense, Inc. | Systems and methods for coordinating applications with a user interface |
CN106778156A (en) * | 2016-11-23 | 2017-05-31 | 苏州新捷毅贸易有限公司 | Fingerprint Lock method to set up and unlocked by fingerprint method with password combination |
KR102564267B1 (en) | 2016-12-01 | 2023-08-07 | 삼성전자주식회사 | Electronic apparatus and operating method thereof |
CN106775084B (en) | 2016-12-16 | 2019-04-16 | Oppo广东移动通信有限公司 | A kind of false-touch prevention method, device and mobile terminal of touch screen |
JP6434480B2 (en) | 2016-12-19 | 2018-12-05 | ファナック株式会社 | Control device |
CN108475179B (en) * | 2016-12-27 | 2020-10-23 | 华为技术有限公司 | Fingerprint collection method, fingerprint collection device and terminal |
USD831053S1 (en) * | 2016-12-30 | 2018-10-16 | Lyft, Inc. | Display screen with animated graphical user interface |
WO2018126478A1 (en) * | 2017-01-09 | 2018-07-12 | 英华达(上海)科技有限公司 | Mouse, touchpad, input suite, and mobile device |
CN108304085B (en) * | 2017-01-11 | 2021-01-01 | 神盾股份有限公司 | Method for judging finger displacement direction and electronic device |
US20180206120A1 (en) * | 2017-01-16 | 2018-07-19 | International Business Machines Corporation | Indicating actual person sending a message based on physical validation |
CN108319886B (en) * | 2017-01-17 | 2020-07-21 | 北京小米移动软件有限公司 | Fingerprint identification method and device |
US20180200623A1 (en) * | 2017-01-19 | 2018-07-19 | Machine Zone, Inc. | System and method for controlling game play using fingerprint recognition |
KR102070407B1 (en) * | 2017-01-31 | 2020-01-28 | 삼성전자주식회사 | Electronic device and a method for controlling a biometric sensor associated with a display using the same |
WO2018144014A1 (en) | 2017-02-03 | 2018-08-09 | Hewlett-Packard Development Company, L.P. | Biometrics to launch a camera application |
US10546109B2 (en) * | 2017-02-14 | 2020-01-28 | Qualcomm Incorporated | Smart touchscreen display |
KR102365678B1 (en) * | 2017-03-29 | 2022-02-21 | 삼성전자주식회사 | Method for Outputting the Screen using the External Device and the Electronic Device supporting the same |
CN108664177B (en) * | 2017-03-29 | 2021-11-12 | 上海耕岩智能科技有限公司 | Method and device for opening application based on fingerprint identification |
KR102331464B1 (en) * | 2017-04-18 | 2021-11-29 | 삼성전자주식회사 | Method for acquiring biometric information using a biometric information sensing area formed in a display area and electronic device supporting the same |
US10992795B2 (en) | 2017-05-16 | 2021-04-27 | Apple Inc. | Methods and interfaces for home media control |
US11431836B2 (en) | 2017-05-02 | 2022-08-30 | Apple Inc. | Methods and interfaces for initiating media playback |
WO2018207953A1 (en) * | 2017-05-08 | 2018-11-15 | (주)인스타페이 | Touch input-based processing method and system |
US12242707B2 (en) | 2017-05-15 | 2025-03-04 | Apple Inc. | Displaying and moving application views on a display of an electronic device |
US10845955B2 (en) | 2017-05-15 | 2020-11-24 | Apple Inc. | Displaying a scrollable list of affordances associated with physical activities |
CN111343060B (en) | 2017-05-16 | 2022-02-11 | 苹果公司 | Method and interface for home media control |
EP3380918B1 (en) * | 2017-05-16 | 2023-06-28 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects |
US10365814B2 (en) * | 2017-05-16 | 2019-07-30 | Apple Inc. | Devices, methods, and graphical user interfaces for providing a home button replacement |
US10203866B2 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects |
DK201770372A1 (en) | 2017-05-16 | 2019-01-08 | Apple Inc. | Tactile feedback for locked device user interfaces |
US20220279063A1 (en) | 2017-05-16 | 2022-09-01 | Apple Inc. | Methods and interfaces for home media control |
US11036387B2 (en) | 2017-05-16 | 2021-06-15 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects |
US11586717B2 (en) | 2017-05-23 | 2023-02-21 | Fingerprint Cards Anacatum Ip Ab | Method and electronic device for authenticating a user |
US10614279B2 (en) * | 2017-06-02 | 2020-04-07 | Samsung Electronics Co., Ltd. | Apparatus and method for driving fingerprint sensing array provided in touchscreen, and driver integrated circuit for driving the touchscreen including the fingerprint sensing array |
US10951043B2 (en) | 2017-06-04 | 2021-03-16 | Apple Inc. | Multi-device charging user interface |
SE1750836A1 (en) * | 2017-06-28 | 2018-12-29 | Fingerprint Cards Ab | Fingerprint sensor module comprising antenna and method for manufacturing a fingerprint sensor module |
US10360428B2 (en) | 2017-06-28 | 2019-07-23 | Synaptics Incorporated | Fingerprint sensor to support wake on finger and navigation |
US10622538B2 (en) | 2017-07-18 | 2020-04-14 | Apple Inc. | Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body |
CN107395889B (en) * | 2017-07-28 | 2020-01-21 | Oppo广东移动通信有限公司 | Method and device for reducing power consumption of mobile terminal, storage medium and mobile terminal |
CN109843399B (en) * | 2017-08-03 | 2020-07-21 | 腾讯科技(深圳)有限公司 | Apparatus, method and graphical user interface for providing game control |
US11275458B2 (en) | 2017-09-07 | 2022-03-15 | Samsung Electronics Co., Ltd. | Method, electronic device, and storage medium for fingerprint recognition |
CN107918563A (en) | 2017-09-30 | 2018-04-17 | 华为技术有限公司 | A kind of method, data processing equipment and user equipment replicated and paste |
SE1751288A1 (en) * | 2017-10-17 | 2019-04-18 | Fingerprint Cards Ab | Method of controlling an electronic device |
CN107861824A (en) * | 2017-11-30 | 2018-03-30 | 努比亚技术有限公司 | A kind of text handling method, mobile terminal and computer-readable recording medium |
US10852836B2 (en) * | 2017-11-30 | 2020-12-01 | Microsoft Technology Licensing, Llc | Visual transformation using a motion profile |
USD845337S1 (en) | 2017-12-01 | 2019-04-09 | Nasdaq, Inc. | Display screen or portion thereof with animated graphical user interface |
CN108351707B (en) * | 2017-12-22 | 2021-07-30 | 达闼机器人有限公司 | Man-machine interaction method and device, terminal equipment and computer readable storage medium |
JP2018045729A (en) * | 2017-12-25 | 2018-03-22 | キヤノン株式会社 | Information processing apparatus, information processing method, computer program, and recording medium |
KR102543104B1 (en) * | 2018-01-18 | 2023-06-14 | 삼성전자주식회사 | Electronic apparatus and operating method thereof |
CN108334228B (en) * | 2018-01-30 | 2021-03-16 | 厦门天马微电子有限公司 | Touch screen, driving method thereof and touch device |
US11132106B2 (en) * | 2018-03-13 | 2021-09-28 | Vmware, Inc. | User-specific applications for shared devices |
CN108647032B (en) * | 2018-03-29 | 2022-03-01 | 珠海市魅族科技有限公司 | Application loading method and apparatus, computer apparatus and computer-readable storage medium |
CN108549518B (en) * | 2018-04-17 | 2020-09-25 | Oppo广东移动通信有限公司 | A method, device and terminal device for displaying music information |
CN108628644A (en) * | 2018-04-19 | 2018-10-09 | 维沃移动通信有限公司 | A kind of the startup method, apparatus and mobile terminal of application |
US10733468B2 (en) * | 2018-04-23 | 2020-08-04 | Novatek Microelectronics Corp. | Finger stability detecting method and fingerprint sensing device |
DK179992B1 (en) | 2018-05-07 | 2020-01-14 | Apple Inc. | DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES |
US11317833B2 (en) | 2018-05-07 | 2022-05-03 | Apple Inc. | Displaying user interfaces associated with physical activities |
DK180316B1 (en) | 2018-06-03 | 2020-11-06 | Apple Inc | Devices and methods for interacting with an application switching user interface |
US11893228B2 (en) | 2018-06-03 | 2024-02-06 | Apple Inc. | Devices and methods for interacting with an application switching user interface |
US11170085B2 (en) | 2018-06-03 | 2021-11-09 | Apple Inc. | Implementation of biometric authentication |
US10956029B1 (en) | 2018-06-08 | 2021-03-23 | Facebook, Inc. | Gesture-based context switching between applications |
WO2019091124A1 (en) | 2018-06-25 | 2019-05-16 | 华为技术有限公司 | Terminal user interface display method and terminal |
US10656827B2 (en) | 2018-06-29 | 2020-05-19 | Synaptics Incorporated | Sensor device scanning techniques to determine fast and/or slow motions |
US10990260B2 (en) * | 2018-08-23 | 2021-04-27 | Motorola Mobility Llc | Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods |
US10866683B2 (en) | 2018-08-27 | 2020-12-15 | Apple Inc. | Force or touch sensing on a mobile device using capacitive or pressure sensing |
CN109284060A (en) * | 2018-08-30 | 2019-01-29 | Oppo(重庆)智能科技有限公司 | Display control method and relevant apparatus |
CN110199249B (en) * | 2018-09-13 | 2022-11-04 | 京东方科技集团股份有限公司 | Integrated fingerprint detection touch display device and integration method of fingerprint detection, touch and image display |
US10691211B2 (en) | 2018-09-28 | 2020-06-23 | Apple Inc. | Button providing force sensing and/or haptic output |
US10953307B2 (en) | 2018-09-28 | 2021-03-23 | Apple Inc. | Swim tracking and notifications for wearable devices |
US10599223B1 (en) | 2018-09-28 | 2020-03-24 | Apple Inc. | Button providing force sensing and/or haptic output |
USD998630S1 (en) * | 2018-10-11 | 2023-09-12 | Masimo Corporation | Display screen or portion thereof with a graphical user interface |
USD1041511S1 (en) | 2018-10-11 | 2024-09-10 | Masimo Corporation | Display screen or portion thereof with a graphical user interface |
USD917564S1 (en) | 2018-10-11 | 2021-04-27 | Masimo Corporation | Display screen or portion thereof with graphical user interface |
USD917550S1 (en) * | 2018-10-11 | 2021-04-27 | Masimo Corporation | Display screen or portion thereof with a graphical user interface |
USD999246S1 (en) | 2018-10-11 | 2023-09-19 | Masimo Corporation | Display screen or portion thereof with a graphical user interface |
USD998631S1 (en) | 2018-10-11 | 2023-09-12 | Masimo Corporation | Display screen or portion thereof with a graphical user interface |
US11406286B2 (en) | 2018-10-11 | 2022-08-09 | Masimo Corporation | Patient monitoring device with improved user interface |
USD916135S1 (en) | 2018-10-11 | 2021-04-13 | Masimo Corporation | Display screen or portion thereof with a graphical user interface |
CN111124236B (en) | 2018-10-30 | 2023-04-28 | 斑马智行网络(香港)有限公司 | Data processing method, device and machine-readable medium |
US10965863B2 (en) * | 2018-11-01 | 2021-03-30 | Lenovo (Singapore) Pte. Ltd. | Changing settings based on a fingerprint |
CN109542315B (en) * | 2018-11-22 | 2021-05-25 | 维沃移动通信有限公司 | Control method and system of mobile terminal |
USD947233S1 (en) | 2018-12-21 | 2022-03-29 | Streamlayer, Inc. | Display screen or portion thereof with transitional graphical user interface |
US11770579B2 (en) | 2018-12-21 | 2023-09-26 | Streamlayer, Inc. | Method and system for providing interactive content delivery and audience engagement |
USD997952S1 (en) | 2018-12-21 | 2023-09-05 | Streamlayer, Inc. | Display screen with transitional graphical user interface |
CN109683766B (en) * | 2018-12-28 | 2021-08-03 | 努比亚技术有限公司 | Interactive interface control method, mobile terminal and computer readable storage medium |
CN109675308A (en) * | 2019-01-10 | 2019-04-26 | 网易(杭州)网络有限公司 | Display control method, device, storage medium, processor and terminal in game |
CN111488761B (en) | 2019-01-25 | 2024-04-26 | 北京小米移动软件有限公司 | Fingerprint identification method, fingerprint identification device, electronic equipment and computer readable storage medium |
CN111695382B (en) * | 2019-03-14 | 2024-02-13 | 北京小米移动软件有限公司 | Fingerprint acquisition area determining method and fingerprint acquisition area determining device |
USD951267S1 (en) * | 2019-04-09 | 2022-05-10 | Streamlayer, Inc. | Display screen with a transitional graphical user interface for an interactive content overlay |
DK201970531A1 (en) | 2019-05-06 | 2021-07-09 | Apple Inc | Avatar integration with multiple applications |
DK201970532A1 (en) | 2019-05-06 | 2021-05-03 | Apple Inc | Activity trends and workouts |
US11646591B2 (en) | 2019-05-09 | 2023-05-09 | Apple Inc. | Indication for protective charging mode |
CN110351424A (en) | 2019-05-30 | 2019-10-18 | 华为技术有限公司 | Gesture interaction method and terminal |
EP4134811A1 (en) | 2019-05-31 | 2023-02-15 | Apple Inc. | User interfaces for audio media control |
US10996917B2 (en) | 2019-05-31 | 2021-05-04 | Apple Inc. | User interfaces for audio media control |
US11481094B2 (en) | 2019-06-01 | 2022-10-25 | Apple Inc. | User interfaces for location-related communications |
US11979467B2 (en) | 2019-06-01 | 2024-05-07 | Apple Inc. | Multi-modal activity tracking user interface |
US11943594B2 (en) | 2019-06-07 | 2024-03-26 | Sonos Inc. | Automatically allocating audio portions to playback devices |
USD922402S1 (en) * | 2019-07-10 | 2021-06-15 | CyCarrier Technology Co., Ltd. | Display screen or portion thereof with animated graphical user interface |
USD919635S1 (en) * | 2019-07-10 | 2021-05-18 | Cycraft Singapore Pte. Ltd. | Display screen or portion thereof with graphical user interface |
KR102248984B1 (en) * | 2019-07-24 | 2021-05-07 | 어보브반도체 주식회사 | High sensitivity touch sensor |
US11551466B2 (en) | 2019-08-21 | 2023-01-10 | Novatek Microelectronics Corp. | Control circuit and related method for controlling display panel |
CN114223022A (en) * | 2019-09-18 | 2022-03-22 | 索尼集团公司 | Fingerprint authentication device, fingerprint authentication method and program |
US11380470B2 (en) | 2019-09-24 | 2022-07-05 | Apple Inc. | Methods to control force in reluctance actuators based on flux related parameters |
CN110795012A (en) * | 2019-10-31 | 2020-02-14 | 华为技术有限公司 | Control method of electronic device, and computer-readable storage medium |
US11023124B1 (en) * | 2019-12-18 | 2021-06-01 | Motorola Mobility Llc | Processing user input received during a display orientation change of a mobile device |
USD949188S1 (en) * | 2020-01-07 | 2022-04-19 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with graphical user interface |
WO2021156919A1 (en) * | 2020-02-03 | 2021-08-12 | ソニーグループ株式会社 | Electronic device, information processing method, and program |
KR20210103317A (en) | 2020-02-13 | 2021-08-23 | 삼성전자주식회사 | Fingerprint-touch combined sensor and electronic apparatus including the same |
DK202070613A1 (en) | 2020-02-14 | 2021-10-15 | Apple Inc | User interfaces for workout content |
US11418713B2 (en) * | 2020-04-02 | 2022-08-16 | Qualcomm Incorporated | Input based launch sequences for a camera application |
US11556095B2 (en) | 2020-04-15 | 2023-01-17 | Apple Inc. | Modular sensing assembly for an electronic device |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
CN113778574B (en) * | 2020-06-08 | 2022-11-29 | 荣耀终端有限公司 | Card sharing method, electronic device and communication system |
US11163970B1 (en) * | 2020-06-16 | 2021-11-02 | Google Llc | Optical fingerprint system with varying integration times across pixels |
DE102020003923B3 (en) * | 2020-06-30 | 2021-11-04 | Daimler Ag | Control unit with a touch-sensitive control surface |
US11381676B2 (en) * | 2020-06-30 | 2022-07-05 | Qualcomm Incorporated | Quick launcher user interface |
USD1030772S1 (en) * | 2020-09-11 | 2024-06-11 | Google Llc | Display screen or portion thereof with a transitional graphical user interface |
US11409410B2 (en) | 2020-09-14 | 2022-08-09 | Apple Inc. | User input interfaces |
US12164027B1 (en) | 2020-09-14 | 2024-12-10 | Apple Inc. | Multi-pathway distance measurements for optical sensors |
US11491909B2 (en) | 2020-09-16 | 2022-11-08 | Waymo Llc | External facing communications for autonomous vehicles |
USD1028999S1 (en) | 2020-09-17 | 2024-05-28 | Streamlayer, Inc. | Display screen with transitional graphical user interface |
US11392291B2 (en) | 2020-09-25 | 2022-07-19 | Apple Inc. | Methods and interfaces for media control with dynamic feedback |
JP7266566B2 (en) * | 2020-10-29 | 2023-04-28 | 株式会社三菱Ufj銀行 | program |
WO2022159692A1 (en) * | 2021-01-22 | 2022-07-28 | Orchid Sound Technologies LLC | System with ultrasound sensor |
EP4264460A1 (en) | 2021-01-25 | 2023-10-25 | Apple Inc. | Implementation of biometric authentication |
CN112799578B (en) * | 2021-01-26 | 2022-06-17 | 挂号网(杭州)科技有限公司 | Keyboard drawing method and device, electronic equipment and storage medium |
US12210603B2 (en) | 2021-03-04 | 2025-01-28 | Apple Inc. | User interface for enrolling a biometric feature |
MX2023010553A (en) * | 2021-03-10 | 2023-10-04 | Bungie Inc | Virtual button charging. |
US11977683B2 (en) | 2021-03-12 | 2024-05-07 | Apple Inc. | Modular systems configured to provide localized haptic feedback using inertial actuators |
JP7636231B2 (en) * | 2021-03-29 | 2025-02-26 | 本田技研工業株式会社 | Setting device |
WO2022245669A1 (en) | 2021-05-15 | 2022-11-24 | Apple Inc. | User interfaces for group workouts |
US11360634B1 (en) | 2021-05-15 | 2022-06-14 | Apple Inc. | Shared-content session user interfaces |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
US11847378B2 (en) | 2021-06-06 | 2023-12-19 | Apple Inc. | User interfaces for audio routing |
JP2023002349A (en) * | 2021-06-22 | 2023-01-10 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
US11561612B1 (en) * | 2021-08-10 | 2023-01-24 | Synaptics Incorporated | AR/VR navigation with authentication using an integrated scrollwheel and fingerprint sensor user input apparatus |
US11809631B2 (en) | 2021-09-21 | 2023-11-07 | Apple Inc. | Reluctance haptic engine for an electronic device |
EP4388397A1 (en) | 2021-09-25 | 2024-06-26 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
US11704928B1 (en) * | 2022-02-17 | 2023-07-18 | Qualcomm Incorporated | Force-based finger detection for fingerprint sensor systems |
US20250147621A1 (en) * | 2022-02-18 | 2025-05-08 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
US20230267538A1 (en) * | 2022-02-22 | 2023-08-24 | Jpmorgan Chase Bank, N.A. | Method and system for proxy event visualization |
US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
US12023567B2 (en) | 2022-06-05 | 2024-07-02 | Apple Inc. | User interfaces for physical activity information |
US11977729B2 (en) | 2022-06-05 | 2024-05-07 | Apple Inc. | Physical activity information user interfaces |
US20240103704A1 (en) * | 2022-09-24 | 2024-03-28 | Apple Inc. | Methods for interacting with user interfaces based on attention |
US20240269548A1 (en) * | 2023-02-13 | 2024-08-15 | Sony Interactive Entertainment LLC | Devices and methods for a game controller |
US12189940B2 (en) * | 2023-03-27 | 2025-01-07 | Motorola Mobility Llc | Fingerprint encoded gesture initiation of device actions |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080165255A1 (en) * | 2007-01-05 | 2008-07-10 | Apple Inc. | Gestures for devices having one or more touch sensitive surfaces |
US20110175807A1 (en) * | 2010-01-19 | 2011-07-21 | Avaya Inc. | Detection of a rolling motion or sliding motion of a body part on a surface |
Family Cites Families (633)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ055999A0 (en) | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (npage01) |
US4353056A (en) | 1980-06-05 | 1982-10-05 | Siemens Corporation | Capacitive fingerprint sensor |
US4805222A (en) | 1985-12-23 | 1989-02-14 | International Bioaccess Systems Corporation | Method and apparatus for verifying an individual's identity |
EP0441774B1 (en) | 1987-10-02 | 1993-04-28 | SENANAYAKE, Daya Ranjit | Personal identification system and method |
US4993068A (en) | 1989-11-27 | 1991-02-12 | Motorola, Inc. | Unforgeable personal identification system |
GB2244164A (en) | 1990-05-18 | 1991-11-20 | Philips Electronic Associated | Fingerprint sensing |
JPH04158434A (en) | 1990-10-23 | 1992-06-01 | Toshiba Corp | Pointing device for display device |
US5131038A (en) | 1990-11-07 | 1992-07-14 | Motorola, Inc. | Portable authentification system |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US5280527A (en) | 1992-04-14 | 1994-01-18 | Kamahira Safe Co., Inc. | Biometric token for authorizing access to a host system |
EP0593386A3 (en) | 1992-10-16 | 1996-07-31 | Ibm | Method and apparatus for accessing touch screen desktop objects via fingerprint recognition |
JP2813728B2 (en) | 1993-11-01 | 1998-10-22 | インターナショナル・ビジネス・マシーンズ・コーポレイション | Personal communication device with zoom / pan function |
US5526428A (en) | 1993-12-29 | 1996-06-11 | International Business Machines Corporation | Access control apparatus and method |
US5469506A (en) | 1994-06-27 | 1995-11-21 | Pitney Bowes Inc. | Apparatus for verifying an identification card and identifying a person by means of a biometric characteristic |
US5659626A (en) | 1994-10-20 | 1997-08-19 | Calspan Corporation | Fingerprint identification system |
US5615277A (en) | 1994-11-28 | 1997-03-25 | Hoffman; Ned | Tokenless security system for authorizing access to a secured computer system |
US6950810B2 (en) | 1994-11-28 | 2005-09-27 | Indivos Corporation | Tokenless biometric electronic financial transactions via a third party identicator |
US5805719A (en) | 1994-11-28 | 1998-09-08 | Smarttouch | Tokenless identification of individuals |
US6269348B1 (en) | 1994-11-28 | 2001-07-31 | Veristar Corporation | Tokenless biometric electronic debit and credit transactions |
US6366682B1 (en) | 1994-11-28 | 2002-04-02 | Indivos Corporation | Tokenless electronic transaction system |
US7613659B1 (en) | 1994-11-28 | 2009-11-03 | Yt Acquisition Corporation | System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse |
US6154879A (en) | 1994-11-28 | 2000-11-28 | Smarttouch, Inc. | Tokenless biometric ATM access system |
US5870723A (en) | 1994-11-28 | 1999-02-09 | Pare, Jr.; David Ferrin | Tokenless biometric transaction authorization method and system |
US5613012A (en) | 1994-11-28 | 1997-03-18 | Smarttouch, Llc. | Tokenless identification system for authorization of electronic transactions and electronic transmissions |
US5591949A (en) | 1995-01-06 | 1997-01-07 | Bernstein; Robert J. | Automatic portable account controller for remotely arranging for payment of debt to a vendor |
US5838306A (en) | 1995-05-05 | 1998-11-17 | Dell U.S.A., L.P. | Mouse with security feature |
US5724492A (en) * | 1995-06-08 | 1998-03-03 | Microsoft Corporation | Systems and method for displaying control objects including a plurality of panels |
JP3316725B2 (en) | 1995-07-06 | 2002-08-19 | 三菱電機株式会社 | Face image pickup device |
JPH09146708A (en) | 1995-11-09 | 1997-06-06 | Internatl Business Mach Corp <Ibm> | Driving method for touch panel and touch input method |
CH690048A5 (en) | 1995-11-28 | 2000-03-31 | C Sam S A En Formation C O Jue | Safety device controlling access to a computer or a network terminal. |
US5857028A (en) | 1996-01-11 | 1999-01-05 | Frieling; Edward | Computer access control by finger anatomy and comprehension testing |
US5963679A (en) | 1996-01-26 | 1999-10-05 | Harris Corporation | Electric field fingerprint sensor apparatus and related methods |
US5828773A (en) | 1996-01-26 | 1998-10-27 | Harris Corporation | Fingerprint sensing method with finger position indication |
AUPN802296A0 (en) * | 1996-02-12 | 1996-03-07 | Fingerscan Pty Limited | An input device for controlling a pointer on the screen of a computer |
GB2312040A (en) | 1996-04-13 | 1997-10-15 | Xerox Corp | A computer mouse |
US5856824A (en) | 1996-06-25 | 1999-01-05 | International Business Machines Corp. | Reshapable pointing device for touchscreens |
US5933134A (en) | 1996-06-25 | 1999-08-03 | International Business Machines Corporation | Touch screen virtual pointing device which goes into a translucent hibernation state when not in use |
JP3711633B2 (en) | 1996-06-27 | 2005-11-02 | カシオ計算機株式会社 | Touch panel control device |
US6219793B1 (en) | 1996-09-11 | 2001-04-17 | Hush, Inc. | Method of using fingerprints to authenticate wireless communications |
US6181803B1 (en) | 1996-09-30 | 2001-01-30 | Intel Corporation | Apparatus and method for securely processing biometric information to control access to a node |
US6367017B1 (en) | 1996-11-07 | 2002-04-02 | Litronic Inc. | Apparatus and method for providing and authentication system |
US6268788B1 (en) | 1996-11-07 | 2001-07-31 | Litronic Inc. | Apparatus and method for providing an authentication system based on biometrics |
US6505177B1 (en) | 1996-11-27 | 2003-01-07 | Diebold, Incorporated | Automated banking machine apparatus and system |
US6901382B1 (en) | 1996-11-27 | 2005-05-31 | Diebold, Incorporated | Automated banking machine and system |
US6498861B1 (en) | 1996-12-04 | 2002-12-24 | Activcard Ireland Limited | Biometric security encryption system |
US6111517A (en) | 1996-12-30 | 2000-08-29 | Visionics Corporation | Continuous video monitoring using face recognition for access control |
US5952998A (en) | 1997-01-15 | 1999-09-14 | Compaq Computer Corporation | Transparent touchpad with flat panel display for personal computers |
JP3469031B2 (en) | 1997-02-18 | 2003-11-25 | 株式会社東芝 | Face image registration apparatus and method |
JPH10269358A (en) | 1997-03-25 | 1998-10-09 | Sony Corp | Object recognition device |
US6193153B1 (en) | 1997-04-16 | 2001-02-27 | Francis Lambert | Method and apparatus for non-intrusive biometric capture |
US6901154B2 (en) | 1997-04-16 | 2005-05-31 | Activcard Ireland Limited | Method of detecting authorised biometric information sensor |
US5991408A (en) | 1997-05-16 | 1999-11-23 | Veridicom, Inc. | Identification and security using biometric measurements |
US5920640A (en) | 1997-05-16 | 1999-07-06 | Harris Corporation | Fingerprint sensor and token reader and associated methods |
CA2208179A1 (en) | 1997-06-18 | 1998-12-18 | Roland S. Walch | Pointing device with optical fingerprint recognition and tracking capability |
KR19990009965A (en) | 1997-07-14 | 1999-02-05 | 정명식 | User authentication method using typing pattern |
GB2329497B (en) | 1997-09-19 | 2001-01-31 | Ibm | Method for controlling access to electronically provided services and system for implementing such method |
US6611681B2 (en) | 1997-09-26 | 2003-08-26 | Daniel A. Henderson | Method and apparatus for an improved call interrupt feature in a cordless telephone answering device |
US6037882A (en) | 1997-09-30 | 2000-03-14 | Levy; David H. | Method and apparatus for inputting data to an electronic system |
US5974150A (en) | 1997-09-30 | 1999-10-26 | Tracer Detection Technology Corp. | System and method for authentication of goods |
US6084968A (en) | 1997-10-29 | 2000-07-04 | Motorola, Inc. | Security token and method for wireless applications |
US20020097145A1 (en) | 1997-11-06 | 2002-07-25 | David M. Tumey | Integrated vehicle security system utilizing facial image verification |
DK0950229T3 (en) | 1997-11-07 | 2001-04-09 | Swisscom Mobile Ag | Method, system and arrangement for determining the authenticity of persons |
US6185316B1 (en) | 1997-11-12 | 2001-02-06 | Unisys Corporation | Self-authentication apparatus and method |
US6501846B1 (en) | 1997-11-25 | 2002-12-31 | Ethentica, Inc. | Method and system for computer access and cursor control using a relief object image generator |
GB9725571D0 (en) | 1997-12-04 | 1998-02-04 | Philips Electronics Nv | Electronic apparatus comprising fingerprint sensing devices |
US6490680B1 (en) | 1997-12-04 | 2002-12-03 | Tecsec Incorporated | Access control and authorization system |
JPH11175478A (en) | 1997-12-10 | 1999-07-02 | Nec Corp | System for authenticating the person himself |
US6038666A (en) | 1997-12-22 | 2000-03-14 | Trw Inc. | Remote identity verification technique using a personal identification device |
US6041410A (en) | 1997-12-22 | 2000-03-21 | Trw Inc. | Personal identification fob |
JPH11185016A (en) | 1997-12-24 | 1999-07-09 | Sharp Corp | Information processor |
US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US7840912B2 (en) * | 2006-01-30 | 2010-11-23 | Apple Inc. | Multi-touch gesture dictionary |
JPH11242745A (en) | 1998-02-25 | 1999-09-07 | Victor Co Of Japan Ltd | Method for measuring and processing facial image |
US6181328B1 (en) | 1998-03-02 | 2001-01-30 | International Business Machines Corporation | Method and system for calibrating touch screen sensitivities according to particular physical characteristics associated with a user |
US6141436A (en) | 1998-03-25 | 2000-10-31 | Motorola, Inc. | Portable communication device having a fingerprint identification system |
US6618806B1 (en) | 1998-04-01 | 2003-09-09 | Saflink Corporation | System and method for authenticating users in a computer network |
US6167517A (en) | 1998-04-09 | 2000-12-26 | Oracle Corporation | Trusted biometric client authentication |
US6880750B2 (en) | 1998-04-17 | 2005-04-19 | Randolph M. Pentel | Remote ordering device |
US20010044906A1 (en) | 1998-04-21 | 2001-11-22 | Dimitri Kanevsky | Random visual patterns used to obtain secured access |
EP1074158B1 (en) | 1998-04-23 | 2008-09-10 | Siemens Home and Office Communication Devices GmbH & Co. KG | Radio equipment with enhanced user authentication possibilities |
US6484260B1 (en) | 1998-04-24 | 2002-11-19 | Identix, Inc. | Personal identification system |
CN1302409A (en) * | 1998-05-07 | 2001-07-04 | Art-高级技巧识别技术有限公司 | Handwritten and voice control of vehicle components |
US6353889B1 (en) | 1998-05-13 | 2002-03-05 | Mytec Technologies Inc. | Portable device and method for accessing data key actuated devices |
US6400836B2 (en) | 1998-05-15 | 2002-06-04 | International Business Machines Corporation | Combined fingerprint acquisition and control device |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
PT1080415T (en) | 1998-05-21 | 2017-05-02 | Equifax Inc | System and method for authentication of network users |
US6573883B1 (en) | 1998-06-24 | 2003-06-03 | Hewlett Packard Development Company, L.P. | Method and apparatus for controlling a computing device with gestures |
US6870946B1 (en) | 1998-08-06 | 2005-03-22 | Secugen Corporation | Compact optical fingerprint capturing and recognition system |
US6636973B1 (en) | 1998-09-08 | 2003-10-21 | Hewlett-Packard Development Company, L.P. | Secure and dynamic biometrics-based token generation for access control and authentication |
JP2000090052A (en) | 1998-09-10 | 2000-03-31 | Toshiba Corp | Computer system |
US6292173B1 (en) | 1998-09-11 | 2001-09-18 | Stmicroelectronics S.R.L. | Touchpad computer input system and method |
JP2000090273A (en) | 1998-09-16 | 2000-03-31 | Nec Corp | Device and method for processing information while using fingerprint identification |
US6950539B2 (en) | 1998-09-16 | 2005-09-27 | Digital Persona | Configurable multi-function touchpad device |
US6256022B1 (en) | 1998-11-06 | 2001-07-03 | Stmicroelectronics S.R.L. | Low-cost semiconductor user input device |
US6532298B1 (en) | 1998-11-25 | 2003-03-11 | Iridian Technologies, Inc. | Portable authentication device and method using iris patterns |
GB2344670B (en) | 1998-12-12 | 2003-09-03 | Ibm | System, apparatus and method for controlling access |
JP2000339097A (en) | 1998-12-16 | 2000-12-08 | Sony Corp | Information processor, its controlling method and recording medium |
US6560612B1 (en) | 1998-12-16 | 2003-05-06 | Sony Corporation | Information processing apparatus, controlling method and program medium |
US6317835B1 (en) | 1998-12-23 | 2001-11-13 | Radiant Systems, Inc. | Method and system for entry of encrypted and non-encrypted information on a touch screen |
US6671808B1 (en) | 1999-01-15 | 2003-12-30 | Rainbow Technologies, Inc. | USB-compliant personal key |
US6317834B1 (en) | 1999-01-29 | 2001-11-13 | International Business Machines Corporation | Biometric authentication system with encrypted models |
US6028950A (en) | 1999-02-10 | 2000-02-22 | The National Registry, Inc. | Fingerprint controlled set-top box |
JP2000250862A (en) | 1999-03-03 | 2000-09-14 | Toshiba Corp | Process supervisory and control system |
US6529885B1 (en) | 1999-03-18 | 2003-03-04 | Oracle Corporation | Methods and systems for carrying out directory-authenticated electronic transactions including contingency-dependent payments via secure electronic bank drafts |
US6898577B1 (en) | 1999-03-18 | 2005-05-24 | Oracle International Corporation | Methods and systems for single sign-on authentication in a multi-vendor e-commerce environment and directory-authenticated bank drafts |
JP2000276445A (en) | 1999-03-23 | 2000-10-06 | Nec Corp | Authentication method and device using biometrics discrimination, authentication execution device, and recording medium recorded with authentication program |
JP2000276245A (en) | 1999-03-23 | 2000-10-06 | Matsushita Electric Ind Co Ltd | Method and device for automatically discriminating and recognizing operator of terminal device |
JP3663075B2 (en) | 1999-04-05 | 2005-06-22 | シャープ株式会社 | Information processing device |
US7039221B1 (en) | 1999-04-09 | 2006-05-02 | Tumey David M | Facial image verification utilizing smart-card with integrated video camera |
US6615264B1 (en) | 1999-04-09 | 2003-09-02 | Sun Microsystems, Inc. | Method and apparatus for remotely administered authentication and access control |
US6337919B1 (en) | 1999-04-28 | 2002-01-08 | Intel Corporation | Fingerprint detecting mouse |
JP2000315118A (en) | 1999-05-06 | 2000-11-14 | Canon Inc | Information processor, information processor control method, and storage medium stored with information processor control program |
US6282304B1 (en) | 1999-05-14 | 2001-08-28 | Biolink Technologies International, Inc. | Biometric system for biometric input, comparison, authentication and access control and method therefor |
US8438487B1 (en) * | 1999-05-24 | 2013-05-07 | Catherine Lin-Hendel | Method and system for one-click navigation and browsing of electronic media and their category structure as well as tracking the navigation and browsing thereof |
US6957768B1 (en) | 1999-05-25 | 2005-10-25 | Silverbrook Research Pty Ltd | Computer system control via interface surface |
JP2001014051A (en) | 1999-06-25 | 2001-01-19 | Matsushita Electric Ind Co Ltd | User authentication device |
US6886104B1 (en) | 1999-06-25 | 2005-04-26 | Cross Match Technologies | Rechargeable mobile hand-held fingerprint scanner with a data and power communication interface |
US6639584B1 (en) | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
US6681034B1 (en) | 1999-07-15 | 2004-01-20 | Precise Biometrics | Method and system for fingerprint template matching |
US6609198B1 (en) | 1999-08-05 | 2003-08-19 | Sun Microsystems, Inc. | Log-on service providing credential level change without loss of session continuity |
US6719200B1 (en) | 1999-08-06 | 2004-04-13 | Precise Biometrics Ab | Checking of right to access |
US6459424B1 (en) | 1999-08-10 | 2002-10-01 | Hewlett-Packard Company | Touch-sensitive input screen having regional sensitivity and resolution properties |
JP2001092554A (en) | 1999-09-21 | 2001-04-06 | Seiko Instruments Inc | Information processor |
US6728881B1 (en) | 1999-10-01 | 2004-04-27 | The United States Of America As Represented By The Secretary Of The Army | Fingerprint and signature identification and authorization card and pen |
US7030860B1 (en) | 1999-10-08 | 2006-04-18 | Synaptics Incorporated | Flexible transparent touch sensing system for electronic devices |
EP2264896A3 (en) | 1999-10-27 | 2012-05-02 | Systems Ltd Keyless | Integrated keypad system |
KR200184982Y1 (en) | 1999-11-08 | 2000-06-15 | 삼성전자주식회사 | Fingerprint recognition having a display apparatus |
JP3738629B2 (en) | 1999-11-25 | 2006-01-25 | 三菱電機株式会社 | Portable electronic devices |
WO2001041032A1 (en) | 1999-11-30 | 2001-06-07 | David Russell | Methods, systems, and apparatuses for secure interactions |
US6443359B1 (en) | 1999-12-03 | 2002-09-03 | Diebold, Incorporated | Automated transaction system and method |
US6735695B1 (en) | 1999-12-20 | 2004-05-11 | International Business Machines Corporation | Methods and apparatus for restricting access of a user using random partial biometrics |
AU3071001A (en) | 1999-12-23 | 2001-07-09 | National University Of Singapore, The | Wavelet-enhanced automated fingerprint identification system |
US6871287B1 (en) | 2000-01-21 | 2005-03-22 | John F. Ellingson | System and method for verification of identity |
US6721738B2 (en) | 2000-02-01 | 2004-04-13 | Gaveo Technology, Llc. | Motion password control system |
KR100325381B1 (en) | 2000-02-11 | 2002-03-06 | 안준영 | A method of implementing touch pad using fingerprint reader and a touch pad apparatus for functioning as fingerprint scan |
US6668332B1 (en) | 2000-02-15 | 2003-12-23 | International Business Machines Corporation | Functional clock observation controlled by JTAG extensions |
GB2365676B (en) * | 2000-02-18 | 2004-06-23 | Sensei Ltd | Mobile telephone with improved man-machine interface |
GB0004287D0 (en) | 2000-02-23 | 2000-04-12 | Leeper Kim | System and method for authenticating electronic documents |
US6766456B1 (en) | 2000-02-23 | 2004-07-20 | Micron Technology, Inc. | Method and system for authenticating a user of a computer system |
JP2001236324A (en) | 2000-02-24 | 2001-08-31 | Fujitsu Ltd | Portable electronic device having personal authentication function based on biometric information |
KR20000030544A (en) | 2000-03-02 | 2000-06-05 | 김종완 | Internet Puzzle of Advertisement |
CN1263324A (en) | 2000-03-20 | 2000-08-16 | 后健慈 | Fingerprint identification keyboard device and identification method thereof |
DE60119418T2 (en) | 2000-03-22 | 2007-05-24 | Kabushiki Kaisha Toshiba, Kawasaki | Face-capturing recognition device and passport verification device |
CA2403394C (en) | 2000-03-23 | 2012-01-03 | Cross Match Technologies, Inc. | Piezoelectric identification device and applications thereof |
US7086085B1 (en) | 2000-04-11 | 2006-08-01 | Bruce E Brown | Variable trust levels for authentication |
WO2001080017A1 (en) | 2000-04-18 | 2001-10-25 | Bioconx, Inc. | System for logging into multiple network systems |
US6775776B1 (en) | 2000-06-27 | 2004-08-10 | Intel Corporation | Biometric-based authentication in a nonvolatile memory device |
US6720860B1 (en) | 2000-06-30 | 2004-04-13 | International Business Machines Corporation | Password protection using spatial and temporal variation in a high-resolution touch sensitive display |
US7310433B2 (en) | 2000-07-24 | 2007-12-18 | Ume Tech Yugen Kaisha | Fingerprint verification apparatus, fingerprint verification method and a fingerprint verification program |
CN1455899A (en) | 2000-07-25 | 2003-11-12 | 有限会社信息安全 | Secret information recorded medium, protection method, protection storing method and system for information access alarming system |
JP4469476B2 (en) | 2000-08-09 | 2010-05-26 | パナソニック株式会社 | Eye position detection method and eye position detection apparatus |
KR20020022295A (en) | 2000-09-19 | 2002-03-27 | 장기화 | Device And Method For Face Recognition Using 3 Dimensional Shape Information |
US6766040B1 (en) | 2000-10-02 | 2004-07-20 | Biometric Solutions, Llc | System and method for capturing, enrolling and verifying a fingerprint |
WO2002030077A1 (en) | 2000-10-05 | 2002-04-11 | Matsushita Electric Industrial Co., Ltd. | Judgment level setting method and data receiver |
US6585591B1 (en) * | 2000-10-12 | 2003-07-01 | Igt | Gaming device having an element and element group selection and elimination bonus scheme |
US6819219B1 (en) | 2000-10-13 | 2004-11-16 | International Business Machines Corporation | Method for biometric-based authentication in wireless communication for access control |
JP2002159052A (en) | 2000-11-17 | 2002-05-31 | Nec Kofu Ltd | Mobile terminal with finger print authentication function |
US6871193B1 (en) | 2000-11-29 | 2005-03-22 | Verizon Corporate Services Group | Method and system for partitioned service-enablement gateway with utility and consumer services |
US7346778B1 (en) | 2000-11-29 | 2008-03-18 | Palmsource, Inc. | Security method and apparatus for controlling the data exchange on handheld computers |
EP1216900B1 (en) | 2000-12-22 | 2008-01-23 | Ford Global Technologies, LLC | Remote communication system for use with a vehicle and fob unit therefore |
JP2002207525A (en) | 2001-01-10 | 2002-07-26 | Matsushita Electric Ind Co Ltd | Portable information terminal with fingerprint sensor |
US7921297B2 (en) | 2001-01-10 | 2011-04-05 | Luis Melisendro Ortiz | Random biometric authentication utilizing unique biometric signatures |
US20020091937A1 (en) | 2001-01-10 | 2002-07-11 | Ortiz Luis M. | Random biometric authentication methods and systems |
US20020095588A1 (en) | 2001-01-12 | 2002-07-18 | Satoshi Shigematsu | Authentication token and authentication system |
US7124300B1 (en) | 2001-01-24 | 2006-10-17 | Palm, Inc. | Handheld computer system configured to authenticate a user and power-up in response to a single action by the user |
US6871784B2 (en) | 2001-02-07 | 2005-03-29 | Trijay Technologies International Corporation | Security in mag-stripe card transactions |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US20020122026A1 (en) | 2001-03-01 | 2002-09-05 | Bergstrom Dean Warren | Fingerprint sensor and position controller |
JP2002269046A (en) | 2001-03-09 | 2002-09-20 | Sharp Corp | Information processor |
TWI282941B (en) | 2001-03-15 | 2007-06-21 | Toshiba Corp | Entrance management apparatus and entrance management method by using face features identification |
US6848052B2 (en) | 2001-03-21 | 2005-01-25 | Activcard Ireland Limited | High security personalized wireless portable biometric device |
US6603462B2 (en) * | 2001-03-21 | 2003-08-05 | Multidigit, Inc. | System and method for selecting functions based on a finger feature such as a fingerprint |
US6877097B2 (en) | 2001-03-21 | 2005-04-05 | Activcard, Inc. | Security access method and apparatus |
US6920236B2 (en) | 2001-03-26 | 2005-07-19 | Mikos, Ltd. | Dual band biometric identification system |
US20020141586A1 (en) | 2001-03-29 | 2002-10-03 | Aladdin Knowledge Systems Ltd. | Authentication employing the bluetooth communication protocol |
US6850147B2 (en) | 2001-04-02 | 2005-02-01 | Mikos, Ltd. | Personal biometric key |
US20020146157A1 (en) | 2001-04-09 | 2002-10-10 | Goodman Mitchell E. | Fingerprint acquisition assembly using prism and camera |
US6724370B2 (en) | 2001-04-12 | 2004-04-20 | International Business Machines Corporation | Touchscreen user interface |
US20040085300A1 (en) * | 2001-05-02 | 2004-05-06 | Alec Matusis | Device and method for selecting functions based on intrinsic finger features |
EP1257111A1 (en) | 2001-05-08 | 2002-11-13 | Siemens Schweiz AG | Mobile terminal with an input device on its back side |
US6832317B1 (en) | 2001-05-10 | 2004-12-14 | Advanced Micro Devices, Inc. | Personal computer security mechanism |
KR20020087665A (en) | 2001-05-15 | 2002-11-23 | 엘지전자 주식회사 | Method for conducting in a PDA |
US20050024341A1 (en) | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
US7730401B2 (en) | 2001-05-16 | 2010-06-01 | Synaptics Incorporated | Touch screen with user interface enhancement |
WO2002096181A2 (en) | 2001-05-25 | 2002-12-05 | Biometric Informatics Technology, Inc. | Fingerprint recognition system |
JP2002358162A (en) | 2001-06-01 | 2002-12-13 | Sony Corp | Picture display device |
US20020190960A1 (en) * | 2001-06-15 | 2002-12-19 | Shyh-Ren Kuo | Method for controlling computer cursor based on identification of user fingerprint |
US7203347B2 (en) | 2001-06-27 | 2007-04-10 | Activcard Ireland Limited | Method and system for extracting an area of interest from within a swipe image of a biological surface |
US6836843B2 (en) | 2001-06-29 | 2004-12-28 | Hewlett-Packard Development Company, L.P. | Access control through secure channel using personal identification system |
KR20030005535A (en) * | 2001-07-09 | 2003-01-23 | 엘지전자 주식회사 | Use restraining apparatus and method for mobile communication device using fingerprint recognition |
AU2002316679A1 (en) | 2001-07-12 | 2003-01-29 | Atrua Technologies, Inc. | Method and system for biometric image assembly from multiple partial biometric frame scans |
JP2004537116A (en) | 2001-07-27 | 2004-12-09 | マルティン セルゲーヴィッチ ヌヌパロフ | Method and apparatus for inputting password for accessing computer database |
US6757411B2 (en) | 2001-08-16 | 2004-06-29 | Liska Biometry Inc. | Method and system for fingerprint encoding and authentication |
WO2003017244A1 (en) * | 2001-08-17 | 2003-02-27 | Multidigit, Inc. | System and method for selecting actions based on the identification of user's fingers |
JP2003067343A (en) | 2001-08-23 | 2003-03-07 | Toshiba Tec Corp | Business terminal device |
US20030188183A1 (en) | 2001-08-27 | 2003-10-02 | Lee Lane W. | Unlocking method and system for data on media |
US20030048173A1 (en) | 2001-09-06 | 2003-03-13 | Satoshi Shigematsu | Authentication method, authentication system, and authentication token |
US20030046557A1 (en) | 2001-09-06 | 2003-03-06 | Miller Keith F. | Multipurpose networked data communications system and distributed user control interface therefor |
JP2003085540A (en) | 2001-09-11 | 2003-03-20 | Sony Corp | User interface, authenticating device, device, and portable information terminal |
US7027619B2 (en) | 2001-09-13 | 2006-04-11 | Honeywell International Inc. | Near-infrared method and system for use in face detection |
US20060095369A1 (en) | 2001-10-15 | 2006-05-04 | Eyal Hofi | Device, method and system for authorizing transactions |
JP2003143290A (en) | 2001-10-30 | 2003-05-16 | Sanyo Electric Co Ltd | Portable telephone set |
DE10153591A1 (en) | 2001-11-02 | 2003-05-22 | Rene Baltus | Recognizing person by detecting and comparing joystick operating dynamics involves |
US6735287B2 (en) | 2001-11-16 | 2004-05-11 | Sbc Technology Resources, Inc. | Method and system for multimodal presence detection |
US6985502B2 (en) | 2001-11-19 | 2006-01-10 | Hewlett-Packard Development Company, L.P. | Time-division multiplexed link for use in a service area network |
US8504652B2 (en) | 2006-04-10 | 2013-08-06 | Portulim Foundation Llc | Method and system for selectively supplying media content to a user and media storage device for use therein |
US8266212B2 (en) | 2001-11-23 | 2012-09-11 | Igt | Game talk service bus |
US7363593B1 (en) * | 2001-11-30 | 2008-04-22 | Versata Development Group, Inc. | System and method for presenting information organized by hierarchical levels |
US7137553B2 (en) | 2001-12-31 | 2006-11-21 | Digital Data Research Company | Security clearance card, system and method of reading a security clearance card |
US7394346B2 (en) | 2002-01-15 | 2008-07-01 | International Business Machines Corporation | Free-space gesture recognition for transaction security and command processing |
US6883709B2 (en) | 2002-02-12 | 2005-04-26 | Famous Horse, Inc. | Biometric identification and security system associated with cash register |
US6879243B1 (en) | 2002-02-14 | 2005-04-12 | Penco Products, Inc. | Electronically-controlled locker system |
JP2003298689A (en) * | 2002-04-02 | 2003-10-17 | Canon Inc | Cellular telephone |
JP4022861B2 (en) | 2002-04-10 | 2007-12-19 | 日本電気株式会社 | Fingerprint authentication system, fingerprint authentication method, and fingerprint authentication program |
US7111788B2 (en) * | 2002-04-22 | 2006-09-26 | Nokia Corporation | System and method for navigating applications using a graphical user interface |
US6980081B2 (en) | 2002-05-10 | 2005-12-27 | Hewlett-Packard Development Company, L.P. | System and method for user authentication |
US6853739B2 (en) | 2002-05-15 | 2005-02-08 | Bio Com, Llc | Identity verification system |
US7543156B2 (en) | 2002-06-25 | 2009-06-02 | Resilent, Llc | Transaction authentication card |
KR20040000954A (en) | 2002-06-26 | 2004-01-07 | 삼성전자주식회사 | Method for nevigation key using sensor of fingerprint identification in mobile phone |
US7243239B2 (en) | 2002-06-28 | 2007-07-10 | Microsoft Corporation | Click passwords |
US20040104268A1 (en) | 2002-07-30 | 2004-06-03 | Bailey Kenneth Stephen | Plug in credit card reader module for wireless cellular phone verifications |
KR20040025004A (en) | 2002-09-18 | 2004-03-24 | 주식회사 현대오토넷 | Certification system to certify password combined fingerprints |
FI20021682L (en) | 2002-09-20 | 2004-03-21 | Nokia Corp | Method for unlocking a device and an electronic device |
HK1062117A2 (en) | 2002-09-25 | 2004-09-17 | Univ Hong Kong Polytechnic | Method of palm print identification using geometry, line and/or texture features |
US20040229560A1 (en) | 2002-10-10 | 2004-11-18 | Maloney William C. | Methods of tracking and verifying human assets |
US7194105B2 (en) | 2002-10-16 | 2007-03-20 | Hersch Roger D | Authentication of documents and articles by moiré patterns |
JP2004151862A (en) | 2002-10-29 | 2004-05-27 | Oki Electric Ind Co Ltd | Store visitor reception system, its device, and its program |
US6886101B2 (en) | 2002-10-30 | 2005-04-26 | American Express Travel Related Services Company, Inc. | Privacy service |
US7676748B1 (en) | 2002-11-04 | 2010-03-09 | Sun Microsystems, Inc. | System graphics for security shield |
JP2004157821A (en) | 2002-11-07 | 2004-06-03 | Nec Fielding Ltd | Identification system |
US6886096B2 (en) | 2002-11-14 | 2005-04-26 | Voltage Security, Inc. | Identity-based encryption system |
JP2004172851A (en) | 2002-11-19 | 2004-06-17 | Mitsubishi Electric Corp | Program for allowing computer to execute control method of communication terminal and photographing magnification |
US7102617B2 (en) | 2002-12-30 | 2006-09-05 | Motorola, Inc. | Compact optical pointing apparatus and method |
US7116805B2 (en) | 2003-01-07 | 2006-10-03 | Avagotechnologies Ecbu Ip (Singapore) Pte. Ltd. | Fingerprint verification device |
US7542945B2 (en) | 2003-01-15 | 2009-06-02 | Sanmina-Sci Corporation | Authentication device, system and methods |
KR100816602B1 (en) | 2003-02-13 | 2008-03-24 | 닛본 덴끼 가부시끼가이샤 | Unauthorized person detection device and unauthorized person detection method |
KR20040076639A (en) | 2003-02-26 | 2004-09-03 | 에스케이텔레텍주식회사 | Mobile phone and method for quick dialing using fingerprint recognition |
US20040172562A1 (en) | 2003-03-01 | 2004-09-02 | Vladimir Berger | System and method for identity recognition of an individual for enabling an access to a secured system |
US20040198486A1 (en) * | 2003-03-04 | 2004-10-07 | Walker Jay S. | Method and apparatus for determining and presenting outcomes at a gaming device |
JP4296008B2 (en) | 2003-03-04 | 2009-07-15 | 日本信号株式会社 | Personal authentication system |
JP2004297468A (en) | 2003-03-27 | 2004-10-21 | Lg Electronics Inc | Remote control unit |
US20040196400A1 (en) | 2003-04-07 | 2004-10-07 | Stavely Donald J. | Digital camera user interface using hand gestures |
US7188308B2 (en) * | 2003-04-08 | 2007-03-06 | Thomas Weise | Interface and method for exploring a collection of data |
US20040201595A1 (en) | 2003-04-11 | 2004-10-14 | Microsoft Corporation | Self-orienting display |
JP2004313459A (en) | 2003-04-16 | 2004-11-11 | Seiko Epson Corp | Fingerprint matching device, electronic device, and fingerprint matching method |
US7274808B2 (en) * | 2003-04-18 | 2007-09-25 | Avago Technologies Ecbu Ip (Singapore)Pte Ltd | Imaging system and apparatus for combining finger recognition and finger navigation |
US20040250138A1 (en) | 2003-04-18 | 2004-12-09 | Jonathan Schneider | Graphical event-based password system |
JP2004334788A (en) | 2003-05-12 | 2004-11-25 | Minoru Ikeda | Personal identification system, authentication device, personal identification method, program, and recording medium |
AU2003902422A0 (en) | 2003-05-19 | 2003-06-05 | Intellirad Solutions Pty. Ltd | Access security system |
US6888445B2 (en) | 2003-05-20 | 2005-05-03 | Bradley L. Gotfried | Vehicle identification system |
KR20070026809A (en) | 2003-05-21 | 2007-03-08 | 가부시키가이샤 히다치 하이테크놀로지즈 | Portable terminal device with fingerprint sensor |
WO2005001611A2 (en) | 2003-05-30 | 2005-01-06 | Privaris, Inc. | A system and methods for assignation and use of media content subscription service privileges |
JP2005004490A (en) | 2003-06-12 | 2005-01-06 | Murata Mach Ltd | Document processor and its program |
JPWO2004111940A1 (en) | 2003-06-16 | 2006-07-27 | よこはまティーエルオー株式会社 | Personal authentication device and system including personal authentication device |
US7474772B2 (en) * | 2003-06-25 | 2009-01-06 | Atrua Technologies, Inc. | System and method for a miniature user input device |
US7057607B2 (en) | 2003-06-30 | 2006-06-06 | Motorola, Inc. | Application-independent text entry for touch-sensitive display |
KR100613697B1 (en) | 2003-07-18 | 2006-08-21 | 학교법인연세대학교 | Fingerprint image acquisition method according to sliding / rolling of finger |
JP4551635B2 (en) | 2003-07-31 | 2010-09-29 | ソニー株式会社 | Pipeline processing system and information processing apparatus |
JP2005056152A (en) | 2003-08-05 | 2005-03-03 | Ricoh Co Ltd | Electronic voting system, method, program, and recording medium |
WO2005020190A2 (en) | 2003-08-11 | 2005-03-03 | Virtualblue, Llc | Rectractable flexible digital display apparatus |
US20050044387A1 (en) | 2003-08-18 | 2005-02-24 | Ozolins Helmars E. | Portable access device |
US20040230843A1 (en) | 2003-08-20 | 2004-11-18 | Wayne Jansen | System and method for authenticating users using image selection |
JP4633347B2 (en) | 2003-08-27 | 2011-02-16 | ソニー株式会社 | Electronics |
WO2005022473A1 (en) | 2003-08-29 | 2005-03-10 | Nokia Corporation | Method and device for customized picture-based user identification and authentication |
JP4086740B2 (en) | 2003-09-09 | 2008-05-14 | 日本電気株式会社 | Terminal user monitoring system |
US20050052427A1 (en) * | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
EP1521161A3 (en) | 2003-09-25 | 2006-03-15 | Matsushita Electric Industrial Co., Ltd. | An apparatus and a method for preventing unauthorized use and a device with a function of preventing unauthorized use |
JP4495545B2 (en) | 2003-09-25 | 2010-07-07 | パナソニック株式会社 | Unauthorized use prevention apparatus and method |
US7280677B2 (en) * | 2003-10-10 | 2007-10-09 | Authentec, Inc. | Electronic device including fingerprint sensor and display having selectable menu items and associated methods |
US7492472B2 (en) | 2003-10-30 | 2009-02-17 | Xerox Corporation | Multimedia communications/collaboration hub |
JP4448000B2 (en) | 2003-11-05 | 2010-04-07 | キヤノン株式会社 | Information transmission apparatus, information transmission destination designation method, storage medium, and program |
JP4387764B2 (en) | 2003-11-10 | 2009-12-24 | 富士通株式会社 | Authentication device and authentication system |
US7597250B2 (en) | 2003-11-17 | 2009-10-06 | Dpd Patent Trust Ltd. | RFID reader with multiple interfaces |
KR100580630B1 (en) | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | Person identification device and method using infrared ray |
TW200517975A (en) | 2003-11-20 | 2005-06-01 | Lightuning Tech Inc | Sweep-type fingerprint sensor device capable of guiding a finger in a fixed sweeping direction |
US20050114686A1 (en) | 2003-11-21 | 2005-05-26 | International Business Machines Corporation | System and method for multiple users to securely access encrypted data on computer system |
JP4131229B2 (en) | 2003-11-25 | 2008-08-13 | 日本電気株式会社 | Folding mobile phone and method for unlocking folding mobile phone |
JP2005175555A (en) | 2003-12-08 | 2005-06-30 | Hitachi Ltd | Mobile communication device |
CN1627317A (en) | 2003-12-12 | 2005-06-15 | 北京阳光奥森科技有限公司 | Method for obtaining image of human faces by using active light source |
KR100554129B1 (en) | 2003-12-19 | 2006-02-20 | 노틸러스효성 주식회사 | Personal authentication device using heat information of human body and its method |
WO2005064447A2 (en) | 2003-12-23 | 2005-07-14 | Authentec, Inc. | Electronic device with finger sensor for character entry and associated methods |
WO2005069212A1 (en) | 2004-01-13 | 2005-07-28 | Fujitsu Limited | Authenticator using organism information |
JP2005202578A (en) | 2004-01-14 | 2005-07-28 | Toshiba Corp | Communication device and communication method |
US7697729B2 (en) * | 2004-01-29 | 2010-04-13 | Authentec, Inc. | System for and method of finger initiated actions |
JP2005219630A (en) | 2004-02-05 | 2005-08-18 | Pioneer Electronic Corp | Operation control device, processing control device, operation controlling method, its program, and recording medium recording the program |
TWI231689B (en) | 2004-02-27 | 2005-04-21 | Htc Corp | Handheld electronic device |
KR100652624B1 (en) | 2004-03-02 | 2006-12-06 | 엘지전자 주식회사 | How to display standby screen of mobile communication terminal |
JP2005275488A (en) | 2004-03-23 | 2005-10-06 | Nippon Telegr & Teleph Corp <Ntt> | Input support method and program |
US7693308B2 (en) | 2004-03-24 | 2010-04-06 | Fujifilm Corporation | Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method |
US7542592B2 (en) | 2004-03-29 | 2009-06-02 | Siemesn Corporate Research, Inc. | Systems and methods for face detection and recognition using infrared imaging |
US7378939B2 (en) | 2004-03-30 | 2008-05-27 | Sengupta Uttam K | Method and apparatus for providing proximity based authentication, security, and notification in a wireless system |
KR100633184B1 (en) * | 2004-04-06 | 2006-10-12 | 엘지전자 주식회사 | Menu setting device and method of image display device |
JP4059224B2 (en) | 2004-04-13 | 2008-03-12 | 株式会社デンソー | Driver appearance recognition system |
US8358815B2 (en) * | 2004-04-16 | 2013-01-22 | Validity Sensors, Inc. | Method and apparatus for two-dimensional finger motion tracking and control |
US8165355B2 (en) * | 2006-09-11 | 2012-04-24 | Validity Sensors, Inc. | Method and apparatus for fingerprint motion tracking using an in-line array for use in navigation applications |
US8175345B2 (en) * | 2004-04-16 | 2012-05-08 | Validity Sensors, Inc. | Unitized ergonomic two-dimensional fingerprint motion tracking device and method |
EP1747525A2 (en) | 2004-04-23 | 2007-01-31 | Validity Sensors Inc. | Methods and apparatus for acquiring a swiped fingerprint image |
FR2869723A1 (en) * | 2004-04-29 | 2005-11-04 | Thomson Licensing Sa | NON-CONTACT TRANSITION ELEMENT BETWEEN A WAVEGUIDE AND A MOCRORUBAN LINE |
JP2005324450A (en) | 2004-05-14 | 2005-11-24 | Canon Inc | Image forming apparatus, information processing apparatus, job displaying and controlling method, storage medium storing computer-readable program and program |
JP4321350B2 (en) | 2004-05-14 | 2009-08-26 | パナソニック株式会社 | Parameter estimation method, parameter estimation device, and verification method |
JP2005339425A (en) | 2004-05-31 | 2005-12-08 | Sanyo Electric Co Ltd | Personal identification device |
US8684839B2 (en) | 2004-06-18 | 2014-04-01 | Igt | Control of wager-based game using gesture recognition |
US20060021003A1 (en) | 2004-06-23 | 2006-01-26 | Janus Software, Inc | Biometric authentication system |
TWI267789B (en) | 2004-06-30 | 2006-12-01 | Au Optronics Corp | Transparent touch panel for recognizing fingerprint |
JP2006018613A (en) | 2004-07-02 | 2006-01-19 | Oki Electric Ind Co Ltd | Automatic transaction device |
KR20060003689A (en) | 2004-07-07 | 2006-01-11 | 엘지전자 주식회사 | Menu selection device and method of fingerprint recognition communication terminal |
US8190907B2 (en) | 2004-08-11 | 2012-05-29 | Sony Computer Entertainment Inc. | Process and apparatus for automatically identifying user of consumer electronics |
US7328850B2 (en) | 2004-08-12 | 2008-02-12 | Codecard, Inc. | Financial and similar identification cards and methods relating thereto |
JP2006072872A (en) | 2004-09-06 | 2006-03-16 | Matsushita Electric Ind Co Ltd | Portable information processing apparatus, method for rotating screen of information processing apparatus, and synthesis data rotation method |
KR20060022001A (en) | 2004-09-06 | 2006-03-09 | 현대모비스 주식회사 | Car Audio Button Installation Structure |
JP4699139B2 (en) | 2004-09-14 | 2011-06-08 | 富士フイルム株式会社 | Security system |
JP2006085559A (en) | 2004-09-17 | 2006-03-30 | Canon Inc | Personal identification system, personal authentication method and storage medium |
US20060075250A1 (en) | 2004-09-24 | 2006-04-06 | Chung-Wen Liao | Touch panel lock and unlock function and hand-held device |
JP4266363B2 (en) | 2004-09-27 | 2009-05-20 | 日本開閉器工業株式会社 | Pressure sensitive fingerprint sensor |
JP4351982B2 (en) | 2004-10-07 | 2009-10-28 | 株式会社東芝 | Personal authentication method, apparatus and program |
JP2006107366A (en) | 2004-10-08 | 2006-04-20 | Fujitsu Ltd | Biometric information input device, biometric authentication device, biometric information processing method, biometric information processing program, and computer-readable recording medium recording the program |
EP1646254B1 (en) | 2004-10-11 | 2008-04-16 | Swisscom Mobile AG | Identification and/or authentification method by means of fingerprints |
JP4442385B2 (en) | 2004-10-13 | 2010-03-31 | 株式会社カシオ日立モバイルコミュニケーションズ | Portable terminal device and program |
JP2006121334A (en) | 2004-10-20 | 2006-05-11 | Vodafone Kk | Information communication terminal and communication management system |
JP2006119920A (en) | 2004-10-21 | 2006-05-11 | Matsushita Electric Ind Co Ltd | Information terminal device |
KR20060038274A (en) * | 2004-10-29 | 2006-05-03 | 엘지전자 주식회사 | Fingerprint sensor and fingerprint recognition device of mobile communication terminal using same |
US20060093192A1 (en) | 2004-11-03 | 2006-05-04 | Bechtel J S | Finger guide device |
KR100682898B1 (en) | 2004-11-09 | 2007-02-15 | 삼성전자주식회사 | Imaging device using infrared and its image identification method |
PL3432181T3 (en) | 2004-11-12 | 2021-07-19 | Koninklijke Philips N.V. | Distinctive user identification and authentication for multiple user access to display devices |
US7469060B2 (en) | 2004-11-12 | 2008-12-23 | Honeywell International Inc. | Infrared face detection and recognition system |
US7602942B2 (en) | 2004-11-12 | 2009-10-13 | Honeywell International Inc. | Infrared and visible fusion face recognition system |
US7138905B2 (en) | 2004-11-18 | 2006-11-21 | Honeywell International Inc. | Controlled environment thermal image detection system and methods regarding same |
JP2006146579A (en) | 2004-11-19 | 2006-06-08 | Olympus Corp | Data retrieving/reproducing apparatus, information inputting/recording apparatus, and operation apparatus |
JP2006157154A (en) | 2004-11-25 | 2006-06-15 | Canon Inc | Information input apparatus and camera |
US20060115130A1 (en) | 2004-11-29 | 2006-06-01 | Douglas Kozlay | Eyewear with biometrics to protect displayed data |
US8224753B2 (en) | 2004-12-07 | 2012-07-17 | Farsheed Atef | System and method for identity verification and management |
US20060136734A1 (en) | 2004-12-21 | 2006-06-22 | Eastman Kodak Company | Identification display device |
JP2006189999A (en) | 2005-01-04 | 2006-07-20 | Fujitsu Ltd | Security management method, program, and information device |
JP2006191245A (en) | 2005-01-05 | 2006-07-20 | Nec Corp | Dial lock function authentication unit and its method, and portable terminal employing it |
KR100729280B1 (en) | 2005-01-08 | 2007-06-15 | 아이리텍 잉크 | Iris Identification System and Method using Mobile Device with Stereo Camera |
US8438400B2 (en) | 2005-01-11 | 2013-05-07 | Indigo Identityware, Inc. | Multiple user desktop graphical identification and authentication |
US8700729B2 (en) | 2005-01-21 | 2014-04-15 | Robin Dua | Method and apparatus for managing credentials through a wireless network |
JP2006215705A (en) | 2005-02-02 | 2006-08-17 | Sony Ericsson Mobilecommunications Japan Inc | Information communication apparatus, information communication system, information recording device, and information reproducing device |
US8145912B2 (en) | 2005-03-01 | 2012-03-27 | Qualcomm Incorporated | System and method for using a visual password scheme |
JP4702598B2 (en) | 2005-03-15 | 2011-06-15 | オムロン株式会社 | Monitoring system, monitoring apparatus and method, recording medium, and program |
JP4734980B2 (en) | 2005-03-15 | 2011-07-27 | オムロン株式会社 | Face authentication device and control method therefor, electronic device equipped with face authentication device, face authentication device control program, and recording medium recording the program |
JP4696608B2 (en) | 2005-03-15 | 2011-06-08 | オムロン株式会社 | Subject authentication device, mobile phone, and subject authentication program |
US7561145B2 (en) * | 2005-03-18 | 2009-07-14 | Microsoft Corporation | Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface |
CN101180599A (en) * | 2005-03-28 | 2008-05-14 | 松下电器产业株式会社 | user interface system |
JP4739787B2 (en) | 2005-03-28 | 2011-08-03 | 富士通株式会社 | Electronics |
US7725511B2 (en) | 2005-03-31 | 2010-05-25 | Intel Corporation | Bio-metric input mechanism |
JP2006303701A (en) | 2005-04-18 | 2006-11-02 | Fujitsu Ltd | Electronic device, operation inhibition control method thereof, and operation inhibition control program |
JP2006301785A (en) | 2005-04-18 | 2006-11-02 | Toshiba Corp | Information processor and program |
JP2006301201A (en) | 2005-04-19 | 2006-11-02 | Canon Inc | Optical device and camera system |
US7590269B2 (en) | 2005-04-22 | 2009-09-15 | Microsoft Corporation | Integrated control for navigation, authentication, power on and rotation |
JP2006308375A (en) | 2005-04-27 | 2006-11-09 | Matsushita Electric Ind Co Ltd | Infrared ray using type eye position detection device |
TWI267791B (en) | 2005-05-13 | 2006-12-01 | Lite On Semiconductor Corp | Handheld device for acquiring fingerprint information |
US7929946B2 (en) | 2005-05-24 | 2011-04-19 | Rathus Spencer A | Remote subscriber identification (RSID) system and method |
US20090201257A1 (en) | 2005-05-27 | 2009-08-13 | Kei Saitoh | Display Device |
US7810720B2 (en) | 2005-06-13 | 2010-10-12 | Robert Lovett | Account payment using barcode information exchange |
US7347361B2 (en) | 2005-06-13 | 2008-03-25 | Robert Lovett | System, method and program product for account transaction validation |
US8370639B2 (en) | 2005-06-16 | 2013-02-05 | Sensible Vision, Inc. | System and method for providing secure access to an electronic device using continuous facial biometrics |
US20060284853A1 (en) * | 2005-06-16 | 2006-12-21 | Xm Satellite Radio, Inc. | Context sensitive data input using finger or fingerprint recognition |
KR100713494B1 (en) | 2005-06-20 | 2007-04-30 | 삼성전자주식회사 | User authentication method using camera and mobile communication terminal for same |
US20060289638A1 (en) | 2005-06-27 | 2006-12-28 | Schilling Donald L | Voting verification system and method |
JP2007011420A (en) | 2005-06-28 | 2007-01-18 | Konami Co Ltd | Authentication device and game device provided therewith |
JP2007011667A (en) | 2005-06-30 | 2007-01-18 | Matsushita Electric Ind Co Ltd | Iris authentication device and iris authentication method |
US20070016958A1 (en) | 2005-07-12 | 2007-01-18 | International Business Machines Corporation | Allowing any computer users access to use only a selection of the available applications |
JP4774245B2 (en) | 2005-07-15 | 2011-09-14 | 日立オムロンターミナルソリューションズ株式会社 | Automatic transaction device for biometric authentication |
JP2007036928A (en) | 2005-07-29 | 2007-02-08 | Sharp Corp | Mobile information terminal device |
JP4646734B2 (en) | 2005-08-17 | 2011-03-09 | シャープ株式会社 | Portable information terminal device |
JP2007058397A (en) | 2005-08-23 | 2007-03-08 | Konica Minolta Holdings Inc | Authentication system, registration system, and medium for certificate |
US20070061126A1 (en) * | 2005-09-01 | 2007-03-15 | Anthony Russo | System for and method of emulating electronic input devices |
WO2007029710A1 (en) | 2005-09-07 | 2007-03-15 | Matsushita Electric Industrial Co., Ltd. | Mobile processor apparatus |
US20070287540A1 (en) * | 2005-09-08 | 2007-12-13 | Brahmandam Kiran | Soft key hot spot activation system and method |
EP1924944A4 (en) | 2005-09-12 | 2012-11-07 | Sand Box Technologies Inc | System and method for controlling distribution of electronic information |
US8090945B2 (en) | 2005-09-16 | 2012-01-03 | Tara Chand Singhal | Systems and methods for multi-factor remote user authentication |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
JP2007097820A (en) | 2005-10-04 | 2007-04-19 | Sumitomo Electric Ind Ltd | Biopsy system and biopsy method |
US7484173B2 (en) | 2005-10-18 | 2009-01-27 | International Business Machines Corporation | Alternative key pad layout for enhanced security |
KR100663437B1 (en) | 2005-11-01 | 2007-01-02 | 삼성전자주식회사 | Remote input method using fingerprint sensor |
JP2007128288A (en) * | 2005-11-04 | 2007-05-24 | Fuji Xerox Co Ltd | Information display system |
US7847787B1 (en) * | 2005-11-12 | 2010-12-07 | Navisense | Method and system for directing a control action |
JP2007135149A (en) | 2005-11-14 | 2007-05-31 | Nec Corp | Mobile portable terminal |
US7868874B2 (en) | 2005-11-15 | 2011-01-11 | Synaptics Incorporated | Methods and systems for detecting a position-based attribute of an object using digital codes |
GB0523995D0 (en) | 2005-11-25 | 2006-01-04 | Ibm | Method,system and computer program product for access control |
JP2007148801A (en) | 2005-11-28 | 2007-06-14 | Yamatake Corp | Fingerprint verification device |
SG133415A1 (en) | 2005-12-12 | 2007-07-30 | Syed Mahtab Uddin Mahmood | Antiphishing login techniques |
WO2007072447A2 (en) | 2005-12-21 | 2007-06-28 | Koninklijke Philips Electronics N.V. | Biometric information detection using sweep-type imager |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
JP4252994B2 (en) | 2005-12-26 | 2009-04-08 | 株式会社日立製作所 | Mobile phone |
JP2007172508A (en) | 2005-12-26 | 2007-07-05 | Sony Corp | Detachable storage device and authentication method |
JP2007179213A (en) | 2005-12-27 | 2007-07-12 | Kosugi Masami | Network confidential information control system |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US7860536B2 (en) | 2006-01-05 | 2010-12-28 | Apple Inc. | Telephone interface for a portable communication device |
CN100999961A (en) | 2006-01-14 | 2007-07-18 | 姜仁忠 | New Sci & Tech. cipher lock and design method of key thereof |
KR20070081773A (en) | 2006-02-13 | 2007-08-17 | 스마트 와이어레스 가부시키가이샤 | Infrared face authentication device, portable terminal and security device having same |
WO2007093035A1 (en) | 2006-02-14 | 2007-08-23 | Sand Box Technologies Inc. | System and method for searching rights enabled documents |
US20070204037A1 (en) | 2006-02-27 | 2007-08-30 | Microsoft Corporation | Multiuser Web Service Sign-In |
US7630522B2 (en) | 2006-03-08 | 2009-12-08 | Microsoft Corporation | Biometric measurement using interactive display systems |
JP4853063B2 (en) | 2006-03-15 | 2012-01-11 | オムロン株式会社 | User device, communication device, authentication system, authentication method, authentication program, and recording medium |
KR100746874B1 (en) * | 2006-03-16 | 2007-08-07 | 삼성전자주식회사 | Apparatus and method for providing a service using a touch pad in a mobile terminal |
JP4669423B2 (en) * | 2006-03-20 | 2011-04-13 | 富士通株式会社 | Electronic device, scroll control device, and program |
WO2008008101A2 (en) | 2006-03-20 | 2008-01-17 | Black Gerald R | Mobile communication device |
US20070226778A1 (en) | 2006-03-22 | 2007-09-27 | Jorg Pietruszka | Bluetooth theft protection |
US9195428B2 (en) | 2006-04-05 | 2015-11-24 | Nvidia Corporation | Method and system for displaying data from auxiliary display subsystem of a notebook on a main display of the notebook |
US9395905B2 (en) | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
KR100847532B1 (en) | 2006-04-06 | 2008-07-21 | 재단법인서울대학교산학협력재단 | User terminal and authentication device used for user authentication using user behavior pattern information |
JPWO2007119818A1 (en) | 2006-04-14 | 2009-08-27 | 日本電気株式会社 | Function unlocking system, function unlocking method, and function unlocking program |
US8296684B2 (en) * | 2008-05-23 | 2012-10-23 | Hewlett-Packard Development Company, L.P. | Navigating among activities in a computing device |
US8683362B2 (en) * | 2008-05-23 | 2014-03-25 | Qualcomm Incorporated | Card metaphor for activities in a computing device |
JP2007293628A (en) | 2006-04-25 | 2007-11-08 | Toshiba Corp | Information processing apparatus |
US9152241B2 (en) * | 2006-04-28 | 2015-10-06 | Zienon, Llc | Method and apparatus for efficient data input |
JP4177858B2 (en) | 2006-05-18 | 2008-11-05 | 株式会社カシオ日立モバイルコミュニケーションズ | Portable terminal device with fingerprint authentication function and program |
US20070277224A1 (en) | 2006-05-24 | 2007-11-29 | Osborn Steven L | Methods and Systems for Graphical Image Authentication |
US8970502B2 (en) | 2006-05-26 | 2015-03-03 | Touchtable Ab | User identification for multi-user touch screens |
US20070273658A1 (en) | 2006-05-26 | 2007-11-29 | Nokia Corporation | Cursor actuation with fingerprint recognition |
US20110300829A1 (en) | 2006-06-09 | 2011-12-08 | Nokia Corporation | Fingerprint activated quick function selection |
JP4185533B2 (en) | 2006-06-15 | 2008-11-26 | 株式会社カシオ日立モバイルコミュニケーションズ | Portable terminal device with authentication function and program |
KR101277256B1 (en) * | 2006-06-16 | 2013-07-05 | 삼성전자주식회사 | Apparatus and method for user interface |
KR100856203B1 (en) * | 2006-06-27 | 2008-09-03 | 삼성전자주식회사 | User input device and method using fingerprint recognition sensor |
US9235733B2 (en) * | 2006-08-11 | 2016-01-12 | J. Douglas Birdwell | Mobile biometrics information collection and identification |
WO2008022195A1 (en) | 2006-08-15 | 2008-02-21 | Hewlett-Packard Development Company, L.P. | Device management system for mobile devices that supports multiple-point transport |
US7849321B2 (en) | 2006-08-23 | 2010-12-07 | Authernative, Inc. | Authentication method of random partial digitized path recognition with a challenge built into the path |
US7978091B2 (en) | 2006-08-24 | 2011-07-12 | Navisense | Method and device for a touchless interface |
US8395658B2 (en) | 2006-09-07 | 2013-03-12 | Sony Computer Entertainment Inc. | Touch screen-like user interface that does not require actual touching |
US20080069412A1 (en) | 2006-09-15 | 2008-03-20 | Champagne Katrina S | Contoured biometric sensor |
US8452978B2 (en) | 2006-09-15 | 2013-05-28 | Identity Metrics, LLC | System and method for user authentication and dynamic usability of touch-screen devices |
US20080084400A1 (en) * | 2006-10-10 | 2008-04-10 | Outland Research, Llc | Touch-gesture control of video media play on handheld media players |
KR100783552B1 (en) * | 2006-10-11 | 2007-12-07 | 삼성전자주식회사 | Method and device for input control of a mobile terminal |
TWM317045U (en) | 2006-10-20 | 2007-08-11 | Techine Technology Co Ltd | Mobile apparatus using human face features identification as access control |
JP4700109B2 (en) | 2006-11-21 | 2011-06-15 | 株式会社日立製作所 | Biometric authentication device and portable terminal device |
JP4946383B2 (en) | 2006-11-22 | 2012-06-06 | 富士通株式会社 | Information processing apparatus, abnormality detection method for information processing apparatus, and control program |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US8519963B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display |
US8607359B2 (en) | 2007-01-22 | 2013-12-10 | Dell Products L.P. | Removable hard disk with front panel input |
US7770136B2 (en) * | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
JP4679529B2 (en) * | 2007-01-31 | 2011-04-27 | Necカシオモバイルコミュニケーションズ株式会社 | INPUT DEVICE, MOBILE COMMUNICATION TERMINAL, AND PROGRAM |
CN101035335A (en) | 2007-02-13 | 2007-09-12 | 中电通信科技有限责任公司 | Mobile phone privacy protection method |
US20080235627A1 (en) * | 2007-03-21 | 2008-09-25 | Microsoft Corporation | Natural interaction by flower-like navigation |
US8111879B2 (en) | 2007-04-05 | 2012-02-07 | Honeywell International Inc. | Face and iris imaging system and method |
US7941834B2 (en) | 2007-04-05 | 2011-05-10 | Microsoft Corporation | Secure web-based user authentication |
US8471689B2 (en) | 2007-05-11 | 2013-06-25 | Philippe Stanislas Zaborowski | Touch-sensitive motion device |
US8681104B2 (en) | 2007-06-13 | 2014-03-25 | Apple Inc. | Pinch-throw and translation gestures |
CN101075174A (en) * | 2007-06-15 | 2007-11-21 | 魏新成 | Method for operating functions by extended task column on left edge of computer screen |
US8302033B2 (en) * | 2007-06-22 | 2012-10-30 | Apple Inc. | Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information |
US8171432B2 (en) * | 2008-01-06 | 2012-05-01 | Apple Inc. | Touch screen device, method, and graphical user interface for displaying and selecting application options |
US8733632B2 (en) | 2007-06-22 | 2014-05-27 | Visa U.S.A. Inc. | Mobile subscriber device for financial transaction tokens |
US8027518B2 (en) | 2007-06-25 | 2011-09-27 | Microsoft Corporation | Automatic configuration of devices based on biometric data |
US7835999B2 (en) | 2007-06-27 | 2010-11-16 | Microsoft Corporation | Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights |
US20090006846A1 (en) | 2007-06-27 | 2009-01-01 | Apple Inc. | Bluetooth device as security access key |
US8127254B2 (en) | 2007-06-29 | 2012-02-28 | Nokia Corporation | Unlocking a touch screen device |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US8023700B2 (en) * | 2007-07-26 | 2011-09-20 | Nokia Corporation | Apparatus, method, computer program and user interface for enabling access to functions |
US20090037742A1 (en) | 2007-07-31 | 2009-02-05 | International Business Machines Corporation | Biometric authentication device, system and method of biometric authentication |
US20090043180A1 (en) | 2007-08-08 | 2009-02-12 | Nonin Medical, Inc. | Sensor and system providing physiologic data and biometric identification |
US20080042979A1 (en) | 2007-08-19 | 2008-02-21 | Navid Nikbin | Method and apparatus for executing commands or inputting data based on finger's characteristics and Multi-Finger key |
US20090063352A1 (en) | 2007-08-29 | 2009-03-05 | Lance Kaufman | Methods and systems for monetary exchange and transfer |
US20090058595A1 (en) * | 2007-08-30 | 2009-03-05 | Atmel Corporation | Biometric Control Device |
JP5172847B2 (en) | 2007-09-05 | 2013-03-27 | パナソニック株式会社 | Electronics |
US20090067685A1 (en) | 2007-09-07 | 2009-03-12 | Authentec, Inc. | Finger sensing apparatus using template watermarking and associated methods |
JP2010541046A (en) | 2007-09-24 | 2010-12-24 | アップル インコーポレイテッド | Authentication system built into electronic devices |
CN101415075A (en) * | 2007-10-16 | 2009-04-22 | 佛山普立华科技有限公司 | Digital camera with fingerprint identification function and use method thereof |
US8358200B2 (en) * | 2007-10-23 | 2013-01-22 | Hewlett-Packard Development Company | Method and system for controlling computer applications |
US20090125296A1 (en) * | 2007-11-08 | 2009-05-14 | Popcap Games, Inc. | Methods and systems for using domain specific rules to identify words |
JP4744503B2 (en) | 2007-11-30 | 2011-08-10 | シャープ株式会社 | Operation processing device |
US8416198B2 (en) * | 2007-12-03 | 2013-04-09 | Apple Inc. | Multi-dimensional scroll wheel |
KR101387527B1 (en) | 2007-12-06 | 2014-04-23 | 엘지전자 주식회사 | Terminal and method for displaying menu icon therefor |
US8881049B2 (en) * | 2007-12-14 | 2014-11-04 | Apple Inc. | Scrolling displayed objects using a 3D remote controller in a media system |
US8244590B2 (en) * | 2007-12-21 | 2012-08-14 | Glyde Corporation | Software system for decentralizing ecommerce with single page buy |
US20090169070A1 (en) * | 2007-12-28 | 2009-07-02 | Apple Inc. | Control of electronic device by using a person's fingerprints |
US20090176565A1 (en) | 2008-01-07 | 2009-07-09 | Bally Gaming, Inc. | Gaming devices for biometrically identifying a player |
KR100817767B1 (en) | 2008-01-14 | 2008-03-31 | 알서포트 주식회사 | Authentication method using icon password |
JP2009171234A (en) | 2008-01-16 | 2009-07-30 | Sony Ericsson Mobilecommunications Japan Inc | Communication terminal, communication system, and communication method |
US8803797B2 (en) * | 2008-01-18 | 2014-08-12 | Microsoft Corporation | Input through sensing of user-applied forces |
US9552155B2 (en) | 2008-02-04 | 2017-01-24 | Microsoft Technology Liecsnsing, LLC | Dynamic soft keyboard |
US9785330B1 (en) * | 2008-02-13 | 2017-10-10 | Apple Inc. | Systems for and methods of providing inertial scrolling and navigation using a fingerprint sensor calculating swiping speed and length |
US20090224874A1 (en) * | 2008-03-05 | 2009-09-10 | International Business Machines Corporation | Apparatus, system, and method for providing authentication and activation functions to a computing device |
US9274681B2 (en) * | 2008-03-26 | 2016-03-01 | Lg Electronics Inc. | Terminal and method of controlling the same |
US7486810B1 (en) | 2008-04-24 | 2009-02-03 | International Business Machines Corporation | On-type biometrics fingerprint soft keyboard |
JP5173566B2 (en) | 2008-05-07 | 2013-04-03 | キヤノン株式会社 | Image processing apparatus, control method therefor, and program |
US9035891B2 (en) * | 2008-05-16 | 2015-05-19 | International Business Machines Corporation | Multi-point touch-sensitive sensor user interface using distinct digit identification |
US8169414B2 (en) * | 2008-07-12 | 2012-05-01 | Lim Seung E | Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface |
US8345014B2 (en) * | 2008-07-12 | 2013-01-01 | Lester F. Ludwig | Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface |
US8482381B2 (en) * | 2008-07-31 | 2013-07-09 | Palm, Inc. | Multi-purpose detector-based input feature for a computing device |
US8604364B2 (en) * | 2008-08-15 | 2013-12-10 | Lester F. Ludwig | Sensors, algorithms and applications for a high dimensional touchpad |
TW201009650A (en) * | 2008-08-28 | 2010-03-01 | Acer Inc | Gesture guide system and method for controlling computer system by gesture |
JP5317590B2 (en) | 2008-09-01 | 2013-10-16 | キヤノン株式会社 | Job processing apparatus, control method therefor, storage medium, and program |
KR101571723B1 (en) | 2008-09-02 | 2015-11-25 | 엘지전자 주식회사 | Mobile terminal and Method for controlling in thereof |
CN101382977B (en) * | 2008-09-18 | 2010-09-01 | 杭州晟元芯片技术有限公司 | Control device and method for opening and closing computer software and hardware system based on biology authentication |
FR2936326B1 (en) * | 2008-09-22 | 2011-04-29 | Stantum | DEVICE FOR THE CONTROL OF ELECTRONIC APPARATUS BY HANDLING GRAPHIC OBJECTS ON A MULTICONTACT TOUCH SCREEN |
US20100076823A1 (en) | 2008-09-24 | 2010-03-25 | Yasha Feldman | Voting system and method of voting |
US20100115452A1 (en) * | 2008-11-03 | 2010-05-06 | Novarra, Inc. | Methods and Systems for Providing Navigation Bars in a Client Browser for a Client Device |
JP4752900B2 (en) * | 2008-11-19 | 2011-08-17 | ソニー株式会社 | Image processing apparatus, image display method, and image display program |
US9477396B2 (en) * | 2008-11-25 | 2016-10-25 | Samsung Electronics Co., Ltd. | Device and method for providing a user interface |
KR20100059698A (en) * | 2008-11-25 | 2010-06-04 | 삼성전자주식회사 | Apparatus and method for providing user interface, and computer-readable recording medium recording the same |
EP2192511B1 (en) | 2008-12-01 | 2013-09-11 | BlackBerry Limited | Simplified biometric character sequence entry |
KR20100066036A (en) * | 2008-12-09 | 2010-06-17 | 삼성전자주식회사 | Operation method and apparatus for portable device |
JP5212640B2 (en) | 2008-12-18 | 2013-06-19 | シャープ株式会社 | Interface device and GUI configuration method |
CN101770299B (en) * | 2008-12-26 | 2013-11-06 | 深圳富泰宏精密工业有限公司 | System and method for realizing functions of navigation keys |
US20100180136A1 (en) | 2009-01-15 | 2010-07-15 | Validity Sensors, Inc. | Ultra Low Power Wake-On-Event Mode For Biometric Systems |
US20100201636A1 (en) * | 2009-02-11 | 2010-08-12 | Microsoft Corporation | Multi-mode digital graphics authoring |
US20100208953A1 (en) | 2009-02-17 | 2010-08-19 | Validity Sensors, Inc. | Illuminated Fingerprint Sensor and Method |
US8605960B2 (en) * | 2009-03-02 | 2013-12-10 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Fingerprint sensing device |
KR101549556B1 (en) * | 2009-03-06 | 2015-09-03 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
KR101549557B1 (en) * | 2009-03-10 | 2015-09-03 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
US8566045B2 (en) * | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US20100237991A1 (en) * | 2009-03-17 | 2010-09-23 | Prabhu Krishnanand | Biometric scanning arrangement and methods thereof |
KR101549558B1 (en) * | 2009-03-18 | 2015-09-03 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
US8605961B2 (en) | 2009-03-30 | 2013-12-10 | Motorola Mobility Llc | Method and apparatus for determining a physiological parameter using a fingerprint sensor on a portable electronic device |
KR20100111121A (en) | 2009-04-06 | 2010-10-14 | 뮤텔테크놀러지 주식회사 | Wireless home network system and installing method thereof |
US8300023B2 (en) | 2009-04-10 | 2012-10-30 | Qualcomm Incorporated | Virtual keypad generator with learning capabilities |
US20100265204A1 (en) * | 2009-04-21 | 2010-10-21 | Sony Ericsson Mobile Communications Ab | Finger recognition for authentication and graphical user interface input |
CN102422304A (en) * | 2009-04-29 | 2012-04-18 | 惠普发展公司,有限责任合伙企业 | Fingerprint scanner |
US8269175B2 (en) * | 2009-05-22 | 2012-09-18 | Motorola Mobility Llc | Electronic device with sensing assembly and method for detecting gestures of geometric shapes |
KR101597553B1 (en) * | 2009-05-25 | 2016-02-25 | 엘지전자 주식회사 | How to implement the function and its device |
KR20100134948A (en) * | 2009-06-16 | 2010-12-24 | 삼성전자주식회사 | Menu display method of a device having a touch screen |
US8407613B2 (en) * | 2009-07-13 | 2013-03-26 | Apple Inc. | Directory management on a portable multifunction device |
JP2011022687A (en) | 2009-07-14 | 2011-02-03 | Fujitsu Ltd | Electronic device having authentication function and authentication method |
US20110022307A1 (en) * | 2009-07-27 | 2011-01-27 | Htc Corporation | Method for operating navigation frame, navigation apparatus and recording medium |
US20110039602A1 (en) * | 2009-08-13 | 2011-02-17 | Mcnamara Justin | Methods And Systems For Interacting With Content On A Mobile Device |
US9152317B2 (en) * | 2009-08-14 | 2015-10-06 | Microsoft Technology Licensing, Llc | Manipulation of graphical elements via gestures |
JP5371626B2 (en) * | 2009-08-18 | 2013-12-18 | キヤノン株式会社 | Display control device, display control device control method, program, and storage medium |
JP2011048523A (en) | 2009-08-26 | 2011-03-10 | Kyocera Corp | Portable radio terminal |
JP2011053974A (en) * | 2009-09-02 | 2011-03-17 | Sony Corp | Device and method for controlling operation, and computer program |
US8413065B2 (en) * | 2009-09-07 | 2013-04-02 | Qualcomm Incorporated | User interface methods for ending an application |
WO2011030357A1 (en) * | 2009-09-08 | 2011-03-17 | Telecom Italia S.P.A. | Method for exploring a catalog of digital information contents |
JP5589326B2 (en) | 2009-09-08 | 2014-09-17 | ヤマハ株式会社 | Program for realizing electronic music apparatus and control method thereof |
KR20120085783A (en) * | 2009-09-23 | 2012-08-01 | 딩난 한 | Method and interface for man-machine interaction |
KR101648747B1 (en) | 2009-10-07 | 2016-08-17 | 삼성전자 주식회사 | Method for providing user interface using a plurality of touch sensor and mobile terminal using the same |
KR101640464B1 (en) * | 2009-10-26 | 2016-07-18 | 삼성전자 주식회사 | Method for providing user interface based on touch screen and mobile terminal using the same |
US8581847B2 (en) * | 2009-10-29 | 2013-11-12 | Pixart Imaging Inc. | Hybrid pointing device |
US9336428B2 (en) * | 2009-10-30 | 2016-05-10 | Synaptics Incorporated | Integrated fingerprint sensor and display |
US9174123B2 (en) * | 2009-11-09 | 2015-11-03 | Invensense, Inc. | Handheld computer systems and techniques for character and command recognition related to human movements |
US8436821B1 (en) * | 2009-11-20 | 2013-05-07 | Adobe Systems Incorporated | System and method for developing and classifying touch gestures |
EP2360665A3 (en) * | 2009-11-26 | 2012-03-28 | LG Electronics | Mobile terminal and control method thereof |
KR101649638B1 (en) | 2009-11-26 | 2016-08-19 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
US20110138313A1 (en) * | 2009-12-03 | 2011-06-09 | Kevin Decker | Visually rich tab representation in user interface |
US8433110B2 (en) | 2009-12-11 | 2013-04-30 | Sonavation, Inc. | Pulse-rate detection using a fingerprint sensor |
KR101604843B1 (en) * | 2009-12-30 | 2016-03-21 | 엘지전자 주식회사 | Mobile terminal and operation control method thereof |
US9785341B2 (en) * | 2009-12-31 | 2017-10-10 | Verizon Patent And Licensing Inc. | Inter-application navigation apparatuses, systems, and methods |
US8862576B2 (en) * | 2010-01-06 | 2014-10-14 | Apple Inc. | Device, method, and graphical user interface for mapping directions between search results |
US8736561B2 (en) | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
KR101631958B1 (en) | 2010-01-14 | 2016-06-20 | 엘지전자 주식회사 | Input device and mobile terminal having the same |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
US20110285648A1 (en) | 2010-01-22 | 2011-11-24 | Lester Ludwig | Use of fingerprint scanning sensor data to detect finger roll and pitch angles |
US8677268B2 (en) * | 2010-01-26 | 2014-03-18 | Apple Inc. | Device, method, and graphical user interface for resizing objects |
KR101690786B1 (en) | 2010-02-12 | 2016-12-28 | 삼성전자주식회사 | Device and method for performing multi-tasking |
US9274682B2 (en) | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US8799827B2 (en) * | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US9965165B2 (en) * | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
JP2011180843A (en) * | 2010-03-01 | 2011-09-15 | Sony Corp | Apparatus and method for processing information, and program |
KR20110103598A (en) | 2010-03-15 | 2011-09-21 | 주식회사 엘지유플러스 | System and method for unlocking the terminal |
JP2011229141A (en) | 2010-03-31 | 2011-11-10 | Sharp Corp | Television receiver and operation mode automatic setting method for television receiver |
US9052925B2 (en) | 2010-04-07 | 2015-06-09 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
KR101678812B1 (en) * | 2010-05-06 | 2016-11-23 | 엘지전자 주식회사 | Mobile terminal and operation control method thereof |
US8856682B2 (en) * | 2010-05-11 | 2014-10-07 | AI Squared | Displaying a user interface in a dedicated display area |
US20110287741A1 (en) * | 2010-05-18 | 2011-11-24 | Prabhu Krishnanand | Secure application control in mobile terminal using biometric sensor |
EP2388734A1 (en) | 2010-05-21 | 2011-11-23 | Research In Motion Limited | Fingerprint scanning with a camera |
US20110296351A1 (en) * | 2010-05-26 | 2011-12-01 | T-Mobile Usa, Inc. | User Interface with Z-axis Interaction and Multiple Stacks |
US8860672B2 (en) * | 2010-05-26 | 2014-10-14 | T-Mobile Usa, Inc. | User interface with z-axis interaction |
WO2011153623A2 (en) * | 2010-06-08 | 2011-12-15 | Aastra Technologies Limited | Method and system for video communication |
CN201765630U (en) | 2010-06-28 | 2011-03-16 | 杭州晟元芯片技术有限公司 | Payment device based on fingerprint identification |
US8972903B2 (en) * | 2010-07-08 | 2015-03-03 | Apple Inc. | Using gesture to navigate hierarchically ordered user interface screens |
US9483175B2 (en) * | 2010-07-26 | 2016-11-01 | Apple Inc. | Device, method, and graphical user interface for navigating through a hierarchy |
WO2012016191A1 (en) * | 2010-07-29 | 2012-02-02 | Ultra-Scan Corporation | Device and method of controlling a computer using centroids |
US20120030624A1 (en) * | 2010-07-30 | 2012-02-02 | Migos Charles J | Device, Method, and Graphical User Interface for Displaying Menus |
DE102010036906A1 (en) * | 2010-08-06 | 2012-02-09 | Tavendo Gmbh | Configurable pie menu |
WO2012019350A1 (en) * | 2010-08-12 | 2012-02-16 | Google Inc. | Finger identification on a touchscreen |
WO2012022999A1 (en) * | 2010-08-20 | 2012-02-23 | Sony Ericsson Mobile Communications Ab | Method for an integrated scrollbar options menu and related device and computer program product |
US9626099B2 (en) * | 2010-08-20 | 2017-04-18 | Avaya Inc. | Multi-finger sliding detection using fingerprints to generate different events |
KR20120018685A (en) | 2010-08-23 | 2012-03-05 | 주식회사 팬택 | Termianl for recogniging multi user input and control method thereof |
US8311514B2 (en) | 2010-09-16 | 2012-11-13 | Microsoft Corporation | Prevention of accidental device activation |
JP5615642B2 (en) | 2010-09-22 | 2014-10-29 | 京セラ株式会社 | Portable terminal, input control program, and input control method |
ES2900188T3 (en) * | 2010-09-24 | 2022-03-16 | Huawei Tech Co Ltd | Portable electronic device and method for controlling the same |
CN103119546A (en) * | 2010-09-24 | 2013-05-22 | 捷讯研究有限公司 | Transitional view on a portable electronic device |
CA2750352C (en) * | 2010-09-24 | 2019-03-05 | Research In Motion Limited | Method for conserving power on a portable electronic device and a portable electronic device configured for the same |
KR101741519B1 (en) | 2010-09-30 | 2017-06-01 | 삼성전자주식회사 | 3D Glasses and Method for Controlling thereof |
US20120084736A1 (en) * | 2010-10-01 | 2012-04-05 | Flextronics Id, Llc | Gesture controlled screen repositioning for one or more displays |
US20120086629A1 (en) * | 2010-10-07 | 2012-04-12 | Thoern Ola | Electronic device having movement-based user input and method |
US20120092127A1 (en) | 2010-10-18 | 2012-04-19 | Qualcomm Mems Technologies, Inc. | Multifunctional input device for authentication and security applications |
KR20120042684A (en) | 2010-10-23 | 2012-05-03 | 김남현 | Data transfer/receive method and system using finger printinformation |
US8564314B2 (en) | 2010-11-02 | 2013-10-22 | Atmel Corporation | Capacitive touch sensor for identifying a fingerprint |
KR102188757B1 (en) | 2010-11-18 | 2020-12-08 | 구글 엘엘씨 | Surfacing off-screen visible objects |
US20120127179A1 (en) * | 2010-11-19 | 2012-05-24 | Nokia Corporation | Method, apparatus and computer program product for user interface |
US9201539B2 (en) * | 2010-12-17 | 2015-12-01 | Microsoft Technology Licensing, Llc | Supplementing a touch input mechanism with fingerprint detection |
KR20120074490A (en) * | 2010-12-28 | 2012-07-06 | 삼성전자주식회사 | Apparatus and method for displaying menu of portable terminal |
US9423878B2 (en) * | 2011-01-06 | 2016-08-23 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9310940B2 (en) * | 2011-01-17 | 2016-04-12 | Pixart Imaging Inc. | Capacitive touchscreen or touch panel with fingerprint reader |
US8291349B1 (en) * | 2011-01-19 | 2012-10-16 | Google Inc. | Gesture-based metadata display |
JP2015039084A (en) | 2011-02-28 | 2015-02-26 | シャープ株式会社 | Image display device set |
US20120226979A1 (en) * | 2011-03-04 | 2012-09-06 | Leica Camera Ag | Navigation of a Graphical User Interface Using Multi-Dimensional Menus and Modes |
US8904305B2 (en) * | 2011-03-11 | 2014-12-02 | Google Inc. | Automatically hiding controls |
US20120266079A1 (en) * | 2011-04-18 | 2012-10-18 | Mark Lee | Usability of cross-device user interfaces |
US20120268485A1 (en) * | 2011-04-22 | 2012-10-25 | Panasonic Corporation | Visualization of Query Results in Relation to a Map |
US8938101B2 (en) * | 2011-04-26 | 2015-01-20 | Sony Computer Entertainment America Llc | Apparatus, system, and method for real-time identification of finger impressions for multiple users |
US20120280927A1 (en) * | 2011-05-04 | 2012-11-08 | Ludwig Lester F | Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems |
US20120297324A1 (en) * | 2011-05-18 | 2012-11-22 | Microsoft Corporation | Navigation Control Availability |
KR101250250B1 (en) * | 2011-05-18 | 2013-04-03 | 한국과학기술연구원 | Apparatus, method and computer readable recording medium for displaying contents |
CN102281539B (en) | 2011-08-29 | 2014-10-29 | 惠州Tcl移动通信有限公司 | Mobile terminal and application program login method thereof |
US9348364B2 (en) * | 2011-09-09 | 2016-05-24 | Facebook, Inc. | Content scrolling and transitioning using touchpad input |
US9779112B2 (en) * | 2011-09-12 | 2017-10-03 | Here Global B.V. | Method and apparatus for providing list-based exploration of mapping data |
US8610684B2 (en) * | 2011-10-14 | 2013-12-17 | Blackberry Limited | System and method for controlling an electronic device having a touch-sensitive non-display area |
US8711116B2 (en) * | 2011-10-17 | 2014-04-29 | Facebook, Inc. | Navigating applications using side-mounted touchpad |
KR101160681B1 (en) | 2011-10-19 | 2012-06-28 | 배경덕 | Method, mobile communication terminal and computer-readable recording medium for operating specific function when activaing of mobile communication terminal |
US20130129162A1 (en) * | 2011-11-22 | 2013-05-23 | Shian-Luen Cheng | Method of Executing Software Functions Using Biometric Detection and Related Electronic Device |
US8836472B2 (en) * | 2011-11-23 | 2014-09-16 | Blackberry Limited | Combining navigation and fingerprint sensing |
US8572515B2 (en) * | 2011-11-30 | 2013-10-29 | Google Inc. | Turning on and off full screen mode on a touchscreen |
US20130173925A1 (en) * | 2011-12-28 | 2013-07-04 | Ester Yen | Systems and Methods for Fingerprint-Based Operations |
US8890825B2 (en) * | 2012-02-20 | 2014-11-18 | Nokia Corporation | Apparatus and method for determining the position of user input |
US20130219340A1 (en) * | 2012-02-21 | 2013-08-22 | Sap Ag | Navigation on a Portable Electronic Device |
US9817568B2 (en) * | 2012-02-29 | 2017-11-14 | Blackberry Limited | System and method for controlling an electronic device |
TW201339917A (en) * | 2012-03-30 | 2013-10-01 | Hon Hai Prec Ind Co Ltd | Method and system for controlling touch-sensitive electronic device |
US9348987B2 (en) * | 2012-04-19 | 2016-05-24 | Apple Inc. | Electronic device including finger-operated input device based biometric matching and related methods |
US20130307788A1 (en) * | 2012-05-16 | 2013-11-21 | Motorola Solutions, Inc. | Device and method for automated use of force sensing touch panels |
CN111176516B (en) | 2012-05-18 | 2023-10-20 | 苹果公司 | Apparatus, method and graphical user interface for manipulating a user interface |
KR20130136173A (en) * | 2012-06-04 | 2013-12-12 | 삼성전자주식회사 | Method for providing fingerprint based shortcut key, machine-readable storage medium and portable terminal |
US9152842B2 (en) * | 2012-06-29 | 2015-10-06 | Apple Inc. | Navigation assisted fingerprint enrollment |
US8464181B1 (en) * | 2012-07-03 | 2013-06-11 | Google Inc. | Floor selection on an interactive digital map |
US9201585B1 (en) * | 2012-09-17 | 2015-12-01 | Amazon Technologies, Inc. | User interface navigation gestures |
US9141259B2 (en) * | 2013-01-21 | 2015-09-22 | International Business Machines Corporation | Pressure navigation on a touch sensitive user interface |
US9218544B2 (en) | 2013-02-01 | 2015-12-22 | Apple Inc. | Intelligent matcher based on situational or spatial orientation |
US10031586B2 (en) * | 2013-06-12 | 2018-07-24 | Amazon Technologies, Inc. | Motion-based gestures for a computing device |
US9898642B2 (en) | 2013-09-09 | 2018-02-20 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs |
US9645651B2 (en) * | 2013-09-24 | 2017-05-09 | Microsoft Technology Licensing, Llc | Presentation of a control interface on a touch-enabled device based on a motion or absence thereof |
KR102217858B1 (en) | 2013-11-13 | 2021-02-19 | 삼성전자주식회사 | Method for fingerprint authentication, fingerprint authentication device, and mobile terminal performing thereof |
US9705676B2 (en) * | 2013-12-12 | 2017-07-11 | International Business Machines Corporation | Continuous monitoring of fingerprint signature on a mobile touchscreen for identity management |
KR102139795B1 (en) | 2014-12-15 | 2020-07-31 | 삼성전자주식회사 | Method for updating biometric feature pattern and the electronic device therefor |
EP3089064A1 (en) | 2015-04-08 | 2016-11-02 | LG Electronics Inc. | Mobile terminal and method for controlling the same |
US9904409B2 (en) | 2015-04-15 | 2018-02-27 | Samsung Electronics Co., Ltd. | Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same |
EP3208733B1 (en) | 2016-02-19 | 2020-07-01 | Sony Corporation | Terminal device, method, and program |
GB2550131A (en) * | 2016-05-09 | 2017-11-15 | Web Communications Ltd | Apparatus and methods for a user interface |
DK179411B1 (en) | 2016-09-06 | 2018-06-06 | Apple Inc | Devices and methods for processing and rendering touch inputs unambiguous using intensity thresholds based on a prior input intensity |
KR102185854B1 (en) | 2017-09-09 | 2020-12-02 | 애플 인크. | Implementation of biometric authentication |
CN110020518A (en) | 2018-01-10 | 2019-07-16 | 敦泰电子有限公司 | A kind of terminal control method based on fingerprint recognition key, device and terminal |
EP3939375B1 (en) * | 2019-03-12 | 2025-05-21 | Omnifi Inc. | Radically inexpensive and flexible wireless deployment system and method |
KR102646536B1 (en) | 2019-04-25 | 2024-03-13 | 삼성전자주식회사 | Electronic device and method for performing biometrics function and intelligent agent function using user input in the electronic device |
US11409410B2 (en) | 2020-09-14 | 2022-08-09 | Apple Inc. | User input interfaces |
-
2013
- 2013-05-20 CN CN202010078908.XA patent/CN111176516B/en active Active
- 2013-05-20 CN CN202010078567.6A patent/CN111178332A/en active Pending
- 2013-05-20 JP JP2015512913A patent/JP6023879B2/en active Active
- 2013-05-20 AU AU2013262488A patent/AU2013262488A1/en not_active Abandoned
- 2013-05-20 US US14/402,087 patent/US11209961B2/en active Active
- 2013-05-20 CN CN201380037829.2A patent/CN106133748B/en active Active
- 2013-05-20 KR KR1020147035557A patent/KR101710771B1/en active Active
- 2013-05-20 BR BR112014028774-0A patent/BR112014028774B1/en active IP Right Grant
- 2013-05-20 CN CN202010079275.4A patent/CN111310619B/en active Active
- 2013-05-20 WO PCT/US2013/041868 patent/WO2013173838A2/en active Application Filing
- 2013-05-20 EP EP13726969.2A patent/EP2850510A2/en not_active Ceased
-
2015
- 2015-07-21 HK HK15106919.8A patent/HK1206452A1/en unknown
-
2016
- 2016-08-26 AU AU2016219716A patent/AU2016219716A1/en not_active Abandoned
- 2016-10-07 JP JP2016199379A patent/JP6360866B2/en active Active
-
2018
- 2018-06-12 AU AU2018204174A patent/AU2018204174B2/en active Active
- 2018-06-25 JP JP2018120019A patent/JP2018200696A/en active Pending
-
2020
- 2020-01-21 AU AU2020200397A patent/AU2020200397B2/en active Active
- 2020-07-29 JP JP2020128391A patent/JP7345442B2/en active Active
-
2021
- 2021-11-12 US US17/525,445 patent/US11989394B2/en active Active
-
2024
- 2024-04-17 US US18/638,256 patent/US20240264727A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080165255A1 (en) * | 2007-01-05 | 2008-07-10 | Apple Inc. | Gestures for devices having one or more touch sensitive surfaces |
US20110175807A1 (en) * | 2010-01-19 | 2011-07-21 | Avaya Inc. | Detection of a rolling motion or sliding motion of a body part on a surface |
Also Published As
Publication number | Publication date |
---|---|
AU2018204174B2 (en) | 2019-11-07 |
JP2018200696A (en) | 2018-12-20 |
AU2016219716A1 (en) | 2016-09-15 |
EP2850510A2 (en) | 2015-03-25 |
WO2013173838A2 (en) | 2013-11-21 |
US11989394B2 (en) | 2024-05-21 |
AU2013262488A1 (en) | 2014-12-18 |
JP7345442B2 (en) | 2023-09-15 |
US20150135108A1 (en) | 2015-05-14 |
BR112014028774B1 (en) | 2022-05-10 |
JP2020198105A (en) | 2020-12-10 |
JP6360866B2 (en) | 2018-07-18 |
CN111310619A (en) | 2020-06-19 |
KR20150021943A (en) | 2015-03-03 |
JP6023879B2 (en) | 2016-11-09 |
CN106133748A (en) | 2016-11-16 |
HK1206452A1 (en) | 2016-01-08 |
CN111176516A (en) | 2020-05-19 |
US20220066604A1 (en) | 2022-03-03 |
AU2018204174A1 (en) | 2018-06-28 |
CN111178332A (en) | 2020-05-19 |
BR112014028774A2 (en) | 2017-06-27 |
CN111176516B (en) | 2023-10-20 |
JP2015520456A (en) | 2015-07-16 |
US11209961B2 (en) | 2021-12-28 |
CN111310619B (en) | 2021-06-04 |
CN106133748B (en) | 2020-01-31 |
US20240264727A1 (en) | 2024-08-08 |
AU2020200397B2 (en) | 2021-03-11 |
AU2020200397A1 (en) | 2020-02-13 |
JP2017062800A (en) | 2017-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220066604A1 (en) | Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs | |
US11636192B2 (en) | Secure login with authentication based on a visual representation of data | |
US20200225819A1 (en) | Device, method, and graphical user interface for switching between two user interfaces | |
KR102242502B1 (en) | Devices and methods for accessing general device functions | |
US20200234027A1 (en) | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs | |
EP3420439B1 (en) | Motion-based configuration of a multi-user device | |
US12189756B2 (en) | User interfaces for managing passwords | |
WO2012088474A2 (en) | Device, method, and graphical user interface for switching between two user interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0105 | International application |
Patent event date: 20141218 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20141218 Comment text: Request for Examination of Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20160216 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20161221 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170221 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170221 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20200115 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20200115 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20210115 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20220118 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20230117 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20240109 Start annual number: 8 End annual number: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20250106 Start annual number: 9 End annual number: 9 |