WO2024253455A1 - 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체 - Google Patents

가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체 Download PDF

Info

Publication number
WO2024253455A1
WO2024253455A1 PCT/KR2024/007795 KR2024007795W WO2024253455A1 WO 2024253455 A1 WO2024253455 A1 WO 2024253455A1 KR 2024007795 W KR2024007795 W KR 2024007795W WO 2024253455 A1 WO2024253455 A1 WO 2024253455A1
Authority
WO
WIPO (PCT)
Prior art keywords
level
vibration
electronic device
housing
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/007795
Other languages
English (en)
French (fr)
Inventor
남명우
문민정
성영진
손동일
손서영
여재영
이용구
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230091695A external-priority patent/KR20240174440A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2024253455A1 publication Critical patent/WO2024253455A1/ko
Anticipated expiration legal-status Critical
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers

Definitions

  • This document relates to electronic devices, methods and non-transitory storage media for providing virtual vibration sound.
  • Electronic devices are evolving into various forms for the convenience of users, and are providing various services, applications, or functions. As the variety of services, applications, or functions provided by electronic devices gradually increases, larger displays are required to provide more screens, and easy portability is also required.
  • An electronic device whose housing shape can be transformed can provide an incoming notification, such as a phone call or a message, by generating vibration through a haptic module together with a designated sound source when an application is executed or a function is performed.
  • An electronic device whose housing shape can be transformed has a haptic module that generates vibration mounted to one side due to its structural characteristics. Accordingly, the vibration generated from the haptic module can be perceived differently by the user depending on the mounting position of the haptic module, depending on the state in which the haptic module is placed or held.
  • This document aims to provide an electronic device and method for providing a virtual vibration sound based on a resting state and/or a holding state so that the vibration experienced by a user can be consistently felt without changing in an electronic device whose housing shape can be changed.
  • an electronic device may include a housing including a first housing and a second housing, a haptic module mounted in the first housing, an audio module, a memory, and at least one processor electrically connected to the haptic module, the audio module, and the memory.
  • the at least one processor of the electronic device may be configured to identify at least one of a resting state or a holding state of the electronic device based on an event activating a vibration generated by the haptic module being identified.
  • the at least one processor may be configured to identify an expected vibration level to be output from the haptic module based on at least one of the holding state or the grip state.
  • the at least one processor may be configured to adjust a virtual vibration sound to be output from the audio module based on the expected vibration level.
  • a method of operating in an electronic device may include identifying at least one of a placed state or a grasped state of the electronic device based on an event that activates a vibration generated by a haptic module mounted in the first housing.
  • the method may include an operation of identifying an expected vibration level to be output from the haptic module based on at least one of the holding state or the grip state.
  • the method may include adjusting a virtual vibration sound to be output from an audio module of the electronic device based on the expected vibration level.
  • a non-transitory storage medium storing one or more programs may include instructions that, when executed by at least one processor of an electronic device including a first housing and a second housing, cause the electronic device to perform an operation of identifying at least one of a placed state and a grasped state of the electronic device based on an event activating vibration generated by a haptic module mounted in the first housing being identified, an operation of identifying an expected vibration level to be output from the haptic module based on at least one of the placed state or the grasped state, and an operation of adjusting a virtual vibration sound to be output from an audio module of the electronic device based on the expected vibration level.
  • FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.
  • FIGS. 2A, 2B, 2C, and 2D are diagrams illustrating the structure of an electronic device according to one embodiment.
  • FIG. 3 is a diagram illustrating the structure of an electronic device according to an embodiment of the present invention.
  • FIG. 4 is a drawing showing an example of a mounting state of an electronic device in an electronic device according to one embodiment.
  • FIGS. 5A and 5B are diagrams showing examples for controlling virtual vibration sound in an electronic device according to one embodiment.
  • FIG. 6 is a drawing showing an example of an operating method in an electronic device according to one embodiment.
  • FIG. 7 is a drawing showing an example of an operating method in an electronic device according to one embodiment.
  • FIG. 8 is a drawing showing an example of an operating method in an electronic device according to one embodiment.
  • the term “user” used in various embodiments may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).
  • FIG. 1 is a block diagram of an electronic device (101) in a network environment (100) according to various embodiments.
  • the electronic device (101) may communicate with the electronic device (102) via a first network (198) (e.g., a short-range wireless communication network) or may communicate with at least one of the electronic device (104) or the server (108) via a second network (199) (e.g., a long-range wireless communication network).
  • the electronic device (101) may communicate with the electronic device (104) via the server (108).
  • the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197).
  • the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may have one or more other components added.
  • some of these components e.g., the sensor module (176), the camera module (180), or the antenna module (197) may be integrated into one component (e.g., the display module (160)).
  • the processor (120) may control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculations, the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in the volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in the nonvolatile memory (134).
  • a command or data received from another component e.g., a sensor module (176) or a communication module (190)
  • the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or a secondary processor (123) (e.g., a graphic processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together therewith.
  • a main processor (121) e.g., a central processing unit or an application processor
  • a secondary processor (123) e.g., a graphic processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor
  • the secondary processor (123) may be configured to use lower power than the main processor (121) or to be specialized for a given function.
  • the secondary processor (123) may be implemented separately from the main processor (121) or as a part thereof.
  • the auxiliary processor (123) may control at least a portion of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display module (160), the sensor module (176), or the communication module (190)), for example, while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state.
  • the auxiliary processor (123) e.g., an image signal processor or a communication processor
  • the auxiliary processor (123) may include a hardware structure specialized for processing artificial intelligence models.
  • the artificial intelligence models may be generated through machine learning. Such learning may be performed, for example, in the electronic device (101) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (108)).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • the artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above.
  • the artificial intelligence model may additionally or alternatively include a software structure.
  • the memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101).
  • the data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto.
  • the memory (130) can include volatile memory (132) or nonvolatile memory (134).
  • the program (140) may be stored as software in the memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).
  • the input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101).
  • the input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
  • the audio output module (155) can output an audio signal to the outside of the electronic device (101).
  • the audio output module (155) can include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.
  • the display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101).
  • the display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device.
  • the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).
  • an electronic device e.g., an electronic device (102)
  • a speaker or a headphone directly or wirelessly connected to the electronic device (101).
  • the sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electric signal or data value corresponding to the detected state.
  • the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)).
  • the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)).
  • the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
  • the haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense.
  • the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module (180) can capture still images and moving images.
  • the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module (188) can manage power supplied to the electronic device (101).
  • the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery (189) can power at least one component of the electronic device (101).
  • the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel.
  • the communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module or a power line communication module).
  • a wireless communication module (192) e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module
  • a wired communication module (194) e.g., a local area network (LAN) communication module or a power line communication module.
  • a corresponding communication module may communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)).
  • a first network (198) e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network (199) e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)
  • a computer network e.g.,
  • the wireless communication module (192) may use subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196) to identify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199).
  • subscriber information e.g., an international mobile subscriber identity (IMSI)
  • IMSI international mobile subscriber identity
  • the wireless communication module (192) can support a 5G network and next-generation communication technology after a 4G network, for example, NR access technology (new radio access technology).
  • the NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency communications
  • the wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate.
  • a high-frequency band e.g., mmWave band
  • the wireless communication module (192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module (192) may support various requirements specified in an electronic device (101), an external electronic device (e.g., an electronic device (104)), or a network system (e.g., a second network (199)).
  • the wireless communication module (192) can support a peak data rate (e.g., 20 Gbps or more) for realizing 1eMBB, a loss coverage (e.g., 164 dB or less) for realizing mMTC, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for realizing URLLC.
  • a peak data rate e.g., 20 Gbps or more
  • a loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip
  • the antenna module (197) can transmit or receive signals or power to or from the outside (e.g., an external electronic device).
  • the antenna module (197) can include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB).
  • the antenna module (197) can include a plurality of antennas (e.g., an array antenna).
  • at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199) can be selected from the plurality of antennas by, for example, the communication module (190).
  • a signal or power can be transmitted or received between the communication module (190) and the external electronic device through the selected at least one antenna.
  • another component e.g., a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module (197) may form a mmWave antenna module.
  • the mmWave antenna module may include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high-frequency band.
  • a first side e.g., a bottom side
  • a plurality of antennas e.g., an array antenna
  • peripheral devices e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199).
  • Each of the external electronic devices (102, or 104) may be the same or a different type of device as the electronic device (101).
  • all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform at least a part of the function or service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101).
  • the electronic device (101) may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device (101) may provide an ultra-low latency service by using, for example, distributed computing or mobile edge computing.
  • the external electronic device (104) may include an IoT (Internet of Things) device.
  • the server (108) may be an intelligent server using machine learning and/or a neural network.
  • the external electronic device (104) or the server (108) may be included in the second network (199).
  • the electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIGS. 2A, 2B, 2C, and 2D are diagrams illustrating the structure of an electronic device according to one embodiment
  • FIG. 3 is a diagram illustrating the structure of an electronic device according to one embodiment.
  • an electronic device (101) may include a housing including a first housing structure (210) and a second housing structure (220), at least one processor (120), a memory (130), a display module (160), an audio module (170), a haptic module (179), a camera module (180), and a communication module (190).
  • the electronic device (101) may further include other components.
  • the electronic device (101) may be configured in a form in which the shape of the housing is deformable (e.g., in a foldable, flexible, rollable, or sliding form).
  • the electronic device (101) is deformed into a form in which a part of the housing of the electronic device described in FIGS. 2A and 2C is folded, or another part of the housing of the electronic device described in FIGS. 2B and 2D is folded.
  • the electronic device (101) may be configured into a form in which a plurality of parts are folded, a part of the housing is deformed into a rolling form or a sliding form, or without deforming the housing.
  • the first housing structure (210) and the second housing structure (220) may be arranged on opposite sides (e.g., upper (+Y direction) and lower (-Y direction)) with respect to a folding axis (e.g., folding axis (A) of FIGS. 2A and 2C or folding axis (B) of FIGS. 2B and 2D) and may be rotatably coupled with respect to the folding axis so as to face each other and be folded through a hinge structure (260).
  • a folding axis e.g., folding axis (A) of FIGS. 2A and 2C or folding axis (B) of FIGS. 2B and 2D
  • a hinge structure 260
  • the housing of the electronic device (101) may be configured to further include another housing structure in addition to the first housing structure (210) and the second housing structure (220), and may be configured to have a structure that can be folded in various forms through a plurality of folding axes.
  • the electronic device (101) may be configured to have a form in which a portion of the housing can be folded in a direction different from the folding axis.
  • the first housing structure (210) may have a camera (e.g., a front camera) (214), various sensors (215), and a speaker (e.g., a receiver) (216) included in a camera module (e.g., a camera module (180) of FIG. 1) disposed therein.
  • the camera (214), the various sensors (215), and the speaker (216) may be additionally disposed in or replaced with at least a portion of the second housing structure (220).
  • at least some of the camera (214), the various sensors (215), and the speaker (216) may be disposed in at least a portion of the first housing (210), and the remaining portions may be disposed in at least a portion of the second housing structure (220).
  • the camera (214) may be exposed through an opening provided at one corner of the front (e.g., the first surface (211)) of the first housing structure (210).
  • the sensors (215) may include at least one of a proximity sensor, a light sensor, an iris recognition sensor, an ultrasonic sensor, or an indicator.
  • the sensors (215) may be exposed on the front side of the electronic device (101) through an opening provided in one corner of the first housing structure (210), or may be arranged on the bottom of at least a portion of the display (161).
  • the electronic device (101) may further include a camera (217) (e.g., a rear camera) and a flash (208) exposed through an opening provided in one corner of the second side (212) (e.g., a rear side) of the first housing structure (210).
  • the electronic device (101) may also include an ear jack hole, an external speaker module, a SIM card tray, an interface connector port, or at least one key button, which are not shown, disposed through the first housing structure (210) and/or the second housing structure (220).
  • the housing (200) may include a display (e.g., a rear display), a first rear cover, and a second rear cover on the second side (212) (e.g., a rear side) of the first housing structure (210).
  • the housing (200) of the electronic device (101) is not limited to the shape and combination shown in FIGS. 2A, 2B, and 2C, and may be implemented by a combination and/or combination of other shapes or parts.
  • the first housing structure (210) and the first rear cover may be formed integrally
  • the second housing structure (220) and the second rear cover may be formed integrally.
  • the angle or distance between the first housing structure (210) and the second housing structure (220) may vary depending on whether the electronic device (101) is in an unfolded state (or flat state) (e.g., open state) or a folded state (or closed state) (e.g., closed state).
  • the unfolded state may mean a state in which the angle between the first side (211) of the first housing structure (210) and the first side (221) of the second housing structure (220) is fully opened, for example, at 180 degrees, or opened in an angular range exceeding a specified angle (e.g., 115 degrees) (e.g., more than 115 degrees to 180 degrees).
  • the folded state may mean a state in which the angle between the first side (211) of the first housing structure (210) and the first side (221) of the second housing structure (220) is closed to an angle range (e.g., less than 115 degrees to 0 degrees) less than a specified angle (e.g., 115 degrees) or a state in which the angle is completely closed to 0 degrees.
  • the folded state may be defined as an angle formed by the first side (211) of the first housing structure (210) and the third side (223) of the second housing structure (220). It may be a pre-specified angle (e.g., 135 degrees) according to one embodiment of the present document.
  • the first housing structure (210) and the second housing structure (220) may be configured such that a flexible display (161) included in the display module (160) is disposed on the first surface (e.g., the front surface) (211 and 221) of the housing.
  • the flexible display (161) may be disposed to extend on the second surface (e.g., the rear surface) (212) and/or the third surface (e.g., the side surface) (213) of the first housing structure (210), or on the second surface (222) (e.g., the rear surface) and/or the third surface (223) (e.g., the side surface) of the second housing structure (220).
  • the electronic device (101) may include the display (163) (e.g., the rear display) on the second surface (212) (e.g., the rear surface) of the first housing structure (210).
  • the display (161) may be visually exposed through the front (211) and/or the second front (212) of the electronic device (101), and the rear display may be visually exposed through the rear (212) of the electronic device (101).
  • the processor (120) may perform an operation of displaying an application execution screen according to a state (e.g., an unfolded state and a folded state) of the electronic device (101) set according to an angle between the first housing structure (210) and the second housing structure (220). According to one embodiment, when the electronic device (101) is in a folded state, the processor (120) may display different application execution screens in each of the plurality of separated areas.
  • a state e.g., an unfolded state and a folded state
  • the processor (120) may display different application execution screens in each of the plurality of separated areas.
  • the processor (120) may be a hardware component (function) or a software element (program) including at least one of various components provided in the electronic device (101), as a hardware module or a software module (e.g., an application program).
  • the processor (210) may include, for example, one or a combination of two or more of hardware, software, or firmware.
  • the processor (210) may omit at least some of the above components, or may be configured to further include other components for performing image processing operations in addition to the above components.
  • the memory (130) may store various data used by at least one component (e.g., the processor (210)) of the electronic device (101) and commands for performing operations executed by the processor (210).
  • the memory (130) may store an application (function or program) whose execution screen is displayed in a corresponding area of the display (161) depending on the unfolded or folded state of the electronic device (101).
  • the memory (130) may store various data generated during execution of the program (140), including a program used for a functional operation (e.g., the program (140) of FIG. 1).
  • the memory (130) may largely include a program area and a data area.
  • the program area (140) may store related program information for driving the electronic device (201), such as an operating system (OS) (e.g., the operating system (142) of FIG. 1) that boots the electronic device (201).
  • the data area may store transmitted and/or received data and generated data according to various embodiments.
  • the memory (130) may be configured to include at least one storage medium among flash memory, a hard disk, a multimedia card micro type memory (e.g., secure digital (SD) or extreme digital (XD) memory), RAM, and ROM.
  • the memory (130) may store an image corresponding to an execution screen of at least one application displayed in a corresponding area of the display (161) according to an unfolded state or a folded state.
  • the display module (160) may divide the display (161) into a plurality of regions (161-1, 161-2) and display execution screens of different applications on each of the plurality of regions (161-1, 161-2).
  • a specified first angle range e.g. 75 degrees to 115 degrees
  • the electronic device (101) may detect a pose, a gesture, a holding state, or a holding state of the first housing structure (210) and the second housing structure (220) through the motion sensor.
  • the postures of the first housing structure (210) and the second housing structure (220) may be detected based on the acceleration sensor of the motion sensor, and the movements of the first housing structure (210) and the second housing structure (220) may be detected based on the angular velocity sensor of the motion sensor.
  • the mounting state or the gripping state of the first housing structure (210) and/or the second housing structure (220) may be detected based on the angular velocity sensor.
  • the magnetic body may be disposed on at least a portion of the first housing structure (210) adjacent to the hinge structure (260) and at least a portion of the second housing structure (220).
  • the electronic device (101) may detect a user's gesture or gripping state through the motion sensor.
  • the sensor module may include a proximity sensor. The proximity sensor can be used to detect the angle between the first housing structure (210) and the second housing structure (220) or to detect the angle between the first housing structure (210) or the second housing structure (220) and the floor surface.
  • the audio module (170) may output the adjusted virtual vibration sound together with the vibration generated by the haptic module (179) and a designated sound (e.g., a phone ringtone or a notification sound) according to application execution (e.g., a phone call or a message reception).
  • a designated sound e.g., a phone ringtone or a notification sound
  • a haptic module (179) (e.g., a vibration module) of the electronic device (101) may be mounted in the first housing structure (210) and may include a horizontal vibration motor.
  • the horizontal vibration motor may generate vibration inversely proportional to a cross-sectional area of the housing in contact with the floor surface.
  • the haptic module (179) may generate vibration based on an angle between the first housing structure (210) and the floor surface when the electronic device (101) is in a folded state, in which the first housing structure (210) floats and the second housing structure is in a mounted state in contact with the floor surface.
  • the haptic module (179) may generate vibration (e.g., vibration intensity) that increases in response to an increase in the angle between the first housing structure (210) and the floor surface to a specified angle (90 degrees). For example, when the first housing structure (210) is floated at a specified angle (e.g., 90 degrees), it can generate vibration at a maximum level (e.g., maximum vibration intensity).
  • vibration intensity e.g., vibration intensity
  • FIG. 4 is a drawing showing an example of a mounting state of an electronic device in an electronic device according to one embodiment
  • FIGS. 5a and 5b are drawings showing examples for controlling a virtual vibration sound in an electronic device according to one embodiment.
  • the processor (120) of the electronic device (101) may identify at least one of a placed state or a gripped state of the electronic device (101) based on an event that activates a vibration (e.g., a haptic) generated by a haptic module (179) (e.g., a vibration module).
  • a vibration e.g., a haptic
  • the processor (120) may identify an expected vibration level (510) to be output from the haptic module (179) based on at least one of the identified placed state or gripped state.
  • the processor (120) may set a horizontal vibration motor (e.g., a horizontal haptic motor or an X-axis linear motor) included in the haptic module (179) to generate vibration with different intensities for each of the placed shapes of the placed state. Based on the fact that the vibration is generated with different intensities for each of the placed shapes, the processor (120) may identify an expected vibration level (510) that is set differently for each of the placed shapes of the placed state.
  • a horizontal vibration motor can generate vibrations inversely proportional to the cross-sectional area of the housing in contact with the floor surface.
  • a horizontal vibration motor can generate vibrations with different intensities depending on the angle between the floor surface and the housing (e.g., the first housing).
  • the processor (120) can adjust the virtual vibration sound to be output based on the expected vibration level for the identified holding state and/or the identified grip state.
  • the processor (120) can identify the level (520) of the virtual vibration sound by subtracting the identified expected vibration level (510) from the designated perceived vibration level (530) so that the user can equally perceive the vibration during the event situation, and can adjust the virtual vibration sound to be output from the audio module (170) to the level (520) of the identified virtual vibration sound.
  • the level can represent a vibration intensity (e.g., vibration size) in a range designated by the user or according to the type of the event or a designated vibration intensity (e.g., vibration size).
  • the designated perceived vibration level (530) can be a level (e.g., size or intensity) that is the sum of the identified expected vibration level and the level corresponding to the adjusted virtual vibration sound.
  • the specified tangible vibration level can be set to the vibration level (e.g., level 4 of FIG. 5a or the maximum vibration level) of the haptic module (179) output in a mounting state (e.g., a mounting state of the sixth mounting form (416) of FIG. 4) in which the second housing (220) is in contact with the floor surface and the first housing (210) is floated at a specified angle (e.g., 90 degrees).
  • the processor (120) may identify that an expected vibration level (510) to be output from the haptic module (179) is an intermediate level (e.g., level 2 of FIG. 5A), and may adjust a level (520) of a virtual vibration sound to a designated second level (e.g., level 2 of FIG. 5A) based on the identified intermediate level.
  • an expected vibration level (510) to be output from the haptic module (179) is an intermediate level (e.g., level 2 of FIG. 5A)
  • a level (520) of a virtual vibration sound e.g., level 2 of FIG. 5A
  • the second level can be designated as an intermediate level (e.g., level 2 of FIG. 5a) which is an identified level by subtracting the intermediate level (e.g., level 2 of FIG. 5a) which is an expected vibration level (510) identified from the designated perceived vibration level (530) (e.g., level 4 of FIG. 5a).
  • an intermediate level e.g., level 2 of FIG. 5a
  • an expected vibration level e.g., level 4 of FIG. 5a
  • the processor (120) may adjust the level (520) of the virtual vibration sound to a designated first level (e.g., level 4 of FIG. 5A) when the first housing (210) in which the haptic module (179) is mounted and the second housing (220) in which the haptic module (179) is not mounted are in a mounted state (e.g., a fourth mounted form (414) of FIG. 4) in which the two surfaces are in contact (two-sided contact (513)) with the floor surface.
  • the first level may be designated as a maximum level (e.g., level 4 of FIG. 5A) based on the expected vibration level (510) to be output from the haptic module (179) being a minimum level (e.g., level 0 of FIG. 5A).
  • the first level may be designated as a level identified by subtracting an intermediate level (e.g., level 2), which is an expected vibration level identified, from a designated tangible vibration level (e.g., level 4).
  • the processor (120) may identify an angle between the bottom surface and the first housing (510) when the second housing (220) on which the haptic module (179) is not mounted is in contact with the bottom surface (one-sided contact) and the first housing (210) on which the haptic module (179) is mounted is in a floating mounting state (e.g., the fifth mounting form (415) and the sixth mounting form (416) of FIG. 4), and may adjust a virtual vibration sound based on the identified angle.
  • the processor (120) may decrease a level (550) (e.g., intensity or size of the sound) of a virtual vibration sound from a designated first level (e.g., level 4 of FIG.
  • the third level may be designated as a minimum level (e.g., level 0 of FIG. 5B) based on an expected vibration level (540) being a maximum level (e.g., level 4 of FIG. 5B).
  • the processor (120) may adjust the level (550) of the virtual vibration sound to a designated first level (e.g., level 4 of FIG. 5b) based on identifying the identified angle as 0 degrees.
  • a designated first level e.g., level 4 of FIG. 5b
  • the processor (120) may adjust the level (550) of the virtual vibration sound to a third level (e.g., level 0 of FIG. 5b) or may not generate the virtual vibration sound when the second housing (220) is in contact with the floor surface (one-sided contact) and the first housing (210) is in a floating state at a reference angle (e.g., the sixth mounting form (416) of FIG. 4).
  • a third level e.g., level 0 of FIG. 5b
  • a reference angle e.g., the sixth mounting form (416) of FIG. 4
  • the processor (120) can adjust the level (550) of the virtual vibration sound to a second level (e.g., level 2 of FIG. 5b) when the second housing (220) is in contact with the floor surface (one-sided contact) and the first housing (210) is in a floating state (e.g., the fifth mounting form (415) of FIG. 4) at a lower angle (e.g., 45 degrees) than the reference angle.
  • a second level e.g., level 2 of FIG. 5b
  • the processor (120) can adjust the level (550) of the virtual vibration sound to a second level (e.g., level 2 of FIG. 5b) when the second housing (220) is in contact with the floor surface (one-sided contact) and the first housing (210) is in a floating state (e.g., the fifth mounting form (415) of FIG. 4) at a lower angle (e.g., 45 degrees) than the reference angle.
  • the processor (120) may obtain grip information related to a grip state of the electronic device (101) and adjust a virtual vibration sound based on the obtained grip information so that the user consistently experiences vibration.
  • the processor (120) may identify an expected vibration level to be output from the haptic module (179) when the electronic device (101) is in a grip state and may identify an expected perceived vibration level for each grip position as the user experiences vibration differently for each grip position.
  • the processor (120) may identify a first grip state in which a user grips a first housing (210) having a haptic module (179) mounted therein, and may identify a grip position of the first grip state as a grip position in which the user can perceive high vibration, and may identify an expected perceived vibration level as a maximum level (e.g., a level equal to or similar to an expected vibration level to be output from the haptic module (179).
  • the processor (120) may adjust a level of a virtual vibration sound to a specified minimum level based on the fact that the expected perceived vibration level is a maximum level (e.g., a specified perceived vibration level).
  • the processor (120) may identify a second grip state in which the user grips the second housing (220) in which the haptic module (179) is not mounted, and may identify a grip position of the second grip state as a grip position in which the user can weakly feel vibration, and may identify an expected tangible vibration level as an intermediate level (e.g., a level higher than the minimum level and lower than the expected vibration level to be output from the haptic module (179)).
  • the processor (120) may adjust a level of a virtual vibration sound to a designated intermediate level based on the expected tangible vibration level being the intermediate level.
  • the intermediate level may be designated as a level obtained by subtracting the expected tangible vibration level from the designated tangible vibration level (or the expected vibration level to be output from the haptic module (179)) so as to provide vibration evenly at the designated tangible vibration level.
  • the processor (120) may identify, using at least one sensor, that the electronic device (101) is not in a resting or holding state (e.g., located in a bag or pocket), and at this time, may adjust a virtual vibration sound to a specified maximum level.
  • a resting or holding state e.g., located in a bag or pocket
  • the processor (120) may identify an expected perceived vibration level as a minimum level, and may adjust the virtual vibration sound to a specified maximum level based on the expected perceived vibration level being the minimum level so as to provide vibration evenly at the specified perceived vibration level.
  • the processor (120) may obtain surrounding environment information, identify external noise based on the surrounding environment information, and if the surrounding environment is noisy and the external noise is higher than a first reference level, adjust the level of the adjusted virtual vibration sound to increase to a certain level. According to one embodiment, if the surrounding environment is quiet and the external noise is lower than a second reference level, the processor (120) may adjust the level of the adjusted virtual vibration sound to decrease to a certain level.
  • the processor (120) may obtain the distance between the electronic device (101) and the user, for example, by using a short-range communication method, and when the distance between the electronic device (101) and the user is placed farther away than a reference distance, the processor (120) may adjust the level of the adjusted virtual vibration sound to increase to a certain level. For example, the processor (120) may adjust the virtual vibration sound based on the distance between the electronic device (101) and the external electronic device obtained through short-range communication with the user's external electronic device (e.g., a wearable device worn by the user).
  • the processor (120) may adjust the virtual vibration sound based on the distance between the electronic device (101) and the external electronic device obtained through short-range communication with the user's external electronic device (e.g., a wearable device worn by the user).
  • the processor (120) may monitor the surroundings of the electronic device (101) by using at least one sensor (e.g., a lidar sensor, a radar sensor, or a proximity sensor) of the electronic device (101) and/or a camera to determine whether the user is in a close location, and may adjust the virtual vibration sound based on whether the user is in a close location.
  • the processor (120) may determine whether the user is in a close location to the placed electronic device (101) through voice recognition of the user. Without being limited thereto, the processor (120) can determine the distance between the mounted electronic device (101) and the user or the proximity of the user through various other methods.
  • the processor (120) can control the audio module (170) to output the adjusted virtual vibration sound.
  • the processor (120) can control the audio module (170) to output the adjusted virtual vibration sound together with or separately from a designated sound (e.g., a phone ring or a notification sound) for an event that activates vibration.
  • the processor (120) can control the haptic module (179) to generate vibration at an expected vibration level simultaneously with the output of the adjusted virtual vibration sound.
  • the processor (120) can output the virtual vibration sound at an intensity (e.g., size or volume) of the sound corresponding to the level of the adjusted virtual vibration sound at the level (520) of the identified virtual vibration sound.
  • the electronic device (101) can provide a tactile vibration to the user evenly (or consistently) during an event situation by providing a tactile vibration that is a combination of a controlled virtual vibration sound output from an audio module (170) and a vibration output from a haptic module (179).
  • An electronic device (101) may implement a software module (e.g., a program (140) of FIG. 1) for adjusting a virtual vibration sound to consistently provide a user's perceived vibration level.
  • a memory (130) of the electronic device (101) may store commands (e.g., instructions) to implement the software module illustrated in FIG. 2.
  • At least one processor (120) may execute the commands stored in the memory (130) to implement the software module, and control hardware (e.g., a sensor module (176), an audio module (170), a haptic module (179), or a communication module (190) of FIG. 1) associated with a function of the software module (201).
  • control hardware e.g., a sensor module (176), an audio module (170), a haptic module (179), or a communication module (190) of FIG.
  • a software module of an electronic device (101) may be configured to include a kernel (or HAL), a framework (e.g., middleware (144) of FIG. 1) and an application (e.g., application (146) of FIG. 1). At least a part of the software module may be preloaded on the electronic device (101) or may be downloadable from a server (e.g., server (108)).
  • a kernel or HAL
  • a framework e.g., middleware (144) of FIG. 1
  • an application e.g., application (146) of FIG.
  • At least a part of the software module may be preloaded on the electronic device (101) or may be downloadable from a server (e.g., server (108)).
  • the main components of the electronic device have been described through the electronic device (101) of FIGS. 1, 2A to 2D, and 3.
  • the electronic device (101) may be implemented with more components than the illustrated components, or may be implemented with fewer components.
  • the positions of the main components of the electronic device (101) described above through FIGS. 1, 2A to 2D, and 3 may be changed according to various embodiments.
  • an electronic device may include a housing including a first housing (e.g., the first housing (210) of FIGS. 1, 2A to 2D, and 3) and a second housing (e.g., the second housing (220) of FIGS. 1, 2A to 2D, and 3), a haptic module (e.g., the haptic module (179) of FIGS. 1 and 3), an audio module (e.g., the audio module (170) of FIGS. 1 and 3), a memory (e.g., the memory (130) of FIG. 1), and at least one processor (e.g., the processor (120) of FIGS. 1 and 3) electrically connected to the haptic module, the audio module, and the memory.
  • a housing including a first housing (e.g., the first housing (210) of FIGS. 1, 2A to 2D, and 3) and a second housing (e.g., the second housing (220) of FIGS. 1, 2A to 2D, and 3), a haptic module (e
  • the at least one processor of the electronic device may be configured to identify at least one of a resting state or a holding state of the electronic device based on an event activating a vibration generated by the haptic module being identified.
  • the at least one processor may be configured to identify an expected vibration level to be output from the haptic module based on at least one of the holding state or the grip state.
  • the at least one processor may be configured to adjust a virtual vibration sound to be output from the audio module based on the expected vibration level.
  • the at least one processor may be configured to control the audio module to output the adjusted virtual vibration sound, and to control the haptic module to output a vibration corresponding to the expected vibration level simultaneously with the output of the adjusted virtual vibration sound.
  • the at least one processor may be configured to adjust the virtual vibration sound to a level that is obtained by subtracting the expected vibration level from the designated perceived vibration level, so as to provide consistent perceived vibration at the designated perceived vibration level in the event situation.
  • the haptic module includes a horizontal vibration motor (e.g., a horizontal haptic motor or an X-axis linear motor), wherein the horizontal vibration motor can generate vibration inversely proportional to a cross-sectional area of the housing in contact with the floor surface.
  • a horizontal vibration motor e.g., a horizontal haptic motor or an X-axis linear motor
  • the specified tangible vibration level is set to a maximum vibration level output from the haptic module or a vibration level output from the haptic module when the second housing is in contact with a floor surface and the first housing is rotated at a specified angle based on the hinge structure and is in a floating position, and the hinge structure can be configured between the first housing and the second housing.
  • the at least one processor may be configured to adjust the virtual vibration sound to a designated first level based on the fact that the placed state is a state in which the first housing and the second housing are in contact with the floor surface.
  • the designated first level may be set to a maximum level based on the fact that the expected vibration level to be output from the haptic module is a minimum level.
  • the at least one processor may be configured to adjust the virtual vibration sound to a designated second level based on the fact that the first housing is in contact with the floor surface and the second housing is floating.
  • the designated second level may be set to a designated intermediate level between a first level having a maximum level and a third level having a minimum level, based on the fact that the expected vibration level is an intermediate level.
  • the at least one processor may be configured to identify an angle between the floor surface and the first housing based on the position in which the first housing is floating and the second housing is in contact with the floor surface, and to adjust the virtual vibration sound based on the identified angle.
  • the at least one processor may be configured to reduce the intensity of the virtual vibration sound to a designated third level in response to the identified angle increasing to a designated angle.
  • the third level may be set to a minimum level based on the expected vibration level being a maximum level.
  • the at least one processor may be configured to adjust the virtual vibration sound to a designated first level based on identifying the identified angle as 0 degrees, and to adjust the virtual vibration sound to a third level or not to output the virtual vibration sound based on identifying the identified angle as the reference angle.
  • the at least one processor may be configured to adjust the virtual vibration sound to a specified minimum level based on the fact that the holding state is a state of holding the first housing, identify a lowered expected tactile level based on the fact that the holding state is a state of holding the second housing, adjust the virtual vibration sound to an intermediate level higher than the minimum level and lower than the maximum level based on the expected tactile level, and adjust the virtual vibration sound to a specified maximum level based on the fact that the electronic device is not in the holding state or the holding state.
  • the intermediate level may be a level obtained by subtracting the expected perceived level from the designated perceived vibration level so as to provide vibration evenly at the designated perceived vibration level.
  • the specified haptic vibration level may be specified as the maximum vibration level output from the haptic module.
  • FIG. 6 is a drawing showing an example of an operating method in an electronic device according to one embodiment.
  • an electronic device may identify an event that activates a vibration generated by a haptic module (e.g., the haptic module (179) or the vibration module of FIGS. 1 and 3).
  • the event that activates the vibration may be an event that outputs a vibration generated by the haptic module together with a specified sound source (e.g., a phone ringtone or a notification sound) or outputs only the vibration.
  • the electronic device can identify at least one of a placed state and a grasped state.
  • the placed state can indicate a state in which the first housing and the second housing of the electronic device are in a folded or unfolded state, and one side of the first housing (e.g., the first housing (210) of FIGS. 2A to 2D and FIG. 3) and/or one side of the second housing (e.g., the second housing (220) of FIGS. 2A to 2D and FIG. 3) is in contact with a floor surface.
  • the grasped state can indicate a state in which a user grasps a part of a housing of the electronic device (e.g., the first housing or the second housing).
  • the electronic device can identify an expected vibration level to be output from the haptic module based on at least one of a resting state or a resting state.
  • the electronic device can identify the expected vibration level for each resting shape based on the horizontal vibration motor (e.g., a horizontal haptic motor or an X-axis linear motor) included in the haptic module generating vibration with different intensities for each resting shape in the resting state.
  • the horizontal vibration motor can generate vibration inversely proportional to a cross-sectional area of a housing in contact with a floor surface.
  • the horizontal vibration motor can generate vibration with different intensities depending on an angle between the floor surface and the housing (e.g., a first housing).
  • the electronic device may adjust a virtual vibration sound to be output from an audio module (e.g., the audio module (170) of FIGS. 1 and 3) based on an expected vibration level.
  • the electronic device may identify a level of a virtual vibration sound by subtracting an expected vibration level identified so that a user may equally feel vibration during an event situation from a specified perceived vibration level, and adjust the virtual vibration sound to be output from the audio module to the level of the identified virtual vibration sound.
  • the level may represent a vibration intensity (e.g., vibration size) in a range specified by a user or according to a type of event or a specified vibration intensity (e.g., vibration size).
  • the specified perceived vibration level may be a level (e.g., size or intensity) that adds a level corresponding to the adjusted virtual vibration sound to the identified expected vibration level.
  • the specified tangible vibration level can be set to the vibration level (e.g., level 4 or maximum vibration level of FIG. 5A) of the haptic module output in a mounting state (e.g., mounting state of the sixth mounting form (416) of FIG. 4) in which the second housing is in contact with the floor surface and the first housing is floated at a specified angle (e.g., 90 degrees) or the maximum vibration level of the haptic module.
  • the electronic device can output a virtual vibration sound adjusted to cause the user to consistently feel vibration (at a specified perceived vibration level) during an event situation through the audio module, and simultaneously output a vibration corresponding to the expected vibration level through the haptic module.
  • FIG. 7 is a drawing showing an example of an operating method in an electronic device according to one embodiment.
  • an electronic device may identify an event that activates a vibration generated by a haptic module (e.g., the haptic module (179) or the vibration module of FIGS. 1 and 3).
  • the event that activates the vibration may be an event that outputs a vibration generated by the haptic module together with a specified sound source (e.g., a phone ringtone or a notification sound) or outputs only the vibration.
  • the electronic device can identify a mounting state.
  • the mounting state can indicate a state in which the first housing and the second housing of the electronic device are in a folded or unfolded state, and one side of the first housing (e.g., the first housing (210) of FIGS. 2A to 2D and FIG. 3) and/or one side of the second housing (e.g., the second housing (220) of FIGS. 2A to 2D and FIG. 3) is in contact with a floor surface.
  • the electronic device can check whether the first housing is in a floating mounting type. If the first housing is not in a floating mounting type, the electronic device can perform operation 707, and if the first housing is in a floating mounting type, the electronic device can perform operation 709.
  • the electronic device can identify that the first housing is in contact with the floor surface, and can adjust a virtual vibration sound based on a contact area of the housing in contact with the floor surface.
  • the electronic device can output a virtual vibration sound adjusted so that the user consistently feels vibration (e.g., a specified perceived vibration level) during the event situation through the audio module, and can output a vibration corresponding to the expected vibration level through the haptic module simultaneously with the output of the adjusted virtual vibration sound.
  • the electronic device can identify that the first housing is floating, and can identify an angle between the floor surface and the first housing.
  • the electronic device can adjust a virtual vibration sound based on the identified angle.
  • the electronic device can output a virtual vibration sound adjusted so that the user consistently feels vibration (e.g., a specified perceived vibration level) during the event situation through the audio module, and can output a vibration corresponding to the expected vibration level through the haptic module simultaneously with the output of the adjusted virtual vibration sound.
  • the electronic device may identify that an expected vibration level to be output from the haptic module is an intermediate level (e.g., level 2 of the expected vibration level (510) of FIG. 5A) when a first housing having a haptic module mounted thereon is in contact with a floor surface (e.g., one-sided contact) and a second housing having no haptic module mounted thereon is in a floating mounting state (e.g., the first mounting form (411), the second mounting form (412), and the third mounting form (413) of FIG. 4), and may adjust a level of a virtual vibration sound (e.g., level (520) of the virtual vibration sound of FIG.
  • an intermediate level e.g., level 2 of the expected vibration level (510) of FIG. 5A
  • a first housing having a haptic module mounted thereon is in contact with a floor surface (e.g., one-sided contact) and a second housing having no haptic module mounted thereon is in a floating mounting state (e.g., the first mounting form (4
  • the second level can be designated as an intermediate level (e.g., level 2 of the level (520) of the virtual vibration sound of FIG. 5a) identified by subtracting an intermediate level (e.g., level 2 of the expected vibration level (510) of FIG. 5a) identified as an expected vibration level from a designated perceived vibration level (e.g., level 4 of the designated perceived vibration level (530) of FIG. 5a).
  • an intermediate level e.g., level 2 of the level (520) of the virtual vibration sound of FIG. 5a
  • an intermediate level e.g., level 2 of the expected vibration level (510) of FIG. 5a
  • a designated perceived vibration level e.g., level 4 of the designated perceived vibration level (530) of FIG. 5a
  • the level of the virtual vibration sound (e.g., the level (520) of the virtual vibration sound of FIG. 5A) can be adjusted to a designated first level (e.g., the level 4 of FIG. 5A).
  • the first level can be designated as a maximum level (e.g., the level 4 of the level (520) of the virtual vibration sound of FIG.
  • the first level can be designated as a level identified by subtracting an intermediate level (e.g., level 2) which is an expected vibration level identified from a designated perceived vibration level (e.g., level 4 of the designated perceived vibration level (530) of FIG. 5a).
  • an intermediate level e.g., level 2
  • an expected vibration level identified from a designated perceived vibration level e.g., level 4 of the designated perceived vibration level (530) of FIG. 5a.
  • the electronic device may identify an angle between the floor surface and the first housing when the second housing on which the haptic module is not mounted is in contact with the floor surface (e.g., one-sided contact) and the first housing on which the haptic module is mounted is in a floating mounting state (e.g., the fifth mounting form (415) and the sixth mounting form (416) of FIG. 4), and adjust a virtual vibration sound based on the identified angle.
  • a floating mounting state e.g., the fifth mounting form (415) and the sixth mounting form (416) of FIG. 4
  • the first housing is folded into a floating mounting state in an unfolded state (e.g., the fourth mounting configuration (414) of FIG.
  • the electronic device may decrease a level (550) of a virtual vibration sound (e.g., intensity or size) from a designated first level (e.g., level 4 of the level (550) of the virtual vibration sound of FIG. 5B) to a designated third level (e.g., level 0 of the level (550) of the virtual vibration sound of FIG. 5B) in response to an increase in an angle (e.g., 0 degrees) in the unfolded state to a designated angle (e.g., 90 degrees).
  • the third level may be designated as a minimum level (e.g., level 0 of the level (550) of the virtual vibration sound of FIG. 5B) based on an expected vibration level being a maximum level (e.g., level 4 of the expected vibration level (540) of FIG. 5B).
  • the electronic device may adjust the level (550) of the virtual vibration sound to a designated first level (e.g., level 4 of the level (550) of the virtual vibration sound of FIG. 5B) based on identifying the identified angle as 0 degrees.
  • the electronic device may adjust the level of the virtual vibration sound to a third level (e.g., level 0 of the level (550) of the virtual vibration sound of FIG. 5B) or may not generate the virtual vibration sound when the first housing is in a floating, reference angled, mounting state (e.g., the sixth mounting form (416) of FIG. 4).
  • the electronic device can adjust the level of the virtual vibration sound to a second level (e.g., level 2 of the level (550) of the virtual vibration sound of FIG. 5b) when the second housing (220) is in contact with the floor surface (one-sided contact) and the first housing (210) is in a floating state (e.g., the fifth mounting form (415) of FIG. 4) at a lower angle (e.g., 45 degrees) than the reference angle.
  • a second level e.g., level 2 of the level (550) of the virtual vibration sound of FIG. 5b
  • a floating state e.g., the fifth mounting form (415) of FIG. 4
  • FIG. 8 is a drawing showing an example of an operating method in an electronic device according to one embodiment.
  • an electronic device may identify an event that activates a vibration generated by a haptic module (e.g., the haptic module (179) or the vibration module of FIGS. 1 and 3).
  • the event that activates the vibration may be an event that outputs a vibration generated by the haptic module together with a specified sound source (e.g., a phone ringtone or a notification sound) or outputs only the vibration.
  • the electronic device can identify the state of the phage.
  • the grip state may indicate a state in which a user grips a part of a housing of the electronic device (e.g., a first housing or a second housing).
  • the electronic device may obtain grip information related to the grip state and identify the grip state based on the obtained grip information so that the user can consistently feel the vibration.
  • the electronic device may identify an expected vibration level to be output from the haptic module and identify an expected perceived vibration level for each grip position as the user feels the vibration differently for each grip position. For example, when the operation method of FIG.
  • the vibration output from the haptic module may be the same, and in this case, the expected vibration level to be output from the haptic module may be identified as the same.
  • the electronic device may be in the fifth holding state (415) of FIG. 4 and the holding state of FIG. 6.
  • the electronic device can be identified as being held in the hand in a holding form such as state (416). In this case, the expected vibration level to be output from the haptic module can be identified differently depending on the holding form.
  • the electronic device can check whether the first housing is in the first gripping state. If the result of the check is in the first gripping state, the electronic device can perform operation 807, and if it is not in the first gripping state, the electronic device can perform operation 709.
  • the electronic device can adjust a virtual vibration sound based on the first gripping state in which the first housing is gripped.
  • the electronic device can identify that the gripping position of the first gripping state is a gripping position in which the user can highly perceive vibration, and identify the expected perceived vibration level as a maximum level (e.g., a level equal to or similar to an expected vibration level to be output from the haptic module).
  • the electronic device can adjust the level of the virtual vibration sound to a specified minimum level based on the expected perceived vibration level being the maximum level (e.g., a specified perceived vibration level).
  • the electronic device can output a virtual vibration sound adjusted so that the user consistently perceives vibration (a specified perceived vibration level) during an event situation through the audio module, and output a vibration corresponding to the expected vibration level through the haptic module simultaneously with the output of the adjusted virtual vibration sound.
  • the electronic device may adjust the virtual vibration sound based on the second gripping state, which is not the first gripping state in which the first housing is gripped.
  • the processor (120) may identify, based on the user identifying the second gripping state in which the user grips the second housing (220) in which the haptic module (179) is not mounted, that the gripping position of the second gripping state is a gripping position in which the user can weakly feel the vibration, and may identify the expected perceived vibration level as an intermediate level (e.g., a level higher than the minimum level and lower than the expected vibration level to be output from the haptic module (179)).
  • the processor (120) may adjust the level of the virtual vibration sound to the designated intermediate level, based on the expected perceived vibration level being the intermediate level.
  • the intermediate level may be designated as a level obtained by subtracting the expected perceived vibration level from the designated perceived vibration level (or the expected vibration level to be output from the haptic module (179)) to provide vibration evenly at the designated perceived vibration level.
  • the electronic device may output a virtual vibration sound adjusted so that the user consistently feels vibration (the designated perceived vibration level) during an event situation through the audio module, and may output a vibration corresponding to the expected vibration level through the haptic module simultaneously with the output of the adjusted virtual vibration sound.
  • the electronic device can adjust the virtual vibration sound based on both the holding state and the resting state.
  • the holding state is a first holding state (e.g., a state in which the first housing having the haptic module mounted therein is held)
  • the electronic device identifies that the first housing having the haptic module mounted therein is in contact with a body surface, and, like the first to third resting forms (411, 412, and 413) of FIG. 4, the expected vibration level output from the haptic module can be identified as an intermediate level.
  • the electronic device Since the expected vibration level is identified as an intermediate level according to the resting state, the electronic device adjusts the virtual vibration sound to an intermediate level based on the resting state to provide a designated perceived vibration level (e.g., a maximum level), and since the user's perceived vibration does not decrease, the electronic device can further adjust the virtual vibration sound to a minimum level (e.g., a 0 level) based on the first holding state.
  • a designated perceived vibration level e.g., a maximum level
  • the electronic device can further adjust the virtual vibration sound to a minimum level (e.g., a 0 level) based on the first holding state.
  • a minimum level e.g., a 0 level
  • the electronic device when the holding state is a second holding state (e.g., a state in which the second housing is held), the electronic device identifies that the first housing in which the haptic module is mounted is in a floating state (e.g., the fifth holding state (415) or the sixth holding state (416) of FIG. 4) that is not in contact with the body surface, identifies an angle between a floor surface (e.g., a holding body surface) and the first housing, and since an expected vibration level output from the haptic module is identified as different depending on the angle, the electronic device can adjust the virtual vibration sound further based on the angle.
  • a floating state e.g., the fifth holding state (415) or the sixth holding state (416) of FIG.
  • the electronic device can identify that the first housing is not in contact with the body surface due to the second holding state, and thus a one-sided contact occurs. Accordingly, when the identified angle is 0 degrees or more and less than 90 degrees, the expected vibration level to be output from the haptic module depending on the holding state can increase as the angle increases, and the level of the virtual vibration sound can decrease as the angle increases. In the second grip state, since the user's actual perceived vibration level is lower than in the first grip state, the electronic device can adjust the level of the virtual vibration sound to a level identified based on the holding state, and then further adjust the virtual vibration sound by adding the lowered perceived vibration level to the level of the virtual vibration sound adjusted based on the holding state.
  • the electronic device can further adjust the virtual vibration sound to output more virtual vibration sound by the lowered perceived vibration level so that the user can perceive the designated perceived vibration level.
  • the electronic device can identify the lowered perceived vibration level by identifying the expected perceived vibration level. The expected perceived vibration level can be specified experimentally for each grip position of the electronic device without generating the virtual vibration sound.
  • the level of the virtual vibration sound when the electronic device is set to give priority to the grip state, in a situation where the electronic device is not gripped, the level of the virtual vibration sound can be adjusted to a level identified based on the placed state, and in a situation where the electronic device is gripped, the level of the virtual vibration sound can be adjusted by considering only the grip position regardless of the placed shape. In a gripped situation, the electronic device can identify that the electronic device is not in the placed state even if it comes into contact with a body surface, and identify that the expected vibration level to be output from the haptic module is the same.
  • the electronic device may identify, by using at least one sensor, that the electronic device is not in a placed or held state (e.g., placed in a bag or pocket), and at this time, may adjust a virtual vibration sound to a specified maximum level.
  • the electronic device may identify an expected perceived vibration level as a minimum level, and may adjust the virtual vibration sound to a specified maximum level based on the expected perceived vibration level being the minimum level so as to provide vibration evenly at the specified perceived vibration level.
  • the electronic device may process the state as an exception and not perform a method for adjusting the virtual vibration sound.
  • the electronic device acquires surrounding environment information, identifies external noise based on the surrounding environment information, and if the surrounding environment is noisy and the external noise is higher than a first reference level, adjusts the level of the adjusted virtual vibration sound to increase to a predetermined level. According to one embodiment, if the surrounding environment is quiet and the external noise is lower than a second reference level, the electronic device can adjust the level of the adjusted virtual vibration sound to decrease to a predetermined level.
  • the electronic device may obtain a distance between the electronic device and the user, for example, by using a short-range communication method, and when the distance between the electronic device and the user is placed farther away than a reference distance, the level of the adjusted virtual vibration sound may be adjusted to increase to a certain level.
  • the electronic device may adjust the virtual vibration sound based on the distance between the electronic device and the external electronic device obtained through short-range communication with the user's external electronic device (e.g., a wearable device worn by the user).
  • the electronic device may monitor the surroundings of the electronic device using at least one sensor (e.g., a lidar sensor, a radar sensor, or a proximity sensor) and/or a camera to determine whether the user is in a close location, and may adjust the virtual vibration sound based on the proximity of the user.
  • the electronic device may determine whether the user is in a close location to the placed electronic device through voice recognition of the user.
  • the electronic device may determine the distance between the placed electronic device and the user or the proximity of the user through various other methods.
  • an operating method in an electronic device including a first housing (e.g., the first housing (210) of FIGS. 1, 2A to 2D, and 3) and a second housing (e.g., the second housing (220) of FIGS. 1, 2A to 2D, and 3) may include an operation of identifying at least one of a placed state or a grasped state of the electronic device based on an event that activates a vibration generated by a haptic module (e.g., the haptic module (179) of FIGS. 1 and 3) mounted in the first housing.
  • a haptic module e.g., the haptic module (179) of FIGS. 1 and 3 mounted in the first housing.
  • the method may include an operation of identifying an expected vibration level to be output from the haptic module based on at least one of the holding state or the grip state.
  • the method may include adjusting a virtual vibration sound to be output from an audio module of the electronic device (e.g., audio module (170) of FIGS. 1 and 3) based on the expected vibration level.
  • an audio module of the electronic device e.g., audio module (170) of FIGS. 1 and 3
  • the method may further include an operation of outputting the adjusted virtual vibration sound by the audio module, and outputting a vibration corresponding to the expected vibration level by the haptic module simultaneously with the output of the adjusted virtual vibration sound.
  • the operation of adjusting the virtual vibration sound may include an operation of adjusting the virtual vibration sound to a level obtained by subtracting the expected vibration level from the designated haptic vibration level so as to provide consistent haptic vibration at the designated haptic vibration level in the event situation.
  • the haptic module includes a horizontal vibration motor, and the horizontal vibration motor may generate vibration inversely proportional to a cross-sectional area of a housing of the electronic device in contact with the floor surface.
  • the specified tangible vibration level may be specified as a maximum vibration level output from the haptic module or a vibration level output from the haptic module when the second housing is in contact with a floor surface and the first housing is rotated at a specified angle based on the hinge structure and is in a floating position, and the hinge structure may be configured between the first housing and the second housing.
  • the operation of adjusting the virtual vibration sound may include an operation of adjusting a level of the virtual vibration sound to a designated first level based on the state in which the first housing and the second housing are in contact with a floor surface.
  • the first level may be designated as a maximum level based on the expected vibration level to be output from the haptic module being a minimum level.
  • the operation of adjusting the virtual vibration sound may include an operation of adjusting the virtual vibration sound to a designated second level based on the mounting state in which the first housing is in contact with the floor surface and the second housing is floating.
  • the second level may be designated as a designated intermediate level between a first level, which is a maximum level, and a third level, which is a minimum level, based on the expected vibration level being an intermediate level.
  • the operation of controlling the virtual vibration sound may include an operation of identifying an angle between the floor surface and the first housing based on the mounting state in which the first housing is floating and the second housing is in contact with the floor surface, and an operation of controlling the virtual vibration sound based on the identified angle.
  • the act of adjusting the virtual vibration sound may further include an act of decreasing the intensity of the virtual vibration sound to a designated third level in response to the identified angle increasing to a designated angle.
  • the third level may be designated as a minimum level based on the expected vibration level being a maximum level.
  • the operation of adjusting the virtual vibration sound may further include an operation of adjusting the virtual vibration sound to a designated first level based on identifying the identified angle as 0 degrees, and an operation of adjusting the virtual vibration sound to a third level or not outputting the virtual vibration sound based on identifying the identified angle as the reference angle.
  • the operation of controlling the virtual vibration sound may include: controlling the virtual vibration sound to a specified minimum level based on the fact that the holding state is a state of holding the first housing; identifying a lowering expected tactile level based on the fact that the holding state is a state of holding the second housing; controlling the virtual vibration sound to an intermediate level that is higher than the minimum level and lower than the maximum level based on the expected tactile level; and controlling the virtual vibration sound to a specified maximum level based on the fact that the electronic device is not in the holding state or the holding state.
  • the intermediate level may be a level obtained by subtracting the expected tactile level from the specified tactile vibration level so as to provide tactile vibration evenly at the specified tactile vibration level.
  • the tactile vibration level may be specified as a maximum vibration level output from the haptic module.
  • a non-transitory storage medium storing one or more programs
  • the one or more programs when executed by at least one processor (e.g., the processor (120) of FIGS. 1 and 3) of an electronic device (e.g., the electronic device (101) of FIGS. 1, 2A to 2D and FIG. 3) including a first housing (e.g., the first housing (210) of FIGS. 1, 2A to 2D and FIG. 3) and a second housing (e.g., the second housing (220) of FIGS. 1, 2A to 2D and FIG.
  • processor e.g., the processor (120) of FIGS. 1 and 3
  • an electronic device e.g., the electronic device (101) of FIGS. 1, 2A to 2D and FIG. 3
  • a first housing e.g., the first housing (210) of FIGS. 1, 2A to 2D and FIG.
  • a second housing e.g., the second housing (220) of FIGS. 1, 2A to 2D and FIG.
  • a haptic module e.g., the haptic module (179) of FIGS. 1 and 3) mounted in the first housing, and based on at least one of the holding state or the grip state, in the haptic module It may include commands for causing an operation to identify an expected vibration level to be output and an operation to adjust a virtual vibration sound to be output from an audio module of the electronic device (e.g., audio module (170) of FIGS. 1 and 3) based on the expected vibration level.
  • an audio module of the electronic device e.g., audio module (170) of FIGS. 1 and 3
  • the electronic device can provide a user with even (or consistent) tangible vibration during an event situation by controlling a virtual vibration sound based on at least one of a resting state and a holding state, outputting the controlled virtual vibration sound through an audio module, and simultaneously outputting vibration according to an expected vibration level from a haptic module.
  • various effects that can be directly or indirectly identified through this document can be provided.
  • the electronic devices according to various embodiments disclosed in this document may be devices of various forms.
  • the electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices.
  • portable communication devices e.g., smartphones
  • computer devices portable multimedia devices
  • portable medical devices e.g., cameras
  • wearable devices e.g., smart watch devices
  • home appliance devices e.g., smartphones
  • the electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order).
  • a component e.g., a first
  • another component e.g., a second
  • functionally e.g., a third component
  • module used in various embodiments of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions.
  • a module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)).
  • a processor e.g., a processor (120)
  • the machine e.g., an electronic device (101)
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the machine-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.
  • the method according to various embodiments disclosed in the present document may be provided as included in a computer program product.
  • the computer program product may be traded between a seller and a buyer as a commodity.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store TM ) or directly between two user devices (e.g., smart phones).
  • an application store e.g., Play Store TM
  • at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.
  • each component e.g., a module or a program of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components.
  • one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • the multiple components e.g., a module or a program
  • the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration.
  • the operations performed by the module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 문서는 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체에 관한 것으로서, 일 실시예에 따르면, 제1 하우징 및 제2 하우징을 포함하는 전자 장치는, 제1 하우징에 실장된 햅틱 모듈에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별할 수 있다. 일 실시예에 따르면 전자 장치는 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하고, 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈에서 출력될 가상 진동 사운드를 조절할 수 있다. 다른 실시예도 가능하다.

Description

가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체
본 문서는 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체에 관한 것이다.
전자 장치가 사용자의 편의를 위해 다양한 형태로 발전하고 있으며, 다양한 서비스, 어플리케이션 또는 기능을 제공되고 있다. 전자 장치는 제공되는 다양한 서비스, 어플리케이션 또는 기능들이 점차 증가함에 따라 더 많은 화면을 제공하기 위한 더 큰 디스플레이가 요구되고 있으며, 간편한 휴대성이 요구되고 있다.
최근에는 더 큰 디스플레이를 구비할 수 있도록 하우징의 형상을 변형 가능한 다양한 유형의 전자 장치(예: 폴더블, 플렉서블, 롤러블 또는 슬라이딩 형태 전자 장치)가 개발되고 있다. 이러한 전자 장치는 더 큰 디스플레이를 제공하면서도 휴대성을 확보할 수 있다. 전자 장치는 하우징의 형상이 변경됨에 따라 접는 형태(foldable or bendable)의 플렉서블 디스플레이를 제공할 수 있다.
하우징의 형상이 변형 가능한 전자 장치는 어플리케이션 실행 또는 기능 수행 시 지정된 음원과 함께 햅틱 모듈을 통해 진동을 발생하여 전화 또는 메시지와 같은 수신 알림을 제공할 수 있다. 하우징의 형상이 변형 가능한 전자 장치는 구조 특성 상 진동을 발생하는 햅틱 모듈을 한쪽으로 치우쳐서 실장하게 된다. 이에 따라 햅틱 모듈의 실장 위치로 인하여 햅틱 모듈에서 발생하는 진동은 거치 상태 또는 파지 상태에 따라 사용자에 의해 다르게 체감될 수 있다.
본 문서는 하우징의 형상이 변형 가능한 전자 장치에서 사용자가 체감하는 진동이 달라지지 않고 일관적으로 진동을 체감할 수 있도록 거치 상태 및/또는 파지 상태를 기반하여 가상 진동 사운드를 제공하기 전자 장치 및 방법을 제공하고자 한다.
본 문서의 일 실시예에 따르면, 전자 장치는, 전자 장치는 제1 하우징 및 제2 하우징을 포함하는 하우징, 상기 제1 하우징에 실장된 햅틱 모듈, 오디오 모듈, 메모리 및 상기 햅틱 모듈, 상기 오디오 모듈 및 상기 메모리와 전기적으로 연결되는 적어도 하나의 프로세서를 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치의 상기 적어도 하나의 프로세서는, 상기 햅틱 모듈에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 예상 진동 레벨을 기반하여 상기 오디오 모듈에서 출력될 가상 진동 사운드를 조절하도록 설정될 수 있다.
일 실시예에 따르면, 전자 장치에서의 동작 방법은 제1 하우징 및 제2 하우징을 포함하는 전자 장치에서의 동작 방법은 상기 제1 하우징에 실장된 햅틱 모듈에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈에서 출력될 가상 진동 사운드를 조절하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 하나 이상의 프로그램을 저장하는 비 일시적 저장 매체에 있어서, 상기 하나 이상의 프로그램은, 제1 하우징 및 제2 하우징을 포함하는 전자 장치의 적어도 하나의 프로세서에 의한 실행 시, 상기 전자 장치로 하여금, 상기 제1 하우징에 실장된 햅틱 모듈에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하는 동작, 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하는 동작 및 상기 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈에서 출력될 가상 진동 사운드를 조절하는 동작을 실행하도록 하는 명령들을 포함할 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a, 도 2b, 도 2c 및 도 2d는 일 실시 예에 따른 전자 장치의 구조를 도시한 도면들이다.
도 3은 일 실시 예에 따른 일 실시 예에 따른 전자 장치의 구조를 도시한 도면이다.
도 4는 일 실시예에 따른 전자 장치에서의 전자 장치의 거치 상태의 예를 나타내는 도면이다.
도 5a 및 도 5b는 일 실시예에 따른 전자 장치에서의 가상 진동 사운드를 조절하기 위한 예를 나타내는 도면들이다.
도 6은 일 실시예에 따른 전자 장치에서의 동작 방법의 예를 나타내는 도면이다.
도 7은 일 실시예에 따른 전자 장치에서의 동작 방법의 예를 나타내는 도면이다.
도 8은 일 실시예에 따른 전자 장치에서의 동작 방법의 예를 나타내는 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 첨부된 도면들을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예를 들어, 인공지능 전자 장치)를 지칭할 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 1eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2a, 도 2b, 도 2c 및 도 2d는 일 실시 예에 따른 전자 장치의 구조를 도시한 도면들이고, 도 3은 일 실시 예에 따른 전자 장치의 구조를 도시한 도면이다.
도 1, 도 2a, 도 2b, 도 2c, 도 2d 및 도 3을 참조하면, 일 실시예에 따른 전자 장치(101)(예: 도 1의 전자 장치(101))는 제1 하우징 구조(210) 및 제2 하우징 구조(220)를 포함하는 하우징, 적어도 하나의 프로세서(120), 메모리(130), 디스플레이 모듈(160), 오디오 모듈(170), 햅틱 모듈(179) 및 카메라 모듈(180) 및 통신 모듈(190)을 포함할 수 있다. 이외에도 전자 장치(101)는 다른 구성 요소들을 더 포함할 수 있다. 전자 장치(101)는 하우징의 형상이 변형 가능한 형태(예: 폴더블, 플렉서블, 롤러블 또는 슬라이딩 형태)로 구성될 수 있다. 도 2a 및 도 2c에서 설명하는 전자 장치의 하우징의 일부가 접히는 형태 또는 전자 장치(101)는 도 2b 및 도 2d에서 설명하는 전자 장치의 하우징의 다른 일부가 접히는 형태로 변형되는 것을 예를 들어 설명하나, 이외에도 전자 장치(101)는 복수의 부분들이 접히는 형태, 하우징의 일부가 롤링 형태 또는 슬라이딩 형태로 변형되거나, 하우징의 변형 없이 구성될 수 있다.
일 실시예에 따르면, 제1 하우징 구조(210) 및 제2 하우징 구조(220)는 접힘 축(예: 도 2a 및 도 2c의 접힘 축(A) 또는 도 2b 및 도 2d의 접힘 축(B))을 중심으로 양측(예: 위측(+Y 방향) 및 아래측(-Y 방향))에 배치될 수 있으며, 힌지 구조(260)를 통해 서로 마주하여 접히도록 접힘 축을 기준으로 회동 가능하게 결합될 수 있다. 이에 한정되지 않고, 다른 실시예에 따르면, 전자 장치(101)의 하우징은 제1 하우징 구조(210) 및 제2 하우징 구조(220) 외에 다른 하우징 구조로 더 포함하여 구성될 수 있으며, 복수의 접힘 축을 통해 다양한 형태로 접을 수 있는 구조로 구성될 수 있다. 다른 실시예에 따르면, 전자 장치(101)는 접힘 축과 다른 방향으로 하우징의 일부 영역을 접을 수 있는 형태로 구성될 수 있다.
일 실시예에 따르면, 제 1 하우징 구조(210)는 카메라 모듈(예: 도 1의 카메라 모듈(180))에 포함된 카메라(예: 전면 카메라)(214), 다양한 센서들(215) 및 스피커(예: 리시버)(216)가 배치될 수 있다. 다른 실시예로, 카메라(214), 다양한 센서들(215) 및 스피커(216)는 제 2 하우징 구조(220)의 적어도 일부 영역에 추가로 배치되거나 대체될 수 있다. 다른 실시예에 따르면, 카메라(214), 다양한 센서들(215) 및 스피커(216)의 적어도 일부는 제 1 하우징(210)의 적어도 일부 영역에 배치되고, 나머지 일부는 제 2 하우징 구조(220)의 적어도 일부 영역에 배치될 수도 있다. 카메라(214)는 제 1 하우징 구조(210)의 전면(예: 제1 면(211))에 일측 코너에 마련된 개구(opening)를 통해 노출될 수 있다. 센서들(215)은 근접 센서, 조도 센서, 홍채 인식 센서, 초음파 센서 또는 인디케이터 중 적어도 하나를 포함할 수 있다. 예를 들어, 센서들(215)은 제 1 하우징 구조(210)의 일측 코너에 마련된 개구(opening)를 통해 전자 장치(101)의 전면에 노출되거나, 디스플레이(161)의 적어도 일부 영역의 하단에 배치될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제 1 하우징 구조(210)의 제 2 면(212)(예: 후면)의 일측 코너에 마련된 개구(opening)를 통해 노출되는 카메라 (217)(예: 후면 카메라) 및 플래시(208)를 더 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 미 도시되었으나, 제1 하우징 구조(210) 및/또는 제2 하우징 구조(220)를 통해 배치되는 이어잭 홀, 외장형 스피커 모듈, SIM 카드 트레이, 인터페이스 커넥터 포트 또는 적어도 하나의 키 버튼을 포함할 수도 있다. 일 실시예에 따르면, 하우징(200)은, 제1 하우징 구조(210)의 제 2 면(212)(예: 후면)에 디스플레이(예: 후면 디스플레이), 제1 후면 커버, 제2 후면 커버를 포함할 수 있다. 전자 장치(101)의 하우징(200)은 도 2a, 도 2b 및 도 2c에 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수 있다. 예를 들어, 다른 실시 예에서는, 제1 하우징 구조(210)와 제1 후면 커버가 일체로 형성될 수 있고, 제2 하우징 구조(220)와 제2 후면 커버가 일체로 형성될 수 있다.
일 실시예에 따르면, 제 1 하우징 구조(210)와 제 2 하우징 구조(220)는 전자 장치(101)가 펼침 상태(unfolded state 또는 flat state)(예: 열림 상태), 접힘 상태(folded state 또는 closed state)(예: 닫힘 상태)에 따라 서로 이루는 각도나 거리가 달라질 수 있다. 여기서, 상태라는 기재는 모드라는 기재로 대체될 수 있다. 펼침 상태는 제 1 하우징 구조(210)의 제1 면(211)과 제2 하우징 구조(220)의 제1 면(221) 사이의 각도가 예를 들어, 180도로 완전히 열린 상태 또는 지정된 각도(예: 115도)를 초과한 각도 범위(예: 115도 초과 ~ 180도)로 열리고 있는 상태를 의미할 수 있다. 접힘 상태는 제1 하우징 구조(210)의 제1 면(211)과 제2 하우징 구조(220)의 제1 면(221) 사이의 각도가 지정된 각도(예: 115도) 미만의 각도 범위(예: 115도 미만 ~ 0도)로 닫히고 있는 상태 또는 0도로 완전히 닫혀진 상태를 의미할 수 있다. 이에 한정되지 않고, 접힘 상태는 제1 하우징 구조(210)의 제1 면(211)과 제2 하우징 구조(220)의 제3 면(223)이 이루는 각도로서 정의될 수 있다. 본 문서의 일 실시예에 따른 미리 지정된 각도(예: 135도)일 수 있다.
일 실시예에 따르면, 제1 하우징 구조(210) 및 제2 하우징 구조(220)는 하우징의 제1 면(예: 전면)(211 및 221)에 디스플레이 모듈(160)에 포함된 플렉서블 형태의 디스플레이(161)가 배치되도록 구성될 수 있다. 이에 한정되지 않고, 플렉서블 형태의 디스플레이(161)는 제1 하우징 구조(210)의 제2 면 (예: 후면)(212) 및/또는 제3 면 (예: 측면)(213) 또는 제2 하우징 구조(220)의 제2 면(222)(예: 후면) 및/또는 제3 면(223)(예: 측면)에 연장되어 배치될 수 있다. 일 실시예에 따르면, 전자 장치(101)는, 제1 하우징 구조(210)의 제2 면(212)(예: 후면)에 디스플레이(163)(예: 후면 디스플레이)를 포함할 수 있다. 예를 들어, 디스플레이(161)는 전자 장치(101)의 전면(211) 및/또는 제2 전면(212))을 통하여 시각적으로 노출되고, 후면 디스플레이는 전자 장치(101)의 후면(212)을 통하여 시각적으로 노출될 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 1 하우징 구조(210)와 제2 하우징 구조(220) 사이의 각도에 따라 설정된 전자 장치(101)의 상태(예: 펼침 상태 및 접힘 상태)에 따라서 어플리케이션의 실행 화면을 표시하는 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 전자 장치(101)가 접힘 상태일 때, 구분된 복수의 영역들 각각에 서로 다른 어플리케이션 실행 화면을 표시할 수 있다.
일 실시예에 따르면, 프로세서(120)는 하드웨어 모듈 또는 소프트웨어 모듈(예를 들어, 어플리케이션 프로그램)로서, 전자 장치(101)에 구비된 다양한 구성 요소들 중 적어도 하나를 포함하는 하드웨어적인 구성 요소(기능) 또는 소프트웨어적인 요소(프로그램)일 수 있다.
일 실시 예에 따르면, 프로세서(210)는 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함할 수 있다. 프로세서(210)는 상기 구성 요소들 중 적어도 일부를 생략하거나, 상기 구성 요소들 외에도 이미지 처리 동작을 수행하기 위한 다른 구성 요소를 더 포함하여 구성될 수 있다.
일 실시예에 따르면, 메모리(130)는 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(210))에 의해 사용되는 다양한 데이터 및 프로세서(210)에서 실행되는 동작들을 수행하도록 하는 명령들을 저장할 수 있다. 예를 들어, 메모리(130)는 전자 장치(101)의 펼침 상태 또는 접힘 상태에 따라 디스플레이(161)의 해당 영역에 실행 화면이 표시되는 어플리케이션(기능 또는 프로그램)을 저장할 수 있다. 메모리(130)는 기능 동작에 사용되는 프로그램(예: 도 1의 프로그램(140))을 비롯하여, 프로그램(140) 실행 중에 발생되는 다양한 데이터를 저장할 수 있다. 메모리(130)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다. 프로그램 영역(140)은 전자 장치(201)를 부팅시키는 운영체제(OS)(예: 도 1의 운영 체제(142))와 같은 전자 장치(201)의 구동을 위한 관련된 프로그램 정보들을 저장할 수 있다. 데이터 영역은 다양한 실시 예에 따라 송신 및/또는 수신된 데이터 및 생성된 데이터를 저장할 수 있다. 또한, 메모리(130)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로(multimedia card micro) 타입의 메모리(예를 들어, secure digital(SD) 또는 extreme digital(XD) 메모리), 램(RAM), 롬(ROM) 중의 적어도 하나의 저장매체를 포함하여 구성될 수 있다. 일 실시 예에 따르면, 메모리(130)는 펼침 상태 또는 접힘 상태에 따라 디스플레이(161)의 해당 영역에 표시되는 적어도 하나의 어플리케이션의 실행 화면에 대응하는 이미지를 저장할 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 플렉서블 형태로 제1 면(211)에 배치되는 디스플레이(161)를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160) 제2 면(211)(예: 후면)에 배치되는 디스플레이(163)를 더 포함할 수 있다. 디스플레이 모듈(160)은 펼침 상태 또는 접힘 상태를 기반하여, 하나 또는 그 이상의 어플리케이션의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 전자 장치가 지정된 제1 각도 범위(예: 75도 ~ 115도)로 접힌 상태로 거치될 때, 디스플레이(161)를 복수의 영역들(161-1, 161-2)로 구분하고, 복수의 영역들(161-1, 161-2)에 각각 서로 다른 어플리케이션의 실행 화면을 표시할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 센서 모듈(예: 도 1의 센서 모듈(176))에 포함되는 모션 센서 및 자성체(예: 자석)를 포함할 수 있다. 모션 센서 및 자성체(예: 자석)는 제 1 하우징 구조(210)의 적어도 일부분 및 제 2 하우징 구조(220)의 적어도 일부분에 배치될 수 있다. 모션 센서는 가속도 센서, 각속도 센서(예: 자이로 센서) 또는 지자기 센서 중 적어도 두 개의 조합으로 구성될 수 있다. 예를 들어, 전자 장치(101)는 모션 센서를 통해 제 1 하우징 구조(210) 및 제2 하우징 구조(220)의 자세(pose), 움직임(gesture), 거치 상태 또는 파지 상태를 감지할 수 있다. 예를 들어, 제 1 하우징 구조(210) 및 제2 하우징 구조(220)의 자세는 모션 센서의 가속도 센서에 기반하여 감지되고, 제 1 하우징 구조(210) 및 제2 하우징 구조(220)의 움직임은 모션 센서의 각속도 센서에 기반하여 감지될 수 있다. 예를 들어, 제1 하우징 구조(210) 및/또는 제2 하우징 구조(220)의 거치 상태 또는 파지 상태는 각속도 센서에 기반하여 감지될 수 있다. 일 실시예에 따르면, 자성체는 힌지 구조(260)에 인접한 제 1 하우징 구조(210)의 적어도 일부분 및 제2 하우징 구조(220)의 적어도 일부분에 배치될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 모션 센서를 통해 사용자의 제스처 또는 파지 상태를 감지할 수 있다. 일 실시예에 따르면, 센서 모듈은 근접 센서를 포함할 수 있다. 근접 센서는 제1 하우징 구조(210) 및 제2 하우징 구조(220)의 사이의 각도 검출 또는 제1 하우징 구조(210) 또는 제2 하우징 구조(220)와 바닥면 사이의 각도 검출에 이용될 수 있다.
일 실시예에 따르면, 전자 장치(101)의 오디오 모듈(170)은 제1 하우징 구조(210)에 실장될 수 있으며, 어플리케이션 실행(예: 전화 또는 메시지 수신)에 따른 지정된 사운드(예: 음원, 전화벨 또는 알림음)를 출력하고, 햅틱 모듈(179)에 의해 발생되는 진동을 활성화하는 이벤트가 식별될 때, 가상 진동 사운드를 출력할 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은 전자 장치(101)의 거치 상태 또는 파지 상태 중 적어도 하나를 기반하여 프로세서(120)에 의해 조절(또는 변경)된 가상 진동 사운드를 출력할 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은 진동을 활성화하는 이벤트가 식별될 때, 햅틱 모듈(179)에 발생되는 진동 및 어플리케이션 실행(예: 전화 또는 메시지 수신)에 따른 지정된 사운드(예: 전화벨 또는 알림음)와 함께 조절된 가상 진동 사운드를 출력할 수 있다.
일 실시예에 따르면, 전자 장치(101)의 햅틱 모듈(179)(예: 진동 모듈)은 제1 하우징 구조(210)에 실장될 수 있으며, 수평 진동 모터를 포함할 수 있다. 여기서, 수평 진동 모터는 바닥면에 접촉되는 하우징의 단면적과 반비례하여 진동을 발생할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은 전자 장치(101)가 접히는 상태에서 제1 하우징 구조(210)가 플로팅되고, 제2 하우징 구조가 바닥면에 접촉된 거치 상태일 때, 제1 하우징 구조(210)와 바닥면 사이의 각도를 기반하여 진동을 발생할 수 있다. 햅틱 모듈(179)은 제1 하우징 구조(210)와 바닥면 사이의 각도가 지정된 각도(90도)로 증가함에 대응하여 증가되는 진동(예: 진동 세기)을 발생할 수 있다. 예를 들어, 제1 하우징 구조(210)가 지정된 각도(예: 90도)로 플로팅될 때, 최대 레벨(예: 최대 진동 세기)로 진동을 발생할 수 있다.
도 4는 일 실시예에 따른 전자 장치에서의 전자 장치의 거치 상태의 예를 나타내는 도면이고, 도 5a 및 도 5b는 일 실시예에 따른 전자 장치에서의 가상 진동 사운드를 조절하기 위한 예를 나타내는 도면들이다.
도 1 내지 도 5b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 햅틱 모듈(179)(예: 진동 모듈)에 의해 발생되는 진동(예: 햅틱)을 활성화하는 이벤트가 식별된 것에 기반하여, 전자 장치(101)의 거치 상태 또는 파지 상태 중 적어도 하나를 식별할 수 있다. 일 실시예에 따르면, 프로세서(120)는 식별된 거치 상태 또는 파지 상태 중 적어도 하나를 기반하여, 햅틱 모듈(179)에서 출력될 예상 진동 레벨(510)을 식별할 수 있다. 프로세서(120)는 햅틱 모듈(179)에 포함된 수평 진동 모터(예: 수평 햅틱 모터, 또는 X축 리니어 모터)가 거치 상태의 거치 형태들 별로 다른 세기로 진동을 발생하도록 설정될 수 있다. 프로세서(120)는 거치 형태들 별로 다른 세기로 진동을 발생하는 것에 기반하여, 거치 상태의 거치 형태들 별로 다르게 설정된 예상 진동 레벨(510)을 식별할 수 있다. 예를 들어, 수평 진동 모터는 바닥면에 접촉되는 하우징의 단면적과 반비례하여 진동을 발생할 수 있다. 예를 들어, 수평 진동 모터는 바닥면과 하우징(예: 제1 하우징) 사이의 각도에 따라 다른 세기로 진동을 발생할 수 있다.
일 실시예에 따르면, 프로세서(120)는 식별된 거치 상태 및/또는 식별된 파지 상태에 대한 예상 진동 레벨을 기반하여 출력될 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 프로세서(120)는 이벤트 상황 동안 사용자가 균등하게 진동을 체감하도록 식별된 예상 진동 레벨(510)을 지정된 체감 진동 레벨(530)에서 차감하여 가상 진동 사운드의 레벨(520)을 식별하고, 식별된 가상 진동 사운드의 레벨(520)로 오디오 모듈(170)에서 출력될 가상 진동 사운드를 조절할 수 있다. 여기서, 레벨은 이벤트의 종류에 따라 또는 사용자에 의해 지정된 범위의 진동 세기(예: 진동 크기) 또는 지정된 진동 세기(예: 진동 크기)를 나타낼 수 있다. 지정된 체감 진동 레벨(530)은 식별된 예상 진동 레벨과 조절된 가상 진동 사운드에 대응하는 레벨을 합한 레벨(예: 크기 또는 세기)일 수 있다. 지정된 체감 진동 레벨은 제2 하우징(220)이 바닥면에 접촉되고 제1 하우징(210)이 지정된 각도(예: 90도)로 플로팅된 거치 상태(예: 도 4의 제6 거치 형태(416)의 거치 상태)에서 출력되는 햅틱 모듈(179)의 진동 레벨(예: 도 5a의 4 레벨 또는 최대 진동 레벨)로 설정될 수 있다.
일 실시예에 따르면, 프로세서(120)는 햅틱 모듈(179)이 실장된 제1 하우징(210)이 바닥면에 접촉(한 면 접촉(511))되고, 햅틱 모듈(179)이 실장되지 않은 제2 하우징(220)이 플로팅된 거치 상태(예: 도 4의 제1 거치 형태(411), 제2 거치 형태(412) 및 제3 거치 형태(413))일 때, 햅틱 모듈(179)에서 출력될 예상 진동 레벨(510)이 중간 레벨(예: 도 5a의 2 레벨)인 것을 식별하고, 식별된 중간 레벨을 기반하여 가상 진동 사운드의 레벨(520)을 지정된 제2 레벨(예: 도 5a의 2 레벨)로 조절할 수 있다. 제2 레벨은 지정된 체감 진동 레벨(530)(예: 도 5a의 4 레벨)에서 식별된 예상 진동 레벨(510)인 중간 레벨(예: 도 5a의 2 레벨)을 차감하여 식별된 레벨(예: 도 5a의 2 레벨)인 중간 레벨로 지정될 수 있다.
일 실시예에 따르면, 프로세서(120)는 햅틱 모듈(179)이 실장된 제1 하우징(210) 및 햅틱 모듈(179)이 실장되지 않은 제2 하우징(220)이 바닥면에 접촉(두면 접촉(513))된 거치 상태(예: 도 4의 제4 거치 형태(414))일 때, 가상 진동 사운드의 레벨(520)을 지정된 제1 레벨(예: 도 5a의 4 레벨)로 조절할 수 있다. 제1 레벨은 햅틱 모듈(179)에서 출력될 예상 진동 레벨(510)이 최소 레벨(예: 도 5a의 0 레벨)인 것에 기반하여, 최대 레벨(예: 도 5a의 4 레벨)로 지정될 수 있다. 예를 들어, 제1 레벨은 지정된 체감 진동 레벨(예: 4 레벨)에서 식별된 예상 진동 레벨인 중간 레벨(예: 2 레벨)을 차감하여 식별된 레벨로 지정될 수 있다.
일 실시예에 따르면, 프로세서(120)는 햅틱 모듈(179)이 실장되지 않은 제2 하우징(220)이 바닥면에 접촉(한 면 접촉)되고, 햅틱 모듈(179)이 실장된 제1 하우징(210)이 플로팅된 거치 상태(예: 도 4의 제5 거치 형태(415) 및 제6 거치 형태(416))일 때, 바닥면과 제1 하우징(510) 사이의 각도를 식별하고, 식별된 각도에 기반하여 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 프로세서(120)는 하우징이 펼쳐진 상태(예: 도 4의 제4 거치 형태(414))에서 제1 하우징(210)이 플로팅되는 거치 상태로 접힐 때, 펼쳐진 상태의 각도(예: 0도)에서 지정된 각도(예: 90도)로 증가하는 것에 대응하여 지정된 제1 레벨(예: 도 5b의 4 레벨)에서 지정된 제3 레벨(예: 도 5b의 0 레벨)까지 가상 진동 사운드의 레벨(550)(예: 사운드의 세기 또는 크기)을 감소할 수 있다. 제3 레벨은 예상 진동 레벨(540)이 최대 레벨(예: 도 5b의 4 레벨)인 것에 기반하여, 최소 레벨(예: 도 5b의 0 레벨)로 지정될 수 있다.
일 실시예에 따르면, 프로세서(120)는 식별된 각도를 0도로 식별한 것에 기반하여, 가상 진동 사운드의 레벨(550)을 지정된 제1 레벨(예: 도 5b의 4 레벨)로 조절할 수 있다.
일 실시예에 따르면, 프로세서(120)는 제2 하우징(220)이 바닥면에 접촉(한 면 접촉)되고, 제1 하우징(210)이 기준 각도로 플로팅된 거치 상태(예: 도 4의 제6 거치 형태(416))일 때, 가상 진동 사운드의 레벨(550)을 제3 레벨(예: 도 5b의 0 레벨)로 조절하거나, 가상 진동 사운드를 발생하지 않을 수 있다.
일 실시예에 따르면, 프로세서(120)는 제2 하우징(220)이 바닥면에 접촉(한 면 접촉)되고, 제1 하우징(210)이 기준 각도보다 낮은 각도(예: 45도)로 플로팅된 거치 상태(예: 도 4의 제5 거치 형태(415))일 때, 가상 진동 사운드의 레벨(550)을 제2 레벨(예: 도 5b의 2 레벨)로 조절할 수 있다.
일 실시예에 따르면, 프로세서(120)는 전자 장치(101)의 파지 상태에 관련된 파지 정보를 획득하고, 사용자가 일관적으로 진동을 체감하도록 획득한 파지 정보에 기반하여 가상 진동 사운드를 조절할 수 있다. 프로세서(120)는 전자 장치(101)가 파지 상태일 때, 햅틱 모듈(179)에서 출력될 예상 진동 레벨을 식별하고, 파지 위치 별로 사용자가 진동을 다르게 체감함에 따라 파지 위치 별 예상 체감 진동 레벨을 식별할 수 있다.
일 실시예에 따르면, 프로세서(120)는 사용자가 햅틱 모듈(179)이 실장된 제1 하우징(210)을 파지한 제1 파지 상태를 식별한 것에 기반하여, 제1 파지 상태의 파지 위치가 사용자가 진동을 높게 체감할 수 있는 파지 위치임을 식별하고, 예상 체감 진동 레벨을 최대 레벨(예: 햅틱 모듈(179)에서 출력될 예상 진동 레벨과 동일 또는 유사한 레벨)로 식별할 수 있다. 프로세서(120)는 예상 체감 진동 레벨이 최대 레벨(예: 지정된 체감 진동 레벨)인 것에 기반하여, 가상 진동 사운드의 레벨을 지정된 최소 레벨로 조절할 수 있다.
일 실시예에 따르면, 프로세서(120)는 사용자가 햅틱 모듈(179)이 실장되지 않은 제2 하우징(220)을 파지한 제2 파지 상태를 식별한 것에 기반하여, 제2 파지 상태의 파지 위치가 사용자가 진동을 약하게 체감할 수 있는 파지 위치임을 식별하고, 예상 체감 진동 레벨을 중간 레벨(예: 최소 레벨보다 높고 햅틱 모듈(179)에서 출력될 예상 진동 레벨보다 낮은 레벨)로 식별할 수 있다. 프로세서(120)는 예상 체감 진동 레벨이 중간 레벨인 것에 기반하여, 가상 진동 사운드의 레벨을 지정된 중간 레벨로 조절할 수 있다. 중간 레벨은 지정된 체감 진동 레벨로 균등하게 진동을 제공하도록 지정된 체감 진동 레벨(또는 햅틱 모듈(179)에서 출력될 예상 진동 레벨)에서 예상 체감 진동 레벨을 차감한 레벨로 지정될 수 있다.
일 실시예에 따르면, 프로세서(120)는 적어도 하나의 센서를 이용하여 전자 장치(101)가 거치 상태 또는 파지 상태가 아닌 것(예: 가방 또는 주머니에 위치한 상태)을 식별하고, 이때, 가상 진동 사운드를 지정된 최대 레벨로 조절할 수 있다. 거치 상태 또는 파지 상태가 아닌 상태일 때, 햅틱 모듈(179)에서 동일한 진동 레벨로 진동이 발생하더라도 사용자의 체감 진동은 낮아지므로 프로세서(120)는 예상 체감 진동 레벨을 최소 레벨로 식별하고, 지정된 체감 진동 레벨로 균등하게 진동을 제공하도록 예상 체감 진동 레벨이 최소 레벨인 것에 기반하여 가상 진동 사운드를 지정된 최대 레벨로 조절할 수 있다.
일 실시예에 따르면, 프로세서(120)는 주변 환경 정보를 획득하고, 주변 환경 정보를 기반하여, 외부 소음을 식별하고, 주변 환경이 시끄러운 상황으로서 외부 소음이 제1 기준 레벨 이상이면, 조절된 가상 진동 사운드의 레벨을 일정 수준으로 증가하도록 조절할 수 있다. 일 실시예에 따르면, 프로세서(120)는 주변 환경이 조용한 상황으로서 외부 소음이 제2 기준 레벨보다 낮으면, 조절된 가상 진동 사운드의 레벨을 일정 수준으로 감소하도록 조절할 수 있다.
일 실시예에 따르면, 프로세서(120)는 예를 들어, 근거리 통신 방식을 이용하여 전자 장치(101)와 사용자 간의 거리를 획득하고, 전자 장치(101)와 사용자 간의 거리가 기준 거리 이상으로 멀리 떨어져서 거치된 상태일 때, 조절된 가상 진동 사운드의 레벨을 일정 수준으로 증가하도록 조절할 수 있다. 예를 들어, 프로세서(120)는 사용자의 외부 전자 장치(예: 사용자가 착용한 웨어러블 기기)와의 근거리 통신을 통해 획득한 전자 장치(101)와 외부 전자 장치 간의 거리를 기반하여 가상 진동 사운드를 조절할 수 있다. 예를 들어, 프로세서(120)는 전자 장치(101)의 적어도 하나의 센서(예: 라이다 센서, 레이더 센서 또는 근접 센서) 및/또는 카메라를 이용하여 전자 장치(101)의 주변 상황을 모니터링하여 사용자가 근접한 위치에 있는 지를 확인하고, 사용자의 근접 여부에 기반하여 가상 진동 사운드를 조절할 수 있다. 예를 들어, 프로세서(120)는 사용자의 음성 인식을 통해 사용자가 거치된 전자 장치(101)에 근접한 위치에 있는 지를 확인할 수 있다. 이에 한정되지 않고, 프로세서(120)는 다양한 다른 방식을 통해 거치된 전자 장치(101)와 사용자 간의 거리 또는 사용자의 근접 여부를 확인할 수 있다.
일 실시예에 따르면, 프로세서(120)는 조절된 가상 진동 사운드를 출력하도록 오디오 모듈(170)을 제어할 수 있다. 프로세서(120)는 진동을 활성화하는 이벤트에 대한 지정된 사운드(예: 전화벨 또는 알림음)와 함께 또는 별도로 조절된 가상 진동 사운드를 출력하도록 오디오 모듈(170)을 제어할 수 있다. 일 실시예에 따르면, 프로세서(120)는 조절된 가상 진동 사운드의 출력과 동시에 예상 진동 레벨로 진동을 발생하도록 햅틱 모듈(179)을 제어할 수 있다. 프로세서(120)는 식별된 가상 진동 사운드의 레벨(520)로 조절된 가상 진동 사운드의 레벨에 대응하는 사운드의 세기(예: 크기 또는 음량)로 가상 진동 사운드를 출력할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 오디오 모듈(170)에서 출력되는 조절된 가상 진동 사운드와 햅틱 모듈(179)에서 출력되는 진동이 합해진 체감 진동을 제공함으로써, 사용자에게 이벤트 상황 동안 균등하게(또는 일관적으로) 체감 진동을 제공할 수 있다.
일 실시 예에 따른 전자 장치(101)는 사용자의 체감 진동 레벨을 일관적으로 제공하도록 가상 진동 사운드를 조절하기 위한 소프트웨어 모듈(예: 도 1의 프로그램(140))을 구현할 수 있다. 전자 장치(101)의 메모리(130)는 도 2에 도시된 소프트웨어 모듈을 구현하기 위해 명령어들(예: 인스트럭션들(instructions))을 저장할 수 있다. 적어도 하나의 프로세서(120)는 소프트웨어 모듈을 구현하기 위해 메모리(130)에 저장된 명령어들을 실행시킬 수 있고, 소프트웨어 모듈(201)의 기능과 연관된 하드웨어(예: 도 1의 센서 모듈(176), 오디오 모듈(170), 햅틱 모듈(179) 또는 통신 모듈(190))를 제어할 수 있다. 일 실시 예에 따른 전자 장치(101)의 소프트웨어 모듈은 커널(또는 HAL), 프레임워크(예: 도 1의 미들웨어(144)) 및 어플리케이션(예: 도 1의 어플리케이션(146))을 포함하여 설정될 수 있다. 소프트웨어 모듈의 적어도 일부는 전자 장치(101) 상에 프리로드(preload) 되거나, 서버(예: 서버(108))로부터 다운로드(download) 가능할 수 있다.
이와 같이, 일 실시 예에서는 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101)를 통해 전자 장치의 주요 구성 요소에 대해 설명하였다. 그러나 다양한 실시 예에서는 도 1, 도 2a 내지 도 2d 및 도 3을 통해 도시된 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(101)가 구현될 수도 있고, 그 보다 적은 구성 요소에 의해 전자 장치(101)가 구현될 수도 있다. 또한, 도 1, 도 2a 내지 도 2d 및 도 3을 통해 상술한 전자 장치(101)의 주요 구성 요소의 위치는 다양한 실시 예에 따라 변경 가능할 수 있다.
일 실시예에 따르면, 전자 장치(예: 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101))는 제1 하우징(예: 도 1, 도 2a 내지 도 2d 및 도 3의 제1 하우징(210)) 및 제2 하우징(예: 도 1, 도 2a 내지 도 2d 및 도 3의 제2 하우징(220))을 포함하는 하우징, 상기 제1 하우징에 실장된 햅틱 모듈(예: 도 1, 및 도 3의 햅틱 모듈(179)), 오디오 모듈(예: 도 1, 및 도 3의 오디오 모듈(170)), 메모리(예: 도 1의 메모리(130)) 및 상기 햅틱 모듈, 상기 오디오 모듈 및 상기 메모리와 전기적으로 연결되는 적어도 하나의 프로세서(예: 도 1 및 도 3의 프로세서(120))를 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치의 상기 적어도 하나의 프로세서는, 상기 햅틱 모듈에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 예상 진동 레벨을 기반하여 상기 오디오 모듈에서 출력될 가상 진동 사운드를 조절하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 조절된 가상 진동 사운드를 출력하도록 상기 오디오 모듈을 제어하고, 상기 조절된 가상 진동 사운드의 출력과 동시에 상기 예상 진동 레벨에 대응하는 진동을 출력하도록 상기 햅틱 모듈을 제어하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 이벤트 상황에서, 지정된 체감 진동 레벨로 일관적인 체감 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 진동 레벨을 차감한 레벨로 상기 가상 진동 사운드를 조절하도록 설정될 수 있다.
일 실시예에 따르면, 상기 햅틱 모듈은 수평 진동 모터(예: 수평 햅틱 모터 또는 X축 리니어 모터)를 포함하며, 상기 수평 진동 모터는 상기 바닥면에 접촉되는 상기 하우징의 단면적과 반비례하여 진동을 발생할 수 있다.
일 실시예에 따르면, 상기 지정된 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨 또는 상기 제2 하우징이 바닥면에 접촉되고, 힌지 구조를 기준으로 상기 제1 하우징이 지정된 각도로 회동하여 플로팅된 거치 상태에서 상기 햅틱 모듈에서 출력되는 진동 레벨로 설정되며, 상기 힌지 구조는 상기 힌지 구조는 상기 제1 하우징 및 상기 제2 하우징 사이에 구성될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 거치 상태가 상기 제1 하우징 및 상기 제2 하우징이 바닥면에 접촉된 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 제1 레벨로 조절하도록 설정될 수 있다. 일 실시예에 따르면, 상기 지정된 제1 레벨은 상기 햅틱 모듈에서 출력될 상기 예상 진동 레벨이 최소 레벨인 것에 기반하여, 최대 레벨로 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 거치 상태가 상기 제1 하우징이 바닥면에 접촉되고 상기 제2 하우징이 플로팅된 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 제2 레벨로 조절하도록 설정될 수 있다. 일 실시예에 따르면, 상기 지정된 제2 레벨은 상기 예상 진동 레벨이 중간 레벨인 것에 기반하여, 최대 레벨의 제1 레벨 및 최소 레벨인 제3 레벨 사이의 지정된 중간 레벨로 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 거치 상태가 상기 제1 하우징이 플로팅되고 상기 제2 하우징이 상기 바닥면에 접촉된 상태인 것에 기반하여, 상기 바닥면과 상기 제1 하우징 사이의 각도를 식별하고, 상기 식별된 각도에 기반하여 상기 가상 진동 사운드를 조절하도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 식별된 각도가 지정된 각도로 증가하는 것에 대응하여 지정된 제3 레벨까지 상기 가상 진동 사운드의 세기를 감소하도록 설정될 수 있다. 일 실시예에 따르면, 상기 제3 레벨은 상기 예상 진동 레벨이 최대 레벨인 것에 기반하여, 최소 레벨로 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 식별된 각도를 0도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 지정된 제1 레벨로 조절하고, 상기 식별된 각도를 상기 기준 각도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 상기 제3 레벨로 조절 또는 상기 가상 진동 사운드를 출력하지 않도록 설정될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 파지 상태가 상기 제1 하우징을 파지한 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 최소 레벨로 조절하고, 상기 파지 상태가 상기 제2 하우징을 파지한 상태인 것에 기반하여, 낮아지는 예상 체감 레벨을 식별하고, 상기 예상 체감 레벨을 기반하여 상기 가상 진동 사운드를 상기 최소 레벨보다 높고 최대 레벨보다 낮은 중간 레벨로 조절하고, 상기 전자 장치가 상기 거치 상태 또는 상기 파지 상태가 아닌 것에 기반하여, 상기 가상 진동 사운드를 지정된 최대 레벨로 조절하도록 설정될 수 있다.
일 실시예에 따르면, 상기 중간 레벨은 지정된 체감 진동 레벨로 균등하게 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 체감 레벨을 차감한 레벨일 수 있다.
일 실시예에 따르면, 상기 지정된 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨로 지정될 수 있다.
도 6은 일 실시예에 따른 전자 장치에서의 동작 방법의 예를 나타내는 도면이다.
도 6을 참조하면, 601 동작에서, 일 실시 예에 따른 전자 장치(예: 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101))는, 햅틱 모듈(예: 도 1 및 도 3의 햅틱 모듈(179) 또는 진동 모듈)에 의해 발생되는 진동을 활성화하는 이벤트가 식별할 수 있다. 진동을 활성화하는 이벤트는 지정된 음원(예: 전화벨 또는 알림음)과 함께 햅틱 모듈에서 발생하는 진동을 출력 또는 진동만을 출력하는 이벤트일 수 있다.
603 동작에서, 전자 장치는 거치 상태 또는 파지 상태 중 적어도 하나를 식별할 수 있다. 거치 상태는 전자 장치의 제1 하우징 및 제2 하우징이 접힘 또는 펼침 상태로 제1 하우징(예: 도 2a 내지 도 2d 및 도 3의 제1 하우징(210))의 한 면 및/또는 제2 하우징(예: 도 2a 내지 도 2d 및 도 3의 제2 하우징(220))의 한 면이 바닥면에 접촉되는 상태를 나타낼 수 있다. 파지 상태는 사용자가 전자 장치의 하우징의 일부(예: 제1 하우징을 파지 또는 제2 하우징을 파지를 파지하는 상태를 나타낼 수 있다.
605 동작에서, 전자 장치는 거치 상태 또는 파지 상태 중 적어도 하나를 기반하여, 햅틱 모듈에서 출력될 예상 진동 레벨을 식별할 수 있다. 전자 장치는 햅틱 모듈에 포함된 수평 진동 모터(예: 수평 햅틱 모터 또는 X축 리니어 모터)가 거치 상태의 거치 형태들 별로 다른 세기로 진동을 발생하는 것에 기반하여, 거치 형태들 별로 예상 진동 레벨을 식별할 수 있다. 예를 들어, 수평 진동 모터는 바닥면에 접촉되는 하우징의 단면적과 반비례하여 진동을 발생할 수 있다. 예를 들어, 수평 진동 모터는 바닥면과 하우징(예: 제1 하우징) 사이의 각도에 따라 다른 세기로 진동을 발생할 수 있다.
607 동작에서, 전자 장치는 예상 진동 레벨을 기반하여 오디오 모듈(예: 도 1 및 도 3의 오디오 모듈(170))에서 출력될 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 전자 장치는 이벤트 상황 동안 사용자가 균등하게 진동을 체감하도록 식별된 예상 진동 레벨을 지정된 체감 진동 레벨에서 차감하여 가상 진동 사운드의 레벨을 식별하고, 식별된 가상 진동 사운드의 레벨로 오디오 모듈에서 출력될 가상 진동 사운드를 조절할 수 있다. 여기서, 레벨은 이벤트의 종류에 따라 또는 사용자에 의해 지정된 범위의 진동 세기(예: 진동 크기) 또는 지정된 진동 세기(예: 진동 크기)를 나타낼 수 있다. 지정된 체감 진동 레벨은 식별된 예상 진동 레벨에 조절된 가상 진동 사운드에 대응하는 레벨을 합한 레벨(예: 크기 또는 세기)일 수 있다. 지정된 체감 진동 레벨은 제2 하우징이 바닥면에 접촉되고 제1 하우징이 지정된 각도(예: 90도)로 플로팅된 거치 상태(예: 도 4의 제6 거치 형태(416)의 거치 상태)에서 출력되는 햅틱 모듈의 진동 레벨(예: 도 5a의 4 레벨 또는 최대 진동 레벨) 또는 햅틱 모듈의 최대 진동 레벨로 설정될 수 있다.
609 동작에서, 전자 장치는 이벤트 상황인 동안 사용자가 일관적으로 진동(지정된 체감 진동 레벨)을 체감하도록 조절된 가상 진동 사운드를 오디오 모듈에 의해 출력하고, 조절된 가상 진동 사운드의 출력과 동시에 예상 진동 레벨에 대응하는 진동을 햅틱 모듈에 의해 출력할 수 있다.
도 7은 일 실시예에 따른 전자 장치에서의 동작 방법의 예를 나타내는 도면이다.
도 7을 참조하면, 701 동작에서, 일 실시 예에 따른 전자 장치(예: 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101))는, 햅틱 모듈(예: 도 1 및 도 3의 햅틱 모듈(179) 또는 진동 모듈)에 의해 발생되는 진동을 활성화하는 이벤트가 식별할 수 있다. 진동을 활성화하는 이벤트는 지정된 음원(예: 전화벨 또는 알림음)과 함께 햅틱 모듈에서 발생하는 진동을 출력 또는 진동만을 출력하는 이벤트일 수 있다.
703 동작에서, 전자 장치는 거치 상태를 식별할 수 있다. 거치 상태는 전자 장치의 제1 하우징 및 제2 하우징이 접힘 또는 펼침 상태로 제1 하우징(예: 도 2a 내지 도 2d 및 도 3의 제1 하우징(210))의 한 면 및/또는 제2 하우징(예: 도 2a 내지 도 2d 및 도 3의 제2 하우징(220))의 한 면이 바닥면에 접촉되는 상태를 나타낼 수 있다.
705 동작에서, 전자 장치는 제1 하우징이 플로팅되는 거치 형태인지를 확인할 수 있다. 확인 결과, 제1 하우징이 플로팅되는 거치 형태가 아닌 경우, 전자 장치는 707 동작을 수행하고, 제1 하우징이 필로팅되는 거치 형태인 경우, 전자 장치는 709 동작을 수행할 수 있다.
707 동작(705 동작-아니오)에서, 전자 장치는 제1 하우징이 바닥면에 접촉된 상태인 것을 식별하고, 바닥면에 접촉되는 하우징의 접촉 면적에 기반하여 가상 진동 사운드를 조절할 수 있다. 전자 장치는 이벤트 상황인 동안 사용자가 일관적으로 진동(예: 지정된 체감 진동 레벨)을 체감하도록 조절된 가상 진동 사운드를 오디오 모듈에 의해 출력하고, 조절된 가상 진동 사운드의 출력과 동시에 예상 진동 레벨에 대응하는 진동을 햅틱 모듈에 의해 출력할 수 있다.
709 동작(705 동작-예)에서, 전자 장치는 제1 하우징이 플로팅됨을 식별하고, 바닥면과 제1 하우징 사이의 각도를 식별할 수 있다. 전자 장치는 식별된 각도를 기반하여 가상 진동 사운드를 조절할 수 있다. 전자 장치는 이벤트 상황인 동안 사용자가 일관적으로 진동(예: 지정된 체감 진동 레벨)을 체감하도록 조절된 가상 진동 사운드를 오디오 모듈에 의해 출력하고, 조절된 가상 진동 사운드의 출력과 동시에 예상 진동 레벨에 대응하는 진동을 햅틱 모듈에 의해 출력할 수 있다.
상술한 도 7의 707 동작에서, 일 실시예에 따른 전자 장치는 햅틱 모듈이 실장된 제1 하우징이 바닥면에 접촉(예: 한 면 접촉)되고, 햅틱 모듈이 실장되지 않은 제2 하우징이 플로팅된 거치 상태(예: 도 4의 제1 거치 형태(411), 제2 거치 형태(412) 및 제3 거치 형태(413))일 때, 햅틱 모듈에서 출력될 예상 진동 레벨이 중간 레벨(예: 도 5a의 예상 진동 레벨(510)의 2 레벨)인 것을 식별하고, 식별된 중간 레벨을 기반하여 가상 진동 사운드의 레벨(예: 도 5a의 가상 진동 사운드의 레벨(520))을 지정된 제2 레벨(예: 도 5a의 2 레벨)로 조절할 수 있다. 제2 레벨은 지정된 체감 진동 레벨(예: 도 5a의 지정된 체감 진동 레벨(530)의 4 레벨)에서 식별된 예상 진동 레벨인 중간 레벨(예: 도 5a의 예상 진동 레벨(510)의 2 레벨)을 차감하여 식별된 레벨(예: 도 5a의 가상 진동 사운드의 레벨(520)의 2 레벨)인 중간 레벨로 지정될 수 있다.
상술한 도 7의 707 동작에서, 일 실시예에 따른 전자 장치는 햅틱 모듈이 실장된 제1 하우징 및 햅틱 모듈이 실장되지 않은 제2 하우징이 바닥면에 접촉(두면 접촉)된 거치 상태(예: 도 4의 제4 거치 형태(414))일 때, 가상 진동 사운드의 레벨(예: 도 5a의 가상 진동 사운드의 레벨(520))을 지정된 제1 레벨(예: 도 5a의 4 레벨)로 조절할 수 있다. 제1 레벨은 햅틱 모듈에서 출력될 예상 진동 레벨이 최소 레벨(예: 도 5a의 예상 진동 레벨(510)의 0 레벨)인 것에 기반하여, 최대 레벨(예: 도 5a의 가상 진동 사운드의 레벨(520)의 4 레벨)로 지정될 수 있다. 예를 들어, 제1 레벨은 지정된 체감 진동 레벨(예: 도 5a의 지정된 체감 진동 레벨(530)의 4 레벨)에서 식별된 예상 진동 레벨인 중간 레벨(예: 2 레벨)을 차감하여 식별된 레벨로 지정될 수 있다.
상술한 도 7의 709 동작에서, 일 실시예에 따른 전자 장치는 햅틱 모듈이 실장되지 않은 제2 하우징이 바닥면에 접촉(예: 한 면 접촉)되고, 햅틱 모듈이 실장된 제1 하우징이 플로팅된 거치 상태(예: 도 4의 제5 거치 형태(415) 및 제6 거치 형태(416))일 때, 바닥면과 제1 하우징 사이의 각도를 식별하고, 식별된 각도에 기반하여 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 전자 장치는 하우징이 펼쳐진 상태(예: 도 4의 제4 거치 형태(414))에서 제1 하우징이 플로팅되는 거치 상태로 접힐 때, 펼쳐진 상태의 각도(예: 0도)에서 지정된 각도(예: 90도)로 증가하는 것에 대응하여 지정된 제1 레벨(예: 도 5b의 가상 진동 사운드의 레벨(550)의 4 레벨)에서 지정된 제3 레벨(예: 도 5b의 가상 진동 사운드의 레벨(550)의 0 레벨)까지 가상 진동 사운드의 레벨(550)(예: 사운드의 세기 또는 크기)을 감소할 수 있다. 제3 레벨은 예상 진동 레벨이 최대 레벨(예: 도 5b의 예상 진동 레벨(540)의 4 레벨)인 것에 기반하여, 최소 레벨(예: 도 5b의 가상 진동 사운드의 레벨(550)의 0 레벨)로 지정될 수 있다.
일 실시예에 따르면, 전자 장치는 식별된 각도를 0도로 식별한 것에 기반하여, 가상 진동 사운드의 레벨(550)을 지정된 제1 레벨(예: 도 5b의 가상 진동 사운드의 레벨(550)의 4 레벨)로 조절할 수 있다. 일 실시예에 따르면, 전자 장치는 제1 하우징이 기준 각도로 플로팅된 거치 상태(예: 도 4의 제6 거치 형태(416))일 때, 가상 진동 사운드의 레벨을 제3 레벨(예: 도 5b의 가상 진동 사운드의 레벨(550)의 0 레벨)로 조절하거나, 가상 진동 사운드를 발생하지 않을 수 있다.
일 실시예에 따르면, 전자 장치는 제2 하우징(220)이 바닥면에 접촉(한 면 접촉)되고, 제1 하우징(210)이 기준 각도보다 낮은 각도(예: 45도)로 플로팅된 거치 상태(예: 도 4의 제5 거치 형태(415))일 때, 가상 진동 사운드의 레벨을 제2 레벨(예: 도 5b의 가상 진동 사운드의 레벨(550)의 2 레벨)로 조절할 수 있다.
도 8은 일 실시예에 따른 전자 장치에서의 동작 방법의 예를 나타내는 도면이다.
도 8을 참조하면, 801 동작에서, 일 실시 예에 따른 전자 장치(예: 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101))는, 햅틱 모듈(예: 도 1 및 도 3의 햅틱 모듈(179) 또는 진동 모듈)에 의해 발생되는 진동을 활성화하는 이벤트가 식별할 수 있다. 진동을 활성화하는 이벤트는 지정된 음원(예: 전화벨 또는 알림음)과 함께 햅틱 모듈에서 발생하는 진동을 출력 또는 진동만을 출력하는 이벤트일 수 있다.
803 동작에서, 전자 장치는 파지 상태를 식별할 수 있다. 파지 상태는 사용자가 전자 장치의 하우징의 일부(예: 제1 하우징을 파지 또는 제2 하우징을 파지를 파지하는 상태를 나타낼 수 있다. 전자 장치는 파지 상태에 관련된 파지 정보를 획득하고, 사용자가 일관적으로 진동을 체감하도록 획득한 파지 정보에 기반하여 파지 상태를 식별할 수 있다. 전자 장치는 파지 상태일 때, 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하고, 파지 위치 별로 사용자가 진동을 다르게 체감함에 따라 파지 위치 별 예상 체감 진동 레벨을 식별할 수 있다. 예를 들어, 거치 상태를 기반하지 않고 파지 상태만을 기반하여 도 8의 동작 방법을 수행할 때, 햅틱 모듈에서 출력되는 진동은 동일할 수 있으며, 이러한 경우, 햅틱 모듈에서 출력될 예상 진동 레벨은 동일하게 식별될 수 있다. 예를 들어, 제2 하우징이 파지된 상태에서 햅틱 모듈이 실장된 제1 하우징이 힌지 구조를 기준으로 회동하여 플로팅되는 상태(예: 폴딩 상태)이면, 전자 장치는 도 4의 제5 거치 상태(415) 및 도 6의 거치 상태(416)와 같은 거치 형태로 전자 장치가 손에 거치된 상태로 식별할 수 있다. 이러한 경우, 햅틱 모듈에서 출력될 예상 진동 레벨은 거치 형태에 따라 다르게 식별될 수 있다.
805 동작에서, 전자 장치는 제1 하우징을 파지한 제1 파지 상태인지를 확인할 수 있다. 확인 결과, 제1 파지 상태인 경우, 전자 장치는 807 동작을 수행하고, 제1 파지 상태가 아닌 경우, 전자 장치는 709 동작을 수행할 수 있다.
807 동작(805 동작-예)에서, 전자 장치는 제1 하우징을 파지한 제1 파지 상태인 것에 기반하여, 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 전자 장치는 제1 파지 상태의 파지 위치가 사용자가 진동을 높게 체감할 수 있는 파지 위치임을 식별하고, 예상 체감 진동 레벨을 최대 레벨(예: 햅틱 모듈에서 출력될 예상 진동 레벨과 동일 또는 유사한 레벨)로 식별할 수 있다. 전자 장치는 예상 체감 진동 레벨이 최대 레벨(예: 지정된 체감 진동 레벨)인 것에 기반하여, 가상 진동 사운드의 레벨을 지정된 최소 레벨로 조절할 수 있다. 전자 장치는 이벤트 상황동안 사용자가 일관적으로 진동(지정된 체감 진동 레벨)을 체감하도록 조절된 가상 진동 사운드를 오디오 모듈에 의해 출력하고, 조절된 가상 진동 사운드의 출력과 동시에 예상 진동 레벨에 대응하는 진동을 햅틱 모듈에 의해 출력할 수 있다.
809 동작(805 동작-아니오)에서, 전자 장치는 제1 하우징을 파지한 제1 파지 상태가 아닌 제2 파지 상태인 것에 기반하여, 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자가 햅틱 모듈(179)이 실장되지 않은 제2 하우징(220)을 파지한 제2 파지 상태를 식별한 것에 기반하여, 제2 파지 상태의 파지 위치가 사용자가 진동을 약하게 체감할 수 있는 파지 위치임을 식별하고, 예상 체감 진동 레벨을 중간 레벨(예: 최소 레벨보다 높고 햅틱 모듈(179)에서 출력될 예상 진동 레벨보다 낮은 레벨)로 식별할 수 있다. 프로세서(120)는 예상 체감 진동 레벨이 중간 레벨인 것에 기반하여, 가상 진동 사운드의 레벨을 지정된 중간 레벨로 조절할 수 있다. 중간 레벨은 지정된 체감 진동 레벨로 균등하게 진동을 제공하도록 지정된 체감 진동 레벨(또는 햅틱 모듈(179)에서 출력될 예상 진동 레벨)에서 예상 체감 진동 레벨을 차감한 레벨로 지정될 수 있다. 전자 장치는 이벤트 상황인 동안 사용자가 일관적으로 진동(지정된 체감 진동 레벨)을 체감하도록 조절된 가상 진동 사운드를 오디오 모듈에 의해 출력하고, 조절된 가상 진동 사운드의 출력과 동시에 예상 진동 레벨에 대응하는 진동을 햅틱 모듈에 의해 출력할 수 있다.
일 실시예에 따르면, 전자 장치는 파지 상태 및 거치 상태를 모두 기반하여 가상 진동 사운드를 조절할 수 있다. 일 실시예에 따르면, 전자 장치는 파지 상태가 제1 파지 상태(예: 햅틱 모듈이 실장된 제1 하우징이 파지된 상태)이면, 햅틱 모듈이 실장된 제1 하우징이 신체면에 접촉된 것으로 식별하고, 도 4의 제1 내지 제3 거치 형태들(411, 412, 및 413)과 같이, 햅틱 모듈에서 출력되는 예상 진동 레벨은 중간 레벨로 식별될 수 있다. 전자 장치는 거치 상태에 따라 예상 진동 레벨이 중간 레벨로 식별됨에 따라 지정된 체감 진동 레벨(예: 최대 레벨)을 제공하도록 거치 상태를 기반하여 중간 레벨로 가상 진동 사운드를 조절하고, 사용자의 체감 진동이 낮아지지 않으므로 제1 파지 상태를 기반하여 최소 레벨(예: 0 레벨)로 가상 진동 사운드를 더 조절할 수 있다. 전자 장치는 제1 파지 상태일 때, 파지 상태를 기반한 가상 진동 사운드를 더 조절하지 않고, 거치 상태만을 기반하여 조절된 가상 진동 사운드를 출력할 수 있다.
일 실시예에 따르면, 전자 장치는 파지 상태가 제2 파지 상태(예: 제2 하우징이 파지된 상태)이면, 햅틱 모듈이 실장된 제1 하우징이 신체면에 접촉되지 않은 플로팅 상태(예: 도 4의 제5 거치 상태(415) 또는 제6 거치 상태(416))인 것으로 식별하고, 바닥면(예: 파지한 신체면)과 제1 하우징의 각도를 식별하고, 햅틱 모듈에서 출력되는 예상 진동 레벨이 각도에 따라 다르게 식별되므로 각도를 더 기반하여 가상 진동 사운드를 조절할 수 있다. 예를 들어, 거치 상태를 기반하여, 식별된 각도가 0도인 경우, 전자 장치는 제2 파지 상태에 의해 제1 하우징이 신체면에 접촉되지 않으므로 한 면 접촉으로 식별할 수 있다. 이에 따라 식별된 각도가 0도 이상 ~ 90도 미만일 때, 거치 상태에 따라 햅틱 모듈에서 출력될 예상 진동 레벨은 각도의 증가에 따라 증가하고, 가상 진동 사운드의 레벨은 각도의 증가에 따라 감소될 수 있다. 제2 파지 상태일 때, 사용자의 실제 체감 진동 레벨이 제1 파지 상태보다 낮아지므로 전자 장치는 거치 상태를 기반하여 식별된 레벨로 가상 진동 사운드의 레벨을 조절한 후, 거치 상태를 기반하여 조절된 가상 진동 사운드의 레벨에 낮아진 체감 진동 레벨만큼 더하여 가상 진동 사운드를 더 조절할 수 있다. 제2 파지 상태일 때, 거치 상태를 기반하여 조절된 가상 진동 사운드 레벨 및 햅틱 모듈의 진동이 출력되어 지정된 체감 진동 레벨이 제공되더라도, 사용자는 제1 파지 상태보다 낮게 진동을 체감할 수 있다. 이에 따라 전자 장치는 사용자가 지정된 체감 진동 레벨을 체감할 수 있도록 낮아진 체감 진동 레벨만큼 가상 진동 사운드를 더 출력하도록 가상 진동 사운드를 더 조절할 수 있다. 예를 들어, 전자 장치는 예상 체감 진동 레벨을 식별하여 낮아진 체감 진동 레벨을 식별할 수 있다. 예상 체감 진동 레벨은 가상 진동 사운드를 발생하지 않은 상태에서 전자 장치의 파지 위치 별로 실험을 통해 지정될 수 있다.
일 실시예에 따르면, 전자 장치는 파지 상태를 우선적으로 기반하도록 설정된 경우, 전자 장치가 파지되지 않은 상황에서는 거치 상태를 기반하여 식별된 레벨로 가상 진동 사운드의 레벨을 조절하고, 전자 장치가 파지된 상황에서는 거치 형태와 무관하게 파지 위치만을 고려하여 가상 진동 사운드의 레벨을 조절할 수 있다. 전자 장치는 파지된 상황에서 전자 장치가 신체면에 접촉되더라도 거치 상태가 아닌 것으로 식별하고, 햅틱 모듈에서 출력될 예상 진동 레벨이 동일한 것으로 식별할 수 있다.
일 실시예에 따르면, 전자 장치는 적어도 하나의 센서를 이용하여 전자 장치가 거치 상태 또는 파지 상태가 아닌 것(예: 가방 또는 주머니에 위치한 상태)을 식별하고, 이때, 가상 진동 사운드를 지정된 최대 레벨로 조절할 수 있다. 거치 상태 또는 파지 상태가 아닌 상태일 때, 햅틱 모듈(179)에서 동일한 진동 레벨로 진동이 발생하더라도 사용자의 체감 진동은 낮아지므로 전자 장치는 예상 체감 진동 레벨을 최소 레벨로 식별하고, 지정된 체감 진동 레벨로 균등하게 진동을 제공하도록 예상 체감 진동 레벨이 최소 레벨인 것에 기반하여 가상 진동 사운드를 지정된 최대 레벨로 조절할 수 있다. 다른 실시예에 따르면, 전자 장치는 전자 장치가 거치 상태 또는 파지 상태가 아닌 상태(예: 가방 또는 주머니에 위치한 상태)로 식별하면, 전자 장치는 해당 상태를 예외 처리하여 가상 진동 사운드를 조절하기 위한 방법을 수행하지 않을 수 있다.
일 실시예에 따르면, 전자 장치는 주변 환경 정보를 획득하고, 주변 환경 정보를 기반하여, 외부 소음을 식별하고, 주변 환경이 시끄러운 상황으로서 외부 소음이 제1 기준 레벨 이상이면, 조절된 가상 진동 사운드의 레벨을 일정 수준으로 증가하도록 조절할 수 있다. 일 실시예에 따르면, 전자 장치는 주변 환경이 조용한 상황으로서 외부 소음이 제2 기준 레벨보다 낮으면, 조절된 가상 진동 사운드의 레벨을 일정 수준으로 감소하도록 조절할 수 있다.
일 실시예에 따르면, 전자 장치는 예를 들어, 근거리 통신 방식을 이용하여 전자 장치와 사용자 간의 거리를 획득하고, 전자 장치와 사용자 간의 거리가 기준 거리 이상으로 멀리 떨어져서 거치된 상태일 때, 조절된 가상 진동 사운드의 레벨을 일정 수준으로 증가하도록 조절할 수 있다. 예를 들어, 전자 장치는 사용자의 외부 전자 장치(예: 사용자가 착용한 웨어러블 기기)와의 근거리 통신을 통해 획득한 전자 장치와 외부 전자 장치 간의 거리를 기반하여 가상 진동 사운드를 조절할 수 있다. 예를 들어, 전자 장치는 적어도 하나의 센서(예: 라이다 센서, 레이더 센서 또는 근접 센서) 및/또는 카메라를 이용하여 전자 장치의 주변 상황을 모니터링하여 사용자가 근접한 위치에 있는 지를 확인하고, 사용자의 근접 여부에 기반하여 가상 진동 사운드를 조절할 수 있다. 예를 들어, 전자 장치는 사용자의 음성 인식을 통해 사용자가 거치된 전자 장치에 근접한 위치에 있는 지를 확인할 수 있다. 이에 한정되지 않고, 전자 장치는 다양한 다른 방식을 통해 거치된 전자 장치와 사용자 간의 거리 또는 사용자의 근접 여부를 확인할 수 있다.
일 실시예에 따르면, 제1 하우징(예: 도 1, 도 2a 내지 도 2d 및 도 3의 제1 하우징(210)) 및 제2 하우징(예: 도 1, 도 2a 내지 도 2d 및 도 3의 제2 하우징(220))을 포함하는 전자 장치(예: 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101))에서의 동작 방법은 상기 제1 하우징에 실장된 햅틱 모듈(예: 도 1, 및 도 3의 햅틱 모듈(179))에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈(예: 도 1, 및 도 3의 오디오 모듈(170))에서 출력될 가상 진동 사운드를 조절하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 오디오 모듈에 의해 상기 조절된 가상 진동 사운드를 출력하고, 상기 조절된 가상 진동 사운드의 출력과 동시에 상기 햅틱 모듈에 의해 상기 예상 진동 레벨에 대응하는 진동을 출력하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은 상기 이벤트 상황에서, 지정된 체감 진동 레벨로 일관적인 체감 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 진동 레벨을 차감한 레벨로 상기 가상 진동 사운드를 조절하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 햅틱 모듈은 수평 진동 모터를 포함하며, 상기 수평 진동 모터는 상기 바닥면에 접촉되는 상기 전자 장치의 하우징의 단면적과 반비례하여 진동을 발생할 수 있다.
일 실시예에 따르면, 상기 지정된 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨 또는 상기 제2 하우징이 바닥면에 접촉되고, 힌지 구조를 기준으로 상기 제1 하우징이 지정된 각도로 회동하여 플로팅된 거치 상태에서 상기 햅틱 모듈에서 출력되는 진동 레벨로 지정될 수 있으며, 상기 힌지 구조는 상기 제1 하우징 및 상기 제2 하우징 사이에 구성될 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은 상기 거치 상태가 상기 제1 하우징 및 상기 제2 하우징이 바닥면에 접촉된 상태인 것에 기반하여, 상기 가상 진동 사운드의 레벨을 지정된 제1 레벨로 조절하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 제1 레벨은 상기 햅틱 모듈에서 출력될 상기 예상 진동 레벨이 최소 레벨인 것에 기반하여, 최대 레벨로 지정될 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은, 상기 거치 상태가 상기 제1 하우징이 바닥면에 접촉되고 상기 제2 하우징이 플로팅된 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 제2 레벨로 조절하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 제2 레벨은 상기 예상 진동 레벨이 중간 레벨인 것에 기반하여, 최대 레벨인 제1 레벨 및 최소 레벨인 제3 레벨 사이의 지정된 중간 레벨로 지정될 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은 상기 거치 상태가 상기 제1 하우징이 플로팅되고 상기 제2 하우징이 상기 바닥면에 접촉된 상태인 것에 기반하여, 상기 바닥면과 상기 제1 하우징 사이의 각도를 식별하는 동작 및 상기 식별된 각도에 기반하여 상기 가상 진동 사운드를 조절하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은, 상기 식별된 각도가 지정된 각도로 증가하는 것에 대응하여 지정된 제3 레벨까지 상기 가상 진동 사운드의 세기를 감소하는 동작을 더 포함할 수 있다. 일 실시예에 따르면, 상기 제3 레벨은 상기 예상 진동 레벨이 최대 레벨인 것에 기반하여, 최소 레벨로 지정될 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은, 상기 식별된 각도를 0도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 지정된 제1 레벨로 조절하는 동작 및 상기 식별된 각도를 상기 기준 각도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 상기 제3 레벨로 조절 또는 상기 가상 진동 사운드를 출력하지 않는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 가상 진동 사운드를 조절하는 동작은, 상기 파지 상태가 상기 제1 하우징을 파지한 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 최소 레벨로 조절하는 동작, 상기 파지 상태가 상기 제2 하우징을 파지한 상태인 것에 기반하여, 낮아지는 예상 체감 레벨을 식별하고, 상기 예상 체감 레벨을 기반하여 상기 가상 진동 사운드를 상기 최소 레벨보다 높고 최대 레벨보다 낮은 중간 레벨로 조절하는 동작 및 상기 전자 장치가 상기 거치 상태 또는 상기 파지 상태가 아닌 것에 기반하여, 상기 가상 진동 사운드를 지정된 최대 레벨로 조절하는 동작을 포함할 수 있다. 일 실시예에 따르면, 상기 중간 레벨은 지정된 체감 진동 레벨로 균등하게 체감 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 체감 레벨을 차감한 레벨일 수 있다. 일 실시예에 따르면, 상기 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨로 지정될 수 있다.
일 실시 예에 따르면, 하나 이상의 프로그램을 저장하는 비 일시적 저장 매체에 있어서, 상기 하나 이상의 프로그램은, 제1 하우징(예: 도 1, 도 2a 내지 도 2d 및 도 3의 제1 하우징(210)) 및 제2 하우징(예: 도 1, 도 2a 내지 도 2d 및 도 3의 제2 하우징(220))을 포함하는 전자 장치(예: 도 1, 도 2a 내지 도 2d 및 도 3의 전자 장치(101))의 적어도 하나의 프로세서(예: 도 1 및 도 3의 프로세서(120))에 의한 실행 시, 상기 전자 장치로 하여금, 상기 제1 하우징에 실장된 햅틱 모듈(예: 도 1 및 도 3의 햅틱 모듈(179))에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하는 동작, 상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하는 동작 및 상기 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈(예: 도 1, 및 도 3의 오디오 모듈(170))에서 출력될 가상 진동 사운드를 조절하는 동작을 실행하도록 하는 명령들을 포함할 수 있다.
일 실시예에 따르면, 전자 장치는 거치 상태 또는 파지 상태 중 적어도 하나를 기반하여 가상 진동 사운드를 조절하고, 오디오 모듈을 통해 조절된 가상 진동 사운드를 출력하고, 동시에 햅틱 모듈에서 예상 진동 레벨에 따른 진동을 출력함으로써, 사용자에게 이벤트 상황 동안 균등하게(또는 일관적으로) 체감 진동을 제공할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(101)에 있어서,
    제1 하우징(210) 및 제2 하우징(220)을 포함하는 하우징;
    상기 제1 하우징에 실장된 햅틱 모듈(179);
    오디오 모듈(170);
    메모리(130); 및
    상기 햅틱 모듈, 상기 오디오 모듈 및 상기 메모리와 전기적으로 연결되는 적어도 하나의 프로세서(120)를 포함하며,
    상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 햅틱 모듈에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하고,
    상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하고,
    상기 예상 진동 레벨을 기반하여 상기 오디오 모듈에서 출력될 가상 진동 사운드를 조절하도록 하는 인스트럭션들을 저장하는, 전자 장치.
  2. 제1항에 있어서, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 조절된 가상 진동 사운드를 출력하도록 상기 오디오 모듈을 제어하고,
    상기 조절된 가상 진동 사운드의 출력과 동시에 상기 예상 진동 레벨에 대응하는 진동을 출력하도록 상기 햅틱 모듈을 제어하도록 하는 인스트럭션들을 저장하는, 전자 장치.
  3. 제1항 또는 제2항에 있어서, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 이벤트 상황에서, 지정된 체감 진동 레벨로 일관적인 체감 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 진동 레벨을 차감한 레벨로 상기 가상 진동 사운드를 조절하도록 하는 인스트럭션들을 저장하며,
    상기 햅틱 모듈은 수평 진동 모터를 포함하며,
    상기 수평 진동 모터는 상기 바닥면에 접촉되는 상기 하우징의 단면적과 반비례하여 진동을 발생하며,
    상기 지정된 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨 또는 상기 제2 하우징이 바닥면에 접촉되고, 힌지 구조를 기준으로 상기 제1 하우징이 지정된 각도로 회동하여 플로팅된 거치 상태에서 상기 햅틱 모듈에서 출력되는 진동 레벨로 설정되며,
    상기 힌지 구조는 상기 힌지 구조는 상기 제1 하우징 및 상기 제2 하우징 사이에 구성되는, 전자 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 거치 상태가 상기 제1 하우징 및 상기 제2 하우징이 바닥면에 접촉된 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 제1 레벨로 조절하고,
    상기 거치 상태가 상기 제1 하우징이 바닥면에 접촉되고 상기 제2 하우징이 플로팅된 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 제2 레벨로 조절하도록 하는 인스트럭션들을 저장하며,
    상기 지정된 제1 레벨은 상기 햅틱 모듈에서 출력될 상기 예상 진동 레벨이 최소 레벨인 것에 기반하여, 최대 레벨로 설정되며,
    상기 지정된 제2 레벨은 상기 예상 진동 레벨이 중간 레벨인 것에 기반하여, 최대 레벨의 제1 레벨 및 최소 레벨인 제3 레벨 사이의 지정된 중간 레벨로 설정되는, 전자 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 거치 상태가 상기 제1 하우징이 플로팅되고 상기 제2 하우징이 상기 바닥면에 접촉된 상태인 것에 기반하여, 상기 바닥면과 상기 제1 하우징 사이의 각도를 식별하고,
    상기 식별된 각도에 기반하여 상기 가상 진동 사운드를 조절하고,
    상기 식별된 각도가 지정된 각도로 증가하는 것에 대응하여 지정된 제3 레벨까지 상기 가상 진동 사운드의 세기를 감소하도록 하는 인스트럭션들을 저장하며,
    상기 제3 레벨은 상기 예상 진동 레벨이 최대 레벨인 것에 기반하여, 최소 레벨로 설정되는, 전자 장치.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 식별된 각도를 0도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 지정된 제1 레벨로 조절하고,
    상기 식별된 각도를 상기 기준 각도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 상기 제3 레벨로 조절 또는 상기 가상 진동 사운드를 출력하지 않도록 하는 인스트럭션들을 저장하는, 전자 장치.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 메모리는, 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 전자 장치로 하여금:
    상기 파지 상태가 상기 제1 하우징을 파지한 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 최소 레벨로 조절하고,
    상기 파지 상태가 상기 제2 하우징을 파지한 상태인 것에 기반하여, 낮아지는 예상 체감 레벨을 식별하고, 상기 예상 체감 레벨을 기반하여 상기 가상 진동 사운드를 상기 최소 레벨보다 높고 최대 레벨보다 낮은 중간 레벨로 조절하고,
    상기 전자 장치가 상기 거치 상태 또는 상기 파지 상태가 아닌 것에 기반하여, 상기 가상 진동 사운드를 지정된 최대 레벨로 조절하도록 하는 인스트럭션들을 저장하며,
    상기 중간 레벨은 지정된 체감 진동 레벨로 균등하게 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 체감 레벨을 차감한 레벨이며,
    상기 지정된 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨로 지정되는, 전자 장치.
  8. 제1 하우징(210) 및 제2 하우징(220)을 포함하는 전자 장치(101)에서의 동작 방법에 있어서,
    상기 제1 하우징에 실장된 햅틱 모듈(179)에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하는 동작;
    상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하는 동작; 및
    상기 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈(170)에서 출력될 가상 진동 사운드를 조절하는 동작을 포함하는, 방법.
  9. 제8항에 있어서, 상기 방법은,
    상기 오디오 모듈에 의해 상기 조절된 가상 진동 사운드를 출력하고, 상기 조절된 가상 진동 사운드의 출력과 동시에 상기 햅틱 모듈에 의해 상기 예상 진동 레벨에 대응하는 진동을 출력하는 동작을 더 포함하는, 방법.
  10. 제8항 또는 제10항에 있어서, 상기 가상 진동 사운드를 조절하는 동작은,
    상기 이벤트 상황에서, 지정된 체감 진동 레벨로 일관적인 체감 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 진동 레벨을 차감한 레벨로 상기 가상 진동 사운드를 조절하는 동작을 포함하며,
    상기 햅틱 모듈은 수평 진동 모터를 포함하며,
    상기 수평 진동 모터는 상기 바닥면에 접촉되는 상기 전자 장치의 하우징의 단면적과 반비례하여 진동을 발생하며,
    상기 지정된 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨 또는 상기 제2 하우징이 바닥면에 접촉되고, 힌지 구조를 기준으로 상기 제1 하우징이 지정된 각도로 회동하여 플로팅된 거치 상태에서 상기 햅틱 모듈에서 출력되는 진동 레벨로 지정되며,
    상기 힌지 구조는 상기 제1 하우징 및 상기 제2 하우징 사이에 구성되는, 방법.
  11. 제8항 내지 제10항 중 어느 한 항에 있어서, 상기 가상 진동 사운드를 조절하는 동작은,
    상기 거치 상태가 상기 제1 하우징 및 상기 제2 하우징이 바닥면에 접촉된 상태인 것에 기반하여, 상기 가상 진동 사운드의 레벨을 지정된 제1 레벨로 조절하는 동작; 및
    상기 거치 상태가 상기 제1 하우징이 바닥면에 접촉되고 상기 제2 하우징이 플로팅된 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 제2 레벨로 조절하는 동작을 포함하며,
    상기 제1 레벨은 상기 햅틱 모듈에서 출력될 상기 예상 진동 레벨이 최소 레벨인 것에 기반하여, 최대 레벨로 지정되며,
    상기 제2 레벨은 상기 예상 진동 레벨이 중간 레벨인 것에 기반하여, 최대 레벨인 제1 레벨 및 최소 레벨인 제3 레벨 사이의 지정된 중간 레벨로 지정되는, 방법.
  12. 제8항 내지 제11항 중 어느 한 항에 있어서, 상기 가상 진동 사운드를 조절하는 동작은,
    상기 거치 상태가 상기 제1 하우징이 플로팅되고 상기 제2 하우징이 상기 바닥면에 접촉된 상태인 것에 기반하여, 상기 바닥면과 상기 제1 하우징 사이의 각도를 식별하는 동작;
    상기 식별된 각도에 기반하여 상기 가상 진동 사운드를 조절하는 동작; 및
    상기 식별된 각도가 지정된 각도로 증가하는 것에 대응하여 지정된 제3 레벨까지 상기 가상 진동 사운드의 세기를 감소하는 동작을 포함하며,
    상기 제3 레벨은 상기 예상 진동 레벨이 최대 레벨인 것에 기반하여, 최소 레벨로 지정되는, 방법.
  13. 제8항 내지 제12항 중 어느 한 항에 있어서, 상기 가상 진동 사운드를 조절하는 동작은,
    상기 식별된 각도를 0도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 지정된 제1 레벨로 조절하는 동작; 및
    상기 식별된 각도를 상기 기준 각도로 식별한 것에 기반하여, 상기 가상 진동 사운드를 상기 제3 레벨로 조절 또는 상기 가상 진동 사운드를 출력하지 않는 동작을 더 포함하는, 방법.
  14. 제8항 내지 제13항 중 어느 한 항에 있어서, 상기 가상 진동 사운드를 조절하는 동작은,
    상기 파지 상태가 상기 제1 하우징을 파지한 상태인 것에 기반하여, 상기 가상 진동 사운드를 지정된 최소 레벨로 조절하는 동작;
    상기 파지 상태가 상기 제2 하우징을 파지한 상태인 것에 기반하여, 낮아지는 예상 체감 레벨을 식별하고, 상기 예상 체감 레벨을 기반하여 상기 가상 진동 사운드를 상기 최소 레벨보다 높고 최대 레벨보다 낮은 중간 레벨로 조절하는 동작; 및
    상기 전자 장치가 상기 거치 상태 또는 상기 파지 상태가 아닌 것에 기반하여, 상기 가상 진동 사운드를 지정된 최대 레벨로 조절하는 동작을 포함하며,
    상기 중간 레벨은 지정된 체감 진동 레벨로 균등하게 체감 진동을 제공하도록 상기 지정된 체감 진동 레벨에서 상기 예상 체감 레벨을 차감한 레벨이며,
    상기 체감 진동 레벨은 상기 햅틱 모듈에서 출력되는 최대 진동 레벨로 지정되는, 방법.
  15. 하나 이상의 프로그램을 저장하는 비일시적 저장 매체에 있어서, 상기 하나 이상의 프로그램은, 제1 하우징(210) 및 제2 하우징(220)을 포함하는 전자 장치(101)의 적어도 하나의 프로세서(120)에 의한 실행 시, 상기 전자 장치로 하여금,
    상기 제1 하우징에 실장된 햅틱 모듈(179)에 의해 발생되는 진동을 활성화하는 이벤트가 식별된 것에 기반하여, 상기 전자 장치의 거치 상태 또는 파지 상태 중 적어도 하나를 식별하는 동작;
    상기 거치 상태 또는 상기 파지 상태 중 적어도 하나를 기반하여, 상기 햅틱 모듈에서 출력될 예상 진동 레벨을 식별하는 동작; 및
    상기 예상 진동 레벨을 기반하여 상기 전자 장치의 오디오 모듈(170)에서 출력될 가상 진동 사운드를 조절하는 동작을 실행하도록 하는 명령들을 포함하는, 비 일시적 저장 매체.
PCT/KR2024/007795 2023-06-08 2024-06-07 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체 Pending WO2024253455A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2023-0073421 2023-06-08
KR20230073421 2023-06-08
KR10-2023-0091695 2023-07-14
KR1020230091695A KR20240174440A (ko) 2023-06-08 2023-07-14 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체

Publications (1)

Publication Number Publication Date
WO2024253455A1 true WO2024253455A1 (ko) 2024-12-12

Family

ID=93796238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/007795 Pending WO2024253455A1 (ko) 2023-06-08 2024-06-07 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체

Country Status (1)

Country Link
WO (1) WO2024253455A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US20150373441A1 (en) * 2013-01-07 2015-12-24 Nokia Technologies Oy A Speaker Apparatus
US20190064991A1 (en) * 2017-08-28 2019-02-28 Samsung Display Co. Ltd. Display device
KR20200076351A (ko) * 2018-12-19 2020-06-29 삼성전자주식회사 디스플레이의 복수의 영역들 간 인터랙팅을 위한 방법 및 전자 장치
KR20200109737A (ko) * 2019-03-14 2020-09-23 삼성전자주식회사 햅틱 액츄에이터를 포함하는 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150373441A1 (en) * 2013-01-07 2015-12-24 Nokia Technologies Oy A Speaker Apparatus
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US20190064991A1 (en) * 2017-08-28 2019-02-28 Samsung Display Co. Ltd. Display device
KR20200076351A (ko) * 2018-12-19 2020-06-29 삼성전자주식회사 디스플레이의 복수의 영역들 간 인터랙팅을 위한 방법 및 전자 장치
KR20200109737A (ko) * 2019-03-14 2020-09-23 삼성전자주식회사 햅틱 액츄에이터를 포함하는 전자 장치

Similar Documents

Publication Publication Date Title
WO2022030804A1 (ko) 화면 회전을 제어하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2022030910A1 (ko) 폴딩 각도에 따라 입력 모드를 제어하는 전자 장치 및 그의 방법
WO2022014988A1 (ko) 전자 장치 및 전력 제어 방법
WO2022203456A1 (ko) 음성 신호 처리를 위한 전자 장치 및 방법
WO2022103021A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2023132492A1 (ko) 압력 센서를 포함하는 전자 장치
WO2022092580A1 (ko) 전자 장치 표면의 온도를 예측하는 방법 및 그 전자 장치
WO2024253455A1 (ko) 가상 진동 사운드를 제공하기 위한 전자 장치, 방법 및 비 일시적 저장 매체
WO2023063584A1 (ko) 센서를 이용하여 상태를 식별하기 위한 전자 장치
WO2022203256A1 (ko) 액세서리 커버가 장착된 전자 장치 및 방법
WO2022092875A1 (ko) 음향 장치를 포함하는 전자 장치
WO2022080825A1 (ko) 폴더블 디바이스의 화면 표시 방법 및 그 장치
WO2024196156A1 (ko) 두께 보상 부재를 포함하는 전자 장치
WO2025037764A1 (ko) 스피커를 이용하여 진동을 제공하는 전자 장치 및 이의 동작 방법
WO2024205125A1 (ko) 폴더블 형태의 전자 장치 및 그 전자 장치에서의 동작 방법
WO2025116267A1 (ko) 전자 장치를 위한 센서를 포함하는 케이스
WO2025048532A1 (ko) 페어링을 지원하는 전자 장치 및 이의 제어 방법
WO2025079856A1 (ko) 안테나 및 그를 포함하는 전자 장치
WO2025234584A1 (ko) 스피커 제어 방법 및 그 전자 장치
WO2025005580A1 (ko) 어플리케이션의 실행을 제어하는 멀티 폴더블 전자 장치
WO2025079835A1 (ko) 전자 장치 및 이를 이용한 팬 구동 방법
WO2024232747A1 (ko) 복수 개의 스토퍼를 포함하는 인쇄 회로 기판 및 이를 포함하는 전자 장치
WO2025084569A1 (ko) 커버를 인식하는 전자 장치 및 방법
WO2024262794A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2025005576A1 (ko) 서비스 연속성 제공 방법 및 이를 위한 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24819606

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024819606

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2024819606

Country of ref document: EP

Effective date: 20260108

ENP Entry into the national phase

Ref document number: 2024819606

Country of ref document: EP

Effective date: 20260108

ENP Entry into the national phase

Ref document number: 2024819606

Country of ref document: EP

Effective date: 20260108

ENP Entry into the national phase

Ref document number: 2024819606

Country of ref document: EP

Effective date: 20260108