EP3149969B1 - Ermittlung und nutzung hörraumoptimierter übertragungsfunktionen - Google Patents

Ermittlung und nutzung hörraumoptimierter übertragungsfunktionen Download PDF

Info

Publication number
EP3149969B1
EP3149969B1 EP15724972.3A EP15724972A EP3149969B1 EP 3149969 B1 EP3149969 B1 EP 3149969B1 EP 15724972 A EP15724972 A EP 15724972A EP 3149969 B1 EP3149969 B1 EP 3149969B1
Authority
EP
European Patent Office
Prior art keywords
room
transfer functions
listening
optimized
listening room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP15724972.3A
Other languages
English (en)
French (fr)
Other versions
EP3149969A1 (de
Inventor
Karlheinz Brandenburg
Stephan Werner
Christoph SLADECZEK
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Universitaet Ilmenau
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Original Assignee
Technische Universitaet Ilmenau
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universitaet Ilmenau, Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV filed Critical Technische Universitaet Ilmenau
Publication of EP3149969A1 publication Critical patent/EP3149969A1/de
Application granted granted Critical
Publication of EP3149969B1 publication Critical patent/EP3149969B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • Exemplary embodiments of the present invention relate to a device for determining "listening space-optimized transmission functions" for a monitoring room, to a corresponding method and to a device for the spatial reproduction of an audio signal using corresponding methods.
  • the reproduction is carried out by means of a binaural Nah Kunststoffsschallwandlers, such as. using a stereo headset or stereo in-ear earpiece.
  • Further embodiments relate to a system comprising the two devices, and to a computer method for carrying out the mentioned methods.
  • the perceptual quality in the presentation of a spatial auditory scene depends crucially on the acoustically artistic design of the content of the presentation, the playback system and the room acoustics of the listening room or listening room.
  • a major goal in the development of audio playback systems is the generation of auditory events that are considered to be plausible by the listener. This plays a special role, for example, in the reproduction of image-sound content.
  • different perceptive quality features such as localizability, distance perception, perception of space and sound aspects of the image must meet the expectations. Ideally, therefore, the perception of the reproduced corresponds to the real situation in space.
  • speaker-based audio playback systems two- or multi-channel audio is played back in the listening room.
  • This audio material can come from a channel-based mix that already has ready-made speaker signals.
  • the speaker signals can also be generated by an object-based sound reproduction method.
  • the speaker reproduction signals are generated.
  • these phantom sound sources can be perceived by the listener in different directions and distances.
  • the room acoustics themselves have a decisive influence on the euphony of the reproduced auditory scene.
  • speaker systems are not practical in all listening situations. Furthermore, it is not possible everywhere to install speakers. Examples of such situations may include music listening on mobile devices, use in changing rooms, user acceptance, or the acoustic harassment of others.
  • loudspeakers near-range sound transducers, e.g. In-ears or headphones that are "worn" directly to or in the immediate vicinity of the ear used.
  • the classic stereo reproduction via transducers which are each equipped with one acoustic driver per side or ear, for example, generate the listener's perception that the imaging phantom sound sources are located in the head on the connecting axis between the two ears. It comes to the so-called "in-head localization”.
  • a plausible-looking external perception (externality) of the phantom sound sources does not come about.
  • the phantom sound sources thus generated typically have neither a user-decodable direction (-sinformation) nor distance (-sinformation) that would be present in the listening room, for example, in the reproduction of the same acoustic scene via a speaker system (e.g., 2.0 or 5.1).
  • Binaural synthesis uses so-called "head-related transfer function" (HRTF) for the left and right ear.
  • HRTF head-related transfer function
  • These outer ear transmission functions comprise for each ear a plurality of outer ear transmission functions associated with respective directional vectors for virtual sound sources, corresponding to which the audio signals are filtered during the reproduction thereof, so that an auditory scene is spatially emulated.
  • the binaural synthesis makes use of the fact that interaural features are significantly responsible for the realization of a directional perception of a sound source, these interaural features being reflected in the outer ear transmission functions.
  • the US 2013/0272527 A1 describes an audio system with a receiver for receiving an audio signal in a so-called "binaural circuit for generating a binaural signal with the aid of which a virtual sound source can be positioned in space".
  • a binaural circuit for generating a binaural signal with the aid of which a virtual sound source can be positioned in space.
  • an adaptation of the binaural transfer function in dependence on the acoustic environmental parameters is possible, so that the sound seems very natural.
  • the US 2008/0273708 A1 shows how sound signals can be used to simulate past reflections using HRTF processing.
  • the object of the present invention is to provide an improved spatial reproduction by means of short-range sound transducers, in particular with respect to the conformity of acoustic synthesizing and the consumer's expectation horizon.
  • Embodiments of the present invention provide a (portable) device for determining for a listening room "hearing room optimized transmission functions" based on an analysis of the room acoustics.
  • the hearing room-optimized transfer functions are used for audio-optimized post-processing of audio signals in spatial reproduction, based on the outer ear transfer functions (HRTFs) a space to be synthesized is emulated and based on the hearing room optimized transfer functions of the listening room can be emulated.
  • HRTFs outer ear transfer functions
  • the present invention provides another (portable) device for spatial reproduction of an audio signal by means of a binaural Nah Kunststoffsschallwandlers, in which the spatial reproduction is emulated using knownproofohrübertragungsfunktionen and with the help of a Hörraumoptim believing transfer functions, so that in the reproduction of Audio contents of the outgoing sound transducer by means of the Nah Schlsschallwandlers the Ab technologicalraum characterizing is impressed.
  • the present invention thus provides the prerequisites for considering cognitive effects in the reproduction of multichannel stereo.
  • hearing-space-optimized transmission functions are determined for the respective listening room, in which, for example, an auditory scene is to be reproduced by means of a headphone (generally by means of a binaural close-range sound transducer).
  • the determination of the hearing-space-optimized transfer function corresponds in principle to the derivation of a room-acoustic filter on the basis of the determined or measured room acoustics with the objective of reproducing the acoustic properties of the real space synthetically.
  • the auditory scene can then be reproduced in accordance with a second aspect of the invention, both with the aid of the HRTFs and with the aid of the hearing room-optimized transfer functions as a room sound simulation.
  • the spatiality is generated by means of HRTFs, while the adaptation of the spatiality to the current listening room situation is achieved by means of hearing room-optimized transmission functions.
  • the hearing-space-optimized transmission functions perform an adaptation or post-processing of the HRTFs or the signals processed by the HRTFs.
  • the hearing-space-optimized transmission functions namely the metrological determination with the aid of a test sound source and a microphone, so that the room acoustics can be analyzed over a test track in the listening room in order to obtain an acoustic model of the room.
  • a second variant can Also naturally occurring noises, such as a voice, are used as test signals.
  • the second variant offers the particular advantage that virtually every electrical terminal with a microphone, such as a mobile phone or a smartphone, on which the functionality described above is implemented, sufficient to determine the room acoustics.
  • the analysis of the listening room or the determination of the acoustic spatial model can be based on geometric models.
  • the background to this is that the room acoustics or acoustic perception changes accordingly, depending on whether the listening position is closer to the wall or in which direction the listener is looking.
  • a plurality of direction-dependent and / or position-dependent transfer functions be deposited within the hearing room optimized transfer functions, which are selected here, for example, depending on the position of the listener in the listening room or from the viewpoint of the listener.
  • the spatial reproduction apparatus may also comprise a position determining device, such as e.g. include a GPS.
  • acoustic characteristics such as differences in transit time between left / right and (frequency-dependent) level differences between left / right are decisive.
  • runtime differences can be distinguished in particular between phase delay at low frequencies and group delay at high frequencies.
  • runtime differences can be simulated via any stereo driver via signal processing.
  • the determination of the direction of incidence in the medial plane is based in particular on the fact that the auricle and / or the auditory canal entrance performs a direction-selective filtering of the acoustic signal. This filtering is frequency selective, so that an audio signal can be filtered in advance with such a frequency filter to simulate a particular direction of arrival or to emulate a spatiality.
  • the determination of the distance of a sound source from the listener is based on different mechanisms.
  • the main mechanisms are volume, frequency-selective filtering of the traveled sound path, sound reflection and initial time gap. Much of the above factors are person-specific. Person-individual variables may be, for example, the distance between the ears and the shape of the auricle, which has an effect, in particular, on the lateral and medial localization.
  • manipulating an audio signal with regard to the mechanisms mentioned are the spatial sound emulation, wherein the manipulation parameters (per spatial direction and distance) are stored in the HRTFs.
  • HRTFs outer ear transmission functions
  • HRTFs outer ear transmission functions
  • the background to this is that the above three factors for localization for indoor use are distorted to the extent that the sound emitted by a sound source reaches the listener not only directly but also in a reflected form (eg via walls) Change in the acoustic perception has consequences. In rooms, therefore, there is direct sound and reflected (later arriving) reflected sound, these sounds for the listener, for example, based on maturity for certain frequency groups and / or position of the secondary sound source in space are differentiable. These (Hall) parameters also depend on the room size and nature (e.g., attenuation, shape) so that a listener can estimate the room size and texture.
  • the room acoustics can also be binaurally emulated.
  • the RRTF extends the HRTF to the binaural room impulse response (BRIR), which simulates the listener with certain acoustic room conditions in the case of headphone reproduction.
  • BRIR binaural room impulse response
  • cognitive effects also play a major role in the listener.
  • Studies on such cognitive effects have shown that the relevance of parameters such as the degree of agreement between the listening room and the space to be synthesized, the emergence of a plausible auditory illusion are high.
  • the expert speaks in the case of a small divergence between listening room and room to be reproduced by low externality of the auditory event.
  • the binaural synthesis is now to be extended so that the binaural simulation of an auditory scene can be adapted to the context of use.
  • the simulation is adapted to the listening conditions, such as a current room acoustics (damping) and the geometry of the listening room.
  • the perception of distance, the perception of spatiality and the perception of direction can be varied in such a way that they relate to the current listening room seem plausible.
  • Variation parameters are, for example, the HRTF or RRTF features, such as time differences, level differences, frequency-selective filtering or initial time gap.
  • the adaptation takes place, for example, in such a way that a room size with a certain Hall behavior (reverberation behavior or reflection behavior) is emulated or distances between the listener and the sound source, for example, are limited to a maximum value.
  • Another factor influencing the surround sound behavior is the position of the user in the listening room, since it is crucial in terms of reverberation and reflection whether the user is centrally located in the room or in the vicinity of a wall.
  • This behavior can also be emulated by adjusting the HRTF or RRTF parameters.
  • the following section explains how or by which means the adaptation of the HRTF or RRTF parameters is carried out in order to improve the plausibility of the acoustic simulation on-site.
  • the concept of auralization of room acoustics in the basic structure comprises two components, which are represented on the one hand by two independent devices and on the other by two corresponding methods.
  • the first component namely the acquisition of hearing-space-optimized transmission functions TF will be explained
  • FIG Fig. 2a and 2 B the use of the hearing room optimized transfer functions TF are explained.
  • Fig. 1a shows a device 10 for determining optimized for a listening room 12 transfer functions TF (transfer function).
  • the device 10 includes an interface, eg, as here illustrated, a microphone interface (see reference numeral 14) for acquiring auditory-related data.
  • a microphone interface for acquiring auditory-related data.
  • the hearing-space-optimized transfer functions TF on the basis of which the listening space characteristic is to be impressed on an acoustic material by means of binaural synthesis, is typically designed such that already existing HRTFs are adapted, the device 10 can determine the transfer functions TF taking into account the HRTFs to be used.
  • the device 10 optionally includes a further interface for reading in or forwarding HRTFs.
  • the detection of the prevailing room acoustic conditions of the listening room is metrologically possible.
  • the room acoustics of the listening room 12 are measured by means of an acoustic measuring method with the aid of the device 10.
  • a test signal transmitted via an optional speaker (not shown), is used.
  • the reproduction of the test signal or the control of the loudspeaker can in this case take place via the device 10, if the device 10 for this purpose comprises a loudspeaker interface (not shown) or the loudspeaker itself.
  • the measuring signal radiated into the room 12 via the loudspeaker is recorded by means of the microphone 14, so that the room acoustics can be determined based on the signal change over the measuring path (between loudspeaker microphone), so that at least one hearing room optimized transfer function TF eg for one spatial direction or a plurality is derivable at listening room optimized transfer functions TF. From the measured transfer function from one direction relevant room acoustic parameters are derived for the listening room. These are used to generate the hearing-room-optimized transmission functions TF for the other required directions.
  • the discrete first reflections can be adapted to other spatial directions and distance of the virtual sound source positions to be imaged.
  • the information relevant for directional perception is available in the HRTFs.
  • the determination of the room acoustics can be estimated by using acoustic signals that are already behaving through the listening room 12. Examples of such signals are the ambient sounds that are present anyway, as well as a voice signal of a user.
  • the algorithms used for this purpose are derived from algorithms for removing reverberation from a speech signal. The background to this is that an estimation of the space transfer function lying on the signal to be contained is typically carried out in the reverberation algorithms. To date, these algorithms are used to determine a filter which, when applied to the original signal, results in the most likely unattenuated signal. In the application in the analysis of room acoustics, the filter function is not determined, but only an estimation method used to the properties of the listening room to recognize. In this procedure, again, the microphone 14, which is coupled to the device 10, is used.
  • the room acoustics can be simulated based on geometric spatial data. This approach is based on the fact that geometric data (e.g., edge dimensions, free path length) of a room 12 make it possible to estimate the room acoustics.
  • the room acoustics of room 12 can either be simulated directly or approximated based on room acoustic filter database comprising comparative acoustic models.
  • methods such as the acoustic ray tracing or the mirror sound source method in conjunction with a diffuse sound model can be mentioned. The two methods mentioned are based on geometric models of the listening room.
  • the above-explained interface for recording hearing-room-related data of the device 10 does not necessarily have to be a microphone interface, but can also generally be referred to as a data interface which serves for reading geometry data. Furthermore, it is also possible that further data on the room acoustics are read in addition by means of the interface, which include, for example, information about an existing in the listening room speaker setup.
  • the data can be retrieved from a geometry database, such as e.g. Google Maps are taken in-house.
  • a geometry database such as e.g. Google Maps are taken in-house.
  • These databases typically include geometric models, e.g. Vector models of spatial geometries, from which primarily the distances, but also reflection characteristics can be determined.
  • an image database can also be used as input, in which case the geometric parameters are subsequently determined by means of image recognition in an intermediate step.
  • the hearing room-optimized transmission functions TF are derived in a subsequent step for at least one, preferably for a plurality of rooms.
  • the derivation of the hearing room optimized Transfer functions TF which is comparable in terms of their parameters with the RRTFs, corresponds in principle to the determination of a filter function (per spatial direction), by means of which the acoustic behavior in space, eg in the sound propagation in a particular spatial direction, can be reproduced.
  • the ear room-specific transmission functions TF per room typically comprise a plurality of transmission functions by means of which the outer ear transmission functions (assigned to individual solid angles) can be adapted accordingly (comparable to the procedure for processing the room impulse response).
  • the number of hearing-room-optimized transmission functions TF therefore typically depends on the number of outer-ear transmission functions which occur as a functional group and a multiplicity, namely for left / right and for the relevant directions.
  • the exact number of outer ear transmission functions in the HRTF model depends on the desired spatial resolution capability, and may vary considerably due to the fact that HRTF models in which a large number of directional vectors are determined by means of interpolation exist. From this context, it becomes clear why it makes sense for the device for determining the hearing-space-optimized transfer function TF to use the HRTF model.
  • the determined auditory-space-optimized transfer functions TF are stored, for example, in a room-acoustic filter database.
  • a multitude of hearing-room-optimized transmission function groups can also be determined and stored per monitoring room, which takes into account that the listening room functions or the acoustic behavior in the listening room differs depending on the position of the listener.
  • a separate hearing room-optimized transmission characteristic can be determined, the determination of which can be based on one and the same acoustic model of the listening room 12.
  • the analysis of the listening room is advantageously carried out only once.
  • different space-optimized transmission functions flocks can also be determined per spatial direction into which the user is viewing.
  • the device 10 described above can be designed differently.
  • the device 10 is designed as a mobile device, in which case the sensor 14, such as the microphone or the camera, can be integrated accordingly.
  • the analysis unit 10 can be implemented, for example, as hardware or software-based.
  • embodiments of the device 10 include an internal or cloud-connected CPU or other logic configured to perform the determination of the hearing-space optimized transfer functions TF and / or the listening room analysis.
  • Fig. 1b the method or in particular the basic steps of the method on which the algorithm for software-implemented determination of hearing-space optimized transfer functions TF is based, explained.
  • Fig. 1b shows a flowchart 100 of the method in the determination of the for a hearing room optimized transfer functions TF.
  • the method 100 comprises the central step 110 of determining the hearing room optimized transfer functions TF.
  • step 110 is based on the analysis of room acoustics 120 (see step 120 "Analyzing Room Acoustics") and optionally also on existing HRTF functions.
  • a further optional step namely the storage of the transfer functions TF, can follow. This step is provided with the reference numeral 130.
  • Fig. 2a shows a device for spatial reproduction 20 with the aid of a binaural Nah Schlallwandlers 22.
  • the functionality of the device 20 is inter alia with the aid of the flowchart from Fig. 2b which illustrates the method 200 of the reproduction.
  • the device 20 is adapted to the audio signal 24, such as to reproduce a multi-channel stereo audio signal (or an object-based audio signal or an audio signal based on a Wave Field Synthesis Algorithm (WFS)) and simultaneously emulate surround sound (see step 210).
  • WFS Wave Field Synthesis Algorithm
  • the reproduction apparatus 20 carries out a processing of the audio signal with the aid of HRTFs and with the aid of the hearing room-optimized transmission functions TF.
  • the device 20 may comprise an HRTF / TF memory or is connected, for example, to a database on which the HRTFs as well as the hearing-room-optimized transmission functions TF determined in accordance with the above methods are stored.
  • combining before the signal processing of the audio signal, combining (see step 220) the HRTF with the TF or adjusting the HRTF based on the TF.
  • the result of this combining is a BRIR 'transfer function comparable to the BRIR (spatial impulse response), which is then used to process the audio signal 24 to emulate the surround sound (see step 210). This processing corresponds in principle to applying a BRIR'-based filter to the audio signal.
  • the synthesized space (at least approximately) matches the user's expectation horizon, which increases the plausibility of the scene.
  • the device 20 may also include the position determination unit, such as a GPS receiver, by means of which the current position of the listener is detected. Starting from the determined position, the monitoring room can now be determined and the hearing room-optimized transmission functions TF associated with the monitoring room can be loaded (and, if necessary, updated during a room change).
  • the position determination unit such as a GPS receiver
  • the hearing room-optimized transmission functions TF associated with the monitoring room can be loaded (and, if necessary, updated during a room change).
  • this position determination unit can also be extended by an orientation determination unit so that the viewing direction of the listener can also be determined and the TFs are correspondingly loaded depending on the particular viewing direction in order to cope with the direction-dependent monitoring room acoustics.
  • FIG. 12 shows a schematic representation of the signal flow in listening to adapted room acoustic simulations for use with binaural synthesis from a system 10 + 20 comprising the device for determining the TFs and the device for reproducing the audio signals using the TFs.
  • Such a system 10 + 20 can be implemented, for example, as a mobile terminal (eg as a smartphone), on which the file to be played back is also stored.
  • the system 10 + 20 is principally a combination of the device 10 Fig. 1a and the device 20 from Fig. 1b , wherein the individual components are subdivided differently for function-oriented explanation.
  • the system 10 + 20 comprises a functional unit for the auralization of the listening room 20a and a functional unit for the binaural synthesis 20b. Furthermore, the system 10 + 20 includes a function block 10a for modeling the room acoustics and a function block 10b for modeling the transmission behavior. The modeling of the room acoustics in turn is based on a detection of the listening room, which is performed with the function block 10c for detecting the room acoustics. Further, in the illustrated embodiment, the system 10 + 20 includes two memories, one for storing scene position data 30a and one for storing HRTF data 30b.
  • the functionality of the system 10 + 20 is explained on the basis of the information flow in the reproduction, assuming that the listening room is known to the system 10 + 20 or already determined by a position determining method (see above).
  • the audio data is supplied in a first step to the signal processing unit 20a, which applies the previously modeled space transfer function TF to the signal 24 and this reverberates.
  • the modeling of the space transfer function TF takes place in a signal processing block 10a, this modeling being superimposed by the modeling transfer behavior (see function block 10b), as will be explained below.
  • This second (optional) function block 10b models a virtual speaker setup in the respective listening room.
  • the user can be emulated an acoustic behavior as if the audio file to be played on a particular speaker setup (2.0, 5.1, 9.2) is played.
  • the loudspeaker position is fixedly connected to the listening room and the respective loudspeakers also have a certain transmission behavior, e.g. defined by the frequency response and directional characteristic or different level behavior, assigned.
  • special sound source types e.g. to fix a mirror sound source fixed in the room.
  • the speaker setup is modeled based on the scene position data that includes information about the position, distance, or type of the virtual speaker. This scene position data may correspond to a real existing speaker setup, or based on virtual speaker setup, and is typically customizable by the user.
  • the reverberated signals are fed to the binaural synthesis 20b which impress the direction of the virtual loudspeakers onto the audio material associated with the loudspeaker through a set of directional HRTF filters (see Fig. 30b).
  • the binaural synthesis system can optionally evaluate the head rotation of the listener. The result is a headphone signal, which can be adjusted by appropriate equalization to a particular headphone, with the acoustic signal behaving as if it were being delivered with a specific speaker setup in the respective listening room.
  • the system 10 + 20 may be implemented, for example, as a mobile terminal or components of a home theater system.
  • applications are the reproduction of music and entertainment content, such as music. Sound for film or play sound over the binaural Nah Kunststoffsschallwandler.
  • the device 20 from Fig. 2a may also be configured to emulate a particular speaker setup or playback of an audio signal for a particular speaker setup based on scene location data.
  • the device 10 may be adapted to the scene position data of a speaker setup in the listening room 12 (eg via a acoustic measurement), so that this speaker setup can be emulated with the device 20.
  • aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device.
  • Some or all of the method steps may be performed by a hardware device (or using a hardware device). Apparatus), such as a microprocessor, a programmable computer or an electronic circuit. In some embodiments, some or more of the most important method steps may be performed by such an apparatus.
  • a signal coded according to the invention such as an audio signal or a video signal or a transport stream signal, may be stored on a digital storage medium or may be stored on a transmission medium such as a wireless transmission medium or a wired transmission medium, e.g. the internet
  • the encoded audio signal of the present invention may be stored on a digital storage medium, or may be transmitted on a transmission medium such as a wireless transmission medium or a wired transmission medium such as the Internet.
  • embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.
  • some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.
  • embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.
  • the program code can also be stored, for example, on a machine-readable carrier.
  • inventions include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium.
  • an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.
  • a further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.
  • a further embodiment of the method according to the invention is thus a data stream or a sequence of signals, which represent the computer program for performing one of the methods described herein.
  • the data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.
  • Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • a processing device such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.
  • Another embodiment according to the invention comprises a device or system adapted to transmit a computer program for performing at least one of the methods described herein to a receiver.
  • the transmission can be done for example electronically or optically.
  • the receiver may be, for example, a computer, a mobile device, a storage device or a similar device.
  • the device or system may include a file server for transmitting the computer program to the recipient.
  • a programmable logic device eg, a field programmable gate array, an FPGA
  • a field programmable gate array may cooperate with a microprocessor to perform one of the methods described herein.
  • the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Description

  • Ausführungsbeispiele der vorliegenden Erfindung beziehen sich auf eine Vorrichtung zur Ermittlung von für einen Abhörraum "hörraumoptimierten Übertragungsfunktionen", auf ein entsprechendes Verfahren und auf eine Vorrichtung zur räumlichen Wiedergabe eines Audiosignals mit entsprechenden Verfahren. Entsprechend bevorzugter Ausführungsbeispiele erfolgt die Wiedergabe mittels eines binauralen Nahbereichsschallwandlers, wie z.B. mittels eines Stereokopfhörers oder Stereo-In-Ear-Hörers. Weitere Ausführungsbeispiele beziehen sich auf ein System, umfassend die zwei Vorrichtungen, und auf ein Computerverfahren zur Durchführung der angesprochenen Verfahren.
  • Die perzeptive Qualität bei der Präsentation einer räumlichen auditiven Szene, z.B. auf Basis eines Mehrkanal-Audiosignals, hängt entscheidend von der akustisch künstlerischen Gestaltung des Inhalts der Präsentation, vom Wiedergabesystem und von der Raumakustik des Abhörraums bzw. Hörraums ab. Ein Hauptziel bei der Entwicklung von Audiowiedergabesystemen ist die Erzeugung von Hörereignissen, die vom Hörer als plausibel eingeschätzt werden. Dies spielt beispielsweise bei der Wiedergabe von Bild-Ton-Inhalten eine besondere Rolle. Bei von dem Nutzer als plausibel wahrgenommenen Inhalten müssen verschiedene perzeptive Qualitätsmerkmale, wie beispielsweise Lokalisierbarkeit, Distanzwahrnehmung, Räumlichkeitswahrnehmung und klangliche Aspekte der Abbildung den Erwartungen entsprechen. Im Idealfall stimmt somit die Wahrnehmung des wiedergegebenen mit der realen Situation im Raum überein.
  • Bei lautsprecherbasierten Audiowiedergabesystemen wird zwei- oder mehrkanaliges Audiomaterial im Abhörraum wiedergegeben. Dieses Audiomaterial kann einer kanalbasierten Mischung entstammen, bei der die fertigen Lautsprechersignale bereits vorliegen. Darüber hinaus können die Lautsprechersignale auch durch ein objektbasiertes Tonwiedergabeverfahren erzeugt werden. Hierbei werden basierend auf einer Beschreibung eines Tonobjekts (z.B.: Position, Lautstärke etc.) und der Kenntnis eines vorherrschenden Lautsprecheraufbaus, die Lautsprecherwiedergabesignale erzeugt. Dabei werden Phantomschallquellen erzeugt, die sich in der Regel auf den Verbindungsachsen zwischen den Lautsprechern befinden. Je nach gewähltem Lautsprecheraufbau und der vorherrschenden Raumakustik des Abhörraums können diese Phantomschallquellen vom Hörer in unterschiedlichen Richtungen und Distanzen wahrgenommen werden. Die Raumakustik selbst hat dabei einen entscheidenden Einfluss auf den Wohlklang der wiedergegebenen auditiven Szene.
  • Die Wiedergabe über Lautsprechersysteme ist allerdings nicht in allen Hörsituationen praktikabel. Weiterhin ist es nicht überall möglich Lautsprecher zu installieren. Als Beispiele solcher Situationen können das Musikhören auf mobilen Endgeräten, die Nutzung in sich wechselnden Räumen, Nutzerakzeptanz oder auch die akustische Belästigung von Mitmenschen genannt werden. Als Alternative für Lautsprecher werden häufig Nahbereichsschallwandler, wie z.B. In-Ears oder Kopfhörer, die direkt an bzw. in unmittelbarer Umgebung zu dem Ohr "getragen" werden, eingesetzt.
  • Die klassische Stereowiedergabe über Schallwandler, die beispielsweise je mit einem akustischen Treiber pro Seite bzw. Ohr ausgestattet sind, erzeugen beim Hörer die Wahrnehmung, dass die sich abbildenden Phantomschallquellen im Kopf auf der Verbindungsachse zwischen den beiden Ohren befinden. Es kommt zur sogenannten "Im-Kopf-Lokalisierung". Eine plausibel wirkende externe Wahrnehmung (Externizität) der Phantomschallquellen kommt nicht zustande. Die so erzeugten Phantomschallquellen besitzen in der Regel weder ein für einen Nutzer dekodierbare Richtung(-sinformation) noch Distanz(-sinformation), die beispielsweise bei der Wiedergabe der gleichen akustischen Szene über ein Lautsprechersystem (z.B. 2.0 oder 5.1) im Abhörraum vorhanden wäre.
  • Zur Umgehung der Im-Kopf-Lokalisierung bei Kopfhörerwiedergabe werden Methoden der Binauralsynthese verwendet (ohne dass künstlerische Gestaltung und Mischung im Audiomaterial verloren geht). Bei der Binauralsynthese werden sogenannte "Außenohrübertragungsfunktionen" (head-related transfer function, HRTF, Kopfbezogene Übertragungsfunktion) für linkes und rechtes Ohr verwendet. Diese Außenohrübertragungsfunktionen umfassen für jedes Ohr eine Vielzahl an jeweiligen Richtungsvektoren für virtuelle Schallquellen zugeordnete Außenohrübertragungsfunktionen, entsprechend welchen eine Filterung der Audiosignale bei der Wiedergabe derselben erfolgt, so dass eine auditive Szene räumlich dargestellt bzw. die Räumlichkeit emuliert werden. Die Binauralsynthese macht es sich zunutze, dass interaurale Merkmale maßgeblich für das Zustandekommen einer Richtungswahrnehmung einer Schallquelle verantwortlich sind, wobei sich diese interauralen Merkmale in den Außenohrübertragungsfunktionen widerspiegeln. Soll also ein Audiosignal aus einer definierten Richtung wahrgenommen werden, wird dieses Signal mit den zu dieser Richtung gehörenden HRTFs des linken oder rechten Ohrs gefiltert. Mit Hilfe der Binauralsynthese ist es somit möglich, sowohl eine realistische Raumklangszene, z.B. gespeichert als Mehrkanalaudio über den Kopfhörer wiederzugeben. Um einen Lautsprecheraufbau virtuell zu simulieren, verwendet man die richtungsgebundenen HRTF-Paare für jeden zu simulierenden Lautsprecher. Für eine plausible Abbildung von Richtung und Distanz des Lautsprecheraufbaus müssen zusätzlich die richtungsabhängigen akustischen Übertragungsfunktionen des Abhörraums (room-related-transfer-function, RRTF, Raumbezogene Übertragungsfunktion) mit emuliert werden. Diese werden mit den HRTFs kombiniert und ergeben die binauralen Raumimpulsantworten (BRIRs, binaural room-impuls-respons). Die BRIRs können als Filter auf das akustische Signal angewendet werden.
  • Aktuelle Forschungen und Untersuchungen machen allerdings deutlich, dass die Plausibilität einer Audiowiedergabe neben der physikalischen korrekten Synthese der Wiedergabesignale auch maßgeblich von kontextabhängigen Qualitätsparametern und insbesondere von dem Erwartungshorizont des Nutzers in Bezug auf die Raumakustik bestimmt wird. Deshalb besteht der Bedarf nach einem verbesserten Ansatz bei der binauralen Synthese.
  • Die US 2013/0272527 A1 beschreibt ein Audiosystem mit einem Empfänger zum Empfangen eines Audiosignals in einem sogenannten "Binauralschaltkreis zum Erzeugen eines Binauralsignals unter Zuhilfenahme welches eine virtuelle Schallquelle im Raum positioniert werden kann". Hierbei ist eine Anpassung der Binauraltransferfunktion in Abhängigkeit an die, akustischen Umweltparameter möglich, so dass der Klang sehr natürlich erscheint.
  • Die US 2008/0273708 A1 zeigt wie mittels HRTF-Bearbeitung Soundsignale genutzt werden können, um frühere Reflexionen zu simulieren.
  • Aufgabe der vorliegenden Erfindung liegt darin, eine verbesserte räumliche Wiedergabe mittels Nahbereichsschallwandlern, insbesondere in Bezug auf Übereinstimmung von akustischer Synthetisierung und Erwartungshorizont des Konsumenten, zu schaffen.
  • Die Aufgabe wird durch die unabhängigen Patentansprüche gelöst.
  • Ausführungsbeispiele der vorliegenden Erfindung schaffen eine (tragbare) Vorrichtung zur Ermittlung von für einen Abhörraum "hörraumoptimierten Übertragungsfunktionen" auf Basis einer Analyse der Raumakustik. Die hörraumoptimierten Übertragungsfunktionen dient zur hörraumoptimierten Nachbearbeitung von Audiosignalen bei der räumlichen Wiedergabe, wobei basierend auf den Außenohrübertragungsfunktionen (HRTFs) ein zu synthetisierender Raum emulierbar ist und wobei basierend auf den hörraumoptimierten Übertragungsfunktionen der Abhörraum emulierbar ist. Durch die Nutzung dieser zwei Übertragungsfunktionen, die in kombinierter Form auch als binaurale raumbezogene Raumimpulsantwort bezeichnet werden kann, kommt es zu einer realistischen Raumklangsimulation, die in Bezug auf die Räumlichkeit mit den durch das Mehrkanal(-Stereo)-Signal vorgegebenen Merkmalen entspricht, aber unter Berücksichtigung des Erwartungshorizonts, welcher insbesondere durch die Raumakustik vorweggenommen ist, verbessert ist.
  • Entsprechend weiteren Ausführungsbeispielen schafft die vorliegende Erfindung eine weitere (tragbare) Vorrichtung zur räumlichen Wiedergabe eines Audiosignals mittels eines binauralen Nahbereichsschallwandlers, bei der die räumliche Wiedergabe unter Zuhilfenahme von bekannten Außenohrübertragungsfunktionen und unter Zuhilfenahme von für einen hörraumoptimierten Übertragungsfunktionen emuliert wird, so dass bei der Wiedergabe von Audioinhalten den mittels des Nahbereichsschallwandlers ausgehenden akustischen Signalen die Abhörraumcharakteristik aufgeprägt wird.
  • Entsprechend dem Kerngedanken schafft die vorliegende Erfindung also die Voraussetzungen, um kognitive Effekte bei der Wiedergabe von Mehrkanal-Stereo zu berücksichtigen. Hierzu werden entsprechend einem ersten Aspekt hörraumoptimierte Übertragungsfunktionen für den jeweiligen Abhörraum, in welchem beispielsweise mittels eines Kopfhörers (allgemein mittels eines binauralen Nahbereichsschallwandlers) eine auditive Szene wiedergegeben werden soll, ermittelt. Das Ermitteln der hörraumoptimierten Übertragungsfunktion entspricht im Prinzip der Ableitung eines raumakustischen Filters auf Basis der ermittelten bzw. vermessenen Raumakustik mit der Zielsetzung, die akustischen Eigenschaften des Realraums synthetisch abzubilden. In einem zweiten Schritt kann dann die auditive Szene entsprechend einem zweiten Erfindungsaspekt sowohl unter Zuhilfenahme der HRTFs als auch unter Zuhilfenahme der hörraumoptimierten Übertragungsfunktionen als Raumklangsimulation wiedergegebenen werden. Bei der Wiedergabe wird mittels HRTFs die Räumlichkeit erzeugt, während mittels hörraumoptimierter Übertragungsfunktionen die Anpassung der Räumlichkeit an die aktuelle Hörraumsituation erreicht wird. In anderen Worten heißt es, dass die hörraumoptimierten Übertragungsfunktionen eine Anpassung bzw. Nachbearbeitung der HRTFs oder der durch die HRTFs bearbeiteten Signale vornimmt. Im Ergebnis kann so bei der Wiedergabe von Audioinhalten die Divergenz zwischen dem wiederzugebenden Raum, definiert durch das Mehrkanalaudiomaterial, und dem Abhörraum, in dem sich der Hörer befindet, reduziert werden.
  • Für die Ermittlung der hörraumoptimierten Übertragungsfunktionen gibt es unterschiedliche Möglichkeiten, nämlich entsprechend einer ersten Variante die messtechnische Ermittlung unter Zuhilfenahme einer Testschallquelle und eines Mikrofons, so dass die Raumakustik über eine Teststrecke in dem Abhörraum analysiert werden kann, um ein akustisches Model des Raums zu erhalten. Entsprechend einer zweiten Variante können auch natürlich vorkommende Geräusche, wie z.B. eine Stimme, als Testsignale genutzt werden. Die zweite Variante bietet insbesondere den Vorteil, dass praktisch jedes elektrische Endgerät mit einem Mikrofon, wie z.B. ein Mobiltelefon oder ein Smartphone, auf dem die oben beschrieben Funktionalität implementiert ist, ausreicht, um die Raumakustik zu ermitteln. Entsprechend einer dritten Variante kann die Analyse des Abhörraums bzw. die Ermittlung des akustischen Raummodels auf Basis von geometrischen Modellen erfolgen. Denkbar wäre es in diesem Zusammenhang auch, dass ein geometrisches Modell optisch, z.B. mit einer Kamera, die typischerweise auch in mobilen Endgeräten (wie Mobiltelefonen) integriert ist, erfasst wird, um so im Nachgang das akustische Modell des Abhörraums zu errechnen. Ausgehend von einem so ermittelten akustischen Raummodell können nun die hörraumoptimierten Übertragungsfunktionen bestimmt werden.
  • Entsprechend weiteren Ausführungsbeispielen kann nicht nur dem Abhörraum alleine Rechnung getragen werden, sondern auch einer Positionierung des Hörers in dem Abhörraum. Hintergrund hierzu ist, dass sich die Raumakustik bzw. akustische Wahrnehmung entsprechend ändert, je nachdem ob die Hörposition sich näher an der Wand befindet oder in welche Richtung der Hörer schaut. Somit kann entsprechend weiteren Ausführungsbeispielen eine Vielzahl an richtungsabhängigen und/oder positionsabhängigen Übertragungsfunktionen (Übertragungsfunktionen-Scharen) innerhalb der hörraumoptimierten Übertragungsfunktionen hinterlegt sein, die hier beispielsweise in Abhängigkeit von der Position des Hörers in dem Abhörraum oder von dem Blickwinkel des Hörers ausgewählt werden.
  • Auch in Bezug auf die hörraumoptimierte Übertragungsfunktionen ist es vorteilhaft, wenn in der Vorrichtung zur räumlichen Wiedergabe oder in der an die Vorrichtung angekoppelten Datenbank eine Vielzahl von hörraumoptimierten Übertragungsfunktionen-Scharen für unterschiedliche Abhörräume hinterlegt sind, so dass diese in Abhängigkeit davon, in welchem Raum der Hörer sich gerade befindet, abrufbar sind. Hierzu kann beispielsweise die Vorrichtung zur räumlichen Wiedergabe auch eine Positionsbestimmungsvorrichtung, wie z.B. ein GPS umfassen.
  • Entsprechend weiteren Ausführungsbeispielen ist es auch möglich, neben der oder parallel zu der Abhörraumcharakteristik dem wiederzugebenden Audiomaterial die entsprechende Charakteristik eines virtuellen Lautsprechersetups aufzuprägen, welches beispielsweise dem realen Lautsprechersetup in dem Abhörraum entspricht oder frei konfiguriert ist.
  • Weitere Ausführungsbeispiele beziehen sich auf die entsprechenden Verfahren zur Ermittlung der hörraumoptimierten Übertragungsfunktionen und zur Wiedergabe von Mehrkanal-Stereo-Audiosignalen (oder objektbasierten Audiosignalen oder WFS-Audiosignalen) unter Nutzung der hörraumoptimierten Übertragungsfunktionen.
  • Nachfolgende Ausführungsbeispiele werden anhand der beiliegenden Figuren im Detail erläutert. Es zeigen:
  • Fig. 1a
    ein schematisches Blockschaltbild einer Vorrichtung zur Ermittlung von für einen Abhörraum hörraumoptimierten Übertragungsfunktionen;
    Fig. 1b
    ein schematisches Flussdiagramm eines Verfahrens bei der Ermittlung hörraumoptimierter Übertragungsfunktionen;
    Fig. 2a
    ein schematisches Blockschaltbild einer Vorrichtung zur räumlichen Wiedergabe von Mehrkanal-Stereo-Audiomaterial unter Berücksichtigung hörraumoptimierter Übertragungsfunktionen;
    Fig. 2b
    ein schematisches Flussdiagramm für ein Verfahren zur räumlichen Wiedergabe von Mehrkanal-Stereo-Audiomaterial unter Berücksichtigung hörraumoptimierter Übertragungsfunktionen; und
    Fig. 3
    ein schematisches Blockschaltbild eines Systems zur Ermittlung und Nutzung von hörraumoptimierten Übertragungsfunktionen.
  • Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung anhand der beiliegenden Zeichnungen näher erläutert werden, sei darauf hingewiesen, dass gleiche Elemente oder gleichwirkende Elemente mit gleichen Bezugszeichen versehen sind, so dass die Beschreibung derer aufeinander anwendbar bzw. austauschbar ist.
  • Im Vorfeld zu der Beschreibung der Erfindung wird nachfolgend auf die Motivation bei der Erfassung und Auralisation der Raumakustik eines Abhörraums zur standortabhängigen räumlichen Tonwiedergabe über Kopfhörer eingegangen. In diesem Zusammenhang wird auch kurz auf die Binauralsynthese eingegangen und ein Überblick über die für die Binauralsynthese genutzten Außenohrübertragungsfunktionen (HRTFs) und die in den Außenohrübertragungsfunktionen enthaltenen, manipulierbaren Variablen gegeben. Anhand dieses Überblicks wird ferner auch aufgezeigt, inwieweit die HRTFs durch die zu ermittelnden hörraumoptimierten Übertragungsfunktionen TF angepasst werden, um den Raumakustikbedingungen erfindungsgemäß Rechnung zu tragen.
  • Die Binauralsynthese basiert darauf, dass ein Audiosignal vor Ausgabe über einen Schallwandler (bevorzugt direkt an einem der Ohren) mit einer bestimmten Filterfunktion bzw. HRTF gefiltert wird, wobei die Filtercharakteristik sich je Richtungsvektor bzw. je virtueller Schallquelle unterscheidet, um so Raumklang, z.B. bei Nutzung eines Kopfhörers, zu emulieren. Die Filterfunktionen/HRTFs sind den natürliche Schalllokalisierungsmechanismen des menschlichen Gehörs nachempfunden. Hierdurch ist es möglich, das Audiosignal in der analogen oder digitalen Domäne so zu bearbeiten bzw. diesem eine akustische Charakteristik aufzuprägen, als ob dieses von einer beliebigen Position im Raum ausgesendet wird. Die Mechanismen bei der Lokalisierung von Schall sind:
    • Erkennung der seitliche Einfallsrichtung;
    • Erkennung der Einfallsrichtung in der medialen Ebene; und
    • Erkennung der Entfernung.
  • Für die Lokalisierung in Bezug auf die seitliche Einfallsrichtung sind akustische Merkmale wie Laufzeitdifferenzen zwischen links/rechts und (frequenzabhängige) Pegeldifferenzen zwischen links/rechts maßgeblich. Bei den Laufzeitunterschieden kann insbesondere zwischen Phasenlaufzeit bei niedrigen Frequenzen und Gruppenlaufzeit bei hohen Frequenzen unterschieden werden. Diese Laufzeitunterschiede können über einen beliebigen Stereo-Treiber via Signalverarbeitung nachgebildet werden. Die Bestimmung der Einfallsrichtung in der medialen Ebene basiert insbesondere darauf, dass die Ohrmuschel und/oder dem Gehörgangseingang eine richtungsselektive Filterung des akustischen Signals durchführt. Diese Filterung ist frequenzselektiv, so dass ein Audiosignal vorab mit einem derartigen Frequenzfilter gefiltert werden kann, um eine bestimmte Einfallsrichtung vorzutäuschen bzw. eine Räumlichkeit zu emulieren. Die Bestimmung der Entfernung einer Schallquelle von dem Hörer basiert auf unterschiedlichen Mechanismen. Die Hauptmechanismen sind Lautstärke, frequenzselektiven Filterung des zurückgelegten Schallwegs, Schallreflexion und Anfangszeitlücke. Ein Großteil der oben genannten Faktoren ist personenindividuell. Personenindividuelle Variable können z.B. der Ohrenabstand sowie die Form der Ohrmuschel sein, die sich insbesondere auf die seitliche und die mediale Lokalisierung auswirkt. Durch Manipulation eines Audiosignals in Hinblick auf die genannten Mechanismen erfolgt die Raumklangemulation, wobei die Manipulationsparameter (je Raumrichtung und Entfernung) in den HRTFs hinterlegt sind.
  • Diese HRTFs (Außenohrübertragungsfunktionen) sind in erster Linie für die Freifeldschallausbreitung gedacht. Hintergrund hierzu ist, dass die oben genannten drei Faktoren zur Lokalisierung für die Anwendung in geschlossenen Räumen insoweit verfälscht werden, dass der von einer Schallquelle ausgesandte Schall nicht nur direkt, sondern auch in reflektierter Form (z.B. über Wände) zu dem Hörer gelangt, was eine Veränderung der akustischen Wahrnehmung zu Folge hat. In Räumen kommt es also zu Direktschall und zu (später eintreffenden) reflektierten Schall, wobei diese Schallarten für den Hörer beispielsweise anhand von Laufzeit für bestimmte Frequenzgruppen und/oder Position der sekundären Schallquelle im Raum differenzierbar sind. Diese (Hall-)Parameter sind ferner von der Raumgröße und Beschaffenheit (z.B. Dämpfung, Form) abhängig, sodass ein Hörer die Raumgröße und Beschaffenheit abschätzen kann. Da diese Raumakustikparameter grundsätzlich über dieselben Mechanismen wahrgenommen werden wie die der Lokalisierung, ist die Raumakustik ebenfalls binaural emulierbar. Zur Emulation der Raumakustik wird die HRTF mittels der RRTF zu der binauralen Raumimpulsantwort (BRIR) erweitert, die dem Hörer im Falle der Kopfhörerwiedergabe bestimmte akustische Raumbedingungen simuliert. So erfolgt je nach virtueller Raumgröße eine Veränderung des Hallverhaltens, einer Verschiebung von Sekundärschallquellen, eine Veränderung der Lautheit der Sekundärschallquellen, insbesondere in Relation zu der Lautheit der Primärschallquellen.
  • Wie eingangs bereits erwähnt, spielen beim Hörer auch kognitive Effekte eine große Rolle. Untersuchungen zu derartigen kognitiven Effekten haben ergeben, dass die Relevanz von Parametern wie dem Übereinstimmungsgrad zwischen dem Abhörraum und dem zu synthetisierendem Raum, das Zustandekommen einer plausiblen auditiven Illusion hoch sind. Der Fachmann spricht im Falle einer geringen Divergenz zwischen Abhörraum und wiederzugebendem Raum von geringer Externizität des Hörereignisses.
  • Motiviert hierdurch soll nun die Binauralsynthese derart erweitert werden, dass die binaurale Simulation einer auditiven Szene an den Kontext der Nutzung angepasst werden kann. Im Detail erfolgt eine Anpassung der Simulation an die Abhörbedingungen, wie beispielsweise an eine aktuelle Raumakustik (Dämpfung) und die Geometrie des Abhörraums. Hierzu können die Distanzwahrnehmung, die Wahrnehmung von Räumlichkeit und die Richtungswahrnehmung so variiert werden, dass sie in Bezug auf den aktuellen Abhörraum plausibel erscheinen. Variationsparameter sind beispielsweise die HRTF- bzw. RRTF-Merkmale, wie z.B. Laufzeitdifferenzen, Pegeldifferenzen, frequenzselektive Filterung oder Anfangszeitlücke. Die Anpassung erfolgt beispielsweise in der Art, dass eine Raumgröße mit einem bestimmten Hallverhalten (Nachhallverhalten bzw. Reflexionsverhalten) emuliert wird oder Abstände z.B. zwischen Hörer und Schallquelle auf einen Maximalwert begrenzt werden. Weiterer Einflussfaktor auf das Raumklangverhalten sind die Position des Nutzers in dem Abhörraum, da es in Hinblick auf Hall und Reflexion entscheidend ist, ob der Nutzer zentral im Raum oder in der Nähe einer Wand steht. Auch dieses Verhalten ist durch Anpassung der HRTF- bzw. RRTF-Parameter emulierbar. Nachfolgend wird erläutert, wie bzw. mit welchen Mitteln die Anpassung der HRTF- bzw. RRTF-Parameter vorgenommen wird, um die Plausibilität der akustischen Simulation Vorort zu verbessern.
  • Das Konzept zur Auralisation der Raumakustik umfasst in der grundlegenden Struktur zwei Bestandteile, die einerseits durch zwei unabhängige Vorrichtungen und andererseits durch zwei entsprechende Verfahren repräsentiert werden. Bezug nehmen auf Fig. 1a und 1b wird der erste Bestandteil, nämlich die Erfassung von hörraumoptimierten Übertragungsfunktionen TF erläutert, bevor Bezug nehmend auf Fig. 2a und 2b die Nutzung der hörraumoptimierten Übertragungsfunktionen TF erläutert werden.
  • Fig. 1a zeigt eine Vorrichtung 10 zur Ermittlung von für einen Abhörraum 12 optimierten Übertragungsfunktionen TF (Transfer Funktion). Zur Ermittlung der hörraumoptimierten Übertragungsfunktionen TF wird der Abhörraum 12 bzw. die Raumakustik desselben analysiert. Deshalb umfasst die Vorrichtung 10 eine Schnittstelle, z.B. wie hier illustriert eine Mikrofonschnittstelle (vgl. Bezugszeichen 14), zur Erfassung von hörraumbezogenen Daten. Da die hörraumoptimierte Übertragungsfunktionen TF, auf Basis welcher anschließend mittels Binauralsynthese einem akustischen Material die Abhörraumcharakteristik aufgeprägt werden soll, typischerweise derart ausgelegt wird, dass bereits vorhandene HRTFs angepasst werden, kann die Vorrichtung 10 die Übertragungsfunktionen TF unter Berücksichtigung der zu nutzenden HRTFs ermitteln. Insofern umfasst die Vorrichtung 10 optionaler Weise eine weitere Schnittstelle zum Einlesen bzw. zum Weiterleiten von HRTFs.
  • Nachfolgend werden ausgehend von der Vorrichtung 10 unterschiedliche Vorgehensweisen für die Ermittlung der Raumakustik erläutert, auf Basis welcher dann in einem nachgelagerten Schritt die hörraumoptimierte Übertragungsfunktionen TF bestimmt werden. Entsprechend einer ersten Variante ist die Erfassung der vorherrschenden raumakustischen Bedingungen des Abhörraums messtechnisch möglich. Beispielsweise wird durch ein akustisches Messverfahren die Raumakustik des Abhörraums 12 unter Zuhilfenahme der Vorrichtung 10 vermessen. Dazu wird dann ein Testsignal, ausgesendet über einen optionalen Lautsprecher (nicht dargestellt), verwendet. Die Wiedergabe des Testsignals bzw. die Ansteuerung des Lautsprechers kann hierbei über die Vorrichtung 10 erfolgen, wenn die Vorrichtung 10 hierzu eine Lautsprecherschnittstelle (nicht dargestellt) oder den Lautsprecher selbst umfasst. Das über den Lautsprecher in den Raum 12 abgestrahlte Messsignal wird mittels des Mikrofons 14 aufgezeichnet, so dass ausgehend von der Signalveränderung über die Messstrecke (zwischen Lautsprechermikrofon) die Raumakustik bestimmt werden kann, so dass zumindest eine hörraumoptimierte Übertragungsfunktion TF z.B. für eine Raumrichtung oder eine Mehrzahl an hörraumoptimierten Übertragungsfunktionen TF ableitbar ist. Aus der gemessenen Übertragungsfunktion aus einer Richtung werden für den Hörraum relevante raumakustische Parameter abgeleitet. Diese werden genutzt, um die hörraumoptimierten Übertragungsfunktionen TF für die anderen benötigten Richtungen zu generieren. Hierfür können bspw. durch Stauchung und/oder Streckung von Bereichen der Impulsantwort (Übertragungsfunktion im Zeitbereich) die diskreten ersten Reflexionen an andere Raumrichtungen und Distanz der abzubildenden virtuellen Schallquellenpositionen angepasst werden. Die für die Richtungswahrnehmung relevanten Informationen liegen in den HRTFs vor. Um die hörraumoptimierten Übertragungsfunktionen TF für alle Raumrichtungen oder in einer sehr hohen Genauigkeit zu ermitteln, kann es entsprechend weiteren Ausführungsbeispielen vorteilhaft sein, die Analyse mittels des Testsignals für unterschiedliche Positionen von Mikrofon 14 und Lautsprecher in dem Abhörraum 12 zu wiederholen.
  • Entsprechend einer weiteren Variante kann die Ermittlung der Raumakustik unter Verwendung von akustischen Signalen, die bereits durch den Abhörraum 12 verhalt sind, geschätzt werden. Beispiele für derartige Signale sind die sowieso vorhandenen Umgebungsgeräusche, wie auch ein Sprachsignal eines Nutzers. Die hierzu eingesetzten Algorithmen leiten sich aus Algorithmen zur Entfernung von Nachhall aus einem Sprachsignal ab. Hintergrund hierzu ist, dass typischerweise bei den Enthallungsalgorithmen eine Schätzung über die auf dem zu enthallenden Signal liegenden Raumübertragungsfunktion erfolgt. Bis dato werden diese Algorithmen dazu genutzt, um ein Filter zu bestimmen, welches angewendet auf das Originalsignal möglichst das unverhallte Signal zum Ergebnis hat. In der Anwendung bei der Analyse der Raumakustik wird die Filterfunktion nicht bestimmt, sondern nur ein Schätzverfahren dazu verwendet, die Eigenschaften des Abhörraums zu erkennen. Auch bei diesem Vorgehen kommt wiederum das Mikrofon 14, welches an die Vorrichtung 10 angekoppelt ist, zum Einsatz.
  • Entsprechend einer dritten Variante kann die Raumakustik basierend auf geometrischen Raumdaten simuliert werden. Dieses Vorgehen basiert darauf, dass geometrische Daten (z.B. Kantenabmessungen, freie Weglänge) eines Raumes 12 es ermöglichen, die Raumakustik abzuschätzen. Die Raumakustik des Raums 12 kann entweder direkt simuliert werden oder basierend auf raumakustischen Filterdatenbank, die akustische Vergleichsmodelle umfassen, näherungsweise bestimmt werden. In diesem Zusammenhang sind beispielsweise Verfahren wie das akustische Ray Tracing oder das Spiegelschallquellenverfahren in Verbindung mit einem Diffusschallmodell zu nennen. Die beiden genannten Verfahren setzen auf geometrischen Modellen des Abhörraums auf. Insofern muss die oben erläuterte Schnittstelle zur Erfassung von hörraumbezogenen Daten der Vorrichtung 10 nicht zwingendermaßen eine Mikrofonschnittstelle sein, sondern kann auch allgemein als Datenschnittstelle bezeichnet werden, die zum Einlesen von Geometriedaten dient. Ferner ist es auch möglich, dass weitere Daten über die Raumakustik hinaus mittels der Schnittstelle eingelesen werden, die beispielsweise Informationen über ein in dem Abhörraum vorhandenes Lautsprechersetup umfassen.
  • Zur Akquise der geometrischen Raumdaten sind mehrere Möglichkeiten denkbar: Entsprechend einer ersten Untervariante können die Daten aus einer Geometriedatenbank, wie z.B. Google Maps Inhouse entnommen werden. Diese Datenbanken umfassen typischerweise geometrische Modelle, wie z.B. Vektormodelle von Raumgeometrien, ausgehend von welchen in erster Linie die Abstände, aber auch Reflektionscharakteristika bestimmbar sind. Entsprechend einer weiteren Untervariante kann auch eine Bilddatenbank als Input genutzt werden, wobei dann im Nachgang mittels Bilderkennung die geometrischen Parameter in einem Zwischenschritt bestimmt werden. Entsprechend einer alternativen Untervariante wäre es auch möglich, anstatt Bildinformationen einer Bilddatenbank zu entnehmen, die Bildinformationen auch mittels einer Kamera oder allgemein eines optischen Sensors zu ermitteln, so dass direkt durch den Nutzer ein geometrisches Modell ermittelt werden kann. Ausgehend von der auf Basis von Bilddaten ermittelten Raumgeometrie kann dann analog zum vorherigen Punkt die Raumakustik simuliert werden.
  • Mittels diesen so simulierten Raumakustikmodellen werden in einem nachgelagerten Schritt für zumindest einen, bevorzugterweise für eine Vielzahl von Räumen, die hörraumoptimierten Übertragungsfunktionen TF abgeleitet. Die Ableitung der hörraumoptimierten Übertragungsfunktionen TF, welche hinsichtlich ihrer Parameter mit den RRTFs vergleichbar ist, entspricht im Prinzip der Bestimmung einer Filterfunktion (je Raumrichtung), mittels welcher das akustische Verhalten im Raum, z.B. bei der Schallausbreitung in einer bestimmten Raumrichtung, nachbildbar ist. Die hörraumspezifischen Übertragungsfunktionen TF je Raum umfassen typischerweise eine Vielzahl an Übertragungsfunktionen, mittels welchen die Außenohrübertragungsfunktionen (zugeordnet zu einzelne Raumwinkeln) entsprechend (vergleichbar zu dem Vorgehen bei der Verarbeitung der Raumimpulsantwort) angepasst werden können. Die Anzahl an hörraumoptimierten Übertragungsfunktionen TF richtet sich deshalb typischerweise nach der Anzahl der Außenohrübertragungsfunktionen, die als Funktionsschar vorkommen und eine Vielzahl, nämlich für links/rechts und für die relevanten Richtungen besteht. Die genaue Anzahl an Außenohrübertragungsfunktionen im HRTF-Modell richtet sich nach der gewünschten Raumauflösungsfähigkeit und kann aufgrund dessen, dass auch HRTF-Modelle existieren, bei denen eine Großzahl der Richtungsvektoren mittels Interpolation ermittelt werden, erheblich variieren. Aus diesem Zusammenhang wird ersichtlich, warum es sinnvoll ist, dass die Vorrichtung zur Ermittlung der hörraumoptimierten Übertragungsfunktion TF das HRTF-Modell mit verwendet. In einem weiteren Schritt werden die ermittelten hörraumoptimierten Übertragungsfunktionen TF z.B. in einer raumakustischen Filterdatenbank, gespeichert.
  • Entsprechend einem weiteren Ausführungsbeispiel kann auch je Abhörraum auch eine Vielzahl an hörraumoptimierten Übertragungsfunktionen-Scharen (TF) ermittelt und gespeichert werden, wodurch Rechnung getragen wird, dass die Abhörraumfunktionen bzw. das akustische Verhalten im Abhörraum je nach Position des Hörers unterschiedlich ist. In anderen Worten ausgedrückt heißt es also, dass je (möglicher) Position des Nutzers in dem Abhörraum 12 eine eigene hörraumoptimierte Übertragungscharakteristik ermittelbar ist, wobei die Ermittlung derselben auf ein und demselben akustischen Modell des Abhörraums 12 basieren kann. Infolgedessen ist vorteilhafterweise die Analyse des Abhörraums nur einmal durchzuführen. Entsprechend einem weiteren Ausführungsbeispiel können auch je Raumrichtung in welche der Nutzer schaut unterschiedliche raumoptimierte Übertragungsfunktionen-Scharen (TF) ermittelt werden.
  • Die oben beschriebene Vorrichtung 10 kann unterschiedlich ausgeführt sein. Entsprechend bevorzugten Ausführungsbeispielen ist die Vorrichtung 10 als mobiles Gerät ausgeführt, wobei dann der Sensor 14, wie z.B. das Mikrofon oder die Kamera, entsprechend integriert sein kann. D.h. also, dass sich weitere Ausführungsbeispiele auf eine Vorrichtung zur Bestimmung der hörraumoptimierten Übertragungsfunktion TF beziehen, die einerseits die Analyseeinheit 10 und andererseits ein Mikrofon und/oder eine Kamera umfassen. Hierbei kann die Analyseeinheit 10 beispielsweise als Hardware implementiert oder Software-basiert ausgeführt sein. Also umfassen Ausführungsbeispiele der Vorrichtung 10 eine interne oder via Cloudcomputing angebundene CPU oder eine andere Logik, die ausgebildet ist, um die Ermittlung von hörraumoptimierten Übertragungsfunktionen TF und/oder die Hörraumanalyse durchzuführen. Nachfolgend wird Bezug nehmend auf Fig. 1b das Verfahren bzw. insbesondere die Grundschritte des Verfahrens, auf welchen der Algorithmus für Software-implementierte Ermittlung von hörraumoptimierten Übertragungsfunktionen TF basiert, erläutert.
  • Fig. 1b zeigt ein Flussdiagramm 100 des Verfahrens bei der Ermittlung der für einen hörraumoptimierten Übertragungsfunktionen TF. Das Verfahren 100 umfasst den zentralen Schritt 110 des Ermitteins der hörraumoptimierten Übertragungsfunktionen TF. Wie oben bereits erläutert, basiert der Schritt 110 auf der Analyse der Raumakustik 120 (vgl. Schritt 120 "Raumakustik analysieren") und optionaler Weise auch auf vorhandenen HRTF-Funktionen. Ausgehend von dem Schritt 110 kann ein weiterer optionaler Schritt, nämlich des Speicherns der Übertragungsfunktionen TF folgen. Dieser Schritt ist mit dem Bezugszeichen 130 versehen.
  • Entsprechend weiteren Ausführungsbeispielen wäre es bei dem im Rahmen der Fig. 1a und 1b erläuterten Ausführungsbeispielen auch denkbar, dass gleichsam mit dem Ermitteln der hörraumoptimierten Übertragungsfunktionen TF auch eine Bestimmung der Position des Abhörraums erfolgt, so dass der so erhaltene Datensatz über die Position direkt dem Abhörraum zugeordnet werden kann. Dies bietet den Vorteil, dass im Fall des späteren Abrufens der hörraumoptimierten Übertragungsfunktionen TF aus einer Datenbank eine Zuordnung des jeweiligen Datensatzes ausgehend von einer Positionsbestimmung möglich ist.
  • Nachfolgend wird Bezug nehmend auf Fig. 2a und 2b die Nutzung der eben ermittelten hörraumoptimierten Übertragungsfunktionen TF erläutert.
  • Fig. 2a zeigt eine Vorrichtung zur räumlichen Wiedergabe 20 unter Zuhilfenahme eines binauralen Nahbereichsschallwandlers 22. Die Funktionalität der Vorrichtung 20 wird unter anderem unter Zuhilfenahme des Flussdiagramms aus Fig. 2b, welches das Verfahren 200 der Wiedergabe illustriert, erläutert. Die Vorrichtung 20 ist dazu ausgebildet, das Audiosignal 24, wie z.B. ein Mehrkanal-Stereo-Audiosignal (oder ein objektbasiertes Audiosignal oder ein Audiosignal auf Basis eines Wellenfeldsynthese-Algorithmus (WFS)) wiederzugeben, und um gleichzeitig Raumklang zu emulieren (vgl. Schritt 210). Hierzu führt die Wiedergabevorrichtung 20 eine Bearbeitung des Audiosignals unter Zuhilfenahme von HRTFs und unter Zuhilfenahme der hörraumoptimierten Übertragungsfunktionen TF durch.
  • Die Vorrichtung 20 kann einen HRTF-/TF-Speicher umfassen oder ist beispielsweise mit einer Datenbank verbunden, auf welche die HRTFs, wie auch die entsprechend obigen Verfahren ermittelten hörraumoptimierten Übertragungsfunktionen TF gespeichert sind. Entsprechend bevorzugten Ausführungsbeispielen erfolgt vor der Signalverarbeitung des Audiosignals ein Kombinieren (vgl. Schritt 220) der HRTF mit der TF bzw. ein Anpassen der HRTF auf Basis der TF. Das Ergebnis dieses Kombinierens ist eine mit der BRIR (Raumimpulsantwort) vergleichbare Übertragungsfunktion BRIR', mit welcher dann schlussendlich das Audiosignal 24 bearbeitet wird, um den Raumklang zu emulieren (vgl. Schritt 210). Diese Bearbeitung entspricht im Prinzip einem Anwenden eines BRIR'-basierten Filters auf das Audiosignal. Somit ist es also möglich, Binauralsynthese in Kombination mit der Verhallung der Audiosignale in Abhängigkeit von den in dem Abhörraum vorherrschenden akustischen Bedingungen durchzuführen, so dass bei der Wiedergabe ein hoher Grad an Übereinstimmung zwischen dem synthetisierten Raum und dem Abhörraum entsteht. Folglich stimmt der synthetisierte Raum (zumindest annährend) mit dem Erwartungshorizont des Nutzers überein, was die Plausibilität der Szene erhöht.
  • Entsprechend Ausführungsbeispielen kann die Vorrichtung 20 auch die Positionsbestimmungseinheit, wie z.B. einem GPS-Empfänger, umfassen, mittels welcher die aktuelle Position des Hörers feststellbar ist. Ausgehend von der festgestellten Position kann nun der Abhörraum ermittelt werden und die dem Abhörraum zugeordnete hörraumoptimierte Übertragungsfunktionen TF geladen (und ggf. bei einem Raumwechsel aktualisiert) werden. Optional ist es auch möglich, mittels dieser Positionsbestimmungseinrichtung die Position des Hörers in dem Abhörraum zu ermitteln, um hier auch noch, sofern gespeichert, die Unterschiede in der Akustik in Abhängigkeit von der Position des Hörers in dem Raum darzustellen. Diese Positionsbestimmungseinheit kann entsprechend dritten Ausführungsbeispielen auch durch eine Orientierungsbestimmungseinheit erweitert werden, so dass auch die Blickrichtung des Hörers bestimmbar ist und die TFs in Abhängigkeit von der bestimmten Blickrichtung entsprechend geladen werden, um der richtungsabhängigen Abhörraumakustik gerecht zu werden.
  • Ausgehend von dieser Basisbetrachtung der zwei Einheiten 10 und 20 wird nun ein erweitertes Ausführungsbeispiel von Fig. 3 erläutert. Fig. 3 zeigt eine schematische Darstellung des Signalflusses beim Abhören von angepassten raumakustischen Simulationen zur Verwendung mit der Binauralsynthese ausgehend von einem System10 + 20, welches die Vorrichtung zur Bestimmung der TFs und die Vorrichtung zur Wiedergabe der Audiosignale unter Nutzung der TFs umfasst.
  • Eine derartiges System 10 + 20 kann beispielsweise als mobiles Endgerät (z.B. als Smartphone) implementiert sein, auf dem auch die wiederzugebende Datei gespeichert ist. Das System 10 + 20 ist prinzipiell eine Kombination der Vorrichtung 10 aus Fig. 1a und der Vorrichtung 20 aus Fig. 1b, wobei die einzelnen Bestandteile zur funktionsorientierten Erläuterung anders untergliedert sind.
  • Das System 10 + 20 umfasst eine Funktionseinheit zur Auralisation des Abhörraums 20a und eine Funktionseinheit zur Binauralsynthese 20b. Ferner umfasst das System 10 + 20 einen Funktionsblock 10a zur Modellierung der Raumakustik und einen Funktionsblock 10b zur Modellierung des Übertragungsverhaltens. Die Modellierung der Raumakustik basiert wiederum auf einer Erfassung des Abhörraums, welche mit dem Funktionsblock 10c zur Erfassung der Raumakustik durchgeführt wird. Des Weiteren umfasst das System 10 + 20 in der dargestellten Ausführungsform zwei Speicher, nämlich einen zur Speicherung von Szenenpositionsdaten 30a und einen zur Speicherung von HRTF-Daten 30b. Nachfolgend wird ausgehend von dem Informationsfluss bei der Wiedergabe die Funktionalität des Systems 10 + 20 erläutert, wobei davon ausgegangen wird, dass der Abhörraum dem System 10 + 20 bekannt ist oder mittels eines Positionsbestimmungsverfahrens (vgl. oben) bereits bestimmt ist.
  • Bei der Wiedergabe von kanalbasierten bzw. objektbasierten Audiodaten 24 mit dem Kopfhörer 22 werden die Audiodaten in einem ersten Schritt der Signalverarbeitungseinheit 20a zugeführt, die die vorher modellierte Raumübertragungsfunktion TF auf das Signal 24 anwendet und dieses verhallt. Die Modellierung der Raumübertragungsfunktion TF erfolgt in einem Signalverarbeitungsblock 10a, wobei diese Modellierung durch das Modellierungsübertragungsverhalten (vgl. Funktionsblock 10b) überlagert sein kann, wie nachfolgend erläutert wird.
  • Dieser zweite (optionale) Funktionsblock 10b modelliert ein virtuelles Lautsprechersetup in dem jeweiligen Abhörraum. So kann also dem Nutzer ein akustisches Verhalten emuliert werden, als ob die abzuspielende Audiodatei auf einem bestimmten Lautsprechersetup (2.0, 5.1, 9.2) wiedergegeben wird. Hierbei ist dann insbesondere die Lautsprecherposition fix mit dem Abhörraum verbunden und den jeweiligen Lautsprechern auch ein bestimmtes Übertragungsverhalten, z.B. definiert durch die Frequenzgang und Richtungscharakteristik oder unterschiedliche Pegelverhalten, zugeordnet. Hier ist es auch möglich, besondere Schallquellentypen, z.B. eine Spiegelschallquelle fix im Raum zu positionieren. Das Lautsprechersetup wird auf Basis der Szenenpositionsdaten modelliert, die Information über die Position, den Abstand oder auch den Typ des virtuellen Lautsprechers umfassen. Diese Szenenpositionsdaten können einem real vorhandenen Lautsprechersetup entsprechen, oder auf Basis eines virtuellen Lautsprechersetups basieren und sind typischerweise durch den Nutzer individualisierbar.
  • Nach der Verhallung in der Auralisationsverarbeitungseinheit 20a werden die verhallten Signale der Binauralsynthese 20b zugeführt, die durch einen Satz richtungsgebender HRTF-Filter (vgl. 30b) die Richtung der virtuellen Lautsprecher auf das dem Lautsprecher zugehörigen Audiomaterial aufprägen. Das Binauralsynthesesystem kann, wie bereits oben erläutert, optionaler Weise die Kopfdrehung des Hörers auswerten. Das Resultat ist ein Kopfhörersignal, was durch eine entsprechende Entzerrung auf einen speziellen Kopfhörer angepasst werden kann, wobei sich das akustische Signal so verhält, als ob es mit einem spezifischen Lautsprechersetup in dem jeweiligen Abhörraum abgegeben wurde.
  • Das System 10 + 20 kann beispielsweise als mobiles Endgerät oder aus Komponenten einer Heimkinoanlage ausgeführt sein. Im Allgemeinen sind Anwendungsgebiete die Wiedergabe von Musik und Entertainmentinhalten, wie z.B. Ton für Film oder Spielton über den binauralen Nahbereichsschallwandler.
  • An dieser Stelle sei angemerkt, dass entsprechend einem alternativen Ausführungsbeispiel die Vorrichtung 20 aus Fig. 2a ebenfalls so ausgelegt sein kann, auf Basis von Szenenpositionsdaten ein bestimmtes Lautsprechersetup bzw. die Wiedergabe eines Audiosignals für ein bestimmtes Lautsprechersetup zu emulieren. Entsprechend kann auch gemäß einem weiteren Ausführungsbeispiel die Vorrichtung 10 dazu ausgebildet sein, die Szenenpositionsdaten eines Lautsprechersetups in dem Abhörraum 12 (z.B. über eine akustische Messung) zu ermitteln, so dass dieses Lautsprechersetup mit der Vorrichtung 20 emuliert werden kann.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder eine elektronische Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Ein erfindungsgemäß codiertes Signal, wie beispielsweise ein Audiosignal oder ein Videosignal oder ein Transportstromsignal, kann auf einem digitalen Speichermedium gespeichert sein oder kann auf einem Übertragungsmedium wie beispielsweise einem drahtlosen Übertragungsmedium oder einem verdrahteten Übertragungsmedium, z.B. dem Internet, übertragen werden
  • Das erfindungsgemäße kodierte Audiosignal kann auf einem digitalen Speichermedium gespeichert sein, oder kann auf einem Übertragungsmedium, wie beispielsweise einem drahtlosen Übertragungsmedium oder einem drahtgebundenen Übertragungsmedium, wie beispielsweise dem Internet, übertragen werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (15)

  1. Vorrichtung (10) zur Ermittlung von für einen Abhörraum (12) hörraumoptimierten Übertragungsfunktionen (TF), die für den Abhörraum (12) abgeleitet sind und welche zur hörraumoptimierten Nachbearbeitung von Audiosignalen (24) bei der räumlichen Wiedergabe dienen, wobei die räumliche Wiedergabe der Audiosignale (24) mittels eines binauralen Nahbereichsschallwandlers (22) unter Zuhilfenahme von bekannten Außenohrübertragungsfunktionen (HRTF) und unter Zuhilfenahme der hörraumoptimierten Übertragungsfunktionen (TF) emuliert wird,
    wobei basierend auf den Außenohrübertragungsfunktionen (HRTF) ein zu synthetisierender Raum emulierbar ist und wobei basierend auf den hörraumoptimierten Übertragungsfunktionen (TF) der Abhörraum (12) emulierbar ist,
    wobei die Vorrichtung (10) ausgebildet ist, um eine Raumakustik des Abhörraums (12) zu analysieren und um ausgehend von der Analyse der Raumakustik die hörraumoptimierten Übertragungsfunktionen (TF) für den Abhörraum (12), in welchem die räumliche Wiedergabe mittels des binauralen Nahbereichsschallwandlers (22) erfolgen soll, zu ermitteln,
    wobei die Vorrichtung (10) einen Speicher umfasst, in welchem eine Mehrzahl an hörraumoptimierten Übertragungsfunktionen-Scharen (TF) für eine Mehrzahl an Abhörräumen (12) hinterlegbar ist,
    dadurch gekennzeichnet, dass die hörraumoptimierten Übertragungsfunktionen (TF) je Raum eine Vielzahl an Übertragungsfunktionen, zugeordnet zu einzelnen Raumwinkeln, umfassen, wobei jeder Raumwinkel eine Schallausbreitungsrichtung im Raum darstellt.
  2. Vorrichtung (10) gemäß Anspruch 1, wobei die Vorrichtung (10) ein Mikrophon (14) einer tragbaren Vorrichtung zur akustischen Messung umfasst und/oder wobei die Analyse der Raumakustik des Abhörraums (12) mittels akustischer Messung in dem Abhörraum (12) unter Zuhilfenahme von Umgebungsgeräuschen und/oder unter Zuhilfenahme von einem Testsignal erfolgt.
  3. Vorrichtung (10) gemäß Anspruch 1, wobei die Analyse de der Raumakustik des Abhörraums (12) auf Berechnung eines geometrischen Modells des Abhörraums (12) und/oder auf Modellierung des geometrischen Modells basierend auf einem kamerabasierten Modell des Abhörraums (12) basiert.
  4. Vorrichtung (10) gemäß Anspruch 2 oder 3, wobei die hörraumoptimierten Übertragungsfunktionen (TF) so gewählt sind, dass auf Basis dieser eine Raumakustik des Abhörraums (12) emulierbar ist.
  5. Vorrichtung (10) gemäß einem der Ansprüche 1 bis 4, wobei die Vorrichtung (10) ausgebildet ist, die hörraumoptimierten Übertragungsfunktionen (TF) unter Berücksichtigung eines virtuellen Lautsprechersetups zu ermitteln, entsprechend welchem eine Anzahl virtueller Lautsprecher in dem Abhörraum (12) positioniert ist.
  6. Vorrichtung (10) gemäß einem der Ansprüche 1 bis 5, wobei die bekannten Außenohrübertragungsfunktionen (HRTF) eine Vielzahl an einzelnen Übertragungsfunktionen (TF) für das linke und das rechte Ohr umfassen, die richtungsgebundenen Vektoren für eine Vielzahl von virtuellen Schallquellen zugeordnet sind.
  7. Vorrichtung (10) gemäß einem der Ansprüche 1 bis 6, wobei das Emulieren der räumlichen Wiedergabe auf interauralen Merkmalen, Balance-Merkmalen und Abstands-Merkmalen basiert,
    wobei die interauralen Merkmale einen Zusammenhang zwischen einer Einfallsrichtung in der medialen Ebene und einer individuellen oder nicht-individuellen Außenohrfilterung umfassen, wobei die Balance-Merkmale einen Zusammenhang zwischen einer seitlichen Einfallsrichtung und einer Lautstärkedifferenz und/oder einen Zusammenhang zwischen der seitlichen Einfallsrichtung und einer Laufzeitdifferenz umfassen, wobei die Entfernungs-Merkmale einen Zusammenhang zwischen einer virtuellen Entfernung und einer frequenzabhängigen Filterung und/oder einen Zusammenhang zwischen der virtuellen Entfernung und einer Anfangszeitlücke und/oder einen Zusammenhang zwischen der virtuellen Entfernung und einem Reflexionsverhalten umfassen.
  8. Vorrichtung (10) gemäß einem der Ansprüche 1 bis 7, wobei die binaurale Nahbereichsschallwandler (22) ein Kopfhörer ist, der ausgebildet ist, ein Mehrkanal-Stereo-Signal, ein objektbasiertes Audiosignal (24) und/oder ein Audiosignal (24) auf Basis eines Wellenfeldsynthese-Algorithmus als Audiosignal (24) auszugeben.
  9. Verfahren (100) zur Ermittlung von für einen Abhörraum (12) hörraumoptimierten Übertragungsfunktionen (TF), die für den Abhörraum (12) abgeleitet sind und welche zur hörraumoptimierten Nachbearbeitung von Audiosignalen (24) bei der räumlichen Wiedergabe dienen können, wobei die räumliche Wiedergabe der Audiosignale (24) mittels eines binauralen Nahbereichsschallwandlers (22) unter Zuhilfenahme von bekannten Außenohrübertragungsfunktionen (HRTF) und unter Zuhilfenahme der hörraumoptimierten Übertragungsfunktionen (TF) emuliert wird, wobei basierend auf den Außenohrübertragungsfunktionen (HRTF) ein zu synthetisierender Raum emulierbar ist und wobei basierend auf den hörraumoptimierten Übertragungsfunktionen (TF) der Abhörraum (12) emulierbar ist,
    mit den Schritten:
    Analysieren (120) einer vorherrschenden Raumakustik des Abhörraums (12); und
    Ermitteln (110) der hörraumoptimierten Übertragungsfunktionen (TF) für den Abhörraum (12), in welchem die räumliche Wiedergabe mittels des binauralen Nahbereichsschallwandlers (22) erfolgen soll, auf Basis der Analyse der Raumakustik;
    Hinterlegen einer Mehrzahl an hörraumoptimierten ÜbertragungsfunktionenScharen (TF) für eine Mehrzahl an Abhörräumen (12) in einen Speicher,
    dadurch gekennzeichnet, dass die hörraumoptimierten Übertragungsfunktionen (TF) je Raum eine Vielzahl an Übertragungsfunktionen, zugeordnet zu einzelnen Raumwinkeln, umfassen, wobei jeder Raumwinkel eine Schallausbreitungsrichtung im Raum darstellt.
  10. Vorrichtung (20) zur räumlichen Wiedergabe eines Audiosignals (24) mittels eines binauralen Nahbereichsschallwandlers (22), wobei die räumliche Wiedergabe unter Zuhilfenahme von bekannten Außenohrübertragungsfunktionen (HRTF) und unter Zuhilfenahme von für einen Abhörraum (12) hörraumoptimierten Übertragungsfunktionen (TF) emuliert wird,
    wobei basierend auf den Außenohrübertragungsfunktionen (HRTF) ein zu synthetisierender Raum emulierbar ist und wobei basierend auf den hörraumoptimierten Übertragungsfunktionen (TF) der Abhörraum (12) emulierbar ist,
    wobei die hörraumoptimierte Übertragungsfunktionen (TF) im Vorfeld für den jeweiligen Abhörraum (12) ermittelt sind; wobei die Vorrichtung (20) einen ersten Speicher, in welchem eine erste Vielzahl an Übertragungsfunktionen-Scharen (TF) für unterschiedliche Abhörräume (12) gespeichert ist, und eine Positionsbestimmungseinheit umfasst,
    wobei die Positionsbestimmungseinheit ausgebildet ist, um die Position zu bestimmen und anhand der bestimmten Position den Abhörraum (12) zu ermitteln; und
    wobei die Vorrichtung (20) ausgebildet ist, um für die Emulierung der räumlichen Wiedergabe die entsprechenden Übertragungsfunktionen (TF) für den jeweiligen Abhörraum (12) aus den Übertragungsfunktionen-Scharen auszuwählen,
    dadurch gekennzeichnet, dass die hörraumoptimierten Übertragungsfunktionen (TF) je Raum eine Vielzahl an Übertragungsfunktionen, zugeordnet zu einzelnen Raumwinkeln, umfassen, wobei jeder Raumwinkel eine Schallausbreitungsrichtung im Raum darstellt.
  11. Vorrichtung (20) gemäß einem der Ansprüche 10, wobei die Vorrichtung (20) einen zweiten Speicher, in welchem eine zweite Vielzahl an Übertragungsfunktionen-Scharen (TF) für unterschiedliche Orientierungen gespeichert ist, und eine Orientierungsbestimmungseinheit umfasst,
    wobei die Orientierungsbestimmungseinheit ausgebildet ist, um eine Orientierung in dem Abhörraum (12) zu ermitteln, und
    wobei die Vorrichtung (20) ausgebildet ist, um für die Emulierung der räumlichen Wiedergabe die entsprechenden Übertragungsfunktionen (TF) für die jeweilige Orientierung aus den Übertragungsfunktionen-Scharen auszuwählen; und/oder wobei die Vorrichtung (20) einen dritten Speicher, in welchem eine dritte Vielzahl an Übertragungsfunktionenscharen (TF) für unterschiedliche Positionen in dem Abhörraum (12) gespeichert ist, und eine weitere Positionsbestimmungseinheit umfasst,
    wobei die weitere Positionsbestimmungseinheit ausgebildet ist, um eine Position in dem Abhörraum (12) zu ermitteln, und
    wobei die Vorrichtung (20) ausgebildet ist, um für die Emulierung der räumlichen Wiedergabe die entsprechenden Übertragungsfunktionen (TF) für die jeweilige Position in dem Abhörraum (12) aus den Übertragungsfunktionen-Scharen auszuwählen; und/oder
    wobei die Positionsbestimmungseinheit ausgebildet ist, um während der Wiedergabe die Positionen neu zu bestimmen, und wobei die Vorrichtung (20) ausgebildet ist, um basierend auf der aktualisierten Position die hörraumoptimierten Übertragungsfunktionen (TF) zu aktualisieren.
  12. Verfahren (200) zur räumlichen Wiedergabe eines Audiosignals (24) mittels eines binauralen Nahbereichsschallwandlers (22), mit den Schritten:
    Nachbearbeiten (210) des Audiosignals (24) unter Zuhilfenahme von bekannten Außenohrübertragungsfunktionen (HRTF) und unter Zuhilfenahme von für einen Abhörraum (12) hörraumoptimierten Übertragungsfunktionen (TF), welche für den Abhörraum (12), in welchem die Wiedergabe mittels des binauralen Nahbereichsschallwandlers (22) erfolgen soll, im Vorfeld ermittelt sind, wobei basierend auf den Außenohrübertragungsfunktionen (HRTF) ein zu synthetisierender Raum emulierbar ist und wobei basierend auf den hörraumoptimierten Übertragungsfunktionen (TF) der Abhörraum (12) emulierbar ist;
    Speichern einer erste Vielzahl an Übertragungsfunktionen-Scharen (TF) für unterschiedliche Abhörräume (12) in einem ersten Speicher;
    Bestimmen einer Position; und
    Ermitteln des Abhörraums (12) anhand der Position,
    wobei die Vorrichtung (20) ausgebildet ist, um für die Emulierung der räumlichen Wiedergabe die entsprechenden Übertragungsfunktionen (TF) für den jeweiligen Abhörraum (12) aus den Übertragungsfunktionen-Scharen auszuwählen,
    dadurch gekennzeichnet, dass die hörraumoptimierten Übertragungsfunktionen (TF) je Raum eine Vielzahl an Übertragungsfunktionen, zugeordnet zu einzelnen Raumwinkeln, umfassen, wobei jeder Raumwinkel eine Schallausbreitungsrichtung im Raum darstellt,.
  13. Verfahren (200) gemäß Anspruch 12, wobei vor der Wiedergabe ein Kombinieren (220) der Außenohrübertragungsfunktionen (HRTF) und der hörraumoptimierten Übertragungsfunktionen (TF) zu einer Raumbezogenen Raumimpulsantwort (BRIR') erfolgt.
  14. System (10 + 20), umfassend:
    eine Vorrichtung (10) gemäß einem der Ansprüche 1 bis 8; und
    eine Vorrichtung (20) gemäß einem der Ansprüche 10 bis 11.
  15. Computerprogramm mit einem Programmcode, der die Durchführung des Verfahrens (100; 200) nach Anspruch 9 oder 12 bewirkt, wenn das Programm auf einem Computer, einer CPU oder einem mobilen Endgerät abläuft.
EP15724972.3A 2014-05-28 2015-05-15 Ermittlung und nutzung hörraumoptimierter übertragungsfunktionen Active EP3149969B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014210215.4A DE102014210215A1 (de) 2014-05-28 2014-05-28 Ermittlung und Nutzung hörraumoptimierter Übertragungsfunktionen
PCT/EP2015/060792 WO2015180973A1 (de) 2014-05-28 2015-05-15 Ermittlung und nutzung hörraumoptimierter übertragungsfunktionen

Publications (2)

Publication Number Publication Date
EP3149969A1 EP3149969A1 (de) 2017-04-05
EP3149969B1 true EP3149969B1 (de) 2019-09-18

Family

ID=53268781

Family Applications (1)

Application Number Title Priority Date Filing Date
EP15724972.3A Active EP3149969B1 (de) 2014-05-28 2015-05-15 Ermittlung und nutzung hörraumoptimierter übertragungsfunktionen

Country Status (7)

Country Link
US (1) US10003906B2 (de)
EP (1) EP3149969B1 (de)
JP (1) JP6446068B2 (de)
KR (1) KR102008771B1 (de)
CN (1) CN106576203B (de)
DE (1) DE102014210215A1 (de)
WO (1) WO2015180973A1 (de)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2546504B (en) * 2016-01-19 2020-03-25 Facebook Inc Audio system and method
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
US10042595B2 (en) 2016-09-06 2018-08-07 Apple Inc. Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
US10187740B2 (en) * 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US11170139B1 (en) * 2017-05-31 2021-11-09 Apple Inc. Real-time acoustical ray tracing
CN109286889A (zh) * 2017-07-21 2019-01-29 华为技术有限公司 一种音频处理方法及装置、终端设备
DK3454578T3 (da) * 2017-09-06 2021-01-04 Sennheiser Communications As Kommunikationssystem til kommunikation af audiosignaler mellem en flerhed af kommunikationsanordninger i et virtuelt lydmiljø
WO2019079523A1 (en) * 2017-10-17 2019-04-25 Magic Leap, Inc. SPACE AUDIO WITH MIXED REALITY
US10390171B2 (en) * 2018-01-07 2019-08-20 Creative Technology Ltd Method for generating customized spatial audio with head tracking
US10764703B2 (en) 2018-03-28 2020-09-01 Sony Corporation Acoustic metamaterial device, method and computer program
EP3547305B1 (de) * 2018-03-28 2023-06-14 Fundació Eurecat Nachhalltechnik für audio-3d
US11617050B2 (en) 2018-04-04 2023-03-28 Bose Corporation Systems and methods for sound source virtualization
CN112567767B (zh) * 2018-06-18 2023-01-03 奇跃公司 用于交互式音频环境的空间音频
US10966046B2 (en) * 2018-12-07 2021-03-30 Creative Technology Ltd Spatial repositioning of multiple audio streams
US11418903B2 (en) 2018-12-07 2022-08-16 Creative Technology Ltd Spatial repositioning of multiple audio streams
US11113092B2 (en) 2019-02-08 2021-09-07 Sony Corporation Global HRTF repository
KR102790631B1 (ko) * 2019-03-19 2025-04-04 소니그룹주식회사 음향 처리 장치, 음향 처리 방법, 및 음향 처리 프로그램
US11451907B2 (en) 2019-05-29 2022-09-20 Sony Corporation Techniques combining plural head-related transfer function (HRTF) spheres to place audio objects
US11347832B2 (en) 2019-06-13 2022-05-31 Sony Corporation Head related transfer function (HRTF) as biometric authentication
US11172298B2 (en) 2019-07-08 2021-11-09 Apple Inc. Systems, methods, and user interfaces for headphone fit adjustment and audio output control
WO2021023667A1 (de) 2019-08-06 2021-02-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und verfahren zur unterstützung von selektivem hören
US11146908B2 (en) 2019-10-24 2021-10-12 Sony Corporation Generating personalized end user head-related transfer function (HRTF) from generic HRTF
US11330371B2 (en) 2019-11-07 2022-05-10 Sony Group Corporation Audio control based on room correction and head related transfer function
US11070930B2 (en) * 2019-11-12 2021-07-20 Sony Corporation Generating personalized end user room-related transfer function (RRTF)
WO2021106613A1 (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 信号処理装置および方法、並びにプログラム
CN111031467A (zh) * 2019-12-27 2020-04-17 中航华东光电(上海)有限公司 一种hrir前后方位增强方法
CN111372167B (zh) 2020-02-24 2021-10-26 Oppo广东移动通信有限公司 音效优化方法及装置、电子设备、存储介质
JP7463796B2 (ja) * 2020-03-25 2024-04-09 ヤマハ株式会社 デバイスシステム、音質制御方法および音質制御プログラム
US11652510B2 (en) 2020-06-01 2023-05-16 Apple Inc. Systems, methods, and graphical user interfaces for automatic audio routing
US11356795B2 (en) 2020-06-17 2022-06-07 Bose Corporation Spatialized audio relative to a peripheral device
US11941319B2 (en) 2020-07-20 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
US12197809B2 (en) 2020-07-20 2025-01-14 Apple Inc. Systems, methods, and graphical user interfaces for selecting audio output modes of wearable audio output devices
EP3945729A1 (de) * 2020-07-31 2022-02-02 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. System und verfahren zur kopfhörerentzerrung und raumanpassung zur binauralen wiedergabe bei augmented reality
US11982738B2 (en) 2020-09-16 2024-05-14 Bose Corporation Methods and systems for determining position and orientation of a device using acoustic beacons
US11523243B2 (en) * 2020-09-25 2022-12-06 Apple Inc. Systems, methods, and graphical user interfaces for using spatialized audio during communication sessions
US11700497B2 (en) 2020-10-30 2023-07-11 Bose Corporation Systems and methods for providing augmented audio
US11696084B2 (en) 2020-10-30 2023-07-04 Bose Corporation Systems and methods for providing augmented audio
CN112584277B (zh) * 2020-12-08 2022-04-22 北京声加科技有限公司 一种室内音频均衡的方法
PH12021050201A1 (en) * 2021-04-28 2022-11-14 Samsung Electronics Ltd System of calibrating device configurations using room geometry
US12556878B2 (en) 2021-09-21 2026-02-17 Apple Inc. Determining a virtual listening environment
KR102652559B1 (ko) * 2021-11-24 2024-04-01 주식회사 디지소닉 음향실 및 이를 이용한 brir 획득 방법
US12520096B2 (en) 2023-03-10 2026-01-06 Bose Corporation Spatialized audio with dynamic head tracking
DE102023002174B3 (de) * 2023-05-30 2024-05-08 Mercedes-Benz Group AG Verfahren zum Kalibrieren eines fahrzeugintegrierten binauralen 3D-Audiosystems und Fahrzeug

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10249416B4 (de) * 2002-10-23 2009-07-30 Siemens Audiologische Technik Gmbh Verfahren zum Einstellen und zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät
JP2005223713A (ja) * 2004-02-06 2005-08-18 Sony Corp 音響再生装置、音響再生方法
GB0419346D0 (en) * 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
US20080273708A1 (en) * 2007-05-03 2008-11-06 Telefonaktiebolaget L M Ericsson (Publ) Early Reflection Method for Enhanced Externalization
EP2356825A4 (de) * 2008-10-20 2014-08-06 Genaudio Inc Audiospatialisierung und umgebungssimulation
JP5857071B2 (ja) * 2011-01-05 2016-02-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ・システムおよびその動作方法
EP2719200B1 (de) * 2011-06-09 2019-12-25 Sony Ericsson Mobile Communications AB Reduzierung des datenvolumens kopfbezogenener übertragungsfunktionen
WO2013058728A1 (en) * 2011-10-17 2013-04-25 Nuance Communications, Inc. Speech signal enhancement using visual information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None *

Also Published As

Publication number Publication date
WO2015180973A1 (de) 2015-12-03
DE102014210215A1 (de) 2015-12-03
CN106576203B (zh) 2020-02-07
US20170078820A1 (en) 2017-03-16
JP2017522771A (ja) 2017-08-10
CN106576203A (zh) 2017-04-19
JP6446068B2 (ja) 2018-12-26
KR20170013931A (ko) 2017-02-07
US10003906B2 (en) 2018-06-19
KR102008771B1 (ko) 2019-08-09
EP3149969A1 (de) 2017-04-05

Similar Documents

Publication Publication Date Title
EP3149969B1 (de) Ermittlung und nutzung hörraumoptimierter übertragungsfunktionen
CN111294724B (zh) 多个音频流的空间重新定位
KR20200047414A (ko) 헤드셋을 통한 공간 오디오 렌더링을 위한 룸 특성 수정 시스템 및 방법
US12556878B2 (en) Determining a virtual listening environment
US11317233B2 (en) Acoustic program, acoustic device, and acoustic system
DE102019107302B4 (de) Verfahren zum Erzeugen und Wiedergeben einer binauralen Aufnahme
EP3044972A2 (de) Vorrichtung und verfahren zur dekorrelation von lautsprechersignalen
DE112021003592T5 (de) Informationsverarbeitungsvorrichtung, Ausgabesteuerverfahren und Programm
DE102021103210A1 (de) Surround-Sound-Wiedergabe basierend auf Raumakustik
US20200059750A1 (en) Sound spatialization method
EP3225039B1 (de) System und verfahren zur erzeugung von kopfexternalisiertem 3d-audio durch kopfhörer
DE112021001695T5 (de) Schallverarbeitungsvorrichtung, schallverarbeitungsverfahren und schallverarbeitungsprogramm
Jenny et al. Can I trust my ears in VR? Literature review of head-related transfer functions and valuation methods with descriptive attributes in virtual reality
Stärz et al. Comparison of binaural auralisations to a real loudspeaker in an audiovisual virtual classroom scenario: Effect of room acoustic simulation, HRTF dataset, and head-mounted display on room acoustic perception
CN119729331A (zh) 音频渲染方法、存储介质及电子装置
DE102011003450A1 (de) Erzeugung von benutzerangepassten Signalverarbeitungsparametern
Brandenburg et al. Auditory illusion through headphones: History, challenges and new solutions
CN110620982A (zh) 用于助听器中的音频播放的方法
DE112023001726T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren, Informationsverarbeitungsprogramm und Informationsverarbeitungssystem
EP2503799B1 (de) Verfahren und System zur Berechnung synthetischer Außenohrübertragungsfunktionen durch virtuelle lokale Schallfeldsynthese
EP4440159A2 (de) Verfahren und system zur wiedergabe von 3d-audio
HK1236308A1 (en) Determination and use of auditory-space-optimized transfer functions
HK1236308B (en) Determination and use of auditory-space-optimized transfer functions
CN118301536A (zh) 音频的虚拟环绕处理方法、装置、电子设备和存储介质
Aspöck et al. Dynamic real-time auralization for experiments on the perception of hearing impaired subjects

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20161123

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20180201

REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1236308

Country of ref document: HK

RIN1 Information on inventor provided before grant (corrected)

Inventor name: BRANDENBURG, KARLHEINZ

Inventor name: WERNER, STEPHAN

Inventor name: SLADECZEK, CHRISTOPH

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20190401

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502015010407

Country of ref document: DE

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 1182731

Country of ref document: AT

Kind code of ref document: T

Effective date: 20191015

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20190918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20191218

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20191218

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20191219

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200120

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200224

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502015010407

Country of ref document: DE

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG2D Information on lapse in contracting state deleted

Ref country code: IS

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200119

26N No opposition filed

Effective date: 20200619

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20200531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200515

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200515

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 1182731

Country of ref document: AT

Kind code of ref document: T

Effective date: 20200515

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200515

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190918

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230524

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20250519

Year of fee payment: 11

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20250522

Year of fee payment: 11

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20250526

Year of fee payment: 11