DE60211157T2 - Synchronous playback of media packages - Google Patents
Synchronous playback of media packages Download PDFInfo
- Publication number
- DE60211157T2 DE60211157T2 DE60211157T DE60211157T DE60211157T2 DE 60211157 T2 DE60211157 T2 DE 60211157T2 DE 60211157 T DE60211157 T DE 60211157T DE 60211157 T DE60211157 T DE 60211157T DE 60211157 T2 DE60211157 T2 DE 60211157T2
- Authority
- DE
- Germany
- Prior art keywords
- time
- media
- media data
- sink
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000001360 synchronised effect Effects 0.000 title description 17
- 238000005070 sampling Methods 0.000 claims description 31
- 238000000034 method Methods 0.000 claims description 26
- 239000000872 buffer Substances 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 208000016621 Hearing disease Diseases 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 208000016354 hearing loss disease Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/80—Responding to QoS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1101—Session protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/612—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/65—Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Synchronisation In Digital Transmission Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- Electric Clocks (AREA)
Description
Die Erfindung betrifft ein Verfahren, eine Medienquelle, eine Mediensenke und ein Medienverarbeitungssystem zum synchronen Abspielen von Mediendatenpaketen.The The invention relates to a method, a media source, a media sink and a media processing system for synchronously playing media data packets.
Ein Mensch verwendet zwei Schallparameter zum Ermitteln der Position der Schallquelle: die Amplitude und die Phase des Schalls. Da die Intensität des Schalls bei dessen Ausbreitung in Luft abnimmt, nimmt ein weiter von der Schallquelle entferntes Ohr einen geringeren Schallpegel wahr als ein Ohr in der Nähe der Schallquelle. Da der Schall zudem für die Ausbreitung in der Luft einige Zeit benötigt, erhält das weiter entfernte Ohr das Signal später als das näher zur Schallquelle angeordnete Ohr. Experimente haben gezeigt, dass Menschen eine Phasendifferenz zwischen zwei Kanälen von mehr als 6-20 Mikrosekunden (μs) als Versatz der Schallquelle wahrnehmen und zwei Signale mit einer Phasendifferenz von mehr als 35-40 Millisekunden (ms) als zwei verschiedene Töne wahrgenommen werden.One Human uses two sound parameters to determine the position the sound source: the amplitude and the phase of the sound. Because the intensity the sound decreases as it spreads in air, one continues away from the sound source ear a lower sound level true as an ear in the vicinity the sound source. As the sound also spreads in the air needs some time receives the farther ear the signal later than the closer to Sound source arranged ear. Experiments have shown that humans a phase difference between two channels of more than 6-20 microseconds (μs) as Detect offset of the sound source and two signals with a phase difference of more than 35-40 milliseconds (ms) perceived as two different tones become.
Für Audiosysteme, die Audiotöne abspielen (emittieren) bedeutet dies, dass ein zu einem Kanal eines Multikanalsignals zugehöriges Audiosignal, z.B. ein Stereosignal, zu exakt derselben Zeit, d.h. exakt demselben Zeitpunkt, wie alle weiteren demselben Multikanalsignal, z.B. demselben Stereosignal, zugeordneten Audiosignale abgespielt werden sollte. Mit anderen Worten ist eine enge Synchronisation der verschiedenen Audioausgabegeräte, z.B. Lautsprecher, erforderlich, sodass die Zeitrelation zwischen verschienen Kanälen eines Multikanalsignals während der Ausgabe gegeben ist. Ähnliche Anforderungen können ebenso in weiteren Audioanwendungen wie z.B. Dolby-Surround-Systemen oder in Audio-Video-Anwendungen auftreten.For audio systems, the audio tones play (emit) this means that one to one channel of a Associated with multi-channel signal Audio signal, e.g. a stereo signal at exactly the same time, i. exactly same time as all other same multi-channel signal, e.g. the same stereo signal, associated audio signals played should be. In other words, close synchronization the various audio output devices, e.g. Speaker, required, so that the time relation between different channels of a multi-channel signal while the issue is given. Similar Requirements can also in other audio applications, e.g. Dolby Surround systems or occur in audio-video applications.
Die erwähnte enge Synchronisation ist ebenso von digitalen Übertragungs-Audiosystemen zu erfüllen, bei denen Audiosignale von der Medienquelle zu den Medienausgabegeräten (im Folgenden ebenso allgemeiner als Medien senken bezeichnet, die ebenso Geräte zur Verarbeitung eines empfangenen Multikanalsignals auf beliebige andere Weise enthalten) in der Form von Mediendatenpaketen (im Folgenden ebenso als Medienpakete bezeichnet) übertragen werden. Jedes Audioausgabegerät muss die Töne eines Mediendatenpakets (das Mediendatenpaket an sich) zu exakt derselben Zeit abspielen, d.h. in dem Augenblick, in welchem ein weiteres Medienausgabegerät ein korrespondierendes Mediendatenpaket, z.B. demselben Stereosignal zugeordnet, auf einem weiteren Kanal abspielt. Werden die Mediendatenpakete nicht passend synchronisiert abgespielt, d.h. korrespondierende Mediendatenpakete von verschiedenen Kanälen desselben Stereosignals werden zu verschiedenen Zeiten in verschiedenen Medienausgabegeräten abgespielt, so treten die obigen Probleme auf, d.h. der Stereoton wird möglicherweise als von einer anderen Richtung kommend wahrgenommen oder möglicherweise werden sogar zwei unterschiedliche Töne wahrgenommen (diese Probleme werden im Folgenden als Hörstörungen bezeichnet).The mentioned Close synchronization is equally true of digital broadcasting audio systems that require audio signals from the media source to the media output devices (hereinafter also more general referred to as media lower, which also means for processing a received multi-channel signal in any other way) in the form of media data packets (also referred to as media packages below) become. Each audio output device must the sounds a media data packet (the media data packet itself) to exact play the same time, i. at the moment in which one another media output device a corresponding media data packet, e.g. the same stereo signal assigned, plays on another channel. Become the media data packages not properly synchronized played, i. corresponding Media data packets from different channels of the same stereo signal are played at different times in different media output devices, so the above problems occur, i. the stereo sound may be perceived as coming from another direction or possibly even two different tones are perceived (these problems are hereinafter referred to as hearing disorders).
Die Internet Engineering Task Force (IETF) hat ein Übertragungsprotokoll für Echtzeitanwendungen (RTP) in ihren Request for Comments RFC 1889 bereitgestellt, im Folgenden als RTP bezeichnet. Das Echtzeitübertragungsprotokoll (RTP) enthält ein Steuerprotokoll RTCP, das Synchronisationsinformation von Datensendern und die Rückmeldeinformation von Datenempfängern bereitstellt. Was die Synchronisation von Datenströmen hinsichtlich einer Medienverteilung betrifft, stellt dieses Protokoll sogenannte Senderberichte (SR, Sender Reports) bereit, die eine Korrelation zwischen einem Abtasttakt und einer globalen Uhrzeit (global clock) angeben.The Internet Engineering Task Force (IETF) has a transmission protocol for real-time applications (RTP) provided in their Request for Comments RFC 1889, in Hereinafter referred to as RTP. The real-time transmission protocol (RTP) contains a control protocol RTCP, the synchronization information of data transmitters and the feedback information of data receivers provides. As for the synchronization of data streams in terms As far as media distribution is concerned, this Sender Reports (SR, Sender Reports) ready to provide a correlation between a sample clock and a global clock specify.
Die Senderberichte (SR) werden von der Medienquelle an die Mediensenke(n) gesendet und enthalten zwei Zeitkennzeichnungen. Eine Zeitkennzeichnung weist auf einen Zeitpunkt in Zeiteinheiten des lokalen Abtasttaktes (lokale Abtasttaktzeit) hin und die andere Kennzeichnung weist auf denselben Zeitpunkt in Zeiteinheiten des globalen Taktes (globale Uhrzeit) hin. Beide Zeitkennzeichnungen der SR werden zum selben Zeitpunkt erzeugt. Es wird angenommen, dass die globale Uhrzeit der Medienquelle und der Mediensenke(n), zwischen denen Medienströme übertragen werden, bereitsteht. Eine Mediensenke hat somit Zugriff auf die globale Uhrzeit und kann deshalb deren Abtasttakt zur globalen Uhrzeit ausrichten.The Sender reports (SR) are sent from the media source to the media sink (s) sent and contain two time stamps. A time stamp indicates a time in units of time of the local sampling clock (local sample clock time) and the other label indicates the same time in units of time of the global clock (global Time). Both time labels of the SR become the same Time generated. It is assumed that the global time the media source and the media sink (s) between which media streams are transferred be ready. A media sink thus has access to the global time and can therefore align their sample clock to the global time.
Die wesentliche Absicht von RTP ist es, eine Einrichtung für Videokonferenzen im Internet bereitzustellen und Video und Audio, die in getrennten Datenströmen von derselben einzelnen Mediensenke empfangen werden, zu resynchronisieren. Das Protokoll ist nicht dafür gedacht, das synchrone Abspielen von Mediendatenpaketen in getrennten Mediensenken eines digitalen Übertragungs-Audiosystems sicherstellen. Wird dieses Protokoll deshalb zum Aussenden von Mediendatenpaketen an Mediensenken verwendet, ist es möglich, dass die Mediendatenpakete in verschiedenen Mediensenken nicht geeignet synchronisiert abgespielt werden, d.h. einem selben Stereosignal zugeordnete Mediendatenpakete werden möglicherweise nicht zum selben Zeitpunkt in verschiedenen Mediensenken, z.B. Lautsprechern, abgespielt. Deshalb können die obigen Hörstörungen auftreten, falls für digitale Übertragungsaudiosysteme lediglich RTP verwendet wird.The RTP's main intention is to set up a videoconferencing facility to provide on the internet and video and audio in separate streams from the same single media sink to resynchronize. The protocol is not for that intended to synchronously play media data packets in separate Ensuring media sinks of a digital broadcast audio system. Therefore, is this protocol for sending media data packets used on media sinks, it is possible that the media data packets played in different media sinks unsuitable synchronized are, i. a media data packets associated with a same stereo signal may be not at the same time in different media sinks, e.g. Speakers played. That's why the above hearing disorders occur if for digital broadcasting audio systems only RTP is used.
Stand der Technik zur Synchronisierung von Video- und Audiodaten ist beispielsweise aus "RFC 2343: RTP Payload Format for Bundles MPEG", Request for Comments, Mai 1998, XP002229835, von M. Civanlar und aus dem Dokument "RFC 1889: RTP: A Transport Protocol for Real-Time Applicatons", Request for Comments, Januar 1996, XP002229836 von H. Schulzrinne bekannt. In diesen Dokumenten des Standes der Technik weist ein Paket eine Zeitkennzeichnung, die eine Abtastzeit des MPEG-Bildes kennzeichnet, sowie ein Audioversatzfeld auf, das den Versatz zwischen dem Beginn des Audio-Frames und der RTP-Zeitkennzeichnung für dieses Paket als Anzahl von Audio-Abtastungen kennzeichnet. Um eine Synchronisation zwischen in einem entsprechenden Paket enthaltenen Video- und Audiodaten zu erzielen, wird der Audioversatz relativ zur RTP-Zeitkennzeichnung des Pakets, das dieses Audiosegment enthält, angegeben.The state of the art for synchronizing video and audio data is known, for example, from "RFC 2343: RTP Payload Format for Bundles MPEG ", Request for Comments, May 1998, XP002229835, by M. Civanlar and the document" RFC 1889: RTP: A Transport Protocol for Real-Time Applicatons ", Request for Comments, January 1996, XP002229836 by H. Schulzrinne In these prior art documents, a packet comprises a time tag indicating a sample time of the MPEG picture and an audio offset field which represents the offset between the beginning of the audio frame and the RTP time tag for In order to achieve synchronization between video and audio data contained in a respective packet, the audio offset is indicated relative to the RTP time signature of the packet containing that audio segment.
Das Problem der Hörstörungen kann ebenso von unzuverlässigen und ungenauen Taktinformationen herrühren, die in den meisten Nicht-Echtzeit-Quellengeräten wie Personalcomputern (PCs) oder digitalen Assistenten (PDAs) auftreten. Diese Geräte setzen voraus, dass die globale Taktinformation (globale Uhrzeit) alle seitens der Anwendungsszenarios festgelegten Anforderungen erfüllt. Jedoch kann dies auch nicht zutreffen. Ein Nicht-Echtzeit-Gerät erhält gewöhnlich eine tatsächliche Zeit (globale Uhrzeit) zur Erzeugung von Zeitkennzeichnungen für Mediendatenpakete über eine externe Verbindung, z.B. USB oder RS232. Da die Bussysteme, die gewöhnlich für diese Art von externer Verbindung verwendet werden, nicht für eine Übertragung mit garantiert sehr kurzen Zustellzeiten ausgelegt sind, kann die Taktinformation (globale Uhrzeit) ihre Genauigkeit verlieren, falls diese von dem PC oder PDA verwendet wird, z.B. zur Bestimmung einer Zeitkennzeichnung für ein Mediendatenpaket. Dies bedeutet, dass die über eine Zeitkennzeichnung gekennzeichnete globale Uhrzeit eines Mediendatenpakets im Hinblick auf die tatsächliche globale Uhrzeit, zu der das Mediendatenpaket tatsächlich ausgesendet wird, falsch sein kann. Ebenso kann die Zeitdifferenz zwischen zwei mittels zwei Zeitkennzeichnungen gekennzeichneten Zeitpunkten variieren, obwohl die Zeitdifferenz zwischen den beiden korrespondierenden tatsächlichen globalen Uhrzeiten nicht variiert. Dies liegt möglicherweise daran, dass die von der externen Verbindung zum Übertragen der globalen Uhrzeitinformation an die Anwendung benötigte Zeit schwanken kann. Da die Zeitkennzeichnungen der Mediendatenpakete gewöhnlich von den Mediensenken für jedes Paket zur Bestimmung einer Abspielzeit verwendet werden, kann die ungenaue und statistisch schwankende Zeit, die über die Zeitkennzeichnungen der Mediendatenpakete gekennzeichnet ist, zu den erwähnten Hörstörungen führen, da Mediendatenpakete, die demselben Stereosignal zugeordnet sind, von den verschiedenen Mediensenken zu verschiedenen Zeiten abgespielt werden können.The Problem of hearing can equally unreliable and imprecise timing information that is common in most non-real-time source devices Personal computers (PCs) or digital assistants (PDAs) occur. These devices assume that the global clock information (global time) all requirements specified by the application scenarios Fulfills. However, this may not be true. A non-real-time device usually receives an actual one Time (global time) for generating time tags for media data packets via a external connection, e.g. USB or RS232. Since the bus systems, the usually for this Type of external connection used, not for transmission with Guaranteed very short delivery times are designed, the timing information (global time) lose their accuracy, if this from the PC or PDA is used, e.g. for determining a time code for a Media data packet. This means that over a time tag marked global time of a media data packet with regard to on the actual global time to which the media data packet is actually sent will, can be wrong. Likewise, the time difference between two vary by means of two time markings, although the time difference between the two corresponding actual Global times do not vary. This may be because of the fact that the external connection for transmission the global time information to the application takes time can fluctuate. Because the time labels of the media data packets usually from the media sinks for each package can be used to determine a playtime can the inaccurate and statistically fluctuating time that over the Time tags of the media data packets is marked, too the mentioned Hearing impairments lead there Media data packets associated with the same stereo signal from played the different media sinks at different times can be.
Die Erfindung ist in den unabhängigen Patentansprüchen definiert.The Invention is in the independent claims Are defined.
Es ist eine Aufgabe der Erfindung, eine Medienquelle, eine Mediensenke und ein Medienverarbeitungssystem zum synchronen Abspielen von Mediendatenpaketen anzugeben als auch entsprechende Verfahren, mit denen diese Geräte arbeiten, so dass Hörstörungen selbst beim Abspielen in verschiedenen Mediensenken vermieden werden.It It is an object of the invention to provide a media source, a media sink and a media processing system for synchronously playing media data packets as well as appropriate procedures by which these devices work, so that hearing impairment itself be avoided when playing in different media sinks.
Eine Medienquelle zur Lösung der Aufgabe der Erfindung gemäß einer ersten Ausführungsform der Erfindung ist in Patentanspruch 1 definiert, eine Mediensenke ist in Patentanspruch 5 definiert und ein Medienverarbeitungssystem ist in Patentanspruch 10 definiert. Entsprechende Verfahren gemäß der ersten Ausführungsform sind in den Patentansprüchen 17, 21 und 26 definiert. Bevorzugte Ausführungsformen sind jeweils in den entsprechenden nachfolgenden Unteransprüchen beschrieben. Eine Medienquelle zur Lösung der Aufgabe der Erfindung gemäß einer zweiten Ausführungsform der Erfindung ist in Patentanspruch 11 definiert, eine Mediensenke ist in Patentanspruch 14 definiert und ein Medienverarbeitungssystem ist in Patentanspruch 16 definiert. Entsprechende Verfahren gemäß der zweiten Ausführungsform sind in den Patentansprüchen 27, 30 und 32 definiert. Bevorzug te Ausführungsformen hiervon sind in den zugehörigen Unteransprüchen beschrieben.A Media source to the solution the object of the invention according to a first embodiment of the The invention is defined in claim 1, which is a media sink in claim 5 and defined a media processing system is defined in claim 10. Corresponding methods according to the first embodiment are in the claims 17, 21 and 26 defined. Preferred embodiments are each in the corresponding subclaims below. A media source to the solution the object of the invention according to a second embodiment The invention is defined in claim 11, which is a media sink in claim 14 and a media processing system is defined in claim 16. Corresponding method according to the second embodiment are in the claims 27, 30 and 32 defined. Favor te embodiments thereof are in the associated Subclaims described.
Somit wird die Aufgabe der Erfindung von zwei verschiedenen Ausführungsformen gelöst, denen eine gemeinsame erfinderische Idee zur Lösung zugrunde liegt. In beiden Ausführungsformen wird eine gemeinsame Abspielzeit bestimmt und jedem Mediendatenpaket zugeordnet und das Mediendatenpaket wird von einer Mediensenke exakt zu dieser gemeinsamen Abspielzeit abgespielt. In der ersten Ausführungsform wird die gemeinsame Abspielzeit von den Mediensenken durch Addieren eines Abspielzeitversatzes zu der Zeit, auf die über eine Zeitkennzeichnung eines Mediendatenpakets hingewiesen wird, bestimmt. Der Abspielzeitversatz wird von der Medienquelle bestimmt und den Mediensenken übermittelt. In der zweiten Ausführungsform wird die gemeinsame Abspielzeit von der Medienquelle für jedes Paket bestimmt und zusammen mit jedem Mediendatenpaket in der Form einer entsprechenden Zeitkennzeichnung ausgesendet.Consequently The object of the invention of two different embodiments solved, which is based on a common inventive idea for the solution. In both embodiments a common playback time is determined and each media data packet and the media data packet becomes exact from a media sink played at this common playing time. In the first embodiment Add the common play time from the media sinks a playtime offset at the time, over the time stamp a media data packet is determined determined. The play time offset is determined by the media source and sent to the media sinks. In the second embodiment will be the common playback time from the media source for each Package determined and along with each media data packet in the form a corresponding time code sent out.
Lösung gemäß der ersten
Ausführungsform der
Erfindung:
Eine Medienquelle gemäß der Erfindung eignet sich zum
Aussenden von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere
an ein oder mehrere empfangende Mediensenken wie unten definiert, wobei
die Zeitkennzeichnung jedes Mediendatenpakets auf den Zeitpunkt
zum Erzeugen des entsprechenden Mediendatenpakets hinweist, zum
Bestimmen eines Abspielzeitversatzes und zum Aussenden des Abspielzeitversatzes
geeignet ist, insbesondere an die eine oder mehreren empfangenden
Mediensenke(n) wie unten definiert.Solution according to the first embodiment of the invention:
A media source according to the invention is suitable for broadcasting time-tagged media data packets, in particular to one or more receiving media sinks as defined below, wherein the time tag of each media data packet is indicative of the time to generate the corresponding media data packet, is suitable for determining a playtime offset, and for broadcasting the playtime offset, in particular to the one or more receiving media sink (s) as defined below.
Vorzugsweise weist die erfindungsgemäße Medienquelle einen Abtasttakt zum Ermitteln einer Abtasttaktzeit auf, diese ist zum Bestimmen einer globalen Uhrzeit geeignet sowie zum Aussenden eines Steuerpakets von Zeit zu Zeit, insbesondere an die eine oder mehreren empfangenden Mediensenke(n), wie unten definiert, wobei das Steuerpaket zwei Steuerpaketzeitkennzeichnungen aufweist, die auf denselben Zeitpunkt hinweisen, wobei dessen erste Steuerpaketzeitkennzeichnung in Zeiteinheiten der globale Uhrzeit gemessen oder definiert wird und dessen zweite Steuerpaketzeitkennzeichnung in Zeiteinheiten der Abtasttaktzeit gemessen oder definiert wird.Preferably has the media source according to the invention a sampling clock for determining a sampling clock time, this is suitable for determining a global time as well as for sending a tax package from time to time, in particular to the one or a plurality of receiving media sink (s) as defined below, wherein the control packet has two control packet time identifiers, the indicate the same time, with its first tax package time flag in time units, the global time is measured or defined and its second control packet time identifier in units of time the sampling cycle time is measured or defined.
Des Weiteren weist die Zeitkennzeichnung eines Mediendatenpakets in vorteilhafter Weise auf den Zeitpunkt zum Erzeugen des zeitlich gekennzeichneten Mediendatenpakets in Zeiteinheiten der Abtasttaktzeit hin. Ebenso ist das Mediendatenpaket vorzugsweise zum Aussenden des Mediendatenpakets an zwei oder mehrere empfangende Mediensenken gestaltet.Of Further, the time tag of a media data packet in Advantageously, the time to generate the time marked media data packets in units of time of sampling cycle time out. Likewise, the media data packet is preferably for broadcasting the media data packet to two or more receiving media sinks designed.
Eine Mediensenke gemäß der Erfindung eignet sich zum Empfangen von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere von einer wie oben definierten Medienquelle, sowie zum Bestimmen eines Abspielzeitversatzes, zum präzisen Bestimmen einer globalen Uhrzeit, zum Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket durch Addieren der Zeit, auf die durch die Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird, und des Abspielzeitversatzes, und zum Abspielen jedes empfangenen zeitlich gekennzeichneten Mediendatenpakets genau dann, wenn die bestimmte gemeinsame Abspielzeit für das empfangene zeitlich gekennzeichnete Mediendatenpaket erreicht ist.A Media sink according to the invention is suitable for receiving time-marked media data packets, in particular of a media source as defined above, and for determining a play time offset, for precisely determining a global time Time to determine a common playing time for each received time-tagged media data packet by adding the time indicated by the time stamp of the time marked The media data packet, and the playback time offset, and for playing each received time-tagged media data packet if and only if the certain common playing time for the received timed media data packet is reached.
Die Mediensenke eignet sich zum einmaligen Empfangen des Abspielzeitversatzes, insbesondere von einer wie oben definierten Medienquelle. Alternativ hierzu eignet sich die Mediensenke zum Empfangen eines Steuerpakets, insbesondere von einer wie oben definierten Medienquelle, mit einer ersten Steuerpaketzeitkennzeichnung als Hinweis auf einen bestimmten Zeitpunkt, der in Zeiteinheiten einer Abtastzeit gemessen oder definiert wird, sowie einer zweiten Steuerpaketzeitkennzeichnung als Hinweis auf denselben bestimmten Zeitpunkt, der in Zeiteinheiten einer globalen Uhrzeit gemessen oder definiert wird, und zum Umwandeln einer Zeit, auf die mittels einer Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird und die in Einheiten einer Abtasttaktzeit gemessen oder definiert wird, in eine Zeit, die in Einheiten einer globalen Uhrzeit gemessen oder definiert wird basierend auf der Information der ersten und zweiten Steuerpaketzeitkennzeichnung.The Media sink is suitable for receiving the playback time offset once, in particular from a media source as defined above. alternative for this, the media sink is suitable for receiving a control packet, in particular of a media source as defined above, with a first Tax package time stamp indicating a specific time, measured or defined in units of time of a sampling time, and a second control packet time identifier as an indication the same specific time, which in time units of a global Time is measured or defined, and to convert a time, on the time marked by means of a time tag Media data packet is pointed out and in units of sampling cycle time is measured or defined in a time in units of one global time is measured or defined based on the Information of the first and second control packet time identification.
In einer bevorzugten Ausführungsform weist die Mediensenke einen Puffer auf zum Speichern von Mediendatenpaketen, bis die gemeinsame Abspielzeit erreicht ist.In a preferred embodiment the media sink has a buffer for storing media data packets, until the combined playing time is reached.
Ein Medienverarbeitungssystem gemäß der Erfindung weist eine wie oben definierte Medienquelle als auch eine wie oben definierte Mediensenke auf.One Media processing system according to the invention has a media source as defined above as well as one as above defined media sink on.
Ein Verfahren gemäß der ersten Ausführungsform der Erfindung, welches sich für eine Medienquelle eignet, weist die Schritte auf: Aussenden von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere an eine oder mehrere empfangende Mediensenke(n), wobei die Zeitkennzeichnung jedes Mediendatenpakets auf den Zeitpunkt zum Erzeugen des entsprechenden Mediendatenpakets hinweist, Bestimmen eines Abspielzeitversatzes, und Aussenden des Abspielzeitversatzes, insbesondere an die eine oder mehrere Mediensenke(n).One Method according to the first embodiment the invention, which is suitable for a media source, includes the steps of: broadcasting temporally marked media data packets, in particular to a or multiple receiving media sink (s), with time stamping each media data packet at the time to generate the corresponding Indicating media data packets, determining a playtime offset, and transmitting the playback time offset, in particular to the one or more media sink (s).
In vorteilhafter Weise werden die folgenden Schritte ausgeführt: Bestimmen einer Abtasttaktzeit, Bestimmen einer globalen Uhrzeit, und Aussenden eines Steuerpakets von Zeit zu Zeit an die eine oder mehreren empfangenden Mediensenke(n), wobei das Steuerpaket zwei Steuerpaketzeitkennzeichnungen aufweist, die auf denselben Zeitpunkt hinweisen, und wobei dessen erste Steuerpaketzeitkennzeichnung in Zeiteinheiten der globalen Uhrzeit gemessen oder definiert wird und dessen Steuerpaketzeitkennzeichnung in Zeiteinheiten der Abtasttaktzeit gemessen oder definiert wird.In Advantageously, the following steps are performed: determining a sampling clock time, determining a global time, and sending out a Tax packages from time to time to the one or more receiving Media sink (s), wherein the control package has two control packet time identifiers having the same time point, and wherein the first tax package time designation in units of global time Time is measured or defined and its tax package time identification is measured or defined in units of time of sampling cycle time.
Es ist des Weiteren von Vorteil, dass die Zeitkennzeichnung eines Mediendatenpakets auf den Zeitpunkt zum Erzeugen des zeitlich gekennzeichneten Mediendatenpakets in Zeiteinheiten der Abtasttaktzeit hinweist. Ebenso ist es von Vorteil, dass dieselben Mediendatenpakete an zwei oder mehrere verschiedene empfangende Mediensenken ausgesendet werden.It It is further advantageous that the time tag of a media data packet to the time for generating the timewise media data packet in units of time of sample clock time. Likewise, it is from Advantage that the same media data packets to two or more different receiving media sinks are sent out.
Ein Verfahren gemäß der ersten Ausführungsform der Erfindung zum synchronen Abspielen von Mediendatenpaketen, insbesondere für eine Mediensenke, weist die folgenden Schritte auf: Empfangen von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere von einer Medienquelle, Bestimmen eines Abspielzeitversatzes, präzises Bestimmen einer globalen Uhrzeit, Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket durch Addieren der Zeit, auf die durch die Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird, sowie des Abspielzeitversatzes, und Abspielen jedes empfangenen zeitlich gekennzeichneten Mediendatenpakets genau dann, wenn die bestimmte gemeinsame Abspielzeit für das empfangene zeitlich gekennzeichnete Mediendatenpaket erreicht ist.A method according to the first embodiment of the invention for the synchronous playback of media data packets, in particular for a media sink, comprises the following steps: receiving time-tagged media data packets, in particular from a media source, determining a playback time offset, precise destination a global time, determining a common play time for each received time-tagged media data packet by adding the time pointed to by the time tag of the time-tagged media data packet and the play time offset, and playing each received time-tagged media data packet if and only if the particular one is common Play time for the received time-tagged media data packet is reached.
In vorteilhafter Weise wird der Abspielzeitversatz einmalig empfangen, insbesondere von einer Medienquelle oder dieser wird mit wenigstens einer weiteren Mediensenke ausgetauscht.In Advantageously, the playback time offset is received once, in particular from a media source or this is at least exchanged another media sink.
Zudem werden in vorteilhafter Weise die folgenden Schritte ausgeführt: Empfangen eines Steuerpakets, insbesondere von einer Medienquelle gemäß einem der Ansprüche 1 bis 4, umfassend eine erste Steuerpaketzeitkennzeichnung zum Hinweisen auf einen bestimmten Zeitpunkt, der in Zeiteinheiten einer Abtastzeit gemessen oder definiert wird, sowie einer zweiten Steuerpaketzeitkennzeichnung zum Hinweisen auf denselben bestimmten Zeitpunkt, der in Zeiteinheiten einer globalen Uhrzeit gemessen oder definiert wird, und zum Umwandeln einer Zeit, auf die mittels einer Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird und die in Einheiten einer Abtasttaktzeit gemessen oder definiert wird, in eine Zeit, die in Einheiten einer globalen Uhrzeit gemessen oder definiert wird basierend auf der Information der ersten und zweiten Steuerpaketzeitkennzeichnung.moreover The following steps are advantageously carried out: receiving a control packet, in particular from a media source according to a the claims 1-4, comprising a first control packet time tag for indicating a certain time, in units of time of a sampling time measured or defined, as well as a second control packet time label for pointing to the same particular time, in units of time a global time is measured or defined, and to convert a time, to which by means of a time marking of a temporally marked Media data packet is pointed out and in units of sampling cycle time is measured or defined in a time in units of one global time is measured or defined based on the Information of the first and second control packet time identification.
In vorteilhafter Weise werden die Mediendatenpakete in einem Puffer gespeichert, bis die gemeinsame Abspielzeit erreicht ist.In Advantageously, the media data packets are in a buffer stored until the combined playing time is reached.
Bei einem Verfahren gemäß der ersten Ausführungsform der Erfindung zum synchronen Abspielen von Mediendatenpaketen, das für ein Medienverarbeitungssystem geeignet ist, werden die für eine wie oben definierte Medienquelle vorgesehenen Verfahrensschritte und die für eine wie oben definierte Mediensenke vorgesehenen Verfahrensschritte ausgeführt.at a method according to the first embodiment the invention for the synchronous playback of media data packets, the for a Media processing system is suitable for a like above-defined media source provided method steps and the for a method step as defined above media sink executed.
Lösung gemäß der zweiten
Ausführungsform
der Erfindung:
Eine Medienquelle zur Lösung der Aufgabe der Erfindung
gemäß der zweiten
Ausführungsform
der Erfindung eignet sich zum Bestimmen eines Abspielzeitversatzes
und zum Bestimmen einer gemeinsamen Abspielzeit durch Addieren des
Abspielzeitversatzes zu einer gegenwärtigen Zeit und diese eignet sich
zum Aussenden von zeitlich gekennzeichneten Mediendatenpaketen,
insbesondere an eine oder mehrere empfangenden Mediensenke(n) wie
unten definiert, wobei die Zeitkennzeichnung eines zeitlich gekennzeichneten
Mediendatenpakets auf die gemeinsame Abspielzeit des Mediendatenpakets
hinweist.Solution according to the second embodiment of the invention:
A media source for achieving the object of the invention according to the second embodiment of the invention is suitable for determining a playback time offset and determining a common playback time by adding the playback time offset at a present time and suitable for broadcasting time-tagged media data packets, in particular one or more receiving media sink (s) as defined below, wherein the time stamping of a timed media data packet indicates the common playing time of the media data packet.
In vorteilhafter Weise weist die Medienquelle einen Abtasttakt zum Bestimmen einer Abtasttaktzeit auf, und diese eignet sich zum Berechnen der gegenwärtigen Zeit durch einmaliges Lesen einer globalen Uhrzeit und Addieren der Zeitperioden des Abtasttaktes zu der einmalig gelesenen globalen Uhrzeit. Zusätzlich eignet sich die Medienquelle vorzugsweise zum Aussenden desselben Mediendatenpakets an zwei oder mehrere verschiedene empfangende Mediensenken.In Advantageously, the media source to a sampling clock to Determining a sample clock time, and this is suitable for calculation the current one Time by reading a global time once and adding the time periods of the sampling clock to the once read global Time. additionally The media source is preferably suitable for broadcasting the same Media data packets to two or more different recipients Media sinks.
Eine Mediensenke gemäß der zweiten Ausführungsform der Erfindung eignet sich zum Empfangen zeitlich gekennzeichneter Mediendatenpakete, insbesondere von einer Medienquelle wie oben definiert, diese eignet sich ebenso zum präzisen Bestimmen einer globalen Uhrzeit und zum Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket, wobei die Abspielzeit die Zeit kennzeichnet, auf die mittels der Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird. Vorzugsweise weist die Mediensenke einen Puffer auf zum Speichern von Mediendatenpaketen, bis die gemeinsame Abspielzeit erreicht ist.A Media sink according to the second embodiment The invention is suitable for receiving temporally marked Media data packets, in particular from a media source as above This is also suitable for precisely determining a global one Time and to determine a common playing time for each received time-tagged media data packet, wherein the Play time indicates the time to which by means of time stamping of the time-tagged media data packet. Preferably, the media sink has a buffer for storage of media data packets until the combined playing time is reached is.
Ein Medienverarbeitungssystem gemäß der zweiten Ausführungsform der Erfindung weist eine wie oben für die zweite Ausführungsform der Erfindung definierte Medienquelle als auch eine wie oben für die zweite Ausführungsform der Erfindung definierte Mediensenke auf.One Media processing system according to the second embodiment The invention has one as above for the second embodiment The invention defined media source as well as one as above for the second embodiment to the invention defined media sink.
Ein für eine Medienquelle vorgesehenes Verfahren gemäß der zweiten Ausführungsform der Erfindung zum synchronen Abspielen von Mediendatenpaketen weist die folgenden Schritte auf: Bestimmen eines Abspielzeitversatzes und einer gemeinsamen Abspielzeit durch Addieren des bestimmten Abspielzeitversatzes zu einer gegenwärtigen Zeit, und Aussenden der zeitlich gekennzeichneten Mediendatenpakete, insbesondere an eine oder mehrere empfangende Mediensenke(n), wobei die Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets auf die gemeinsame Abspielzeit des Mediendatenpakets hinweist.One for one Media source provided method according to the second embodiment the invention for the synchronous playback of media data packets has the following steps: determining a playtime offset and a common playing time by adding the particular one Play time offset at a current time, and send out the temporally marked media data packets, in particular to one or more receiving media sink (s), the time stamp of a timed media data packet to the common Playback time of the media data packet.
In vorteilhafter Weise werden die folgenden Schritte ausgeführt: Bestimmen einer Abtasttaktzeit und Berechnen der gegenwärtigen Zeit durch einmaliges Lesen einer globalen Uhrzeit und Addieren von mittels der Abtasttaktzeit gegebenen Zeitperioden zu der einmalig gelesenen globalen Uhrzeit. Des Wei teren werden in vorteilhafter Weise dieselben Mediendatenpakete an zwei oder mehrere verschiedene empfangende Mediensenken gesendet.Advantageously, the following steps are performed: determining a sample clock time and calculating the current time by reading a global time once and adding time periods given by the sample clock time to the one time read global time. In addition, the same media data packets advantageously become two or more different Receiving media sinks sent.
Ein für eine Mediensenke vorgesehenes Verfahren zum synchronen Abspielen von Mediendatenpaketen gemäß der zweiten Ausführungsform der Erfindung weist die folgenden Schritte auf: Empfangen von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere von einer Medienquelle, präzises Bestimmen einer globalen Uhrzeit und Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket, wobei die gemeinsame Abspielzeit die Zeit ist, auf die durch die Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird.One for one Media sink provided method for synchronous playback of Media data packets according to the second embodiment The invention comprises the following steps: receiving time marked media data packets, in particular from a media source, precise Determine a global time and determine a common time Play time for each received time-tagged media data packet, wherein the common playing time is the time spent on the time stamping of the time-tagged media data packet.
Vorzugsweise werden Mediendatenpakete in einem Puffer gespeichert, bis die gemeinsame Abspielzeit erreicht ist.Preferably Media data packets are stored in a buffer until the common Play time is reached.
Ein für ein Medienverarbeitungssystem vorgesehenes Verfahren zum synchronen Abspielen von Mediendatenpaketen gemäß der zweiten Ausführungsform der Erfindung weist die für eine Medienquelle vorgesehenen Verfahrensschritte und die für eine Mediensenke vorgesehenen Verfahrensschritte auf.One for a Media processing system provided for synchronous Playing media data packets according to the second embodiment the invention has the a media source provided method steps and the for a media sink provided method steps.
Somit können Mediensenken erfindungsgemäß Mediendatenpakete exakt synchronisiert abspielen, da eine gemeinsame Abspielzeit bestimmt wird und einem entsprechenden Mediendatenpaket zugeordnet wird und die Mediendatenpakete werden exakt zu dieser Abspielzeit in jeder Mediensenke abgespielt. Das exakte zeitliche Abspielen über die Mediensenken ist möglich, da die Mediensenken die globale Uhrzeit präzise bestimmen und gewöhnlich spezifische Hardware verwenden, die keine langen Verarbeitungszeiten mit sich bringt, d.h. die Mediensenken sind eng an die globale Uhrzeit gekoppelt. Die gemeinsame Abspielzeit ist an eine einmal gelesene globale Uhrzeit gekoppelt, so dass keine Zeitdifferenzen zwischen zwei Zeiten bestehen, auf die mittels zweier Zeitkennzeichnungen von verschiedenen Mediendatenpaketen hingewiesen wird. Dies ist jedoch bei bekannten Systemen wie oben erwähnt der Fall. Die erfindungsgemäße Medienquelle kann andererseits hinsichtlich der Genauigkeit lediglich begrenzten Zugang zur globalen Uhrzeit aufweisen, da der addierte Abspielzeitversatz derart gewählt werden kann, dass diese Ungenauigkeit im jeweiligen Falle kompensiert wird.Consequently can Media sinks according to the invention media data packets play exactly synchronized, since a common playback time is determined and a corresponding media data packet is assigned and the Media data packets will be exactly at this playback time in each media sink played. The exact time playback on the media sinks is possible because The media sinks precisely determine the global time, and usually specific ones Use hardware that does not involve long processing times brings, i. the media sinks are closely linked to global time. The common playing time is at a once read global time coupled, so there are no time differences between two times, to the means of two time tags of different media data packets is pointed out. However, this is the case with known systems as above mentioned the case. The media source according to the invention On the other hand, it can only be limited in terms of accuracy Have access to the global time since the added playtime offset chosen like that can be compensated for this inaccuracy in each case becomes.
Die Erfindung und vorteilhafte Details derselbigen werden im Folgenden anhand beispielhafter Ausführungsformen mit Bezug zu den begleitenden Abbildungen erläutert.The Invention and advantageous details thereof are hereafter using exemplary embodiments with reference to the accompanying drawings.
Der
Abspielzeitversatz muss zwischen der Medienquelle
Hinsichtlich der Takte wird angenommen, dass in einem Medien-Streaming-Gerät zwei Takte verfügbar (zugänglich) sind: Der Abtasttakt und die globale Uhrzeit (globaler Takt). Der Abtasttakt stellt denjenigen Takt dar, der inhärent im Mediendatenstrom vorliegt. Im Falle einer CD als Beispiel einer Quelle eines Audiodatenstroms läuft dieser Abtasttakt mit 44,1 kHz. Die globale Uhrzeit lässt sich von allen Quellen- und Senken-Geräten, welche in die Medienperiode eingebunden sind, lesen. Für IP-Netzwerke beschreibt das Network Time Protocol (NTP) wie ein NTP-Takt durch ein Netzwerk hindurch aufrecht erhalten werden kann. Für Anwendungen mit strengen Anforderungen, wie beim Synchronisieren von zwei Stereokanälen, kann die Genauigkeit und Taktauflösung eines solchen NTP-Taktes möglicherweise nicht ausreichend sein. Deshalb wird angenommen, dass ein Takt mit einer weitaus höheren Genauigkeit und Auflösung verfügbar ist. Dies ist in einigen drahtlosen Systemen der Fall, die einen gemeinsamen Takt für alle gleichgestellten Partner im Kommunikationssystem zur Ausführung eines synchronisierten Frequenzspringens erfordern. Ein Beispiel für ein solches drahtloses System ergibt sich aus der Bluetooth-Spezifikation, bei der alle Teilnehmer eines Piconet einen gemeinsamen Takt aufrecht erhalten. Die Zeit des gemeinsamen Taktes lässt sich von den Medienanwendungen als globale Uhrzeit verwenden. Gewöhnlich werden die Abtasttaktzeit und die globale Uhrzeit in verschiedenen Einheiten gemessen. Beispielsweise kann die globale Uhrzeit in Einheiten von Mikrosekunden ticken, wobei der Abtasttakt in Einheiten einzelner Samples als kleinste Einheit ticken kann.Regarding of beats it is assumed that in a media streaming device two beats are available (accessible) are: the sampling clock and the global time (global clock). Of the Sample Clock represents the clock inherent in the media data stream. In the case of a CD as an example of a source of audio data stream this one is running Sampling clock with 44.1 kHz. The global time can be set by all source and sink devices, who are involved in the media period, read. For IP networks describes the Network Time Protocol (NTP) as an NTP clock through a network can be maintained throughout. For applications with stringent requirements, such as synchronizing two stereo channels the accuracy and clock resolution of such an NTP clock may be not be enough. Therefore, it is assumed that a clock with a much higher accuracy and resolution available is. This is the case in some wireless systems, the one common tact for all peer partners in the communication system to execute a require synchronized frequency hopping. An example of such wireless system results from the Bluetooth specification, at All participants of a Piconet maintain a common tact. The time of the common clock can be determined by the media applications use as global time. Usually the sampling clock time and the global time measured in different units. For example can tick the global time in units of microseconds, where the sampling clock is in units of individual samples as the smallest Unit can tick.
Hinsichtlich der Zeitkennzeichnungen wird angenommen, dass diese auf die in RTP beschriebene Weise verwendet werden. Dies bedeutet, dass eine Zeitkennzeichnung eines Mediendatenpakets den Zeitpunkt spezifiziert, zu dem das erste Sample des Pakets in Zeiteinheiten des Abtasttaktes erzeugt wurde. Zusätzlich zum Mediendatenstrom, welcher die Mediendatenpakete gemäß RTP überträgt, werden Steuerpakete zwischen den Teilnehmern, d.h. zwischen den Medienquellen und den Mediensenken eines Datenstroms, ausgetauscht. Diese Steuerpakete enthalten keine Mediendaten, jedoch abgesehen von weiterer Information zwei Zeitkennzeichnungen, die denselben Zeitpunkt kennzeichnen, wobei eine Zeitkennzeichnung auf die Zeit in Zeiteinheiten des Abtasttaktes hinweist und die andere Zeitkennzeichnung auf denselben Zeitpunkt in Zeiteinheiten der globalen Uhrzeit hinweist. Mit dieser Information kann eine Mediensenke eine Abtasttaktzeit bestimmen, falls eine globale Uhrzeit gegeben ist, und umgekehrt kann diese eine globale Uhrzeit bestimmen, falls eine Abtasttaktzeit gegeben ist. Deshalb erfüllen die Steuerpakete die Funktion der Verknüpfung zwischen der Abtasttaktzeit der Quellen und der globalen Uhrzeit. Es ist somit für eine Mediensenke möglich, den Zeitpunkt zu bestimmen, in dem ein Mediendatenpaket in Zeiteinheiten der globalen Uhrzeit erzeugt wurde, indem die Zeit, auf die über die in Zeiteinheiten des Abtasttaktes gegebene Zeitkennzeichnung des Mediendatenpakets hingewiesen wird, umgewandelt wird.Regarding The time tags are assumed to be the same as in RTP be used described manner. This means that a time stamp of a media data packet specifies the time at which the first Sample of the packet was generated in units of time of the sample clock. additionally to the media data stream which transmits the media data packets according to RTP Control packets between the participants, i. between the media sources and the media sinks of a data stream. These tax packages contain no media data, but apart from further information two time identifiers that mark the same time, wherein a time tag is the time in units of time of the sample clock indicates and the other time stamping at the same time in time units of the global time. With this information can determine a media sink a sample clock time, if global Time is given, and vice versa, this can be a global time determine if a sample clock time is given. That is why the Control packets the function of the link between the sample clock time the sources and the global time. It is thus for a media sink possible, determine the time at which a media data packet is in units of time the global time was generated by the time over which the in time units of the sample clock given time tag of the Media data packets is being converted.
In
Da
die gewöhnlich
für diese
Art externer Verbindung genutzten Bussysteme nicht immer derart gestaltet
sind, dass diese einen Transport mit sehr geringen garantierten
Bereitstellungszeiten ermöglichen,
kann die Taktinformation ihre Genauigkeit (Gültigkeit) verlieren, wenn diese
durch ein solches Bussystem transportiert wird. Beispielsweise verliert
eine Taktinformation einer Genauigkeit von einigen Mikrosekunden
viel von ihrem Wert, falls diese durch ein Bussystem transportiert
wird, das eine Verzögerung von
einigen Millisekunden einbringt, insbesondere wenn diese Verzögerung Gegenstand
einer zufälligen
Schwankung von einigen Millisekunden ist, d.h. die Zeit, die z.B.
zur Erzeugung einer Zeitkennzeichnung verwendet wird, kann möglicherweise
ihre Gültigkeit
verlieren. Zusätzlich
führt ein
Nicht-Echtzeitbetriebssystem
Andererseits
werden als Mediensenken, d.h. den n Mediensenken
Wie
in
Die globale Uhrzeit wird vorzugsweise einmalig auf der Quellenseite direkt am Anfang der kontinuierlichen Übertragungsperiode gelesen, um den Abtasttakt an die globale Uhrzeit zu koppeln. Diese Taktinformation lässt sich zum Erstellen der Zeitkennzeichnungen des ersten Steuerpakets verwenden, das an die Mediensenken übermittelt wird. Hinsichtlich der Zeitkennzeichnungen mit globaler Uhrzeit in nachfolgenden Steuerpaketen, lässt sich die Zeitdifferenz durch Zählen der Anzahl von Samples berechnen, anstatt die globale Uhrzeit erneut zu lesen. Dies ist darauf zurückzuführen, dass die Variation der Bereitstellungszeit der globalen Uhrzeitinformation gewöhnlich zu groß ist und zu Lücken oder Sprüngen beim Abspielen auf der Senkenseite führen würde.The global time is preferably unique on the source side read directly at the beginning of the continuous transmission period, to couple the sampling clock to the global time. This clock information let yourself use to create the time stamps of the first control packet, that sent to the media sinks becomes. Regarding the time codes with global time in subsequent control packets, the time difference can be by counting calculate the number of samples instead of the global time again to read. This is due to the fact that the variation of the provision time of the global time information usually is too big and to gaps or jumps when playing on the sink side would lead.
In
Obwohl
die globale Uhrzeit der Medienquelle unter obiger Schwankung leidet,
wird diese einmalig in einem Schritt
In
dem nächsten
Schritt
Im
nächsten
Schritt
Für eine beliebige
Zeitkennzeichnung nachfolgend übermittelter
Mediendatenpakete von der Medienquelle
Wie
der
Als Ergebnis eines solchen Ablaufs genügt es, dass die Quellenmedienanwendung lediglich leicht an die globale Uhrzeit gekoppelt ist, wobei jede Mediensenke fest an die globale Uhrzeit gekoppelt ist. Wird deshalb ein Nicht-Echtzeit-Gerät wie ein PC oder PDA als Medienquelle und Lautsprecher als Mediensenken verwendet, können die Lautsprecher untereinander sehr fest synchronisiert werden, wodurch die strengen Anforderungen seitens der menschlichen Wahrnehmung von räumlichem Schall erfüllt werden.When As a result of such a process, it suffices that the source media application only slightly linked to the global time, with each media sink is firmly linked to the global time. Will therefore be a non-real-time device like a PC or PDA used as media source and speakers as media sinks, can the speakers are very tightly synchronized with each other, eliminating the strict requirements of human perception of spatial Sound to be fulfilled.
Das
Bluetooth-Modul auf dem PC
Der
PC
Der
PC
Da
die Taktinformation auf der Quellenseite bis zu einem bestimmten
Grad unpräzise
ist, müssen der
erste Bluetooth-Lautsprecher
Bevor
Mediendatenpakete von der Medienquelle
In
einem nachfolgenden Datenbearbeitungsschritt
Für nachfolgende
Mediendatenpakete einer Medienübertragungsperiode
werden der Datenbearbeitungsschritt
In
einem ersten Schritt
Um eine Abspielzeit zu verhandeln (zu planen), brauchen alle Geräte Zugriff auf dieselbe Taktinformation (globale Uhrzeit) als gemeinsame Zeitreferenz. Dann kann die Medienquelle ein Mediendatenpaket einplanen und alle Senken müssen das Mediendatenpaket puffern, bis die festgesetzte globale Uhrzeit erreicht ist.To negotiate (schedule) a playing time, all devices need access to the same timing information (global time) as a common time conference. Then the media source can schedule a media data packet and all sinks must buffer the media data packet until the set global time is reached.
Zusammenfassend werden somit erfindungsgemäß Mediendatenpakete in einem digitalen Audioübertragungssystem von einer Medienquelle an Mediensenken (z.B. Lautsprecher) übertragen. Wird ein Mediendatenpaket von einer Mediensenke empfangen und enthält dieses einem Audiosignal zugehörige Audiodaten von z.B. einem Stereosignal, ist es wichtig, dass dieses Mediendatenpaket zum selben Zeitpunkt abgespielt wird wie ein Mediendatenpaket, das von einer weiteren Mediensenke empfangen wird und ein Audiosignal desselben Stereosignals enthält, d.h. die Mediendatenpakete müssen synchron abgespielt werden. Um dieses synchrone Abspielen der Mediendatenpakete in verschiedenen Mediensenken sicherzustellen, wird eine gemeinsame Abspielzeit von der Medienquelle oder der Mediensenke bestimmt und Mediendatenpakete werden so lange gepuffert, bis diese gemeinsame Abspielzeit erreicht ist. Die Medienquelle oder die Mediensenke bestimmen die gemeinsame Abspielzeit auf Basis einer globalen Uhrzeit, welche auf Basis einer Abtasttaktzeit berechnet wird.In summary are thus according to the invention media data packets in a digital audio transmission system from a media source to media sinks (e.g., speakers). Becomes receive and contain a media data packet from a media sink associated with an audio signal Audio data of e.g. a stereo signal, it is important that this Media file is played at the same time as a media data package, which is received by another media sink and an audio signal contains the same stereo signal, i.e. the media data packages must be synchronous be played. To this synchronous playback of the media data packets in various media sinks, will be a common Playback time determined by the media source or the media sink and Media data packets are buffered until they become common Play time is reached. Determine the media source or the media sink the common playing time based on a global time, which is calculated on the basis of a sample clock time.
Claims (12)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP02020070A EP1398931B1 (en) | 2002-09-06 | 2002-09-06 | Synchronous play-out of media data packets |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60211157D1 DE60211157D1 (en) | 2006-06-08 |
DE60211157T2 true DE60211157T2 (en) | 2007-02-08 |
Family
ID=31725366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60211157T Expired - Lifetime DE60211157T2 (en) | 2002-09-06 | 2002-09-06 | Synchronous playback of media packages |
Country Status (5)
Country | Link |
---|---|
US (1) | US7675943B2 (en) |
EP (1) | EP1398931B1 (en) |
JP (1) | JP4559050B2 (en) |
CN (1) | CN1489356B (en) |
DE (1) | DE60211157T2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012042017A2 (en) | 2010-09-30 | 2012-04-05 | Schneider Electric Automation Gmbh | Method and system for recording, synchronizing and analysing data by means of analysis devices which are spatially distributed in a communication network |
Families Citing this family (135)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11294618B2 (en) | 2003-07-28 | 2022-04-05 | Sonos, Inc. | Media player system |
US8290603B1 (en) | 2004-06-05 | 2012-10-16 | Sonos, Inc. | User interfaces for controlling and manipulating groupings in a multi-zone media system |
US11650784B2 (en) | 2003-07-28 | 2023-05-16 | Sonos, Inc. | Adjusting volume levels |
US9207905B2 (en) | 2003-07-28 | 2015-12-08 | Sonos, Inc. | Method and apparatus for providing synchrony group status information |
US8234395B2 (en) | 2003-07-28 | 2012-07-31 | Sonos, Inc. | System and method for synchronizing operations among a plurality of independently clocked digital data processing devices |
US11106425B2 (en) | 2003-07-28 | 2021-08-31 | Sonos, Inc. | Synchronizing operations among a plurality of independently clocked digital data processing devices |
US8086752B2 (en) | 2006-11-22 | 2011-12-27 | Sonos, Inc. | Systems and methods for synchronizing operations among a plurality of independently clocked digital data processing devices that independently source digital data |
US11106424B2 (en) | 2003-07-28 | 2021-08-31 | Sonos, Inc. | Synchronizing operations among a plurality of independently clocked digital data processing devices |
US7362765B1 (en) * | 2003-12-15 | 2008-04-22 | Dinochip, Inc. | Network traffic management system with floating point sorter |
US9374607B2 (en) | 2012-06-26 | 2016-06-21 | Sonos, Inc. | Media playback system with guest access |
US9977561B2 (en) | 2004-04-01 | 2018-05-22 | Sonos, Inc. | Systems, methods, apparatus, and articles of manufacture to provide guest access |
US8024055B1 (en) | 2004-05-15 | 2011-09-20 | Sonos, Inc. | Method and system for controlling amplifiers |
US8326951B1 (en) | 2004-06-05 | 2012-12-04 | Sonos, Inc. | Establishing a secure wireless network with minimum human intervention |
US8868698B2 (en) | 2004-06-05 | 2014-10-21 | Sonos, Inc. | Establishing a secure wireless network with minimum human intervention |
US7792158B1 (en) | 2004-08-18 | 2010-09-07 | Atheros Communications, Inc. | Media streaming synchronization |
US8149880B1 (en) | 2004-08-18 | 2012-04-03 | Qualcomm Atheros, Inc. | Media streaming synchronization |
US7796651B2 (en) * | 2005-03-02 | 2010-09-14 | Nokia Corporation | See what you see (SWYS) |
ES2745045T3 (en) | 2005-04-22 | 2020-02-27 | Audinate Pty Ltd | Network, device and method to transport digital media |
US8068515B2 (en) * | 2005-06-22 | 2011-11-29 | Cisco Technology, Inc. | Faster multimedia synchronization of broadcast streams using router caching of RTCP packets |
DE102005036734A1 (en) * | 2005-08-04 | 2007-02-08 | Robert Bosch Gmbh | Telecommunication device with a wireless interface and method for operating a telecommunication device |
US7842031B2 (en) * | 2005-11-18 | 2010-11-30 | Medtronic Cryocath Lp | Bioimpedance measurement system and method |
JP4509921B2 (en) * | 2005-12-14 | 2010-07-21 | 日本電信電話株式会社 | Wireless communication system and wireless communication method |
US7539889B2 (en) * | 2005-12-30 | 2009-05-26 | Avega Systems Pty Ltd | Media data synchronization in a wireless network |
US8677002B2 (en) | 2006-01-28 | 2014-03-18 | Blackfire Research Corp | Streaming media system and method |
JP2007274019A (en) * | 2006-03-30 | 2007-10-18 | Matsushita Electric Ind Co Ltd | Digital information distribution system and method |
EP2033360B1 (en) | 2006-05-17 | 2015-12-02 | Audinate Pty Limited | Redundant media packet streams |
US8239559B2 (en) | 2006-07-15 | 2012-08-07 | Blackfire Research Corp. | Provisioning and streaming media to wireless speakers from fixed and mobile media sources and clients |
US7945277B2 (en) * | 2006-07-26 | 2011-05-17 | Sony Ericsson Mobile Communications Ab | Use of media timestamp to indicate delays in push-to-talk over cellular group calls |
US7941477B2 (en) * | 2006-07-26 | 2011-05-10 | V V S Virtual Video Systems | Video and multimedia distribution system |
CN1960485B (en) * | 2006-08-29 | 2011-12-07 | 中兴通讯股份有限公司 | Method for playing back video and audio synchronistically in mobile media broadcast |
US20080077261A1 (en) * | 2006-08-29 | 2008-03-27 | Motorola, Inc. | Method and system for sharing an audio experience |
US8483853B1 (en) | 2006-09-12 | 2013-07-09 | Sonos, Inc. | Controlling and manipulating groupings in a multi-zone media system |
US12167216B2 (en) | 2006-09-12 | 2024-12-10 | Sonos, Inc. | Playback device pairing |
US8788080B1 (en) | 2006-09-12 | 2014-07-22 | Sonos, Inc. | Multi-channel pairing in a media system |
US9202509B2 (en) | 2006-09-12 | 2015-12-01 | Sonos, Inc. | Controlling and grouping in a multi-zone media system |
US9083994B2 (en) * | 2006-09-26 | 2015-07-14 | Qualcomm Incorporated | Method and system for error robust audio playback time stamp reporting |
JP4935345B2 (en) | 2006-12-25 | 2012-05-23 | ソニー株式会社 | Content reproduction system, reproduction apparatus, reproduction control method, and program |
CN101212690B (en) * | 2006-12-26 | 2011-04-20 | 中兴通讯股份有限公司 | Method for testing lip synchronization for multimedia audio/video stream |
US8224147B2 (en) | 2007-04-15 | 2012-07-17 | Avid Technologies, Inc. | Interconnected multimedia systems with synchronized playback |
US7724780B2 (en) * | 2007-04-19 | 2010-05-25 | Cisco Technology, Ink. | Synchronization of one or more source RTP streams at multiple receiver destinations |
CN101137066B (en) * | 2007-05-11 | 2011-01-05 | 中兴通讯股份有限公司 | Multimedia data flow synchronous control method and device |
CN101731011B (en) | 2007-05-11 | 2014-05-28 | 奥迪耐特有限公司 | Systems, methods and computer-readable media for configuring receiver latency |
US8320410B2 (en) | 2007-05-23 | 2012-11-27 | Broadcom Corporation | Synchronization of media data streams with separate sinks using a relay |
US8102836B2 (en) | 2007-05-23 | 2012-01-24 | Broadcom Corporation | Synchronization of a split audio, video, or other data stream with separate sinks |
US20090017868A1 (en) * | 2007-07-13 | 2009-01-15 | Joji Ueda | Point-to-Point Wireless Audio Transmission |
US7936790B2 (en) * | 2007-08-30 | 2011-05-03 | Silicon Image, Inc. | Synchronizing related data streams in interconnection networks |
JP4967945B2 (en) * | 2007-09-13 | 2012-07-04 | ヤマハ株式会社 | Terminal device and data distribution system |
US8743284B2 (en) * | 2007-10-08 | 2014-06-03 | Motorola Mobility Llc | Synchronizing remote audio with fixed video |
GB2454493A (en) * | 2007-11-08 | 2009-05-13 | Cambridge Silicon Radio Ltd | Improved bluetooth clock accuracy |
JP2009159401A (en) * | 2007-12-27 | 2009-07-16 | Rohm Co Ltd | Radio communication system |
WO2009099366A1 (en) * | 2008-02-05 | 2009-08-13 | Telefonaktiebolaget L M Ericsson (Publ) | A method of transmitting sychnronized speech and video |
WO2009098669A2 (en) * | 2008-02-08 | 2009-08-13 | Nxp B.V. | Audio streaming system and method for continuously synchronizing streamed audio data files |
KR100916505B1 (en) * | 2008-02-20 | 2009-09-08 | 한국전자통신연구원 | Method and apparatus for supporting synchronization of scalable video coding information with advanced audio coding information using normal playback time |
CN102017652B (en) * | 2008-02-29 | 2015-05-13 | 奥迪耐特有限公司 | Network devices, methods and/or systems for use in a media network |
US8654988B2 (en) * | 2008-05-05 | 2014-02-18 | Qualcomm Incorporated | Synchronization of signals for multiple data sinks |
JP5316189B2 (en) * | 2008-05-23 | 2013-10-16 | ヤマハ株式会社 | AV system |
US20090298420A1 (en) * | 2008-05-27 | 2009-12-03 | Sony Ericsson Mobile Communications Ab | Apparatus and methods for time synchronization of wireless audio data streams |
US8639830B2 (en) * | 2008-07-22 | 2014-01-28 | Control4 Corporation | System and method for streaming audio |
US8776144B2 (en) | 2008-10-16 | 2014-07-08 | Industrial Technology Research Institute | Mobile TV system and method for synchronizing the rendering of streaming services thereof |
TWI393431B (en) * | 2008-10-16 | 2013-04-11 | Ind Tech Res Inst | Mobile tv system and method for synchronizing the rendering of streaming services thereof |
EP2180655A1 (en) * | 2008-10-27 | 2010-04-28 | Thomson Licensing SA | Method of transmission af a digital content stream and corresponding method of reception |
ES2536556T3 (en) * | 2009-02-20 | 2015-05-26 | Thomson Licensing | Time synchronized resource reservation on networks with switched packets |
DE102009028645B4 (en) | 2009-08-19 | 2014-04-03 | Raumfeld Gmbh | Method and arrangement for the synchronization of data streams in networks and a corresponding computer program and a corresponding computer-readable storage medium |
GB0921668D0 (en) * | 2009-12-10 | 2010-01-27 | Vocality Internat Ltd | Media over IP perfomance enhancement |
EP3627798A1 (en) | 2010-01-27 | 2020-03-25 | Koninklijke KPN N.V. | Method, system and device for synchronization of media streams |
JP5454248B2 (en) * | 2010-03-12 | 2014-03-26 | ソニー株式会社 | Transmission device and transmission method |
KR101490576B1 (en) * | 2010-05-04 | 2015-02-11 | 샤잠 엔터테인먼트 리미티드 | Methods and systems for syschronizing media |
FR2962875B1 (en) * | 2010-07-15 | 2012-08-17 | Soledge | SYNCHRONIZED DIFFUSION OF FLOW |
US10712771B2 (en) * | 2010-08-13 | 2020-07-14 | Netflix, Inc. | System and method for synchronized playback of streaming digital content |
GB2486183A (en) * | 2010-12-03 | 2012-06-13 | Cambridge Silicon Radio Ltd | Time stamps are added to data transmitted via Bluetooth® connections to facilitate synchronised output of the data from a plurality of devices. |
US8643696B2 (en) * | 2011-01-19 | 2014-02-04 | Broadcom Corporation | Synchronizing media streams using time signal(s) from an independent time source |
US11265652B2 (en) | 2011-01-25 | 2022-03-01 | Sonos, Inc. | Playback device pairing |
US11429343B2 (en) | 2011-01-25 | 2022-08-30 | Sonos, Inc. | Stereo playback configuration and control |
US8938312B2 (en) | 2011-04-18 | 2015-01-20 | Sonos, Inc. | Smart line-in processing |
US8677006B2 (en) * | 2011-05-05 | 2014-03-18 | Microsoft Corporation | Processing media streams |
US9042556B2 (en) | 2011-07-19 | 2015-05-26 | Sonos, Inc | Shaping sound responsive to speaker orientation |
US9712573B2 (en) | 2011-09-13 | 2017-07-18 | Qualcomm Incorporated | Synchronized wireless display devices |
US9455885B2 (en) * | 2011-10-13 | 2016-09-27 | General Electric Company | Systems, methods, and apparatus for modifying sensor time stamp data |
US9344292B2 (en) | 2011-12-30 | 2016-05-17 | Sonos, Inc. | Systems and methods for player setup room names |
US8817725B2 (en) * | 2012-01-13 | 2014-08-26 | Blackberry Limited | Scheduling transmission of traffic treated less preferentially despite timing requirements |
EP2615880B1 (en) * | 2012-01-13 | 2014-04-09 | BlackBerry Limited | Scheduling transmission of traffic treated less preferentially despite timing requirements |
EP2632066B1 (en) * | 2012-02-27 | 2016-01-06 | OMS Software GmbH | Method and and devices for synchronising an output of machine-readable data |
US9729115B2 (en) | 2012-04-27 | 2017-08-08 | Sonos, Inc. | Intelligently increasing the sound level of player |
US9787523B2 (en) * | 2012-07-05 | 2017-10-10 | Eric Lazarus | Managing data in a data queue including synchronization of media on multiple devices |
US9008330B2 (en) | 2012-09-28 | 2015-04-14 | Sonos, Inc. | Crossover frequency adjustments for audio speakers |
FR3000864B1 (en) * | 2013-01-10 | 2015-02-27 | Awox | SOUND SIGNAL DIFFUSION SYNCHRONIZATION DEVICE AND SOUND DIFFUSER |
US9510055B2 (en) | 2013-01-23 | 2016-11-29 | Sonos, Inc. | System and method for a media experience social interface |
US20140214961A1 (en) * | 2013-01-31 | 2014-07-31 | Lance Gordon Douglas | Methods and systems for continuous compilation of non-interactive video with supplemental renderings of interactive content to produce real-time, personalized video for individuals and/or groups in a shared experience |
US9654545B2 (en) | 2013-09-30 | 2017-05-16 | Sonos, Inc. | Group coordinator device selection |
US20150095679A1 (en) | 2013-09-30 | 2015-04-02 | Sonos, Inc. | Transitioning A Networked Playback Device Between Operating Modes |
US9288596B2 (en) | 2013-09-30 | 2016-03-15 | Sonos, Inc. | Coordinator device for paired or consolidated players |
US9720576B2 (en) | 2013-09-30 | 2017-08-01 | Sonos, Inc. | Controlling and displaying zones in a multi-zone system |
US9244516B2 (en) | 2013-09-30 | 2016-01-26 | Sonos, Inc. | Media playback system using standby mode in a mesh network |
US9301268B2 (en) | 2013-11-08 | 2016-03-29 | Nokia Technologies Oy | Device synchronization |
US9300647B2 (en) | 2014-01-15 | 2016-03-29 | Sonos, Inc. | Software application and zones |
US20150220498A1 (en) | 2014-02-05 | 2015-08-06 | Sonos, Inc. | Remote Creation of a Playback Queue for a Future Event |
US9226087B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US9226073B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
WO2015122814A1 (en) * | 2014-02-14 | 2015-08-20 | Telefonaktiebolaget L M Ericsson (Publ) | Synchronising playing of streaming content on plural streaming clients |
US9723580B2 (en) * | 2014-02-21 | 2017-08-01 | Summit Semiconductor Llc | Synchronization of audio channel timing |
US10582461B2 (en) | 2014-02-21 | 2020-03-03 | Summit Wireless Technologies, Inc. | Software based audio timing and synchronization |
US10602468B2 (en) | 2014-02-21 | 2020-03-24 | Summit Wireless Technologies, Inc. | Software based audio timing and synchronization |
US9679054B2 (en) | 2014-03-05 | 2017-06-13 | Sonos, Inc. | Webpage media playback |
JP2015171065A (en) * | 2014-03-10 | 2015-09-28 | 富士通株式会社 | System and method |
US9319792B1 (en) * | 2014-03-17 | 2016-04-19 | Amazon Technologies, Inc. | Audio capture and remote output |
US10587693B2 (en) | 2014-04-01 | 2020-03-10 | Sonos, Inc. | Mirrored queues |
US20150324552A1 (en) | 2014-05-12 | 2015-11-12 | Sonos, Inc. | Share Restriction for Media Items |
US20150356084A1 (en) | 2014-06-05 | 2015-12-10 | Sonos, Inc. | Social Queue |
CN104079957B (en) * | 2014-06-25 | 2017-09-01 | 广东欧珀移动通信有限公司 | Method and system for synchronous operation of multimedia equipment |
US10209947B2 (en) | 2014-07-23 | 2019-02-19 | Sonos, Inc. | Device grouping |
US9874997B2 (en) | 2014-08-08 | 2018-01-23 | Sonos, Inc. | Social playback queues |
US9860286B2 (en) | 2014-09-24 | 2018-01-02 | Sonos, Inc. | Associating a captured image with a media item |
US9667679B2 (en) | 2014-09-24 | 2017-05-30 | Sonos, Inc. | Indicating an association between a social-media account and a media playback system |
US9959087B2 (en) | 2014-09-24 | 2018-05-01 | Sonos, Inc. | Media item context from social media |
US9690540B2 (en) | 2014-09-24 | 2017-06-27 | Sonos, Inc. | Social media queue |
WO2016049342A1 (en) | 2014-09-24 | 2016-03-31 | Sonos, Inc. | Social media connection recommendations based on playback information |
US10645130B2 (en) | 2014-09-24 | 2020-05-05 | Sonos, Inc. | Playback updates |
US9723038B2 (en) | 2014-09-24 | 2017-08-01 | Sonos, Inc. | Social media connection recommendations based on playback information |
US11044386B1 (en) | 2014-12-18 | 2021-06-22 | The Directv Group, Inc. | Method and system for synchronizing playback of independent audio and video streams through a network |
US9788140B2 (en) | 2014-12-31 | 2017-10-10 | Qualcomm Technologies International, Ltd. | Time to play |
CN106302378B (en) * | 2015-05-25 | 2020-09-22 | 恩智浦美国有限公司 | Multimedia system and method for stream synchronization |
US10248376B2 (en) | 2015-06-11 | 2019-04-02 | Sonos, Inc. | Multiple groupings in a playback system |
CN105306110B (en) * | 2015-09-18 | 2018-08-17 | 深圳市冠旭电子股份有限公司 | A kind of method and system realized synchronous music and played |
US10303422B1 (en) | 2016-01-05 | 2019-05-28 | Sonos, Inc. | Multiple-device setup |
US9886234B2 (en) | 2016-01-28 | 2018-02-06 | Sonos, Inc. | Systems and methods of distributing audio to one or more playback devices |
US10712997B2 (en) | 2016-10-17 | 2020-07-14 | Sonos, Inc. | Room association based on name |
US10241748B2 (en) * | 2016-12-13 | 2019-03-26 | EVA Automation, Inc. | Schedule-based coordination of audio sources |
US10009862B1 (en) * | 2017-09-06 | 2018-06-26 | Texas Instruments Incorporated | Bluetooth media device time synchronization |
JP7213771B2 (en) | 2019-07-22 | 2023-01-27 | 株式会社ディーアンドエムホールディングス | Wireless Audio Systems, Wireless Speakers, and How to Join Wireless Speaker Groups |
CN112105005B (en) * | 2019-08-30 | 2024-05-03 | 炬力(珠海)微电子有限公司 | Method and device for controlling Bluetooth equipment to play |
FR3109047B1 (en) * | 2020-04-01 | 2022-03-04 | Sagemcom Broadband Sas | Method of applying equalization parameter set |
CN111586152B (en) * | 2020-04-30 | 2023-06-02 | 北京小米移动软件有限公司 | Bluetooth transmission data playing method and device and Bluetooth transmission data sending method and device |
CN113438385B (en) * | 2021-06-03 | 2023-04-04 | 深圳市昊一源科技有限公司 | Video synchronization method and wireless image transmission system |
CN114826474B (en) * | 2022-04-28 | 2025-02-18 | Oppo广东移动通信有限公司 | Audio data processing system, method, device, electronic device and storage medium |
EP4287626A1 (en) * | 2022-06-02 | 2023-12-06 | Airbus S.A.S. | System and method for synchronized data playback and aircraft |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02122800A (en) * | 1988-10-31 | 1990-05-10 | Matsushita Electric Ind Co Ltd | Sound reproducing device |
JPH04176299A (en) * | 1990-11-09 | 1992-06-23 | Matsushita Electric Ind Co Ltd | On-vehicle acoustic reproducing device |
WO1995025313A1 (en) * | 1994-03-16 | 1995-09-21 | International Business Machines Corporation | Method and apparatus for synchronization and scheduling of multiple data streams and real time tasks |
GB2298951B (en) * | 1995-03-17 | 1999-10-27 | Olivetti Res Ltd | Addition of time information |
JPH099386A (en) * | 1995-06-21 | 1997-01-10 | Mitsubishi Cable Ind Ltd | Speaker system |
US6360271B1 (en) * | 1999-02-02 | 2002-03-19 | 3Com Corporation | System for dynamic jitter buffer management based on synchronized clocks |
JP2001127712A (en) | 1999-10-29 | 2001-05-11 | Yazaki Corp | Sound system |
JP4083361B2 (en) * | 1999-12-21 | 2008-04-30 | パイオニア株式会社 | Information reproduction system |
US6778493B1 (en) * | 2000-02-07 | 2004-08-17 | Sharp Laboratories Of America, Inc. | Real-time media content synchronization and transmission in packet network apparatus and method |
JP2001275194A (en) * | 2000-03-27 | 2001-10-05 | Aiwa Co Ltd | Speaker system, information transmitter and speaker unit |
US7031306B2 (en) * | 2000-04-07 | 2006-04-18 | Artel Video Systems, Inc. | Transmitting MPEG data packets received from a non-constant delay network |
US6801505B1 (en) * | 2000-11-28 | 2004-10-05 | Qosmetrics, Inc. | Method of using computer equipment to send a time-stamped frame |
US7530086B2 (en) * | 2000-12-12 | 2009-05-05 | Hewlett-Packard Development Company, L.P. | Media program timing and identity delivery method and system |
US6947417B2 (en) * | 2001-06-29 | 2005-09-20 | Ip Unity | Method and system for providing media services |
US7161939B2 (en) * | 2001-06-29 | 2007-01-09 | Ip Unity | Method and system for switching among independent packetized audio streams |
US7016348B2 (en) * | 2001-08-28 | 2006-03-21 | Ip Unity | Method and system for direct access to web content via a telephone |
US7047308B2 (en) * | 2001-08-31 | 2006-05-16 | Sharp Laboratories Of America, Inc. | System and method for simultaneous media playout |
US7269141B2 (en) * | 2002-09-24 | 2007-09-11 | Accton Technology Corporation | Duplex aware adaptive playout method and communications device |
-
2002
- 2002-09-06 DE DE60211157T patent/DE60211157T2/en not_active Expired - Lifetime
- 2002-09-06 EP EP02020070A patent/EP1398931B1/en not_active Expired - Lifetime
-
2003
- 2003-09-04 US US10/656,764 patent/US7675943B2/en not_active Expired - Fee Related
- 2003-09-05 CN CN031554695A patent/CN1489356B/en not_active Expired - Fee Related
- 2003-09-08 JP JP2003315997A patent/JP4559050B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012042017A2 (en) | 2010-09-30 | 2012-04-05 | Schneider Electric Automation Gmbh | Method and system for recording, synchronizing and analysing data by means of analysis devices which are spatially distributed in a communication network |
DE102010037906A1 (en) * | 2010-09-30 | 2012-04-05 | Schneider Electric Automation Gmbh | Method and system for recording, synchronizing and analyzing data by means of spatially distributed analysis devices in a communication network |
DE102010037906B4 (en) * | 2010-09-30 | 2014-02-27 | Schneider Electric Automation Gmbh | Method and system for recording, synchronizing and analyzing data by means of spatially distributed analysis devices in a communication network |
Also Published As
Publication number | Publication date |
---|---|
US7675943B2 (en) | 2010-03-09 |
CN1489356A (en) | 2004-04-14 |
JP4559050B2 (en) | 2010-10-06 |
EP1398931B1 (en) | 2006-05-03 |
DE60211157D1 (en) | 2006-06-08 |
JP2004104796A (en) | 2004-04-02 |
US20040228367A1 (en) | 2004-11-18 |
CN1489356B (en) | 2010-04-14 |
EP1398931A1 (en) | 2004-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60211157T2 (en) | Synchronous playback of media packages | |
US20230269423A1 (en) | Fast Tune-In for Low Latency Streaming | |
DE60110002T2 (en) | System for transmitting streaming data and repeaters therefor | |
DE112012002526B4 (en) | Media content transmission method and transmission apparatus using the same | |
DE69637212T2 (en) | Data transmission device, data receiving device and control device for data transmission | |
CN102752669B (en) | The transfer processing method of multichannel real time flow medium file and system, receiving system | |
DE112006002677T5 (en) | Method and apparatus for RTP output streaming using complementary directional files | |
DE102010018376A1 (en) | Dynamic buffering and synchronization of related media streams in packet networks | |
US20150229676A1 (en) | Communication Receiver | |
DE112012002159T5 (en) | Context-aware client buffer thresholds | |
DE60220802T2 (en) | METHOD OF DISTRIBUTING CONTENTS OF A DETECTION SERVER AND RECEIVER | |
EP1425885B1 (en) | Method and system for transmitting data from a first data network into a second data network | |
DE102010003248B4 (en) | Method and device for processing data in a network of a vehicle | |
JP7247707B2 (en) | Transmission node, broadcasting station system, control node and transmission control method | |
CN110602524B (en) | Method, device and system for synchronizing multi-channel digital streams and storage medium | |
DE102007026531A1 (en) | Method for synchronizing scene data files and media data streams in a unidirectional data transmission system | |
JP7334442B2 (en) | Broadcast signal processing system and broadcast signal processing method | |
DE102006036562B4 (en) | Method and system for transmitting data streams related to one another and / or for synchronizing data streams related to one another | |
KR100640918B1 (en) | How to Create a Stream File for an Internet Streaming Service | |
Sithu et al. | Media synchronization control in multimedia communication | |
WO2018036245A1 (en) | Method and apparatus for bandwidth management, and storage medium | |
WO2016128145A1 (en) | Method for transmitting data in a multimedia system, and software product and device for controlling the transmission of data in a multimedia system | |
JP2020022082A (en) | Stream distribution system with segment file division function and program | |
DE102010005682B4 (en) | Method and device for processing data in a vehicle | |
DE102018108784B4 (en) | Method for sending a digital video signal to a receiving device, processing unit and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |