<p class="MsoPlainText">Hi Ross / Live Developers,</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">Great library-- it was a pleasure to integrate!<span>  </span>We are transmitting a sequence of
uncorrelated image frames using a subclass of JPEGVideoSource.</p>

<p class="MsoPlainText">We would also like to transmit a stream of XML fragments
(one-to-one with the video frames) which contain information about each frame.</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">What I have understood so far from previous threads is
that I can create a custom payload format using subclasses of MultiFramedSource
/ MultiFramedSync.<span>  </span>I would then modify
the MediaSession::initiate method to add explicit support for this payload
format.<span>  </span>On the server side, I also
create a new MediaSubsession containing the source/sink and add it to my
MediaSession.</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">It seems like modifying the liveMedia source to add our
application-specific format would be a little inelegant.<span>  </span>Is this really the best option, or do you
have existing payload formats which could be subclassed to provide a container
for a generic data stream?</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">For example, would it be possible to use subclasses of
SimpleRTPSource/Sink to send the raw stream?</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">If the former option is preferable, is there a way to do
this without modifying liveMedia, or should I just jump right in?</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">Thanks again for your hard work and for making this code
available.</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">Best,</p>

<p class="MsoPlainText"> </p>

<p class="MsoPlainText">Dave McMordie</p>