<div dir="ltr"><div><div>Hi all,<br><br></div>I may ask a very simple question, but I couldn't manage to figure it out by my self as I don't know livemedia library arch deeply. I was wondering if there is any kind of frame buffer implementation or this is out of livemedia scope.<br>

<br></div><div>I am thinking of moving my code to livemedia555 for an RTP streaming app (receiver and sender sides), but one of my major concerns goes about the buffer, where packets are stored (after being parsed, imagine h264 payload) and where coded frames are stored (a collection of packets). At which classes should I have a look to understand how the buffers works? <br>

</div><div><div><div><br>I Saw FrameSource and MediaSoure or RTPSource but I couldn't manage to undestand if they actually work as a frame buffer, as I could not understand which data units they manage.<br><br></div>
<div>
Thanks in advance.<br><br></div><div>Kind Regards,<br></div><div>David<br></div></div></div></div>