<div dir="ltr"><div dir="ltr"><div dir="ltr"><font size="3">I really wanted to post this as a learning check. I think I was able to finally wrap my head around an RTSP/RTP issue I've been having. Specifically, I have been playing around with a coupld of different IP cameras. </font><div><font size="3"><br></font></div><div><font size="3">I</font><span style="font-size:medium">'ve found that I have no real issues streaming (or proxying) 720p or less cameras, but now that I've gotten into some HD and UDH (4MP and 4K) I've been seeing nothing but black frames in VLC. </span></div><div><span style="font-size:medium"><br></span></div><div><span style="font-size:medium">In doing some testing I found that if I switched the transport protocol to TCP I started getting video, even up to 4K. I had previously been using UDP for transport of the RTP stream. I did a few packet captures and found that my average packet loss was around 20%. </span></div><div><span style="font-size:medium"><br></span></div><div><font size="3">In an effort to understand why this was occurring I read Ross's post about OutPacketBuffer::maxSize, and the fact that a single lost packet prevents the reassembly of the whole picture frame. I suppose I have a few questions.</font></div><div><font size="3"><br></font></div><div>I'm now assuming that the mere fact that TCP is a reliable transport protocol is what's ensuring that I get all of the necessary packets to reassemble the image frame. Am I missing something, or is really that simple? Are there any reasons why TCP would work when UDP does not?</div><div><br></div><div>Lastly, I'm trying to understand how the OutPacketBuffer::maxSize value affects things specifically?  I noticed there was a comment that there was no point in going larger than 65536 bytes, but I've seen a number of posts referencing that for giant 4K frames that you should set that value much higher. If my MTU is 1500 how does changing that to be higher affect transport of my frames? </div></div></div></div>