<div dir="ltr">Hello, <br><br>I have been experimenting with live555 for a week now and have had a high level of success in using it to stream h264 video from a camera. Now I want to add audio and I'm having some issues. <br><br>I've read through a lot of the forum content related to this and I'm either doing something peculiar, or I missed something along the way (I'm using Windows, by the way). I have my server setup like this: <br><br><div>    TaskScheduler* taskSchedular = BasicTaskScheduler::createNew();</div><div>    BasicUsageEnvironment* usageEnvironment = BasicUsageEnvironment::createNew(*taskSchedular);</div><div>    RTSPServer* rtspServer = RTSPServer::createNew(*usageEnvironment, 8554, NULL);</div><div>    if (rtspServer == NULL)</div><div>    {</div><div>        *usageEnvironment << "Failed to create rtsp server ::" << usageEnvironment->getResultMsg() << "\n";</div><div>        exit(1);</div><div>    }</div><div><br></div><div>    std::string streamName = "feynman";</div><div>    ServerMediaSession* sms = ServerMediaSession::createNew(*usageEnvironment, streamName.c_str(), streamName.c_str(), "Live H264 Stream");</div><div>    H264LiveServerMediaSession *liveSubSession = H264LiveServerMediaSession::createNew(*usageEnvironment, false);</div><div>    sms->addSubsession(liveSubSession);</div><div>    WindowsAudioMediaSession* audioSession = WindowsAudioMediaSession::createNew(*usageEnvironment, false);</div><div>    sms->addSubsession(audioSession);</div><div>    rtspServer->addServerMediaSession(sms);</div><div>    char* url = rtspServer->rtspURL(sms);</div><div>    *usageEnvironment << "Play the stream using url " << url << "\n";</div><div>    delete[] url;</div><div>    taskSchedular->doEventLoop();</div><div><br></div><div>When just the WindowsAudioMediaSession session is enabled (I comment out the adding of the H264LiveServerMediaSession as a sub session), audio works just fine. I can hear it, it's clear, and we're all good. doGetNextFrame for my AudioInputDevice gets called many times as a second as well. Again, as expected. <br><br>However, the moment I add back in my video stream (which works just fine on its own as well), my AudioInputDevice's doGetNextFrame() is called, maybe, once a second. Video continues to stream just fine (and my FramedSource for video is called as frequently as before), but the audio fails. <br><br>I have seen from reading the lists that care must be taken to ensure the timing is correct between the two streams, but I believe I'm running into a bigger problem since the server just stops calling my AudioInputDevice as frequently the moment both sessions are enabled . <br><br>Do you have any insight into why this might be happening? What am I doing wrong? Thanks in advance. </div></div>