LINUX.ORG.RU

Передача по сети изображений в виде видео использованием Gstreamer на C++

 , ,


0

1

Добрый день. Не могли бы помочь пожалуйста с решением следующей проблемы, хочу передавать по сети используя Gstreamer видео. Но, у меня входящие данные в виде изображений (на вход не получаю видеопоток), собственно возникла необходимость эти изображения транслировать в виде видео, после долгих поисков нашел подходящий код. (там на статичном изображении, это я могу переделать без проблем под свои данные). Код рабочий, указанное изображение без проблем выводит в окошке, но, для меня окошко не нужно и нужно это передавать по сети (чтобы используя айпи и порт в дальнейшем была возможность получить удаленно видео). Проблема с которой столкнулся - не могу понять как правильно сделать чтобы по сети передавались данные. Если есть и проще способ эту задачу решить буду благодарен узнать о них. Заранее огромное спасибо за помочь!

Код прикрепляю:

static GMainLoop *loop;

static void cb_need_data (GstElement *appsrc, guint unused_size, gpointer user_data) { static gboolean white = FALSE; static GstClockTime timestamp = 0; GstBuffer *buffer; guint size,depth,height,width,step,channels; GstFlowReturn ret; IplImage* img; guchar *data1; GstMapInfo map;

img=cvLoadImage(«frame1.jpg»,CV_LOAD_IMAGE_COLOR); height = img->height; width = img->width; step = img->widthStep; channels = img->nChannels; depth = img->depth; data1 = (guchar *)img->imageData; size = height*width*channels;

buffer = gst_buffer_new_allocate (NULL, size, NULL); gst_buffer_map (buffer, &map, GST_MAP_WRITE); memcpy( (guchar *)map.data, data1, gst_buffer_get_size( buffer ) ); /* this makes the image black/white */ //gst_buffer_memset (buffer, 0, white ? 0xff : 0x0, size);

white = !white;

GST_BUFFER_PTS (buffer) = timestamp; GST_BUFFER_DURATION (buffer) = gst_util_uint64_scale_int (1, GST_SECOND, 2);

timestamp += GST_BUFFER_DURATION (buffer);

g_signal_emit_by_name (appsrc, «push-buffer», buffer, &ret);

if (ret != GST_FLOW_OK) { /* something wrong, stop pushing */ g_main_loop_quit (loop); } }

gint main (gint argc, gchar *argv[]) { GstElement *pipeline, *appsrc, *conv, *videosink;

/* init GStreamer */ gst_init (&argc, &argv); loop = g_main_loop_new (NULL, FALSE);

/* setup pipeline */ pipeline = gst_pipeline_new («pipeline»); appsrc = gst_element_factory_make («appsrc», «source»); conv = gst_element_factory_make («videoconvert», «conv»); videosink = gst_element_factory_make («autovideosink», «videosink»);

/* setup */ g_object_set (G_OBJECT (appsrc), «caps», gst_caps_new_simple («video/x-raw», «format», G_TYPE_STRING, «RGB», «width», G_TYPE_INT, 640, «height», G_TYPE_INT, 360, «framerate», GST_TYPE_FRACTION, 1, 1, NULL), NULL); gst_bin_add_many (GST_BIN (pipeline), appsrc, conv, videosink, NULL); gst_element_link_many (appsrc, conv, videosink, NULL); //g_object_set (videosink, «device», «/dev/video0», NULL); /* setup appsrc */ g_object_set (G_OBJECT (appsrc), «stream-type», 0, «format», GST_FORMAT_TIME, NULL); g_signal_connect (appsrc, «need-data», G_CALLBACK (cb_need_data), NULL);

/* play */ gst_element_set_state (pipeline, GST_STATE_PLAYING); g_main_loop_run (loop);

/* clean up */ gst_element_set_state (pipeline, GST_STATE_NULL); gst_object_unref (GST_OBJECT (pipeline)); g_main_loop_unref (loop);

return 0; }

gstreamer имеет много модулей для этой задачи, но, когда я им пользовался, rtp поток формированный gstreamer мог читать только gstreamer, поэтому я использовал live555.

imb ★★ ()
Ответ на: комментарий от imb

Да, знаю, что можно только Gstreamer`ом можно. Но все же хотелось попробовать, как я смог узнать, Gstreamer с наименьшими задержками работает. Можете помочь как вот мне сделать чтобы по сети передавалось? Хотя бы направление, потому что не знаю даже в каком направлении копать, примеры которые видел отличаются и из-за этого еще больше вопросов возникает(

Live555 может из кадров собирать видео и отправлять по сети? Я еще как вариант смотрел передачу MJPEG, на гите даже пример находил, но как-то не получилось разобраться чтобы из картинок видео транслировал

AshYorik ()
Ответ на: комментарий от AshYorik

как я смог узнать, Gstreamer с наименьшими задержками работает.

это неверная информация.

Зачем вам сразу код, начините со сборки pipeline gstreamer под ваши нужды рассматривая гугл в районе «gstreamer low latency streaming»

hizel ★★★★★ ()
Ответ на: комментарий от hizel

Рассматривал уже на сайте Gstreamer хотя бы обычные примеры, где можно было бы видео в коде захватить и транслировать, либо сам загнался, либо примеры и туториалы не объясняют толком суть работы..

Хотел бы с Gstreamer научиться работать именно с использованием кода на C++ (или просто СИ)

AshYorik ()
Ответ на: комментарий от anonymous

Смысл грубить человеку? Просто дайте человеку совет или направьте в нужную сторону для получения необходимых знаний. Имхо

anonymous ()
Ответ на: комментарий от imb

rtp поток формированный gstreamer мог читать только gstreamer

когда это было (gst-0.10 лет пять наверно как устарел) да и кодек аппаратный с кривым плагином от вендора, в общем вообще не показатель

anonymous ()
Ответ на: комментарий от anonymous

когда это было (gst-0.10 лет пять наверно как устарел) да и кодек аппаратный с кривым плагином от вендора, в общем вообще не показатель

да, gstreamer-0.10, но я не улавливаю связь между плагином вендора и формирования сетевого потока плагином gstremer-а, хорошо если ситуация изменилась

imb ★★ ()

Предлагаю начать с gst-launch. Это командайн приложение для составления пайплайна. Для него много примеров и это позволяет быстро познакомится с плагинами и составить пайплайн. Гуглить например gst-launch rtp video transmitter. Потом прибить гвоздями в c++.

anonymous ()
Ответ на: комментарий от anonymous

Всем спасибо за ответы. Возник вопрос по gst-launch, в pipeline для передачи прописывается хост куда будет ссылаться стрим, а возможно сделать так, чтобы несколько клиентов могло быть? При этом из айпи не прописывая жестко

AshYorik ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.