История изменений
Исправление kvpfs_2, (текущая версия) :
Если я правильно понимаю, то всунуть в fpga алгоритм кодека, который будет жать кадры и сохранять их на SD карту, для нуба - почти нереальная задача?
Но, наверное, fpga можно относительно просто заюзать для «распараллеливания» последовательного интерфейса матрицы? Т.е. fpga читает кадры на высокой частоте с матрицы, и если на входе (где матрица) у него условно была одна линия данных, то на выходе он может сделать, например 10 линий данных, под 10 MCU, на которых будет крутиться кодек и обрабатывать свою маленькую часть кадра. И уже сильно позже все части можно слить в одно целое кино. FPGA можно поставить прям у матрицы, как оно любит, а благодаря большой параллельности после FPGA - вполне хватит низких частот обычных цифровых ног MCU и большие длины шлейфов уже страшны не будут.
PS: хотя я не очень понимаю, почему там так сложно сделать низкочастотный (относительно) интерфейс матрицы, даже для 4к разрешения и иметь возможность выносить камеру далеко. Например, если 4к разрешение, от матрицы 30 линий данных, скорость чтения 25fps, с каждого пикселя читаем по 4 байта (3 на цвет и один на яркость), то за секунуду нужно передать по одной линии данных 210 Mbit, т.е. требуемая частота 210 Mhz. Cat7 Ethernet кабель передаёт передаёт данные на 600 Mhz, ну и 100 метров для него нормальная дистанция. Почему интерфейс матрицы нельзя было сделать более «параллельным» и не работать на «рентгеновских» частотах - хз.
Исправление kvpfs_2, :
Если я правильно понимаю, то всунуть в fpga алгоритм кодека, который будет жать кадры и сохранять их на SD карту, для нуба - почти нереальная задача?
Но, наверное, fpga можно относительно просто заюзать для «распараллеливания» последовательного интерфейса матрицы? Т.е. fpga читает кадры на высокой частоте с матрицы, и если на входе (где матрица) у него условно была одна линия данных, то на выходе он может сделать, например 10 линий данных, под 10 MCU, на которых будет крутиться кодек и обрабатывать свою маленькую часть кадра. И уже сильно позже все части можно слить в одно целое кино. FPGA можно поставить прям у матрицы, как оно любит, а благодаря большой параллельности после FPGA - вполне хватит низких частот обычных цифровых ног MCU и большие длины шлейфов уже страшны не будут.
PS: хотя я не очень понимаю, почему там так сложно сделать низкочастотный (относительно) интерфейс камеры, даже для 4к разрешения и иметь возможность выносить камеру далеко. Например, если 4к разрешение, от матрицы 30 линий данных, скорость чтения 25fps, с каждого пикселя читаем по 4 байта (3 на цвет и один на яркость), то за секунуду нужно передать по одной линии данных 210 Mbit, т.е. требуемая частота 210 Mhz. Cat7 Ethernet кабель передаёт передаёт данные на 600 Mhz, ну и 100 метров для него нормальная дистанция. Почему интерфейс матрицы нельзя было сделать более «параллельным» и не работать на «рентгеновских» частотах - хз.
Исправление kvpfs_2, :
Если я правильно понимаю, то всунуть в fpga алгоритм кодека, который будет жать кадры и сохранять их на SD карту, для нуба - почти нереальная задача?
Но, наверное, fpga можно относительно просто заюзать для «распараллеливания» последовательного интерфейса матрицы? Т.е. fpga читает кадры на высокой частоте с матрицы, и если на входе (где матрица) у него условно была одна линия данных, то на выходе он может сделать, например 10 линий данных, под 10 MCU, на которых будет крутиться кодек и обрабатывать свою маленькую часть кадра. И уже сильно позже все части можно слить в одно целое кино. FPGA можно поставить прям у матрицы, как оно любит, а благодаря большой параллельности после FPGA - вполне хватит низких частот обычных цифровых ног MCU и большие длины шлейфов уже страшны не будут.
PS: хотя я не очень понимаю, почему там так сложно сделать низкочастотный (относительно) интерфейс камеры, даже для 4к разрешения и передавать и иметь возможность выносить камеру далеко. Например, если 4к разрешения, от матрицы 30 линий данных, скорость чтения 25fps, с каждого пикселя читаем по 4 байта (3 на цвет и один на яркость), то за секунуду нужно передать по одной линии данных 210 Mbit, т.е. требуемая частота 210 Mhz. Cat7 Ethernet кабель передаёт передаёт данные на 600 Mhz, ну и 100 метров для него нормальная дистанция. Почему интерфейс матрицы нельзя было сделать более «параллельным» и не работать на «рентгеновских» частотах - хз.
Исходная версия kvpfs_2, :
Если я правильно понимаю, то всунуть в fpga алгоритм кодека, который будет жать кадры и сохранять их на SD карту, для нуба - почти нереальная задача?
Но, наверное, fpga можно относительно просто заюзать для «распараллеливания» последовательного интерфейса матрицы? Т.е. fpga читает кадры на высокой частоте с матрицы, и если на выходе у него условно была одна линия данных, то на выходе он может сделать, например 10 линий данных, под 10 MCU, на которых будет крутиться кодек и обрабатывать свою маленькую часть кадра. И уже сильно позже все части можно слить в одно целое кино. FPGA можно поставить прям у матрицы, как оно любит, а благодаря большой параллельности после FPGA - вполне хватит низких частот обычных цифровых ног MCU и большие длины шлейфов уже страшны не будут.
PS: хотя я не очень понимаю, почему там так сложно сделать низкочастотный (относительно) интерфейс камеры, даже для 4к разрешения и передавать и иметь возможность выносить камеру далеко. Например, если 4к разрешения, от матрицы 30 линий данных, скорость чтения 25fps, с каждого пикселя читаем по 4 байта (3 на цвет и один на яркость), то за секунуду нужно передать по одной линии данных 210 Mbit, т.е. требуемая частота 210 Mhz. Cat7 Ethernet кабель передаёт передаёт данные на 600 Mhz, ну и 100 метров для него нормальная дистанция. Почему интерфейс матрицы нельзя было сделать более «параллельным» и не работать на «рентгеновских» частотах - хз.