Делаю подсветку для стола на адресной rgb ленте, пытаюсь визуализировать музыку, для этого использую FFT (разложение на спектр), а дальше на каждый светодиод вывожу цвет в зависимости от интенсивности звука в определенном спектре.
Это работает, но как-то коряво/слабо. Например https://www.youtube.com/watch?v=__TvPr_Wtvc с 14 секунды начинается «ритм» который я явно слышу на слух, но в спектре визуально я не замечаю ничего отчетливого (обновляю спектр 60 раз в секунду).
Попытки гуглить на английском приводят к готовым программам, либо плагинам для редакторов видео, меня же интересует теория и алгоритмы как это вообще сделать