Здравствуйте!
Запрограммировал нейросеть в соответствии с этой статьей: https://microtechnics.ru/obuchenie-nejronnyh-setej-obratnoe-rasprostranenie-oshibki/.
N слоев, M нейронов в каждом слое.
Делаю обучение. На вход много раз подаю вектор, например, такой: (2, 2, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1), использую учитель, например, такой: (0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 0.1, 2, 2).
В результате на первом слое образуются одинаковые веса, такие, что сигма-функция от них = 0.5. То есть входной вектор просто сглаживается.
То же происходит и на прочих слоях, а на последнем веса такие, что формируют на выходе вектор-учитель.
То есть какой бы я не подал вектор на вход обученной сети, на выходе получаю «ОК».
В принципе, мне понятно, почему сеть так себя ведет. Но ведь так не должно быть.
Видимо, я что-то не понимаю, прошу помочь.