ニューラルネットワーク&誤差逆伝播法 ベース部分完成~! demoではsin波の近似をやらせています。 隠れ層=10個×4層, 活性化関数=ReLU 学習率=0.1→漸減, バッチサイズ=20, 最大10000回
https://turbowarp.org/734795801?hqpen&turbo そのうち、これを使ったプロジェクト出します 出ました→https://scratch.mit.edu/projects/619727301/