Ao calcular pesos em uma rede neural, por que você multiplica o sinal de erro pela entrada?

Suponho que você esteja se referindo à regra de atualização de peso aplicada durante a retropropagação (a regra delta), definida como:

[math] \ Delta w_ {ji} = \ alpha \ times (t_j – y_j) \ times g ‘(h_j) \ times x_ {j} [/ math]

O erro fornece uma métrica que mede a distância da rede da saída de destino. À medida que a saída da rede se alinha com a saída de destino, o erro tenderá a zero, o que significa que a atualização de peso também tenderá a zero. Isso faz sentido, pois não queremos alterar nossos pesos quando o erro é minimizado. A razão pela qual esse valor é multiplicado pela entrada (para que o peso seja atualizado) é porque a entrada representa a quantidade de influência que esse peso específico exerce sobre a saída de todo o sistema. Se a entrada for comparativamente grande, a influência desse neurônio em particular é geralmente mais forte; e, portanto, uma atualização maior de peso deve ser calculada. Da mesma forma, se a entrada for zero, não haverá influência na saída da rede e, portanto, nenhuma atualização de peso deve ser aplicada.