Skip to content

Latest commit

 

History

History
1 lines (1 loc) · 1.72 KB

File metadata and controls

1 lines (1 loc) · 1.72 KB

Regularização   Regularização é um tema avançado em machine learning, é muito usado por quem já domina regressão linear.   Regularização é usado quando temos um dataset com uma grande quantidade de atributos, isso significa que muitas variáveis seriam ajustadas e o modelo ficaria superestimado com uma variância infinita, sendo inviável o método dos mínimos quadrados.   ## Métodos de redução de variáveis   Temos basicamente 3 métodos para redução da variância quando o número de variáveis é maior que o número de observações:   * Seleção de um subconjunto de coeficientes. * Reduzir a dimensão  * Reduzir o valor dos coeficientes (Regularização)   ### Reduzir os valores dos coeficientes:   > Nesse caso, ajustamos o modelo com todas as variáveis, porém os coeficientes passam a receber pesos reduzindo assim variância dos dados.   Esse Método é conhecido como Regularização, dependendo do tipo de Regularização, os coeficientes podem chegar a 0.   > A Regularização é um método que colocamos pesos sobre determinados coeficientes, conseguindo minimizá-los para encontrar um modelo adequado.   Os dois grupos principais da Regularização é Rigde e LASSO:   # Rigde   A Regularização Rigde é um método que tem como principal objetivo suavizar atributos que sejam relacionados uns aos outros e que aumentam o ruído no modelo (multicolinearidade).   O mecanismo por trás do algoritmo é de penalização, os atributos que contribuem menos para modelo é levado à irrelevância.    # LASSO   O LASSO tem o mesmo mecanismo de penalização, porém ele penaliza os coeficientes de acordo com seu valor absoluto.