You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Regularização Regularização é um tema avançado em machine learning, é muito usado por quem já domina regressão linear. Regularização é usado quando temos um dataset com uma grande quantidade de atributos, isso significa que muitas variáveis seriam ajustadas e o modelo ficaria superestimado com uma variância infinita, sendo inviável o método dos mínimos quadrados. ## Métodos de redução de variáveis Temos basicamente 3 métodos para redução da variância quando o número de variáveis é maior que o número de observações: * Seleção de um subconjunto de coeficientes. * Reduzir a dimensão * Reduzir o valor dos coeficientes (Regularização) ### Reduzir os valores dos coeficientes: > Nesse caso, ajustamos o modelo com todas as variáveis, porém os coeficientes passam a receber pesos reduzindo assim variância dos dados. Esse Método é conhecido como Regularização, dependendo do tipo de Regularização, os coeficientes podem chegar a 0. > A Regularização é um método que colocamos pesos sobre determinados coeficientes, conseguindo minimizá-los para encontrar um modelo adequado. Os dois grupos principais da Regularização é Rigde e LASSO: # Rigde A Regularização Rigde é um método que tem como principal objetivo suavizar atributos que sejam relacionados uns aos outros e que aumentam o ruído no modelo (multicolinearidade). O mecanismo por trás do algoritmo é de penalização, os atributos que contribuem menos para modelo é levado à irrelevância. # LASSO O LASSO tem o mesmo mecanismo de penalização, porém ele penaliza os coeficientes de acordo com seu valor absoluto.