Skip to content

Instantly share code, notes, and snippets.

@dcguim
Created October 18, 2014 04:50
Show Gist options
  • Save dcguim/9a8256af09c683777682 to your computer and use it in GitHub Desktop.
Save dcguim/9a8256af09c683777682 to your computer and use it in GitHub Desktop.

T1 Redes Neurais Daniel Coelho Guimaraes 1021361

GRUPO 1GRUPO 2GRUPO 3
IIIIIIVVVIVIIIIIIIIVVVIVIIIIIIIIVVVIVII
primeira hidden layer011211011211011211
segunda hidden layer022220022220022220
Class. Correta (%)53.0390.9890.4691.3379.3391.3350.6089.4289.6091.3376.6691.356.4990.1289.9486.6677.3386.66
Class. Incorreta (%)46.969.019.538.6620.668.6649.3910.5710.398.6623.338.6643.509.810.0513.3322.6613.33
MAE (%)0.490.410.160.150.330.160.490.150.150.150.340.150.490.170.170.160.330.16
RMSE (%)0.500.490.280.290.400.280.530.290.290.270.420.280.490.290.290.320.410.32
RAE (%)99.3231.5333.2530.6766.3032.1999.5730.9531.2830.4268.5631.32100.1235.2934.7233.5267.6233.72
RRSE (%)100.4656.1556.7958.6781.7556.92107.8259.7059.7055.8884.9056.28100.1158.7358.9165.0982.9764.85
Instancias Corretamente Classificadas306525522137119137292516517137115137326520519130116130
Instancias Incorretamente Classificadas271525513311328561601335132515758203420
Media (%)Desvio Padrao (%)
II53.372.41
III90.170.72
IV900.43
V89.772.69
VI77.761.39
VII89.762.68

Justificativa II: Nesse caso a rede realiza overfitting muito rápido pois aumentando o número de neuronios escondidos (o tamanho da rede) foi observado que a classificação se mantinha, logo nesse caso a rede não necessita ser muito flexível sendo desnecessário o uso de camadas escondidas.

obs: Após feita a normalização, os resultados obtidos (para a mesma configuração de neuronios) melhorou. Logo, a normalização teve efeito positivo na rede.

Justificativa IV: Ao variar o número de épocas com a mesma configuração o resultado foi curioso pois com uma época a rede teve um resultado significantemente pior (53 %) com 100 epócas o resultado foi o melhor obtido (90.46 %) e com 1000 épocas o resultado piorou um pouco (87 %). Isso indica, que esse algoritmo é ótimo para um número entre 100 e 1000 épocas o que é comprovado pois a configuração III classificou 90.98 % corretos com 500 épocas (default). A configuração dos neuronios permaceceu a mesma da configuração III, pois a estrutura da rede continuou a mesma assim como a entrada, logo não faz sentido variar os neurônios nesse caso.

Justificativa V: Utilizando 10% do conjunto de treino para validar foi observado que diferentemente da configuração I, agora a rede necessita ser mais flexível e se abdicar do padrão linear pois foi observado que que ao aumentar o número de camadas foi obtido mais acertos. Adcionando duas camadas uma com 2 e 2 neurônios foi possível realizar o ajuste fino que maximizava o número de acertos.

Justificativa VI: Realizando o filtro dos atributos numéricos para binários foi obtido um resultado pior que para a mesma configuração sem a utilização do filtro. O números de camadas escondidas e o número de neurônios em cada camada foi variado mas o resultado permaneceu. Isso sugere que alterar os atributos numéricos para algum outro formato como o binário pode empobrecer a rede i.e. reduzir sua velocidade e acurácia na classificação do padrão.

Justificativa VII: Após agrupar os atributos ESTC e NDEP em 2 grupos de valores, foi obtido um resultado melhor utilizando uma camada escondida com um neurônio comparado a configuração III. Esse resultado se deu pois alguns grupos de valores tinham quantidades insignificantes e essa filtro “MergeTwoValues” ajudou o algoritmo a encontrar um melhor resultado por eliminar o ruido na entrada. Foi obtido um resultado um pouco melhor com a configuração descrita, na configuração padrão (nenhuma camada escondida) o algoritmo teve performance um pouco pior por precisar de um pouco mais flexibilidade após o agrupamento.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment