Discussão do artigo "Redes neurais de maneira fácil (Parte 24): Melhorando a ferramenta para transferência de aprendizado"

 

Novo artigo Redes neurais de maneira fácil (Parte 24): Melhorando a ferramenta para transferência de aprendizado foi publicado:

No último artigo, elaboramos uma ferramenta para criar e editar a arquitetura de redes neurais. E hoje quero convidá-lo a continuar trabalhando nela, para torná-la mais amigável. De certa forma, ao fazer isso, estamos nos afastando um pouco do nosso tópico. Mas convenhamos que a organização do espaço de trabalho desempenha um papel importante na obtenção do resultado.

No artigo anterior desta série, criamos uma ferramenta que nos permite tirar partido da tecnologia de transferência de aprendizado (Transfer Learning, em inglês). Como resultado do enorme trabalho que fizemos, conseguimos uma ferramenta que permite editar modelos já treinados. E agora podemos obter qualquer número de camadas neurais de um modelo pré-treinado. Claro, existem condições limitantes. Tomamos apenas camadas sucessivas, tendo pegado primeiro a camada de dados de entrada. A razão para esta abordagem está na natureza das redes neurais. Elas funcionam bem apenas com dados de entrada semelhantes aos usados ao treinar o modelo.

Além do mencionado, a ferramenta criada permite não apenas editar modelos treinados, mas também criar modelos completamente novos. E isto nos poupa da necessidade de descrever a arquitetura do modelo no código do programa. Quer dizer, basta criarmos um modelo usando a ferramenta, e em seguida treinar e usar o modelo carregando a rede neural criada a partir de um arquivo. Assim, podemos experimentar diferentes arquiteturas sem alterar o código do programa. Nós nem precisamos recompilar o programa. Tudo o que devemos fazer é substituir o arquivo de modelo.

E, claro, queremos oferecer uma ferramenta tão útil quanto possível para o usuário. Neste artigo, tentaremos melhorar sua usabilidade.

Autor: Dmitriy Gizlyk