Back to Search Start Over

Uma revisão de redes neurais quaterniônicas de múltiplas camadas

Authors :
Guilherme Vieira Neto
Mesquita, Marcos Eduardo Ribeiro do Valle, 1979
Florindo, João Batista
Attux, Romis Ribeiro de Faissol
Universidade Estadual de Campinas. Instituto de Matemática, Estatística e Computação Científica
Programa de Pós-Graduação em Matemática Aplicada
UNIVERSIDADE ESTADUAL DE CAMPINAS
Source :
Biblioteca Digital de Teses e Dissertações da Universidade Estadual de Campinas (UNICAMP), Universidade Estadual de Campinas (UNICAMP), instacron:UNICAMP
Publication Year :
2018

Abstract

Orientador: Marcos Eduardo Ribeiro do Valle Mesquita Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica Resumo: Redes neurais artificiais são modelos muito populares em todo tipo de aplicação na atualidade. A maioria destas se dá em problemas de classificação e interpolação. Redes neurais hipercomplexas têm uma vantagem sobre os modelos reais pela maior facilidade no tratamento de dados multidimensionais. Em particular, redes neurais quaterniônicas são modelos cujo intuito é se utilizar de estruturas e operadores geométricos da álgebra dos quatérnios para representar compactamente dados quadridimensionais como uma única entidade e operá-los com facilidade. Nesta dissertação, nos focamos em redes neurais quaterniônicas feedforward com uma única camada intermediária. Mais detalhadamente, apresentamos alguns modelos quaterniônicos, a saber o perceptron de múltiplas camadas quaterniônico introduzido por Arena et al. em 1994, o perceptron de múltiplas camadas geométrico introduzido por Matsui et al. em 2004 e a máquina de aprendizado extremo quaterniônica introduzida por Minemoto et al. em 2017, além de revisar conceitos centrais da álgebra dos quatérnios e modelos reais de redes neurais. Ademais, propomos uma modificação ao operador geométrico envolvido no perceptron de múltiplas camadas geométrico. Por fim, realizamos experimentos com a finalidade de comparar modelos quaterniônicos entre si e também com relação aos modelos reais em problemas de regressão e classificação envolvendo dados multidimensionais Abstract: Artificial neural networks are very popular models in all sorts of applications nowadays. Most applications focus on classification tasks and interpolation problems. Hypercomplex-valued neural networks present an advantage over real models in the ability to represent and treat multidimensional data with ease. In particular, quaternion-valued neural networks aim to take advantage of the geometric properties of quaternion algebra by compactly representing and operating 4-dimensional inputs as single entities. In this dissertation, we focus on quaternion-valued feedforward neural networks with a single hidden layer. More specifically, we present some quaternion-valued models, namely the quaternionic multilayer perceptron introduced by Arena et al. in 1994, the geometric multilayer perceptron introduced by Matsui et al. in 2004 and the quaternionic extreme learning machine introduced by Minemoto et al. in 2017, while also reviewing core topics of quaternion algebra and real-valued neural networks. We also propose a modification to the operator in the geometric MLP. We then provide a comparison between quaternion-valued neural networks and real-valued neural networks for regression and classification tasks involving multidimensional inputs and outputs Mestrado Matemática Aplicada Mestre em Matemática Aplicada CAPES

Details

Database :
OpenAIRE
Journal :
Biblioteca Digital de Teses e Dissertações da Universidade Estadual de Campinas (UNICAMP), Universidade Estadual de Campinas (UNICAMP), instacron:UNICAMP
Accession number :
edsair.doi.dedup.....b4a90e742ebbe04cf26e14f825fb5cc9