Back to Search
Start Over
Uma revisão de redes neurais quaterniônicas de múltiplas camadas
- Source :
- Biblioteca Digital de Teses e Dissertações da Universidade Estadual de Campinas (UNICAMP), Universidade Estadual de Campinas (UNICAMP), instacron:UNICAMP
- Publication Year :
- 2018
-
Abstract
- Orientador: Marcos Eduardo Ribeiro do Valle Mesquita Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica Resumo: Redes neurais artificiais são modelos muito populares em todo tipo de aplicação na atualidade. A maioria destas se dá em problemas de classificação e interpolação. Redes neurais hipercomplexas têm uma vantagem sobre os modelos reais pela maior facilidade no tratamento de dados multidimensionais. Em particular, redes neurais quaterniônicas são modelos cujo intuito é se utilizar de estruturas e operadores geométricos da álgebra dos quatérnios para representar compactamente dados quadridimensionais como uma única entidade e operá-los com facilidade. Nesta dissertação, nos focamos em redes neurais quaterniônicas feedforward com uma única camada intermediária. Mais detalhadamente, apresentamos alguns modelos quaterniônicos, a saber o perceptron de múltiplas camadas quaterniônico introduzido por Arena et al. em 1994, o perceptron de múltiplas camadas geométrico introduzido por Matsui et al. em 2004 e a máquina de aprendizado extremo quaterniônica introduzida por Minemoto et al. em 2017, além de revisar conceitos centrais da álgebra dos quatérnios e modelos reais de redes neurais. Ademais, propomos uma modificação ao operador geométrico envolvido no perceptron de múltiplas camadas geométrico. Por fim, realizamos experimentos com a finalidade de comparar modelos quaterniônicos entre si e também com relação aos modelos reais em problemas de regressão e classificação envolvendo dados multidimensionais Abstract: Artificial neural networks are very popular models in all sorts of applications nowadays. Most applications focus on classification tasks and interpolation problems. Hypercomplex-valued neural networks present an advantage over real models in the ability to represent and treat multidimensional data with ease. In particular, quaternion-valued neural networks aim to take advantage of the geometric properties of quaternion algebra by compactly representing and operating 4-dimensional inputs as single entities. In this dissertation, we focus on quaternion-valued feedforward neural networks with a single hidden layer. More specifically, we present some quaternion-valued models, namely the quaternionic multilayer perceptron introduced by Arena et al. in 1994, the geometric multilayer perceptron introduced by Matsui et al. in 2004 and the quaternionic extreme learning machine introduced by Minemoto et al. in 2017, while also reviewing core topics of quaternion algebra and real-valued neural networks. We also propose a modification to the operator in the geometric MLP. We then provide a comparison between quaternion-valued neural networks and real-valued neural networks for regression and classification tasks involving multidimensional inputs and outputs Mestrado Matemática Aplicada Mestre em Matemática Aplicada CAPES
Details
- Database :
- OpenAIRE
- Journal :
- Biblioteca Digital de Teses e Dissertações da Universidade Estadual de Campinas (UNICAMP), Universidade Estadual de Campinas (UNICAMP), instacron:UNICAMP
- Accession number :
- edsair.doi.dedup.....b4a90e742ebbe04cf26e14f825fb5cc9