48 results on '"Fonseca, Leonardo Goliatt da"'
Search Results
2. SOLUÇÕES MOBILE PARA ESTIMATIVA DE ÍNDICES DE VEGETAÇÃO APLICADOS AO MONITORAMENTO DE PASTAGENS
- Author
-
Franco, Victor Rezende, primary, Andrade, Ricardo Guimarães, additional, Hott, Marcos Cicarini, additional, Fonseca, Leonardo Goliatt da, additional, Paciullo, Domingos Sávio Campos, additional, and Gomide, Carlos Augusto de Miranda, additional
- Published
- 2020
- Full Text
- View/download PDF
3. MOLECULAR DYNAMICS MODELING AND SIMULATION OF TOBERMORITE UNDER PRE-SALT CONDITIONS
- Author
-
Nogueira, Thallys da Silva, primary, Fonseca, Leonardo Goliatt da, additional, and Goliatt, Priscila Vanessa Zabala Capriles, additional
- Published
- 2022
- Full Text
- View/download PDF
4. Estimation of biophysical parameters to monitor and manage pasture using a mobile application
- Author
-
Franco, Victor Rezende, primary, Andrade, Ricardo Guimarães, additional, Hott, Marcos Cicarini, additional, Fonseca, Leonardo Goliatt da, additional, Paciullo, Domingos Sávio Campos, additional, Gomide, Carlos Augusto de Miranda, additional, and Barbosa, Guilherme Morais, additional
- Published
- 2020
- Full Text
- View/download PDF
5. A Gradient Boosting Model Optimized by a Genetic Algorithm for Short-term Riverflow Forecast
- Author
-
Fonseca, Tales Lima, primary, Gorodetskaya, Yulia, additional, Tavares, Gisele Goulart, additional, Ribeiro, Celso Bandeira de Melo, additional, and Fonseca, Leonardo Goliatt da, additional
- Published
- 2019
- Full Text
- View/download PDF
6. Comparison of machine learning techniques for predicting energy loads in buildings
- Author
-
Duarte, Grasiele Regina, Fonseca, Leonardo Goliatt da, Goliatt, Priscila Vanessa Zabala Capriles, Lemonge, Afonso Celso de Castro, FAPEMIG, CAPES, and CNPq
- Subjects
Energy Efficiency ,Heating and Cooling Loads ,Machine Learning - Abstract
Machine learning methods can be used to help design energy-efficient buildings reducing energy loads while maintaining the desired internal temperature. They work by estimating a response from a set of inputs such as building geometry, material properties, project costs, local weather conditions, as well as environmental impacts. These methods require a training phase which considers a dataset drawn from selected variables in the problem domain. This paper evaluates the performance of four machine learning methods to predict cooling and heating loads of residential buildings. The dataset consists of 768 samples with eight input variables and two output variables derived from building designs. The methods were selected based on exhaustive research with cross validation. Four statistical measures and one synthesis index were used for the performance assessment and comparison. The proposed framework resulted in accurate prediction models with optimized parameters that can potentially avoid modeling and testing various designs, helping to economize in the initial phase of the project.
- Published
- 2017
7. OBTENCAO DE MODELO ANALITICO PARA PROPRIEDADE MECANICA DO CONCRETO DE AGREGADO LEVE VIA PROGRAMACAO GENETICA CARTESIANA
- Author
-
Andrade, Jonata Jefferson, Fonseca, Leonardo Goliatt da, Dias Campos, Luciana Conceição, Farage, Michele Cristina Resende, and Barbosa, Flávio de Souza
- Abstract
Resumo No concreto de agregado leve, e importante conhecer as suas propriedades mecanicas,como a resistencia a compressao e o modulo de Young, dado que essas propriedades influenciam a resistencia e deformacoes das pecas constituıdas desse material. A relacao entre os componentes do concreto e suas propriedades mecanicas e altamente nao-linear, e o estabelecimento de um modelo matematico abrangente ´e usualmente problematico. Nesse contexto, o presente trabalho tem como objetivo encontrar uma relacao analıtica entrepropriedades do concreto de agregado leve e o m´odulo de Young (m´odulo de elasticidade),utilizando a t´ecnica de Programacao Genetica Cartesiana (PGC), a partir de operadores matem´aticos empregados como funcoes nodais da PGC. Ap´os a verificacao do poder degeneralizacao da metodologia utilizada neste trabalho, e feita uma comparacao as relacoes matematicas ja existentes na literatura. Por fim, verificou-se que a metodologia proposta possui desempenho altamente satisfat´orio em comparac¸ ˜ao aos resultados existentes.Keywords: Programacao Genetica Cartesiana, Concreto de agregado Leve, InteligenciaComputacional
- Published
- 2017
8. MÉTODOS COMPUTACIONAIS PARA APROXIMAÇÃO DO DIÂMETRO À ALTURA DO PEITO DE ÁRVORES DE REGIÕES DE MANGUE VIA ESCANEAMENTO TRIDIMENSIONAL A LASER
- Author
-
Tavares, Gisele Goulart, Rodrigues Sabino, Thales Luís, Fonseca, Leonardo Goliatt da, O. Chaves, Filipe, and Cotrim, Beatriz
- Abstract
O inventário florestal é um documento importante para pesquisadores da área da ecologia florestal. Ele contém informações qualitativas e quantitativas de uma floresta de interesse. Dentre as informações apresentadas estão os chamados parâmetros estruturais como: a espécie, o diâmetro dos troncos, altura, área basal, densidade da madeira e geolocalização, além de outras informações que se fizerem relevantes. Este trabalho tem como objetivo a análise de três métodos computacionais para determinação do DAP a partir de dados provenientes de escaneamento tridimensional a laser de indivíduos de uma região de mangue. A partir da nuvem de pontos, a seção transversal do caule a aproximadamente 1,30m do solo foi modelada por círculos, elipses e splines e seu diâmetro calculado em seguida. As aproximações obtidas foram comparadas com as mensurações realizadas em campo e apresentaram bons resultados.A metodologia proposta se mostrou promissora por apresentar um valor baixo de erro percentual e pelo ajuste satisfatório da geometria das árvores. Além disso, ela assiste na apuração dos parâmetros estruturais e possibilita a redução dos trabalhos em campo.Keywords: Escaneamento a laser, DAP, Inventário florestal, Manguezal
- Published
- 2017
9. Sodium sulfate attack on Portland cement structures: experimental and analytical approach
- Author
-
Costa, Laís Cristina Barbosa, primary, Escoqui, João Mário Roque, additional, Oliveira, Thais Mayra, additional, Fonseca, Leonardo Goliatt da, additional, and Farage, Michèle Cristina Resende, additional
- Published
- 2018
- Full Text
- View/download PDF
10. Uma comparação de técnicas de aprendizado de máquina para a previsão de cargas energéticas em edifícios
- Author
-
Duarte, Grasiele Regina, primary, Fonseca, Leonardo Goliatt da, additional, Goliatt, Priscila Vanessa Zabala Capriles, additional, and Lemonge, Afonso Celso de Castro, additional
- Published
- 2017
- Full Text
- View/download PDF
11. Genetic algorithms assisted by similarity-based metamodels
- Author
-
Fonseca, Leonardo Goliatt da, Barbosa, Helio José Corrêa, Lemonge, Afonso Celso de Castro, Dardenne, Laurent Emmanuel, Coutinho, Alvaro Luiz Gayoso de Azeredo, and Ebecken, Nelson Francisco Favilla
- Subjects
Metamodelos ,Optimization ,Genetic Algorithms ,Metamodels ,Otimização ,Algoritmos Genéticos ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO::COMPUTABILIDADE E MODELOS DE COMPUTACAO [CNPQ] - Abstract
Made available in DSpace on 2015-03-04T18:51:15Z (GMT). No. of bitstreams: 1 Goliatt tese.pdf: 3293381 bytes, checksum: e89a55efe1733bca4d491ccb2aca5af1 (MD5) Previous issue date: 2010-06-24 Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior Vários problemas de interesse em Ciência e Engenharia são formulados como problemas de otimização. A complexidade dos problemas modernos tem levado ao desenvolvimento de modelos matemáticos de complexidade crescente, resultando em modelos de simulação computacionalmente custosos. Algoritmos Genéticos (AG), inspirados na Teoria de Evolução por seleção natural, são ferramentas versáteis em problemas difíceis de busca e otimização. Entretanto, eles usualmente requerem um elevado número de avaliações até a obtenção de uma solução viável ou satisfatória. Em um cenário de simulações dispendiosas, o uso de Algoritmos Genéticos pode tornar-se proibitivo. Uma possível solução para este problema é o uso de um metamodelo, para ser usado no processo de otimização no lugar do modelo de simulação. Nesta tese desenvolveu-se uma metodologia para o uso combinado de AG e metamodelos para otimização mono- e multi-objetivo de alto custo computacional, onde metamodelos baseados em similaridade são incorporados nos AG com o objetivo de melhorar o seu desempenho. A metodologia foi aplicada em problemas de otimização coletados da literatura, e em problemas de Otimização Estrutural, demonstrando sua aplicabilidade e estabelecendo esta como uma alternativa para o melhoramento de soluções em um contexto de orçamento fixo de simulações.
- Published
- 2010
12. Inteligência artificial aplicada ao monitoramento de estruturas: detecção de alterações mecânico-estruturais baseada no uso de redes neurais autocodificadoras esparsas para a caracterização de respostas dinâmicas
- Author
-
Amaral, Rafaelle Piazzaroli Finotti, Barbosa, Flávio de Souza, Cury, Alexandre Abrahão, Carvalho, Graciela Nora Doz de, Silva, Samuel da, Santos, João Pedro de Oliveira Dias Prudente dos, Borges, Carlos Cristiano Hasenclever, and Fonseca, Leonardo Goliatt da
- Subjects
Structural dynamic ,Artificial intelligence ,Structural health monitoring ,Dinâmica das estruturas ,Monitoramento da saúde estrutural ,ENGENHARIAS [CNPQ] ,Damage detection ,Inteligência artificia ,Autocodificador esparso ,Detecção de danos ,Sparse autoencoder - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais Com a rápida evolução da tecnologia computacional e de informação, notáveis avanços foram alcançados nos sistemas de Monitoramento da Saúde Estrutural (SHM, do inglês “Structural Health Monitoring”), fazendo com que o desenvolvimento de estratégias mais automatizadas de detecção de comportamentos estruturais anômalos por meio da caracterização adequada das respostas dinâmicas ocupem um espaço considerável nas pesquisas atuais sobre o assunto. Nos últimos anos, algoritmos de inteligência artificial focados no aprendizado profundo têm se tornado cada vez mais populares como ferramentas para a detecção de alterações em estruturas. O conceito de aprendizado profundo tem origem na teoria de redes neurais e compreende diversas abordagens que, devido à grande capacidade de processamento de dados, foram principalmente formuladas para tratar problemas nãolineares e de alta dimensão. Embora os fundamentos básicos de tais algoritmos tenham sido estabelecidos na década de 60, seu uso em estratégias SHM ainda é relativamente novo. Diante deste cenário, o presente trabalho se debruça sobre a avaliação do algoritmo de aprendizado profundo denominado Autocodificador Esparso (SAE, do inglês “Sparse AutoEncoder”) quando utilizado como extrator de parâmetros de dados dinâmicos. Mais especificamente, avalia-se a capacidade dos modelos SAE de fornecer conjuntos de variáveis representativas, determinados através do processamento de sinais no domínio do tempo, que viabilizem a detecção de um comportamento considerado anormal para uma dada estrutura. Primeiramente, uma análise de sensibilidade é realizada, visando verificar a influência que as variáveis que definem o funcionamento do SAE exercem sobre a sua habilidade de representar as respostas vibracionais. Em seguida, com o intuito de investigar se os parâmetros modelados pelo SAE permitem de fato distinguir diferentes estados estruturais, uma estratégia supervisionada que utiliza o SAE como seletor de características e o algoritmo de Máquina de Vetor Suporte (SVM, do inglês “Support Vector Machine”) como classificador é apresentada e aplicada a um modelo numérico de viga e a uma ponte monitorada em João Pessoa no estado da Paraíba. Por fim, na tentativa de explorar a capacidade do SAE em situações mais próximas àquelas encontradas em sistemas SHM reais, propõe-se uma metodologia de detecção de alterações estruturais não-supervisionada. A ideia é caracterizar as respostas dinâmicas através de modelos SAE e, posteriormente, detectar o início do comportamento anormal por meio de cartas de controle T 2 de Hotelling, calculada com os parâmetros extraídos pelo SAE. Além disso, apresenta-se aqui um critério automatizado para a definição dos modelos a serem aplicados em problemas SHM baseado na associação do erro de reconstrução dos dados dos modelos a um índice de generalização dos pontos T 2 proposto. A maioria dos estudos que vêm sendo feitos na área classicamente definem como os modelos SAE mais adequados àqueles com menor erro de reconstrução dos sinais dinâmicos, o que não garante o bom desempenho quanto à detecção de alterações estruturais, conforme aqui constatado. A abordagem não-supervisionada é analisada e exemplificada em três casos: um pórtico monitorado em laboratório; o caso clássico da ponte Z24; e uma torre instrumentada na Itália. Ressalta-se que para as duas últimas estruturas citadas, a influência da temperatura também foi avaliada. Em todos os casos estudados, seja na abordagem supervisionada ou na não-supervisionada, chegou-se a resultados satisfatórios, mesmo sob influência de variações de temperatura, deixando claro que o SAE se apresenta como uma ferramenta eficaz e robusta quando aplicada a problemas SHM. The evolution of computational technologies has brought remarkable advances in Structural Health Monitoring (SHM) systems, making the development of more automated strategies for detecting anomalous structural behaviors, through the adequate characterization of dynamic responses, plays an important role in this field of research. In the last few years, artificial intelligence algorithms focused on deep learning have become increasingly popular as tools for detecting changes in structures. The concept of deep learning has its origins in the theory of neural networks and comprises several approaches mainly formulated to deal with non-linear and high-dimensional problems. Although the basic foundations of such algorithms were established in the 1960s, their use in SHM strategies is still relatively new. In this context, the present work evaluates the deep learning algorithm called Sparse AutoEncoder (SAE) when used as an extractor of parameters from dynamic data. More specifically, the ability of SAE models to provide sets of representative variables is studied to detect abnormal structural behaviors through dynamic signal processing directly in the time domain. Firstly, a sensitivity analysis is performed, aiming to verify the influence of the variables that define the functioning of the SAE exert on its ability to represent vibrational responses. Then, in order to investigate whether the parameters modeled by SAE allow different structural states to be distinguished, a supervised strategy that uses SAE as a feature selector and the Support Vector Machine (SVM) algorithm as a classifier is applied to a numerical beam model and a monitored bridge in João Pessoa, Brasil. Finally, in an attempt to explore the capacity of the SAE in situations closer to those found in actual SHM systems, an unsupervised methodology for detecting structural alterations is proposed. The fundamental idea is to characterize the structural dynamic responses via SAE models and, subsequently, to detect the onset of abnormal behavior through the well-known T 2 Hotelling’s control chart, calculated with SAE extracted features. An automated criterion for models’ definition to be applied in SHM problems is also presented, based on the association of the model data reconstruction error and a proposed generalization index of the points T 2 . Most studies that have been carried out in the area classically define the SAE models most suitable as those with the lowest reconstruction error of dynamic signals, which does not guarantee a good performance in terms of structural alteration detection, as found here. The unsupervised approach is analyzed and exemplified in three cases: a laboratory steel frame, the classic case of the Z24 bridge, and an instrumented tower in Italy. It is noteworthy that the influence of temperature was also evaluated for the last two mentioned structures. In all cases studied, whether, in the supervised or unsupervised approach, satisfactory results were achieved, even under the influence of temperature variations, making it clear that the SAE presents itself as an effective and robust tool when applied to SHM problems.
- Published
- 2022
13. Estudo do efeito pozolânico da cerâmica vermelha nas propriedades de concretos submetidos a temperaturas elevadas
- Author
-
Barros, Beatriz Leite Sefair de, Oliveira, Thaís Mayra de, Fonseca, Leonardo Goliatt da, and Gumieri, Adriana Guerra
- Subjects
Cerâmica vermelha ,Materiais pozolânicos ,Red ceramic ,Temperaturas elevadas ,Concreto ,Pozzolanic materials ,High temperatures ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] ,Concrete - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior A preocupação com o meio ambiente e a escassez de recursos naturais é crescente atualmente. O setor da construção civil é um dos que mais gera impactos ambientais devido ao consumo de recursos, geração de resíduos e emissão de gases poluentes. A indústria de cimento Portland é responsável pela extração de grandes quantidades de argila e calcário e pela elevada taxa de emissão de dióxido de carbono para a atmosfera. Outro problema relevante do setor é a deposição inadequada de resíduos, dentre eles os resíduos de cerâmica vermelha. Uma das vantagens do concreto, comparado aos demais materiais estruturais, é a resistência a temperaturas elevadas. O conhecimento acerca do comportamento de concretos com utilização de cerâmica vermelha como pozolana já é difundido. No entanto, o comportamento desse material quando exposto a temperaturas elevadas ainda não foi explorado. Dentro desse contexto, o objetivo desta pesquisa é avaliar a influência do uso da cerâmica vermelha como pozolana em substituição parcial do cimento Portland, nos teores de 10% e 25%, no comportamento físico e mecânico de concretos, na temperatura ambiente e após exposição a 200°C, 400°C e 600°C. Com essa finalidade realizou-se ensaios de massa específica, absorção, índice de vazios, determinação de velocidade de propagação de onda ultrassônica, resistência à compressão, módulo de elasticidade, perda de massa, análise termodiferencial e termogravimétrica (ATD/TG) e análise visual. Os resultados de massa específica e módulo de elasticidade não apresentaram diferenças significativas entre os traços para todas as temperaturas estudadas. Quanto ao índice de vazios e à absorção, os traços T10 e T25 apresentaram os menores valores para a temperatura ambiente e o T10 o menor valor para 200°C. Já para as temperaturas de 400°C e 600°C não houve diferença entre os traços. O traço T10 apresentou menores perdas de massa, considerando as três temperaturas, e maior resistência à compressão para as temperaturas de 400°C e 600°C. Os resultados mostraram que a substituição parcial do cimento pela cerâmica vermelha é tecnicamente viável para concretos expostos a temperaturas elevadas, sendo que, de um modo geral, o teor de substituição de 10% é o mais adequado. Dessa forma, a utilização da cerâmica vermelha em concretos expostos a temperaturas elevadas se constitui em uma maneira de diminuir a deposição inadequada de resíduos, a exploração de recursos não renováveis e os impactos ambientais causados pela fabricação do cimento Portland, melhorando o desempenho do concreto após o aquecimento. Concern about the environment and the scarcity of natural resources is currently growing. The civil construction industry is one of the industries that generates the most environmental impacts due to the consumption of resources, waste generation and emission of polluting gases. The Portland cement industry is responsible for extracting large amounts of clay and limestone and for the high rate of emission of carbon dioxide into the atmosphere. Another relevant problem in the industry is the inadequate disposal of waste, including red ceramic waste. One of the advantages of concrete, compared to other structural materials, is its resistance to high temperatures. Knowledge about the behavior of concrete with the use of red ceramic as pozzolan is already widespread. However, the behavior of this material when exposed to high temperatures has not yet been explored. Within this context, the objective of this research is to evaluate the influence of the use of red ceramic as a pozzolan in partial replacement of Portland cement, at levels of 10% and 25%, on the physical and mechanical behavior of concrete, at room temperature and after exposure to 200°C, 400°C and 600°C. For this purpose, specific mass, absorption, void ratio, ultrasonic pulse velocity, compressive strength, elastic modulus, weight loss, thermodifferential and thermogravimetric analysis (TDA/TGA) and visual analysis were carried out. The results of specific mass and modulus of elasticity did not show significant differences between the mixtures for all temperatures studied. As for the void ratio and absorption, the mixtures T10 and T25 showed the lowest values for room temperature and T10 the lowest value for 200°C. As for the temperatures of 400°C and 600°C, there was no difference between the mixtures. Mixture T10 showed lower weight losses, considering the three temperatures, and higher compressive strength for temperatures of 400°C and 600°C. The results showed that the partial replacement of cement by red ceramic is technically feasible for concrete exposed to high temperatures. In general, the replacement content of 10% is the most appropriate. In this way, the use of red ceramic in concrete exposed to high temperatures constitutes a way to reduce inadequate waste deposition, exploitation of non-renewable resources and environmental impacts caused by the manufacture of Portland cement, improving concrete performance after heating.
- Published
- 2022
14. Treinamento de redes neurais com incorporação da técnica Backpropagation ao FDIPA
- Author
-
Goulart, Vitor Monteiro Andrade, Freire, Wilhelm Passarella, Mazorche, Sandro Rodrigues, Norman, Jose Herskovits, and Fonseca, Leonardo Goliatt da
- Subjects
Optimization ,Redes neurais ,Machine learning ,Backpropagation ,Aprendizado de máquina ,Otimização ,CIENCIAS EXATAS E DA TERRA::MATEMATICA [CNPQ] ,Neural networks - Abstract
As Redes Neurais Artificiais são modelos matemáticos e computacionais inspirados no funcionamento do cérebro humano. Elas são capazes de aprender e realizar tarefas como reconhecimento de padrões, classificação de imagens, detecção de fraudes em cartão de crédito entre outras aplicações. A estrutura de uma rede é composta de nós (que são os neurônios) ligados por arestas (que são as conexões) distribuídos em camadas. Essas conexões possuem valores (pesos) que representam o quanto aquela ligação é importante para a determinação do resultado final. A computação da rede é dada por uma série de composição de funções (funções de ativação) aplicadas ao produto dos pesos pelos valores atribuídos aos neurônios de cada camada. Para que a rede possa aprender, técnicas de otimização devem ser aplicadas para a determinação dos pesos ótimos da rede. Esse trabalho teve como principal objetivo incorporar a técnica backpropagation ao algoritmo de otimização FDIPA - Feasible Directions Interior Point Algorithm para a obtenção dos pesos ótimos de uma rede neural. Concluída essa tarefa, vários testes foram realizados para a comprovação da eficiência da proposta. Artificial Neural Networks are mathematical and computational models inspired by the functioning of the human brain. They are able to learn and perform tasks such as pattern recognition, image classification, credit card fraud detection and other applications. The structure of a network is composed of nodes (which are the neurons) connected by edges (which are the conections) distributed in layers. These conections have values (weights) that represent how important the connection is to the determination of the final result. The computation of the network is given by a series of composition of functions (activation functions) applied to the product of the weights by the values attributed to the neurons in each layer. In order to the network to learn, optimization techniques must be applied to determine the optimal network weights. The main objective of this work is to incorporate the backpropagation technique to the optimization algorithm FDIPA - Feasible Directions Interior Point Algorithm to obtain the optimal weights of a neural network. After completing this task, several tests were carried out to prove the efficiency of the proposal.
- Published
- 2022
15. Desenvolvimento de um modelo para a estimação da carga de radiação solar com base em variáveis climáticas
- Author
-
Silva, Lucas Pereira Verneck da, Fonseca, Leonardo Goliatt da, Campos, Luciana Conceição Dias, and Christo, Eliane da Silva
- Subjects
Energia fotovoltaica ,Solar energy ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Energia solar ,Solar radiation ,Estimação ,Radiação solar ,Photovoltaic energy ,Estimation - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Dados relacionados à incidência de radiação solar (RS) em uma determinada região desempenham um papel crucial no projeto, modelagem e na operação de sistemas de conversão de energia solar. Além disso, este tipo de informação ajuda nas futuras políticas governamentais de investimento em energia. Contribui para inúmeras outras áreas de estudo e diversas aplicações, como na criação de chaminés térmicas, análise de conforto térmico em edifícios, modelos de crescimento de safras, entre outros. Porém, esses dados não são medidos para todas as regiões devido à falta de equipamentos adequados para a medição da RS nas estações meteorológicas e também aos custos envolvidos na atividade. Embora diferentes métodos alternativos para obtenção da RS tenham sido propostos e utilizados na literatura, ultimamente, a maioria das pesquisas tem focado seus esforços na exploração e utilização de algoritmos de aprendizado de máquina para resolver o problema. Seguindo essa linha, o presente trabalho avalia a aplicação de uma regressão linear com fator de regularização do tipo L2 combinado com uma estratégia de expansão dos dados de entrada para estimar a intensidade da radiação solar diária incidente. O ajuste e avaliação dos modelos são realizados em oito conjuntos de dados diferentes contendo variáveis climáticas facilmente acessíveis pelas estações meteorológicas. Cada conjunto refere-se à uma região diferente, distribuídas ao longo do território da Burkina Faso, país localizado na África subsariana. Para a seleção dos parâmetros do método, o algoritmo de busca exaustiva foi aplicado para encontrar o conjunto de hiperparâmetros que reforçam as capacidades preditivas dos modelos. A avaliação e comparação entre os modelos são realizadas de acordo com a raiz quadrada do erro-médio, erro médio absoluto, coeficiente de determinação e a variação contabilizada. Os resultados obtidos validam a estratégia adotada pelo trabalho, evidenciando o impacto positivo no modelo gerado pela inclusão do termo de regularização. Os experimentos sugerem um melhor desempenho em relação aos valores encontrados na literatura produzidos por modelos de maior complexidade, apresentando redução nos valores de erro em até 50% para algumas estações. Data related to solar radiation (SR) incidence in a given region play a crucial role in the design, modeling, and operation of solar energy conversion systems. Also, this type of information helps in future energy investment policies governments. It contributes to numerous other areas of study and several applications, such as creating thermal chimneys, thermal comfort analysis in buildings, crop growth models, and others. However, these data are not measured for all regions due to the lack of appropriate equipment for the measurement of SR in meteorological stations and the costs involved in the activity. Although different alternative methods for obtaining SR have been proposed and used in the literature, lately, most research has focused its efforts on exploring and using machine learning algorithms to address the problem. Following this line, the present work evaluates applying a linear regression with a regularization factor of type L2 combined with an expansion strategy of the input data to estimate the intensity of incident daily solar radiation. The models’ adjustment and evaluation are performed on eight different datasets containing climatic variables easily accessible by the weather stations. Each set refers to the other region distributed throughout Burkina Faso, a country located in Sub-Saharan Africa. For the selection of method parameters, the exhaustive search algorithm was applied to find the set of hyperparameters that reinforce the models’ predictive capabilities. The evaluation and comparison between the models are performed according to root mean square error, mean absolute error, coefficient of determination and variance accounted for. The results obtained validate the work’s strategy, showing the positive impact on the model generated by the inclusion of the regularization term. The experiments suggest a better performance compared to the values found in the literature produced by models with greater complexity, showing a reduction in the error values up to 50% for some stations.
- Published
- 2021
16. Investigação sobre a capacidade de predição de afinidade de ligação entre moléculas em sistemas hospedeiro-hóspede por meio de métodos de aprendizado de máquina
- Author
-
Carvalho, Ruan Medina, Fonseca, Leonardo Goliatt da, Capriles, Priscila Vanessa Zabala, Borges, Carlos Cristiano Hasenclever, Guedes, Isabella Alvim, and Saporetti, Camila Martins
- Subjects
Molecular affinity ,Machine learning ,Cyclodextrin ,ENGENHARIAS [CNPQ] ,Ciclodextrina ,Aprendizado de máquina ,Afinidade molecular - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior A inserção de experimentações in silico no contexto científico nas últimas décadas permitiram a consolidação de áreas interdisciplinares como a bioinformática, biologia computacional, química computacional entre outras que buscam descrever, entender e prever eventos naturais por meio de equações matemáticas e métodos computacionais. Neste contexto, é comum que pesquisadores tenham interesse em prever medidas de interação entre moléculas, principalmente para viabilizar o estudo racional de fármacos. Realizar triagens de potenciais fármacos de forma computacional visa reduzir o tempo na descoberta de novas drogas, assim como reduzir o elevado número de testes em laboratório que encarece todo o processo. As triagens moleculares computacionais geralmente são realizadas por meio de processos chamados de docking, nos quais define-se graus de liberdade para representações moleculares no interior de uma grid de simulação. O objetivo do processo é evoluir uma otimização nesse espaço que visa encontrar a configuração geométrica de uma possível ligação entre as moléculas e calcular métricas relativas a esse estado de interação. Para isso, a literatura já apresenta diversas propostas para a formulação de funções objetivo para a busca, ora baseados em modelos matemáticos sob a ótica da física clássica, ora em modelos com base na teoria quântica. Mais recentemente, como alternativa, vêm sendo propostos modelos preditivos baseados em dados e ajustados por métodos computacionais de aprendizado de máquina. Alguns desses métodos vêm apresentando resultados superiores aos dos modelos físicos, além de possuírem tempo de predição inferiores, uma vez já treinados. Visto isso, as técnicas de aprendizado de máquina (ML, do inglês Machine Learning) estão se tornando parte integrante do desenho e descoberta racionais de fármacos e o estudo de uma série de moléculas. Nesse contexto, as Ciclodextrinas (CDs) são nano-gaiolas (nanohorns) usadas para melhorar a entrega de drogas insolúveis ou tóxicas para o organismo. Devido à semelhança química entre CDs e proteínas, abordagens ML podem beneficiar vastamente os estudos da área, identificando carreadores promisores para uma dada molécula de interesse. No presente trabalho, são avaliados o desempenho de três métodos de ML bem conhecidos na literatura - Support Vector Regression (ε-SVR), Gaussian Process Regression (GPR) e eXtreme Gradient Boosting (XGB) - para prever a afinidade de ligação da ciclodextrina e ligantes de interesse em um sistema hospedeiro-ligante (host-guest). Os hiperparâmetros dos métodos ML propostos foram ajutados em uma estratégia de busca randomizada (Random Search). Os resultados mostram a consistencia da metodologia utilizada por apresentar resultados médios de erro controlados. O melhor desempenho na predição foi obtido por um modelo GPR otmizado em busca randomizada, se ajustando bem aos dados (R2 = 0, 803) com baixos erros de predição (RMSE = 1, 811kJ/mol e MAE = 1, 201kJ/mol).. The insertion of in silico experiments in the scientific context in recent decades has allowed the consolidation of interdisciplinary areas such as bioinformatics, computational biology, computational chemistry, among others, which seek to describe, understand and predict natural events through mathematical equations and computational methods. In this context, it is frequent that researchers are interested in predicting interaction measures between molecules, mainly to enable the rational study of drugs. Performing screenings of potential drugs computationally aims to reduce time to discover new drugs and reduce the high number of laboratory tests that make the whole process more expensive. Researchers usually perform computational molecular screenings through docking techniques, which define degrees of freedom for molecular representations within a simulation grid. The goal of the process is to evolve an optimization in this space that aims to find the geometric configuration of a possible bond between molecules and calculate metrics relating to this interaction state. To this end, the literature already presents several proposals for the formulation of objective functions for the search, sometimes based on mathematical models from the perspective of classical physics, sometimes based on models based on quantum theory. Recently, as an alternative, predictive models based on data and adjusted by computational machine learning methods have been proposed. Surprisingly, some of these methods have shown better results than the physical models, with lower prediction time once trained. Therefore, Machine Learning (ML) techniques are an integral part of rational drug design and discovery. Cyclodextrins (CDs) are nano-cages (nanohorns) used to enhance the delivery of insoluble or toxic drugs to the body. Due to the chemical similarity between CDs and proteins, ML approaches can vastly benefit studies in the field by identifying promising carriers for a given molecule of interest. In the present work, the performance of three well-known ML methods in the literature - Support Vector Regression (ε-SVR), Gaussian Process Regression (GPR), and eXtreme Gradient Boosting (XGB) - are evaluated to predict the binding affinity of cyclodextrin and ligands of interest in a host-ligand system (host-guest). We have tuned the hyperparameters of the proposed ML methods in a Random Search strategy. The results show the consistency of the methodology used by presenting controlled average error results. The best prediction performance was obtained by a GPR model optimized in random search, fitting the data well (R2 = 0.803) with low prediction errors (RMSE = 1.811kJ/mol and MAE = 1.201kJ/mol).
- Published
- 2021
17. A novel rule-based evolving fuzzy system applied to the thermal modeling of power transformers
- Author
-
Alves, Kaike Sa Teles Rocha, Aguiar, Eduardo Pestana de, Lemos, André Paim, Pekaslan, Direnc, and Fonseca, Leonardo Goliatt da
- Subjects
Artificial intelligence ,Time series forecasting ,Sistemas nebulosos evolutivos ,Inteligência artificial ,Evolving fuzzy systems ,Previsão de séries temporais ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
Os avanços em Big Data motivaram pesquisadores a desenvolver e aprimorar modelos inteligentes para lidar de forma eficiente e eficaz com os dados. Nesse cenário, a previsão de séries temporais vem ganhando ainda mais atenção. A literatura científica demonstra o melhor desempenho de tais modelos nesse assunto. A previsão de séries temporais é amplamente utilizada no planejamento estratégico para apoiar a tomada de decisões, proporcionando diferencial competitivo às organizações. Neste trabalho, um novo sistema nebuloso evolutivos baseado em regras é proposto para a previsão de séries temporais. Este é um modelo robusto capaz de desenvolver e atualizar sua estrutura em ambientes desconhecidos, capturar dinâmicas e mudanças de fluxo em dados e produzir resultados precisos mesmo quando se trata de dados complexos. O modelo introduzido implementa a correlação para melhorar a qualidade dos clusters, reduzindo seu desvio padrão. O modelo é avaliado usando dois conjuntos de dados sintéticos: a série temporal Mackey-Glass e a identificação do sistema dinâmico não linear. E, finalmente, o sistema introduzido é implementado para prever a temperatura do ponto quente, usando três conjuntos de dados de um transformador de potência real. O monitoramento de pontos quentes é necessário para maximizar a capacidade de carga e a vida útil dos transformadores. O método proposto é avaliado em termos de erro quadrático médio, erro de índice adimensional, erro absoluto médio, tempo de execução e número de regras finais. Os resultados são comparados com modelos de previsão tradicionais e com alguns sistemas nebuloso evolutivo baseados em regras. O novo sistema nebuloso evolutivos superou os modelos comparados para a série temporal Mackey-Glass e os conjuntos de dados de transformadores de potência, considerando as métricas de erro. Um teste estatístico comprovou o desempenho superior do modelo introduzido. O algoritmo também obteve um tempo de execução e número de regras finais competitivo. Os resultados demonstram o alto nível de autonomia e adaptação do modelo para prever dados complexos e não estacionários com precisão. Vendo a importância de modelos precisos para lidar com dados no apoio à tomada de decisão, os resultados sugerem a implementação do modelo como ferramenta de previsão favorecendo planejamento estratégico. Big Data advancements motivate researchers to develop and improve intelligent models to deal efficiently and effectively with data. In this scenario, time series forecasting obtains even more attention. The literature demonstrated the better performance of such models in this subject. Forecasting is widely used in strategic planning to support decision-making, providing competitive differential to organizations. In this work, a novel rule-based evolving Fuzzy System is proposed for time series forecasting. This is a robust model able to develop and update its structure in unknown environments, capture dynamics and changes of streams, and produce accurate results even when dealing with complex data. The introduced model implements the distance correlation to improve the rules’ quality by reducing their standard deviation. The model is evaluated using two synthetic datasets: the Mackey-Glass time-series and the nonlinear dynamic system identification. And finally, the introduced system is implemented to predict the hot spot temperature using three datasets from a real power transformer. Hot spot monitoring is necessary to maximize the load capacity and the lifespan of power transformers. The proposed method is evaluated in terms of root-mean-square error, non-dimensional index error, mean absolute error, runtime, and the number of final rules. The results are compared with traditional forecasting models and with some related state-of-the-art rule-based evolving Fuzzy Systems. The new evolving Fuzzy System outperformed the compared models for the Mackey-Glass time-series and the power transformers datasets concerning the errors. A statistical test comprised the superior performance of the introduced model. The algorithm also obtained a competitive execution time and number of final rules. The results demonstrate the high level of autonomy and adaptation of the model to predict accurately complex and non-stationary data. Seeing the importance of accurate models to deal with data to support decision-making, the results suggest the model’s implementation as a forecasting tool in strategic planning.
- Published
- 2021
18. Solução mobile baseada em visão computacional para a estimativa de parâmetros biofísicos aplicados ao monitoramento e manejo de pastagens
- Author
-
Franco, Victor Rezende, Fonseca, Leonardo Goliatt da, Borges, Carlos Cristiano Hasenclever, Hott, Marcos Cicarini, and Andrade, Ricardo Guimarães
- Subjects
Pastagem ,Visão computaciona ,Machine learning ,Mobile application ,Pasture ,Computer vision ,Aprendizado de máquina ,Aplicação mobile ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
Técnicas computacionais empregadas na fenotipagem e na avaliação das condições da vegetação têm contribuído para o desenvolvimento da produção no campo, de forma sustentável e eficiente. Nesse contexto, o presente trabalho utiliza uma solução mobile para a obtenção de dados fenotípicos de pastagens por meio de imagens fotográficas. Para tanto, fotos de parcelas experimentais de capim Panicum sp foram captadas em dois experimentos. No primeiro experimento foram obtidos dados de biomassa das parcelas, e no segundo experimento foram obtidos dados de altura. Utilizando Visão Computacional, são extraídas características da pastagem fotografada, que são, posteriormente, correlacionadas aos atributos de biomassa e altura das pastagens. Para isso, foram implementadas três técnicas de Aprendizado de Máquina: Regressão LASSO, Regressão por Vetores de Suporte e Rede Perceptron de Múltiplas Camadas. Para seleção do melhor modelo, foi utilizada a técnica de Evolução Diferencial. Para comparar os modelos, foram realizadas trinta repetições da técnica de Evolução Diferencial. Avaliadas utilizando o método de validação cruzada, a técnica que obteve melhor resultado nos dois problemas foi Rede Perceptron de Múltiplas Camadas, obtendo uma média de Coeficiente de Determinação (R2) 0,497 para a técnica que melhor se adaptou na previsão de biomassa e 0,662 para a técnica que melhor se adaptou na previsão de altura da pastagem. Os resultados obtidos indicam que os parâmetros biofísicos de altura e biomassa, podem ser modelados em função de atributos extraídos de imagens de pastagens da espécie forrageira Panicum maximum cv. BRS Zuri, obtidas em campo. Ainda, o software se mostrou de capaz de realizar o georreferenciamento das capturas e realizar o armazenamento dos dados. Computational techniques employed in vegetation phenotyping have contributed to the development of production in the field sustainably and efficiently. In this context, the present work uses a mobile solution to obtain phenotypic data from pastures through images. For that, photos of experimental plots of grass Panicum sp were captured in two experiments. In the first experiment, biomass data were obtained from the plots, and in the second experiment, height data were obtained. The photographed pasture characteristics are extracted using computer vision, which are later correlated to the pastures’ biomass and height attributes. Three machine learning techniques were implemented: LASSO Regression, Support Vector Regression, and MultipleLayer Perceptron Network. For the selection of the best model, the Differential Evolutiontechnique was used. To compare the models, thirty repetitions of the Differential Evolution technique were performed. Evaluated using the cross-validation method, the technique that obtained the best result in both problems was the MultiLayer Perceptron Network, obtaining an average of Coefficient of Determination (R2) 0.497 for the technique best adapted to forecast biomass and 0.662 for the technique best adapted to forecast height of pasture. The results obtained indicate that the biophysical parameters of height and biomass, can be modeled in function of attributes extracted from images of pastures of the forage species Panicum maximum cv. BRS Zuri, obtained in the field. Still, software proved to be capable of geo-referencing catches and storing data.
- Published
- 2021
19. Métodos baseados em volumes finitos aplicados a problemas de dinâmica dos fluidos e de mudança de fase
- Author
-
Odone, Maicon William Niebus, Toledo, Elson Magalhães, Barra, Luis Paulo da Silva, Fonseca, Leonardo Goliatt da, Rocha, Bernardo Martins, Loula, Abimael Fernando Dourado, and Alves, José Luis Drummond
- Subjects
Finite element methods ,Control volume finite element methods ,OpenFOAM ,Numerical methods ,Método de volumes de controle baseados em elementos finitos ,Métodos numéricos ,Método dos volumes finitos ,Método dos elementos finitos ,Finite volume methods ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
Diversas aplicações relacionadas com a mecânica do contínuo tratam de processos como solidificação e derretimento de materiais, convecção natural, tensões e deformações em sólidos, dentre outras. Na indústria bélica, por exemplo, a manufatura de materiais explosivos como granadas de grosso calibre, requer cuidadoso processo de manuseio, preenchimento e resfriamento adequado dos materiais energéticos fundidos em moldes. O monitoramento inadequado destas etapas podem resultar em contrações, trincas, bolhas de ar, e descolamento do material do seu molde, o que pode acarretar desde custos excessivos em sua produção à falhas catastróficas relacionadas ao produto final. Desta maneira, o desenvolvimento de modelos matemáticos, a implementação de técnicas e emprego de ferramentas computacionais existentes permitem o estudo, a previsão e a simulação destes fenômenos com baixo custo financeiro e com resultados tão confiáveis quanto a experimentação. No que tange a metodologias computacionais, técnicas como o Método dos Volumes Finitos e o Método dos Elementos Finitos são amplamente empregados nos processos de discretização e solução dos conjuntos de equações diferenciais parciais que governam os fenômenos encontrados nestes processos. Uma alternativa que reúne características do Método dos Elementos Finitos e do Método dos Volumes Finitos, conhecida por Método de Volumes de Controle Baseado em Elementos Finitos é um dos focos apresentados neste trabalho. Além disso, a ferramenta computacional OpenFOAM, um conjunto de aplicações de código aberto voltados a problemas gerais de mecânica do contínuo também será abordado. Diversos problemas das áreas de dinâmica dos fluidos e de mudança de fase serão apresentados para destacar tais aplicações. Several applications related to continuum mechanics deal with processes as such as solidification and melting of materials, natural convection, stress and strains in solids, among other phenomena. In the defense industry, for example, the manufacture of explosive materials such as large-caliber grenades, requires care in the handling process, proper filling and cooling of molten energetic materials in molds. Inadequate monitoring of these steps results in contractions, hot tearings, air bubbles, and material supression from its mold, which can lead from excessive production costs to catastrophic failures related to the final product. In this way, the development of mathematical models, the implementation of techniques and use of existing computational tools allow the study, the prediction and simulation of these phenomena with low financial cost and with results as reliable as experimentation. Regarding to computational methodologies, techniques such as the Finite Volume Method and the Finite Element Method are widely used in discretization and solution processes of the partial differential equations sets that govern the phenomena found in these processes. An alternative that combines characteristics of both Finite Element Method and Finite Volume Method, known as Control Volume Finite Element Method is one of the focuses presented in this work. Besides, the computational tool OpenFOAM, a set of open source applications focused on general problems of continuum mechanics will also be addressed. Several problems in the areas of fluid dynamics and phase change will be presented to illustrate such applications.
- Published
- 2020
20. Combinação de diferentes métodos de redução de dimensionalidade e de agrupamento para a detecção automática de conformações moleculares preferenciais
- Author
-
Souza, Vinicius Carius de, Goliatt, Priscila Vanessa Zabala Capriles, Fonseca, Leonardo Goliatt da, Silva, Eduardo Krempser da, Dardenne, Laurent Emmanuel, Pinto, Priscila de Faria, and Bernardino, Heder Soares
- Subjects
Redução de dimensionalidade ,Schistossoma mansoni ,Molecular docking ,Agrupamento ,Dinâmica molecular ,Molecular dynamics ,Dimensionality reduction ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Clustering ,Docking molecular - Abstract
A simulação de dinâmica molecular (DM) é uma técnica usada para estudar os movimentos de átomos e moléculas, permitindo a análise de conformações recorrentes e estados de transição. Por em, um grande número de conformações e necessário para estudos de predição de propriedades físico-químicas e geométricas de moléculas. Devido ao número de parâmetros considerados na descrição dos movimentos moleculares (e. g. distâncias intra e inter-atômicas, ângulos diedrais) os conjuntos de trajetórias apresentam uma alta-dimensionalidade, sendo este o principal fator que torna difícil a análise de longas simulações por DM. A utilização de técnicas como o aprendizado de máquina têm sido usadas para encontrar um espaço dimensional reduzido que representa os movimentos essenciais das moléculas, permitindo identicar movimentos representativo e facilitando a análise de longas simulações. Em geral, a análise das componentes principais (PCA), um método de transformação linear, tem sido frequentemente usado para reduzir a dimensionalidade do problema em estudos de DM essencial. Contudo, a literatura propõe o uso de métodos não-lineares para a detecção do espaço de fase de moléculas proteicas. Assim, o objetivo desta tese e desenvolver um fluxograma automatizado foi desenvolvido para a obtenção das conformações preferenciais de proteínas, trazendo para discussão os métodos de redução de dimensionalidade de dados (RDD): Autoencoder, Isomap, t-SNE, MDS e Spectral. Adicionalmente, nos propomos a combinação desses métodos com algoritmos de agrupamento para descobrir conformações representativas da trajetória de DM. Espectral. Adicionalmente uma análise estrutural e de inibição enzimática das proteínas alvo-terapêutico no tratamento da esquistossomose. Para seleção de estruturas representativas e gerado um per l de energia livre (FEL) usando o método Weighted Histogram Analysis Method (WHAM) para verificar a superfície de energia obtida por cada RDD e desta forma encontrar a conformação com maior convergência. A flutuação atômica das proteínas foi representada pelas distâncias euclidianas entre os átomos C α intra-moleculares em cada conformação. A matriz de características obtida foi usada como entrada para os redutores de dimensionalidade combinadas com algoritmos de agrupamento (K-means, Ward, Meanshift e A nity Propagation). O parâmetro de define o número de grupos do K-means e Ward foi predito usando os métodos BIC, elbow, GAP e m axima silhueta. E a análise de qualidade dos grupos detectados foi avaliado por métricas de validação interna de agrupamento (e.g., Calinski-Harabasz (CH), Davies-Bouldin index (DBI) e Silhueta). Como conjunto de testes, nós usamos como simulações as DM da miniproteína Trp-cage (PDB1L2Y) e da calmodulina (PDB1CLL) nas temperaturas de 310K e 510K. De acordo com os resultados, os métodos Spectral e Isomap foram capazes de gerar espaços de dimensionalidades reduzidas que fornecem um bom discernimento sobre a separação de classes de conformações. Por serem métodos não-lineares, o espaço gerado representa melhor os movimentos proteicos que o PCA, e ,portanto, podem ser considerados alternativas promissoras para a análise de DM por dinâmica essencial. Para a validação desses resultados, aplicamos o fluxograma em conformações da proteína HIV-1 protease obtidas por simulações de DM essencial e acelerada. Os resultados obtidos apresentaram novamente os métodos Spectral e Isomap como as melhores abordagens para a separação de classes de conformações. Por fim, aplicamos essas técnicas em estudo de caso com proteínas avaliadas por nosso grupo de pesquisa como alvos moleculares para o tratamento da esquistossomose, as isoformas 1 (smNTPDase1) e 2 (smNTPDase2) da ATP-Difosfohidrolase de Schistossoma mansoni. Para as estruturas de menor energia obtidas pelo m etodo Spectral, foram realizados estudos de docking molecular contra o composto LS1 sintetizado e cedidos pelo Núcleo de Identificação e Pesquisa em Princípios Ativos Naturais da UFJF, previamente estudado experimentalmente e apresentado como inibidor da smNTPDase1. Os resultados obtidos foram melhores do que os previamente publicados com o modelo de smNTDase1 e apontam que o composto LS1 possui grande potencial de inibição para ambas enzimas smNTPDases. Molecular dynamics simulation (MD) is a technique used to study atoms and molecules' movements, allowing the analysis of recurring conformations and transition states. However, many conformations are necessary for studies of the prediction of physical-chemical and geometric properties of molecules. Due to the number of parameters considered in the description of movements molecular (e. g. intra and inter-atomic distances, dihedral angles), the sets of trajectories present a high-dimensionality, this being the main factor that makes the analysis of long simulations by DM difficult. Use of techniques such as machine learning has been used to find a reduced dimensional space representing the essential movements of molecules, allowing them to identify representative movements and facilitate extended simulation analysis. In general, the principal component analysis (PCA), a linear transformation method, has often been used to reduce the problem's dimensionality in essential DM studies. However, the literature proposes the use of non-linear methods to detect the phase space of protein molecules. Thus, the objective of this thesis is to develop an automated work ow was developed to obtain the preferential conformations of proteins, bringing to discussion the methods of reducing the dimensionality of data (RDD): Autoencoder, Isomap, t-SNE, MDS, and Spectral. Additionally, we propose to combine these methods with algorithms of grouping to discover representative conformations of the DM trajectory. And finally, structural analysis and enzymatic inhibition of target-therapeutic proteins in the treatment of schistosomiasis. To select representative structures, a free energy profile (FEL) is generated using the Weighted Histogram Analysis Method (WHAM) method to check the energy surface obtained by each RDD and thus find the conformation with greater convergence. The atomic uctuation of proteins was represented by Euclidean distances between the Cα intra-molecular atoms in each conformation. The characteristic matrix obtained was used as an input for dimensionality reducers combined with clustering algorithms (K-means, Ward, Meanshift, and Affinity Propagation). The parameter defines the number of K-means groups, and Ward was predicted using the BIC, elbow, GAP, and maximum silhouette. And the quality analysis of the detected groups was evaluated by internal cluster validation metrics (e.g., Calinski-Harabasz (CH), Davies-Bouldin index (DBI) and Silhouette). As a set of tests, we used the DMs of the mini protein Trp-cage (PDB1L2Y) and calmodulin (PDB1CLL) as simulations in temperatures of 310K and 510K. According to the results, the Spectral and Isomap methods were able to generate dimensional spaces that provide a good insight into the separation of conformations classes. As they are non-linear methods, the space generated better represents protein movements than PCA and, therefore, can be considered promising alternatives for the analysis of MD by essential dynamics. We applied the work ow to HIV-1 protease conformations obtained by essential and accelerated MD simulations to validate these results. The results obtained again presented the Spectral and Isomap methods as the best approaches for separating classes of conformations. Finally, we apply these techniques in a case study with proteins evaluated by our research group as molecular targets for the treatment of schistosomiasis, isoforms 1 (smNTPDase1) and 2 (smNTPDase2) from ATP-Diphosphohydrolase de Schistossoma mansoni. For the lower energy structures obtained by the Spectral method, molecular docking studies against the LS1 compound synthesized and provided by Núcleo de Identificação e Pesquisa em Princípios Ativos Naturais da UFJF, previously studied experimentally and presented as a smNTPDase1 inhibitor. The results obtained were better than those previously published with the smNTDase1 model and point out that the compound LS1 has great potential for inhibition for both smNTPDases enzymes.
- Published
- 2020
21. Otimização multiobjetivo utilizando algoritmos evolutivos em seleção de carteiras: uma abordagem envolvendo ômega, assimetria e antifragilidade
- Author
-
Gotardelo, Davi Riani, Fonseca, Leonardo Goliatt da, Cordeiro, Fernanda Finotti, Augusto, Douglas Adriano, Borges, Carlos Cristiano Hasenclever, Lisbôa, Paulo César Coimbra, and Oliveira, Fabrízzio Condé de
- Subjects
Antifragility ,Seleção de carteiras ,Portfolio Selec-tion ,Algoritmos evolutivo ,Otimização multiobjetivo ,Evolutionary algorithms ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Antifragilidade ,Multiobjective optimization - Abstract
A rentabilidade em investimentos sempre foi desejo de qualquer investidor, seja pessoa física ou jurídica. Em períodos de quedas das taxas de juros das economias mundiais,bem como a existência de um desempenho instável dos ativos das bolsas de valores devido a recorrentes crises financeiras, como a recente ocasionada pelo COVID-19, a rentabilidade de ativos de Renda Fixa e Variável está cada vez mais ameaçada.Esse contexto suscita nos investidores uma busca cada vez maior por ativos que consigam conciliar rentabilidade e um mínimo de segurança na composição de seus portfólios.Isso faz com que a seleção de carteiras de ativos seja, sem dúvida, um dos temas mais desafiadores da área de Finanças.Desde a contribuição inicial de Markowitz, diversos pesquisadores têm busca do estudar métodos, técnicas e modelos aplicáveis ao tema. Um marco teórico importante foi a proposição nos anos 60 do modelo CAPM que, embora robusto e consistente, apresenta falhas severas empíricas. Sua limitação empírica é apontada pelo fato da proxy da carteira de mercado idealizada pelo modelo não se efetivar na prática. Aliado a isso, algumas premissas como a normalidade da distribuição e a função utilidade quadrática tornam o modelo CAPM cada vez menos propenso ao sucesso quando implementado na prática.Diante disso, novas abordagens têm sido apresentadas, com destaque recente para o modelo OCAPM, em que a medida Ômega permite relaxar essas premissas do CAPM e pode representar com maior efetividade a preferência do investidor. Novos atributos que não somente a média e variância passam a ser relevantes no processo de tomada dedecisão do investidor, transformando o problema em uma abordagem multi objetiva.Como o OCAPM ainda não tem ampla aplicação empírica, esta pesquisa se divide em três partes: a primeira, trabalha com otimização mono-objetivo e busca conhecer empiricamente se o modelo OCAPM apresenta desempenho superior ao modelo CAPMnos mercados estudados; a segunda parte trabalha com uma otimização de atributos puramente convexos e visa ratificar a visão de que a média e variância podem não ser,por si só, suficientes para representar toda a distribuição de retorno dos ativos e, por conseguinte, da decisão dos investidores. A terceira parte, a principal da pesquisa, tratada otimização de carteiras multi objetivas que envolvam atributos convexos e não-convexosatravés do emprego de algoritmos evolutivos.Neste experimento, são propostas 03 carteiras multi objetivas:i) Global, envolvendo a otimização dos atributos ômega, média, assimetria, curtose, drawdowne antifragilidade;ii) Antifrágil, envolvendo drawdowne antifragilidade e iii) Assimétrica, envolvendo ômega,assimetria e curtose.Os resultados da pesquisa mostram que a carteira Antifrágil trouxe ganhos superiores em relação à média de retornos dos demais modelos e sobretudo no mercado americano apresentou melhores condições de risco. Valorizar ativos que apresentem baixo drawdowne possuam relativa resiliência em períodos de turbulência se torna vantajoso na gestão de investimentos. Perder pouco em momentos de crise parece ser mais significativo que ganharem períodos de bonança e estabilidade. Dentre os algoritmos evolutivos empregados, o destaque fica com o NSGA3, que apresentou o melhor desempenho fora da amostra na otimização de carteiras multi objetivas. Profitability in investments has always been the desire of any investor, whether an individual or a company. In periods of declining interest rates in world economies, as well as the existence of an unstable performance of stock exchange assets due to recurringfinancial crises, such as the recent one caused by COVID-19, the profitability of Fixed and Variable Income assets is increasingly threatened.This context causes investors to increasingly search for assets that manage toreconcile profitability and a minimum of security in the composition of their portfolios. Itmakes the selection of asset portfolios undoubtedly one of the most challenging topics inthe Finance area.Since Markowitz’s initial contribution, several researchers have sought to studymethods, techniques, and models applicable to the topic. A crucial theoretical landmarkwas the proposal in the 1960s of the CAPM model, which has severe empirical flaws,although robust and consistent. Its empirical limitation is pointed out by the fact that themarket portfolio proxy idealized by the model does not take effect in practice. In additionto this, some premises as normal distribution and the quadratic utility function make theCAPM model less and less likely to succeed when implemented in practice.Therefore, new approaches have been presented, with a recent highlight for theOCAPM model, in which the Omega measure allows us to relax these CAPM premisesand represent the investor’s preference more effectively. Thus, new attributes that notonly mean and variance become relevant in the process of building new approaches to themodel, transforming the problem into a multiobjective approach.As OCAPM does not yet have a full empirical application, this research splits intothree parts: the first works with mono-objective optimization and seeks to empirically knowif the OCAPM model performs better than the CAPM model in the studied markets. Thesecond part works with the optimization of purely convex attributes. It aims to ratify theview that the mean and variance may not be sufficient to represent the entire distributionof return on assets and, therefore, investors’ decisions. The third part, the central part ofthe research, deals with the optimization of multiobjective portfolios involving convex andnon-convex attributes through the use of evolutionary algorithms.In this experiment, there are three multiobjective portfolios: i) Global, involvingthe optimization of the omega, mean, asymmetry, kurtosis, drawdown, and antifragilityattributes; ii) Antifragile, involving drawdown and antifragility and iii) Asymmetric,involving omega, skewness, and kurtosis.The results of the research show that the antifragile portfolio brought higher averagereturns than CAPM and OCAPM models, and the American market showed better riskconditions. Valuing assets that have a low drawdown and have relative resilience in times of turbulence becomes advantageous in investment management. Losing little in crisistimes seems to be more significant than winning in periods of calm and stability. Amongthe evolutionary algorithms used, the highlight is the NSGA3, which presented the bestperformance out of the sample in the optimization of multiobjective portfolios.
- Published
- 2020
22. Integração de dados petrofísicos, petrográficos e de técnicas de inteligência computacional para a caracterização litológica de reservatórios de petróleo
- Author
-
Saporetti, Camila Martins, Fonseca, Leonardo Goliatt da, Pereira, Egberto, Campos, Luciana Conceição Dias, Bernardino, Heder Soares, Oliveira, Leonardo Costa de, and Silva, Eduardo Krempser da
- Subjects
Computational intelligence ,Lithology ,Litologia ,Caracterização de reservatório ,Reservoir characterization ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Inteligência computacional - Abstract
A litologia é a descrição das características físicas e mineralógica de uma unidade rochosa ou formação rochosa. Sua definição em poços de petróleo por meio de múltiplos perfis elétricos e geofísicos tem um papel importante no processo de caracterização do reservatório. A partir da litologia, pode-se gerar modelos que serão a base através da qual cálculos petrofísicos são feitos, e em seguida, podem ser usados em simuladores de fluxo para compreender o comportamento de um campo de petróleo. A identificação pode ser realizada por métodos diretos e indiretos, mas nem sempre são viáveis devido ao custo ou imprecisão dos resultados. Modelos preditivos de distribuição de heterogeneidades e qualidade em reservatórios de hidrocarbonetos são fundamentais para exploração e otimização da produção de campos de óleo e gás. As heterogeneidades são determinadas por meio das distintas petrofácies, um conjunto de características petrográficas que especificam um grupo de rochas. O procedimento de identificar petrofácies geralmente é longo, o que faz com que a automatização seja necessária para agilizar o processo, e assim a análise seja concluída rapidamente. Através de sua determinação pode-se obter informações sobre as rochas reservatório, tais como: sua história deposicional e diagenética, estrutura do poro e mineralogia. Nesse contexto, técnicas de inteligência computacional aparecem como uma alternativa para discriminar litologia e petrofácies. Este trabalho objetiva o desenvolvimento de uma metodologia capaz de auxiliar na caracterização de reservatórios petrolíferos. A litologia e petrofácies foram derivadas do reconhecimento de padrões de características petrofísicas e petrográficas respectivamente. As características foram analisadas por meio de Análise de Componentes Principais. Métodos supervisionados foram empregados para classificar amostras e avaliar como novas amostras serão distribuídas. Para encontrar os classificadores ótimos, o método de evolução diferencial foi aplicado. Técnicas para aumentar a dimensionalidade foram utilizadas como uma forma de avaliar o comportamento dos métodos utilizados. Foi utilizado a Análise Filogenética como uma ferramenta para entender o processo de diagênese que ocorre durante o processo de litificação da rocha sedimentar e identificação dos eventos que ocorreram durante este processo. A metodologia apresentada surge como uma alternativa para auxiliar o geólogo/petrólogo na caracterização de um reservatório de petróleo. Lithology is the description of the physical and mineralogical characteristics of a rock unit or rock formation. Its definition in oil wells through multiple electrical and geophysical profiles has an important role in the reservoir characterization process. From the lithology, models can be generated based on which petrophysical calculations are made. Then they can be used in flow simulators to understand the behavior of an oil field. Direct and indirect methods can carry out the identification, but they are not always feasible due to the results’ cost or imprecision. Predictive models for the distribution of heterogeneities and quality in hydrocarbon reservoirs are fundamental for exploring and optimizing the production of oil and gas fields. Heterogeneities are determined employing different petrofacies, a set of petrographic characteristics that specify a group of rocks. The procedure of identifying petrofacies is generally long, which makes automation necessary to speed up the process, and thus the analysis is completed quickly. It is possible to obtain information about the reservoir rocks through its determination, such as their depositional and diagenetic history, pore structure, and mineralogy. In this context, computational intelligence techniques appear as an alternative to discriminate lithology and petrofacies. This work aims to develop a methodology capable of assisting in the characterization of oil reservoirs. Lithology and petrofacies were derived from the recognition of patterns of petrophysical and petrographic characteristics, respectively. The characteristics were analyzed through Principal Component Analysis. Supervised methods were used to classify samples and evaluate how new samples will be distributed. To find the optimal classifiers, the differential evolution method was applied. Techniques to increase dimensionality were used as a way to evaluate the behavior of the methods used. Phylogenetic Analysis was used to understand the process of diagenesis that occurs during the lithification process of sedimentary rock and the identification of the events that occurred during this process. The presented methodology appears as an alternative to assist the geologist/petrologist in characterizing an oil reservoir.
- Published
- 2020
23. Quantificação automática de microestruturas em aços via redes neurais convolucionais
- Author
-
Almeida, Cássio Danelon de, Fonseca, Leonardo Goliatt da, Lagares Júnior, Moisés Luiz, Borges, Carlos Cristiano Hasenclever, and Caldeira, Lecino
- Subjects
Machine learning ,Quantificação de microestruturas ,Convolutional neural networks ,Aprendizado de máquina ,Redes neurais convolucionais ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Microstructures quantification - Abstract
A análise microestrutural de um material permite a completa caracterização de suas propriedades mecânicas. Assim, o desempenho de um componente mecânico depende fortemente da identificação e quantificação de seus constituintes microestruturais. Atualmente, este processo ainda é feito manualmente por especialistas, tornando-o lento, muito trabalhoso e ineficiente. Estima-se que um especialista experiente leve em média 15 minutos por imagem para realizar a identificação e quantificação adequada de microconstituintes. Portanto, uma ferramenta computacional poderia ajudar bastante a melhorar o desempenho nesta tarefa. No entanto, uma vez que uma microestrutura pode ser uma combinação de diferentes fases ou constituintes com subestruturas complexas, sua quantificação automática pode ser muito difícil e, como resultado, há poucos trabalhos anteriores lidando com este problema. Redes Neurais Convolucionais são promissoras para este tipo de aplicação, já que recentemente esse tipo de rede tem alcançado grande performance em aplicações complexas de visão computacional. Neste trabalho, propomos uma quantificação automática de constituintes microestruturais de aço de baixo carbono via Redes Neurais Convolucionais. Nosso conjunto de dados consiste em 210 micrografias de aço de baixo carbono, e essa quantidade de imagens foi aumentada através de técnicas de aumento dos dados, resultando em um total de 720 amostras para treinamento. Com relação às arquiteturas de rede, foi utilizado as redes AlexNet e VGG16 treinadas do zero, e VGG19, Xception e InceptionV3 todas pré-treinadas. Os resultados mostraram que as CNNs podem quantificar microestruturas de forma muito eficaz. The microstructural analysis of a material allows the complete characterization of its mechanical properties. Thus, the performance of a mechanical component depends heavily on the identification and quantification of its microstructural constituents. Currently, this process is still done mostly manually by experts, making it slow, very labor-intensive and inefficient. It is estimated that an experienced expert takes 15 minutes per image to perform the proper identification and quantification of microconstituents. Therefore, a computational tool could greatly assist to improve the performance in this task. However, since a microstructure can be a combination of different phases or constituents with complex substructures, their automatic quantification can be very hard and, as a result, there are few previous works dealing with this problem. Convolutional Neural Networks are promising for this type of application since recently this type of network has achieved great performance in complex applications of computational vision. In this work, we propose an automatic quantification of microstructural constituents of low carbon steel via Convolutional Neural Networks. Our dataset consists of 210 micrographs of low carbon steel, and this amount of images was increased through data augmentation techniques, resulting in a total of 720 samples for training. With regard to network architectures, we used AlexNet and VGG16 both trained from scratch, and three pre-trained models: VGG19, InceptionV3, and Xception. The results showed that CNNs can quantify microstructures very effectively.
- Published
- 2020
24. Metamodelo com arquitetura em duas camadas para a previsão de propriedades mecênicas de misturas de concreto
- Author
-
Furtado Neto, Geraldo, Fonseca, Leonardo Goliatt da, Farage, Michéle Cristina Resende, Silva, Eduardo Krempser da, and Manfrini, Francisco Augusto Lima
- Subjects
Computational intelligence ,Optimization ,Stacking ,Concreto ,Otimização ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Inteligência computacional ,Concrete - Abstract
As propriedades mecânicas do concreto, como módulo de resiliência e resistência à compressão, são de grande importância na etapa de projeto. Determinar estas propriedades através de informações sobre os componentes da mistura e características físicas do concreto, não é trivial. Essa tarefa torna-se complexa pois as relações entre as quantidades e tipos dos componentes da mistura do concreto e suas propriedades mecânicas possuem um alto grau de não-linearidades. O objetivo do presente trabalho é empregar métodos de aprendizado de máquina para criar modelos de regressão, que sejam capazes de prever as propriedade mecânicas de uma mistura de concreto. Visando investigar a possibilidade de melhora dos resultados já obtidos com o uso de técnicas de aprendizado de maquina, será utilizada uma técnica de aprendizado em conjunto, o Stacking. A técnica consiste em um modelo de camadas, onde a primeira é composta por modelos individuais e a segunda por um metamodelo que tem a função de utilizar as previsões realizadas pelos modelos de primeira camada como dados de entrada, objetivando realizar uma previsão final. Foram usadas quatro diferentes bases de dados experimentais obtidas da literatura, cada base possuindo quantidade de amostras, número e tipos de atributos, distintos, permitindo verificar a capacidade de generalização da arquitetura criada. Com o uso desta técnica pretende-se que o metamodelo apresente uma capacidade de previsão melhor ou similar a apresentada pelo uso individual dos métodos. Todo o arcabouço computacional foi implementado utilizando a linguagem Python e um conjunto de bibliotecas. Foram utilizados testes estatísticos para avaliar se existia diferença significativa entre o desempenho do Stacking e dos modelos individuais. Ao final das análises dos resultados das métricas de avaliação e dos testes estatísticos foi possível perceber que os resultados do Stacking são melhores ou no mínimo semelhantes aos apresentados pelos modelos individuais com melhor desempenho. The mechanical properties of concrete, such as modulus of resilience and compressive strength, are of great importance in the design stage. Determining these properties through information about the mix components and physical characteristics of the concrete is not trivial. This task becomes complex because the relationships between the quantities and types of concrete mix components and their mechanical properties have a nonlinearities. The objective of the present work is to employ machine learning methods to create regression models that are able to predict the mechanical properties of a concrete mix. In order to investigate the possibility of improving the results already obtained with the use of machine learning techniques, a joint learning technique, Stacking, will be used. This technique consists of a layer model, where the first is composed of individual models and the second by a metamodel that has the function of using the predictions made by the first layer models as input data, aiming to make a final forecast. Four different experimental databases obtained from the literature were used, each database having different samples, number and types of attributes, allowing to verify the generalizability of the created architecture. With the use of this technique it is intended that the metamodel presents a better predictive capacity than the one presented by the individual methods. The entire computational framework was implemented using the Python language and a set of libraries. Statistical tests were used to assess whether there was a significant difference between Stacking performance and individual models. At the end of the analysis of the results of the evaluation metrics and the statistical tests it was possible to realize that the results of Stacking are better or at least similar to those presented by the best performing individual models.
- Published
- 2020
25. Introdução de um índice de desempenho para a migração no modelo de ilhas
- Author
-
Pontes, Rodrigo da Cruz Alvarenga Fajardo, Fonseca, Leonardo Goliatt da, Borges, Carlos Cristiano Hasenclever, and Silva, Eduardo Krempser da
- Subjects
Índice de desempenho ,Performance index ,Modelo de ilhas ,Island model ,Evolutionary computation ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Computação evolucionista - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Nesse trabalho é acrescentado ao modelo de ilhas um índice de desempenho para avaliar o quão eficiente a ilha está sendo em resolver problemas de otimização sem restrições. As ilhas com índices maiores recebem mais indivíduos quando a migração ocorre. Na ocasião da aplicação do operador de migração, são selecionados alguns indivíduos para migrarem de uma determinada ilha. Esses indivíduos escolhem então suas ilhas de destino, ou se permanecem na ilha em que estão, com mais chances de escolher uma ilha que possui um alto índice de desempenho. As simulações realizadas indicam que o modelo proposto apresenta resultados semelhantes aos resultados gerados pelo melhor algoritmo indicado pela literatura para cada problema. Percebeu-se também que ao retirar o algoritmo mais eficiente do modelo, o modelo proposto consegue se adaptar e gerar solu¸c˜oes eficientes, utilizando-se das caracter´ısticas dos algoritmos restantes. In this work, a performance index was added to the island model, to evaluate how efficiently the population of an island is at solving a given problem. The islands with higher indexes receive more individuals when migration occurs. when the migration operator is used, a few individuals are chosen to make a decision: either go to another island or stay in the current island. The individual has a higher chance of choosing an island with a high performance index. After running the simulations, we noticed that the solutions of the new model were as good as the solutions from the best algorithm for each problem. We also noticed that even if we remove the most efficient algorithm from the model, it manages to adapt and still provide efficient solutions, making use of the characteristics from the remaining algorithms.
- Published
- 2020
26. Detecção de dano em estruturas baseada em técnicas de aprendizado híbrido
- Author
-
Nunes, Lorena Andrade, Cury, Alexandre Abrahão, Barbosa, Flávio de Souza, Fonseca, Leonardo Goliatt da, and Martins, Cláudio José
- Subjects
Classificador híbrido ,Structural modifications ,Modificações estruturais ,Damage detection ,Hybrid sorter ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] ,Detecção de danos - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais As estruturas de engenharia estão frequentemente sujeitas a alterações em suas propriedades dinâmicas por conta de diversos fatores, tais como a deterioração da construção devido ao tempo de uso, a falta de manutenção, os efeitos ambientais e operacionais adversos, os carregamentos inesperados, os procedimentos de reforço estrutural, entre outros. Na maioria dos casos, essas modificações podem estar associadas a danos estruturais. O monitoramento contínuo do comportamento dinâmico de uma estrutura possibilita a investigação e a análise de alterações com o objetivo de assegurar sua integridade, garantindo maior conforto e segurança aos usuários, além de possibilitar ações mais eficazes de reparo e manutenção, impactando diretamente na redução dos custos operacionais. Para tanto, sistemas de monitoramento devem dispor de ferramentas computacionais aptas a avaliar as informações adquiridas em tempo real e continuamente. Nesta dissertação, uma nova abordagem baseada na análise direta de medições de aceleração para detectar danos e modificações estruturais utilizando técnicas de inteligência computacional é apresentada. A abordagem consiste na utilização em conjunto de métodos de classificação supervisionados (RNA) e não supervisionados (k-means) para a construção de um classificador híbrido. O objetivo é detectar não apenas estados de dano já conhecidos, mas também estados estruturais que ainda não foram identificados. A ideia é permitir, dessa forma, o monitoramento da integridade estrutural em tempo real, provendo respostas de forma automática e contínua, baseando-se apenas em testes vibracionais ambientes com a estrutura em operação. Para atestar a robustez dessa abordagem, dados oriundos de simulações numéricas e de ensaios experimentais realizados em laboratório e in situ são utilizados. Os resultados obtidos demonstram desempenho promissor da metodologia proposta. Engineering structures are often subject to changes in their dynamic properties due to various factors such as deterioration of construction due to time of use, the lack of maintenance, adverse environmental and operational effects, unexpected loads, structural reinforcement procedures, among others. In most cases, these modifications may be associated with structural damage. Continuous monitoring of the dynamic behavior of a structure makes it possible to investigate and analyze changes to ensure their integrity, ensuring greater comfort and safety for users and enabling more effective repair and maintenance actions, directly impacting the reduction of operating costs. For such, monitoring systems must have computational tools able to evaluate the acquired information in real time and continuously. In this dissertation, a new approach based on the direct analysis of acceleration measurements to detect structural damage and modifications using computational intelligence techniques is presented. The approach is to use together supervised (RNA) and unsupervised (k-means) classification methods to construct a hybrid classifier. The goal is to detect not only known damage states but also unidentified structural states. The idea is thus to allow the real-time monitoring of structural integrity, providing answers automatically and continuously, based only on vibrational testing environments with the structure in operation. To attest to the robustness of this approach, data from numerical simulations and experimental tests performed in the laboratory and in situ are used. The results show promising performance of the proposed methodology
- Published
- 2020
27. Aplicação de técnicas de inteligência computacional para a previsão de cargas de aquecimento e resfriamento em edificações
- Author
-
Silva, Gisele Goulart Tavares da, Goliatt, Priscila Vanessa Zabala Capriles, Fonseca, Leonardo Goliatt da, Borges, Carlos Cristiano Hasenclever, and Barbosa, Sabrina andrade
- Subjects
Energy efficiency ,Seleção de modelos ,Extreme gradient boosting ,Heating and cooling loads ,Differential evolution ,Cargas de aquecimento e resfriamento ,Model selection ,Eficiência energética ,Evolução diferencial ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Devido às mudanças climáticas, até 2040 os edifícios podem vir a consumir 30% mais energia, sendo o desempenho energético o elemento chave para o alcance do desenvolvimento sustentável no setor da construção civil. Custos de projeto, dano ambiental e características construtivas como geometria, propriedades térmicas dos materiais e condições climáticas são necessárias para avaliar a performance energética de uma edificação. Uma forma de solucionar este problema de avaliação é a aplicação de Métodos de Aprendizado de Máquina para estimar uma resposta a partir de uma entrada de dados. O uso de Métodos de Aprendizado de Máquina pode vir a auxiliar especialistas da área da construção civil na análise de cenários ainda na fase inicial do projeto e trazer economia para a edificação. O presente trabalho avalia a aplicação dos modelos Elastic Net, Máquina de Aprendizado Extremo e Extreme Gradient Boosting para a previsão das cargas de aquecimento e resfriamento em edificações residenciais. Duas bases de dados são utilizadas para avaliar o desempenho dos métodos, contendo variáveis geométricas de entrada e duas variáveis térmicas de saída. Para a seleção de parâmetros dos métodos, o algoritmo de otimização Evolução Diferencial foi aplicado, com o objetivo de encontrar os conjuntos de hiperparâmetros que reforcem as capacidades preditivas dos modelos. As comparações dos resultados ocorreram através do uso das métricas MAE, MAPE, RMSE e R2. Os resultados mostraram que o método Extreme Gradient Boosting obteve uma melhor performance dentre os métodos testados e também em comparação com a literatura, apresentando os menores valores para as métricas de erro e diferença significativa nos testes estatísticos. Além disso, o algoritmo de Evolução Diferencial se mostrou eficaz para a otimização dos parâmetros dos modelos testados, podendo vir a ser aplicado também a outros modelos da literatura. Dessa forma, a combinação dos métodos Evolução Diferencial e Extreme Gradient Boosting pode vir a ser aplicada na previsão das cargas térmicas em edificações, auxiliando em projetos que visem economia de energia e sustentabilidade. Due to climate change, by 2040 buildings may consume 20% more energy, with energy performance being the key element for achieving sustainable development in the building sector. Design costs, environmental damage and constructive characteristics, such as geometry, thermal properties of materials and weather conditions, are necessary to assess the energy performance of a building. One way to solve this problem is to apply Machine Learning Methods to estimate a response from data. The use of Machine Learning Methods can assist construction specialists in scenario analysis at an early stage of the project and bring savings to the building. The present work evaluates the application of the Elastic Net, Extreme Learning Machine and Extreme Gradient Boosting models for the forecasting of heating and cooling loads in residential buildings. Two databases are used to evaluate the performance of the methods, including geometric input variables and two thermal output variables. For the selection of method parameters, the Differential Evolution optimization algorithm was applied to find the sets of hyperparameters that reinforce the predictive capabilities of the models. Comparisons of the results were made using the MAE, MAPE, RMSE and R2 metrics. The results showed that the Extreme Gradient Boosting achieved a better performance among the tested methods and also compared to the literature, presenting the lowest values for the error metrics and significant difference in the statistical tests. In addition, the Differential Evolution algorithm showed to be effective for the optimization of the parameters of the tested models, and may also be applied to other models in the literature. Thus, a combination of Differential Evolution and Extreme Gradient Boosting methods can be applied to predict thermal loads in buildings, assisting in projects that aim at energy saving and sustainability.
- Published
- 2019
28. Modelos híbridos para construção de redes neurais artificiais via programação genética cartesiana
- Author
-
Melo Neto, Johnathan Mayke, Bernardino, Heder Soares, Barbosa, Helio José Corrêa, Fonseca, Leonardo Goliatt da, and Augusto, Douglas Adriano
- Subjects
Classificação de dados ,Hibridização ,Programação genética cartesiana ,Hybridization ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Neuroevolution ,Data classification ,Neuroevolução ,Cartesian genetic programming - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais Na área de aprendizado de máquina, o problema de classificação de dados consiste em rotular corretamente instâncias desconhecidas com base nos rótulos de um conjunto de instâncias conhecidas. Um importante método para a resolução de problemas de classificação de dados é denominado redes neurais artificiais (RNAs). As RNAs são métodos computacionais bioinspirados, cujos parâmetros devem ser corretamente ajustados a fim de resolver uma dada tarefa de aprendizado. A topologia e os pesos são parâmetros determinantes para o desempenho desses métodos. Apesar da importância das RNAs em situações práticas, e dos diversos trabalhos disponíveis na literatura, o ajuste de seus parâmetros ainda é considerado um problema atual. Portanto, o desenvolvimento de estratégias para auxiliar os usuários durante a modelagem das RNAs é relevante. Uma dessas estratégias consiste em utilizar algoritmos evolutivos (EAs) para otimizar os parâmetros das RNAs. A combinação de RNAs e EAs é denominada neuroevolução. Este trabalho propõe novos métodos neuroevolutivos híbridos baseados em programação genética cartesiana (CGP) para a construção de RNAs. Os métodos realizam o desacoplamento dos processos de otimização da topologia e dos pesos para gerar as RNAs. A otimização da topologia é feita pela CGP. Para a otimização dos pesos, duas técnicas são utilizadas separadamente: (i) evolução diferencial (DE), e (ii) backpropagation (BP). Nos experimentos computacionais, os modelos gerados foram aplicados a dezoito problemas de classificação, utilizando bases de dados benchmark da literatura. Há experimentos com bases balanceadas e outros com bases desbalanceadas. Os modelos foram submetidos a três estudos de desempenho. O primeiro estudo avaliou o desempenho dos modelos utilizando a acurácia como função objetivo. O segundo estudo avaliou o desempenho dos modelos utilizando o erro quadrático médio como função objetivo. O terceiro estudo utilizou os modelos para avaliar o desempenho de quatro funções objetivo distintas: acurácia, G-mean, F β-score, e área abaixo da curva ROC. Os resultados mostraram a superioridade das propostas quando comparadas a técnicas alternativas existentes na literatura. In machine learning, the problem of data classification consists of correctly labeling unknown instances based on the labels of a set of known instances. An important method for solving data classification problems is called artificial neural networks (ANNs). ANNs are bioinspired computational methods, whose parameters must be correctly adjusted in order to solve a given learning task. Topology and weights are determining parameters for the performance of these methods. Despite the significance of ANNs in practical situations, and the several works available in the literature, to adjust its parameters remains as a current problem. Hence, the development of strategies to assist users during ANN modeling is relevant. One of these strategies is to use evolutionary algorithms (EAs) to optimize ANN parameters. The combination of ANNs and EAs is called neuroevolution. This work proposes new hybrid neuroevolutionary methods based on cartesian genetic programming (CGP) for the construction of ANNs. The methods carry out a decoupled optimization of the topology and the weights to generate the ANNs. Topology optimization is performed by CGP. For the weights optimization, two techniques are used separately: (i) differential evolution (DE), and (ii) backpropagation (BP). In the computational experiments these models were applied to eighteen data classification problems using benchmark datasets from the literature. There are experiments with balanced datasets and others with unbalanced datasets. The models were submitted to three performance studies. The first study evaluated the performance of the models using accuracy as the objective function. The second one evaluated the performance of the models using the mean square error as the objective function. The third study used the models to evaluate the performance of four distinct objective functions: accuracy, G-mean, Fβ-score, and area under the ROC curve. The results showed the superiority of the proposals when compared to alternative techniques from the literature.
- Published
- 2019
29. Avaliação da influência da temperatura no dano do concreto via modelagem computacional
- Author
-
Assis, Lahis Souza de, Farage, Michèle Cristina Resende, Bastos, Flávia de Souza, Borges, Carlos Cristiano Hasenclever, Fonseca, Leonardo Goliatt da, and Pitangueira, Roque Luiz da Silva
- Subjects
Damage ,Dano ,Thermomechanical ,Concreto ,Termomecânico ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] ,Concrete - Abstract
CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico O concreto é um material difundido e utilizado mundialmente sobretudo devido ao seu custo relativamente baixo, a não exigência de mão de obra com alto nível de qualificação para a sua obtenção, a possibilidade de ser moldado em fôrmas quando em estado fresco e a sua relativa resistência ao fogo. Contudo, a previsão do comportamento deste material, mormente quando submetido a determinadas condições de carregamento e temperatura é bastante complexa, uma vez que nesses casos ocorrem alterações microestruturais que refletem em sua estrutura macroscópica. Nesse contexto, surge a necessidade da utilização de ferramentas computacionais que possibilitem a simulação de estruturas com suas solicitações impostas. Buscando contribuir com este cenário, pretende-se neste trabalho simular o comportamento termomecânico do concreto quando o mesmo é exposto a gradientes de temperatura elevados, e entender de que forma o processo de degradação do material ocorre nesses casos, utilizando dados experimentais fornecidos pela Universidade Cergy-Pontoise, na França. Pretende-se ainda verificar de que forma a granulometria dos agregados influencia em tal processo. Para isso, será utilizado o programa comercial de elementos finitos Abaqus que permite ao usuário, através do recurso das subrotinas, descrever modelos constitutivos específicos de materiais, incorporando ao mesmo requisitos de um problema particular. Concrete is a diffused material used worldwide mainly because of its relatively low cost, not requiring labor with a high level of qualification for its obtaining, the possibility of being mol-ded in forms when in fresh state and their relative fire resistance. However, the prediction of the behavior of this material, especially when subjected to certain conditions of loading and tem-perature is quite complex, since in these cases microstructural changes occur that reflect in its macroscopic structure. In this context, it is necessary to use computational tools that allow the simulation of structures with their imposed requests. In order to contribute to this scenario, this work intends to simulate the thermomechanical behavior of the concrete when it is exposed to high temperature gradients, and to understand how the degradation process of the material oc-curs in these cases, using experimental data provided by Cergy-Pontoise University, in France. It is also intended to verify how the granulometry of the aggregates influences this process. For this, we will use the Abaqus finite element commercial program, which allows the user, through the use of the subroutines, to describe specific constitutive models of materials, incorporating the requirements of a particular problem.
- Published
- 2019
30. Política de migração para Metaheurísticas Híbridas usando Modelo Paralelo de Ilhas
- Author
-
Duarte, Grasiele Regina, Lemonge, Afonso Celso de Castro, Fonseca, Leonardo Goliatt da, Lima, Beatriz de Souza Leite Pires, Augusto, Douglas Adriano, Vieira, Alex Borges, and Campos, Luciana Conceição Dias
- Subjects
Algoritmos evolutivos ,Modelo de ilhas ,Modelo de ilhas estigmérgico ,Island model ,Stigmergy ,Estigmergia ,Evolutionary algorithms ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Stigmergy island model - Abstract
Os problemas de otimização estão presentes em diversas áreas do conhecimento e com o avanço da sociedade as suas complexidades aumentam. Nas últimas décadas foram propostos diversos algoritmos populacionais evolutivos para a resolução de problemas de otimização. Cada um desses algoritmos possui características próprias que influenciam de forma diferente no processo evolutivo e qualidade da solução ótima. O Modelo de Ilhas é uma estratégia de paralelização de algoritmos populacionais evolutivos. No Modelo de Ilhas o conjunto de soluções candidatas é dividido em subconjuntos conhecidos como ilhas. Cada ilha evolui o seu conjunto de soluções através do seu próprio algoritmo em paralelo com as outras. Periodicamente, as ilhas trocam soluções entre si através do processo de migração. O movimento de soluções entre as ilhas está condicionado à topologia do modelo e um conjunto de regras que compõem a política de migração. Este trabalho propõe uma nova alternativa de implementação híbrida para o Modelo de Ilhas, inspirada no fenômeno natural de estigmergia, chamado de Modelo de Ilhas Estigmérgico. As conexões do Modelo de Ilhas Estigmérgico possuem pesos ajustados a cada migração e que influenciam na escolha da ilha de destino para cada solução migrante. O objetivo principal com o Modelo de Ilhas Estigmérgico é propor uma estrutura auto-organizável para a resolução de problemas de otimização através de algoritmos populacionais evolutivos distintos. Uma das vantagens do Modelo de Ilhas Estigmérgico é que o usuário pode aplicar diversos algoritmos na sua topologia e a própria política de migração identificará a melhor configuração para a topologia e distribuição do conjunto de soluções entre as ilhas para resolver o problema. Optimization problems are present in several areas of knowledge and with the advancement of society their complexities increase. In the last decades several evolutionary population algorithms have been proposed to solve optimization problems. Each of these algorithms has its own characteristics that influence in a different way the evolutionary process and the quality of the optimal solution. The Island Model is a strategy of parallelization of evolutionary population algorithms. In the Island Model the set of candidate solutions is divided into subsets known as islands. Each island evolves its set of solutions through its own algorithm in parallel with the others. Periodically, the islands exchange solutions among themselves through the migration process. The movement of solutions between islands is conditioned to the topology of the model and a set of rules that compose the migration policy. This work proposes a new alternative of hybrid implementation for the Island Model, inspired by the natural phenomenon of stigmergy, called Stigmergy Island Model. The connections of Stigmergy Island Model have weights adjusted on each migration and that influence in choice of destination island for each migrant solution. The main objective with the Stigmergy Island Model is to propose a self-organizing structure for solving optimization problems through distinct evolutionary population algorithms. One of the advantages of the Stigmergy Island Model is that the user can apply several algorithms in its topology and the migration policy itself will identify the best configuration for the topology and distribution of the set of solutions among islands to solve the problem.
- Published
- 2019
31. Modelagem matemática e computacional do contato lubrificado de superfícies em mancais de rolamentos
- Author
-
Bastos, Flávia de Souza, Vecchio, Sara Del, Fonseca, Leonardo Goliatt da, and Vimeiro, Claysson Bruno Santos
- Subjects
Rugosidade ,Finite element method ,Friction ,Atrito ,Interação fluido-estrutura ,Lubrication ,Fluid-structure interaction ,Abaqus® ,Lubrificação ,Método dos elementos finitos ,Roughness ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Diante da principal causa de falhas, a lubrificação inadequada, em um dos componentes mecânicos mais utilizados em maquinários industriais, motor elétrico e à combustão, turbinas hidráulicas, a vapor e eólicas, neste trabalho apresenta-se a modelagem matemática e computacional via Abaqus® do contato lubrificado entre a superfície rugosa de uma esfera com o plano rígido, o qual corresponde a pista do anel externo, ambos componentes do rolamento de um mancal. O objetivo é analisar a relação entre o atrito de escorregamento e as tensões de cisalhamento produzidos a partir do contato lubrificado entre as asperezas das superfícies, em escala microscópica. Considera-se o modelo do contato sólido-sólido sem lubrificação e o sólido-fluido no regime de lubrificação hidrodinâmico e misto. São aplicados, como dados de entrada, a geometria, as propriedades dos materiais que compõem as partes em movimento e as velocidades relativas. E como saídas, as respostas em termos de forças normais e tangenciais, tensões normais e de cisalhamento, e as pressões no contato e no fluido são obtidas. Os resultados demonstram que o modelo computacional permite averiguar os efeitos da presença da lubrificação no contato de superfícies. Uma vez que, os valores estimados, via simulação computacional, para os coeficientes de atrito no regime de lubrificação hidrodinâmico e misto (próximos a 0,0045 e 0,014, respectivamente) apresentaram alta precisão, isto é, situaram-se dentro da faixa de referência especificada na literatura. Due to the main cause of failure, inadequate lubrication in one of the mechanical components most used in industrial machinery, electric and combustion motor, hydraulic, steam and wind turbines, in this work the mathematical and computational model is presented by Abaqus® of the lubricated contact between the rough surface of a sphere with the rigid plane, which corresponds to the outer ring track, both components of a rolling bearing. The aim is to analyze the relationship between the slip friction and the shear stresses produced from the lubricated contact between the roughness of the surfaces, on a microscopic scale. It is considered the model of the solid-solid contact without lubrication and the solid-fluid in the regimen of hydrodynamic and mixed lubrication. As input data, the geometry, the properties of the materials making up the moving parts and the relative velocities are applied. And as outputs, the responses in terms of normal and tangential forces, normal and shear stresses, and contact and fluid pressures are obtained. The results demonstrate that the computational model allows to verify the effects of the presence of the lubrication in the contact of surfaces. As the estimated values, through computational simulation, for the coefficients of friction in the hydrodynamic and mixed lubrication regime (close to 0,0045 and 0,014, respectively) presented high precision, that is, they were within the reference range specified in the literature.
- Published
- 2019
32. Um método baseado em otimização para construção da rede de Purkinje cardíaca
- Author
-
Ulysses, Jesuliana Nascimento, Queiroz, Rafael Alves Bonfim de, Rocha, Bernardo Martins, Santos, Rodrigo Weber dos, Oliveira, Rafael Sachetto, Xavier, Carolina Ribeiro, Barros, Marcelo Miranda, and Fonseca, Leonardo Goliatt da
- Subjects
Optimization ,Electrophysiology ,Rede de Purkinje ,Image processing ,Eletrofisiologia ,Processamento de imagem ,L-system ,Sistema-L ,Otimização ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Purkinje network - Abstract
Este trabalho apresenta um método baseado em otimização para a construção da rede de Purkinje cardíaca. Ele foi inspirado no método Constructive Constrained Optimization, que gera modelos de árvores arteriais. O método proposto constrói iterativamente a rede de Purkinje minimizando o comprimento total da árvore da rede de Purkinje gerada. Além disso, pode levar em conta algumas informações topológicas importantes da rede de Purkinje, como a localização das junções músculos-Purkinje e o ângulo médio da bifurcação encontrado na literatura. Para validar os modelos gerados pelo novo método, comparações foram feitas com modelos gerados pelo sistema-L e por uma técnica baseada em imagem histológica. Os resultados mostram que o método proposto é capaz de construir redes de Purkinje com características geométricas e tempos de ativação que estão em boa concordância com aqueles reportados na literatura e aqueles obtidos pelas outras alternativas mencionadas anteriormente. This work presents an optimization-based method for the construction of the Purkinje cardiac network. It was inspired on the Constrained Constructive Optimization method, which generates arterial tree models. The proposed method iteratively constructs the Purkinje network by minimizing its total length. In addition, it can take into account some important topological information of the Purkinje network, such as the location of the Purkinje-muscle junctions and the average bifurcation angle found in the literature. In order to validate the models generated by the new method, comparisons were made with models generated by a method based on L-system and by a histological image-based technique. The results show that the proposed method is able to construct Purkinje networks with geometric features and activation times that are in good agreement with those reported in the literature and to those obtained by the other aforementioned alternatives.
- Published
- 2018
33. Previsão de falta de materiais no contexto de gestão inteligente de inventário: uma aplicação de aprendizado desbalanceado
- Author
-
Santis, Rodrigo Barbosa de, Fonseca, Leonardo Goliatt da, Aguiar, Eduardo Pestana de, Bernardino, Heder Soares, and Fabiano, Ana Laura Cruz
- Subjects
Comitês de classificadores ,Sampling methods ,Aprendizado desbalanceado ,Inventory planning and control ,Ensembles of classifiers ,Métodos de amostragem ,Gestão da cadeia de suprimentos ,Planejamento e controle de inventário ,Supply chain management ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Imbalanced learning - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Falta de materiais é um problema comum na cadeia de suprimentos, impactando o nível de serviço e eficiência de um sistema de inventário. A identificação de materiais com grande riscos de falta antes da ocorrência do evento pode apresentar uma enorme oportunidade de melhoria no desempenho geral de uma empresa. No entanto, a complexidade deste tipo de problema é alta, devido ao desbalanceamento das classes de itens faltantes e não faltantes no inventário, que podem chegar a razões de 1 para 100. No presente trabalho, algoritmos de classificação são investigados para proposição de um modelo preditivo para preencher esta lacuna na literatura. Algumas métricas específicas como a área abaixo das curvas de Característica Operacionais do Receptor e de Precisão-Abrangência, bem como técnicas de amostragem e comitês de aprendizado são aplicados nesta tarefa. O modelo proposto foi testado em dois estudos de caso reais, nos quais verificou-se que adoção da ferramenta pode contribuir com o aumento do nível de serviço em uma cadeia de suprimentos. Material backorder (or stockout) is a common supply chain problem, impacting the inventory system service level and effectiveness. Identifying materials with the highest chances of shortage prior its occurrence can present a high opportunity to improve the overall company’s performance. However, the complexity of this sort of problem is high, due to class imbalance between missing items and not missing ones in inventory, which can achieve proportions of 1 to 100. In this work, machine learning classifiers are investigated in order to fulfill this gap in literature. Specific metrics such as area under the Receiver Operator Characteristic and precision-recall curves, sampling techniques and ensemble learning are employed to this particular task. The proposed model was tested in two real case-studies, in which it was verified that the use of the tool may contribute with the improvemnet of the service level in the supply chain.
- Published
- 2018
34. Técnicas de aprendizado de máquina não supervisionado para a prevenção de falhas em máquinas de chave
- Author
-
Soares, Nielson, Fonseca, Leonardo Goliatt da, Aguiar, Eduardo Pestana de, Campos, Luciana Conceição Dias, and Silva, Eduardo Krempser da
- Subjects
Computational intelligence ,Previsão de falhas ,Failure prediction ,Máquinas de chave ,Machine learning ,Aprendizado de máquina ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Railroad switch ,Inteligência computacional - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior As máquinas de chave são equipamentos eletromecânicos de grande importância em uma malha ferroviária. A ocorrência de falhas nesses equipamentos pode ocasionar interrupções das ferrovias e acarretar potenciais prejuízos econômicos. Assim, um diagnóstico precoce dessas falhas pode representar uma redução de custos e um aumento de produtividade. Essa dissertação tem como objetivo propor um modelo preditivo, baseado em técnicas de inteligência computacional, para a solução desse problema. A metodologia aplicada compreende o uso de técnicas de extração e seleção de características baseada em testes de hipóteses e modelos de aprendizado de máquina não supervisionado. O modelo proposto foi testado em uma base de dados disponibilizada por uma empresa ferroviária brasileira e se mostrou eficiente ao constatar como críticas as operações realizadas próximas à operação classificada como falha. Railroad switch machines are important electromechanical equipment in a railway network, and the occurrence of failures in such equipment can cause railroad interruptions and lead to potential economic losses. Thus, an early diagnosis of these failures can represent a reduction of costs and an increase in productivity. This dissertation aims to propose a predictive model, based on computational intelligence techniques, to solve this problem. The applied methodology includes the use of features extraction and selection techniques based on hypothesis tests and unsupervised machine learning models. The proposed model was tested in a database made available by a Brazilian railway company and proved to be efficient when considering as critical the operations performed close to the operation classified as failure.
- Published
- 2018
35. Métodos de inteligência computacional com otimização evolucionária para a estimativa de propriedades mecânicas do concreto de agregado leve
- Author
-
Andrade, Jonata Jefferson, Fonseca, Leonardo Goliatt da, Farage, Michèle Cristina Resende, and Oliveira, Fabrízzio Condé de
- Subjects
Computational intelligence ,Lightweight aggregate concrete ,Concreto de agregado leve ,Optmization ,Otimização ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Inteligência computacional - Abstract
No concreto de agregado leve, a resistência à compressão e o módulo de elasticidade são as propriedades mecânicas mais importantes e consequentemente as mais comumente analisadas. A relação entre os componentes do concreto de agregado leve e suas propriedades mecânicas é altamente não linear, e o estabelecimento de um modelo de previsão abrangente de tais características é usualmente problemático. Existem trabalhos que buscam encontrar essa relação de formas empíricas. Há também trabalhos que buscam aplicar técnicas de inteligência computacional para prever essas propriedades a partir dos componentes do concreto. Prever com precisão as propriedades mecânicas do concreto de agregado leve é um problema crítico em projetos de engenharia que utilizam esse material. O objetivo desta dissertação é avaliar o desempenho de diferentes métodos de inteligência computacional para prever a módulo de elasticidade e a resistência à compressão aos 28 dias de concretos de agregados leves em função do fator água/cimento, volume de agregado leve, quantidade de cimento e densidade do agregado leve. Para a escolha da melhor configuração de cada método, foi definida uma metodologia utilizando o algoritmo de otimização PSO (Particle Swarm Optmization). Por fim, é verificada a capacidade de generalização dos métodos através do processo de validação cruzada de modo a encontrar o método que apresenta o melhor desempenho na aproximação das duas propriedades mecânicas. In lightweight aggregate concrete, the compressive strength, the elastic modulus and specific weight are the most important properties and consequently the most commonly analyzed. The relationship between lightweight aggregate concrete components and their mechanical properties is highly nonlinear, and establishing a comprehensive predictive model of such characteristics is usually problematic. There are works that seek to find this relation of empirical forms. There are also works that seek to apply computational intelligence techniques to predict these properties from the concrete components. Accurately predicting the mechanical properties of lightweight aggregate concrete is a critical problem in engineering projects that use this material. The objective of this dissertation is to evaluate the performance of different computational intelligence methods to predict the elastic modulus and the compressive strength at 28 days of lightweight aggregates concrete as a function of water/cement factor, lightweight aggregate volume, cement quantity and density of the lightweight aggregate. In order to choose the best configuration of each method, a methodology was defined using the Particle Swarm Optmization (PSO) algorithm. Finally, the generalization of the methods through the cross validation process is verified in order to find the method that presents the best performance in the approximation of the two mechanical properties.
- Published
- 2017
36. Algoritmo genético com regressão: busca direcionada através de aprendizado de máquina
- Author
-
Fonseca, Tales Lima, Lemonge, Afonso Celso de Castro, Bernardino, Heder Soares, Hallak, Patricia Habib, Fonseca, Leonardo Goliatt da, and Guimarães, Solange
- Subjects
Optimization ,Genetic algorithm ,Surrogate models ,Metamodelo ,Machine learning ,Aprendizado de máquina ,Otimização ,Algoritmos genéticos ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Problemas de otimização são comuns em diversas áreas. Nas engenharias, em muitas situações, os problemas de otimização eram modelados desconsiderando certas características do fenômeno estudado com a finalidade de simplificar as simulações durante o processo de busca. Contudo, com o passar do tempo, a evolução das máquinas possibilitou a modelagem de problemas de otimização com mais informações, aproximando os modelos da forma mais fidedigna possível. No entanto, uma parcela significativa desses problemas demanda um alto custo computacional para realizar as avaliações das soluções candidatas, tornando muitos deles de difícil análise e simulação. Dessa forma, o objetivo deste trabalho é a utilização de métodos de aprendizado de máquina acoplado a um algoritmo de otimização com intuito de direcionar o processo de busca de um algoritmo genético, inserindo possíveis soluções na população do algoritmo genético a cada geração com o intuito de reduzir o alto custo computacional de se encontrar as soluções ótimas. Além disso, é realizado um estudo comparativo para verificar quais métodos de aprendizado de máquina obtêm bons resultados na técnica proposta. Os experimentos são realizados em problemas de otimização com um alto custo computacional comumente encontrados na literatura. Optimization problems are common in many areas. In engineering, in many situations optimization problems were modeled disregarding certain characteristics of the studied phenomenon in order to simplify the simulations during the search process. However, over time, the evolution of the machines allowed the modeling of optimization problems with more information, approaching the models in the most reliable way possible. In this way, a significant portion of these problems requires a high computational cost to perform the evaluations of candidate solutions, making many of them difficult to analyze and simulate. Thus, the objective of this work is the use of machine learning methods coupled with an optimization algorithm with the purpose of directing the search process of a genetic algorithm, inserting new good quality solution into the population at each generation with the intention of reducing the high computational cost of finding the optimal solutions. In addition, a comparative study is carried out to verify which machine learning methods obtain good results in the proposed technique. The experiments are performed on optimization problems with a high computational cost commonly found in the literature.
- Published
- 2017
37. Abordagem inversa para obtenção de propriedades mecânicas de agregados em concretos leves por meio de simulação computacional
- Author
-
Garcia, Pedro Henrique, Bastos, Flávia de Souza, Fonseca, Leonardo Goliatt da, Farage, Michele Cristina Resende, and Fuina, Jamile Salim
- Subjects
Simulação computacional ,Concreto de agregado leve ,Compressive Strength ,Inverse Problems ,Computational Simulation ,Lightweight aggregate ,Módulo de elasticidade ,Modulus of elasticity ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Resistência à compressão ,Problema inverso - Abstract
O concreto de agregado leve é conhecido pelo reduzido peso específico e alta capacidade de isolamento térmico e acústico. Um dos grandes desafios relacionados a esse tipo de concreto é a obtenção de algumas propriedades mecânicas dos agregados leves, tais como o módulo de elasticidade e a resistência à compressão, em função de suas dimensões reduzidas, o que gera dificuldades na realização de ensaios experimentais. É possível encontrar trabalhos na literatura que tentam determinar as propriedades mecânicas dos agregados leves por meio de métodos baseados em formulações matemáticas e deduções empíricas. Uma alternativa a tais métodos é o emprego de modelos de simulação e a resolução de um problema inverso para a previsão de tais propriedades. O objetivo do trabalho é a aplicação de um procedimento inverso para obtenção do módulo de elasticidade e da resistência à compressão de agregados leves presentes em concretos via simulação computacional de ensaios de compressão uniaxiais em corpos de prova. O corpo de prova de concreto é representado por um modelo computacional mecânico bidimensional e bifásico, constituído por argamassa e agregados leves de formato circular, e as simulações foram conduzidas no programa Abaqus R. Os resultados encontrados foram satisfatórios em comparação com outros métodos da literatura, chegando a casos com diferenças menores que 2% para um corpo de prova com 15% de agregados. A abordagem proposta emerge como uma possível solução para análises de propriedades mecânicas de agregados leves em concretos com um reduzido tempo e custo, sendo aplicada para diversos tipos de curvas granulométricas, tipos de argamassa e diferentes porcentagens de agregados no corpo de prova. Além da previsão das propriedades mecânicas dos agregados em concretos leves, a abordagem traz um melhor entendimento da relação dos diversos conjuntos de agregados leves com as argamassas. The lightweight aggregate concrete is known for its low specific weight and high thermal and acoustic insulation capacity. One of the great challenges related to this type of concrete is to get some mechanical properties of lightweight aggregate, such as the modulus of elasticity and the compressive strength, due to its reduced size, which generates difficulties to carry out experimental tests. It is possible to find works in the literature that try to determine the mechanical properties of the lightweight aggregate through methods based on mathematical formulation and empirical deductions. An alternative to such methods is the use of simulation models and the resolution of an inverse problem for the prediction of lightweight aggregate properties. The objective of this study is the application of an inverse procedure to obtain the modulus of elasticity and the compressive strength of lightweight aggregates present in concrete by computational simulation of uniaxial compression tests in specimens. The concrete specimen is represented by a two-dimensional and biphasic mechanical computational model, constituted by mortar and circular lightweight aggregates, and the simulations were conducted in the Abaqus R program. The results were satisfactory compared to other methods in the literature, reaching cases with differences of less than 2 % for a test specimen with 15 % of aggregates. The proposed approach emerges as a possible solution for the analysis of mechanical properties of lightweight aggregates in concrete with reduced cost and time, being applied for several types of grain sizes, mortar types and different percentages of aggregates in the concrete specimen. In addition, the approach brings a better understanding about the connection between lightweight aggregates and mortars.
- Published
- 2017
38. Estratégia computacional para avaliação de propriedades mecânicas de concreto de agregado leve
- Author
-
Aldemon Lage Bonifácio, Farage, Michèle Cristina Resende, Barbosa, Flávio de Souza, Barbosa, Ciro de Barros, Silvoso, Marcos Martinez, Pitangueira, Roque Luiz da Silva, Borges, Carlos Cristiano Hasenclever, and Fonseca, Leonardo Goliatt da
- Subjects
Artificial Neural Network ,Rede neural artificial ,Análise via MEF ,Support Vector Regression ,Scientific Workflow ,Workflow científico ,Máquina de vetores suporte com regressão ,FEM Analysis ,Mecânica dos materiais ,Modelagem do concreto ,Distributed Systems ,Mechanics of Materials ,Sistemas distribuídos ,Concrete Modeling ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior O concreto feito com agregados leves, ou concreto leve estrutural, é considerado um material de construção versátil, bastante usado em todo o mundo, em diversas áreas da construção civil, tais como, edificações pré-fabricadas, plataformas marítimas, pontes, entre outros. Porém, a modelagem das propriedades mecânicas deste tipo de concreto, tais como o módulo de elasticidade e a resistência a compressão, é complexa devido, principalmente, à heterogeneidade intrínseca aos componentes do material. Um modelo de predição das propriedades mecânicas do concreto de agregado leve pode ajudar a diminuir o tempo e o custo de projetos ao prover dados essenciais para os cálculos estruturais. Para esse fim, este trabalho visa desenvolver uma estratégia computacional para a avaliação de propriedades mecânicas do concreto de agregado leve, por meio da combinação da modelagem computacional do concreto via MEF (Método de Elementos Finitos), do método de inteligência computacional via SVR (Máquina de vetores suporte com regressão, do inglês Support Vector Regression) e via RNA (Redes Neurais Artificiais). Além disso, com base na abordagem de workflow científico e many-task computing, uma ferramenta computacional foi desenvolvida com o propósito de facilitar e automatizar a execução dos experimentos científicos numéricos de predição das propriedades mecânicas. Concrete made from lightweight aggregates, or lightweight structural concrete, is considered a versatile construction material, widely used throughout the world, in many areas of civil construction, such as prefabricated buildings, offshore platforms, bridges, among others. However, the modeling of the mechanical properties of this type of concrete, such as the modulus of elasticity and the compressive strength, is complex due mainly to the intrinsic heterogeneity of the components of the material. A predictive model of the mechanical properties of lightweight aggregate concrete can help reduce project time and cost by providing essential data for structural calculations. To this end, this work aims to develop a computational strategy for the evaluation of mechanical properties of lightweight concrete by combining the concrete computational modeling via Finite Element Method, the computational intelligence method via Support Vector Regression, and via Artificial Neural Networks. In addition, based on the approachs scientific workflow and many-task computing, a computational tool will be developed with the purpose of facilitating and automating the execution of the numerical scientific experiments of prediction of the mechanical properties.
- Published
- 2017
39. Estratégias de busca no projeto evolucionista de circuitos combinacionais
- Author
-
Manfrini, Francisco Augusto Lima, Barbosa, Helio José Corrêa, Bernardino, Heder Soares, Augusto, Douglas Adriano, Fonseca, Leonardo Goliatt da, Campos, Luciana Conceição Dias, Ebecken, Nelson Francisco Favilla, and Lacerda, Wilian Soares
- Subjects
Programação genética cartesiana ,Circuitos lógicos ,Hardware evolutivo ,Cartesian Genetic Programming ,Evolutionary Computation ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Combinational Logic Circuits ,Computação evolucionista ,Evolvable Hardware - Abstract
A computação evolucionista tem sido aplicada em diversas áreas do conhecimento para a descoberta de projetos inovadores. Quando aplicada na concepção de circuitos digitais o problema da escalabilidade tem limitado a obtenção de circuitos complexos, sendo apontado como o maior problema em hardware evolutivo. O aumento do poder dos métodos evolutivos e da eficiência da busca constitui um importante passo para melhorar as ferramentas de projeto. Este trabalho aborda a computação evolutiva aplicada ao projeto de circuito lógicos combinacionais e cria estratégias para melhorar o desempenho dos algoritmos evolutivos. As três principais contribuições resultam dessa tese são: (i) o desenvolvimento de uma nova metodologia que ajuda a compreensão das causas fundamentais do sucesso/fracasso evolutivo;(ii)a proposta de uma heurística para a semeadura da população inicial; os resultados mostram que existe uma correlação entre a topologia da população inicial e a região do espaço de busca explorada; e (iii) a proposta de um novo operador de mutação denominado Biased SAM; verificou-se que esta mutação pode guiar de maneira efetiva a busca. Nos experimentos realizados o operador proposto é melhor ou equivalente ao operador de mutação tradicional. Os experimentos computacionais que validaram as respectivas contribuições foram feitos utilizando circuitos benchmark da literatura. Evolutionary computation has been applied in several areas of knowledge for discovering Innovative designs. When applied to a digital circuit design the scalability problem has limited the obtaining of complex circuits, being pointed as the main problem in the evolvable hardware field. Increased power of evolutionary methods and efficiency of the search constitute an important step towards improving the design tool. This work approaches the evolutionary computation applied to the design of combinational logic circuits and createsstrategiestoimprovetheperformanceofevolutionaryalgorithms. The three main contributions result from this thesis are: (i) the developement of a methodology that helps to understand the success/failure of the genetic modifications that occur along the evolution; (ii) a heuristic proposed for seeding the initial population; the results showed there is a correlation between the topology of the initial population and the region of the search space which is explored. (iii) a proposal of a new mutation operator referred to as Biased SAM; it is verified that this operator can guide the search. In the experiments performed the mutation proposed is better than or equivalent to the traditional mutation. The computational experiments that prove the efficiency of the respective contributions were made using benchmark circuits of the literature.
- Published
- 2017
40. Análise de objetivos e meta-heurísticas para problemas multiobjetivo de sequenciamento da produção
- Author
-
Pereira, Ana Amélia de Souza, Barbosa, Helio José Corrêa, Bernardino, Heder Soares, Fonseca, Leonardo Goliatt da, Gonçalves, Luciana Brugiolo, Santos, Andre Gustavo dos, and Silva, Eduardo Krempser da
- Subjects
Sequencing of the production ,Multiobjective Optimization ,Sequenciamento da produção ,Otimização multiobjetivo ,Metaheuristics ,Predator-Prey ,Meta-heurística ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Presa predador - Abstract
O sequenciamento da produção é um processo importante de tomada de decisão usado nas indústrias a fim de alocar tarefas aos recursos. Dada a relevância desse tipo de problema, a pesquisa em programação da produção faz-se necessária. Este trabalho envolve o processo de otimização nos seguintes problemas: máquina única, máquinas paralelas idênticas, máquinas paralelas idênticas com release time, máquinas paralelas não relacionadas com setup time dependente da sequência e das máquinas, e flow shop flexível com setup time dependente da sequência e dos estágios. Além disso, múltiplos e conflitantes objetivos devem ser otimizados ao mesmo tempo na programação de produção, e a literatura vem mostrando avanço nesse sentido. O presente trabalho analisa os objetivos comumente adotados e propõe um conjunto de pares de objetivos. Análise de correlação e árvore de agregação são utilizadas aqui para indicar as possibilidades de agregação entre os objetivos conflitantes. Meta-heurísticas são comumente adotadas para resolver os problemas de escalonamento abordados neste trabalho e duas delas, o Non-dominated Sorting Genetic Algorithm II (NSGA-II) e a Presa Predador (PP), são aplicados aos problemas multiobjetivo propostos a fim de estudar suas adequações aos novos casos. O NSGA-II é um dos Algoritmos Genéticos mais utilizados em problemas de escalonamento. A PP é uma abordagem evolutiva recente para problemas de programação da produção, cada predador é responsável por tratar um único objetivo. Uma generalização para a técnica PP em que os predadores consideram de forma ponderada ambos os objetivos é também proposta. Adicionalmente, a influência da adoção de busca local sobre essas técnicas é analisada. Experimentos computacionais adotando hipervolume como métrica de desempenho foram conduzidos visando avaliar as técnicas computacionais consideradas neste trabalho e suas variantes. The sequencing of the production is an important process in decision-making and it is used in industries in order to allocate tasks to resources. Given the relevance of this kind of problem, the research in production scheduling is necessary. This study involves the process of optimization in the following problems: single machines, parallel identical machines, parallel identical machines with release time, unrelated parallel machines with setup time dependent on the sequence and on the machines, and flow shop which is flexible with setup time dependent on the sequence and stages. Moreover, multiple and conflicting objectives must be optimized at the same time in production scheduling and the literature has been showing progress in this sense. The present study analyses the commonly adopted objectives and suggests a set of objective pairs. Correlation analysis and aggregation trees are used here to indicate possibilities of aggregation among the conflicting objectives. Metaheuristics are commonly used to solve the sequencing problems addressed in this study and two of them, the Non-dominated Sorting Genetic Algorithm II (NSGA-II) and Predator-Prey(PP), are applied to the proposed multiobjective problems in order to study their adjustments to the new cases. The NSGA-II is one of the most used genetic algorithms in sequencing problems. The PP is a recent evolutionary approach to scheduling problems, where each Predator is responsible for dealing with just one objective. A generalization of the PP technique, in which Predators considered both objectives using weights, is also proposed. In addition, the influence of the adoption of local search on these techniques is analyzed. Computational experiments adopting the hypervolume as a performance measure were conducted aiming at evaluating the computational techniques considered in this study and their variants.
- Published
- 2016
41. Decomposição baseada em modelo de problemas de otimização de projeto utilizando redução de dimensionalidade e redes complexas
- Author
-
Cardoso, Alexandre Cançado, Borges, Carlos Cristiano Hasenclever, Fonseca Neto, Raul, Fonseca, Leonardo Goliatt da, and Vieira, Vinícius da Fonseca
- Subjects
Redução de dimensionalidade ,Community detection ,Detecção de comunidades ,Design optimization ,Otimização de projeto ,Dimensionality reduction ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Decomposição baseada em modelo ,Model-based decomposition - Abstract
A estratégia de dividir para conquistar é comum a diversos ramos de atuação, indo do projeto de algoritmos à politica e sociologia. Em engenharia, é utilizada, dentre outras aplicações, para auxiliar na resolução de problemas de criação de um projeto (general desing problems) ou de um projeto ótimo (optimal design problems) de sistemas grandes, complexos ou multidisciplinares. O presente, trabalho apresenta um método para divisão, decomposição destes problemas em sub-problemas menores a partir de informação apenas do seu modelo (model-based decomposition). Onde a extração dos padrões de relação entre as variáveis, funções, simulações e demais elementos do modelo é realizada através de algoritmos de aprendizado não supervisionado em duas etapas. Primeiramente, o espaço dimensional é reduzido a fim de ressaltar as relações mais significativas, e em seguida utiliza-se a técnica de detecção de comunidade oriunda da área de redes complexas ou técnicas de agrupamento para identificação dos sub-problemas. Por fim, o método é aplicado a problemas de otimização de projeto encontrados na literatura de engenharia estrutural e mecânica. Os sub-problemas obtidos são avaliados segundo critérios comparativos e qualitativos. The divide and conquer strategy is common to many fields of activity, ranging from the algorithms design to politics and sociology. In engineering, it is used, among other applications, to assist in solving general design problems or optimal design problems of large, complex or multidisciplinary systems. The present work presents a method for splitting, decomposition of these problems into smaller sub-problems using only information from its model (model-based decomposition). Where the pattern extraction of relationships between variables, functions, simulations and other model elements is performed using unsupervised learning algorithms in two steps. First, the dimensional space is reduced in order to highlight the most significant relationships, and then we use the community detection technique coming from complex networks area and clustering techniques to identify the sub-problems. Finally, the method is applied to design optimization problems encountered in structural and mechanical engineering literature. The obtained sub-problems are evaluated against comparative and qualitative criteria.
- Published
- 2016
42. Modelos computacionais para análise da influência de parâmetros estatísticos de textura superficial no contato dentário humano
- Author
-
Oliveira, Evelyn Aparecida de, Bastos, Flávia de Souza, Fonseca, Leonardo Goliatt da, Casas, Estevam Barbosa de Las, and Lobosco, Marcelo
- Subjects
Contato oclusal dentário ,Homogenization ,Dureza ,Modelagem computacional ,Hardness ,Contact Dental Occlusion ,Textura superficial ,Homogeneização ,Surface texture ,Abaqus ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Abaqus CAE ,Computational Models - Abstract
O desgaste do dente, que se manifesta com uma grande variedade de graus ou níveis, é uma das anomalias dentárias comumente encontradas em diversas populações. A modelagem computacional do problema de contato oclusal pode ajudar na compreensão das interações entre os dentes, que gera concentrações de tensões. A abordagem utilizada para simular o contato entre as superfícies ásperas, dadas as funções de densidade de probabilidade das alturas das asperezas, consiste em discretizá-las em vários intervalos, de modo que cada um deles represente uma aspereza principal. As deformações das asperezas principais são analisadas e, utilizando técnicas de homogeneização, é possível estabelecer a relação entre as respostas que ocorrem em microescala e as respostas esperadas na macroescala. Neste trabalho, foi criada uma rotina para geração numérica de superfícies, um script acoplado ao programa de elementos finitos, Abaqus, para análise dos microcontatos, e, finalmente, um código para o procedimento de homogeneização e análise paramétrica das medidas de rugosidade. Na estimativa da dureza superficial, verificou-se que a curvatura média das asperezas exerce maior influência. Os parâmetros que mais influenciam nas forças e áreas de contato são o coeficiente de achatamento (kurtosis), cujo aumento leva ao decaimento dessas grandezas, seguido da rugosidade média quadrática, que, por sua vez, tem uma relação diretamente proporcional com a carga e consequentemente com a área de contato. Tooth wear, which manifests with a great variety of degrees or levels, is one of the dental abnormalities commonly found in different populations. The computational modelling of the occlusal contact problem can help the comprehension of any interaction between teeth generating stress concentration. The approach used in this work to simulate contact between rough surfaces, given the probability density functions of asperities, consists in discretizing them in several intervals, so that each one represents a main asperity. The deformations of the main asperities are analyzed and, using homogenization techniques, it is possible to developed the relationship among the responses occurred in micro-scale and the predicted responses in macro-scale. In this work a routine has been established for numerical generation of surfaces, a script as well as has been coupled to the finite element program Abaqus, for analysis of the micro-contacts, and, finally, a code for homogenization and parametric analysis of the roughness measure. In the estimate of the surface hardness it was found that the mean curvature of the asperities exerts the largest influence. The parameters that influence the forces and contact areas are the flattening coefficient (kurtosis), which when increases leads to decay of these greatness, followed by the mean square roughness, which, in turn, has a direct proportional relationship with the strength and consequently with the contact area.
- Published
- 2016
43. Comparação de técnicas de inteligência computacional para classificação de dados petrográficos
- Author
-
Saporetti, Camila Martins, Fonseca, Leonardo Goliatt da, Pereira, Egberto, Ade, Marcus Vinicius Berao, and Bernardino, Heder Soares
- Subjects
Computational Intelligence ,Sedimentary Petrography ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Petrografia sedimentar ,Inteligência computacional ,Diagênese ,Diagenesis - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Modelos preditivos de distribuição de heterogeneidades e qualidade em reservatórios de hidrocarbonetos são de fundamental importância para exploração e otimização da produção de campos de óleo e gás. As heterogeneidades são determinadas através das distintas petrofácies sedimentares, um conjunto de características petrográficas que especificam um grupo de rochas. O procedimento de identificar petrofácies geralmente é longo, o que faz com que a automatização seja necessária para agilizar o processo, e assim a análise seja concluída rapidamente. Recentemente, técnicas oriundas da área de inteligência computacional têm sido usadas para auxiliar na tomada de decisões de especialistas em diversos problemas de Geociências. O objetivo desta dissertação é avaliar o desempenho de diferentes técnicas baseadas em inteligência computacional para prever a classificação de amostras petrográficas pertencentes a uma mesma bacia sedimentar e propor o uso delas nesse tipo de problema. Para isso, desenvolveu-se um framework computacional para classificar petrofácies de acordo com seus constituintes. Os dados analisados são provenientes de três fontes distintas. A primeira base de dados é formada por amostras da região de Tibagi (PR) e a segunda da região de Dom Aquino (MS). Tais amostras são referentes a uma unidade litoestratigráfica formalizada na Bacia do Paraná como Membro Tibagi. A terceira é a junção das duas bases anteriores. A quarta por amostras do membro Mucuri da Bacia Sedimentar do Espírito Santo. A metodologia proposta envolve o uso de métodos de classificação, técnicas de validação cruzada, redução de dimensionalidade, seleção de características e o emprego de assembleia de constituintes. Os parâmetros envolvidos no ajuste dos métodos foram determinados por um processo de busca exaustiva com validação cruzada, e métricas de classificação adequadas foram usadas para avaliar e comparar os resultados. A metodologia apresentada, além de avaliar o desempenho de diversas técnicas de inteligência computacional, surge como uma alternativa para auxiliar o geólogo/especialista na determinação e caracterização das petrofácies, contribuindo para a redução do esforço no processo manual de individualização. Predictive models of heterogeneities distribution and quality in hydrocarbon reservoirs are of fundamental importance for exploration and production optimization of oil and gas fields. The heterogeneities are determined by the different sedimentary petrofacies, a set of petrographic characteristics that specifies a group of rocks. The identification and classification of petrofacies is usually a time consuming procedure, and the use of computational methods can reduce the time and effort spent in the analysis. Recently, techniques derived from the computational intelligence research area have been used to assist in making decisions experts in several problems in Geosciences. The purpose of this dissertation is evaluating the performance of different techniques based on computational intelligence to predict the classification of petrographic samples belonging to the same sedimentary basin. A computational framework was developed to classify petrofacies according to their constituents. The data was collected from three different sources. The first database is formed by thin sections of Tibagi region (PR). The second by thin sections of Dom Aquino region (MS). Such thin sections are for a lithostratigraphic unit formalized in the Paraná Basin as Member Tibagi. The third by thin sections from the two previous databases. The fourth database is a set of thin sections from Mucuri member of the Espírito Santo sedimentary basin. The proposed method involves the use of classifiers, cross validation, dimensionality reduction, feature selection and the use of ensemble of constituents. The parameters involved in adjusting methods were determined by an exhaustive search procedure with cross-validation and classification metrics were used to evaluate and compare the results. The presented methodology evaluates the performance of several computational intelligence techniques, and arises as an alternative to assist the geologist in the determination and characterization of petrofacies, helping to reduce the effort in the process of individualization.
- Published
- 2016
44. Estudo de configurações de modelos híbridos de ilhas para obtenção de uma ou mais soluções em otimização via meta-heurísticas
- Author
-
Magalhães, Thiago Tavares, Barbosa, Hélio José Correa, Silva, Eduardo Krempser da, Dardenne, Laurent Emmanuel, Bernardino, Heder Soares, and Fonseca, Leonardo Goliatt da
- Subjects
Mathematical optimization ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::MATEMATICA DA COMPUTACAO::MODELOS ANALITICOS E DE SIMULACAO [CNPQ] ,Otimização matemática - Abstract
Submitted by Maria Cristina (library@lncc.br) on 2016-12-13T16:05:44Z No. of bitstreams: 1 Thiago Tavares Magalhães - Estudo de configurações de modelos.pdf: 5946560 bytes, checksum: 7262f9bab0cb6698f3f33dc1183bf938 (MD5) Approved for entry into archive by Maria Cristina (library@lncc.br) on 2016-12-13T16:05:57Z (GMT) No. of bitstreams: 1 Thiago Tavares Magalhães - Estudo de configurações de modelos.pdf: 5946560 bytes, checksum: 7262f9bab0cb6698f3f33dc1183bf938 (MD5) Made available in DSpace on 2016-12-13T16:06:09Z (GMT). No. of bitstreams: 1 Thiago Tavares Magalhães - Estudo de configurações de modelos.pdf: 5946560 bytes, checksum: 7262f9bab0cb6698f3f33dc1183bf938 (MD5) Previous issue date: 2016-03-02 Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) Optimization is a permanent subject for research, aiming to provide solutions that improve the utilization of resources and activities of various kinds. Due to the advances in distributed computational processing architectures, analysis and suggestion of parallelizable techniques for treatment of problems has been increasingly highlighted. Among them, the model known as ``island model'', which proposes the achievement of better optimized results in shorter execution time,and brings in a new set of parameters and possibilities, deserves special attention. Thus, this work presents interconnected sets of experiments and proposals that complement the literature concerning 1) the possibilities of model hybridization and the best strategies for hybridization, 2) the study of the parameter known as ``migration policy'' and its influence on diversification and exploitation, and 3) the applicability of the model and of the different implemented migration policies in the context of optimization aiming at several optima. In this way, this work joins the knowledge from the literature and experiments and suggestions that are not founded in previous researches. From these results it is expected that new implementations or applications of island hybrid models for optimization via metaheuristics, aiming at one or more optima, can be more efficiently developed. A otimização é tema constante de estudo, visando prover soluções que melhorem o aproveitamento de recursos ou atividades de inúmeras naturezas. Com o avanço das arquiteturas distribuídas de processamento computacional, a análise e a sugestão de técnicas paralelizáveis para a resolução de problemas tem recebido cada vez mais destaque. Dentre estas, destaca-se o modelo conhecido como "modelo de ilhas", que propõe a obtenção de resultados mais otimizados em menor tempo de execução, trazendo consigo um novo conjunto de parâmetros e de possibilidades. Assim, este trabalho traz conjuntos interligados de experimentos e propostas que complementam a literatura sobre 1) possibilidades de hibridização do modelo e melhores estratégias de hibridização, 2) o estudo do parâmetro conhecido como ``política de migração'' e as suas influências com respeito à diversificação e especificação e 3) a aplicabilidade do modelo e das diferentes políticas de migração testadas no contexto da otimização visando vários ótimos. Dessa forma, este trabalho alia o conhecimento da literatura a experimentos e sugestões não encontrados em trabalhos anteriores. A partir destes resultados espera-se que novas implementações ou aplicações de modelos de ilha híbridos para otimização via meta-heurísticas, visando um ou vários ótimos, possam ser desenvolvidos de maneira mais eficiente.
- Published
- 2016
- Full Text
- View/download PDF
45. Um algoritmo inspirado em colônias de abelhas para otimização numérica com restrições
- Author
-
Duarte, Grasiele Regina, Lemonge, Afonso Celso de Castro, Fonseca, Leonardo Goliatt da, Barbosa, Helio José Corrêa, and Silva, Eduardo Krempser da
- Subjects
Métodos de penalização ,Artificial Bee Colony Algorithm ,Penalties methods ,Otimização com restrições ,Constrained optimization ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Algoritmo colônia de abelhas artificiais - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Os problemas de otimização estão presentes em diversas áreas de atuação da sociedade e o uso de algoritmos bio-inspirados para a resolução de problemas complexos deste tipo vem crescendo constantemente. O Algoritmo Colônia de Abelhas Artificiais (ABC – do inglês Artificial Bee Colony) é um algoritmo bio-inspirado proposto em 2005 para a resolução de problemas de otimização multimodais e multidimensionais. O fenômeno natural que inspirou o desenvolvimento do ABC foi o comportamento inteligente observado em colônias de abelhas, mais especificamente no forrageamento. O ABC foi proposto inicialmente para ser aplicado na resolução de problemas sem restrições. Este trabalho avalia o desempenho do ABC quando aplicado na resolução de problemas de otimização com restrições. Para o tratamento das restrições, métodos de penalização serão incorporados ao ABC. São analisados diversos métodos de penalização, de diferentes tipos, com o objetivo de identificar com qual deles o algoritmo apresenta melhor desempenho. Além disto, são avaliadas possíveis limitações e cuidados que devem ser tomados ao combinar métodos de penalização ao ABC. O algoritmo proposto é avaliado através da resolução de problemas de otimização encontrados na literatura. Vários experimentos computacionais são realizados e gráficos e tabelas são gerados para demonstração dos resultados obtidos que também são discutidos. Optimization problems are present in several areas of society and the use of bio-inspired algorithms to solve complex problems of this type has been growing constantly. The Artificial Bee Colony Algorithm (ABC) is a bio-inspired algorithm proposed in 2005 for solving multimodal and multidimensional optimization problems. The natural phenomenon that inspired the development of the ABC was intelligent behavior observed in bee colonies, more specifically in foraging. The ABC was initially proposed to be applied to solve unconstrained problems. This study evaluates the performance of ABC when applied in solving constrained optimization problems. For the treatment of constraints, penalty methods will be incorporated into the ABC. Several penalty methods, of different types, are analyzed with the goal of identifying which of these penalty methods offers better performance. Furthermore, possible limitations and care that should be taken when combining penalty methods to ABC are evaluated. The proposed algorithm is evaluated by solving optimization problems found in the literature. Several computational experiments are performed and graphs and tables are generated for demonstration of the obtained results which are also discussed.
- Published
- 2015
46. Solução de problemas de otimização com restrições usando estratégias de penalização adaptativa e um algoritmo do tipo PSO
- Author
-
Carvalho, Érica da Costa Reis, Lemonge, Afonso Celso de Castro, Bernardino, Heder Soares, Hallak, Patricia Habib, Fonseca, Leonardo Goliatt da, and Lima, Beatriz de Souza Leite Pires de
- Subjects
Métodos de penalização ,Particle Swarm Optimization ,Penalties methods ,Otimização com restrições ,Otimização por enxame de partículas ,Constrained optimization ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Nos últimos anos, várias meta-heurísticas têm sido adotadas para a solução de problemas de otimização com restrições. Uma dessas meta-heurísticas que se torna cada vez mais popular é a Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). O PSO é baseado na metáfora de como algumas espécies compartilham informações e, em seguida, usam essas informações para mover-se até os locais onde os alimentos estão localizados. A população é formada por um conjunto de indivíduos denominado partículas que representa possíveis soluções dentro de um espaço de busca multidimensinal. Neste trabalho, são analisados problemas clássicos de otimização com restrições onde um algoritmo PSO os trata como sendo sem restrições através da introdução de um método de penalização adaptativa (Adaptive Penalty Method - APM). O APM adapta o valor dos coeficientes de penalização de cada restrição fazendo uso de informações coletadas da população, tais como a média da função objetivo e o nível de violação de cada restrição. Diversos experimentos computacionais são realizados visando avaliar o desempenho do algoritmo considerando vários problemas testes encontrados na literatura. In recent years, several meta-heuristics have been adopted for the solution of constrained optimization problems. One of these meta-heuristic that is becoming increasingly popular is the Particle Swarm Optimization - PSO. PSO is based on the metaphor of how some species share information and then use this information to move to the places where food is located. The population is formed by a group of individuals called particles representing possible solutions within a space multidimensional search. In this thesis, classical problems of constrained optimization where a PSO algorithm treats them as being unconstrained by introducing a method of adaptive penalty (Adaptive Penalty Method - APM) are analyzed. The APM adjusts the value of the penalty coeffcients of each constraint using the information collected from the population, such as the average of the objective function as well as the level of violation of each constraint. Several computational experiments are conducted to assess the performance the algorithm tests considering various problems found in the literature.
- Published
- 2014
47. Algoritmos genéticos para otimização de estruturas reticuladas baseadas em modelos adaptativos e lagrangeano aumentado
- Author
-
Silva, Francilene Barbosa dos Santos, Borges, Carlos Cristiano Hasenclever, Lemonge, Afonso Celso de Castro, Barbosa, Helio José Corrêa, Lima, Beatriz de Souza Leite Pires de, and Fonseca, Leonardo Goliatt da
- Subjects
Augmented lagrangian ,Genetic algorithm ,Penalização ,Algoritmos genéticos ,Constrained optimization ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Lagrangeano aumentado ,Penalization ,Otimização com restrição - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Estratégias de penalização são muito utilizadas no trato de problemas com restrições. Problemas inerentes a escolha de valores adequados para os termos de penalização di-ficultam a obtenção de resultados confiáveis e robustos na sua aplicação em problemas da otimização estrutural. Técnicas baseadas em modelos de penalização adaptativa tem apresentado relativo sucesso quando aplicadas em conjunto com algoritmos evolucionis-tas. Apresenta-se aqui uma nova alternativa utilizando uma estratégia de lagrangeano aumentado para o trato das restrições do problema de otimização estrutural. Encontra-se na literatura modelos para penalização adaptativa bem como o uso do lagrangeano aumentado em conjunto com algoritmos genéticos geracionais. O objetivo desse trabalho é adaptar um modelo de penalização para um algoritmo genético não gera-cional, bem como criar um algoritmo baseado em lagrangeano aumentado também para o algoritmo não-geracional. Esses algoritmos foram aplicados em estruturas reticuladas, muito utilizadas na construção civil como coberturas de ginásios, hangares, galpões, etc. O desempenho desses tipos de estruturas e funções matemáticas foi analisado com as técnicas de tratamento de restrição apresentadas nesse trabalho. Isso foi feito durante a busca de soluções ótimas na tentativa de minimizar os custos e satisfazer as restrições adequadas para diversas estruturas e funções matemáticas. Penalty strategies are widely used in dealing with problems with constraints. Problems inherent in the choice of appropriate values for the terms of penalties dificult to obtain reliable and strong results in its application in problems of structural optimization. Techniques based on models of adaptive penalty has shown some success when applied in conjunction with evolutionary algorithms. Here is presented a new alternative using augmented Lagrangian strategy for dealing with the problem of constrained structural optimizations. It is found in the literature models for adaptive penalties as well as the use of the augmented Lagrangian together with generational genetic algorithms. The aim of this work is to adapt a model of penalization for non-generational genetic algorithm, as well as create an algorithm based on augmented Lagrangian as also for a non-generational algorithm. These algorithms were applied to structures, widely used in construction as coverage of gymnasiums, hangars, etc.. The performance of these types of structures and functions was analyzed using mathematical techniques for handling constraints presented in this work. This was done during the search for optimal solutions in an attempt to minimize costs and satisfy the constraints appropriate for various structures and mathematical functions.
- Published
- 2011
48. Otimização de estruturas reticuladas incluindo não-linearidade geométrica
- Author
-
Silva, Michelli Marlane da, Lemonge, Afonso Celso de Castro, Barbosa, Helio José Correa, Borges, Carlos Cristiano Hasenclever, Guerreiro, João Nisan Correia, and Fonseca, Leonardo Goliatt da
- Subjects
Nonlinear Analysis ,Genetic Algorithm ,Structural Optimization ,Análise não-linear ,Otimização estrutural ,Algoritmos genéticos ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior É comum o uso da análise estrutural considerando um comportamento geometricamente não-linear em vários tipos de estruturas reticuladas, muito usadas na construção civil, como coberturas de ginásios, hangares, galpões, etc. Esta análise (mais complexa) permite uma avaliação mais próxima do real comportamento das mesmas e, dessa forma, ao projetá-las torna-se imprescindível uma avaliação considerando este comportamento evitando-se problemas estruturais indesejáveis. Estudam-se nessa dissertação problemas de otimização estrutural usando-se uma metaheurística bioinspirada, Algoritmos Genéticos (AGs), para buscar soluções ótimas (minimizando custos e satisfazendo restrições adequadas de segurança) para estruturas com comportamento geometricamente não-linear. Buscam-se projetos estruturais ótimos levando-se em conta variáveis de projeto como as áreas ou dimensões das seções transversais das barras. Faz-se uso de codificações especiais dos cromossomos no AG, através de restrições de cardinalidade simples e múltiplas, para a busca dos melhores agrupamentos das barras das estruturas. Os estudos comparativos são feitos considerando-se a otimização através da avaliações das estruturas usando-se a análise linear e a análise não-linear destacando-se as importantes diferenças encontradas quando se usa um ou outro tipo análise na busca das soluções ótimas. It is common in many types of framed structures, often used as roofs of gymnasiums, hangars, warehouses, etc, the structural analysis considering a geometrically nonlinear behavior. This analysis (more complex) allows for an evaluation closer to the real behavior of the structure and thus its design requires to an evaluation considering this behavior in order to avoid undesirable structural problems. Structural optimization problems are studied in this dissertation using a bioinspired metaheuristic, the Genetic Algorithm (GA), searching for optimal solutions (minimizing costs and satisfying safety constraints) for structures with geometrically nonlinear behavior. It seeks for optimal structural designs taking into account sizing design variables, such as areas or dimensions of the cross sections of the bars. The GA makes use of special encodings of the chromosomes, by using simple and multiple cardinality constraints, searching for the best grouping of the bars of the structures. Comparative studies are made by considering the optimization of structures through evaluations using linear and nonlinear analysis, and highlighting the major differences encountered when using either type of analysis in seeking for the optimal solutions.
- Published
- 2011
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.