74 results on '"Borges, Carlos Cristiano Hasenclever"'
Search Results
2. An Evolutionary Analytic Center Classifier
- Author
-
Goulart, Renan Motta, primary, Villela, Saulo Moraes, additional, Borges, Carlos Cristiano Hasenclever, additional, and Neto, Raul Fonseca, additional
- Published
- 2020
- Full Text
- View/download PDF
3. Perceptron Models for Online Structured Prediction
- Author
-
Coelho, Maurício Archanjo Nunes, Fonseca Neto, Raul, Borges, Carlos Cristiano Hasenclever, Hutchison, David, editor, Kanade, Takeo, editor, Kittler, Josef, editor, Kleinberg, Jon M., editor, Mattern, Friedemann, editor, Mitchell, John C., editor, Naor, Moni, editor, Nierstrasz, Oscar, editor, Pandu Rangan, C., editor, Steffen, Bernhard, editor, Sudan, Madhu, editor, Terzopoulos, Demetri, editor, Tygar, Doug, editor, Vardi, Moshe Y., editor, Weikum, Gerhard, editor, Yin, Hujun, editor, Costa, José A. F., editor, and Barreto, Guilherme, editor
- Published
- 2012
- Full Text
- View/download PDF
4. Online Portfolio Optimization with Risk Control
- Author
-
Yamim, João Daniel Madureira, primary, Borges, Carlos Cristiano Hasenclever, additional, and Neto, Raul Fonseca, additional
- Published
- 2021
- Full Text
- View/download PDF
5. Perceptron Models for Online Structured Prediction
- Author
-
Coelho, Maurício Archanjo Nunes, primary, Fonseca Neto, Raul, additional, and Borges, Carlos Cristiano Hasenclever, additional
- Published
- 2012
- Full Text
- View/download PDF
6. MULTIOBJECTIVE PIG IRON COST OPTIMIZATION USING SIMPLEX PROJECTION
- Author
-
Guimarães, Pedro Gabriel da Silva, primary, Borges, Carlos Cristiano Hasenclever, additional, and Arbex, Wagner Antonio, additional
- Published
- 2020
- Full Text
- View/download PDF
7. A dual method for solving the nonlinear structured prediction problem
- Author
-
Coelho, Maurício Archanjo Nunes, Borges, Carlos Cristiano Hasenclever, and Neto, Raul Fonseca
- Published
- 2016
- Full Text
- View/download PDF
8. A Genetic Programming Model for Association Studies to Detect Epistasis in Low Heritability Data
- Author
-
Ribeiro, Igor Magalhães, primary, Borges, Carlos Cristiano Hasenclever, additional, Silva, Bruno Zonovelli, additional, and Arbex, Wagner, additional
- Published
- 2018
- Full Text
- View/download PDF
9. INTERRUPCIÓN DEL BRASILEÑO SECTOR EMPRESARIAL DE CONSUMO CÍCLICO: UNA METODOLOGÍA PARA EQUILIBRAR LA BASE DE DATOS CON TÉCNICAS DE MINERÍA DE DATOS
- Author
-
Horta, Rui Américo Mathiasi, Borges, Carlos Cristiano Hasenclever, and Jorge, Marcelino José
- Abstract
Discontinuity of companies is an issue that increasingly is being studied in the field of accounting and finance due to the considerable number of parts of the social fabric affected by the failure of a corporate entity. Banks, investors, governments, auditors, managers, suppliers, employees and many others have great interests in the accuracy of prediction of insolvency of a company. In Brazil, studies on the subject are still suffering the effects of being available only in databases with reduced dimensions, mostly due to data quality. But there is little studied issues in predictive modeling of insolvency. The balance or imbalance of data on insolvency is one of those issues in economic environments typical number of companies classified as solvent is much higher than those classified as insolvent. The aim of this study is to propose a new procedure for balancing of database problems in insolvency prediction with (step) feature selection. Was then constructed a strategy of data mining with the double virtue of selecting attributes and solve the problem of the imbalance. The database was derived from financial statements of Brazilian companies in the consumer cyclical economic sector, listed on the BOVESPA between the years 1996 and 2011. The results and validations performed demonstrate the success of the proposed strategy, improving the ability of the prediction model for the classification of companies belonging to the class of insolvent and thus consolidating it as quite competitive with other strategies presented in the specific literature. Given the nature of the empirical exercise, it is clear that the advantage of the new procedure does not depend on the studied sector. Keywords: Discontinuity of companies; Brazilian companies from the consumer discretionary sector, accounting variables, Data mining; Balancing database. La discontinuidad de las empresas es un tema que se está estudiando cada vez más en el campo de la contabilidad y las finanzas, debido al número considerable de partes del tejido social afectado por la falla de una entidad corporativa. Bancos, inversores, gobiernos, auditores, gerentes, proveedores, empleados y muchos otros tienen grandes intereses en la exactitud de la predicción de la insolvencia de una empresa. En Brasil, los estudios sobre el tema siguen sufriendo los efectos de estar disponible sólo en bases de datos de dimensiones reducidas, casi siempre debido a la calidad de los datos. Pero hay pocos temas estudiados en modelos de predicción de la insolvencia. El desequilibrio o insolvencia datos desequilibrio es uno de esos problemas, en entornos económicos típicos del número de empresas clasificadas como disolventes es mucho mayor que los clasificados como insolvente. El objetivo de este estudio es proponer un nuevo procedimiento para el equilibrio de los problemas de base de datos en la predicción de la insolvencia con (paso) de selección de características. A continuación, se construyó una estrategia de minería de datos con la doble virtud de la selección de atributos y resolver el problema de desequilibrio. La base de datos se deriva de los estados financieros de las empresas brasileñas en el sector de la economía de consumo cíclico, que se enumeran en la Bovespa entre los años 1996 y 2011. Los resultados y validaciones demuestran el éxito de la estrategia propuesta, la mejora de la capacidad del modelo de pronóstico para la clasificación de las empresas que pertenecen a la clase de insolvencia y por lo tanto la consolidación como bastante competitivo con otros enfoques sugeridos en la literatura. Dada la naturaleza del ejercicio empírico, está claro que la ventaja del nuevo procedimiento no depende de el sector estudiado. Palabras clave: Negocios discontinuados. La selección de las variables de contabilidad. Equilibrio de base de datos. La minería de datos. Sector Consumidor Discrecional - Brasil. Descontinuidade de empresas é um tema que cada vez mais vem sendo estudado no campo da contabilidade e finanças devido ao considerável número de partes do tecido social afetadas pelo fracasso corporativo de uma entidade. Bancos, investidores, governos, auditores, gerentes, fornecedores, empregados e muitos outros têm grandes interesses na acurácia da previsão de insolvência de uma companhia. No Brasil os estudos sobre o tema ainda sofrem o efeito de estarem disponíveis apenas em bases de dados com dimensões reduzidas, quase sempre devido à qualidade dos dados. Mas há questões pouco estudadas na modelagem de previsão de insolvência. O desequilíbrio ou desbalanceamento dos dados sobre insolvência é uma dessas questões, em ambientes econômicos típicos o número de empresas classificadas como solventes é bem maior do que o daquelas classificadas como insolventes. O objetivo deste estudo é propor um novo procedimento para balanceamento da base de dados em problemas de previsão de insolvência com (etapa de) seleção de atributos. Foi então construída uma estratégia de data mining com a dupla virtude de selecionar atributos e de resolver o problema do desequilíbrio. A base de dados foi originada de demonstrativos contábeis de empresas brasileiras do setor econômico de consumo cíclico, listadas na BOVESPA entre os anos de 1996 e 2011. Os resultados obtidos e as validações realizadas evidenciam o sucesso da estratégia proposta, melhorando a capacidade do modelo de previsão na classificação das empresas pertencentes à classe das insolventes e, assim consolidando-a como bastante competitiva com outras estratégias apresentadas na literatura específica. Dada a natureza do exercício empírico, fica evidente que a vantagem do novo procedimento não depende do setor estudado.Palavras-chave: Descontinuidade de empresas. Seleção de variáveis contábeis. Balanceamento de base de dados. Data mining. Setor de consumo cíclico – Brasil.
- Published
- 2014
10. Descontinuidade de empresas brasileiras do setor de material básico: No período compreendido pré e pós a crise do subprime
- Author
-
Horta, Rui Américo Mathiasi, Alves, Francisco Jose dos Santos, Borges, Carlos Cristiano Hasenclever, Rodrigues, Adriano, Horta, Rui Américo Mathiasi, Alves, Francisco Jose dos Santos, Borges, Carlos Cristiano Hasenclever, and Rodrigues, Adriano
- Abstract
Descontinuidade de empresas é um tema cada vez mais estudado no campo da contabilidade, das finanças, dos negócios e da computação em decorrência do considerável impacto social causado pelo fracasso corporativo de uma entidade. Bancos, investidores, auditores, gerentes, fornecedores, empregados e muitos outros têm grandes interesses na acurácia da previsão de continuidade de uma companhia. Ainda há questões pouco estudadas na modelagem de previsão de insolvência. O desequilíbrio ou desbalanceamento dos dados sobre insolvência é uma dessas questões; em ambientes econômicos típicos o número de empresas classificadas como solventes é bem maior do que o daquelas classificadas como insolventes. O objetivo deste estudo foi comparar as variáveis contábeis selecionadas nas amostras das empresas do setor de material básico antes e após a crise do subprime, aplicando tecnologias de aprendizagem de máquinas em problemas de previsão de insolvência, utilizando técnicas de balanceamento da base de dados com (etapa de) seleção de atributos e, a partir disso, obter informações contábeis que levem a explicações das diferenças ocorridas na descontinuidade das empresas estudadas. Esta pesquisa é de natureza aplicada com abordagem quantitativa; quanto ao objetivo, é descritiva. A base de dados foi originada de demonstrativos contábeis de empresas brasileiras do setor econômico de material básico, listadas na Bovespa e na Serasa entre os anos 1994 e 2006 e 2007 e 2012. Os resultados obtidos evidenciaram a alteração de algumas variáveis selecionadas para a caracterização daquelas empresas que se tornaram descontínuas. Empresas do setor de material básico, no período estudado, 2007 a 2012, que se adequaram às exigências do mercado, privilegiando a liquidez em detrimento ao operacional, lograram sucesso em sua continuidade.Palavras-chave: Descontinuidade de empresas. Seleção de variáveis contábeis. Balanceamento de base de dados. Tecnologias de aprendizagem de máquina. Setor de material bá
- Published
- 2015
11. On the robustness of SNPs filtering using computational intelligence
- Author
-
Zonovelli, Bruno, primary, Borges, Carlos Cristiano Hasenclever, additional, and Arbex, Wagner, additional
- Published
- 2015
- Full Text
- View/download PDF
12. A Regularized Evolutionary Algorithm for Constrained Optimization
- Author
-
Borges, Carlos Cristiano Hasenclever, primary, Fonseca Neto, Raul, additional, and El Hacen, Sam Ould Mohamed, additional
- Published
- 2015
- Full Text
- View/download PDF
13. Descontinuidade de empresas brasileiras do setor de consumo cíclico: Um estudo com dados contábeis utilizando técnicas de data mining
- Author
-
Horta, Rui Américo Mathiasi, Borges, Carlos Cristiano Hasenclever, Jorge, Marcelino José, Horta, Rui Américo Mathiasi, Borges, Carlos Cristiano Hasenclever, and Jorge, Marcelino José
- Abstract
Discontinuity of companies is an issue that increasingly is being studied in the field of accounting and finance due to the considerable number of parts of the social fabric affected by the failure of a corporate entity. Banks, investors, governments, auditors, managers, suppliers, employees and many others have great interests in the accuracy of prediction of insolvency of a company. In Brazil, studies on the subject are still suffering the effects of being available only in databases with reduced dimensions, mostly due to data quality. But there is little studied issues in predictive modeling of insolvency. The balance or imbalance of data on insolvency is one of those issues in economic environments typical number of companies classified as solvent is much higher than those classified as insolvent. The aim of this study is to propose a new procedure for balancing of database problems in insolvency prediction with (step) feature selection. Was then constructed a strategy of data mining with the double virtue of selecting attributes and solve the problem of the imbalance. The database was derived from financial statements of Brazilian companies in the consumer cyclical economic sector, listed on the BOVESPA between the years 1996 and 2011. The results and validations performed demonstrate the success of the proposed strategy, improving the ability of the prediction model for the classification of companies belonging to the class of insolvent and thus consolidating it as quite competitive with other strategies presented in the specific literature. Given the nature of the empirical exercise, it is clear that the advantage of the new procedure does not depend on the studied sector. Keywords: Discontinuity of companies; Brazilian companies from the consumer discretionary sector, accounting variables, Data mining; Balancing database., Descontinuidade de empresas é um tema que cada vez mais vem sendo estudado no campo da contabilidade e finanças devido ao considerável número de partes do tecido social afetadas pelo fracasso corporativo de uma entidade. Bancos, investidores, governos, auditores, gerentes, fornecedores, empregados e muitos outros têm grandes interesses na acurácia da previsão de insolvência de uma companhia. No Brasil os estudos sobre o tema ainda sofrem o efeito de estarem disponíveis apenas em bases de dados com dimensões reduzidas, quase sempre devido à qualidade dos dados. Mas há questões pouco estudadas na modelagem de previsão de insolvência. O desequilíbrio ou desbalanceamento dos dados sobre insolvência é uma dessas questões, em ambientes econômicos típicos o número de empresas classificadas como solventes é bem maior do que o daquelas classificadas como insolventes. O objetivo deste estudo é propor um novo procedimento para balanceamento da base de dados em problemas de previsão de insolvência com (etapa de) seleção de atributos. Foi então construída uma estratégia de data mining com a dupla virtude de selecionar atributos e de resolver o problema do desequilíbrio. A base de dados foi originada de demonstrativos contábeis de empresas brasileiras do setor econômico de consumo cíclico, listadas na BOVESPA entre os anos de 1996 e 2011. Os resultados obtidos e as validações realizadas evidenciam o sucesso da estratégia proposta, melhorando a capacidade do modelo de previsão na classificação das empresas pertencentes à classe das insolventes e, assim consolidando-a como bastante competitiva com outras estratégias apresentadas na literatura específica. Dada a natureza do exercício empírico, fica evidente que a vantagem do novo procedimento não depende do setor estudado.Palavras-chave: Descontinuidade de empresas. Seleção de variáveis contábeis. Balanceamento de base de dados. Data mining. Setor de consumo cíclico – Brasil., La discontinuidad de las empresas es un tema que se está estudiando cada vez más en el campo de la contabilidad y las finanzas, debido al número considerable de partes del tejido social afectado por la falla de una entidad corporativa. Bancos, inversores, gobiernos, auditores, gerentes, proveedores, empleados y muchos otros tienen grandes intereses en la exactitud de la predicción de la insolvencia de una empresa. En Brasil, los estudios sobre el tema siguen sufriendo los efectos de estar disponible sólo en bases de datos de dimensiones reducidas, casi siempre debido a la calidad de los datos. Pero hay pocos temas estudiados en modelos de predicción de la insolvencia. El desequilibrio o insolvencia datos desequilibrio es uno de esos problemas, en entornos económicos típicos del número de empresas clasificadas como disolventes es mucho mayor que los clasificados como insolvente. El objetivo de este estudio es proponer un nuevo procedimiento para el equilibrio de los problemas de base de datos en la predicción de la insolvencia con (paso) de selección de características. A continuación, se construyó una estrategia de minería de datos con la doble virtud de la selección de atributos y resolver el problema de desequilibrio. La base de datos se deriva de los estados financieros de las empresas brasileñas en el sector de la economía de consumo cíclico, que se enumeran en la Bovespa entre los años 1996 y 2011. Los resultados y validaciones demuestran el éxito de la estrategia propuesta, la mejora de la capacidad del modelo de pronóstico para la clasificación de las empresas que pertenecen a la clase de insolvencia y por lo tanto la consolidación como bastante competitivo con otros enfoques sugeridos en la literatura. Dada la naturaleza del ejercicio empírico, está claro que la ventaja del nuevo procedimiento no depende de el sector estudiado. Palabras clave: Negocios discontinuados. La selección de las variables de contabilidad. Equilibrio de base de datos. La minería de d
- Published
- 2014
14. DESCONTINUIDADE DE EMPRESAS BRASILEIRAS DO SETOR DE MATERIAL BÁSICO: NO PERÍODO COMPREENDIDO PRÉ E PÓS A CRISE DO SUBPRIME / Discontinuance of brazilian companies of basic materials sector: the period pre and post the subprime crisis
- Author
-
Horta, Rui Américo Mathiasi, primary, Alves, Francisco José dos Santos, additional, Borges, Carlos Cristiano Hasenclever, additional, and Rodrigues, Adriano, additional
- Published
- 2014
- Full Text
- View/download PDF
15. SNPs selection using support vector regression and genetic algorithms in GWAS
- Author
-
de Oliveira, Fabrízzio Condé, primary, Borges, Carlos Cristiano Hasenclever, additional, Almeida, Fernanda Nascimento, additional, e Silva, Fabyano Fonseca, additional, da Silva Verneque, Rui, additional, da Silva, Marcos Vinicius GB, additional, and Arbex, Wagner, additional
- Published
- 2014
- Full Text
- View/download PDF
16. Decision support in attribute selection with machine learning approach
- Author
-
Arbex, Wagner, primary, e Silva, Fabyano Fonseca, additional, da Silva, Marcos Vinicius Gualberto Barbosa, additional, de Oliveira, Fabrizzio Conde, additional, Varona, Luis, additional, Verneque, Ruida Silva, additional, and Borges, Carlos Cristiano Hasenclever, additional
- Published
- 2014
- Full Text
- View/download PDF
17. Inteligência artificial aplicada ao monitoramento de estruturas: detecção de alterações mecânico-estruturais baseada no uso de redes neurais autocodificadoras esparsas para a caracterização de respostas dinâmicas
- Author
-
Amaral, Rafaelle Piazzaroli Finotti, Barbosa, Flávio de Souza, Cury, Alexandre Abrahão, Carvalho, Graciela Nora Doz de, Silva, Samuel da, Santos, João Pedro de Oliveira Dias Prudente dos, Borges, Carlos Cristiano Hasenclever, and Fonseca, Leonardo Goliatt da
- Subjects
Structural dynamic ,Artificial intelligence ,Structural health monitoring ,Dinâmica das estruturas ,Monitoramento da saúde estrutural ,ENGENHARIAS [CNPQ] ,Damage detection ,Inteligência artificia ,Autocodificador esparso ,Detecção de danos ,Sparse autoencoder - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais Com a rápida evolução da tecnologia computacional e de informação, notáveis avanços foram alcançados nos sistemas de Monitoramento da Saúde Estrutural (SHM, do inglês “Structural Health Monitoring”), fazendo com que o desenvolvimento de estratégias mais automatizadas de detecção de comportamentos estruturais anômalos por meio da caracterização adequada das respostas dinâmicas ocupem um espaço considerável nas pesquisas atuais sobre o assunto. Nos últimos anos, algoritmos de inteligência artificial focados no aprendizado profundo têm se tornado cada vez mais populares como ferramentas para a detecção de alterações em estruturas. O conceito de aprendizado profundo tem origem na teoria de redes neurais e compreende diversas abordagens que, devido à grande capacidade de processamento de dados, foram principalmente formuladas para tratar problemas nãolineares e de alta dimensão. Embora os fundamentos básicos de tais algoritmos tenham sido estabelecidos na década de 60, seu uso em estratégias SHM ainda é relativamente novo. Diante deste cenário, o presente trabalho se debruça sobre a avaliação do algoritmo de aprendizado profundo denominado Autocodificador Esparso (SAE, do inglês “Sparse AutoEncoder”) quando utilizado como extrator de parâmetros de dados dinâmicos. Mais especificamente, avalia-se a capacidade dos modelos SAE de fornecer conjuntos de variáveis representativas, determinados através do processamento de sinais no domínio do tempo, que viabilizem a detecção de um comportamento considerado anormal para uma dada estrutura. Primeiramente, uma análise de sensibilidade é realizada, visando verificar a influência que as variáveis que definem o funcionamento do SAE exercem sobre a sua habilidade de representar as respostas vibracionais. Em seguida, com o intuito de investigar se os parâmetros modelados pelo SAE permitem de fato distinguir diferentes estados estruturais, uma estratégia supervisionada que utiliza o SAE como seletor de características e o algoritmo de Máquina de Vetor Suporte (SVM, do inglês “Support Vector Machine”) como classificador é apresentada e aplicada a um modelo numérico de viga e a uma ponte monitorada em João Pessoa no estado da Paraíba. Por fim, na tentativa de explorar a capacidade do SAE em situações mais próximas àquelas encontradas em sistemas SHM reais, propõe-se uma metodologia de detecção de alterações estruturais não-supervisionada. A ideia é caracterizar as respostas dinâmicas através de modelos SAE e, posteriormente, detectar o início do comportamento anormal por meio de cartas de controle T 2 de Hotelling, calculada com os parâmetros extraídos pelo SAE. Além disso, apresenta-se aqui um critério automatizado para a definição dos modelos a serem aplicados em problemas SHM baseado na associação do erro de reconstrução dos dados dos modelos a um índice de generalização dos pontos T 2 proposto. A maioria dos estudos que vêm sendo feitos na área classicamente definem como os modelos SAE mais adequados àqueles com menor erro de reconstrução dos sinais dinâmicos, o que não garante o bom desempenho quanto à detecção de alterações estruturais, conforme aqui constatado. A abordagem não-supervisionada é analisada e exemplificada em três casos: um pórtico monitorado em laboratório; o caso clássico da ponte Z24; e uma torre instrumentada na Itália. Ressalta-se que para as duas últimas estruturas citadas, a influência da temperatura também foi avaliada. Em todos os casos estudados, seja na abordagem supervisionada ou na não-supervisionada, chegou-se a resultados satisfatórios, mesmo sob influência de variações de temperatura, deixando claro que o SAE se apresenta como uma ferramenta eficaz e robusta quando aplicada a problemas SHM. The evolution of computational technologies has brought remarkable advances in Structural Health Monitoring (SHM) systems, making the development of more automated strategies for detecting anomalous structural behaviors, through the adequate characterization of dynamic responses, plays an important role in this field of research. In the last few years, artificial intelligence algorithms focused on deep learning have become increasingly popular as tools for detecting changes in structures. The concept of deep learning has its origins in the theory of neural networks and comprises several approaches mainly formulated to deal with non-linear and high-dimensional problems. Although the basic foundations of such algorithms were established in the 1960s, their use in SHM strategies is still relatively new. In this context, the present work evaluates the deep learning algorithm called Sparse AutoEncoder (SAE) when used as an extractor of parameters from dynamic data. More specifically, the ability of SAE models to provide sets of representative variables is studied to detect abnormal structural behaviors through dynamic signal processing directly in the time domain. Firstly, a sensitivity analysis is performed, aiming to verify the influence of the variables that define the functioning of the SAE exert on its ability to represent vibrational responses. Then, in order to investigate whether the parameters modeled by SAE allow different structural states to be distinguished, a supervised strategy that uses SAE as a feature selector and the Support Vector Machine (SVM) algorithm as a classifier is applied to a numerical beam model and a monitored bridge in João Pessoa, Brasil. Finally, in an attempt to explore the capacity of the SAE in situations closer to those found in actual SHM systems, an unsupervised methodology for detecting structural alterations is proposed. The fundamental idea is to characterize the structural dynamic responses via SAE models and, subsequently, to detect the onset of abnormal behavior through the well-known T 2 Hotelling’s control chart, calculated with SAE extracted features. An automated criterion for models’ definition to be applied in SHM problems is also presented, based on the association of the model data reconstruction error and a proposed generalization index of the points T 2 . Most studies that have been carried out in the area classically define the SAE models most suitable as those with the lowest reconstruction error of dynamic signals, which does not guarantee a good performance in terms of structural alteration detection, as found here. The unsupervised approach is analyzed and exemplified in three cases: a laboratory steel frame, the classic case of the Z24 bridge, and an instrumented tower in Italy. It is noteworthy that the influence of temperature was also evaluated for the last two mentioned structures. In all cases studied, whether, in the supervised or unsupervised approach, satisfactory results were achieved, even under the influence of temperature variations, making it clear that the SAE presents itself as an effective and robust tool when applied to SHM problems.
- Published
- 2022
18. Desenvolvimento de um sistema para monitoramento automático de integridade estrutural
- Author
-
Soares, Daniel de Almeida Cardoso, Cury, Alexandre Abrahão, Barbosa, Flávio de Souza, Borges, Carlos Cristiano Hasenclever, Roitman, Ney, and Ribeiro, Diogo Rodrigo Ferreira
- Subjects
Objeto de dados simbólicos ,Aplicações experimentais ,Structural health monitoring ,Experimental applications ,Monitoramento de integridade estrutural ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] ,Symbolic data object - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais Pesquisas recentes têm usado métodos baseados na análise de dados brutos de vibração como base para o Monitoramento de Integridade Estrutural (SHM – Structural Health Monitoring, em inglês). Em algumas delas, o conceito de Objeto de Dados Simbólicos (SDO – Symbolic Data Object, em inglês) vem sendo empregado e difundido. Uma característica marcante e vantajosa de se utilizar SDOs é que eles possuem uma grande capacidade de compactar dados brutos, isto é, sinais dinâmicos coletados diretamente da estrutura, enquanto mantém a essência das informações originais. Além disso, métodos baseados na utilização de SDOs geralmente possuem um custo computacional muito menor se comparados àqueles baseados no uso de parâmetros modais, haja vista que evitam o processo de identificação modal. Assim, o presente trabalho apresenta uma metodologia para a realização de SHM, implementada em um software denominado ReTiA-SHM (Real-Time Automated Structural Health Monitoring). Com o intuito de verificar a funcionalidade e a acurácia na detecção de alterações estruturais, foram utilizados os dados de quatro monitoramentos dinâmicos de estruturas que sofreram algum tipo de alteração ou ação excepcional. As quatro aplicações experimentais referem-se a: i) um pórtico metálico no Canadá; ii) uma torre de alvenaria na Itália; iii) uma ponte rodoviária na França e iv) um viaduto ferroviário na França. Os resultados obtidos mostraram que as alterações estruturais ou ações excepcionais foram identificadas com sucesso, com exceção de alguns danos progressivos menores no pórtico metálico. Em alguns casos, observou-se ser necessário um período de adaptação – quando alguns falsos alarmes positivos ocorrem – para que o software configure automaticamente os parâmetros de forma a soar alarme apenas em situações que alguma alteração de maior intensidade for encontrada no sinal. Recent research has used methods based on raw vibration data analysis as a basis for Structural Health Monitoring (SHM). In some of them, the concept of Symbolic Data Object (SDO) has been used and spread. A remarkable and advantageous feature of using SDOs is that they have a great capacity to compress raw data, that is, dynamic signals collected directly from the structure, while maintaining the essence of the original information. Furthermore, methods based on the use of SDOs generally have a much lower computational cost compared to those based on the use of modal parameters, since they avoid the modal identification process. Thus, the present work presents a methodology for performing SHM, implemented in a software called ReTiA-SHM (Real-Time Automated Structural Health Monitoring). To verify the functionality and accuracy in detecting structural changes, data from four dynamic monitoring of structures that suffered some kind of alteration or exceptional force were used. The four experimental applications refer to: i) a steel frame in Canada; ii) a masonry tower in Italy; iii) a road bridge in France and iv) a railway viaduct in France. The results obtained showed that the structural changes or exceptional forces were successfully identified, except for some minor progressive damage to the steel frame. In some cases, it was observed that an adaptation period is necessary – when some false positive alarms occur – so that the software automatically configures the parameters to sound an alarm only in situations when some change of greater intensity is found in the signal.
- Published
- 2022
19. Previsão de carga elétrica em curto prazo utilizando combinação de estações meteorológicas
- Author
-
Guilhermino Neto, Guilherme, Hippert, Henrique Steinherz, Borges, Carlos Cristiano Hasenclever, Rocha, Bernardo Martins, and Oliveira, Fabrízzio Condé de
- Subjects
Redes neurais ,Load forecasting ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Previsão de carga elétrica ,Weather station combination ,Combinação de estações meteorológicas ,Neural networks - Abstract
Previsões de carga, em base horária, são necessárias para a operação diária de empresas da Cadeia de Suprimentos do Setor Elétrico (CSSE) e vários participantes envolvidos no mercado de energia. Como a oferta deve ocorrer idealmente de forma concomitante com a demanda, por conta da impossibilidade de se estocar eletricidade em grandes volumes, a má previsão leva ao desequilíbrio do sistema, causando desde o aumento do custo financeiro da operação devido a transações em cima da hora, até falhas em equipamentos. No atual contexto, muitas empresas da CSSE têm atualizado seus equipamentos para se tornarem smart grids. Com estas tecnologias, é possível monitorar a carga em diversos pontos do sistema, passando por áreas geograficamente diversas. Some-se isto ao fato de que aspectos climáticos estão entre aqueles que mais influenciam o consumo de energia elétrica, emerge um novo desafio: como selecionar e combinar dados das estações meteorológicas disponíveis, para prever a carga de um território específico? Neste trabalho, utilizamos uma heurística para ranquear as estações meteorológicas e propomos dois novos métodos de combinação, que levam em conta aspectos de ordem prática como fatores geográficos. Para sete conjunto de dados, correspondentes a zonas de carga do operador do estado de Nova Iorque, EUA, testamos os métodos propostos para compor as entradas de redes neurais artificiais. Também testamos a combinação pela média aritmética simples, como costuma se encontrar na literatura. Analisamos a sensibilidade das redes a ruídos nos dados exógenos e comparamos os resultados com os de benchmarks univariados de séries temporais, baseados apenas no histórico das cargas. Verificamos que, para a maioria das zonas de carga em que a combinação de duas ou mais estações se faz necessária para abarcar as características climáticas, os dois métodos de combinações propostos têm melhor desempenho, inclusive com sugestão de robustez a ruído nos dados exógenos. Também notamos que levar em conta características de ordem prática, como as geográficas, nos modelos de previsão, parece trazer benefícios. Além disso, os resultados mostram que há se atentar para a qualidade dos dados de fontes secundárias, visto que a partir de certo nível de ruído, passa a ser interessante trabalhar apenas com os dados de carga, para certos conjuntos de dados Hourly-based load forecasts are necessary for the daily scheduling of the Electric Power Supply Chain (EPSC), as for many players involved on the operation of energy markets. Because of the impossibility of storing large volumes of electricity, it is desirable for the supply to meet its demand on real time, which leads bad forecasts to unbalance the whole system, causing from raises on the financial costs of the operations to equipment failure. Lately, many companies in the EPSC are updating their technologies in order to become smart grids. With smart grid apparatuses, it is possible to use sensoring to monitor the load in multiple points of the system, crossing many distinct geographical areas. As the demanda of electrical energy is known to be weather-dependant, a new challenge emerges: how to select and combine data from many available weather stations in order to feed load forecasting models for a specific territory? On this work, we use an heuristics to rank weather stations and introduce two new methods for combining them, taking into account practical aspects such as geographical factors. For seven datasets, corresponding to load zones from the independente operator system of the state of New York, USA, we test the proposed methods to compose the inputs for neural networks. We also try a combination by the simple average, as it is frequent on the literature. We carry on a sensitivity analysis for the networks injecting noise to the exogenous data and compare the results to univariate time series benchmarks, which depend only on the historical load. We verify that, for most of the load zones for which the combination of two or more weather stations is necessary in order to consider its weather characteristics, the two introduced combination methods have the best median performance, and also appear to be robust to noise in exogenous data. We also note that forecasting models may benefit from taking into account practical order factors, such as geographical characteristics of the load zone, in the forecasting models. Besides, results show that it is important to be aware of the quality of secondary data, since from a certain noise level it may be of best practice to work only with load data, for some of the experimented datasets.
- Published
- 2022
20. Investigação sobre a capacidade de predição de afinidade de ligação entre moléculas em sistemas hospedeiro-hóspede por meio de métodos de aprendizado de máquina
- Author
-
Carvalho, Ruan Medina, Fonseca, Leonardo Goliatt da, Capriles, Priscila Vanessa Zabala, Borges, Carlos Cristiano Hasenclever, Guedes, Isabella Alvim, and Saporetti, Camila Martins
- Subjects
Molecular affinity ,Machine learning ,Cyclodextrin ,ENGENHARIAS [CNPQ] ,Ciclodextrina ,Aprendizado de máquina ,Afinidade molecular - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior A inserção de experimentações in silico no contexto científico nas últimas décadas permitiram a consolidação de áreas interdisciplinares como a bioinformática, biologia computacional, química computacional entre outras que buscam descrever, entender e prever eventos naturais por meio de equações matemáticas e métodos computacionais. Neste contexto, é comum que pesquisadores tenham interesse em prever medidas de interação entre moléculas, principalmente para viabilizar o estudo racional de fármacos. Realizar triagens de potenciais fármacos de forma computacional visa reduzir o tempo na descoberta de novas drogas, assim como reduzir o elevado número de testes em laboratório que encarece todo o processo. As triagens moleculares computacionais geralmente são realizadas por meio de processos chamados de docking, nos quais define-se graus de liberdade para representações moleculares no interior de uma grid de simulação. O objetivo do processo é evoluir uma otimização nesse espaço que visa encontrar a configuração geométrica de uma possível ligação entre as moléculas e calcular métricas relativas a esse estado de interação. Para isso, a literatura já apresenta diversas propostas para a formulação de funções objetivo para a busca, ora baseados em modelos matemáticos sob a ótica da física clássica, ora em modelos com base na teoria quântica. Mais recentemente, como alternativa, vêm sendo propostos modelos preditivos baseados em dados e ajustados por métodos computacionais de aprendizado de máquina. Alguns desses métodos vêm apresentando resultados superiores aos dos modelos físicos, além de possuírem tempo de predição inferiores, uma vez já treinados. Visto isso, as técnicas de aprendizado de máquina (ML, do inglês Machine Learning) estão se tornando parte integrante do desenho e descoberta racionais de fármacos e o estudo de uma série de moléculas. Nesse contexto, as Ciclodextrinas (CDs) são nano-gaiolas (nanohorns) usadas para melhorar a entrega de drogas insolúveis ou tóxicas para o organismo. Devido à semelhança química entre CDs e proteínas, abordagens ML podem beneficiar vastamente os estudos da área, identificando carreadores promisores para uma dada molécula de interesse. No presente trabalho, são avaliados o desempenho de três métodos de ML bem conhecidos na literatura - Support Vector Regression (ε-SVR), Gaussian Process Regression (GPR) e eXtreme Gradient Boosting (XGB) - para prever a afinidade de ligação da ciclodextrina e ligantes de interesse em um sistema hospedeiro-ligante (host-guest). Os hiperparâmetros dos métodos ML propostos foram ajutados em uma estratégia de busca randomizada (Random Search). Os resultados mostram a consistencia da metodologia utilizada por apresentar resultados médios de erro controlados. O melhor desempenho na predição foi obtido por um modelo GPR otmizado em busca randomizada, se ajustando bem aos dados (R2 = 0, 803) com baixos erros de predição (RMSE = 1, 811kJ/mol e MAE = 1, 201kJ/mol).. The insertion of in silico experiments in the scientific context in recent decades has allowed the consolidation of interdisciplinary areas such as bioinformatics, computational biology, computational chemistry, among others, which seek to describe, understand and predict natural events through mathematical equations and computational methods. In this context, it is frequent that researchers are interested in predicting interaction measures between molecules, mainly to enable the rational study of drugs. Performing screenings of potential drugs computationally aims to reduce time to discover new drugs and reduce the high number of laboratory tests that make the whole process more expensive. Researchers usually perform computational molecular screenings through docking techniques, which define degrees of freedom for molecular representations within a simulation grid. The goal of the process is to evolve an optimization in this space that aims to find the geometric configuration of a possible bond between molecules and calculate metrics relating to this interaction state. To this end, the literature already presents several proposals for the formulation of objective functions for the search, sometimes based on mathematical models from the perspective of classical physics, sometimes based on models based on quantum theory. Recently, as an alternative, predictive models based on data and adjusted by computational machine learning methods have been proposed. Surprisingly, some of these methods have shown better results than the physical models, with lower prediction time once trained. Therefore, Machine Learning (ML) techniques are an integral part of rational drug design and discovery. Cyclodextrins (CDs) are nano-cages (nanohorns) used to enhance the delivery of insoluble or toxic drugs to the body. Due to the chemical similarity between CDs and proteins, ML approaches can vastly benefit studies in the field by identifying promising carriers for a given molecule of interest. In the present work, the performance of three well-known ML methods in the literature - Support Vector Regression (ε-SVR), Gaussian Process Regression (GPR), and eXtreme Gradient Boosting (XGB) - are evaluated to predict the binding affinity of cyclodextrin and ligands of interest in a host-ligand system (host-guest). We have tuned the hyperparameters of the proposed ML methods in a Random Search strategy. The results show the consistency of the methodology used by presenting controlled average error results. The best prediction performance was obtained by a GPR model optimized in random search, fitting the data well (R2 = 0.803) with low prediction errors (RMSE = 1.811kJ/mol and MAE = 1.201kJ/mol).
- Published
- 2021
21. Análise computacional do dano em estruturas de concreto submetidas a altas temperaturas
- Author
-
Matheus Fernandes Dal-Sasso, Farage, Michèle Cristina Resende, Bastos, Flávia de Souza, Borges , Carlos Cristiano Hasenclever, and Azeredo , Givanildo Alves de
- Subjects
Damage ,Dano ,Thermomechanical ,Concreto ,Termomecânico ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] ,Concrete - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais O concreto é uma mistura hábil de componentes comuns da superfície terrestre, o que, associado ao fato de não requerer mão de obra altamente qualificada para sua produção e ao seu bom desempenho térmico e mecânico, o torna o material construtivo mais utilizado pelo homem. Nesse contexto, o desenvolvimento urbano e a consequente evolução da construção civil proporcionaram uma crescente sofisticação das estruturas de concreto, implicando em solicitações de uso cada vez mais severas, como é o caso da submissão a gradientes térmicos, que pode fazer parte da condição de uso da estrutura, e estar prevista em projeto, ou ocorrer de forma acidental através de incêndios. Sendo assim, é necessário desenvolver modelos realistas, capazes de prever com confiabilidade, o comportamento dessas estruturas. Porém, esse não é um processo simples, uma vez que esse material apresenta uma microestrutura altamente complexa e heterogênea, o que aliado aos mecanismos de fissuração, resulta no seu comportamento não linear. Visando contribuir com este cenário, foi analisado computacionalmente o comportamento termomecânico de estruturas de concreto submetidas a altas temperaturas, empregando um conjunto de dados experimentais fornecidos pela Universidade Cergy-Pontoise, na França. Para isso, foram gerados corpos de prova sintéticos bidimensionais e tridimensionais, a partir dos quais foram feitas simulações utilizando o programa comercial de elementos finitos Abaqus e seu recurso de subrotinas. Através da implementação do modelo de dano de Mazars (1984), foi avaliada a evolução do dano, comparando os resultados das geometrias consideradas, constatando-se a congruência entre as mesmas. Para tal, foram utilizados problemas inversos para obtenção de parâmetros e propriedades desconhecidas, e foram desenvolvidos três modelos, sendo um elástico, um térmico e um termomecânico. Posteriormente, foi realizado o estudo da influência dos parâmetros do modelo de dano de Mazars (1984) na evolução do módulo de Young. Por fim, foi avaliado o impacto da granulometria e do volume relativo dos agregados no processo de danificação do concreto. Os resultados obtidos atestaram a eficácia da metodologia proposta. Concrete is a handy mixture of typical components of the earth’s surface. It is associated with the fact that it does not require highly qualified labor for its production and good thermal and mechanical performance, making it the most used construction material. In this context, urban development and the consequent evolution of civil construction provided an increasing sophistication of concrete structures, implying increasingly severe requests for use, as in the case of submission to thermal gradients, which may be part of the condition of use of the structure, and be planned in design, or occur accidentally through fires. Therefore, it is necessary to develop realistic models capable of reliably predicting these structures’ behavior. However, this is not a simple process. Once the microstructure of this material is highly complex and heterogeneous, what is associated with the cracking mechanisms, results in its non-linear behavior. Aiming to contribute to this scenario, the thermomechanical behavior of concrete structures submitted to high temperatures was analyzed computationally, using a set of experimental data provided by the Cergy-Pontoise University in France. For this, two-dimensional and three-dimensional synthetic specimens were generated, from which simulations were made using the commercial finite element program Abaqus and its subroutine resource. Through the implementation of the Mazars (1984) damage model, the damage evolution was evaluated, comparing the results of the considered geometries, verifying the congruence between them. For this purpose, inverse problems were used to obtain unknown parameters and properties, and three models were developed, one elastic, one thermal and one thermomechanical. Subsequently, the study of the influence of the parameters of the damage model Mazars (1984) on the evolution of Young’s modulus was carried out. Finally, the impact of the granulometry and the relative volume of the aggregates on the concrete damage process was evaluated. The results obtained attest to the effectiveness of the proposed methodology.
- Published
- 2021
22. Um modelo computacional para o estudo da propagação da dengue
- Author
-
Naranjo Martínez, José Maria, 1981, Correa, Maicon Ribeiro, 1979, Calsavara, Bianca Morelli Rodolfo, 1978, Boldrini, José Luiz, Borges, Carlos Cristiano Hasenclever, Universidade Estadual de Campinas. Instituto de Matemática, Estatística e Computação Científica, Programa de Pós-Graduação em Matemática Aplicada, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Dengue ,Equações diferenciais parciais ,Finite differences ,Partial differential equations ,Diferenças finitas ,Análise numérica ,Numerical analysis - Abstract
Orientadores: Maicon Ribeiro Correa, Bianca Morelli Rodolfo Calsavara Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica Resumo: Este trabalho trata da modelagem matemática e da simulação computacional de um problema da dinâmica populacional da propagação da dengue, através de um sistema de equações diferenciais parciais não lineares que permite a descrição da disseminação da dengue em dimensões espaciais maiores, com parâmetros dependentes do espaço e tempo. Outro fator de destaque é a inclusão de mecanismos de controle químico da epidemia. Para tal, é construída uma metodologia numérica consistente e estável a partir do emprego de Métodos de Diferenças Finitas no espaço e no tempo, definindo formulações discretas implícitas, com eventuais não linearidades tratadas pelo método de Newton. Tal metodologia será descrita em uma forma geral e flexível, permitindo a definição de diferentes cenários da propagação da dengue a partir do emprego de parâmetros encontrados na literatura e da escolha de diferentes condições inicias Abstract: This work is focused on the mathematical analysis and computational simulation of a mathematical model for geographical spreading of dengue disease, defined by a system of nonlinear partial differential equations that allows for the description of the spread of dengue in higher spatial dimensions, with parameters depending on space and time. Another important aspect is the inclusion of mechanisms of chemical control of the epidemic. We construct a consistent and stable numerical methodology based on the use of Finite Difference Methods in space and time, defining discrete formulations with nonlinearities treated by Newton's Method. Such methodology is described in a general and flexible way, allowing the definition of different scenarios of geographical spreading of dengue with the use of parameters by in the literature and the choice of different initial conditions Mestrado Matemática Aplicada Mestre em Matemática Aplicada CAPES
- Published
- 2021
- Full Text
- View/download PDF
23. Solução mobile baseada em visão computacional para a estimativa de parâmetros biofísicos aplicados ao monitoramento e manejo de pastagens
- Author
-
Franco, Victor Rezende, Fonseca, Leonardo Goliatt da, Borges, Carlos Cristiano Hasenclever, Hott, Marcos Cicarini, and Andrade, Ricardo Guimarães
- Subjects
Pastagem ,Visão computaciona ,Machine learning ,Mobile application ,Pasture ,Computer vision ,Aprendizado de máquina ,Aplicação mobile ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
Técnicas computacionais empregadas na fenotipagem e na avaliação das condições da vegetação têm contribuído para o desenvolvimento da produção no campo, de forma sustentável e eficiente. Nesse contexto, o presente trabalho utiliza uma solução mobile para a obtenção de dados fenotípicos de pastagens por meio de imagens fotográficas. Para tanto, fotos de parcelas experimentais de capim Panicum sp foram captadas em dois experimentos. No primeiro experimento foram obtidos dados de biomassa das parcelas, e no segundo experimento foram obtidos dados de altura. Utilizando Visão Computacional, são extraídas características da pastagem fotografada, que são, posteriormente, correlacionadas aos atributos de biomassa e altura das pastagens. Para isso, foram implementadas três técnicas de Aprendizado de Máquina: Regressão LASSO, Regressão por Vetores de Suporte e Rede Perceptron de Múltiplas Camadas. Para seleção do melhor modelo, foi utilizada a técnica de Evolução Diferencial. Para comparar os modelos, foram realizadas trinta repetições da técnica de Evolução Diferencial. Avaliadas utilizando o método de validação cruzada, a técnica que obteve melhor resultado nos dois problemas foi Rede Perceptron de Múltiplas Camadas, obtendo uma média de Coeficiente de Determinação (R2) 0,497 para a técnica que melhor se adaptou na previsão de biomassa e 0,662 para a técnica que melhor se adaptou na previsão de altura da pastagem. Os resultados obtidos indicam que os parâmetros biofísicos de altura e biomassa, podem ser modelados em função de atributos extraídos de imagens de pastagens da espécie forrageira Panicum maximum cv. BRS Zuri, obtidas em campo. Ainda, o software se mostrou de capaz de realizar o georreferenciamento das capturas e realizar o armazenamento dos dados. Computational techniques employed in vegetation phenotyping have contributed to the development of production in the field sustainably and efficiently. In this context, the present work uses a mobile solution to obtain phenotypic data from pastures through images. For that, photos of experimental plots of grass Panicum sp were captured in two experiments. In the first experiment, biomass data were obtained from the plots, and in the second experiment, height data were obtained. The photographed pasture characteristics are extracted using computer vision, which are later correlated to the pastures’ biomass and height attributes. Three machine learning techniques were implemented: LASSO Regression, Support Vector Regression, and MultipleLayer Perceptron Network. For the selection of the best model, the Differential Evolutiontechnique was used. To compare the models, thirty repetitions of the Differential Evolution technique were performed. Evaluated using the cross-validation method, the technique that obtained the best result in both problems was the MultiLayer Perceptron Network, obtaining an average of Coefficient of Determination (R2) 0.497 for the technique best adapted to forecast biomass and 0.662 for the technique best adapted to forecast height of pasture. The results obtained indicate that the biophysical parameters of height and biomass, can be modeled in function of attributes extracted from images of pastures of the forage species Panicum maximum cv. BRS Zuri, obtained in the field. Still, software proved to be capable of geo-referencing catches and storing data.
- Published
- 2021
24. Otimização multiobjetivo utilizando algoritmos evolutivos em seleção de carteiras: uma abordagem envolvendo ômega, assimetria e antifragilidade
- Author
-
Gotardelo, Davi Riani, Fonseca, Leonardo Goliatt da, Cordeiro, Fernanda Finotti, Augusto, Douglas Adriano, Borges, Carlos Cristiano Hasenclever, Lisbôa, Paulo César Coimbra, and Oliveira, Fabrízzio Condé de
- Subjects
Antifragility ,Seleção de carteiras ,Portfolio Selec-tion ,Algoritmos evolutivo ,Otimização multiobjetivo ,Evolutionary algorithms ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Antifragilidade ,Multiobjective optimization - Abstract
A rentabilidade em investimentos sempre foi desejo de qualquer investidor, seja pessoa física ou jurídica. Em períodos de quedas das taxas de juros das economias mundiais,bem como a existência de um desempenho instável dos ativos das bolsas de valores devido a recorrentes crises financeiras, como a recente ocasionada pelo COVID-19, a rentabilidade de ativos de Renda Fixa e Variável está cada vez mais ameaçada.Esse contexto suscita nos investidores uma busca cada vez maior por ativos que consigam conciliar rentabilidade e um mínimo de segurança na composição de seus portfólios.Isso faz com que a seleção de carteiras de ativos seja, sem dúvida, um dos temas mais desafiadores da área de Finanças.Desde a contribuição inicial de Markowitz, diversos pesquisadores têm busca do estudar métodos, técnicas e modelos aplicáveis ao tema. Um marco teórico importante foi a proposição nos anos 60 do modelo CAPM que, embora robusto e consistente, apresenta falhas severas empíricas. Sua limitação empírica é apontada pelo fato da proxy da carteira de mercado idealizada pelo modelo não se efetivar na prática. Aliado a isso, algumas premissas como a normalidade da distribuição e a função utilidade quadrática tornam o modelo CAPM cada vez menos propenso ao sucesso quando implementado na prática.Diante disso, novas abordagens têm sido apresentadas, com destaque recente para o modelo OCAPM, em que a medida Ômega permite relaxar essas premissas do CAPM e pode representar com maior efetividade a preferência do investidor. Novos atributos que não somente a média e variância passam a ser relevantes no processo de tomada dedecisão do investidor, transformando o problema em uma abordagem multi objetiva.Como o OCAPM ainda não tem ampla aplicação empírica, esta pesquisa se divide em três partes: a primeira, trabalha com otimização mono-objetivo e busca conhecer empiricamente se o modelo OCAPM apresenta desempenho superior ao modelo CAPMnos mercados estudados; a segunda parte trabalha com uma otimização de atributos puramente convexos e visa ratificar a visão de que a média e variância podem não ser,por si só, suficientes para representar toda a distribuição de retorno dos ativos e, por conseguinte, da decisão dos investidores. A terceira parte, a principal da pesquisa, tratada otimização de carteiras multi objetivas que envolvam atributos convexos e não-convexosatravés do emprego de algoritmos evolutivos.Neste experimento, são propostas 03 carteiras multi objetivas:i) Global, envolvendo a otimização dos atributos ômega, média, assimetria, curtose, drawdowne antifragilidade;ii) Antifrágil, envolvendo drawdowne antifragilidade e iii) Assimétrica, envolvendo ômega,assimetria e curtose.Os resultados da pesquisa mostram que a carteira Antifrágil trouxe ganhos superiores em relação à média de retornos dos demais modelos e sobretudo no mercado americano apresentou melhores condições de risco. Valorizar ativos que apresentem baixo drawdowne possuam relativa resiliência em períodos de turbulência se torna vantajoso na gestão de investimentos. Perder pouco em momentos de crise parece ser mais significativo que ganharem períodos de bonança e estabilidade. Dentre os algoritmos evolutivos empregados, o destaque fica com o NSGA3, que apresentou o melhor desempenho fora da amostra na otimização de carteiras multi objetivas. Profitability in investments has always been the desire of any investor, whether an individual or a company. In periods of declining interest rates in world economies, as well as the existence of an unstable performance of stock exchange assets due to recurringfinancial crises, such as the recent one caused by COVID-19, the profitability of Fixed and Variable Income assets is increasingly threatened.This context causes investors to increasingly search for assets that manage toreconcile profitability and a minimum of security in the composition of their portfolios. Itmakes the selection of asset portfolios undoubtedly one of the most challenging topics inthe Finance area.Since Markowitz’s initial contribution, several researchers have sought to studymethods, techniques, and models applicable to the topic. A crucial theoretical landmarkwas the proposal in the 1960s of the CAPM model, which has severe empirical flaws,although robust and consistent. Its empirical limitation is pointed out by the fact that themarket portfolio proxy idealized by the model does not take effect in practice. In additionto this, some premises as normal distribution and the quadratic utility function make theCAPM model less and less likely to succeed when implemented in practice.Therefore, new approaches have been presented, with a recent highlight for theOCAPM model, in which the Omega measure allows us to relax these CAPM premisesand represent the investor’s preference more effectively. Thus, new attributes that notonly mean and variance become relevant in the process of building new approaches to themodel, transforming the problem into a multiobjective approach.As OCAPM does not yet have a full empirical application, this research splits intothree parts: the first works with mono-objective optimization and seeks to empirically knowif the OCAPM model performs better than the CAPM model in the studied markets. Thesecond part works with the optimization of purely convex attributes. It aims to ratify theview that the mean and variance may not be sufficient to represent the entire distributionof return on assets and, therefore, investors’ decisions. The third part, the central part ofthe research, deals with the optimization of multiobjective portfolios involving convex andnon-convex attributes through the use of evolutionary algorithms.In this experiment, there are three multiobjective portfolios: i) Global, involvingthe optimization of the omega, mean, asymmetry, kurtosis, drawdown, and antifragilityattributes; ii) Antifragile, involving drawdown and antifragility and iii) Asymmetric,involving omega, skewness, and kurtosis.The results of the research show that the antifragile portfolio brought higher averagereturns than CAPM and OCAPM models, and the American market showed better riskconditions. Valuing assets that have a low drawdown and have relative resilience in times of turbulence becomes advantageous in investment management. Losing little in crisistimes seems to be more significant than winning in periods of calm and stability. Amongthe evolutionary algorithms used, the highlight is the NSGA3, which presented the bestperformance out of the sample in the optimization of multiobjective portfolios.
- Published
- 2020
25. An experimental analysis on ontology meta-matching
- Author
-
Ferranti, Nicolas, Souza, Jairo Francisco de, Soares, Stênio Sã Rosário Furtado, Borges, Carlos Cristiano Hasenclever, and Revoredo, Kate Cerqueira
- Subjects
Ontology meta-matching ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Meta-alinhamento de ontologias ,Ontologies ,Meta-heuristics ,Web semântica ,Aprendizado supervisionado ,Aprendizado não supervisionado ,Ontologias ,Meta-heurísticas ,Unsupervised learning ,Semantic web ,Supervised learning - Published
- 2020
26. Quantificação automática de microestruturas em aços via redes neurais convolucionais
- Author
-
Almeida, Cássio Danelon de, Fonseca, Leonardo Goliatt da, Lagares Júnior, Moisés Luiz, Borges, Carlos Cristiano Hasenclever, and Caldeira, Lecino
- Subjects
Machine learning ,Quantificação de microestruturas ,Convolutional neural networks ,Aprendizado de máquina ,Redes neurais convolucionais ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Microstructures quantification - Abstract
A análise microestrutural de um material permite a completa caracterização de suas propriedades mecânicas. Assim, o desempenho de um componente mecânico depende fortemente da identificação e quantificação de seus constituintes microestruturais. Atualmente, este processo ainda é feito manualmente por especialistas, tornando-o lento, muito trabalhoso e ineficiente. Estima-se que um especialista experiente leve em média 15 minutos por imagem para realizar a identificação e quantificação adequada de microconstituintes. Portanto, uma ferramenta computacional poderia ajudar bastante a melhorar o desempenho nesta tarefa. No entanto, uma vez que uma microestrutura pode ser uma combinação de diferentes fases ou constituintes com subestruturas complexas, sua quantificação automática pode ser muito difícil e, como resultado, há poucos trabalhos anteriores lidando com este problema. Redes Neurais Convolucionais são promissoras para este tipo de aplicação, já que recentemente esse tipo de rede tem alcançado grande performance em aplicações complexas de visão computacional. Neste trabalho, propomos uma quantificação automática de constituintes microestruturais de aço de baixo carbono via Redes Neurais Convolucionais. Nosso conjunto de dados consiste em 210 micrografias de aço de baixo carbono, e essa quantidade de imagens foi aumentada através de técnicas de aumento dos dados, resultando em um total de 720 amostras para treinamento. Com relação às arquiteturas de rede, foi utilizado as redes AlexNet e VGG16 treinadas do zero, e VGG19, Xception e InceptionV3 todas pré-treinadas. Os resultados mostraram que as CNNs podem quantificar microestruturas de forma muito eficaz. The microstructural analysis of a material allows the complete characterization of its mechanical properties. Thus, the performance of a mechanical component depends heavily on the identification and quantification of its microstructural constituents. Currently, this process is still done mostly manually by experts, making it slow, very labor-intensive and inefficient. It is estimated that an experienced expert takes 15 minutes per image to perform the proper identification and quantification of microconstituents. Therefore, a computational tool could greatly assist to improve the performance in this task. However, since a microstructure can be a combination of different phases or constituents with complex substructures, their automatic quantification can be very hard and, as a result, there are few previous works dealing with this problem. Convolutional Neural Networks are promising for this type of application since recently this type of network has achieved great performance in complex applications of computational vision. In this work, we propose an automatic quantification of microstructural constituents of low carbon steel via Convolutional Neural Networks. Our dataset consists of 210 micrographs of low carbon steel, and this amount of images was increased through data augmentation techniques, resulting in a total of 720 samples for training. With regard to network architectures, we used AlexNet and VGG16 both trained from scratch, and three pre-trained models: VGG19, InceptionV3, and Xception. The results showed that CNNs can quantify microstructures very effectively.
- Published
- 2020
27. Introdução de um índice de desempenho para a migração no modelo de ilhas
- Author
-
Pontes, Rodrigo da Cruz Alvarenga Fajardo, Fonseca, Leonardo Goliatt da, Borges, Carlos Cristiano Hasenclever, and Silva, Eduardo Krempser da
- Subjects
Índice de desempenho ,Performance index ,Modelo de ilhas ,Island model ,Evolutionary computation ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Computação evolucionista - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Nesse trabalho é acrescentado ao modelo de ilhas um índice de desempenho para avaliar o quão eficiente a ilha está sendo em resolver problemas de otimização sem restrições. As ilhas com índices maiores recebem mais indivíduos quando a migração ocorre. Na ocasião da aplicação do operador de migração, são selecionados alguns indivíduos para migrarem de uma determinada ilha. Esses indivíduos escolhem então suas ilhas de destino, ou se permanecem na ilha em que estão, com mais chances de escolher uma ilha que possui um alto índice de desempenho. As simulações realizadas indicam que o modelo proposto apresenta resultados semelhantes aos resultados gerados pelo melhor algoritmo indicado pela literatura para cada problema. Percebeu-se também que ao retirar o algoritmo mais eficiente do modelo, o modelo proposto consegue se adaptar e gerar solu¸c˜oes eficientes, utilizando-se das caracter´ısticas dos algoritmos restantes. In this work, a performance index was added to the island model, to evaluate how efficiently the population of an island is at solving a given problem. The islands with higher indexes receive more individuals when migration occurs. when the migration operator is used, a few individuals are chosen to make a decision: either go to another island or stay in the current island. The individual has a higher chance of choosing an island with a high performance index. After running the simulations, we noticed that the solutions of the new model were as good as the solutions from the best algorithm for each problem. We also noticed that even if we remove the most efficient algorithm from the model, it manages to adapt and still provide efficient solutions, making use of the characteristics from the remaining algorithms.
- Published
- 2020
28. Aplicação de técnicas de inteligência computacional para a previsão de cargas de aquecimento e resfriamento em edificações
- Author
-
Silva, Gisele Goulart Tavares da, Goliatt, Priscila Vanessa Zabala Capriles, Fonseca, Leonardo Goliatt da, Borges, Carlos Cristiano Hasenclever, and Barbosa, Sabrina andrade
- Subjects
Energy efficiency ,Seleção de modelos ,Extreme gradient boosting ,Heating and cooling loads ,Differential evolution ,Cargas de aquecimento e resfriamento ,Model selection ,Eficiência energética ,Evolução diferencial ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Devido às mudanças climáticas, até 2040 os edifícios podem vir a consumir 30% mais energia, sendo o desempenho energético o elemento chave para o alcance do desenvolvimento sustentável no setor da construção civil. Custos de projeto, dano ambiental e características construtivas como geometria, propriedades térmicas dos materiais e condições climáticas são necessárias para avaliar a performance energética de uma edificação. Uma forma de solucionar este problema de avaliação é a aplicação de Métodos de Aprendizado de Máquina para estimar uma resposta a partir de uma entrada de dados. O uso de Métodos de Aprendizado de Máquina pode vir a auxiliar especialistas da área da construção civil na análise de cenários ainda na fase inicial do projeto e trazer economia para a edificação. O presente trabalho avalia a aplicação dos modelos Elastic Net, Máquina de Aprendizado Extremo e Extreme Gradient Boosting para a previsão das cargas de aquecimento e resfriamento em edificações residenciais. Duas bases de dados são utilizadas para avaliar o desempenho dos métodos, contendo variáveis geométricas de entrada e duas variáveis térmicas de saída. Para a seleção de parâmetros dos métodos, o algoritmo de otimização Evolução Diferencial foi aplicado, com o objetivo de encontrar os conjuntos de hiperparâmetros que reforcem as capacidades preditivas dos modelos. As comparações dos resultados ocorreram através do uso das métricas MAE, MAPE, RMSE e R2. Os resultados mostraram que o método Extreme Gradient Boosting obteve uma melhor performance dentre os métodos testados e também em comparação com a literatura, apresentando os menores valores para as métricas de erro e diferença significativa nos testes estatísticos. Além disso, o algoritmo de Evolução Diferencial se mostrou eficaz para a otimização dos parâmetros dos modelos testados, podendo vir a ser aplicado também a outros modelos da literatura. Dessa forma, a combinação dos métodos Evolução Diferencial e Extreme Gradient Boosting pode vir a ser aplicada na previsão das cargas térmicas em edificações, auxiliando em projetos que visem economia de energia e sustentabilidade. Due to climate change, by 2040 buildings may consume 20% more energy, with energy performance being the key element for achieving sustainable development in the building sector. Design costs, environmental damage and constructive characteristics, such as geometry, thermal properties of materials and weather conditions, are necessary to assess the energy performance of a building. One way to solve this problem is to apply Machine Learning Methods to estimate a response from data. The use of Machine Learning Methods can assist construction specialists in scenario analysis at an early stage of the project and bring savings to the building. The present work evaluates the application of the Elastic Net, Extreme Learning Machine and Extreme Gradient Boosting models for the forecasting of heating and cooling loads in residential buildings. Two databases are used to evaluate the performance of the methods, including geometric input variables and two thermal output variables. For the selection of method parameters, the Differential Evolution optimization algorithm was applied to find the sets of hyperparameters that reinforce the predictive capabilities of the models. Comparisons of the results were made using the MAE, MAPE, RMSE and R2 metrics. The results showed that the Extreme Gradient Boosting achieved a better performance among the tested methods and also compared to the literature, presenting the lowest values for the error metrics and significant difference in the statistical tests. In addition, the Differential Evolution algorithm showed to be effective for the optimization of the parameters of the tested models, and may also be applied to other models in the literature. Thus, a combination of Differential Evolution and Extreme Gradient Boosting methods can be applied to predict thermal loads in buildings, assisting in projects that aim at energy saving and sustainability.
- Published
- 2019
29. Uma busca ordenada branch-and-bound para solução do problema de classificação semissupervisionada usando classificadores de larga margem
- Author
-
Araújo, Hygor Xavier, Villela, Saulo Moraes, Neto, Raul Fonseca, Borges, Carlos Cristiano Hasenclever, and Leite, Saul de Castro
- Subjects
Aprendizado semissupervisionado ,Support vector machine ,Máquina de vetores suporte ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Semi-supervised learning ,Best-first search ,Separação de baixa densidade ,Transductive inference ,Low density separation ,Inferência transdutiva ,Busca ordenada admissível - Abstract
Para a solução do problema de classificação através da inferência transdutiva, é necessário encontrar os rótulos de um conjunto previamente definido. No entanto, calcular a melhor rotulação dessas amostras é um problema combinatorial NP-difícil. Neste trabalho, um método que combina os métodos de busca branch-and-bound e best-first é proposto para resolver o problema de rotulação buscando pela solução ótima. Para orientar a busca, foram usados classificadores baseados em margem, como a Máquina de Vetores Suporte (Support Vector Machine – SVM), e uma função de avaliação monótona com base nos valores de margem deste classificador, o que leva á solução globalmente ótima. Para lidar com o alto custo computacional da solução de máxima margem, também foi proposta uma solução heurística que é usada como um limite inferior sendo computado em tempo constante através da solução de um problema de classificação com o SVM. Comparando o método proposto com a Máquina de Vetores Suporte Transdutiva (Transductive Support Vector Machine – TSVM), os resultados mostraram melhorias significativas no tempo de execução e valores superiores de margem. Além disso, duas novas heurísticas são apresentadas para reduzir o número de estados explorados e acelerar a exploração do espaço de busca. O método e suas heurísticas são avaliados e comparados ao SVM e ao TSVM, mostrando resultados competitivos. To solve the classification problem through the transductive inference, it is necessary to find the labels of a previously defined set. However, computing the best labeling of these samples is an NP-hard combinatorial problem. In this work, a method that combines the branch-and-bound and the best-first search methods is proposed to solve the labeling problem by searching for the optimal solution. To guide the search, margin-based classifiers, such as the Support Vector Machine (SVM), and a monotone evaluation function based on the margin values of this classifier were used, leading to the optimal global solution. To deal with the high computational cost of the maximum margin solution, we also propose a heuristic solution that is used as a lower bound, being computed in constant time by solving a classification problem with SVM. Comparing our method with the Transductive Support Vector Machine (TSVM), the results showed significant improvements in the runtime and higher margin values. Furthermore, two new heuristics are presented to reduce the number of explored states and speed up the exploration of the search space. The method and its heuristics are evaluated and compared to SVM and TSVM, showing competitive results.
- Published
- 2019
30. Um algoritmo evolutivo baseado em heurísticas construtivas para problemas de agrupamento aplicado à PCR multiplex
- Author
-
Silva, Aluísio Cardoso, Borges, Carlos Cristiano Hasenclever, Ribeiro, João Batista, Arbex, Wagner Antônio, and Oliveira, Fabrízzio Condé de
- Subjects
Heurísticas construtivas ,Bin packing problem ,Algoritmo genético ,Problema do empacotamento ,Genetic algorithm ,Grouping problems ,PCR multiplex ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Building heuristics ,Multiplex PCR ,Problemas de agrupamento - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior A reação em cadeia da polimerase (Polymerase Chain Reaction, PCR) é um dos métodos de biologia molecular mais utilizados em laboratórios clínicos e de pesquisa. Com a PCR é possível gerar bilhões de cópias de um determinado fragmento de DNA em um curto período de tempo. O potencial dessa reação e de suas variantes é explorado em um vasto conjunto de aplicações inseridas em diferentes campos científicos, motivando a pesquisa direcionada à otimização dos ensaios de PCR. A PCR multiplex consiste em uma variação da PCR convencional que permite a amplificação de múltiplos fragmentos específicos de DNA em um mesmo tubo, propiciando economia de tempo, custos e principalmente amostras do material genético. O projeto da reação é especialmente desafiador na medida em que exige a difícil tarefa de agrupar as amplificações de acordo com a compatibilidade dos componentes envolvidos. Geralmente, métodos in silico para essa reação são baseados no problema combinatório decorrente do agrupamento dos pares de primers utilizados, que consistem em sequências curtas de DNA sintetizadas para delimitar especificamente cada fragmento alvo. Neste trabalho, foi desenvolvido um modelo computacional para o problema de agrupamento da PCR multiplex, visando uma abordagem que compreenda, simultaneamente, aspectos determinantes para a aplicabilidade do modelo e a otimização eficiente da reação, a saber: o tratamento de problemas que exijam múltiplos tubos de PCR multiplex para a cobertura dos alvos; a minimização do número de tubos necessários; a utilização de uma estratégia de busca estocástica em oposição a algoritmos determinísticos; o desacoplamento do método de busca em relação ao conjunto de medidas de compatibilidade adotadas; e a capacidade de tratar o cenário mais complexo em que duas ou mais opções pares de primers são fornecidas por amplificação. O modelo é composto pela adaptação de um algoritmo evolutivo à busca de permutações dos elementos e uma heurística construtiva responsável pela decodificação das soluções mapeadas. Além disso, um processo de restrição do espaço de busca é implementado visando aprimorar o desempenho da busca. A construção da proposta foi inspirada em métodos desenvolvidos para a solução do conhecido problema do empacotamento, o que permitiu uma avaliação inicial baseada em benchmarks amplamente explorados na literatura. Nesse caso, a análise comparativa apresentada evidencia a competitividade do modelo desenvolvido diante dos algoritmos referenciados. Posteriormente, o modelo foi adaptado para a otimização da PCR multiplex. Os resultados de experimentos exploratórios realizados indicam a escalabilidade do modelo e ressaltam a relevante contribuição decorrente da amplitude da abordagem. Finalmente, é apresentada uma análise experimental comparativa com o programa MultiPLX, que baseia-se em uma formulação semelhante do problema. Os resultados superiores obtidos pelo algoritmo proposto reforçam a aplicabilidade do modelo desenvolvido. Polymerase chain reaction (PCR) is one of the most widely used molecular biology methods in clinical and research laboratories. Through it, it is possible to generate billions of copies of a given DNA fragment in a short period of time. The potential of this reaction and its variants is explored in a wide range of applications in different scientific fields, which motivates research aimed at optimizing PCR assays. Multiplex PCR is a variation of conventional PCR that allows the amplification of multiple specific DNA fragments in the same assay, saving time, costs, and especially samples of genetic material. Designing this reaction is especially challenging because it requires the difficult task of efficiently grouping the amplifications according to the compatibility of their components. This task is usually abstracted to a combinatorial problem about grouping the primer pairs used, which consist of short sequences of DNA synthesized to delimit specifically each target fragment. In this work, a computational model was developed to solve the multiplex PCR grouping problem aiming at an approach capable of dealing with interests frequently approached in isolation by other works. They are: the use of a robust computational strategy as opposed to deterministic algorithms; the applicability of the model in contexts requiring grouping of amplifications in multiple multiplex PCR tubes; minimizing the number of tubes required; the dissociation of the search method from the set of compatibility measures adopted; and the ability to handle the more complex scenario in which two or more options of primer pairs are provided by amplification, expanding the universe of possibilities and potentially the quality of the results. The construction of the model was inspired by methods previously applied to the known bin packing problem. Thus, an evolutionary algorithm is adapted to the search for specific element permutations aiming at the subsequent decoding of the solutions through a building heuristic. Besides, is presented a search space restriction process that allowed to improve the optimization performance. The approach was initially adapted to the bin packing problem, which allowed an evaluation based on benchmarks widely explored in the literature. In this case, the comparative analysis presented points to the competitiveness of the developed model in relation to the referenced algorithms. Subsequently, the proposal was adapted to the multiplex PCR problem. The results of exploratory experiments conducted indicate the scalability of the model and highlight the relevant contribution arising from the breadth of the approach. Finally, it is presented a comparative experimental analysis with the MultiPLX program, which is available for multiplex PCR design and is based on a similar problem formulation. The results obtained by the developed algorithm were superior in the three considered cases, reinforcing the applicability of the proposed model.
- Published
- 2019
31. Uma metodologia para detecção de interações epistáticas em estudos de associação
- Author
-
Ribeira, Igor Magalhães, Borges, Carlos Cristiano Hasenclever, Arbex, Wagner Antonio, Franco, Gloria Regina, Oliveira, Fabrízzio Condé, Fonseca Neto, Raul, and Bernardino, Heder Soares
- Subjects
Computational intelligence ,Programação genética ,Bioinformatics ,Aprendizagem de máquina ,Machine learning ,GWAS ,Bioinformática ,Genetic programming ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Inteligência computacional - Abstract
Estudos de associação genômica ampla (GWAS) buscam identi car marcadores moleculares do tipo SNP que in uenciam um determinado fenótipo de interesse, como por exemplo características especí cas ou doenças. Os SNPs são responsáveis pela formação de alelos sendo esse tipo de marcador utilizado para identi car um lócus que pode representar uma correlação próxima a um gene ou a própria mutação. Para determinar os mecanismos genéticos que in uenciam o fenótipo são utilizados milhares ou até centenas de milhares de SNPs que são genotipados à partir de dois grupos de indivíduos: os que expressam e os que não expressam o fenótipo respectivamente, estudo conhecido como caso-controle. A causa de algumas doenças complexas como câncer cervical, leucemia, diabetes do tipo I e II envolvem múltiplos genes que co-atuam para expressar esse fenótipo, essa interação é denominada de epistasia. Nesse tipo de interação um gene pode inibir ou potencializar o efeitos dos demais. O entendimento adequado desse processo passa pela determinação do mapeamento não-linear entre o genótipo e o fenótipo. Além da complexidade de encontrar os SNPs causais envolvidos em interações epistáticas, a maior parte das doenças complexas apresentam baixa a herdabilidade. Desta forma, quanto menor a herdabilidade, maior a in uência de fatores ambientais e menor a explicação genotípica do fenótipo. A maior parte dos estudos de GWAS utilizam testes estatísticos de hipóteses com valor-p de cada SNP presente no conjunto de dados, sendo estes estudos frequentemente baseados em modelos de regressão. Porém, esse tipo de modelo é e ciente para capturar apenas efeitos marginais ou efeitos de ações gênicas aditivas, ou seja, casos onde a relação genótipo-fenótipo é linear. Neste trabalho é proposta uma metodologia capaz de encontrar relações não lineares entre genótipo-fenótipo em bases de dados com grandes quantidades de SNPs. A metodologia também foi desenvolvida para lidar com diferentes níveis de herdabilidade. O modelo proposto é composto de três etapas distintas. A primeira etapa é responsável pela identi cação e seleção de subgrupos de SNPs de interesse. Assim, o conjunto de dados é particionado em pequenos grupos de tamanho xo e todas as possíveis permutações intra-grupos são classi cadas através de validação cruzada aplicada em um método de comitê de classi cadores do tipo boosting. Os grupos que apresentarem marcadores com maior potencial explicativo são selecionados para a fase posterior. Na segunda etapa, um processo de ranqueamento dos marcadores SNPs selecionados a partir dos subgrupos de nidos na primeira etapa, um modelo de oresta randômica com potencial para capturar a relevância dos SNPs avaliados é aplicado nesta fase do processo. Na terceira etapa, o ranqueamento dos marcadores serve como referência para a geração de uma população de marcadores, que servirá de base para a aplicação de um método evolucionista de programação genética que tem como objetivo determinar possíveis associações entre os SNPs ranqueados. Assim, ao nal do processo, são apresentadas as relações genotípicas que expressam o fenótipo de interesse a partir de interações epistáticas, baseando-se na interpretabilidade das regras geradas. A metodologia proposta foi comparada com outros modelos existentes na literatura, inclusive com o método referência conhecido como MDR, uma variação do MDR com um método de inicializa ção conhecido como ReliefF e o GPAS. Foram realizados diversos experimentos com bases de dados simuladas, dentre eles, conjuntos de dados compostos de 100, 1000 e 10000 marcadores, com diferentes níveis de herdabilidade variando de 0:4 e 0:1 e MAF de 0:4 e 0:2. O método foi analisado em dados que apresentam epistasia sem efeito principal em 70 modelos conhecidos na literatura com herdabilidade variando de 0:4 até 0:01. Também foram executados experimentos com interações entre mais de dois SNPs e experimentos com conjuntos de dados com um número expressivo de SNPs. Os resultados indicam que a utilização da metodologia é promissora se comparada com outros modelos na literatura de GWAS. Genomic Wide Association Studies (GWAS) aims to identify SNPs that in uence a particular phenotype, such as speci c characteristics or diseases. SNPs are responsible for allele formation and this markers are used to identify a lócus that may represent a close correlation to a gene or the mutation itself. To determine the genetic mechanisms that in uence the phenotype are used thousands or even hundreds of thousands of SNPs that are genotyped from two groups of individuals: case and control. The reason behind some complex diseases such as cervical cancer, leukemia, type I and II diabetes involve multiple genes combining to express this phenotype. This interaction is known as epistasis. In epistasis a gene can inhibit or potentiate the e ects of the other. From the statistical point of view, the objective is to nd a non-linear mapping between the genotype and the phenotype. In addition to the complexity of nding causal SNPs involved in epistatic interactions, most complex diseases have low heritability. Thus, the lower the heritability, the greater the in uence of environmental factors and the less the genotype explanation of the phenotype. Most of GWAS use statistical tests of p-value hypotheses of each SNP present in the data set. These studies are often based on regression models. However, this type of model is e cient to capture only marginal e ects or e ects of additive gene actions. Cases where the genotype-phenotype relationship is linear. This work proposes a methodology capable of nding non-linear relationships between genotype-phenotype in data sets with large amounts of SNPs. The approach was also developed to deal with di erent levels of heritability. The proposed model is composed of three distinct steps. The rst step is responsible for identifying and selecting subgroups of signi cant SNPs. The dataset is partitioned into small xed-size groups and all possible permutations of each group are sorted by cross-validation by a ensemble method of boosting classi ers. The best groups are selected for the later stage. In the second step a process of ranking the selected SNPs from the subgroups de ned in the rst step is performed. A random forest model with potential to capture the relevance of the SNPs evaluated is applied at this stage of the process. The ranking of markers serves as a reference for the generation of a population markers, which will serve as the basis for the application of an evolutionary method of genetic programming that aims to determine possible associations between the SNPs ranked. At the end of the process, the genotypic relations that express the phenotype of interest from epistatic interactions are presented, based on the interpretability of the generated rules. The proposed methodology was compared with other models in the literature, including the reference method known as MDR, a variation of the MDR with an initialization method known as ReliefF and GPAS. Several experiments were carried out with simulated datasets, including data sets composed of 100, 1000 and 10000 SNPs with di erent levels of heritability varying from 0:4 to 0:1 and MAF of 0:4 and 0:2. The method was analyzed in data presenting epistasis without main e ect in 70 models known in the literature with heritability ranging from 0:4 to 0:01. We also performed experiments with interactions between more than two SNPs and experiments with data sets that present an expressive number of SNPs. The results denote the use of the methodology is promising compared to other models in GWAS literature.
- Published
- 2019
32. Avaliação de medidas de similaridade de matrizes kernel aplicadas em classicadores de larga margem para seleção de modelos
- Author
-
Faustino, Paulo Roberto do Carmo, Villela, Saulo Moraes, Borges, Carlos Cristiano Hasenclever, Fonseca Neto, Raul, and Xavier, Vinicius Layter
- Subjects
Classificadores de larga margem ,Seleção de características ,Seleção de hiperparâmetros ,Large margin classifiers ,Seleção de modelos ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Feature selection ,Model selection ,Medidas de similaridade ,Hyper-parameter selection ,Similarity measures - Abstract
A proposta deste trabalho é investigar o comportamento de medidas de similaridade, como Kernel Target Alignment (KTA) e Feature Space-based Kernel Matrix Evaluation Measure (FSM), e observar suas interações com um classificador de larga margem, construir um modelo de seleção de modelos, implementando seus componentes separadamente: um modelo de seleção de hiperparâmetros e um modelo de seleção de características. Os métodos KTA e FSM indicam o grau de similaridades entre matrizes kernel, retornando um valor de alinhamento. Este alinhamento é utilizando na construção dos modelos de seleção utilizando o método Simulated Annealing. São apresentados testes iniciais indicando o desempenho das medidas de similaridade, para a escolha adequada de qual medida será acoplada ao modelo de seleção proposto. Em seguida são descritos, separadamente, os modelos propostos de seleção, bem como seus resultados comparativos. The purpose of this work is to investigate the behavior of similarity measurements, i.e., Kernel Target Alignment (KTA) and Feature Space-based Kernel Matrix Evaluation Measure (FSM) in relation to their correlation with a large margin classifier - support vector machine, in order to propose and implement a model selection method, constructed by means of two steps: a hyper-parameter selection model and a model for feature selection. The KTA and FSM methods indicate the degree of similarity between kernel matrices determined by an alignment measure. This value of alignment is used as reference for a wrapper model selection construction using the simulated anneling as optimizer. Initial tests are depicted to verify the similarity measurements performance in relation to a large margin classi er aiming to identify the better measure to be adopted in the proposed selection model. Following, the described selection model components are tested separately and their results are exhaustively analyzed.
- Published
- 2019
33. Avaliação da influência da temperatura no dano do concreto via modelagem computacional
- Author
-
Assis, Lahis Souza de, Farage, Michèle Cristina Resende, Bastos, Flávia de Souza, Borges, Carlos Cristiano Hasenclever, Fonseca, Leonardo Goliatt da, and Pitangueira, Roque Luiz da Silva
- Subjects
Damage ,Dano ,Thermomechanical ,Concreto ,Termomecânico ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] ,Concrete - Abstract
CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico O concreto é um material difundido e utilizado mundialmente sobretudo devido ao seu custo relativamente baixo, a não exigência de mão de obra com alto nível de qualificação para a sua obtenção, a possibilidade de ser moldado em fôrmas quando em estado fresco e a sua relativa resistência ao fogo. Contudo, a previsão do comportamento deste material, mormente quando submetido a determinadas condições de carregamento e temperatura é bastante complexa, uma vez que nesses casos ocorrem alterações microestruturais que refletem em sua estrutura macroscópica. Nesse contexto, surge a necessidade da utilização de ferramentas computacionais que possibilitem a simulação de estruturas com suas solicitações impostas. Buscando contribuir com este cenário, pretende-se neste trabalho simular o comportamento termomecânico do concreto quando o mesmo é exposto a gradientes de temperatura elevados, e entender de que forma o processo de degradação do material ocorre nesses casos, utilizando dados experimentais fornecidos pela Universidade Cergy-Pontoise, na França. Pretende-se ainda verificar de que forma a granulometria dos agregados influencia em tal processo. Para isso, será utilizado o programa comercial de elementos finitos Abaqus que permite ao usuário, através do recurso das subrotinas, descrever modelos constitutivos específicos de materiais, incorporando ao mesmo requisitos de um problema particular. Concrete is a diffused material used worldwide mainly because of its relatively low cost, not requiring labor with a high level of qualification for its obtaining, the possibility of being mol-ded in forms when in fresh state and their relative fire resistance. However, the prediction of the behavior of this material, especially when subjected to certain conditions of loading and tem-perature is quite complex, since in these cases microstructural changes occur that reflect in its macroscopic structure. In this context, it is necessary to use computational tools that allow the simulation of structures with their imposed requests. In order to contribute to this scenario, this work intends to simulate the thermomechanical behavior of the concrete when it is exposed to high temperature gradients, and to understand how the degradation process of the material oc-curs in these cases, using experimental data provided by Cergy-Pontoise University, in France. It is also intended to verify how the granulometry of the aggregates influences this process. For this, we will use the Abaqus finite element commercial program, which allows the user, through the use of the subroutines, to describe specific constitutive models of materials, incorporating the requirements of a particular problem.
- Published
- 2019
34. Acelerômetro sem fio de baixo custo para monitoramento dinâmico estrutural
- Author
-
Toledo Júnior, Emerson Galdino, Cury, Alexandre Abrahão, Landre Junior, Jánes, Borges, Carlos Cristiano Hasenclever, Ainsworth Junior, George Oliveira, Neves, Francisco de Assis das, Landre Júnior, Jánes, and Ainsworth Júnior, George Oliveira
- Subjects
Dinâmica das estruturas ,Baixo custo ,Dinâmica de estruturas ,Acelerômetro sem fio ,SHM ,ENGENHARIAS::ENGENHARIA CIVIL [CNPQ] - Abstract
Submitted by Renata Lopes (renatasil82@gmail.com) on 2018-12-18T11:00:52Z No. of bitstreams: 1 emersongaldinotoledojunior.pdf: 10226139 bytes, checksum: 182f137873485c4d9985eff79d4acaf5 (MD5) Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-12-18T12:59:07Z (GMT) No. of bitstreams: 1 emersongaldinotoledojunior.pdf: 10226139 bytes, checksum: 182f137873485c4d9985eff79d4acaf5 (MD5) Made available in DSpace on 2018-12-18T12:59:07Z (GMT). No. of bitstreams: 1 emersongaldinotoledojunior.pdf: 10226139 bytes, checksum: 182f137873485c4d9985eff79d4acaf5 (MD5) Previous issue date: 2018-11-05 O Monitoramento de Integridade Estrutural (MIE) de estruturas civis é de grande importância prática para a engenharia. Diversas pesquisas têm sido realizadas, como na Ponte Rio-Niterói no Brasil, na antiga ponte Z24 na Suíça, na ponte Millau na França, entre diversas outras. De fato, algumas estruturas são monitoradas 24 horas por dia, 7 dias por semana, para fornecer medições dinâmicas que podem ser utilizadas para a identificação de problemas estruturais, tais como a presença de fissuras, vibração excessiva, identificação de danos, ou mesmo para efetuar análises de ciclo de vida. Sistemas de MIE podem fornecer avaliações automatizados da saúde estrutural através do processamento de dados provenientes dos sensores ligados à estrutura. O MIE frequentemente utiliza sistemas com fio, que geralmente são caros devido à necessidade de manutenção contínua, e nem sempre adequados para a detecção de estruturas remotas. Por outro lado, os sistemas comerciais sem fio muitas vezes exigem altos investimentos iniciais de implementação. Neste sentido, este trabalho propõe o desenvolvimento de um sistema de sensores que utiliza o computador de placa única Raspberry Pi, o que reduz significativamente os custos de implementação mantendo a integridade dos dados. A comunicação sem fio é realizada em tempo real através de uma rede sem fio local, responsável por enviar e receber dados. O sistema proposto é validado comparando seus resultados com um sistema comercial com fio, através de ensaios experimentais realizados em laboratório com shaker em frequências e amplitudes moduladas. Os resultados obtidos demonstram a viabilidade do sistema proposto para uso em aplicações de monitoramento dinâmico de estruturas. Structural Health Monitoring (SHM) of civil infrastructures has great practical importance for engineers. Several researches have been carried out, such as the Rio-Niterói Bridge in Brazil, the former Z24 Bridge in Switzerland, the Millau Bridge in France, among others. In fact, some structures are monitored 24/7 to supply dynamic measurements that can be used for the identification of structural problems, such as the presence of cracks, excessive vibration, damage identification or even to perform life cycle analyses. SHM systems may provide automated assessments of structural health by processing data from sensors attached to the structure. SHM often uses wired systems, which are usually expensive due to the necessity of continuous maintenance and are not always suitable for sensing remote structures. On the other hand, commercial wireless systems often demand high implementation costs. In this sense, this paper proposes the development of a sensing system that uses the single board computer Raspberry Pi, which significantly reduces implementation costs while keeping data’s integrity. The wireless communication is performed in real time through a local wireless network, responsible for sending and receiving data. The proposed system is validated by comparing its results with a commercial wired system through an experimental application performed in laboratory using a shaker.
- Published
- 2018
35. Análise numérica e computacional de sistemas de controle de vibrações estruturais induzidas pela ação do vento
- Author
-
Ribeiro, Marcelo, Barbosa, Flávio de Souza, Hallak, Patricia Habib, Carvalho, Graciela Nora Doz de, Avila, Suzana Moreira, Cury, Alexandre Abrahão, and Borges, Carlos Cristiano Hasenclever
- Subjects
Controle ativo ,Magne-torreológico ,Fluidodinâmica computacional ,Vibration control system ,Wind induced vibration ,Vibrações induzidas pelo vento ,Controle de vibrações ,Computational fluid dynamics ,Active control ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Controle semiativo - Abstract
A construção de edifícios, especialmente os mais esbeltos, requer uma análise apurada do comportamento dinâmico da estrutura. Tais estruturas estão sujeitas a movimentos induzidos pelo vento, entre outras forças, o que pode causar efeitos indesejáveis como desconforto para os usuários ou até mesmo causar o colapso estrutural. Neste cenário, os sistemas de controle estrutural são utilizados a fim de atenuar a vibração excessiva. Dentre estes sistemas, aqueles que utilizam respostas dinâmicas das estruturas para a determinação das forças de controle, de um modo geral, quando adequa-damente construídos, têm um desempenho satisfatório. Neste trabalho apresenta-se uma proposta para análise numérica de um modelo de sistema estrutural sujeito a forças dinâmicas de vento, onde as forças de excitação são obtidas por análise da fluidodinâmica computacional (CFD) bidimensional com modelo de turbulência LES e modelo de sub-malha implícito. As vibrações são controladas por meio de sistema de controle ativo (Controle Ótimo) e sistema de controle semiativo (Magnetorreológico). The construction of buildings, especially the most slender, requires a detailed analysis of the structural dynamic behavior. Such structures are subject to movements induced by wind and other forces, which can cause undesirable effects such as discomfort for the user or even cause a structural collapse. In this scenario, control systems are used to mitigate excessive vibration. Among these systems, those using dynamic responses of the structures to determine control forces, in general, when properly constructed, have satisfactory performance as control systems with feedback. In this work, a numerical analysis of a structural model subject to dynamic wind forces has been proposed, where the excitation forces are obtained by bidimensional computa-tional fluid dynamics (CFD) analysis with LES turbulence model with implicit sub-grid model. The vibrations are controled by a active system (Optimal Control), and semi-active system (magnetorheological).
- Published
- 2018
36. Hibridização de Programação Genética Gramatical com estratégia evolutiva e evolução diferencial aplicada a problemas de regressão simbólica e de classificação
- Author
-
Motta, Flavio Andrade Amaral, Bernardino, Heder Soares, Oliveira, Itamar Leite de, Borges, Carlos Cristiano Hasenclever, Porto, Luismar Marques, and Angelo, Jaqueline da Silva
- Subjects
Hibrydsm ,Evolution strategies ,Grammar-based Genetic Programming ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Estratégia evolutiva ,Differential evolution ,Hibridismo ,Evolução diferencial ,Programação Genética Gramatical - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais A Regressão simbólica consiste na manipulação de expressões matemáticas para encon-trar uma função que melhor representa um conjunto de dados. Já problemas de classifica-ção podem ser entendidos como o efeito de dispor por classes um conjunto de elementos. Técnicas computacionais foram desenvolvidas para resolver esses tipos de problema, a Programação Genética (PG) é uma delas. Uma vantagem dessa técnica é o fato de produ-zir modelos simbólicos que são possíveis de serem interpretados. A Programação Genética Gramatical (PGG) surgiu com o uso de gramáticas formais para auxiliar a busca desses modelos. Um problema da PGG é o ajuste de coeficientes, já que apenas valores gerados pela gramática podem aparecer dentro de um modelo. Diferentes formas de hibridização de PGG são utilizadas neste trabalho para ajuste de coeficientes. Evolução Diferencial (ED) e Estratégia Evolutiva (EE) são técnicas de otimização contínua e o objetivo deste trabalho é de gerar melhores soluções do que uma PGG padrão, ao utilizar essas técnicas para realizar o ajuste dos coeficientes. Foram testados 23 problemas de regressão simbó-lica e 7 de classificação para comparar o desempenho das técnicas propostas com a PGG padrão. Foram encontrados resultados promissores quando comparados a PGG na sua forma padrão. Symbolic regression is the manipulation of mathematical expressions to find a function that best represents a dataset. Classification problems can be understood as the effect of arranging by classes a set of elements. Computational techniques were developed to solve these types of problems, Genetic Programming (GP) is one of them. One advantage of this technique is that it produces symbolic models that are easy to interpret. Grammar-based Genetic Programming (GGP) came up with the use of formal grammars to aid in the search for these models. One GGP problem is the coefficient adjustment as only va-lues from the grammar can appear within a model. Different hybridization forms of GGP are used in this work to solve this problem. Differential Evolution (DE) and Evolution Strategy (ES) are continuous optimization techniques, the objective here is to generate better solutions than a standard GGP, by the usage of these techniques to perform the adjustment of the coefficients. We tested 23 symbolic regression and 7 classification pro-blems to compare the performance of the proposed techniques with the standard GGP. Promising results compared to standard GGP were found.
- Published
- 2018
37. Acoplamento de interface Iterativo MEF—MEFE para problemas do tipo sólido-fluido no domínio do tempo
- Author
-
Silva, Jonathan Esteban Arroyo, Loureiro, Felipe dos Santos, Borges, Carlos Cristiano Hasenclever, Rocha, Bernardo Martins, Di Bartolo, Leandro, and Peters, Franciane Conceição
- Subjects
Acoustic Fluid ,MEF ,FEM ,Elastodynamic ,Spectral Ele-ments ,Iterative Coupling ,Fluido Acústico ,Ele-mentos Espectrais ,Acoplamento Iterativo ,Elastodinâmica ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
Submitted by Renata Lopes (renatasil82@gmail.com) on 2018-06-29T15:51:42Z No. of bitstreams: 0 Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-07-03T15:49:10Z (GMT) No. of bitstreams: 0 Made available in DSpace on 2018-07-03T15:49:10Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-03-27 CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Neste trabalho será proposto um método de acoplamento iterativo de interface com um esquema de subcycling no tempo eficiente e preciso. Este será aplicado a pro-blemas do tipo sólido-fluido discretizados, respectivamente, pelos métodos dos elementos finitos clássico (MEF) e espectral (MEFE). Adicionalmente, será proposta uma melhoria no esquema de subcycling, de modo que para convergir não sejam necessários métodos de relaxação. Aplicando o MEFE em subdomínios com geometrias pouco distorcidas, pode-se usufruir da alta precisão numérica com baixo custo de armazenamento oferecidos pelo método ao mesmo tempo em que é possível aplicar o MEF aos subdomínios com geometrias complexas, acrescentando versatilidade ao método. Diferentes exemplos nu-méricos são apresentados e analisados para demonstrar a precisão e a potencialidade das formulações numéricas propostas. In this work, an iterative interface coupling method with an efficient and precise time subcycling scheme is proposed. It is applied to solid-fluid type problems discretized respectively by classical finite element method (FEM) and spectral finite element method (SFEM), additionally, an improvement in the subcycling scheme is proposed so as not to require relaxation methods to converge. Applying the SFEM in subdomains with low distorted geometries one can take advantage of the high numerical precision with low cost of storage offered by the method, while it is possible to apply the FEM in subdomains with complex geometries, adding versatility to the method. Many numerical examples are presented and analyzed here to show the accuracy and potentiality of the proposed numerical formulations.
- Published
- 2018
38. Seleção e avaliação de marcadores moleculares com grande informatividade para a predição do valor genômico
- Author
-
Silva, Bruno Zonovelli da, Borges, Carlos Cristiano Hasenclever, Arbex, Wagner Antonio, Nascimento, Moyses, Costa, Claudio Napolis, Fonseca Neto, Raul, and Villela, Saulo Moraes
- Subjects
Seleção genômica ,Aprendizado de máquina ,Bioinformática ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Inteligência computacional - Abstract
A seleção dos melhores indivíduos busca aprimorar uma característica ao longo do tempo. O uso de dados genômicos deram origem ao que é conhecido como seleção genômica. A construção de modelos genéticos eficientes para a avaliação do mérito de um indivíduo é complexa e no geral se baseia no pressuposto da herança aditiva. Entretanto, na presença de variabilidade genética não-aditiva os modelos podem não comportar toda a complexidade de possíveis interações entre os genes, a epistasia. O S4GS é um simulador de dados genômicos que busca mimetizar características importantes para o estudo em seleção genômica como, desequilíbrio de ligação, inseminação artificial e cruzamento geracional. Outro fator relevante é a capacidade de simular diferentes ações gênicas e interações em múltiplos níveis. Sendo utilizado na simulação de 8 cenários de estudo, com destaque para o cenário 8 que procurou simular o cruzamento do Girolando opção B. O método proposto consiste em duas etapas: seleção e a avaliação, gerando uma combinação ótima para o aumento de acurácia. Os algoritmos escolhidos para a etapa de seleção de atributos foram: o FFS; O SMS; e a CART como uma alternativa rápida. A etapa de avaliação utilizou duas técnicas clássicas o RR-BLUP e o BLASSO como referência, e o SVR. A associação das técnicas utilizadas na etapa de seleção e avaliação levam a três modelos: SVR + FFS; SVR + SMS; e SVR + CART. Nos resultados obtidos a seleção de atributos se mostrou um importante recurso no aumento da acurácia, em todos os 8 cenários. O processo de simulação possibilitou a obtenção de dados até a 15a geração permitindo treinar os modelos na 1a ou 4a e aplicá-los nas subsequentes. A seleção de atributos aumentou de forma significativa a acurácia dos modelos utilizando dados genômicos, com exceção para o conjunto com amostra pequena e em dados totalmente lineares. O método proposto conseguiu para as bases com as características descristas serem eficientes, gerando um aumento significativo na correlação final. The animal breeding seeks to maximize of a characteristic over time. The use of genomic data gave rise that we know as genomic selection. The made of efficient models for evaluate the merit of an animal is complex and generally is based on the assumption of additive genetic effects. However, in the presence of non-additive genetic variability, the models may not contain all the complexity of possible interactions between the genes, the epistasis. The S4GS is a genomic data simulator developed in this thesis, which seeks to mimic important features for the study in genomic selection such as linkage disequilibrium, artificial insemination and crossing over. Another relevant factor is the ability to simulate different gene actions and interactions at multiple levels. It was used in the creation of 8 study scenarios, highlighting the scenario 8 that sought to simulate the Girolando option B. The proposed method consists of a two-step selection and evaluation, generating an optimal combination for the increase of accuracy. The algorithms chosen for the feature selection step were: the FFS that was developed in this thesis; The SMS; and CART as a quick alternative. The evaluation stage used two classical techniques, the RR-BLUP and the BLASSO as a reference, and the SVR. The association of the techniques used in the selection and evaluation stage leads us to three models: SVR + FFS; SVR + SMS; and SVR + CART. In the results obtained, the selection of attributes proved to be an important resource in increasing accuracy in all 8 scenarios. The simulation process allowed data to be obtained up to 15th generation allowing the models generated in 1th or 4th to in subsequent ones to be applied. The application of feature selection significantly increased accuracy in genomic data, except for the small sample set and in completely linear data. The proposed method was able to the bases with the descriptive characteristics to be efficient, generating a significant increase in the final correlation.
- Published
- 2018
39. Um modelo de seleção de carteiras de ações baseado em otimização convexa online
- Author
-
Yamim, João Daniel Madureira, Borges, Carlos Cristiano Hasenclever, Fonseca Neto, Raul, Perobelli, Fernanda Finotti Cordeiro, and Oliveira, Fabrízzio Condé de
- Subjects
Online optimization ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Dynamic allocation ,Alocação dinâmica ,Otimização online ,Seleção de portfólio ,Portfolio selection - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Desde o trabalho seminal de Harry Markowitz, em 1952, que iniciou a moderna te-oria de carteiras, as estratégias de alocação de portfólio foram intensamente discutidas na literatura. Com o desenvolvimento de técnicas de otimização online, os algoritmos de aprendizado dinâmico se mostraram uma abordagem efetiva para construir portfólios (COVER, 1991; ARGAWAL et al., 2006). No entanto, poucos trabalhos conectam a lite-ratura tradicional, evoluída a partir do trabalho de Markowitz (1952) com a literatura de otimização online, que evoluiu a partir do trabalho de Cover (1991). O principal objetivo deste trabalho é implementar técnicas de otimização convexa online para: (i) executar estratégias de alocação de portfólio; (ii) conectar esses algoritmos com fatores risco usados em metodologias tradicionais. Dois métodos de algoritmos online foram implementados e adaptados, o Online Gradient Descendent (OGD) e o Online Newton Step (ONS). Além disso, duas novas versões para o algoritmo OGD são propostas para controlar o risco em carteiras. O primeiro, busca limitar o investimento máximo para ações e, o segundo, visa controlar o /3 das carteiras. Ambas as estratégias foram comparadas com o Uniform Constant Rebalanced Portfolio (UCRP) e o Dow Jones Industrial Index (DJIA). Foram utilizados dados do DJIA de março de 1987 até fevereiro de 2009 com observações se-manais. O algoritmo OGD apresentou o maior retorno acumulado entre as estratégias testadas. Ambos os algoritmos (OGD e ONS) apresentaram melhor desempenho do que o UCRP e DJIA ao longo do período. Além disso, o mecanismo de controle de risco pro-posto provou ser uma ferramenta útil para melhorar os resultados relacionados ao valor em risco (VaR) e ao valor condicional em risco (CVaR) das carteiras. Since the seminal work of Harry Markowitz (1952), which initiated the modern theory of portfolios, the strategies of portfolio allocation were extensively discussed in economic literature. With the development of online optimization techniques, dynamic learning algorithms emerged as an effective approach to develop investment portfolios (COVER, 1991; ARGAWAL et al., 2006). However, there are few attempts aiming to connect the traditional literature of portfolio investment, which evolved based on Markowitz (1952) work, with the recent online methods, developed from Cover (1991). The main objec-tive of this work is to implement online convex optimization techniques to: (i) perform strategies of portfolio allocation; (ii) couple these algorithms with risk factors used in traditional models. Two methods of online algorithms were implemented and adapted, the Online Gradient Descendent (OGD) and the Online Newton Step (ONS). Besides, two new versions for the OGD algorithm are proposed in order to control risk in portfolios. The first one, seeks to limit maximum investment for stocks and, the second, aims to keep control of the /3 of portfolios. Both strategies were compared with the Uniform Constant Re-Balanced Portfolio (UCRP) and the Dow Jones Industrial Index (DJIA). Data from weekly observations of DJIA from March 1987 until February 2009 are used. The OGD algorithm presented the best accumulated return among all strategies. Both algorithms (OGD and ONS) performed better than the UCRP and DJIA index. Furthermore, the risk control mechanism proposed proved to be an useful tool in order to improve results related to the Value at Risk (VaR) and Conditional Value at Risk (CVaR) of the portfolios.
- Published
- 2018
40. Técnicas para detecção automática de danos no monitoramento da integridade estrutural
- Author
-
Cardoso, Rharã de Almeida, Cury, Alexandre Abrahão, Barbosa, Flávio de Souza, Neves, Francisco de Assis das, Borges, Carlos Cristiano Hasenclever, Ribeiro, Diogo Rodrigo Ferreira, and Rodrigues, José Fernando Sousa
- Subjects
Structural health monitoring ,Damage detection ,Modal identification - Abstract
Programa de Pós Graduação em Engenharia Civil. Departamento de Engenharia Civil, Escola de Minas, Universidade Federal de Ouro Preto. Conhecer a integridade de sistemas estruturais de grande vulto durante o serviço, em tempo real e continuamente, é uma grande necessidade dos fabricantes, proprietários, concessionários, usuários finais e equipes de manutenção destes sistemas. Tal conhecimento provê aos gestores informações relevantes sobre o desempenho estrutural para direcionar melhorias no projeto e produção, além de minimizar custos de manutenção para o proprietário/concessionário e de aumentar a segurança de operação da estrutura para os usuários. Dentre as diversas atividades que compreendem o Monitoramento da Integridade Estrutural (MIE), a detecção de danos constitui o núcleo básico para atender aos aspectos de manutenção e segurança. Para tanto, o programa de MIE deve dispor de ferramentas computacionais capazes de analisar as informações adquiridas continuamente e em tempo real, fornecendo a cada momento um ou mais indicadores da ocorrência de dano (ou alteração) na estrutura. Portanto, para que uma técnica de detecção de danos seja compatível com o escopo do MIE ela deve, idealmente, prover respostas de forma automática, não supervisionada e contínua, baseando-se unicamente em testes de vibração ambiente com a estrutura em operação. Visando atingir estes objetivos, esta tese apresenta duas abordagens: uma baseada na evolução dos parâmetros modais, isto é, frequências naturais, taxas de amortecimento e modos de vibração; outra baseada na análise direta de medições de aceleração. As metodologias propostas foram avaliadas em estruturas reais e demonstraram desempenhos promissores quando aplicadas em monitoramentos de estruturas em longo prazo, contínuos e em tempo real. Knowing the integrity of major structural systems in real-time and continuously during their operational service is a crucial requirement for manufacturers, owners, users and maintenance teams. This knowledge affords the stakeholders relevant structural performance information to drive design and production improvements, minimize maintenance costs, and increase the operational structure’s safety for the users. Among the several activities that comprise Structural Health Monitoring (SHM), damage detection is the core task to satisfy maintenance and safety aspects. Thus, an SHM program must be aided by computational tools capable of analyzing the acquired sensorial information continuously. Then, it must promptly yield one or more indicators of damage (or novelty) occurrence in the structure. Therefore, for a damage detection technique to be compatible with the scope of SHM, it should ideally respond automatically, in an unsupervised and continuous way, based solely on ambient vibration tests when the structure is under normal operation. Hence, this thesis presents two approaches: one based on the tracking of structural modal parameters, i.e., natural frequencies, damping ratios, and mode shapes; the other based on the analysis of raw acceleration measurements. The proposed methodologies were applied to real-case structures and showed promising performances when it comes to long-term, continuous and real-time monitoring.
- Published
- 2018
41. Uma abordagem baseada em classificadores de larga margem para geração de dados artificiais em bases desbalanceadas
- Author
-
Marques, Marcelo Ladeira, Borges, Carlos Cristiano Hasenclever, Villela, Saulo Moraes, Fonseca Neto, Raul, and Braga, Antônio de Pádua
- Subjects
Unbalanced learning ,Classificadores de larga margem ,Aprendizado desbalanceado ,Oversampling ,Reamostragem ,Geração de dados artificiais ,Large margin classifiers ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Synthetic sample generation - Abstract
O presente trabalho tem como proposta o desenvolvimento de uma abordagem capaz de melhorar os resultados obtidos por algoritmos de classificação quando aplicados em bases desbalanceadas. O método, denominado Algoritmo de Balanceamento Sintético In-cremental (Incremental Synthetic Balancing Algorithm – ISBA), realiza um procedimento iterativo baseado em classificadores de larga margem, visando gerar amostras sintéticas com o intuito de reduzir o nível de desbalanceamento. No processo são utilizados vetores suporte como referência para a geração das novas instâncias, permitindo posicioná-las em regiões com uma maior representatividade. Além disso, a estratégia permite que as novas amostras ultrapassem os limites das amostras utilizadas como referência para sua geração, o que possibilita uma extrapolação dos limites da classe minoritária, objetivando, assim, alcançar um maior reconhecimento dessa classe de interesse. São apresentados experimentos comparativos com demais técnicas, entre elas o Synthetic Minority Over-sampling Technique (SMOTE), os quais fornecem fortes evidências da aplicabilidade da abordagem proposta. In this work we propose the development of an approach capable of improving the results obtained by classification algorithms when applied to unbalanced datasets. The method, called Incremental Synthetic Balancing Algorithm (ISBA), performs an iterative procedure based on large margin classifiers, aiming to generate synthetic samples in order to reduce the level of unbalance. In the process, we use the support vectors as reference for the generation of new instances, allowing them to be positioned in regions with greater representativeness. Furthermore, the strategy allows the new samples to exceed the limits of the samples used as reference for their generation, which allows an extrapolation of the limits of the minority class, in order to achieve greater recognition of this class of interest. We present comparative experiments with other techniques, among them the Synthetic Minority Over-sampling Technique (SMOTE), which provide strong evidence of the applicability of the proposed approach.
- Published
- 2017
42. Aprendizado de métricas utilizando uma função de distância parametrizada e o algoritmo K-means com aplicação na solução de problemas de classificação
- Author
-
Fagundes, Felipe Leite, Fonseca Neto, Raul, Borges, Carlos Cristiano Hasenclever, Villela, Saulo Moraes, and Braga, Antônio de Pádua
- Subjects
Machine Learning ,Data Analysis ,Aprendizado de Máquinas ,Análise de dados ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO [CNPQ] ,Classificação ,Classification - Abstract
A utilização de diferentes métricas em algoritmos de aprendizado de máquinas pode mudar completamente os resultados de análises realizadas em bases de dados. Variar as maneiras de medir distâncias ou similaridades dos dados pode gerar reflexos para a captura de informações dessas bases e, com isso, influenciar diretamente a tomada de decisões. Neste sentido, métodos de aprendizagem de métricas têm sido abordados e aplicados em diversos ramos das pesquisas que manipulam bases de dados, com a finalidade de encontrar métricas mais adequadas para soluções de problemas de análise de cluster, classificação, mineração de dados, dentre outros relacionados ao reconhecimento de padrões de dados. O método de aprendizado de métricas utilizado como base deste trabalho foi originalmente formulado como um problema de otimização, com o objetivo de minimizar um conjunto parametrizado de distâncias de Mahalanobis. No método original é necessário estabelecer uma lista com pares de vetores similares ou dissimilares, que possibilitam a correção dos parâmetros para medição das distâncias. Já neste trabalho é proposto um novo método, que não necessita da comparação par a par entre vetores, mas apenas da comparação de distâncias de cada vetor do conjunto de treinamento com dois centroides: o definido pelo algoritmo Seeded k-means e o definido por um especialista como sendo um centroide esperado. A distância entre o vetor e os dois centroides é usada como fator global de correção dos parâmetros para medição das distâncias. Os novos parâmetros para medição de distâncias alteram a forma como os vetores são agrupados, melhorando sensivelmente os resultados em relação à métrica Euclideana. A maior contribuição deste estudo foi a formulação de um método para aprendizado desses parâmetros que reduzisse a complexidade em tempo em relação a outros métodos de aprendizado propostos na literatura, denominado MAP – Método de Aprendizado de Parâmetros. O MAP demonstrou melhoras significativas para problemas de classificação em diversas bases de dados do UCI Machine Learning Repository com métricas aprendidas em conjuntos de treinamento. The use of different metrics in machine learning algorithms is able to change the results of analyzes carried out in databases. By varying how to measure distances or data similarities we can generate reflexes for information capture, which can influence the decision-making. In this sense, metric learning methods have been approached and applied in several branches of the research in the world, in order to find better metrics for problems of cluster analysis, classification, data mining, among others related data pattern recognition. The metric learning method used as the basis of this work was ori-ginally formulated as an optimization problem, in order to minimize a parameter set of Mahalanobis distances. In the original method, it is necessary to define a list of similar or dissimilar vectors pairs, which allow the correction of the distance measurement pa-rameters. In this work, a new method is proposed, which does not require the pairwise comparison, but only the distance comparison from each vector of a training set to two points: one defined by the Seeded k-means and other defined by an expert as being an expected centroid. The distance between the vector and the two centroids is used as correction factor of the parameters for measuring distances. The new learned parame-ters for distances measurement can change the clusters improving the results compared to the Euclidean metric. The major contribution of this study was the formulation of a method to learn these parameters that reduces the complexity in time if compared to other methods proposed in the literature. The proposal of PLM – Parameter Learning Method – have been demonstrated significant improvements in classification problems for several UCI Machine Learning Repository databases.
- Published
- 2017
43. Estratégia computacional para avaliação de propriedades mecânicas de concreto de agregado leve
- Author
-
Aldemon Lage Bonifácio, Farage, Michèle Cristina Resende, Barbosa, Flávio de Souza, Barbosa, Ciro de Barros, Silvoso, Marcos Martinez, Pitangueira, Roque Luiz da Silva, Borges, Carlos Cristiano Hasenclever, and Fonseca, Leonardo Goliatt da
- Subjects
Artificial Neural Network ,Rede neural artificial ,Análise via MEF ,Support Vector Regression ,Scientific Workflow ,Workflow científico ,Máquina de vetores suporte com regressão ,FEM Analysis ,Mecânica dos materiais ,Modelagem do concreto ,Distributed Systems ,Mechanics of Materials ,Sistemas distribuídos ,Concrete Modeling ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior O concreto feito com agregados leves, ou concreto leve estrutural, é considerado um material de construção versátil, bastante usado em todo o mundo, em diversas áreas da construção civil, tais como, edificações pré-fabricadas, plataformas marítimas, pontes, entre outros. Porém, a modelagem das propriedades mecânicas deste tipo de concreto, tais como o módulo de elasticidade e a resistência a compressão, é complexa devido, principalmente, à heterogeneidade intrínseca aos componentes do material. Um modelo de predição das propriedades mecânicas do concreto de agregado leve pode ajudar a diminuir o tempo e o custo de projetos ao prover dados essenciais para os cálculos estruturais. Para esse fim, este trabalho visa desenvolver uma estratégia computacional para a avaliação de propriedades mecânicas do concreto de agregado leve, por meio da combinação da modelagem computacional do concreto via MEF (Método de Elementos Finitos), do método de inteligência computacional via SVR (Máquina de vetores suporte com regressão, do inglês Support Vector Regression) e via RNA (Redes Neurais Artificiais). Além disso, com base na abordagem de workflow científico e many-task computing, uma ferramenta computacional foi desenvolvida com o propósito de facilitar e automatizar a execução dos experimentos científicos numéricos de predição das propriedades mecânicas. Concrete made from lightweight aggregates, or lightweight structural concrete, is considered a versatile construction material, widely used throughout the world, in many areas of civil construction, such as prefabricated buildings, offshore platforms, bridges, among others. However, the modeling of the mechanical properties of this type of concrete, such as the modulus of elasticity and the compressive strength, is complex due mainly to the intrinsic heterogeneity of the components of the material. A predictive model of the mechanical properties of lightweight aggregate concrete can help reduce project time and cost by providing essential data for structural calculations. To this end, this work aims to develop a computational strategy for the evaluation of mechanical properties of lightweight concrete by combining the concrete computational modeling via Finite Element Method, the computational intelligence method via Support Vector Regression, and via Artificial Neural Networks. In addition, based on the approachs scientific workflow and many-task computing, a computational tool will be developed with the purpose of facilitating and automating the execution of the numerical scientific experiments of prediction of the mechanical properties.
- Published
- 2017
44. Decomposição baseada em modelo de problemas de otimização de projeto utilizando redução de dimensionalidade e redes complexas
- Author
-
Cardoso, Alexandre Cançado, Borges, Carlos Cristiano Hasenclever, Fonseca Neto, Raul, Fonseca, Leonardo Goliatt da, and Vieira, Vinícius da Fonseca
- Subjects
Redução de dimensionalidade ,Community detection ,Detecção de comunidades ,Design optimization ,Otimização de projeto ,Dimensionality reduction ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Decomposição baseada em modelo ,Model-based decomposition - Abstract
A estratégia de dividir para conquistar é comum a diversos ramos de atuação, indo do projeto de algoritmos à politica e sociologia. Em engenharia, é utilizada, dentre outras aplicações, para auxiliar na resolução de problemas de criação de um projeto (general desing problems) ou de um projeto ótimo (optimal design problems) de sistemas grandes, complexos ou multidisciplinares. O presente, trabalho apresenta um método para divisão, decomposição destes problemas em sub-problemas menores a partir de informação apenas do seu modelo (model-based decomposition). Onde a extração dos padrões de relação entre as variáveis, funções, simulações e demais elementos do modelo é realizada através de algoritmos de aprendizado não supervisionado em duas etapas. Primeiramente, o espaço dimensional é reduzido a fim de ressaltar as relações mais significativas, e em seguida utiliza-se a técnica de detecção de comunidade oriunda da área de redes complexas ou técnicas de agrupamento para identificação dos sub-problemas. Por fim, o método é aplicado a problemas de otimização de projeto encontrados na literatura de engenharia estrutural e mecânica. Os sub-problemas obtidos são avaliados segundo critérios comparativos e qualitativos. The divide and conquer strategy is common to many fields of activity, ranging from the algorithms design to politics and sociology. In engineering, it is used, among other applications, to assist in solving general design problems or optimal design problems of large, complex or multidisciplinary systems. The present work presents a method for splitting, decomposition of these problems into smaller sub-problems using only information from its model (model-based decomposition). Where the pattern extraction of relationships between variables, functions, simulations and other model elements is performed using unsupervised learning algorithms in two steps. First, the dimensional space is reduced in order to highlight the most significant relationships, and then we use the community detection technique coming from complex networks area and clustering techniques to identify the sub-problems. Finally, the method is applied to design optimization problems encountered in structural and mechanical engineering literature. The obtained sub-problems are evaluated against comparative and qualitative criteria.
- Published
- 2016
45. Avaliação do algoritmo Gradient Boosting em aplicações de previsão de carga elétrica a curto prazo
- Author
-
Mayrink, Victor Teixeira de Melo, Hippert, Henrique Steinherz, Pedreira, Carlos Eduardo, Oliveira, Fabrízzio Condé de, and Borges, Carlos Cristiano Hasenclever
- Subjects
Exponential Smoothing ,Amortecimento exponencial ,Short Term Load Forecasting ,Decision Trees ,Previsão de carga elétrica ,Árvores de decisão ,Gradient Boosting ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais O armazenamento de energia elétrica em larga escala ainda não é viável devido a restrições técnicas e econômicas. Portanto, toda energia consumida deve ser produzida instantaneamente; não é possível armazenar o excesso de produção, ou tampouco cobrir eventuais faltas de oferta com estoques de segurança, mesmo que por um curto período de tempo. Consequentemente, um dos principais desafios do planejamento energético consiste em realizar previsões acuradas para as demandas futuras. Neste trabalho, apresentamos um modelo de previsão para o consumo de energia elétrica a curto prazo. A metodologia utilizada compreende a construção de um comitê de previsão, por meio da aplicação do algoritmo Gradient Boosting em combinação com modelos de árvores de decisão e a técnica de amortecimento exponencial. Esta estratégia compreende um método de aprendizado supervisionado que ajusta o modelo de previsão com base em dados históricos do consumo de energia, das temperaturas registradas e de variáveis de calendário. Os modelos propostos foram testados em duas bases de dados distintas e demonstraram um ótimo desempenho quando comparados com resultados publicados em outros trabalhos recentes. The storage of electrical energy is still not feasible on a large scale due to technical and economic issues. Therefore, all energy to be consumed must be produced instantly; it is not possible to store the production leftover, or either to cover any supply shortages with safety stocks, even for a short period of time. Thus, one of the main challenges of energy planning consists in computing accurate forecasts for the future demand. In this paper, we present a model for short-term load forecasting. The methodology consists in composing a prediction comitee by applying the Gradient Boosting algorithm in combination with decision tree models and the exponential smoothing technique. This strategy comprises a supervised learning method that adjusts the forecasting model based on historical energy consumption data, the recorded temperatures and calendar variables. The proposed models were tested in two di erent datasets and showed a good performance when compared with results published in recent papers.
- Published
- 2016
46. Desenvolvimento de um modelo computacional para simulação do comportamento dinâmico de vigas sanduíche com camada viscoelástica amortecedora
- Author
-
Felippe Filho, Waldir Neme, Barbosa, Flávio de Souza, Cury, Alexandre Abrahão, Borges, Carlos Cristiano Hasenclever, Magluta, Carlos, and Roitman, Ney
- Subjects
Sandwich beam ,Amortecimento estrutural ,Structural damping ,Modelo não determinístico ,Viga sanduíche ,Structural dinamics ,Nondeterministic model ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Material viscoelástico - Abstract
As estruturas atuais de engenharia civil têm apresentado pronunciado comportamento dinâmico, impondo a necessidade de se veri car, durante a fase de projeto, este comportamento. Apesar dessas veri cações e das recomendações normativas, algumas estruturas apresentam grandes amplitudes de deslocamentos ao experimentarem combinações de ações imprevistas, sendo necessária a aplicação de um sistema para controle de vibrações. Uma forma e ciente de controle destas estruturas é através de sistemas passivos via materiais viscoelásticos (MVE). Modelos determinísticos são numerosos na literatura e conseguem aproximar relativamente bem o comportamento dinâmico de estruturas amortecidas via MVE. Esses modelos, porém, são incapazes de capturar as incertezas associadas, por exemplo, às propriedades mecânicas dos materiais. Uma forma para capturar essas incertezas é através da modelagem não determinística. Neste sentido, este trabalho discutirá a modelagem numérica dos MVE abordando alguns dos fatores que in uenciam o desempenho de modelos numéricos, estratégias para ajuste dos parâmetros que de nem o comportamento dependente da frequência desses materiais e apresentará uma proposta de um modelo não determinístico. Comparam-se as frequências naturais e taxas de amortecimento de vigas sanduíche identi cadas com os resultados obtidos com o modelo proposto e aqueles obtidos através de ensaios experimentais. Pretende-se com este modelo fornecer ao projetista, ao invés de um único valor para os parâmetros modais da estrutura e deslocamentos, uma representação probabilística. The current civil engineering structures have shown pronounced dynamic behavior, imposing the need to check, during the design phase, this behavior. Despite these veri cations and normative recommendations, some structures experience large amplitudes of displacements under unexpected actions, then a vibration control system is required. An e cient way to control these structures is through passive vibration control systems with viscoelastic materials (VEM). Deterministic models are numerous in literature and they present fairly good approximations for the dynamics behavior of structures damped with VEM. These models however are unable to capture uncertainties associated, for instance, with the mechanical properties of materials. One way to capture these uncertainties is through non-deterministic models. Thus, this thesis discusses the numerical modeling of MVE addressing some of the factors that in uence the performance of numerical models, some strategies to adjust the parameters that de ne the frequency dependent behavior of these materials and present a proposal for a non-deterministic model. The aim of this model is provide to the designer, rather than a single value for the structures modal parameters and displacements, a probabilistic representation.
- Published
- 2016
47. Algoritmos computacionais para detecção eficiente de odontocetos em dispositivos fixos autônomos
- Author
-
Novais, Edson Bruno, Borges, Carlos Cristiano Hasenclever, Andriolo, Artur, Pamplin, Paulo Augusto Zaitune, Augusto, Douglas Adriano, Fonseca Neto, Raul, and Barbosa, Ciro de Barros
- Subjects
Machine Learning ,Bioacústica ,Signal Processing ,Processamento de sinais ,Aprendizado de máquina ,Bioacoustics ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais Considerando o sucesso dos dispositivos móveis e a evolução de suas tecnologias, o estudo de Odontocetos em tempo real é uma possibilidade emergente. Apesar desta evolução, a análise de grandes volumes de dados por algoritmos complexos requer considerável esforço computacional. A coleta de dados de Odontocetos é executada em ambiente marinho com recursos limitados, o que reduz o potencial de pesquisa. Sendo assim, a escolha dos algoritmos para a criação de um Fluxo de Trabalho deve manter um balanço entre a eficiência computacional e a eficácia de detecção. Esta tese tem como objetivo propor um modelo de Fluxo de Trabalho eficiente para o Monitoramento Acústico Passivo. Para tal, um Fluxo de Trabalho de referência comumente utilizado em campo por pesquisadores foi utilizado como base, sendo inserido uma nova etapa de pré-processamento das informações capturadas. A etapa de detecção, foco deste trabalho devido sua aplicabilidade e notável impacto nas próximas etapas, é responsável por analisar os sinais acústicos recebidos, filtrando boa parte dos dados. A próxima etapa trata da condensação dos dados de forma a facilitar a transferência destes para localidades remotas. Em sequência tem-se a etapa de identificação das informações recebidas a partir da etapa anterior. Por fim, a última etapa baseia-se em componentes de software para o estudo das informações relevantes adquiridas. A aplicação da etapa de detecção no Fluxo de Trabalho de referência apresentou um desempenho satisfatório acarretando em uma redução de 96,52% do volume total de dados a serem armazenados e processados, facilitando que informações relevantes da captura sejam identificadas e distribuídas online para estações de pesquisa remotas. Considering the success of mobile devices and the evolution of its technologies, the study of Odontoceti in real time is an emerging possibility. Despite the evolution, analysis of big data chunks by complex algorithms requires considerable computing effort. Data collection of Odontoceti is execute in marine environment with limited resources, thus reducing research potential. Therefore, choosing the right algorithm to create the Workflow should maintaining a balance between computational efficiency and detection accuracy. The goal of this thesis is to propose an efficient Workflow for Passive Acoustic Monitoring. For such, a common Workflow used in the field by researchers was used as base, adding a new step for preprocessing of captured data. The detection step, focus of this thesis due to its applicability and notable impact on the next steps, is responsible to analyse received acoustic signals, filtering a good amount of data. The next step condensates data in a way that facilitates transfer of captured information to remote locations. In sequence there is the step responsible for the identification of received information from the previous step. The last step is based on software components to study relevant information. The appplication of the detection step have shown a satisfactory performance providing a reduction of 96.52 of total data to be processed, making it easy for relevant information to be identified and distributed online to remote research stations.
- Published
- 2016
48. Um método para seleção de atributos em dados genômicos
- Author
-
Oliveira, Fabrízzio Condé de, Borges, Carlos Cristiano Hasenclever, Arbex, Wagner Antonio, Goliatt, Priscila Vanessa Zabala Capriles, Fonseca Neto, Raul, and Silva, Fabyano Fonseca e
- Subjects
Florestas Aleatórias ,Random Forests ,Support Vector Machine ,Genetic Algorithms ,Single Nucleotide Polymorphisms ,Máquina de Vetores Suporte ,Polimorfismos de Base Única ,Genome-wide association studies ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Algoritmos Genéticos ,Estudos de Associação em Escala Genômica - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Estudos de associação em escala genômica buscam encontrar marcadores moleculares do tipo SNP que estão associados direta ou indiretamente a um fenótipo em questão tais como, uma ou mais características do indivíduo ou, até mesmo, uma doença. O SNP pode ser a própria mutação causal ou pode estar correlacionado com a mesma por serem herdados juntos. Para identi car a região causadora ou promotora do fenótipo, a qual não é conhecida a priori, milhares ou milhões de SNPs são genotipados em amostras compostas de centenas ou milhares de indivíduos. Com isso, surge o desa o de selecionar os SNPs mais informativos no conjunto de dados genotípico, onde o número de atributos é, geralmente, muito superior ao número de indivíduos, com a possibilidade de que existam atributos altamente correlacionados e, ainda, podendo haver interações entre pares, trios ou combinações de SNPs de quaisquer ordens. Os métodos mais usados em estudos de associação em escala genômica utilizam o valor-p de cada SNP em testes estatísticos de hipóteses, baseados em regressão para fenótipos contínuos e baseados nos testes qui-quadrado ou similares em classi cação para fenótipos discretos, como ltro para selecionar os SNPs mais signi cativos. Entretanto, essa classe de métodos captura somente SNPs com efeitos aditivos, pois a relação adotada é linear. Na tentativa de superar as limitações de procedimentos já estabelecidos, este trabalho propõe um novo método de seleção de SNPs baseado em técnicas de Aprendizado de Máquina e Inteligência Computacional denominado SNP Markers Selector (SMS). O modelo é construído a partir de uma abordagem que divide o problema de seleção de SNPs em três fases distintas: a primeira relacionada à análise de relevância dos marcadores, a segunda responsável pela de nição do conjunto de marcadores relevantes que serão considerados por meio de uma estratégia de corte com base em um limite de relevância dos marcadores e, nalmente, uma fase para o re namento do processo de corte, geralmente para diminuir marcadores falsos-positivos. No SMS, essas três etapas, foram implementadas utilizando-se Florestas Aleatórias, Máquina de Vetores Suporte e Algoritmos Genéticos respectivamente. O SMS objetiva a criação de um uxo de trabalho que maximize o potencial de seleção do modelo através de etapas complementares. Assim, espera-se aumentar o potencial do SMS capturar efeitos aditivos e/ou não-aditivos com interação moderada entre pares e trios de SNPs, ou até mesmo, interações de ordens superiores com efeitos que sejam minimamente detectáveis. O SMS pode ser aplicado tanto em problemas de regressão (fenótipo contínuo) quanto de classi cação (fenótipo discreto). Experimentos numéricos foram realizados para avaliação do potencial da estratégia apresentada, com o método sendo aplicado em sete conjuntos de dados simulados e em uma base de dados real, onde a capacidade de produção de leite predita de vacas leiteiras foi medida como fenótipo contínuo. Além disso, o método proposto foi comparado com os métodos baseados no valor-p e com o Lasso Bayesiano apresentando, de forma geral, melhores resultados do ponto de vista de SNPs verdadeiros-positivos nos dados simulados com efeitos aditivos juntamente com interações entre pares e trios de SNPs. No conjunto de dados reais, baseado em 56.947 SNPs e um único fenótipo relativo à produção de leite, o método identi cou 245 QTLs associados à produção e à composição do leite e 90 genes candidatos associados à mastite, à produção e à composição do leite, sendo esses QTLs e genes identi cados por estudos anteriores utilizando outros métodos de seleção. Assim, o método demonstrou ser competitivo frente aos métodos utilizados para comparação em cenários complexos, com dados simulados ou reais, o que indica seu potencial para estudos de associação em escala genômica em humanos, animais e vegetais. Genome-wide association studies have as main objective to discovery SNP type molecular markers associated directly or indirectly to a speci c phenotype related to one or more characteristics of an individual or even a disease. The SNP could be the causative mutation itself or correlated with the causative mutation due to common inheritance. Aiming to identify the causal or promoter region of the phenotype, which is unknown a priori, thousands or millions of SNPs are genotyped in samples composed of hundreds or thousands of individuals. Therefore, emerges the necessity to confront a challenge of selecting the most informative SNPs in genotype data set where the number of attributes are, usually, much higher than the number of individuals. Besides, the possibility of highly correlated attributes should be considered, as well as interactions between pairs, trios or combinations of high order SNPs. The most usual methods applied on genomewide association studies adopt the p-value of each SNP as a lter to select the SNPs most signi cant. For continuous phenotypes the statistical regression-based hypothesis test is used and the Chi-Square test or similar for classi cation of discrete phenotypes. However, this class of methods capture only SNPs with additive e ects, due to the linear relationship considered. In an attempt to overcome the limitations of established procedures, this work proposes a new SNPs selection method, named SNP Markers Selector (SMS), based on Machine Learning and Computational Intelligence strategies. The model is built considering an approach which divides the SNPs selection problem in three distinct phases: the rst related to the evaluation of the markers relevance, a second responsible for the de nition of the set of the relevant markers that will be considered by means of a cut strategy based on a threshold of markers relevance and, nally, a phase for the re nement of the cut process, usually to diminish false-positive markers. In the SMS, these three steps were implemented using Random Forests, Support Vector Machine and Genetic Algorithms, respectively. The SMS intends to create a work ow that maximizes the SNPs selection potential of the model due to the adoption of steps considered complementary. In this way, there is an increasing expectation on the performance of the SMS to capture additive e ects, moderate non-additive interaction between pairs and trios of SNPs, or even, higher order interactions with minimally detectable e ects. The SMS can be applied both in regression problems (continuous phenotype) as in classi cation problems (discrete phenotype). Numerical experiments were performed to evaluate the potential of the strategy, with the method being applied in seven sets of simulated data and in a real data set, where milk production capacity predicated of dairy cows was measured as continuous phenotype. Besides, the comparison of the proposed method with methods based on p-value and Lasso Bayesian technique indicate, in general, competitive results from the point of view of true-positive SNPs using simulated data set with additive e ects in conjunction with interactions of pairs and trios of SNPs. In the real data, based on 56,947 SNPs and a single phenotype of milk production, the method identi ed 245 QTLs associated with milk production and composition and 90 candidate genes associated with mastitis, milk production and composition, standing out that these QTLs and genes were identi ed by previous studies using other selection methods. Thus, the experiments showed the potential of the method in relation to other strategies when complex scenarios with simulated or real data are adopted, indicating that the work ow developed to guide the construction of the method should be considered for genome-wide asociation studies in humans, animals and plants.
- Published
- 2015
49. Análise de agrupamento e estabilidade para aquisição e validação de conhecimento em bases de dados de alta dimensionalidade
- Author
-
Brum, Vinicius Campista, Oliveira, Itamar Leite de, Arbex, Wagner Antonio, Borges, Carlos Cristiano Hasenclever, and Santos, Marcelo Costa Pinto e
- Subjects
Análise de estabilidade ,Data stability analysis ,Algoritmo genético ,Genetic algorithm ,Clustering analysis ,GWAS ,CIENCIAS EXATAS E DA TERRA [CNPQ] ,Análise de agrupamento - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Análise de agrupamento é uma tarefa descritiva e não-supervisionada de mineração de dados que utiliza amostras não-rotuladas com o objetivo de encontrar grupos naturais, isto é, grupos de amostras fortemente relacionadas de forma que as amostras que per-tençam a um mesmo grupo sejam mais similares entre si do que amostras em qualquer outro grupo. Avaliação ou validação é considerada uma tarefa essencial dentro da análise de agrupamento. Essa tarefa apresenta técnicas que podem ser divididas em dois tipos: técnicas não-supervisionadas ou de validação interna e técnicas supervisionadas ou de va-lidação externa. Trabalhos recentes introduziram uma abordagem de validação interna que busca avaliar e melhorar a estabilidade do algoritmo de agrupamento por meio de identificação e remoção de amostras que são consideradas prejudiciais e, portanto, de-veriam ser estudadas isoladamente. Por meio de experimentos foi identificado que essa abordagem apresenta características indesejáveis que podem resultar em remoção de todo um grupo e ainda não garante melhoria de estabilidade. Considerando essas questões, neste trabalho foi desenvolvida uma abordagem mais ampla utilizando algoritmo genético para análise de agrupamento e estabilidade de dados. Essa abordagem busca garantir melhoria de estabilidade, reduzir o número de amostras para remoção e permitir que o usuário controle o processo de análise de estabilidade, o que resulta em maior aplicabi-lidade e confiabilidade para tal processo. A abordagem proposta foi avaliada utilizando diferentes algoritmos de agrupamento e diferentes bases de dados, sendo que uma base de dados genotípicos também foi utilizada com o intuito de aquisição e validação de conhe-cimento. Os resultados mostram que a abordagem proposta é capaz de garantir melhoria de estabilidade e também é capaz de reduzir o número de amostras para remoção. Os resultados também sugerem a utilização da abordagem como uma ferramenta promissora para aquisição e validação de conhecimento em estudos de associação ampla do genoma (GWAS). Este trabalho apresenta uma abordagem que contribui para aquisição e valida-ção de conhecimento por meio de análise de agrupamento e estabilidade de dados. Clustering analysis is a descriptive and unsupervised data mining task, which uses non-labeled samples in order to find natural groups, i.e. groups of closely related samples such that samples within the same cluster are more similar than samples within the other clusters. Evaluation and validation are considered essential tasks within the clustering analysis. These tasks present techniques that can be divided into two kinds: unsuper-vised or internal validation techniques and supervised or external validation techniques. Recent works introduced an internal clustering validation approach to evaluate and im-prove the clustering algorithm stability through identifying and removing samples that are considered harmful and therefore they should be studied separately. Through experi-mentation, it was identified that this approach has two undesirable characteristics, it can remove an entire cluster from dataset and still decrease clustering stability. Taking into account these issues, in this work a broader approach was developed using genetic algo-rithm for clustering and data stability analysis. This approach aims to increase stability, to reduce the number of samples for removal and to allow the user control the stability analysis process, which gives greater applicability and reliability for such process. This approach was evaluated using different kinds of clustering algorithm and datasets. A genotype dataset was also used in order to knowledge acquisition and validation. The results show the approach proposed in this work is able to increase stability, and it is also able to reduce the number of samples for removal. The results also suggest the use of this approach as a promising tool for knowledge acquisition and validation on genome-wide association studies (GWAS). This work presents an approach that contributes for knowledge acquisition and validation through clustering and data stability analysis.
- Published
- 2015
50. Uma abordagem de predição estruturada baseada no modelo perceptron
- Author
-
Coelho, Maurício Archanjo Nunes, Borges, Carlos Cristiano Hasenclever, Fonseca Neto, Raul, Braga, Antonio de Padua, and Barreto, André da Motta Salles
- Subjects
Machine Learning ,Markov Graphs ,Perceptron multi-classe ,Path Planning ,Prediction of Structured Data ,Aprendizado de máquina ,Planejamento de caminhos ,Grafos de Markov ,Predição de dados estruturados ,Perceptron Multi-class ,CIENCIAS EXATAS E DA TERRA [CNPQ] - Abstract
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior A teoria sobre aprendizado supervisionado tem avançado significativamente nas últimas décadas. Diversos métodos são largamente utilizados para resoluções dos mais variados problemas, citando alguns: sistemas especialistas para obter respostas to tipo verdadeiro/ falso, o modelo Perceptron para separação de classes, Máquina de Vetores Suportes (SVMs) e o Algoritmo de Margem Incremental (IMA) no intuito de aumentar a margem de separação, suas versões multi-classe, bem como as redes neurais artificiais, que apresentam possibilidades de entradas relativamente complexas. Porém, como resolver tarefas que exigem respostas tão complexas quanto as perguntas? Tais respostas podem consistir em várias decisões inter-relacionadas que devem ser ponderadas uma a uma para se chegar a uma solução satisfatória e globalmente consistente. Será visto no decorrer do trabalho que existem problemas de relevante interesse que apresentam estes requisitos. Uma questão que naturalmente surge é a necessidade de se lidar com a explosão combinatória das possíveis soluções. Uma alternativa encontrada apresenta-se através da construção de modelos que compactam e capturam determinadas propriedades estruturais do problema: correlações sequenciais, restrições temporais, espaciais, etc. Tais modelos, chamados de estruturados, incluem, entre outros, modelos gráficos, tais como redes de Markov e problemas de otimização combinatória, como matchings ponderados, cortes de grafos e agrupamentos de dados com padrões de similaridade e correlação. Este trabalho formula, apresenta e discute estratégias on-line eficientes para predição estruturada baseadas no princípio de separação de classes derivados do modelo Perceptron e define um conjunto de algoritmos de aprendizado supervisionado eficientes quando comparados com outras abordagens. São também realizadas e descritas duas aplicações experimentais a saber: inferência dos custos das diversas características relevantes para a realização de buscas em mapas variados e a inferência dos parâmetros geradores dos grafos de Markov. Estas aplicações têm caráter prático, enfatizando a importância da abordagem proposta. The theory of supervised learning has significantly advanced in recent decades. Several methods are widely used for solutions of many problems, such as expert systems for answers to true/false, Support Vector Machine (SVM) and Incremental Margin Algorithm (IMA). In order to increase the margin of separation, as well as its multi-class versions, in addition to the artificial neural networks which allow complex input data. But how to solve tasks that require answers as complex as the questions? Such responses may consist of several interrelated decisions to be considered one by one to arrive at a satisfactory and globally consistent solution. Will be seen throughout the thesis, that there are problems of relevant interest represented by these requirements. One question that naturally arises is the need to deal with the exponential explosion of possible answers. As a alternative, we have found through the construction of models that compress and capture certain structural properties of the problem: sequential correlations, temporal constraints, space, etc. These structured models include, among others, graphical models, such as Markov networks and combinatorial optimization problems, such as weighted matchings, graph cuts and data clusters with similarity and correlation patterns. This thesis formulates, presents and discusses efficient online strategies for structured prediction based on the principle of separation of classes, derived from the Perceptron and defines a set of efficient supervised learning algorithms compared to other approaches. Also are performed and described two experimental applications: the costs prediction of relevant features on maps and the prediction of the probabilistic parameters for the generating Markov graphs. These applications emphasize the importance of the proposed approach.
- Published
- 2015
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.