115 results on '"Lotufo, Roberto de Alencar"'
Search Results
2. w2v-SELD: A Sound Event Localization and Detection Framework for Self-Supervised Spatial Audio Pre-Training
- Author
-
Santos, Orlem Lima dos, Rosero, Karen, and Lotufo, Roberto de Alencar
- Subjects
Electrical Engineering and Systems Science - Audio and Speech Processing ,Computer Science - Sound - Abstract
Sound Event Detection and Localization (SELD) constitutes a complex task that depends on extensive multichannel audio recordings with annotated sound events and their respective locations. In this paper, we introduce a self-supervised approach for SELD adapted from the pre-training methodology of wav2vec 2.0, which learns representations directly from raw audio data, eliminating the need for supervision. By applying this approach to SELD, we can leverage a substantial amount of unlabeled 3D audio data to learn robust representations of sound events and their locations. Our method comprises two primary stages: pre-training and fine-tuning. In the pre-training phase, unlabeled 3D audio datasets are utilized to train our w2v-SELD model, capturing intricate high-level features and contextual information inherent in audio signals. Subsequently, in the fine-tuning stage, a smaller dataset with labeled SELD data fine-tunes the pre-trained model. Experimental results on benchmark datasets demonstrate the effectiveness of the proposed self-supervised approach for SELD. The model surpasses baseline systems provided with the datasets and achieves competitive performance comparable to state-of-the-art supervised methods. The code and pre-trained parameters of our w2v-SELD model are available in this repository., Comment: 17 pages, 5 figures
- Published
- 2023
3. To Tune or Not To Tune? Zero-shot Models for Legal Case Entailment
- Author
-
Rosa, Guilherme Moraes, Rodrigues, Ruan Chaves, Lotufo, Roberto de Alencar, and Nogueira, Rodrigo
- Subjects
Computer Science - Computation and Language ,Computer Science - Machine Learning - Abstract
There has been mounting evidence that pretrained language models fine-tuned on large and diverse supervised datasets can transfer well to a variety of out-of-domain tasks. In this work, we investigate this transfer ability to the legal domain. For that, we participated in the legal case entailment task of COLIEE 2021, in which we use such models with no adaptations to the target domain. Our submissions achieved the highest scores, surpassing the second-best team by more than six percentage points. Our experiments confirm a counter-intuitive result in the new paradigm of pretrained language models: given limited labeled data, models with little or no adaptation to the target task can be more robust to changes in the data distribution than models fine-tuned on it. Code is available at https://github.com/neuralmind-ai/coliee.
- Published
- 2022
- Full Text
- View/download PDF
4. Evaluating software-based fingerprint liveness detection using Convolutional Networks and Local Binary Patterns
- Author
-
Nogueira, Rodrigo Frassetto, Lotufo, Roberto de Alencar, and Machado, Rubens Campos
- Subjects
Computer Science - Computer Vision and Pattern Recognition - Abstract
With the growing use of biometric authentication systems in the past years, spoof fingerprint detection has become increasingly important. In this work, we implement and evaluate two different feature extraction techniques for software-based fingerprint liveness detection: Convolutional Networks with random weights and Local Binary Patterns. Both techniques were used in conjunction with a Support Vector Machine (SVM) classifier. Dataset Augmentation was used to increase classifier's performance and a variety of preprocessing operations were tested, such as frequency filtering, contrast equalization, and region of interest filtering. The experiments were made on the datasets used in The Liveness Detection Competition of years 2009, 2011 and 2013, which comprise almost 50,000 real and fake fingerprints' images. Our best method achieves an overall rate of 95.2% of correctly classified samples - an improvement of 35% in test error when compared with the best previously published results., Comment: arXiv admin note: text overlap with arXiv:1301.3557 by other authors
- Published
- 2015
- Full Text
- View/download PDF
5. Watershed from propagated markers: An interactive method to morphological object segmentation in image sequences
- Author
-
Flores, Franklin César and Lotufo, Roberto de Alencar
- Published
- 2010
- Full Text
- View/download PDF
6. The weighted gradient: A color image gradient applied to morphological segmentation
- Author
-
Flores, Franklin César, Polidório, Airton Marco, and Lotufo, Roberto de Alencar
- Published
- 2005
- Full Text
- View/download PDF
7. Analysis of a Step-Based Watershed Algorithm Using CUDA
- Author
-
Vitor, Giovani Bernardes, primary, Körbes, André, additional, Lotufo, Roberto de Alencar, additional, and Ferreira, Janito Vaqueiro, additional
- Published
- 2012
- Full Text
- View/download PDF
8. The image foresting transform: theory, algorithms, and applications
- Author
-
Falcao, Alexandre X., Stolfi, Jorge, and Lotufo, Roberto de Alencar
- Subjects
Object recognition (Computers) -- Research ,Pattern recognition -- Research - Abstract
The image foresting transform (IFT) is a graph-based approach to the design of image processing operators based on connectivity. It naturally leads to correct and efficient implementations and to a better understanding of how different operators relate to each other. We give here a precise definition of the IFT, and a procedure to compute it--a generalization of Dijkstra's algorithm--with a proof of correctness. We also discuss implementation issues and illustrate the use of the IFT in a few applications. Index Terms--Dijkstra's algorithm, shortest-path problems, image segmentation, image analysis, regional minima, watershed transform, morphological reconstruction, boundary tracking, distance transforms, and multiscale skeletonization.
- Published
- 2004
9. Convolutional neural networks for skull-stripping in brain MR imaging using silver standard masks
- Author
-
Lucena, Oeslle Alexandre Soares de, 1992, Rittner, Leticia, 1972, Lotufo, Roberto de Alencar, 1955, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Data augmentation ,Convolutional neural network (CNN) ,Skull-stripping ,Networks, Neural (Neurobiology) ,Artigo original ,Silver standard masks ,Redes neurais (Neurobiologia) - Abstract
Agradecimentos: This project was supported by FAPESP CEPID-BRAINN (2013/07559-3) and CAPES PVE (88881.062158/2014-01). Oeslle Lucena thanks FAPESP (2016/18332-8), Roberto Souza thanks the Natural Science and Engineering Research Council of Canada Collaborative Research and Training Experience International and Industrial Imaging Training (NSERC CREATE I3T) Program and the Hotchkiss Brain Institute, Letícia Rittner thanks CNPq (308311/2016-7), Richard Frayne is supported by the NSERC (261754-2013), Canadian Institutes for Health Research (CIHR, MOP-333931) and the Hopewell Professorship in Brain Imaging, and Roberto Lotufo thanks CNPq (311228/2014-3) Abstract: Manual annotation is considered to be the "gold standard" in medical imaging analysis. However, medical imaging datasets that include expert manual segmentation are scarce as this step is time-consuming, and therefore expensive. Moreover, single-rater manual annotation is most often used in data-driven approaches making the network biased to only that single expert. In this work, we propose a CNN for brain extraction in magnetic resonance (MR) imaging, that is fully trained with what we refer to as "silver standard" masks. Therefore, eliminating the cost associated with manual annotation. Silver standard masks are generated by forming the consensus from a set of eight, public, non-deep-learning-based brain extraction methods using the Simultaneous Truth and Performance Level Estimation (STAPLE) algorithm. Our method consists of (1) developing a dataset with "silver standard" masks as input, and implementing (2) a tri-planar method using parallel 2D U-Net-based convolutional neural networks (CNNs) (referred to as CONSNet). This term refers to our integrated approach, i.e., training with silver standard masks and using a 2D U-Net-based architecture. We conducted our analysis using three public datasets: the Calgary-Campinas-359 (CC-359), the LONI Probabilistic Brain Atlas (LPBA40), and the Open Access Series of Imaging Studies (OASIS). Five performance metrics were used in our experiments: Dice coefficient, sensitivity, specificity, Hausdorff distance, and symmetric surface-to-surface mean distance. Our results showed that we outperformed (i.e., larger Dice coefficients) the current state-of-the-art skull-stripping methods without using gold standard annotation for the CNNs training stage. CONSNet is the first deep learning approach that is fully trained using silver standard data and is, thus, more generalizable. Using these masks, we eliminate the cost of manual annotation, decreased inter-/intra-rater variability, and avoided CNN segmentation overfitting towards one specific manual annotation guideline that can occur when gold standard masks are used. Moreover, once trained, our method takes few seconds to process a typical brain image volume using modern a high-end GPU. In contrast, many of the other competitive methods have processing times in the order of minutes CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO - CNPQ COORDENAÇÃO DE APERFEIÇOAMENTO DE PESSOAL DE NÍVEL SUPERIOR - CAPES FUNDAÇÃO DE AMPARO À PESQUISA DO ESTADO DE SÃO PAULO - FAPESP Fechado
- Published
- 2019
10. Common Carotid Artery Lumen Segmentation from Cardiac Cycle-Resolved Cine Fast Spin Echo Magnetic Resonance Imaging
- Author
-
Rodrigues, Livia Maria De Aguiar, primary, Souza, Roberto Medeiros De, additional, Rittner, Leticia, additional, Frayne, Richard, additional, and Lotufo, Roberto De Alencar, additional
- Published
- 2017
- Full Text
- View/download PDF
11. Evaluating software-based fingerprint liveness detection using Convolutional Networks and Local Binary Patterns
- Author
-
Nogueira, Rodrigo Frassetto, 1986, Lotufo, Roberto de Alencar, 1955, IEEE Workshop on biometric measurements and systems for security and medical applications (BIOMS) (2014 : Rome, Italy), and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Support vector machines ,Data augmentation ,Impressão digital ,Local binary patterns ,Computer software ,Fingerprinting ,Liveness ,Software ,Convolutional networks ,Artigo de evento - Abstract
With the growing use of biometric authentication systems in the past years, spoof fingerprint detection has become increasingly important. In this work, we implement and evaluate two different feature extraction techniques for software-based fingerprint liveness detection: Convolutional Networks with random weights and Local Binary Patterns. Both techniques were used in conjunction with a Support Vector Machine (SVM) classifier. Dataset Augmentation was used to increase classifier's performance and a variety of preprocessing operations were tested, such as frequency filtering, contrast equalization, and region of interest filtering. The experiments were made on the datasets used in The Liveness Detection Competition of years 2009, 2011 and 2013, which comprise almost 50,000 real and fake fingerprints' images. Our best method achieves an overall rate of 95.2% of correctly classified samples - an improvement of 35% in test error when compared with the best previously published results Fechado
- Published
- 2014
12. Efficient computation of new extinction values from extended component tree
- Author
-
Silva, Alexandre Gonçalves and Lotufo, Roberto de Alencar
- Published
- 2011
- Full Text
- View/download PDF
13. Automatic DTI-based parcellation of the corpus callosum through the watershed transform
- Author
-
Rittner, Leticia, primary, Freitas, Pedro Ferro, additional, Appenzeller, Simone, additional, and Lotufo, Roberto de Alencar, additional
- Published
- 2014
- Full Text
- View/download PDF
14. A relevância da proteção e da transferência dos resultados de pesquisas acadêmicas
- Author
-
Toledo, Patricia Tavares Magalhães de, primary and Lotufo, Roberto de Alencar, additional
- Published
- 2011
- Full Text
- View/download PDF
15. Analysis of a Step-Based Watershed Algorithm Using CUDA
- Author
-
Vitor, Giovani Bernardes, primary, Körbes, André, additional, Lotufo, Roberto de Alencar, additional, and Ferreira, Janito Vaqueiro, additional
- Published
- 2010
- Full Text
- View/download PDF
16. New Extinction Values from Efficient Construction and Analysis of Extended Attribute Component Tree
- Author
-
Silva, Alexandre Gonçalves, primary and Lotufo, Roberto de Alencar, additional
- Published
- 2008
- Full Text
- View/download PDF
17. Benchmark for Quantitative Evaluation of Assisted Object Segmentation Methods to Image Sequences
- Author
-
Flores, Franklin César, primary and Lotufo, Roberto de Alencar, additional
- Published
- 2008
- Full Text
- View/download PDF
18. The weighted gradient: a color image gradient applied to morphological segmentation
- Author
-
Flores, Franklin César, primary, Polidório, Airton Marco, additional, and Lotufo, Roberto de Alencar, additional
- Published
- 2006
- Full Text
- View/download PDF
19. Digital-image analysis to predict weight and yields of boneless subprimal beef cuts
- Author
-
Teira, Gustavo Adolfo, primary, Tinois, Eduardo, additional, Lotufo, Roberto de Alencar, additional, and Felício, Pedro Eduardo de, additional
- Published
- 2003
- Full Text
- View/download PDF
20. COOPERAÇÃO UNIVERSIDADE-EMPRESA EM PROJETOS DE PESQUISA: EXPERIÊNCIAS DA UNIVERSIDADE DO ESTADO DE SANTA CATARINA.
- Author
-
Hoffmann, Micheline Gaia, Lemos, Dannyela da Cunha, Domingos, Amanda, Sell, Denilson, and Busato, Luciano
- Subjects
NEW product development ,ELECTRONIC funds transfers ,MONETARY incentives ,COOPERATIVE research ,RESEARCH & development - Abstract
Copyright of Revista Economia & Gestão is the property of Revista Economia & Gestao and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2020
- Full Text
- View/download PDF
21. Segmentação semantica com mixtura global de priors Gaussianas
- Author
-
Kanehisa, Rodrigo Fumihiro de Azevêdo, 1994, Ramírez Rivera, Adín, 1986, Pedrini, Hélio, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Neural networks (Computer science) ,Visão por computador ,Image segmentation ,Artificial intelligence ,Redes neurais (Computação) ,Segmentação de imagens ,Computer vision ,Inteligência artificial - Abstract
Orientador: Gerberth Adín Ramírez Rivera Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: A segmentação semântica é um dos problemas em aberto em visão computacional. Este problema consiste em classificar cada pixel presente em uma imagem, delimitando um objeto. As redes neurais convolucionais são eficientes na detecção e identificação de objetos em imagens. No entanto, durante o processo de segmentação, surgem alguns problemas, como perda de informações espaciais e baixa resolução dos mapas de características. Esses problemas levam a segmentações grosseiras ou ruidosas devido às incertezas nos dados. Uma maneira de combater esses problemas é usar métodos estatísticos em conjunto com redes neurais. Este trabalho propõe redes neurais combinadas com modelos probabilísticos como representação para segmentação semântica com foco em imagens médicas. Os modelos probabilísticos apresentam uma solução para mapear o conteúdo da imagem em distribuições mais representativas no espaço latente dos dados, permitindo que a rede lide com incertezas e modele informações mais complexas. Avaliamos nossas propostas em bases de dados existentes para segmentação de imagens e as comparamos com métodos existentes em \textit{benchmarks} padrão para segmentação semântica. Um modelo U-Net mais complexo será mais expressivo, permitindo que a rede reconstrua melhor as informações perdidas durante as operações de downsampling e stride Abstract: Semantic segmentation is one of the open-ended problems in computer vision. This problem consists in classifying each pixel present in an image, delimiting an object. Convolutional neural networks are efficient in detecting and identifying, and segmenting objects in images. However, during the segmentation process, some problems arise, such as loss of spatial information and low resolution of feature maps. These problems lead to rough or noisy segmentations due to the uncertainties in the data. One way to counter these problems is to use statistical methods together with neural networks. This work proposes neural networks combined with a probabilistic module as representations for semantic segmentation focusing on medical images. Probabilistic models present a solution to map the contents of the image into more representative distributions on the latent space of the data, allowing the network to handle uncertainty and model more complex information. We evaluated our proposals within existing databases for image segmentation and compare them against existing methods on standard benchmarks for semantic segmentation. A more complex U-Net model will able more expressive, allowing the network to better reconstruct the information lost during the downsampling and stride operations Mestrado Ciência da Computação Mestre em Ciência da Computação FAPESP 2019/08589-0
- Published
- 2022
22. Explorando modelos zero-shot para transferência de conhecimento multilíngue e entre domínios
- Author
-
Rosa, Guilherme Moraes, 1989, Lotufo, Roberto de Alencar, 1955, Nogueira, Rodrigo Frassetto, 1986, Moreira, Viviane Pereira, Pedrini, Hélio, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Artificial intelligence ,Processamento de linguagem natural (Computação) ,Redes neurais (Computação) ,Natural language processing ,Transferência de aprendizagem ,Deep learning ,Inteligência artificial ,Aprendizado profundo ,Neural networks ,Transfer learning - Abstract
Orientadores: Roberto de Alencar Lotufo, Rodrigo Frassetto Nogueira Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Os algoritmos de aprendizado profundo têm sido adotados em diversas aplicações importantes no processamento de linguagem natural. Esses algoritmos se destacam por sua capacidade de aprender grandes quantidades de informações e atingir ótimos desempenhos em tarefas antes consideradas muito difíceis de serem realizadas por máquinas. Portanto, sua aplicação tem sido cada vez mais difundida para diferentes tarefas, domínios e idiomas. Ainda assim, sabe-se que modelos de aprendizado profundo normalmente não generalizam muito além da distribuição de dados vista durante o treinamento e têm dificuldade em se adaptar a novos cenários. Uma solução para este problema é treinar novamente o modelo em um novo conjunto de dados rotulado grande e diverso. No entanto, muitas vezes não temos conjuntos de dados prontamente disponíveis para cada novo cenário que possa surgir e, além disso, dados do mundo real estão em constante mudança. Assim, um método eficaz para resolver este problema e melhorar a capacidade de generalização de modelos transformer é usar abordagens de transferência de conhecimento zero-shot. Para estudar com maior profundidade a capacidade de transferência de conhecimento de modelos transformer, separamos o aprendizado zero-shot em duas categorias diferentes dependendo de como os exemplos de teste diferem dos dados usados para treinamento. Em nosso trabalho, os exemplos de treinamento e teste podem ser diferentes por pertencerem a idiomas diferentes (cross-lingual) ou a domínios diferentes (cross-domain). Exploramos ambas as categorias projetando dois estudos que cobrem cada uma separadamente. Em nosso primeiro estudo, analisamos três métodos de transferência de conhecimento entre diferentes idiomas em termos de eficácia (por exemplo, acurácia), custos de desenvolvimento e implantação, bem como suas latências em momento de inferência. Além disso, ao combinar métodos de transferência multilíngue, alcançamos o estado da arte em dois conjuntos de dados utilizados neste primeiro estudo. Em nosso estudo cross-domain, investigamos a capacidade de transferência de conhecimento do domínio geral para o domínio jurídico. Para isso, participamos do COLIEE 2021, competição que envolve a execução de tarefas automatizadas aplicadas ao domínio jurídico, no qual experimentamos modelos transformer sem adaptações ao domínio alvo. Nossas submissões para a tarefa de vinculação de processos judiciais obtiveram as pontuações mais altas, ultrapassando a segunda melhor equipe em mais de seis pontos e nosso modelo zero-shot superou todos os modelos treinados para esta tarefa. Além disso, nossos experimentos confirmam um resultado bastante contra-intuitivo no novo paradigma de modelos de linguagem pré-treinados: dada uma limitação na quantidade de exemplos rotulados, modelos com pouca ou nenhuma adaptação à tarefa alvo podem ser mais robustos a mudanças na distribuição de dados do que modelos diretamente treinados no conjunto de dados alvo Abstract: Deep learning algorithms have been adopted in many important applications in natural language processing. These algorithms stand out for their ability to learn large amounts of information and perform well on tasks that were previously considered too difficult for machines to perform. Therefore, its application has been increasingly widespread for different tasks, domains and languages. Yet, it is well known that deep learning models typically do not generalize much beyond the data distribution seen during fine-tuning and have difficulty adapting to new scenarios. A solution to this problem is to retrain the model on a new large and diverse labeled dataset. However, we often do not have readily available datasets for every new scenario that may arise, and in addition, real-world data is constantly changing. Thus, an effective method to address this problem and improve the generalization capacity of transformer models is to use zero-shot transfer learning approaches. To further study the transfer learning ability of transformer models, we separate zero-shot learning into two different categories, depending on how the test examples differ from the data used for fine-tuning. In our work, training and test examples may differ because they belong to different languages (cross-lingual) or to different domains (cross-domain). We explore both categories by designing two studies that cover each separately. In our first study, we analyze three cross-lingual methods in terms of their effectiveness (e.g., accuracy), development and deployment costs, as well as their latencies at inference time. Furthermore, by combining cross-lingual methods, we achieve the state of the art in two datasets used in the first study. In our cross-domain study, we investigate the transfer learning ability from general domain to the legal domain. For that, we participated in COLIEE 2021, a competition involving automated tasks in the legal domain, in which we experimented with transformer models with no adaptations to the target domain. Our submissions to the task of legal case entailment achieved the highest scores, surpassing the second-best team by more than six points and our zero-shot model outperformed all fine-tuned models on this task. In addition, our experiments confirm a counter-intuitive result in the new paradigm of pretrained language models: given limited labeled data, models with little or no adaptation to the target task can be more robust to changes in the data distribution than models fine-tuned on it Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2022
23. Equações de regressão usando análise de imagem digital para a previsão de pesos e rendimentos de cortes de carne bovina
- Author
-
Teira, Gustavo Adolfo, Felicio, Pedro Eduardo de, 1950, Lotufo, Roberto de Alencar, Alleoni, Guilherme, Silveira, Expedito Tadeu Facco, Universidade Estadual de Campinas. Faculdade de Engenharia de Alimentos, Programa de Pós-Graduação em Tecnologia de Alimentos, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Carne bovina ,Pesos - Estimativas ,Rendimentos - Estimativas - Abstract
Orientador: Pedro Eduardo de Felicio Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Alimentos Resumo: O resumo poderá ser visualizado no texto completo da tese digital Abstract: The abstract is available with the full electronic document Mestrado Mestre em Tecnologia de Alimentos
- Published
- 2021
- Full Text
- View/download PDF
24. Agrupamento de dados por florestas de caminhos otimos
- Author
-
Rocha, Leonardo Marques, Meloni, Luís Geraldo Pedroso, 1958, Falcão, Alexandre Xavier, 1966, Furuie, Sergio Shiguemi, Nascimento, Francisco Assis de Oliveira, Lotufo, Roberto de Alencar, Iano, Yuzo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Databases ,Information retrieval systems ,Image processing ,Análise de imagem ,Processamento de imagens ,Sistemas de recuperação de informação ,Banco de dados ,Image analysis - Abstract
Orientadores: Luis Geraldo Pedroso Meloni, Alexandre Xavier Falcão Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Esta tese propõe uma nova abordagem para agrupamento de dados baseada em floresta de caminhos ótimos. As amostras são tomadas como nós de um grafo, cujos arcos são definidos pela sua relação de adjacência. Os nós são ponderados pela seus valores de densidade de probabilidade (PDF) e uma função de conexidade que é maximizada, de forma que cada máximo na PDF torna-se uma raiz de uma árvore de caminhos ótimos (grupo), composto por amostras "mais fortemente conexas" àquele máximo que a qualquer outra raiz. Máximos irrelevantes (domos) são removidos por reconstrução morfológica da PDF. Uma discussão mostra as vantagens sobre abordagens baseadas no gradiente da PDF e suas relações com a transformada watershed. O método é estendido para grande bases de dados e comparado com as abordagens de mean-shift e watershed para agrupamento de pixels e segmentação interativa, respectivamente. Os experimentos para segmentação de imagens naturais e classificação de substâncias branca e cinza do cérebro mostram resultados rápidos e precisos comparados com métodos no estado-da-arte. Abstract: This thesis proposes a novel approach for data clustering based on optimum-path forest. The samples are taken as nodes of a graph, whose arcs are defined by an adjacency relation. The nodes are weighted by their probability density values (pdf) and a connectivity function is maximized, such that each maximum of the pdf becomes root of an optimum-path tree (cluster), composed by samples "more strongly connected" to that maximum than to any other root. Irrelevant maxima (domes) are removed by morphological reconstruction of the pdf. A discussion shows the advantages over aproaches based on the gradient of the pdf and its relations with the watershed transform. The method is extended for large datasets and compared to mean-shift and watershed approaches for pixel clustering and interactive segmentation, respectively. The experiments for the segmentation of natural images and automatic gray and white matter classification of the brain show fast and accurate results compared to state-of-the-art methods. Doutorado Telecomunicações e Telemática Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
25. Representação em multiplas escalas para identificação automatica de estruturas em imagens medicas
- Author
-
Rebelo, Marina de Fatima de Sa, Moura Junior, Lincoln de Assis, Furuie, Sergio Shiguemi, Costa, Eduardo Tavares, 1956, Gutierrez, Marco Antônio, Mascarenhas, Nelson Delfino d'Avila, Lotufo, Roberto de Alencar, Muhlen, Sérgio Santos, Button, Vera Lúcia da Silveira Nantes, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Processamento de imagem assistida por computador ,Representação do conhecimento (Sistemas especialistas) ,Identificação ,Image processing ,Identification of structures ,Diagnostico por imagens ,Scale space ,Representation - Abstract
Orientadores: Lincoln de Assis Moura Junior, Sergio Shiguemi Furuie, Eduardo Tavares Costa Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: A identificação de estruturas constitui uma etapa importante em processamento de imagens médicas. Este trabalho pretende contribuir na área de identificação de imagens médicas, e tem por objetivo propor uma metodologia genérica para identificação de estruturas, utilizando uma abordagem em múltiplas resoluções, o espaço de escalas. Avalia-se a utilização de uma representação de dados em múltiplas escalas que permite a inclusão de conhecimento a priori sobre as estruturas em diversas escalas e ainda explora-se a idéia de realizar o processamento em uma escala apropriada. A metodologia é composta das seguintes etapas: (i) criação de uma representação dos dados em diversas escalas utilizando a teoria de espaço de escalas linear. (ii) A seguir, analisa-se as imagens presentes em todas as escalas e detecta-se as características relevantes das imagens. O produto dessa etapa é uma representação em forma de árvore que mapeia as relações entre as estruturas no espaço de escalas. Essa representação serve como base para o passo seguinte, o processamento de alto nível, no qual o conhecimento a priori sobre a estrutura procurada é modelado e incluído na representação. (iii) A última etapa é o casamento entre os elementos presentes na estrutura construída e um padrão conhecido que descreve a estrutura de interesse. A metodologia é genérica e o tipo de informação armazenada no padrão depende da aplicação específica. Neste trabalho, foi implementado um protótipo, no qual são utilizadas informações geométricas para identificação de órgãos em imagens 2D de phantom que reproduz a anatomia humana. Os resultados da aplicação da metodologia em imagens com diferentes níveis de ruído e contraste foram bastante satisfatórios. As duas primeiras etapas já estão implementadas para imagens 3D e novos parâmetros podem ser facilmente incluídos na etapa de casamento para aplicações em imagens tri-dimensionais Abstract: The identification of structures is an important step for several applications in the field of medical imaging. The purpose of this thesis is to contribute to the field of identification in medical images. Its main goal is to propose a generic methodology for identification of structures by using a multiresolution approach, the scale-space. We evaluate the use of a data representation that allows the inclusion of a priori knowledge about the structures in several scales and we also develop the idea of an appropriate scale to perform the processing. The proposed methodology comprises the following steps: (i) creation of an image representation in several scales using the scale space theory. (ii) Then the images in all scales are inspected and relevant features are extracted; the output of this step is a tree structure that maps the relations of the detected features throughout the scale space; the representation serves as a guide to subsequent high level processing step, where a priori knowledge about the desired feature is modeled and included in the representation. (iii) The last step is the matching between the elements present in the built structure and a known pattern that describes the structure of interest. The proposed methodology is generic and the type of information to be used depends strongly on the application. In this Thesis, we built a prototype application in which we used geometric information for identification of organs in 2D phantom images that reproduces human anatomy. The results of applying this method to a set of images with different noise and contrast levels were quite satisfactory. The two initial steps of the method were also implemented for 3D images. New parameters can be easily included in the matching step for extension to 3D Doutorado Engenharia Biomédica Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
26. Segmentação de displasias corticais focais em imagens de ressonancia magnetica do cerebro humano
- Author
-
Bergo, Felipe Paulo Guazzi, 1978, Falcão, Alexandre Xavier, 1966, Furuie, Sergio Shiguemi, Traina, Agma Juci Machado, Cendes, Fernando, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Neurociências ,Epilepsy ,Image processing ,Magnetic resonance ,Processamento de imagens ,Ressonância magnética ,Epilepsia ,Neuroscience - Abstract
Orientador: Alexandre Xavier Falcão Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: O diagnóstico médico por imagem é uma tarefa complexa, que depende da avaliação subjetiva de um grande volume de dados. Diversas possibilidades de patologia não são consideradas por limitação de tempo e especialização dos profissionais da área médica, mesmo quando os exames adequados estão disponíveis. O desenvolvimento de técnicas automáticas de auxílio ao diagnóstico é um avanço importante para simplificar a tarefa do médico, descartando um grande número de patologias ou indicando as localizações mais prováveis de eventuais anormalidades patológicas. Displasias corticais focais (FCDs) estão associadas à epilepsia, e são uma das causas mais comuns de casos de epilepsia refratária, em que o tratamento medicamentoso não é suficiente para controlar as crises. As FCDs são lesões que geram variações locais e sutis na aparência do tecido em imagens de ressonância magnética (RM). Seu diagnóstico é em geral uma tarefa difícil e subjetiva. Detecção e localização de eventuais lesões de FCD são passos fundamentais para o planejamento do tratamento do paciente. Neste trabalho propomos um método para segmentação automática de FCDs em imagens de ressonância magnética (RM) tri-dimensional do cérebro humano. Desenvolvemos novas técnicas de segmentação e análise de imagens, automatizamos uma técnica previamente interativa (reformatação curvilinear) e, através de classificação por aprendizado supervisionado, obtivemos detecção de 100% das lesões, com cobertura de 76,9% dos voxels lesionais. Este resultado é um pouco melhor que o estado da arte, embora ainda não seja uma solução ideal, solidamente validada, para o problema Abstract: Medical diagnosis from imaging techniques is a complex task that depends on subjective evaluation of a large volume of data. Many pathologies are often not considered due to time and experience restrictions of the medical crew, even when the imaging data are readily available. The development of computer-aided diagnosis techniques greatly simplify the physician¿s work, by discarding a large number of pathologies and/or pointing out the most probable locations of pathological abnormalities. Focal cortical displasia (FCDs) are associated to epilepsy, and are one of the most common causes of refractory epilepsy, where drug-based treatment does not eliminate the seizures. FCDs are lesions that lead to subtle, localized appearance variations of brain tissue in magnetic resonance (MR) imaging. Their diagnosis is difficult, tedious and subjective. Detection and localiation of FCD lesions are key steps for treatment planning. In this work we propose a method for automatic segmentation of FCDs in tridimensional magnetic MR images of the human brain. We developed new image segmentation and image analysis techniques, automated a previously interactive technique (curvilinear reformatting) and, through classification by supervised learning, achieved detection of 100% of the lesions, with 76,9% coverage of the lesional voxels. This result is slightly better than the state-of-the-art, even though it still is has not been thoroughly validated on a large data base and can still be improved. Doutorado Doutor em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
27. Segmentação interativa do ventriculo esquerdo em sequencias de imagens de ressonancia magnetica (Cine MR)
- Author
-
Rondina, Jane Maryam, Lotufo, Roberto de Alencar, 1955, Gutierrez, Marco Antônio, Furuie, Sergio Shiguemi, Costa, Eduardo Tavares, Falcão, Alexandre Xavier, Andrade Netto, Marcio Luiz de, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Coração - Ventriculo esquerdo ,Processamento de imagens ,Diagnóstico por imagem ,Sistemas de computação interativos ,Imagem de ressonância magnética - Abstract
Orientadores : Roberto de Alencar Lotufo, Marco Antonio Gutierrez Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Imagens de ressonância magnética (IRM) têm sido utilizadas como um importante recurso para análises do funcionamento cardíaco e detecção de cardiopatias. No entanto, para a obtenção de informações quantitativas que possibilitem determinadas análises é necessário um processo prévio de segmentação de estruturas nas imagens. A realização desta tarefa manualmente é um trabalho bastante tedioso, principalmente em relação a imagens adquiridas pela modalidade considerada (cine MR). Nesta modalidade os exames são, em geral, constituídos de um grande volume de imagens, pois os cortes são obtidos em diversas fases ao longo do ciclo cardíaco. Neste trabalho desenvolveu-se um sistema interativo (ou semi-automático) para segmentação do ventrículo esquerdo em seqüências de imagens obtidas pela modalidade considerada. Para esta [malidade foi utilizado o método de segmentação Watershed através de procedimentos de análise de imagens baseados em morfologia matemática. A partir do sistema desenvolvido foram realizados testes de segmentação em um conjunto de 10 exames. Os resultados quantitativos obtidos foram comparados através de análises de variação intra-operador e inter-operadores e comparação com resultados da segmentação manual. As análises realizadas possibilitaram uma avaliação significativa mostrando a potencialidade do sistema desenvolvido e possibilitando a realização de considerações acerca de sua utilização em uma rotina clinica Abstract: Magnetic Resonance Images have been utilized as an important resource for analysis of the cardiac cycle and disease detection. However, to obtaio quantitative information that enable some of the possible analysis, it is necessary a previous process to structures segmentation in the images. Performing this task manual1y is a much tedious work, especially relative to images of cine MR. These exams usually consist of a large number of images, representing cuts obtained in different periods of the cardiac cyc1e. In this work we developed an interactive system (or a semi-automatic system) for segmenting the left ventric1e in sequences of MR images. For this purpose we uSed the Watershed segmentation method and image analysis procedures based on Mathematical Morphology. The developed system was evaluated by performing segmentation tests in a ten exams set. The quantitative results were compared through analysis of intra-operator and inter-operators variations and manual segmentation. The performed analysis resulted in a significant evaluation showing the potentiality of the proposed system and providing considerations about its use in a c1inical routine Mestrado Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
28. Zona de empate
- Author
-
Audigier, Romaric Matthias Michel, Lotufo, Roberto de Alencar, 1955, Furuie, Sergio Shiguemi, Stolfi, Jorge, Falcão, Alexandre Xavier, Tozzi, Clésio Luis, Von Zuben, Fernando José, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Graph theory ,Morfologia matemática ,Image segmentation ,Teoria dos grafos ,Shortest-path forest ,Fuzzy connectedness ,Árvores (Teoria dos grafos) ,Mathematical morphology ,Processamento de imagens ,Watershed ,Image-foresting transform (IFT) ,Minimum spanning forest - Abstract
Orientador: Roberto de Alencar Lotufo Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Esta tese introduz o novo conceito de transformada de zona de empate que unifica as múltiplas soluções de uma transformada de watershed, conservando apenas as partes comuns em todas estas, tal que as partes que diferem constituem a zona de empate. A zona de empate aplicada ao watershed via transformada imagem-floresta (TZ-IFT-WT) se revela um elo inédito entre transformadas de watershed baseadas em paradigmas muito diferentes: gota d'água, inundação, caminhos ótimos e floresta de peso mínimo. Para todos esses paradigmas e os algoritmos derivados, é um desafio se ter uma solução única, fina, e que seja consistente com uma definição. Por isso, propõe-se um afinamento da zona de empate, único e consistente. Além disso, demonstra-se que a TZ-IFT-WT também é o dual de métodos de segmentação baseados em conexidade nebulosa. Assim, a ponte criada entre as abordagens morfológica e nebulosa permite aproveitar avanços de ambas. Em conseqüência disso, o conceito de núcleo de robustez para as sementes é explorado no caso do watershed. Abstract: This thesis introduces the new concept of tie-zone transform that unifies the multiple solutions of a watershed transform, by conserving only the common parts among them such that the differing parts constitute the tie zone. The tie zone applied to the watershed via image-foresting transform (TZ-IFTWT) proves to be a link between watershed transforms based on very different paradigms: drop of water, flooding, optimal paths and forest of minimum weight. For all these paradigms and the derived algorithms, it is a challenge to get a unique and thin solution which is consistent with a definition. That is why we propose a unique and consistent thinning of the tie zone. In addition, we demonstrate that the TZ-IFT-WT is also the dual of segmentation methods based on fuzzy connectedness. Thus, the bridge between the morphological and the fuzzy approaches allows to take benefit from the advance of both. As a consequence, the concept of cores of robustness for the seeds is exploited in the case of watersheds. Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
29. Common carotid artery lumen automatic segmentation from cine fast spin echo magnetic resonance imaging
- Author
-
Rodrigues, Livia Maria de Aguiar, 1990, Lotufo, Roberto de Alencar, 1955, Magalhães, Léo Pini, Frayne, Richard, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Magnetic resonance imaging ,Segmentação de imagens médicas ,Segmentation of medical images ,Artéria carótida ,Carotid artery ,Imagem de ressonância magnética - Abstract
Orientador: Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: A aterosclerose é uma das principais causas de derrame cerebral e é responsável por milhões de mortes por ano. A ressonância magnética (RM) é uma maneira comum de avaliar a aterosclerose da artéria carótida. Um novo método de imagem de RM cine fast spin echo (FSE) agora pode obter dados de RM dinâmicos, i.e., gerar imagens em todo o ciclo cardíaco). Este trabalho apresenta uma técnica de pós-processamento que automatiza a segmentação do limiar entre sangue e parede (lumen) da artéria carótida comum (ACC) ao longo do ciclo cardíaco. Até onde sabemos, este trabalho é a primeira técnica proposta para segmentar imagens cine FSE com resolução de ciclo cardíaco. A técnica supera algumas limitações da dinâmica em comparação com imagens estáticas ex., resolução espacial mais baixa). Ele combina o conhecimento a priori sobre o tamanho e a forma da ACC, com a estrutura de dados max-tree, classificador Random Forest e a transformada tie-zone watershed a partir de marcadores internos e externos para segmentar o lúmen do vaso. O desempenho da técnica foi avaliado usando validação cruzada com 3 folds com 15 sequências cine FSE por fold. Cada sequência consiste de 16 pontos de tempo em todo o ciclo cardaco. A segmentação automática foi comparada com resultados de segmentação manual. Nossa técnica alcançou um coeficiente dice, sensibilidade e taxa de falso positivo de 0.926 +/- 0.005 (média +/- desvio padrão), 0.909 +/- 0.011 e 0.056 +/- 0.003, respectivamente, em comparação com o consenso da segmentação manual de três especialistas Abstract: Atherosclerosis is one of the main causes of stroke and is responsible for millions of deaths per year. Magnetic resonance (MR) is a common way of assessing carotid artery atherosclerosis. A newly proposed cine fast spin echo (FSE) MR imaging method can now obtain dynamic MR data i.e., generate images across the cardiac cycle). This work introduces a post-processing technique that automatically segments the common carotid artery (CCA) wall-blood boundary (lumen) across the cardiac cycle with no need of human interaction. To the best of our knowledge, this work is the first proposed technique for segmenting cardiac cycle-resolved cine FSE images. The technique overcomes some limitations of dynamic compared to static images e.g., lower spatial resolution). It combines a priori knowledge about the size and shape of the CCA, with the max-tree data structure, random forest classifier and tie-zone watershed transform from identified internal and external markers to segment the vessel lumen i.e., vessel wall-blood boundary). Technique performance was assessed using 3-fold cross validation with 15 cine FSE sequences per fold, each sequence consisting of 16 temporal bins across the cardiac cycle. The automatic segmentation was compared against manual segmentation results. Our technique achieved an average Dice coefficient, sensitivity and false positive rate of 0.926 +/- 0.005 (mean +/- standard deviation), 0.909 +/- 0.011 e 0.056 +/- 0.003, respectively, compared to the voting consensus of three experts manual segmentation Mestrado Engenharia de Computação Mestra em Engenharia Elétrica CAPES
- Published
- 2021
- Full Text
- View/download PDF
30. Adesso
- Author
-
Machado, Rubens Campos, Lotufo, Roberto de Alencar, 1955, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Geradores de código ,Software - Desenvolvimento ,LaTeX (Sistema de computador) ,Linguagem de programação (Computadores) ,Software - Reutilização ,SGML (Linguagem de programação de computador) ,HTML (Linguagem de marcação de documento) - Abstract
Orientador : Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Mestrado
- Published
- 2021
- Full Text
- View/download PDF
31. Processamento, analise e visualização de dados tomograficos multidimensionais de rocha
- Author
-
Silva, Wellington Diolice Felix da, 1972, Lotufo, Roberto de Alencar, 1955, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Porosidade ,Visualização ,Tomografia ,Processamento de imagens - Abstract
Orientador: Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica Resumo: Este trabalho aborda o desenvolvimento de ferramentas computacionais que auxiliam o estudo e a visualização do comportamento dinâmico do escoamento de fluidos em um meio poroso. O objetivo principal é calcular e visualizar a saturação de óleo no interior da amostra de rocha nos diversos instantes de tempo durante os ensaios de escoamento. Os dados volumétricos são adquiridos por tomografia computadorizada enquanto a amostra de rocha é submetida a ensaios de escoamento. Estes dados são processados utilizando o modelo voxel através das ferramentas desenvolvidas. Estas ferramentas estão divididas em cinco grandes grupos: entrada de dados, pré-processamento, processamento, visualização e visualização analítica. Na fase de leitura da fita, as fatias tomografadas, armazenadas em dispositivos seqüenciais, são recuperadas através da reconstrução do volume da amostra no modelo voxel. Na fase de pré-processamento, o volume é tratado de modo a reduzir os dados armazenados, eliminando regiões que não contenham dados de interesse. Além disso, são feitas correções na imagem de modo a eliminar eventuais problemas de alinhamento e de variações de escala ocorridos na varredura da amostra pelo tomógrafo. Na fase de processamento, foi escolhido como exemplo de utilização destas ferramentas, o cálculo da porosidade e da saturação de fluidos de um meio poroso. Estes cálculos são definidos a partir de operações aritméticas de volumes tomográficos ...Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital Abstract: The approach of this work is the development of computer tools that help the study and the visualization of the dynamic behavior of the fluid flowing in porous media. The main objective is to ca1culate and to visualize the oil saturation into the rock sample at different instants of time during the flowing experiment. The volumetric data are acquired by computer tomography of the sample rock submitted to flowing off trials. These data are processed using the voxel model and the tools developed are divided in five main groups: data input, pre-processing, processing, visualization and analytical visualization. In the tape reading stage, the slices produced by tomography, stored in sequential devices, are recovered through the volumetric reconstruction of the sample using the voxel model. In the pre-processing stage, the volume is treated to reduce the amount of stored data, eliminating regions that contain non-interesting data. Besides that, some corrections are done to the image to eliminate eventual problems of size incompatibility and misalignment. In the processing stage, the calculus of the porosity of a porous media and the calculus of the saturation of fluids in that media were chosen as examples of the application of these tools. These computation processes are defined from arithmetic operations of tomographic volumes ...Note: The complete abstract is available with the full electronic digital thesis or dissertations Mestrado Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
32. Reconstrução tridimensional por ajuste de superficies parametricas
- Author
-
Cesar Junior, Roberto Marcondes, Lotufo, Roberto de Alencar, 1955, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Superfícies (Tecnologia) ,Automação industrial - Abstract
Orientador : Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica Resumo: Este trabalho apresenta os principais aspectos sobre uma abordagem de reconstrução tridimensional (3D) de objetos por ajuste de superfícies paramétricas. A reconstrução 3D se insere como um tópico da visualização volumétrica. o processo de reconstrução 3D por pode ser dividido em 3 etapas gerais: segmentação de contornos; casamento de segmentos entre contornos; e interpolação ou aproximação da superfície paramétrica. Cada uma dessas etapas é apresentada e discutida. São apresentados os detalhes do desenvolvimento e implementação de um método de reconstrução 3D por superfícies de Coons. A etapa de segmentação e representação de contornos é feita com auxíliode curvas B-Spline. Para a descrição dos segmentos, foi criado um descritor que é calculado a partir do polígono de controle de cada segmento. O casamento de segmentos é feito por um método baseado no algoritmo de busca em grafos conhecido como A*. O ajuste de superfícies é feito por "patches" de Coons. Esta dissertação contribui em 3 aspectos principais: melhoria do método de segmentação de contornos proposto por Medioni, criação de um descritor para segmentos de B-Spline e desenvolvimento de um método de casamento de segmentos que se baseia no algoritmo A* de busca em grafos. São apresentados os resultados utilizando imagens sintéticas e experimentais, obtidas por digitalização por "scanner" e por um processo de tomografia Computadorizada de raio-x Abstract: An approach to three-dimensional (3D) reconstruction of objects by parametric surfaces, a topic from volume visualization, is described. The parametric surface 3D reconstruction can be divided in three steps : contour segmentation; segment matching; and parametric surface formation. These steps are presented and discussed. A method for 3D reconstruction by Coons surfaces is developed and presented. B-Splines are used for contour segmentation and representation. The guiding-polygon is used for contour description. Segment matching is achieved by an algorithm based on the A* graph search method. Surface formation is performed by Coons's blending. This thesis contributes in 3 main aspects: improvement of the contours segmentation method proposed by Medioni, definition of a B-Spline segment descriptor, and developement of a segment matching method, based on the A* graph search method. Some results from both synthetic and experimental images are presented. Mestrado Automação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
33. Um sistema para visualização holografica
- Author
-
Bertini, Eloisa, Geus, Paulo Lício de, 1956, Lotufo, Roberto de Alencar, Machado, Nelson Castro, Falcão, Alexandre Xavier, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Computação gráfica ,Holografia ,Visualização - Técnicas ,Processamento de imagens - Abstract
Orientador: Paulo Licio de Geus Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Este trabalho apresenta os desenvolvimentos obtidos com o Holoprojetor, um projetor tridimensional que faz uso de um dispositivo chamado tela holográfica, inicialmente apresentado por Lunazzi e Diamand [29] [11]. O holoprojetor original utilizava movimentos vetoriais para estabelecer as coordenadas x, y e z, ao passo que a nova versão apresentada neste trabalho faz uso de um painel LCD para obter x e y, restando apenas z para o aparato opto-mecânico. Esta nova versão do Holoprojetor permite taxas de atualização de imagem muito maiores que as iniciais, com resultados visuais muito bons e independentes da capacidade de' ajuste visual do observador, como é o caso da visualização de pares-estéreo. Abstract: This work presents the developments with the Holoprojector, a three-dimensional projector that makes use of a device called holographic screen, initially presented by Lunazzi and Diarnand [29] [11]. The first holoprojector used vector movements to establish the x, y and z coordinates, whereas the new version, presented in this work, makes use of a LCD panel to render x and y, leaving only z to be rendered by the opto-mechanical setup. This new version of the Holoprojector allows refresh rates much higher than the ones obtained by the pioneering system, yielding very good visual results that are independent from the observer's ability to adapt his vision, as is the case with stereo-pair visualization. Mestrado Mestre em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
34. Gerador automatico de editores XML baseado no XML schema
- Author
-
Saude, Andre Vital, Lotufo, Roberto de Alencar, 1955, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Editor de textos (Programas de computador) ,Programação orientada a objetos (Computação) ,Engenharia de software ,Programas de computador ,XML (Linguagem de marcação de documento) - Abstract
Orientador: Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Mestrado
- Published
- 2021
- Full Text
- View/download PDF
35. Caracterização tridimensional de sistemas porosos carbonaticos atraves de morfologia matematica
- Author
-
Monteiro, Marcelo Costa, Chang, Hung Kiang, Lotufo, Roberto de Alencar, 1955, Kiang, Chang Hung, Remacre, Armando Zaupa, Fernandes, Celso Peres, Universidade Estadual de Campinas. Instituto de Geociências, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Processamento de imagens - Técnicas digitais ,Reservatórios (Carbonáticos) - Abstract
Orientadores: Chang Hung Kiang e Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Geociencias Resumo: Os meios porosos carbonáticos formam um sistema tridimensional complexo de poros e gargantas. O método mais simples e óbvio para a caracterização destas formas côncavas e interconectadas é o seccionamento serial associado com a análise de imagens tridimensionais. Utilizando as rotinas existentes no sistema Khoros, foram gerados diversos algoritmos de análise de imagem (AI): a) para a medida de porosidade e superfície específica; b) para a determinação dos histogramas de tamanho de poro e garganta de poro; e, finalmente c) para simular curvas de injeção de fluidos não molhantes. Estes algoritmos foram testados com imagens sintéticas e de amostras artificiais de rocha. O seccionamento serial de 18 amostras de carbonatos gerou 32 imagens bidimensionais em níveis de cinza, todas elas paralelas e igualmente espaçadas, para cada amostra. Para a geração das imagens tridimensionais, foi necessário o alinhamento das feições e a correção da escala original. Além disto, foi necessário também a interpolação de duas imagens entre cada duas originais para a obtenção de imagens isotrópicas. A limiarização destas Imagens em níveis de cinza separou a fase poro da fase não poro, resultando, finalmente em imagens binárias tridimensionais do sistema poroso de oito amostras. Estas imagens foram submetidas a alguns dos algoritmos acima. As porosidades encontradas com o uso do algoritmo de AI ficaram sistematicamente abaixo da porosidade obtida no laboratório (injeção de mercúrio), devido principalmente à existência de microporosidade que não foi detetada devido a escala das imagens. As saturações irredutíveis da fase molhante observadas nas curvas de drenagem foram também devidas ao tamanho do pixel (18 micrômetros) que não permitiu a detecção dos pequenos volumes das gargantas de poros, desta forma desconectando o sistema em muitas unidades. Estas unidades desconectadas não puderam ser alcançadas pela fase contínua vinda da superfície das amostras Abstract: Carbonate pore systems are known as complex three-dimensional systems of pores and pore-throats. The most simple and obviousmethod for the characterization of these nonconvex, interconnected shapes is the serial sectioning associated with three-dimensionaI image analysis. Using the Khoros system routines, it was generated several algorithms of image analysis (IA): a) for porosity and specific surface measurements, b) to find pore size and pore-throat size histograms, and finally c) to simulate nonwetting fluid injection curve. These algorithms were tested with three-dimensional synthetic and artificial rock sample images. /Serial sectioning of 18 carbonate samples generated 32 two-dimensional gray-scale images, parallel and equally spaced, for each sample. To generate three-dimensional images of those samples, it was necessary to align these images and interpolate two images between two originals. Thresholding the three-dimensional gray-scale images in a way to separate the nonpore phase from the pore phase features in these images resulted in three-dimensional binary images of the pore systems of eight samples. These images were treated with some of the algorithms above. The porosity found with IA algorithm for all of the samples was lower than that achieved by mercury injection method, mainly due the microporosity, which was not detected in the scale of the images. The high irreducible saturations of wetting phase observed in drainage curves were also due to the scale of the image, because the high pixel size (18 micrometers) could not detect the small volumes of pore-throats, so disconnecting the porosity system in many units that were not reached by the continous phase of nonwetting fluid comming from the surface of the sample Mestrado Geoengenharia de Reservatórios Mestre em Geociências
- Published
- 2021
- Full Text
- View/download PDF
36. Tomografia computadorizada de raios-X como tecnica de ensaios não destrutivos de materiais
- Author
-
Maschio, Célio, Arruda, Antonio Celso Fonseca de, 1948, Lotufo, Roberto de Alencar, 1955, Rezende, Mirabel Cerqueira, Bertazzoli, Rodnei, Universidade Estadual de Campinas. Faculdade de Engenharia Mecânica, Programa de Pós-Graduação em Engenharia Mecânica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Processamento de imagens - Técnicas digitais ,Image processing - Digital techniques ,Testes não-destrutivos ,Tomografia computadorizada ,X-Rays ,Nondestructive testing ,Computed tomography ,Raios X - Abstract
Orientadores: Antonio Celso Fonseca de Arruda, Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica Resumo: A tomografia computadorizada de raios-x tem extrapolado a área médica e ganhado campo em inúmeras aplicações onde se faz necessária a interpretação (qualitativa e quantitativa) da estrutura interna de um material opaco, sem destruí-lo. O presente trabalho demonstra a aplicação desta técnica em ensaios não destrutivos, utilizando-se amostras de materiais e componentes de diferentes densidades e geometrias, com defeitos simulados e reais, ensaiados em tomógrafos médicos. Demonstra-se, também, o uso da técnica na caracterização de filtros eletroquímicos usados para remoção de agentes contaminantes (no caso, zinco) de efluentes industriais. Foram usadas técnicas de processamento digital de imagens (sistema Khoros) para a caracterização dos defeitos encontrados, através da medida do coeficiente de atenuação do material em regiões de interesse, e por meio do cálculo de parâmetros dimensionais tais como área e perímetro. Foram aplicadas operações de filtragem matemática para a correção do efeito de endurecimento de feixe, verificado nas imagens de materiais metálicos, sobretudo no alumínio. Devido à sua natureza qualitativa e quantitativa, a tomografia computadorizada de raios-x demonstrou ser uma ferramenta promissora em ensaios não destrutivos de materiais. Este trabalho demonstra e reforça sua aplicabilidade através do uso de processamento digital de imagens Abstract: X-ray computed tomography (XCT), originally developed for medical purposes is becoming increasingly applied to several applications where it is necessary the interpretation of the internal structure of an object nondestructively. The present work shows the application of this technique to nondestructive testing using materiaIs and components of different density and geometry, with simulated and real defects tested in a medical scanner. Characterization of electrochemical filters used to remove contamination agents (in this case, zinc) in industrial effluents, by XCT technique is also described. Digital image processing have been used (software Khoros) for defects characterization, determining the attenuation coefficient in regions of interest and measuring parameters like area and perimeter. Digital filtering operations have been applied for beam hardening correction in metallic materiaIs images, mainly aluminum. Due its qualitative and quantitative nature, XCT technique established to be a promising tool of nondestructive materiaIs evaluation and this work emphasizes its applicability through digital image processing Mestrado Materiais e Processos de Fabricação Mestre em Engenharia Mecânica
- Published
- 2021
- Full Text
- View/download PDF
37. Analise de reprodutibilidade de digitações viscosas em meios porosos naturais consolidados
- Author
-
Silva, Arlindo da Costa e, Arruda, Antonio Celso Fonseca de, 1948, Bonet, Euclides Jose, Correa, Antonio Claudio de França, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Faculdade de Engenharia Mecânica, Programa de Pós-Graduação em Engenharia de Petróleo, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Tomografia computadorizada por raios X ,Engenharia do petróleo - Abstract
Orientadores: Antonio Celso Fonseca de Arruda, Euclides Jose Bonet Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica Resumo: Objetivou-se, através da técnica de tomografia computadorizada de Raios-X, visualizar o desenvolvimento de digitações viscosas durante o deslocamento de uma fase óleo por uma fase aquosa em um meio poroso homogêneo, natural e consolidado (arenito Vosges ). Foram escolhidos parâmetros de velocidade de injeção e razão de mobilidade de modo a propiciar o surgimento de digitações viscosas durante o escoamento bifásico. Com a utilização de um sofisticado sistema computacional (Khoros) para o tratamento das imagens gráficas, foi possível a determinação dos perfis de porosidade e de saturação de fluidos ao longo das amostras de rocha. A análise das imagens das secções transversais mostrou que, em condições de estabilidade hidrodinâmica, o deslocamento se desenvolve de acordo com o modelo pistonado sofrendo, apenas, efeitos gravitacionais bastante suavizados. Em contra-partida, em condições hidrodinamicamente instáveis, o fluido injetado se desloca através de regiões bem definidas do meio poroso indicando a existência de canais com pequeno gradiente positivo de permeabilidade. Observou-se, neste caso, efeitos de segregação gravitacional ainda mais marcantes. A análise dos perfis de saturação mostrou que, sob condições de saturação de água inata constante, as curvas de saturação da fase aquosa contra a variável de similaridade (XoITD) são semelhantes. Mantidos os mesmos parâmetros de injeção, observou-se que, as curvas de permeabilidade relativa ao óleo se sobrepõem. O mesmo acontece com as curvas de permeabilidade relativa à agua. Ficou evidente que tais curvas de permeabilidade relativa são bastante sensíveis à velocidade de injeção da fase de maior mobilidade. As curvas de permeabilidade relativa à água sugerem a existência de dois regimes de escoamento no interior do meio poroso e que, a mudança de um regime para o outro acontece em valores muito próximos de saturação da fase aquosa na rocha Abstract: The purpose of this work is to apply computerized X-Ray tomography techniques to visualize the development of viscous fingering during the displacement of an oil phase through an homogeneous, natural and consolidated porous media. Viscous fingering during two-phase flow is obtained by appropriate selection of both injection rate and mobility ratio. The porosity and saturation profiles have been computed by means of image analysis through the use of a graphical interpretation software. The image analysis of the cross sections shows that, under conditions of hidrodynamic stability, the displacement of water by oil occurs as predicted by the piston-like model, with small gravitational effects. On the other hand, when the oil phase is displaced by a water phase under unstable hidrodynamic conditions, the injected water flows through well defined regions of the porous medium. Gravity segregation is also observed in this case. Provided the injection parameters and the connate water saturation are kept constant, the water saturation profiles as a function of self-similar variable (xo / to) merge into a single curve. For the same injection conditions, it was observed that curves of oil permeability versus water saturation overlap themselves. Such overlapping also happens with the water relative permeability versus water saturation curves. It was evident that the oil relative permeabilities are strongly influenced by the injection rate of a higher mobility fluid. The shape of the water relative permeability curves indicates the existence of two different displacement mechanisms taking place along the core. Moreover, the water fractionary flow curve is characteristic of unstable displacement Mestrado Mestre em Engenharia de Petróleo
- Published
- 2021
- Full Text
- View/download PDF
38. Analise hierarquica de imagens atraves da arvore dos lagos criticos
- Author
-
Carvalho, Marco Antonio Garcia de, 1970, Lotufo, Roberto de Alencar, 1955, Couprie, Michel, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Processamento de imagens - Técnicas digitais ,Árvores (Teoria dos grafos) - Abstract
Orientadores: Roberto de Alencar Lotufo, Michel Couprie Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Doutorado
- Published
- 2021
- Full Text
- View/download PDF
39. Marcadores minimos usando watershed
- Author
-
Silva, Wellington Diolice Felix da, 1972, Lotufo, Roberto de Alencar, 1955, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Grafo (Sistema de computador) ,Processamento de imagens - Abstract
Orientador : Roberto de Alencar Lotufo Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Doutorado
- Published
- 2021
- Full Text
- View/download PDF
40. Transformada de distancia por morfologia matematica
- Author
-
Zampirolli, Francisco de Assis, Lotufo, Roberto de Alencar, 1955, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Algoritmos ,Processamento de imagens ,Algoritmos paralelos - Abstract
Orientador: Roberto de Alencar Lotufo Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e Computação Doutorado
- Published
- 2021
- Full Text
- View/download PDF
41. Watershed com marcadores propagados para segmentação interativa de objetos em sequencias de imagens
- Author
-
Flores, Franklin Cesar, Lotufo, Roberto de Alencar, 1955, Castanho, Jose Eduardo Cogo, Hirata Junior, Roberto, De Martino, José Mário, Tozzi, Clésio Luis, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Visão por computador ,Image processing ,Mathematical morphology ,Processamento de imagens ,Computer vision - Abstract
Orientador: Roberto de Alencar Lotufo Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Esta tese de doutorado apresenta um método interativo para segmentação de objetos em sequências de imagens - o watershed com marcadores propagados. Este método, uma combinação de segmentação morfológica clássica com estimação de movimento, possui quatro características importantes: i) interatividade, ii) generalidade, iii) resposta rápida e iv) edição manual progressiva. Watershed com marcadores propagados consiste em segmentar interativamente os objetos de interesse no primeiro quadro e, subsequentemente, computar e propagar marcadores para segmentar os mesmos objetos nos quadros seguintes. Além da proposta do paradigma do watershed com marcadores propagados, esta tese também apresenta variações para o paradigma citado e um novo benchmark para avaliação quantitativa de métodos interativos para segmentação de objetos em sequências de imagens Abstract: This doctorate thesis introduces an assisted method to object segmentation in image sequences - the watershed from propagated markers. This method, a combination of classical morphological segmentation withmotion estimation, has four important characteristics: i) interactivity, ii) generality, iii) rapid response and iv) progressive manual edition. Watershed from propagated markers consists in to segment interactively the objects of interest in the first frame and, subsequently, to compute and propagate markers in order to segment the same objects in the next frames. Besides the proposal of the watershed from propagated markers paradigm, this thesis also presents variaions to the cited paradigm and a new benchmark to quantitative evaluation of interactive object segmentation methods applied to image sequences Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
42. Segmentação de imagens de tensores de difusão no contexto da morfologia matematica
- Author
-
Rittner, Leticia, 1972, Lotufo, Roberto de Alencar, 1955, Hirata, Nina Sumiko Tomita, Saude, Andre Vital, Cendes, Fernando, Magalhães, Léo Pini, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Diffusion - Magnetic resonance imaging ,Image processing ,Mathematical morphology ,Difusão - Imagem de ressonância magnética ,Processamento de imagens - Abstract
Orientador: Roberto de Alencar Lotufo Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: O objetivo principal desta tese é propor um método de segmentação para imagens de tensores de difusão baseado na transformada de watershed. Ao invés de adaptar o watershed para trabalhar com imagens tensoriais, definimos mapas escalares baseados na morfologia matemática que retêm a informação relevante contida nos tensores para, a partir deles, conseguir a segmentação da imagem aplicando a transformada de watershed. Novos mapas baseados em operadores da morfologia matemática são então propostos e analisados. O principal mapa escalar proposto é o gradiente morfológico tensorial (TMG). Um estudo comparativo do TMG com os diversos mapas escalares já existentes demonstra sua superioridade na tarefa de segmentação. Os resultados da segmentação baseada no TMG e no watershed hierárquico são comparáveis com resultados de segmentação baseada em atlas. O método proposto é usado para segmentar os núcleos do tálamo, uma tarefa de grande importância para a neuro-ciência. O método também é adaptado para segmentação de imagens coloridas, sendo necessária para tanto a criação de uma representação tensorial específica Abstract: The main goal of this thesis is to present a segmentation method for diffusion tensor images, based on the watershed transform. Instead of adapting the watershed to work with tensorial images, scalar maps based on mathematical morphology, retaining relevant information from tensors, were defined. The desired segmentation is achieved by applying the watershed over these scalar maps. New scalar maps, based on mathematical morphology, are defined and analyzed. The tensorial morphological gradient (TMG) is the most important among the proposed scalar maps. A comparative study of the TMG with the existing scalar maps shows its superiority in the segmentation task. Segmentation results obtained by the hierarchical watershed over the TMG are comparable to atlas-based segmentation. The proposed method is used to segment the thalamic nuclei, an important task for neuroscience. The method is also adapted to segment color images, requiring a definition of a specific tensorial representation Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
43. Classificadores e aprendizado em processamento de imagens e visão computacional
- Author
-
Rocha, Anderson de Rezende, 1980, Goldenstein, Siome Klein, 1972, Cozman, Fabio Gagliardi, Costa, Luciano da Fontoura, Dahab, Ricardo, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Feature fusion ,Aprendizado de máquina - Técnica ,Categorização de imagens ,Image categorization ,Forensic image analysis ,Fusão de caracteristicas ,Esteganálise ,Classificação multi-classe ,Steganalysis ,Classifier fusion ,Multi-class classification ,Análise forense de imagem ,Machine learning - Technique ,Fusão de classificadores - Abstract
Orientador: Siome Klein Goldenstein Tese (doutorado) - Universidade Estadual de Campinas, Instituto da Computação Resumo: Neste trabalho de doutorado, propomos a utilizaçãoo de classificadores e técnicas de aprendizado de maquina para extrair informações relevantes de um conjunto de dados (e.g., imagens) para solução de alguns problemas em Processamento de Imagens e Visão Computacional. Os problemas de nosso interesse são: categorização de imagens em duas ou mais classes, detecçãao de mensagens escondidas, distinção entre imagens digitalmente adulteradas e imagens naturais, autenticação, multi-classificação, entre outros. Inicialmente, apresentamos uma revisão comparativa e crítica do estado da arte em análise forense de imagens e detecção de mensagens escondidas em imagens. Nosso objetivo é mostrar as potencialidades das técnicas existentes e, mais importante, apontar suas limitações. Com esse estudo, mostramos que boa parte dos problemas nessa área apontam para dois pontos em comum: a seleção de características e as técnicas de aprendizado a serem utilizadas. Nesse estudo, também discutimos questões legais associadas a análise forense de imagens como, por exemplo, o uso de fotografias digitais por criminosos. Em seguida, introduzimos uma técnica para análise forense de imagens testada no contexto de detecção de mensagens escondidas e de classificação geral de imagens em categorias como indoors, outdoors, geradas em computador e obras de arte. Ao estudarmos esse problema de multi-classificação, surgem algumas questões: como resolver um problema multi-classe de modo a poder combinar, por exemplo, caracteríisticas de classificação de imagens baseadas em cor, textura, forma e silhueta, sem nos preocuparmos demasiadamente em como normalizar o vetor-comum de caracteristicas gerado? Como utilizar diversos classificadores diferentes, cada um, especializado e melhor configurado para um conjunto de caracteristicas ou classes em confusão? Nesse sentido, apresentamos, uma tecnica para fusão de classificadores e caracteristicas no cenário multi-classe através da combinação de classificadores binários. Nós validamos nossa abordagem numa aplicação real para classificação automática de frutas e legumes. Finalmente, nos deparamos com mais um problema interessante: como tornar a utilização de poderosos classificadores binarios no contexto multi-classe mais eficiente e eficaz? Assim, introduzimos uma tecnica para combinação de classificadores binarios (chamados classificadores base) para a resolução de problemas no contexto geral de multi-classificação. Abstract: In this work, we propose the use of classifiers and machine learning techniques to extract useful information from data sets (e.g., images) to solve important problems in Image Processing and Computer Vision. We are particularly interested in: two and multi-class image categorization, hidden messages detection, discrimination among natural and forged images, authentication, and multiclassification. To start with, we present a comparative survey of the state-of-the-art in digital image forensics as well as hidden messages detection. Our objective is to show the importance of the existing solutions and discuss their limitations. In this study, we show that most of these techniques strive to solve two common problems in Machine Learning: the feature selection and the classification techniques to be used. Furthermore, we discuss the legal and ethical aspects of image forensics analysis, such as, the use of digital images by criminals. We introduce a technique for image forensics analysis in the context of hidden messages detection and image classification in categories such as indoors, outdoors, computer generated, and art works. From this multi-class classification, we found some important questions: how to solve a multi-class problem in order to combine, for instance, several different features such as color, texture, shape, and silhouette without worrying about the pre-processing and normalization of the combined feature vector? How to take advantage of different classifiers, each one custom tailored to a specific set of classes in confusion? To cope with most of these problems, we present a feature and classifier fusion technique based on combinations of binary classifiers. We validate our solution with a real application for automatic produce classification. Finally, we address another interesting problem: how to combine powerful binary classifiers in the multi-class scenario more effectively? How to boost their efficiency? In this context, we present a solution that boosts the efficiency and effectiveness of multi-class from binary techniques. Doutorado Engenharia de Computação Doutor em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
44. As universidades de pesquisa e a gestão estratégica do empreendedorismo
- Author
-
Lemos, Paulo Antonio Borges, 1964, Salles Filho, Sergio Luiz Monteiro, 1959, Salles-Filho, Sergio Luiz Monteiro, 1959, Lotufo, Roberto de Alencar, Gavira, Muriel de Oliveira, Audy, Jorge Luis Nicolás, Hashimoto, Marcos, Universidade Estadual de Campinas. Instituto de Geociências, Programa de Pós-Graduação em Política Científica e Tecnológica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Business management ,Empreendedorismo ,Ecosystem - Administration ,Entrepreneurship ,Gestão de empresas ,Inovação ,Innovation ,Ecossistema - Administração - Abstract
Orientador: Sergio Luiz Monteiro Salles-Filho Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Geociências Resumo: Esta tese está situada no contexto das pesquisas que buscam novas idéias, práticas e instrumentos para tratar o empreendedorismo em universidades de pesquisa. O argumento principal da tese é que o ecossistema é uma unidade de referência e uma unidade de análise diferenciada e que pode agregar valor à forma e à qualidade da gestão estratégica do empreendedorismo. Um ecossistema de empreendedorismo da universidade é formado por seus componentes, que configuram uma base de recursos e capacitações que deve ser gerenciada em busca de benefícios para o processo de geração de startups criadas pela universidade. O desenvolvimento do argumento deve produzir uma metodologia de análise de ecossistemas, principal objetivo da tese, orientada por 3 princípios: identificação, interpretação e instrumentalização da análise de ecossistemas. Assim, a tese é dividida em 3 capítulos. Os Capítulos 1 e 2 servem para subsidiar os princípios de identificação e interpretação da análise, enquanto o Capítulo 3 completa os elementos da metodologia de análise e busca as bases para uma aplicação e demonstração inicial da metodologia. O Capítulo 1 sintetiza os elementos de natureza mais ampla que servem para entender os ecossistemas em seus níveis macro, micro e organizacional e serve para o posicionamento e diferenciação da abordagem de ecossistema em relação à perspectiva da hélice tripla, a mais influente abordagem junto aos processos de gestão do empreendedorismo nas universidades. Os principais resultados do Capítulo 1 fornecem a base conceitual para a metodologia de análise de ecossistemas. O Capítulo 2 faz uma análise comparada de experiências internacionais de ecossistemas (MIT, Stanford, Utah e Cambridge, na Inglaterra), de maneira contextualizada e orientada a produzir um aprendizado à experiência brasileira de ecossistemas, a partir das experiências comparadas. O capítulo 3 é a aplicação da metodologia proposta, a partir da seleção de alguns componentes do ecossistema da Unicamp. Os resultados da análise produzidos pela metodologia podem servir como insumos para a elaboração, o desenvolvimento e as melhorias da gestão estratégica do empreendedorismo da Unicamp. Como resultado principal, a expectativa é que a metodologia produzida possa ser útil à pesquisa acadêmica e possa ser replicada nas análises de outras experiências de ecossistemas, como forma de contribuir para os esforços de gestão estratégica do empreendedorismo em universidades de pesquisa Abstract: This PhD thesis is on the context of the research looking for new ideas, practices and tools to deal with entrepreneurship in research universities. The major argument is that the university-based entrepreneurship ecosystem is, simultaneously, a unit of reference and a unit of analysis appropriate for strategic management of entrepreneurship in research universities. An university-based entrepreneurship ecosystem is comprised of components, resources and capabilities that must be managed in pursuit of benefits for the process of creation and development of university-based startups. Universities and their respective management structures of entrepreneurship have the potential to use the ecosystem and its components as a source of value creation and as a reference for the strategic management of entrepreneurship for both companies and the management processes of universities. The development of this argument should produce a methodology for the analysis of ecosystems, the main objective of the thesis, guided by three principles: identification, interpretation, and an instrumental tool for ecosystem analysis. Thus, the thesis is divided into three chapters. Chapters 1 and 2 aim to support the principles of identification and interpretation of the analysis, while Chapter 3 seeks the basis for a first test and demonstration of the methodology. Chapter 1 summarizes the elements of a broader conceptual base that serves to understand the ecosystems in their macro, micro, and organizational levels and serves for the positioning and differentiation of the ecosystem approach when compared with the triple helix model, the most influential approach to the management processes of entrepreneurship in universities. Chapter 2 makes a comparative and contextualized analysis of international experiences of some ecosystems (MIT, Stanford, Utah, and Cambridge, UK), in order to produce a "learning experience" to Brazilian ecosystems. Chapter 3 is the application of the proposed methodology through the Unicamp ecosystem components, selected and analyzed by the principles of that methodology. The results of the analysis produced by the methodology can serve as inputs for the design, development, and improvement of strategic management of entrepreneurship activities at Unicamp. As a main result, the expectation is that the methodology produced can be useful for academic research and can be replicated in other ecosystems experiences, as a way to contribute to the efforts of the strategic management of entrepreneurship in research universities Doutorado Política Científica e Tecnologica Doutor em Política Científica e Tecnológica
- Published
- 2021
- Full Text
- View/download PDF
45. Esqueletos euclidianos discretos em resolução aumentada
- Author
-
Saude, Andre Vital, Lotufo, Roberto de Alencar, 1955, Couprie, Michel, Tozzi, Clésio Luis, Banon, Gerald Jean Francis, Wu, Shin-Ting, Braga-Neto, Ulisses de Mendonça, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Morfologia matemática ,Euclidean skeletons ,Mathematical morphology ,Homotopic skeletons ,Processamento de imagens ,Geometria e topologia ,Geometria discreta - Abstract
Orientadores: Roberto de Alencar Lotufo, Michel Couprie Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: A extração de esqueletos Euclidianos é uma tema de grande importância na área de processamento de imagens e tem sido discutido pela comunidade científica já há mais de 20 anos. Hoje é consenso que os esqueletos Euclidianos devem ter as seguintes características: Ã?nos, centrados, homotópicos e reversíveis, i.e., suficientes para a reconstrução do objeto original. Neste trabalho, introduzimos o Eixo Mediano Euclidiano Exato em Resolução Aumentada -HMA, com o objetivo de obter um eixo mediano mais i?no do que o obtido pela definição clássica. Combinando o HMA com um ei?ciente algoritmo de afinamento paralelo homotópico, propomos um esqueleto Euclidiano que é centrado, homotópico, reversível e mais ³?no que os já existentes na literatura. O esqueleto proposto tem a particularidade adicional de ser único e independente de decisões arbitrárias. São dados algoritmos e provas, assim como exemplos de aplicações dos esqueletos propostos em imagens reais, mostrando as vantagens da proposta. O texto inclui também uma revisão bibliográfica sobre algoritmos de transformada de distância, eixo mediano e esqueletos homotópicos Abstract: The extraction of Euclidean skeletons is a subject of great importance in the domain of image processing and it has been discussed by the scientiï?c community since more than 20 years.Today it is a consensus that Euclidean skeletons should present the following characteristics: thin, centered, homotopic and reversible, i.e., suff?cient for the reconstruction of the original object. In this work, we introduce the Exact Euclidean Medial Axis in Higher Resolution -HMA, with the objective of obtaining a medial axis which is thinner than the one obtained by the classical medial axis ded?nition. By combining the HMA with an ef ?cient parallel homotopic thinning algorithm we propose an Euclidean skeleton which is centered, homotopic, reversible and thinner than the existing similars in the literature. The proposed skeleton has the additional particularity of being unique and independent of arbitrary choices. Algorithms and proofs are given, as well as applicative examples of the proposed skeletons in real images, showing the advantages of the proposal. The text also includes an overview on algorithms for the Euclidean distance transform algorithms, the medial axis extraction, as well as homotopic skeletons Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
46. Ferramenta de visualização interativa da max-tree para processamento e análise de imagens
- Author
-
Tavares, Luís Antônio, 1987, Lotufo, Roberto de Alencar, 1955, Falcão, Alexandre Xavier, Costa, Paula Dornhofer Paro, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Image segmentation ,Image processing ,Mathematical morphology ,Visualização - Técnicas ,Segmentação de imagens ,View - Technical ,Processamento de imagens ,Árvores ,Trees - Abstract
Orientador: Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: A árvore máxima, no inglês max-tree, é uma poderosa estrutura de dados que representa hierarquicamente os componentes conexos resultantes de todos os thresholds de uma imagem, tem sido utilizada em muitas aplicações de análise e processamento de imagens. A max-tree de uma imagem natural tipicamente possui milhares de nós, o que dificulta construir uma representação gráfica de sua estrutura completa. Propomos uma metodologia para a construção de uma representação gráfica interativa da max-tree, possibilitada por um processo de simplificação que reduz o número de nós da max-tree e preserva os nós mais relevantes. Nossa representação exibe uma árvore máxima simplificada, mas seus recursos interativos permitem ao usuário navegar por todos os nós da max-tree original, visualizar seus componentes conexos e criar sub-conjuntos de nós. Nós demonstramos o potencial da nossa ferramenta para problemas de análise, segmentação e filtragem. Nossa aplicação também é uma ferramenta educativa para o estudo da max-tree e suporte para o planejamento de métodos automáticos Abstract: The max-tree is a powerful data structure that represents all possible upper thresholds of an image, it has been successfully used in many image processing and analysis applications. The max-tree corresponding to a natural image usually has thousands of nodes, making it difficult to build a graphical representation of its complete structure. We propose a methodology for building an interactive graphical representation of the max-tree, made possible by a process of simplification which reduces the number of max-tree nodes preserving the most relevant nodes. Our representation displays a simplified max-tree, but its interactive features allow the user to navigate through all the nodes of the original max-tree, visualize its connected components and create sub-sets of nodes. We demonstrate the potential of our tool for analysis, segmentation and filtering tasks. Our application is also an educational tool for the learning of max-tree and it provides insight for the development of automatic methods Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
47. Animação facial 2D sincronizada com a fala baseada em imagens de visemas dependentes do contexto fonetico
- Author
-
Costa, Paula Dornhofer Paro, 1978, De Martino, José Mário, 1958, Gomes, Leandro de Campos Teixeira, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Computação gráfica ,Animação por computador ,Computer graphics ,Morphing ,Animação (Cinematografia) ,Computer animation ,Metamorfose ,Animation ,Comunicação visual ,Visual communication - Abstract
Orientador: Jose Mario De Martino Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: A animação facial por computador sincronizada com a fala permite a implementação de cabeças virtuais que podem contribuir para tornar interfaces humano-computador mais eficientes e atraentes. O presente trabalho apresenta um método de síntese de animação facial 2D baseado em imagens cujo desenvolvimento foi guiado por dois objetivos principais: a reprodução realista da movimentação articulatória visível da fala, incluindo os efeitos da coarticulação, e a possibilidade de implementação do método mesmo em plataformas com capacidades limitadas de processamento e memória, tais como celulares e assistentes pessoais digitais. O método desenvolvido baseia-se em uma base de imagens de visemas dependentes de contexto para o Português do Brasil e adota a técnica de metamorfose entre visemas para a síntese da animação facial. A abordagem proposta representa uma estratégia de síntese alternativa e inovadora, capaz de reproduzir a movimentação articulatória visível da fala, incluindo os efeitos da coarticulação, a partir de uma base de apenas 34 imagens. O trabalho inclui a implementação de um sistema piloto integrado a conversor texto-fala. Adicionalmente, o método de síntese proposto é avaliado através de teste de inteligibilidade da fala. Os resultados desta avaliação indicam que a informação visual fornecida pelas animações geradas pelo sistema contribui para a inteligibilidade da fala em condições de áudio contaminado por ruído. Apesar do trabalho estar restrito ao Português do Brasil, a solução apresentada é aplicável a outras línguas. Palavras-chave: Computação Gráfica, Animação Facial, Visemas, Coarticulação, Metamorfose Abstract: Speech synchronized facial animation allows the implementation of talking heads that potentially can improve human-computer interfaces making them more efficient and attractive. This work presentsan image based 2D facial animation synthesis method whose development was guided by two main goals: the realistic reproduction of visible speech articulatory movements, including coarticulation effects, and the possibility to implement the method also on limited processing and memory platforms, like mobile phones or personal digital assistants. The developed method is based on an image database of Brazilian Portuguese context dependent visemes and uses the morphing between visemes strategy as facial animation synthesis technique. The proposed approach represents an alternative and innovative synthesis strategy, capable of reproducing the visible speech articulatory movements, including coarticulation effects, from an image database of just 34 images. This work includes the implementation of a pilot system integrated to a text-to-speech synthesizer. Additionally, the proposed synthesis method is evaluated through a speech intelligibility test. The test results indicate that the animations generated by the system contribute to improve speech intelligibility when audio is degraded by noise. Despite the fact this work is restricted to Brazilian Portuguese, the presented solution is applicable to other languages. Keywords: Computer Graphics, Facial Animation, Visemes, Coarticulation, Morphing Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
48. Análise de algoritmos da Transformada Watershed
- Author
-
Korbes, André, Lotufo, Roberto de Alencar, 1955, Hirata, Nina Sumiko Tomita, Attux, Romis Ribeiro de Faissol, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Algoritmos ,Image processing ,Mathematical morphology ,Processamento de imagens ,Algorithms - Abstract
Orientador: Roberto de Alencar Lotufo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: A transformada watershed é uma técnica morfológica de segmentação de imagens inspirada na divisão de superfícies em bacias hidrográficas, tendo diversas formas de definição e de algoritmos. Este trabalho realiza uma análise sistemática da literatura de catorze destes algoritmos. Foram consideradas as principais abordagens existentes desde a introdução do primeiro algoritmo rápido por Vincent e Soille em 1991, até os trabalhos de Cousty et al. em 2009. Para melhor compreensão da área, as definições de transformada watershed são revisitadas, provendo o conjunto de soluções formais possíveis e esperadas dos algoritmos. Na análise destes algoritmos é fornecido pseudocódigo com notação uniformizada e uma implementação operacional Python permitindo abstrair detalhes de programação. Além disto, três algoritmos foram corrigidos para melhor aderência a definição e especificação. Também são identificadas propriedades tais como o comportamento de varredura dos pixels, uso de estratégias em particular, uso de estruturas de dados, entre outras. A compilação das informações sobre os algoritmos permitiu generalizá-los e classificá-los baseado em paradigmas clássicos da computação, a saber a busca em largura e em profundidade. Ambos são embasados na ordem de visitação dos pixels utilizada, sendo a busca em largura semelhante a simulação de inundação enquanto a busca em profundidade simula gotas de água em uma superfície. Foram também realizados estudos comparativos entre as definições implementadas pelos algoritmos, entre as estratégias utilizadas para tratamento de problemas comuns, entre o desempenho obtido pelos programas Python, e de paralelismo e abordagens utilizadas neste último caso. Desta forma, produziu-se um panorama geral e atualizado dos algoritmos de transformada watershed Abstract: The watershed transform is a morphological image segmentation technique inspired on the division of surfaces in catchment basins, with several forms of definition and algorithms. This work accomplishes a survey of the literature on fourteen of these algorithms. The main approaches since the introduction of the first fast algorithm by Vincent and Soille in 1991, until the work of Cousty et al. in 2009 has been considered. For better understanding of the subject, the watershed definitions are revisited, providing the set of formal solutions that are possible and expected from the algorithms. On the analysis of the algorithms it is supplied pseudocode with a uniform notation and a Python operational implementation allowing to abstract programming details. Aside, three algorithms were corrected for better adherence to definition and specification. Also some properties such as the scanning behaviour, use of particular strategies, and use of data structures, among others were identified. The compilation of information of the algorithms allowed to generalise and classify them based on classic paradigms of computing, namely breadth-first and depth-first search. Both are based on the visiting order of the pixels, with the breadth-first similar to a flooding simulation while the depth-first simulates drops of water on a surface Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
49. Um modelo de atenção visual hierárquico
- Author
-
Barreto, Darley Freire, 1995, Ramírez Rivera, Adín, 1986, Colombini, Esther Luna, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Machine learning ,Deep learning ,Aprendizado de máquina ,Aprendizado profundo - Abstract
Orientador: Gerberth Adín Ramírez Rivera Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: A atenção em inteligência artificial foi inspirada pela atenção visual humana e projetada para aumentar a flexibilidade dos modelos neurais, fornecendo uma noção de relevância ao modelo. As entradas visuais completas podem conter informações excessivas que afetam os modelos, podendo prejudicar seu desempenho. Ao atender regiões de interesse de uma imagem, um modelo pode controlar o fluxo de informações, focando em partes relevantes que ajudam a realizar uma tarefa, possivelmente reduzindo a complexidade do aprendizado no modelo que utilizará estas regiões atendidas. Este trabalho propõe modelar atenção como amostras de uma distribuição variacional, computando a probabilidade da localização de todos os píxeis com respeito à distribuição predita, criando uma máscara na imagem de entrada. Três modelos similares são apresentados e avaliados, a idéia central é utilizar uma rede neural para predizer parâmetros de uma distribuição Normal, cujas amostras representam o centro de uma máscara de atenção no espaço dos pixels, com tamanho dado pelo desvio padrão predito. Inicialmente um modelo é proposto para predizer quatro parâmetros e criar uma distribuição hierárquica, onde estes parâmetros são usados para criar uma distribuição Normal e uma Gama, em seguida amostras de ambas são usadas para criar uma segunda Normal, que por fim é utilizada para gerar a atenção. Contudo, experimentos mostraram que esta abordagem não é suficiente para a predição de máscaras atencionais robustas. Por isso, um segundo modelo com apenas um nível é proposto, assim apenas dois parâmetros precisam ser preditos para criar uma distribuição Normal e fazer amostragem das máscaras. Similarmente ao primeiro modelo, a atenção predita está muito aquém do esperado, divergindo consideravelmente dos rótulos de treino, validação e teste. Por fim, um terceiro modelo é proposto com o objetivo de simplificar o segundo, removendo a necessidade de predizer o desvio padrão, focando apenas da média da distribuição Normal. Com os experimentos realizados em todos os métodos em conjuntos sintéticos e dados reais, conclui-se que a modelagem e a função de otimização considerada neste trabalho não são suficientes para conduzir o modelo em um conjunto de dados genéricos. Na configuração mais simples, isto é, predizendo apenas a média da distribuição atencional, experimentos mostram o modelo não consegue aprender com pouca variabilidade de amostras. Porém, quando se aumenta o número de instâncias e classes, o modelo consegue resultados aceitáveis em comparação às alternativas. Contudo, ao aumentar o número de instâncias, o modelo é mais uma vez incapaz de aprender, revelando que há um limiar entre a complexidade dos dados e a capacidade da modelagem Abstract: The attention in artificial intelligence was inspired by human visual attention and designed to increase the flexibility of neural models, providing a sense of relevance to the model. Full visual inputs have excessive information that can affect models, possibly undermining their performance. When attending regions of interest in an image, a model can control the flow of information, focusing on relevant parts that help to perform a task, possibly reducing the training complexity in the model that will use these attended regions. This work proposes to model attention as samples from a variational distribution, computing the probability of all pixel locations \wrt the predicted distribution, creating a mask in the input image. Three similar models are presented and evaluated, the core idea is to use a neural network to predict parameters of a Normal distribution, whose samples represent the center of an attention mask in the pixel space, with size given by the predicted standard deviation. Initially, a model is proposed to predict four parameters and create a hierarchical distribution, where these parameters are used to create a Normal and a Gamma distribution, then samples from both are used to create a second Normal, which is then used to generate the attention. However, experiments have shown that this approach is not sufficient to predict robust attentional masks. Therefore, a second model with only one level is introduced, hence only two parameters need to be predicted to create a Normal distribution and sample the masks. Similar to the first model, the predicted attentional masks were far less accurate than expected, diverging considerably from the training, validation, and test labels. Finally, a third model is proposed to simplify the second, by removing the need to predict the standard deviation, focusing only on the mean of the Normal distribution. Experiments performed on all three methods with both synthetic sets and real data show that the modeling and the optimization function considered in this work are not sufficient to conduct the model in a generic data set. In the simplest configuration, \ie, predicting only the mean of the attentional distribution, experiments show that the model can not learn when the data have a small sample variability. However, when the number of instances and classes is increased, the model achieves acceptable results if compared to the alternatives. Yet, when increasing the number of instances, the model is once again unable to learn, revealing that there is a threshold between the data complexity and modeling capacity Mestrado Ciência da Computação Mestre em Ciência da Computação FAPESP 2018/10027-7 Funcamp
- Published
- 2021
50. Authors index.
- Published
- 2003
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.