62 results on '"Henriques, Marco Aurelio Amaral"'
Search Results
2. A Secure and Efficient Method for Scalar Multiplication on Supersingular Elliptic Curves over Binary Fields
- Author
-
de Oliveira, Matheus F., Henriques, Marco Aurélio Amaral, Hutchison, David, Series editor, Kanade, Takeo, Series editor, Kittler, Josef, Series editor, Kleinberg, Jon M., Series editor, Mattern, Friedemann, Series editor, Mitchell, John C., Series editor, Naor, Moni, Series editor, Pandu Rangan, C., Series editor, Steffen, Bernhard, Series editor, Terzopoulos, Demetri, Series editor, Tygar, Doug, Series editor, Weikum, Gerhard, Series editor, and Desmedt, Yvo, editor
- Published
- 2015
- Full Text
- View/download PDF
3. Uma proposta para confirmação de blocos sem comitês de validação em mecanismo de consenso Proof-of-Stake para blockchains públicas
- Author
-
Martins, Diego Fernandes Gonçalves, primary and Henriques, Marco Aurelio Amaral, additional
- Published
- 2021
- Full Text
- View/download PDF
4. Proposta de avaliação do desempenho de um mecanismo de consenso probabilístico baseado em Proof-of-Stake para blockchains públicas
- Author
-
da Silva, Felipe Benedet, primary, Martins, Diego Fernandes Gonçalves, additional, and Henriques, Marco Aurelio Amaral, additional
- Published
- 2021
- Full Text
- View/download PDF
5. Contention-sensitive static performance prediction for parallel distributed applications
- Author
-
Yero, Eduardo Javier Huerta and Henriques, Marco Aurélio Amaral
- Published
- 2006
- Full Text
- View/download PDF
6. On-block certs
- Author
-
Prado, Nicolas Franco Rufino Almeida, primary and Henriques, Marco Aurelio Amaral, primary
- Published
- 2019
- Full Text
- View/download PDF
7. Estudo sobre a aplicação de técnicas de inteligência computacional à área de segurança da informação
- Author
-
Kubo, Fábio Harada, primary and Henriques, Marco Aurelio Amaral, primary
- Published
- 2018
- Full Text
- View/download PDF
8. Aprimoramento de técnicas de hash de similaridade para investigações forenses
- Author
-
Kameyama, André Seiki, primary and Henriques, Marco Aurelio Amaral, primary
- Published
- 2018
- Full Text
- View/download PDF
9. Improved cryptanalysis combining differential and artificial neural network schemes
- Author
-
Henriques, Marco Aurelio Amaral, 1963, International Telecommunications Symposium (2014 : São Paulo, SP), and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Neural networks (Computer science) ,Cryptanalysis ,Redes neurais (Computação) ,Artigo de evento - Abstract
Agradecimentos: This work was partially supported by CAPES Abstract: In this work we show the application of a neural cryptanalysis approach to S-DES input-output-key data to test if it is capable of mapping the relations among these elements. The results show that, even with a small amount of samples (about 0,8 % of all data), the neural network was able to map the relation between inputs, keys and outputs and to obtain the correct values for the key bits k(0), k(1) and k(4). By applying differential cryptanalysis techniques on the key space, it was possible to show that there is an explanation about the neural network partial success with some key bits. After implementing new s-boxes, which are more resistant to the differential attack, the neural network was not able to point out bits of the key any more. We believe that this new methodology of attack and repair assessment using neural networks has the potential to contribute in the future analysis of other cryptographic algorithms COORDENAÇÃO DE APERFEIÇOAMENTO DE PESSOAL DE NÍVEL SUPERIOR - CAPES Fechado
- Published
- 2014
10. Improved cryptanalysis combining differential and artificial neural network schemes.
- Author
-
Danziger, Moises and Henriques, Marco Aurelio Amaral
- Published
- 2014
- Full Text
- View/download PDF
11. Criptografia baseada em curvas elípticas: otimização de algoritmos básicos em plataforma DSP
- Author
-
Oliveira, Mariana Coelho de, primary, Prates, Danilo, additional, and Henriques, Marco Aurelio Amaral, additional
- Published
- 2005
- Full Text
- View/download PDF
12. Criptografia de curvas elípticas de alto desempenho : uma abordagem SIMD para curvas modernas
- Author
-
Faz Hernández, Armando, 1987, López Hernández, Julio César, 1961, Terada, Routo, Morais, Eduardo Moraes de, Henriques, Marco Aurelio Amaral, Díaz Cardell, Sara, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Finite fields (Algebra) ,Parallel algorithms ,Cryptography ,Elliptic curves cryptography ,Criptografia ,Aritmética de computador ,Corpos finitos (Álgebra) ,Algoritmos paralelos ,Computer arithmetic ,Criptografia de curvas elípticas - Abstract
Orientador: Julio César López Hernández Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: A criptografia baseada em curvas elípticas fornece métodos eficientes para a criptografia de chave pública. Pesquisa recente tem mostrado a superioridade das curvas de Montgomery e de Edwards sobre as curvas de Weierstrass pois elas precisam de menos operações aritméticas. O uso destas curvas modernas, porém, traz consigo diversos desafios na construção de algoritmos criptográficos deixando em aberto novos alvos de otimizações. Nosso objetivo principal é propor otimizações algorítmicas e técnicas de implementação para os algoritmos criptográficos baseados em curvas elípticas. Visando acelerar a execução destes algoritmos, nossa abordagem fundamenta-se na utilização extensões ao conjunto de instruções da arquitetura. Além daquelas específicas para a criptografia, nós usamos extensões que seguem o paradigma de cômputo paralelo SIMD (do inglês, Single Instruction, Multiple Data). Neste modelo, o processador executa a mesma operação sobre um conjunto de dados de forma paralela. Nós investigamos como aplicar o modelo SIMD na implementação de algoritmos de curvas elípticas. Como parte de nossas contribuições, projetamos algoritmos paralelos para a aritmética de corpos primos e de curvas elípticas. Projetamos também um algoritmo de multiplicação escalar para calcular P + kQ e uma fórmula otimizada para calcular 3P em curvas de Montgomery. Estes algoritmos encontraram aplicabilidade na criptografia baseada em isogenias. Usando extensões SIMD tais como SSE, AVX e AVX2, desenvolvemos implementações otimizadas dos seguintes algoritmos criptográficos: X25519, X448, SIDH, ECDH, ECDSA, EdDSA e qDSA. Testes de desempenho mostram que essas implementações são mais rápidas do que as implementações existentes no estado da arte. Nosso estudo confirma que o uso de extensões ao conjunto de instruções da arquitetura é uma ferramenta efetiva para otimizar implementações de algoritmos criptográficos baseados em curvas elípticas. Seja isto um incentivo não somente para aqueles que procuram acelerar os programas em geral, mas também para que os fabricantes de computadores adicionarem mais extensões avançadas para apoiar a demanda crescente da criptografia Abstract: Cryptography based on elliptic curves is endowed with efficient methods for public-key cryptography. Recent research has shown the superiority of the Montgomery and Edwards curves over the Weierstrass curves as they require fewer arithmetic operations. Using these modern curves has, however, introduced several challenges to the cryptographic algorithm’s design, opening up new opportunities for optimization. Our main objective is to propose algorithmic optimizations and implementation techniques for cryptographic algorithms based on elliptic curves. In order to speed up the execution of these algorithms, our approach relies on the use of extensions to the instruction set architecture. In addition to those specific for cryptography, we use extensions that follow the Single Instruction, Multiple Data (SIMD) parallel computing paradigm. In this model, the processor executes the same operation over a set of data in parallel. We investigated how to apply SIMD to the implementation of elliptic curve algorithms. As part of our contributions, we design parallel algorithms for prime field and elliptic curve arithmetic. We also design a new three-point ladder algorithm for the scalar multiplication P + kQ, and a faster formula for calculating 3P on Montgomery curves. These algorithms have found applicability in isogeny-based cryptography. Using SIMD extensions such as SSE, AVX, and AVX2, we develop optimized implementations of the following cryptographic algorithms: X25519, X448, SIDH, ECDH, ECDSA, EdDSA, and qDSA. Performance benchmarks show that these implementations are faster than existing implementations in the state of the art. Our study confirms that using extensions to the instruction set architecture is an effective tool for optimizing implementations of cryptographic algorithms based on elliptic curves. May this be an incentive not only for those seeking to speed up programs in general but also for computer manufacturers to include more advanced extensions that support the increasing demand for cryptography Doutorado Ciência da Computação Doutor em Ciência da Computação FAPESP 14/50704-7
- Published
- 2022
13. Algoritmo memetico para o problema do caixeiro viajante assimetrico como parte de um framework para algoritmos evolutivos
- Author
-
Buriol, Luciana Salete, França, Paulo Morelato, 1949, Muller, Felipe Martins, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Problema do caixeiro viajante ,Geradores (Programas de computador) ,Framework (Programa de computador) ,Algoritmos genéticos - Abstract
Orientador: Paulo Morelato França Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Dentre a gama de técnicas heurísticas e exatas existentes para a resolução de problemas combinatórios, os algoritmos populacionais genéticos e meméticos têm se destacado devido a sua boa performance. Em especial, os algoritmos meméticos podem ser considerados atualmente como uma das técnicas melhores sucedidas para a resolução de vários problemas combinatórios, dentre eles, o problema do caixeiro viajante. Nesta dissertação será apresentado um algoritmo memético aplicado ao problema do caixeiro viajante assimétrico, com a proposta de uma nova busca local: Recursive Arc Insertion. Os resultados computacionais considerando as 27 instâncias assimétricas da TSPLIB são apresentados, analisados e comparados com resultados obtidos por outros métodos propostos para o problema. O mesmo algoritmo é também aplicado a 32 outras instâncias assimétricas e a 30 instâncias reduzidas do problema de ciclos hamiltonianos não direcionados. Um framework para algoritmos evolutivos é apresentado, já incluindo o algoritmo memético implementado e a redução de instâncias do problema de ciclos hamiltonianos não direcionados para o problema do caixeiro viajante simétrico. Além disso, dois geradores portáveis de instâncias com solução ótima conhecida são descritos: um para o problema do caixeiro viajante assimétrico e outro para o problema de ciclos hamiltonianos Abstract: Among the range of heuristic and exact techniques for solving combinatorial problems, the genetic and memetic populational algorithms play an important role due to their good performance. In special, the memetic algorithms can be considered current1y as one of the best techniques to solve several combinatorial problems, especially, the traveling salesman problem. In this dissertation a memetic algorithm applied to the asymmetric traveling salesman problem is developed, and a new local search is proposed: Recursive Are Insertion. The computational results considering the 27 asymmetric instances from TSPLIB are presented, analyzed and compared with results attained by other methods recent1y published. The same algorithm is also applied to 32 other asymmetric instances and to 30 reduced instances from undirect hamiltonian cycle problem. A framework for evolutionary algorithms is also presented, including the memetic algorithm implemented and the codes which performs a reduction from the undirect hamiltonian cycle problem to the symmetric traveling salesman problem. Besides, two portable instances generators with a known optimal solution are described: one for asymmetric traveling salesman problem and other for hamiltonian cycle problem Mestrado Automação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
14. Algoritmos distribuidos para localização de falhas e difusão de mensagens em hipercubos defeituosos
- Author
-
Nascimento, Saulo Rodrigues do, Henriques, Marco Aurelio Amaral, 1963, Martins, Eliane, Magalhães, Mauricio Ferreira, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Hipercubo ,Tolerância à falha (Computação) - Abstract
Orientador: Marco A. Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Após investigação das soluções existentes na literatura para o problema da difusão de mensagens em máquinas paralelas tipo hipercubo com falhas de enlace e de nó, este trabalho faz uma análise detalhada das mesmas comparando os fatores que determinam qual é mais adequada para cada tipo de aplicação. Em seguida, efetua-se uma pesquisa sobre os métodos existentes para a detecção e localização de falhas em sistemas multicomputadores. Como resultado, constata-se a ausência de um método específico para hipercubos e propõese um algoritmo distribuído que explora as propriedades desta topologia na detecção e localização de enlaces e nós falhos. Finalmente, é proposto um algoritmo tolerante a falhas para difusão eficiente de mensagens, reunindo e superando as características positivas dos melhores algo ritmos existentes. O algoritmo proposto tolera até n-l falhas, sendo elas de enlaces, nós ou uma combinação de ambas, e realiza todo o processo de difusão em no máximo n+2 etapas, para um hipercubo de dimensão n. Um grande número de testes efetuados em um hipercubo comercial atesta a correção desta solução e a sua posição de vantagem em relação às existentes Abstract: In this work, it is made a detailed analysis of the solutions found in the literature for the problem of broadcasting in hypercube parallel machines with link and node failures, and all the aspects that determine which one fits better to a specific environment and application are compared. Following that, the existing methods used to detect and locate failures in multicomputer systems - major concern in a broadcasting process - are analyzed as well. Based on this research, it is realized the absence of a specific method for hypercubes and a new and distributed algorithm is proposed to fill in this gap. This algorithm takes advantage of the hypercube topology in order to detect and locate faulty links and nodes efficiently. Finally, it is proposed a new and efficient fault tolerant algorithm for broadcasting in hypercube systems, gathering and surpassing the most positive features of the former solutions. This algorithm treats up to n-l failures (links, nodes or both) and finishes the whole process in no more than n+2 broadcasting steps, for an n-dimensional hypercube. Several tests performed on a commercial version of a hypercube-based machine confirms the correctness of this solution and its higher quality compared to the other ones Mestrado Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
15. Um sistema de video-conferencia para educação a distancia baseado em padrões abertos
- Author
-
Bosnardo, Raquel Cristina, Cardozo, Eleri, 1954, Loyolla, Waldomiro P.D.C., Henriques, Marco Aurelio Amaral, Gudwin, Ricardo R., Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Event ,AIV Stream ,Java (Linguagem de programação de computador) ,Ensino a distância ,Distance Learning ,Programação orientada a objetos (Computação) ,Videoconferenee ,Event Service ,Java ,Videoconferência ,Processamento eletrônico de dados - Processamento distribuído ,CORBA - Abstract
Orientador : Eleri Cardozo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Este trabalho descreve o desenvolvimento de um sistema de videoconferência para redes de alto desempenho, que pode ser integrado em sistemas de educação a distância os quais necessitam desta funcionalidade. O sistema é portável, não proprietário e distribuído e permite a interação entre professor e estudante (em um ambiente de educação a distância) através de transmissões em áudio e vídeo, e através de notificações por eventos. Para a implementação, foram utilizadas a arquitetura CORBA (Common Object Request Broker Architecture) e a linguagem Java. Dois serviços CORBA foram empregados: AIV Streams para o transporte da mídia contínua e o Serviço de Eventos para a notificação de eventos. O projeto e desenvolvimento utiliza tecnologias modernas tais como UML (Unified Modeling Language), componentes de software, e orientação a objetos Abstract:This dissertation deseribes the development of a videoconference system targeted to high speed networks that can be integrated into distance learning systems lacking of this functionality. The system is designed to be portable, open, and distributed, allowing the integration among teacher and students (in a distance Jearning environment) through live audio and video, and event notifications. The impJementation relies on the CORBA (Common Object Request Broker Architecture) architecture and the Java language. Two CORBA services were employed: AIV Streams for eontinuous media transport and Event Service for event notification. The design and development employ modem technologies such as UML (Unified Modeling Language), software components, and object-orientation Mestrado Engenharia Elétrica Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
16. Redes orientadas a conteúdo
- Author
-
Ambiel, Lisiane Maria Bannwart, 1962, Magalhães, Mauricio Ferreira, 1951, Esteve Rothenberg, Christian Rodolfo, 1982, Verdi, Fabio Luciano, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Internet ,Redes de computadores - Protocolos ,Roteamento (Administração de redes de computadores) ,Arquitetura de redes de computador ,Routing (computer network management) ,Computer networks - Protocols ,Computer networks architectures - Abstract
Orientadores: Maurício Ferreira Magalhães, Christian Rodolfo Esteve Rothenberg Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: As Redes Orientadas a Conteúdo (ROC) se apresentam como uma nova forma de pensar a Internet: mudam o paradigma de comunicação apresentando uma nova abordagem com base no conteúdo independente de sua localização. Esta dissertação propõe uma arquitetura de rede orientada a conteúdos no nível de enlace sem uso de qualquer esquema de endereçamento. Os Content Routers (CR) são à base desta arquitetura, responsáveis pelo armazenamento de dados e roteamento de pacotes diretamente no conteúdo. Diferente do ambiente IP, onde existe o conhecimento do endereço do provedor de conteúdo, a arquitetura proposta no nível de enlace requisita conteúdos através da inundação de mensagens de forma controlada. Um protótipo é desenvolvido para validação da arquitetura e é utilizado em alguns cenários comparando duas abordagens: IP/overlay e nível de enlace. Alguns cenários de uso da arquitetura de CRs em redes domiciliares também são avaliados. Os resultados sugerem que arquiteturas orientadas a conteúdo e sem uso do IP podem ser viáveis e interessantes para redes de menor escala, que se beneficiariam de uma arquitetura simples, sem necessidade de configuração e gerenciamento como ocorre na arquitetura TCP/IP Abstract: Content Oriented Networking is a new way to think about networking by changing the communication paradigm to an approach where content becomes the basis in replace of network location identifiers. This thesis proposes content oriented network architecture at the link layer without the use of network addressing schemes. Content Routers (CR) are the basis for this architecture and are in charge of packet caching and routing directly on content names. Different from IP environments, where the destination address of the content source is known, the proposed linklevel architecture requests contents by controlled message flooding. The work includes a prototype implementation which is used in some scenarios comparing two approaches: IP/overlay and link layer. Scenarios using CR architecture in home networks are also evaluated. Results suggest that content oriented IP-less architecture may be interesting for small networks such as home networks that would benefit from the simplicity of such architecture, without configuration and management as required when using TCP/IP Mestrado Engenharia de Computação Mestra em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
17. Uma infraestrutura para laboratórios de acesso remoto federados com suporte à virtualização
- Author
-
Feliciano, Guilherme de Oliveira, 1982, Cardozo, Eleri, 1954, Verdi, Fabio Luciano, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Distance education ,Redes de computadores ,Ensino a distância ,Security systems ,Virtualization ,Sistemas de segurança ,Robotics ,Robótica ,Virtualização ,Computer networks - Abstract
Orientador: Eleri Cardozo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: O resumo poderá ser visualizado no texto completo da tese digital Abstract: The Abstract is available with the full electronic document Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
18. Uma linguagem para especificação de fluxo de execução em aplicações paralelas
- Author
-
Enomoto, Cristina, Henriques, Marco Aurelio Amaral, 1963, Guimarães, Célio Cardoso, Cardozo, Eleri, Oliveira, José Raimundo de, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Parallel programming ,Processamento paralelo (Computadores) ,Parallel processing ,Computational grids (Computer systems) ,Programação paralela (Computação) ,Fluxo de trabalho ,Workflow - Abstract
Orientador: Marco Aurelio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Vários sistemas de grid e computação distribuída existentes só permitem a execução de aplicações com um fluxo de execução de tarefas básico, no qual é feita a distribuição das tarefas executadas em paralelo e depois a coleta de seus resultados. Outros sistemas permitem definir uma relação de dependências entre as tarefas, formando um grafo direcionado acíclico. Porém, mesmo com este modelo de fluxo de execução não é possível executar vários tipos de aplicações que poderiam ser paralelizadas, como, por exemplo, algoritmos genéticos e de cálculo numérico que utilizam algum tipo de processamento iterativo. Nesta dissertação é proposta uma linguagem de especificação para fluxo de execução de aplicações paralelas que permite um controle de fluxo de tarefas mais flexível, viabilizando desvios condicionais e laços com iterações controladas. A linguagem é baseada na notação XML (eXtensible Markup Language), o que lhe confere características importantes tais como flexibilidade e simplicidade. Para avaliar estas e outras características da linguagem proposta, foi feita uma implementação sobre o sistema de processamento paralelo JoiN. Além de viabilizar a criação e execução de novas aplicações paralelas cujos fluxos de tarefas contêm laços e/ou desvios condicionais, a linguagem se mostrou simples de usar e não causou sobrecarga perceptível ao sistema paralelo Abstract: Many distributed and parallel systems allow only a basic task flow, in which the parallel tasks are distributed and their results collected. In some systems the application execution flow gives support to a dependence relationship among tasks, represented by a directed acyclic graph. Even with this model it is not possible to execute in parallel some important applications as, for example, genetic algorithms. Therefore, there is a need for a new specification model with more sophisticated flow controls that allow some kind of iterative processing at the level of task management. The purpose of this work is to present a proposal for a specification language for parallel application execution workflow, which provides new types of control structures and allows the implementation of a broader range of applications. This language is based on XML (eXtensible Markup Language) notation, which provides characteristics like simplicity and flexibility to the proposed language. To evaluate these and other characteristics of the language, it was implemented on the JoiN parallel processing system. Besides allowing the creation and execution of new parallel applications containing task flows with loops and conditional branches, the proposedlanguage was easy to use and did not cause any significant overhead to the parallel system Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
19. Aplicação de modelos microeconomicos na alocação de recursos computacionais em ambiente de processamento paralelo virtual baseado na Internet
- Author
-
Chavez Chiclayo, Pedro Wilmer, Henriques, Marco Aurelio Amaral, 1963, Toledo, Maria Beatriz Felgar de, Jino, Mario, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Internet ,Algoritmos de computador ,Alocação de recursos ,Redes de computadores - Carga de trabalho - Abstract
Orientador: Marco A. Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Um conjunto de computadores que estão conectados pela Internet pode ser visto como um Computador Massivamente Paralelo Virtual (MPVC) com memória distribuída. Há sistemas de processamento que se propõem a explorar estes recursos como um computador virtual que possa executar aplicações paralelas compostas por uma grande quantidade de tarefas. A execução destas aplicações introduz problemas de alocação de recursos e balanceamento da carga, isto é, a distribuição eficiente dos computadores do MPVC entre as aplicações. Este trabalho propõe o algoritmo Resource Allocation Algorithm using Prices (RAAP) baseado em modelos microeconômicos que auxilia na alocação de recursos da Internet às aplicações submetidas nestes computadores virtuais. Este algoritmo faz uso do conceito de preço dos recursos para permitir uma alocação mais eficiente e implementa um mercado onde os recursos são ofertados e consumidos. São mostrados os resultados da simulação de um mercado e é feita uma análise dos parâmetros que influenciam no sucesso da alocação de recursos computacionais em um mercado microeconômico. Os resultados obtidos mostram a viabilidade e o potencial de se usar conceitos de economia na solução de problemas de alocação eficiente de recursos computacionais em sistemas heterogêneos como um MPVC baseado na Internet Abstract: A set of computers connected by the Internet can be considered as a Massivelly Parallel Virtual Computer (MPVC) with distributed memory. There are systems which propose the use of these resources as a virtual computer that can execute parallel applications consisting of a large number of tasks. The execution of such applications introduces problems of resource allocation and load balancing, i.e., how to distribute the MPVC computers among the applications in a more efficient way. This work proposes the Resource Allocation Algorithm using Prices (RAAP) based on an economic approach to help the resource allocation process needed by applications submitted to an MPVC in the Internet. This algorithm uses the concept of prices to allow a more efficient allocation, and implements a market where the resources are offered and consumed. The results of a market simulation are show, as well as an analysis of the parameters that influence the allocation of computacional resources in a microeconomic market. The results obtained show the potential and viability of using concepts from economics to solve problems of efficient allocation of computational resources in heterogeneous systems as an MPVC based on the Internet Mestrado Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
20. Proposta de um sistema de modelagem e predição analitica de desempenho para uma plataforma de processamento paralelo
- Author
-
Herai, Roberto Hirochi, Henriques, Marco Aurelio Amaral, 1963, Magalhães, Léo Pini, Jino, Mario, Meira Junior, Wagner, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Compilers ,Processamento paralelo (Computadores) ,Parallel processing ,Analytical performance prediction ,Parallel application modeling ,Previsão ,Modelagem de dados - Abstract
Orientador: Marco Aurelio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: A predição de desempenho é um importante mecanismo para avaliar a utilização de recursos e estimar o tempo de execução de aplicações em sistemas paralelos. Este trabalho apresenta uma ferramenta que permite criar modelos que representam características da aplicação e dos computadores utilizados para processá-la. Tais modelos são combinados para gerar um modelo de desempenho mais abrangente, cuja análise permite obter estimativas de tempo de execução que contemplem fatores de atraso tais como operações aritméticas sobre diferentes tipos de dados e efeitos de contenção, causados por concorrência. As estimativas podem ser geradas em poucos segundos e permitem analisar o impacto causado na aplicação pela utilização de diferentes configurações do sistema de processamento paralelo. A ferramenta foi implementada para um sistema de processamento paralelo baseado em Java, chamado JoiN, e ela mostrou ser possível obter estimativas satisfatórias de tempos de execução para diversos tipos de aplicações paralelas Abstract: Performance prediction is an important mechanism to evaluate the use of resources and predict the execution time of applications in parallel systems. This work presents a tool for the creation of models that represent applications and computers characteristics. Such models are combined to generate a performance model, whose analysis derives execution time estimates that include delay factors, such as arithmetic operations on different data types and contention effects caused by process concurrence. The estimates can be generated in a few seconds and allow the analysis of the impact caused in the application by changes in the parallel system configuration. The tool was implemented for a Java based parallel processing system called JoiN and it showed that satisfactory execution time estimates can be obtained for several types of parallel applications Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
21. Uma plataforma de desenvolvimento de software baseado em componentes para dispositivos moveis
- Author
-
Gomes, Wander Euclides Carneiro Pimentel, Cardozo, Eleri, 1954, Madeira, Edmundo Roberto Mauro, Magalhães, Mauricio Ferreira, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Java (Linguagem de programação de computador) ,Programação orientada a objetos (Computação) ,Distributed computer systems in eletronic data processing ,XML (Extensible Markup Language (document markup language) ,Object-oriented programming (computer science) ,Computer programming ,Wireless communication systems ,JAVA (Computer program language) ,Sistemas multimídia ,Redes de computadores ,Sistemas de comunicação sem fio ,Multimedia systems ,Computer networks ,XML (Linguagem de marcação de documento) ,Processamento eletrônico de dados - Processamento distribuído - Abstract
Orientador: Eleri Cardozo Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Este trabalho apresenta uma infra-estrutura para auxílio ao desenvolvimento de software baseado em componentes para dispositivos móveis com baixo poder de processamento e armazenamento. Esta infra-estrutura baseia-se em um modelo de componentes neutro em termos de tecnologia e especificado inteiramente em UML (Unified Modeling Language). A plataforma utiliza Web Services para comunicação síncrona entre os componentes. Um Serviço de Notificação baseado em documentos XML (Extensible Markup Language) foi desenvolvido para suporte a notificação assíncrona entre componentes. Um exemplo de aplicação na área de gerência de redes ilustra as funcionalidades da infra-estrutura Abstract: This work presents an infrastructure for supporting component-based software development for mobile devices with limited resources regarding processing power and storage. This infrastructure is based on a neutral component model in terms of technology and specified entirely in UML (Unified Modeling Language). The platform employs Web Services for synchronous communication between components. A Notification Service based on XML (Extensible Markup Language) documents was developed in order to support asynchronous communication among the components. An example of application in the field of network management illustrates the functionalities of the infrastructure Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
22. Criptossistemas baseados em curvas elipticas
- Author
-
Almeida Junior, Arnaldo Jorge de, 1968, Henriques, Marco Aurelio Amaral, 1963, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Curvas elípticas ,Criptografia ,Processamento de sinais - Técnicas digitais - Abstract
Orientador : Marco Aurelio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Mestrado
- Published
- 2021
- Full Text
- View/download PDF
23. Algoritmo de detecção de falhas para sistemas telefonicos utilizando a teoria do perigo
- Author
-
Pinto, Jose Carlos Lima, Von Zuben, Fernando José, 1968, Pataca, Daniel Moutinho, Henriques, Marco Aurelio Amaral, Cardieri, Paulo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Localização de falhas (Engenharia) ,Sistemas telefônicos digitais ,Telephone systems ,Inteligência artificial ,Danger theory ,Fault detection ,Sistema imunológico ,Artificial immune systems - Abstract
Orientador: Fernando Jose Von Zuben Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Essa dissertação apresenta um algoritmo de detecção de falhas composto de múltiplos módulos interconectados e operando de acordo com o paradigma suportado pela Teoria do Perigo em imunologia. Esse algoritmo busca atingir características significativas que um sistema de detecção de falhas deve expressar ao monitorar um sistema telefônico. Essas características seriam basicamente a adaptabilidade, devido à forte variação que esse sistema pode ter em seus parâmetros ao longo do tempo, e a diminuição no número de falsos positivos que podem ser gerados ao se classificar como falha toda anormalidade encontrada. Cenários simulados foram concebidos para validar a proposta, sendo que os resultados obtidos foram analisados e comparados com propostas alternativas Abstract: Abstract This thesis presents a fault detection algorithm composed of multiple interconnected modules, and operating according to the paradigm supported by the Danger Theory in immunology. This algorithm attempts to achieve significant features that a fault detection system is supposed to express when monitoring a telephone system. These features would basically be adaptability, due to the strong variation that operational conditions may exhibit over time, and the decrease in the number of false positives, which can be generated when any abnormal behavior is erroneously classified as being a fault. Simulated scenarios have been conceived to validate the proposal, and the obtained results are then analyzed and compared with alternative proposals Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
24. Co-processador para algoritmos de criptografia assimetrica
- Author
-
Dias, Mauricio Araujo, Oliveira, José Raimundo de, 1950, Tokarnia, Alice Maria Bastos Hubinger, Henriques, Marco Aurelio Amaral, Dahab, Ricardo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Hardware ,Curvas elípticas ,Criptografia ,VHDL (Linguagem descritiva de hardware) ,Circuitos integrados - Abstract
Orientador : Jose Raimundo de Oliveira Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Este trabalho tem como objetivo o desenvolvimento de um co-processador para algoritmos de criptografia assimétrica. Trata-se de um co-processador que pode servir de base para a implementação de algoritmos de criptografia assimétrica, não apenas de um dispositivo dedicado a um único algoritmo criptográfico. Para tanto, ele dispõe de uma biblioteca de módulos de circuitos que implem~ntamrotinas básicas úteis a vários desses algoritmos. A implementação é feita em um dispositivo do tipo FPGA. Para testar o funcionamento do co-processador foi escolhido o algoritmo de criptografia assimétrica, baseado no problema do logaritmo discreto sobre curvas elípticas. Os testes práticos do coprocessador apóiam-se no uso de curvas elípticas distintas e de diferentes pontos pertencentes a cada uma dessas mesmas curvas Abstract: This work has as main objective the development of a co-processor for asymmetric cryptography algorithms. It is a co-processor that can serve for the implementation of asymmetríc cryptography algorithms. It isn't a devíce dedicated to only a cryptographic algorithm. So, it uses a library of hardware modules that implement basic routines useful to several of these algorithms. The implementation is made in a FPGA device. In order to test the operation of this co-processor, we choose the asymmetric cryptography algorithm based on tbe elliptic curve discrete logarithm problem. The practical tests of the co-processor are based on the use of distinct elliptical curves and different points over tbese same curves Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
25. Uma arquitetura para suporte a ubiquidade dos serviços de telecomunicações baseada na arquitetura TINA e em agentes moveis
- Author
-
Faina, Luis Fernando, Cardozo, Eleri, 1954, Ricarte, Ivan Luiz Marques, Nogueira, Jose Marcos Silva, Soares, Luiz Fernando Gomes, Henriques, Marco Aurelio Amaral, Magalhães, Mauricio Ferreira, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Sistemas de telecomunicação ,Internet ,Arquitetura de sistemas (Computação) ,Agentes inteligentes (Software) ,Sistemas operacionais distribuídos (Computadores) ,Teleconferencia - Abstract
Orientador: Eleri Cardozo Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: As telecomunicações tiveram um forte impacto na sociedade mundial nas décadas passadas e hoje este papel tem sido cada vez maior na evolução tecnológica e econômica de nossa sociedade. Ao mesmo tempo, esta evolução acaba por criar novos serviços de comunicação, cada vez mais influenciados pela tendência de convergência entre os mercados de telecomunicações, computação e entretenimento. Esses novos sistemas podem então ser caracterizados por apresentarem heterogeneidade, aplicações distribuídas, natureza dinâmica e escalar, dentre outras. Neste contexto, como prover um ambiente de comunicação integrado que permita o acesso a um dado conjunto de serviços a partir de diferentes localizações e dispositivos? Este questionamento é abordado no conceito de VHE (Virtual Home Environment) que pode ser definido como um conceito de sistema para a portabilidade de serviços adaptáveis em função das redes e terminais. O conceito de VHE representa uma filosofia totalmente nova na área de arquiteturas de sistemas móveis e está centrada na relação entre provedores de serviços e usuários; na provisão de serviço através desta relação; na provisão do serviço independente da rede e na personalização dos serviços por seus usuários. Na especificação e no desenvolvimento desses serviços, conceitos como orientação a objetos, reuso de componentes, sistemas distribuídos e arquitetura de serviços são palavras de ordem. Dentre estas especificações podemos destacar a Arquitetura TINA (Telecommunications Information Network Architecture). Adicionalmente, uma solução baseada em agentes móveis inteligentes pode possibilitar caminhos novos, eficientes e flexíveis para distribuir o controle e gerenciamento nesses sistemas de telecomunicações e de informação de modo que em conjunto possam prover o máximo de flexibilidade no projeto de aplicações. Diante dessas considerações, inicialmente caracterizamos os requisitos de suporte à mobilidade de terminal, pessoal e de serviço, analisando aspectos do usuário na configuração dos serviços, assim como a adaptação dos serviços a diferentes redes e terminais. Em seguida, propomos uma arquitetura que contemple os aspectos positivos de TINA, padrões de facto (p. ex., Internet) e o uso de agentes no suporte à mobilidade pessoal e de serviços. Para avaliar a adequação do modelo no suporte à mobilidade pessoal e de serviços, desenvolvemos um protótipo para provisão de serviços multimídia onde estes aspectos são investigados Abstract: Telecommunications have had a strong impact on the society in the last decades. Nowadays, this role is ever increasing and pushing the technological and economic evolution of our society. The evolution of telecommunications creates new services that exploit the convergence among data communication, computation and entertainment. These new services feature heterogeneity, distributed nature, dynamic and scalar design, etc. In this context, how to cater an environment of integrated communication services accessed from multiple locations and terminals? This question motivated the definition of a concept named Virtual Home Environment (VHE). VHE is a concept assigned to the portability and adaptability of services that allows users to access the same services from different networks and terminals. In the specification and development of this new generation of services, which incorporate VHE in some extent, object orientation, component reuse, open distributed systems and service architectures are words of order. Among these specifications we can emphasize the TINA (Telecommunication Information Network Architecture) architecture. Moreover, architectures based on mobile and intelligent agents may open new, efficient and flexible ways to distribute control and management for this new generation of telecommunication systems. With these principles in mind, this thesis characterize the requirements for supporting VHE through the support for mobility at the terminal, personal and service levels. The thesis aIs o proposes a model for service development that preserves the positive aspects of TINA and relies on de facto open standards (e.g., the Internet) and mobile agents for supporting service and personal mobility. In order to evaluate the proposed model with respect to personal and service mobility, a prototype of a multimedia service was implemented. Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
26. Estudo sobre processamento maciçamente paralelo na internet
- Author
-
Huerta Yero, Eduardo Javier, Henriques, Marco Aurelio Amaral, 1963, Madeira, Edmundo Roberto Mauro, Midorikawa, Edson Toshimi, Garcia, Islene Calciolari, Von Zuben, Fernando José, Ricarte, Ivan Luiz Marques, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Internet ,Processamento paralelo (Computadores) ,Parallel processing ,Grids ,Cliente/servidor (Computação) ,Distributed systems ,Processamento eletrônico de dados - Processamento distribuído - Abstract
Orientador: Marco Aurélio Amaral Henriques Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Este trabalho estuda a possibilidade de aproveitar o poder de processamento agregado dos computadores conectados pela Internet para resolver problemas de grande porte. O trabalho apresenta um estudo do problema tanto do ponto de vista teórico quanto prático. Desde o ponto de vista teórico estudam-se as características das aplicações paralelas que podem tirar proveito de um ambiente computacional com um grande número de computadores heterogêneos fracamente acoplados. Desde o ponto de vista prático estudam-se os problemas fundamentais a serem resolvidos para se construir um computador paralelo virtual com estas características e propõem-se soluções para alguns dos mais importantes como balanceamento de carga e tolerância a falhas. Os resultados obtidos indicam que é possível construir um computador paralelo virtual robusto, escalável e tolerante a falhas e obter bons resultados na execução de aplicações com alta razão computação/comunicação Abstract: This thesis explores the possibility of using the aggregated processing power of computers connected by the Internet to solve large problems. The issue is studied both from the theoretical and practical point of views. From the theoretical perspective this work studies the characteristics that parallel applications should have to be able to exploit an environment with a large, weakly connected set of computers. From the practical perspective the thesis indicates the fundamental problems to be solved in order to construct a large parallel virtual computer, and proposes solutions to some of the most important of them, such as load balancing and fault tolerance. The results obtained so far indicate that it is possible to construct a robust, scalable and fault tolerant parallel virtual computer and use it to execute applications with high computing/communication ratio Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
27. Multi-analysis techniques for digital image forensics
- Author
-
Ferreira, Anselmo Castelo Branco, Rocha, Anderson de Rezende, 1980, Santos, Jefersson Alex dos, 1984, Dahab, Ricardo, Henriques, Marco Aurelio Amaral, Nascimento, Erickson Rangel do, Hirata, Nina Sumiko Tomita, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Processamento de imagens - Técnicas digitais ,Image processing - Digital techniques ,Digital image forensics ,Machine learning ,Análise forense de imagens digitais ,Aprendizado de máquina - Abstract
Orientadores: Anderson de Rezende Rocha, Jefersson Alex dos Santos Tese (doutorado) Universidade Estadual de Campinas, Instituto de Computação Resumo: O desenvolvimento de abordagens para autenticar e indicar a fonte de documentos questionados tem atraído a atenção da comunidade científica nos últimos anos, atenção esta causada, principalmente, pela enorme quantidade de informação disponível hoje em dia para as pessoas comuns, tais como vídeos e imagens, e que podem ser facilmente alteradas para forjar o seu significado. Além disso, materiais impressos são criados diariamente para falsificar documentos como dinheiro, cláusulas contratuais e também são usados para distribuir pornografia infantil. Soluções propostas na literatura frequentemente exploram diferentes ramos de pesquisa, tais como detecção de manipulação de imagem, atribuição de origem, esteganálise, detecção de pornografia, entre outros, por meio da investigação de artefatos característicos nestas imagens chamados de inconsistências estruturais. No entanto, para investigar um determinado artefato para uma determinada aplicação forense, normalmente diferentes abordagens são criadas. Nesta tese, propomos novos algoritmos que realizam análise forense de documentos digitais focados em diferentes aplicações, mas com base em uma idéia principal, chamada de multi-análise. Esta nova abordagem para o desenvolvimento de algoritmos de análise forense de documentos digitais leva em conta a análise de diversos cenários na imagem de entrada, tais como a análise de multi-direcionalidade, multi-perturbações, múltiplas resoluções entre outros. Esses cenários investigativos podem ser aplicados em qualquer fase da investigação de uma imagem questionada como, por exemplo, pré-processamento, descrição e classificação. Mostramos através de uma série extensa de experimentos que as soluções propostas para atribuição de impressora a laser, detecção de filtragem de imagens e detecção de manipulação por cópia e colagem são eficazes quando comparadas com os seus homólogos da literatura e que a abordagem proposta nesta tese pode ser a base de diversos outros algoritmos de análise forense de documentos digitais no futuro Abstract: The development of approaches to authenticating and pinpointing the source of questioned documents attracted the attention of the research community in recent years, mostly because of the huge amount of information available today to ordinary people, such as videos and images, which can be easily tampered with to in order to produce deceitful information. Moreover, printed materials are daily created to forge documents such as currency, contractual clauses, and also are used to distribute child pornography photos. Solutions proposed in the literature often explore different branches of research, such as image manipulation detection, source attribution, steganalysis, pornography detection among others, by investigating characteristic artifacts in these images called structural inconsistencies. However, to investigate a given artifact for a given digital image forensic application, normally a very different approach is created. In this thesis, we aim at proposing new digital image forensic algorithms focused on different applications, but based on a core idea, called the multi-analysis. This new approach to create digital image forensic algorithms takes into account the analysis of several scenarios for the input image, such as the analysis of multi-directionality, multiple perturbations, multiple-resolutions, among others. These investigative scenarios can be applied in any step of the image investigation, such as pre-processing, description and classification. We show through an extensive series of experiments that the proposed solutions for laser printer attribution, image filtering detection and copy-move detection are efficient when compared with their literature counterparts and the approach proposed in this thesis can be the root of several other digital image forensic algorithms in the future Doutorado Ciência da Computação Doutor em Ciência da Computação CNPQ 870358/1997-9 CAPES 99999.002341/2015-08
- Published
- 2021
- Full Text
- View/download PDF
28. Um estudo sobre métricas e quantificação em segurança da informação
- Author
-
Miani, Rodrigo Sanches, 1983, Mendes, Leonardo de Souza, 1961, Zarpelão, Bruno Bogaz, Oliveira, Leonardo Barbosa e, Malheiro, Ana Paula Resende, Henriques, Marco Aurelio Amaral, Cardieri, Paulo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Sistemas de segurança ,Pesquisa quantitativa ,Redes de computadores - Medidas de segurança ,Computer networks - Security metrics ,Security metrics ,Quantitative research - Abstract
Orientadores: Leonardo de Souza Mendes, Bruno Bogaz Zarpelão Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Com o aumento da frequência e diversidade de ataques, uma preocupação crescente das organizações é garantir a segurança da rede. Para compreender as ações que conduziram os incidentes e como eles podem ser mitigados, pesquisadores devem identificar e medir os fatores que influenciam os atacantes e também as vítimas. A quantificação de segurança é, em particular, importante na construção de métricas relevantes para apoiar as decisões que devem ser tomadas para a proteção de sistemas e redes. O objetivo deste trabalho foi propor soluções para auxiliar o desenvolvimento de modelos de quantificação de segurança aplicados em ambientes reais. Três diferentes abordagens foram usadas para a investigação do problema: identificação de limitações nos métodos existentes na literatura, investigação de fatores que influenciam a segurança de uma organização e a criação e aplicação de um questionário para investigar o uso de métricas na prática. Os estudos foram conduzidos usando dados fornecidos pela University of Maryland e pelo Centro de Atendimento a Incidentes de Segurança (CAIS) vinculado a Rede Nacional de Pesquisa (RNP). Os resultados mostraram que as organizações podem se beneficiar de análises mais rigorosas e eficientes a partir do uso de métricas de segurança e que a continuidade das pesquisas nessa área está intimamente ligada ao desenvolvimento de estudos em sistemas reais Abstract: With the increase in the number and diversity of attacks, a critical concern for organizations is to keep their network secure. To understand the actions that lead to successful attacks and also how they can be mitigated, researchers should identify and measure the factors that influence both attackers and victims. Quantifying security is particularly important to construct relevant metrics that support the decisions that need to be made to protect systems and networks. In this work, we aimed at proposing solutions to support the development of security quantification models applied in real environments. Three different approaches were used to investigate the problem: identifying issues on existing methods, evaluating metrics using empirical analysis and conducting a survey to investigate metrics in practice. Studies were conducted using data provided by the University of Maryland and also by the Security Incident Response Team (CAIS) from the National Education and Research Network (RNP). Our results showed that organizations could better manage security by employing security metrics and also that future directions in this field are related to the development of studies on real systems Doutorado Telecomunicações e Telemática Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
29. Implementação eficiente em software do esquema de assinatura de Merkle e suas variantes
- Author
-
Oliveira, Ana Karina Dourado Salina de, 1974, López Hernández, Julio César, 1961, Custodio, Ricardo Felipe, Simplício Júnior, Marcos Antônio, Dahab, Ricardo, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Criptografia de chaves públicas ,Criptografia de dados (Computação) ,Post-quantum cryptography ,Digital signatures ,Merkle, Assinaturas de ,Assinaturas digitais ,Public key cryptography ,Hash functions ,Funções hash ,Data encryption (Computer science) ,Merkle signatures ,Criptografia pós-quântica - Abstract
Orientador: Julio César López Hernández Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Um esquema de assinatura digital é uma importante ferramenta para a criptografia de chave pública e uma tecnologia essencial para prover autenticidade, integridade e irretratabilidade. Assinaturas digitais são utilizadas em muitas aplicações práticas, tais como: eCommerce, eGovernment, distribuição de software, autenticação de usuários, dentre outras aplicações. Os esquemas de assinaturas digitais mais utilizados nos dias de hoje são o RSA, o DSA, o ECDSA e o EdDSA. Estes esquemas não são imunes aos computadores quânticos, pois sua segurança depende da dificuldade de fatorar grandes números inteiros e calcular logaritmos discretos. O esquema de assinatura digital de Merkle e suas variantes são baseados em funções de resumo e são considerados resistentes aos computadores quânticos. Estes esquemas são candidatos promissores a esquemas de assinaturas digitais com segurança quântica e têm sido objeto de esforços para padronização. Neste trabalho, apresenta-se uma implementação otimizada em software de duas propostas de padrão para o esquema digital de Merkle usando um conjunto de instruções AVX2 nos processadores Haswell e Skylake. A implementação utiliza várias técnicas de otimização para acelerar a função de resumo subjacente, o que se resulta em um melhor desempenho nos algoritmos de geração de chaves, assinatura e verificação. A implementação utilizou os parâmetros selecionados pelas propostas do LMS e do XMSS. Os desempenhos das implementações foram medidos em um processador Haswell (Intel Core i7-4770K de 3,4 GHz) e Skylake (Intel Core i7-6700K de 4,2 GHz). Em particular, a operação de assinatura do esquema XMSS, usando SHA-256 no processador Skylake, pode ser calculada em 3.884.005 ciclos (1.031 assinaturas por segundo) para o nível de segurança de 128 bits (contra ataques quânticos), usando uma árvore de altura 60 com 12 camadas. Para o LMS, a mesma operação requer 1.287.778 ciclos (3.115 assinaturas por segundo). As chaves de assinaturas do XMSS e do LMS têm o mesmo tamanho, porém, no LMS, a chave privada é menor do que no XMSS, enquanto a chave pública é maior do que no XMSS. Os resultados indicam que ambas as propostas para esquemas de assinaturas baseadas em funções de resumo, LMS e XMSS, têm alto desempenho usando uma implementação vetorial nos modernos processadores da Intel Abstract: A digital signature scheme is a relevant tool for public key cryptography and an essential technology to provide authenticity, integrity, and non-repudiation of data. Digital signatures are used in many practical applications, such as eCommerce, eGovernment, software distribution, user authentication, and various other applications. The digital signature algorithms that are used in practice today are RSA, DSA, ECDSA and EdDSA. They are not quantum immune since their security relies on the difficulty of factoring large composite integers and computing discrete logarithms. The Merkle digital signature scheme (and its variants) is based on hash functions and is considered secure against quantum computing. Merkle-based schemes are promising candidates for providing digital signature schemes in the quantum scenario, and for that reason, these schemes have been proposed for standardization. In this work, we present an optimized software implementation of two standard proposals of hash-based signatures using a set of AVX2 instructions on Haswell and Skylake processors. The implementation uses various optimization techniques to speed up the underlying hash function evaluation, and consequently, the algorithms for key generation, signature, and verification process. The implementation use the parameters specified in the proposals LMS and XMSS. The performance of the implementation results was measured in a modern Haswell processor (Intel Core i7-4770K 3,4 GHz) and Skylake (Intel Core i7-6700K 4,2 GHz). In particular, the signature operation in XMSS scheme, using SHA-256 in the Skylake processor, can be calculated in 3,884,005 cycles (1,031 signatures per second) for a 128-bit security level (against quantum attacks) using a tree of height 60 and 12 layers. For the LMS, signature operation requires 1,287,778 cycles (3,115 signatures per second). Both XMSS and LMS signature keys are equal in size, however, in the LMS, the private key is smaller than XMSS, while the public key is larger than XMSS. The results indicate that both proposals LMS and XMSS for signature schemes based on hash functions have high performance using a vector implementation on recent Intel processors Doutorado Ciência da Computação Doutora em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
30. Estudo e implementação de algoritmos de resumo (hash) criptografico na plataforma Intel 'MARCA REGISTRADA' XScale
- Author
-
Tavares, Paulo Henrique, Dahab, Ricardo, 1957, López Hernández, Julio César, Henriques, Marco Aurelio Amaral, Barreto, Paulo Sergio Licciardi Messeder, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Hashing (Computer science) ,Cryptography ,Criptografia ,Hashing (Computação) ,Computer architecture ,Arquitetura de computador - Abstract
Orientador: Ricardo Dahab Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Nos últimos anos, a quantidade de dispositivos móveis tem crescido dramaticamente assim como a complexidade das aplicações que os usuários desejam executar neles. Ao mesmo tempo, a preocupação com a segurança do grande público também tem aumentado, criando uma demanda maior por aplicações criptográficas, como assinaturas digitais, que dependem de funções de resumo (hash) criptográfico. Neste contexto tornou-se importante estudar o desempenho de funções de resumo nesta nova geração de processadores, desenvolvidos para estes dispositivos. Neste trabalho estudamos a família de funções de resumo SHA (Secure Hash Algorithm) e Whirlpool, algumas de suas implementações, as características dos processadores Intel XScale que podem ser usadas para melhorar o desempenho de tais funções, com atenção especial para as novas extensões Wireless MMX. Também aplicamos algumas dessas técnicas e apresentamos os resultados dos testes de desempenho executados Abstract: In recent years, the number of mobile devices has grown dramatically and so has the complexity of applications their users wish to run. At the same time, security concerns of the general public have also increased, creating a greater demand for cryptographic applications such as digital signatures, which use hash functions. In this context it has become very important to study the performance of hash functions on the new generation of processors developed for these devices. In this work we study the SHA (Secure Hash Algorithm) family of hash functions and some of their implementations, the Intel XScale processors characteristics that can be used to improve the performance of those functions, with special attention to the new Wireless MMX extensions. We also applied some of these techniques and report the results of the performance tests executed. Mestrado Engenharia de Computação Mestre Profissional em Computação
- Published
- 2021
- Full Text
- View/download PDF
31. Um estudo sobre a implementação de criptossistemas baseados em emparelhamentos bilineares sobre curvas elípticas em cartões inteligentes de oito bits
- Author
-
Oliveira, Matheus Fernandes de, 1995, Henriques, Marco Aurelio Amaral, 1963, Dahab, Ricardo, Palazzo Júnior, Reginaldo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Criptografia de chaves públicas ,Curvas elípticas ,Bilinear forms ,Formas bilineares ,Cryptography ,Elliptic curves ,Criptografia ,Information technology - Security ,Public-key cryptography ,Tecnologia da informação - Sistema de segurança - Abstract
Orientador: Marco Aurelio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Emparelhamentos bilineares sobre curvas elípticas são funções matemáticas que viabilizam o desenvolvimento de uma série de novos protocolos criptográficos, entre eles, os criptossistemas baseados em identidades. Esses criptossistemas representam uma nova forma de se implementar criptografia de chaves públicas na qual são atenuadas ou completamente retiradas as restrições relativas ao tipo, tamanho e formato das chaves públicas. Este trabalho apresenta um estudo sobre a implementação de criptossistemas baseados em emparelhamentos bilineares sobre curvas elípticas em cartões inteligentes de oito bits. O trabalho mostra ainda o desenvolvimento de equações específicas baseadas no método conhecido como Montgomery's Ladder para multiplicação escalar de curvas elípticas supersingulares em corpos binários. Estas novas equações tornam o algoritmo mais rápido sem perder suas características de segurança originais. O trabalho apresenta também a técnica de delegação segura de emparelhamentos, na qual um dispositivo computacionalmente restrito, como um cartão inteligente, delega o cálculo do emparelhamento para um dispositivo com maior poder computacional. É proposta uma modificação nesta técnica que diminui o número de operações executadas pelo cartão inteligente Abstract: Bilinear pairings over elliptic curves are mathematical functions that enable the development of a set of new cryptographic protocols, including the so called identity based cryptosystems. These cryptosystems represent a new way to implement public- key cryptography in such a way that the restrictions related to public keys type, size and format are reduced or completely removed. This work presents a study about implementation of pairing based cryptosystems in 8-bit smart cards. It also presents new equations to be used in Montgomery's Ladder algorithm for scalar multiplication of supersingular ellipitic curves over binary fields. These equations make the algorithm faster without compromising its security characteristics. Finally, it discusses the secure delegation of pairing computation, that enables a computationally limited device, like a smart card, to delegate the computation of pairings to a more powerful device. It is proposed a modification in this technique to decrease the number of operations executed by the smart card Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
32. Avaliação do custo computacional de emparelhamentos bilineares sobre curvas elípticas Barreto-Naehrig
- Author
-
Sangalli, Leandro Aparecido 1988, Henriques, Marco Aurelio Amaral, 1963, Attux, Romis Ribeiro de Faissol, Aranha, Diego de Freitas, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Curvas elípticas ,Elliptic curves ,Emparelhamentos bilineares ,Bilinear pairings - Abstract
Orientador: Marco Aurélio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Emparelhamentos bilineares sobre curvas elípticas são funções matemáticas que podem viabilizar protocolos criptográficos promissores. Porém, um fato que enfraquece o desenvolvimento destes protocolos é o alto custo computacional para calcular estes emparelhamentos. Diversas técnicas de otimização foram propostas nos últimos anos para realizar este cálculo de forma mais eficiente. Dentre estas técnicas existem as que mudam o tipo de emparelhamentos, o tipo de curvas elípticas ou a forma de cálculo dos emparelhamentos. As curvas Barreto-Naehrig são conhecidas como curvas amigáveis para emparelhamentos, pois se destacam para aplicações que buscam eficiência no cálculo dos mesmos. Este trabalho avalia em detalhes o custo das operações presentes no cálculo de alguns dos emparelhamentos mais utilizados atualmente definidos sobre curvas Barreto-Naehrig. Por meio desta análise, foi possível realizar uma comparação destes emparelhamentos no nível de operações de adição, multiplicação, quadrado, inversão e redução modular sobre um corpo finito primo e sobre um processador genérico. Os resultados mostram que de acordo com os parâmetros adotados, um dos emparelhamentos mais utilizados (Optimal Ate) pode não apresentar o melhor desempenho entre os analisados. Além disso, foi possível avaliar como o cálculo dos emparelhamentos é afetado pela adoção de diferentes processadores, desde aqueles com palavras curtas até aqueles que no futuro poderão ter palavras muito longas Abstract: Bilinear pairings over elliptic curves are functions that support promising cryptographic protocols. However, a fact that hinders the development of these protocols is their high computational cost. Many techniques seeking more efficiency in the calculation of pairings have been proposed in the last years. Among these techniques are those that change the pairing type, the curve type and/or the pairing calculation method. Barreto-Naehrig curves are known as pairing-friendly curves, because they perform well in applications that require more efficiency in the pairing calculation. This work evaluates the cost of operations present in the most used pairings that are based on Barreto-Naehrig curves. With this evaluation, it was possible to compare these pairings at the level of basic operations as addition, multiplication, square, inversion and modular reduction over a prime finite field in a generic processor. The results show that, for the security parameters adopted in this work, one of the most used pairing algorithms (Optimal Ate) is not the fastest among those evaluated. Moreover, this work estimates the impact caused in the pairing calculation by different processors, ranging from the current short-medium word processors to the future very long word ones Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
33. Projeto de caches de matrizes particionados baseados em rastros de acesso à memória para sistemas embarcados
- Author
-
Tachibana, Marina, Tokarnia, Alice Maria Bastos Hubinger, 1958, Centoducatte, Paulo Cesar, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Split array caches ,Memória cache ,Embedded systems ,Sistemas embarcados (Computadores) - Abstract
Orientador: Alice Maria Bastos Hubinger Tokarnia Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Um sistema embarcado executa um único programa ou um conjunto pré-definido de programas repetidamente e, muitas vezes, seus componentes podem ser customizados para satisfazer uma especificação com requisitos referentes à área, desempenho e consumo de energia. Caches on-chip, em particular, são alvos de muitos algoritmos de customização por terem uma contribuição importante no desempenho e no consumo de energia de processadores embarcados. Várias aplicações embarcadas processam estruturas de dados cujos padrões de acesso distintos tornam difícil encontrar uma configuração para o cache que garanta desempenho e baixo consumo. Propomos, neste trabalho, uma metodologia para projetar caches de matrizes particionados que satisfaçam uma restrição de tamanho total e em cujas partições estão mapeadas as matrizes da aplicação. Estas partições exploram a diferença de localidade espacial entre as matrizes. Com base na simulação de rastros de acesso à memória para entradas típicas, definimos uma métrica que quantifica o uso que as matrizes fazem das metades das linhas de um cache de matrizes unificado, associativo por conjunto, que satisfaz uma restrição de tamanho. Esta métrica é usada para dividir as matrizes em dois grupos, que são mapeados em duas partições de cache, uma com mesmo tamanho de linha, e outra com metade do tamanho de linha do cache de matrizes unificado. Este procedimento é repetido para várias organizações de cache de matrizes unificados com um tamanho especificado. No final, os caches de matrizes particionados baseados em rastros de acesso à memória com menor tempo médio de acesso à memória são selecionados. Para um decodificador MPEG-2, dependendo do paralelismo dos acessos de dados, os resultados das simulações mostram que o tempo médio de acesso à memória de um cache de matrizes particionado baseado em rastros de 8K bytes apresenta uma redução de 26% a 60%, quando comparado com o cache de matrizes unificado, associativo por conjunto, de mesmo tamanho, com menor tempo médio de acesso à memória. Existe também uma redução de 46% no consumo de energia entre estes caches Abstract: An embedded system executes a single application or a pre-defined set of applications repeatedly and, frequently, its components can be fine-tuned to satisfy a specification with requirements related to area, performance, and energy consumption. On-chip caches, in particular, are the target of several customization algorithms due to its important contribution to the performance and energy consumption of embedded processors. Several embedded applications process data structures whose access patterns turn it difficult to find a cache configuration that guarantees performance and low energy consumption. In this work, we propose a methodology for designing a split array cache that satisfies a total size constraint and in whose partitions the arrays of an application are mapped. Those partitions explore the difference in spatial locality among the matrices. Using traces of memory accesses, obtained for typical input patterns, we define a metric that quantifies the use of the two halves of the lines by array accesses in a unified array set-associative cache that satisfies a size constraint. We use this metric to split the arrays in two groups that are mapped to two cache partitions, one with the same line size, and the other with half line size of that of the unified array cache. This procedure is repeated for several unified array cache organizations of a specified size. In the end, the trace based split array caches with lowest average memory access time are selected. For a MPEG-2 decoder, depending on the parallelism of array accesses, simulation results show that the average memory access time of an 8K byte split array cache is reduced from 26% to 60% as compared to that of the unified set associative array cache of same size with the lowest average memory access time. There is also a reduction of 46% in the consumption of energy Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
34. Estudo de escalabilidade em sistemas de processamento paralelo virtual
- Author
-
Rocha, Fábio Soares, Henriques, Marco Aurelio Amaral, 1963, Guimarães, Célio Cardoso, Tokarnia, Alice Maria Bastos Hubinger, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Processamento paralelo (Computadores) - Abstract
Orientador: Marco Aurélio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: A utilização de sistemas de processamento paralelo virtual tem aumentado em várias áreas de aplicação, desde as estritamente matemáticas até as médicas e biológicas. Devido a esse crescimento, são cada vez mais necessários mecanismos para uma avaliação consistente de desempenho de sistemas desse tipo. É necessário também haver um entendimento mais preciso do conceito de escalabilidade, um dos principais indicadores de desempenho, tanto quanto ao seu significado como quanto à maneira de mensurá-la. Este trabalho traz um estudo comparativo sobre métricas de escalabilidade para sistemas de processamento paralelo homogêneos e heterogêneos, onde duas métricas homogêneas foram selecionadas para serem utilizadas na avaliação do limite superior de escalabilidade de duas plataformas de processamento paralelo virtual (JoiN a JPVM). A partir deste estudo foi proposta uma métrica de escalabilidade que utiliza como base para a sua análise o speedup, conceito muito familiar em processamento paralelo. Foram realizados testes de validação da métrica proposta, que destacam seu caráter prático e adequação para a aplicação em sistemas heterogêneos de processamento paralelo virtual Abstract: The utilization of Virtual Parallel Processing Systems has increased in several application areas, from strictly mathematical to medical and biological areas. Due to this increasing, mechanisms that offer a consistent performance evaluation of these systems, became more important and useful. It is also important to understand the concept of scalability, one of the main performance pointers, and the way of measuring it. This work shows a comparative study about scalability metrics of homogeneous and heterogeneous parallel processing systems, where two of the homogeneous metrics, were selected to evaluate the scalability upper limit on two virtual parallel processing platforms (JoiN and JPVM). As a result, We proposed a new scalability metric, which is based on the speedup, a well known parallel processing concept. Validation tests were performed using the proposed metric, which highlight its characteristics and suitability to heterogeneous virtual parallel processing systems Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
35. Gestão de conteúdos em um ambiente de ensino de línguas baseado em sistema tutor inteligente com agentes-lexemas e semantização de imagens
- Author
-
Ávila, Ismael Mattos Andrade, Gudwin, Ricardo Ribeiro, 1967, Françozo, Edson, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Metadata ,Ensino a distância ,Sistemas tutoriais inteligentes ,Distance learning ,Multiagent system ,Semiotic and computing ,Sistemas multiagentes ,Semiótica e computação ,Intelligent tutoring systems - Abstract
Orientador: Ricardo Ribeiro Gudwin Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Este trabalho propõe uma arquitetura baseada em um sistema tutor inteligente (STI) para ambientes de ensino de línguas. A principal contribuição da proposta está no mecanismo de seleção e sequenciamento dos conteúdos, e baseia-se na estratégia de tratar cada lexema da língua-alvo (L2) como uma unidade pedagógica autônoma, cujo objetivo é ser aprendida instanciada na forma de um agente de software. Essa estratégia cria um arranjo bottom-up que é flexível o bastante para adaptar-se a mudanças nos objetivos pedagógicos e para reproduzir a natureza gradual, contextualizada e em grande medida inconsciente da aquisição da língua materna (L1). A arquitetura proposta é baseada em três principais pilares: (i) os agentes-lexemas da língua-alvo (L2) competem por um recurso limitado, a interface do curso; (ii) as imagens usadas nas cenas do curso são associadas a metadados que as descrevem semanticamente, influindo no comportamento dos agentes e (iii) uma ontologia da L2 define as relações semânticas e sintáticas entre seus lexemas e assim embasa as inferências feitas pelo sistema multiagente Abstract: This work proposes an architecture based on an Intelligent Tutoring System (ITS) for language teaching environments. The main contribution of the proposal is in its content selection and sequencing mechanism, and is based on the strategy of treating each lexeme of the target language (L2) as an autonomous pedagogical unit, whose goal is to be learned instantiated as a software agent. This strategy creates a bottom-up approach that is flexible enough to adapt to changes in the pedagogical objectives and to reproduce the gradual, contextualized and somewhat unconscious nature of the first language (L1) acquisition. The proposed architecture is based on three main pillars: (i) the lexemeagents of the target language (L2) compete for a limited resource, the course interface; (ii) the images used in the course scenes are associated to metadata that describe them semantically, influencing the behavior of the agents and (iii) an ontology of L2 defines the semantic and syntactic relations of its lexemes and then underpins the inferences made by the multiagent system Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
36. Análise e implementação de uma arquitetura iterativa com 'sub-pipelining' de estágios e 'datapath' de 32 bits para um co-processador AES-128
- Author
-
Américo Filho, Júlio Cesar Soares, 1987, Meloni, Luís Geraldo Pedroso, 1958, Saotome, Osamu, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Algoritmos ,Computadores canalizados ,FPGA (Arranjo de Lógica Programável em Campo) ,Hardware - Architecture ,FPGA (Field Programmable Gate Array) ,Channeled computers ,Encryption ,Hardware - Arquitetura ,Criptografia ,Algorithms - Abstract
Orientador: Luís Geraldo Pedroso Meloni Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Neste trabalho, propõe-se uma arquitetura de hardware para um co-processador capaz de realizar encriptação e decriptação segundo o padrão AES-128 com suporte aos modos de operação ECB, CBC e CTR. A arquitetura proposta emprega as técnica de loop rolling com compartilhamento de recursos (para reduzir a quantidade de lógica necessária) e sub-pipeling (para aumentar a frequência de operação do circuito). A largura do datapath é 32 bits e o número de estágios do pipeline é 3. Também documenta-se os resultados do projeto OpenAES. O OpenAES é um projeto open source desenvolvido a partir deste trabalho e que disponibiliza um IP Core de um co-processador AES compatível com o protocolo AMBA APB. O IP Core do projeto OpenAES faz uso da arquitetura proposta na primeira parte deste trabalho, adicionando a ela diversas funcionalidades, como suporte a DMA, geração de interrupções e possibilidade de suspensão de mensagens. Como resultados do projeto, são disponibilizados: o RTL, em Verilog, do IP Core, um ambiente de verificação funcional, uma camada de abstração de hardware (HAL), escrita em C, compatível com o padrão ARM CMSIS e um script de timing constraints no formato SDC. Como forma de validação, o IP foi prototipado em um dispositivo SmartFusion A2F200M3F Abstract: This work proposes an AES-128 hardware architecture that supports both encryption and decryption for the ECB, CBC and CTR modes. The datapath width is 32 bits and the number of pipeline stages is 3. This work also documents the OpenAES project. The OpenAES is an open source project that provides an IP-Core for an AES co-processor that is compatible with the AMBA APB protocol and is based on the architecture described in the first part of this work. Several features such as DMA capabilites, interruptions generations and suport to message priorization are added to the basic architecture. The project provides: the synthesizable RTL Verilog for the IP Core, a function verification enviroment, a hardware abstraction layer compatible with the CMSIS standard and a SDC timing constraints file. The IP validation was peformed through a SmartFusion A2F200M3F device Mestrado Telecomunicações e Telemática Mestre em Engenharia Elétrica CAPES
- Published
- 2021
- Full Text
- View/download PDF
37. A new probabilistic consensus mechanism for public blockchains
- Author
-
Martins, Diego Fernandes Gonçalves, 1986, Henriques, Marco Aurelio Amaral, 1963, Oliveira, Leonardo Barbosa e, Rosa, Raphael Vicente, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Distributed consensus (Computation) ,Blockchain ,Cadeia de blocos ,Sistemas distribuídos ,Redes de computadores - Protocolos ,Computer networks - Protocols ,Distributed systems ,Consenso distribuído (Computação) ,Bitcoin - Abstract
Orientador: Marco Aurélio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: A blockchain, introduzida com a invenção da criptomoeda Bitcoin, é considerada uma tecnologia disruptiva, pela sua capacidade em oferecer um ecossistema descentralizado e seguro para que transações entre duas partes sejam realizadas sem que exista um terceiro confiável. Atualmente, as principais blockchains públicas (Bitcoin e Ethereum) utilizam um mecanismo de consenso baseado em PoW (Proof-of-Work ou Prova de Trabalho), o qual é dependente do cálculo de uma grande quantidade de funções hash com um grande gasto energético. Além disso, o PoW é um mecanismo que premia, por meio de recompensas financeiras, apenas o nó que primeiro calcula um hash menor que um valor pré-estabelecido, desperdiçando o esforço e gasto energético de todos os demais nós que tentaram atingir o mesmo objetivo. Estes fatos têm exigido altos investimentos em energia e hardware para aumentar o poder computacional, o que tem afastado os participantes menos privilegiados e, consequentemente, contribuído para uma centralização do mecanismo de consenso em torno de poucos nós que são capazes de realizar os investimentos necessários para se manterem competitivos. Tal centralização não é interessante sob o ponto de vista da segurança do mecanismo, já que ela facilita o conluio entre algumas partes que juntas detenham mais da metade do poder computacional total da rede. Outro problema do mecanismo PoW é que ele é um mecanismo de baixo desempenho no que tange a capacidade de confirmar as transações na blockchain. Estes pontos despertaram o interesse no desenvolvimento de novos mecanismos de consenso que sejam capazes de melhorar o desempenho do PoW, e promover a descentralização do consenso a partir de técnicas que não estejam alicerçadas no poder computacional dos participantes. Uma alternativa já conhecida ao PoW é o mecanismo PoS (Proof-of-Stake ou Prova de Posse), que permite a participação no consenso de qualquer nó que provar a posse de algum valor ou objeto especificado pelo mecanismo. Entretanto, ele ainda não é largamente utilizado por não haver uma forma de implementação que tenha conquistado a confiança dos usuários das blockchains públicas. A partir do estudo e comparação dos principais mecanismos de consenso para blockchains públicas, esse trabalho busca definir os requisitos desejáveis para a construção de um novo mecanismo de consenso baseado em PoS que seja seguro e eficiente. Neste sentido, o trabalho apresenta um novo mecanismo de consenso PoS que é probabilístico e não requer a formação de comitês para que novos blocos sejam confirmados. Apesar de existirem outros consensos baseados em PoS que não formam comitês, eles não são funcionais ou exigem algum tipo de grupo de consenso nos bastidores para suportar os blocos já confirmados e manter o consenso seguro. Assim como ocorre com outros consensos baseados em PoS, o mecanismo proposto também é capaz de reduzir o consumo de energia elétrica quando comparado ao PoW. Além da formalização do mecanismo, o texto apresenta resultados práticos de avaliação de segurança e de desempenho. Por fim, ele compara o novo mecanismo proposto com alguns dos principais mecanismos de consenso utilizados na prática, de forma a demonstrar seu melhor desempenho, maior robustez e menor consumo de energia em relação aos mesmos Abstract: The blockchain, introduced with the invention of the Bitcoin cryptocurrency, is considered a disruptive technology. It offers a decentralized and secure environment for transactions between two parties, built without a trusted third party. The leading public blockchains (Bitcoin and Ethereum) use a consensus mechanism based on PoW (Proof-of-Work), which depends on calculating a large volume of hash functions that spend much energy. Also, PoW is a mechanism that rewards only the node that first calculates a hash smaller than a pre-established value, wasting the efforts and energy spent by all other nodes that tried to achieve the same goal. These facts have demanded high investments in energy and hardware to increase the computational power, which has hampered the participation of less privileged nodes and, consequently, contributed to a centralization of the consensus mechanism around the few nodes having the resources to stay competitive. This centralization is not interesting from the security point of view since it facilitates the collusion between some parties that hold together more than half of the network's total computational power. Another problem is the low performance of the PoW mechanism regarding its ability to confirm transactions on the blockchain. These points increased the interest in developing new consensus mechanisms capable of enhancing the performance of PoW while promoting the decentralization of consensus, using techniques not based on the participants' computational power. A known alternative to PoW is the PoS (Proof-of-Stake) mechanism, which allows the participation in the consensus of any node that proves the possession of some value or object specified by the mechanism. However, this approach is still not widely used because no form of implementation has won public blockchain users' trust. Based on the study and comparison of the main consensus mechanisms for public blockchains, this work defines the desirable requirements for developing a new consensus mechanism based on PoS that is safe and efficient. As a result, the work presents a new PoS consensus mechanism that is probabilistic and does not require a committee to confirm new blocks. Although there are other consensus proposals based on PoS that do not require committees, they are nonfunctional or require some kind of agreement group to support the confirmed blocks and achieve a safe consensus. Moreover, similar to other mechanisms based on PoS, the proposed consensus can reduce electricity consumption compared to PoW. The text shows the formalization of the mechanism and practical results regarding safety and performance evaluation. It then shows a comparison with some of the main consensus mechanisms used in practice in order to demonstrate its higher performance, stronger robustness, and lower power consumption relative to them Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2021
38. Protocolos para Intersecção Privada de Conjuntos (PSI) e para classificação privada baseada no Naive Bayes
- Author
-
Resende, Amanda Cristina Davi, 1990, Aranha, Diego de Freitas, 1982, Dahab, Ricardo, 1957, Simplício Júnior, Marcos Antônio, Henriques, Marco Aurelio Amaral, Gouvêa, Conrado Porto Lopes, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Criptografia de chaves públicas ,Computadores - Medidas de segurança ,Inferência bayesiana ,Computer security ,Bayesian inference ,Machine learning ,Public key cryptography ,Aprendizado de máquina - Abstract
Orientadores: Diego de Freitas Aranha, Ricardo Dahab Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Devido ao cuidado em controlar o acesso às informações sensíveis/confidenciais, existe uma grande preocupação em construir sistemas computacionais que mantenham a privacidade das entidades que as fornecem. Assim, esse trabalho apresenta protocolos para Intersecção Privada de Conjuntos (PSI) e Aprendizado de Máquina preservando a privacidade. Protocolos para PSI permitem que duas partes calculem a intersecção de seus conjuntos privados sem revelar nenhuma informação adicional além do resultado da intersecção, para uma parte (unidirecional) ou ambas as partes (mútua). Apesar dos diversos protocolos PSI disponíveis na literatura, apenas recentemente técnicas têm sido aplicadas aos protocolos existentes com o objetivo de torná-los mais eficientes quando uma das partes detém um conjunto de elementos muito menor que a outra. Este é um cenário realista em muitos casos, caracterizando uma configuração desbalanceada. Assim, com base em técnicas modernas de engenharia criptográfica, nós propomos otimizações para promissores protocolos PSI unidirecionais baseados em criptografia de chave pública, que são seguros tanto contra adversários semi-honestos quanto maliciosos. Mostramos que nossas melhorias e otimizações geram protocolos que melhoram a complexidade de comunicação e o tempo de execução de propostas anteriores na configuração desbalanceada. Além disso, propomos um classificador Naive Bayes que preserva a privacidade e o aplicamos ao problema de classificação de texto privado. Nesse cenário, uma parte (Alice) possui uma mensagem de texto, enquanto outra parte (Bob) possui um classificador. No final do protocolo, Alice aprende apenas o resultado do classificador aplicado à sua entrada de texto e Bob não aprende nada. Nossa solução é baseada em Computação Segura Multiparte (MPC) e fornece uma solução rápida e segura para a classificação de texto não estruturado. Aplicando nossa solução para o caso de detecção de spam (a solução é genérica, podendo ser utilizada em qualquer outro cenário em que o classificador Naive Bayes possa ser empregado), podemos classificar um SMS como spam ou não spam (ham) em menos de um segundo. Com base em nossos resultados, acreditamos que nossas propostas são alternativas práticas para as soluções atualmente em vigor para preservar a privacidade, especialmente, mas não apenas, em aplicações como descoberta de contatos em redes sociais existentes e na classificação de um SMS como spam ou não spam (ham) Abstract: Due to the concerns in controlling access to sensitive/confidential information, there is a widespread concern in building computational systems that maintain the privacy of the entities that provide it. Thus, this work presents protocols for Private Set Intersection (PSI) and Privacy-Preserving Machine Learning. Protocols for PSI allow two parties to compute the intersection of their private sets without revealing any additional information beyond the intersection itself, for one party (one-way) or both parties (mutual). Despite the several PSI protocols available in the literature, only recently techniques have been applied to existing PSI protocols in order to make them more efficient when one of the parties holds a set much smaller than the other. This is a realistic scenario in many cases, characterizing the unbalanced setting. Thus, based on modern cryptographic engineering techniques, we propose optimizations for promising one-way PSI protocols based on public-key cryptography secure against semi-honest and malicious adversaries. We show that our improvements and optimizations yield a protocol that outperforms the communication complexity and the runtime of previous proposals in the unbalanced setting. In addition, we propose a privacy-preserving Naive Bayes classifier and apply it to the problem of private text classification. In this setting, a party (Alice) holds a text message, while another party (Bob) holds a classifier. At the end of the protocol, Alice will only learn the result of the classifier applied to her text input, and Bob learns nothing. Our solution is based on Secure Multiparty Computation (SMC) and provides a fast and secure solution for the classification of unstructured text. Applying our solution to the case of spam detection (the solution is generic and can be used in any other scenario in which the Naive Bayes classifier can be employed), we can classify an SMS as spam or ham in less than one second. Based on our results, we believe that our proposals are practical alternatives for the solutions currently in place for privacy-preserving especially, but not only in the application as contact discovery in existing social networks, and in classifying an SMS as spam or ham Doutorado Ciência da Computação Doutora em Ciência da Computação CNPQ 140738/2017-7 CAPES 0
- Published
- 2021
39. Avaliação de geradores de números pseudoaleatórios baseados em autômatos celulares não elementares
- Author
-
Magossi, Silvia Regina Leite, 1965, Henriques, Marco Aurelio Amaral, 1963, Geus, Paulo Lício de, Tavares, Tiago Fernandes, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Cellular automata ,Random number generators ,Cryptography ,Geradores de números aleatórios ,Autômato celular ,Criptografia - Abstract
Orientador: Marco Aurélio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Neste trabalho estudamos a geração de números pseudoaleatórios usando diferentes tipos de autômatos celulares não elementares (AC), para checar a hipótese de que autômatos celulares mais complexos conseguem produzir sequências aleatórias com qualidade (aleatoriedade) aceitável e menor custo que os autômatos mais elementares. Para avaliar a qualidade das sequências pseudoaleatórias produzidas por estes autômatos e compará-las mais facilmente, utilizamos os testes padronizados do National Institute of Standards and Technology (NIST) e propomos uma métrica que consolida vários parâmetros destes testes. Esta métrica permite uma comparação das relações custo/benefício de diversos geradores, incluindo os não baseados em autômatos celulares. Com base nesta avaliação, investigamos o potencial de vários tipos de autômatos na geração de números pseudoaleatórios e a viabilidade de empregá-los como parte do gerador de números pseudoaleatórios do sistema operacional Linux. Os resultados são favoráveis à utilização de autômatos celulares não elementares como geradores de números pseudoaleatórios, uma vez que alguns deles apresentam vantagens de desempenho e qualidade em relação a outras alternativas. Finalmente, discutimos o cuidado extra necessário quando um autômato celular é usado como gerador de números pseudoaleatórios em aplicações seguras Abstract: In this work we study the generation of pseudorandom numbers using different types of non-elementary cellular automata (CA) in order to check the hypothesis that more complex cellular automata can produce random sequences with acceptable quality (randomness) and costing less than the most commonly used CA: The elementary automata. To assess the quality of pseudorandom number sequences produced by these automata and compare them more easily, we use standardized testing software provided by the National Institute of Standards and Technology (NIST) and propose a method to consolidate several test results into few parameters. This method allows the comparison of the cost-benefit ratios of various generators, including those not related to cellular automata. Based on this evaluation, we investigate the potential of various types of automata in pseudorandom number generation and the feasibility of employing them as part of the pseudorandom number generator of the Linux operating system. The results are favorable to the use of non-elementary cellular automata as pseudorandom number generators, since some of them show quality and performance advantages relative to other alternatives. Finally, we discuss the extra care needed when a cellular automata is used as pseudorandom number generator in secure applications Mestrado Engenharia de Computação Mestra em Engenharia Elétrica
- Published
- 2020
- Full Text
- View/download PDF
40. Estudo sobre mecanismos de consenso de baixo custo para Blockchain
- Author
-
Maehara Aliaga, Yoshitomi Eduardo, 1990, Henriques, Marco Aurelio Amaral, 1963, Esteve Rothenberg, Christian Rodolfo, López Hernández, Julio César, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Distributed consensus (Computing) ,Blockchain ,Cadeia de blocos ,Consenso distribuído (Computação) ,Bitcoin - Abstract
Orientador: Marco Aurélio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: O conceito de blockchain (cadeia de blocos) introduzido com a invenção da criptomoeda Bitcoin tem sido objeto de intensas discussões sobre seu potencial de viabilizar novos tipos de aplicações e serviços na Internet. As blockchains mais usadas atualmente (nos sistemas Bitcoin e Ethereum) são baseadas no conceito de Prova de Trabalho (Proof-of-Work ou PoW), no qual o consenso entre partes adversárias é garantido pela execução de um grande volume de cálculos de funções de dispersão (hash). Como consequência, tem havido uma grande competição e um aumento constante dos requisitos computacionais e de energia necessários para criar blocos em uma destas blockchains, o que cada vez mais afasta os usuários comuns e concentra o controle do sistema nas mãos de alguns poucos grupos. O primeiro objetivo deste trabalho foi estudar e comparar mecanismos de consenso alternativos para blockchains. Um segundo objetivo foi definir os requisitos que um novo mecanismo de consenso deve possuir para viabilizar a participação de praticamente qualquer usuário na blockchain, sem exigir recursos vultuosos para investimentos em equipamentos e energia elétrica. Como terceiro objetivo, tivemos o projeto e implementação de uma nova blockchain que serviu como prova de conceito para o novo mecanismo de consenso proposto. Finalmente, foram feitas discussões e comparações do novo mecanismo implementado com similares na literatura, a fim de mostrar o quão próximo se chegou de um mecanismo ideal, que facilita a participação de todos e torna as blockchains mais distribuídas, como idealizadas originalmente Abstract: The blockchain concept, introduced with the invention of Bitcoin cryptocurrency, has been the subject of intensive discussions about its potential to enable new kinds of applications and services on Internet. The most commonly used blockchains (in the Bitcoin and Ethereum systems) are based on the concept of Proof-of-Work (PoW), in which the consensus between opposing parties is guaranteed by the execution of a large volume of hash function calculations. As a consequence, there has been a great deal of competition and a steady increase in the computational and power requirements needed to create blocks in one of these blockchains, which puts away ordinary users and concentrates the control of the system in the hands of a few groups. The first objective of this work was to study and compare alternative consensus mechanisms for blockchains. A second objective was to define the requirements that a new consensus mechanism must have to enable practically any user to participate in the blockchain, without demanding huge resources for investments in equipment and energy. As a third objective, we had the design and implementation of a new blockchain that served as proof of concept for the proposed new consensus mechanism. Finally, we discussed and compared the new implemented mechanism with similar ones , in order to show how close it has come to an ideal consensus, which facilitates the participation of everybody and makes blockchains more distributed, as originally idealized Mestrado Engenharia de Computação Mestre em Engenharia Elétrica CAPES 8882,329365/2017
- Published
- 2020
- Full Text
- View/download PDF
41. Um estudo sobre pareamento aproximado para busca por similaridade : técnicas, limitações e melhorias para investigações forenses digitais
- Author
-
Moia, Vitor Hugo Galhardo, 1990, Henriques, Marco Aurelio Amaral, 1963, Custodio, Ricardo Felipe, Terada, Routo, Dahab, Ricardo, Magalhães, Mauricio Ferreira, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Computer forensics ,Computer crimes - Investigation ,Computação forense ,Crime por computador - Investigação ,Hash functions ,Fingerprints - Identification ,Documentação - Identificação ,Funções hash - Abstract
Orientador: Marco Aurélio Amaral Henriques Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: A forense digital é apenas um dos ramos da Ciência da Computação que visa investigar e analisar dispositivos eletrônicos na busca por evidências de crimes. Com o rápido aumento da capacidade de armazenamento de dados, é necessário o uso de procedimentos automatizados para lidar com o grande volume de dados disponíveis atualmente, principalmente em investigações forenses, nas quais o tempo é um recurso escasso. Uma possível abordagem para tornar o processo mais eficiente é através da técnica KFF (Filtragem por arquivos conhecidos - Known File Filtering), onde uma lista de objetos de interesse é usada para reduzir/separar dados para análise. Com um banco de dados de hashes destes objetos, o examinador realiza buscas no dispositivo de destino sob investigação por qualquer item que seja igual ao buscado. No entanto, devido a limitações nas funções criptográficas de hash (incapacidade de detectar objetos semelhantes), novos métodos foram projetados baseando-se em funções de Pareamento Aproximado (ou Approximate Matching) (AM). Estas funções aparecem como candidatos para realizar buscas uma vez que elas têm a capacidade de identificar similaridade (no nível de bits) de uma maneira muito eficiente, criando e comparando representações compactas de objetos (conhecidos como resumos). Neste trabalho, apresentamos as funções de Pareamento Aproximado. Mostramos algumas das ferramentas de AM mais conhecidas e apresentamos as Estratégias de Busca por Similaridade baseadas em resumos, capazes de realizar a busca de similaridade (usando AM) de maneira mais eficiente, principalmente ao lidar com grandes conjuntos de dados. Realizamos também uma análise detalhada das estratégias atuais e, dado que as mesmas trabalham somente com algumas ferramentas específicas de AM, nós propomos uma nova abordagem baseada em uma ferramenta diferente que possui boas características para investigações forenses. Além disso, abordamos algumas limitações das ferramentas atuais de AM em relação ao processo de detecção de similaridade, onde muitas comparações apontadas como semelhantes, são de fato falsos positivos; as ferramentas geralmente são enganadas por blocos comuns (dados comuns em muitos objetos diferentes). Ao remover estes blocos dos resumos de AM, obtemos melhorias significativas na detecção de objetos similares. Também apresentamos neste trabalho uma análise teórica detalhada das capacidades de detecção da ferramenta de AM sdhash e propomos melhorias em sua função de comparação, onde a versão aprimorada apresenta uma medida de similaridade (score) mais precisa. Por último, novas aplicações de AM são apresentadas e analisadas: uma de identificação rápida de arquivos por meio de amostragem de dados e outra de identificação eficiente de impressões digitais. Esperamos que profissionais da área forense e de outras áreas relacionadas se beneficiem de nosso estudo sobre AM para resolver seus problemas Abstract: Digital forensics is a branch of Computer Science aiming at investigating and analyzing electronic devices in the search for crime evidence. With the rapid increase in data storage capacity, the use of automated procedures to handle the massive volume of data available nowadays is required, especially in forensic investigations, in which time is a scarce resource. One possible approach to make the process more efficient is the Known File Filter (KFF) technique, where a list of interest objects is used to reduce/separate data for analysis. Holding a database of hashes of such objects, the examiner performs lookups for matches against the target device under investigation. However, due to limitations over cryptographic hash functions (inability to detect similar objects), new methods have been designed based on Approximate Matching (AM). They appear as suitable candidates to perform this process because of their ability to identify similarity (bytewise level) in a very efficient way, by creating and comparing compact representations of objects (a.k.a. digests). In this work, we present the Approximate Matching functions. We show some of the most known AM tools and present the Similarity Digest Search Strategies (SDSS), capable of performing the similarity search (using AM) more efficiently, especially when dealing with large data sets. We perform a detailed analysis of current SDSS approaches and, given that current strategies only work for a few particular AM tools, we propose a new strategy based on a different tool that has good characteristics for forensic investigations. Furthermore, we address some limitations of current AM tools regarding the similarity detection process, where many matches pointed out as similar, are indeed false positives; the tools are usually misled by common blocks (pieces of data common in many different objects). By removing such blocks from AM digests, we obtain significant improvements in the detection of similar data. We also present a detailed theoretical analysis of the capabilities of sdhash AM tool and provide some improvements to its comparison function, where our improved version has a more precise similarity measure (score). Lastly, new applications of AM are presented and analyzed: One for fast file identification based on data samples and another for efficient fingerprint identification. We hope that practitioners in the forensics field and other related areas will benefit from our studies on AM when solving their problems Doutorado Engenharia de Computação Doutor em Engenharia Elétrica CAPES 23038.007604/2014-69
- Published
- 2020
42. Projeto, implementação e avaliação do suporte de casamento com prefixo mais longo para IPv4/IPv6 em planos de dados programáveis multi-arquitetura
- Author
-
Rodríguez Cesén, Fabricio Eduardo, 1989, Esteve Rothenberg, Christian Rodolfo, 1982, Henriques, Marco Aurelio Amaral, Verdi, Fabio Luciano, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Software defined networking ,Redes definidas por software (Tecnologia de rede de computadores) ,Redes locais de computação - Avaliação ,Network performance ,Roteamento (Administração de redes de computadores) ,Software - Desempenho ,Computer network performance evaluation ,Table lookup - Abstract
Orientador: Christian Rodolfo Esteve Rothenberg Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Dentre as novas tendências em programação de dataplane dentro de SDN (Software Defined Networking) destacam-se os esforços para prover um suporte multi-plataforma dotado de alta definição das informações que são processadas pelo pipeline do plano de dados. No entanto, alguns desafios ainda persistem, como a necessidade de um plano de dados programável ou a adoção de uma abstração de programação independente de protocolo. Como forma de mitigar tais problemas, verifica-se que a Linguagem Específica de Domínio~(DSL) Programming Protocol-Independent Packet Processors~(P4) desponta como uma tendência emergente para expressar como os pacotes são processados pelo plano de dados de uma plataforma de rede programável. De modo independente e em paralelo, constata-se que o projeto OpenDataPlane~(ODP) cria um conjunto de plataformas abertas de Application Programming Interfaces~(APIs) projetado para o plano de dados de rede. Isso posto, tem-se que o Multi-Architecture Compiler System for Abstract Dataplanes~(MACSAD) surge como uma abordagem para convergir P4 e ODP em um processo de compilação convencional, arquivando a portabilidade dos aplicativos de plano de dados sem afetar as melhorias de desempenho do alvo. O MACSAD pode integrar a API do ODP e o P4, reunindo-os e definindo um plano de dados programável em um sistema de compilador unificado. Este trabalho tem como objetivo adicionar o suporte do Longest Prefix Match~(LPM) do IPv4/IPv6 ao MACSAD, integrado com as APIs do ODP e à programação P4, oferecendo recursos de planejamento de dados de alto desempenho. O suporte ao LPM proposto para o MACSAD combina o algoritmo de lookup e a biblioteca da API do ODP com o suporte à tabela MACSAD, para criar uma base de encaminhamento completa usada no processo do LPM. A implementação do IPv4 adapta o atual algoritmo de lookup do ODP para trabalhar com o MACSAD. A implementação de lookup IPv6, atualmente não suportada pelo ODP, é uma extensão do suporte IPv4 que é desenvolvido usando o mesmo algoritmo adaptado a uma chave de 128 bits. A pesquisa IPv4 e IPv6 usa uma base de árvore binária para executar o lookup do LPM. Para a avaliação de desempenho do suporte ao LPM, utilizamos uma ferramenta geradora de tráfego Network Function Performance Analyzer~(NFPA) que permite gerar diferentes tipos de tráfego no MACSAD. Cabe ainda destacar, como uma contribuição lateral deste trabalho, o desenvolvimento da ferramenta geradora de pacote BB-Gen, já com lançamento open source. Resultados experimentais mostram que é possível atingir um throughput de 10G com tamanhos de pacotes de 512 bytes ou superiores Abstract: New trends in dataplane programmability inside Software Defined Networking~(SDN) are in efforts to bring multi-platform support with a high definition of the information that is processed by the dataplane pipeline. However, some challenges are still present, as the necessity of a programmable dataplane or a protocol independent programming abstraction. The Programming Protocol-Independent Packet Processors~(P4) Domain Specific Language (DSL) is an emerging trend to express how the packets are processed by the dataplane of a programmable network platform. In parallel, OpenDataPlane~(ODP) project creates an open-source, cross-platform set of Application Programming Interfaces~(APIs) designed for the networking data plane. Multi-Architecture Compiler System for Abstract Dataplanes~(MACSAD) is an approach to converge P4 and ODP in a conventional compilation process, achieving portability of the dataplane applications without affecting the target performance improvements. MACSAD can integrate the ODP API and the P4, bringing them together and defining a programmable dataplane across multiple targets in a unified compiler system. This work aims at adding IPv4/IPv6 Longest Prefix Match~(LPM) support to MACSAD integrated with ODP APIs and P4 programmability delivering high-performance dataplane capabilities. The proposed LPM support for MACSAD combines the lookup algorithm and the ODP API library with MACSAD table support, to create a complete forwarding base used in the LPM process. The IPv4 implementation adapts the current ODP lookup algorithm to work with MACSAD. IPv6 lookup implementation, currently not supported by ODP, is an extension of the IPv4 support, developed using the same algorithm adapted to a 128-bit key. IPv4 and IPv6 lookup use a binary tree base, to perform the LPM lookup. For the performance evaluation of the LPM support, we use a traffic generator tool Network Function Performance Analyzer~(NFPA) that allows generating different types of traffic across MACSAD. A side contribution on this front we developed and released open source the BB-Gen packet crafter tool. Experimental results show that it is possible to reach a throughput of 10G with packets sizes of 512 Bytes and above Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2018
43. Fatias de rede fim-a-fim : da extração de perfis de funções de rede a SLAs granulares
- Author
-
Rosa, Raphael Vicente, 1988, Esteve Rothenberg, Christian Rodolfo, 1982, Pasquini, Raphael, Marcondes, Cesar Augusto Cavalheiro, Madeira, Edmundo Roberto Mauro, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Redes de computadores ,Network architeture of computers ,Arquitetura de redes de computador ,Network virtualization ,Virtualização de redes ,Computer networks - Abstract
Orientador: Christian Rodolfo Esteve Rothenberg Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Nos últimos dez anos, processos de softwarização de redes vêm sendo continuamente diversi- ficados e gradativamente incorporados em produção, principalmente através dos paradigmas de Redes Definidas por Software (ex.: regras de fluxos de rede programáveis) e Virtualização de Funções de Rede (ex.: orquestração de funções virtualizadas de rede). Embasado neste processo o conceito de network slice surge como forma de definição de caminhos de rede fim- a-fim programáveis, possivelmente sobre infrastruturas compartilhadas, contendo requisitos estritos de desempenho e dedicado a um modelo particular de negócios. Esta tese investiga a hipótese de que a desagregação de métricas de desempenho de funções virtualizadas de rede impactam e compõe critérios de alocação de network slices (i.e., diversas opções de utiliza- ção de recursos), os quais quando realizados devem ter seu gerenciamento de ciclo de vida implementado de forma transparente em correspondência ao seu caso de negócios de comu- nicação fim-a-fim. A verificação de tal assertiva se dá em três aspectos: entender os graus de liberdade nos quais métricas de desempenho de funções virtualizadas de rede podem ser expressas; métodos de racionalização da alocação de recursos por network slices e seus re- spectivos critérios; e formas transparentes de rastrear e gerenciar recursos de rede fim-a-fim entre múltiplos domínios administrativos. Para atingir estes objetivos, diversas contribuições são realizadas por esta tese, dentre elas: a construção de uma plataforma para automatização de metodologias de testes de desempenho de funções virtualizadas de redes; a elaboração de uma metodologia para análises de alocações de recursos de network slices baseada em um algoritmo classificador de aprendizado de máquinas e outro algoritmo de análise multi- critério; e a construção de um protótipo utilizando blockchain para a realização de contratos inteligentes envolvendo acordos de serviços entre domínios administrativos de rede. Por meio de experimentos e análises sugerimos que: métricas de desempenho de funções virtualizadas de rede dependem da alocação de recursos, configurações internas e estímulo de tráfego de testes; network slices podem ter suas alocações de recursos coerentemente classificadas por diferentes critérios; e acordos entre domínios administrativos podem ser realizados de forma transparente e em variadas formas de granularidade por meio de contratos inteligentes uti- lizando blockchain. Ao final deste trabalho, com base em uma ampla discussão as perguntas de pesquisa associadas à hipótese são respondidas, de forma que a avaliação da hipótese proposta seja realizada perante uma ampla visão das contribuições e trabalhos futuros desta tese Abstract: In the last ten years, network softwarisation processes have been continuously diversified and gradually incorporated into production, mainly through the paradigms of Software Defined Networks (e.g., programmable network flow rules) and Network Functions Virtualization (e.g., orchestration of virtualized network functions). Based on this process, the concept of network slice emerges as a way of defining end-to-end network programmable paths, possibly over shared network infrastructures, requiring strict performance metrics associated to a par- ticular business case. This thesis investigate the hypothesis that the disaggregation of network function performance metrics impacts and composes a network slice footprint incurring in di- verse slicing feature options, which when realized should have their Service Level Agreement (SLA) life cycle management transparently implemented in correspondence to their fulfilling end-to-end communication business case. The validation of such assertive takes place in three aspects: the degrees of freedom by which performance of virtualized network functions can be expressed; the methods of rationalizing the footprint of network slices; and transparent ways to track and manage network assets among multiple administrative domains. In order to achieve such goals, a series of contributions were achieved by this thesis, among them: the construction of a platform for automating methodologies for performance testing of virtual- ized network functions; an elaboration of a methodology for the analysis of footprint features of network slices based on a machine learning classifier algorithm and a multi-criteria analysis algorithm; and the construction of a prototype using blockchain to carry out smart contracts involving service level agreements between administrative systems. Through experiments and analysis we suggest that: performance metrics of virtualized network functions depend on the allocation of resources, internal configurations and test traffic stimulus; network slices can have their resource allocations consistently analyzed/classified by different criteria; and agree- ments between administrative domains can be performed transparently and in various forms of granularity through blockchain smart contracts. At the end of his thesis, through a wide discussion we answer all the research questions associated to the investigated hypothesis in such way its evaluation is performed in face of wide view of the contributions and future work of this thesis Doutorado Engenharia de Computação Doutor em Engenharia Elétrica FUNCAMP
- Published
- 2018
44. Testes padronizados para configurações de segurança definidas pelo usuário para dispositivos Android
- Author
-
Daniel Avila Vecchiato, Martins, Eliane, 1955, Vieira, Marco Paulo Amorim, Maziero, Carlos Alberto, Castelo Branco, Kalinka Regina Lucas Jaquie, Geus, Paulo Lício de, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Tecnologia - Avaliação ,Android (Recurso eletrônico) - Medidas de segurança ,Dispositivos móveis - Medidas de segurança ,Dispositivos móveis - Testes ,Mobile devices - Testing ,Android (Electronic resource) - Security measures ,Technology assessment ,Mobile devices - Security measures - Abstract
Orientadores: Eliane Martins, Marco Vieira Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: A ampla disseminação de dispositivos móveis, como smartphones e tablets, e a sua vasta capacidade de uso, que vai desde tirar fotos ao acesso a contas bancárias, torna-os um alvo atraente para os atacantes. Isso, juntamente com o fato de que os usuários frequentemente armazenam informações pessoais em tais dispositivos, e que muitas organizações atualmente implementam a política "Bring Your Own Device" (BYOD), que permite aos funcionários usarem seus dispositivos pessoais para acessarem a infraestrutura de informação corporativa e aplicações, tornando a avaliação da segurança de dispositivos móveis uma questão fundamental. Este trabalho apresenta uma abordagem de testes padronizados para avaliar as configurações de segurança definidas pelos usuários, considerando o risco, que cada configuração possui, de prejudicar o dono do dispositivo. Esta abordagem fornece informações valiosas para aqueles que precisam avaliar, comparar ou controlar as configurações de segurança em dispositivos móveis. Na prática, para cada configuração definida pelo usuário, uma intensidade de risco é calculada com base na análise da percepção de um conjunto de especialistas de segurança. A intensidade do risco das diferentes configurações são agregadas para avaliar a segurança geral, com base na análise das configurações de um determinado dispositivo. Em suma, as principais contribuições deste trabalho são: 1) uma ferramenta que permite avaliar a segurança de dispositivos Android com base nas configurações definidas pelo usuário; 2) uma análise das configurações de segurança definidas pelo usuário de dispositivos Android, a fim de entender os problemas mais comuns relacionados às configurações de segurança; 3) uma abordagem de análise de risco para qualificar / quantificar a segurança de dispositivos móveis tomando como base as configurações de segurança definidas pelo usuário; e 4) a definição de testes padronizados benchmark de configuração de segurança para dispositivos móveis, usando o Android como estudo de caso. A plataforma Android é amplamente usada e representativa com relação ao estado da arte em computação móvel. Os resultados, com base na análise de dados coletados de 561 dispositivos, mostram que os usuários do sistema Android negligenciam importantes recomendações de segurança ao configurarem seus dispositivos e que o processo de benchmarking é realmente uma boa maneira de identificar a configuração mais segura definida pelo usuário Abstract: The wide spreading of mobile devices, such as smartphones and tablets, and their always-advancing capabilities, ranging from taking photos to accessing banking accounts, makes them an attractive target for attackers. This, together with the fact that users frequently store critical personal information in such devices and that many organizations currently implement a "bring your own device" (BYOD) policy that allows employees to use their personal devices to access the enterprise information infrastructure and applications, makes the assessment of the security of mobile devices a key issue. This work presents an approach to benchmark the user-defined security configurations of mobile devices considering the risk that each configuration has to harm or cause any type of loss to the device owner. This approach provides valuable information for those who need to evaluate, assess, compare or control the security configurations of mobile devices. In practice, for each user-defined configuration, an intensity of severity is calculated based on the analysis of the perception of a set of security experts. The intensity of severity of the different configurations are aggregated to assess overall security, based on the analysis of the concrete settings of a given device. In short, the main contributions of this work are: 1) a tool that allows assessing the security of Android devices based on the user-defined configurations; 2) a security analysis of the user-defined security configurations of Android devices in order to understand the common misconfiguration problems; 3) a risk analysis approach to qualify/quantify the security of mobile devices concerning the user-defined security configurations; and 4) a security configuration benchmark for mobile devices, using Android as case study. The Android platform is widely use and representative with respect to the state-of-the-art in mobile computing. The results presented, based on the analysis of data collected from 561 devices, show that Android users neglect important security recommendations while configuring their devices and that benchmarking is indeed a practical way to assess and compare the security of mobile devices with regard to user-defined configurations. In fact, the results can be used by both manufacturers and users to enhance the security level of their devices Doutorado Ciência da Computação Doutor em Ciência da Computação CAPES BEX 0495/15-8
- Published
- 2016
45. Um estudo sobre a segurança e privacidade no armazenamento de dados em nuvens
- Author
-
Moia, Vitor Hugo Galhardo, 1990, Henriques, Marco Aurelio Amaral, 1963, Dahab, Ricardo, Esteve Rothenberg, Christian Rodolfo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Computação em nuvem ,Computação em nuvem - Medidas de segurança ,Privacy ,Usability ,Cryptography ,Usabilidade ,Cloud computing ,Criptografia ,Cloud Computing - Security measures ,Privacidade - Abstract
Orientador: Marco Aurélio Amaral Henriques Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Armazenamento de dados na nuvem é um serviço que traz diversas vantagens aos seus usuários. Contudo, em sistemas de nuvens públicas, os riscos envolvidos na terceirização do armazenamento de dados pode ser uma barreira para a adoção deste serviço por aqueles preocupados com sua privacidade. Vários provedores de serviços em nuvem que afirmam proteger os dados do usuário não atendem alguns requisitos considerados essenciais em um serviço seguro, confiável e de fácil utilização, levantando questionamentos sobre a segurança efetivamente obtida. Apresentamos neste trabalho um estudo relacionado aos requisitos de privacidade dos usuários e de segurança de seus dados em nuvens públicas. O estudo apresenta algumas técnicas normalmente usadas para atender tais requisitos, juntamente com uma análise de seus benefícios e custos relativos. Além disso, ele faz uma avaliação destes requisitos em vários sistemas de nuvens públicas. Depois de comparar estes sistemas, propomos um conjunto de requisitos e apresentamos, como prova de conceito, uma aplicação baseada nos mesmos, a qual melhora a segurança dos dados e a privacidade dos usuários. Nós mostramos que é possível proteger os dados armazenados nas nuvens contra o acesso por terceiros (incluindo os administradores das nuvens) sem sobrecarregar o usuário com protocolos ou procedimentos complexos de segurança, tornando o serviço de armazenamento em nuvens uma escolha mais confiável para usuários preocupados com sua privacidade Abstract: Cloud data storage is a service that brings several advantages for its users. However, in public cloud systems, the risks involved in the outsourcing of data storage can be a barrier to the adoption of this service by those concerned with privacy. Several cloud service providers that claim to protect user's data do not fulfill some requirements considered essential in a secure, reliable and easy to use service, raising questions about the effective security obtained. We present here a study related to user's privacy and data security requirements on public clouds. The study presents some techniques normally used to fulfill those requirements, along with an analysis of their relative costs and benefits. Moreover, it makes an evaluation of them in several public cloud systems. After comparing those systems, we propose a set of requirements and present a proof of concept application based on them, which improves data security and user privacy in public clouds. We show that it is possible to protect cloud stored data against third party (including cloud administrators) access without burdening the user with complex security protocols or procedures, making the public cloud storage service a more reliable choice to privacy concerned users Mestrado Engenharia de Computação Mestre em Engenharia Elétrica CNPQ 153392/2014-2
- Published
- 2016
46. Aprendizagem de máquina sobre dados cifrados
- Author
-
Pereira, Hilder Vitor Lima, 1989, Aranha, Diego de Freitas, 1982, Henriques, Marco Aurelio Amaral, Goldenstein, Siome Klein, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Criptografia homomórfica ,Machine learning ,Cryptography ,Criptografia ,Aprendizado de máquina ,Homomorphic encryption - Abstract
Orientador: Diego de Freitas Aranha Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Aprendizado de máquina normalmente exige que grandes quantidades de dados sensíveis sejam compartilhados, o que é notoriamente intrusivo em termos de privacidade. Sendo assim, terceirizar a computação de tais algoritmos para a nuvem requer que o servidor seja confiável, o que introduz um pressuposto de segurança não-realista e com alto risco de abusos ou violações. Mas se a nuvem fosse capaz de realizar cálculos sobre dados cifrados, ao invés de computar sobre dados às claras, como de costume, os clientes poderiam então cifrar seus dados antes de enviá-los à nuvem, minimizando as suposições de segurança feitas sobre o servidor. Neste trabalho, são propostas versões que preservam a privacidade do classificador $k$-NN e do algoritmo para Análise de Componentes Principais que podem ser executadas sobre dados cifrados. Os algoritmos para Análise de Componentes Principais são baseados em esquemas de criptografia homomórfica, enquanto as versões do $k$-NN (uniforme e ponderado) apresentadas aqui combinam criptografia que preserva a ordem com criptografia homomórfica. Os resultados experimentais mostram que as variantes privativas do $k$-NN alcançam a mesma precisão que o classificador $k$-NN convencional, mas com impactos consideráveis no desempenho. No entanto, essa penalidade no tempo de execução não significa que as soluções não podem ser usadas na prática quando as propriedades de segurança fornecidas pela abordagem são examinadas em detalhe. Os algoritmos propostos para a Análise de Componentes Principais têm profundidade multiplicativa linear no número de componentes a serem encontradas, mas mesmo assim, os tempos de execução ainda são proibitivos, principalmente devido à falta de técnicas eficientes para codificar os valores de dupla precisão dos conjuntos de dados para textos claros do esquema homomórfico utilizado na execução. Para ambos os algoritmos propostos, o servidor em nuvem não precisa ser confiável para além da correta execução do protocolo (modelo semi-honesto) e pode avaliar os algoritmos sobre dados cifrados, não aprendendo assim os valores do conjunto de dados original nem as respostas devolvidas, já que as saídas de algoritmos homomórficos são também cifradas Abstract: Machine learning tasks typically require large amounts of sensitive data to be shared, which is notoriously intrusive in terms of privacy. Outsourcing this computation to the cloud requires the server to be trusted, introducing a non-realistic security assumption and high risk of abuse or data breaches. But if the cloud were able to perform computations over encrypted data instead of plaintext data as usual, clients could then encrypt their data before sending it to the cloud, minimizing the security assumptions made about the server. In this work, privacy-preserving versions of Principal Component Analysis (PCA) and $k$-NN classifier that can be evaluated over ciphertexts by a cloud server are proposed. Principal component analysis is based on homomorphic encryption schemes while the $k$-NN classifier combines homomorphic encryption with order-preserving encryption. Experimental results show that the privacy-preserving variants of $k$-NN achieve the same accuracy as the conventional $k$-NN classifiers, but considerably impacts the original performance. The performance penalty is however still viable for practical use when the security properties provided by the approach are examined in detail. The proposed algorithms for Principal Component Analysis have multiplicative depth linear in the number of principal components to be found, but even so, the running times are still prohibitive due to a lack of efficient techniques to encode the double values of the datasets into the plaintexts of the homomorphic scheme used in the implementation. For both the proposed algorithms, the cloud server does not need to be trusted beyond correct execution of the protocol (semi-honest model) and computes the algorithms over encrypted data, never learning the responses output by them or the real dataset values Mestrado Ciência da Computação Mestre em Ciência da Computação
- Published
- 2016
47. IntelliFlow : um enfoque proativo para adicionar inteligência de ameaças cibernéticas a redes definidas por software
- Author
-
Quinto Ancieta, Javier Richard, 1984, Esteve Rothenberg, Christian Rodolfo, 1982, Rothenberg, Christian Rodolfo Esteve, 1982, Geus, Paulo Lício de, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Informática - Medidas de segurança ,Redes de computadores ,Agentes inteligentes (Software) ,Intelligent agents (software) ,Computer networks ,Computer - Safety Measures - Abstract
Orientador: Christian Rodolfo Esteve Rothenberg Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Segurança tem sido uma das principais preocupações enfrentadas pela computação em rede principalmente, com o aumento das ameaças à medida que a Internet comercial e economias afins crescem rapidamente. Tecnologias de virtualização que permitem serviços em nuvem em escala colocam novos desafios para a segurança das infraestruturas computacionais, exigindo novos mecanismos que combinem o best-of-breed para reagir contra as metodologias de ataque emergentes. Nosso trabalho busca explorar os avanços na Cyber Threat Intelligence (CTI) no contexto da arquitetura de redes definidas por software, ou em inglês, Software Defined Networking (SDN). Enquanto a CTI representa uma abordagem recente para o combate de ameaças baseada em fontes confiáveis, a partir do compartihamento de informação e conhecimento sobre atividades criminais virtuais, a SDN é uma tendência recente na arquitetura de redes computacionais baseada em princípios de modulação e programabilidade. Nesta dissertação, nós propomos IntelliFlow, um sistema de detecção de inteligência para SDN que segue a abordagem proativa usando OpenFlow para efetivar contramedidas para as ameaças aprendidas a partir de um plano de inteligência distribuida. Nós mostramos a partir de uma implementação de prova de conceito que o sistema proposto é capaz de trazer uma série de benefícios em termos de efetividade e eficiência, contribuindo no plano geral para a segurança de projetos de computação de rede modernos Abstract: Security is a major concern in computer networking which faces increasing threats as the commercial Internet and related economies continue to grow. Virtualization technologies enabling scalable Cloud services pose further challenges to the security of computer infrastructures, demanding novel mechanisms combining the best-of-breed to counter certain types of attacks. Our work aims to explore advances in Cyber Threat Intelligence (CTI) in the context of Software Defined Networking (SDN) architectures. While CTI represents a recent approach to combat threats based on reliable sources, by sharing information and knowledge about computer criminal activities, SDN is a recent trend in architecting computer networks based on modularization and programmability principles. In this dissertation, we propose IntelliFlow, an intelligent detection system for SDN that follows a proactive approach using OpenFlow to deploy countermeasures to the threats learned through a distributed intelligent plane. We show through a proof of concept implementation that the proposed system is capable of delivering a number of benefits in terms of effectiveness and efficiency, altogether contributing to the security of modern computer network designs Mestrado Engenharia de Computação Mestre em Engenharia Elétrica CNPQ 159905/2013-3
- Published
- 2015
48. Efficient implementation of cryptography hash functions : SHA-3 and QUARK
- Author
-
Rabêlo Filho, Roberto Cabral, 1990, López Hernández, Julio César, 1961, Simplício Júnior, Marcos Antônio, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Hashing (Computer science) ,Cryptography ,Criptografia ,Hashing (Computação) ,Computer architecture ,Arquitetura de computador - Abstract
Orientador: Julio César López Hernández Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: As funções de resumo criptográfico são primitivas de extrema importância, pois são necessárias para a construção de inúmeros protocolos de segurança. Em 2007, o Instituto Nacional de Padrões e Tecnologias americano (NIST) iniciou um concurso público para escolher um novo padrão de funções de resumo criptográfico, conhecido por SHA-3; tal concurso teve fim em 2012, tendo como vencedor o algoritmo Keccak. A família SHA-3 tende a ser usada em larga escala nos próximos anos e é importante desenvolver implementações eficientes e seguras destas funções; uma estratégia que pode ser usada é aproveitar conjuntos avançados de instruções vetoriais. Os processadores de propósito geral estão expandindo cada vez mais seus conjuntos de instruções; em 2013, a microarquitetura Haswell da Intel trouxe consigo o conjunto de instruções vetoriais AVX2, que expandiu as instruções de aritmética inteira nos registradores de 128 e 256 bits. Um dos objetivos gerais desta dissertação foi prover técnicas que viabilizem o uso eficiente dos conjuntos de instruções vetoriais na implementação do algoritmo SHA-3; este estudo culminou em um conjunto de implementações eficientes que usam registradores de 128 e 256 bits para calcular um, dois ou quatro valores de resumo concorrentemente, permitindo uma aceleração de 1,89 e 2,57 vezes na computação de dois e quatro valores de resumo, respectivamente. Adicionalmente, também foram estudadas funções de resumo criptográfico para dispositivos com recursos limitados; tais dispositivos estão ganhando cada vez mais mercado, sendo usados principalmente para a Internet das Coisas (IoT). A maioria dos algoritmos criptográficos desenvolvidos para esses dispositivos foram projetados para serem implementados em hardware; do ponto de vista de implementação em software, esses algoritmos apresentam desafios para realizar uma implementação eficiente e segura. O QUARK é um algoritmo que foi projetado neste contexto; ele é uma família de funções de resumo que possui um bom desempenho em hardware, mas não possui implementações em software eficientes para processadores de 32 bits. Neste contexto, foram realizadas otimizações algorítmicas e de implementação no QUARK que permitiram acelerar sua execução na plataforma Intel Galileo, atingindo um ganho de desempenho de aproximadamente 15 vezes quando comparado com a implementação de referência Abstract: Cryptographic hash functions are extremely important primitives, as they are necessary for the construction of several cryptographic protocols. In 2007, the National Institute of Standards and Technology (NIST) started a competition to select the new version of the SHA algorithm family, called SHA-3; this competition ended in 2012, having Keccak as the winner. The SHA-3 family is expected to be used on a large scale in the coming years, so it is important to have fast and secure implementations of these functions; a strategy that can be used is to take advantage of the advanced instruction sets. General purpose processors are increasingly expanding their instruction sets; in 2013 the Intel's microarchitecture, Haswell, brought the set of vector instructions AVX2 that expanded the integer arithmetic instructions in the registers of 128 and 256 bits. One of the general goals of this work was to provide techniques that facilitate the efficient use of sets of vector instructions in implementing the SHA-3 algorithm; this study culminated in a set of efficient implementations that use registers of 128 and 256 bits to calculate one, two or four hash values concurrently, allowing to compute two and four hash values 1.89 and 2.57 times faster, respectively. Additionally, cryptographic hash functions for resource-constrained devices were also studied; such devices are being used widely, mainly for the Internet of Things (IoT). Most of the cryptographic algorithms developed for these devices were designed to be implemented in hardware; from the point of view of software implementation, those algorithms present challenges to achieve a fast and secure implementation. QUARK is a family of lightweight hash functions that was designed for hardware implementation. In this work, we propose some algorithmic optimizations to obtain a fast software implementation of QUARK on the Intel Galileo platform, achieving a speedup of 15 times compared to the reference implementation Mestrado Ciência da Computação Mestre em Ciência da Computação CNPQ 301566/2014-3 CAPES
- Published
- 2015
49. Implementação em software de criptografia para sensores sem fio e processadores móveis
- Author
-
Conrado Porto Lopes Gouvêa, López Hernández, Julio César, 1961, Biosca, Josep Maria Miret, Barreto, Paulo Sergio Licciardi Messeder, Henriques, Marco Aurelio Amaral, Dahab, Ricardo, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Curvas elípticas ,Cryptography ,Elliptic curves ,Criptografia ,Aritmética de computador ,Emparelhamentos bilineares ,Computer arithmetic ,Bilinear pairings - Abstract
Orientador: Julio César López Hernández Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: A implementação eficiente e segura de esquemas criptográficos é um aspecto importante da criptografia aplicada. Neste trabalho, foca-se na implementação em software de algoritmos relevantes da criptografia de curvas elípticas (CCE), criptografia baseada em emparelhamentos (CBE), e de cifração autenticada (CA). Duas plataformas computacionais modernas foram utilizadas: o microcontrolador MSP430, bastante utilizado em redes de sensores sem fio, e o processador ARM, amplamente empregado por dispositivos móveis como smartphones e tablets que estão se tornando cada vez mais populares. Técnicas para a melhoria de desempenho em software utilizando conjuntos de instruções, periféricos e melhorias algorítmicas são descritas. A implementação segura, cujo objetivo é prevenir certos ataques de canais secundários, também é estudada e novas técnicas são providas para reduzir seu impacto na velocidade em processadores ARM. Tais resultados contribuem para a construção eficiente e segura de sistemas criptográficos em sensores sem fio e processadores móveis Abstract: The efficient and secure implementation of cryptographic schemes is an important aspect of practical cryptography. In this work, we focus on the software implementation of relevant algorithms in elliptic curve cryptography (ECC), pairing-based cryptography (PBC) and in authenticated encryption (AE). Two modern computational platforms were targeted: the MSP430 microcontroller often used in wireless sensor networks, and the ARM processor, widely employed in mobile devices such as smartphones and tablets which are increasingly becoming ubiquitous. Techniques for improving the software performance by taking advantage of instruction sets, peripherals and algorithmic enhancements are described. The secure implementation, which aims at thwarting common side-channel attacks, is also studied and new techniques are provided for improving its efficiency on ARM processors. These results contribute to the building of efficient and secure cryptographic systems on wireless sensors and mobile processors Doutorado Ciência da Computação Doutor em Ciência da Computação
- Published
- 2013
50. Proposal and evaluation of a new IP routing architecture with separation of planes
- Author
-
Marcelo Ribeiro Nascimento, Magalhães, Mauricio Ferreira, 1951, Esteve Rothenberg, Christian Rodolfo, 1982, Marcondes, Cesar Augusto Cavalheiro, Henriques, Marco Aurelio Amaral, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Packet switching ,Comutação por pacotes (Transmissão de dados) ,Sistemas distribuídos ,Redes de computadores - Protocolos ,Arquitetura de redes de computador ,Computer networks - Protocols ,Architectute or computer network ,System of data transmission ,Distributed systems ,Sistemas de transmissão de dados - Abstract
Orientadores: Maurício Ferreira Magalhães, Christian Rodolfo Esteve Rothenberg Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Os roteadores atuais implementam uma arquitetura verticalmente integrada composta de uma camada de software e um hardware proprietários. Este modelo resulta em soluções de alto custo e inviabiliza a experimentação de novas idéias. Em contrapartida, existem alternativas de alta flexibilidade baseadas em software e, consequentemente, de baixo custo. Entretanto, essas soluções apresentam baixo desempenho. Motivado pela disponibilidade de uma API aberta para programação do plano de encaminhamento (ex. OpenFlow), esta dissertação apresenta uma proposta de arquitetura de roteamento IP com separação de planos. Trata-se de uma abordagem que procura combinar o alto desempenho de hardwares de prateleira (commodities) com a flexibilidade de uma pilha de roteamento executada remotamente em computadores de uso geral. O grande desafio é garantir confiabilidade, escalabilidade e desempenho à rede, a partir de um controle remoto e centralizado sobre uma arquitetura que permita maior flexibilidade no mapeamento entre os elementos de controle e encaminhamento. O resultado corresponde a uma nova proposta de roteamento IP com perspectivas promissoras do ponto de vista do custo e da flexibilidade. Com o objetivo de avaliar a arquitetura proposta foi desenvolvido um protótipo com base em uma versão simplificada do modelo. Os resultados da avaliação apresentados nesta dissertação comprovam a viabilidade da arquitetura Abstract: Today's networking gear follows the model of computer mainframes, where closed source software runs on proprietary hardware. This approach results in expensive solutions and prevents equipment owners to put new ideas into practice. In contrast, recent alternatives of highly flexible softwarebased routers promise low cost and programmability at the expense of low performance. Motivated by the availability of an open API to control packet forwarding engines (i.e., OpenFlow), we propose a commodity IP routing architecture that combines the line-rate performance of commercial hardware with the flexibility of open source routing stacks (remotely) running on general-purpose computers. The challenge is to ensure reliability, scalability and performance to a network running a remote and centralized control plane architecture that allows a flexible mapping between the control and forwarding elements. The outcome is a novel point in the design space of cost-effective IP routing solutions with far-reaching implications. The initial experimental evaluation of our prototype implementation validates the feasibility of the design Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2012
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.