81 results on '"Sadok, Djamel Fawzi Hadj"'
Search Results
2. LoRa and LoRaWAN Protocol Analysis Using Cupcarbon
- Author
-
Sanchez, Esau Bermudez, Sadok, Djamel Fawzi Hadj, Filipe, Joaquim, Editorial Board Member, Ghosh, Ashish, Editorial Board Member, Prates, Raquel Oliveira, Editorial Board Member, Zhou, Lizhu, Editorial Board Member, Mata-Rivera, Miguel Félix, editor, Zagal-Flores, Roberto, editor, and Barria-Huidobro, Cristian, editor
- Published
- 2020
- Full Text
- View/download PDF
3. AUTOMAÇÃO E INTELIGÊNCIA EM PROCESSOS INDUSTRIAIS
- Author
-
Nepomuceno, Késsia Thais Cavalcanti, primary and Sadok, Djamel Fawzi Hadj, additional
- Published
- 2020
- Full Text
- View/download PDF
4. Interpersonal interchange of multimedia information
- Author
-
Sadok, Djamel Fawzi Hadj
- Subjects
621.3822 ,Information theory & coding theory - Published
- 1990
5. A Simple Performance Policy Management Environment
- Author
-
Fidalgo, Joseane Farias, Sadok, Djamel Fawzi Hadj, Kelner, Judith, do Nascimento Fidalgo, Robson, Gaïti, Dominique, editor, and Boukhatem, Nadia, editor
- Published
- 2003
- Full Text
- View/download PDF
6. A Policy Management Framework Using Traffic Engineering in DiffServ Networks
- Author
-
da Silva Menezes, Elionildo, Sadok, Djamel Fawzi Hadj, Kelner, Judith, Goos, Gerhard, Series editor, Hartmanis, Juris, Series editor, van Leeuwen, Jan, Series editor, Marsan, Marco Ajmone, editor, and Bianco, Andrea, editor
- Published
- 2001
- Full Text
- View/download PDF
7. A Policy Management Framework Using Traffic Engineering in DiffServ Networks
- Author
-
da Silva Menezes, Elionildo, primary, Sadok, Djamel Fawzi Hadj, additional, and Kelner, Judith, additional
- Published
- 2000
- Full Text
- View/download PDF
8. PolicyFlow: Uma Arquitetura de Gerência Baseada em Políticas Semânticas com OpenFlow
- Author
-
França, Joseilson Albuquerque, Luciana Pereira Oliveira, and Sadok, Djamel Fawzi Hadj
- Subjects
lcsh:Technology (General) ,lcsh:T1-995 ,lcsh:Q ,lcsh:Science ,lcsh:Science (General) ,lcsh:Q1-390 - Published
- 2015
9. Control inbound traffic: Evolving the control plane routing system with Software Defined Networking
- Author
-
Silva, Walber Jose Adriano, primary and Sadok, Djamel Fawzi Hadj, additional
- Published
- 2017
- Full Text
- View/download PDF
10. Whois Based Geolocation: A Strategy to Geolocate Internet Hosts
- Author
-
Endo, Patricia Takako, primary and Sadok, Djamel Fawzi Hadj, additional
- Published
- 2010
- Full Text
- View/download PDF
11. A Survey on Efforts to Evolve the Control Plane of Inter-Domain Routing.
- Author
-
Silva, Walber José Adriano and Sadok, Djamel Fawzi Hadj
- Subjects
- *
SOFTWARE-defined networking , *NETWORK routing protocols , *ROUTER software , *INTERNET protocols , *COMPUTER network management - Abstract
The Internet’s default inter-domain routing protocol is the Border Gateway Protocol (BGP). With the BGP, dozens of thousands of Autonomous Systems (ASs) exchange network layer reachability information to manage connectivity among them. The BGP was introduced in the early stages of the Internet, and although the BGP is one of the most successful protocols, new desirable features have been difficult to incorporate into the network over the decades. Thus, this paper classifies previous works to evolve the control plane of inter-domain routing into three types of approaches: brand new design; incremental improvement; inter-domain communication. The main goal of this paper is to provide an understanding of what approaches have been taken to evolve the inter-domain routing control plane. This survey also discusses why the control plane’s issues are hard to evolve and future perspectives for that topic. [ABSTRACT FROM AUTHOR]
- Published
- 2018
- Full Text
- View/download PDF
12. Sistema de Recomenda????o de Aplicativos para Dispositivos M??veis Baseado na Funcionalidade e com Ci??ncia de Seguran??a e Privacidade
- Author
-
Rocha, Thiago de Souza, Souto, Eduardo James Pereira, Moura, Edleno Silva de, Feitosa, Eduardo Luzeiro, Sadok, Djamel Fawzi Hadj, and Gr??gio, Andr?? Ricardo Abed
- Subjects
Seguran??a da informa????o ,CI??NCIA DA COMPUTA????O [CI??NCIAS EXATAS E DA TERRA] ,Seguran??a ,Android ,Android environment ,Privacidade ,Recommendation systems ,Malware ,Malicious applications ,Dispositivos M??veis ,Recomenda????o - Abstract
Submitted by Thiago Rocha (thiago.rocha@icomp.ufam.edu.br) on 2020-05-12T16:26:55Z No. of bitstreams: 4 TeseFinal.pdf: 2104004 bytes, checksum: 0e54d5381a471a07691eb01dd009a191 (MD5) Carta de Autoriza????o de Encaminhamento.pdf: 34379 bytes, checksum: 9398016edbc8ad3d7fca6af5650ffbba (MD5) 60 Folha de Aprovac??a??o - Thiago Rocha_assinada(1) (1).pdf: 303742 bytes, checksum: 59f601400603913543f66366bcc8ea2f (MD5) 60 ATA de Defesa - Thiago Rocha_assinada (1).pdf: 334088 bytes, checksum: a9cb87f7e6f466c469c2545e24ca08fe (MD5) Approved for entry into archive by PPGI Inform??tica (secretariappgi@icomp.ufam.edu.br) on 2020-05-19T17:35:14Z (GMT) No. of bitstreams: 4 TeseFinal.pdf: 2104004 bytes, checksum: 0e54d5381a471a07691eb01dd009a191 (MD5) Carta de Autoriza????o de Encaminhamento.pdf: 34379 bytes, checksum: 9398016edbc8ad3d7fca6af5650ffbba (MD5) 60 Folha de Aprovac??a??o - Thiago Rocha_assinada(1) (1).pdf: 303742 bytes, checksum: 59f601400603913543f66366bcc8ea2f (MD5) 60 ATA de Defesa - Thiago Rocha_assinada (1).pdf: 334088 bytes, checksum: a9cb87f7e6f466c469c2545e24ca08fe (MD5) Approved for entry into archive by Divis??o de Documenta????o/BC Biblioteca Central (ddbc@ufam.edu.br) on 2020-05-20T14:28:39Z (GMT) No. of bitstreams: 4 TeseFinal.pdf: 2104004 bytes, checksum: 0e54d5381a471a07691eb01dd009a191 (MD5) Carta de Autoriza????o de Encaminhamento.pdf: 34379 bytes, checksum: 9398016edbc8ad3d7fca6af5650ffbba (MD5) 60 Folha de Aprovac??a??o - Thiago Rocha_assinada(1) (1).pdf: 303742 bytes, checksum: 59f601400603913543f66366bcc8ea2f (MD5) 60 ATA de Defesa - Thiago Rocha_assinada (1).pdf: 334088 bytes, checksum: a9cb87f7e6f466c469c2545e24ca08fe (MD5) Made available in DSpace on 2020-05-20T14:28:39Z (GMT). No. of bitstreams: 4 TeseFinal.pdf: 2104004 bytes, checksum: 0e54d5381a471a07691eb01dd009a191 (MD5) Carta de Autoriza????o de Encaminhamento.pdf: 34379 bytes, checksum: 9398016edbc8ad3d7fca6af5650ffbba (MD5) 60 Folha de Aprovac??a??o - Thiago Rocha_assinada(1) (1).pdf: 303742 bytes, checksum: 59f601400603913543f66366bcc8ea2f (MD5) 60 ATA de Defesa - Thiago Rocha_assinada (1).pdf: 334088 bytes, checksum: a9cb87f7e6f466c469c2545e24ca08fe (MD5) Previous issue date: 2020-03-06 Nowadays, with the advent of mobile devices, there are a variety of mobile applications to execute daily tasks, such as paying bills, watching movies and ordering food. That popularity caught the attention of malicious developers that started creating malicious applications for mobile devices instead of desktop computers. Some malicious applications claim that they can perform a certain common task, such as paying bills, just to lure users to install the application to damage their devices and/or execute malicious activities such as sending premium SMS messages or leaking users personal sensitive information. Because of that, users need a way to choose an app that is considered safe and meets their needs. For instance, if a user wants to change the application that he uses to order food, the list of suggestions must have only applications classified as benign that are capable of ordering food. Recommendation systems are currently being used to choose applications inside the Android environment, but most approaches do not evaluate security and privacy, and when they do, only the applications permissions configuration are considered. However, recent studies demonstrate that this approach is not enough. In addition, some approaches rely on user???s knowledge about the permissions, which studies have also shown that is error prone because most of users do not understand how the permissions system work. In this context, this work presents a novel functionality-based recommendation system with security and privacy awareness to evaluate and suggest apps. The system consists of a machine learning security layer that evaluates the applications to make sure that only apps classified as benign can be suggested. The proposed system also has an application scoring system that is based on functionality to ensure that only the applications with similar purposes can be suggested. In addition, users will be able to see popularity, usability and privacy metrics and add weights so that suggestions are made according to the user's preferences. Furthermore, a mapping between the permissions, application method calls, and descriptions is made to create phrases so that users can understand what the application being evaluated can do on the mobile device. The goal is to provide comprehensible information so users will be able to check if the application is executing any suspicious behavior and/or if it is requesting too much permissions. A prototype was developed and compared with works from the literature and the experiments demonstrated that the system had better results because it was able to suggest only applications classified as benign that have similar behaviors. The prototype was also compared with the official Google Play Store in order to verify if the list of suggestion has only apps with similar goals. The results demonstrate that, in terms of functionality, the prototype suggestion list had only apps that share similar goals and that Google Play categories needs to be better defined. The main contributions are the recommendation system with the advent of a security layer, the app scoring system inside a functionality context and the mapping between permissions and API calls raising user confidence and understanding. Atualmente, com o advento dos dispositivos m??veis, surgiram uma variedade de aplicativos que s??o utilizadas nesses dispositivos para executar tarefas do dia a dia. Tais como, pagar contas, assistir filmes e pedir comida. Essa popularidade chamou a aten????o de desenvolvedores maliciosos que come??aram a criar aplicativos mal-intencionados para dispositivos m??veis. Alguns desses aplicativos maliciosos alegam que executam uma determinada tarefa benigna apenas para atrair os usu??rios a instalar o aplicativo e danificar seus dispositivos e/ou executar atividades maliciosas, como enviar mensagens SMS a servi??os pagos ou enviar informa????es confidenciais dos usu??rios para terceiros. Por esse motivo, os usu??rios precisam de uma maneira de escolher um aplicativo que seja considerado seguro e atenda suas necessidades. Por exemplo, caso um usu??rio esteja insatisfeito com o aplicativo utilizado para pedir comida, a lista de sugest??es deve ter apenas aplicativos classificados como benignos e que sejam capazes de pedir comida. Atualmente, sistemas de recomenda????o est??o sendo utilizados para escolher aplicativos dentro do ambiente do sistema operacional Android. Entretanto, a maioria das abordagens n??o avalia seguran??a e privacidade e quando o fazem consideradam apenas a configura????o das permiss??es dos aplicativos. No entanto, estudos recentes demonstram que essa abordagem n??o ?? suficiente. Al??m disso, algumas abordagens se baseiam no conhecimento do usu??rio sobre as permiss??es dos aplicativos e estudos tamb??m mostraram que ?? uma abordagem propensa a erros, pois a maioria dos usu??rios n??o entende como o sistema funciona. Nesse contexto, este trabalho apresenta um sistema de recomenda????o baseado em funcionalidade com ci??ncia de seguran??a e privacidade para avaliar e sugerir aplicativos. O sistema ?? formado por uma camada de seguran??a que utiliza aprendizado de m??quina para avaliar os aplicativos e garantir que apenas aplicativos classificados como benignos possam ser sugeridos. Um sistema de pontua????o de aplicativos baseado na funcionalidade tamb??m ?? utilizado para garantir que apenas os aplicativos com objetivos semelhantes possam ser sugeridos. Al??m disso, os usu??rios podem escolher entre m??tricas como popularidade, usabilidade, privacidade e atribuir pesos na m??trica que considerarem mais importante. Por fim, ?? feito um mapeamento entre as permiss??es, chamadas de API e descri????es dos apps para criar frases no intuito de que os usu??rios possam compreender o que o aplicativo que est?? sendo avaliado pode fazer no dispositivo m??vel. O objetivo ?? fornecer informa????es ??teis e compreens??veis para que os usu??rios possam verificar se o aplicativo est?? executando algum comportamento suspeito e/ou solicitando permiss??es desnecess??rias. Um prot??tipo foi desenvolvido e comparado com os trabalhos da literatura, os experimentos demonstraram que o sistema obteve melhores resultados pois foi capaz de sugerir apenas aplicativos classificados como benignos com objetivos semelhantes. Tamb??m foi realizado um experimento comparativo com a Google Play, os resultados demonstram que, em termos de funcionalidade, a lista de sugest??es do prot??tipo possui apenas aplicativos que compartilham objetivos semelhantes e que as categorias do Google Play precisam ser melhor definidas. As principais contribui????es s??o o sistema de recomenda????o com o advento da camada de seguran??a, o sistema de pontua????o dos aplicativos e o mapeamento entre permiss??es e chamadas de API, aumentando a confian??a e o entendimento do usu??rio.
- Published
- 2020
13. Utilizing optimization algorithms to maximize the availibility of composable data center
- Author
-
SILVA, Leylane Graziele Ferreira da, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Algoritmos de otimização - Abstract
CAPES The cloud computing paradigm has performed, for years, the fundamental role in delivering IT resources, typically available in data centers, allowing cost reduction and providing services such as high availability, scalability, and elasticity. Despite many advantages, the data center infrastructure suffers from inefficiency problems due to factors such as excessive redundancy usage and infrastructure sub-utilization. The Composable Data Center paradigm aims to mitigate such problems, proposing the disaggregation of resources distributed in racks with different chassis configurations. In this context, different resource arrangements, allocated via software (called Composable Infrastructure) may directly affect the system availability. Thus, this work presents an optimization problem to allocate Composable Infrastructures in Composable Data Center, taking into account budget constraints, obeying application requirements to maximizing availability in those data centers. For such, some optimization algorithms utilized in two approaches: mono-objective approach and multi-objective approach. From the results, it is possible to identify the best configurations and understand how each component affects availability. In the mono-objective approach, the Dynamic Programming algorithm obtained the best results in balancing cost and availability. In the multi-objective approach, both GDE3 and NSGA-II algorithms were useful in finding attractive solutions, and GDE3 presented the most solution number in most of the cases. O paradigma de computação em nuvem tem desempenhado, durante anos, um papel fundamental na entrega de recursos de tecnologia da informação (TI), normalmente disponíveis em data centers, permitindo redução de custos e provendo serviços como alta disponibilidade, escalabilidade e elasticidade. Apesar das inúmeras vantagens, as infraestruturas de data centers sofrem com alguns problemas de ineficiência devido a fatores como o uso excessivo de redundância e a sub-utilização da infraestrutura. O paradigma de Composable data center é uma solução idealizada de modo a mitigar tais problemas, o qual propõe a desagregação de recursos computacionais, distribuídos em racks com diferentes configurações de chassi. Neste contexto, as diferentes combinações de recursos, alocadas via software (denominadas Composable Infrastructure), podem afetar diretamente na disponibilidade do sistema. Deste modo, este trabalho apresenta um problema de otimização para realizar alocação de Composable Infrastrucutures em Composable Data Centers levando em consideração restrições orçamentárias, de modo a atender requisitos da aplicação para maximizar a disponibilidade nestes Data Centers. Para tal, foram utilizados diferentes algoritmos de otimização em duas principais abordagens: mono-objetivo e multi-objetivo. A partir dos resultados é possível identificar as melhores configurações e como cada recurso pode impactar na disponibilidade. Na abordagem mono-objetivo, o algoritmos Dynamic Programming apresentou os melhores resultados ao equilibrar disponibilidade e custo. Na abordagem multi-objetiva, os algoritmos GDE3 e NSGA-II foram efetivos para encontrar boas soluções e o algoritmo GDE3 apresentou uma maior quantidade de soluções na maioria dos casos.
- Published
- 2020
14. Uma análise experimental de desempenho do protocolo QUIC
- Author
-
Assis Tiago de Oliveira Filho and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Análise de desempenho - Abstract
O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada. The Quick UDP Internet Connection (QUIC) protocol was initially presented by Google in 2012 as a solution to some of the structural problems of the Internet, evidenced mainly by the limitations of the Transmission Control Protocol (TCP) in view of the new needs of Web applications and services. In view of this scenario, even if the protocol is considered progressively favorable, some questions are still open, such as, for example, evaluation of its effective gain in relation to the already established model (TCP + HTTP / 2) currently used for Web browsing. Therefore, this work used the research method considering the case study. At the end of this, through the analysis of the results that the QUIC presents better performance in relation to TCP only specific cases, as for example in networks with a large amount of delay and packet loss. Therefore, allowing the visualization, evidently, that the QUIC proposal is not yet robust enough and that it needs to develop in order to be effectively applied.
- Published
- 2020
15. An architecture to envolve the inter-domain routing using software-defined networking
- Author
-
SILVA, Walber José Adriano and SADOK, Djamel Fawzi Hadj
- Subjects
SDN ,Redes de computadores ,BGP - Abstract
The Border Gateway Protocol (BGP) is the current state-of-the-art protocol for inter-domain routing between Autonomous System (AS). The BGP follows the traditional network paradigm, where the network logic is embedded into the network hardware, new network capabilities are defined only in the protocol design phase, solutions have a distributed nature, and network management is often manually executed. This approach makes challenging to evolve inter-domain routing because architecture becomes very dependent on the protocol, and consequently adding new features are inherently hard to introduce into the network. With Software-Defined Networking (SDN) paradigm, new architectures can emerge to overcome inter-domain routing limitations (e.g., limited mechanisms to control inbound traffic of a given AS). Thus, this work offers a new architecture to manage traffic in the inter-domain using SDN technologies. The architecture explores direct inter-domain communication to exchange control information as well as the functionalities of the OpenFlow protocol. It also addresses the challenge of adopting SDN technologies in the inter-domain environment, such as resilience mechanisms for link failures, management of flows and avoids inconsistency in SDN stateful application. Furthermore, after the depiction of the architecture, different scenarios are proposed for evaluation of the architecture capabilities. The results indicate the potential of the architecture to evolve the inter-domain routing, once it provides new mechanisms to perform Traffic Engineering (TE) and addresses solutions to mitigate the limitations of using SDN technologies in the inter-domain environment. O Border Gateway Protocol (BGP) é o principal protocolo para roteamento entre Sistemas Autônomos (AS). O BGP segue o paradigma de rede tradicional, onde a lógica da rede é embarcada no hardware, os novos recursos de rede são definidos apenas na fase de projeto do protocolo, as soluções de rede têm natureza distribuída, o gerenciamento da rede é executado manualmente, entre outras características. Essa abordagem de projetar redes dificulta o desenvolvimento de novas lógicas de roteamento entre domínios, pois a arquitetura se torna muito dependente do protocolo e, consequentemente, a adição de novos recursos é inerentemente difícil de ser introduzida na rede. Com o paradigma das Redes Definidas por Software (SDN), novas arquiteturas podem surgir para superar as limitações de roteamento entre domínios. Assim, esta tese oferece uma arquitetura para gerenciar o tráfego de rede entre domínios com o uso de tecnologias SDN. A arquitetura explora a comunicação direta entre domínios para trocar informações de controle, bem como as funcionalidades providas pelo protocolo OpenFlow. Ademais, também é abordado o desafio em adotar tecnologias SDN no ambiente inter-domínio, como: resiliência da conectividade entre domínios no caso da falha de enlaces; o gerenciamento de fluxos em redes SDN; e, a mitigação de inconsistência de estado em aplicações SDN. Desta forma, após a descrição da arquitetura, diferentes cenários foram propostos e avaliados. Os resultados indicam o potencial da arquitetura em evoluir o roteamento entre domínios, uma vez que fornece novos mecanismos para executar tarefas de engenharia de tráfego e aborda soluções para atenuar as limitações do uso de tecnologias SDN no ambiente inter-domínio.
- Published
- 2019
16. Otimização multi-objetivo para classificação de tráfego de redes
- Author
-
NASCIMENTO, Zuleika Tenório Cavalcanti do and SADOK, Djamel Fawzi Hadj
- Subjects
Máquina de aprendizagem ,Otimização ,Ciência da computação - Abstract
A Internet cresce em ritmo acelerado, tanto em volume de tráfego quanto em número de aplicações. Por esta razão, com o intuito de monitorar tais dados, que não somente crescem em volume, mas também em complexidade, esforços na tarefa de classificação de tráfego de redes têm crescido nos últimos anos com o intuito de prover ferramentas capazes que auxiliar na análise de tráfegos de redes com diversos propósitos, tais como, por exemplo, oferecer maior segurança da informação e/ou Qualidade de Serviço (QoS). Muitos métodos de classificação têm sido propostos baseados em inspeção profunda de pacotes (DPI - Deep Packet Inspection), porém tais métodos não possibilitam a análise de tráfego criptografado, além de possuir alto custo computacional e violar a privacidade dos usuários ao inspecionar a carga útil (payload) dos pacotes. O método de classificação baseado em portas não é capaz de lidar com aplicações que utilizam portas aleatórias ou encapsulam tráfego. No entanto, a classificação de tráfego com o auxílio de algoritmos de aprendizagem de máquina está em evidência, apresentando resultados promissores, e sendo capazes de mitigar tais problemas apresentados. Este trabalho tem como objetivo propor um modelo híbrido para classificação de tráfego de redes, denominado Modelo Dividir para Conquistar Multi-Objetivo (MODC - Multi-Objective Divide and Conquer), com o auxílio de algoritmos de aprendizagem de máquina, baseado na estratégia de “dividir para conquistar”, mostrando que esta metodologia melhora consideravelmente os resultados para as métricas de desempenho investigadas. Além disso, propõe otimizar duas importantes métricas para monitoramento de tráfego simultaneamente: a acurácia global em fluxos e a acurácia global em bytes, através do uso de Algoritmos Genéticos Multi-Objetivos (MOGA - Multi-Objective Genetic Algorithms), permitindo que administradores de rede possam ajustar o modelo para priorizar a qualidade de classificação para uma destas métricas, de acordo com particularidades da rede sendo monitorada. Algoritmos tais como o de Máquina de Aprendizagem Extrema (ELM - Extreme Learning Machine) e Mapas Auto-Organizáveis com Crescimento Hierárquico (GHSOM - The Growing Hierarchical Self-Organizing Map) são utilizados na estratégia de “dividir para conquistar”. Os resultados mostraram que a estratégia de dividir um problema complexo em tarefas mais simples e conquistá-los com algoritmos de aprendizagem supervisionada melhorou o desempenho do modelo, e que a utilização do MOGA foi capaz de otimizar simultaneamente duas métricas de desempenho, permitindo a flexibilização do modelo proposto, de acordo com as necessidades da rede sendo monitorada. Além disso, foi apresentada uma variação do modelo com o uso dos Stacked Sparse Autoencoders (SSAE), técnica esta da área de Aprendizagem Profunda (deep learning) que procura gerar uma melhor representação em alto nível do conjunto de dados de entrada, reduzindo sua dimensionalidade e custo computacional. Foi apresentado que os SSAE melhoraram consideravelmente a qualidade do modelo. Experimentos também foram realizados com o MODC com o intuito de realizar comparações com ferramentas de DPI conhecidas, inclusive comerciais, e com um conjunto de algoritmos de aprendizagem de máquina, onde o modelo híbrido proposto mostrou ser superior, para as métricas de desempenho analisadas, quando comparado utilizando conjuntos de dados distintos. The Internet is exponentially growing, both in traffic volume and number of applications. For that reason, with the objective of monitoring such data, which not only grows in volume but also in complexity, efforts have been made in the area of network traffic classification in recent years with the objective of providing tools capable of aiding the network data analysis with multiple objectives, such as, for example, providing information security and Quality of Service (QoS). Many methods of classification have been proposed based on Deep Packet Inspection (DPI), but these methods break when dealing with encrypted traffic data and when multiple signatures match. Some methods are based on the use of known ports, but these are not able to deal with encapsulated traffic or theuse of random ports by applications. Others make use of machine learning to tackle these problems, showing to be a promising area for network traffic classification. This work proposes a hybrid model for network traffic classification, named Multi-Objective Divide and Conquer (MODC,) with the aid of machine learning algorithms, based on the “divide and conquer” strategy. This approach showed to improve the performance metrics investigated. Besides that, this method proposes to optimize, simultaneously, two important metrics for network monitoring, the global flow accuracy and global byte accuracy, by using Multi-Objective Genetic Algorithms (MOGA), allowing computer network administrators to adjust the model in order to prioritize the classification quality in terms of flow or byte accuracy, depending on the network’s particularities. Also, the “divide and conquer” strategy used machine learning algorithms such as the Extreme Learning Machine (ELM) and The Growing Hierarchical Self-Organizing Map (GHSOM). The obtained results showed that the strategy of dividing a complex problem into smaller and simpler problems, and conquering them with supervised learning algorithms, enhanced the model’s overall quality, and that by using the MOGA, it was possible to improve the model by simultaneously optimizing two performance measures, transforming the model into a flexible classifier to make it possible for network analysts to prioritize either flow or byte accuracy, based on the network’s necessity. Besides that, it was presented an extension for the model with the aid of the Stacked Sparse Autoencoders (SSAE), from the deep learning area of research, that aims to generate a high level set of features, reducing the dataset dimensionality and computational costs. It was presented that the use of SSAE improved the model considerably. Experiments were also performed with the MODC in order to compare it against known DPI tools, including commercial ones, and with a set of machine learning algorithms, where the model showed to be superior, regarding the analyzed performance metrics, to these other methods by using distinct datasets.
- Published
- 2019
17. Identifying the most critical components and maximizing their availability subject to limited cost in cooling subsystems
- Author
-
GOMES, Demis Moacir, SADOK, Djamel Fawzi Hadj, and GONÇALVES, Glauco Estácio
- Subjects
Disponibilidade ,Avaliação de desempenho ,Análise de sensibilidade - Abstract
CNPq Cooling plays an important role on data center (DC) availability, mitigating the Technology of Information (IT) components’ overheating. Although several works evaluate the performance of cooling subsystem in a DC, a few studies consider the significant relationship between cooling and IT subsystems. Moreover, a DC provider has limited tools in order to choose its IT and cooling components to obtain a desired availability subject to limited cost. This work provides scalable models (using Stochastic Petri Nets - SPN) to represent a cooling subsystem and to analyze its failures’ impact concerning financial costs and service downtime. This study also identifies the components that most impact on DC availability, as well as proposes a strategy to maximize the DC availability with a limited budget. Notwithstanding, the optimization process to maximize availability becomes very costly when used the proposed DC SPN models due to time-to-solve, which leads to the application of cheaper models, however, efficient, called surrogate models. In order to apply the most accurate surrogate model for optimization tasks, this work compares three surrogate models strategies. In the optimization, based on solutions obtained in the chosen surrogate model, there is a three-algorithm comparison to choose one with best results. Results show that a more redundant cooling architecture reduces costs in 70%. Cooling components’ analysis identified the chiller as the most impactful component concerning availability. Regarding surrogate models based on DC model, Gaussian Process (GP) obtained more confident results. Finally, Differential Evolution (DE) had the best results on availability’s maximization in a DC. A refrigeração possui um papel importante na disponibilidade de um data center (DC), mitigando o superaquecimento dos equipamentos de Tecnologia da Informação (TI). Embora muitos trabalhos avaliem o desempenho do subsistema de refrigeração em um DC, poucos deles consideraram a relação importante entre os subsistemas de refrigeração e TI. Além disso, um provedor de DC possui ferramentas limitadas para escolher seus equipamentos de TI e refrigeração de modo a obter uma disponibilidade desejada mesmo com custos limitados. Este trabalho provê modelos escaláveis (usando Redes de Petri Estocásticas) para representar um subsistema de refrigeração e analisar o impacto de suas falhas com respeito a custos financeiros e downtime do serviço. O estudo também identifica os componentes que mais influenciam na disponibilidade do DC, além de propor uma estratégia para maximizar a disponibilidade do DC com um limitado orçamento. No entanto, a tarefa de otimização para maximizar a disponibilidade se torna extremamente custosa com o uso dos modelos estocásticos devido ao seu tempo de solução, o que leva à aplicação de modelos menos complexos porém muito eficientes, os chamados modelos surrogate. De modo a aplicar o modelo surrogate de melhor acurácia para tarefas de otimização, este trabalho compara três estratégias de modelo surrogate. Com respeito à otimização, outros três algoritmos são comparados a partir de soluções obtidas usando o modelo surrogate escolhido de modo a avaliar qual traz os melhores resultados. Os resultados mostram que a adoção de uma arquitetura de refrigeração mais redundante reduz os custos em cerca de 70%. A análise dos componentes de refrigeração identificou o chiller como o componente que mais afetou a disponibilidade. Em relação aos modelos surrogate baseados no modelo de DC, o Gaussian Process (GP) alcançou resultados mais confidentes. Por último, o Differential Evolution (DE) obteve os melhores resultados na maximização da disponibilidade de um DC.
- Published
- 2019
18. Topology and energy aware virtual machine scheduling algorithms in data centers
- Author
-
Daniel Guimarães do Lago, Madeira, Edmundo Roberto Mauro, 1958, Sadok, Djamel Fawzi Hadj, Verdi, Fabio Luciano, Esteve Rothenberg, Christian Rodolfo, Fonseca, Nelson Luis Saldanha da, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Máquinas virtuais ,Computação em nuvem ,Energy efficiency ,Escalonamento ,Scheduling ,Cloud computing ,Virtual machines ,Eficiência energética ,Topologia ,Topology - Abstract
Orientador: Edmundo Roberto Mauro Madeira Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: O crescente consumo de energia e a poluição gerada para alimentarem a infraestrutura da computação em nuvem, impulsionados pela proliferação de dispositivos com baixo poder de processamento e a crescente necessidade de computação elástica, têm sido uma constante preocupação, refletida em numerosas abordagens no contexto da computação verde para lidar com este problema. Além disso, percebemos que o principal padrão escolhido para a conectividade dos data centers que operam em nuvem, Ethernet, tem apresentado rápido aumento das taxas de transmissão, bem como a expectativa de continuidade deste. Neste trabalho efetuamos estudos acerca dos impactos do aumento das taxas de transmissão no processo de escalonamento de máquinas virtuais, focando, em especial, no consumo de energia, no makespan, nos tempos de execução de cargas de trabalho e no número de migrações de máquinas virtuais em data centers que operam em nuvens, no contexto da ciência de energia. Desenvolvemos, também, um modelo empírico para estimar o consumo de energia em função da largura de banda para um conjunto de cenários. Expandimos nossos estudos e apresentamos o BALA, um algoritmo de escalonamento de máquinas virtuais ciente de energia e de largura de banda, com especial aproveitamento em data centers com agrupamentos de servidores que apresentam heterogeneidade em largura de banda. Finalmente, apresentamos o TEA, um algoritmo de escalonamento de máquinas virtuais ciente de energia e de topologia de rede, que considera não somente os elementos de borda, mas também o núcleo da rede, sendo um algoritmo escalável capaz de atuar em uma diversidade de cenários, incluindo, mas não se limitando, a nuvens constituídas de data centers geodistribuídos ou não, com topologias de rede arbitrárias, que admitem ou não a migração de máquinas virtuais, homogêneos ou heterogêneos tanto em servidores quanto no núcleo da rede, podendo suportar SLA com garantia de processamento para máquinas virtuais e dar preferência às máquinas virtuais de prioridades elevadas. Para atingir nossos objetivos, utilizamos em ambos algoritmos técnicas como o desligamento de servidores ociosos, DVFS e a migração de máquinas virtuais. Em adição, no TEA, também empregamos um conceito de maximização de eficiência em energia de rotas e o desligamento de comutadores de pacotes ociosos. Resultados obtidos por simulação em um extenso número de cenários mostram que este algoritmo, confrontado a diversos outros algoritmos cientes de energia, apresenta os melhores resultados em economia de energia em aproximadamente metade dos casos, e o melhor makespan na maior parte dos casos. Os ganhos observados são notáveis em data centers geodistribuídos, heterogêneos e com topologias constituídas por um número grande de comutadores de pacotes Abstract: The increasing energy consumption and the pollution generated to power the infrastructure of the cloud computing, driven by the proliferation of devices with low processing power and the increasing need for elastic computing, have been a constant concern, reflected in numerous approaches in the context of green computing to deal with this problem. In addition, we realize that the connectivity leading choice for data centers that operates in the cloud, Ethernet, has shown rapid increase in transmission rates, as well as the expectation of continuity of this growth. In this work, we study the impacts of the increase of transmission rates in the virtual machine scheduling process, focusing in particular on power consumption, makespan, workload execution times, and the number of machine migrations in data centers that operate in clouds in the context of energy awareness. We have also developed an empirical model to estimate energy consumption as a function of bandwidth for a set of scenarios. We have expanded our studies and presented the BALA, an energy-aware and bandwidth-aware scheduling algorithm, with special use in data centers with server groups having heterogeneity in bandwidth. Finally, we present the TEA, a virtual scheduling algorithm aware of energy and network topology, which considers not only the edge elements, but also the network core, being a scalable algorithm capable of acting in a diversity of scenarios, including, but not limited to, clouds made up of geo-distributed or non geo-distributed data centers with arbitrary network topologies that allow or disallow the migration of virtual machines, homogeneous or heterogeneous servers and network core devices, and supporting SLA with guaranteed processing for virtual machines and giving preference for high priority virtual machines. To achieve our goals, we use in both algorithms techniques such as shutdown of idle servers, DVFS, and migration of virtual machines. In addition, in TEA, we also employ a concept of maximizing energy efficiency in routes and shutting down idle switches. Results obtained by simulation in an extensive number of scenarios show that this algorithm, compared to several other energy-aware algorithms, presents the best results in energy savings in approximately half of the cases, and the best makespan in most cases. The observed gains are notable in geo-distributed data centers, with topologies consisting of a large number of switches, and in heterogeneity cases Doutorado Ciência da Computação Doutor em Ciência da Computação CAPES CNPQ 167384/2014-7 FAPESP
- Published
- 2018
19. Sistema de segurança para IoT baseado em agrupamento de smart cards gerenciados por FPGA
- Author
-
BARBOSA, Gibson Belarmino Nunes, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Internet das coisas - Abstract
FACEPE Os crescentes casos de ataques a dispositivos conectados às redes de Internet das Coisas (do inglês Internet of Things - IoT), com invasores se aproveitando do baixo poder de processamento e segurança frágil desses equipamentos, são fatores determinantes para as atenções serem voltadas à segurança em IoT. A utilização de Cartões Inteligentes (do inglês Smart Cards - SCs) para proteger esses sistemas é pertinente, pois eles são resistentes a ataques físicos, portáteis e baratos. Porém, o processamento e a memória deles ainda não são suficientes para atender a alta demanda dos dispositivo conectados à IoT. Por estas razões, utilizar vários SCs agrupados pode ser interessante para proteger tais redes de dispositivos IoT. Contudo, o gerenciamento de muitos SCs requer uma plataforma que não degrade o desempenho do processo de leitura e escrita. Os Arranjos de Portas Programáveis em Campo (do inglês Field Programmable Gate Arrays - FPGAs) se encaixam nesse critério, pois são dispositivos reconfiguráveis com capacidade de paralelização de tarefas e replicação de código. Associando esses dispositivos, e conectando-os à rede, seria possível agregar segurança a outros sistemas e garantir a integridade da comunicação na IoT. Estes fatores motivaram o presente trabalho a propor e desenvolver o Smart Card Cluster (SCC), que é uma plataforma de segurança para IoT. Ele pode ser empregado de diversas formas para oferecer proteção às camadas de rede ou de aplicação da IoT. Contudo, neste trabalho ele será utilizado para agregar proteção às mensagens que são trocadas entre gateways e o middleware IoT, assegurando a autenticidade e integridade das mensagens por meio de assinatura feita em hardware seguro. Com três SCs o SCC permite assinar 26,18 mensagens por minuto. O sistema utiliza FPGA para fazer o controle eficiente de SCs. Através de experimentos concluiu-se que ele é modular, portátil, escalável e com custo adequado ao cenário de IoT ao qual é aplicado. Isto possibilita que o utilizador evite gastos, pois os dispositivos embarcados, o poder de processamento, e a quantidade de SCs podem ser ajustados de acordo com a necessidade. Além do que, a plataforma pode ser distribuída para perto dos dispositivos na ponta da rede. No trabalho é mostrado que o SCC consegue ser 69% mais eficiente que outro dispositivo comercial utilizado para agrupamento de SCs, que é conhecido como SIM Array, além disso o custo da utilização de cada SC no SCC chega a ser US$263,54 menor. The increasing cases of attacks on devices connected to Internet of Things (IoT) networks, where attackers take advantage of the low processing power and the fragile protection of such equipments, is a determining factor for giving greater attention to IoT security. The use of Smart Cards (SCs) to protect these systems is pertinent, as they are physical attacks resistant, portable and inexpensive. Nonetheless, their processing and memory are still not sufficient to meet the high demand of the devices connected to IoT. For these reasons, using multiple clustered SCs may be interesting to protect such networks. However, a platform that does not degrade the performance of the read and write process, is needed to control many SCs. The Field Programmable Gate Arrays (FPGAs) fit this criterion, since they are reconfigurable devices with the ability to parallelize tasks and code replication. By connecting these devices to the network, it would be possible to add security to other systems and ensure communication integrity for the IoT. These factors led to the development of the Smart Card Cluster (SCC), which is a platform for IoT security. It can be used in a variety of ways to protect the IoT layers or applications. In this work, it is used to add protection to messages that are exchanged between gateways and middleware IoT, ensuring message authenticity and integrity through secure hardware signing. With three SCs the SCC allows to sign 26.18 messages per minute. The system uses FPGA to efficiently manage SCs. It is modular, portable, scalable and cost-effective to user’s needs. This enables the user to avoid unnecessary costs, since the embedded devices, processing power, and the amount of SCs are adapted to the application scenario. Thus, the platform can be distributed close to the things. In this work it is shown that the SCC becomes 69% more efficient than another commercial device used for clustering SCs, the SIM Array, moreover the cost of using each SC in the SCC is US$ 263.54 lower.
- Published
- 2017
20. Otimização de tráfego broadcast em redes Openflow
- Author
-
SILVA, Ricardo Anísio da and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Redes definidas por software - Abstract
O paradigma das Redes Definidas por Software (SDN) vem mudando a forma de gerenciar e operar redes de computadores através da sua principal idéia, a separação dos planos de dados e de conotrole. O protocolo Openflow implementa este conceito e, devido às vantagens de menor custo de operação e maior facilidade de adaptação a projetos de comutadores já existentes, é encontrado hoje em diversos equipamentos de rede comercializados por muitos fabricantes. Com o uso do paradigma SDN e do protocolo Openflow, a inovação e evolução da rede são facilitadas. Dessa forma, muitos serviços típicos de rede podem ser repensados, de forma a torná-los mais flexíveis. Ao projetar uma rede SDN deve-se levar em consideração algumas particularidades de desempenho, como por exemplo: tabela de fluxos e comunicação com controlador. Estas características tornam as métricas tradicionais de desempenho como vazão, latência, jitter e perda de pacotes insuficientes para avaliar o desempenho de uma rede SDN. O foco principal desta dissertação, esta no controle da tabela de fluxo proveniente de requisições ARP. Desta forma, esta proposta visa a diminuição e o controle do tráfego broadcast através da Arquitetura SDN. A partir da criação de um novo módulo, desenvolvido para determinar o uso de múltiplos caminhos no encaminhamento de tráfego referente a um fluxo, demonstrando neste trabalho que algumas métricas de controle de requisições broadcast, podem ser atendidas. O módulo foi implementado e avaliado através de um simulador. Os resultados de avaliações referentes a diversos aspectos da solução proposta, são apresentados nesta dissertação, demonstrando que os ganhos na utilização do controle da tabela de fluxo e na quantidade de mensagens flow-mod do Openflow, geram uma dimunição na quantidade de dados transmitidas entre o controlador e o comutador. The paradigm of Software Defined Networking (SDN) has been changing the way in which to manage and operate computer networks through its main idea, the separation of data plans and control. The Openflow protocol implements this concept and, due to the advantages of lower cost of operation and greater ease of adaptation to designs of existing switches, is found today in several network equipment marketed by many manufacturers. With the use of the SDN paradigm and the Openflow protocol, network innovation and evolution are facilitated. In this way, many typical network services can be rethought in order to make them more flexible. When designing an SDN network one must take into account some particularities of performance, as for example: table of flows and communication with controller. These characteristics make traditional performance metrics such as flow, latency, jitter, and packet loss insufficient to evaluate the performance of an SDN network. The main focus of this dissertation is to control the flow table from ARP requests. In this way, this proposal aims at reducing and controlling broadcast traffic through the use and extension of the SDN Architecture. From the creation of a new module, developed to determine the use of multiple paths in the traffic routing referring to a flow, demonstrating in this work that some control metrics of broadcast requests can be met. The module was implemented and evaluated through a simulator. The results of evaluations regarding several aspects of the proposed solution are presented in this dissertation, demonstrating that the gains in the use of the flow table control and in the number of flow-mod messages of Openflow, generate a decrease in the amount of data transmitted between the Controller and the switch.
- Published
- 2017
21. Módulo de resolução de conflitos de forma semiautomática em modelo Or-BAC
- Author
-
SOUZA, Janderson Silva de and SADOK, Djamel Fawzi Hadj
- Subjects
Controle de acesso ,Ciência da computação - Abstract
SETEC A especificação de diretivas de segurança em um Modelo de Controle de Acesso que inclui permissões e proibições algumas vezes pode ocasionar conflitos. Isso corresponde a uma situação em que um sujeito tem a permissão e proibição (ambos) para executar uma determinada ação e um determinado objeto. Esse tipo de problema pode afetar profundamente a estabilidade do modelo, pois suas exigências de segurança são primordiais para o bom funcionamento dos sistemas que dependem dele. Como principal contribuição, este trabalho faz uma abordagem comparativa entre alguns modelos existentes e suas tratativas e propõe um método de resolução desses conflitos de uma forma semiautomática, no entanto, poderá ocorrer situações em que será necessária a intervenção do administrador para uma tomada de decisão mais complexa. O Organization Based Access Control (Or-BAC) foi selecionado por se tratar de um modelo base para outros modelos derivados. Este modelo é dotado de mecanismo de herança, o que permite que regras redundantes e potenciais conflitos sejam tratados em tempo polinomial. Além disso, o modelo possui uma ferramenta de apoio para simulação de aplicação de regras chamada MotOrBAC, o qual fornece as interfaces necessárias para a implementação do módulo de resolução de conflitos. Specifying security policies in an Access Control Model that includes permissions and prohibitions may have conflicts. This corresponds to a situation in which a subject has the both permission and prohibition to execute a certain action and a certain object. This type of problem can profoundly affect the stability of the model because its security requirements are paramount for the proper functioning of the systems that depend on it. As a main contribution, this thesis makes a comparative approach between some existing models and their dealings also proposes a method of solving these conflicts in a semiautomatic way, however, there may be situations in which the intervention of the administrator will be necessary for a more complex decision making. The Or-BAC was selected because it is a base model for other derived models. This model is endowed with an inheritance mechanism, which allows redundant rules and potential conflicts to be treated in polynomial time. In addition, the model has a support tool for simulation of rule application called MotOrBAC, which provides the necessary interfaces for the implementation of the conflict resolution module.
- Published
- 2017
22. An IOT architecture for counting people
- Author
-
BOTLER, Léo Happ, KELNER, Judith, and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Internet das coisas - Abstract
CNPq Knowing whether a room is occupied or not is crucial for improving electrical energy efficiency. For instance, if a given room is empty there is usually no need for the lights to be turned on. Usually in small spaces such as elevator halls, a Passive Infrared (PIR) sensor is used together with the lighting, but as it lacks accuracy, people often are left in the dark after a few minutes. Another factor that deteriorates energy efficiency is that these sensors are seldom connected to a network, limiting the application scenarios to simple tasks, such as controlling lamps. The same data could be used to improve other services such as adjusting the temperature of an air conditioner, which usually has a high impact on energy costs in countries with warm weather. In the present dissertation a wireless device capable of counting people in a room is implemented using Infrared (IR) Light Emitting Diode (LED)s. The implemented device is analyzed regarding energy consumption, cost, error count and installation time. It is also compared to other existing solutions. An architecture for interfacing this device with the Internet of Things (IoT) is provided as well as some of its applications in real scenarios. The results show that the architecture provided as well as the device implemented are useful in the presented scenarios, presenting a distance range of up to 30cm, a false negatives percentual error around 4% and an energy consumption of 1.519W. Saber se um cômodo está ocupado ou não é crucial para melhorar a eficiência de energia elétrica. Por exemplo, se um quarto está desocupado, geralmente, não há necessidade de as lâmpadas estarem ligadas. Geralmente, em ambientes pequenos como em halls de elevador, um sensor Infravermelho Passivo (PIR) é usado em conjunto com as lâmpadas, mas como estes sensores não são precisos, as pessoas são frequentemente deixadas no escuro após alguns minutos. Outro fator que prejudica a eficiência energética é que raramente estes sensores estão conectados a uma rede, limitando os cenários de aplicação a tarefas simples, como controlar lâmpadas, enquanto os dados do sensor poderiam ser utilizados para melhorar outros serviços, como ajustar a temperatura de um aparelho de ar condicionado, que geralmente tem um alto impacto nas contas de energia, em países quentes. Nesta dissertação, um dispositivo sem fio capaz de contar pessoas em um quarto é implementado utilizando Diodos Emissores de Luz (LED)s Infravermelhos (IR). O dispositivo implementado é analisado nos seguintes aspectos: consumo de energia, custo, contagem de erros e tempo de instalação. Este também é comparado a outras soluções existentes. Uma arquitetura para fazer a interface entre este dispositivo e a Internet das Coisas (IoT) é fornecida, assim como alguns cenários em que esta pode ser aplicada. Os resultados mostram que a arquitetura, assim como o dispositivo implementado são úteis nos cenários apresentados, apresentando um alcance de 30cm, um percentual de erros do tipo falso negativo da ordem de 4% e um consumo de energia de 1.519W.
- Published
- 2017
23. Secure-compapp: uma abordagem para aplicações compartimentalizadas
- Author
-
CORREIA, Gregório Patriota and SADOK, Djamel Fawzi Hadj
- Subjects
Controle de Acesso ,Separação de Privilégio ,Comunicação Interprocesso ,Monitor de Referência ,Políticas ,Segurançade Dados Críticos - Abstract
CNPQ O uso de códigos monolíticos permite com maior facilidade que um atacante consiga escalar privilégios e a partir de então ter autoridade para executar qualquer tipo de ação maliciosa. O Princípio da Separação de Privilégios propõem mitigar essas vulnerabilidades transformando a estrutura do código monolítico e numa estrutura distribuída que se comunica através de canais interprocessos,desta forma os domínios de cada parte estarão isolados dificultando a escalação deprivilégios. Entretanto o uso incauto destes canais de comunicação interprocessos tem sido alvo de novos ataques que exploram tanto as fraquezas dos canais de comunicação quanto as interfaces mal definidas destes processos particionados. Como proposta de mitigar a escalação de privilégio proveniente da exploração destes canais de comunicação este trabalho propõem uma ferramenta de gerenciamento de processos compartimentalizados e seus canais de comunicação interprocesso. A solução apresentada neste trabalho é chamada de Secure-CompApp. Foi avaliado o impacto da solução sobre a performance das aplicações compartimentalizadas e este estudo mostra que a diminuição de performance é justificada por maiores garantias de segurança rastreabilidade oferecida pela solução Secure-CompApp. Application with any kind of bug or any point with memory leak represent an opportunity for an attacker engage. In the case of some applications implemented with monolithic code, this allows an attacker to escalate privileges of a user easily. The Principle of Least Privilege (PoLP) proposes to mitigate these vulnerabilities transforming the structure of the monolithic code in a distributed structure that communicate through interprocess channels, so the domains of each part will be isolated, making it difficult to privilege escalation. However the incautious use of these interprocess communication channels has been the target of new attacks that exploit the weaknesses of communication channels and the ill-defined interfaces of these partitioned processes. As a proposal to mitigate the privilege escalation from the exploitation of these communication channels this paper proposes a management tool for compartmentalized processes and its interprocess communication channels. The Secure-CompApp is a reference monitor for compartmentalized applications, this is the solution introduced in this paper. The impact of the solution on the performance of compartmentalized applications was evaluated and this study shows that the decrease of performance is justified by the greater guarantees of security and traceability offered by the Secure-CompApp.
- Published
- 2016
24. VoIPath: uma solução para seleção de caminhos com base em atributos de rede para o tráfego VoIP através de SDN
- Author
-
SANTOS, Alexandre Francisco Pontes dos and SADOK, Djamel Fawzi Hadj
- Subjects
Virtual Tenant Networks ,Software Defined Networks ,Voice Over IP Networks - Abstract
Com o crescimento da adoção de comunicação de voz em redes de dados, tecnologia conhecida como Voice Over Internet Protocol (VoIP) , tornaram-se evidentes, tanto vantagens obtidas, quanto problemáticas decorrentes do contraste entre a natureza das redes de dados e as necessidades do tráfego VoIP. A internet não possui, por padrão, formas inteligentes de proteção e priorização do tráfego, levando à utilização de tecnologias externas para suprir estas necessidades. Todavia, a utilização destas tecnologias tem tornado-se cada vez mais complexa em virtude de um fenômeno conhecido como ossificação das redes IP, conforme Mckeown et al. (2008). Em busca de solucionar os problemas enfrentados pelas redes atuais e prover maior flexibilidade e capacidades inovadores, surge a Software Defined Network (SDN), tecnologia que visa trazer uma série de vantagens para as redes de dados atuais através de sua arquitetura. Neste trabalho é proposta a VoIPath, uma solução baseada em SDN que implementa uma técnica de seleção de caminhos com base em atributos específicos, relevantes para o tráfego VoIP. Para processar estes atributos e identificar os melhores caminhos para o tráfego VoIP é empregado um algoritmo criado com programação linear, onde um volume de tráfego VoIP é dividido entre diferentes caminhos, com base em opções de execução da solução. Para controlar a propagação do tráfego é empregada uma tecnologia baseada em SDN a Virtual Tenant Networks (VTN), através desta o tráfego é conduzido por uma rede lógica, chamada de tenant. O mapeamento destas redes lógicas na rede SDN física garante a passagem do tráfego pelos caminhos selecionados. Por fim é realizada uma série de experimentos para demonstrar a efetividade da solução, bem como melhorias na qualidade do áudio, calculadas com base em um modelo de avaliação de qualidade de tráfego VoIP. With increasing adoption of voice communications through data networks, technology known as VoIP, both advantages and issues have become apparent. The second group caused by the contrast between the nature of data networks and the needs of VoIP traffic. By default, data networks do not have smart structures to protect and prioritize traffic. In order to achieve these characteristics external technologies are deployed, but the utilization of such strategy has become complex due to a phenomenon described as network ossification (MCKEOWN et al., 2008). In order to provide solutions to the problems of the actual data networks architecture and provide greater flexibility, comes in scene the SDN technology. The SDN architecture unleashes a new horizon of possibilities to the networks. This work proposes the VoIPath solution, which consists of a implementation of a SDN based path selection technique, oriented by specific relevant attributes to the VoIP traffic. A algorithm created with linear programming is employed to compute these attributes and identify the best paths to the VoIP traffic, which is divided through the network, in according to execution parameters. In order to control the traffic propagation is employed the VTN technology, which consists on an SDN based solution. Through VTN technology the VoIP traffic is forwarded through an logical network called tenant. The mapping of the tenant over the physical network ensures that the selected paths are employed. To ensure the solution’s effectiveness a series of experiments are performed and the impact of its’s execution on the audio is calculated with the usage of an VoIP quality measurement evaluation model.
- Published
- 2016
25. Análise do impacto do isolamento em ambientes virtuais
- Author
-
SILVA, Luís Eduardo Tenório and SADOK, Djamel Fawzi Hadj
- Subjects
Isolamento ,LXC ,KVM ,Virtualização - Abstract
CNPq O surgimento da virtualização permitiu uma mudança na maneira de pensar em prestação de serviço pela Internet, permitindo assim o surgimento de grandes conceitos como a computação em nuvem. Com o passar do tempo, novas tecnologias que permitem virtualizar recursos foram surgindo e trouxe a tona questões de desempenho, isolamento, entre outras. Analisar o impacto causado pelo mau comportamento das abstrações virtuais pode permitir ao administrador da nuvem tomar uma ação na escolha de uma tecnologia específica de virtualização para minimizar os impactos causados a todo ambiente. Hodiernamente, o isolamento é uma preocupação que remete pesquisas e estudos do seu impacto na qualidade dos serviços prestados em um ambiente virtualizado. Indagar sobre a possibilidade de detecção para tomada de ações com a finalidade de minimizar os impactos decorrentes de interferências devido a um mau isolamento é uma das atividades que vêm sendo estudadas com o passar dos anos. O surgimento de diversas técnicas de virtualização trouxe também preocupações de qual é adequada a qual caso. Alguns dessas técnicas vêm sofrendo melhorias únicas nesses últimos anos, principalmente no que diz respeito ao isolamento e controle de recursos. Nesse contexto, essa dissertação propõe uma estratégia adaptada da literatura (procurando unir técnicas distintas) para observar possíveis indícios de quebra do isolamento de ambientes virtuais e organizar os serviços de determinada natureza na melhor técnica de virtualização, verificando também os resultados apresentados por cada técnica de virtualização existente. Para tanto, é adotada uma metodologia que favorece a concepção dos diversos cenários possíveis a partir de um número de infraestruturas virtuais, ofertando serviços web e utilizando diferentes técnicas de virtualização, observando principalmente os recursos utilizados pelas infraestruturas virtuais e a qualidade do serviço prestado. Concluímos que dependendo do tipo de recurso observado as estratégias de isolamento de uma técnica de virtualização podem ser ou não eficazes. The rise of virtualization has enabled a shift in thinking in service delivery over the Internet, thus allowing the emergence of major concepts such as cloud computing. Over time, new technologies that enable virtualization resources have emerged and brought up performance issues, performance, insulation, etc. Analyze the impact of the bad behavior of virtual abstractions can enable the cloud administrator take an action in choosing a specific virtualization technology to minimize impacts to the whole environment. Nowadays, isolation is a concern that brings research and studies its impact on the quality of services in a virtualized environment. Investigate about the possibility of detection for taking actions in order to minimize the impacts of interference due to poor isolation, it is one of the activities that have been studied over the years. The emergence of various virtualization techniques also brought concerns the kind which is suitable case. Some of these techniques have improved in recent years, especially with regard to isolation and control features. In this context, this work proposes an adapted strategy literature (seeking to unite different techniques) to observe possible break indications isolation of virtual environments and organize the particular nature services in the best virtualization technique, also checking the results presented for each technique existing virtualization. Therefore, a methodology that favors the design of the various possible scenarios constructed from a number of virtual infrastructures offering web services and using different virtualization techniques is adopted, especially noting the resources used by the virtual infrastructure and the quality of service. We conclude that depending on the type of resource noted the isolation strategies of a virtualization technique can be effective or not.
- Published
- 2016
26. Análise de performance do PUSH em conexão HTTP/2 no carregamento de páginas web
- Author
-
OLIVEIRA, Igor Nogueira de, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Abstract
Desde sua padronização, o protocolo Hypertext Transfer Protocol (HTTP) tornou-se o estado da arte em protocolos de transporte da internet, sendo utilizado para transmissão de arquivos hipertexto e hipermídias, como áudio e vídeo de forma cada vez mais interativa. Porém, o HTTP em suas versões 1.0 e 1.1 apresenta pontos que podem ser otimizados, como o fato de atender requisições de forma síncrona, o que normalmente atrasa a renderização de páginas Web podendo vir a afetar a qualidade de experiência dos usuários. Recentemente, o protocolo HTTP foi atualizado para a versão HTTP/2, recebendo diversas modificações, direcionadas principalmente a melhorias no tocante ao uso dos recursos de rede. Dentre estas melhorias, podese citar a adição do recurso push, que permite que o servidor Web responda a uma solicitação com mais de um recurso ao mesmo tempo. Este trabalho apresenta uma análise de desempenho do recurso push no transporte de páginas Web em conexões HTTP/2. Para tanto, foram realizados experimentos em um ambiente simulado, replicando características de rede presentes na internet. Foram adotados o Total Download Time (TDT) e o Page Load Time (PLT) como métricas de análise e a execução do experimento foi realizada através de requisições de páginas web com diferentes quantidades e tamanhos de objetos. Através dos resultados obtidos, foi possível observar que apesar do protocolo HTTP/2 possuir recursos para a melhoria do carregamento de páginas Web o uso inadequado destes recursos pode causar, em determinadas configurações, degradações no carregamento das páginas. Since its standardization, the Hypertext Transfer Protocol (HTTP) has been considered the state of the art for transmission of hypertext and hypermedia files, such as audio and vídeo in an interactive way. However, 1.0 and 1.1 versions of HTTP present some weaknesses that may be optimized, such as synchronized requests, which typically slow Web pages rendering thus affecting the end user experience. Recently, the protocol was updated to the 2.0 version and received several modifications, focused mainly on improvements in the network usage. Among these improvements one can cite the addition of push, a feature that allows the server to reply to a request with more than one resource simultaneously. This work presents a performance analysis of push feature on the transport of web pages on HTTP/2 connections. Therefore, experiments were conducted on a prototype environment using Total Download Time (TDT) and Page Load Time (PLT) as metrics, and Web page requests with different amounts and sizes of objects. From the results, one can observe that despite presenting features to improve Web page load time, improper use of these HTTP/2 resources may lead, on certain conditions, to the opposite effect.
- Published
- 2016
27. Towards Improvements in resource management for content delivert networks
- Author
-
RODRIGUES, Moisés Bezerra Estrela and Sadok, Djamel Fawzi Hadj
- Subjects
P2P ,Protocolo de Tunelamento GPRS ,Redes Definidas por Software ,Discrete Event ,Software Defined Networks ,Computação em Nuvem ,GPRS Tunneling Protocol ,Cloud Computing ,Simulação de Eventos Discretos ,Redes de Distribuição de Conteúdo ,Simulation ,Content Delivery Networks - Abstract
During the last decades, the world web went from a way to connect a handful of nodes to the means with which people cooperate in search of knowledge, social interaction, and entertainment. Furthermore, our homes and workstations are not the only places where we are connected, the mobile broadband market is present and changing the way we interact with the web. According to Cisco, global network traffic will be three times higher in 2018 than it was in 2013. Real-time entertainment has been and will remain an important part of this growth. However, the internet was not designed to handle such demand and, therefore, there is a need for new technologies to overcome those challenges. Content Delivery Networks (CDN) prove to be an alternative to overcome those challenges. The basic concept is to distribute replica servers scattered geographically, keeping content close to end users. Following CDN’s popularity an increasing number of CDNs, most of them extremely localized, began to be deployed. Furthermore, Cloud Computing emerged, making software and hardware accessible as resources through well-defined interfaces. Using Cloud services, such as distributed IaaS, one could deploy complex CDNs. Despite being the best technology to scale content distribution, there are some scenarios where CDNs may perform poorly, such as flash crowd events. Therefore, we need to study content delivery techniques to efficiently accompany the ever increasing need for content contemplating new possibilities, such as growing the number of smaller localized CDNs and Cloud Computing. Examining given issues this work presents strategies towards improvements in Content Delivery Networks (CDN). We do so by proposing and evaluating algorithms, models and a prototype demonstrating possible uses of such new technologies to improve CDN’s resource management. We present P2PCDNSim, a comprehensive CDN simulator designed to assist researchers in the process of planning and evaluating new strategies. Furthermore, we propose a new dynamic Replica Placement Algorithm (RPA), based on the count of data flows through network nodes, that maintains similar Quality of Experience (QoE) while decreasing cross traffic during flash crowd events. Also, we propose a solution to improve the mobile backhaul’s replica placement flexibility based on SDN. Our experimental results show that the delay introduced by the developed module is less than 5ms for 99% of the packets, which is negligible in today’s LTE networks, and the slight negative impact on streaming rate selection is easily outweighed by the increased flexibility Durante a última década, a rede mundial de computadores evoluiu de um meio de conexão para um pequeno grupo de nós para o meio de pelo qual pessoas obtém conhecimento, interação social e entretenimento. Além disso, nossas casas e estações de trabalho não são nossos únicos pontos de acesso à rede. De acordo com a Cisco, o tráfego global da rede em 2018 será três vezes maior do que era em 2013. Entretenimento em tempo real tem sido e continuará sendo uma parte importante nesse crescimento. No entanto, a rede não foi projetada para lidar com essa demanda, portanto, existe a necessidade de novas tecnologias para superar tais desafios. Content Delivery Networks (CDN) se mostram como uma boa alternativa para superar esses desafios. Seu conceito básico é distribuir servidores de réplica geograficamente, mantendo assim o conteúdo próximo aos usuários. Seguindo sua popularidade, um número crescente de CDNs, em sua maioria locais, começaram a ser implementadas. Além disso, computação em nuvem surgiu, tornando software e hardware recursos acessíveis através de interfaces bem definidas. Os serviços na nuvem, tais como Infrastructure as a Service (IaaS) distribuídos, tornam possível a implementação de CDNs complexas. Apesar de ser a melhor tecnologia para entrega de conteúdo em termos de escalabilidade, existem cenários que ainda desafiam as CDNs, como eventos de flash crowd. Portanto, precisamos estudar estratégias de entrega de conteúdo para acompanhar de maneira eficiente o constante crescimento na necessidade por conteúdo, aproveitando também as novas possibilidade como, o crescimento de CDNs localizadas e popularização da computação em nuvem. Examinando os problemas levantados, essa tese apresenta estratégias no sentido de melhorar Content Delivery Networks (CDN). Fazemos isso propondo e avaliando algoritmos, modelos e um protótipo demonstrando possíveis usos de tais tecnologias para melhorar o gerenciamento de recursos das CDNs. Apresentamos o P2PCDNSim, um simulador de CDNs planejado para auxiliar pesquisadores no processo de planejamento e avaliação de novas estratégias. Além disso, propomos uma nova estratégia de posicionamento de réplicas dinâmica, baseada na contagem de fluxos de dados passando pelos nós, que mantém uma Quality of Experience (QoE) similar enquanto diminui tráfego entre Autonomous System (AS). Ademais, propomos uma solução baseada em Software Defined Networks (SDN) que aumenta a flexibilidade de posicionamento de servidores réplica dentro do backhaul móvel. Nossos resultados experimentais mostram que o atraso introduzido pelo nosso módulo é menor que 5ms em 99% dos pacotes transmitidos, atraso mínimo nas redes Long-Term Evolution (LTE) atuais.
- Published
- 2016
28. Desenvolvimento de plug com interface para medição de intensidade de corrente e proteção contra sobrecarga
- Author
-
RIBEIRO, Andrea Maria Nogueira Cavalcanti and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Internet das coisas - Abstract
FACEPE O acompanhamento da intensidade de corrente em um circuito elétrico residencial tem uma importância fundamental para antever defeitos e, consequentemente, falhas de equipamentos. Usualmente, a medição de corrente é realizada de forma intermitente, com uso de amperímetro portátil, por um profissional especializado para, in loco, realizar tal medição, representando um custo que não justifica o benefício do monitoramento. O objetivo principal deste trabalho é desenvolver um equipamento híbrido, que possa realizar a medição da intensidade de corrente e proteja individualmente cada carga remotamente, explorando assim a área de gerenciamento/monitoramento de corrente no âmbito da internet das coisas. Para elaborar um protótipo do medidor de corrente foi realizada uma análise comparativa de três tecnologias de transdutores (transformador de corrente, resistor shunt e efeito hall), com a finalidade de definir o melhor tipo para o medidor de corrente. Após o desenvolvimento do protótipo, foi implementada uma interface gráfica para visualização da corrente e ocorrência de sobrecargas, através de comunicação por rádio frequência subsidiada por padrões bem estabelecidos na área de internet das coisas. O sistema híbrido proposto (medição e proteção) contribuirá para atenuar/eliminar conflitos entre concessionárias e clientes, relativos às falhas no fornecimento de energia elétrica, como também para reduzir acidentes com danos materiais e pessoais no ambiente residencial. The monitoring of the current intensity in a household´s electric system is of fundamental importance to the anticipation of failures in electrical devices. Usually, current measurement is performed intermittently and in loco by a specialized professional using a portable ammeter, having a cost that is not matched by the benefit of monitoring. The main objective of this work, is to develop a hybrid device in the form of a smart plug with a user interface for data visualization, which can perform both current measurement and individual load protection remotely, exploring the fields of electrical power management and Internet of Things. During the prototyping phase of the device, a comparative analysis of three different technologies of current measuring transducers (current transformer, shunt resistor and hall effect) was performed, in order to choose the one which suits the most. After the development of the prototype, a graphic user interface was implemented, featuring remote measurement data acquisition via radio frequency, a technology well-established in Internet of Things projects. The proposed hybrid system will contribute to mitigate and, possibly, eliminate conflicts between electric companies and its clients due to failures on the electrical power supply, and will also help reduce home accidents.
- Published
- 2016
29. An adaptable storage slicing algorithm for content delivery networks
- Author
-
MOREIRA, André Luis Cavalcanti, SADOK, Djamel Fawzi Hadj, and KELNER, Judith
- Subjects
dynamic CDN ,storage slicing ,autoadaptação ,CDN dinâmica ,self-adaptation ,PaaS CDN ,divisão do armazenamento - Abstract
Several works study the performance of Content Delivery Networks (CDNs) under various network infrastructure and demand conditions. Many strategies have been proposed to deal with aspects inherent to the CDN distribution model. Though mostly very effective, a traditional CDN approach of statically positioned elements often fails to meet quality of experience (QoE) requirements when network conditions suddenly change. CDN adaptation is a key feature in this process and some studies go even further and try to also deal with demand elasticity by providing an elastic infrastructure (cloud computing) to such CDNs. Each Content Provider (CP) gets served only the amount of storage space and network throughput that it needs and pays only for what has been used. Some IaaS providers offer simple CDN services on top of their infrastructure. However, in general, there is a lack of PaaS tools to create rapidly a CDN. There is no standard or open source software able to deliver CDN as a service for each tenant through well-known managers. A PaaS CDN should be able to implement content delivery service in a cloud environment, provision and orchestrate each tenant, monitor usage and make decisions on planning and dimensioning of resources. This work introduces a framework for the allocation of resources of a CDN in a multi-tenant environment. The framework is able to provision and orchestrate multi-tenant virtual CDNs and can be seen as a step towards a PaaS CDN. A simple dot product based module for network change detection is presented and a more elaborate multi-tenant resource manager model is defined. We solve the resulting ILP problem using both branch and bound as well as an efficient cache slicing algorithm that employs a three phase heuristic for orchestration of multi-tenant virtual CDNs. We finally show that a distributed algorithm with limited local information may be also offer reasonable resource allocation while using limited coordination among the different nodes. A self-organization behavior emerges when some of the nodes reach consensus. Vários trabalhos estudam o desempenho de Redes de Distribuição de Conteúdo (CDN) em diferentes condições e demanda e de infraestrutura. Muitas estratégias têm sido propostas para lidar com aspectos inerentes ao modelo de distribuição de CDN. Embora essas técnicas sejam bastante eficazes, uma abordagem tradicional de elementos estaticamente posicionados numa CDN muitas vezes não consegue atender os requisitos de qualidade de experiência (QoE) quando as condições da rede mudam repentinamente. Adaptação CDN é uma característica fundamental neste processo e alguns estudos vão ainda mais longe e tentam lidar com a elasticidade da demanda, proporcionando uma infraestrutura elástica (computação em nuvem) para a CDN. Cada provedor de conteúdo obtém apenas a quantidade de armazenamento e de rede necessários, pagando apenas pelo efetivo uso. Alguns provedores IaaS oferecem serviços de CDN sobre suas estruturas. No entanto, em geral, não existe padrão ou softwares de código aberto capazes de entregar serviços de CDN por meio de gerenciadores. Uma CDN PaaS deve ser capaz de fornecer um serviço de entrega de conteúdo em um ambiente de nuvem, provisionar e orquestrar cada tenant, monitorar uso e tomar decisões de planejamento e dimensionamento de recursos. Este trabalho apresenta um framework para alocação de recursos de uma CDN em ambiente multi-tenant. O framework é capaz de provisionar e orquestrar CDNs virtuais e pode ser visto como um passo em direção a uma PaaS CDN. Um módulo baseado em simples produto escalar para detecção de mudanças na rede é apresentado, bem como um modelo mais elaborado de gerenciamento de recursos. Resolvemos o problema ILP resultante dessa abordagem por meio de um algoritmo de divisão de cache que emprega uma heurística em três fases para a orquestração de CDN virtuais. Por fim, mostramos uma outra abordagem com algoritmo distribuído que usa informação local e que também oferece uma alocação razoável usando coordenação limitada entre os diferentes nós. Um comportamento de auto-organização surge quando alguns desses nós chegam a um consenso.
- Published
- 2015
30. μPKI : uma infraestrutura de chave pública de baixo custo
- Author
-
LIMA, Thiago Augusto Ventura and SADOK, Djamel Fawzi Hadj
- Subjects
Segurança da informação ,Criptografia ,Autenticação - Abstract
CNPq A criptografia de chave pública desempenha um importante papel na autenticação e privacidade na internet tal qual a conhecemos. Suas aplicações incluem, por exemplo, e-commerce, internet banking, VPNs corporativas, escrituração eletrônica, identidade digital, entre outras. Todavia, a adoção de uma PKI como plataforma fundamental de segurança requer habilidades técnicas específicas, processos operacionais complexos e considerações legais importantes. Esse tipo de solução requer a construção e manutenção constante da entidade responsável por gerenciar as chaves e assinar os certificados digitais. Esta dissertação examina os desafios de construir uma estrutura de PKI de baixo custo que possua as principais funções das PKIs convencionais, sem incorrer, contanto, nos extensos requisitos técnicos e simplificando, à medida do possível, os processos operacionais necessários para gerir tal solução. Um protótipo foi construído como prova de conceito, de forma a demonstrar a exequibilidade de tal proposta. Tal protótipo faz uso da plataforma embarcada Raspberry Pi e de uma aplicação cliente-servidor para simplificar a operacionalização da μPKI. The public-key cryptography plays an important role in the authentication and data privacy of the internet as we know it. Its applications include, but are not limited to, e-commerce, internet banking, corporate VPN connectivity, electronic bookeeping, digital identity among others. Nonetheless, adopting PKI as the underlying security platform requires special technical skills, intricate operational processes as well as important legal considerations. Such solution requires building and constant maintaining of the entity responsible for key management and digital certificates signing. This dissertation examines the challenges for building a low cost PKI structure that provides the main functions of existing conventional ones, without incurring, though, in the extense technical requirements and simplifying, as much as possible, the operational processes needed to manage such solution. A proof of concept prototype has been built to demonstrate the feasibility of such endeavor. This prototype makes use of the embedded platform known as Raspberry Pi, as well as a client-server application custom built to simplify the operation of the μPKI.
- Published
- 2014
31. ARCA - Alerts root cause analysis framework
- Author
-
Melo, Daniel Araújo and Sadok, Djamel Fawzi Hadj
- Subjects
Advanced persis-tent threats ,Alerts correlation ,Intrusion detection ,Malware - Abstract
Modern virtual plagues, or malwares, have focused on internal host infection and em-ploy evasive techniques to conceal itself from antivirus systems and users. Traditional network security mechanisms, such as Firewalls, IDS (Intrusion Detection Systems) and Antivirus Systems, have lost efficiency when fighting malware propagation. Recent researches present alternatives to detect malicious traffic and malware propagation through traffic analysis, however, the presented results are based on experiments with biased artificial traffic or traffic too specific to generalize, do not consider the existence of background traffic related with local network services or demands previous knowledge of networks infrastructure. Specifically don’t consider a well-known intru-sion detection systems problem, the high false positive rate which may be responsible for 99% of total alerts. This dissertation proposes a framework (ARCA – Alerts Root Cause Analysis) capable of guide a security engineer, or system administrator, to iden-tify alerts root causes, malicious or not, and allow the identification of malicious traffic and false positives. Moreover, describes modern malwares propagation mechanisms, presents methods to detect malwares through analysis of IDS alerts and false positives reduction. ARCA combines an aggregation method based on Relative Uncertainty with Apriori, a frequent itemset mining algorithm. Tests with 2 real datasets show an 88% reduction in the amount of alerts to be analyzed without previous knowledge of network infrastructure.
- Published
- 2014
32. Avaliação e otimização de sistemas DPI com base em DFA e priorização de assinaturas
- Author
-
MELO, Wesley Davison Braga, SADOK, Djamel Fawzi Hadj, and FERNANDES, Stênio Flávio de Lacerda
- Subjects
Redes de computadores ,Gerenciamento de redes de computadores ,Classificação de tráfego - Abstract
Identificação e caracterização de tráfego são atividades relevantes no campo de gerência de redes. Objetivando uma melhor administração dos recursos disponíveis, gestores de conteúdo podem inserir componentes no núcleo da rede a fim de identificar os diferentes tipos de fluxos de pacotes que por ela trafegam. Tais objetivos variam, desde uma simples análise do perfil do tráfego até a priorização de conexões baseada em conteúdo. A fim de realizar tais atividades, a inspeção profunda de pacotes (Deep Packet Inspection, ou DPI) se apresenta como uma das técnicas mais difundidas, devido a sua precisão na classificação dos fluxos da rede. Dentre as diversas maneiras de se construir tal mecanismo, a utilização de Expressões Regulares (RE) tem uma forte aceitação, aliada a Autômatos Finitos Determinísticos (DFA). Contudo, em cenários onde seja exigido alto desempenho computacional, esses dois componentes podem se tornar um possível gargalo, quando não são corretamente utilizados. Ainda mais, a incorreta utilização desses componentes pode provocar até a perda de pacotes pelo sistema DPI, acarretando no total fracasso da classificação do tráfego. Dessa forma, este trabalho apresenta uma avaliação da combinação dos principais componentes de um DPI e o impacto de escolhas inadequadas no desempenho do sistema. Além disso, é proposta uma modificação em um componente importante, e negligenciado, do sistema DPI: a ordenação da lista de assinaturas. Por fim, serão fornecidos indicativos de como a utilização das técnicas propostas em conjunto permitem que os ganhos sejam maximizados. Traffic Identification and characterization are relevant activities in the field of network management. Aiming a better administration of the available resources, content managers can insert some probes in the core of a network in order to identify the different packet flows passing through. These goals vary from a simple analysis of the traffic profile by prioritizing connections based on content. In order to perform such activities, Deep Packet Inspection (DPI) is one of the most used techniques, due to its precision when classifying network flows. Among the various ways to build such a mechanism, the utilization of Regular Expressions (RE) has a strong acceptance, coupled with Deterministic Finite Automata (DFA). However, in scenarios where high computational performance is required, these two components can become a potential bottleneck, when not properly used. Further, the improper use of these components can lead to packet loss by DPI system, resulting in total failure of the traffic classification. Thus, this work presents an evaluation of the combination of the main components of a DPI and the impact of poor choices in system performance. Further, we propose a modification on an important component, and neglected in the DPI system: the ordering on the list of signatures. Finally, it is provided indicatives of how the use of proposed techniques in conjunction allows the maximization of the gains.
- Published
- 2014
33. An architecture for virtual networks defined by software embedding in data center networks
- Author
-
Raphael Vicente Rosa, Madeira, Edmundo Roberto Mauro, 1958, Sadok, Djamel Fawzi Hadj, Fonseca, Nelson Luis Saldanha da, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Architecture of computer networks ,Redes de computadores ,Networks virtualization ,Virtualização de redes ,Centros de processamento de dados ,Computer networks ,Data processing service centers - Abstract
Orientador: Edmundo Roberto Mauro Madeira Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Atualmente provedores de infraestrutura (Infrastructure Providers - InPs) alocam recursos virtualizados, computacionais e de rede, de seus data centers para provedores de serviços na forma de data centers virtuais (Virtual Data Centers - VDCs). Almejando maximizar seus lucros e usar de forma eficiente os recursos de seus data centers, InPs lidam com o problema de otimizar a alocação de múltiplos VDCs. Mesmo que a alocação de máquinas virtuais em servidores seja feita de maneira otimizada por diversas técnicas e algoritmos já existentes, aplicações de computação em nuvem ainda tem o desempenho prejudicado pelo gargalo do subaproveitamento de recursos de rede, explicitamente definidos por limitações de largura de banda e latência. Baseado no paradigma de Redes Definidas por Software, nós aplicamos o modelo de rede como serviço (Network-as-a-Service - NaaS) para construir uma arquitetura de data center bem definida para dar suporte ao problema de aprovisionamento de redes virtuais em data centers. Construímos serviços sobre o plano de controle da plataforma RouteFlow os quais tratam a alocação de redes virtuais de data center otimizando a utilização de recursos da infraestrutura de rede. O algoritmo proposto neste trabalho realiza a tarefa de alocação de redes virtuais, baseado na agregação de informações de um plano virtual executando o protocolo BGP eficientemente mapeado a uma topologia física de rede folded-Clos definida por \textit{switches} com suporte a OpenFlow 1.3. Em experimentos realizados, mostramos que o algoritmo proposto neste trabalho realiza a alocação de redes virtuais de data center de forma eficiente, otimizando o balanceamento de carga e, consequentemente, a utilização de recursos da infraestrutura de rede de data centers. A estratégia de alocação de largura de banda utilizada demonstra flexibilidade e simplicidade para atender a diferentes padrões de comunicação nas redes virtuais ao mesmo tempo que permite elasticidade ao balanceamento de carga na rede. Por fim, discutimos como a arquitetura e algoritmo propostos podem ser estendidos para atender desempenho, escalabilidade, e outros requisitos de arquiteturas de redes de data center Abstract: Nowadays infrastructure providers (InPs) allocate virtualized resources, computational and network, of their data center to service providers (SPs) in the form of virtual data centers (VDCs). Aiming maximize revenues and thus efficiently use the resources of their virtualized data centers, InPs handle the problem to optimally allocate multiple VDCs. Even if the allocation of virtual machines in servers can be made using well known techniques and algorithms already existent, cloud computing applications still have performance limitations imposed by the bottleneck of network resources underutilization, which are explicitly defined by bandwidth and latency constraints. Based on Software Defined Network paradigm we apply the Network-as-a-Service model to build a data center network architecture well-suited to the problem of virtual networks embedding. We build services over the control plane of the RouteFlow platform that perform the allocation of virtual data center networks optimizing the utilization of network infrastructure resources. This task is performed by the algorithm proposed in this dissertation, which is based on aggregated information from a virtual routing plane using the BGP protocol and a folded-Clos physical network topology based on OpenFlow 1.3 devices. The experimental evaluation shows that the proposed algorithm performs efficient load balancing on the data center network and altogether yields better utilization of the physical resources. The proposed bandwidth allocation strategy exhibits simplicity and flexibility to attend different traffic communication patterns while yielding an elastic load balanced network. Finally, we argue that the algorithm and the architecture proposed can be extended to achieve performance, scalability and many other features required in data center network architectures Mestrado Ciência da Computação Mestre em Ciência da Computação
- Published
- 2014
34. Framework pronet: suporte ao desenvolvimento de soluções para gerenciamento de redes utilizando semântica
- Author
-
Oliveira, Luciana Pereira and Sadok, Djamel Fawzi Hadj
- Subjects
Redes programáveis ,Mecanismos semânticos ,Gerenciamento de redes ,Extração e compartillhamento de informações ,Políticas ,Inteligência de redes - Abstract
A evolução das redes de computadores apresenta cenários em diversos contextos (por exemplo, consumo de energia, mobilidade, operadora virtual e balanceamento de carga) que requerem mecanismos mais flexíveis e inteligentes para lidar com a complexidade e coexistência de diferentes protocolos, bem como para automatizar a maioria das tarefas administrativas e atingir um mínimo de intervenção humana. Por isso, o objetivo desta tese é o projeto, desenvolvimento e avaliação de um framework que integra mecanismos para automatizar tarefas administrativas e auxiliar o desenvolvimento de soluções de gerenciamento de redes. Trabalhou-se com a ideia de que apenas o uso de políticas (regras administrativas codificadas em condições e ações) não é suficiente para gerenciar de maneira flexível as redes de computadores e que, para a definição das políticas, dois passos anteriores devem ser realizados: a extração de dados significativos da rede de maneira distribuída e a associação dos dados a fim de expressar significados a serem utilizados na descrição das políticas. Além disso, o ambiente deve ser constituído de elementos reconfiguráveis por políticas, ou seja, redes flexíveis e adaptáveis como as redes programáveis. Partindo disso, verificou-se que os trabalhos relacionados a esse contexto permitem identificar a conveniência de propor um framework que contenha três principais mecanismos: (a) extração de informações da rede de maneira colaborativa; (b) construção de conhecimento através da associação semântica das informações extraídas; (c) e mapeamento da semântica em políticas para redes programáveis. O principal desafio da tese consiste na especificação dos pontos de integração dos mecanismos do framework, de forma que este não esteja restrito a um único tipo de solução composta por específico dispositivo programável e algoritmo de extração. Por isso, nesta integração foi proposto um algoritmo colaborativo para lidar com qualquer tipo de algoritmo de extração de informações a ser executado de maneira distribuída, por meio de interação com dois tipos plugins (EPluggin e PPlugin) e ontologia em OWL para descrever informações de redes de computadores. O EPlugin extrai um conhecimento específico (por exemplo, tráfego capturado) e o PPlugin mapea informações semânticas em comandos específico de uma determinada rede a ser gerenciada (por exemplo, uma rede sem fio no simulador OMNeT++ ou rede OpenFlow). As avaliações do framework apresentaram os benefícios e as limitações do ProNet em termos qualitativos e quantitativos. Foram utilizados cenários de rede local e backbone para demonstrar a flexibilidade no desenvolvimento de soluções, escalabilidade e uso de informações distintas. A avaliação qualitativa do ProNet demonstrou suas vantagens em relação à extensibilidade, à reusabilidade, ao controle de rede e à automatização da configuração de equipamentos. As avaliações quantitativas apresentaram o custo e desempenho do ProNet para gerenciar uma rede. Em termos de restrições do ProNet, é importante controlar o número de condições a serem utilizadas na inferência. Por outro lado, essa não é uma grande restrição, porque o algoritmo colaborativo evita que cada dispositivo tenha um grande número de regras desnecessárias, sendo executadas constantemente. Além disso, foi possível verificar que, apesar dos custos de desempenho para realizar processamento de mensagens de controle, traduções e inferência, o ProNet fornece benefícios para postergar o auxílio do administrador no controle da rede.
- Published
- 2013
35. Otimização do consumo de energia em redes de comunicação de rádio via cooperação multicélulas
- Author
-
Nascimento, Roberto Pereira do, Sadok, Djamel Fawzi Hadj, and Fernandes, Stênio F. L.
- Subjects
Redes Sem Fio ,Programação Linear Inteira Mista ,Economia de energia - Abstract
O crescimento exponencial da carga de tráfego e a necessidade de acesso ubíquo provocaram uma expansão da infraestrutura de rede e um rápido crescimento na demanda do consumo de energia. Portanto, os operadores de redes de telecomunicações móveis têm de encontrar formas de atender essa nova demanda de recursos, enquanto otimiza os custos de energia. A redução do consumo de energia na estação base pode ser alcançada via ambiente de rede cooperativa explorando a flutuação da carga de tráfego. Dessa forma, é possível alternar o modo de operação da estação base (BS). Em um conglomerado de tecnologias de acesso sem fio pode ocorrer vários handovers e o desempenho em termos de eficiência de energia e probabilidade de bloqueio na estação base, pode ser seriamente prejudicado se os recursos não forem alocados adequadamente, assim são adotados critérios para realização do handover. Diante da importância de reduzir o consumo de energia nas RSFs, tem-se este tema como foco principal deste trabalho. Além da confecção de um modelo baseado em programação linear inteiro misto (PLIM) para otimizar o consumo de energia nas redes sem fio, dado um ambiente de rede colaborativo, um estudo é realizado buscando avaliar o impacto da cooperação das redes e da proporcionalidade existente entre os tamanhos de áreas de coberturas, na otimização do consumo de energia.
- Published
- 2013
36. Classificação de tráfego baseado em mineração de fluxos de dados
- Author
-
Lopes Junior, Petrônio Gomes and Sadok, Djamel Fawzi Hadj
- Subjects
Mineração de fluxos de dados ,Aprendizagem de máquina ,Classificação de tráfego ,Unidade de Processamento Gráfico - Abstract
Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco Existem diversos tipos de aplicações de redes de computadores que produzem diferentes perfis de tráfego. Para aperfeiçoar o desempenho destas aplicações ou da rede em que elas estão incluídas, é interessante fazer medições e caracterizações do tráfego gerado por elas. Nesse contexto, existem várias formas para classificação de tráfego como técnicas baseadas em portas, técnicas baseadas em inspeção de pacotes e técnicas baseadas em fluxos. De acordo com o cenário em que será aplicada, cada uma das técnicas apresenta vantagens e desvantagens. Adicionalmente, a classificação tem que lidar com restrições de tempo, sendo capaz de tratar os dados em tempo real. Um possível método a ser utilizado é a classificação de tráfego baseada em fluxos utilizando aprendizagem de máquina. No entanto, é notório que, quando se fala na classificação de fluxos usando aprendizagem de máquina, a caracterização de tráfego ainda necessita de uma abordagem que seja capaz de fornecer uma forma adaptativa de treinamento além de equilibrar precisão e desempenho em um cenário de fluxo contínuo de dados. Este trabalho apresenta um algoritmo voltado para classificação do tráfego baseado em técnicas de mineração de fluxos de dados aplicado a redes de alta velocidade, denominado GSDT (GPU-based Streaming Decision Tree), além de um arcabouço para sua aplicação. Esse algoritmo visa combinar a precisão das árvores de decisão tradicionais com as características da mineração de fluxos de dados. O GSDT também explora o potencial computacional fornecido por uma unidade de processamento gráfico. O arcabouço proposto alia treinamento e classificação, a fim de obter ganhos no desempenho da utilização do algoritmo em um ambiente real. Os experimentos realizados avaliam a precisão do GSDT em relação às técnicas tradicionais e o desempenho das abordagens propostas, demonstrando a viabilidade da aplicação do GSDT nos cenários considerados e a alta performance obtida através da unidade de processamento gráfico
- Published
- 2012
37. Cache strategies for internet-based video on-demand distribution
- Author
-
Moreira, Josilene Aires and Sadok, Djamel Fawzi Hadj
- Subjects
Video on-Demand distribution ,Multimedia traffic ,Cache replacement algorithms ,Algoritmos de substituição de cache ,Distribuição de Vídeo sob-Demanda ,Tráfego Multimídia - Abstract
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Aires Moreira, Josilene; Fawzi Hadj Sadok, Djamel. Cache strategies for internet-based video on-demand distribution. 2011. Tese (Doutorado). Programa de Pós-Graduação em Ciência da Computação, Universidade Federal de Pernambuco, Recife, 2011.
- Published
- 2011
38. HTR Heterogeneous Routing Protocol, um protocolo de roteamento para redes ad hoc heterogêneas
- Author
-
AMORIM, Rodrigo Diego Melo and SADOK, Djamel Fawzi Hadj
- Subjects
Redes ad hoc ,NS-3 ,Roteamento ,MANET ,Simulação - Abstract
Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco A popularidade de dispositivos móveis como meio de comunicação tem crescido nos últimos anos devido à facilidade de uso, custo e as mais variadas tecnologias. O aumento no número dessas opções como WiFi, Bluetooth ou até mesmo rede de telefonia móvel permitem uma maior conectividade desses dispositivos móveis na rede. Determinadas tarefas, como compartilhamento de stream de vídeo, implicam diferentes requisitos, o que pode requerer diferentes tecnologias de rede. Nos cenários de emergência, que incluem operações militares, força-tarefa para desastres e grupos de busca e resgate, onde se pressupõe a ausência de infraestrutura, o uso de redes sem fio e a permanente conectividade podem ser requisitos essenciais para realização de algumas tarefas. Para tanto o uso de um protocolo de roteamento que seja adequado a esse ambiente é de fundamental importância. Este trabalho faz um estudo comparativo de um novo protocolo de roteamento para redes heterogêneas ad hoc, chamado Heterogeneous Routing Protocol ou simplesmente HTR, focado em cenários de emergência, com um dos protocolos de roteamento para redes ad hoc mais usado, o OLSR. A fim de fazer uma análise robusta e escalável, o protocolo HTR foi implementado no simulador NS-3 e comparado ao OLSR através de métricas como taxa de entrega, atraso, pacotes perdidos, entre outros
- Published
- 2011
39. Análise de Tráfego de Rede Auxiliado por Processadores Gráficos
- Author
-
CARVALHO JUNIOR, Ademir Jose de and SADOK, Djamel Fawzi Hadj
- Abstract
Redes de Computadores constituem um elemento de grande relevância para o avanço tecnológico da sociedade em geral. É dever dos administradores das grandes redes presentes em nosso cotidiano mantê-las livres de problemas, para evitar prejuízos aos usuários e às organizações envolvidas. Neste contexto, ferramentas capazes de monitorar as redes e fornecer informações através da análise do tráfego da rede são bastante úteis. Porém, com o aumento da velocidade das redes atuais para a ordem dos gigabits por segundo, algumas destas ferramentas não conseguem lidar com tamanha vazão de dados. Para resolver este problema, pesquisadores da área de redes de computadores vêm estudando técnicas alternativas para lidar com a alta vazão dos enlaces de redes atuais. Algumas das novas soluções empregam hardwares especiais como Network Processors, Field Programmable Gate Arrays (FPGAs) e até mesmo as modernas e poderosas unidades de processamento gráficas (GPUs). Dentre as tecnologias citadas, as GPUs se destacam pelo seu alto poder de processamento, menor custo e fácil programação. De olho neste nicho de pesquisa, este trabalho propõe uma nova metodologia, baseada na utilização de GPUs, para o monitoramento do tráfego de redes de computadores e fornecimento de informações de suporte para a administração da rede. Um protótipo capaz de realizar análises como o volume de tráfego entre hosts e a velocidade do tráfego foi desenvolvido utilizando a plataforma CUDA, uma das principais plataformas de programação para GPUs. Testes estatísticos foram aplicados no intuito de comparar o protótipo com uma implementação similar que não utiliza GPUs. Os resultados mostraram um ganho significativo de desempenho no processamento do tráfego
- Published
- 2011
40. Um esquema para agregação e priorização de alertas de múltiplas origens
- Author
-
Lins, Bruno Filipe de Oliveira and Sadok, Djamel Fawzi Hadj
- Subjects
Agregação ,Alertas ,Priorização ,IDMEF ,Soluções colaborativas - Abstract
Conselho Nacional de Desenvolvimento Científico e Tecnológico O uso de soluções colaborativas tem se tornado cada vez mais comum e eficiente na detecção de ataques, intrusões e anomalias. Entretanto, devido a sua aplicabilidade, tipicamente em enlaces de alta velocidade, grandes backbones, entre outros, essas soluções se deparam com a obrigatoriedade de processar enormes quantidades de alertas, produzidos pelos mais diferentes tipos de detectores. O objetivo deste trabalho é avaliar o problema da agregação e priorização de alertas em sistemas de detecção colaborativa e propor uma solução capaz de manipular grandes volumes de dados (alertas) gerados no processo de detecção de ataques, intrusões e anomalias, e extrair os mais significantes, de acordo com uma heurística estabelecida, para análise e processamentos, minimizando os custos computacionais, sem que haja perdas relevantes na precisão da detecção. Visando avaliar o desempenho e eficiência da solução proposta, foram executados testes em ambiente controlado com uso da base de dados DARPA 2000 e trafego real e seus resultados discutidos e comparados com soluções semelhantes
- Published
- 2011
41. Proposal of a strategy for monitoring and management of virtual networks based on open standard openflow
- Author
-
Damalio, Douglas Brito and Sadok, Djamel Fawzi Hadj
- Subjects
Virtual networks ,Monitoring ,Virtual interfaces ,Virtual switches ,Libvirt ,NOX ,Virtual machines ,OpenvSwitch ,KVM ,Openflow ,Management - Abstract
Conselho Nacional de Desenvolvimento Científico e Tecnológico Este trabalho apresenta uma proposta para gerenciamento e monitoramento de redes virtuais através da adaptação do Nagios, uma ferramenta de gerência e monitoramento amplamente utilizada em datacenters por administradores de rede. Esta adaptação foi implementada através da criação de um plug-in que coleta dados relevantes de switches virtuais realizando inferências de estados de disponibilidade destes switches. Para verificação da usabilidade do plug-in, foi criada uma rede virtual utilizando o software de padrão aberto Openflow e OpenvSwitch em conjunto com o NOX, além da criação de máquinas virtuais sobre o virtualizador KVM com o auxílio da biblioteca libvirt para criação das máquinas virtuais e interfaces virtuais
- Published
- 2011
42. Qualidade de transmissão de vídeo stream sobre UDP
- Author
-
Hirose, Edson Kazuo and Sadok, Djamel Fawzi Hadj
- Subjects
Seleção de Caminhos ,Video Streaming ,GOP ,UDP - Abstract
A popularização do serviço de Internet e a redução de custo facilitaram o acesso de usuários a diversos provedores de conteúdo, sejam estes baseados em voz, vídeo ou qualquer outro recurso de multimídia. Consequentemente aumentam os benefícios de ter uma rede de comunicações de melhor resiliência, pois quando uma conexão falha os dados podem fluir por conexões alternativas, reduzindo a probabilidade de perdas de pacotes e falhas na transmissão. Dessa forma, abre-se um novo cenário de estudo que tem a intenção de verificar e propor melhoras em formas de uso dos protocolos de comunicação que tenham o objetivo de tornar confiável a escolha dos melhores caminhos de transmissão para cada tipo de conteúdo. Para a transmissão de stream de vídeo, a escolha do protocolo de transporte é tão importante quanto a escolha de algoritmos e estruturas de dados em relação à aplicação rede. O estudo do desempenho de protocolos de rede de transportes é essencial para o desenvolvimento de protocolos tolerantes a falhas. A avaliação de políticas combinado com o caminho de transmissão, e os limiares de detecção de falhas, largura de banda, atrasos e perda de vazão são avaliados através da simulação dos diferentes protocolos de transmissão utilizado. O comportamento dos protocolos são verificados, comparando o tráfego considerando caminhos alternativos simétricas e assimétricas. O protocolo escolhido para o estudo é o UDP, devido à sua popularidade e sua tolerância a perda. Mostramos neste estudo que a configuração do tamanho do GOP (Group Of Picture) e a utilização correta do tamanho do Frame do UDP podem contribuir para uma transmissão de Vídeo Stream com melhor qualidade utilizando-se dos recursos de conexões disponíveis (seleção de caminhos) na rede
- Published
- 2011
43. Semi-automated service creation for cloud computing
- Author
-
AZEVÊDO, Ernani Madureira de and SADOK, Djamel Fawzi Hadj
- Subjects
Service ,Templates ,Creation ,Cloud computing ,Patterns - Abstract
Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco Atualmente, os computadores vêm experimentando um aumento de capacidades, apesar de passarem por constante miniaturização e ganho de mobilidade. Em paralelo, a velocidade e a confiabilidade das conexões evoluem a passos largos. Para explorar esta nova relação entre comunicação em rede e processamento foi desenvolvido o conceito de computação em nuvem, na qual os serviços são oferecidos através de uma rede difusa e os consumidores destes não têm ciência de como os provedores realizam suas atividades. Devido à natureza heterogênea deste paradigma de provisão e consumo, a descrição e criação desta categoria de serviços têm sua dificuldade aumentada, visto que os produtos de diversos domínios devem funcionar sobre plataformas não padronizadas e ser oferecidos a consumidores diversos de forma direta, contudo mantendo sua funcionalidade. O uso de padrões é uma solução bastante difundida nos mais diversos ramos de criação de processos, pois prega o reuso de trabalho de desenvolvimento, dando um suporte histórico a cada novo processo criado a partir de um padrão. Este trabalho propõe uma forma de acelerar o desenvolvimento e a implantação de serviços para computação em nuvem através da divisão da criação em três etapas. As etapas relacionadas à criação são semiautomatizadas pelo uso de padrões de projeto e de desenvolvimento, enquanto a etapa de implantação é totalmente automatizada pelo uso de moldes de compilação
- Published
- 2010
44. Inter domain negotiation
- Author
-
Gomes, Reinaldo Cézar de Morais and Sadok, Djamel Fawzi Hadj
- Subjects
Inter-domain communication ,Dynamic networks ,Policies ,Negotiation ,Self-configuration - Abstract
Universidade Federal de Campina Grande Nos últimos anos diversas tecnologias foram desenvolvidas com o objetivo de facilitar a interação entre os usuários e seus dispositivos e melhorar a comunicação entre eles, necessitando da interoperabilidade entre essas tecnologias e, consequentemente, a necessidade de uma nova infraestrutura de rede que permita uma melhor adaptação aos novos requisitos criados por esta diversidade de tecnologias. O modelo de comunicação entre redes também está sendo modificado, uma vez que é esperado que elas sejam criadas dinamicamente para facilitar a utilização da rede pelos usuários e permitir que diversas operações sejam realizadas automaticamente (endereçamento, descoberta de serviços, etc.). Essas redes devem estar presentes em diversos cenários de comunicação e um dos seus principais desafios é permitir que diversos tipos de tecnologias cooperem em ambientes com alto dinamismo e heterogeneidade. Estas redes têm como objetivo interconectar diferentes tecnologias e domínios oferecendo uma comunicação que aparente ser homogêneo para os seus usuários. Para a criação dessas futuras redes dinâmicas pontos chaves são a interconexão e a cooperação entre as tecnologias envolvidas, o que exige o desenvolvimento de soluções para garantir que novos requisitos sejam suportados. Para permitir que novos requisitos sejam corretamente suportados, um conjunto de mecanismos para controlar a descoberta automática de recursos e realizar a sua configuração é proposto, permitindo que redes sejam criadas e adaptadas de maneira completamente automática. Também é proposto um mecanismo de negociação de políticas inter-domínio responsável por descobrir e negociar novos recursos que dever ser usados pelas redes, o que traz um novo modelo de comunicação baseado na criação oportunista de redes e ao mesmo tempo permite a criação de novos acordos de comunicação entre domínios administrativos de maneira dinâmica e sem a intervenção dos usuários ou dos administradores das redes
- Published
- 2010
45. SooA: Self-organization of addresses protocol for supporting autoconfiguration in autonomous networks
- Author
-
Schmidt, Ricardo de Oliveira and Sadok, Djamel Fawzi Hadj
- Subjects
Future generation of networks ,Autonomous network ,Addressing ,Autoconfiguration ,Simulation - Abstract
Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco Intercomunicação na próxima geração de redes de comunicação (NGN) é baseada nos conceitos de sistemas autônomos. As idéias de Computação Ubíqua estão próximas da realidade à medida que as tecnologias de redes e telecomunicações estão rapidamente convergindo para a automação. Podemos observar que o crescimento de comunicações sem fio resultou em uma rápida evolução desses sistemas, de redes infra-estruturadas a redes ad-hoc. Tecnologias de computação Pervasiva vêm para apoiar esse conceito, com o principal objetivo de permitir que usuários se conectem as redes sem necessitar de configuração manual e operar de forma transparente e suave . Tecnologias para a automação de sistemas devem abranger todas as camadas da arquitetura de redes e operar de modo cooperativo entre elas. Tecnologias de auto-configuracao vão desde a configuração básica e composição da rede até o nível de aplicações. Podemos considerar que endereçamento é um dos processos fundamentais ao configurar e iniciar uma rede. Endereçamento adequado provê os nós com identificação válida, que será utilizada, por exemplo, para roteamento e operações de segurança. Sendo que esta é uma área relativamente nova, grupos de pesquisa da indústria e academia têm desenvolvido orientações (guidelines) para endereçamento em redes autônomas. Algumas soluções já foram propostas. Mas, devido suas peculiaridades, elas têm aplicabilidade bastante limitada. Essa dissertação tem como objetivo apresentar um protocolo de endereçamento em sistemas de redes autônomas. Esse protocolo é parte de um projeto maior no contexto de redes auto-configuráveis e auto-gerenciáveis, que é liderado pela Ericsson Research Labs. Experimentos também foram conduzidos com o protocolo proposto para avaliar seu desempenho e, através de comparações com outras soluções de endereçamento, validar suas funcionalidades básicas
- Published
- 2010
46. DNCP: dynamic node configuration protocol
- Author
-
ASCHOFF, Rafael Roque and SADOK, Djamel Fawzi Hadj
- Subjects
Auto-configuration ,Manet ,Addressing ,Ad hoc ,Addresses allocation - Abstract
Conselho Nacional de Desenvolvimento Científico e Tecnológico Rede Móvel Ad Hoc (MANET) é uma rede sem fio onde os nós podem se mover livremente e formar, dinamicamente, topologias de rede temporárias e arbitrárias sem qualquer controle centralizado ou infra-estrutura de comunicação estabelecida previamente. Nestas redes, os nós agem de maneira cooperativa, encaminhando pacotes uns aos outros, de forma a possibilitar a comunicação entre pares de nós que se encontram fora do alcance direto de transmissão sem fio. Nos últimos anos, as pesquisas direcionadas à MANETs têm recebido grande atenção do governo, academia e indústria. Contudo, ainda existem algumas questões em aberto relativas à implantação de MANETs que impedem o desenvolvimento de aplicações reais e difusão das mesmas. O avanço das pesquisas nesta área poderia melhorar o desempenho atual no uso destas redes, bem como propiciar o surgimento de novos campos de aplicação. Além disso, ainda existe um grande potencial econômico a ser explorado no que se refere ao uso de redes móveis ad hoc. Um dos principais desafios relativos à implantação de MANETs é a configuração adequada dos endereços de rede. Tais endereços precisam ser únicos dentro do mesmo domínio de roteamento, ou em outras palavras, um MANET não deve conter dois dispositivos configurados com o mesmo endereço de rede. A configuração estática dos nós ad hoc não é viável devido à natureza dinâmica destas redes, e esquemas tradicionais desenvolvidos para as redes infraestruturadas não são adequados. Estas questões motivaram algumas pesquisas destinadas à permitir que os nós se configurarem sem intervenção humana, resultando em uma série de métodos para configuração automática de endereços. Estas soluções, no entanto, apresentam uma série de limitações, relacionadas principalmente à aplicabilidade em cenários restritos ou introdução elevada de sobrecarga na rede. Este trabalho apresenta um método escalável e eficiente para alocação e organização do espaço de endereçamento em redes móveis ad hoc. Uma revisão bibliográfica dos trabalhos existentes é apresentada, considerando as vantagens e limitações de cada um. Por fim, o trabalho apresenta uma avaliação preliminar do método proposto, considerando diferentes cenários e métricas
- Published
- 2010
47. An orchestration approach for unwanted internet traffic identification
- Author
-
FEITOSA, Eduardo Luzeiro and SADOK, Djamel Fawzi Hadj
- Subjects
Unwanted Internet Traffic ,Frequent Episodes Discovery ,Orchestration ,Alert Correlation ,WIRSS - Abstract
Universidade Federal do Amazonas Um breve exame do atual tráfego Internet mostra uma mistura de serviços conhecidos e desconhecidos, novas e antigas aplicações, tráfego legítimo e ilegítimo, dados solicitados e não solicitados, tráfego altamente relevante ou simplesmente indesejado. Entre esses, o tráfego Internet não desejado tem se tornado cada vez mais prejudicial para o desempenho e a disponibilidade de serviços, tornando escasso os recursos das redes. Tipicamente, este tipo de tráfego é representado por spam, phishing, ataques de negação de serviço (DoS e DDoS), vírus e worms, má configuração de recursos e serviços, entre outras fontes. Apesar dos diferentes esforços, isolados e/ou coordenados, o tráfego Internet não desejado continua a crescer. Primeiramente, porque representa uma vasta gama de aplicações de usuários, dados e informações com diferentes objetivos. Segundo, devido a ineficácia das atuais soluções em identificar e reduzir este tipo de tráfego. Por último, uma definição clara do que é não desejado tráfego precisa ser feita. A fim de solucionar estes problemas e motivado pelo nível atingido pelo tráfego não desejado, esta tese apresenta: 1. Um estudo sobre o universo do tráfego Internet não desejado, apresentado definições, discussões sobre contexto e classificação e uma série de existentes e potencias soluções. 2. Uma metodologia para identificar tráfego não desejado baseada em orquestração. OADS (Orchestration Anomaly Detection System) é uma plataforma única para a identificação de tráfego não desejado que permite um gerenciamento cooperativa e integrado de métodos, ferramentas e soluções voltadas a identificação de tráfego não desejado. 3. O projeto e implementação de soluções modulares integráveis a metodologia proposta. A primeira delas é um sistema de suporte a recuperação de informações na Web (WIRSS), chamado OADS Miner ou simplesmente ARAPONGA, cuja função é reunir informações de segurança sobre vulnerabilidades, ataques, intrusões e anomalias de tráfego disponíveis na Web, indexá-las eficientemente e fornecer uma máquina de busca focada neste tipo de informação. A segunda, chamada Alert Pre- Processor, é um esquema que utilize uma técnica de cluster para receber múltiplas fontes de alertas, agregá-los e extrair aqueles mais relevantes, permitindo correlações e possivelmente a percepção das estratégias usadas em ataques. A terceira e última é um mecanismo de correlação e fusão de alertas, FER Analyzer, que utilize a técnica de descoberta de episódios frequentes (FED) para encontrar sequências de alertas usadas para confirmar ataques e possivelmente predizer futuros eventos. De modo a avaliar a proposta e suas implementações, uma série de experimentos foram conduzidos com o objetivo de comprovar a eficácia e precisão das soluções
- Published
- 2010
48. Análise de tráfego de redes 3G/HSPA
- Author
-
Melo, Emilio Honorio de and Sadok, Djamel Fawzi Hadj
- Subjects
Operadora móvel brasileira comercial ,Tráfego de dados ,HSPA ,3G ,IuPS - Abstract
Nos últimos anos, as operadoras de telefonia móvel estão investindo na implantação e expansão de suas redes de terceira geração 3G/HSPA. O volume de tráfego de dados dessas redes crescem a taxas elevadas, o que demanda altos investimentos e celeridade no incremento por mais capacidade, exigindo das operadoras a racionalização de seus recursos, para garantir um grau de serviço adequado aos seus clientes e o aprimoramento no conhecimento dessas redes. Atualmente, este processo de racionalização é norteado por métricas tradicionais geradas pelos sistemas de gerenciamento e monitoramento de rede das operadoras (Operation SubSystem - OSS). Porém, o conhecimento da composição do tráfego de dados na rede 3G pode oferecer maiores detalhes e informações complementares para ações de dimensionamento e aferições da rede e o planejamento de políticas para os seus usuários de uma maneira mais precisa. No entanto, o potencial das informações extraídas de amostras de tráfego de pacotes na rede 3G ainda não foi devidamente investigado. Este trabalho objetiva realizar uma análise do comportamento de tais redes, através de coleta de dados numa interface IuPS e também de medições disponíveis no OSS de uma operadora móvel comercial brasileira. A partir dessa análise, fornecemos meios de se conhecer o perfil de seus usuários e um conjunto de métricas que proporcionem um melhor entendimento de seu funcionamento. Tais métricas assumem um papel de destaque nas tomadas de decisões gerenciais nas áreas técnica e comercial
- Published
- 2010
49. Compact forwarding : a probabilistic approach to packet forwarding in content-oriented networks
- Author
-
Christian Rodolfo Esteve Rothenberg, Magalhães, Mauricio Ferreira, 1951, Sadok, Djamel Fawzi Hadj, Madeira, Edmundo Roberto Mauro, Rezende, Jose Ferreira de, Cardozo, Eleri, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Estruturas de dados (Computação) ,Redes de computadores ,Algoritmos ,Probabilidades ,Comutação por pacotes (Transmissão de dados) ,Computer networking ,Packet switiching ,Probability theory ,Data structures (Computer) ,Algorithms - Abstract
Orientador: Mauricio Ferreira Magalhães Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Esta tese introduz um novo conceito para as redes de conteúdo denominado compact forwarding. Este conceito traduz-se na utilização de técnicas probabilísticas no plano de encaminhamento onde o espaço de identificação não é mais relacionado a um host final, mas sim, à identificação de conteúdo(s). A essência do conceito originou-se de uma questão básica, qual seja, onde deve ser colocado o estado associado ao encaminhamento do pacote? Nos elementos de rede ou no cabeçalho do pacote? A tese propõe duas soluções que representam estes extremos, SPSwitch, na qual o estado é colocado nos elementos de rede e, LIPSIN, onde o estado é colocado no cabeçalho do pacote. O denominador comum a essas soluções consiste na utilização de técnicas probabilísticas inspiradas no Bloom filter como elemento base das decisões de encaminhamento. A utilização de estruturas de dados derivadas do Bloom filter traz um custo adicional necessário à minimização dos erros associados à utilização de uma estrutura probabilística. A tese contribui com várias técnicas para redução desses erros incluindo a análise dos custos associados. Cenários de aplicação são apresentados para validação das propostas discutidas no trabalho Abstract: This thesis introduces the concept of compact forwarding in the field of content-oriented networks. The main idea behind this concept is taking a probabilistic approach to the problem of packet forwarding in networks centered on content identifiers rather than traditional host addresses. The fundamental question explored is where to place the packet forwarding state, in network nodes or in packet headers? Solutions for both extremes are proposed. In the SPSwitch, approximate forwarding state is kept in network nodes. In LIPSIN, the state is carried in the packets themselves. Both approaches are based on probabilistic packet forwarding functions inspired by the Bloom filter data structure. The approximate forwarding state comes at the cost of additional considerations due to the effects of one-sided error-prone data structures. The thesis contributes with a series of techniques to mitigate the false positive errors. The proposed compact forwarding methods are experimentally validated in several practical networking scenarios Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2010
50. Estudo e avaliação de redes convergentes de voz
- Author
-
CABRAL, Fabrício Barros and SADOK, Djamel Fawzi Hadj
- Subjects
Avaliação de Desempenho ,Convergência ,Voz sobre IP ,Conferência ,Skype ,Qualidade de Voz - Abstract
A telefonia convencional é uma tecnologia que permite que pessoas possam, através da fala, se comunicar à distância. Esta tecnologia é basicamente composta pela rede de telefonia pública (PSTN) e por diversos equipamentos, dentre eles o telefone. Com a popularização da Internet, vislumbrou-se a capacidade de utilizar esta rede para efetuar chamadas telefônicas, de maneira semelhante ao sistema de telefonia convencional. A partir de então foi desenvolvida a tecnologia de voz sobre IP (VoIP), que adota um conjunto de técnicas e protocolos permitindo que a voz humana possa se propagar através de uma rede de comutação de dados, como a Internet. Esta tecnologia apresenta diversas vantagens, como a redução dos custos, flexibilidade e o desenvolvimento e agregação de novos serviços. Dentre estes novos serviços, este trabalho foca os serviços de conferência e de convergência entre redes. O serviço de conferência é a capacidade de estabelecer uma chamada entre três ou mais pessoas simultaneamente. O serviço de convergência entre redes é a capacidade de se efetuar uma chamada entre um computador conectado à Internet e um telefone que se encontre na PSTN ou vice-versa. No entanto, por dependerem da Internet, estes serviços estão sujeitos a uma baixa qualidade da voz, devido à variabilidade das condições de rede. Sob este contexto, este trabalho propõe uma metodologia para analisar o comportamento e o desempenho destes serviços, quando submetidas a condições variadas da rede. A partir de um ambiente controlado de rede, foram simulados diversos cenários de utilização destes serviços e configurados diferentes valores para os parâmetros críticos, como o número de participantes, capacidade do enlace, atraso, perda de pacotes e variação do atraso (jitter). Este estudo adotou a qualidade do áudio recebido como principal métrica de desempenho cujo cômputo foi efetuado pelo algoritmo PESQ MOS
- Published
- 2009
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.