45 results on '"Sadok, Djamel Fawzi Hadj"'
Search Results
2. Utilizing optimization algorithms to maximize the availibility of composable data center
- Author
-
SILVA, Leylane Graziele Ferreira da, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Algoritmos de otimização - Abstract
CAPES The cloud computing paradigm has performed, for years, the fundamental role in delivering IT resources, typically available in data centers, allowing cost reduction and providing services such as high availability, scalability, and elasticity. Despite many advantages, the data center infrastructure suffers from inefficiency problems due to factors such as excessive redundancy usage and infrastructure sub-utilization. The Composable Data Center paradigm aims to mitigate such problems, proposing the disaggregation of resources distributed in racks with different chassis configurations. In this context, different resource arrangements, allocated via software (called Composable Infrastructure) may directly affect the system availability. Thus, this work presents an optimization problem to allocate Composable Infrastructures in Composable Data Center, taking into account budget constraints, obeying application requirements to maximizing availability in those data centers. For such, some optimization algorithms utilized in two approaches: mono-objective approach and multi-objective approach. From the results, it is possible to identify the best configurations and understand how each component affects availability. In the mono-objective approach, the Dynamic Programming algorithm obtained the best results in balancing cost and availability. In the multi-objective approach, both GDE3 and NSGA-II algorithms were useful in finding attractive solutions, and GDE3 presented the most solution number in most of the cases. O paradigma de computação em nuvem tem desempenhado, durante anos, um papel fundamental na entrega de recursos de tecnologia da informação (TI), normalmente disponíveis em data centers, permitindo redução de custos e provendo serviços como alta disponibilidade, escalabilidade e elasticidade. Apesar das inúmeras vantagens, as infraestruturas de data centers sofrem com alguns problemas de ineficiência devido a fatores como o uso excessivo de redundância e a sub-utilização da infraestrutura. O paradigma de Composable data center é uma solução idealizada de modo a mitigar tais problemas, o qual propõe a desagregação de recursos computacionais, distribuídos em racks com diferentes configurações de chassi. Neste contexto, as diferentes combinações de recursos, alocadas via software (denominadas Composable Infrastructure), podem afetar diretamente na disponibilidade do sistema. Deste modo, este trabalho apresenta um problema de otimização para realizar alocação de Composable Infrastrucutures em Composable Data Centers levando em consideração restrições orçamentárias, de modo a atender requisitos da aplicação para maximizar a disponibilidade nestes Data Centers. Para tal, foram utilizados diferentes algoritmos de otimização em duas principais abordagens: mono-objetivo e multi-objetivo. A partir dos resultados é possível identificar as melhores configurações e como cada recurso pode impactar na disponibilidade. Na abordagem mono-objetivo, o algoritmos Dynamic Programming apresentou os melhores resultados ao equilibrar disponibilidade e custo. Na abordagem multi-objetiva, os algoritmos GDE3 e NSGA-II foram efetivos para encontrar boas soluções e o algoritmo GDE3 apresentou uma maior quantidade de soluções na maioria dos casos.
- Published
- 2020
3. Uma análise experimental de desempenho do protocolo QUIC
- Author
-
Assis Tiago de Oliveira Filho and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Análise de desempenho - Abstract
O protocolo Quick UDP Internet Connection (QUIC) foi apresentado pelo Google inicialmente em 2012 como uma solução para alguns dos problemas estruturais da Internet evidenciados principalmente pelas limitações do protocolo Transmission Control Protocol (TCP) frente às novas necessidades das aplicações e serviços Web. Diante desse cenário, mesmo que esse protocolo venha sendo considerada progressivamente favorável, algumas questões ainda estão em aberto, como por exemplo à avaliação do seu efetivo ganho em relação ao modelo já estabelecido (TCP + HTTP/2) utilizado na atualidade para navegação Web. Sendo assim, este trabalho utilizou o método de pesquisa considerando o estudo de caso. Ficando ao fim deste evidenciado, através da análise dos resultados que o QUIC apresenta melhor desempenho em relação ao TCP apenas casos específicos, como por exemplo em redes com grande quantidade de atraso e perda de pacotes. Possibilitando, portanto, a visualização, de forma evidente, que a proposta do QUIC ainda não é suficientemente robusta e que necessita se desenvolver para ser efetivamente aplicada. The Quick UDP Internet Connection (QUIC) protocol was initially presented by Google in 2012 as a solution to some of the structural problems of the Internet, evidenced mainly by the limitations of the Transmission Control Protocol (TCP) in view of the new needs of Web applications and services. In view of this scenario, even if the protocol is considered progressively favorable, some questions are still open, such as, for example, evaluation of its effective gain in relation to the already established model (TCP + HTTP / 2) currently used for Web browsing. Therefore, this work used the research method considering the case study. At the end of this, through the analysis of the results that the QUIC presents better performance in relation to TCP only specific cases, as for example in networks with a large amount of delay and packet loss. Therefore, allowing the visualization, evidently, that the QUIC proposal is not yet robust enough and that it needs to develop in order to be effectively applied.
- Published
- 2020
4. Otimização multi-objetivo para classificação de tráfego de redes
- Author
-
NASCIMENTO, Zuleika Tenório Cavalcanti do and SADOK, Djamel Fawzi Hadj
- Subjects
Máquina de aprendizagem ,Otimização ,Ciência da computação - Abstract
A Internet cresce em ritmo acelerado, tanto em volume de tráfego quanto em número de aplicações. Por esta razão, com o intuito de monitorar tais dados, que não somente crescem em volume, mas também em complexidade, esforços na tarefa de classificação de tráfego de redes têm crescido nos últimos anos com o intuito de prover ferramentas capazes que auxiliar na análise de tráfegos de redes com diversos propósitos, tais como, por exemplo, oferecer maior segurança da informação e/ou Qualidade de Serviço (QoS). Muitos métodos de classificação têm sido propostos baseados em inspeção profunda de pacotes (DPI - Deep Packet Inspection), porém tais métodos não possibilitam a análise de tráfego criptografado, além de possuir alto custo computacional e violar a privacidade dos usuários ao inspecionar a carga útil (payload) dos pacotes. O método de classificação baseado em portas não é capaz de lidar com aplicações que utilizam portas aleatórias ou encapsulam tráfego. No entanto, a classificação de tráfego com o auxílio de algoritmos de aprendizagem de máquina está em evidência, apresentando resultados promissores, e sendo capazes de mitigar tais problemas apresentados. Este trabalho tem como objetivo propor um modelo híbrido para classificação de tráfego de redes, denominado Modelo Dividir para Conquistar Multi-Objetivo (MODC - Multi-Objective Divide and Conquer), com o auxílio de algoritmos de aprendizagem de máquina, baseado na estratégia de “dividir para conquistar”, mostrando que esta metodologia melhora consideravelmente os resultados para as métricas de desempenho investigadas. Além disso, propõe otimizar duas importantes métricas para monitoramento de tráfego simultaneamente: a acurácia global em fluxos e a acurácia global em bytes, através do uso de Algoritmos Genéticos Multi-Objetivos (MOGA - Multi-Objective Genetic Algorithms), permitindo que administradores de rede possam ajustar o modelo para priorizar a qualidade de classificação para uma destas métricas, de acordo com particularidades da rede sendo monitorada. Algoritmos tais como o de Máquina de Aprendizagem Extrema (ELM - Extreme Learning Machine) e Mapas Auto-Organizáveis com Crescimento Hierárquico (GHSOM - The Growing Hierarchical Self-Organizing Map) são utilizados na estratégia de “dividir para conquistar”. Os resultados mostraram que a estratégia de dividir um problema complexo em tarefas mais simples e conquistá-los com algoritmos de aprendizagem supervisionada melhorou o desempenho do modelo, e que a utilização do MOGA foi capaz de otimizar simultaneamente duas métricas de desempenho, permitindo a flexibilização do modelo proposto, de acordo com as necessidades da rede sendo monitorada. Além disso, foi apresentada uma variação do modelo com o uso dos Stacked Sparse Autoencoders (SSAE), técnica esta da área de Aprendizagem Profunda (deep learning) que procura gerar uma melhor representação em alto nível do conjunto de dados de entrada, reduzindo sua dimensionalidade e custo computacional. Foi apresentado que os SSAE melhoraram consideravelmente a qualidade do modelo. Experimentos também foram realizados com o MODC com o intuito de realizar comparações com ferramentas de DPI conhecidas, inclusive comerciais, e com um conjunto de algoritmos de aprendizagem de máquina, onde o modelo híbrido proposto mostrou ser superior, para as métricas de desempenho analisadas, quando comparado utilizando conjuntos de dados distintos. The Internet is exponentially growing, both in traffic volume and number of applications. For that reason, with the objective of monitoring such data, which not only grows in volume but also in complexity, efforts have been made in the area of network traffic classification in recent years with the objective of providing tools capable of aiding the network data analysis with multiple objectives, such as, for example, providing information security and Quality of Service (QoS). Many methods of classification have been proposed based on Deep Packet Inspection (DPI), but these methods break when dealing with encrypted traffic data and when multiple signatures match. Some methods are based on the use of known ports, but these are not able to deal with encapsulated traffic or theuse of random ports by applications. Others make use of machine learning to tackle these problems, showing to be a promising area for network traffic classification. This work proposes a hybrid model for network traffic classification, named Multi-Objective Divide and Conquer (MODC,) with the aid of machine learning algorithms, based on the “divide and conquer” strategy. This approach showed to improve the performance metrics investigated. Besides that, this method proposes to optimize, simultaneously, two important metrics for network monitoring, the global flow accuracy and global byte accuracy, by using Multi-Objective Genetic Algorithms (MOGA), allowing computer network administrators to adjust the model in order to prioritize the classification quality in terms of flow or byte accuracy, depending on the network’s particularities. Also, the “divide and conquer” strategy used machine learning algorithms such as the Extreme Learning Machine (ELM) and The Growing Hierarchical Self-Organizing Map (GHSOM). The obtained results showed that the strategy of dividing a complex problem into smaller and simpler problems, and conquering them with supervised learning algorithms, enhanced the model’s overall quality, and that by using the MOGA, it was possible to improve the model by simultaneously optimizing two performance measures, transforming the model into a flexible classifier to make it possible for network analysts to prioritize either flow or byte accuracy, based on the network’s necessity. Besides that, it was presented an extension for the model with the aid of the Stacked Sparse Autoencoders (SSAE), from the deep learning area of research, that aims to generate a high level set of features, reducing the dataset dimensionality and computational costs. It was presented that the use of SSAE improved the model considerably. Experiments were also performed with the MODC in order to compare it against known DPI tools, including commercial ones, and with a set of machine learning algorithms, where the model showed to be superior, regarding the analyzed performance metrics, to these other methods by using distinct datasets.
- Published
- 2019
5. Topology and energy aware virtual machine scheduling algorithms in data centers
- Author
-
Daniel Guimarães do Lago, Madeira, Edmundo Roberto Mauro, 1958, Sadok, Djamel Fawzi Hadj, Verdi, Fabio Luciano, Esteve Rothenberg, Christian Rodolfo, Fonseca, Nelson Luis Saldanha da, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Máquinas virtuais ,Computação em nuvem ,Energy efficiency ,Escalonamento ,Scheduling ,Cloud computing ,Virtual machines ,Eficiência energética ,Topologia ,Topology - Abstract
Orientador: Edmundo Roberto Mauro Madeira Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: O crescente consumo de energia e a poluição gerada para alimentarem a infraestrutura da computação em nuvem, impulsionados pela proliferação de dispositivos com baixo poder de processamento e a crescente necessidade de computação elástica, têm sido uma constante preocupação, refletida em numerosas abordagens no contexto da computação verde para lidar com este problema. Além disso, percebemos que o principal padrão escolhido para a conectividade dos data centers que operam em nuvem, Ethernet, tem apresentado rápido aumento das taxas de transmissão, bem como a expectativa de continuidade deste. Neste trabalho efetuamos estudos acerca dos impactos do aumento das taxas de transmissão no processo de escalonamento de máquinas virtuais, focando, em especial, no consumo de energia, no makespan, nos tempos de execução de cargas de trabalho e no número de migrações de máquinas virtuais em data centers que operam em nuvens, no contexto da ciência de energia. Desenvolvemos, também, um modelo empírico para estimar o consumo de energia em função da largura de banda para um conjunto de cenários. Expandimos nossos estudos e apresentamos o BALA, um algoritmo de escalonamento de máquinas virtuais ciente de energia e de largura de banda, com especial aproveitamento em data centers com agrupamentos de servidores que apresentam heterogeneidade em largura de banda. Finalmente, apresentamos o TEA, um algoritmo de escalonamento de máquinas virtuais ciente de energia e de topologia de rede, que considera não somente os elementos de borda, mas também o núcleo da rede, sendo um algoritmo escalável capaz de atuar em uma diversidade de cenários, incluindo, mas não se limitando, a nuvens constituídas de data centers geodistribuídos ou não, com topologias de rede arbitrárias, que admitem ou não a migração de máquinas virtuais, homogêneos ou heterogêneos tanto em servidores quanto no núcleo da rede, podendo suportar SLA com garantia de processamento para máquinas virtuais e dar preferência às máquinas virtuais de prioridades elevadas. Para atingir nossos objetivos, utilizamos em ambos algoritmos técnicas como o desligamento de servidores ociosos, DVFS e a migração de máquinas virtuais. Em adição, no TEA, também empregamos um conceito de maximização de eficiência em energia de rotas e o desligamento de comutadores de pacotes ociosos. Resultados obtidos por simulação em um extenso número de cenários mostram que este algoritmo, confrontado a diversos outros algoritmos cientes de energia, apresenta os melhores resultados em economia de energia em aproximadamente metade dos casos, e o melhor makespan na maior parte dos casos. Os ganhos observados são notáveis em data centers geodistribuídos, heterogêneos e com topologias constituídas por um número grande de comutadores de pacotes Abstract: The increasing energy consumption and the pollution generated to power the infrastructure of the cloud computing, driven by the proliferation of devices with low processing power and the increasing need for elastic computing, have been a constant concern, reflected in numerous approaches in the context of green computing to deal with this problem. In addition, we realize that the connectivity leading choice for data centers that operates in the cloud, Ethernet, has shown rapid increase in transmission rates, as well as the expectation of continuity of this growth. In this work, we study the impacts of the increase of transmission rates in the virtual machine scheduling process, focusing in particular on power consumption, makespan, workload execution times, and the number of machine migrations in data centers that operate in clouds in the context of energy awareness. We have also developed an empirical model to estimate energy consumption as a function of bandwidth for a set of scenarios. We have expanded our studies and presented the BALA, an energy-aware and bandwidth-aware scheduling algorithm, with special use in data centers with server groups having heterogeneity in bandwidth. Finally, we present the TEA, a virtual scheduling algorithm aware of energy and network topology, which considers not only the edge elements, but also the network core, being a scalable algorithm capable of acting in a diversity of scenarios, including, but not limited to, clouds made up of geo-distributed or non geo-distributed data centers with arbitrary network topologies that allow or disallow the migration of virtual machines, homogeneous or heterogeneous servers and network core devices, and supporting SLA with guaranteed processing for virtual machines and giving preference for high priority virtual machines. To achieve our goals, we use in both algorithms techniques such as shutdown of idle servers, DVFS, and migration of virtual machines. In addition, in TEA, we also employ a concept of maximizing energy efficiency in routes and shutting down idle switches. Results obtained by simulation in an extensive number of scenarios show that this algorithm, compared to several other energy-aware algorithms, presents the best results in energy savings in approximately half of the cases, and the best makespan in most cases. The observed gains are notable in geo-distributed data centers, with topologies consisting of a large number of switches, and in heterogeneity cases Doutorado Ciência da Computação Doutor em Ciência da Computação CAPES CNPQ 167384/2014-7 FAPESP
- Published
- 2018
6. Sistema de segurança para IoT baseado em agrupamento de smart cards gerenciados por FPGA
- Author
-
BARBOSA, Gibson Belarmino Nunes, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Internet das coisas - Abstract
FACEPE Os crescentes casos de ataques a dispositivos conectados às redes de Internet das Coisas (do inglês Internet of Things - IoT), com invasores se aproveitando do baixo poder de processamento e segurança frágil desses equipamentos, são fatores determinantes para as atenções serem voltadas à segurança em IoT. A utilização de Cartões Inteligentes (do inglês Smart Cards - SCs) para proteger esses sistemas é pertinente, pois eles são resistentes a ataques físicos, portáteis e baratos. Porém, o processamento e a memória deles ainda não são suficientes para atender a alta demanda dos dispositivo conectados à IoT. Por estas razões, utilizar vários SCs agrupados pode ser interessante para proteger tais redes de dispositivos IoT. Contudo, o gerenciamento de muitos SCs requer uma plataforma que não degrade o desempenho do processo de leitura e escrita. Os Arranjos de Portas Programáveis em Campo (do inglês Field Programmable Gate Arrays - FPGAs) se encaixam nesse critério, pois são dispositivos reconfiguráveis com capacidade de paralelização de tarefas e replicação de código. Associando esses dispositivos, e conectando-os à rede, seria possível agregar segurança a outros sistemas e garantir a integridade da comunicação na IoT. Estes fatores motivaram o presente trabalho a propor e desenvolver o Smart Card Cluster (SCC), que é uma plataforma de segurança para IoT. Ele pode ser empregado de diversas formas para oferecer proteção às camadas de rede ou de aplicação da IoT. Contudo, neste trabalho ele será utilizado para agregar proteção às mensagens que são trocadas entre gateways e o middleware IoT, assegurando a autenticidade e integridade das mensagens por meio de assinatura feita em hardware seguro. Com três SCs o SCC permite assinar 26,18 mensagens por minuto. O sistema utiliza FPGA para fazer o controle eficiente de SCs. Através de experimentos concluiu-se que ele é modular, portátil, escalável e com custo adequado ao cenário de IoT ao qual é aplicado. Isto possibilita que o utilizador evite gastos, pois os dispositivos embarcados, o poder de processamento, e a quantidade de SCs podem ser ajustados de acordo com a necessidade. Além do que, a plataforma pode ser distribuída para perto dos dispositivos na ponta da rede. No trabalho é mostrado que o SCC consegue ser 69% mais eficiente que outro dispositivo comercial utilizado para agrupamento de SCs, que é conhecido como SIM Array, além disso o custo da utilização de cada SC no SCC chega a ser US$263,54 menor. The increasing cases of attacks on devices connected to Internet of Things (IoT) networks, where attackers take advantage of the low processing power and the fragile protection of such equipments, is a determining factor for giving greater attention to IoT security. The use of Smart Cards (SCs) to protect these systems is pertinent, as they are physical attacks resistant, portable and inexpensive. Nonetheless, their processing and memory are still not sufficient to meet the high demand of the devices connected to IoT. For these reasons, using multiple clustered SCs may be interesting to protect such networks. However, a platform that does not degrade the performance of the read and write process, is needed to control many SCs. The Field Programmable Gate Arrays (FPGAs) fit this criterion, since they are reconfigurable devices with the ability to parallelize tasks and code replication. By connecting these devices to the network, it would be possible to add security to other systems and ensure communication integrity for the IoT. These factors led to the development of the Smart Card Cluster (SCC), which is a platform for IoT security. It can be used in a variety of ways to protect the IoT layers or applications. In this work, it is used to add protection to messages that are exchanged between gateways and middleware IoT, ensuring message authenticity and integrity through secure hardware signing. With three SCs the SCC allows to sign 26.18 messages per minute. The system uses FPGA to efficiently manage SCs. It is modular, portable, scalable and cost-effective to user’s needs. This enables the user to avoid unnecessary costs, since the embedded devices, processing power, and the amount of SCs are adapted to the application scenario. Thus, the platform can be distributed close to the things. In this work it is shown that the SCC becomes 69% more efficient than another commercial device used for clustering SCs, the SIM Array, moreover the cost of using each SC in the SCC is US$ 263.54 lower.
- Published
- 2017
7. Otimização de tráfego broadcast em redes Openflow
- Author
-
SILVA, Ricardo Anísio da and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Redes definidas por software - Abstract
O paradigma das Redes Definidas por Software (SDN) vem mudando a forma de gerenciar e operar redes de computadores através da sua principal idéia, a separação dos planos de dados e de conotrole. O protocolo Openflow implementa este conceito e, devido às vantagens de menor custo de operação e maior facilidade de adaptação a projetos de comutadores já existentes, é encontrado hoje em diversos equipamentos de rede comercializados por muitos fabricantes. Com o uso do paradigma SDN e do protocolo Openflow, a inovação e evolução da rede são facilitadas. Dessa forma, muitos serviços típicos de rede podem ser repensados, de forma a torná-los mais flexíveis. Ao projetar uma rede SDN deve-se levar em consideração algumas particularidades de desempenho, como por exemplo: tabela de fluxos e comunicação com controlador. Estas características tornam as métricas tradicionais de desempenho como vazão, latência, jitter e perda de pacotes insuficientes para avaliar o desempenho de uma rede SDN. O foco principal desta dissertação, esta no controle da tabela de fluxo proveniente de requisições ARP. Desta forma, esta proposta visa a diminuição e o controle do tráfego broadcast através da Arquitetura SDN. A partir da criação de um novo módulo, desenvolvido para determinar o uso de múltiplos caminhos no encaminhamento de tráfego referente a um fluxo, demonstrando neste trabalho que algumas métricas de controle de requisições broadcast, podem ser atendidas. O módulo foi implementado e avaliado através de um simulador. Os resultados de avaliações referentes a diversos aspectos da solução proposta, são apresentados nesta dissertação, demonstrando que os ganhos na utilização do controle da tabela de fluxo e na quantidade de mensagens flow-mod do Openflow, geram uma dimunição na quantidade de dados transmitidas entre o controlador e o comutador. The paradigm of Software Defined Networking (SDN) has been changing the way in which to manage and operate computer networks through its main idea, the separation of data plans and control. The Openflow protocol implements this concept and, due to the advantages of lower cost of operation and greater ease of adaptation to designs of existing switches, is found today in several network equipment marketed by many manufacturers. With the use of the SDN paradigm and the Openflow protocol, network innovation and evolution are facilitated. In this way, many typical network services can be rethought in order to make them more flexible. When designing an SDN network one must take into account some particularities of performance, as for example: table of flows and communication with controller. These characteristics make traditional performance metrics such as flow, latency, jitter, and packet loss insufficient to evaluate the performance of an SDN network. The main focus of this dissertation is to control the flow table from ARP requests. In this way, this proposal aims at reducing and controlling broadcast traffic through the use and extension of the SDN Architecture. From the creation of a new module, developed to determine the use of multiple paths in the traffic routing referring to a flow, demonstrating in this work that some control metrics of broadcast requests can be met. The module was implemented and evaluated through a simulator. The results of evaluations regarding several aspects of the proposed solution are presented in this dissertation, demonstrating that the gains in the use of the flow table control and in the number of flow-mod messages of Openflow, generate a decrease in the amount of data transmitted between the Controller and the switch.
- Published
- 2017
8. Módulo de resolução de conflitos de forma semiautomática em modelo Or-BAC
- Author
-
SOUZA, Janderson Silva de and SADOK, Djamel Fawzi Hadj
- Subjects
Controle de acesso ,Ciência da computação - Abstract
SETEC A especificação de diretivas de segurança em um Modelo de Controle de Acesso que inclui permissões e proibições algumas vezes pode ocasionar conflitos. Isso corresponde a uma situação em que um sujeito tem a permissão e proibição (ambos) para executar uma determinada ação e um determinado objeto. Esse tipo de problema pode afetar profundamente a estabilidade do modelo, pois suas exigências de segurança são primordiais para o bom funcionamento dos sistemas que dependem dele. Como principal contribuição, este trabalho faz uma abordagem comparativa entre alguns modelos existentes e suas tratativas e propõe um método de resolução desses conflitos de uma forma semiautomática, no entanto, poderá ocorrer situações em que será necessária a intervenção do administrador para uma tomada de decisão mais complexa. O Organization Based Access Control (Or-BAC) foi selecionado por se tratar de um modelo base para outros modelos derivados. Este modelo é dotado de mecanismo de herança, o que permite que regras redundantes e potenciais conflitos sejam tratados em tempo polinomial. Além disso, o modelo possui uma ferramenta de apoio para simulação de aplicação de regras chamada MotOrBAC, o qual fornece as interfaces necessárias para a implementação do módulo de resolução de conflitos. Specifying security policies in an Access Control Model that includes permissions and prohibitions may have conflicts. This corresponds to a situation in which a subject has the both permission and prohibition to execute a certain action and a certain object. This type of problem can profoundly affect the stability of the model because its security requirements are paramount for the proper functioning of the systems that depend on it. As a main contribution, this thesis makes a comparative approach between some existing models and their dealings also proposes a method of solving these conflicts in a semiautomatic way, however, there may be situations in which the intervention of the administrator will be necessary for a more complex decision making. The Or-BAC was selected because it is a base model for other derived models. This model is endowed with an inheritance mechanism, which allows redundant rules and potential conflicts to be treated in polynomial time. In addition, the model has a support tool for simulation of rule application called MotOrBAC, which provides the necessary interfaces for the implementation of the conflict resolution module.
- Published
- 2017
9. Secure-compapp: uma abordagem para aplicações compartimentalizadas
- Author
-
CORREIA, Gregório Patriota and SADOK, Djamel Fawzi Hadj
- Subjects
Controle de Acesso ,Separação de Privilégio ,Comunicação Interprocesso ,Monitor de Referência ,Políticas ,Segurançade Dados Críticos - Abstract
CNPQ O uso de códigos monolíticos permite com maior facilidade que um atacante consiga escalar privilégios e a partir de então ter autoridade para executar qualquer tipo de ação maliciosa. O Princípio da Separação de Privilégios propõem mitigar essas vulnerabilidades transformando a estrutura do código monolítico e numa estrutura distribuída que se comunica através de canais interprocessos,desta forma os domínios de cada parte estarão isolados dificultando a escalação deprivilégios. Entretanto o uso incauto destes canais de comunicação interprocessos tem sido alvo de novos ataques que exploram tanto as fraquezas dos canais de comunicação quanto as interfaces mal definidas destes processos particionados. Como proposta de mitigar a escalação de privilégio proveniente da exploração destes canais de comunicação este trabalho propõem uma ferramenta de gerenciamento de processos compartimentalizados e seus canais de comunicação interprocesso. A solução apresentada neste trabalho é chamada de Secure-CompApp. Foi avaliado o impacto da solução sobre a performance das aplicações compartimentalizadas e este estudo mostra que a diminuição de performance é justificada por maiores garantias de segurança rastreabilidade oferecida pela solução Secure-CompApp. Application with any kind of bug or any point with memory leak represent an opportunity for an attacker engage. In the case of some applications implemented with monolithic code, this allows an attacker to escalate privileges of a user easily. The Principle of Least Privilege (PoLP) proposes to mitigate these vulnerabilities transforming the structure of the monolithic code in a distributed structure that communicate through interprocess channels, so the domains of each part will be isolated, making it difficult to privilege escalation. However the incautious use of these interprocess communication channels has been the target of new attacks that exploit the weaknesses of communication channels and the ill-defined interfaces of these partitioned processes. As a proposal to mitigate the privilege escalation from the exploitation of these communication channels this paper proposes a management tool for compartmentalized processes and its interprocess communication channels. The Secure-CompApp is a reference monitor for compartmentalized applications, this is the solution introduced in this paper. The impact of the solution on the performance of compartmentalized applications was evaluated and this study shows that the decrease of performance is justified by the greater guarantees of security and traceability offered by the Secure-CompApp.
- Published
- 2016
10. VoIPath: uma solução para seleção de caminhos com base em atributos de rede para o tráfego VoIP através de SDN
- Author
-
SANTOS, Alexandre Francisco Pontes dos and SADOK, Djamel Fawzi Hadj
- Subjects
Virtual Tenant Networks ,Software Defined Networks ,Voice Over IP Networks - Abstract
Com o crescimento da adoção de comunicação de voz em redes de dados, tecnologia conhecida como Voice Over Internet Protocol (VoIP) , tornaram-se evidentes, tanto vantagens obtidas, quanto problemáticas decorrentes do contraste entre a natureza das redes de dados e as necessidades do tráfego VoIP. A internet não possui, por padrão, formas inteligentes de proteção e priorização do tráfego, levando à utilização de tecnologias externas para suprir estas necessidades. Todavia, a utilização destas tecnologias tem tornado-se cada vez mais complexa em virtude de um fenômeno conhecido como ossificação das redes IP, conforme Mckeown et al. (2008). Em busca de solucionar os problemas enfrentados pelas redes atuais e prover maior flexibilidade e capacidades inovadores, surge a Software Defined Network (SDN), tecnologia que visa trazer uma série de vantagens para as redes de dados atuais através de sua arquitetura. Neste trabalho é proposta a VoIPath, uma solução baseada em SDN que implementa uma técnica de seleção de caminhos com base em atributos específicos, relevantes para o tráfego VoIP. Para processar estes atributos e identificar os melhores caminhos para o tráfego VoIP é empregado um algoritmo criado com programação linear, onde um volume de tráfego VoIP é dividido entre diferentes caminhos, com base em opções de execução da solução. Para controlar a propagação do tráfego é empregada uma tecnologia baseada em SDN a Virtual Tenant Networks (VTN), através desta o tráfego é conduzido por uma rede lógica, chamada de tenant. O mapeamento destas redes lógicas na rede SDN física garante a passagem do tráfego pelos caminhos selecionados. Por fim é realizada uma série de experimentos para demonstrar a efetividade da solução, bem como melhorias na qualidade do áudio, calculadas com base em um modelo de avaliação de qualidade de tráfego VoIP. With increasing adoption of voice communications through data networks, technology known as VoIP, both advantages and issues have become apparent. The second group caused by the contrast between the nature of data networks and the needs of VoIP traffic. By default, data networks do not have smart structures to protect and prioritize traffic. In order to achieve these characteristics external technologies are deployed, but the utilization of such strategy has become complex due to a phenomenon described as network ossification (MCKEOWN et al., 2008). In order to provide solutions to the problems of the actual data networks architecture and provide greater flexibility, comes in scene the SDN technology. The SDN architecture unleashes a new horizon of possibilities to the networks. This work proposes the VoIPath solution, which consists of a implementation of a SDN based path selection technique, oriented by specific relevant attributes to the VoIP traffic. A algorithm created with linear programming is employed to compute these attributes and identify the best paths to the VoIP traffic, which is divided through the network, in according to execution parameters. In order to control the traffic propagation is employed the VTN technology, which consists on an SDN based solution. Through VTN technology the VoIP traffic is forwarded through an logical network called tenant. The mapping of the tenant over the physical network ensures that the selected paths are employed. To ensure the solution’s effectiveness a series of experiments are performed and the impact of its’s execution on the audio is calculated with the usage of an VoIP quality measurement evaluation model.
- Published
- 2016
11. Análise do impacto do isolamento em ambientes virtuais
- Author
-
SILVA, Luís Eduardo Tenório and SADOK, Djamel Fawzi Hadj
- Subjects
Isolamento ,LXC ,KVM ,Virtualização - Abstract
CNPq O surgimento da virtualização permitiu uma mudança na maneira de pensar em prestação de serviço pela Internet, permitindo assim o surgimento de grandes conceitos como a computação em nuvem. Com o passar do tempo, novas tecnologias que permitem virtualizar recursos foram surgindo e trouxe a tona questões de desempenho, isolamento, entre outras. Analisar o impacto causado pelo mau comportamento das abstrações virtuais pode permitir ao administrador da nuvem tomar uma ação na escolha de uma tecnologia específica de virtualização para minimizar os impactos causados a todo ambiente. Hodiernamente, o isolamento é uma preocupação que remete pesquisas e estudos do seu impacto na qualidade dos serviços prestados em um ambiente virtualizado. Indagar sobre a possibilidade de detecção para tomada de ações com a finalidade de minimizar os impactos decorrentes de interferências devido a um mau isolamento é uma das atividades que vêm sendo estudadas com o passar dos anos. O surgimento de diversas técnicas de virtualização trouxe também preocupações de qual é adequada a qual caso. Alguns dessas técnicas vêm sofrendo melhorias únicas nesses últimos anos, principalmente no que diz respeito ao isolamento e controle de recursos. Nesse contexto, essa dissertação propõe uma estratégia adaptada da literatura (procurando unir técnicas distintas) para observar possíveis indícios de quebra do isolamento de ambientes virtuais e organizar os serviços de determinada natureza na melhor técnica de virtualização, verificando também os resultados apresentados por cada técnica de virtualização existente. Para tanto, é adotada uma metodologia que favorece a concepção dos diversos cenários possíveis a partir de um número de infraestruturas virtuais, ofertando serviços web e utilizando diferentes técnicas de virtualização, observando principalmente os recursos utilizados pelas infraestruturas virtuais e a qualidade do serviço prestado. Concluímos que dependendo do tipo de recurso observado as estratégias de isolamento de uma técnica de virtualização podem ser ou não eficazes. The rise of virtualization has enabled a shift in thinking in service delivery over the Internet, thus allowing the emergence of major concepts such as cloud computing. Over time, new technologies that enable virtualization resources have emerged and brought up performance issues, performance, insulation, etc. Analyze the impact of the bad behavior of virtual abstractions can enable the cloud administrator take an action in choosing a specific virtualization technology to minimize impacts to the whole environment. Nowadays, isolation is a concern that brings research and studies its impact on the quality of services in a virtualized environment. Investigate about the possibility of detection for taking actions in order to minimize the impacts of interference due to poor isolation, it is one of the activities that have been studied over the years. The emergence of various virtualization techniques also brought concerns the kind which is suitable case. Some of these techniques have improved in recent years, especially with regard to isolation and control features. In this context, this work proposes an adapted strategy literature (seeking to unite different techniques) to observe possible break indications isolation of virtual environments and organize the particular nature services in the best virtualization technique, also checking the results presented for each technique existing virtualization. Therefore, a methodology that favors the design of the various possible scenarios constructed from a number of virtual infrastructures offering web services and using different virtualization techniques is adopted, especially noting the resources used by the virtual infrastructure and the quality of service. We conclude that depending on the type of resource noted the isolation strategies of a virtualization technique can be effective or not.
- Published
- 2016
12. Análise de performance do PUSH em conexão HTTP/2 no carregamento de páginas web
- Author
-
OLIVEIRA, Igor Nogueira de, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Abstract
Desde sua padronização, o protocolo Hypertext Transfer Protocol (HTTP) tornou-se o estado da arte em protocolos de transporte da internet, sendo utilizado para transmissão de arquivos hipertexto e hipermídias, como áudio e vídeo de forma cada vez mais interativa. Porém, o HTTP em suas versões 1.0 e 1.1 apresenta pontos que podem ser otimizados, como o fato de atender requisições de forma síncrona, o que normalmente atrasa a renderização de páginas Web podendo vir a afetar a qualidade de experiência dos usuários. Recentemente, o protocolo HTTP foi atualizado para a versão HTTP/2, recebendo diversas modificações, direcionadas principalmente a melhorias no tocante ao uso dos recursos de rede. Dentre estas melhorias, podese citar a adição do recurso push, que permite que o servidor Web responda a uma solicitação com mais de um recurso ao mesmo tempo. Este trabalho apresenta uma análise de desempenho do recurso push no transporte de páginas Web em conexões HTTP/2. Para tanto, foram realizados experimentos em um ambiente simulado, replicando características de rede presentes na internet. Foram adotados o Total Download Time (TDT) e o Page Load Time (PLT) como métricas de análise e a execução do experimento foi realizada através de requisições de páginas web com diferentes quantidades e tamanhos de objetos. Através dos resultados obtidos, foi possível observar que apesar do protocolo HTTP/2 possuir recursos para a melhoria do carregamento de páginas Web o uso inadequado destes recursos pode causar, em determinadas configurações, degradações no carregamento das páginas. Since its standardization, the Hypertext Transfer Protocol (HTTP) has been considered the state of the art for transmission of hypertext and hypermedia files, such as audio and vídeo in an interactive way. However, 1.0 and 1.1 versions of HTTP present some weaknesses that may be optimized, such as synchronized requests, which typically slow Web pages rendering thus affecting the end user experience. Recently, the protocol was updated to the 2.0 version and received several modifications, focused mainly on improvements in the network usage. Among these improvements one can cite the addition of push, a feature that allows the server to reply to a request with more than one resource simultaneously. This work presents a performance analysis of push feature on the transport of web pages on HTTP/2 connections. Therefore, experiments were conducted on a prototype environment using Total Download Time (TDT) and Page Load Time (PLT) as metrics, and Web page requests with different amounts and sizes of objects. From the results, one can observe that despite presenting features to improve Web page load time, improper use of these HTTP/2 resources may lead, on certain conditions, to the opposite effect.
- Published
- 2016
13. Desenvolvimento de plug com interface para medição de intensidade de corrente e proteção contra sobrecarga
- Author
-
RIBEIRO, Andrea Maria Nogueira Cavalcanti and SADOK, Djamel Fawzi Hadj
- Subjects
Redes de computadores ,Internet das coisas - Abstract
FACEPE O acompanhamento da intensidade de corrente em um circuito elétrico residencial tem uma importância fundamental para antever defeitos e, consequentemente, falhas de equipamentos. Usualmente, a medição de corrente é realizada de forma intermitente, com uso de amperímetro portátil, por um profissional especializado para, in loco, realizar tal medição, representando um custo que não justifica o benefício do monitoramento. O objetivo principal deste trabalho é desenvolver um equipamento híbrido, que possa realizar a medição da intensidade de corrente e proteja individualmente cada carga remotamente, explorando assim a área de gerenciamento/monitoramento de corrente no âmbito da internet das coisas. Para elaborar um protótipo do medidor de corrente foi realizada uma análise comparativa de três tecnologias de transdutores (transformador de corrente, resistor shunt e efeito hall), com a finalidade de definir o melhor tipo para o medidor de corrente. Após o desenvolvimento do protótipo, foi implementada uma interface gráfica para visualização da corrente e ocorrência de sobrecargas, através de comunicação por rádio frequência subsidiada por padrões bem estabelecidos na área de internet das coisas. O sistema híbrido proposto (medição e proteção) contribuirá para atenuar/eliminar conflitos entre concessionárias e clientes, relativos às falhas no fornecimento de energia elétrica, como também para reduzir acidentes com danos materiais e pessoais no ambiente residencial. The monitoring of the current intensity in a household´s electric system is of fundamental importance to the anticipation of failures in electrical devices. Usually, current measurement is performed intermittently and in loco by a specialized professional using a portable ammeter, having a cost that is not matched by the benefit of monitoring. The main objective of this work, is to develop a hybrid device in the form of a smart plug with a user interface for data visualization, which can perform both current measurement and individual load protection remotely, exploring the fields of electrical power management and Internet of Things. During the prototyping phase of the device, a comparative analysis of three different technologies of current measuring transducers (current transformer, shunt resistor and hall effect) was performed, in order to choose the one which suits the most. After the development of the prototype, a graphic user interface was implemented, featuring remote measurement data acquisition via radio frequency, a technology well-established in Internet of Things projects. The proposed hybrid system will contribute to mitigate and, possibly, eliminate conflicts between electric companies and its clients due to failures on the electrical power supply, and will also help reduce home accidents.
- Published
- 2016
14. μPKI : uma infraestrutura de chave pública de baixo custo
- Author
-
LIMA, Thiago Augusto Ventura and SADOK, Djamel Fawzi Hadj
- Subjects
Segurança da informação ,Criptografia ,Autenticação - Abstract
CNPq A criptografia de chave pública desempenha um importante papel na autenticação e privacidade na internet tal qual a conhecemos. Suas aplicações incluem, por exemplo, e-commerce, internet banking, VPNs corporativas, escrituração eletrônica, identidade digital, entre outras. Todavia, a adoção de uma PKI como plataforma fundamental de segurança requer habilidades técnicas específicas, processos operacionais complexos e considerações legais importantes. Esse tipo de solução requer a construção e manutenção constante da entidade responsável por gerenciar as chaves e assinar os certificados digitais. Esta dissertação examina os desafios de construir uma estrutura de PKI de baixo custo que possua as principais funções das PKIs convencionais, sem incorrer, contanto, nos extensos requisitos técnicos e simplificando, à medida do possível, os processos operacionais necessários para gerir tal solução. Um protótipo foi construído como prova de conceito, de forma a demonstrar a exequibilidade de tal proposta. Tal protótipo faz uso da plataforma embarcada Raspberry Pi e de uma aplicação cliente-servidor para simplificar a operacionalização da μPKI. The public-key cryptography plays an important role in the authentication and data privacy of the internet as we know it. Its applications include, but are not limited to, e-commerce, internet banking, corporate VPN connectivity, electronic bookeeping, digital identity among others. Nonetheless, adopting PKI as the underlying security platform requires special technical skills, intricate operational processes as well as important legal considerations. Such solution requires building and constant maintaining of the entity responsible for key management and digital certificates signing. This dissertation examines the challenges for building a low cost PKI structure that provides the main functions of existing conventional ones, without incurring, though, in the extense technical requirements and simplifying, as much as possible, the operational processes needed to manage such solution. A proof of concept prototype has been built to demonstrate the feasibility of such endeavor. This prototype makes use of the embedded platform known as Raspberry Pi, as well as a client-server application custom built to simplify the operation of the μPKI.
- Published
- 2014
15. Avaliação e otimização de sistemas DPI com base em DFA e priorização de assinaturas
- Author
-
MELO, Wesley Davison Braga, SADOK, Djamel Fawzi Hadj, and FERNANDES, Stênio Flávio de Lacerda
- Subjects
Redes de computadores ,Gerenciamento de redes de computadores ,Classificação de tráfego - Abstract
Identificação e caracterização de tráfego são atividades relevantes no campo de gerência de redes. Objetivando uma melhor administração dos recursos disponíveis, gestores de conteúdo podem inserir componentes no núcleo da rede a fim de identificar os diferentes tipos de fluxos de pacotes que por ela trafegam. Tais objetivos variam, desde uma simples análise do perfil do tráfego até a priorização de conexões baseada em conteúdo. A fim de realizar tais atividades, a inspeção profunda de pacotes (Deep Packet Inspection, ou DPI) se apresenta como uma das técnicas mais difundidas, devido a sua precisão na classificação dos fluxos da rede. Dentre as diversas maneiras de se construir tal mecanismo, a utilização de Expressões Regulares (RE) tem uma forte aceitação, aliada a Autômatos Finitos Determinísticos (DFA). Contudo, em cenários onde seja exigido alto desempenho computacional, esses dois componentes podem se tornar um possível gargalo, quando não são corretamente utilizados. Ainda mais, a incorreta utilização desses componentes pode provocar até a perda de pacotes pelo sistema DPI, acarretando no total fracasso da classificação do tráfego. Dessa forma, este trabalho apresenta uma avaliação da combinação dos principais componentes de um DPI e o impacto de escolhas inadequadas no desempenho do sistema. Além disso, é proposta uma modificação em um componente importante, e negligenciado, do sistema DPI: a ordenação da lista de assinaturas. Por fim, serão fornecidos indicativos de como a utilização das técnicas propostas em conjunto permitem que os ganhos sejam maximizados. Traffic Identification and characterization are relevant activities in the field of network management. Aiming a better administration of the available resources, content managers can insert some probes in the core of a network in order to identify the different packet flows passing through. These goals vary from a simple analysis of the traffic profile by prioritizing connections based on content. In order to perform such activities, Deep Packet Inspection (DPI) is one of the most used techniques, due to its precision when classifying network flows. Among the various ways to build such a mechanism, the utilization of Regular Expressions (RE) has a strong acceptance, coupled with Deterministic Finite Automata (DFA). However, in scenarios where high computational performance is required, these two components can become a potential bottleneck, when not properly used. Further, the improper use of these components can lead to packet loss by DPI system, resulting in total failure of the traffic classification. Thus, this work presents an evaluation of the combination of the main components of a DPI and the impact of poor choices in system performance. Further, we propose a modification on an important component, and neglected in the DPI system: the ordering on the list of signatures. Finally, it is provided indicatives of how the use of proposed techniques in conjunction allows the maximization of the gains.
- Published
- 2014
16. Framework pronet: suporte ao desenvolvimento de soluções para gerenciamento de redes utilizando semântica
- Author
-
Oliveira, Luciana Pereira and Sadok, Djamel Fawzi Hadj
- Subjects
Redes programáveis ,Mecanismos semânticos ,Gerenciamento de redes ,Extração e compartillhamento de informações ,Políticas ,Inteligência de redes - Abstract
A evolução das redes de computadores apresenta cenários em diversos contextos (por exemplo, consumo de energia, mobilidade, operadora virtual e balanceamento de carga) que requerem mecanismos mais flexíveis e inteligentes para lidar com a complexidade e coexistência de diferentes protocolos, bem como para automatizar a maioria das tarefas administrativas e atingir um mínimo de intervenção humana. Por isso, o objetivo desta tese é o projeto, desenvolvimento e avaliação de um framework que integra mecanismos para automatizar tarefas administrativas e auxiliar o desenvolvimento de soluções de gerenciamento de redes. Trabalhou-se com a ideia de que apenas o uso de políticas (regras administrativas codificadas em condições e ações) não é suficiente para gerenciar de maneira flexível as redes de computadores e que, para a definição das políticas, dois passos anteriores devem ser realizados: a extração de dados significativos da rede de maneira distribuída e a associação dos dados a fim de expressar significados a serem utilizados na descrição das políticas. Além disso, o ambiente deve ser constituído de elementos reconfiguráveis por políticas, ou seja, redes flexíveis e adaptáveis como as redes programáveis. Partindo disso, verificou-se que os trabalhos relacionados a esse contexto permitem identificar a conveniência de propor um framework que contenha três principais mecanismos: (a) extração de informações da rede de maneira colaborativa; (b) construção de conhecimento através da associação semântica das informações extraídas; (c) e mapeamento da semântica em políticas para redes programáveis. O principal desafio da tese consiste na especificação dos pontos de integração dos mecanismos do framework, de forma que este não esteja restrito a um único tipo de solução composta por específico dispositivo programável e algoritmo de extração. Por isso, nesta integração foi proposto um algoritmo colaborativo para lidar com qualquer tipo de algoritmo de extração de informações a ser executado de maneira distribuída, por meio de interação com dois tipos plugins (EPluggin e PPlugin) e ontologia em OWL para descrever informações de redes de computadores. O EPlugin extrai um conhecimento específico (por exemplo, tráfego capturado) e o PPlugin mapea informações semânticas em comandos específico de uma determinada rede a ser gerenciada (por exemplo, uma rede sem fio no simulador OMNeT++ ou rede OpenFlow). As avaliações do framework apresentaram os benefícios e as limitações do ProNet em termos qualitativos e quantitativos. Foram utilizados cenários de rede local e backbone para demonstrar a flexibilidade no desenvolvimento de soluções, escalabilidade e uso de informações distintas. A avaliação qualitativa do ProNet demonstrou suas vantagens em relação à extensibilidade, à reusabilidade, ao controle de rede e à automatização da configuração de equipamentos. As avaliações quantitativas apresentaram o custo e desempenho do ProNet para gerenciar uma rede. Em termos de restrições do ProNet, é importante controlar o número de condições a serem utilizadas na inferência. Por outro lado, essa não é uma grande restrição, porque o algoritmo colaborativo evita que cada dispositivo tenha um grande número de regras desnecessárias, sendo executadas constantemente. Além disso, foi possível verificar que, apesar dos custos de desempenho para realizar processamento de mensagens de controle, traduções e inferência, o ProNet fornece benefícios para postergar o auxílio do administrador no controle da rede.
- Published
- 2013
17. Otimização do consumo de energia em redes de comunicação de rádio via cooperação multicélulas
- Author
-
Nascimento, Roberto Pereira do, Sadok, Djamel Fawzi Hadj, and Fernandes, Stênio F. L.
- Subjects
Redes Sem Fio ,Programação Linear Inteira Mista ,Economia de energia - Abstract
O crescimento exponencial da carga de tráfego e a necessidade de acesso ubíquo provocaram uma expansão da infraestrutura de rede e um rápido crescimento na demanda do consumo de energia. Portanto, os operadores de redes de telecomunicações móveis têm de encontrar formas de atender essa nova demanda de recursos, enquanto otimiza os custos de energia. A redução do consumo de energia na estação base pode ser alcançada via ambiente de rede cooperativa explorando a flutuação da carga de tráfego. Dessa forma, é possível alternar o modo de operação da estação base (BS). Em um conglomerado de tecnologias de acesso sem fio pode ocorrer vários handovers e o desempenho em termos de eficiência de energia e probabilidade de bloqueio na estação base, pode ser seriamente prejudicado se os recursos não forem alocados adequadamente, assim são adotados critérios para realização do handover. Diante da importância de reduzir o consumo de energia nas RSFs, tem-se este tema como foco principal deste trabalho. Além da confecção de um modelo baseado em programação linear inteiro misto (PLIM) para otimizar o consumo de energia nas redes sem fio, dado um ambiente de rede colaborativo, um estudo é realizado buscando avaliar o impacto da cooperação das redes e da proporcionalidade existente entre os tamanhos de áreas de coberturas, na otimização do consumo de energia.
- Published
- 2013
18. Classificação de tráfego baseado em mineração de fluxos de dados
- Author
-
Lopes Junior, Petrônio Gomes and Sadok, Djamel Fawzi Hadj
- Subjects
Mineração de fluxos de dados ,Aprendizagem de máquina ,Classificação de tráfego ,Unidade de Processamento Gráfico - Abstract
Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco Existem diversos tipos de aplicações de redes de computadores que produzem diferentes perfis de tráfego. Para aperfeiçoar o desempenho destas aplicações ou da rede em que elas estão incluídas, é interessante fazer medições e caracterizações do tráfego gerado por elas. Nesse contexto, existem várias formas para classificação de tráfego como técnicas baseadas em portas, técnicas baseadas em inspeção de pacotes e técnicas baseadas em fluxos. De acordo com o cenário em que será aplicada, cada uma das técnicas apresenta vantagens e desvantagens. Adicionalmente, a classificação tem que lidar com restrições de tempo, sendo capaz de tratar os dados em tempo real. Um possível método a ser utilizado é a classificação de tráfego baseada em fluxos utilizando aprendizagem de máquina. No entanto, é notório que, quando se fala na classificação de fluxos usando aprendizagem de máquina, a caracterização de tráfego ainda necessita de uma abordagem que seja capaz de fornecer uma forma adaptativa de treinamento além de equilibrar precisão e desempenho em um cenário de fluxo contínuo de dados. Este trabalho apresenta um algoritmo voltado para classificação do tráfego baseado em técnicas de mineração de fluxos de dados aplicado a redes de alta velocidade, denominado GSDT (GPU-based Streaming Decision Tree), além de um arcabouço para sua aplicação. Esse algoritmo visa combinar a precisão das árvores de decisão tradicionais com as características da mineração de fluxos de dados. O GSDT também explora o potencial computacional fornecido por uma unidade de processamento gráfico. O arcabouço proposto alia treinamento e classificação, a fim de obter ganhos no desempenho da utilização do algoritmo em um ambiente real. Os experimentos realizados avaliam a precisão do GSDT em relação às técnicas tradicionais e o desempenho das abordagens propostas, demonstrando a viabilidade da aplicação do GSDT nos cenários considerados e a alta performance obtida através da unidade de processamento gráfico
- Published
- 2012
19. HTR Heterogeneous Routing Protocol, um protocolo de roteamento para redes ad hoc heterogêneas
- Author
-
AMORIM, Rodrigo Diego Melo and SADOK, Djamel Fawzi Hadj
- Subjects
Redes ad hoc ,NS-3 ,Roteamento ,MANET ,Simulação - Abstract
Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco A popularidade de dispositivos móveis como meio de comunicação tem crescido nos últimos anos devido à facilidade de uso, custo e as mais variadas tecnologias. O aumento no número dessas opções como WiFi, Bluetooth ou até mesmo rede de telefonia móvel permitem uma maior conectividade desses dispositivos móveis na rede. Determinadas tarefas, como compartilhamento de stream de vídeo, implicam diferentes requisitos, o que pode requerer diferentes tecnologias de rede. Nos cenários de emergência, que incluem operações militares, força-tarefa para desastres e grupos de busca e resgate, onde se pressupõe a ausência de infraestrutura, o uso de redes sem fio e a permanente conectividade podem ser requisitos essenciais para realização de algumas tarefas. Para tanto o uso de um protocolo de roteamento que seja adequado a esse ambiente é de fundamental importância. Este trabalho faz um estudo comparativo de um novo protocolo de roteamento para redes heterogêneas ad hoc, chamado Heterogeneous Routing Protocol ou simplesmente HTR, focado em cenários de emergência, com um dos protocolos de roteamento para redes ad hoc mais usado, o OLSR. A fim de fazer uma análise robusta e escalável, o protocolo HTR foi implementado no simulador NS-3 e comparado ao OLSR através de métricas como taxa de entrega, atraso, pacotes perdidos, entre outros
- Published
- 2011
20. Análise de Tráfego de Rede Auxiliado por Processadores Gráficos
- Author
-
CARVALHO JUNIOR, Ademir Jose de and SADOK, Djamel Fawzi Hadj
- Abstract
Redes de Computadores constituem um elemento de grande relevância para o avanço tecnológico da sociedade em geral. É dever dos administradores das grandes redes presentes em nosso cotidiano mantê-las livres de problemas, para evitar prejuízos aos usuários e às organizações envolvidas. Neste contexto, ferramentas capazes de monitorar as redes e fornecer informações através da análise do tráfego da rede são bastante úteis. Porém, com o aumento da velocidade das redes atuais para a ordem dos gigabits por segundo, algumas destas ferramentas não conseguem lidar com tamanha vazão de dados. Para resolver este problema, pesquisadores da área de redes de computadores vêm estudando técnicas alternativas para lidar com a alta vazão dos enlaces de redes atuais. Algumas das novas soluções empregam hardwares especiais como Network Processors, Field Programmable Gate Arrays (FPGAs) e até mesmo as modernas e poderosas unidades de processamento gráficas (GPUs). Dentre as tecnologias citadas, as GPUs se destacam pelo seu alto poder de processamento, menor custo e fácil programação. De olho neste nicho de pesquisa, este trabalho propõe uma nova metodologia, baseada na utilização de GPUs, para o monitoramento do tráfego de redes de computadores e fornecimento de informações de suporte para a administração da rede. Um protótipo capaz de realizar análises como o volume de tráfego entre hosts e a velocidade do tráfego foi desenvolvido utilizando a plataforma CUDA, uma das principais plataformas de programação para GPUs. Testes estatísticos foram aplicados no intuito de comparar o protótipo com uma implementação similar que não utiliza GPUs. Os resultados mostraram um ganho significativo de desempenho no processamento do tráfego
- Published
- 2011
21. Um esquema para agregação e priorização de alertas de múltiplas origens
- Author
-
Lins, Bruno Filipe de Oliveira and Sadok, Djamel Fawzi Hadj
- Subjects
Agregação ,Alertas ,Priorização ,IDMEF ,Soluções colaborativas - Abstract
Conselho Nacional de Desenvolvimento Científico e Tecnológico O uso de soluções colaborativas tem se tornado cada vez mais comum e eficiente na detecção de ataques, intrusões e anomalias. Entretanto, devido a sua aplicabilidade, tipicamente em enlaces de alta velocidade, grandes backbones, entre outros, essas soluções se deparam com a obrigatoriedade de processar enormes quantidades de alertas, produzidos pelos mais diferentes tipos de detectores. O objetivo deste trabalho é avaliar o problema da agregação e priorização de alertas em sistemas de detecção colaborativa e propor uma solução capaz de manipular grandes volumes de dados (alertas) gerados no processo de detecção de ataques, intrusões e anomalias, e extrair os mais significantes, de acordo com uma heurística estabelecida, para análise e processamentos, minimizando os custos computacionais, sem que haja perdas relevantes na precisão da detecção. Visando avaliar o desempenho e eficiência da solução proposta, foram executados testes em ambiente controlado com uso da base de dados DARPA 2000 e trafego real e seus resultados discutidos e comparados com soluções semelhantes
- Published
- 2011
22. Qualidade de transmissão de vídeo stream sobre UDP
- Author
-
Hirose, Edson Kazuo and Sadok, Djamel Fawzi Hadj
- Subjects
Seleção de Caminhos ,Video Streaming ,GOP ,UDP - Abstract
A popularização do serviço de Internet e a redução de custo facilitaram o acesso de usuários a diversos provedores de conteúdo, sejam estes baseados em voz, vídeo ou qualquer outro recurso de multimídia. Consequentemente aumentam os benefícios de ter uma rede de comunicações de melhor resiliência, pois quando uma conexão falha os dados podem fluir por conexões alternativas, reduzindo a probabilidade de perdas de pacotes e falhas na transmissão. Dessa forma, abre-se um novo cenário de estudo que tem a intenção de verificar e propor melhoras em formas de uso dos protocolos de comunicação que tenham o objetivo de tornar confiável a escolha dos melhores caminhos de transmissão para cada tipo de conteúdo. Para a transmissão de stream de vídeo, a escolha do protocolo de transporte é tão importante quanto a escolha de algoritmos e estruturas de dados em relação à aplicação rede. O estudo do desempenho de protocolos de rede de transportes é essencial para o desenvolvimento de protocolos tolerantes a falhas. A avaliação de políticas combinado com o caminho de transmissão, e os limiares de detecção de falhas, largura de banda, atrasos e perda de vazão são avaliados através da simulação dos diferentes protocolos de transmissão utilizado. O comportamento dos protocolos são verificados, comparando o tráfego considerando caminhos alternativos simétricas e assimétricas. O protocolo escolhido para o estudo é o UDP, devido à sua popularidade e sua tolerância a perda. Mostramos neste estudo que a configuração do tamanho do GOP (Group Of Picture) e a utilização correta do tamanho do Frame do UDP podem contribuir para uma transmissão de Vídeo Stream com melhor qualidade utilizando-se dos recursos de conexões disponíveis (seleção de caminhos) na rede
- Published
- 2011
23. Análise de tráfego de redes 3G/HSPA
- Author
-
Melo, Emilio Honorio de and Sadok, Djamel Fawzi Hadj
- Subjects
Operadora móvel brasileira comercial ,Tráfego de dados ,HSPA ,3G ,IuPS - Abstract
Nos últimos anos, as operadoras de telefonia móvel estão investindo na implantação e expansão de suas redes de terceira geração 3G/HSPA. O volume de tráfego de dados dessas redes crescem a taxas elevadas, o que demanda altos investimentos e celeridade no incremento por mais capacidade, exigindo das operadoras a racionalização de seus recursos, para garantir um grau de serviço adequado aos seus clientes e o aprimoramento no conhecimento dessas redes. Atualmente, este processo de racionalização é norteado por métricas tradicionais geradas pelos sistemas de gerenciamento e monitoramento de rede das operadoras (Operation SubSystem - OSS). Porém, o conhecimento da composição do tráfego de dados na rede 3G pode oferecer maiores detalhes e informações complementares para ações de dimensionamento e aferições da rede e o planejamento de políticas para os seus usuários de uma maneira mais precisa. No entanto, o potencial das informações extraídas de amostras de tráfego de pacotes na rede 3G ainda não foi devidamente investigado. Este trabalho objetiva realizar uma análise do comportamento de tais redes, através de coleta de dados numa interface IuPS e também de medições disponíveis no OSS de uma operadora móvel comercial brasileira. A partir dessa análise, fornecemos meios de se conhecer o perfil de seus usuários e um conjunto de métricas que proporcionem um melhor entendimento de seu funcionamento. Tais métricas assumem um papel de destaque nas tomadas de decisões gerenciais nas áreas técnica e comercial
- Published
- 2010
24. Compact forwarding : a probabilistic approach to packet forwarding in content-oriented networks
- Author
-
Christian Rodolfo Esteve Rothenberg, Magalhães, Mauricio Ferreira, 1951, Sadok, Djamel Fawzi Hadj, Madeira, Edmundo Roberto Mauro, Rezende, Jose Ferreira de, Cardozo, Eleri, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Estruturas de dados (Computação) ,Redes de computadores ,Algoritmos ,Probabilidades ,Comutação por pacotes (Transmissão de dados) ,Computer networking ,Packet switiching ,Probability theory ,Data structures (Computer) ,Algorithms - Abstract
Orientador: Mauricio Ferreira Magalhães Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação Resumo: Esta tese introduz um novo conceito para as redes de conteúdo denominado compact forwarding. Este conceito traduz-se na utilização de técnicas probabilísticas no plano de encaminhamento onde o espaço de identificação não é mais relacionado a um host final, mas sim, à identificação de conteúdo(s). A essência do conceito originou-se de uma questão básica, qual seja, onde deve ser colocado o estado associado ao encaminhamento do pacote? Nos elementos de rede ou no cabeçalho do pacote? A tese propõe duas soluções que representam estes extremos, SPSwitch, na qual o estado é colocado nos elementos de rede e, LIPSIN, onde o estado é colocado no cabeçalho do pacote. O denominador comum a essas soluções consiste na utilização de técnicas probabilísticas inspiradas no Bloom filter como elemento base das decisões de encaminhamento. A utilização de estruturas de dados derivadas do Bloom filter traz um custo adicional necessário à minimização dos erros associados à utilização de uma estrutura probabilística. A tese contribui com várias técnicas para redução desses erros incluindo a análise dos custos associados. Cenários de aplicação são apresentados para validação das propostas discutidas no trabalho Abstract: This thesis introduces the concept of compact forwarding in the field of content-oriented networks. The main idea behind this concept is taking a probabilistic approach to the problem of packet forwarding in networks centered on content identifiers rather than traditional host addresses. The fundamental question explored is where to place the packet forwarding state, in network nodes or in packet headers? Solutions for both extremes are proposed. In the SPSwitch, approximate forwarding state is kept in network nodes. In LIPSIN, the state is carried in the packets themselves. Both approaches are based on probabilistic packet forwarding functions inspired by the Bloom filter data structure. The approximate forwarding state comes at the cost of additional considerations due to the effects of one-sided error-prone data structures. The thesis contributes with a series of techniques to mitigate the false positive errors. The proposed compact forwarding methods are experimentally validated in several practical networking scenarios Doutorado Engenharia de Computação Doutor em Engenharia Elétrica
- Published
- 2010
25. Estudo e avaliação de redes convergentes de voz
- Author
-
CABRAL, Fabrício Barros and SADOK, Djamel Fawzi Hadj
- Subjects
Avaliação de Desempenho ,Convergência ,Voz sobre IP ,Conferência ,Skype ,Qualidade de Voz - Abstract
A telefonia convencional é uma tecnologia que permite que pessoas possam, através da fala, se comunicar à distância. Esta tecnologia é basicamente composta pela rede de telefonia pública (PSTN) e por diversos equipamentos, dentre eles o telefone. Com a popularização da Internet, vislumbrou-se a capacidade de utilizar esta rede para efetuar chamadas telefônicas, de maneira semelhante ao sistema de telefonia convencional. A partir de então foi desenvolvida a tecnologia de voz sobre IP (VoIP), que adota um conjunto de técnicas e protocolos permitindo que a voz humana possa se propagar através de uma rede de comutação de dados, como a Internet. Esta tecnologia apresenta diversas vantagens, como a redução dos custos, flexibilidade e o desenvolvimento e agregação de novos serviços. Dentre estes novos serviços, este trabalho foca os serviços de conferência e de convergência entre redes. O serviço de conferência é a capacidade de estabelecer uma chamada entre três ou mais pessoas simultaneamente. O serviço de convergência entre redes é a capacidade de se efetuar uma chamada entre um computador conectado à Internet e um telefone que se encontre na PSTN ou vice-versa. No entanto, por dependerem da Internet, estes serviços estão sujeitos a uma baixa qualidade da voz, devido à variabilidade das condições de rede. Sob este contexto, este trabalho propõe uma metodologia para analisar o comportamento e o desempenho destes serviços, quando submetidas a condições variadas da rede. A partir de um ambiente controlado de rede, foram simulados diversos cenários de utilização destes serviços e configurados diferentes valores para os parâmetros críticos, como o número de participantes, capacidade do enlace, atraso, perda de pacotes e variação do atraso (jitter). Este estudo adotou a qualidade do áudio recebido como principal métrica de desempenho cujo cômputo foi efetuado pelo algoritmo PESQ MOS
- Published
- 2009
26. Mitigando ataques de negação de serviço em redes de sensores sem fio com jogos repetidos infinitamente
- Author
-
Nascimento, Marcelino Santos and Sadok, Djamel Fawzi Hadj
- Subjects
Teoria dos Jogos ,Redes de Sensores Sem Fio ,Segurança - Abstract
Esta dissertação tem como objetivo prover segurança às Redes de Sensores Sem Fio (RSSFs) contra ataques de negação de serviço (DoS). Como não é possível evitar estes ataques, é preciso concentrar-se em mitigá-los. Uma abordagem eficiente para mitigar ataques DoS é apresentada aqui. Esta abordagem é baseada na cooperação dos indivíduos, utilizando a Teoria dos jogos Repetidos e propondo uma técnica para mitigar falhas de segurança nas RSSFs. Provê segurança em uma RSSFs pode ser considerada, na prática, fazer com que os nós da rede cooperem. Reforçar a cooperação entre dois ou mais nós implica atribuir confiabilidade na comunicação de dados entre eles. A cooperação para um nó, em um jogo repetido, é benéfica para todos os nós em conjunto, durante as fases do jogo. Quanto mais um nó coopera este melhora a sua reputação. Esta reputação pode diminuir ou não aumentar quando for detectado um mau comportamento. Nessa abordagem propomos a detecção de atividades maliciosas, baseada em Jogos infinitamente Repetidos, com a inclusão de sistemas de detecção de intrusão (IDS) distribuídos na rede. Os resultados de simulação mostram que o modelo de IDS proposto consegue manter o desempenho da rede mesmo quando a cooperação entre os nós é mínima
- Published
- 2009
27. Avaliação de Desempenho de Aplicações VoIP P2P
- Author
-
BARBOSA, Rodrigo dos Santos Bacelar Gouveia and SADOK, Djamel Fawzi Hadj
- Subjects
Avaliação de Desempenho ,Voz sobre IP ,GTalk ,PESQ ,MOS ,Skype - Abstract
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Esta dissertação avalia o comportamento e o desempenho de aplicações VoIP (Skype, GTalk), quando submetidas a condições variadas da rede. Em um ambiente controlado de rede, foram configurados diferentes valores para parâmetros críticos, como capacidade do enlace, atraso, perda de pacotes e variação do atraso. O trabalho adotou a qualidade do áudio recebido como principal métrica de desempenho cujo cômputo foi efetuado pelo algoritmo PESQ MOS. Ao invés de eleger a melhor aplicação VoIP, este trabalho procura analisar vários aspectos de desempenho e pontuar as qualidades e deficiências apresentadas nos cenários avaliados
- Published
- 2007
28. TIARI: Uma Interface para Entrada de Texto em Sistemas de Realidade Aumentada
- Author
-
Silveira, Isabel Wanderley da and Sadok, Djamel Fawzi Hadj
- Subjects
Realidade Aumentada, Interface de Interação, Entrada de Texto, Avaliação de Usabilidade - Abstract
Interfaces de Realidade Aumentada sobrepõem informações virtuais em cenas do mundo real, aumentando a realidade do usuário pela interação tanto com os objetos virtuais quanto os reais. Para permitir a interação do usuário com estas aplicações, vários tipos de interface vêm sendo propostos com a finalidade de fazer com que esta interação seja feita de forma simples, eficiente e intuitiva. Algumas aplicações de Realidade Aumentada têm a necessidade de entrada de texto, e com isso diversas formas de entrada de texto foram propostas, como teclados virtuais, teclados pinch, gestos, entre outros. Porém, algumas destas formas de interação são caras, incômodas ou difíceis de serem utilizadas por usuários leigos. Portanto, o objetivo dessa dissertação foi propor uma interface para dar suporte à entrada de texto neste tipo de sistemas. Esta interface, chamada TIARI (Text Input Augmented Reality Interface), consiste em uma interface que mescla um teclado virtual, gestos e a utilização de uma interface bare hand com marcadores fiduciais. Para auxiliar no desenvolvimento da TIARI, diversas bibliotecas utilizadas na construção de aplicações baseadas em vídeo com marcadores foram estudadas, a fim de serem escolhidas as mais adequadas à sua implementação. A TIARI utiliza marcadores fiduciais pequenos na mão do usuário, portanto uma biblioteca para fazer a detecção destes marcadores foi utilizada, o ARTag. Além dela, foi utilizada, também, uma biblioteca para captura de vídeo e para renderização dos objetos 3D, o OpenCV e o OGRE com o sistema de renderização OpenGL. Além destas, pode-se destacar como base no desenvolvimento da TIARI o OgreAR, responsável por facilitar o desenvolvimento de aplicações de RA, criando uma camada de abstração para as bibliotecas de detecção de marcadores e captura de vídeo. A fim de validar a interface desenvolvida, TIARI foi integrada a um sistema de Realidade Aumentada existente, o mivaDesk, que é um desktop virtual 3D. Além disto, TIARI foi avaliada através de um estudo de usabilidade realizado, onde a interface foi comparada a um teclado soft existente no mivaDesk. Como resultado desse estudo, a TIARI foi avaliada como de fácil utilização, e apresentou uma média de digitação mais alta que o teclado soft do mivaDesk. Porém, comparando-se a TIARI ao teclado convencional de layout QWERTY ela obteve um desempenho baixo
- Published
- 2007
29. Burst TCP: an approach for benefiting mice flows
- Author
-
Gonçalves, Glauco Estácio and Sadok, Djamel Fawzi Hadj
- Subjects
Mice ,Elephant phenomenon ,ComputerSystemsOrganization_COMPUTER-COMMUNICATIONNETWORKS ,Network simulation ,Congestion control ,TCP - Abstract
Conselho Nacional de Desenvolvimento Científico e Tecnológico The Transmission Control Protocol (TCP) is responsible for supplying reliable data transport service on the TCP/IP stack and for carrying most than 90% of all Internet traffic. In addition, the stability and efficiency of the actual TCP congestion control mechanisms have been extensively studied and are indeed well known by the networking community. However, new Internet applications and functionalities continuously modify its traffic characteristics, demanding new research in order to adapt TCP to the new reality of the Internet. In particular, a traffic phenomenon known as "mice and elephants" has been motivating important researches around the TCP. The main point is that the standard TCP congestion control mechanisms were designed for elephants leading small flows to experience poor performance. This is caused by the exponential behavior of Slow Start which often causes multiple packet losses due their aggressive increase. This work examines minutely the problems caused by the standard TCP congestion control to mice flows as well as it studies the most important proposals to solve them. Thus, based on such research studies, a modified TCP startup mechanism was proposed. The Burst TCP (B-TCP) is an intuitive TCP modification that employs a responsive congestion window growth scheme based on the current window size, to improve performance for small flows. Moreover, B-TCP is easy to implement and requires TCP adjustment at the sender side only. Simulation experiments show that B-TCP can significantly reduce both transfer times and packet losses for small flows without causing damage to large flows
- Published
- 2007
30. Video streaming optimization in ADSL architecture
- Author
-
SANTOS, Gustavo Gentil Barreto and SADOK, Djamel Fawzi Hadj
- Subjects
Transmissão de vídeo ,ADSL ,Medições de rede ,Qualidade de vídeo - Abstract
Com a evolução do mercado de banda larga e a diminuição dos serviços de telefonia tradicionais, os provedores de serviço de telefonia têm a necessidade de oferecer uma grande gama de serviços para se manter competitivo e obter novas fatias do mercado. Novos serviços de áudio e vídeo podem ser oferecidos como nunca antes. Com a junção de serviços de voz, dados e vídeo, serviços Triple Play (3P) são essenciais para que as operadoras e provedores de serviço mantenham sua base seus usuários atuais. O oferecimento de serviços IPTV usando conexões DSL é uma tecnologia emergente que traz novas oportunidades de negócios para os provedores de serviços. Tecnologias de banda larga como o ADSL2+ possuem taxas de dados que tornam possível combinar serviços de voz, vídeo e dados utilizando uma única linha telefônica. Levando em consideração essas melhorias tecnológicas, o padrão ADSL2+ consegue obter taxas de 24 Mbps na teoria, o que seria o suficiente para oferecer alguns canais SDTV (1.5~4 Mbps dependendo do codec utilizado) e HDTV (8~12 Mbps dependendo do codec utilizado) para o usuário residencial. Entretanto outros fatores como ruídos e a distancia entre o usuário e o provedor de serviços pode tornar esse cenário impraticável. Na maioria das vezes o provedor de serviços de vídeo codifica o sinal utilizando o MPEG-2 ou MPEG-4. Aplicações de vídeo em rede requerem transferência de dados ininterrupta, pois a perda de poucos pacotes pode resultar em uma grande perda de qualidade do vídeo. Perda de pacotes pode ser causada de duas maneiras distintas. Por ruídos, que podem ser encontrados em qualquer ambiente de transmissão e podem gerar um efeito indesejável, introduzindo mais erros que o esperado durante a transmissão, ou por estouro do buffer em diferentes elementos da rede. Além do mais, em determinados cenários, a influência do delay e do jitter pode ser crucial na entrega do vídeo para o usuário. Este trabalho aborda os problemas presentes na transmissão de vídeo numa infra-estrutura ADSL, ilustrando diferentes cenários, tais como ambientes com ruído, com tráfego concorrente e diferentes distancias entre o usuário e a provedora de serviço. Variáveis relacionadas à infra-estrutura ADSL, como, por exemplo, proteção a ruído e mecanismos de QoS são observados e ajustes são realizados na intenção de oferecer ao usuário final uma melhoria na qualidade do vídeo. Parâmetros relacionados as Camada 1, 2 e 3 e a nível de aplicação são estudados e analisados. Além disso, diferentes tipos de ruídos na transmissão, tal como REIN, serão inseridos no intuito de simular problemas existentes em um cenário real. Os resultados gerados pelos experimentos mostram que para diferentes tipos de problemas agregados a linha, existem muitos fatores, tais como INP, SNR, Interleaving Delay, que podem ser ajustados visando a melhoria da qualidade do vídeo. No final deste trabalho é apresentada uma configuração desejável para sistemas ADSL no processo de transmissão de vídeo visando minimizar os problemas existentes na linha
- Published
- 2007
31. Uma análise extensiva do tráfego de aplicações Peer-to-Pee
- Author
-
Silvestre, Guthemberg da Silva and Sadok, Djamel Fawzi Hadj
- Subjects
Classificação de fluxos ,Peer-to-peer ,Teoria da informação ,Medições de tráfego ,Compartilhamento de arquivos - Abstract
A popularização dos meios de acesso à internet e o surgimento de novas aplicações de rede têm modificado substancialmente as características do tráfego da internet. Neste cenário, as aplicações de compartilhamento de arquivo Peer-to-Peer (P2P) têm se destacado, sobretudo pelo volume de tráfego gerado. Atualmente, estima-se que a maioria dos bytes transportados na internet seja deste tipo de aplicação. Desta forma, tem sido cada vez mais importante a utilização de métodos que sejam capazes de caracterizar de maneira precisa e eficiente o tráfego P2P. Contudo, não existe uma metodologia eficaz e escalável para a realização desta tarefa, porque o tráfego de aplicações P2P possui características que dificultam o processo de identificação. Entre essas características estão a falta de documentação, o uso aleatório de portas e a codificação dos dados transmitidos. Para superar estes obstáculos algumas abordagens recentes têm sido sugeridas. Entre estas abordagens destacam-se as classificações de tráfego através da carga útil dos pacotes e a classificação de tráfego baseada em padrões de comunicação. A primeira abordagem consiste na definição e utilização de assinaturas para a caracterização do tráfego, enquanto que a segunda trata da identificação e classificação de tráfego através de componentes da comunicação entre os nós e os serviços. Esta dissertação apresenta uma análise extensiva do tráfego P2P, a qual pode ser dividida em três partes. A primeira parte do estudo trata da descrição de uma ferramenta de medição de tráfego, denominada Analyser-PX, capaz de coletar, agregar e classificar tráfego, com ênfase na identificação de tráfego P2P a partir da carga útil dos pacotes. A segunda parte apresenta uma análise comparativa de informações de tráfego P2P coletado em dois pontos distintos de coleta utilizando o Analyser-PX. Por fim, propõe-se na última parte da dissertação um arcabouço de classificação de tráfego P2P a partir de padrões de comunicação
- Published
- 2007
32. Architecture to support multidisciplinary learning through virtual environment distribution
- Author
-
Ribeiro, Marcos Wagner de Souza, Cardoso, Alexandre, Lamounier Júnior, Edgard Afonso, Kirner, Claudio, Lima, Luciano Vieira, Guardieiro, Paulo Roberto, and Sadok, Djamel Fawzi Hadj
- Subjects
Multidisciplinaridade ,Multidisciplinary ,Realidade virtual ,ENGENHARIAS::ENGENHARIA ELETRICA [CNPQ] ,Ambientes virtuais distribuídos ,Distributed virtual environments ,Virtual reality ,CORBA - Abstract
This thesis presents a study of architecture for virtual environment distribution as support tool for learning multidisciplinary projects. Different distribution platforms have been evaluated with the objective to identify the one that with more efficiency allowed exactly that occurred alterations in an environment modify the behavior of others, that these are related to other areas of the knowledge. Building prototypes under the platform chosen for the distribution, following same methodology (modifying aspects of the data model) and having the latency, scalability and extensibility as method of comparison had demonstrated to which the best choice for building multidisciplinary virtual environment. Each prototype was constructed on the basis of distribution algorithms that had allowed the system to function correctly in possible situations of errors. Virtual environments of Biology (landscape with plants, water, light and land) and Chemistry (membrane and molecules) had been used having the phenomenon of the photosynthesis as study of case and relation between two environments. The system was evaluated by professors and students and the reached results had allowed concluding that it is efficient and applicable. Esta tese apresenta uma arquitetura para distribuição de ambientes virtuais como ferramenta de apoio a projetos multidisciplinares de ensino. Para tanto, diferentes plataformas de distribuição foram avaliadas com o objetivo de identificar aquela que com mais eficiência permita que interações ocorridas em um ambiente altere o comportamento de outros, mesmo que estes sejam relacionados a outras áreas do conhecimento. Protótipos construídos sobre a plataforma escolhida para a distribuição, seguindo uma mesma metodologia (onde aspectos do modelo de dados foram alterados) e ainda, tendo a latência, escalabilidade e extensibilidade como parâmetros de comparação demonstraram qual a melhor abordagem para construção de ambientes virtuais multidisciplinares. Cada protótipo foi construído com base em algoritmos de distribuição que permitiram ao sistema funcionar corretamente em situações passíveis de erros. Ambientes Virtuais de Biologia (paisagem com plantas, água, luz e terra) e Química (membrana de uma folha) foram utilizados tendo o fenômeno da fotossíntese como estudo de caso e relação entre os dois ambientes. O sistema foi avaliado por professores e alunos e os resultados alcançados permitiram concluir que o mesmo é eficaz e aplicável. Doutor em Ciências
- Published
- 2006
33. Layer 1 virtual private network management
- Author
-
Neumar Costa Malheiros, Madeira, Edmundo Roberto Mauro, 1958, Sadok, Djamel Fawzi Hadj, Fonseca, Nelson Luis Saldanha da, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Computer network (Management) ,Redes de computadores - Gerência ,Computer network, protocol ,Redes de computadores - Arquitetura ,Redes de computadores - Protocolos ,Computer network, architecture - Abstract
Orientador: Edmundo Roberto Mauro Madeira Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Um plano de controle distribuído, como a arquitetura GMPLS (Generalized Multiprotocol Label Switching), permite o aprovisionamento dinâmico de conexões em redes de transporte de camada 1, como redes ópticas ou redes TDM (Time Division Multiplexing). Dessa forma, essas redes podem oferecer serviços mais sofisticados como serviços VPN (Virtual Private Network). Esses serviçõs, então denominados VPN de camada 1 (L1VPN - Layer 1 VPN), permitem que a infra-estrutura de transporte do provedor seja compartilhada entre múltiplas redes clientes. Neste trabalho, é proposta uma arquitetura para gerência de serviços L1VPN. A abordagem foi utilizar o paradigma de Gerência Baseada em Políticas (PBM ? Policy-Based Management) para prover aos clientes um certo nível de controle e gerência sobre suas L1VPNs. Além disso, é apresentada a implementação de um protótipo da arquitetura proposta, assim como uma discussão das implicações de diferentes políticas para a gerência de configuração de serviços L1VPN, a partir de um estudo de caso Abstract: A distributed control plane architecture as GMPLS enhances transport networks with dynamic connection control. As a result, it allows the provisioning of advanced connectivity services, like Virtual Private Networks (VPNs), on layer 1 switching networks as optical and TDM networks. Such Layer 1 VPN (L1VPN) services enable multiple customer networks to share a single transport network. In this work, an architecture for L1VPN management is proposed. The approach is based on Policy-Based Management (PBM) to provide customers with some level of control and management over their L1VPNs. Furthermore, a prototype implementation of the proposed architecture is presented and from a case study implications of different policies for L1VPN service configuration management are discussed. Mestrado Mestre em Ciência da Computação
- Published
- 2006
34. IOPQ uma fila para implementação de serviços não-eletivos na internet
- Author
-
Dantas, Ramide Augusto Sales and Sadok, Djamel Fawzi Hadj
- Subjects
Qualidade de Serviço ,Avaliação de Desempenho ,Serviços não-Eletivos - Abstract
Diversas abordagens de diferenciação de serviços já foram propostas com o intuito de oferecer Qualidade de Serviço (Quality of Service, QoS) na Internet. No entanto, ainda hoje o paradigma vigente é o do serviço de melhor esforço do protocolo IP, que trata igualmente todos os tipos de tráfego da rede, independente de seus requisitos. Os motivos para a não implantação de QoS na Internet são variados. Por exemplo, devido à complexidade dos mecanismos de QoS, ainda são discutidas as vantagens de disponibilizar tais mecanismos ao invés de simplesmente aumentar a capacidade da rede, já que os resultados podem se mostrar equivalentes em determinadas situações. Por esses motivos, algumas pesquisas em diferenciação de serviços estão mudando de abordagem, sendo direcionadas para criação de mecanismos destinados a prover Serviços não-Eletivos. O objetivo dos Serviços não-Eletivos é melhorar o desempenho de aplicações de tempo real (por exemplo, multimídia interativa), oferecendo baixo atraso relativo às custas de um aumento na taxa de descarte de pacotes. Dessa forma, a vazão do tráfego restante não é afetada, proporcionando uma equivalência entre as classes de serviço, ao contrário do que é visto nas abordagens tradicionais de QoS. Algumas propostas têm sido apresentadas para implementar Serviços não-Eletivos. No entanto, esses modelos são, em geral, baseados em mecanismos relativamente complexos de gerenciamento de filas e escalonamento de pacotes ou requerem o ajuste fino de seu funcionamento. Este trabalho propõe um mecanismo do tipo não-Eletivo denominado IOPQ (In/Out Priority Queue), que alia simplicidade e flexibilidade. A fila IOPQ preserva as características que diferenciam os Serviços não-Eletivos implantação simplificada e baixa sobrecarga operacional , podendo ainda ser adaptado a cenários de uso variados. Foram conduzidos experimentos com o propósito de avaliar o desempenho do mecanismo proposto, realizados sob a forma de simulações com a ferramenta ns-2. Diversos cenários foram avaliados e os resultados demonstraram a capacidade do mecanismo proposto em oferecer serviços do tipo não-Eletivo
- Published
- 2005
35. Uma arquitetura de computação pervasiva para trabalho de campo
- Author
-
Johnson, Thienne de Melo e Silva and Sadok, Djamel Fawzi Hadj
- Subjects
Roteamento por contexto ,Adaptação de conteúdo ,Computação pervasiva ,Localização física - Abstract
Os ambientes de trabalho de campo possuem diversas restrições, como falta de infraestrutura e dispositivos de baixa capacidade. Trabalhos atuais sobre redes ad hoc e computação pervasiva deixam de considerar diversos aspectos que poderiam melhorar os ambientes de campo. Este trabalho de tese descreve uma arquitetura composta de serviços e um protocolo projetados para dar suporte aos requisitos do trabalho de campo. Os serviços foram projetados para dar suporte aos diversos tipos de dispositivos, com diversos padrões de mobilidade. Os dados de roteamento dentro da área de trabalho consideram aspectos dos tipos dos dispositivos, indicando ao serviço de adaptação de conteúdo os tipos de nós do ambiente. O uso de uma estratégia de atualização de informações de localização física também reduz a carga de dados que é transmitida no ambiente. Também é apresentado um protocolo de roteamento que usa informações de localização física de diversas formas. Essas informações podem gerar sub-áreas de trabalho, limitando o escopo das mensagens que trafegam na rede, sendo utilizadas apenas pelos trabalhadores de uma área. Também permitem a troca de dados entre diferentes locais, através do uso de nós que controlam a borda das áreas de trabalho. O conhecimento dos nós vizinhos permite o roteamento por localização e a troca de informações somente entre os nós próximos. Estas contribuições podem também ser utilizadas por outros sistemas de computação pervasiva que tenham interesse em melhorar seu desempenho
- Published
- 2005
36. Uma abordagem para validação de protocolos de comunicação em ambientes de simulação
- Author
-
Domingues, Marco Antonio de Oliveira and Sadok, Djamel Fawzi Hadj
- Subjects
Protocolos de comunicação ,TTCN ,Simuladores ,Testes de conformidade - Abstract
Fundação de Amparo à Pesquisa do Estado do Amazonas O uso de técnicas de simulação para implementar cenários de testes em protocolos de comunicação tem crescido bastante nos últimos anos. Centros de pesquisas acadêmicos e industriais têm dedicado especial interesse em simulação de ambientes com variados graus de complexidade, sobretudo pelo baixo custo e pela rapidez com que os experimentos podem ser implementados, corrigidos, aplicados e reproduzidos em comparação com um ambiente real de operação. Apesar disso, as técnicas de simulação inerentemente envolvem alto nível de abstração na modelagem e mapeamento dos cenários, o que pode comprometer a representatividade e confiabilidade dos resultados obtidos. O arcabouço de testes de conformidade proposto pela ITU-T/ISO através das recomendações OSI-9646 tem sido amplamente utilizado pela indústria de telecomunicações na certificação de seus produtos. Esse arcabouço abrange todas as fases do desenvolvimento dos testes de conformidade, desde planejamento, derivação e implementação do conjunto de testes até a fase de aplicação e análise dos resultados dos testes. O propósito fundamental dos testes de conformidade é verificar se uma implementação se comporta de modo consistente em relação às suas especificações, proporcionando dessa maneira um mecanismo para aumentar o grau de interoperabilidade entre produtos certificados de fabricantes distintos. Para a descrição dos testes, foi definida a linguagem TTCN Testing and Test Control Notation, cuja característica abstrata permite que um conjunto de testes possa ser integrado a diversas implementações de um mesmo protocolo. Em sua terceira versão, essa linguagem também permite a descrição e implementação de testes de performance e de robustez. Este trabalho propõe adaptar o arcabouço de testes de conformidade como um método de validação de protocolos de comunicação em ambientes de simulação, considerando os aspectos relevantes da modelagem abstrata e permitindo o mapeamento de não-conformidade no cenário de simulação antes da realização dos experimentos, dessa forma, possibilitando aumentar a confiabilidade dos cenários utilizados em simulações de protocolos de comunicação
- Published
- 2004
37. Infra-estrutura de transcodificação para distribuição de áudio em uma Intranet adaptável ao estado da rede
- Author
-
BOTELHO, Fábio Pereira and SADOK, Djamel Fawzi Hadj
- Subjects
RTP ,Intranet ,Multicast ,Adaptabilidade ,Distribuição de áudio ,JMF - Abstract
Com o advento das Redes de Computadores e a sua popularização, principalmente nas décadas de 80 e 90, a tradicional, segura e robusta arquitetura centralizada personificada nos mainframes, deu lugar rapidamente a uma arquitetura descentralizada que além correr atrás do prejuízo quando se analisa os benefícios já consolidados da arquitetura centralizada, ainda se volta a partir da década de 90 para a disponibilização de serviços ditos de nova geração, caracterizados por tratar além da mídia textual, ainda áudio e vídeo. Comparativamente ao ambiente complexo, amplo e heterogêneo observado na Internet, o ambiente de uma Intranet é bem comportado para se disponibilizar os serviços de nova geração uma vez que o universo de equipamentos e tecnologias envolvidos, para se garantir os requisitos necessários aos novos serviços, é previsível. A presente dissertação possui como principal contribuição o desenvolvimento de uma infra-estrutura de transcodificação e a implementação de uma aplicação para distribuição de áudio em uma rede corporativa (Intranet) adaptável ao estado da rede que se utiliza da infra-estrura elaborada. Embora focada na distribuição apenas da mídia de áudio, a infraestrutura proposta pode evoluir para permitir a criação de aplicações de distribuição de áudio e vídeo e ainda áudio e vídeo conferências. Usa-se o protocolo de Aplicação/Transporte RTP - Real Time Transport Protocol, disponível em vários formatos de áudio existentes na API JMF - Java Media Framework, além de se abordar as necessidades a nível de rede, tais como Multicast e mecanismos de priorização de quadros e pacotes nas camadas 2 e 3 do modelo de referência OSI (i.e. IEEE 802.1P e DiffServ). São identificados quatro Casos de Uso básicos na infra-estrutura proposta: Transmitir ao Transcodificador; Iniciar Sessões de Áudio no Transcodificador; Receber Stream de Áudio RTP no Receptor; e, Trocar a Sessão Multicast de Recepção. Os três primeiros são especificados, implementados e validados; o quarto, é apenas especificado, sendo a sua implementação e validação em cenário com filas diferenciadas de priorização de pacotes na camada de rede, um trabalho futuro. O trabalho explora o conceito de transcodificação como ideal para lidar com a heterogeneidade de recursos de rede existentes em uma Intranet
- Published
- 2004
38. Controle de admissão de chamadas e reserva derecursos em redes móveis celulares
- Author
-
Dias, Kelvin Lopes and Sadok, Djamel Fawzi Hadj
- Subjects
Qualidade de serviço, Controle de Admissão de chamadas, Rede - Abstract
Handoff é o procedimento que transfere uma chamada em andamento de uma célula para outra à medida que uma estação móvel desloca-se através da área de cobertura de uma rede móvel celular. Se a célula alvo para a qual a estação móvel migra não tem recursos suficientes de banda passante, a chamada será descartada. Da perspectiva do usuário, o descarte de chamadas em andamento durante o handoff é menos desejável que o bloqueio de novas chamadas. Um mecanismo essencial para a provisão de QoS (Quality of Service) no nível de chamadas é o controle de admissão de chamadas (CAC) e reserva de recursos. O CAC deve assegurar não apenas as garantias dos requisitos de QoS das novas chamadas que chegam ao sistema, se aceitas, mas também garantir que os requisitos das chamadas existentes não serão deteriorados com a admissão de mais usuários. Esta tese propõe dois novos esquemas de controle de admissão de chamadas e reserva de recursos para redes móveis celulares. Nossas propostas evitam a sobrecarga de sinalização por usuário para a realização da reserva de recursos e, portanto, são escaláveis. Além disso, garantem os requisitos de QoS em termos de descarte de chamadas de handoff. A primeira proposta, Controle de Admissão Distribuído com Reserva de Recursos por Agregado (RV), utiliza previsão de mobilidade baseada em sistemas de posicionamento móvel e considera a banda passante requerida por chamadas de handoff em cada célula para a reserva de recursos durante uma janela de tempo. Introduzimos um novo conceito, denominado de reserva virtual, que objetiva prevenir a reserva por usuários. Nossa proposta é comparada, através de simulações, com o esquema fixo de canal de guarda e outras propostas otimizadas baseadas em reserva dinâmicas de recursos presentes na literatura. Os resultados de simulação mostraram a superioridade de nossa proposta na garantia de níveis máximos de probabilidade de descarte para handoffs, bem como um aumento no número de usuários admitidos, melhorando a utilização dos recursos da rede. Nossa segunda proposta, Controle de Admissão Local com Reserva de Recursos Baseada em Previsão de Series Temporais, considera a quantidade de banda passante a ser utilizada por chamadas de handoff baseando-se apenas em informação da utilização de banda passante coletada localmente em cada célula. Para este fim, propomos o uso de dois esquemas baseados em previsão de séries temporais para prever a carga de handoff para cada célula: Trigg and Leach (TL), uma técnica de alisamento exponencial adaptativo e modelos ARIMA (Autoregressive Integrated Moving Average). As previsões são realizadas localmente em cada célula. Estes esquemas são comparados e apesar da menor precisão do TL, os resultados de bloqueio de novas chamadas e descarte de handoffs são similares aos obtidos pelo esquema utilizando modelos ARIMA. Comparamos ainda as duas propostas apresentadas nesta tese e verificamos que o esquema local baseado em previsão de séries temporais mais simples utilizando o TL pode garantir limites máximos no descarte de chamadas de handoff similares aos da proposta distribuída com reserva de recursos por agregado.
- Published
- 2004
39. Algoritmo adaptativo de seleção no esquema de codificação do GPRS
- Author
-
CARMO, Ubiratan Alves do and SADOK, Djamel Fawzi Hadj
- Subjects
Algoritmo ,Esquema de codificação - Abstract
Para minimizar os efeitos decorrentes de canais com baixa qualidade utilizados na tecnologia GPRS, foram criados quatro esquemas de codificação de canal. Cada esquema inclui um número de redundância maior ou menor na codificação dos dados. O primeiro esquema de codificação - CS1 introduz um grau maior de redundância e é utilizado para canais com um elevado índice de interferência. Já o CS4 é o esquema de codificação que inclui a menor redundância e é utilizado para um canal com baixíssima interferência. Os fabricantes pesquisam diversas formas de escolha de cada esquema de codificação. O simulador de GPRS desenvolvido pelo Grupo de pesquisa em redes e telefonia GPRT da Universidade Federal de Pernambuco - UFPE, utiliza um algoritmo adaptativo para escolha do esquema de codificação mais adequado em função da qualidade do canal. Este algoritmo utiliza a taxa de blocos errado para tomada de decisão sobre o esquema de codificação adequado para a qualidade do canal corrente. O algoritmo escolhe o CS1 para um canal que apresenta elevada interferência e uma elevada taxa de descarte de pacotes. Por ter uma redundância elevada, o CS1 facilita o esquema de correção de erro através da retransmissão dos pacotes, melhorando o desempenho do GPRS. Por outro lado se um canal apresenta pouca interferência, o algoritmo escolhe o esquema de codificação CS4 diminuindo a redundância e permitindo uma melhor taxa de ocupação do canal. Esta melhor ocupação produz uma melhor vazão e, conseqüentemente, melhora o desempenho do GPRS. O objetivo desta dissertação é propor um novo algoritmo para escolha do esquema de codificação buscando, a melhora do desempenho do algoritmo de adaptação utilizado atualmente, apresentado pelo simulador de GPRS do GPRT da UFPE
- Published
- 2003
40. Análise de desempenho de tráfego de dados assíncronos sobre bluetooth
- Author
-
CARVALHO, Carlos Giovanni Nunes and SADOK, Djamel Fawzi Hadj
- Subjects
Ad-hoc ,Variantes do TCP ,Bluetooth ,Wireless ,Segmentação e Remontagem (SAR) - Abstract
Aplicações de dados, que funcionam sobre o Bluetooth, tais como HTTP, FTP e real audio, irão necessitar de protocolos da camada de transporte da arquitetura TCP/IP (TCP e UDP) para enviar pacotes sobre os links wireless. Para aumentar o desempenho destas aplicações é preciso otimizar os recursos existentes, que na maioria dos dispositivos para este tipo de tecnologia são escassos. Alguns fatores influenciam o desempenho do tráfego de dados sobre estes dispositivos, normalmente, de tamanho reduzido e pouca autonomia de uso. Com isso, há uma crescente tentativa de torná-los mais eficientes, através do melhor aproveitamento de seus recursos. Este trabalho contempla a análise e o aumento de performance do tráfego de dados usando o serviço assíncrono Bluetooth. Mostramos, através dos resultados, que o melhor algoritmo de Segmentação e Remontagem (SAR) é o de Melhor Ajuste (BF), que na média, apresenta maior vazão, menor atraso e variação de atraso nas transmissões e menor porcentagem de perda de pacotes. Quanto as variantes do TCP, o Vegas apresentou-se a melhor escolha, com uma vazão média maior, uma menor porcentagem de perda de pacotes, menor atraso e variação de atraso, mas devido não haver implementações dessa variante, a solução mais conveniente é a utilização do New Reno, uma vez que utilizado com o algoritmo SAR-BF obteve melhor desempenho que os demais
- Published
- 2003
41. Análise do problema do Protocolo MAC IEEE 802.11 em redes Ad Hoc Multihop
- Author
-
ALMEIDA, Adalton de Sena and SADOK, Djamel Fawzi Hadj
- Subjects
DFWMAC ,Instabilidade ,MAC ,Backoff ,Injustiça ,Wireless ,TCP ,Throughput - Abstract
O protocolo MAC IEEE 802.11 DFWMAC (Distributed Foundation Wireless Access Control) foi padronizado para uso em redes locais sem fio e tem sido utilizado para testar e simular redes locais sem fio ad hoc multihop. Este protocolo tem apresentado problemas quando trabalhamos com redes ad hoc multihop. Este problema fica evidente quando submetemos tráfego TCP (Transmission Control Protocol) entre duas estações. Por tratar-se de um protocolo de controle de acesso ao meio distribuído, não possuindo um controle central, a decisão de transmissão é feita pelas próprias estações de acordo com o funcionamento do DFWMAC. Ainda pelas suas características de funcionamento distribuído, problemas de terminal escondido e terminal exposto podem ocorrer comprometendo de maneira significativa o tráfego de conexões TCP. Associado aos problemas de terminal escondido e terminal exposto , o algoritmo de Backoff Exponencial Binário (BEB) contribui para que este protocolo não funcione bem em redes ad hoc multihop. O resultado da ação de todos estes problemas é a degradação do throughput do TCP gerando instabilidade e injustiça no acesso ao meio compartilhado. A instabilidade fica evidente quando a variação do throughput é muito alta em intervalos de tempo muito curtos. Isto pode ser visto com apenas uma conexão TCP entre duas estações. Já o problema de injustiça aparece quando submetemos duas conexões TCP simultâneas, sendo que uma consegue transmitir pacotes de dados a uma taxa alta, utilizando toda a largura de banda, enquanto a outra conexão não consegue transmitir nenhum pacote permanecendo com o throughput zero durante o tempo em que as duas conexões estão ativas. Este trabalho propõe uma solução para lidar com estes problemas
- Published
- 2003
42. MPLS como suporte à engenharia de tráfego em ambiente com diferenciação de serviço
- Author
-
Purificação, Christiane Silva da and Sadok, Djamel Fawzi Hadj
- Subjects
DiffServ ,MPLS (Multiprotocol Label Switching) ,Qualidade de Serviço (QoS) - Abstract
A crescente demanda e o explosivo crescimento da Internet está impondo novos desafios para a garantia de serviços em termos de performance, confiabilidade e Qualidade de Serviço (QoS). Muitas aplicações de missão crítica que dependem das tecnologias de rede não podem funcionar sem garantias expressas de entrega. Entretanto, as redes de dados atuais não oferecem nenhuma garantia de que as exigências feitas a nível de serviço possam ser garantidas sem algum tipo de degradação a qualquer hora, do dia ou da noite, a despeito de outros usuários da rede. Para atender essas exigências, a infra-estrutura da rede precisa ser melhorada com novas tecnologias que ofereçam aos operadores de rede ferramentas para controlar o comportamento da mesma. Juntas, as capacidades oferecidas pela Engenharia de Tráfego, pelo MPLS (Multiprotocol Label Switching) e pelo DiffServ possibilitam o controle e o balanceamento de carga na rede necessários à entrega de serviço de acordo com contratos personalizados. Este trabalho apresenta o MPLS associado à Engenharia de Tráfego como solução para o problema de alocação ineficiente dos recursos em uma rede e o conseqüente congestionamento provocado por tal problema. O esquema de encaminhamento de pacotes do MPLS é empregado como estratégia para minimizar o congestionamento ou alternativamente maximizar a utilização dos recursos, através da alocação eficiente dos mesmos, garantindo, num ambiente com diferenciação de serviço, uma melhor Qualidade de Serviço em termos de redução na perda de pacotes, no atraso e na variação de atraso, e no aumento da vazão agregada
- Published
- 2002
43. O impacto de controladores de banda em domínios DiffServ e roteamento dinâmico
- Author
-
SANTOS, Ana Paula Silva dos and SADOK, Djamel Fawzi Hadj
- Subjects
Serviços diferenciados ,Controlador de banda ,Qualidade de serviço ,Roteamento dinâmico - Abstract
Qualidade de Serviço (QoS) para redes TCP/IP é um conceito que promete promover a utilização de aplicações que necessitam de garantia e confiabilidade, na maior rede de computadores do mundo, a Internet. Dentre as arquiteturas disponíveis para se implementar QoS, uma baseada em priorização de pacotes ou serviços, denominada Serviços Diferenciados (Differentiated Service - DiffServ), define mecanismos e componentes para oferecer mais eficiência na utilização dos recursos da rede. O controlador de banda (Bandwidth Broker - BB) é o componente da arquitetura DiffServ que controla e gerencia os recursos disponíveis na rede, como largura de banda e as políticas de serviços entre domínios vizinhos. O perfil bilateral de negociação de serviços do controlador de banda implica na necessidade de manter um caminho ou rota preestabelecida para cada conexão negociada. Em domínios que utilizam roteamento dinâmico tal proposta é insatisfatória. Esta dissertação propõe um modelo de implementação que possibilita a utilização do controlador de banda em Domínios DiffServ com Roteamento Dinâmico. Neste trabalho, são previstos problemas de renegociação e realocação de recursos dentro de um ou mais domínios, avaliando, com simulações, o desempenho desta proposta
- Published
- 2002
44. Avaliação de servicos de dados em redes GPRS
- Author
-
Dantas, Suzana de França and Sadok, Djamel Fawzi Hadj
- Subjects
Comunicação móvel ,Internet ,Chaveamento por pacotes ,Cenários de codificação - Abstract
O General Packet Radio Service (GPRS) é uma tecnologia que amplia os sistemas de segunda geração das comunicações móveis celulares atuais para permitir tráfego de dados utilizando chaveamento por pacotes. Dessa maneira, dados de redes IP ou X.25 podem ser enviados e/ou recebidos pelos assinantes GPRS em aparelhos especificamente desenvolvidos para suportar esse serviço. Existem quatro cenários de codificação (Coding Scheme- CS) propostos para o GPRS. Eles são escolhidos de acordo com as condições ambientais em que uma dada conexão de rádio está sujeita. Isto é, interferências, ruídos e, consequentemente, descartes de pacotes determinam qual o melhor CS a ser adotado. Uma vez definido o CS para inicialização do envio dos dados, a operadora pode optar por mantê-lo por toda a transmissão ou alterá-lo usando algum método que avalie as perdas e o estado atual do ambiente. Esse trabalho tem por objetivo avaliar o comportamento da vazão dos usuários para cada um desses cenários de codificação em situações distintas quanto à qualidade do sinal e propor um modelo adaptativo que permita a migração entre os CSs baseado no percentual de blocos descartados em uma janela de blocos transmitida. A principal vantagem de um modelo adaptativo é a possibilidade de otimização do tráfego, permitindo que menos pacotes sejam descartados, que as transmissões finalizem mais rapidamente e que mais usuários possam ser atendidos
- Published
- 2001
45. Gerenciamento de Redes com Agentes Móveis -GRAM
- Author
-
Mane, Babacar and Sadok, Djamel Fawzi Hadj
- Subjects
Sistemas de gerenciamento ,Agentes móveis GRAM - Abstract
Com a instalação constante de redes de computadores nas organizações (sociais, industriais, comerciais etc.) as atividades de gerenciamento tornam-se sempre mais complexas, embora sejam indispensáveis e melhorem a qualidade dos serviços oferecidos aos seus usuários. Os sistemas atuais de gerenciamento, considerados como aplicações distribuídas, são implementados com base no paradigma cliente-servidor. Este modelo transforma as atividades de gerenciamento em operações centralizados numa única estação. Dados dos recursos gerenciados são monitorados, coletados por agentes e registrados numa base de dados local. Os serviços fornecidos por essas entidades lhes são atribuídos na sua fase de implementação. Para acessar a esses serviços as aplicações de gerenciamento ou gerente localizados na estação central são obrigados microgerenciar os dispositivos gerenciados. Esse processo pode aumentar riscos de congestionamento na rede e o tempo destinado à solução imediata de eventuais problemas o que pode tornar os sistemas de gerenciamento atuais uma solução ineficiente e não confiável. O nosso trabalho, denominado de gerenciamento de redes com agentes móveis-GRAM, apresenta um paradigma mais flexível baseado em agentes móveis. O GRAM é implementado na plataforma Máquina Virtual Agentware (Agentware V irtual Machine-AVM) que suporta execução em tempo real, processa dados dos recursos gerenciados localmente, é heterogêneo e confiável. Os agentes integram dinamicamente novas funcionalidades e são controlados remotamente. O GRAM constitui uma solução viável de gerenciamento de redes
- Published
- 1999
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.