39 results on '"Endo, Patricia Takako"'
Search Results
2. Simulating and evaluating a real-world elastic search system using the RECAP DES simulator
- Author
-
Bendechache, Malika, Svorobej, Sergej, Endo, Patricia Takako, Mihai, Adrian, and Lynn, Theo
- Subjects
Computer engineering ,Simulation ,Modelling ,ElasticSearch ,DES ,CloudSim ,CloudSimPlus ,Query ,Work15 load ,Search engines ,Computer simulation - Abstract
Simulation has become an indispensable technique for modelling and evaluating the performance of large-scale systems efficiently and at a relatively low cost. ElasticSearch (ES) is one of the most popular open-source large-scale distributed data indexing systems worldwide. In this paper, we use the RECAP Discrete-Event Simulator (DES) simulator, an extension of CloudSimPlus, to model and evaluate the performance of a real-world cloud-based ES deployment by an Irish small and medium-sized enterprise (SME), Opening.io. Following simulation experiments that explored how much query traffic the existing Opening.io architecture could cater for before performance degradation, a revised architecture was proposed, adding a new virtual machine in order to dissolve the bottleneck. The simulation results suggest that the proposed improved architecture can handle significantly larger query traffic (about 71% more) than the current architecture used by Opening.io. The results also suggest that the RECAP DES simulator is suitable for simulating ES systems and can help companies to understand their infrastructure bottlenecks under various traffic scenarios and inform optimisation and scalability decisions.
- Published
- 2021
3. An��lise de sentimento em base de rumores online sobre a COVID-19 em portugu��s brasileiro
- Author
-
Carvalho Monteiro, Kayo Henrique, Xavier, Maria Eduarda de Lima, Barros, Maicon Heverton Lino Ferreira da Silva, and Endo, Patricia Takako
- Abstract
Institui����es de sa��de, como a Organiza����o Mundial da Sa��de (OMS), incluem algumas ferramentas de redes sociais (como Facebook, Twitter e outras) como parte crucial na divulga����o de informa����es confi��veis sobre sa��de, monitoramento de crises de sa��de e conten����o de boatos online. No Brasil, para combater a dissemina����o de not��cias falsas, o Minist��rio da Sa��de lan��ou um programa para verificar veracidade de mensagens online. No entanto, a complexidade de lidar com a comunica����o durante uma crise de sa��de �� bastante alta, pois as m��dias sociais, em compara����o com as m��dias tradicionais, s��o mais dif��ceis de monitorar, rastrear e analisar. Diante desse contexto, este trabalho apresenta uma an��lise sentimental a partir de um conjunto de dados composto por 1.285 rumores e n��o rumores em portugu��s do Brasil identificados por jornalistas e pelo Minist��rio da Sa��de do Brasil.
- Published
- 2021
- Full Text
- View/download PDF
4. Análise de sentimento em base de rumores online sobre a COVID-19 em português brasileiro
- Author
-
Xavier, Maria Eduarda De Lima, Campos, Gleyson Rhuan Nascimento, Monteiro, Kayo Henrique De Carvalho, Maicon Herverton Lino Ferreira Da Silva Barro, and Endo, Patricia Takako
- Abstract
Instituições de saúde, como a Organização Mundial da Saúde (OMS), incluem algumas ferramentas de redes sociais (como Facebook, Twitter e outras) como parte crucial na divulgação de informações confiáveis sobre saúde, monitoramento de crises de saúde e contenção de boatos online. No Brasil, para combater a disseminação de notícias falsas, o Ministério da Saúde lançou um programa para verificar veracidade de mensagens online. No entanto, a complexidade de lidar com a comunicação durante uma crise de saúde é bastante alta, pois as mídias sociais, em comparação com as mídias tradicionais, são mais difíceis de monitorar, rastrear e analisar. Diante desse contexto, este trabalho apresenta uma análise sentimental a partir de um conjunto de dados composto por 1.285 rumores e não rumores em português do Brasil identificados por jornalistas e pelo Ministério da Saúde do Brasil.
- Published
- 2021
- Full Text
- View/download PDF
5. Medidas de distanciamento social e mobilidade na Am\'erica do Sul durante a pandemia por COVID-19: Condi\c{c}\~oes necess\'arias e suficientes?
- Author
-
de Oliveira, Gisliany Lillian Alves, de Lima, Luciana Conceição, Silva, Ivanovitch, Ribeiro-Dantas, Marcel da Câmara, Monteiro, Kayo Henrique, and Endo, Patricia Takako
- Subjects
Computer Science - Social and Information Networks - Abstract
In a scenario where there is no vaccine for COVID-19, non-pharmaceutical interventions are necessary to contain the spread of the virus and the collapse of the health system in the affected regions. One of these measures is social distancing, which aims to reduce interactions in the community by closing public and private establishments that involve crowds of people. The lockdown presupposes a drastic reduction in community interactions, representing a more extreme measure of social distancing. Based on geolocation data provided by Google for six categories of physical spaces, this article identifies the variations in the circulation of people in South America for different types of social distancing measures adopted during the COVID-19 pandemic. In this study, population mobility trends for a group of countries between February 15, 2020 and May 16, 2020 were analyzed. To summarize these trends in a single metric, a general circulation index was created, and to identify regional mobility patterns, descriptive analyzes of spatial autocorrelation (global and local Moran index) were used. The first hypothesis of this study is that countries with a lockdown decree can achieve greater success in reducing the mobility of the population, and the second hypothesis is that Argentina, Brazil and Colombia have regional mobility patterns. The first hypothesis was partially confirmed (considering 10 countries in South America), and the results obtained in the spatial analyzes confirmed the second hypothesis. In general, the observed data shows that less rigid lockdown or social distancing measures are necessary, however, they are not sufficient to achieve a significant reduction in the circulation of people during the pandemic., Comment: in Portuguese
- Published
- 2020
6. Medidas de distanciamento social e mobilidade na Am��rica do Sul durante a pandemia por COVID-19: Condi����es necess��rias e suficientes?
- Author
-
de Oliveira, Gisliany Lillian Alves, de Lima, Luciana Concei����o, Silva, Ivanovitch, Ribeiro-Dantas, Marcel da C��mara, Monteiro, Kayo Henrique, and Endo, Patricia Takako
- Subjects
Social and Information Networks (cs.SI) ,FOS: Computer and information sciences - Abstract
In a scenario where there is no vaccine for COVID-19, non-pharmaceutical interventions are necessary to contain the spread of the virus and the collapse of the health system in the affected regions. One of these measures is social distancing, which aims to reduce interactions in the community by closing public and private establishments that involve crowds of people. The lockdown presupposes a drastic reduction in community interactions, representing a more extreme measure of social distancing. Based on geolocation data provided by Google for six categories of physical spaces, this article identifies the variations in the circulation of people in South America for different types of social distancing measures adopted during the COVID-19 pandemic. In this study, population mobility trends for a group of countries between February 15, 2020 and May 16, 2020 were analyzed. To summarize these trends in a single metric, a general circulation index was created, and to identify regional mobility patterns, descriptive analyzes of spatial autocorrelation (global and local Moran index) were used. The first hypothesis of this study is that countries with a lockdown decree can achieve greater success in reducing the mobility of the population, and the second hypothesis is that Argentina, Brazil and Colombia have regional mobility patterns. The first hypothesis was partially confirmed (considering 10 countries in South America), and the results obtained in the spatial analyzes confirmed the second hypothesis. In general, the observed data shows that less rigid lockdown or social distancing measures are necessary, however, they are not sufficient to achieve a significant reduction in the circulation of people during the pandemic., in Portuguese
- Published
- 2020
- Full Text
- View/download PDF
7. Using Reinforcement Learning to Allocate and Manage Service Function Chains in Cellular Networks
- Author
-
Santos, Guto Leoni and Endo, Patricia Takako
- Subjects
Computer Science - Networking and Internet Architecture ,Networking and Internet Architecture (cs.NI) ,FOS: Computer and information sciences ,Computer Science - Machine Learning ,Statistics - Machine Learning ,Machine Learning (stat.ML) ,Machine Learning (cs.LG) - Abstract
It is expected that the next generation cellular networks provide a connected society with fully mobility to empower the socio-economic transformation. Several other technologies will benefits of this evolution, such as Internet of Things, smart cities, smart agriculture, vehicular networks, healthcare applications, and so on. Each of these scenarios presents specific requirements and demands different network configurations. To deal with this heterogeneity, virtualization technology is key technology. Indeed, the network function virtualization (NFV) paradigm provides flexibility for the network manager, allocating resources according to the demand, and reduces acquisition and operational costs. In addition, it is possible to specify an ordered set of network virtual functions (VNFs) for a given service, which is called as service function chain (SFC). However, besides the advantages from service virtualization, it is expected that network performance and availability do not be affected by its usage. In this paper, we propose the use of reinforcement learning to deploy a SFC of cellular network service and manage the VNFs operation. We consider that the SFC is deployed by the reinforcement learning agent considering a scenarios with distributed data centers, where the VNFs are deployed in virtual machines in commodity servers. The NFV management is related to create, delete, and restart the VNFs. The main purpose is to reduce the number of lost packets taking into account the energy consumption of the servers. We use the Proximal Policy Optimization (PPO) algorithm to implement the agent and preliminary results show that the agent is able to allocate the SFC and manage the VNFs, reducing the number of lost packets., Comment: 9 pages, 6 figures, 2 tables
- Published
- 2020
- Full Text
- View/download PDF
8. Modelando a curva de contágio da COVID-19 em Caruaru, Pernambuco
- Author
-
Sobral, Eryka Fernanda Miranda, Wellington Charles Lacerda Nobrega, Endo, Patricia Takako, and Monteiro, Kayo Henrique
- Abstract
Apesar de todas as medidas adotadas pela prefeitura, a adesão ao isolamento social por parte da população caruaruense ainda é baixa. Assim, o objetivo desta nota é apresentar simulações sobre o crescimento do contágio por COVID-19 no município de Caruaru, Pernambuco. Apesar da existência de diversos outros modelos de contágio (como modelos SEIR e suas variações), esta nota apresenta um exercício preliminar para a cidade de Caruaru, havendo apenas poucos dados para análise utilizando um modelo já bastante conhecido na literatura.
- Published
- 2020
- Full Text
- View/download PDF
9. Análise e predição de ocorrência de malária no Estado do Amazonas: resultados preliminares utilizando modelo LSTM
- Author
-
Matheus Félix Xavier Barboza, Guto Leoni Dos Santos, Silva, Iago Richard Rodrigues, Lynn, Theo, Vanderson Sampaio, and Endo, Patricia Takako
- Abstract
Resumo. Através de dados fornecidos pelo Sistema de Informação de Agravos de Notificação (SINAN), de 2003 à 2018, foi constatado que o Estado do Amazonas possui um altíssimo índice de casos diagnosticados de malária. O presente artigo apresenta na análise desses dados por meio da aplicação do algoritmo de clusterização k-means e modelo de predição utilizando deep learning. O objetivo principal é predizer a quantidade de ocorrências de malária na região, apresentando modelos específicos por cluster. Inicialmente, este trabalho apresenta os resultados referentes a cidade de Manaus, que por sua particularidade, está isolada das demais cidades, em um cluster. Resultados mostram que o modelo Long-Short Term Memory (LSTM) proposto apresenta um bom resultado, com RMSE de 0,0362.
- Published
- 2020
- Full Text
- View/download PDF
10. The Greatest Teacher, Failure is: Using Reinforcement Learning for SFC Placement Based on Availability and Energy Consumption
- Author
-
Santos, Guto Leoni, Lynn, Theo, Kelner, Judith, and Endo, Patricia Takako
- Subjects
Computer Science - Networking and Internet Architecture ,Networking and Internet Architecture (cs.NI) ,FOS: Computer and information sciences ,Computer Science - Machine Learning ,Machine Learning (cs.LG) - Abstract
Software defined networking (SDN) and network functions virtualisation (NFV) are making networks programmable and consequently much more flexible and agile. To meet service level agreements, achieve greater utilisation of legacy networks, faster service deployment, and reduce expenditure, telecommunications operators are deploying increasingly complex service function chains (SFCs). Notwithstanding the benefits of SFCs, increasing heterogeneity and dynamism from the cloud to the edge introduces significant SFC placement challenges, not least adding or removing network functions while maintaining availability, quality of service, and minimising cost. In this paper, an availability- and energy-aware solution based on reinforcement learning (RL) is proposed for dynamic SFC placement. Two policy-aware RL algorithms, Advantage Actor-Critic (A2C) and Proximal Policy Optimisation (PPO2), are compared using simulations of a ground truth network topology based on the Rede Nacional de Ensino e Pesquisa (RNP) Network, Brazil's National Teaching and Research Network backbone. The simulation results showed that PPO2 generally outperformed A2C and a greedy approach both in terms of acceptance rate and energy consumption. A2C outperformed PPO2 only in the scenario where network servers had a greater number of computing resources.
- Published
- 2020
- Full Text
- View/download PDF
11. Prototipação de sistema e-health para avaliação de desempenho
- Author
-
Campos, Gleyson Rhuan Nascimento, Monteiro, Kayo Henrique De Carvalho, Guto Leoni Dos Santos, and Endo, Patricia Takako
- Abstract
O aumento da expectativa de vida humana traz desafios para os sistemas de saúde. Sistemas e-health que utilizam dados de dispositivos IoT sofrem com limitações de armazenamento e processamento, disponibilidade e desempenho. Portanto, para solucionar essas limitações, tecnologias de apoio podem ser inseridas na infraestrutura do sistema, com a fog e cloud para garantir armazenamento e processamento ilimitados, além de melhorar o desempenho e a disponibilidade do sistema. O atual trabalho em andamento visa analisar o desempenho de uma prototipação de sistema e-health utilizando três camadas (Internet das coisas (IoT), fog e cloud computing), com objetivo de prover informações mais detalhadas do sistema.
- Published
- 2020
- Full Text
- View/download PDF
12. #StayHome: Monitoring social distancing trends in Amazonas during the COVID-19 pandemic using Google mobile data
- Author
-
Endo, Patricia Takako
- Abstract
Monitoring social distancing trends in Amazonas during the COVID-19 pandemic using Google mobile data
- Published
- 2020
- Full Text
- View/download PDF
13. Predição de probabilidade de óbito por tuberculose no Estado do Amazonas utilizando um modelo deep learning
- Author
-
Thomás Tabosa De Oliveira, Elisson Rocha, Alves, Isabela Simoes, Guto Leoni Dos Santos, Lynn, Theo, Vanderson De Souza Sampaio, and Endo, Patricia Takako
- Abstract
A Tuberculose (TB) e reconhecida como a doença mais mortal do mundo, segundo a World Health Organization (WHO). O Brasil e um dos países com alta carga de TB, e uma das maiores taxas de mortalidade do país encontrasse no estado do Amazonas. Os principais objetivos desse artigo são: uma análise dos dados de pacientes e óbitos por TB obtidos pelo SINAN e o de envolvimento de um modelo de deep learning (DL) que auxilie profissionais de saúde no processo de pós-diagnostico de pacientes com TB. Os dados Analisados mostram que as taxas de óbito aumentam para pacientes com agravos como Álcool ou Diabetes, além disso, a maioria dos casos são novos, contudo a taxa de óbito a cada 1000 pacientes com entrada Recidiva é alta também. Os modelos de DL apresentam resultados interessantes, alcançando em alguns casos, 80% de especificidade e 87% de sensibilidade.
- Published
- 2020
- Full Text
- View/download PDF
14. Levantamento de requisitos para aplicação WEB para visualização de dados de ocorrência de tuberculose
- Author
-
Silva, Diego M. F. X., Elisson S. Rocha, Guto Leoni Dos Santos, and Endo, Patricia Takako
- Abstract
Os números de óbito por tuberculose no Brasil são muito altos. Isso ocorre por vários motivos: o diagnóstico e a decisão pós-diagnostico falhos, faz com que pacientes não recebam o tratamento adequado para a doença. Baseado-se nisso, este trabalho em andamento propõe o levantamento de requisitos para a criação de uma aplicação ao WEB, denominada DeepTub, para visualização (a) de dados de tuberculose, inicialmente do Estado do Amazonas, e (b) de dados de resultados de modelos computacionais que realizam predição de probabilidade de morte pela doença em questão. O objetivo é levantar requisitos para o desenvolvimento de uma aplicação WEB que irá colaborar com uma melhor compreensão sobre os padrões da doença e das áreas e grupos de risco, servindo como uma ferramenta de suporte para profissionais da área de saúde Este artigo apresenta os requisitos levantados e um protótipo que mostra como sera a aplicação que será desenvolvida em trabalhos futuros.
- Published
- 2020
- Full Text
- View/download PDF
15. Predição de probabilidade de óbito por Tuberculose no Estado do Amazonas utilizando um modelo Deep Learning
- Author
-
Endo, Patricia Takako and Gleyson Campos
- Abstract
A Tuberculose (TB) é reconhecida como a doença mais mortal do mundo, segundo a World Health Organization (WHO). O Brasil é um dos países com alta carga de TB, e uma das maiores taxas de mortalidade do país encontra-se no estado do Amazonas. Os principais objetivos desse artigo são: uma análise dos dados de pacientes e óbitos por TB obtidos pelo SINAN e o desenvolvimento de um modelo de deep learning (DL) que auxilie profissionais de saúde no processo de pós-diagnóstico de pacientes com TB. Os dados Analisados mostram que a taxa de óbito aumentam para pacientes com agravos como Álcool ou Diabetes, além disso, a maioria dos casos são novos, contudo a taxa de óbito a cada 1000 pacientes com entrada Recidiva é alta também. Os modelos de DL apresentam resultados interessantes, alcançando em alguns casos, 80% de especificidade e 87% de sensibilidade.
- Published
- 2019
- Full Text
- View/download PDF
16. Analisando o impacto das falhas da infraestrutura de energia na disponibilidade de aplicativos em nuvem
- Author
-
Elisson Rocha and Endo, Patricia Takako
- Abstract
A adoção generalizada da computação em nuvem tem sido impulsionada por vantagens percebidas em agilidade e escalabilidade inerentes à computação em nuvem. Para os provedores de serviço em nuvem, gerenciar a alta expectativa dos clientes e os danos resultantes das interrupções do serviço é um desafio crescente e crítico. Este trabalho examina a relação entre arquiteturas de infraestrutura de energia e disponibilidade de aplicativos de software em um data center. Os resultados aponta que a infraestrutura de energia é importante na disponibilidade do serviço. À medida que aumentamos o nível de redundância da arquitetura, conseguimos melhores resultados.
- Published
- 2019
- Full Text
- View/download PDF
17. Desenvolvimento de uma arquitetura para sistemas e-health baseada em IoT, fog e cloud
- Author
-
Monteiro, Kayo Henrique, Elisson Rocha, Silva, Emerson, Guto Leoni Dos Santos, Wylliams Barbosa Santos, and Endo, Patricia Takako
- Abstract
Estima-se que a expectativa de vida da população mundial, até 2030, seja de 90 anos, em média. As comunidades tem dedicado esforços no desenvolvimento de aplicações que promovam qualidade de vida para os idosos. Assim, serviços de monitoramento de sinais vitais e sistemas de detecção de quedas estão em evidência. Uma parte dos esforços focam nestes serviços utilizando IoT (Internet of Thing). No entanto, devido ao alto fluxo de dados, dispositivos IoT não são capazes de processar, armazenar e garantir os SLAs (Service Level Agreements) destes serviços. Neste contexto, a IoT possui dois grandes aliados: fog e cloud. Este artigo apresenta uma proposta de arquitetura para sistemas e-health utilizando IoT, fog e cloud, e também as características para construção de um protótipo.
- Published
- 2019
- Full Text
- View/download PDF
18. AcervoUPE: Produção de Material Online para Auxílio e Acompanhamento do Componente Curricular Redes de Computadores I
- Author
-
Leylane Graziele Ferreira Da Silva and Endo, Patricia Takako
- Abstract
O presente artigo tem como intuito relatar a ideia de transformar a monitoria da disciplina de Redes de Computadores I em uma experiencia EAD. Esse projeto foi aplicado na Universidade de Pernambuco (Campus Caruaru) e visa dar continuidade ao projeto “Digitalização do Curso de Linguagem de Programação e Algoritmos - Uma Proposta de EAD”, que por sua vez, concebeu a criação do canal acervoUPE, no site YouTube. Os objetivos do projeto englobam a expansão de uma biblioteca online disponível para os alunos, assim como, colaborar com os alunos da disciplina de tal forma que todos possamacompanhar o conteúdo de maneira cômoda e prática.
- Published
- 2019
- Full Text
- View/download PDF
19. Detecção de crises epilépticas utilizando deep learning com fog e cloud computing
- Author
-
Elisson Rocha, Monteiro, Kayo Henrique, Silva, Emerson, Guto Leoni Dos Santos, Wylliams Barbosa Santos, and Endo, Patricia Takako
- Abstract
Hoje, existem mais de 900 milhões de pessoas que sofrem com algumas doenças crônicas em todo o mundo. Por essa razão, sistemas de e-health estão sendo desenvolvidos para prover uma melhor qualidade de vida para os pacientes. Deep learning tem sido uma técnica importante incorporada nesses sistemas para prever e classificar dados sem a necessidade de um especialistaatuando 24 horas. No entanto, a combinação de sistemas de e-health e técnicas de deep learning traz vários desafios que precisam ser superados. Com base nesse contexto, este trabalho em andamento propõe um sistema e-health baseado em fog e cloud computing, usando o deep learning para prever convulsões epilépticas.
- Published
- 2019
- Full Text
- View/download PDF
20. Simulação de mecanismos para gerenciamento de recursos em Nuvem Verde
- Author
-
Elisson Rocha and Endo, Patricia Takako
- Abstract
A Computação em Nuvem é uma realidade do nosso dia-a-dia. Porém, apesar das diversas vantagens para seus usuários, os provedores de Nuvem precisam lidar com diversos problemas, como o gerenciamento de recursos de forma eficiente, que consiga reduzir custos energéticos e manter a qualidade dos serviços oferecidos. Esta prática é denominado como Nuvem Verde. Para encontrar soluções, a arquitetura dos datacenters é um ponto bastante investigado na literatura. Para propor novas estrategias e obter resultados para analises confiáveis, é comum o uso de simuladores, como o GreenCloud. Este artigo tem como objetivo apresentar conceitos de Nuvem Verde, topologiasde datacenter e o simulador GreenCloud.
- Published
- 2019
- Full Text
- View/download PDF
21. Uma Abordagem Híbrida Para Predizer Pontuações Motoras da Doença de Parkinson no Contexto de Mineração de Dados
- Author
-
Endo, Patricia Takako
- Abstract
Objetivo: predizer as pontuações motoras da doença de Parkinson baseado em uma abordagem híbrida que utilize uma combinação de aprendizado não-supervisionado e supervisionado. Metodologia: utilizou-se a CRISP-DM(Cross Industry Standard Process for Data Mining). Resultados:amédia dos erros 0.03922218, 0.03592167, e desvio padrão são 0.00082, 0.00081, para regressão linear e a abordagem híbrida, respectivamente. Obteve-seevidências que a abordagem apresentou um erro de predição menor que a Regressão Linear com o valor do p-value de 2.2e-16 ao nível de significância de 5%. Considerações Finais:a abordagem híbrida apresentou resultados satisfatórios e pode potencializar o resultado da estimação em bases de dados.
- Published
- 2019
- Full Text
- View/download PDF
22. Analisando a disponibilidade de um sistema e-Health integrado com infraestruturas de edge, fog e cloud
- Author
-
Matheus Felipe Ferreira Da Silva Lisboa Tigre, Guto Leoni Dos Santos, and Endo, Patricia Takako
- Abstract
Internet das coisas e cloud computing são duas áreas que, cada vez mais, estão sendo integradas, visando a melhor utilização dos recursos de ambas as partes para alcançar um objetivo comum. Esta união oferece diversas vantagens, como maior disponibilidade, e maior capacidade de processamento e armazenamento, por exemplo. As aplicações e-Health tem aproveitado as vantagens desta integração, especialmente porque, por tratarem da saúde de pacientes, as mesmas são críticas e precisam estar em funcionamento o maior tempo possível. Neste contexto, o presente artigo propõe modelos matemáticos pra analisar como as falhas no sistema integrado de edge, fog e cloud podem impactar na disponibilidade de um sistema de e-Health.
- Published
- 2019
- Full Text
- View/download PDF
23. Avaliação de algoritmos de balanceamento de carga do simulador Greencloud para computação em nuvem
- Author
-
Silva, Iago Richard Rodrigues and Endo, Patricia Takako
- Abstract
A computação em nuvem tem se tornado um foco de pesquisa bastante forte nos últimos anos. Os administradores de servidores estão migrando sua infraestrutura física para a nuvem. São objetivos do artigo: (i) apresentar o simulador Greencloud, com foco nos algoritmos de balanceamento de cargae (ii) realizar simulações em cenários de nuvem, analisando a eficiência dos algoritmos de balanceamento de cargas presentes no simulador.
- Published
- 2019
- Full Text
- View/download PDF
24. Integração de infraestrutura de computação em nuvem e IoT para fornecimento de aplicações
- Author
-
Matheus Felipe Ferreira Da Silva Lisboa Tigre and Endo, Patricia Takako
- Abstract
Internet das coisas e computação em nuvem são duas áreas que cada vez mais vem sido trabalhadas de forma conjunta, visando utilizar os recursos de ambas para o bem comum. Dentre a inúmera quantidade de vantagens que essa união oferece, está a captura, processamento e distribuição de dados obtidos de sensores através da infraestrutura da nuvem para aplicações utilizadas por interessados nessas informações. Isso dá origem ao que pode ser chamado de Sensing-as-a-Service. Nesse contexto, existem varias aplicações possíveis com a utilização dessa estrutura e que podem beneficiar diversos tipos de stakeholders. Unindo computação em nuvem e IoT pode trazer benefícios tanto de um para o outro como para a disponibilização de dados pela rede.
- Published
- 2019
- Full Text
- View/download PDF
25. Predição de probabilidade de óbito por Tuberculose no Estado do Amazonas utilizando um modelo Deep Learning
- Author
-
Endo, Patricia Takako
- Abstract
A Tuberculose (TB) é reconhecida como a doença mais mortal do mundo, segundo a World Health Organization (WHO). O Brasil é um dos países com alta carga de TB, e uma das maiores taxas de mortalidade do país encontra-se no estado do Amazonas. Os principais objetivos desse artigo são: uma análise dos dados de pacientes e óbitos por TB obtidos pelo SINAN e o desenvolvimento de um modelo de deep learning (DL) que auxilie profissionais de saúde no processo de pós-diagnóstico de pacientes com TB. Os dados Analisados mostram que a taxa de óbito aumentam para pacientes com agravos como Álcool ou Diabetes, além disso, a maioria dos casos são novos, contudo a taxa de óbito a cada 1000 pacientes com entrada Recidiva é alta também. Os modelos de DL apresentam resultados interessantes, alcançando em alguns casos, 80% de especificidade e 87% de sensibilidade.
- Published
- 2019
- Full Text
- View/download PDF
26. Theoretical Foundations of the A2RD Project: Part I
- Author
-
Braga, Juliao, Silva, Joao Nuno, Endo, Patricia Takako, and Omar, Nizam
- Subjects
FOS: Computer and information sciences ,Artificial Intelligence (cs.AI) ,Computer Science - Artificial Intelligence - Abstract
This article identifies and discusses the theoretical foundations that were considered in the design of the A2RD model. In addition to the points considered, references are made to the studies available and considered in the approach., 9 pages
- Published
- 2018
27. Blockchain to Improve Security, Knowledge and Collaboration Inter-Agent Communication over Restrict Domains of the Internet Infrastructure
- Author
-
Braga, Juliao, Silva, Joao Nuno, Endo, Patricia Takako, Ribas, Jessica, and Omar, Nizam
- Subjects
FOS: Computer and information sciences ,Artificial Intelligence (cs.AI) ,Computer Science - Artificial Intelligence - Abstract
This paper describes the deployment and implementation of a blockchain to improve the security, knowledge, intelligence and collaboration during the inter-agent communication processes in restrict domains of the Internet Infrastructure. It is a work that proposes the application of a blockchain, platform independent, on a particular model of agents, but that can be used in similar proposals, once the results on the specific model were satisfactory., 13 pages, CSBC 2018, V Workshop pre IETF, July 2018
- Published
- 2018
28. A Summary Description of the A2RD Project
- Author
-
Braga, Juliao, Silva, Joao Nuno, Endo, Patricia Takako, and Omar, Nizam
- Subjects
FOS: Computer and information sciences ,Artificial Intelligence (cs.AI) ,Computer Science - Artificial Intelligence ,0202 electrical engineering, electronic engineering, information engineering ,020206 networking & telecommunications ,02 engineering and technology - Abstract
This paper describes the Autonomous Architecture Over Restricted Domains project. It begins with the description of the context upon which the project is focused, and in the sequence describes the project and implementation models. It finish by presenting the environment conceptual model, showing where stand the components, inputs and facilities required to interact among the intelligent agents of the various implementations in their respective and restricted, routing domains (Autonomous Systems) which together make the Internet work., arXiv admin note: text overlap with arXiv:1805.02241, arXiv:1805.05250
- Published
- 2018
- Full Text
- View/download PDF
29. Avaliação de Algoritmos de Balanceamento de Carga do Simulador Greencloud para Computação em Nuvem
- Author
-
Rodrigues, Iago Richard and Endo, Patricia Takako
- Published
- 2016
- Full Text
- View/download PDF
30. WBG (Whois Based Geolocation): uma estratégia para localização geográfica de hosts na Internet
- Author
-
Endo, Patricia Takako and Sadok, Djamel Fawzi Hadj
- Subjects
Internet ,Geolocation ,Host ,IP address ,Whois queries - Abstract
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior Baseado, por exemplo, na localização geográfica de um determinado host na Internet, podese oferecer serviços especializados, como: a) páginas web com preferências regionais (e.g. usuários online podem receber propagandas direcionadas ou ter a linguagem para apresentação de conteúdo selecionada automaticamente); b) controle de disponibilidade de dados, de acordo com a localização do usuário (e.g. pode-se restringir o acesso a determinados dados através de políticas regionais e autorização de transações a partir de localidades pré-estabelecidas), c) estudo e análise de tráfego geolocalizado para entender quem se comunica com quem no nível de usuários, regiões e países e identificação de anomalias de roteamento. Os aspectos comuns destas aplicações são a sua dependência em relação a estratégias, denominadas geolocalização. Contudo, alguns destes mecanismos apresentam uma baixa acurácia ou uma estimativa de localização geográfica não-aceitável para determinadas aplicações. Portanto, torna-se de grande importância estudos que melhorem a precisão, bem como a completude das estratégias utilizadas para inferir a geolocalização de hosts na Internet. Este trabalho tem como principais objetivos o estudo sobre as estratégias de geolocalização existentes; a proposta de uma estratégia que melhore a precisão das inferências de localização geográfica de hosts na Internet e a completude dos resultados; e o estudo de tráfego geolocalizado de uma base de dados da rede acadêmica do Estado de Pernambuco. A estratégia desenvolvida, denominada WBG (Whois Based Geolocation), é baseada em buscas whois online e possui uma heurística baseada na ferramenta traceroute
- Published
- 2008
31. Utilizing optimization algorithms to maximize the availibility of composable data center
- Author
-
SILVA, Leylane Graziele Ferreira da, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Algoritmos de otimização - Abstract
CAPES The cloud computing paradigm has performed, for years, the fundamental role in delivering IT resources, typically available in data centers, allowing cost reduction and providing services such as high availability, scalability, and elasticity. Despite many advantages, the data center infrastructure suffers from inefficiency problems due to factors such as excessive redundancy usage and infrastructure sub-utilization. The Composable Data Center paradigm aims to mitigate such problems, proposing the disaggregation of resources distributed in racks with different chassis configurations. In this context, different resource arrangements, allocated via software (called Composable Infrastructure) may directly affect the system availability. Thus, this work presents an optimization problem to allocate Composable Infrastructures in Composable Data Center, taking into account budget constraints, obeying application requirements to maximizing availability in those data centers. For such, some optimization algorithms utilized in two approaches: mono-objective approach and multi-objective approach. From the results, it is possible to identify the best configurations and understand how each component affects availability. In the mono-objective approach, the Dynamic Programming algorithm obtained the best results in balancing cost and availability. In the multi-objective approach, both GDE3 and NSGA-II algorithms were useful in finding attractive solutions, and GDE3 presented the most solution number in most of the cases. O paradigma de computação em nuvem tem desempenhado, durante anos, um papel fundamental na entrega de recursos de tecnologia da informação (TI), normalmente disponíveis em data centers, permitindo redução de custos e provendo serviços como alta disponibilidade, escalabilidade e elasticidade. Apesar das inúmeras vantagens, as infraestruturas de data centers sofrem com alguns problemas de ineficiência devido a fatores como o uso excessivo de redundância e a sub-utilização da infraestrutura. O paradigma de Composable data center é uma solução idealizada de modo a mitigar tais problemas, o qual propõe a desagregação de recursos computacionais, distribuídos em racks com diferentes configurações de chassi. Neste contexto, as diferentes combinações de recursos, alocadas via software (denominadas Composable Infrastructure), podem afetar diretamente na disponibilidade do sistema. Deste modo, este trabalho apresenta um problema de otimização para realizar alocação de Composable Infrastrucutures em Composable Data Centers levando em consideração restrições orçamentárias, de modo a atender requisitos da aplicação para maximizar a disponibilidade nestes Data Centers. Para tal, foram utilizados diferentes algoritmos de otimização em duas principais abordagens: mono-objetivo e multi-objetivo. A partir dos resultados é possível identificar as melhores configurações e como cada recurso pode impactar na disponibilidade. Na abordagem mono-objetivo, o algoritmos Dynamic Programming apresentou os melhores resultados ao equilibrar disponibilidade e custo. Na abordagem multi-objetiva, os algoritmos GDE3 e NSGA-II foram efetivos para encontrar boas soluções e o algoritmo GDE3 apresentou uma maior quantidade de soluções na maioria dos casos.
- Published
- 2020
32. Uma abordagem orientada a dados para a criação de um indicador de habitabilidade baseado na API da UBER
- Author
-
Oliveira, Gisliany Lillian Alves de, Lima, Luciana Conceição de, Oliveira, Luiz Affonso Henderson Guedes de, Endo, Patricia Takako, and Silva, Ivanovitch Medeiros Dantas da
- Subjects
Urbanização ,Indicadores de habitabilidade ,Uber ,ENGENHARIAS::ENGENHARIA ELETRICA [CNPQ] ,Ciência de dados ,Desenvolvimento urbano sustentável - Abstract
Um dos dilemas globais refere-se à acelerada transição urbana vivida nas últimas décadas. Por isso, é de suma importância a promoção de um desenvolvimento urbano sustentável para acomodar esse crescimento populacional. Nesse sentido, surge o conceito de habitabilidade, um princípio que combina atributos econômicos, sociais e ambientais a fim de promover a qualidade de vida e o bem-estar, e que é amplamente tratado na Nova Agenda Urbana (NAU) adotada pela Organização das Nações Unidas (ONU) em 2016. A NAU define políticas para promover a consolidação dos Objetivos de Desenvolvimento Sustentável (ODS), particularmente o Objetivo 11, focado em um futuro pró-urbano. Para efetivar tais objetivos é preciso acompanhar o andamento da sua implementação através de indicadores, contexto em que a habitabilidade pode se enquadrar como um indicador para esse propósito. Todavia, há um impasse relacionado à indisponibilidade, má qualidade e agregação dos dados existentes, dificultando esse monitoramento. Nesse cenário, este trabalho propõe a criação de um indicador de habitabilidade que, além dos dados tradicionais dos censos e de outros estudos oficiais, também utilize fontes de dados alternativas, como as disponibilizadas pela Uber, um serviço popular de viagens. Presumindo que o comportamento do serviço da Uber possa refletir a dimensão da habitabilidade, uma abordagem orientada à dados (ciência de dados) baseada na análise exploratória e espacial dos dados foi então conduzida, utilizando as Estimativas de Tempo até o Embarque (ETE) da Uber coletadas para o município brasileiro de Natal (RN). Uma estrutura própria de coleta contínua foi utilizada e uma análise do mecanismo de ausências dos dados foi feita para posterior tratamento por meio de uma técnica de imputação múltipla. A abordagem orientada a dados objetiva, por fim, a criação de um indicador composto, de tal modo que esse indicador possa representar, em algum nível, a habitabilidade para a cidade natalense. Em linhas gerais, para criar o indicador mencionado, efetuou-se uma análise multivariada seguida da aplicação de técnicas de ponderação e agregação sobre os dados da Uber e os dados das pesquisas tradicionais. A metodologia proposta foi aplicada em dois diferentes níveis de agregação espacial: Bairros e Unidades de Desenvolvimento Humano (UDH). Os resultados das análises mostraram como o serviço da Uber varia espacialmente e como ele reage a mudanças climáticas, festividades e outros eventos, além de apresentarem as relações desses dados com indicadores sociais e infraestruturais. Observou-se também que diferentes níveis de agregação espacial causam influências sobre as ETE da Uber e seu relacionamento com as variáveis socioeconômicas. Por fim, o indicador proposto foi criado para as UDH, podendo ser aplicado no monitoramento do desenvolvimento sustentável. Concluiu-se ainda que nas regiões administrativas Oeste e Norte de Natal há uma predominância de localidades com os piores indicadores de habitabilidade. One of the global dilemmas in the last decades has been the accelerated urban transition. Therefore, promoting sustainable urban development to accommodate population growth is extremely important. Under those circumstances, the concept of liveability arises, defined as a principle that combines economic, social and environmental attributes to promote quality of life and human well-being, and it has been widely discussed in the New Urban Agenda (NUA) adopted by the United Nations since 2016. NUA defines policies to promote the consolidation of Sustainable Development Goals (SDGs), with its Goal 11 focusing on a pro-urban future. To achieve those goals is recommended the use of indicators to supervise their implementation, thus the liveability concept can be associated with an indicator for that purpose. However, there are known issues related to data unavailability, poor quality and aggregation, that make the SDGs monitoring difficult. Considering the described scenario, this work proposes a liveability indicator that combines traditional data from census and other official surveys with alternative data sources, such as data from Uber, a popular ride-sharing service. Assuming that Uber service behavior can act as a proxy to liveability, a data science approach based on exploratory and spatial data analysis was conducted using Uber’s Estimated Time of Arrival (ETA) data sourced for the Brazilian city of Natal (RN). A data acquisition structure was developed and an investigation of missingness mechanism was performed in order to deal with missing data by means of a multiple imputation technique. This data science approach aims to build a composite indicator which can portray at some level the liveability for that city. In general, to create the proposed indicator, it was performed a multivariate analysis followed by the execution of weighting and aggregation methods on Uber and traditional surveys data. The proposed methodology was applied at two different spatial aggregation levels: Neighborhoods and Human Development Unities (HDUs). Results showed how the Uber service oscillates spatially and how it reacts to weather variations, festivals, and other events, as well as its relations with existing social and infrastructural indicators. It was also observed that different spatial aggregation levels affect the Uber ETA and its relations with socioeconomic variables. Finally, the proposed indicator was created at HDU scale to be applied in sustainable development monitoring. Furthermore, it was concluded that West and North administrative regions of Natal predominantly have localities with the worst liveability indicators.
- Published
- 2020
33. Orchestration from the Cloud to the Edge
- Author
-
Jörg Domaschka, Frank Griesinger, Sergej Svorobej, Malika Bendechache, Lynn, Theo, Mooney, John G., Lee, Brian, and Endo, Patricia Takako
- Subjects
Service (systems architecture) ,business.industry ,Computer science ,Distributed computing ,Big data ,Symmetric multiprocessor system ,Cloud computing ,Information technology ,Computer simulation ,cloud computing ,edge computing ,fog computing, orchestration ,management ,container orchestration ,orchestration tools ,orchestration standards ,orchestration challenges ,orchestration architectures ,Software deployment ,Resource management ,Orchestration (computing) ,business ,Edge computing - Abstract
The effective management of complex and heterogeneous computing environments is one of the biggest challenges that service and infrastructure providers are facing in the cloud-to-thing continuum era. Advanced orchestration systems are required to support the resource management of large-scale cloud data centres integrated with the big data generation of IoT devices. The orchestration system should be aware about all available resources and their current status in order to perform dynamic allocations and enable short time deployment of applications. This chapter will review the state of the art with regards to orchestration along the cloud-to-thing continuum with a specific emphasis on container-based orchestration (e.g. Docker Swarm and Kubernetes) and fog-specific orchestration architectures (e.g. SORTS, SOAFI, ETSI IGS MEC, and CONCERT).
- Published
- 2020
34. Modeling the availability and performance of the integration be-tween edge, fog and cloud infrastructures
- Author
-
SANTOS, Guto Leoni, KELNER, Judith, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Computação em Nuvem ,Computação nas Bordas - Abstract
CAPES The Internet of Things has the potential of transforming health systems through the collection and analysis of patient physiological data via wearable devices and sensor networks. Such systems can offer assisted living services in real-time and offer a range of multimedia-based health services. However, service downtime, particularly in the case of emergencies, can lead to adverse outcomes and in the worst case, to death. In this dissertation, we propose an e-health monitoring architecture based on sensors that relies on cloud and fog infrastructures to handle and store patient data. Furthermore, we propose stochastic models to analyze availability and performance of such systems including models to understand how failures across the Cloud-to-Thing continuum impact on ehealth system availability and to identify potential bottlenecks. To feed our models with real data, we designed and built a prototype and executed performance experiments. Our results identify that the sensors and fog devices are the components that have the most significant impact on the availability of the e-health monitoring system, as a whole, in the scenarios analyzed. Our findings suggest that in order to identify the best architecture to host the e-health monitoring system, there is a trade-off between performance and delays that must be resolved. A Internet das Coisas tem o potencial de transformar sistemas e-health através da coleta e análise de dados fisiológicos do paciente através de dispositivos vestíveis e redes de sensores. Tais sistemas podem oferecer serviços de monitoramento em tempo real e oferecer serviços de saúde baseados em multimídia. No entanto, o tempo de inatividade do serviço, particularmente no caso de emergências, pode levar a resultados adversos e, no pior dos casos, à morte. Nesta dissertação, foi proposta uma arquitetura de monitoramento de e-health baseada em sensores que dependem de infra-estruturas de cloud e fog para manipular e armazenar dados de pacientes. Além disso, modelos estocásticos foram propostos para analisar a disponibilidade e o desempenho de tais sistemas, incluindo modelos para entender como as falhas desde os dispositivos edge até a nuvem afetam a disponibilidade do sistema e-health e para identificar possíveis gargalos. Para alimentar os modelos com dados reais, um protótipo foi projetado e construído com o intuito de executar experimentos acerca do desempenho do sistema e-health. A partir dos resultados, é possível identificar que os sensores e dispositivos fog são, de maneira geral, os componentes que mais impactam na disponibilidade do sistema e-health nos cenários analisados. Além disso, é possível concluir que para identificar a melhor arquitetura para hospedar um sistema e-health, é necessário encontrar um equilíbrio entre o desempenho e a latência.
- Published
- 2018
35. Sistema de segurança para IoT baseado em agrupamento de smart cards gerenciados por FPGA
- Author
-
BARBOSA, Gibson Belarmino Nunes, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Internet das coisas - Abstract
FACEPE Os crescentes casos de ataques a dispositivos conectados às redes de Internet das Coisas (do inglês Internet of Things - IoT), com invasores se aproveitando do baixo poder de processamento e segurança frágil desses equipamentos, são fatores determinantes para as atenções serem voltadas à segurança em IoT. A utilização de Cartões Inteligentes (do inglês Smart Cards - SCs) para proteger esses sistemas é pertinente, pois eles são resistentes a ataques físicos, portáteis e baratos. Porém, o processamento e a memória deles ainda não são suficientes para atender a alta demanda dos dispositivo conectados à IoT. Por estas razões, utilizar vários SCs agrupados pode ser interessante para proteger tais redes de dispositivos IoT. Contudo, o gerenciamento de muitos SCs requer uma plataforma que não degrade o desempenho do processo de leitura e escrita. Os Arranjos de Portas Programáveis em Campo (do inglês Field Programmable Gate Arrays - FPGAs) se encaixam nesse critério, pois são dispositivos reconfiguráveis com capacidade de paralelização de tarefas e replicação de código. Associando esses dispositivos, e conectando-os à rede, seria possível agregar segurança a outros sistemas e garantir a integridade da comunicação na IoT. Estes fatores motivaram o presente trabalho a propor e desenvolver o Smart Card Cluster (SCC), que é uma plataforma de segurança para IoT. Ele pode ser empregado de diversas formas para oferecer proteção às camadas de rede ou de aplicação da IoT. Contudo, neste trabalho ele será utilizado para agregar proteção às mensagens que são trocadas entre gateways e o middleware IoT, assegurando a autenticidade e integridade das mensagens por meio de assinatura feita em hardware seguro. Com três SCs o SCC permite assinar 26,18 mensagens por minuto. O sistema utiliza FPGA para fazer o controle eficiente de SCs. Através de experimentos concluiu-se que ele é modular, portátil, escalável e com custo adequado ao cenário de IoT ao qual é aplicado. Isto possibilita que o utilizador evite gastos, pois os dispositivos embarcados, o poder de processamento, e a quantidade de SCs podem ser ajustados de acordo com a necessidade. Além do que, a plataforma pode ser distribuída para perto dos dispositivos na ponta da rede. No trabalho é mostrado que o SCC consegue ser 69% mais eficiente que outro dispositivo comercial utilizado para agrupamento de SCs, que é conhecido como SIM Array, além disso o custo da utilização de cada SC no SCC chega a ser US$263,54 menor. The increasing cases of attacks on devices connected to Internet of Things (IoT) networks, where attackers take advantage of the low processing power and the fragile protection of such equipments, is a determining factor for giving greater attention to IoT security. The use of Smart Cards (SCs) to protect these systems is pertinent, as they are physical attacks resistant, portable and inexpensive. Nonetheless, their processing and memory are still not sufficient to meet the high demand of the devices connected to IoT. For these reasons, using multiple clustered SCs may be interesting to protect such networks. However, a platform that does not degrade the performance of the read and write process, is needed to control many SCs. The Field Programmable Gate Arrays (FPGAs) fit this criterion, since they are reconfigurable devices with the ability to parallelize tasks and code replication. By connecting these devices to the network, it would be possible to add security to other systems and ensure communication integrity for the IoT. These factors led to the development of the Smart Card Cluster (SCC), which is a platform for IoT security. It can be used in a variety of ways to protect the IoT layers or applications. In this work, it is used to add protection to messages that are exchanged between gateways and middleware IoT, ensuring message authenticity and integrity through secure hardware signing. With three SCs the SCC allows to sign 26.18 messages per minute. The system uses FPGA to efficiently manage SCs. It is modular, portable, scalable and cost-effective to user’s needs. This enables the user to avoid unnecessary costs, since the embedded devices, processing power, and the amount of SCs are adapted to the application scenario. Thus, the platform can be distributed close to the things. In this work it is shown that the SCC becomes 69% more efficient than another commercial device used for clustering SCs, the SIM Array, moreover the cost of using each SC in the SCC is US$ 263.54 lower.
- Published
- 2017
36. A high-level authorization framework for software-defined networks
- Author
-
ROSENDO, Daniel, KELNER, Judith, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Internet das coisas - Abstract
FACEPE Network Access Control (NAC) management is a critical task. Misconfigurations may result in vulnerabilities that may compromise the overall network security. Traditional access control setups rely on firewalls, IEEE 802.1x, VLAN, ACL, and LDAP. These approaches work well for stable and small networks and are hard to integrate and configure. Besides, they are inflexible and require per-device and vendor-specific configurations, being error-prone. The Software-Defined Networking (SDN) paradigm overcomes architectural problems of traditional networks, simplifies the network design and operation, and offers new opportunities (programmability, flexibility, dynamicity, and standardization) to manage these issues. Furthermore, SDN reduces the human intervention, which in turn also reduce operational costs and misconfigurations. Despite this, access control management remains a challenge, once managing security policies involves dealing with a large set of access control rules; detection of conflicting policies; defining priorities; delegating rights; reacting to dynamic network states and events. This dissertation explores the use of SDN to mitigate these problems. We present HACFlow, a novel SDN framework for network access control management based on the OrBAC model. HACFlow aims to simplify and automate the NAC management. It allows network operators to govern rights of network entities by defining dynamic, fine-grained, and high-level access control policies. To illustrate the operation of HACFlow we present through a step by step how the main management tasks are executed. Our study case is a Smart City network environment. We conducted many experiments to analyze the scalability and performance of HACFlow, and the results show that it requires a time in the order of milliseconds to execute all the management tasks, even managing many policies. Besides, we compare HACFlow against related approaches. Gerenciar o controle de acesso entre recursos (usuários, máquinas, serviços, etc.) em uma rede é uma tarefa crítica. Erros de configuração podem resultar em vulnerabilidades que podem comprometer a segurança da rede como um todo. Em redes tradicionais, esse controle de acesso é implementado através de firewalls, IEEE 802.1x, VLAN, ACL, and LDAP. Estas abordagens funcionam bem em redes menores e estáveis, e são difíceis de configurar e integrar. Além disso, são inflexíveis e requerem configurações individuais e específicas de cada fabricante, sendo propensa à erros. O paradigma de Redes Definidas por Software (SDN) supera os problemas arquiteturais das redes tradicionais, simplifica o projeto e operação da rede, e proporciona novas oportunidades (programabilidade, flexibilidade, dinamicidade, e padronização) para lidar com os problemas enfrentados em redes tradicionais. Apesar das vantagens do SDN, o gerenciamento de políticas de controle de acesso na rede continua sendo uma tarefa difícil. Uma vez que, gerenciar tais políticas envolve lidar com uma grande quantidade de regras; detectar e resolver conflitos; definir prioridades; delegar papéis; e adaptar tais regras de acordo com eventos e mudanças de estado da rede. Esta dissertação explora o paradigma SDN a fim de mitigar tais problemas. Neste trabalho, apresentamos o HACFlow, um framework SDN para gerenciamento de políticas de controle de acesso na rede baseado no modelo OrBAC. HACFlow tem como principal objetivo simplificar e automatizar tal gerenciamento. HACFlow permite que operadores da rede governe os privilégios das entidades da rede através da definição de políticas de controle de acesso dinâmicas, em alto nível, e com alta granularidade. Para ilustrar o funcionamento do HACFlow apresentamos um passo a passo de como as principais tarefas de genrenciamento de controle de acesso são realizadas. Nosso estudo de caso é um ambiente de rede de uma cidade inteligente. Vários experimentos foram realizados a fim de analisar a escalabilidade e performance do HACFlow. Os resultados mostram que o HACFlow requer um tempo na ondem de milissegundos para executar cada uma das tarefas de gerenciamento, mesmo lidando com uma grande quantidade de regras. Além disso, nós comparamos HACFlow com propostas relacionadas existentes na literatura.
- Published
- 2017
37. Composição de serviços em network function virtualization
- Author
-
BARRETO, Jymmy Paul Souza, FERNANDES, Stênio Flávio de Lacerda, and ENDO, Patricia Takako
- Subjects
Redes de computadores ,Avaliação de desempenho - Abstract
O paradigma Virtualização de Funções de Rede (NFV) atraiu rapidamente o interesse dos provedores de serviços de comunicações como um meio de acelerar a entrega dos serviços e, ao mesmo tempo, reduzir os custos associados. Inúmeros fatores trouxeram boas razões para esta causa, tais como: baixo custo de operação e energia, menor tempo de implementação de novas tecnologias para o mercado, gerenciamento escalável e dinâmico de serviços de rede e disponibilidade de compartilhamento de recursos de rede por meio de serviços e diferentes plataformas. Complementar à promessa das Redes Definidas por Software (SDN) de automatizar a orquestração e configuração da rede, NFV propõe automatizar a implantação e controle de funções de rede, as quais serão executadas em plataformas com servidores virtualizados. No mundo da SDN e da NVF, pode-se ter milhares de instâncias de um elemento, juntas, formando os componentes da rede. Se um deles falhar, perde-se um pouco da capacidade mas não se perde o elemento inteiro e pode-se recriar esse componente. A nova arquitetura pressupõe a criação de uma cadeia de serviço, ou seja, um conjunto de máquinas virtuais alinhadas para criar um serviço. Tanto pode ser de firewall como de detecção de intrusões, ou de outros elementos da rede. Neste contexto, desafios se tornam inerentes a esta proposta, os quais abordam tópicos como interoperabilidade de plataformas de rede, perda ou ganho de desempenho, segurança e resiliência. Assim, esse trabalho propõe avaliar o desempenho de composição de serviços utilizando um ambiente de NFV. Para isso, foram construídos vários cenários e usadas diferentes topologias a fim de validar um simulador que possa ser usado posteriormente por outros usuários como uma ferramenta útil para a composição de serviços em ambiente de NFV. The Network Functions Virtualization (NFV) paradigm quickly attracted the interest of communications service providers as a means to accelerate the delivery of services and at the same time reducing the associated costs. Several factors have brought good reasons for this cause, such as operating and energy costs, implementation time of new technologies to market, scalable and dynamic management of network services and network resource sharing availability through different services and platforms. Complementary to the promise of Software-Defined Networking (SDN) to automate the orchestration and network configuration, NFV proposes automate the deployment and control of network functions, which will be run on platforms with virtualized servers. In the world of SDN and NVF, can have thousands of instances of an element, together forming network components. If one fails, you lose some of the ability but do not lose the whole element and can recreate this component. The new architecture involves creating a service string, i.e., a set of virtual machines aligned to create a service. Both can be firewall or intrusion detection, or other network elements. In this context, challenges become inherent in this proposal, which address topics such as interoperability of network platforms, trade-offs of performance, security and resilience. Thus, this work proposes to evaluate the performance of service composition using a NFV. For this, they were built several scenarios and used different topologies to validate a simulator that can later be used by other users as a useful tool for service composition in NFV.
- Published
- 2016
38. Cloudacc: a cloud-based accountability framework for federated cloud
- Author
-
RODRIGUES, Thiago Gomes, KELNER, Judith, and ENDO, Patricia Takako
- Subjects
Segurança em nuvem ,Conformidade com a lei ,Cloud security ,Law compliance ,Cloud federation ,Accountability ,Federação de nuvens ,Transparency ,Transparência - Abstract
The evolution of software service delivery has changed the way accountability is performed. The complexity related to cloud computing environments increases the difficulty in properly performing accountability, since the evidences are spread through the whole infrastructure, from different servers, in physical, virtualization and application layers. This complexity increases when the cloud federation is considered because besides the inherent complexity of the virtualized environment, the federation members may not implement the same security procedures and policies. The main objective of this thesis is to propose an accountability framework named CloudAcc, that supports audit, management, planning and billing process in federated cloud environments, increasing trust and transparency. Furthermore, CloudAcc considers the legal safeguard requirements presented in Brazilian Marco Civil da Internet. We confirm the CloudAcc effectiveness when some infrastructure elements were submitted against Denial of Service (DoS) and Brute Force attacks, and our framework was able to detect them. Facing the results obtained, we can conclude that CloudAcc contributes to the state-of-the-art once it provides the holistic vision of the cloud federated environment through the evidence collection considering the three layers, supporting audit, management, planning and billing process in federated cloud environments. A maneira de realizar accountability tem variado à medida em que o modo de entrega de serviços de Tecnologia da Informação (TI) tem evoluído. Em ambientes de nuvem a complexidade de realizar accountability apropriadamente é alta porque as evidências devem ser coletadas considerando-se as camadas física, de virtualização e de aplicações, que estão espalhadas em diferentes servidores e elementos da infraestrutura. Esta complexidade é ampliada quando ocorre a federação das infraestruturas de nuvem porque além da complexidade inerente ao ambiente virtualizado, os membros da federação podem não ter os mesmos grupos de políticas e práticas de segurança. O principal objetivo desta tese é propor um framework de accountability, denominado CloudAcc, que suporte processos de auditoria, gerenciamento, planejamento e cobrança, em nuvens federadas, aumentando a confiança e a transparência. Além disso, o CloudAcc também considera os requisitos legais para a salvaguarda dos registros, conforme descrito no Marco Civil da Internet brasileira. A efetividade do CloudAcc foi confirmada quando alguns componentes da infraestrutura da nuvem foram submetidos a ataques de negação de serviço e de força bruta, e o framework foi capaz de detectá-los. Diante dos resultados obtidos, pode-se concluir que o CloudAcc contribui para o estado-da-arte, uma vez que fornece uma visão holística do ambiente de nuvem federada através da coleta de evidências em três camadas suportando os processos de auditoria, gerenciamento, planejamento e cobrança.
- Published
- 2016
39. Análise de performance do PUSH em conexão HTTP/2 no carregamento de páginas web
- Author
-
OLIVEIRA, Igor Nogueira de, SADOK, Djamel Fawzi Hadj, and ENDO, Patricia Takako
- Abstract
Desde sua padronização, o protocolo Hypertext Transfer Protocol (HTTP) tornou-se o estado da arte em protocolos de transporte da internet, sendo utilizado para transmissão de arquivos hipertexto e hipermídias, como áudio e vídeo de forma cada vez mais interativa. Porém, o HTTP em suas versões 1.0 e 1.1 apresenta pontos que podem ser otimizados, como o fato de atender requisições de forma síncrona, o que normalmente atrasa a renderização de páginas Web podendo vir a afetar a qualidade de experiência dos usuários. Recentemente, o protocolo HTTP foi atualizado para a versão HTTP/2, recebendo diversas modificações, direcionadas principalmente a melhorias no tocante ao uso dos recursos de rede. Dentre estas melhorias, podese citar a adição do recurso push, que permite que o servidor Web responda a uma solicitação com mais de um recurso ao mesmo tempo. Este trabalho apresenta uma análise de desempenho do recurso push no transporte de páginas Web em conexões HTTP/2. Para tanto, foram realizados experimentos em um ambiente simulado, replicando características de rede presentes na internet. Foram adotados o Total Download Time (TDT) e o Page Load Time (PLT) como métricas de análise e a execução do experimento foi realizada através de requisições de páginas web com diferentes quantidades e tamanhos de objetos. Através dos resultados obtidos, foi possível observar que apesar do protocolo HTTP/2 possuir recursos para a melhoria do carregamento de páginas Web o uso inadequado destes recursos pode causar, em determinadas configurações, degradações no carregamento das páginas. Since its standardization, the Hypertext Transfer Protocol (HTTP) has been considered the state of the art for transmission of hypertext and hypermedia files, such as audio and vídeo in an interactive way. However, 1.0 and 1.1 versions of HTTP present some weaknesses that may be optimized, such as synchronized requests, which typically slow Web pages rendering thus affecting the end user experience. Recently, the protocol was updated to the 2.0 version and received several modifications, focused mainly on improvements in the network usage. Among these improvements one can cite the addition of push, a feature that allows the server to reply to a request with more than one resource simultaneously. This work presents a performance analysis of push feature on the transport of web pages on HTTP/2 connections. Therefore, experiments were conducted on a prototype environment using Total Download Time (TDT) and Page Load Time (PLT) as metrics, and Web page requests with different amounts and sizes of objects. From the results, one can observe that despite presenting features to improve Web page load time, improper use of these HTTP/2 resources may lead, on certain conditions, to the opposite effect.
- Published
- 2016
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.