11 results on '"Centro de dados"'
Search Results
2. Data center visualization
- Author
-
Capa, Pedro Miguel da Costa, Pereira, José, Fernandes, António Ramires, and Universidade do Minho
- Subjects
Three.js ,Flask ,Visualização ,Performance ,Centro de dados ,Data center ,Desempenho ,Visualization ,3D ,Plugin ,Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática - Abstract
Dissertação de mestrado integrado em Engenharia Informática, As more projects are financed by public institutions, demonstrating tasks and other information developed is increasingly required. Traditional monitoring tools like Prometheus are used in data centers to collect data from the machines and supervise them as the devices can malfunction and make the service unavailable. Currently, applications like Prometheus that display the machines’ performance are limited to a restricted set of people: the data center managers. These applications have limited data visualization methods since their focus is on retrieving the data from the machines. These applications are associated with specialized frameworks in showing the machines’ performance. These frameworks present the data in several visualization methods, such as graphic lines and gauge graphics. However, the forms of exposing data are not attractive for people in general. So, other ways to expose the data need to be developed. Data visualization in three dimensions can expose data more attractively. Besides, 3D has some advantages over traditional ways. With a data friendlier exposition, catching the attention of people who do not manage the data center is easier. This project aims to build an application to expose the data center’s data in a 3D scenario. The data exposed are the machines’ tasks, components, and performance. By exposing the data center’s tasks and other information to the general public, the application can present to the viewer the usefulness of the data center. The application must have its components flexible, so any data center can use it. Moreover, those data centers should expose any visualization they desire through plugins. To complete the goals, first, different techniques to explore and view the data are investigated. Several applications that expose data from a data center are analyzed to know the current status of these applications. Furthermore, different scenarios are constructed based on the research made. Using a tool capable of handling web requests makes the application available to everyone. Besides, the application is flexible in some parts of the architecture to be adaptable to any framework. So, any data center can use the application. Those parts are the server that contains the machines’ performance data and the database management system. The system allows the creation of a plugin to communicate with the machine’s performance server. Following a simple interface, a new plugin can be developed with relative ease. Besides, the webserver is replicable, making it adaptable to the data center’s needs. Moreover, the application allows the creation of arbitrary 3D scenarios. By following a set of steps a simple 3D scenario can be built, including the visualization and communication server stages. Such a scenario can be expanded freely, as long as the communication API is observed. The created scenario functions as a plugin that can be inserted into the application effortlessly. The application’s usefulness is validated through an experience with information from a real data center. Finally, the application’s performance is corroborated, supporting a considerable amount of concurrent requests., Como há um número maior de projetos financiados por instituições públicas, é necessário revelar que tarefas e outras informações a instituição desenvolve. Ferramentas de monitorização como o Prometheus são usadas em centros de dados para recolher o desempenho das máquinas e supervisioná-las uma vez que podem ter problemas tornando o serviço indisponível. Aplicações como o Prometheus que exibem o desempenho das máquinas são limitados a um conjunto restrito de pessoas: os gestores dos centros de dados. Estas aplicações têm métodos de visualização limitados, uma vez que se focam em obter os dados das máquinas. Estas aplicações são associadas com aplicações especializadas em mostrar o desempenho das máquinas. Os dados são apresentados em vários métodos de visualização, como gráficos de linhas e de área. No entanto, estas formas não são atraentes para o público em geral. Portanto, é preciso usar outras formas de expor os dados. Visualização de dados em três dimensões pode expor os dados de uma forma mais eficiente. Além disso, 3D tem algumas vantagens em relação às formas tradicionais. Com um cenário mais amigável, é mais fácil captar a atenção das pessoas. Este projeto tem o objetivo de construir uma aplicação para expor os dados do centro de dados em 3D. Os dados expostos são as tarefas, o desempenho e os componentes das máquinas. Ao expor as tarefas para o público em geral a aplicação pode apresentar a utilidade do centro de dados. A aplicação deverá ter os componentes flexíveis para que qualquer centro de dados o possa usar. Além disso, os centros de dados deverão expor qualquer tipo de visualização que desejarem. Para completar os objetivos, são investigadas diferentes técnicas de exposição de dados. São analisadas várias aplicações que expõem os dados de um centro de dados para conhecer o estado atual das mesmas. Além do mais, são construídos vários cenários com base nos dados da investigação. Ao usar uma ferramenta capaz de lidar com pedidos web torna-a disponível para todos. A aplicação também deve ser flexível em alguns dos componentes para serem adaptados a qualquer ferramenta. Desta forma qualquer centro de dados pode usar a aplicação. As partes flexíveis devem ser o servidor que contém os dados do desempenho das máquinas e a base de dados. O sistema permite o uso de diferentes plugins para comunicar com esse servidor. Ao seguir um conjunto de passos a criação do plugin é relativamente fácil. O servidor aplicacional é replicável, tornando o sistema adaptável para as necessidades do centro de dados. A aplicação permite o desenvolvimento de novos cenários 3D. Ao seguir um conjunto de passos é criado um cenário 3D simples, incluindo os passos da visualização e comunicação com o servidor. O cenário pode ser expandido, desde que siga a API de comunicação. O cenário criado funciona como um plugin que pode ser adicionado na aplicação facilmente. A utilidade da aplicação é validada através de uma experiência com dados reais de um centro de dados. Por fim, o desempenho da máquina é validado, uma vez que suporta uma quantidade considerável de pedidos concorrentes.
- Published
- 2022
3. ACEITAÇÃO DA TECNOLOGIA VDI NO AMBIENTE UNIVERSITÁRIO: O CASO DO ISCTE-IUL
- Author
-
João Pedro Monteiro Machado, Bráulio Alturas, and Miranda, P., Costa, C., Isaías, P. and Santoro, F. M.
- Subjects
Tecnologia ,Centro de dados ,VDI ,Ciências Naturais::Ciências da Computação e da Informação [Domínio/Área Científica] ,Virtualização - Abstract
O tema virtualização é uma realidade presente no quotidiano e em muitos dos serviços que são utilizados diariamente. O constante progresso das tecnologias de informação possibilitou um aumento significativo dos recursos de armazenamento e capacidade de processamento disponíveis dentro das organizações e universidades. Criou também a capacidade e oportunidade de otimizar os recursos existentes. Este artigo apresenta um caso de estudo que visa entender qual o nível de aceitação e conhecimento no âmbito da aplicação de VDI na comunidade do ISCTE-IUL. A adoção do VDI teve como finalidade principal a compatibilidade de aplicações, o reaproveitamento de sistemas, poupança a médio e longo prazo, a mobilidade, segurança, otimização de recursos e processos, gestão e controlo eficiente, permitindo melhorar a produtividade. Este artigo identifica a importância que os utilizadores dão a uma das preocupações do ISCTE-IUL, sustentabilidade. É de notar a falta de conhecimento sobre o tema, as suas vantagens, desvantagens e qual o impacto que poderá ter na organização. No entanto, os inquiridos acreditam tratar-se de uma inovação positiva para a comunidade. info:eu-repo/semantics/publishedVersion
- Published
- 2019
4. Energy efficiency and quality of service in data centers
- Author
-
Moro, Marcos Paulo, Ferreira, Ronaldo Alves, Ishii, Renato Porfirio, Paula, Fabrício Sérgio de, Vieira, Cristiano Costa Argemon, Furlan, Marcos Mansano, and Costa, Fabio Moreira
- Subjects
Digital computer simulation ,Energy consumption ,CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO::TELEINFORMATICA [CNPQ] ,Simulação digital ,Centro de dados ,Consumo de energia ,Data centers - Abstract
Submitted by Alison Souza (alisonsouza@ufgd.edu.br) on 2020-02-03T19:03:54Z No. of bitstreams: 1 UFMS - MarcosPauloMoro.pdf: 7071239 bytes, checksum: 54f031b99b581476acdf1fcfd1e9bf03 (MD5) Made available in DSpace on 2020-02-03T19:03:54Z (GMT). No. of bitstreams: 1 UFMS - MarcosPauloMoro.pdf: 7071239 bytes, checksum: 54f031b99b581476acdf1fcfd1e9bf03 (MD5) Previous issue date: 2019-11-06 Fundação de Apoio ao Desenvolvimento do Ensino, Ciência e Tecnologia do Estado de Mato Grosso do Sul (FUNDECT) Os centros de dados estão entre os maiores consumidores de energia elétrica da área de tecnologia da informação. O consumo de um único centro de dados chega a ser superior ao de uma cidade com 100 mil habitantes. Centros de dados não são famosos apenas por consumirem grandes quantidades de energia, mas também por serem ineficientes. Estudos recentes mostram que, em média, mais de 50% da energia consumida por um centro de dados são desperdiçados por causa de gerenciamento ineficiente de seus recursos. O consumo energético de um centro de dados é dominado por três dimensões: servidores, sistema de refrigeração e infraestrutura de rede. As propostas para gerenciamento energético existentes na literatura, normalmente, buscam otimizar uma ou duas dessas dimensões sem levar em consideração as demais. Além disso, elas não consideram como essas otimizações para economia de energia impactam os parâmetros de desempenho do centro de dados. Este trabalho primeiro propõe uma arquitetura de gerenciamento e simulação de centros de dados para estudos de eficiência energética. Com base nessa arquitetura, este trabalho desenvolve o simulador SimDC3D que simula realisticamente os subsistemas de maior consumo de energia elétrica de um centro de dados e como algoritmos de escalonamento e realocação de máquinas virtuais, de controle do sistema de refrigeração e de otimização de topologia de rede interferem em parâmetros de desempenho. Este trabalho também propõe oito novos algoritmos de escalonamento e realocação de máquinas virtuais, um algoritmo para controle do sistema de refrigeração e um algoritmo de otimização da topologia da rede do centro de dados. Os algoritmos de escalonamento são altamente parametrizáveis para que um operador de centro de dados possa otimizar uma das dimensões de forma mais agressiva do que outras, ou seja, para que ele possa atribuir pesos diferentes para os subsistemas. Além disso, este trabalho faz uma avaliação extensiva, com centenas de simulações, dos algoritmos propostos usando diferentes cargas de trabalho e topologias de rede e os compara com outras propostas existentes na literatura. Os resultados mostram a importância de se parametrizar adequadamente os algoritmos de otimização para que eles não apenas economizem energia, mas também evitem violações de acordos de nível de serviço estabelecidos entre operadores de centro de dados e seus clientes. Data centers are among the largest consumers of electric energy in the information technology area. The energy consumption of a single data center can be larger than the consumption of a city with 100 thousands inhabitants. Data centers are not only famous for consuming large quantities of energy but also for being inefficient. Recent studies show that, on average, more than 50% of the energy consumed by a data center are wasted because of inefficient management of its resources. The energy consumption of a data center is dominated by three dimensions: servers, cooling system, and network infrastructure. The current proposals for energy management, generally, try to optimize one or two of these dimensions without considering the others. Moreover, they do not consider how these energy reduction optimizations impact performance parameters of the data center. This work first proposes an architecture for management and simulation of data centers for energy efficiency studies. Based on this architecture, this work develops the simulator SimDC3D that simulates realistically the subsystems that consume the most energy in a data center and how algorithms for scheduling and relocation of virtual machines, controlling the cooling system, and optimizing the network topology interfere with the performance parameters of the data center. This work also proposes eight new algorithms for scheduling and relocation of virtual machines, one algorithm for controlling the cooling system, and one algorithm for optimizing the network topology of the data center. The scheduling and relocation algorithms are highly parameterized so that a data-center operator can optimize one of the dimensions more aggressively than the others, i.e., he can assign different weights to the subsystems. Moreover, this work does an extensive evaluation, with hundreds of simulations, of the proposed algorithms under different workloads and topologies and compares them with the existing proposals. The results show the importance of setting the appropriate parameters for the optimization algorithms so that they can not only save energy but also avoid violations of service-level agreements settled between data center operators and their customers.
- Published
- 2019
5. Virtualização de desktops VDI: o caso do ISCTE-IUL
- Author
-
Machado, João Pedro Monteiro and Alturas, Bráulio Alexandre Barreira
- Subjects
Virtualização de postos de trabalho ,Virtualization ,Centro de dados ,VDI ,Engenharia e Tecnologia::Outras Engenharias e Tecnologias [Domínio/Área Científica] ,Desktop virtualization ,Datacenter ,Virtualização - Abstract
O tema virtualização é uma realidade presente no quotidiano e em muitos dos serviços que são utilizados diariamente. O constante progresso das tecnologias de informação possibilitou um aumento significativo dos recursos de armazenamento e capacidade de processamento disponíveis dentro das organizações. Criou também a capacidade e oportunidade de otimizar os recursos existentes. Este trabalho de investigação analisou e cruzou os modelos principais, as tecnologias e os conceitos da virtualização. O estudo efetuado assenta sobre a análise de caraterísticas, configurações e definições do VDI assim como entender qual o nível de preparação e conhecimento no âmbito da aplicação de VDI na comunidade do ISCTE-IUL. A adoção do VDI teve como finalidade principal a compatibilidade de aplicações, o reaproveitamento de sistemas, poupança a médio e longo prazo, a mobilidade, segurança, otimização de recursos e processos, gestão e controlo eficiente, permitindo melhorar a produtividade. Todo o processamento destas máquinas virtuais e aplicações é feito no centro de dados (DC) através de conjuntos de servidores, exigindo assim cada vez menos recursos nos próprios terminais de acesso. As equipas de TI que realizam o controlo e gestão da plataforma permitiram melhorar a experiência dos utilizadores, diminuir os SLA (service level agreement) na resolução de problemas informáticos e ao mesmo tempo aumentar a segurança nos acessos. Enquanto não é implementada esta nova tecnologia, o procedimento atual no ISCTE-IUL passa pela criação de uma imagem padrão, em que a revisão só é realizada no ano letivo seguinte apesar de existirem pequenas atualizações ao longo do ano. Por este motivo, foram realizados questionários a alunos, docentes e funcionários de forma a avaliar o seu contato e perspetiva sobre VDI. É de notar ao longo deste estudo a falta de conhecimento sobre o tema, as suas vantagens, desvantagens e qual o impacto que poderá ter na organização. No entanto, os inquiridos acreditam tratar-se de uma inovação positiva para a comunidade. In our days and in the past, the topic of virtualization is a reality present in many circumstances. The steady progress of information technologies has enabled a significant increase in the storage resources and processing capacity available within organizations. It also created the capacity and opportunity to optimize existing resources. This research work has analyzed and crossed the main models, technologies and concepts of virtualization. It is based on the analysis of characteristics, configurations and definitions of the VDI as well as understanding the level of preparation and knowledge within the scope of VDI application in the ISCTE-IUL community. The main purpose of VDI adoption was the compatibility of applications, the reuse of systems, medium and long-term savings, the mobility, security, optimization of resources and processes, efficient management and control, thus improving productivity. All processing of these virtual machines and applications is done in the data center (DC) through sets of servers, thus requiring less and fewer resources in the access terminals themselves. The IT teams that control and manage the platform has improved user experience, reduced SLA's (service level agreement) in solving IT problems and at the same time increasing access security. While this new technology not implemented, the current procedure in ISCTE-IUL goes through the creation of a standard image, in which the revision is only carried out in the following school year although there are small updates throughout the year. For this reason, questionnaires were carried out to students, teachers and staff to evaluate their contact and perspective on VDI. It should be noted throughout this study the lack of knowledge about the topic, its advantages, disadvantages, and what impact it may have on the organization. However, respondents believe that this is a positive innovation for the community.
- Published
- 2019
6. Improving load balancing in virtualized environments using Pearson’s correlation
- Author
-
Moraes Filho, Nilson Rubens de and Verdi, Fábio Luciano
- Subjects
Virtualización ,Correlação de Pearson ,Migração em tempo real ,Nube ,VM ,Balanceamento de Carga ,Centro de Dados ,Correlación de Pearson ,Virtual computer systems ,Virtualização ,Load Balancing ,Contêiner ,Máquina Virtual ,Balanceo de carga ,Virtualization ,Virtual Machine ,Centro de Datos ,Live Migration ,Sistemas de computação virtual ,Cloud ,CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO [CIENCIAS EXATAS E DA TERRA] ,Nuvem ,Container ,Pearson Correlation ,Data Center - Abstract
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) Virtualization is one of the foundations of cloud computing as it allows better utilization of computing resources in a data center. There are different virtualization approaches that offer similar functionality, but with different levels of abstraction and methods. In this sense we can mention the use of Virtual Machines and containers. We define Virtual Element (VE) as a virtual machine or a container, and we will use this concept to make our load balancing approach generic. Load balancing can be achieved through live migration of VEs, reducing energy consumption, enabling better distribution of computational resources and allowing customers to move VEs from a cloud provider to another one that may offer better SLA or costs. There are some methods that addresses the load balancing improvement in a data center. One of them applies the Pearson correlation coefficient related to CPU usage, to migrate VEs from an overloaded host to another that have better availability of resources. The Pearson correlation coefficient estimates the dependency level between quantities. Yet, live migration is a virtualization feature that allows a VE to be transferred from one equipment to another, keeping the active processes running. However, to migrate a VE that has strong dependency with the internal network traffic from a host, can create an increase in the overall network consumption due to the migration of the VE to another server, topologically distant from the current host. This dissertation defines a heuristic that has as objective improve the migration decision process of VEs. The heuristic applies Pearson's correlation coefficient and takes in consideration not only CPU consumption, but also the internal network traffic between VEs. Results shown that the application of the heuristic improved the decision process in at least 18% compared to a method that considers only CPU correlation coefficient. Virtualização é um dos alicerces da computação em nuvem pois permite melhor utilização de recursos computacionais em um centro de dados. Existem diferentes abordagens para virtualização que oferecem a mesma funcionalidade, mas com diferentes níveis de abstração e métodos. Neste sentido podemos citar o uso de Máquinas Virtuais e contêineres. Definimos Elemento Virtual (EV) como sendo uma máquina virtual ou contêiner, e usaremos este conceito para generalizar a nossa proposta de balanceamento de carga. O balanceamento de carga pode ser realizado através da migração dos EVs, reduzindo o consumo de energia, disponibilizando uma melhor distribuição dos recursos computacionais e permitindo que clientes movam EVs de um provedor de nuvem para outro que ofereça melhor SLA ou custo. Existem alguns métodos que tratam da melhora do balanceamento de carga em um centro de dados. Um deles utiliza o coeficiente de correlação de Pearson relacionado ao consumo de CPU, para migrar EVs de um servidor sobrecarregado para outro que possua melhor disponibilidade de recursos. O coeficiente de correlação de Pearson estima o grau de dependência entre duas quantidades. Já a migração em tempo real é uma característica da virtualização que permite que um EV seja transferido de um servidor para outro, mantendo a execução dos processos ativos. Porém migrar um EV que possua forte dependência em relação ao tráfego de rede interno do servidor, pode gerar um aumento do consumo de recursos computacionais do ambiente. Isto devido ao aumento do consumo de rede ocasionado pela migração do EV para outro servidor que, topologicamente, esteja distante do servidor atual. Esta dissertação tem como objetivo definir uma heurística para melhorar o processo de decisão de migração de EVs. A heurística utiliza o coeficiente de correlação de Pearson e leva em conta não só o consumo de CPU mas também o tráfego de rede interno entre EVs. Os resultados mostraram que o uso da heurística, em um ambiente com tráfego de rede interno entre EVs, melhorou o processo de decisão em 18%, comparado com o método que considera apenas o coeficiente de correlação baseado em CPU. FAPESP: 15/19766-9
- Published
- 2018
7. EQUILIBRANDO ENERGIA, REDUNDÂNCIA E DESEMPENHO EM REDES DE CENTROS DE DADOS DEFINIDAS POR SOFTWARE
- Author
-
Araújo, Antônio Cleber de Sousa, Sampaio, Leobino Nascimento, Greve, Fabíola Gonçalves Pereira, Ziviani, Artur, and Marcondes, Cesar Augusto Cavalheiro
- Subjects
OpenFlow ,MultiPath TCP ,Centro de Dados ,Redes Definidas por Software - Abstract
Submitted by Diogo Barreiros (diogo.barreiros@ufba.br) on 2017-06-02T16:07:58Z No. of bitstreams: 1 Dissertação_Cleber_Final.pdf: 7551475 bytes, checksum: 81ec53d1cfbee023ecc28745db6472a1 (MD5) Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-06T14:17:04Z (GMT) No. of bitstreams: 1 Dissertação_Cleber_Final.pdf: 7551475 bytes, checksum: 81ec53d1cfbee023ecc28745db6472a1 (MD5) Made available in DSpace on 2017-06-06T14:17:04Z (GMT). No. of bitstreams: 1 Dissertação_Cleber_Final.pdf: 7551475 bytes, checksum: 81ec53d1cfbee023ecc28745db6472a1 (MD5) Os grandes centros de dados atuais tipicamente adotam redund^ancia de servidores e equipamentos de comunica c~ao para aumento de sua con abilidade e disponibilidade. Infraestrutura altamente redundante, contudo, consiste num dos desa os da area devido ao alto consumo de energia. Esta disserta c~ao apresenta a BEEP, uma estrat egia energeticamente e ciente para redes de centro de dados de nidas por software, baseadas na topologia Fat-Tree. Nossa estrat egia, implementada atrav es de uma rede OpenFlow faz uso de m ultiplos caminhos, atrav es do MultiPath TCP { MPTCP e da vis~ao global oferecida por controladores de uma rede de nida por software, para equilibrar e ci^encia energ etica, n vel de redund^ancia dos equipamentos e ganho de desempenho no atendimento as demandas de tr afego. Para alcan car este equil brio, a BEEP procura fazer com que o tr afego de comunica c~ao seja enviado o mais r apido poss vel, utilizando-se da maior quantidade poss vel de caminhos distintos existentes entre a origem o destino de uma comunica c~ao. Desta forma, as interfaces dos comutadores permanecem em estado ocioso na maior parte do tempo e, assim, o consumo energ etico e reduzido. Resultados experimentais em variantes da topologia Fat-Tree demonstraram ganhos de e ci^encia energ etica com a estrat egia na ordem de 21% a 47%, em compara c~ao a outras estrat egias (ECO-RP e GreenCloud), al em de melhoria na utiliza c~ao da largura de banda dispon vel, conforme haja mais caminhos alternativos dispon veis em todos os cen arios avaliados. Al em de construir a BEEP, as demais contribui c~oes trazidas por esta disserta c~ao s~ao: i) o desenvolvimento de um ambiente de prototipa c~ao de aplica c~oes de TCP de m ultiplos caminhos em redes de nidas por software, capaz de mensurar e validar novas propostas para economia de energia baseada em elementos de uma rede de centro de dados; e ii) uma avalia c~ao experimental do TCP de m ultiplos caminhos implementado atrav es de redes de nidas por software para redes de centro de dados.
- Published
- 2017
8. O Futuro dos Centros de Dados
- Author
-
Santos, António Manuel Bastos dos and Pereira, Nuno Alexandre Magalhães
- Subjects
Tecnologias de Informação ,Computação na Nuvem ,Disponibilidade ,Consolidação ,Virtualization ,Centro de Dados ,Availability ,Cloud Computing ,Information Technology ,Virtualização ,Consolidation ,Data Center ,Arquitecturas, Sistemas e Redes - Abstract
Submitted by Manuel Brandão (recipp@sc.ipp.pt) on 2016-04-01T15:20:10Z No. of bitstreams: 1 DM_AntonioSantos_2015_MEI.pdf: 5006108 bytes, checksum: 631aa7148fb8c8601e3e97c5c542b83d (MD5) Approved for entry into archive by Ana Rebelo (amsr@isep.ipp.pt) on 2016-04-07T10:48:23Z (GMT) No. of bitstreams: 1 DM_AntonioSantos_2015_MEI.pdf: 5006108 bytes, checksum: 631aa7148fb8c8601e3e97c5c542b83d (MD5) Made available in DSpace on 2016-04-07T10:48:23Z (GMT). No. of bitstreams: 1 DM_AntonioSantos_2015_MEI.pdf: 5006108 bytes, checksum: 631aa7148fb8c8601e3e97c5c542b83d (MD5) Previous issue date: 2015-10
- Published
- 2015
9. Strategies for efficient usage of resources in data centers considering the consumption of CPU and RAM
- Author
-
Castro, Pedro Henrique Pires de, Cardoso, Kleber Vieira, Corrêa, Sand Luz, Costa, Fábio Moreira, and Granville, Lisandro Zambenedetti
- Subjects
Computação em nuvem ,Energy efficiency ,SLA compliance ,Virtual machine consolidation ,Centro de dados ,Cloud computing ,Consolidação de máquinas virtuais ,Data center ,Eficiência energética ,CIENCIA DA COMPUTACAO [CIENCIAS EXATAS E DA TERRA] ,Cumprimento de SLA - Abstract
A computação em nuvem tem levado os sistemas distribuídos a um novo patamar, oferecendo recursos computacionais de forma virtualizada, flexível, robusta e escalar. Essas vantagens, no entanto, surgem juntamente com um alto consumo de energia nos centros de dados, ambientes que podem ter até centenas de milhares de servidores. Existem muitas propostas para alcançar eficiência energética em centros de dados para computação em nuvem. Entretanto, muitas propostas consideram apenas o consumo proveniente do uso de CPU e ignoram os demais componentes de hardware, e.g., RAM. Neste trabalho, mostramos o impacto considerável que RAM pode ter sobre o consumo total de energia, principalmente em servidores com grandes quantidades dessa memória. Também propomos três novas abordagens para consolidação dinâmica de máquinas virtuais, levando em conta tanto o consumo de CPU quanto de RAM. Nossas propostas foram implementadas e avaliadas no simulador CloudSim utilizando cargas de trabalho do mundo real. Os resultados foram comparados com soluções do estado-da-arte. Pela adoção de uma visão mais ampla do sistema, nossas propostas não apenas são capazes de reduzir o consumo de energia como também reduzem violações de SLA, i.e., proveem um serviço melhor a um custo mais baixo. Cloud computing is being consolidated as a new distributed systems paradigm, offering computing resources in a virtualized way and with unprecedented levels of flexibility, reliability, and scalability. Unfortunately, the benefits of cloud computing come at a high cost with regard to energy, mainly because of one of its core enablers, the data center. There are a number of proposals that seek to enhance energy efficiency in data centers. However, most of them focus only on the energy consumed by CPU and ignore the remaining hardware, e.g., RAM. In this work, we show the considerable impact that RAM can have on total energy consumption, particularly in servers with large amounts of this memory. We also propose three new approaches for dynamic consolidation of virtual machines (VMs) that take into account both CPU and RAM usage. We have implemented and evaluated our proposals in the CloudSim simulator using real-world traces and compared the results with state-of-the-art solutions. By adopting a wider view of the system, our proposals are able to reduce not only energy consumption but also the number of SLA violations, i.e., they provide a better service at a lower cost. Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
- Published
- 2014
10. Estudo e planeamento de uma infraestrutura computacional
- Author
-
Lopes, Henrique Manuel Aljustrel, Araújo, Paulo Alexandre Medeiros de, and Filipe, Porfírio Pena
- Subjects
Centro de dados ,Cloud computing ,Alta disponibilidade ,Virtualização ,Consolidação de sistemas - Abstract
As tecnologias de informação representam um pilar fundamental nas organizações como sustento do negócio através de infraestruturas dedicadas sendo que com o evoluir do crescimento no centro de dados surgem desafios relativamente a escalabilidade, tolerância à falha, desempenho, alocação de recursos, segurança nos acessos, reposição de grandes quantidades de informação e eficiência energética. Com a adoção de tecnologias baseadas em cloud computing aplica-se um modelo de recursos partilhados de modo a consolidar a infraestrutura e endereçar os desafios anteriormente descritos. As tecnologias de virtualização têm como objetivo reduzir a infraestrutura levantando novas considerações ao nível das redes locais e de dados, segurança, backup e reposição da informação devido á dinâmica de um ambiente virtualizado. Em centros de dados esta abordagem pode representar um nível de consolidação elevado, permitindo reduzir servidores físicos, portas de rede, cablagem, armazenamento, espaço, energia e custo, assegurando os níveis de desempenho. Este trabalho permite definir uma estratégia de consolidação do centro de dados em estudo que permita a tolerância a falhas, provisionamento de novos serviços com tempo reduzido, escalabilidade para mais serviços, segurança nas redes Delimitarized Zone (DMZ), e backup e reposição de dados com impacto reduzido nos recursos, permitindo altos débitos e rácios de consolidação do armazenamento. A arquitetura proposta visa implementar a estratégia com tecnologias otimizadas para o cloud computing. Foi realizado um estudo tendo como base a análise de um centro de dados através da aplicação VMWare Capacity Planner que permitiu a análise do ambiente por um período de 8 meses com registo de métricas de acessos, utilizadas para dimensionar a arquitetura proposta. Na implementação da abordagem em cloud valida-se a redução de 85% de infraestrutura de servidores, a latência de comunicação, taxas de transferência de dados, latências de serviços, impacto de protocolos na transferência de dados, overhead da virtualização, migração de serviços na infraestrutura física, tempos de backup e restauro de informação e a segurança na DMZ.
- Published
- 2012
11. Infra-estrutura de suporte a plataforma financeira
- Author
-
Pereira, Pedro Filipe Lavrador, Calha, Mário João Barata, and Cunha, António Pedro
- Subjects
Otimização de processos ,Centro de dados ,Monitorização ,Infraestrutura ,Automatização de processos ,Aprovisionamento ,Trabalhos de projecto de mestrado - 2012 - Abstract
Trabalho de projecto de mestrado em Engenharia Informática (Arquitetura, Sistemas e Redes de Computadores), apresentado à Universidade de Lisboa, através da Faculdade de Ciências, 2012 Submitted by Teresa Boa (tdboa@fc.ul.pt) on 2013-09-27T09:49:42Z No. of bitstreams: 1 ulfc104699_tm_Pedro_Pereira.pdf: 2739928 bytes, checksum: 44dfd3fb672207db23843e95973bc16b (MD5) Made available in DSpace on 2013-09-27T09:49:50Z (GMT). No. of bitstreams: 1 ulfc104699_tm_Pedro_Pereira.pdf: 2739928 bytes, checksum: 44dfd3fb672207db23843e95973bc16b (MD5) Previous issue date: 2012
- Published
- 2012
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.