Eventos

Divulgação - Defesa Nº 201

Aluna: Diego Andrade Teixeira

Título: “Alocação de Redes Virtuais (SDN) de Cloud Computing Utilizando Algoritmo Evolucionário”.

Orientador: Prof. Sérgio Murilo Maciel Fernandes
Coorientador: Prof. Edison de Queiroz Albuquerque

Data-hora:  30/Outubro/2019 (10:30h)
Local: Escola Politécnica de Pernambuco – MINI-AUDITÓRIO - PPGEC


Resumo:

“A alocação inteligente dos recursos é um processo chave para as redes virtuais cloud como infraestrutura (IaaS) e como software de serviço (SaaS). Essas tecnologias estão se tornando cada vez mais comuns, com crescente adoção pelos usuários e empresas de todo mundo. Para fazer o uso mais eficiente dessa tecnologia, foi proposto um algoritmo evolucionário otimizado (Estratégia Evolutiva - EE) para alcançar a otimização da alocação de recursos virtuais em uma rede física com grandes demandas computacionais (processamento de dados). Investigou-se a possibilidade de realocação desses recursos gerados aleatoriamente em uma rede SDN e hospedá-los de forma simétrica e flexível para melhorar o desempenho e encontrar a melhor alocação na premissa que permita a máxima utilização dos recursos, processamento e continuidade do serviço. A alocação desequilibrada gera grandes problemas na rede, como até mesmo sua paralisação e não aproveitamento total da infraestrutura. As alocações realizadas pelo algoritmo evolucionário, são mais eficientes que a do modo convencional sem inteligência. Os experimentos também mostram que o método desenvolvido nesta pesquisa melhorou a alocação dos nós virtuais em comparação com o AGA (Algoritmo Genético Auto Adaptativo), melhorando a alocação de recursos, dando mais equilíbrio à rede.”

 

Divulgação - Defesa Nº 200

Aluna: Anderson Vinicius Alves Ferreira

Título: “Identifying Relevant Subspaces Using Subspace Search”.

Orientador: Prof. Carmelo José Albanez Bastos Filho

Data-hora:  30/Setembro/2019 (15:00h)
Local: Escola Politécnica de Pernambuco – SALA - I 4


Resumo:

High-dimensional data impose challenges in many different domains, ranging from optimization to machine learning, from numerical analysis to databases. These challenges are related to irrelevant or correlated attributes, exponential complexity with an increasing number of dimensions, or even the concentration effect of distance measures. Unsupervised learning methods, such as clustering algorithms, often rely on the underlying structure of the data for learning about unknown data patterns. As they do not make use of prior knowledge or rewards to control the learning process, unsupervised methods tend to be more sensitive to the effects of high-dimensional data. These aspects lead to the development of methods for learning in subspaces. Subspace clustering tries to address high-dimensional data by searching for relevant subspaces where clusters may reside. Some algorithms interleave the subspace search and the clustering processes in a way that one depends on the other, while other algorithms decouple those two tasks and consider them as independent processes. Either way, the search for relevant subspaces is a challenging open research problem. The notion of correlation is commonly used as an indication of the existence of patterns, and it guides the search of subspaces. However, merely using correlation as a measure of subspace quality might neglect how variables are associated with each other and ignore important information about the structure of the data. In this work, we present a subspace search process to try to identify relevant subspaces that might lead to more meaningful results. This search process builds upon the Greedy Maximum Deviation heuristic and incorporates the sense that the interconnection between dimensions is an important factor to discover indicative relationships. We illustrate the performance and the benefits of this technique on a data set of an Alzheimer's Disease Patient Population, on the well-known Wine data set from the UCI Repository, and on the data set of the 500 Cities Project. We show that the search process leads to more meaningful results than other methods, such as using full-dimensional data, feature selection with Principal Component Analysis, and Greedy Maximum Deviation itself.

 

Divulgação - Defesa Nº 199

Aluna: Jheymesson Apolinário Cavalcanti

Título: “Um estudo sobre a memória de Longo Prazo das redes LSTM aplicada na previsão de vazões médias mensais”.

Orientadora: Prof. Mêuser Jorge Silva Valença

Data-hora:  25/Setembro/2019 (13:00h)
Local: Escola Politécnica de Pernambuco – SALA I - 7


Resumo:

Resumo: No Brasil, a principal fonte de produção de energia elétrica é proveniente das hidroelétricas. A gestão desta energia é um problema de decisão muito importante. Os sistemas de previsão de vazões dos rios são considerados críticos, e o problema é agravado pela extensão territorial e a demanda da população. Desde 2013 o rio São Francisco tem passado por um período de baixa hidraulicidade, forçando as hidrelétricas a operarem a uma vazão mínima muito abaixo dos estabelecidos na licença de operação, que é de 1300 m³/s. Devido a esta crise hidráulica, o fluxo operacional no Rio São Francisco alcançou 700 m³/s, caracterizando esta situação como crítica. Neste trabalho, foi proposto o uso das redes Multi Layer Perceptron (MLP), Adaptive Neuro Fuzzy Inference System (ANFIS), e Long Short Term Memory(LSTM)com alterações nos gates de memória, com o objetivo de prever 12 meses de vazão média mensal de 3 hidrelétricas brasileiras, Sobradinho, Três Marias e Tucuruí. Várias simulações foram realizadas usando o Erro Percentual Médio Absoluto (EPMA) como métrica para avaliação de performance e foi encontrado o melhor resultado para a rede LSTM com um EPMA de 9,576%.Estes resultados foram validados estatisticamente usando o teste de Hipótese de Wilcoxon comum nível de significância de 5%.

Página 30 de 44

Go to top Menú