DISSERTAÇÃO Nº 126
Discente: Rodrigo Spencer Hartmann Calazans
Título: “Nova Técnica de Projeto de Quantizadores Vetoriais Baseada em Computação Inteligente”
Orientador: Prof. Dr. Francisco Madeiro Bernardino Junior.
Examinador Interno: Profa. Dra. Maria de Lourdes Melo Guedes Alcoforado (UPE)
Examinador Externo: Prof. Dr. Waslon Terllizzie Araújo Lopes (UFPB)
Data-hora: 30/06/2021, às 09h
Local: Formato Remoto
Resumo do Projeto:
A Quantização Vetorial (QV) é uma técnica que pode ser utilizada para compressão de imagens. O desempenho da QV, no quis diz respeito à qualidade das imagens reconstruídas, depende da qualidade do dicionário utilizado. Nos últimos anos, a Inteligência de Enxames vem sendo empregada para o projeto de dicionários, que pode ser visto como u problema de otimização multidimensional. Algoritmos de enxame, como Fish School Search (FSS), são técnicas bioinspiradas baseadas e população, em que os membros do enxame (partículas) buscam resolver um problema de forma descentralizada e eficiente. Este trabalho apresenta um novo algoritmo de projeto de dicionário, denominado Cuckoo-LBG, o qual é uma técnica que combina o algoritmo bioinspirado Cuckoo Search (CS) com o algoritmo de clusterização LBG (Linde-Buzo-Gray). A etapa de particionamento do algoritmo LBG envolve elevada complexidade computacional, a qual é um problema relevante em virtude do fato de que o algoritmo LBG, a cada iteração do Cuckoo-LBG, realiza o particionamento para cada partícula (dicionário) do enxame. Neste trabalho é avaliada uma alternativa para reduzir a complexidade supracitada. No trabalho são também avaliados os impactos de estratégias de inicialização para as partículas do enxame, em termos da qualidade dos dicionários projetados, avaliada por meio da qualidade das imagens reconstruídas. Precisamente, as estratégias de inicialização consistem em combinar dicionários obtidos por meio de algoritmos da literatura com dicionários constituídos por vetores aleatoriamente selecionados do conjunto de treino. Os resultados obtidos com o algoritmo Cuckoo-LBG são comparados com os obtidos por técnicas que se constituem em estado da arte. Os resultados de simulação apontam para os benefícios das estratégias de inicialização propostas.
Palavras-chave: Compressão de imagens; quantização vetorial; Cuckoo Search; computação bioinspirada; projeto de dicionários.
DISSERTAÇÃO Nº 125
Discente: Otávio José dos Santos
Título: “Improving the Search Capabilities of Reduced Robot Swarm by Virtual Particles”
Orientador: Prof. Dr. Sérgio Campello Oliveira.
Examinador Interno: Prof. Dr. Carmelo José Albanez Bastos Filho (UPE)
Examinador Externo: Prof. Dr. Byron Leite Dantas Bezerra (UPE)
Data-hora: 31/05/2021, às 13h
Local: Formato Remoto
Resumo do Projeto:
O paradigma de enxames reside no comportamento emergente que surge a partir da interação de indivíduos simples. Essas interseções acontecem através do compartilhamento de informações. Os membros de um enxame obtém, de maneira individual, dados sobre o ambiente e usam algum mecanismo para compartilhar tais dados com outros membros do enxame. Robótica de enxames é um campo de estudos focado no uso de grupo de robôs que cooperam entre si para executar uma tarefa e atingir um objetivo em comum, ou seja, robôs agindo como um enxame. Apesar dos avanços da robótica, o uso de enxames de robôs em aplicações da vida real ainda acontece empregando-se enxames com poucos robôs. Enxames reduzidos são ampla- mente usados nas pesquisas, mas um dos requisitos do paradigma de enxames é a interação entre vários indivíduos, nesse caso em questão, robôs. Dessa forma o desempenho de um enxame reduzido é pior do que o de um enxame amplo. Possíveis aplicações da robótica são em situações de desastres naturais, monitoramento e mapeamento. Em aplicações como as mencionadas, o ambiente de atuação pode sofrer mudanças importantes em momentos bem definidos. Contudo, apesar das mudanças, o ambiente degradado guarda semelhanças com o original. Uma vez que o desempenho de enxames reduzidos está relacionado com o número de robôs, adicionar mais robôs no enxame poderia ser uma solução para isso. Não obstante, isso implica em maiores custos tanto com aquisição quanto com manutenção. Este trabalho apresenta uma nova alternativa para melhorar as capacidades de busca de enxames reduzidos de robôs através do emprego de um enxame virtual. A ideia central é ampliar o enxame sem a adição de mais robôs nele. Assim, é proposto o conceito de partícula virtuais que imitam o comportamento dos robôs reais. Tais partículas emulam robôs num ambiente virtual e ambos, robôs e partículas, interagem e integram um único enxame. O ambiente virtual é uma representação do ambiente original antes da degradação. As funções que descrevem os ambientes real e virtual são ligeiramente diferentes devido às mudanças nos dados do ambiente real. Essas diferenças não são conhecidas a priori. Enquanto os robôs operam nos ambientes reais, ou sejam no ambiente degradado, as partículas virtuais operam numa representação do ambiente original. Como resultado foi observado que partículas virtuais ajudam os robôs e melhoram o desempenho do enxame quando comparado com um enxame de robôs reduzido. O emprego de partículas virtuais possibilitou ao enxame reduzido de robôs obter soluções equivalentes às do enxame amplo nas mesmas condições de teste. Além disso, os resultados indicam que aumentando o número de partículas virtuais há um aumento de desempenho do enxame reduzido.
Palavras-chave: Enxame de Robôs, Otimização por Enxame de Partículas, Inteligência de Enxame, Enxame Virtual, Partículas Virtuais
DISSERTAÇÃO Nº 124
Discente: Francisco Caio Parente de Barros
Título: “Efeito do Desvanecimento Generalizado no desempenho dos Códigos Polares em presença do Ruído Aditivo Gaussiano Branco”
Orientador: Profa. Dra. Maria de Lourdes Melo Guedes Alcoforado.
Coorientador: Prof. Dr. Waslon Terllizzie Araújo Lopes.
Examinador Interno: Prof. Dr. Francisco Madeiro Bernardino Jr. (UPE)
Examinador Externo: Prof. Dr. Valdemar Cardoso da Rocha Jr. (UFPE)
Data-hora: 28/04/2021, às 09h
Local: Formato Remoto
CÓDIGO DA SALA - Google meet: meet.google.com/ycw-hhqt-xhn
Resumo do Projeto:
O estudo e desenvolvimento de modelos para detecção e correção de erros, visando ganho de confiabilidade na transmissão de mensagens, estão ligados à área de conhecimento dos códigos corretores de erros. Há diversos tipos de códigos corretores de erro, cada um com suas vantagens e desvantagens. Neste projeto é feito estudo sobre o desempenho de um sistema de transmissão utilizando codificação polar na presença de ruído e distribuições de desvanecimento generalizado correlacionado. Tais distribuições são importantes porque tornam possível simular o sistema em diferentes condições de canal. Os impactos das distribuições de desvanecimento correlacionadas com um entrelaçador aleatório também são investigados. A codificação polar, introduzida por Arikan em 2009, é um esquema de código de correção de erros que utiliza a técnica de polarização para obter canais quase sem ruído adequados para transmissão. Os códigos polares estão sendo amplamente estudados devido às suas aplicações na 5ª Geração (5G) de sistemas de comunicação móvel. Os resultados mostram o impacto negativo sobre o desempenho e tal efeito pode ser minimizado com o uso de técnicas de entrelaçamento e também que o sistema com o entrelaçador atingiu uma taxa de erro de bit de 10−3 enquanto o sistema sem o entrelaçador atingiu 10−2 a 4 dB para o cenário κ−μ em que κ=μ= 2.
Palavras-chave: Efeito do Desvanecimento Generalizado no desempenho dos Códigos Polares em presença do Ruído Aditivo Gaussiano Branco