Eventos

DISSERTAÇÃO Nº 127

 

Discente: Flávia Camila Morais de Oliveira

Título: Modulação 12x12-QAM em Sistemas com Canais Corrompidos por Ruído Aditivo Gaussiano Branco e Desvanecimento Rayleigh  


Orientador: Profa. Dra. Maria de Lourdes Melo Guedes Alcoforado.

 

Examinador Interno: Prof. Dr. Daniel Augusto Ribeiro Chaves (UPE) 

Examinador Externo: Prof. Dr. Juliano Bandeira (UFPE)  

 

Data-hora: 09/07/2021, às 14h

Local: Formato Remoto

CÓDIGO DA SALA - Google meetmeet.google.com/evy-dfuw-oki

 

Resumo do Projeto:

 

Essa dissertação apresenta o estudo de um sistema de comunicação que combina códigos polares e a modulação multidimensional 12x12-QAM em canais perturbados pelo ruído aditivo Gaussiano branco (AWGN) e pelo desvanecimento Rayleigh. A modulação 12x12-QAM é obtida a partir da modulação 16-QAM, amplamente utilizada por padrões de comunicação e quando combinada a alguns códigos corretores de erro, apresenta resultados próximos ao limite de Shannon. O sistema proposto apresenta compatibilidade com os sistemas atuais, necessitando de pequenas alterações em software. São realizadas simulações computacionais de um sistema de transmissão fazendo uso da modulação 12x12-QAM sem uso de codificação de canal e com o uso do codificador polar. Os resultados são apresentados através de curvas de desempenho que relacionam a taxa de erro por bit versus a relação sinal ruído. são considerados dois cenários diferentes, um em que o canal é corrompido por AWGN e outro em que o canal apresenta além do AWGN, com o efeito do desvanecimento Rayleigh. Os resultados mostram que utilizando codificador polar com comprimento de bloco N = 1024, o sistema que faz uso da modulação 12x12-QAM apresenta um ganho de aproximadamente 1,5 dB para BER =10

 

Palavras-chave: Efeito do Desvanecimento Generalizado no desempenho dos Códigos Polares em presença do Ruído Aditivo Gaussiano Branco

 

DISSERTAÇÃO Nº 126

 

Discente: Rodrigo Spencer Hartmann Calazans

Título: “Nova Técnica de Projeto de Quantizadores Vetoriais Baseada em Computação Inteligente”  


Orientador: Prof. Dr. Francisco Madeiro Bernardino Junior.

 

Examinador Interno: Profa. Dra. Maria de Lourdes Melo Guedes Alcoforado (UPE) 

Examinador Externo: Prof. Dr. Waslon Terllizzie Araújo Lopes (UFPB)  

 

Data-hora: 30/06/2021, às 09h

Local: Formato Remoto

CÓDIGO DA SALA - Google meetmeet.google.com/tzi-akqk-ecq

 

Resumo do Projeto:

 

A Quantização Vetorial (QV) é uma técnica que pode ser utilizada para compressão de imagens. O desempenho da QV, no quis diz respeito à qualidade das imagens reconstruídas, depende da qualidade do dicionário utilizado. Nos últimos anos, a Inteligência de Enxames vem sendo empregada para o projeto de dicionários, que pode ser visto como u problema de otimização multidimensional. Algoritmos de enxame, como Fish School Search (FSS), são técnicas bioinspiradas baseadas e população, em que os membros do enxame (partículas) buscam resolver um problema de forma descentralizada e eficiente. Este trabalho apresenta um novo algoritmo de projeto de dicionário, denominado Cuckoo-LBG, o qual é uma técnica que combina o algoritmo bioinspirado Cuckoo Search (CS) com o algoritmo de clusterização LBG (Linde-Buzo-Gray). A etapa de particionamento do algoritmo LBG envolve elevada complexidade computacional, a qual é um problema relevante em virtude do fato de que o algoritmo LBG, a cada iteração do Cuckoo-LBG, realiza o particionamento para cada partícula (dicionário) do enxame. Neste trabalho é avaliada uma alternativa para reduzir a complexidade supracitada. No trabalho são também avaliados os impactos de estratégias de inicialização para as partículas do enxame, em termos da qualidade dos dicionários projetados, avaliada por meio da qualidade das imagens reconstruídas. Precisamente, as estratégias de inicialização consistem em combinar dicionários obtidos por meio de algoritmos da literatura com dicionários constituídos por vetores aleatoriamente selecionados do conjunto de treino. Os resultados obtidos com o algoritmo Cuckoo-LBG são comparados com os obtidos por técnicas que se constituem em estado da arte. Os resultados de simulação apontam para os benefícios das estratégias de inicialização propostas.

 

Palavras-chave: Compressão de imagens; quantização vetorial; Cuckoo Search; computação bioinspirada; projeto de dicionários.

DISSERTAÇÃO Nº 125

 

Discente: Otávio José dos Santos

Título: “Improving the Search Capabilities of Reduced Robot Swarm by Virtual Particles”  


Orientador: Prof. Dr. Sérgio Campello Oliveira.

 

Examinador Interno: Prof. Dr. Carmelo José Albanez Bastos Filho (UPE) 

Examinador Externo: Prof. Dr. Byron Leite Dantas Bezerra (UPE)  

 

Data-hora: 31/05/2021, às 13h

Local: Formato Remoto

CÓDIGO DA SALA - Google meetmeet.google.com/fbg-aovo-vpi

 

Resumo do Projeto:

 

O paradigma de enxames reside no comportamento emergente que surge a partir da interação de indivíduos simples. Essas interseções acontecem através do compartilhamento de informações. Os membros de um enxame obtém, de maneira individual, dados sobre o ambiente e usam algum mecanismo para compartilhar tais dados com outros membros do enxame. Robótica de enxames é um campo de estudos focado no uso de grupo de robôs que cooperam entre si para executar uma tarefa e atingir um objetivo em comum, ou seja, robôs agindo como um enxame. Apesar dos avanços da robótica, o uso de enxames de robôs em aplicações da vida real ainda acontece empregando-se enxames com poucos robôs. Enxames reduzidos são ampla- mente usados nas pesquisas, mas um dos requisitos do paradigma de enxames é a interação entre vários indivíduos, nesse caso em questão, robôs. Dessa forma o desempenho de um enxame reduzido é pior do que o de um enxame amplo. Possíveis aplicações da robótica são em situações de desastres naturais, monitoramento e mapeamento. Em aplicações como as mencionadas, o ambiente de atuação pode sofrer mudanças importantes em momentos bem definidos. Contudo, apesar das mudanças, o ambiente degradado guarda semelhanças com o original. Uma vez que o desempenho de enxames reduzidos está relacionado com o número de robôs, adicionar mais robôs no enxame poderia ser uma solução para isso. Não obstante, isso implica em maiores custos tanto com aquisição quanto com manutenção. Este trabalho apresenta uma nova alternativa para melhorar as capacidades de busca de enxames reduzidos de robôs através do emprego de um enxame virtual. A ideia central é ampliar o enxame sem a adição de mais robôs nele. Assim, é proposto o conceito de partícula virtuais que imitam o comportamento dos robôs reais. Tais partículas emulam robôs num ambiente virtual e ambos, robôs e partículas, interagem e integram um único enxame. O ambiente virtual é uma representação do ambiente original antes da degradação. As funções que descrevem os ambientes real e virtual são ligeiramente diferentes devido às mudanças nos dados do ambiente real. Essas diferenças não são conhecidas a priori. Enquanto os robôs operam nos ambientes reais, ou sejam no ambiente degradado, as partículas virtuais operam numa representação do ambiente original. Como resultado foi observado que partículas virtuais ajudam os robôs e melhoram o desempenho do enxame quando comparado com um enxame de robôs reduzido. O emprego de partículas virtuais possibilitou ao enxame reduzido de robôs obter soluções equivalentes às do enxame amplo nas mesmas condições de teste. Além disso, os resultados indicam que aumentando o número de partículas virtuais há um aumento de desempenho do enxame reduzido.

 

Palavras-chave: Enxame de Robôs, Otimização por Enxame de Partículas, Inteligência de Enxame, Enxame Virtual, Partículas Virtuais

Página 12 de 24

Go to top Menú