“Feature extraction is essential to many machine learning tasks. By extracting features, it is possible to reduce the dimensionality of datasets, focusing on the most relevant features and minimizing redundancy. Autoencoders (AE) are neural network architectures commonly used for feature extraction. A usual metric used to evaluate AEs is the reconstruction error, which compares the AE output data with the original one. However, many applications depend on how the input representations in intermediate layers of AEs, i.e. the latent variables, are distributed. Therefore, additionally to the reconstruction error, an interesting metric to study the latent variables is the Kullback-Leibler divergence (KLD). This work analyzes how some variations on the AE training process impact the aforementioned metrics. Those variations are: 1. the AE depth, 2. the AE middle layer architecture, and 3. the data setup used for training. Results have shown a possible relation between the KLD and the reconstruction error. In fact, lower errors have happened for higher KLDs and less compressed latent variables, i.e. more neurons on the AE middle layers.”
“Em problemas complexos de engenharia, é comum lidar com mais de duas variáveis de saída. Nesses cenários, a idéia de um ótimo global deixa de existir e o objetivo é buscar os melhores trade-offs entre as várias variáveis de saída. Nesse espaço de saída com objetivos mais complexos, é muito mais desafiador encontrar as melhores relações entre as variáveis de saída. Os algoritmos de otimização multi-objetivo são ferramentas promissoras para encontrar as Fronteiras de Pareto, conjuntos das soluções com melhores trade-offs. No caso projeto de antenas, as variáveis de entrada são elementos geométricos associados ao tipo de antena. Por outro lado, as variáveis de saída são os indicadores de desempenho desejáveis, como frequência de ressonância, largura de banda e ganho. No processo de otimização multi-objetivo, muitas vezes os indicadores de conflito definem uma relação de conflito sobre um mesmo conjunto de variáveis de entrada. Em outras palavras, ao utilizar um conjunto específico de variáveis de decisão para otimização de um desses indicadores, acabamos obtendo o detrimento de outro, nesse caso, os melhores trade-offs representam as melhores relações de conflito entre esses indicadores. Este trabalho tem como objetivo fazer uso de vários algoritmos evolucionários multi-objetivos, estudar suas mecânica internas e seus operadores para entender como é possível escolher da melhor maneira os parâmetros de projeto da antena. Além disso, também é proposto um pipeline inteiro para automatizar essa tarefa. Ele é baseado em duas fases, primeiro criando um modelo de caixa preta para simular o software eletromagnético, depois o modelo resultante como é utilizado como função objetivo e são realizadas simulações usando um conjunto seis algoritmos evolucionários multi-objetivos. Posteriormente, é feita a análise da convergência, aproximação da Fronteira de Pareto e vários indicadores de qualidade são aplicados. Os algoritmos usado neste trabalho são das mais diversas famílias, baseados em dominância populacional, como NSGA-II e SPEA2, baseada em decomposição como MOEA/D, guiados por indicador de qualidade como o IBEA e algoritmos derivados do PSO, como OMOPSO e SMPSO. Os algoritmos foram aplicados em dois casos de estudo envolvendo dois tipos de antenas, o Dipolo Impresso e a Quasi-Yagi. O primeiro deles formula um problema de otimização de dois objetivos e o segundo como um problema de otimização de três objetivos mais complexo. Resultados numéricos demonstram que o OMOPSO é uma abordagem potencial superior para os dois estudos de caso avaliados no projeto de antenas.”
“O Mercado Financeiro é um ambiente público e organizado para a negociação de títulos. Na economia moderna, as operações realizadas nesse mercado ocorrem por intermédio das bolsas de valores, criptográficas, através de plataformas digitais onde os investidores podem negociar de forma transparente a compra e venda de títulos. Com o crescimento do volume de investimentos e negociações nas bolsas e com a adoção massiva dos chamados cripto ativos, surgiu a necessidade da utilização de ferramentas de apoio ao processo de tomada de decisão. Através da automação em software, tornou-se possível a implementação de técnicas que viabilizam a tomada de decisão em intervalos de tempo cada vez menores, prevendo o comportamento do mercado com a maior precisão possível. Essas ferramentas têm como objetivo o aumento dos lucros e a mitigação dos riscos envolvidos nas transações efetuadas no mercado acionário. Atualmente, existem várias plataformas digitais de negociação, através das quais pode-se programar ordens de compra e venda de papéis sem a intervenção humana. São inúmeras as técnicas que processam as ditas séries temporais, coleções de observações realizadas sequencialmente no tempo. Assim, o presente trabalho realiza um estudo do estado da arte das técnicas de previsão em séries temporais (forecasting) encontrada nas pesquisas mais recentes, quais sejam: Redes Neurais Artificiais, Support Vector Machines e Deep Learning, bem como as técnicas de regressão de estatística clássica, onde destacam-se a Regressão Logística e a técnica ARIMA. Fazendo uma análise sobre os trabalhos relacionados, o presente trabalho propõe um método automático de modelagem que mescla pontos fortes das técnicas existentes, abstraindo os atributos de sazonalidade, tendência, variância e correlação em uma representação concisa, através de uma soma finita de expressões matemáticas com forte inspiração na Série de Fourier. Através da otimização combinatória obtida pela aplicação de técnicas de Computação Inteligente, foram concebidas modelagens de séries temporais com processamento numérico, obtendo modelagens acuradas, realizando-se testes em dados reais dispostos em bases publicadas por instituições reguladoras do mercado financeiro.”