Com o crescimento populacional e a escassez de recursos, é essencial otimizar seus usos para uma vida em sociedade mais sustentável. Em vários aspectos da sociedade moderna esta necessidade se mostra presente, em especial no ambiente industrial e de grandes cadeias de suprimento. Nesse cenário, surge a necessidade de novos métodos de otimização. A abordagem Learning to Optimize (L2O) simplifica o processo de desenvolvimento desses algoritmos e pode ser empregada em Aprendizado de Máquina baseados em população para efetivamente criar novos algoritmos de otimização, de forma autônoma. Os métodos de otimização baseados em população são particularmente eficazes em cenários complexos que apresentam múltiplos mínimos locais. No entanto, métodos L2O enfrentam desafios de transferibilidade e a integração do Aprendizado por Imitação ao Aprendizado por Reforço pode ser benéfica. Por isso, este estudo propõe um novo método L2O populacional que combina Aprendizado por Reforço e Aprendizado por Imitação para abordar o problema da transferibilidade. O método proposto foi comparado com o método L2O populacional utilizado como referência, e também com os já reconhecidos métodos Particle Swarm Optimization (PSO) e Adam. Os experimentos foram realizados em dois grupos: um treinando e testando os métodos na mesma função objetivo e outro treinando em uma função e testando em outra. O primeiro grupo buscou entender se o novo método supera o de referência na mesma função, enquanto o segundo analisou a transferibilidade dos algoritmos. Os resultados mostraram que, quando treinados e testados na mesma função, o método proposto não apenas superou o método de referência, mas também o PSO, demonstrando sua eficácia. O PSO destacou-se em cenários 2D, mas o novo método teve um desempenho superior em cenários 5D, sugerindo sua aptidão para problemas de maior complexidade. Além disso, foi evidenciado que o método proposto tem excelente transferibilidade, mantendo um alto desempenho mesmo quando aplicado a funções diferentes das treinadas. Desta forma, o presente estudo oferece uma contribuição significativa para o campo de Learning to Optimize e otimização em geral, apresentando um método eficaz em contextos de alta dimensionalidade e que necessitam capacidade de transferibilidade.
A Visão Computacional é uma linha de pesquisa da Inteligência Artificial que permite aos computadores processar e analisar dados visuais. Dentre os domínios de atuação da Visão Computacional, a tarefa de segmentação tem sido amplamente explorada na literatura. O emprego de algoritmos de segmentação, no contexto de processamento, análise e reconhecimento de documentos tem recebido bastante atenção na literatura, dado que existe uma ampla produção científica em torno do tema. Neste contexto, o presente trabalho apresenta três novos algoritmos. O primeiro algoritmo é apresentado como uma evolução da U-net, nomeado OctHU-PageScan, proposto para segmentação de documento e zona de texto, apresentando uma redução de tempo de processamento de até 75% e uso de 93% menos espaço em disco em comparação ao baseline. Como evolução do OctHU-PageScan, o segundo algoritmo nomeado HU-PageScan foi proposto para segmentação de documento, mostrando-se eficaz para os cenários de foto de câmera de smartphones e scanner, apresentando resultados equivalentes ao baseline reduzindo o custo computacional em mais de 50% em relação ao baseline (i.e., OctHU-PageScan). O terceiro algoritmo proposto evolui os dois primeiros, utilizando algoritmos de segmentação de imagens como um pré-processamento para realizar a tarefa de classificação de oclusão em documentos fotografados. Além dos algoritmos destacados como contribuições deste trabalho, introduzimos sete novas bases de dados voltadas para o estudo do problema de segmentação de documentos fotografados. São elas: (i) CDPhotoDataset: projetada para a segmentação de documentos de identificação inseridos em diversos backgrounds; (ii) DTDDataset: focada na segmentação de regiões de texto em documentos; (iii) Extended Smartdoc Dataset: uma extensão da base de dados original Smartdoc, elaborada para segmentar os documentos em variados backgrounds; (iv) BID-Dataset, como o primeiro conjunto de dados público brasileiro de documentos de identificação; (v) SBR-Doc Dataset, apresentado na competição ICDAR 2021, um novo conjunto de dados proposto para os desafios de segmentação de diferentes componentes do documento; (vi) Um conjunto de dados para classificação de oclusão (causada por mãos humanas) em documentos de identificação (vii) SpotBID Set: para classificação de oclusão causada pelo efeito spotlight. O desenvolvimento destas contribuições minimiza lacunas na literatura relacionadas ao desenvolvimento de algoritmos livres de template e à escassez de conjuntos de dados públicos para tarefas de processamento de documentos. Ao longo desta sequência de trabalhos publicados, cada artigo não apenas se fundamentou nos insights e descobertas do anterior, mas também buscou superar suas limitações. Esse percurso ilustra a evolução metodológica adotada e evidencia a contribuição contínua e relevante desta pesquisa.
A solda ponto é um dos processos de união de chapas metálicas mais amplamente utilizados para a construção das carrocerias e mais de 90% dos pontos de solda em todo o mundo são realizadas pela indústria automotiva. Falhas na formação dos pontos de solda podem afetar a rigidez, o desempenho de ruído e vibração do veículo em nível global, além da segurança dos passageiros, portanto, garantir a qualidade da solda ponto é de extrema importância. Respingos de solda são uma condição anômala de expulsão de material que ocorre de forma aleatória durante o processo e, uma vez que a existência de respingos pode ocasionar soldas de resistência e qualidade inadequadas, devem ser evitados. Partindo deste contexto e baseando-se em uma abordagem hipotético-dedutiva e de natureza aplicada, este projeto de pesquisa busca desenvolver modelos para detecção de anomalias, aplicando a técnica de aprendizado profundo mais utilizada para a detecção de anomalias em trabalhos recentes, identificada através de uma revisão sistemática da literatura. A pesquisa é aplicada aos dados do processo de solda ponto de uma unidade fabril automotiva que utiliza a tecnologia de solda BOSCH. O conjunto de dados, que contém parâmetros e medições do processo de solda ponto, possui muitos atributos e, por conta disso, é realizado um tratamento nos dados, visando inicialmente à redução de complexidade e redundâncias. Os níveis de respingos da base são utilizados como direcionadores para divisão dos dados em diferentes cenários, considerando maior ou menor proporção de anomalia para conduzir os experimentos e avaliar o desempenho dos algoritmos para cenários onde as anomalias são mais raras. Como os dados utilizados possuem uma rotulação específica em relação ao problema dos respingos, é considerada uma abordagem de aprendizado semi-supervisionado para identificar sua ocorrência. Após implementação de alguns modelos com diferentes arquiteturas e estratégias de ajuste de hiperparâmetros e seleção de thresholds, é realizada uma comparação destes modelos com diferentes abordagens tradicionais de classificação existentes, buscando verificar quais trazem resultados mais robustos para a tarefa de detecção das anomalias, e que melhor se adequam à natureza dos dados do processo de solda ponto, considerando diferentes métricas de avaliação.