Eventos

Divulgação - Defesa Nº 266

Aluno: Vinícius Oliveira Barros

Título: “Interpretability of an Automatic Handwritten Signature Verification Model”

Orientador: Byron Leite Dantas Bezerra - (PPGEC)

Examinador Externo: Cleber Zanchettin - (UFPE)

Examinador Interno: Diego José Rátiva Millán (PPGEC)

Data-hora: 31 de Março de 2023, às 08:30h.
Local: REMOTO (https://meet.google.com/jnv-dhrg-tcz)


Resumo:

         In handwritten signature verification, convolutional neural networks are used in many different configurations and produce vastly different albeit satisfactory results when extracting signature features. One problem posed by the usage of these models is that, depending on the application, the need for insight into what features were used to output a given feature sets a barrier to the usage of those networks. In this work, we use Integrated Gradients and Saliency maps to extract regions of relevance from a sample input signature. We also analyze those regions where signature features such as initial and final pen strokes, pressure, speed, and connections, among others, to investigate if a proposed feature-extracting network points to the same criteria used by handwritten signature verification experts. Our experiments show that the initial and final pen strokes are the most commonly-occurring, high-relevance feature region outputted by the selected attribution algorithms with a relative frequency of 66.6%. These results relate to those obtained by the study of the criteria chosen by experts in a similar setting.

Divulgação - Defesa Nº 05

Aluno: Leandro Honorato de Souza Silva

Título: “Visão Computacional aplicada ao Suporte à Decisão para Reciclagem de Placas de Circuito Impresso”

Orientador: Bruno José Torres Fernandes - (PPGEC)

Coorientador: Sérgio Campello Oliveira - (PPGES)

Examinador Externo: Guilherme Alencar Barreto - (UFC)

Examinadora Externa: Maísa Mendonça Silva - (UFPE)

Examinador Externo: Raphael Henrique Falcão de Melo - (IFPB)

Examinador Interno: Alexandre Magno Andrade Maciel - (PPGEC)

Data-hora: 31 de Março de 2023, às 14:00h.
Local: Sala de Atos, I4 – Bloco K, 1° andar - UPE/POLI


Resumo:

         Os resíduos de equipamentos eletroeletrônicos (REE) são definidos como qualquer equipamento eletroeletrônico em fim de vida. Trata-se da classe de rejeito com crescimento mais acelerado. O Global E-Waste Monitor aponta que em 2019 cada habitante do planeta Terra produziu em média 7,3kg de REE, significando um crescimento de 21% em relação aos dados de 2014. Os REE possuem em sua composição elementos de alto valor para reciclagem (e.g. metais nobres) e elementos perigosos, como cádmio, chumbo, cromo e mercúrio. Portanto, a correta destinação dos REE possui o potencial de promover a recuperação de elementos raros e valiosos e proteger o meio ambiente. Cerca de 30% dos REE é composto de Placas de Circuito Impresso (PCB, do inglês: Printed Circuit Board), as quais possuem a maioria dos metais nobres contidos nos REE. Entretanto, as PCBs possuem grande diversidade de composição, constituindo um obstáculo para a reciclagem. Existem dezenas de processos de reciclagem de PCBs, além dos parâmetros de cada processo. Sendo assim, este trabalho propõe o método nomeado WPCB-EFA (Waste Printed Circuit Board Economic Feasibility Assessment) para avaliação por meio de visão computacional de uma PCB, caracterizando-a pela identificação de componentes eletrônicos, fornecendo suporte à decisão para a escolha do processo de reciclagem mais adequado. A primeira versão do WPCB- EFA utiliza a técnica de transfer leraning de um modelo de detecção de objetos (YOLOv3) para identificar circuitos integrados (CIs) e calcular os possíveis metais que podem ser recuperados em sua reciclagem – chegando à receita bruta estimada para a reciclagem dos CIs de uma PCB. Com a finalidade de detectar os demais componentes eletrônicos, os principais modelos de detecção de objetos necessitam de um conjunto de dados rotulados para treinamento supervisionado - os quais são indisponíveis e custosos de serem elaborados. Para treinar um detector de objetos em um cenário de poucos dados (Few-shot Learning), foram avaliadas estratégias de aprendizagem por contraste para classificação e detecção de CEs. Os resultados obtidos indicam haver vantagens no uso da aprendizagem por contraste para a classificação de CEs, mas não para detecção.Para permitir o treinamento de um detector de EC de forma semi-supervisionada, i.e utilizando dados não rotulados, propõe-se o método GEN Self-labeling Electronic Component Detector, o qual utiliza uma estratégia de adaptação de domínio para treinar de forma auto-supervisionada gerações de modelos professor-aluno. O método proposto foi avaliado com os modelos YOLOv5 e Faster RCNN utilizando a adição de ruído nos rótulos da base de dados FICS-PCB. Neste cenário, após quatro gerações o método proposto foi capaz de aumentar aproximadamente 6%na métrica mAP em relação à geração inicial, atingindo 69,16% mAP versus 72% mAP do modelo treinado com a base de dados íntegra. Por fim, utilizando o método proposto é possível identificar componentes eletrônicos em uma WPCB e assim caracterizá-la pela identificação de componentes perigosos e calcular a densidade de cada tipo de componente. Com essa informação,é possível reduzir a incerteza sobre a composição da WPCB e direcioná-la para desmontagem e/ou escolher o processo de reciclagem com melhor relação custo-benefício.

Divulgação - Defesa Nº 04

Aluno: Flávio Rosendo da Silva Oliveira

Título: “Método para geração de decisões razoáveis e explicáveis em Sistemas de Apoio à Decisão Inteligentes”

Orientador: Fernando Buarque de Lima Neto - (PPGEC)

Examinador Externo: Denis Mair Lima Martins - (University of Münster - Alemanha)

Examinadora Externa: Catarina Rosa e Silva de Albuquerque - (UFRPE)

Examinador Externo: Francisco Gaudêncio Mendonça Freires (UFBA)

Examinador Interno: Cleyton Mário de Oliveira Rodrigues - (PPGEC)

Data-hora: 28 de Março de 2023, às 14:30h.
Local: Hibrido - Sala de Atos, I4 – Bloco K, 1° andar - UPE/POLI
Link: meet.google.com/att-vmkw-odj


Resumo:

         A integração de técnicas de Inteligência Artificial aos Sistemas de Apoio à Decisão pode lhes agregar características diferenciais, tais como a capacidade de aprender e portanto, de adaptar seu comportamento a situações não vistas previamente. No entanto, a utilização de técnicas inteligentes, tipo caixa-preta, pode prejudicar a plena adoção do sistema de apoio, uma vez que esses processos de decisão opacos são mais difíceis de confiar e não podem, de maneira simples, ser ajustados ou corrigidos. A área de Inteligência Artificial Explicável surgiu como resposta a este problema, e se propõe a criar modelos inteligentes explicáveis ou ainda, para incorporar a capacidade de explicação a modelos que não foram criados originalmente para tal. Apesar disso, pode-se identificar na literatura argumentação no sentido de que as técnicas de Inteligência Artificial Explicável, na maior parte dos casos, geram explicações restritas ao modelo inteligente ao qual são aplicadas. No contexto da Tomada de Decisão, soluções e explicações alienadas do contexto do problema e/ou do decisor, podem ser especialmente prejudiciais em casos de aplicação com impacto sobre vidas humanas, alto impacto financeiro e demais decisões de alta complexidade. Além disso, os sistemas de apoio que são atendidos pelo estado atual da Inteligência Artificial Explicável, essencialmente sistemas de propósito específico ou baseados em modelo (e.g. classificadores ou regressores) representam apenas uma fração do todo. Sistemas de apoio otimizadores e sistemas compostos por mais de um modelo inteligente apresentam significativa lacuna de pesquisa quanto a explicabilidade e sua orientação ou cobertura de aspectos humanos na tomada decisão. A fim de explorar as lacunas identificadas na literatura, este trabalho propõe método para obter decisões razoáveis (conceito introduzido aqui), que sejam acompanhadas de explicações, para Sistemas de Apoio à Decisão que utilizem Inteligência Artificial. Sendo que, razoabilidade no método proposto se materializa pela incorporação de três novos aspectos de processamento, a saber: factibilidade, racionalidade e plausibilidade. Isso de maneira que os Sistemas de Apoio agora possuam performance ainda aceitável, mas sem perder o compromisso com a compreensibilidade e justificabilidade na perspectiva de um determinado Tomador de Decisão. A fim de validar o método proposto quanto a sua generalidade e aplicabilidade, foram apresentados três estudos de caso, que demonstraram também a viabilidade de sua utilização em problemas reais. Estes casos contemplaram diferentes tipos de Sistema de Apoio e foram realizados nos setores de Segurança Pública, Direito e Educação. Os resultados experimentais sugerem que a construção de sistemas de apoio inteligentes com o uso do método proposto, propicia a entrega decisões razoáveis com explicações adequadas aos perfis de Tomadores de Decisão considerados.

Página 7 de 44

Go to top Menú