Divulgação - Defesa Nº 04

Aluno: Flávio Rosendo da Silva Oliveira

Título: “Método para geração de decisões razoáveis e explicáveis em Sistemas de Apoio à Decisão Inteligentes”

Orientador: Fernando Buarque de Lima Neto - (PPGEC)

Examinador Externo: Denis Mair Lima Martins - (University of Münster - Alemanha)

Examinadora Externa: Catarina Rosa e Silva de Albuquerque - (UFRPE)

Examinador Externo: Francisco Gaudêncio Mendonça Freires (UFBA)

Examinador Interno: Cleyton Mário de Oliveira Rodrigues - (PPGEC)

Data-hora: 28 de Março de 2023, às 14:30h.
Local: Hibrido - Sala de Atos, I4 – Bloco K, 1° andar - UPE/POLI
Link: meet.google.com/att-vmkw-odj


Resumo:

         A integração de técnicas de Inteligência Artificial aos Sistemas de Apoio à Decisão pode lhes agregar características diferenciais, tais como a capacidade de aprender e portanto, de adaptar seu comportamento a situações não vistas previamente. No entanto, a utilização de técnicas inteligentes, tipo caixa-preta, pode prejudicar a plena adoção do sistema de apoio, uma vez que esses processos de decisão opacos são mais difíceis de confiar e não podem, de maneira simples, ser ajustados ou corrigidos. A área de Inteligência Artificial Explicável surgiu como resposta a este problema, e se propõe a criar modelos inteligentes explicáveis ou ainda, para incorporar a capacidade de explicação a modelos que não foram criados originalmente para tal. Apesar disso, pode-se identificar na literatura argumentação no sentido de que as técnicas de Inteligência Artificial Explicável, na maior parte dos casos, geram explicações restritas ao modelo inteligente ao qual são aplicadas. No contexto da Tomada de Decisão, soluções e explicações alienadas do contexto do problema e/ou do decisor, podem ser especialmente prejudiciais em casos de aplicação com impacto sobre vidas humanas, alto impacto financeiro e demais decisões de alta complexidade. Além disso, os sistemas de apoio que são atendidos pelo estado atual da Inteligência Artificial Explicável, essencialmente sistemas de propósito específico ou baseados em modelo (e.g. classificadores ou regressores) representam apenas uma fração do todo. Sistemas de apoio otimizadores e sistemas compostos por mais de um modelo inteligente apresentam significativa lacuna de pesquisa quanto a explicabilidade e sua orientação ou cobertura de aspectos humanos na tomada decisão. A fim de explorar as lacunas identificadas na literatura, este trabalho propõe método para obter decisões razoáveis (conceito introduzido aqui), que sejam acompanhadas de explicações, para Sistemas de Apoio à Decisão que utilizem Inteligência Artificial. Sendo que, razoabilidade no método proposto se materializa pela incorporação de três novos aspectos de processamento, a saber: factibilidade, racionalidade e plausibilidade. Isso de maneira que os Sistemas de Apoio agora possuam performance ainda aceitável, mas sem perder o compromisso com a compreensibilidade e justificabilidade na perspectiva de um determinado Tomador de Decisão. A fim de validar o método proposto quanto a sua generalidade e aplicabilidade, foram apresentados três estudos de caso, que demonstraram também a viabilidade de sua utilização em problemas reais. Estes casos contemplaram diferentes tipos de Sistema de Apoio e foram realizados nos setores de Segurança Pública, Direito e Educação. Os resultados experimentais sugerem que a construção de sistemas de apoio inteligentes com o uso do método proposto, propicia a entrega decisões razoáveis com explicações adequadas aos perfis de Tomadores de Decisão considerados.

Go to top Menú