"Human interaction starts with a person approaching another one, respecting their personal space to prevent uncomfortable feelings. Spatial behavior, called proxemics, allows defining an acceptable distance so that the interaction process begins appropriately. In recent decades, human-agent interaction has been an area of interest for researchers, where it is proposed that artificial agents naturally interact with people. Thus, new alternatives are needed to allow optimal communication, avoiding humans feeling uncomfortable. Several works consider proxemic behavior with cognitive agents, where human-robot interaction techniques and machine learning are implemented. However, it is assumed that the personal space is fixed and known in advance, and the agent is only expected to make an optimal trajectory towards the person. In this work, we focus on studying the behavior of a reinforcement learning agent in a proxemic-based environment. Experiments were carried out implementing a grid-world problem and a continuous simulated robotic approaching environment. These environments assume that there is an issuer agent that provides non-conformity information. Our results suggest that the agent can identify regions where the issuer feels uncomfortable and find the best path to approach the issuer. The results obtained highlight the usefulness of reinforcement learning in order to identify proxemic regions."
"Os conflitos são inevitáveis no desenvolvimento de software devido à diversidade de competências e personalidades. Conflitos de origem humana surgem de interações interpessoais, como diferenças de personalidade e valores, enquanto conflitos de origem não humana são causados por fatores técnicos, como incompatibilidades de ferramentas e processos. Esses conflitos impactam diretamente o sucesso do projeto e podem ser moderados pelo tamanho da equipe e o porte da organização. Objetivo: Propor um Modelo e Instrumento de Mensuração de conflitos no desenvolvimento de software a partir de técnicas de análise de Aprendizado de Máquina. Metodologia: A pesquisa adotou uma abordagem metodológica mista, começando com um Mapeamento Sistemático da Literatura e Análises Bibliométricas para compreender o estado da arte na mensuração de conflitos em Engenharia de Software. Posteriormente, baseado em um estudo existente, foi conduzido um survey com profissionais da indústria de software para coletar dados empíricos, a partir de novas hipóteses, com novas questões, além de novas análises. Foram comparadas técnicas de Modelagem de Equações Estruturais (MEE), Redes Bayesianas e algoritmos de Aprendizado de Máquina, culminando na realização de um novo experimento para comparar como os modelos de análise explicam os dados. Resultados: Os resultados do Mapeamento Sistemático e da Bibliometria proporcionaram uma visão abrangente da área, identificando os principais fatores e métodos de análise de conflitos. A proposta de um novo modelo e instrumento, com novos elementos, confirmou que os conflitos de origem humana impactam negativamente o sucesso dos projetos, enquanto os conflitos de origem não humana têm efeitos variáveis dependendo do tamanho da organização. A inclusão da segurança psicológica como mediador revelou-se um fator para a mitigação dos efeitos negativos dos conflitos. A comparação entre MEE, Redes Bayesianas e Aprendizado de Máquina demonstrou a eficácia e limitações de cada técnica na mensuração de conflitos. Conclusões: O instrumento desenvolvido e validado nesta dissertação oferece uma ferramenta prática e teórica para identificar e gerenciar conflitos. A segurança psicológica desempenha um papel moderador significativo, destacando a necessidade de promover um ambiente de trabalho seguro e acolhedor. Futuras pesquisas devem focar na validação cruzada do instrumento em diferentes contextos, explorar novos mediadores e desenvolver intervenções específicas para a gestão de conflitos."
Com a crescente importância da inteligência artificial (IA) e do aprendizado de máquina na indústria automotiva, surge a necessidade de explorar e compreender como o aprendizado de múltiplas tarefas (MTL) pode otimizar o desempenho de sistemas avançados. Esta dissertação teve como objetivo analisar o processo de treinamento de algoritmos de ponderação no MTL, especificamente os algoritmos Dynamic Weight Average (DWA) e Impartial Multi-Task Learning (IMTL), para entender seu comportamento em diferentes cenários e distribuições de tarefas. Utilizando uma base de dados automotiva com 2.151 imagens de veículos, quatro tarefas foram definidas: classificação da cor do carro, do segmento, da marca e do sub-segmento. Os experimentos variaram batch size e incluíram análises da convergência e acurácia dos modelos em diversos cenários. A inclusão de tarefas fáceis melhorou a acurácia e acelerou a convergência em tarefas difíceis. A análise revelou que a dificuldade das tarefas impacta significativamente a eficácia do MTL. Estes achados fornecem insights valiosos para a aplicação do MTL em projetos de inteligência artificial no setor automotivo, que possivelmente podem ser expandidos para outras áreas, indicando que a inclusão de tarefas de diferentes níveis de dificuldade pode otimizar o desempenho dos modelos de aprendizado profundo.