Sistemas automáticos de monitoramento têm apresentado um crescente aumento de utilização na última década e, atualmente, são capazes de identificar diversas atividades da vida diária (ADL). Dentro do contexto de monitoramento de indivíduos em uma residência, um importante campo de pesquisa é o monitoramento de riscos à saúde e a identificação de quedas. Estima-se que, a cada ano, uma em cada três pessoas com mais de 65 anos caem, sendo esse número ainda maior em um ambiente doméstico. Além disso, esses eventos também estão associados a altas taxas de mortalidade entre os idosos. Porém, identificar estas ações corretamente não é uma tarefa fácil, uma vez que existem muitas ADL semelhantes a riscos relacionados à saúde e, geralmente, os conjuntos de dados públicos disponíveis apresentam muitas atividades cotidianas e poucas relacionadas a quedas, sendo essas inclusive ações simuladas por atores. Uma alternativa bastante utilizada para construção de sistemas automáticos para monitoramento um monitoramento automático é a utilização de aprendizado de máquina. Nesse contexto, as soluções que dependem de uma estrutura de dados rotulados em seu treinamento tendem a gerar resultados enviesados e mesmo que, em alguns casos, superem o estado da arte, não são confiáveis na utilização no mundo real, visto que o treinamento com dados sintéticos não permite uma correta generalização em diferentes tipos de dados. Uma possível solução para esse problema é a utilização de múltiplas fontes de dados (imagens e acelerômetros por exemplo) em uma abordagem multimodal ou a utilização de técnicas de detecção de anomalias. Como as quedas são eventos raros de ocorrer, a utilização de detecção de anomalia é bastante útil nesse tipo de cenário, permitindo que o modelo seja treinado utilizando apenas os dados de ADL e consiga identificar um evento de queda automaticamente quando ele ocorrer. Desta forma, se suponhe que a solução não se torne enviesada pela distribuição dos dados. Este projeto de doutorado explora diferentes formas para o monitoramento automático de quedas com o intuito de identificar e reportar rapidamente tais eventos. Durante o desenvolvimento deste trabalho foram desenvolvidos três tipos diferentes de modelos: o primeiro utiliza uma abordagem multimodal, que faz uso de dados de um acelerômetro e de imagens em uma rede Convolucional (CNN) e Long-Short Term Memory (LSTM). O segundo utiliza uma rede convolucional de grafos (ST- GCN) como extrator de características em conjunto com a utilização de encoders, que treinados apenas com ADL conseguem reconstruir esse tipo de ação, identificando uma queda se o erro de reconstrução for maior que um limiar pré-estabelecido. Após os dados observados durante a análise dos projetos anteriores, foi criada a OneFall-GAN, terceira e última solução, a qual explora a utilização de Redes Adversárias Generativas (GAN) aplicadas na detecção de anomalias e técnicas de one-class. Os resultados obtidos nos conjuntos de dados utilizados sugerem que foi alcançado um melhor resultado em comparação com outros trabalhos existentes na literatura.
O varejo é um setor da economia que está expandindo ao longo dos últimos anos, tanmesmo sob as consequências da pandemia do Covid-19. Para mensurar os impactos no desempenho das estratégias empresariais, os indicadores auxiliam os gestores na identificação de possíveis problemas e melhorias necessárias. Um importante indicador é o faturamento bruto, referente ao montante que a empresa adquiriu através das vendas. Como esse indicador contribui com o entendimento do estado da empresa, gerar previsões do faturamento de vendas é uma estratégia que auxilia o gestor no direcionamento do negócio. Com o foco no comércio físico, que engloba mais desafios na extração de dados e detém a maior parte do PIB do setor que os ecommerces, este trabalho tem tem como objetivo de desenvolver um conjunto de modelos de Machine Learning (ML) para previsao de vendas no varejo físico. Para condução desse trabalho foi proposta uma metodologia para criar, comparar e avaliar modelos de ML que contempla as etapas de apresentação das bases de dados, pré-processamento dos dados, seleção de atributos, divisão dos conjuntos em treinamento e teste, treinamento e avaliação dos modelos. A partir das bases de dados de vendas, utilização do Wi-Fi e fluxo de pessoas em um shopping center, foram criados dois conjuntos de dados com periodicidade por hora e por dia. Os modelos foram treinados com esses conjuntos, com seleção e atributos e com todos eles. A cada execução, foi realizado o treinamento de 13 algoritmos de ML, dentre eles, foram selecionados os melhores, a partir da métrica F1-score, para o ajuste dos hiper-parâmetros. Após o teste estatístico de Wilcoxon, os modelos foram avaliados sob as métricas F1-score, Acurácia e MCC, e também pelas matrizes de confusão. Ao analisar os dois cenários, foi observado que as previsões do cenário por hora apresentaram maior desempenho que as previsões do cenário por dia. Destacamos o modelo LIGHTGBM, pois apresentou as melhores pontuações nas métricas de avaliação. Espera-se, que os modelos de previsão ajudem os gestores a encontrar insights e apoiar as decisões operacionais do varejo físico, contribuindo para realizar ações de otimização da jornada de trabalho dos colaboradores, melhorar o processo de controle de estoque, criar ações de impulsionamento das vendas através de campanhas de marketing ou elaborar sistemas de metas para a equipe, por exemplo.
A Engenharia de Requisitos (ER) possui grande relevância no ciclo de vida de projetos de software. Dentre seus objetivos, compreende a utilização de técnicas de especificação de requisitos que atendam às necessidades dos stakeholders. No entanto, é uma área complexa, que muitas vezes não recebe a devida atenção das partes interessadas. Com isso, quando tarefas da ER são realizadas inadequadamente, ocasionam problemas que afetam o desenvolvimento do software, os quais podem ser exemplos de Dívida Técnica (DT). O gerenciamento eficaz da DT é fundamental para a qualidade do software, já a falta de gerenciamento, resulta em problemas a longo prazo, como o aumento no custo do projeto. Identificação e mensuração são as primeiras etapas no processo de gerenciamento. São essenciais para saber qual tipo de DT existe, onde está localizada e como estimar seu impacto no software. No entanto, na ER, essas etapas são pouco exploradas em pesquisas acadêmicas, sendo a mensuração uma das fases mais desafiadoras. Frente a essa situação, este trabalho possui como objetivo desenvolver um guia de apoio que possa auxiliar as empresas de desenvolvimento de software na identificação e mensuração da dívida técnica de requisitos existente em seus projetos. Apresentando informações que auxilie a identificá-la de forma assertiva, conhecendo estratégias e métricas que facilite a mensurar os dados necessários para a sua resolução. Inicialmente, conduziu-se uma revisão sistemática da literatura, a qual possibilitou compreender os aspectos associados ao gerenciamento da DT de requisitos. Na sequência, com o objetivo de analisar na prática como a identificação e mensuração são realizadas em contextos reais, um survey foi conduzido com profissionais do desenvolvimento de software alocados em diferentes organizações. Adicionalmente, o guia foi desenvolvido e avaliado através de uma sessão de grupo focal por um painel de especialistas nas áreas de estudo. Dentre os resultados, tornou-se possível apresentar no guia de apoio: (i) 26 causas atribuídas ao surgimento da dívida técnica de requisitos, com destaque ao baixo nível de detalhes na documentação dos requisitos; (ii) 10 estratégias já existentes que auxiliam na sua identificação e mensuração; e (iii) diferentes ferramentas e métricas que atualmente são utilizadas para automatizar o processo de gerenciamento da DT de requisitos, especificamente mensurar o esforço ou o tempo que serão necessários para reembolsá-la. Assim, após a análise dos resultados, pode-se concluir que o guia de apoio é um recurso que auxilia, especialmente os profissionais da indústria de software com pouca experiência e baixo nível de conhecimento na área, a obter maiores informações sobre DT, proporcionando que a mesma possa ser identificada e mensurada assertivamente.