Faculdade de Engenharia da Computação - FECOMP/CAMTUC
URI Permanente para esta coleção
Campus de Tucuruí /
Bibliotecária: Mayara de Kassia Pinheiro Menezes
Whatsapp: (94) 98199-9226
E-mail: bibliocamtuc@ufpa.br
Facebook: https://www.facebook.com/bibcamtuc/
Instagram: https://www.instagram.com/bcamtuc/
Navegar
Navegando Faculdade de Engenharia da Computação - FECOMP/CAMTUC por CNPq "CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO"
Agora exibindo 1 - 20 de 21
Resultados por página
Opções de Ordenação
Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) A evolução da fotografia a partir do advento da computação digital(2024-12-10) RODRIGUES, Fábio Henrique Conceição; MENDES, Ingrid Nery; http://lattes.cnpq.br/7079854122764802; https://orcid.org/0009-0003-0916-3906; TEIXEIRA, Otávio Noura; http://lattes.cnpq.br/5784356232477760O avanço tecnológico na era digital transformou profundamente a fotografia, com grande impacto desde as técnicas de captura até a disseminação de imagens. Este estudo traz como objetivo geral analisar o efeito da disseminação das técnicas de manipulação de imagens e fotografia, facilitadas pelo avanço tecnológico e pelo uso generalizado de dispositivos móveis e aplicativos digitais, na percepção da realidade e na construção de narrativas visuais. Para atingir este objetivo, foi adotada a metodologia de revisão sistemática da literatura, com uma busca abrangente em bases de dados acadêmicas através de palavras-chave específicas para selecionar estudos relevantes dos últimos 20 anos. A análise dos trabalhos selecionados destacou a democratização da fotografia através da popularização de câmeras digitais e smartphones, facilitando o acesso e participação no ato fotográfico. Observou-se uma perda de objetividade fotográfica devido à manipulação digital das imagens, questionando a autenticidade e a relação indicial da imagem com seu referente. Além disso, foram identificadas mudanças significativas na prática fotográfica, influenciadas tanto pela facilidade de obtenção e compartilhamento de fotos, quanto pela emergência de novas poéticas visuais e a simplificação dos dispositivos fotográficos. Este estudo conclui que a evolução da fotografia na era digital não apenas alterou as técnicas e estética fotográficas, mas também redefiniu a relação dos indivíduos com a imagem. A transição do analógico para o digital, apesar de desafiar conceitos tradicionais da fotografia, abriu novas possibilidades criativas e técnicas, ampliando o papel da fotografia na sociedade contemporânea. Assim, a fotografia digital se apresenta como uma ferramenta vital de expressão e documentação, refletindo as complexidades e dinâmicas da era em que vivemos.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Análise preditiva e interpretação da classificação de malwares em sistemas android usando aprendizado de máquina(2024-10-15) AMARAL, Geovani da Silva do; MOREIRA, Caio Carvalho; http://lattes.cnpq.br/1370619943470585Este trabalho apresenta uma análise preditiva para a detecção de malwares em dispositivos Android usando Aprendizado de Máquina e métodos de explicabilidade para interpretar os resultados. Apos os pre-processamento, o conjunto de dados foi reduzido para 34.076 amostras e 179 características de chamadas de sistema e permissões. Entre 13 classificadores avaliados, o eXtreme Gradient Boosting (XGBoost) mostrou-se o mais eficiente, com métricas de acurácia, precisão, recall e F1-Score de aproximadamente 94%, e Tempo de Treinamento de 1,48s. O método SHapley Additive exPlanations (SHAP) foi utilizado para explicar as decisões do modelo, o que revelou chamadas de sistema e permissões sensíveis, como READ PHONE STATE, SYSTEM ALERT WINDOW, SEND SMS, ACCESS WIFI STATE, getpriority e getrlimit, fortemente associados a malwares.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Aprendizagem supervisionada na predição de curvas de valores fitness em algoritmos genéticos(2022-12-13) ALMEIDA, Renuá Meireles; TEIXEIRA, Otávio Noura; http://lattes.cnpq.br/5784356232477760O presente artigo da continuidade nos esforços de uma abordagem recente, a qual propôs a predição de curvas de valores fitness no processo evolutivo dos Algoritmos Genéticos (AGs). O trabalho atual propõe se aprofundar, sugerir novos métodos e ambientes com objetivo de entender, dentre outros aspectos, as influências do tamanho e da qualidade do conjunto de dados bem como as características dos problemas utilizados. Constatou-se que os novos métodos contribuíram para um entendimento mais preciso desta abordagem, permitindo evidenciar algumas dificuldades que o modelo está suscetível, principalmente causadas em cenários com poucas execuções disponíveis para treinamento durante a resolução de problemas com vários mínimos locais.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Automação de subestação: uma análise do processo de modernização de uma subestação 500 kV – Eletrobras/Eletronorte(2022-12-16) OLIVEIRA, Bartolomeu do Vale; CAVALCANTE, Renato Luz; http://lattes.cnpq.br/3533326577502100; https://orcid.org/0000-0003-2272-896XO presente trabalho apresenta uma análise sobre o processo de modernização de uma Subestação de 500 kV da ELETROBRAS/ELETRONORTE, situada na cidade de Tucuruí-PA, abordando a arquitetura do Sistema de Proteção, Controle e Supervisão, bem como a tecnologia empregada na automação da subestação, como os dispositivos eletrônicos inteligentes (relés digitais). Para tanto foi utilizado o método estudo de caso, com coleta de dados e pesquisa bibliográfica. Por fim, a partir das informações obtidas, foi possível compreender todo o processo modernização, passando pelas suas fases de concepção, desenvolvimento e implantação e, ainda mais relevante, foram constatadas as principais vantagens, em relação aos sistemas convencionais, obtidas nas diversas áreas como a operação, manutenção, engenharia e segurança. A modernização da Subestação Tucuruí 500kV garantiu uma melhoria significativa no desempenho, na confiabilidade e segurança do sistema, além de redução de custos e aumento da estabilidade, atendendo as exigências do setor elétrico.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Busca por arquiteturas de redes neurais artificiais profundas utilizando algoritmos genéticos(2022-12-13) RIBEIRO, Denys Menfredy Ferreira; TEIXEIRA, Otávio Noura; http://lattes.cnpq.br/5784356232477760As redes neurais artificiais são os pilares dos avanços das duas últimas décadas do campo de Inteligência Artificial. Porém, o sucesso no treinamento visando obter bons resultados, depende fortemente da escolha dos valores de um conjunto de hiper-parâmetros associados a construção das mesmas. A escolha desses parâmetros é normalmente feita de forma empírica, desperdiçando tempo e gerando custos. Neste trabalho, e proposto o desenvolvimento de um algoritmo ENAS (Evolutionary Neural Architecture Search) utilizando algoritmos genéticos como mecanismo de busca para automatizar a construção de arquiteturas de redes neurais convulsionais aplicadas a tarefa de classificação de imagens do dataset CIFAR-10. O algoritmo proposto conseguiu encontrar arquiteturas que obtiveram bons resultados de acurácia no conjunto de teste.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Detecção de EPI's com ferramenta de visão computacional(2024-11-27) OLIVEIRA, Matheus da Silva; PINHEIRO, Daniel da Conceição; http://lattes.cnpq.br/2970581734279237Este trabalho de conclusão de curso aborda o desenvolvimento de um sistema de reconhecimento de Equipamentos de Proteção Individual (EPIs) utilizando a técnica YOLO (You Only Look Once). A detecção automática de EPIs em ambientes de trabalho é fundamental para garantir a segurança dos trabalhadores e cumprir com as normas regulamentares de segurança. O uso de EPIs, como capacetes, luvas, coletes reflexivos e óculos de proteção, é essencial em diversos setores, especialmente na construção civil e na indústria. No entanto, a fiscalização manual do uso desses equipamentos pode ser ineficiente e suscetível a erros humanos. O YOLO é um dos algoritmos mais avançados para detecção de objetos em tempo real, conhecido por sua alta velocidade e precisão. Este projeto envolveu a coleta e anotação de um conjunto de dados de imagens de trabalhadores equipados com diversos EPIs. As imagens foram cuidadosamente selecionadas para representar uma ampla gama de cenários e condições de iluminação, garantindo a robustez do modelo. O algoritmo YOLO foi então treinado com esses dados, utilizando técnicas de aprendizado profundo para ajustar seus parâmetros e otimizar seu desempenho. Durante o processo de treinamento, várias estratégias foram implementadas para melhorar a precisão do modelo. Após o treinamento, o modelo foi testado em um conjunto de dados de validação para avaliar sua capacidade de reconhecer corretamente os EPIs nas imagens. Os resultados foram analisados com base em métricas como precisão, recall e F1-score, demonstrando a eficácia do modelo desenvolvido.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Ferramentas de software para construção de sistemas multiagentes: uma revisão sistemática da literatura(2024-09-26) ALHADEF, Hayner de Sousa; TEIXEIRA, Otávio Noura; http://lattes.cnpq.br/5784356232477760O estudo sistemático sobre Ferramentas de Software para Construção de Sistemas Multiagentes é de extrema importância para o avanço da tecnologia e desenvolvimento de sistemas complexos. É fundamental compreender as características e funcionalidades das ferramentas disponíveis, bem como identificar as abordagens e paradigmas utilizados no desenvolvimento destes sistemas. Em face a esta realidade este artigo objetiva-se a compreender as características e funcionalidades fundamentais das ferramentas, identificando as diferentes abordagens e paradigmas utilizados em sua criação, e tem como objetivos especificos: Compreender as principais características e funcionalidades das ferramentas de software disponíveis para construção de sistemas multiagentes. Identificar as diferentes abordagens e paradigmas utilizados no desenvolvimento de ferramentas de software para sistemas multiagentes; Avaliar a eficácia e a usabilidade das ferramentas de software existentes na construção de sistemas multiagentes, considerando critérios como facilidade de uso, desempenho e escalabilidade. No campo metodológico utilizou-se a técnica de revisão sistemática da literatura que teve abordagem prioritariamente qualitativa. Em última análise, ao avaliar a eficácia e usabilidade das ferramentas existentes, é possível observar que dentre as principais características e funcionalidades das ferramentas de software mais utilizadas na construção de sistemas multiagentes, podemos destacar a capacidade de modelagem de agentes e ambientes, a linguagem de programação específica para agentes, a integração com plataformas de simulação e o suporte para protocolos de comunicação entre agentes. Exemplos de ferramentas populares nesse contexto são JADE (Java Agent DEvelopment Framework), o AnyLogic e o NetLogo. No que diz respeito aos diferentes paradigmas e abordagens de desenvolvimento adotados pelas ferramentas de software para sistemas multiagentes, é possível identificar abordagens baseadas em lógica, em aprendizado de máquina, em sistemas multiagentes distribuídos e em agentes baseados em regras. Espera-se que o estudo possa fornecer informações valiosas para apoiar desenvolvedores e pesquisadores na seleção e utilização das melhores soluções disponíveis, contribuindo para o avanço do campo de sistemas multiagentes e o desenvolvimento de aplicações cada vez mais eficientes e escaláveis.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Interface cérebro-máquina baseada em potenciais visualmente evocados: análise de extração de épocas(2023-12-15) DIAS, Fablena Kathllen Nascimento; SILVA, Cleison Daniel; http://lattes.cnpq.br/1445401605385329; https://orcid.org/0000-0001-8280-2928A Interface Cérebro-Máquina (ICM) busca não apenas compreender, mas também otimizar os complexos processos neurais, estabelecendo uma comunicação entre o cérebro e um dispositivo eletrônico. A neurociência aplicada à ICM envolve o estudo dos sinais cerebrais para identificar padrões associados a intenções específicas, permitindo a criação de algoritmos capazes de interpretar essas intenções em comandos para controle de dispositivos, a evolução dessa área promissora se destaca por impulsionar a compreensão dos processos cerebrais e oferecer soluções práticas, como melhorias na qualidade de vida para pessoas com limitações motoras. Os sistemas ICM baseados em Steady State Visually Evoked Potential (SSVEP) usam respostas cerebrais a qualquer estímulo visual piscando em uma frequência constante como comando de entrada para um aplicativo ou dispositivo externo, embora seja amplamente utilizado para muitas aplicações, existem características do sistema que devem ser analisadas e discutidas visando aumentar o desempenho da aplicação. Este estudo aborda o préprocessamento, extração de características e classificação nas etapas de processamento digital de sinais em uma ICM baseada SSVEP. Os resultados incluem análises comparativas da extração de épocas em cinco diferentes tamanhos (2s, 1s, 500ms, 250ms, 125ms) para sinais de eletroencefalograma (EEG) em uma Interface Cérebro-Máquina diante de estímulos em três frequências distintas de SSVEP (8Hz, 14Hz e 28Hz). As acurácias de classificação são apresentadas para cada análise. Os resultados obtidos por meio da classificação do sistema revelam que épocas com durações maiores apresentam melhor desempenho. Entretanto, é notório que, ao analisar épocas com menor duração, estas possuem desempenho razoável, oferecendo eficácia para o cenário e proporcionando maior número de comandos aplicáveis em uma configuração de ICM-SSVEP.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Mapeamento sistemático da inteligência artificial no mercado financeiro com ênfase em análise fundamentalista(2024-08-15) SILVA, Luan Pinheiro; MENDES, Ingrid Nery; http://lattes.cnpq.br/7079854122764802; https://orcid.org/0009-0003-0916-3906; TEIXEIRA, Otávio Noura; http://lattes.cnpq.br/5784356232477760A análise fundamentalista é a estratégia de investimento predominante para investidores focados em retornos de longo prazo. Essa abordagem avalia as operações e perspectivas das empresas, considerando tanto fatores macroeconômicos quanto elementos específicos da companhia, visando identificar oportunidades de investimento com alto potencial de retorno. O presente trabalho busca reunir informações detalhadas e relevantes sobre os benefícios e estratégias das aplicações de aprendizado de máquina na economia, utilizando a análise fundamentalista como principal métrica dentro do setor financeiro. Além disso, visa identificar as técnicas de inteligência artificial (IA), aplicadas a esse segmento e seus impactos na previsão do mercado de ações, uma vez que, prever a volatilidade do mercado financeiro sempre representou um desafio complexo. E para entender esse processo, foi realizada esta revisão sistemática da literatura, no qual, constata-se que, frequentemente, as técnicas de aprendizado de máquina são utilizadas para prever os preços dos ativos e suas tendências. Reforçando dessa forma, a importância e eficácia da utilização de algoritmos de IA para antecipar direções futuras no mercado de ações. Entre os modelos mais comuns encontrados estão, respectivamente: rede neural, algoritmo genético, deep learning, floresta aleatória, séries temporais, mineração de texto, processamento de linguagem natural e rede neural profunda. Os resultados indicam que as pesquisas em inteligência artificial estão evoluindo rapidamente e enfatizam o crescente potencial das técnicas de IA no setor financeiro, tornando-se uma ferramenta quase indispensável para os agentes econômicos.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Uma metodologia em cascata de quatro etapas para classificar códigos NCM usando técnicas de PLN(2022-09-30) PINHEIRO, Pedro Luiz Braga; GONZÁLEZ, Marcos Tulio Amaris; http://lattes.cnpq.br/9970287865377659Esse trabalho tem como objetivo desenvolver um processo para classificar as descrições dos produtos presentes nas Notas Ficais eletrônicas (NF-e). Essa classificação e feita sobre os 8 dígitos da Nomenclatura Comum do Mercosul (NCM), separado em 4 partes, Capítulo, Posição, Subposição e item/Subitem. A classificação foi realizada utilizando o algoritmo de Máquina de Vetores de Suporte (SVM) e o algoritmo de Naive Bayes em conjunto com as técnicas de Processamento Natural de Linguagem (PNL), para o processamento de uma base de dados de 340.000 produtos distintos. Os dados foram divididos em 80% treinamento e 20% teste e obteve-se um acurácia de 90% para um total de 98 classes.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Monitoramento inteligente de fadiga: detecção de sonolência em motoristas com IA e visão computacional para aumentar a segurança no trânsito(2024-11-28) COSTA, Leonardo Cabral da; PINHEIRO, Daniel da Conceição; http://lattes.cnpq.br/2970581734279237A fadiga que provoca sinais de sonolência em motoristas é uma das principais causas de acidentes de trânsito. Esses sinais se manifestam em diferentes níveis de gravidade, e quanto maior o nível, maior o risco de acidentes. Este trabalho apresenta um método baseado em inteligência artificial, aprendizado de máquina, aprendizado profundo e visão computacional para desenvolver um sistema capaz de identificar sinais de sonolência e emitir alertas proporcionais ao nível de fadiga detectado. Com o uso da ferramenta YOLO (You Only Look Once), amplamente reconhecido por sua eficácia em detecção de objetos em tempo real, foi desenvolvido um modelo para reconhecer sinais de sonolência em motoristas. O processo de construção do modelo incluiu etapas essenciais, como a coleta de imagens e o treinamento do modelo. Após o treinamento, o modelo foi submetido a testes, que mostraram sua eficiência em detectar sinais de fadiga e seus resultados foram avaliados por meio de métricas estatísticas, verificando sua precisão na identificação dos diferentes níveis de fadiga. Com base nesses sinais, o sistema pode alertar o motorista em casos de fadiga acentuada, atuando como uma ferramenta preventiva para aumentar a segurança no trânsito. Assim, o sistema contribui para a redução de acidentes relacionados à sonolência.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) No cerne da eficiência: uma análise comparativa sobre compiladores e seu desempenho(2023-12-14) SILVA, Erick Vinícius Damasceno da; GONZÁLEZ, Marcos Tulio Amaris; http://lattes.cnpq.br/9970287865377659Desde a década de 1950, o crescimento exponencial na demanda por poder de processamento impulsionou o avanço da Computação de Alto Desempenho (HPC). Nesse cenário, os Compiladores desempenham um papel crucial, ultrapassam as barreiras dos elementos de hardware e das linguagens de programação. Essas ferramentas essenciais têm a responsabilidade vital de traduzir o código de alto nível elaborado pelos programadores para a linguagem de máquina compreendida pelo computador. Este estudo realiza uma análise comparativa da eficiência de Compiladores e utiliza métricas de consumo de energia em diversos domínios da Computação de Alto Desempenho. O objetivo é identificar quais compiladores se destacam em diferentes áreas de análise e assim proporcionar uma base sólida para a escolha criteriosa dessas ferramentas, alinhada à natureza específica de cada tarefa. A análise indica que, do total de energia consumida, o GCC foi responsável por 33.23%, o Clang por 36.01%, e o ICC por 30.76%, respectivamente. Além disso, o ICC demonstrou ser 7.43% mais eficiente que o GCC, enquanto o Clang foi 8.35% menos eficiente.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Palp-it: implementação do back-end para uma plataforma colaborativa de compartilhamento de gráficos táteis(2023-08-25) LIMA, Hugo Henrique da Silva; MERLIN, Bruno; http://lattes.cnpq.br/7336467549495208; https://orcid.org/0000-0001-7327-9960A acessibilidade é um termo abrangente que engloba diversos aspectos relacionados à inclusão de pessoas com deficiência. Neste artigo, destaca-se a importância da acessibilidade na educação especial com ênfase na adaptação do conteúdo curricular às necessidades do público-alvo. O presente estudo propõe uma plataforma web chamada Palp-it, desenvolvida com o objetivo de criar um ambiente de compartilhamento de gráficos táteis. Para isso, utiliza-se de uma metodologia que envolve a modelagem de sistemas e a aplicação de tecnologias como PHP, HTML e Angular no desenvolvimento do site. Os resultados alcançados foram satisfatórios, uma vez que conseguimos estabelecer um ambiente propício para a colaboração e o compartilhamento de materiais didáticos voltados para pessoas com deficiência visual. Além disso, identificamos e implementamos soluções eficazes para aprimorar a agilidade de resposta da parte do sistema.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Predição de consumo energético de aplicações OpenMP em máquinas multi-core usando técnicas de regressão de aprendizado de máquina(2023-12-13) QUEIROZ, Fellipe Augusto Santana; GONZÁLEZ, Marcos Tulio Amaris; http://lattes.cnpq.br/9970287865377659O campo de pesquisa em Green Computing, que visa tornar a computação mais sustentável e ecologicamente correta, tem sido impulsionado pela crescente integração de tecnologias de processamento e armazenamento de dados em larga escala. A complexidade crescente e o volume massivo de dados provenientes de diversas fontes têm desafiado as infraestruturas tradicionais, levando à exploração de plataformas Multi-core. Apesar do significativo aumento no desempenho e na eficiência energética com a utilização das máquinas multi-core, ainda assim, devido à crescente demanda de consumo, os gastos energéticos atingiu valores elevados. Neste estudo, descobrimos que modelos de regressão polinomial são mais eficazes que os lineares para prever o consumo de energia, especialmente em dados complexos. Além de que, a CPU é o maior consumidor de energia, sugerindo a necessidade de otimização ou uso de GPUs. Não encontramos uma correlação direta entre o tempo de execução e o consumo de energia, sugerindo que aplicações demoradas podem ter gastos menores, devido a otimizações. A análises de agrupamento dos benchmarks indicaram padrões de consumo semelhantes, úteis para otimizações futuras. A regressão polinomial de grau 3 foi eficiente em muitos casos, porém a eficácia varia com a quantidade de dados, e modelos personalizados de dados se mostraram mais eficientes do que abordagens unificadas.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Predição de desempenho de aplicações CUDA utilizando aprendizado de máquina e características de pré-execução(2024-07-11) SIQUEIRA, Luan Ribeiro; GONZÁLEZ, Marcos Tulio Amaris; http://lattes.cnpq.br/9970287865377659Com a evolução das unidades de processamento gráfico (GPU), as aplicações de computação paralela estão se tornando cada vez mais complexas. Predizer o desempenho dessas aplicações ajuda desenvolvedores a otimizar seus algoritmos escalonadores na distribuição de seus trabalhos. Neste trabalho, foram desenvolvidos e avaliados modelos de aprendizado de maquina para predizer o desempenho de aplicações CUDA utilizando características de pre-execução. Foram comparados os modelos Ridge Regression, Random Forest e Decision Tree em nove aplicações CUDA, utilizando a métrica MAPE. Os resultados mostram que o Decision Tree obteve os menores valores de MAPE, enquanto o Random Forest apresentou um desempenho consistente. Já o Ridge Regression teve desempenho variável devido a sua limitação em lidar com multicolinearidade. O estudo enfatiza a importância considerar as características específicas da aplicação e da GPU ao fazer predições de desempenhoTrabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Reconhecimento de uso de EPI e controle de acesso por meio de visão computacional utilizando técnicas de aprendizagem de máquina(2023-03-30) SANTOS, Vigner Vieira dos; PINHEIRO, Daniel da Conceição; http://lattes.cnpq.br/2970581734279237Para o ser humano realizar o reconhecimento dos equipamentos de proteção individual pode ser uma habilidade natural. Já para no meio virtual não é uma tarefa tão fácil. A linguagem de máquina para reconhecimento de objetos envolve muitos cálculos e exige grande capacidade de processamento. No entanto, com a evolução da capacidade de processamento dos computadores e evolução de algoritmos, realizar essa atividade já é possível. Nesse sentido, o objetivo do trabalho foi construir um sistema de reconhecimento de equipamento de proteção individual (EPI) através de técnicas de aprendizagem de máquina. Além de fazer uma pesquisa avaliativa com abordagem quantitativa por meio de quatro grandes etapas metodológicas no processo de pesquisa para selecionar uma técnica de Machine Learning para ser aplicado no sistema de controle de acesso. O projeto desenvolvido, a estrutura base está atrelada nas técnicas K-Vizinhos Mais Próximos e as redes neurais residuais com arquitetura ResNet-50. As técnicas foram construídas com finalidade identificar a presença dos EPIs. É apresentada avaliações das técnicas por meio de métricas estatísticas e de Machine Learning. Por fim, é realizada a simulação do controle de acesso para fiscalizações de equipamento proteção individual.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Sistema de classificação de imagens utilizando uma rede neural Squeezenet embarcada em uma Raspberry Pi(2023-07-10) SILVA, Kamilla Taiwhscki Barros; SILVA, Cleison Daniel; http://lattes.cnpq.br/1445401605385329; https://orcid.org/0000-0001-8280-2928A Visão Computacional é um campo da Inteligência Artificial caracterizado pelo estudo das informações existentes em imagens, identificando suas características intrínsecas. O estudo da Visão Computacional tem como objetivo a criação de modelos artificiais que imitem as habilidades analíticas da visão humana, para isso são utilizados conceitos de Processamento Digital de Imagens para extrair informações a serem estudadas. Realizar essas operações exige uma grande quantidade de dados para ser efetiva e para isso necessitam-se de algoritmos capazes de processarem essas informações. Nesse contexto, algoritmos de Aprendizado Profundo são ideais para trabalharem com uma imensa quantidade de dados, visto estes possuem eficiência e eficácia para tal. Dessa forma, o uso de Redes Neurais para este propósito se torna bastante adequado, pois essa ferramenta permite que seja possível aprender a partir de um conjunto de exemplos de forma que a generalização dos dados seja adequada aos exemplos fornecidos. No caso de imagens, Redes Neurais Convolucionais são o estado da arte na área de Visão Computacional, sendo possível observar diversas aplicações que envolvem a classificação de imagens, identificação de objetos e reconhecimento de faces. Porém, esses algoritmos são robustos e apresentam uma complexa implementação, possuindo diversos parâmetros livres que são determinados durante a execução, exigindo que o hardware que o comporta possua elevada capacidade computacional para funcionar sem erros ou com tempo de execução exacerbado. Para o caso de sistemas embarcados que necessitam de baixo custo de implementação, computadores de placa única são comumente adotados, considerando que tais hardwares podem ser aplicados em diversos contextos e possuem baixo custo de execução. Todavia, esses dispositivos são restritos em relação ao poder computacional e é necessário um grande estudo das técnicas que permitam a execução de algoritmos complexos em seus hardwares. Dessa forma, este trabalho tem o intuito de apresentar um exemplo de implementação de um classificador de imagens em um Computador de Placa Única com uma Rede Neural Convolucional (CNN) sendo executada. São expostos os conceitos de CNNs e de Processamento Digital de Imagens utilizados durante o desenvolvimento do projeto. O classificador desenvolvido captura imagens de dígitos manuscritos e classifica-os em tempo real em 10 classes distribuídas de 0 a 9. Além disso, demonstra-se as técnicas de Processamento Digital de Imagens desenvolvidas, que utilizam o Filtro Gaussiano para aproximar as imagens utilizadas para o treinamento da CNN e as imagens utilizadas durante o teste do classificador embarcado. Os resultados da classificação do sistema demonstram-se razoáveis para o cenário estabelecido, sendo resultados relevantes para o trabalho em questão, em especial ao que diz respeito a acurácia de classificação do sistema de 76% e uma precisão de 80% ao classificar as imagens.Trabalho de Curso - Graduação - Monografia Acesso aberto (Open Access) Sistema de reconhecimento automático de placas veiculares utilizando visão computacional(2024-12-05) HORA, Breno Aires da; PINHEIRO, Daniel da Conceição; http://lattes.cnpq.br/2970581734279237Este trabalho apresenta a detecção e o reconhecimento de placas de identificação veicular com uso de técnicas de visão computacional aplicadas à fiscalização de trânsito. Foi criado um conjunto de dados próprio com placas brasileiras, isso inclui as etapas de gravação, seleção e anotação de imagens, combinado a um conjunto de dados internacional para o treinamento de variantes do modelo YOLO, seguido de uma análise do desempenho geral desses modelos. Além da detecção de placas, o reconhecimento óptico de caracteres (OCR) foi realizado com os modelos EasyOCR e PaddleOCR, enquanto esse último foi o mais eficiente. Os experimentos mostraram que o modelo YOLOv8s-gb superou o YOLOv5su-g em confiança média, sensibilidade média e tempo de processamento. A combinação do PaddleOCR com o YOLOv8s-gb e YOLOv5su-g aplicados a um total de 460 placas, resultou no reconhecimento de 244 e 208, respectivamente, enquanto o EasyOCR reconheceu 118 e 89 placas nos mesmos cenários. O estudo destaca a importância de conjuntos de dados específicos para aprimorar modelos de visão computacional em contextos locais, isso contribui para o avanço do reconhecimento automático de placas veiculares no Brasil.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Sistemas de interface cérebro-máquina: classificação de imagética motora via geometria de Riemann com otimização bayesiana(2023-12-19) LOPES, Danilo de Sousa; SILVA, Cleison Daniel; http://lattes.cnpq.br/1445401605385329; https://orcid.org/0000-0001-8280-2928Neste estudo, é apresentada uma nova metodologia para aprimorar o desempenho de sistemas de Interface Cérebro-Máquina baseados em Imagética Motora. Utilizaram-se informações de diferentes regiões do espectro dos sinais de eletroencefalografia, representadas como matrizes de covariância ponderadas pelo janelamento de sub-bandas no espaço Riemanniano. Para classificar essas matrizes, foi empregado o algoritmo Distância Mínima à Média de Riemann. Os hiperparâmetro que influenciam a faixa de frequência de interesse, comprimento da sub-banda e taxa de sobreposição, são refinados por meio da Otimização Bayesiana, que proporcionou novos graus de liberdade de ajustes individuais. Para a fusão da classificação das matrizes, foi adotado o algoritmo Light Gradient Boosting Machine, baseado no m´método Ensemble, que assegura uma melhor precisão final do modelo e alto desempenho na classificação da Imagética Motora. Os experimentos foram conduzidos com o conjunto de dados IIa da IV Competição Internacional de Interface Cérebro-Máquina, e, apesar dos resultados superiores em apenas dois sujeitos, não foram observadas melhorias substanciais em relação à abordagem do estado da arte. Ainda assim, a metodologia é promissora e indica potencial para futuras otimizações e desenvolvimentos.Trabalho de Curso - Graduação - Artigo Acesso aberto (Open Access) Técnicas de aprendizagem por reforço na resolução do Mundo de Wumpus(2022-12-13) RODRIGUES, Rodrigo Moraes; ARAÚJO, Natália Freitas; http://lattes.cnpq.br/2344521554133884; TEIXEIRA, Otávio Noura; http://lattes.cnpq.br/5784356232477760Este trabalho tem por objetivo analisar o desempenho de um agente baseado em Aprendizagem por Reforço. O seu mecanismo de aprendizagem está baseado em três algoritmos: Q-learning (QL), Deep Q-Network (DQN) e Double Deep Q-Network (DDQN). Para validação do agente e seus métodos, foi definido como ambiente o Mundo de Wumpus, o qual foi modelado segundo os padrões de ambientes adotados pela DeepMind Lab. A partir dos experimentos realizados e suas respectivas configurações, foi observado que os agentes conseguiram alcançar o objetivo principal somente em duas configurações de ambientes. No ambiente 4x4 a porcentagem de vitória dos algoritmos QL, DQN e DDQN foram 0.005, 22.96, 18.73 % respectivamente, o que reduziu drasticamente para o cenário 10x10 e não conseguindo cumprir o objetivo para os demais ambientes.