Ciência da Computação
URI Permanente desta comunidade
Navegar
Navegando Ciência da Computação por Avaliador "Daniel Gomes Soares, Msc"
Agora exibindo 1 - 9 de 9
Resultados por página
Opções de Ordenação
- ItemAnálise do comportamento do paradigma fog computing em um protótipo de medição de cheias de ribeirões(2021) Foletto, Angelo Victor Kraemer; Fábio Alexandrini, Dr; André Alessandro Stein, Msc; André Alessandro Stein, Msc; Daniel Gomes Soares, Msc; Fernandes Junior, Ph.Domputação em Névoa (Fog Computing) é um paradigma emergente para computação, arma zenamento, controle e gerenciamento de sistemas e serviços próximos ao usuário alvo. Desta maneira, este trabalho objetiva analisar o comportamento da aplicação para monitoramento de ribeirões em caso de cheias - projeto denominado MonitRib - sobre dois algoritmos. Um implementando o paradigma Computação em Névoa e outro sobre conceito “tradicional” de IoT. Para isso foram utilizados um dispositivo Raspberry Pi modelo 3 B+, sensor ultrassônico e fotográfico. Através da execução dos algoritmos obteve-se informações passíveis de análise e comparação, onde possibilitaram considerar a utilização de ambos em uma mesma infraestrutura. Desconsiderando a possibilidade de um ser melhor que o outro, visto que no ambiente IoT, todo o sistema é orientando a aplicação e não ao contrário. Por fim, foi encontrado resultados favoráveis à utilização do paradigma Computação em Névoa em situações onde não é possível garantir a efetividade da comunicação entre host - servidor ou estabilidade na distribuição de energia elétrica. Já o modo de implementação clássico tem como premissa a garantia destes fatores, onde deixa de lado a necessidade da utilização desta computação sobressalente, podendo resultar na substituição do equipamento por um de valor e configuração reduzidos
- ItemDetecção de melanomas com base em técnicas de processamento de imagens e visão computacional(2020) Torres, Carlos Alberto; André Alessandro Stein, Msc; Marcelo Lopes, Msc; Juliano Tonizetti Brignoli, Dr; Daniel Gomes Soares, MscMelanomas são o tipo mais letal de câncer de pele, sendo responsáveis por um número crescente de mortes anualmente. Apesar da mortalidade dos Melanomas avançados, quando a doença é detectada no início de seu desenvolvimento, observa-se uma elevada taxa de sobrevivência dentre pacientes, o que destaca a importância da avaliação e detecção precoce. Estudos mais recentes apontam que a irregularidade da mancha é sua característica mais proeminente, o que abre novas possibilidades para o diagnóstico computadorizado de Melanomas. Discriminar entre um nevo atípico e um Melanoma é a tarefa mais difícil no campo da dermatofatologia, de forma que a precisão do prognóstico se torne altamente dependente do treinamento do médico. Dessa maneira, por meio do uso de técnicas de Processamento de Imagens, o processo de diagnostico da doença pode ser aliviado de uma gama de entraves, estes que ocorrem majoritariamente devido a falhas relacionadas ao fator humano, como erros de julgamento decorrentes da fadiga ou estresse vindos do trabalho. Decorrente dessa metodologia, a baixa relevância dos perfis de cores acaba diminuindo a carga geral imposta ao sistema, fornecendo uma simplificação significativa em relação a abordagens semelhantes. Embora sistemas CAD convencionais ainda forneçam previsões mais precisas, a abordagem proposta pode ser empregada como uma solução alternativa em ambientes menos restritos.
- ItemDetecção de placas veiculares em ambientes não controlados via redes convolucionais leves(2023) Back, João Paulo; Cristhian Heck, M.Eng; Daniel Gomes Soares, Msc; André Alessandro Stein, MscCom a crescente frota de automóveis ao redor do mundo, a construção de modelos que reconhecem placas veiculares, ou ALPR, tornou-se uma ferramenta de suma importância para a fiscalização e análise do tráfego de veículos. À vista disso, em um sistema ALPR estão envolvidas fases como a de segmentação, reconhecimento e também a de detecção da placa veicular. Durante a etapa detecção, pode-se surgir diversos complicadores, tais como a detecção em ambientes com variações climáticas, ângulo ou luminosidade. Essas complicações podem ser contornadas através da utilização de métodos de aprendizado profundo, mais especificamente Redes Neurais Convolucionais, ou CNNs, que utilizam múltiplas camadas de processamento. A utilização de métodos com estas características pode levar a um aumento excessivo do uso de recursos computacionais, sendo consequentemente impróprio pra muitos tipos de aplicações. Dessa forma, neste trabalho foram propostos modelos de CNN leves, na qual estes não apresentem um custo computacional excessivo, sendo o local de estudo escolhido o de ambientes não controlados. Para alcançar os objetivos do trabalho, inicialmente foi realizado uma revisão bibliográfica com o objetivo de identificar os modelos que têm sido utilizados na detecção de placas veiculares para ambientes não controlados e também identificar quais foram as variáveis utilizadas nos experimentos. Essa análise forneceu a pergunta de pesquisa proposta neste trabalho, que é a de verificar se é possível obter resultados competitivos na detecção de placas veiculares através de modelos de CNN leves em relação à abordagem tradicional. Posteriormente, foi realizado a construção e o treinamento dos modelos que utilizam mais camadas convolucionais (tradicionais), e de modelos que utilizam menos camadas convolucionais (leves), em diversas configurações de parâmetros. O desempenho dos modelos foi analisado por meio de métricas utilizadas na detecção de objetos e gráficos. Em especial, nos testes com dois conjuntos de imagens da CCPD, os modelos leves alcançaram a mesma eficácia dos modelos tradicionais, porém com uma velocidade de detecção 3 a 5 vezes menor. Dessa forma, os resultados demonstram que é possível utilizar redes de CNN leves para detectar placas veiculares em ambientes não controlados, tanto em termos de eficácia, quanto de eficiência.
- ItemDiagnóstico médico de obessidade: uma comparação entre regressão linear múltipla e lógica Fuzzy para doenças cardiovasculares(2020) Silva, Jean Regis; Juliano Tonizetti Brignoli, Dr; Fábio Alexandrini, Dr; Daniel Gomes Soares, MscSendo um dos principais distúrbios relacionados a obesidade, as doenças cardiovasculares são a primeira causa de morte, em ambos os sexos, no mundo. Os fatores de risco, conhecidos como causas que aumentam a probabilidade de ocorrência de um determinado evento, antecedem em vários anos as doenças cardiovasculares. Destacam-se a obesidade, a diabetes, o sedentarismo, o tabagismo, a hipertensão arterial, a idade, o sexo, entre outros. A análise de regressão é uma técnica estatística para investigar e modelar a relação entre variáveis, sendo uma das mais uti lizadas na análise de dados. Pode se citar inúmeras aplicações da técnica de Regressão na área da saúde, doenças relacionadas a obesidade seria uma delas. O trabalho também recorreu ao uso de Lógica Fuzzy, que foi introduzida nos meios científicos em 1965 por Lofti Asker Za deh, através da publicação do artigo Fuzzy Sets no Jornal Information and Control. Hoje ela é elemento fundamental em diversos sistemas, sendo considerada uma técnica de excelência no universo computacional. O conceito Fuzzy pode ser entendido como uma situação em que não é possível responder simplesmente “sim” ou “não”. Mesmo conhecendo as informações necessárias sobre a situação, dizer algo entre “sim” e “não”, como “talvez” ou “quase”, torna-se mais apropriado. Nesse sentido, o objetivo deste trabalho é apresentar o funcionamento do raciocínio Fuzzy, utilizando o método mais popular de raciocínio Mamdani, em comparação ao uso da técnica estatística de Regressão Linear Múltipla para um auxílio ao diagnóstico, com algumas variáveis de risco, de doenças cardiovasculares. Tratando-se do disgnóstico da doença, com a finalidade entendê-lo, foi realizado um estudo das variáveis de risco baseado no score de Framingham. Como consequência, um método para calcular o risco foi obtido ao selecionar as variáveis idade, colesterol total, HDL colesterol, pressão sistólica, diabetes e tabagismo. Também fora utilizada a base de dados pública Heart Disease Database na seleção da amostragem, a qual possui informações de 303 pacientes da cidade de Cleveland, Ohio, Estado Unidos. A partir de uma escolha aleatória simples, foi calculada a amostragem de 50 indivíduos do sexo masculino. Estas informações subsidiaram a construção da base de regras Fuzzy e da função de Regressão Linear Múltipla. Ao fim, a Regressão Linear Múltipla se mostrou mais eficaz em todas as comparações efetuadas. Para a Regressão Linear Múltipla tivemos uma correlação linear (𝑅2) de 0,8307 em relação ao score de Framingham, enquanto o Fuzzy obteve uma correlação de 0,6152. Desta forma, a Regressão Linear Múltipla mostrou-se mais eficiente como uma inteligência computacional no auxílio ao diagnóstico, visando diminuir o grau de incerteza.
- ItemInterface de visualização para inferências Fuzzy-Bayesianas(2016) Solci, Flávio Sampaio; Juliano Tonizetti Brignoli, Dr; André Alessandro Stein, Msc; Daniel Gomes Soares, MscEntendendo a probabilidade como um mecanismo que auxilia especialistas de diversas áreas em suas tomadas de decisão e a precariedade na integração de teorias complexas no cotidiano desses profissionais, o atual estudo tem como principal objetivo criar uma interface (shell) que permita a utilização de um modelo Fuzzy-Bayesiano como artefato de suporte a decisão no âmbito da informação e do conhecimento sobre incerteza. A metodologia proposta consiste em pesquisa bibliográfica, fundamentação teórica, levantamento de requisitos e validação através de um estudo de caso. Assim sendo, utiliza-se no presente estudo a linguagem Java para a criação de um ambiente em que a visualização de redes Fuzzy-Bayesianas seja mais atrativa ao usuário e permita a democratização do acesso aos benefícios do uso desse modelo matemático. Com testes é possível identificar a maior facilidade e agilidade em utilizar uma ferramenta gráfica para a criação de redes Fuzzy-bayesianas e também pode-se observar o ganho de qualidade nos resultados da rede ao se utilizar uma ferramenta que implemente um motor de inferência que dê suporte a variáveis subjetivas.
- ItemJfagraph: um framework em java usando anotations para manipulação de grafos(2015) Nagel, Vinicio Alexandre Bogo; Rodrigo Curvêllo, M.Eng; Wesley dos Reis Bezerra, M.Eng; Daniel Gomes Soares, MscEste trabalho tem por objetivo o desenvolvimento de uma ferramenta que permita ao desenvolvedor a criação de um grafo de forma encapsulada. O projeto é desenvolvido com orientação a objetos, linguagem de programação Java, annotations, reflexão, padrões de projeto, e especificada utilizando a Unified Modeling Language (UML). O desenvolvedor poderá criar seus grafos sem fazer grandes mudanças na sua codificação, com o auxílio de annotations (forma sintática de metadados que podem ser adicionados ao código-fonte) e reflexividade que farão o mapeamento do grafo de acordo com as especificações do mesmo, além disso a aplicação de algoritmos entre eles os de busca em largura que tem a ideia de explorar o grafo horizontalmente, busca em profundida que explora em profundidade o grafo, Dijkstra busca entre dois vértices o caminho mínimo e algoritmo de Prim encontra uma árvore dentro do grafo com o menor custo possível. Outro aspecto positivo é a extensibilidade do framework, visto que pode se acrescentar de maneira fácil novos algoritmos. Além disso, há a integração com a ferramenta JUNG (Java Universal Network/Graph Framework), que é uma poderosa ferramenta para a visualização, manipulação de grafos desenvolvida também na linguagem Java, essa integração foi usada para facilitar o desenvolvimento da parte de visualização. Um dos objetivos é facilitar para alguém que não domina a teoria grafos sua utilização, para a resolução de problemas complexos que os principais algoritmos de grafos solucionam.
- ItemPredição de resultados de partidas de futebol(2024) Gabriel Frontório; Fábio Alexandrini, Dr; Juliano Tonizetti Brignoli, Dr; Daniel Gomes Soares, MscO futebol é um dos esportes mais populares do mundo e existem inúmeras pessoas aficcionadas por esse esporte ao redor do globo. Junto com a paixão pelo futebol surgiu a gana de adivinhar, ou prever, o resultado das partidas de futebol. Com isso surgiram diversas formas de aposta envolvendo os resultados das partidas, sendo um mercado que movimenta bilhões por ano e cresce cada vez mais. O presente trabalho apresenta uma aplicação que faz a predição do resultado de uma partida de futebol com base nas estatísticas dos times que irão se enfrentar. Seu principal objetivo é buscar a maior taxa de acerto possível, buscando reduzir possíveis perdas em apostas esportivas. Com o uso da inteligência artificial e machine learning é possível analisar dados e, com base nas estatísticas das equipes, definir qual será o resultado final da partida. Para o desenvolvimento dessa aplicação foi utilizado um conjunto de dados que contém 8870 partidas da Premier League disputadas entre 2000 e 2023. Os dados desse conjunto foram processados e resultaram em 68 estatísticas diferentes que foram utilizadas pelos modelos preditivos para prever o resultado da partida. Após o processamento dos dados, foram utilizados dez modelos preditivos diferentes, que foram treinados e testados com o mesmo conjunto de dados, com o melhor modelo sendo o modelo de Naive Bayes, que atingiu uma acurácia de 57,48% e uma média de 0,73 na métrica ROC. Os modelos preditivos foram treinados e testados para terem três possíveis resultados, sendo possível que a partida termine em vitória, empate ou derrota. O número de possíveis saídas diminui a acurácia dos modelos preditivos, se utilizarmos o mesmo conjunto de dados com os mesmos modelos preditivos, iremos obter 77,95% de acurácia, o que nos mostra a variação da acurácia de acordo com o número de saídas. O futebol é impactado totalmente por ações humanas, dos jogadores em campo e dos fatores extra campo, e essas ações são imprevisíveis e interferem diretamente no resultado final da partida e no acerto ou não da predição.
- ItemSistema web de fitopatologia utilizando raciocínio baseado em casos(2015) Silva, Guilherme Borges; Fábio Alexandrini, Dr; Daniel Gomes Soares, Msc; Juliano Tonizetti Brignoli, DrO Raciocínio Baseado em Casos é uma técnica de Inteligência Artificial que visa resolver problemas baseando-se em casos resolvidos no passado, usando o cálculo da similaridade para recuperar os casos já resolvidos mais semelhantes com o problema atual. O objetivo deste trabalho consiste em desenvolver um sistema web para o cadastro e registro de casos de fitopatologias para o setor de Fitopatologia do Instituto Federal Catarinense, com o intuito de confeccionar uma nova ferramenta que possa servir de base de pesquisas e registro de uma grande quantidade de informação e dados sobre doenças de plantas. Por ser um sistema web, utilizou-se o banco de dados MySQL e a linguagem PHP. O sistema foi desenvolvido para se tornar uma ferramenta a ser operada por uma equipe do setor de Fitopatologia supracitado, acompanhados por um especialista em fitopatologia. Nos testes realizados, as soluções recuperadas dos casos mais similares puderam ser aplicadas com sucesso, mas caso alguma solução não fosse a ideal para o caso atual, a mesma pôde ser alterada ou, caso o usuário desejasse, pôde-se inserir novas soluções para a enfermidade encontrada.
- ItemUso de algoritmos de busca heurística e algoritmos genéticos para dinamizar a logística no empacotamento de cargas(2019) Santos, Rafael José Schmidt; Juliano Tonizetti Brignoli, Dr; Cristhian Heck, M.Eng; Daniel Gomes Soares, MscProblemas de empacotamento possuem uma relação forte com a área de logística, quando trata da alocação de um conjunto de itens em um recipiente, considerando variáveis como a otimização de espaço e ordem de entrega. Este trabalho apresenta o desenvolvimento de uma aplicação para dinamizar a logística no empacotamento de cargas utilizando algoritmos de Busca em Espaços de Estados com Heurística A* e Algoritmos Genéticos. Seu principal objetivo é apresentar a melhor forma de alocar um conjunto de pacotes de variados tamanhos em um confinamento também de tamanho variável, de forma com que se aproveite ao máximo o espaço, deixando a maior área útil livre possível no confinamento, como também deixar os pacotes com maior prioridade de retirada mais próximos da saída, e então comparar os resultados obtidos com ambas as técnicas. Os resultados mostram que é possível utilizar tanto o algoritmo de Busca em Espaços de Estados quanto Algoritmos Genéticos para solucionar o problema do empacotamento, verificando que para itens de grandes dimensões ou com maior largura, o Algoritmo de Busca em Espaço de Estados obteve melhor resultado, e para itens pequenos ou com maior comprimento, o Algoritmo Genético obteve o melhor resultado.