|
Dissertações |
|
1
|
-
DENISE LEMOS CARDOSO
-
Simulação de Materiais Granulares: Uma Abordagem Tridimensional
-
Orientador : ALLBENS ATMAN PICARDI FARIA
-
MEMBROS DA BANCA :
-
ALLBENS ATMAN PICARDI FARIA
-
BRENO RODRIGUES LAMAGHERE GALVAO
-
FELIPE GALVÃO RAFAEL MAGALHÃES
-
Data: 10/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
A partir do aumento de capacidade de processamento computacional e desenvolvimento de programas de modelagem e renderização tridimensional, aliados aos conceitos físicos e matemáticos, melhorias em ferramentas de simulação estão sendo alavancadas. Neste trabalho é executado um processo de simulação tridimensional de materiais granulares utilizando o programa Blender com um código secundário de cálculos para interação entre grãos Molecular Script Addon e analisar os resultados. Foi desenvolvido um código em Python agregado ao programa de computador Blender para montagem inicial dos experimentos, visualização da simulação e extração dos resultados. O Molecular Script é baseado no Método dos Elementos Discretos. Na simulação executada, são considerados 2000 grãos depositados em um funil, seguido do fluxo dos grãs através da abertura inferior inferior e por fim, a deposição dos mesmos em uma superfície plana. Foi testada a sensibilidade dos resultados em relação à variação dos seguintes parâmetros: ângulo das paredes do funil, atrito entre os grãos e variação de acomodação inicial dos grãos no funil (para verificar a repetibilidade dos testes). Para avaliação dos resultados foram medidas algumas características físicas e estruturais, tais como o tempo de escoamento total em função do ângulo do funil e atrito, ângulo de repouso da pilha formada, forma da pilha em vista superior e mapa de velocidade do fluxo de grãos em função do tempo. Como resultado, foi possível atestar a funcionalidade e repetibilidade das simulações utilizando o Bender. O resultado dos experimentos apresentaram uma correlação entre o tempo total de fluxo dos grãos, coeficiente de atrito e ângulo do funil.
-
Mostrar Abstract
-
**
|
|
2
|
-
CESAR AUGUSTO SOUZA DE OLIVEIRA
-
UM GRASP REATIVO PARA O PROBLEMA DE SEQUENCIAMENTO DE MÁQUINAS PARALELAS NÃO RELACIONADAS COM RECURSO ESCASSO ADICIONAL
-
Orientador : SERGIO RICARDO DE SOUZA
-
MEMBROS DA BANCA :
-
SERGIO RICARDO DE SOUZA
-
GUSTAVO CAMPOS MENEZES
-
MARIA AMÉLIA LOPES SILVA
-
Rodney Oliveira Marinho Diana
-
Data: 24/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Este trabalho aborda o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com recurso escasso adicional (Unrelated Parallel Machine Scheduling Problem with Secondary Resources – UPMR). Neste problema, um determinado conjunto de tarefas serão distribuídas em um conjunto de máquinas. O objetivo é minimizar o instante de conclusão da última tarefa (makespan). A cada instante de tempo existe uma quantidade máxima de recursos disponível para processar as tarefas do sequenciamento, cada tarefa demanda uma certa quantidade desse recurso ao ser processada. Caso o limite total de recurso seja ultrapassado, a solução se torna infactível. Para resolução do problema, propomos um algoritmo GRASP Reativo juntamente com um método de busca local VND. Um método guloso para o reparo de soluções infactíveis foi proposto e aplicado em conjunto com o GRASP Reativo. Um conjunto de instâncias da literatura é usado para a validação e comparação dos resultados. Análises realizadas com os resultados obtidos indicaram que a abordagem proposta obteve resultados satisfatórios em boa parte das instâncias em relação à abordagens existentes na literatura.
-
Mostrar Abstract
-
**
|
|
3
|
-
DIOGO SOUZA DE FIGUEIREDO
-
ANONIMIZAÇÃO DE DADOS: UM COMPARATIVO DE ALGORITMOS DE PRIVACIDADE BASEADOS NO MODELO K-ANONYMITY
-
Orientador : THIAGO DE SOUZA RODRIGUES
-
MEMBROS DA BANCA :
-
GUSTAVO CAMPOS MENEZES
-
SANDRO RENATO DIAS
-
THIAGO DE SOUZA RODRIGUES
-
Data: 27/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Em quase todas as atividades diárias, a internet está sempre presente. Muitas dessas atividades, requerem o compartilhamento de dados pessoais (por exemplo, endereço, telefone, idade, localidade, dentre outros) e dados considerados sensíveis (por exemplo, diagnóstico médico, conta de banco, número de documentos, dentre outros), gerando uma preocupação quanto a privacidade dessas informações perante a sociedade. Compartilhar informações exige a utilização de ferramentas de proteção de dados, de forma que as informações desses dados não possam ser utilizadas para identificar um indivíduo. Para atender as Leis e regulamentações aplicáveis, bem como, as políticas de proteção de dados informadas, surgiu um mecanismo de proteção de dados chamado anonimização de dados. Esse mecanismo consiste basicamente em remover os identificadores e ocultar dados sensíveis impossibilitando sua re-identificação. À medida que grandes quantidades de dados de indivíduos são disseminadas, novos desafios aparecem para a proteção de sua privacidade. Vários algoritmos de anonimização foram propostos, tornando-se a publicação de dados de preservação de privacidade em uma área de pesquisa bem abrangente. No entanto, é difícil identificar e selecionar o algoritmo mais adequado, devido ao grande número de algoritmos disponíveis e informações limitadas sobre seus desempenhos. Neste trabalho, são apresentados três algoritmos de anonimização chamados DataFly, Incognito e Mondrian. Será abordado suas eficiências no processamento dos dados, suas eficácias na quantidade de dados utilizados empregando um conjunto amplo de diferentes parâmetros, métricas e conjuntos de dados. Para orientar na seleção de um algoritmo, uma bateria de experimentos será realizada entre eles para identificar quais fatores podem influenciar no desempenho, apresentando as condições em que cada algoritmo supera uns aos outros em determinados requisitos de privacidade bem como suas vantagens e desvantagens.
-
Mostrar Abstract
-
In almost every daily activity, the internet is always present. Many of these activities require the sharing of personal data (e.g. address, telephone, age, location, among others) and data considered sensitive (e.g. medical diagnosis, bank account, among others), generating a privacy concern. of this information to society. Sharing information requires the use of data protection tools, so the information in this data cannot be used to identify an individual. In order to comply with applicable laws and regulations, as well as informed data protection policies, a data protection mechanism called data anonymization has emerged. This mechanism basically consists of removing identifiers and hiding sensitive data, making it impossible to re-identify. As large amounts of data from individuals are disseminated, new challenges arise for the protection of their privacy. Various anonymization algorithms have been proposed, making publishing privacy-preserving data a very broad area of research. However, it is difficult to identify and select the most suitable algorithm, due to the large number of available algorithms and limited information about their performance. In this work, three anonymization algorithms called DataFly, Incognito and Mondrian are presented. Its efficiencies in data processing, its effectiveness in the amount of data used will be addressed, employing a wide set of different parameters, metrics and data sets. To guide the selection of an algorithm, a battery of experiments will be carried out among them to identify which factors can influence performance, presenting the conditions in which each algorithm outperforms each other in certain privacy requirements as well as their advantages and disadvantages
|
|
4
|
-
ALEXANDRE AUGUSTO AGUIAR GOMES
-
Uso de Oclusão para Explicabilidade em Inteligência Artificial Aplicada em Reconhecimento de Entidades Nomeadas
-
Orientador : FLAVIO LUIS CARDEAL PADUA
-
MEMBROS DA BANCA :
-
DANIEL HASAN DALIP
-
FLAVIO LUIS CARDEAL PADUA
-
GUSTAVO CAMPOS MENEZES
-
MICHELE AMARAL BRANDÃO
-
Data: 27/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Técnicas de Explicabilidade de Inteligência Artificial (XAI, do inglês Explainable Artificial Intelegence) são métodos que auxiliam o usuário a entender os motivos pelos quais o modelo de Aprendizado de Máquina (ML, do inglês, Machine Learning) realizou uma determinada predição. Elas vêm sendo aplicadas nos mais diversos problemas, desde Visão Computacional ao Processamento de Linguagem Natural (NLP, do inglês, Natural Language Processing). Em NLP, tais técnicas podem permitir ao usuário identificar quais palavras são importantes para a compreensão de uma sentença e também na determinação de quais palavras são relevantes para efetuar uma determinada predição automática, por exemplo, nas tarefas de identificação automática de classes gramaticais ou reconhecimento de entidades nomeadas (NER, do inglês, Named Entity Recognition). Esse trabalho tem como objetivo estudar a aplicabilidade da técnica de XAI de Oclusão em NER. A Oclusão, ao ser aplicada em NER, é uma técnica que mensura a relevância de uma determinada palavra na predição por meio da análise do impacto em sua remoção. Essa técnica, além de trazer um entendimento do processo de predição, pode permitir que sejam realizadas intervenções no ajuste dos hiperparâmetros do modelo ou no preprocessamento da base de dados. Para realizar esse trabalho, utilizou-se uma LSTM bidirecional e o dataset CoNLL 2003, amplamente utilizado na literatura. Logo após, foi investigado a precisão dessa técnica de explicabilidade analisando a capacidade da mesma em gerar respostas similares às esperadas por humanos. Para realizar essa análise, foi utilizado a anotação manual de um conjunto de 1000 sentenças criando-se, assim, uma base de dados de referência. Até onde se sabe, não há na literatura análises do uso da Oclusão em NER. Dessa forma, tanto a análise realizada quanto a base de dados de referência são contribuições do presente trabalho.
-
Mostrar Abstract
-
**
|
|
5
|
-
WANDERLEY DA SILVA
-
A Mecânica Quântica Supersimétrica e Suas Aplicações
-
Orientador : ANTONIO PAULO BAETA SCARPELLI
-
MEMBROS DA BANCA :
-
OSVALDO NEGRINI NETO
-
ANTONIO PAULO BAETA SCARPELLI
-
GIANCARLO QUEIROZ PELLEGRINO
-
LUIZ CLEBER TAVARES DE BRITO
-
Data: 13/03/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
A supersimetria é um princípio bastante atraente na busca por teorias mais abrangentes além do Modelo Padrão das partículas elementares, pois envolve o intercâmbio entre campos fermiônicos e bosônicos, além de resolver problemas como o do ajuste fino. A mecânica quântica supersimétrica (MQ SUSI) foi desenvolvida por Witten em 1981, inicialmente como um modelo para testar métodos de teorias de campos. A partir do momento em que a comunidade científica voltou sua atenção para a Mecânica Quântica SUSI, ficou evidente que este campo de estudos era interessante por si mesmo. Além de servir como um modelo para testar métodos de teorias de campos, constatou-se que a MQ SUSI traz novas luzes sobre o método de fatoração de Infeld e Hull, que foi a primeira forma de categorizar os problemas de potenciais solucionáveis analiticamente. Cálculos da mecânica quântica podem ser simplificados por meio de procedimentos da MQ SUSI. Há muito o que ser explorado em MQ SUSI no cenário atual. Este trabalho tem como proposta fazer uma revisão dos diversos procedimentos adotados na MQ SUSI, com exemplos em uma, duas e três dimensões. Além disso, é apresentado um estudo de aplicações da mecânica quântica supersimétrica no poço circular infinito.
-
Mostrar Abstract
-
**
|
|
6
|
-
RODRIGO COIMBRA PEREIRA ALVES
-
Eficiência de Mercado: Um Estudo nos Mercados Brasileiro e Estadunidense
-
Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
-
MEMBROS DA BANCA :
-
ALLBENS ATMAN PICARDI FARIA
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
CHARLENE CASSIA DE RESENDE
-
CRISTIANO ARBEX VALLE
-
Data: 04/07/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
A hipótese de mercado eficiente é um conceito central na teoria econômica contemporânea. Embora desvios da eficiência venham sendo associados a diferentes estatísticas observadas em séries financeiras, em última instância o que os define é a possibilidade de ganhos consistentes acima da média do mercado por meio de arbitragem. A presente pesquisa consiste em um estudo em que essa questão é abordada por múltiplos ângulos. Tendo como dados de entrada séries de preços de ações dos mercados brasileiro e estadunidense, este estudo examina estatísticas encontradas em séries de preços ou de retornos que se afastam de comportamentos análogos ao de um caminhante aleatório. Utilizamos como ferramentas o expoente de Hurst e sua generalização multifractal, distribuições cumulativas inversas e um modelo de previsão de tendências de retornos de ativos financeiros baseado em um sistema de equações diferenciais acopladas. Buscamos analisar correlações entre as estatísticas encontradas de forma a identificar desvios da hipótese de mercado eficiente: tais correlações fornecem informações a respeito de possibilidades de arbitragem. Ainda com o objetivo de identificar oportunidades de arbitragem, conduzimos uma análise abrangendo diversas faixas de horário. Além disso, desenvolvemos um índice que relaciona o potencial de lucro teórico com a liquidez dos ativos.
-
Mostrar Abstract
-
**
|
|
7
|
-
ROMARIO DOS SANTOS LOPES DE ASSIS
-
Algoritmos heurísticos para os problemas de localização-alocação de mamógrafos e roteamento de unidades móveis de mamografia
-
Orientador : MARCONE JAMILSON FREITAS SOUZA
-
MEMBROS DA BANCA :
-
TATIANA ALVES COSTA
-
EDUARDO CAMARGO DE SIQUEIRA
-
ELISANGELA MARTINS DE SA
-
MARCONE JAMILSON FREITAS SOUZA
-
MARIA AMÉLIA LOPES SILVA
-
SERGIO RICARDO DE SOUZA
-
Data: 11/07/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Esta dissertação tem seu foco no problema de cobertura de exames de mamo grafia no Sistema Único de Saúde do Brasil. Este problema foi decomposto em doissubproblemas que são resolvidos sequencialmente: o Problema de Localização e Alo cação de Mamógrafos fixos (PLAM) e o de Roteirização das Unidades Móveis deMamografia (MMURP). No primeiro problema, o objetivo é determinar a localiza ção de mamógrafos fixos e as cidades por ele atendidas satisfazendo a um conjunto de restrições, entre as quais a limitação da distância de atendimento. Dado que ci dades sem infraestrutura hospitalar para sediar um mamógrafo fixo e distantes deoutras com infraestrutura não podem ser atendidas por mamógrafos fixos, então, para cobri-las são utilizadas Unidades Móveis de Mamografia (MMUs). A roteiriza ção das MMUs dá origem ao segundo subproblema. Para resolver o PLAM foram desenvolvidos dois algoritmos de otimização baseados nas meta-heurísticas Iterated Greedy Search (IGS) e General Variable Neighborhood Search (GVNS), nomeados IGS-PLAM e GVNS-PLAM, respectivamente. Esses algoritmos utilizam uma nova representação de solução que permite identificar individualmente cada equipamento instalado em uma cidade. Além disso, eles usam novas estruturas de vizinhança. Para testá-los foram utilizadas instâncias da literatura referente a dados reais de estados brasileiros. Os resultados desses algoritmos foram comparados com aqueles produ zidos por um algoritmo da literatura e com o resolvedor CPLEX. Em seguida, para cada instância, o conjunto de cidades não atendidas integralmente pelos mamógrafos fixos na melhor solução gerada pelos algoritmos propostos é utilizado como instância para a solução do MMURP. Esse segundo subproblema é resolvido por meio de um algoritmo heurístico construtivo que determina o número de MMUs e suas respectivas rotas de forma a atender toda a demanda existente. Esta metodologia foi utilizada para gerar soluções para sete estados da federação brasileira.
-
Mostrar Abstract
-
**
|
|
8
|
-
LEONARDO CORRÊA CARDOSO
-
Algoritmos Iterated Local Search e Simulated Annealing Aplicados ao Problema de Localização com Cobertura Parcial
-
Orientador : ELISANGELA MARTINS DE SA
-
MEMBROS DA BANCA :
-
ELISANGELA MARTINS DE SA
-
GUSTAVO CAMPOS MENEZES
-
Rodney Oliveira Marinho Diana
-
SERGIO RICARDO DE SOUZA
-
Data: 14/07/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
O Problema de Localização com Cobertura Parcial consiste em localizar um conjunto de instalações de forma a minimizar o custo total de localização e garantir queuma quantidade predeterminada de demanda de clientes seja coberta por estas instalações. Este trabalho apresenta dois algoritmos para a resolução deste problema, sendo o primeiro baseado na meta-heurística Iterated Local Search e o segundo baseado na meta-heurística Simulated Annealing. Além disso, um conjunto de experimentos computacionais foram realizados e resultados demonstram que boas soluçõespodem ser encontradas para instâncias moderadamente grandes.
-
Mostrar Abstract
-
**
|
|
9
|
-
RÓGENES REIS FIRMINO
-
Classificação automática de leucócitos em amostras sanguíneas de cães baseada em técnicas de visão computacional e redes neurais convolucionais
-
Orientador : FLAVIO LUIS CARDEAL PADUA
-
MEMBROS DA BANCA :
-
FABÍOLA DE OLIVEIRA PAES LEME
-
FLAVIO LUIS CARDEAL PADUA
-
GUSTAVO CAMPOS MENEZES
-
MARCO TULIO ALVES NOLASCO RODRIGUES
-
NATALIA COSSE BATISTA
-
Data: 07/08/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Na rotina clínica veterinária, o hemograma é o exame complementar mais solicitado, cujo objetivo é avaliar as diferentes células sanguíneas do animal para auxiliar no diagnóstico e acompanhamento da evolução das doenças. O hemograma examina as diferentes células do sangue animal de modo a realizar a contagem de hemácias, leucócitos e plaquetas em uma amostra sanguínea. Os métodos atuais para contagem e análise das células sanguíneas podem ser divididos em técnicas manuais, impedância, análise quantitativa da camada flogística, citometria de fluxo e por visão computacional. A técnica manual é morosa e apresentam um fluxo de trabalho repetitivo, o que pode gerar influências negativas nos resultados apresentados, pois além do prazo extenso para se obter essa resposta, ela ainda pode conter os efeitos subjetivos do profissional. Já as técnicas automáticas, apresentam outros tipos de problema, como a baixa exatidão na contagem diferencial de leucócitos na técnica de impedância e o alto custo de aquisição e manutenção dos equipamentos relacionados à citometria de fluxo. Este trabalho propõe o desenvolvimento de um método para localizar e classificar automaticamente leucócitos caninos por meio de técnicas de visão computacional e aprendizado de máquina, levando em consideração a variação morfológica celular do animal, a partir de imagens de esfregaços sanguíneos. Dessa forma, é possível fornecer resultados mais precisos do que as metodologias existentes, reduzindo o efeito da subjetividade dos resultados, além de diminuir o tempo gasto com a leitura de lâmina do esfregaço, liberando o médico veterinário para o desempenho de outras atividades. Para a construção do método, uma base de imagens com 433 exemplos de amostras sanguíneas de cães foi criada. Em seguida, a partir da análise de diversos espaços de cores, a componente S do espaço HSV proporcionou o melhor realce dos núcleos dos leucócitos. Com o uso de um limiar, as células sanguíneas de interesse foram localizadas na cena, identificando corretamente 1390 elementos celulares de um total de 1436, o que corresponde a uma taxa de acertos de 96.76%. Por fim, com o auxílio da VGG16, uma rede neural convolucional com transferência de aprendizado, uma acurácia média de 98,5% foi obtida para as células das seguintes classes: linfócitos, neutrófilos, eosinófilos, monócitos e metarrubrícitos.
-
Mostrar Abstract
-
**
|
|
10
|
-
JOICE MARTINHA RODRIGUES
-
Modelo e Algoritmos para um Problema de Sequenciamento de Ordens de Manutenção Preventiva
-
Orientador : GUSTAVO CAMPOS MENEZES
-
MEMBROS DA BANCA :
-
ELISANGELA MARTINS DE SA
-
GUSTAVO ALVES FERNANDES
-
GUSTAVO CAMPOS MENEZES
-
THIAGO DE SOUZA RODRIGUES
-
Data: 05/10/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Esta dissertação tem como objetivo principal desenvolver um modelo matemático capaz de abordar um problema real de sequenciamento de máquinas paralelas em um ambiente Job Shop, visando encontrar o menor makespan global do sistema. Além da formulação matemática em si, uma análise detalhada da eficácia dos algoritmos desenvolvidos também será realizada. Dois algoritmos foram elaborados: um utilizando uma heurística construtiva parcialmente gulosa e outro com base na técnica de Simulated Annealing. Para avaliar a performance dos algoritmos, foram conduzidos experimentos utilizando conjuntos de instâncias diversificados. Em particular, dois testes foram realizados, variando a mão de obra disponível: um aumento de 2% e outro de 5%. Notavelmente, observou-se que à medida que o aumento da mão de obra crescia, as soluções obtidas tendiam a melhorar. O primeiro algoritmo produziu resultados para todos os grupos de instâncias definidos. Contudo, as soluções obtidas ficaram significativamente distantes da solução ótima, indicando a complexidade intrínseca do problema. A partir dessas soluções iniciais, o segundo algoritmo foi aplicado, permitindo uma exploração mais profunda do espaço de soluções. Esse processo se mostrou mais eficaz em termos de convergência para soluções mais próximas do ótimo global. O segundo algoritmo, baseado no Simulated Annealing, foi capaz de explorar diversas configurações de alocação de tarefas, permitindo uma busca mais ampla por soluções promissoras.
-
Mostrar Abstract
-
**
|
|
11
|
-
MIRIAN GREINER DE OLIVEIRA PINHEIRO
-
Uso de Big Data no planejamento do transporte público: uma aplicação de técnicas de mineração de dados na inferência do motivo da viagem do passageiro
-
Orientador : GRAY FARIAS MOITA
-
MEMBROS DA BANCA :
-
ELISANGELA MARTINS DE SA
-
GRAY FARIAS MOITA
-
GUILHERME DE CASTRO LEIVA
-
MATHEUS HENRIQUE DE SOUSA OLIVEIRA
-
RENATO GUIMARAES RIBEIRO
-
Data: 23/10/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
A matriz origem e destino (OD) é uma ferramenta crucial no planejamento dos sistemas de transporte, pois fornece informações sobre os fluxos de viagens entre diferentes áreas da cidade e permite entender as demandas de mobilidade das pessoas e seus padrões de deslocamento. As pesquisas domiciliares, método tradicional de coleta de dados utilizados na obtenção de matrizes OD, são caras, trabalhosas e pouco frequentes, sendo realizadas a cada década em muitos casos. Para superar tais desafios, dados de cartões inteligentes passaram a ser utilizados no processo de obtenção das matrizes OD pois são coletados de forma contínua e em larga escala, sendo portanto uma fonte de dados mais abrangente e atualizada. Apesar das vantagens, os dados de cartões inteligentes também têm suas limitações, sendo a principal delas a falta de informação sobre atributos importantes da viagem, como por exemplo o motivo do deslocamento. Para suprir essa carência, técnicas de aprendizado de máquina podem ser utilizadas para inferir atributos não disponíveis nesta base de dados, sendo este o principal objetivo deste estudo. Neste trabalho, será apresentada uma aplicação da mineração de dados na previsão do motivo de viagem dos passageiros do transporte público da Região Metropolitana de Belo Horizonte, Minas Gerais, Brasil (RMBH). Para isto, diferentes algoritmos, técnicas de balanceamento de classes, hiperparâmetros e métodos de inferência foram testados e avaliados. Ao final, o método de inferência dividido em dois modelos sequenciais, um para classificar viagens primárias e outro para classificar viagens secundárias, ambos treinados com o algoritmo Random Forest e a técnica de balanceamento de classes Random Oversampling foi selecionado como o mais adequado. Ressalta-se, que o modelo treinado para classificar os motivos primários da viagem apresentou bons resultados e pode ser utilizado para prever com precisão os propósitos de viagem em dados de cartões inteligentes. Em relação aos motivos secundários, concluiu-se que o modelo precisa ser aprimorado, sobretudo em relação aos dados utilizados para seu treinamento.
-
Mostrar Abstract
-
**
|
|
12
|
-
DANIEL LETO NEIVA COSTA
-
Uma abordagem diferencial para determinação das taxas de infecção e reinfecção das variantes do vírus SARS-COV-2
-
Orientador : ELIZABETH FIALHO WANNER
-
MEMBROS DA BANCA :
-
ELIZABETH FIALHO WANNER
-
FLAVIO VINICIUS CRUZEIRO MARTINS
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
JUAN PABLO NEIROTTI
-
ROBERTO CASTRO ALAMINO
-
Data: 18/12/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
O presente estudo pretende utilizar um modelo SEIR (susceptíveis, expostos, infectados e recuperados) para analisar a dinâmica de propagação da COVID-19 no Brasil. Para determinar as taxas de infecção e reinfecção, foram empregados dados reais sobre vacinas e novos casos, além de uma abordagem de minimização da função de erro, aos quais ajustamos a saída do modelo. O modelo SEIR incorpora compartimentos para suscetíveis (S), expostos (E), infectados (I) e recuperados (R). A otimização das taxas de infecção e reinfecção permite um ajuste mais preciso do modelo aos dados reais, melhorando a capacidade de prever tendências futuras e informar estratégias de saúde pública. Também abordamos a incorporação dos vacinados no modelo, bem como os ajustes a serem realizados. Além disso, fazemos uma revisão abrangente das abordagens de modelagem da COVID-19, tanto determinísticas quanto probabilísticas, oferecendo uma visão das diferentes ferramentas disponíveis para entender e prever o espalhamento da COVID-19.
-
Mostrar Abstract
-
**
|
|
13
|
-
GERMANO TEIXEIRA DE MIRANDA
-
VISÃO COMPUTACIONAL APLICADA À SISTEMAS DE AUXÍLIO AO DIAGNÓSTICO: Identificação de pontos anatômicos no traçado cefalométrico.
-
Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
-
MEMBROS DA BANCA :
-
LENIANA SANTOS NEVES
-
ALISSON MARQUES DA SILVA
-
FLAVIO VINICIUS CRUZEIRO MARTINS
-
Data: 21/12/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Sistemas computacionais de auxílio ao diagnóstico são amplamente usados nos mais diversos setores da área da saúde a fim de facilitar o trabalho dos especialistas envolvidos. Esses sistemas computacionais auxiliam os profissionais de saúde diminuindo a chance de erro, melhorando a precisão do exame, além de diminuir tempo e o custo para elaboração do diagnóstico. Mais especificamente na odontologia, o exame de traçado cefalométrico consiste em fazer medidas lineares e angulares no crânio para determinar um tratamento ortodôntico. Para a elaboração desse exame, as medidas são feitas em uma radiografia lateral da cabeça chamada telerradiografia. O diagnóstico de um traçado cefalométrico é obtido através da avaliação quantitativa das medidas feitas na telerradiografia em comparação com o padrão ideal definido pela literatura. Essa característica quantitativa e bem definida do exame o torna um candidato promissor para aplicação de técnicas de visão computacional que possibilitem a obtenção do diagnóstico de forma automática, sem a intervenção manual do especialista. O objetivo do meu trabalho de mestrado é avaliar as técnicas de visão computacional existentes atualmente e aplicá-las na detecção automática dos pontos anatômicos necessários para a elaboração de um exame de traçado cefalométrico. Para a aplicação das técnicas de visão computacional, foi extraída uma base de dados para o treinamento a partir de mais de um milhão de exames de traçados cefalométricos realizados na ferramenta de traçado computadorizado do Cfaz.net, um dos softwares de traçado cefalométrico mais usados na América Latina. Essa base de treinamento foi utilizada para treinar e avaliar as técnicas de visão computacional que melhor conseguem realizar a tarefa de encontrar pontos anatômicos em uma telerradiografia. No decorrer do trabalho, foram exploradas técnicas que conseguissem realizar o exame de traçado cefalométrico de maneira satisfatória, permitindo, ao final, afirmar qual das técnicas é melhor comparativamente. Deste modo, concluiu-se que as técnicas de visão computacional disponíveis atualmente no mercado são capazes de realizar um exame de traçado cefalométrico de maneira satisfatória sem a intervenção do especialista.
-
Mostrar Abstract
-
Computer diagnostic aid systems are used in the various health sectors to facilitate the work of the most used health professionals. These computer systems help healthcare professionals to detect the chance of error, correct the accuracy of the diagnosis, in addition to reducing the time and cost of making the diagnosis. More specifically in the measures traced from cephalometric treatment in linear and not crucial to determine an orthodontic treatment. For the elaboration of this exam, measurements are made in a lateral medicine of the head called teleradiography. The diagnosis of a tracing tracing was obtained through the evaluation of measurements performed on teleradiography in comparison with the defined ideal pattern. This can be a comprehensive and well-defined feature as a candidate for the application of computational assessment techniques, without the possibility of automatic diagnosis, an intervention manual of the specialist. Research is evaluated as an existing computational research technique and currently applied. For the application of computer vision techniques, we intend to extract a basis from one of cephalometric tracing training tests performed in the most computerized tracing data collection tool of Cfaznet, one of the tracing data software in Latin America. . This training base will be used for nutritional calculation as a computer vision technique that can best perform the task of anatomical points in a teleradiography. In order to find the techniques it is best to carry out the tracing exam, most likely the job of searching to find the best techniques comparatively. In this way, computer vision techniques were studied today capable of performing a projected cephalometric determination exam without a theoretical intervention.
|
|
|
Teses |
|
1
|
-
SOLANGE CONCEIÇÃO DE OLIVEIRA
-
MODELAGEM BASEADA EM EQUAÇÕES DIFERENCIAIS NÃO-LINEARES ESTOCÁSTICAS PARA DINÂMICA DE PREÇOS
-
Orientador : LEONARDO DOS SANTOS LIMA
-
MEMBROS DA BANCA :
-
ADRIANO CESAR MACHADO PEREIRA
-
ADÉLCIO CARLOS DE OLIVEIRA
-
FELIPE DIAS PAIVA
-
JOSE LUIZ ACEBAL FERNANDES
-
LEONARDO DOS SANTOS LIMA
-
Data: 23/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Neste trabalho, serão estudados dois modelos. O primeiro é a equação diferencial estocástica de Itô com um potencial de interação polinomial não linear, como um possível modelo para o mercado financeiro. A equação não linear de Langevin também foi proposta como modelo para flutuações e colisões no mercado de ações, onde esta equação é baseada na identificação de diferentes processos que influenciam a demanda e a oferta. Em geral, a difusão de Itôtem sido muito utilizada como modelo bioeconômico com flutuações estocásticas.O segundo modelo é a equação de Langevindo Vetor Girante, que pode ser usado para descrever o comportamento de um sistema de partículas rotativas com vetore girante, em um ambiente ruidoso com ruído branco estocástico, que se relaciona com o incremento de Wiener. Esse modelo pode representar um mercado financeiro sob condições extremas (mínimas e máximas) no processo, onde os preços tendem a ir para diferentes pontos fixos ou atratores. Será investigado o comportamento da distribuição da cauda longa das volatilidades para esses modelos e será aplicado o método da Análise de Flutuaçãodestendenciada DFA (DetrendedFluctuationAnalysis) às séries temporais obtidas.
-
Mostrar Abstract
-
**
|
|
2
|
-
PRISCILA FLÁVIA SOUZA DA SILVA
-
TÉCNICAS DE APRENDIZADO DE MÁQUINA PARA A PREVISÃO DA RESISTÊNCIA À COMPRESSÃO DO CONCRETO E DA ADERÊNCIA AÇO-CONCRETO
-
Orientador : GRAY FARIAS MOITA
-
MEMBROS DA BANCA :
-
ALISSON MARQUES DA SILVA
-
ELIENE PIRES CARVALHO
-
GRAY FARIAS MOITA
-
GUSTAVO CAMPOS MENEZES
-
MOACIR KRIPKA
-
ROQUE LUIZ DA SILVA PITANGUEIRA
-
Data: 24/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
O concreto convencional é um dos materiais mais utilizados na construção civil e no mundo. Sua mistura é composta por cimento, água e diversos agregados. Seu comportamento é altamente não linear devido, principalmente, a suas características heterogêneas. A resistência à compressão é um dos parâmetros mais importantes para a determinação das características estruturais do concreto, sendo utilizada amplamente por calculistas para a realização de projetos estruturais. Já a aderência entre a barra de aço e a pasta de concreto, que são os principais componentes do concreto armado, pode ser vista como um dos principais fatores para que o concreto armado seja considerado uma solução estrutural viável para as mais diversas obras. Esses dois paramentos são usualmente determinados por meio de ensaios laboratoriais dispendiosos, ocasionando grande gasto com recursos, de materiais e tempo para a sua execução. Esse gasto é aumentado, principalmente, se considerado que a resistência à compressão do concreto, para atendimentos de processos normativos, é medida aos 7, 14 e 28 dias. Portanto, a previsão de resistência do concreto e da tensão de aderência continua sendo uma área ativa de pesquisa com um número considerável de estudos realizados. Por outro lado, a inteligência artificial e suas diversas aplicações são exemplos de novas tecnologias emergentes que têm se mostrado bem-sucedidas nas mais diversas aplicações científicas. Geralmente, os sistemas inteligentes superam suas contrapartes tradicionais na resolução de tarefas não lineares. Neste trabalho, é proposta a implementação de algoritmos de aprendizagem de máquina para determinar a resistência do concreto armado à compressão e a força de arrancamento a partir de base de dados experimentais diversos. Cinco modelos são projetados, implementados e testados: árvores de decisão, florestas aleatórias, máquinas vetoriais de suporte, redes neurais artificiais e regressor gradiente boosting. Também são utilizados métodos de pré-processamento de dados e técnicas estatísticas para um melhor estudo das bases de dados utilizadas. O objetivo desse estudo é determinar a resistência à compressão do concreto e a força de arrancamento de barras de aço engastadas em corpos de prova de concreto sem destruir nenhuma amostra. Por fim, os resultados obtidos neste trabalho mostram eficiência na determinação da resistência à compressão e na força de arrancamento e são comparados com outros trabalhos, destrutivos e não destrutivos, que também obtiveram esses parâmetros.
-
Mostrar Abstract
-
**
|
|
3
|
-
DANIEL DE OLIVEIRA CAPANEMA
-
ANÁLISE DE FATORES QUE IMPACTAM NO FUTEBOL BASEADA EM CIÊNCIA DE DADOS
-
Orientador : ADRIANO CESAR MACHADO PEREIRA
-
MEMBROS DA BANCA :
-
ADRIANO CESAR MACHADO PEREIRA
-
ADRIANO LIMA ALVES
-
ELIZABETH FIALHO WANNER
-
FLAVIO LUIS CARDEAL PADUA
-
JOÃO GUSTAVO CLAUDINO
-
PAULO ROBERTO PEREIRA SANTIAGO
-
Data: 27/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Esportes profissionais e de alto desempenho estão cada vez mais utilizando novas tecnologias para obter melhores resultados em treinamentos e competições. Estudos para prevenir lesões e melhorar o desempenho têm sido aplicados e bons resultados já foram alcançados. Para atingir os objetivos, técnicas de inteligência artificial são aplicadas aos dados para encontrar padrões, prever tendências, melhorar resultados, táticas, equipamentos e outros. Este trabalho analisa dados reais de clubes da primeira divisão do futebol brasileiro, aplicando métodos de inteligência artificial para classificar jogadores, encontrar padrões ou características que influenciam nos resultados e definir jogadores que terão melhor desempenho entre os dois tempos de jogo. Jogadores foram classificados e comparações foram feitas em grupos que possuíam ou não jogadores lesionados. Também foram realizadas análises comparativas em grupos de jogadores com melhores e piores médias de eficiência física, mostrando que jogadores com melhores médias tendem a apresentar características de treino mais parecidas com as do jogo, enquanto jogadores com piores médias apresentam números no treinamento inferiores aos dos jogos.Também foram estudadas as principais características que influenciam nos resultados dos jogos, sendo uma delas a diferença de performance entre o primeiro e o segundo tempo, considerando variáveis relacionadas à distância. O classificador XGBoost conseguiu bons resultados ao prever esta diferença de performance, com 0.95 para o Recall e 0.96 para Precision e F1-Score, além de apresentar como e quais variáveis influenciam esta diferença.O trabalho também apresenta revisões sistemáticas de inteligência artificial em esportes em equipes e individuais, trazendo informações relevantes e métricas sobre o assunto.
-
Mostrar Abstract
-
**
|
|
4
|
-
JOSENILDO SILVA DE LIMA
-
MODELO DE DIFUSÃO-REAÇÃO DEPENDENTE DE VARIÁVEIS CLIMÁTICAS PARA O CONTROLE DO MOSQUITO AEDES AEGYPTI
-
Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
-
MEMBROS DA BANCA :
-
ANA PAULA PINTADO WYSE
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
JOSE LUIZ ACEBAL FERNANDES
-
RICARDO HIROSHI CALDEIRA TAKAHASHI
-
RODRIGO TOMAS NOGUEIRA CARDOSO
-
Data: 27/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
O Aedes aegypti é um mosquito de origem africana que transmite diversas doenças gerando crescente preocupação internacional nos últimos anos, com mais de um terço da população do mundo vivendo em regiões suscetíveis à infecção. Muitas das doenças transmitidas pelo mosquito ainda carecem de tratamento ou vacina. Diante disso, modelos matemáticos e computacionais tem sido desenvolvidos para eliminação do Aedes aegypti como, controle mecânico utilizando inseticidas, larvicidas, tratamento Ultra Baixo Volume e controle biológico por meio da Wolbachia. Este trabalho considera um modelo entomológico e um modelo epidemiológico com dois estudos de caso com dados reais. Primeiramente apresenta-se o modelo matemático entomológico de difusão-reação unidimensional que analisa a propagação do vetor nas fases aquática e adulta de fêmeas, com alguns parâmetros dependentes da precipitação e temperatura. Em seguida, formulou-se um problema de otimização mono-objetivo para minimizar as variáveis de controle e as populações na fase aquática e adulta de fêmeas utilizando dados reais da cidade de Lavras/Minas Gerais. No segundo estudo propõem-se um sistema de equações diferenciais parciais que descrevem a dispersão e interação do Aedes aegypti com humanos com parâmetros dependentes da temperatura e precipitação. Formulou-se um problema de otimização mono e multiobjetivo para minimizar as variáveis de controle e população de humanos infectados sintomáticos utilizando dados reais do município de Belo Horizonte/Minas Gerais. Obteve-se a solução numérica da equação diferencial parcial dos dois modelos pelo método da decomposição de operadores e utilizou-se os métodos de diferenças finitas, Runge-Kutta de quarta ordem, Algoritmo Genético Real Polarizado e o Non-Dominated Sorting Genetic Algorithm II para as demais simulações computacionais. Os resultados numéricos mostram que o controle permitem melhor eficiência no combate ao Aedes aegypti para os casos de Lavras e Belo Horizonte e também uma redução significativa no número de humanos infectados e nos custos envolvidos com a hospitalização de pessoas infectadas pelo vírus da dengue em Belo Horizonte.
-
Mostrar Abstract
-
**
|
|
5
|
-
SINAIDE NUNES BEZERRA
-
UM ESTUDO COM ABORDAGEM HEURÍSTICA PARA PROBLEMAS DE ROTEAMENTO DE VEÍCULOS COM JANELAS DE TEMPO E MÚLTIPLOS DEPÓSITOS
-
Orientador : MARCONE JAMILSON FREITAS SOUZA
-
MEMBROS DA BANCA :
-
ELISANGELA MARTINS DE SA
-
ELIZABETH FIALHO WANNER
-
LUIZ SATORU OCHI
-
MARCONE JAMILSON FREITAS SOUZA
-
PUCA HUACHI VAZ PENNA
-
SERGIO RICARDO DE SOUZA
-
Data: 27/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Esta tese trata de Problemas de Roteamento de Veículos com Janelas de Tempo e Múltiplos Depósitos (PRVJTMD). Os problemas abordados envolvem formulações de roteamento fechado e de roteamento aberto, visando a minimização do número de veículos usados e da distância total percorrida. Esses problemas pertencem à classe NP-difícil e, para a solução, esta tese propõe a aplicação de variações da meta-heurística Variable Neighborhood Search (VNS). O algoritmo Smart General Variable Neighborhood Search com Busca Local Adaptativa (SGVNSBLA) é apresentado como o algoritmo-base para a solução dos problemas estudados. Este algoritmo alterna o mecanismo de busca local entre duas estratégias diferentes. Na primeira estratégia, o método Randomized Variable Neighborhood Descent (RVND) realiza a busca local e, ao aplicar essa estratégia, as vizinhanças com os melhores vizinhos recebem uma pontuação maior. Na segunda estratégia, o método de busca local é aplicado apenas em uma única vizinhança, escolhida pelo método da roleta. Assim, a aplicação da primeira estratégia de busca local serve como método de aprendizagem para aplicação da segunda estratégia. Para fins de comparação e validação, foram também implementados os algoritmos Basic General Variable Neighborhood Search (BGVNS), Smart General Variable Neighborhood Search (SGVNS) e SVNS com Randomized Variable Neighborhood Descent (RVND). Estes algoritmos foram avaliados usando instâncias da literatura, propostas para o problema PRVJTMD com minimização da distância total percorrida, envolvendo até 960 clientes, 12 depósitos e 120 veículos, em um total de 67 instâncias teste. Os resultados encontrados permitiram avaliar a contribuição das estruturas de vizinhanças utilizadas nas soluções que buscam a redução na quantidade de veículos. Os resultados mostram que o desempenho do SGVNSBLA superou os demais algoritmos implementados na redução da frota. Houve uma redução da frota de veículos em 91,18% das instâncias avaliadas e o tamanho da frota alcançou uma redução média de até 23,32% em problemas com janelas de tempo e múltiplos depósitos. Ao se avaliar essas instâncias com roteamento aberto, houve redução na quantidade de veículos em 100% das instâncias, com baixa variabilidade.
-
Mostrar Abstract
-
**
|
|
6
|
-
FLÁVIA DA SILVA CORDEIRO
-
DEPENDÊNCIA ENTRE SÉRIES TEMPORAIS DE TEMPERATURA, PRECIPITAÇÃO E INFESTAÇÃO POR AEDES AEGYPTI PARA CONSTRUÇÃO DE MODELO PREDITIVO
-
Orientador : JOSE LUIZ ACEBAL FERNANDES
-
MEMBROS DA BANCA :
-
ALLBENS ATMAN PICARDI FARIA
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
CLÁUDIA MAZZA DIAS
-
FABIO ROCHA DA SILVA
-
JOSE LUIZ ACEBAL FERNANDES
-
LUCY TIEMI TAKAHASHI
-
Data: 28/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Os mosquitos estão entre os animais mais mortais do mundo, por serem capazes de transportar e espalhar doenças para os seres humanos, causando milhões de mortes todos os anos. Um dos mosquitos de importância mundial é o Aedes aegypti, vetor de doenças como dengue, zika e chikungunya. Apenas as fêmeas adultas transmitem os vírus, então sua população é um indicador de risco de infecção. As regiões tropicais e subtropicais concentram a população do vetor devido às características climáticas. Todas as fases de desenvolvimento do vetor (ovos, larvas, pupas e fase alada) guardam alguma relação com variáveis meteorológicas. Este trabalho se propõe a investigar as relações de dependência a fim de indicar possíveis relações causais entre as variáveis meteorológicas e a variação da população de fêmeas adultas de Ae. aegypti, utilizando tratamento de dados e modelagem matemática. Foram realizados estudos de multicolinearidade e dependência entre séries temporais de umidade, temperatura e precipitação e a série do índice de fêmeas adultas a fim de determinar, entre as variáveis meteorológicas, o melhor conjunto de preditores para a população de fêmeas. Foi confirmado por testes que a série de chuvas é tão influente na população de mosquitos quanto a série de temperatura que, por sua vez, é apresentada na literatura como importante preditor de população de Ae. aegypti. Na modelagem matemática, considerou-se um modelo de sistema dinâmico constituído por quatro populações dos estágios de desenvolvimento do vetor, com taxas dependentes da temperatura média e da precipitação acumulada semanalmente. As dependências com a temperatura estão na literatura e foram definidas como polinômios de grau 2 ou 4. A relação entre o ciclo do mosquito e as chuvas é complexa, e tratada de forma superficial na literatura. Foi proposta uma parametrização por lei de potência com poucos parâmetros, mas capaz de fornecer funções constantes, crescentes ou decrescentes. Os parâmetros foram definidos com base em estudos envolvendo temperatura, por comparação de resultados obtidos via simulação computacional com dados de campo de um indicador entomológico baseado no número de fêmeas capturadas por uma armadilha, monitorada por um programa de saúde pública. Os parâmetros foram otimizados via Algoritmo Genético Real Polarizado. Assim, o modelo proposto aqui é capaz de gerar uma série temporal representativa da população de fêmeas Ae. aegypti de uma determinada região, considerando apenas séries temporais de precipitação e temperatura. O modelo é robusto, pode ser treinado em uma cidade e aplicado em outra.
-
Mostrar Abstract
-
**
|
|
7
|
-
LUIZ OTAVIO RODRIGUES ALVES SERENO
-
MODELAGEM DE VOOS DIFUSIVOS ANÔMALOS ATRAVÉS DA FUNÇÃO DE LEVY E PRESCRIÇÃO PARA AJUSTE DE SEUS PRINCIPAIS PARÂMETROS
-
Orientador : JOSE LUIZ ACEBAL FERNANDES
-
MEMBROS DA BANCA :
-
JOSE LUIZ ACEBAL FERNANDES
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
JOSE GERALDO PEIXOTO DE FARIA
-
LUIS ALBERTO D AFONSECA
-
Ana Paula de Paiva Pereira
-
CARLOS ALEXANDRE SILVA
-
Data: 28/02/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
A difusão normal é um processo observado em muitos fenômenos na natureza. Para estes processos há simulações e teoria bem desenvolvidas, a saber, o random walk (RW) e a equação de difusão, ou de Fokker-Planck. Porém, em sistemas com interações de longo alcance entre os indivíduos ou entre indivíduos e ambiente, podem haver desvios deste regime e apresentar comportamento anômalo. A essa classe de processos mais gerais, dá-se o nome de difusão anômala. Sistemas nos quais há interações entre os indivíduos ou entre os indivíduos e o ambiente, por exemplo, desviam da descrição usual da difusão, apresentando um comportamento anômalo. A abordagem teórica desses fenômenos varia de representação analítica por meio de equações diferenciais parciais, equações estocásticas e simulações computacionais que mimetizam o fenômeno. A partir de dados de deslocamento e tempos característicos de um fenômeno em escala microscópica é possível identificar os parâmetros teóricos dos modelos que descrevem macroscopicamente esses dados. Com essa finalidade, é realizado um estudo teórico em que conjuntos de dados são gerados por simulações com parâmetros microdinâmicos controlados e ajustados a uma função associada ao fenômeno. Neste estudo, são gerados voos via caminhada aleatória de tempo contínuo (CTRW) e os modelos anômalos de difusão são equações diferenciais parciais fracionárias com soluções obtidas por Cálculo Fracionário. É apresentado um algoritmo evolucionário capaz de obter parâmetros que descrevem o fenômeno, sendo pré-requisito apenas uma limitação no espaço dos parâmetros. Além disso, no processo de discretização do modelo teórico associado ao fenômeno surgem novos parâmetros cujos comportamentos são investigados, pois o papel dos mesmos pode influenciar no estudo da difusão anômala. Como aplicação imediata da superdifusão está incluído o estudo de proteínas especializadas, chamadas fatores de transcrição, em células que permitem a transcrição do Ácido desoxirribonucleico (DNA).
-
Mostrar Abstract
-
TNormal diffusion is a process observed in many phenomena in nature. For these processes there are well-developed simulations and theory, namely the random walk (RW) and the diffusion equation, or Fokker-Planck. However, in systems with long-range interactions between individuals or between individuals and the environment, there may be deviations from this regime and present anomalous behaviour. This class of more general processes is called anomalous diffusion. Systems in which there are interactions between individuals or between individuals and the environment, for example, deviate from the usual description of diffusion, presenting an anomalous behaviour. The theoretical approach to these phenomena ranges from analytical representation through partial differential equations, stochastic equations and computational simulations that mimic the phenomenon. From displacement data and characteristic times of a phenomenon on a microscopic scale, it is possible to identify the theoretical parameters of the models that macroscopically describe these data. For this purpose, a theoretical study is carried out in which datasets are generated by simulations with controlled microdynamic parameters and adjusted to a function associated with the phenomenon. In this study, flights are generated via continuous time random walk (CTRW) and the anomalous diffusion models are fractional partial differential equations with solutions obtained by Fractional Calculus. An evolutionary algorithm capable of obtaining parameters that describe the phenomenon is presented, with only a limitation in the parameter space being a prerequisite. Furthermore, in the discretization process of the theoretical model associated with the phenomenon, new parameters emerge whose behaviours are investigated, as their role can influence the study of anomalous diffusion. As an immediate application of superdiffusion is included the study of specialized proteins, called transcription factors, in cells that allow the transcription of deoxyribonucleic acid (DNA).
|
|
8
|
-
IZABELA MARQUES DE OLIVEIRA
-
ANÁLISE MULTIPLEX DA REDE BRASILEIRA DE TRANSPORTE AÉREO
-
Orientador : ALLBENS ATMAN PICARDI FARIA
-
MEMBROS DA BANCA :
-
ALLBENS ATMAN PICARDI FARIA
-
ANTONIO PAULO BAETA SCARPELLI
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
BRUNA AMIN GONCALVES
-
LAURA CORINA CARPI
-
TIAGO ALVES SCHIEBER DE JESUS
-
Data: 20/03/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
O transporte aéreo continua sendo a melhor opção para conectar regiões distantes e apoiar o desenvolvimento social e econômico mundial, apesar dos desafios ambientais. O Brasil depende fortemente dessa modalidade de transporte devido às suas dimensões continentais. Neste trabalho realizamos um estudo utilizando a abordagem multiplex de redes complexas para analisar a rede brasileira de transporte aéreo de passageiros, BATMN. Nesse contexto, criamos o Índice de Eficiência Multiplex (MEI) e suas versões para redes direcionadas e/ou ponderadas, que permitem quantificar o nível de heterogeneidade de conexões de uma rede multiplex em uma escala de 0 a 1, considerando características de direção e grau de importância das arestas, sendo apropriados para pesquisas em redes de transporte. Utilizamos o MEI para avaliar a diversificação de rotas das empresas de transporte aéreo no Brasil entre 2010 e 2021, um período marcado pela ocorrência de grandes eventos no país. Analisamos a influência de alguns desses eventos sobre a eficiência da rede, como a Copa do Mundo FIFA em 2014 e as Olimpíadas do Rio em 2016, assim como de outras mudanças no setor, incluindo a fusão entre companhias aéreas, a privatização de aeroportos, o encerramento de operações de uma importante transportadora aérea e da pandemia de COVID-19. Além disso, investigamos se a diversificação de rotas afetou os preços das passagens aéreas praticados no Brasil. Adicionalmente, por meio de uma metodologia recém-introduzida na literatura, examinamos a capacidade de difusão da rede e observamos o ganho relativo ocorrido em relação à difusão do sistema de transporte aéreo quando são consideradas as conexões de voos entre diferentes companhias aéreas, delineando um cenário de possíveis parcerias entre as empresas aéreas. As avaliações realizadas neste trabalho fornecem novas e significativas informações sobre a rede de transporte aéreo de passageiros no Brasil, contribuindo para otimizar a oferta desse tipo de transporte no país e, consequentemente, reduzir os custos envolvidos. Além disso, a metodologia proposta permite não somente uma análise diferenciada das redes de transporte aéreo, mas também a quantificação da eficiência de redes multiplex em geral.
-
Mostrar Abstract
-
Air transportation remains the best option to connect distant regions and support world social and economic development, despite environmental challenges. Brazil depends strongly in this mode of transportation due to its continental dimensions. In this work, we conducted a study using the multiplex approach of complex networks to analyze the air transport network of Brazilian passengers, BATMN. In this context, we create the multiplex efficiency index (MEI) and its versions for targeted and/or weighted networks, which allow to quantify the level of connection heterogeneity of a multiplex network on a scale of 0 to 1, considering the characteristics of direction and importance level of edges, being appropriate for research in transportation networks. We used the MEI to evaluate the diversification of routes of airlines in Brazil between 2010 and 2021, a period of occurrence of major events in the country. We analyzed the influence of some of these events on network efficiency, such as the FIFA World Cup in 2014 and the Rio Olympic Games in 2016, as well as other sector changes, including the merger between airlines, airport privatization, the closure of operations of an important air carrier and COVID-19 pandemic. In addition, we investigated whether the diversification of routes affected the prices of air tickets in Brazil. Additionally, through a recently introduced methodology in the literature, we examined the network’s diffusion capacity and observed the relative gain that occurred in the diffusion of the air transportation system when the flight connections between different airlines are considered, outlining a scenario possible partnerships between airlines. The evaluations carried out in this work provide new and significant information about the passenger air transportation network in Brazil, contributing to optimize the offer of this type of transportation in the country and, consequently, reduce the costs involved. In addition, the proposed methodology allows not only a differentiated analysis of air transportation networks, but also the quantification of the efficiency of multiplex networks in general.
|
|
9
|
-
DANIEL MORAIS DOS REIS
-
ESTRATÉGIAS DE SOLUÇÃO BASEADAS EM PARALELISMO CUDA PARA O PROBLEMA DE INSTALAÇÃO DE FIBRAS EM REDES ÓTICAS
-
Orientador : SERGIO RICARDO DE SOUZA
-
MEMBROS DA BANCA :
-
IGOR MACHADO COELHO
-
ANOLAN YAMILE MILANES BARRIENTOS
-
GUSTAVO ALVES FERNANDES
-
GUSTAVO CAMPOS MENEZES
-
MARCONE JAMILSON FREITAS SOUZA
-
SERGIO RICARDO DE SOUZA
-
Data: 18/08/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Este trabalho otimiza métodos sequenciais e propõe métodos heurísticos paralelizados em GPUs Nvidia CUDA para a solucionar o Problema de Instalação de Fibras em Redes Óticas - PIFRO. O PIFRO consiste em alocar, em uma rede ótica que utiliza tecnologia Wavelength Division Multiplexing (WDM), um conjunto de requisições previamente conhecidas com múltiplas origens e destinos. O objetivo é minimizar o custo total dos dispositivos necessários para a operação da rede. Após provar que a versão de decisão do PIFRO é NP-Difícil, é realizada uma formulação matemática e implementadas duas metaheurísticas paralelizadas em formatos inéditos, buscando a melhoria dos resultados da literatura. Uma das heurísticas é baseada em Biased Random Key Genetic Algorithm (BRKGA) e a outra é baseada em Iterated Local Search (ILS) as quais foram selecionadas pelos bons resultados existentes para o problema. Os conceitos básicos de processamento paralelo são analisados e selecionados para execução de novas metaheurísticas em ambientes heterogêneos com GPUs.
-
Mostrar Abstract
-
This work optimizes sequential methods and proposes parallelized heuristic methods on Nvidia CUDA GPUs to solve the Fiber Installation Problem in Optical Networks PIFRO. PIFRO consists of allocating, in an optical network that uses Wavelength Division Multiplexing (WDM) technology, a set of previously known requests with multiple origins and destinations. The objective is to minimize the total cost of the devices required to operate the network. After proving that the decision version of PIFRO is NP-Hard, a mathematical formulation is carried out and two parallelized metaheuristics are implemented in new formats, seeking to improve the results in the literature. One of the heuristics is based on Biased Random Key Genetic Algorithm (BRKGA) and the other is based on Iterated Local Search (ILS) which were selected due to the good results available for the problem. The basic concepts of parallel processing are analyzed and selected for executing new metaheuristics in heterogeneous environments with GPUs.
|
|
10
|
-
OTAVIANO MARTINS MONTEIRO
-
Desenvolvimento de Matrizes de Distâncias Para Representar Interações de Proteínas Combinadas com Algoritmos de Agrupamento
-
Orientador : THIAGO DE SOUZA RODRIGUES
-
MEMBROS DA BANCA :
-
THIAGO DE SOUZA RODRIGUES
-
ALISSON MARQUES DA SILVA
-
GUSTAVO CAMPOS MENEZES
-
ANDRE RODRIGUES DA CRUZ
-
ROGERIO MARTINS GOMES
-
SANDRO RENATO DIAS
-
Data: 24/08/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
As proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. Entretanto, para realizar sobreposições atômicas é necessário que os átomos de uma estrutura sejam alinhados em relação aos átomos da outra, através de movimentos de rotação e translação. Esse procedimento é caro computacionalmente, pertencendo à classe NP-Completo e assim, realizar várias sobreposições atômicas, procedimento comum em softwares que propõem mutações em proteínas, demanda de um alto custo computacional. Deste modo, este trabalho tem o objetivo de desenvolver técnicas baseadas em matrizes de distâncias, combinadas com clustering para formar grupos de interações de proteínas que tenham conformações tridimensionais similares, visando encontrar soluções com acurácias precisas e com boas performances, para reduzir a necessidade de realizar sobreposições atômicas. Para atender a essa finalidade, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida através dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da combinação de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A MPM teve o seu funcionamento inspirado também na importância das distâncias entre todos os átomos da estrutura para o enovelamento da mesma. Essas estratégias foram combinadas com algoritmos de clustering e os resultados foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, com a atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.
-
Mostrar Abstract
-
**
|
|
11
|
-
GILSON VIEIRA SOARES
-
Aspectos do controle das oscilações de Josephson no modelo de Bose-Hubbard de dois modos
-
Orientador : JOSE GERALDO PEIXOTO DE FARIA
-
MEMBROS DA BANCA :
-
ADÉLCIO CARLOS DE OLIVEIRA
-
ALLBENS ATMAN PICARDI FARIA
-
GIANCARLO QUEIROZ PELLEGRINO
-
JOSE GERALDO PEIXOTO DE FARIA
-
LUIS ARGEL POVEDA CALVINO
-
MAURICIO REIS E SILVA JUNIOR
-
THIAGO GOMES DE MATTOS
-
Data: 29/08/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Neste estudo, exploramos o modelo de Bose-Hubbard de dois modos, com interações átomo-átomo ajustadas de forma harmônica ao longo do tempo. Derivamos a hamiltoniana clássica mediante uma expansão do hamiltoniano quântico em termos de 1/N. Observamos comportamento caótico na dinâmica clássica e mapeamos o espaço de parâmetros e fase, utilizando o expoente de Lyapunov dominante e medidas quânticas como o eco de Loschmidt, pureza generalizada e entropia linear. Na contrapartida quântica do caos, foram observadas oscilações irregulares de Josephson. No regime regular, identificamos colapsos, reavivamentos, quase-periodicidade e controle coerente das oscilações de Josephson.
-
Mostrar Abstract
-
In this study, we investigate the two-mode Bose-Hubbard model with atom-atom interactions harmonically tuned over time. The classical Hamiltonian is derived through an expansion of the quantum Hamiltonian in terms of 1/N. Chaotic behavior is observed in classical dynamics, and we map the parameter and phase space using the dominant Lyapunov exponent and quantum measures such as Loschmidt echo, generalized purity, and linear entropy. In the quantum counterpart of chaos, irregular Josephson oscillations are noted. In the regular regime, we identify collapses, revivals, quasi-periodicity, and coherent control of Josephson oscillations.
|
|
12
|
-
Túlio Philipe Ferreira e Vieira
-
PROPOSTA DE UMA ARQUITETURA COMPUTACIONAL INTELIGENTE PARA A GESTÃO DOS INDICADORES UTILIZADOS NO PLANEJAMENTO E NO MONITORAMENTO DO SISTEMA DE TRANSPORTE URBANO
-
Orientador : GRAY FARIAS MOITA
-
MEMBROS DA BANCA :
-
MARCOS PAULINO RORIZ JUNIOR
-
ALISSON MARQUES DA SILVA
-
ELISANGELA MARTINS DE SA
-
GRAY FARIAS MOITA
-
GUILHERME DE CASTRO LEIVA
-
MAGALI REZENDE GOUVEA MEIRELES
-
RENATO GUIMARAES RIBEIRO
-
Data: 29/08/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Segundo dados da Organização das Nações Unidas (ONU), atualmente, existem mais de3,8 bilhões de pessoas vivendo nas cidades e, em 2050, quase 70% da população mundial viverá em regiões urbanas. As cidades sempre foram vistas como locais de desenvolvimento econômico, político, cultural e social, mas a urbanização desordenada, principalmente em países em desenvolvimento, gera a deterioração da qualidade de vários sistemas e serviços oferecidos aos cidadãos. Dentre os sistemas que compõem a infraestrutura urbana, o sistema de transporte pode ser visto como um indicador da qualidade de vida dos habitantes. Isso ocorre, pois, pela análise do sistema de transporte, por meio do qual as pessoas conseguem acesso a serviços de saúde, educação cultura e lazer, é possível identificar diferenças sociais, econômicas e culturais. Desse modo, para assegurar a construção de cidades sustentáveis e que ofereçam qualidade de vida aos habitantes, é fundamental o planejamento e a gestão eficiente da mobilidade urbana. A fim de contribuir para a construção de um sistema eficiente de transporte, este trabalho apresenta o desenvolvimento de um framework composto por hardware e software, de baixo custo, que possa ser utilizado para geração e monitoramento de indicadores do sistema de transporte. O framework proposto utiliza dados de diferentes fontes como proberequest, censo e bilhetagem eletrônica e emprega algoritmos de machinelearning como Filtro de Kalman e Redes Neurais Artificiais para gerar a matriz de origem-destino e a outros indicadores do sistema de transporte. Os resultados indicam que a estratégia utilizada consegue reduzir os erros de previsão de indicadores, como a taxa de carregamento, para menos de 5%.
-
Mostrar Abstract
-
According to data from the United Nations (UN), there are currently more than 3.8 billion people living in cities and in 2050, almost 70% of the world’s population will live in urbana reas. Cities are considered places of economic, political, cultural and social development, but disorderly urbanization, especially in developing countries, has deteriorated the quality of various systems and services offered to citizens. Among the systems that make up the urban infrastructure, the transportation system can be seen as an indicator of the residents’ quality of life. This is because, through the analysis of the transport system, from wich people gain access to medical, educational, cultural and leisure services, it is possible to identify social, economical and cultural differences. Thus, in order to ensure the construction of sustainable cities that offer a good quality of life to their inhabitants, the planning and efficient management of urban mobility is essential. In order to contribute to the construction of an efficient transport system, this work presents the development of a framework composed of low cost hardware and software, which can be used to generate and monitor real time indicators for the transport system. The proposedframeworkuses data from different sources such asprobe request, census and smart card and employs machine learning algorithms such as Kalman Filter and Artificial Neural Networks to generate the origin-destination matrix and other indicators of the transportation system. Preliminary results indicate that the strategy used manages to reduce errors in forecasting indicators to less than 5%.
|
|
13
|
-
RENAN JOSÉ DOS SANTOS VIANA
-
Otimização Multiobjetivo e seus Desafios no Contexto de Otimização Combinatória: Estudos de Comportamento e Abordagens de Solução para Problemas com Muitos Objetivos
-
Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
-
MEMBROS DA BANCA :
-
CLAUDIO LUCIO DO VAL LOPES
-
ELIZABETH FIALHO WANNER
-
FLAVIO VINICIUS CRUZEIRO MARTINS
-
MARCONE JAMILSON FREITAS SOUZA
-
RICARDO HIROSHI CALDEIRA TAKAHASHI
-
SERGIO RICARDO DE SOUZA
-
Data: 30/08/2023
-
Mostrar Resumo
-
Diversos problemas encontrados na ciência, engenharia, indústria, entre outros domínios do conhecimento, envolvem a otimização simultânea de dois ou mais objetivos frequentemente conflitantes. Problemas com tal característica são conhecidos na literatura como Problemas de Otimização Multiobjetivo. Devido à existência de um certo nível de conflito entre os objetivos otimizados, para esta classe de problemas, não existe uma única solução ótima (global) como em problemas mono-objetivo, em vez disso, produzem um conjunto de soluções que representam os possíveis trade-offs entre os objetivos. Geralmente, na otimização multiobjetivo, a relação de dominância Pareto é adotada para comparar soluções. Desta forma, o conjunto de soluções ótimas para o problema é chamado de conjunto Pareto-ótimo e a imagem deste conjunto no espaço de objetivo é intitulada fronteira Pareto-ótimo.
Ao longo dos últimos anos, pesquisas tanto experimentais quanto teóricas têm indicado que, usualmente, o aumento no número de objetivos otimizados promove novos e complexos desafios. Como por exemplo, o crescimento da proporção de soluções não-dominadas, o aumento exponencial do número de soluções necessárias para obtenção de uma completa aproximação da fronteira Pareto-ótimo, ineficácia das técnicas tradicionais de visualização das soluções, dificuldade em garantir a manutenção da diversidade populacional, entre outros. No entanto, é de conhecimento que um problema multiobjetivo não se torna necessariamente mais difícil quando novos objetivos são acrescentados. Outras propriedades do problema também podem contribuir no aumento de sua complexidade, como por exemplo, as características dos problemas de teste utilizados. Além disso, problemas combinatórios não têm recebido tanta atenção quanto problemas contínuos, portanto, ainda é uma área de pesquisa com questões a serem exploradas.
Nesse contexto, na primeira parte desta tese, buscamos uma compreensão mais aprofundada dos desafios associados aos problemas combinatórios com muitos objetivos. Para alcançar esse objetivo, realizamos duas análises utilizando uma formulação com muitos objetivos do popular problema logístico "Dial-a-Ride Problem" (DARP). Inicialmente, conduzimos um estudo do "fitness landscape" com o propósito de expandir nossa compreensão sobre a geometria da fronteira Pareto obtida para o problema e possibilitar a identificação de relacionamento entre os objetivos. Em seguida, realizamos uma análise de desempenho, a qual envolveu alguns dos principais algoritmos evolutivos multiobjetivo oriundos de diferentes classes. Os resultados dessas análises revelaram que, mesmo considerando a mesma formulação do problema, diferentes observações podem ser feitas tanto sobre as características do problema quanto sobre o comportamento dos algoritmos, quando diferentes conjuntos de problemas de teste são empregados.
Em um segundo momento, desviando do foco principal das pesquisas atuais, que se concentram no desenvolvimento de novos MOEAs e na criação de estratégias de seleção inovadoras, apresentamos uma abordagem que cria e otimiza várias formulações alternativas do problema de otimização multiobjetivo abordado, nas quais são induzidas correlações lineares artificiais entre as funções objetivo. A abordagem proposta adota o paradigma de dividir e conquistar, alocando um processo evolutivo (execução do MOEA) para a formulação original e para cada formulação com objetivos correlacionados construída. Ao final de cada execução, o conjunto de aproximação obtido é convertido de volta para a formulação original e todas soluções não-dominadas são retornadas como saída do algoritmo. Ao conduzir buscas independentes utilizando diferentes formulações do MOP/MaOP abordado, espera-se direcionar a busca para diferentes direções do espaço de objetivos, alcançando assim regiões que seriam difíceis de se explorar apenas otimizando a formulação original do problema usando algum dos MOEAs do estado da arte. Quando integrada a MOEAs de diferentes classes, a abordagem proposta demonstrou eficácia no aprimoramento do desempenho desses algoritmos ao ser aplicada a um conhecido problema de otimização combinatória. Dado o aprimoramento da performance de diversos MOEAs por meio da abordagem proposta, introduzimos dois novos MOEAs baseados na otimização de formulações com objetivos correlacionados. Os resultados apresentados demonstraram a superioridade dos MOEAs propostos em comparação com renomados MOEAs da literatura, quando aplicados ao problema da mochila multiobjetivo contendo de 4 a 10 objetivos.
-
Mostrar Abstract
-
Several problems encountered in science, engineering, industry, among other fields of knowledge, involve the simultaneous optimization of two or more often conflicting objectives. Problems with such characteristics are known in the literature as Multiobjective Optimization Problems. Due to the existence of a certain level of conflict between the optimized objectives, for this class of problems, there is no single optimal solution (global) as in mono-objective problems; instead, they produce a set of solutions that represent the possible trade-offs between objectives. Generally, in multiobjective optimization, the Pareto dominance relation is adopted to compare solutions. Thus, the optimal solutions to the problem are called Pareto-optimal solutions, and the image of this set in the objective space is called the Pareto-Optimal front.
Over the past few years, both experimental and theoretical research has indicated that the increase in the number of optimized objectives promotes new and complex challenges. For example, the increase in the proportion of non-dominated solutions, the exponential growth in the number of solutions necessary to achieve a complete approximation of the Pareto-optimal front, the ineffectiveness of traditional solutions visualization techniques, difficulty in ensuring the maintenance of diversity population, among others. However, it is known that a multiobjective problem does not necessarily become more complicated when new objectives are added. Other properties of the problem can also increase its complexity, such as the characteristics of the test problems used. Also, combinatorial problems have not received as much attention as continuous problems, so it is still an area of research with questions to be explored.
In this context, in the first part of this thesis, we aimed for a deeper understanding of the challenges associated with combinatorial problems with many objectives. To achieve this goal, we conducted two analyses using a many-objective formulation of the popular logistics problem "Dial-a-Ride Problem" (DARP). Initially, we conducted a fitness landscape study to expand our understanding of the geometry of the obtained Pareto front for the problem and identify relationships between the objectives. Subsequently, we performed a performance analysis, involving some of the prominent multi-objective evolutionary algorithms from different classes. The results of these analyses revealed that, even considering the same problem formulation, different observations could be made both on the characteristics of the problem and the algorithms’ behavior when using different test sets.
In a second phase, diverging from the main focus of current research, which centers on developing new MOEAs and creating innovative selection strategies, we present an approach that generates and optimizes various alternative formulations of the addressed multi-objective optimization problem. In these formulations, artificial linear correlations between the objective functions are induced. The proposed approach adopts the divide-and-conquer paradigm, via allocating an evolutionary process (execution of the MOEA) for the original formulation and each constructed formulation with correlated objectives. At the end of each execution, the obtained approximation set is converted back to the original formulation, and all non-dominated solutions are returned as the algorithm’s output. By conducting independent searches using different formulations of the addressed MOP/MaOP, the aim is to guide the search in different directions of the objective space, thus reaching regions that would be challenging to explore solely by optimizing the original problem formulation using state-of-the-art MOEAs. When integrated with MOEAs from different classes, the proposed approach demonstrated effectiveness in enhancing the performance of these algorithms when applied to a well-known combinatorial optimization problem. Given the performance improvement of various MOEAs through the proposed approach, we introduced two new MOEAs based on the optimization of formulations with correlated objectives. The presented results showcased the superiority of the proposed MOEAs compared to renowned MOEAs in the literature, when applied to the multi-objective knapsack problem containing 4 to 10 objectives.
|
|
14
|
-
CRISTIANO FRAGA GUIMARÃES NUNES
-
DESCRIÇÃO DE CARACTERÍSTICAS LOCAIS PARA CORRESPONDÊNCIA ENTRE IMAGENS DO ESPECTRO VISÍVEL E INFRAVERMELHO
-
Orientador : FLAVIO LUIS CARDEAL PADUA
-
MEMBROS DA BANCA :
-
ADRIANO CESAR MACHADO PEREIRA
-
Celso Luiz de Souza
-
DARLAN NUNES DE BRITO
-
ELIZABETH FIALHO WANNER
-
FLAVIO LUIS CARDEAL PADUA
-
Data: 31/08/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Este trabalho propõe o desenvolvimento de dois métodos descritores de características locais, intitulados como MF-Net (Multispectral Features Network) e SORIF (Scale-Orientation Robust Infrared Features), projetados para a descrição de características no problema de correspondência entre imagens provenientes do espectro visível (VIS) e do espectro infravermelho (IV). As imagens obtidas do espectro infravermelho assumem um papel fundamental na área de Visão Computacional, uma vez que facilitam a extração de informações da cena que não seriam prontamente obtidas por meio de imagens individuais, oferecendo assim informações adicionais ao espectro visível. Neste cenário, um dos desafios mais relevantes relacionados à descrição de características locais reside na variação não-linear dos valores de intensidade dos pixels entre as imagens capturadas das diferentes faixas do espectro eletromagnético. O primeiro método, MF-Net, emprega uma abordagem baseada em aprendizagem profunda, inspirada no recente sucesso de abordagens baseadas em aprendizado de máquina em várias aplicações. Este método incorpora uma nova camada de aprendizagem profunda para lidar com variações não-lineares nos valores de intensidade das imagens. Comparativamente a outros métodos baseados em aprendizagem profunda, o método descritor MF-Net demonstrou superior eficácia em termos de precisão e maior eficiência em tempo de processamento para treinamento da rede. O segundo método descritor deste trabalho, SORIF, foi desenvolvido para suprir uma lacuna na literatura sobre a descrição de características locais, onde os métodos descritores baseados em modelagem manual apresentavam limitações ao lidar com variações geométricas em imagens VIS/IV. Uma estratégia adotada por este método consistiu na introdução de uma etapa para calcular a orientação de parte da imagem a ser descrita. Como resultado, o método superou os demais algoritmos do estado da arte. Adicionalmente, provou ser eficaz em relação às variações geométricas das imagens, tais como variações de rotação entre as imagens, o que é extremamente útil em aplicações práticas. Ambos os métodos foram avaliados em um processo de correspondência de características locais em imagens, através das métricas de precisão e revocação. Os experimentos foram conduzidos por meio da utilização de bases de dados amplamente reconhecidas na literatura e disponíveis publicamente, que incluem pares de imagens obtidas do espectro visível e do espectro infravermelho. Em suma, os progressos possibilitados pelos métodos descritores apresentados neste trabalho representam avanços significativos na descrição de características locais em imagens VIS/IV para aplicação no problema de correspondência entre imagens
-
Mostrar Abstract
-
**
|
|
15
|
-
LUCIENE LOPES BORGES MIRANDA
-
Uma aproximação de Itô-Langevin para flutuações dos preços do mercado financeiro
-
Orientador : LEONARDO DOS SANTOS LIMA
-
MEMBROS DA BANCA :
-
GIANCARLO QUEIROZ PELLEGRINO
-
LEONARDO FERREIRA CALAZANS
-
LUIS ARGEL POVEDA CALVINO
-
THIAGO DE SOUZA RODRIGUES
-
THIAGO GOMES DE MATTOS
-
Data: 30/11/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
A complexidade do comportamento e dos estudos sobre o mercado financeiro e dos cálculos de Itô-Langevin, tornam-se um atrativo campo de estudo para pesquisadores de diversas áreas, tais como: Economia, Análise de Sistemas, Matemática e Física. Podemos ressaltar a sua importância, para tais estudos em áreas interdisciplinares, como: a Econofísica, que relacionam elementos da Economia e da Física no estudo dos mercados e dos sistemas financeiros. A mecânica estatística é uma das principais ferramentas para a modelagem desses sistemas financeiros, mais precisamente da dinâmica de preços. Para o entendimento de tais fatos foram usadas, as equações diferenciais estocásticas de Itô, com ruído branco aditivo como um modelo matemático para a dinâmica de preços do mercado financeiro. Métodos matemáticos da Física Estatística na descrição de sistemas econômicos têm sido aplicados às séries temporais para investigar o comportamento dos mercados financeiros em diferentes escalas. Entre as ferramentas utilizadas para tal, estão as medidas de dispersão central, distribuição de probabilidade, dinâmica estocástica e métodos para estimar as correlações. Instrumentos financeiros como, ativos, opções e índices de bolsas de valores flutuam ao longo do tempo, por isso, podem ser modelados via processos estocásticos. Dessa forma, esta tese pretende verificar se uma equação diferencial estocástica (formalizada por um ruído branco) atende a um dado fato estilizado do mercado. Mais especificamente, se a lei cúbica inversa da distribuição de probabilidade acumulada dos retornos absolutos gerados pela equação proposta segue uma empírica lei de potência. Além disso, estimamos o expoente de Hurst através da Análise R/S e do DFA para verificar a dependência de longo alcance, ou memória longa da série temporal obtida. Como o termo de ruído que compõe a equação é não diferenciável, introduzimos o cálculo estocástico para obter analiticamente a solução desta.
-
Mostrar Abstract
-
The complexity of behavior and studies on the financial market and the Itô-Langevin Calculations, become an attractive field of studies for researchers in several areas, such as: Economics, Systems Analysis, Mathematics and Physics. We can emphasize its importance for such studies in interdisciplinary areas, such as: Econophysics, which relate elements of Economics and Physics in the study of markets and financial systems. Statistical mechanics is one of the main tools for modeling these financial systems, more precisely the price dynamics. To understand such facts, the Itô stochastic differential equations were used, with additive white noise as a mathematical model for the price dynamics of the financial market. Mathematical methods of Statistical Physics have been applied in the description of economic systems to time series to investigate the behavior of financial markets at different scales. Among the tools used for this, are measures of central dispersion, probability distribution, stochastic dynamics, and methods to estimate the correlations. Financial instruments such as assets, options and stock exchange indices fluctuate over time, so they can be modeled by stochastic processes. In this way this thesis intends to verify if a stochastic differential equation (interfered by white and non-white noise) attend a stylized fact of the market. More specifically, if the heavy tail of the distribution of absolute returns generated by the proposed equation follows an empirical power law. Furthermore, we estimate the Hurst exponent through R/S Analysis and DFA to verify the long-range dependence, or long memory of the obtained time series. As the noise term that composes the equation is non-differentiable, we introduce the stochastic calculus to analytically obtain its solution.
|
|
16
|
-
BRUNO ZANOTELLI FELIPPE
-
UMA NOVA ABORDAGEM PARA A REGULARIZAÇÃO IMPLÍCITA RESTRITA NO CÁLCULO DE INTEGRAIS DE FEYNMAN DIVERGENTES
-
Orientador : ANTONIO PAULO BAETA SCARPELLI
-
MEMBROS DA BANCA :
-
MARCOS DONIZETE RODRIGUES SAMPAIO
-
ALEXANDRE RODRIGUES VIEIRA
-
ANTONIO PAULO BAETA SCARPELLI
-
ARTHUR RODRIGO BOSCO DE MAGALHAES
-
JOSE LUIZ ACEBAL FERNANDES
-
LUIS ALBERTO D AFONSECA
-
Data: 04/12/2023
-
Visualizar Dissertação/Tese
-
Mostrar Resumo
-
Os cálculos perturbativos em Teoria Quântica de Campos podem ser representados, de forma gráfica, em termos dos diagramas de Feynman. Os cálculos das amplitudes representadas pelos diagramas de Feynman além do nível árvore envolvem, muitas vezes, integrais divergentes . Essas integrais necessitam um tratamento conhecido como regularização, a fim de que o conteúdo físico da amplitude seja dela extraído. Uma das mais poderosas técnicas, a Regularização Dimensional, envolve extensões dimensionais do espaço-tempo. Contudo, há modelos que envolvem objetos matemáticos cuja extensão dimensional é ambígua ou mal definida. Uma técnica, chamada Regularização Implícita, mostrou-se apropriada para o tratamento de modelos cuja extensão dimensional não é bem definida. O método permite que os cálculos sejam realizados na própria dimensão da teoria e prescreve regras simples para a preservação das simetrias dos modelos. No entanto, para uma única integral de Feynman, a expansão para separar as divergências pode gerar um grande conjunto de integrais finitas, no caso de altos graus de divergência. Além disso, as expansões geram altas potências de momentos no numerador e denominador, o que resulta em cálculos longos e trabalhosos. Desenvolvemos, nesse trabalho, um novo procedimento para aplicação da Regularização Implícita Restrita que simplifica o cálculo de amplitudes, incluindo as partes finitas.
-
Mostrar Abstract
-
The perturbative calculations in Quantum Field Theory can be represented, graphically, in terms of Feynman diagrams. The calculations of amplitudes represented by Feynman diagrams involve integrals, often divergent beyond tree level. These integrals require a treatment known as regularization, in order to extract the physical content of the amplitude. One of the most powerful techniques, Dimensional Regularization, involve dimensional extensions of space-time. However, there are models that involve mathematical objects whose the dimensional extension is ambiguous or ill-defined. A technique, called Implicit Regularization, proved to be appropriate for the treatment of models whose dimensional extension is not well defined. The method allows the calculations to be performed in the own theory dimension and prescribes simple rules for the preservation of the symmetries of the models. However, for a single Feynman integral, the expansion to separate divergences can generate a large set of finite integrals in the case of high degrees of divergence. In addition, expansions generate high powers of momenta in the numerator and denominator, which results in long and labor-intensive calculations. In this thesis, we developed a new procedure for the application of Constrained Implicit Regularization that simplifies the calculation of amplitudes, including finite parts.
|
|