Dissertações/Teses

2024
Teses
1
  • THIAGO ALONSO MERICI
  • DEGENERESCÊNCIA E CAPTURA DE FÓTONS EM UM MODELO OPTOMECÂNICO DE DOIS MODOS

  • Orientador : JOSE GERALDO PEIXOTO DE FARIA
  • MEMBROS DA BANCA :
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • CARLOS MAGNO MARTINS COSME
  • JOSE GERALDO PEIXOTO DE FARIA
  • JOSE LUIZ ACEBAL FERNANDES
  • LUIS ARGEL POVEDA CALVINO
  • THIAGO GOMES DE MATTOS
  • Data: 23/02/2024
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho, estudamos teoricamente um modelo optomecânico de dois modos finito e não amortecido que consiste em uma cavidade óptica de alta qualidade contendo uma membrana fina, elástica e dielétrica. O objetivo principal é investigar os precursores da transição de fase quântica em tal modelo, estudando o comportamento de alguns observáveis no estado fundamental. Ao controlar o acoplamento entre a membrana e os modos, descobrimos que os dois autoestados de menor energia tornam-se degenerados, como é indicado pelo comportamento do valor médio de alguns operadores e por outros quantificadores em função do acoplamento. Tais estados degenerados são caracterizados por uma superposição coerente de autoestados que descrevem um dos dois modos prefe rencialmente preenchido e a membrana deslocada de sua posição de equilíbrio, devido à pressão de radiação (estados de gato de Schrödinger). A deslocalização do sistema composto fótons+membrana resulta em um aumento nas flutuações medidas pelas relações de incerteza de Robertson-Schrödinger.


  • Mostrar Abstract
  • In this work, we theoretically study a finite and undamped two-mode optomechanical model consisting of a high quality optical cavity containing a thin, elastic, and dielectric membrane. The main objective is to investigate the precursors of quantum phase transition in such a model by studying the behavior of some observables in the ground state. By controlling the coupling between membrane and modes, we find that the two lowest energy eigenstates become degenerate, as is indicated by the behavior of the mean value of some operators and by other quantifiers as a function of the coupling. Such degenerate states are characterized by a coherent superposition of eigenstates describing one of the two modes preferentially populated and the membrane dislocated from its equilibrium position due the radiation pressure (Schrödinger’s cat states). The delocalization of the compound system photons+membrane results in an increase in fluctuations as measured by Robertson-Schrödinger uncertainty relations

2
  • FABRICIO ALVES OLIVEIRA
  • ALGORITMOS PARA AS VERSÕES DETERMINÍSTICA E ROBUSTA DO PROBLEMA DE LOCALIZAÇÃO DE CONCENTRADORES COM MAXIMIZAÇÃO DO LUCRO

  • Orientador : ELISANGELA MARTINS DE SA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • MARCONE JAMILSON FREITAS SOUZA
  • SERGIO RICARDO DE SOUZA
  • GUSTAVO CAMPOS MENEZES
  • GERALDO ROBSON MATEUS
  • REINALDO MORABITO NETO
  • Data: 27/02/2024
  • Mostrar Resumo
  • Esta tese propõe o estudo do problema de localização de concentradores, com objetivo direcionado para a maximização do lucro. Esse problema consiste em estabelecer a localização de concentradores, o projeto da rede e a alocação dos nós de demanda aos concentradores para maximizar o lucro total da rede. O problema considera que a rede de concentradores é incompleta e nenhuma estrutura topológica específica é requerida. Este trabalho apresentou novas formulações e investigou suas propriedades. As formulações propostas assumem a estratégia de alocação múltipla; não impõem quaisquer restrições ao número de concentradores ou arcos entre concentradores instalados na rede; não permitem conexões diretas entre nós não concentradores e permitem que a demanda da rede seja parcialmente satisfeita, sendo atendida apenas quando for rentável. Essa última característica e o foco na maximização do lucro diferenciam o problema abordado nesta tese em relação aos problemas clássicos de localização de concentradores, nos quais a demanda completa entre todos os pares de origem e destino é atendida, e, além disso, os problemas são modelados sob o ponto de vista dos custos. Esta tese também investigou as propriedades e realizou uma análise comparativa das formulações propostas com outra da literatura. Para resolver o problema, foram desenvolvidos algoritmos baseados no método de decomposição de Benders, incluindo várias estratégias de aprimoramento. Uma vez que o problema aqui abordado é NP-difícil, também foram propostos dois algoritmos heurísticos baseados em busca local e troca sistemática de estruturas de vizinhança para solucionar instâncias do problema de grande porte. Para analisar a eficiência dos procedimentos de solução propostos, foram realizados extensivos experimentos computacionais com instâncias de referência na área de localização de concentradores. Os resultados desses testes mostraram que os algoritmos propostos possuem um bom desempenho. Em particular, com o método de decomposição de Benders, foram resolvidas até a otimalidade instâncias com até 150 nós. Por outro lado, com os algoritmos heurísticos, foram solucionadas instâncias contendo até 500 nós. Adicionalmente, foi realizada uma análise das estruturas de vizinhança consideradas nos algoritmos heurísticos e uma comparação estatística entre os dois algoritmos. Nesta tese também foi abordado o problema de localização de concentradores com maximização do lucro em que as demandas e os custos de instalação de concentradores e arcos entre concentradores são incertos. Uma formulação robusta, que permite controlar o grau de conservadorismo do modelo por meio de um budgetde incerteza, é desenvolvida para este caso. São apresentadas discussões sobre a influência que a incerteza nos dados tem sobre a configuração da rede e sobre o lucro associado a ela. Para resolver o problema robusto, foram propostos um algoritmo exato baseado em decomposição de Benders e outro heurístico baseado no ILS, adaptados dos melhores métodos identificados na resolução do problema determinístico. As soluções obtidas com o problema robusto possuem diferenças significativas em relação às soluções do problema determinístico, o que evidencia a importância de se estudar este tipo de problema, principalmente em aplicações reais. A incerteza nos dados pode levar a necessidade de um redesenho da rede de concentradores, o que influencia diretamente o lucro associado a ela. 


  • Mostrar Abstract
  • **

3
  • BRUNO ALVES MARQUES
  • Simetrias na Eletrodinâmica: dualidades e o estudo da consistência de modelos massivos

  • Orientador : ANTONIO PAULO BAETA SCARPELLI
  • MEMBROS DA BANCA :
  • ALBERT PETROV
  • ANTONIO PAULO BAETA SCARPELLI
  • GIANCARLO QUEIROZ PELLEGRINO
  • JEAN CARLOS COELHO
  • JOSE GERALDO PEIXOTO DE FARIA
  • LUIZ CLEBER TAVARES DE BRITO
  • Data: 29/02/2024
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho, são estudados modelos com extensões massivas da eletrodinâmica, seja por meio de teorias que violam a simetria de Lorentz ou não. Primeiramente estudamos o caso particular de um modelo que, embora massivo, preserva uma invariância de calibre residual. É avaliada a consistência física do modelo por meio de suas equações de campo clássicas e da análise dos polos do propagador do campo vetorial. Em seguida, de uma forma mais geral, é estudada a equivalência física, nos níveis clássico e quântico, de modelos duais. Para a obtenção do modelo dual (invariante de calibre) à teoria original massiva, é utilizado o método iterativo de dualização de Noether. Em nível clássico, a equivalência física é investigada por meio do cálculo da seção de choque do espalhamento elétron-elétron (espalhamento Moller) em nível árvore. No caso quântico, apresentaremos a equivalência on-shell para uma amplitude simples de um loop e, em seguida, mostraremos que a equivalência é válida off-shel. Iniciaremos considerando a autoenergia do elétron de uma eletrodinâmica massiva estentida e de seu modelo dual invariante de calibre correspondente.


  • Mostrar Abstract
  • In this work, models with massive extensions of electrodynamics are studied, either through theories that violate Lorentz symmetry or not. First, we study the particular case of a model that, although massive, preserves a residual gauge invariance. The physical consistency of the model is evaluated through its classical field equations and the analysis of the propagator poles of the vector field. Then, in a more general way, the physical equivalence, at the classical and quantum levels, of dual models is studied. To obtain the dual model (gauge invariant) to the original massive theory, the Noether dualization method is used. At the classical level, physical equivalence is investigated by calculating the electron-electron scattering cross section (Moller scattering) at tree level. In the quantum case, we will present the on-shell equivalence for a single loop amplitude and then we will show that the equivalence holds for off-shell. We will start by considering an electron eigenenergy of an extended massive electrodynamics and its corresponding gauge invariant dual model.

2023
Dissertações
1
  • DENISE LEMOS CARDOSO
  • Simulação de Materiais Granulares: Uma Abordagem Tridimensional

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • BRENO RODRIGUES LAMAGHERE GALVAO
  • FELIPE GALVÃO RAFAEL MAGALHÃES
  • Data: 10/02/2023
  • Mostrar Resumo
  • A partir do aumento de capacidade de processamento computacional e desenvolvimento de programas de modelagem e renderização tridimensional, aliados aos conceitos físicos e matemáticos, melhorias em ferramentas de simulação estão sendo alavancadas. Neste trabalho é executado um processo de simulação tridimensional de materiais granulares utilizando o programa Blender com um código secundário de cálculos para interação entre grãos Molecular Script Addon e analisar os resultados. Foi desenvolvido um código em Python agregado ao programa de computador Blender para montagem inicial dos experimentos, visualização da simulação e extração dos resultados. O Molecular Script é baseado no Método dos Elementos Discretos. Na simulação executada, são considerados 2000 grãos depositados em um funil, seguido do fluxo dos grãs através da abertura inferior inferior e por fim, a deposição dos mesmos em uma superfície plana. Foi testada a sensibilidade dos resultados em relação à variação dos seguintes parâmetros: ângulo das paredes do funil, atrito entre os grãos e variação de acomodação inicial dos grãos no funil (para verificar a repetibilidade dos testes). Para avaliação dos resultados foram medidas algumas características físicas e estruturais, tais como o tempo de escoamento total em função do ângulo do funil e atrito, ângulo de repouso da pilha formada, forma da pilha em vista superior e mapa de velocidade do fluxo de grãos em função do tempo. Como resultado, foi possível atestar a funcionalidade e repetibilidade das simulações utilizando o Bender. O resultado dos experimentos apresentaram uma correlação entre o tempo total de fluxo dos grãos, coeficiente de atrito e ângulo do funil.


  • Mostrar Abstract
  • **

2
  • CESAR AUGUSTO SOUZA DE OLIVEIRA
  • UM GRASP REATIVO PARA O PROBLEMA DE SEQUENCIAMENTO DE MÁQUINAS PARALELAS NÃO RELACIONADAS COM RECURSO ESCASSO ADICIONAL

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • SERGIO RICARDO DE SOUZA
  • GUSTAVO CAMPOS MENEZES
  • MARIA AMÉLIA LOPES SILVA
  • Rodney Oliveira Marinho Diana
  • Data: 24/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho aborda o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com recurso escasso adicional (Unrelated Parallel Machine Scheduling Problem with Secondary Resources – UPMR). Neste problema, um determinado conjunto de tarefas serão distribuídas em um conjunto de máquinas. O objetivo é minimizar o instante de conclusão da última tarefa (makespan). A cada instante de tempo existe uma quantidade máxima de recursos disponível para processar as tarefas do sequenciamento, cada tarefa demanda uma certa quantidade desse recurso ao ser processada. Caso o limite total de recurso seja ultrapassado, a solução se torna infactível. Para resolução do problema, propomos um algoritmo GRASP Reativo juntamente com um método de busca local VND. Um método guloso para o reparo de soluções infactíveis foi proposto e aplicado em conjunto com o GRASP Reativo. Um conjunto de instâncias da literatura é usado para a validação e comparação dos resultados. Análises realizadas com os resultados obtidos indicaram que a abordagem proposta obteve resultados satisfatórios em boa parte das instâncias em relação à abordagens existentes na literatura.


  • Mostrar Abstract
  • **

3
  • DIOGO SOUZA DE FIGUEIREDO
  • ANONIMIZAÇÃO DE DADOS: UM COMPARATIVO DE ALGORITMOS DE PRIVACIDADE BASEADOS NO MODELO K-ANONYMITY

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • GUSTAVO CAMPOS MENEZES
  • SANDRO RENATO DIAS
  • THIAGO DE SOUZA RODRIGUES
  • Data: 27/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Em quase todas as atividades diárias, a internet está sempre presente. Muitas dessas atividades, requerem o compartilhamento de dados pessoais (por exemplo, endereço, telefone, idade, localidade, dentre outros) e dados considerados sensíveis (por exemplo, diagnóstico médico, conta de banco, número de documentos, dentre outros), gerando uma preocupação quanto a privacidade dessas informações perante a sociedade. Compartilhar informações exige a utilização de ferramentas de proteção de dados, de forma que as informações desses dados não possam ser utilizadas para identificar um indivíduo. Para atender as Leis e regulamentações aplicáveis, bem como, as políticas de proteção de dados informadas, surgiu um mecanismo de proteção de dados chamado anonimização de dados. Esse mecanismo consiste basicamente em remover os identificadores e ocultar dados sensíveis impossibilitando sua re-identificação. À medida que grandes quantidades de dados de indivíduos são disseminadas, novos desafios aparecem para a proteção de sua privacidade. Vários algoritmos de anonimização foram propostos, tornando-se a publicação de dados de preservação de privacidade em uma área de pesquisa bem abrangente. No entanto, é difícil identificar e selecionar o algoritmo mais adequado, devido ao grande número de algoritmos disponíveis e informações limitadas sobre seus desempenhos. Neste trabalho, são apresentados três algoritmos de anonimização chamados DataFly, Incognito e Mondrian. Será abordado suas eficiências no processamento dos dados, suas eficácias na quantidade de dados utilizados empregando um conjunto amplo de diferentes parâmetros, métricas e conjuntos de dados. Para orientar na seleção de um algoritmo, uma bateria de experimentos será realizada entre eles para identificar quais fatores podem influenciar no desempenho, apresentando as condições em que cada algoritmo supera uns aos outros em determinados requisitos de privacidade bem como suas vantagens e desvantagens.


  • Mostrar Abstract
  • In almost every daily activity, the internet is always present. Many of these activities require the sharing of personal data (e.g. address, telephone, age, location, among others) and data considered sensitive (e.g. medical diagnosis, bank account, among others), generating a privacy concern. of this information to society. Sharing information requires the use of data protection tools, so the information in this data cannot be used to identify an individual. In order to comply with applicable laws and regulations, as well as informed data protection policies, a data protection mechanism called data anonymization has emerged. This mechanism basically consists of removing identifiers and hiding sensitive data, making it impossible to re-identify. As large amounts of data from individuals are disseminated, new challenges arise for the protection of their privacy. Various anonymization algorithms have been proposed, making publishing privacy-preserving data a very broad area of research. However, it is difficult to identify and select the most suitable algorithm, due to the large number of available algorithms and limited information about their performance. In this work, three anonymization algorithms called DataFly, Incognito and Mondrian are presented. Its efficiencies in data processing, its effectiveness in the amount of data used will be addressed, employing a wide set of different parameters, metrics and data sets. To guide the selection of an algorithm, a battery of experiments will be carried out among them to identify which factors can influence performance, presenting the conditions in which each algorithm outperforms each other in certain privacy requirements as well as their advantages and disadvantages

4
  • ALEXANDRE AUGUSTO AGUIAR GOMES
  • Uso de Oclusão para Explicabilidade em Inteligência Artificial Aplicada em Reconhecimento de Entidades Nomeadas

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • DANIEL HASAN DALIP
  • FLAVIO LUIS CARDEAL PADUA
  • GUSTAVO CAMPOS MENEZES
  • MICHELE AMARAL BRANDÃO
  • Data: 27/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Técnicas de Explicabilidade de Inteligência Artificial (XAI, do inglês Explainable Artificial Intelegence) são métodos que auxiliam o usuário a entender os motivos pelos quais o modelo de Aprendizado de Máquina (ML, do inglês, Machine Learning) realizou uma determinada predição. Elas vêm sendo aplicadas nos mais diversos problemas, desde Visão Computacional ao Processamento de Linguagem Natural (NLP, do inglês, Natural Language Processing). Em NLP, tais técnicas podem permitir ao usuário identificar quais palavras são importantes para a compreensão de uma sentença e também na determinação de quais palavras são relevantes para efetuar uma determinada predição automática, por exemplo, nas tarefas de identificação automática de classes gramaticais ou reconhecimento de entidades nomeadas (NER, do inglês, Named Entity Recognition). Esse trabalho tem como objetivo estudar a aplicabilidade da técnica de XAI de Oclusão em NER. A Oclusão, ao ser aplicada em NER, é uma técnica que mensura a relevância de uma determinada palavra na predição por meio da análise do impacto em sua remoção. Essa técnica, além de trazer um entendimento do processo de predição, pode permitir que sejam realizadas intervenções no ajuste dos hiperparâmetros do modelo ou no preprocessamento da base de dados. Para realizar esse trabalho, utilizou-se uma LSTM bidirecional e o dataset CoNLL 2003, amplamente utilizado na literatura. Logo após, foi investigado a precisão dessa técnica de explicabilidade analisando a capacidade da mesma em gerar respostas similares às esperadas por humanos. Para realizar essa análise, foi utilizado a anotação manual de um conjunto de 1000 sentenças criando-se, assim, uma base de dados de referência. Até onde se sabe, não há na literatura análises do uso da Oclusão em NER. Dessa forma, tanto a análise realizada quanto a base de dados de referência são contribuições do presente trabalho.


  • Mostrar Abstract
  • **

5
  • WANDERLEY DA SILVA
  • A Mecânica Quântica Supersimétrica e Suas Aplicações

  • Orientador : ANTONIO PAULO BAETA SCARPELLI
  • MEMBROS DA BANCA :
  • OSVALDO NEGRINI NETO
  • ANTONIO PAULO BAETA SCARPELLI
  • GIANCARLO QUEIROZ PELLEGRINO
  • LUIZ CLEBER TAVARES DE BRITO
  • Data: 13/03/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A supersimetria é um princípio bastante atraente na busca por teorias mais abrangentes além do Modelo Padrão das partículas elementares, pois envolve o intercâmbio entre campos fermiônicos e bosônicos, além de resolver problemas como o do ajuste fino. A mecânica quântica supersimétrica (MQ SUSI) foi desenvolvida por Witten em 1981, inicialmente como um modelo para testar métodos de teorias de campos. A partir do momento em que a comunidade científica voltou sua atenção para a Mecânica Quântica SUSI, ficou evidente que este campo de estudos era interessante por si mesmo. Além de servir como um modelo para testar métodos de teorias de campos, constatou-se que a MQ SUSI  traz novas luzes sobre o método de fatoração de Infeld e Hull, que foi a primeira forma de categorizar os problemas de potenciais solucionáveis analiticamente. Cálculos da mecânica quântica podem ser simplificados por meio de procedimentos da MQ SUSI.  Há muito o que ser explorado em MQ SUSI no cenário atual. Este trabalho tem como proposta fazer uma revisão dos diversos procedimentos adotados na MQ SUSI, com exemplos em uma, duas e três dimensões. Além disso, é apresentado um estudo de aplicações da mecânica quântica supersimétrica no poço circular infinito.


  • Mostrar Abstract
  • **

6
  • RODRIGO COIMBRA PEREIRA ALVES
  • Eficiência de Mercado: Um Estudo nos Mercados Brasileiro e Estadunidense

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • CHARLENE CASSIA DE RESENDE
  • CRISTIANO ARBEX VALLE
  • Data: 04/07/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A hipótese de mercado eficiente é um conceito central na teoria econômica contemporânea. Embora desvios da eficiência venham sendo associados a diferentes estatísticas observadas em séries financeiras, em última instância o que os define é a possibilidade de ganhos consistentes acima da média do mercado por meio de arbitragem. A presente pesquisa consiste em um estudo em que essa questão é abordada por múltiplos ângulos. Tendo como dados de entrada séries de preços de ações dos mercados brasileiro e estadunidense, este estudo examina estatísticas encontradas em séries de preços ou de retornos que se afastam de comportamentos análogos ao de um caminhante aleatório. Utilizamos como ferramentas o expoente de Hurst e sua generalização multifractal, distribuições cumulativas inversas e um modelo de previsão de tendências de retornos de ativos financeiros baseado em um sistema de equações diferenciais acopladas. Buscamos analisar correlações entre as estatísticas encontradas de forma a identificar desvios da hipótese de mercado eficiente: tais correlações fornecem informações a respeito de possibilidades de arbitragem. Ainda com o objetivo de identificar oportunidades de arbitragem, conduzimos uma análise abrangendo diversas faixas de horário. Além disso, desenvolvemos um índice que relaciona o potencial de lucro teórico com a liquidez dos ativos.


  • Mostrar Abstract
  • **

7
  • ROMARIO DOS SANTOS LOPES DE ASSIS
  • Algoritmos heurísticos para os problemas de localização-alocação de mamógrafos e roteamento de unidades móveis de mamografia

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • TATIANA ALVES COSTA
  • EDUARDO CAMARGO DE SIQUEIRA
  • ELISANGELA MARTINS DE SA
  • MARCONE JAMILSON FREITAS SOUZA
  • MARIA AMÉLIA LOPES SILVA
  • SERGIO RICARDO DE SOUZA
  • Data: 11/07/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta dissertação tem seu foco no problema de cobertura de exames de mamo grafia no Sistema Único de Saúde do Brasil. Este problema foi decomposto em doissubproblemas que são resolvidos sequencialmente: o Problema de Localização e Alo cação de Mamógrafos fixos (PLAM) e o de Roteirização das Unidades Móveis deMamografia (MMURP). No primeiro problema, o objetivo é determinar a localiza ção de mamógrafos fixos e as cidades por ele atendidas satisfazendo a um conjunto de restrições, entre as quais a limitação da distância de atendimento. Dado que ci dades sem infraestrutura hospitalar para sediar um mamógrafo fixo e distantes deoutras com infraestrutura não podem ser atendidas por mamógrafos fixos, então, para cobri-las são utilizadas Unidades Móveis de Mamografia (MMUs). A roteiriza ção das MMUs dá origem ao segundo subproblema. Para resolver o PLAM foram desenvolvidos dois algoritmos de otimização baseados nas meta-heurísticas Iterated Greedy Search (IGS) e General Variable Neighborhood Search (GVNS), nomeados IGS-PLAM e GVNS-PLAM, respectivamente. Esses algoritmos utilizam uma nova representação de solução que permite identificar individualmente cada equipamento instalado em uma cidade. Além disso, eles usam novas estruturas de vizinhança. Para testá-los foram utilizadas instâncias da literatura referente a dados reais de estados brasileiros. Os resultados desses algoritmos foram comparados com aqueles produ zidos por um algoritmo da literatura e com o resolvedor CPLEX. Em seguida, para cada instância, o conjunto de cidades não atendidas integralmente pelos mamógrafos fixos na melhor solução gerada pelos algoritmos propostos é utilizado como instância para a solução do MMURP. Esse segundo subproblema é resolvido por meio de um algoritmo heurístico construtivo que determina o número de MMUs e suas respectivas rotas de forma a atender toda a demanda existente. Esta metodologia foi utilizada para gerar soluções para sete estados da federação brasileira. 


  • Mostrar Abstract
  • **

8
  • LEONARDO CORRÊA CARDOSO
  • Algoritmos Iterated Local Search e Simulated Annealing Aplicados ao Problema de Localização com Cobertura Parcial

  • Orientador : ELISANGELA MARTINS DE SA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • GUSTAVO CAMPOS MENEZES
  • Rodney Oliveira Marinho Diana
  • SERGIO RICARDO DE SOUZA
  • Data: 14/07/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O Problema de Localização com Cobertura Parcial consiste em localizar um conjunto de instalações de forma a minimizar o custo total de localização e garantir queuma quantidade predeterminada de demanda de clientes seja coberta por estas instalações. Este trabalho apresenta dois algoritmos para a resolução deste problema, sendo o primeiro baseado na meta-heurística Iterated Local Search e o segundo baseado na meta-heurística Simulated Annealing. Além disso, um conjunto de experimentos computacionais foram realizados e resultados demonstram que boas soluçõespodem ser encontradas para instâncias moderadamente grandes.


  • Mostrar Abstract
  • **

9
  • RÓGENES REIS FIRMINO
  • Classificação automática de leucócitos em amostras sanguíneas de cães baseada em técnicas de visão computacional e redes neurais convolucionais

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • FABÍOLA DE OLIVEIRA PAES LEME
  • FLAVIO LUIS CARDEAL PADUA
  • GUSTAVO CAMPOS MENEZES
  • MARCO TULIO ALVES NOLASCO RODRIGUES
  • NATALIA COSSE BATISTA
  • Data: 07/08/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Na rotina clínica veterinária, o hemograma é o exame complementar mais solicitado, cujo objetivo é avaliar as diferentes células sanguíneas do animal para auxiliar no diagnóstico e acompanhamento da evolução das doenças. O hemograma examina as diferentes células do sangue animal de modo a realizar a contagem de hemácias, leucócitos e plaquetas em uma amostra sanguínea. Os métodos atuais para contagem e análise das células sanguíneas podem ser divididos em técnicas manuais, impedância, análise quantitativa da camada flogística, citometria de fluxo e por visão computacional. A técnica manual é morosa e apresentam um fluxo de trabalho repetitivo, o que pode gerar influências negativas nos resultados apresentados, pois além do prazo extenso para se obter essa resposta, ela ainda pode conter os efeitos subjetivos do profissional. Já as técnicas automáticas, apresentam outros tipos de problema, como a baixa exatidão na contagem diferencial de leucócitos na técnica de impedância e o alto custo de aquisição e manutenção dos equipamentos relacionados à citometria de fluxo. Este trabalho propõe o desenvolvimento de um método para localizar e classificar automaticamente leucócitos caninos por meio de técnicas de visão computacional e aprendizado de máquina, levando em consideração a variação morfológica celular do animal, a partir de imagens de esfregaços sanguíneos. Dessa forma, é possível fornecer resultados mais precisos do que as metodologias existentes, reduzindo o efeito da subjetividade dos resultados, além de diminuir o tempo gasto com a leitura de lâmina do esfregaço, liberando o médico veterinário para o desempenho de outras atividades. Para a construção do método, uma base de imagens com 433 exemplos de amostras sanguíneas de cães foi criada. Em seguida, a partir da análise de diversos espaços de cores, a componente S do espaço HSV proporcionou o melhor realce dos núcleos dos leucócitos. Com o uso de um limiar, as células sanguíneas de interesse foram localizadas na cena, identificando corretamente 1390 elementos celulares de um total de 1436, o que corresponde a uma taxa de acertos de 96.76%. Por fim, com o auxílio da VGG16, uma rede neural convolucional com transferência de aprendizado, uma acurácia média de 98,5% foi obtida para as células das seguintes classes: linfócitos, neutrófilos, eosinófilos, monócitos e metarrubrícitos.


  • Mostrar Abstract
  • **

10
  • JOICE MARTINHA RODRIGUES
  • Modelo e Algoritmos para um Problema de Sequenciamento de Ordens de Manutenção Preventiva

  • Orientador : GUSTAVO CAMPOS MENEZES
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • GUSTAVO ALVES FERNANDES
  • GUSTAVO CAMPOS MENEZES
  • THIAGO DE SOUZA RODRIGUES
  • Data: 05/10/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta dissertação tem como objetivo principal desenvolver um modelo matemático capaz de abordar um problema real de sequenciamento de máquinas paralelas em um ambiente Job Shop, visando encontrar o menor makespan global do sistema. Além da formulação matemática em si, uma análise detalhada da eficácia dos algoritmos desenvolvidos também será realizada. Dois algoritmos foram elaborados: um utilizando uma heurística construtiva parcialmente gulosa e outro com base na técnica de Simulated Annealing. Para avaliar a performance dos algoritmos, foram conduzidos experimentos utilizando conjuntos de instâncias diversificados. Em particular, dois testes foram realizados, variando a mão de obra disponível: um aumento de 2% e outro de 5%. Notavelmente, observou-se que à medida que o aumento da mão de obra crescia, as soluções obtidas tendiam a melhorar. O primeiro algoritmo produziu resultados para todos os grupos de instâncias definidos. Contudo, as soluções obtidas ficaram significativamente distantes da solução ótima, indicando a complexidade intrínseca do problema. A partir dessas soluções iniciais, o segundo algoritmo foi aplicado, permitindo uma exploração mais profunda do espaço de soluções. Esse processo se mostrou mais eficaz em termos de convergência para soluções mais próximas do ótimo global. O segundo algoritmo, baseado no Simulated Annealing, foi capaz de explorar diversas configurações de alocação de tarefas, permitindo uma busca mais ampla por soluções promissoras.


  • Mostrar Abstract
  • **

11
  • MIRIAN GREINER DE OLIVEIRA PINHEIRO
  • Uso de Big Data no planejamento do transporte público: uma aplicação de técnicas de mineração de dados na inferência do motivo da viagem do passageiro

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • GRAY FARIAS MOITA
  • GUILHERME DE CASTRO LEIVA
  • MATHEUS HENRIQUE DE SOUSA OLIVEIRA
  • RENATO GUIMARAES RIBEIRO
  • Data: 23/10/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A matriz origem e destino (OD) é uma ferramenta crucial no planejamento dos sistemas de transporte, pois fornece informações sobre os fluxos de viagens entre diferentes áreas da cidade e permite entender as demandas de mobilidade das pessoas e seus padrões de deslocamento. As pesquisas domiciliares, método tradicional de coleta de dados utilizados na obtenção de matrizes OD, são caras, trabalhosas e pouco frequentes, sendo realizadas a cada década em muitos casos. Para superar tais desafios, dados de cartões inteligentes passaram a ser utilizados no processo de obtenção das matrizes OD pois são coletados de forma contínua e em larga escala, sendo portanto uma fonte de dados mais abrangente e atualizada. Apesar das vantagens, os dados de cartões inteligentes também têm suas limitações, sendo a principal delas a falta de informação sobre atributos importantes da viagem, como por exemplo o motivo do deslocamento. Para suprir essa carência, técnicas de aprendizado de máquina podem ser utilizadas para inferir atributos não disponíveis nesta base de dados, sendo este o principal objetivo deste estudo. Neste trabalho, será apresentada uma aplicação da mineração de dados na previsão do motivo de viagem dos passageiros do transporte público da Região Metropolitana de Belo Horizonte, Minas Gerais, Brasil (RMBH). Para isto, diferentes algoritmos, técnicas de balanceamento de classes, hiperparâmetros e métodos de inferência foram testados e avaliados. Ao final, o método de inferência dividido em dois modelos sequenciais, um para classificar viagens primárias e outro para classificar viagens secundárias, ambos treinados com o algoritmo Random Forest e a técnica de balanceamento de classes Random Oversampling foi selecionado como o mais adequado. Ressalta-se, que o modelo treinado para classificar os motivos primários da viagem apresentou bons resultados e pode ser utilizado para prever com precisão os propósitos de viagem em dados de cartões inteligentes. Em relação aos motivos secundários, concluiu-se que o modelo precisa ser aprimorado, sobretudo em relação aos dados utilizados para seu treinamento.


  • Mostrar Abstract
  • **

12
  • DANIEL LETO NEIVA COSTA
  • Uma abordagem diferencial para determinação das taxas de infecção e reinfecção das variantes do vírus SARS-COV-2

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • ELIZABETH FIALHO WANNER
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JUAN PABLO NEIROTTI
  • ROBERTO CASTRO ALAMINO
  • Data: 18/12/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O presente estudo pretende utilizar um modelo SEIR (susceptíveis, expostos, infectados e recuperados) para analisar a dinâmica de propagação da COVID-19 no Brasil. Para determinar as taxas de infecção e reinfecção, foram empregados dados reais sobre vacinas e novos casos, além de uma abordagem de minimização da função de erro, aos quais ajustamos a saída do modelo. O modelo SEIR incorpora compartimentos para suscetíveis (S), expostos (E), infectados (I) e recuperados (R). A otimização das taxas de infecção e reinfecção permite um ajuste mais preciso do modelo aos dados reais, melhorando a capacidade de prever tendências futuras e informar estratégias de saúde pública. Também abordamos a incorporação dos vacinados no modelo, bem como os ajustes a serem realizados. Além disso, fazemos uma revisão abrangente das abordagens de modelagem da COVID-19, tanto determinísticas quanto probabilísticas, oferecendo uma visão das diferentes ferramentas disponíveis para entender e prever o espalhamento da COVID-19.


  • Mostrar Abstract
  • **

13
  • GERMANO TEIXEIRA DE MIRANDA
  • VISÃO COMPUTACIONAL APLICADA À SISTEMAS DE AUXÍLIO AO DIAGNÓSTICO: Identificação de pontos anatômicos no traçado cefalométrico.

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • LENIANA SANTOS NEVES
  • ALISSON MARQUES DA SILVA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • Data: 21/12/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Sistemas computacionais de auxílio ao diagnóstico são amplamente usados nos mais diversos setores da área da saúde a fim de facilitar o trabalho dos especialistas envolvidos. Esses sistemas computacionais auxiliam os profissionais de saúde diminuindo a chance de erro, melhorando a precisão do exame, além de diminuir tempo e o custo para elaboração do diagnóstico. Mais especificamente na odontologia, o exame de traçado cefalométrico consiste em fazer medidas lineares e angulares no crânio para determinar um tratamento ortodôntico. Para a elaboração desse exame, as medidas são feitas em uma radiografia lateral da cabeça chamada telerradiografia. O diagnóstico de um traçado cefalométrico é obtido através da avaliação quantitativa das medidas feitas na telerradiografia em comparação com o padrão ideal definido pela literatura. Essa característica quantitativa e bem definida do exame o torna um candidato promissor para aplicação de técnicas de visão computacional que possibilitem a obtenção do diagnóstico de forma automática, sem a intervenção manual do especialista. O objetivo do meu trabalho de mestrado é avaliar as técnicas de visão computacional existentes atualmente e aplicá-las na detecção automática dos pontos anatômicos necessários para a elaboração de um exame de traçado cefalométrico. Para a aplicação das técnicas de visão computacional, foi extraída uma base de dados para o treinamento a partir de mais de um milhão de exames de traçados cefalométricos realizados na ferramenta de traçado computadorizado do Cfaz.net, um dos softwares de traçado cefalométrico mais usados na América Latina. Essa base de treinamento foi utilizada para treinar e avaliar as técnicas de visão computacional que melhor conseguem realizar a tarefa de encontrar pontos anatômicos em uma telerradiografia.  No decorrer do trabalho, foram exploradas técnicas que conseguissem realizar o exame de traçado cefalométrico de maneira satisfatória, permitindo, ao final, afirmar qual das técnicas é melhor comparativamente. Deste modo, concluiu-se que as técnicas de visão computacional disponíveis atualmente no mercado são capazes de realizar um exame de traçado cefalométrico de maneira satisfatória sem a intervenção do especialista. 


  • Mostrar Abstract
  • Computer diagnostic aid systems are used in the various health sectors to facilitate the work of the most used health professionals. These computer systems help healthcare professionals to detect the chance of error, correct the accuracy of the diagnosis, in addition to reducing the time and cost of making the diagnosis. More specifically in the measures traced from cephalometric treatment in linear and not crucial to determine an orthodontic treatment. For the elaboration of this exam, measurements are made in a lateral medicine of the head called teleradiography. The diagnosis of a tracing tracing was obtained through the evaluation of measurements performed on teleradiography in comparison with the defined ideal pattern. This can be a comprehensive and well-defined feature as a candidate for the application of computational assessment techniques, without the possibility of automatic diagnosis, an intervention manual of the specialist. Research is evaluated as an existing computational research technique and currently applied. For the application of computer vision techniques, we intend to extract a basis from one of cephalometric tracing training tests performed in the most computerized tracing data collection tool of Cfaznet, one of the tracing data software in Latin America. . This training base will be used for nutritional calculation as a computer vision technique that can best perform the task of anatomical points in a teleradiography. In order to find the techniques it is best to carry out the tracing exam, most likely the job of searching to find the best techniques comparatively. In this way, computer vision techniques were studied today capable of performing a projected cephalometric determination exam without a theoretical intervention.

Teses
1
  • SOLANGE CONCEIÇÃO DE OLIVEIRA
  • MODELAGEM BASEADA EM EQUAÇÕES DIFERENCIAIS NÃO-LINEARES ESTOCÁSTICAS PARA DINÂMICA DE PREÇOS

  • Orientador : LEONARDO DOS SANTOS LIMA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ADÉLCIO CARLOS DE OLIVEIRA
  • FELIPE DIAS PAIVA
  • JOSE LUIZ ACEBAL FERNANDES
  • LEONARDO DOS SANTOS LIMA
  • Data: 23/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho, serão estudados dois modelos. O primeiro é a equação diferencial estocástica de Itô com um potencial de interação polinomial não linear, como um possível modelo para o mercado financeiro. A equação não linear de Langevin também foi proposta como modelo para flutuações e colisões no mercado de ações, onde esta equação é baseada na identificação de diferentes processos que influenciam a demanda e a oferta. Em geral, a difusão de Itôtem sido muito utilizada como modelo bioeconômico com flutuações estocásticas.O segundo modelo é a equação de Langevindo Vetor Girante, que pode ser usado para descrever o comportamento de um sistema de partículas rotativas com vetore girante, em um ambiente ruidoso com ruído branco estocástico, que se relaciona com o incremento de Wiener. Esse modelo pode representar um mercado financeiro sob condições extremas (mínimas e máximas) no processo, onde os preços tendem a ir para diferentes pontos fixos ou atratores. Será investigado o comportamento da distribuição da cauda longa das volatilidades para esses modelos e será aplicado o método da Análise de Flutuaçãodestendenciada DFA (DetrendedFluctuationAnalysis) às séries temporais obtidas. 

     


  • Mostrar Abstract
  • **

2
  • PRISCILA FLÁVIA SOUZA DA SILVA
  • TÉCNICAS DE APRENDIZADO DE MÁQUINA PARA A PREVISÃO DA RESISTÊNCIA À COMPRESSÃO DO CONCRETO E DA ADERÊNCIA AÇO-CONCRETO

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • ELIENE PIRES CARVALHO
  • GRAY FARIAS MOITA
  • GUSTAVO CAMPOS MENEZES
  • MOACIR KRIPKA
  • ROQUE LUIZ DA SILVA PITANGUEIRA
  • Data: 24/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O concreto convencional é um dos materiais mais utilizados na construção civil e no mundo. Sua mistura é composta por cimento, água e diversos agregados. Seu comportamento é altamente não linear devido, principalmente, a suas características heterogêneas. A resistência à compressão é um dos parâmetros mais importantes para a determinação das características estruturais do concreto, sendo utilizada amplamente por calculistas para a realização de projetos estruturais. Já a aderência entre a barra de aço e a pasta de concreto, que são os principais componentes do concreto armado, pode ser vista como um dos principais fatores para que o concreto armado seja considerado uma solução estrutural viável para as mais diversas obras. Esses dois paramentos são usualmente determinados por meio de ensaios laboratoriais dispendiosos, ocasionando grande gasto com recursos, de materiais e tempo para a sua execução. Esse gasto é aumentado, principalmente, se considerado que a resistência à compressão do concreto, para atendimentos de processos normativos, é medida aos 7, 14 e 28 dias. Portanto, a previsão de resistência do concreto e da tensão de aderência continua sendo uma área ativa de pesquisa com um número considerável de estudos realizados. Por outro lado, a inteligência artificial e suas diversas aplicações são exemplos de novas tecnologias emergentes que têm se mostrado bem-sucedidas nas mais diversas aplicações científicas. Geralmente, os sistemas inteligentes superam suas contrapartes tradicionais na resolução de tarefas não lineares. Neste trabalho, é proposta a implementação de algoritmos de aprendizagem de máquina para determinar a resistência do concreto armado à compressão e a força de arrancamento a partir de base de dados experimentais diversos. Cinco modelos são projetados, implementados e testados: árvores de decisão, florestas aleatórias, máquinas vetoriais de suporte, redes neurais artificiais e regressor gradiente boosting. Também são utilizados métodos de pré-processamento de dados e técnicas estatísticas para um melhor estudo das bases de dados utilizadas. O objetivo desse estudo é determinar a resistência à compressão do concreto e a força de arrancamento de barras de aço engastadas em corpos de prova de concreto sem destruir nenhuma amostra. Por fim, os resultados obtidos neste trabalho mostram eficiência na determinação da resistência à compressão e na força de arrancamento e são comparados com outros trabalhos, destrutivos e não destrutivos, que também obtiveram esses parâmetros. 


  • Mostrar Abstract
  • **

3
  • JOSENILDO SILVA DE LIMA
  • MODELO DE DIFUSÃO-REAÇÃO DEPENDENTE DE VARIÁVEIS CLIMÁTICAS PARA O CONTROLE DO MOSQUITO AEDES AEGYPTI

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • ANA PAULA PINTADO WYSE
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE LUIZ ACEBAL FERNANDES
  • RICARDO HIROSHI CALDEIRA TAKAHASHI
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 27/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O Aedes aegypti é um mosquito de origem africana que transmite diversas doenças gerando crescente preocupação internacional nos últimos anos, com mais de um terço da população do mundo vivendo em regiões suscetíveis à infecção. Muitas das doenças transmitidas pelo mosquito ainda carecem de tratamento ou vacina. Diante disso, modelos matemáticos e computacionais tem sido desenvolvidos para eliminação do Aedes aegypti como, controle mecânico utilizando inseticidas, larvicidas, tratamento Ultra Baixo Volume e controle biológico por meio da Wolbachia. Este trabalho considera um modelo entomológico e um modelo epidemiológico com dois estudos de caso com dados reais. Primeiramente apresenta-se o modelo matemático entomológico de difusão-reação unidimensional que analisa a propagação do vetor nas fases aquática e adulta de fêmeas, com alguns parâmetros dependentes da precipitação e temperatura. Em seguida, formulou-se um problema de otimização mono-objetivo para minimizar as variáveis de controle e as populações na fase aquática e adulta de fêmeas utilizando dados reais da cidade de Lavras/Minas Gerais. No segundo estudo propõem-se um sistema de equações diferenciais parciais que descrevem a dispersão e interação do Aedes aegypti com humanos com parâmetros dependentes da temperatura e precipitação. Formulou-se um problema de otimização mono e multiobjetivo para minimizar as variáveis de controle e população de humanos infectados sintomáticos utilizando dados reais do município de Belo Horizonte/Minas Gerais. Obteve-se a solução numérica da equação diferencial parcial dos dois modelos pelo método da decomposição de operadores e utilizou-se os métodos de diferenças finitas, Runge-Kutta de quarta ordem, Algoritmo Genético Real Polarizado e o Non-Dominated Sorting Genetic Algorithm II para as demais simulações computacionais. Os resultados numéricos mostram que o controle permitem melhor eficiência no combate ao Aedes aegypti para os casos de Lavras e Belo Horizonte e também uma redução significativa no número de humanos infectados e nos custos envolvidos com a hospitalização de pessoas infectadas pelo vírus da dengue em Belo Horizonte.


  • Mostrar Abstract
  • **

4
  • SINAIDE NUNES BEZERRA
  • UM ESTUDO COM ABORDAGEM HEURÍSTICA PARA PROBLEMAS DE ROTEAMENTO DE VEÍCULOS COM JANELAS DE TEMPO E MÚLTIPLOS DEPÓSITOS

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • LUIZ SATORU OCHI
  • MARCONE JAMILSON FREITAS SOUZA
  • PUCA HUACHI VAZ PENNA
  • SERGIO RICARDO DE SOUZA
  • Data: 27/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta tese trata de Problemas de Roteamento de Veículos com Janelas de Tempo e Múltiplos Depósitos (PRVJTMD). Os problemas abordados envolvem formulações de roteamento fechado e de roteamento aberto, visando a minimização do número de veículos usados e da distância total percorrida. Esses problemas pertencem à classe NP-difícil e, para a solução, esta tese propõe a aplicação de variações da meta-heurística Variable Neighborhood Search (VNS). O algoritmo Smart General Variable Neighborhood Search com Busca Local Adaptativa (SGVNSBLA) é apresentado como o algoritmo-base para a solução dos problemas estudados. Este algoritmo alterna o mecanismo de busca local entre duas estratégias diferentes. Na primeira estratégia, o método Randomized Variable Neighborhood Descent (RVND) realiza a busca local e, ao aplicar essa estratégia, as vizinhanças com os melhores vizinhos recebem uma pontuação maior. Na segunda estratégia, o método de busca local é aplicado apenas em uma única vizinhança, escolhida pelo método da roleta. Assim, a aplicação da primeira estratégia de busca local serve como método de aprendizagem para aplicação da segunda estratégia. Para fins de comparação e validação, foram também implementados os algoritmos Basic General Variable Neighborhood Search (BGVNS), Smart General Variable Neighborhood Search (SGVNS) e SVNS com Randomized Variable Neighborhood Descent (RVND). Estes algoritmos foram avaliados usando instâncias da literatura, propostas para o problema PRVJTMD com minimização da distância total percorrida, envolvendo até 960 clientes, 12 depósitos e 120 veículos, em um total de 67 instâncias teste. Os resultados encontrados permitiram avaliar a contribuição das estruturas de vizinhanças utilizadas nas soluções que buscam a redução na quantidade de veículos. Os resultados mostram que o desempenho do SGVNSBLA superou os demais algoritmos implementados na redução da frota. Houve uma redução da frota de veículos em 91,18% das instâncias avaliadas e o tamanho da frota alcançou uma redução média de até 23,32% em problemas com janelas de tempo e múltiplos depósitos. Ao se avaliar essas instâncias com roteamento aberto, houve redução na quantidade de veículos em 100% das instâncias, com baixa variabilidade.


  • Mostrar Abstract
  • **

5
  • EMMANUEL TAVARES FERREIRA AFFONSO
  • CLASSIFICAÇÃO E RECONHECIMENTO DE PADRÕES: NOVOS ALGORITMOS E APLICAÇÕES

  • Orientador : ALISSON MARQUES DA SILVA
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • DANIEL FURTADO LEITE
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • GRAY FARIAS MOITA
  • MAURÍLIO JOSÉ INÁCIO
  • Data: 28/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho visa o desenvolvimento de novos algoritmos para tarefas de classificação e reconhecimento de padrões. Inicialmente é proposto um método para seleção de atributos (FS, do inglês feature selection) para classificadores com treinamento offline. A abordagem de FS proposta, chamada de Mean Ratio for Feature Selection (MRFS), é baseada na razão das médias dos atributos em cada classe. MRFS possui baixo custo computacional pois utiliza apenas operações matemáticas básicas como adição, divisão e comparação e  realiza apenas uma passagem nos dados para ranquear os atributos. O MRFS foi implementado e avaliado como método filter (MRFS-F) e como wrapper (MRFS-W). O desempenho dos métodos foram avaliados e comparados com o estado da arte. As comparações realizadas sugerem que os métodos propostos possuem um desempenho comparável ou superior aos métodos alternativos. Além dos métodos de FS foram propostos três classificadores  evolutivos com treinamento \textit{online}. O primeiro chamado de evolving Fuzzy Mean Classifier (eFMC) é baseado em um algoritmo de agrupamento fuzzy que realiza a classificação com base no grau de pertinência dos grupos, novos grupos são criados sempre que uma nova classe é descoberta e a atualização do centro dos grupos é através das médias amostrais calculadas de forma incremental. O segundo classificador introduzido é o evolving Fuzzy Classifier (eFC) que de maneira análoga utiliza as médias amostrais para atualização dos centros dos grupos, seu diferencial está na capacidade de gerar mais de um grupo associado a uma mesma classe para mapear diferentes regiões do espaço dos dados, criação de novos grupos aplicando o conceito de procrastinação, união de grupos redundantes e exclusão de grupos obsoletos. Por fim, foi proposto um classificador evolutivo com seleção de atributos denominado evolving Fuzzy Classifier with Feature Selection (eFC-FS). Este classificador foi construído utilizando o mesmo algoritmo do eFC e incorporando o método MRFS de seleção de atributos. Os classificadores evolutivos propostos foram avaliados e comparados com três classificadores evolutivos do estado da arte eT2Class, eGNN e FBeM. Os resultados experimentais e as comparações sugerem que os métodos baseados no MRFS para auxiliar modelos com treinamento offline e os 3 modelos evolutivos com treinamento online são promissores como alternativas para tarefas de classificação e reconhecimento de padrões, com boa acurácia e baixo custo computacional.


  • Mostrar Abstract
  • This work aims to explore different areas and solutions to solve classification and pattern recognition problems, proposing a new method for feature selection (FS) and also a new evolving fuzzy clustering model for data classification. The proposed FS approach, called Mean Ratio for Feature Selection (MRFS), aims to improve the ability of classification algorithms with only low computational cost equations and with basic mathematical operations such as addition, division and comparison. MRFS uses the ratio of the averages associated with the different outputs of the data sets to be classified, and the value of the ratio between the averages is used to select the most relevant attributes for a classifier. The proposed classification model, called the evolving Fuzzy Mean Classifier (eFMC), is a fuzzy clustering model of data that has incremental learning characteristics, capable of processing continuous flow data, extracting knowledge when new samples are presented, identifying changes in the standard of the data and maintain the quality of the response with its processing. The experiments with both proposals were carried out as follows: MRFS in a first instance was performed as a filter comparing with other existing FS methods; in a second instance, MRFS was added as a wrapper in different classifiers and its results were compared with the same classifiers without MRFS; the experiments with the eFMC had their performance and accuracy compared with other evolving models, being executed in different databases. The experiments of both proposals were promising, with good accuracy in the final results. In this way, the current phase of this work lies on a FS solution and on a new evolving algorithm for data processing in classification problems. For this last solution, the development of a new evolving model with the ability to select input attributes during processing is estimated, increasing its predictive capability without a large increase in computational cost.

6
  • FLÁVIA DA SILVA CORDEIRO
  • DEPENDÊNCIA ENTRE SÉRIES TEMPORAIS DE TEMPERATURA, PRECIPITAÇÃO E INFESTAÇÃO POR AEDES AEGYPTI PARA CONSTRUÇÃO DE MODELO PREDITIVO

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • CLÁUDIA MAZZA DIAS
  • FABIO ROCHA DA SILVA
  • JOSE LUIZ ACEBAL FERNANDES
  • LUCY TIEMI TAKAHASHI
  • Data: 28/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os mosquitos estão entre os animais mais mortais do mundo, por serem capazes de transportar e espalhar doenças para os seres humanos, causando milhões de mortes todos os anos. Um dos mosquitos de importância mundial é o Aedes aegypti, vetor de doenças como dengue, zika e chikungunya. Apenas as fêmeas adultas transmitem os vírus, então sua população é um indicador de risco de infecção. As regiões tropicais e subtropicais concentram a população do vetor devido às características climáticas. Todas as fases de desenvolvimento do vetor (ovos, larvas, pupas e fase alada) guardam alguma relação com variáveis meteorológicas. Este trabalho se propõe a investigar as relações de dependência a fim de indicar possíveis relações causais entre as variáveis meteorológicas e a variação da população de fêmeas adultas de Ae. aegypti, utilizando tratamento de dados e modelagem matemática. Foram realizados estudos de multicolinearidade e dependência entre séries temporais de umidade, temperatura e precipitação e a série do índice de fêmeas adultas a fim de determinar, entre as variáveis meteorológicas, o melhor conjunto de preditores para a população de fêmeas. Foi confirmado por testes que a série de chuvas é tão influente na população de mosquitos quanto a série de temperatura que, por sua vez, é apresentada na literatura como importante preditor de população de Ae. aegypti. Na modelagem matemática, considerou-se um modelo de sistema dinâmico constituído por quatro populações dos estágios de desenvolvimento do vetor, com taxas dependentes da temperatura média e da precipitação acumulada semanalmente. As dependências com a temperatura estão na literatura e foram definidas como polinômios de grau 2 ou 4. A relação entre o ciclo do mosquito e as chuvas é complexa, e tratada de forma superficial na literatura. Foi proposta uma parametrização por lei de potência com poucos parâmetros, mas capaz de fornecer funções constantes, crescentes ou decrescentes. Os parâmetros foram definidos com base em estudos envolvendo temperatura, por comparação de resultados obtidos via simulação computacional com dados de campo de um indicador entomológico baseado no número de fêmeas capturadas por uma armadilha, monitorada por um programa de saúde pública. Os parâmetros foram otimizados via Algoritmo Genético Real Polarizado. Assim, o modelo proposto aqui é capaz de gerar uma série temporal representativa da população de fêmeas Ae. aegypti de uma determinada região, considerando apenas séries temporais de precipitação e temperatura. O modelo é robusto, pode ser treinado em uma cidade e aplicado em outra.


  • Mostrar Abstract
  • **

7
  • LUIZ OTAVIO RODRIGUES ALVES SERENO
  • MODELAGEM DE VOOS DIFUSIVOS ANÔMALOS ATRAVÉS DA FUNÇÃO DE LEVY E PRESCRIÇÃO PARA AJUSTE DE SEUS PRINCIPAIS PARÂMETROS

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • MEMBROS DA BANCA :
  • JOSE LUIZ ACEBAL FERNANDES
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE GERALDO PEIXOTO DE FARIA
  • LUIS ALBERTO D AFONSECA
  • Ana Paula de Paiva Pereira
  • CARLOS ALEXANDRE SILVA
  • Data: 28/02/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A difusão normal é um processo observado em muitos fenômenos na natureza. Para estes processos há simulações e teoria bem desenvolvidas, a saber, o random walk (RW) e a equação de difusão, ou de Fokker-Planck. Porém, em sistemas com interações de longo alcance entre os indivíduos ou entre indivíduos e ambiente, podem haver desvios deste regime e apresentar comportamento anômalo. A essa classe de processos mais gerais, dá-se o nome de difusão anômala. Sistemas nos quais há interações entre os indivíduos ou entre os indivíduos e o ambiente, por exemplo, desviam da descrição usual da difusão, apresentando um comportamento anômalo. A abordagem teórica desses fenômenos varia de representação analítica por meio de equações diferenciais parciais, equações estocásticas e simulações computacionais que mimetizam o fenômeno. A partir de dados de deslocamento e tempos característicos de um fenômeno em escala microscópica é possível identificar os parâmetros teóricos dos modelos que descrevem macroscopicamente esses dados. Com essa finalidade, é realizado um estudo teórico em que conjuntos de dados são gerados por simulações com parâmetros microdinâmicos controlados e ajustados a uma função associada ao fenômeno. Neste estudo, são gerados voos via caminhada aleatória de tempo contínuo (CTRW) e os modelos anômalos de difusão são equações diferenciais parciais fracionárias com soluções obtidas por Cálculo Fracionário. É apresentado um algoritmo evolucionário capaz de obter parâmetros que descrevem o fenômeno, sendo pré-requisito apenas uma limitação no espaço dos parâmetros. Além disso, no processo de discretização do modelo teórico associado ao fenômeno surgem novos parâmetros cujos comportamentos são investigados, pois o papel dos mesmos pode influenciar no estudo da difusão anômala. Como aplicação imediata da superdifusão está incluído o estudo de proteínas especializadas, chamadas fatores de transcrição, em células que permitem a transcrição do Ácido desoxirribonucleico (DNA).


  • Mostrar Abstract
  • TNormal diffusion is a process observed in many phenomena in nature. For these processes there are well-developed simulations and theory, namely the random walk (RW) and the diffusion equation, or Fokker-Planck. However, in systems with long-range interactions between individuals or between individuals and the environment, there may be deviations from this regime and present anomalous behaviour. This class of more general processes is called anomalous diffusion. Systems in which there are interactions between individuals or between individuals and the environment, for example, deviate from the usual description of diffusion, presenting an anomalous behaviour. The theoretical approach to these phenomena ranges from analytical representation through partial differential equations, stochastic equations and computational simulations that mimic the phenomenon. From displacement data and characteristic times of a phenomenon on a microscopic scale, it is possible to identify the theoretical parameters of the models that macroscopically describe these data. For this purpose, a theoretical study is carried out in which datasets are generated by simulations with controlled microdynamic parameters and adjusted to a function associated with the phenomenon. In this study, flights are generated via continuous time random walk (CTRW) and the anomalous diffusion models are fractional partial differential equations with solutions obtained by Fractional Calculus. An evolutionary algorithm capable of obtaining parameters that describe the phenomenon is presented, with only a limitation in the parameter space being a prerequisite. Furthermore, in the discretization process of the theoretical model associated with the phenomenon, new parameters emerge whose behaviours are investigated, as their role can influence the study of anomalous diffusion. As an immediate application of superdiffusion is included the study of specialized proteins, called transcription factors, in cells that allow the transcription of deoxyribonucleic acid (DNA).

8
  • IZABELA MARQUES DE OLIVEIRA
  • ANÁLISE MULTIPLEX DA REDE BRASILEIRA DE TRANSPORTE AÉREO

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ANTONIO PAULO BAETA SCARPELLI
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • BRUNA AMIN GONÇALVES
  • LAURA CORINA CARPI
  • TIAGO ALVES SCHIEBER FARIA
  • Data: 20/03/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O transporte aéreo continua sendo a melhor opção para conectar regiões distantes e apoiar o desenvolvimento social e econômico mundial, apesar dos desafios ambientais. O Brasil depende fortemente dessa modalidade de transporte devido às suas dimensões continentais. Neste trabalho realizamos um estudo utilizando a abordagem multiplex de redes complexas para analisar a rede brasileira de transporte aéreo de passageiros, BATMN. Nesse contexto, criamos o Índice de Eficiência Multiplex (MEI) e suas versões para redes direcionadas e/ou ponderadas, que permitem quantificar o nível de heterogeneidade de conexões de uma rede multiplex em uma escala de 0 a 1, considerando características de direção e grau de importância das arestas, sendo apropriados para pesquisas em redes de transporte. Utilizamos o MEI para avaliar a diversificação de rotas das empresas de transporte aéreo no Brasil entre 2010 e 2021, um período marcado pela ocorrência de grandes eventos no país. Analisamos a influência de alguns desses eventos sobre a eficiência da rede, como a Copa do Mundo FIFA em 2014 e as Olimpíadas do Rio em 2016, assim como de outras mudanças no setor, incluindo a fusão entre companhias aéreas, a privatização de aeroportos, o encerramento de operações de uma importante transportadora aérea e da pandemia de COVID-19. Além disso, investigamos se a diversificação de rotas afetou os preços das passagens aéreas praticados no Brasil. Adicionalmente, por meio de uma metodologia recém-introduzida na literatura, examinamos a capacidade de difusão da rede e observamos o ganho relativo ocorrido em relação à difusão do sistema de transporte aéreo quando são consideradas as conexões de voos entre diferentes companhias aéreas, delineando um cenário de possíveis parcerias entre as empresas aéreas. As avaliações realizadas neste trabalho fornecem novas e significativas informações sobre a rede de transporte aéreo de passageiros no Brasil, contribuindo para otimizar a oferta desse tipo de transporte no país e, consequentemente, reduzir os custos envolvidos. Além disso, a metodologia proposta permite não somente uma análise diferenciada das redes de transporte aéreo, mas também a quantificação da eficiência de redes multiplex em geral.


  • Mostrar Abstract
  • Air transportation remains the best option to connect distant regions and support world social and economic development, despite environmental challenges. Brazil depends strongly in this mode of transportation due to its continental dimensions. In this work, we conducted a study using the multiplex approach of complex networks to analyze the air transport network of Brazilian passengers, BATMN. In this context, we create the multiplex efficiency index (MEI) and its versions for targeted and/or weighted networks, which allow to quantify the level of connection heterogeneity of a multiplex network on a scale of 0 to 1, considering the characteristics of direction and importance level of edges, being appropriate for research in transportation networks. We used the MEI to evaluate the diversification of routes of airlines in Brazil between 2010 and 2021, a period of occurrence of major events in the country. We analyzed the influence of some of these events on network efficiency, such as the FIFA World Cup in 2014 and the Rio Olympic Games in 2016, as well as other sector changes, including the merger between airlines, airport privatization, the closure of operations of an important air carrier and COVID-19 pandemic. In addition, we investigated whether the diversification of routes affected the prices of air tickets in Brazil. Additionally, through a recently introduced methodology in the literature, we examined the network’s diffusion capacity and observed the relative gain that occurred in the diffusion of the air transportation system when the flight connections between different airlines are considered, outlining a scenario possible partnerships between airlines. The evaluations carried out in this work provide new and significant information about the passenger air transportation network in Brazil, contributing to optimize the offer of this type of transportation in the country and, consequently, reduce the costs involved. In addition, the proposed methodology allows not only a differentiated analysis of air transportation networks, but also the quantification of the efficiency of multiplex networks in general.

9
  • OTAVIANO MARTINS MONTEIRO
  • Desenvolvimento de Matrizes de Distâncias Para Representar Interações de Proteínas Combinadas com Algoritmos de Agrupamento

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • THIAGO DE SOUZA RODRIGUES
  • ALISSON MARQUES DA SILVA
  • GUSTAVO CAMPOS MENEZES
  • ANDRE RODRIGUES DA CRUZ
  • ROGERIO MARTINS GOMES
  • SANDRO RENATO DIAS
  • Data: 24/08/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. Entretanto, para realizar sobreposições atômicas é necessário que os átomos de uma estrutura sejam alinhados em relação aos átomos da outra, através de movimentos de rotação e translação. Esse procedimento é caro computacionalmente, pertencendo à classe NP-Completo e assim, realizar várias sobreposições atômicas, procedimento comum em softwares que propõem mutações em proteínas, demanda de um alto custo computacional. Deste modo, este trabalho tem o objetivo de desenvolver técnicas baseadas em matrizes de distâncias, combinadas com clustering para formar grupos de interações de proteínas que tenham conformações tridimensionais similares, visando encontrar soluções com acurácias precisas e com boas performances, para reduzir a necessidade de realizar sobreposições atômicas. Para atender a essa finalidade, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida através dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da combinação de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A MPM teve o seu funcionamento inspirado também na importância das distâncias entre todos os átomos da estrutura para o enovelamento da mesma. Essas estratégias foram combinadas com algoritmos de clustering e os resultados foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, com a atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.


  • Mostrar Abstract
  • **

10
  • GILSON VIEIRA SOARES
  • Aspectos do controle das oscilações de Josephson no modelo de Bose-Hubbard de dois modos

  • Orientador : JOSE GERALDO PEIXOTO DE FARIA
  • MEMBROS DA BANCA :
  • ADÉLCIO CARLOS DE OLIVEIRA
  • ALLBENS ATMAN PICARDI FARIA
  • GIANCARLO QUEIROZ PELLEGRINO
  • JOSE GERALDO PEIXOTO DE FARIA
  • LUIS ARGEL POVEDA CALVINO
  • MAURICIO REIS E SILVA JUNIOR
  • THIAGO GOMES DE MATTOS
  • Data: 29/08/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste estudo, exploramos o modelo de Bose-Hubbard de dois modos, com interações átomo-átomo ajustadas de forma harmônica ao longo do tempo. Derivamos a hamiltoniana clássica mediante uma expansão do hamiltoniano quântico em termos de 1/N. Observamos comportamento caótico na dinâmica clássica e mapeamos o espaço de parâmetros e fase, utilizando o expoente de Lyapunov dominante e medidas quânticas como o eco de Loschmidt, pureza generalizada e entropia linear. Na contrapartida quântica do caos, foram observadas oscilações irregulares de Josephson. No regime regular, identificamos colapsos, reavivamentos, quase-periodicidade e controle coerente das oscilações de Josephson.


  • Mostrar Abstract
  • In this study, we investigate the two-mode Bose-Hubbard model with atom-atom interactions harmonically tuned over time. The classical Hamiltonian is derived through an expansion of the quantum Hamiltonian in terms of 1/N. Chaotic behavior is observed in classical dynamics, and we map the parameter and phase space using the dominant Lyapunov exponent and quantum measures such as Loschmidt echo, generalized purity, and linear entropy. In the quantum counterpart of chaos, irregular Josephson oscillations are noted. In the regular regime, we identify collapses, revivals, quasi-periodicity, and coherent control of Josephson oscillations.

11
  • Túlio Philipe Ferreira e Vieira
  • PROPOSTA DE UMA ARQUITETURA COMPUTACIONAL INTELIGENTE PARA A GESTÃO DOS INDICADORES UTILIZADOS NO PLANEJAMENTO E NO MONITORAMENTO DO SISTEMA DE TRANSPORTE URBANO

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • MARCOS PAULINO RORIZ JUNIOR
  • ALISSON MARQUES DA SILVA
  • ELISANGELA MARTINS DE SA
  • GRAY FARIAS MOITA
  • GUILHERME DE CASTRO LEIVA
  • MAGALI REZENDE GOUVEA MEIRELES
  • RENATO GUIMARAES RIBEIRO
  • Data: 29/08/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Segundo dados da Organização das Nações Unidas (ONU), atualmente, existem mais de3,8 bilhões de pessoas vivendo nas cidades e, em 2050, quase 70% da população mundial viverá em regiões urbanas. As cidades sempre foram vistas como locais de desenvolvimento econômico, político, cultural e social, mas a urbanização desordenada, principalmente em países em desenvolvimento, gera a deterioração da qualidade de vários sistemas e serviços oferecidos aos cidadãos. Dentre os sistemas que compõem a infraestrutura urbana, o sistema de transporte pode ser visto como um indicador da qualidade de vida dos habitantes. Isso ocorre, pois, pela análise do sistema de transporte, por meio do qual as pessoas conseguem acesso a serviços de saúde, educação cultura e lazer, é possível identificar diferenças sociais, econômicas e culturais. Desse modo, para assegurar a construção de cidades sustentáveis e que ofereçam qualidade de vida aos habitantes, é fundamental o planejamento e a gestão eficiente da mobilidade urbana. A fim de contribuir para a construção de um sistema eficiente de transporte, este trabalho apresenta o desenvolvimento de um framework composto por hardware e software, de baixo custo, que possa ser utilizado para geração e monitoramento de indicadores do sistema de transporte. O framework proposto utiliza dados de diferentes fontes como proberequest, censo e bilhetagem eletrônica e emprega algoritmos de machinelearning como Filtro de Kalman e Redes Neurais Artificiais para gerar a matriz de origem-destino e a outros indicadores do sistema de transporte. Os resultados indicam que a estratégia utilizada consegue reduzir os erros de previsão de indicadores, como a taxa de carregamento, para menos de 5%.  


  • Mostrar Abstract
  • According to data from the United Nations (UN), there are currently more than 3.8 billion people living in cities and in 2050, almost 70% of the world’s population will live in urbana reas. Cities are considered places of economic, political, cultural and social development, but disorderly urbanization, especially in developing countries, has deteriorated the quality of various systems and services offered to citizens. Among the systems that make up the urban infrastructure, the transportation system can be seen as an indicator of the residents’ quality of life. This is because, through the analysis of the transport system, from wich people gain access to medical, educational, cultural and leisure services, it is possible to identify social, economical and cultural differences. Thus, in order to ensure the construction of sustainable cities that offer a good quality of life to their inhabitants, the planning and efficient management of urban mobility is essential. In order to contribute to the construction of an efficient transport system, this work presents the development of a framework composed of low cost hardware and software, which can be used to generate and monitor real time indicators for the transport system. The proposedframeworkuses data from different sources such asprobe request, census and smart card and employs machine learning algorithms such as Kalman Filter and Artificial Neural Networks to generate the origin-destination matrix and other indicators of the transportation system. Preliminary results indicate that the strategy used manages to reduce errors in forecasting indicators to less than 5%.

12
  • CRISTIANO FRAGA GUIMARÃES NUNES
  • DESCRIÇÃO DE CARACTERÍSTICAS LOCAIS PARA CORRESPONDÊNCIA ENTRE IMAGENS DO ESPECTRO VISÍVEL E INFRAVERMELHO

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • Celso Luiz de Souza
  • DARLAN NUNES DE BRITO
  • ELIZABETH FIALHO WANNER
  • FLAVIO LUIS CARDEAL PADUA
  • Data: 31/08/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho propõe o desenvolvimento de dois métodos descritores de características locais, intitulados como MF-Net (Multispectral Features Network) e SORIF (Scale-Orientation Robust Infrared Features), projetados para a descrição de características no problema de correspondência entre imagens provenientes do espectro visível (VIS) e do espectro infravermelho (IV). As imagens obtidas do espectro infravermelho assumem um papel fundamental na área de Visão Computacional, uma vez que facilitam a extração de informações da cena que não seriam prontamente obtidas por meio de imagens individuais, oferecendo assim informações adicionais ao espectro visível. Neste cenário, um dos desafios mais relevantes relacionados à descrição de características locais reside na variação não-linear dos valores de intensidade dos pixels entre as imagens capturadas das diferentes faixas do espectro eletromagnético. O primeiro método, MF-Net, emprega uma abordagem baseada em aprendizagem profunda, inspirada no recente sucesso de abordagens baseadas em aprendizado de máquina em várias aplicações. Este método incorpora uma nova camada de aprendizagem profunda para lidar com variações não-lineares nos valores de intensidade das imagens. Comparativamente a outros métodos baseados em aprendizagem profunda, o método descritor MF-Net demonstrou superior eficácia em termos de precisão e maior eficiência em tempo de processamento para treinamento da rede. O segundo método descritor deste trabalho, SORIF, foi desenvolvido para suprir uma lacuna na literatura sobre a descrição de características locais, onde os métodos descritores baseados em modelagem manual apresentavam limitações ao lidar com variações geométricas em imagens VIS/IV. Uma estratégia adotada por este método consistiu na introdução de uma etapa para calcular a orientação de parte da imagem a ser descrita. Como resultado, o método superou os demais algoritmos do estado da arte. Adicionalmente, provou ser eficaz em relação às variações geométricas das imagens, tais como variações de rotação entre as imagens, o que é extremamente útil em aplicações práticas. Ambos os métodos foram avaliados em um processo de correspondência de características locais em imagens, através das métricas de precisão e revocação. Os experimentos foram conduzidos por meio da utilização de bases de dados amplamente reconhecidas na literatura e disponíveis publicamente, que incluem pares de imagens obtidas do espectro visível e do espectro infravermelho. Em suma, os progressos possibilitados pelos métodos descritores apresentados neste trabalho representam avanços significativos na descrição de características locais em imagens VIS/IV para aplicação no problema de correspondência entre imagens


  • Mostrar Abstract
  • **

13
  • LUCIENE LOPES BORGES MIRANDA
  • Uma aproximação de Itô-Langevin para flutuações dos preços do mercado financeiro

  • Orientador : LEONARDO DOS SANTOS LIMA
  • MEMBROS DA BANCA :
  • GIANCARLO QUEIROZ PELLEGRINO
  • THIAGO DE SOUZA RODRIGUES
  • THIAGO GOMES DE MATTOS
  • LUIS ARGEL POVEDA CALVINO
  • LEONARDO FERREIRA CALAZANS
  • Data: 30/11/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A complexidade do comportamento e dos estudos sobre o mercado financeiro e dos cálculos de Itô-Langevin, tornam-se um atrativo campo de estudo para pesquisadores de diversas áreas, tais como: Economia, Análise de Sistemas, Matemática e Física. Podemos ressaltar a sua importância, para tais estudos em áreas interdisciplinares, como: a Econofísica, que relacionam elementos da Economia e da Física no estudo dos mercados e dos sistemas financeiros. A mecânica estatística é uma das principais ferramentas para a modelagem desses sistemas financeiros, mais precisamente da dinâmica de preços. Para o entendimento de tais fatos foram usadas, as equações diferenciais estocásticas de Itô, com ruído branco aditivo como um modelo matemático para a dinâmica de preços do mercado financeiro. Métodos matemáticos da Física Estatística na descrição de sistemas econômicos têm sido aplicados às séries temporais para investigar o comportamento dos mercados financeiros em diferentes escalas. Entre as ferramentas utilizadas para tal, estão as medidas de dispersão central, distribuição de probabilidade, dinâmica estocástica e métodos para estimar as correlações. Instrumentos financeiros como, ativos, opções e índices de bolsas de valores flutuam ao longo do tempo, por isso, podem ser modelados via processos estocásticos. Dessa forma, esta tese pretende verificar se uma equação diferencial estocástica (formalizada por um ruído branco) atende a um dado fato estilizado do mercado. Mais especificamente, se a lei cúbica inversa da distribuição de probabilidade acumulada dos retornos absolutos gerados pela equação proposta segue uma empírica lei de potência. Além disso, estimamos o expoente de Hurst através da Análise R/S e do DFA para verificar a dependência de longo alcance, ou memória longa da série temporal obtida. Como o termo de ruído que compõe a equação é não diferenciável, introduzimos o cálculo estocástico para obter analiticamente a solução desta.


  • Mostrar Abstract
  • The complexity of behavior and studies on the financial market and the Itô-Langevin Calculations, become an attractive field of studies for researchers in several areas, such as: Economics, Systems Analysis, Mathematics and Physics. We can emphasize its importance for such studies in interdisciplinary areas, such as: Econophysics, which relate elements of Economics and Physics in the study of markets and financial systems. Statistical mechanics is one of the main tools for modeling these financial systems, more precisely the price dynamics. To understand such facts, the Itô stochastic differential equations were used, with additive white noise as a mathematical model for the price dynamics of the financial market. Mathematical methods of Statistical Physics have been applied in the description of economic systems to time series to investigate the behavior of financial markets at different scales. Among the tools used for this, are measures of central dispersion, probability distribution, stochastic dynamics, and methods to estimate the correlations. Financial instruments such as assets, options and stock exchange indices fluctuate over time, so they can be modeled by stochastic processes. In this way this thesis intends to verify if a stochastic differential equation (interfered by white and non-white noise) attend a stylized fact of the market. More specifically, if the heavy tail of the distribution of absolute returns generated by the proposed equation follows an empirical power law. Furthermore, we estimate the Hurst exponent through R/S Analysis and DFA to verify the long-range dependence, or long memory of the obtained time series. As the noise term that composes the equation is non-differentiable, we introduce the stochastic calculus to analytically obtain its solution.

14
  • BRUNO ZANOTELLI FELIPPE
  • UMA NOVA ABORDAGEM PARA A REGULARIZAÇÃO IMPLÍCITA RESTRITA NO CÁLCULO DE INTEGRAIS DE FEYNMAN DIVERGENTES

  • Orientador : ANTONIO PAULO BAETA SCARPELLI
  • MEMBROS DA BANCA :
  • MARCOS DONIZETE RODRIGUES SAMPAIO
  • ALEXANDRE RODRIGUES VIEIRA
  • ANTONIO PAULO BAETA SCARPELLI
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE LUIZ ACEBAL FERNANDES
  • LUIS ALBERTO D AFONSECA
  • Data: 04/12/2023
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os cálculos perturbativos em Teoria Quântica de Campos podem ser representados, de forma gráfica, em termos dos diagramas de Feynman. Os cálculos das amplitudes representadas pelos diagramas de Feynman além do nível árvore envolvem, muitas vezes, integrais divergentes . Essas integrais necessitam um tratamento conhecido como regularização, a fim de que o conteúdo físico da amplitude seja dela extraído. Uma das mais poderosas técnicas, a Regularização Dimensional, envolve extensões dimensionais do espaço-tempo. Contudo, há modelos que envolvem objetos matemáticos cuja extensão dimensional é ambígua ou mal definida. Uma técnica, chamada Regularização Implícita, mostrou-se apropriada para o tratamento de modelos cuja extensão dimensional não é bem definida. O método permite que os cálculos sejam realizados na própria dimensão da teoria e prescreve regras simples para a preservação das simetrias dos modelos. No entanto, para uma única integral de Feynman, a expansão para separar as divergências pode gerar um grande conjunto de integrais finitas, no caso de altos graus de divergência. Além disso, as expansões geram altas potências de momentos no numerador e denominador, o que resulta em cálculos longos e trabalhosos. Desenvolvemos, nesse trabalho, um novo procedimento para aplicação da Regularização Implícita Restrita que simplifica o cálculo de amplitudes, incluindo as partes finitas.


  • Mostrar Abstract
  • The perturbative calculations in Quantum Field Theory can be represented, graphically, in terms of Feynman diagrams. The calculations of amplitudes represented by Feynman diagrams involve integrals, often divergent beyond tree level. These integrals require a treatment known as regularization, in order to extract the physical content of the amplitude. One of the most powerful techniques, Dimensional Regularization, involve dimensional extensions of space-time. However, there are models that involve mathematical objects whose the dimensional extension is ambiguous or ill-defined. A technique, called Implicit Regularization, proved to be appropriate for the treatment of models whose dimensional extension is not well defined. The method allows the calculations to be performed in the own theory dimension and prescribes simple rules for the preservation of the symmetries of the models. However, for a single Feynman integral, the expansion to separate divergences can generate a large set of finite integrals in the case of high degrees of divergence. In addition, expansions generate high powers of momenta in the numerator and denominator, which results in long and labor-intensive calculations. In this thesis, we developed a new procedure for the application of Constrained Implicit Regularization that simplifies the calculation of amplitudes, including finite parts.

2022
Dissertações
1
  • FERNANDA PEREIRA DOS SANTOS RODRIGUES
  • Uma Abordagem Fuzzy Evolutiva com Aprendizagem Participativa e Funções Gaussiana Multivariável

  • Orientador : ALISSON MARQUES DA SILVA
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • ANDRE PAIM LEMOS
  • ELISANGELA MARTINS DE SA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • Data: 15/02/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho propõe uma abordagem fuzzy evolutiva construída sob um algoritmo de agrupamento recursivo não supervisionado com aprendizagem participativa e funções de pertinência Gaussiana multivariável. A partir dessa abordagem, são introduzidos quatro modelos que se diferenciam pelo método de atualização dos parâmetros do consequente das regras fuzzy e são denominados  eFLS (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Weighted Recursive Least Squares), eFMI (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Multi-Innovations Recursive Weighted Least Squares), eFCE (evolving Fuzzy with  Multivariable Gaussian Participatory Learning and Recursive Maximum Correntropy) e eFTLS (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Recursive Weighted Total Least Squares). Na abordagem proposta, os grupos são criados usando uma medida de compatibilidade e um mecanismo de alerta. A medida de compatibilidade é calculada pela distância Euclidiana ou Mahalanobis de acordo com o número de amostras do grupo. O método de exclusão de grupos combina idade e população para excluir grupos inativos. Os grupos redundantes são mesclados se houver uma sobreposição notável entre dois grupos. Os parâmetros do consequente são atualizados por um algoritmo recursivo de mínimos quadrados ponderados, mínimos quadrados ponderados com multi-inovações, máxima correntropia ou mínimos quadrados totais ponderados. O desempenho dos modelos é avaliado e comparado com modelos alternativos do estado da arte na previsão de séries temporais e na identificação de sistemas não lineares. Os experimentos computacionais e as comparações sugerem que os modelos propostos possuem um desempenho comparável ou superior ao dos modelos alternativos.

  • Mostrar Abstract
  • This work introduces an evolving fuzzy approach constructed based on a non-supervised recursive clustering algorithm with participatory learning and multivariate Gaussian membership functions. From this approach, four models are introduced, called eFLS (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Weighted Recursive Least Squares), eFMI (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Multi-Innovations Recursive Weighted Least Squares), eFCE (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Recursive Maximum Correntropy) and eFTLS (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Recursive Weighted Total Least Squares). In the proposed approach, clusters are created using a compatibility measure and an alert mechanism. The compatibility measure is computed by Euclidian or Mahalanobis distance according to the number of samples in the cluster. Inactive clusters are excluded by an age and population based-method. Redundant clusters are merged whenever is a noticeable overlap between two clusters. The consequent parameters are updated by a recursive algorithm of Weighted Least Squares, Multi-Innovations Weighted Least Squares, Maximum Correntropy, or Weighted Total Least Squares. Finally, the performance of the models is evaluated and compared with alternative state-of-the-art models in time series forecasting and non-linear system identification problems. Computational experiments and comparisons suggest that the proposed models have superior or comparable performance to alternative models.

2
  • RAULIVAN RODRIGO DA SILVA
  • COLETA E TRATAMENTO DE DADOS SOBRE A PRODUÇÃO TÉCNICA BRASILEIRA: UM ESTUDO BASEADO EM PATENTES

  • Orientador : THIAGO MAGELA RODRIGUES DIAS
  • MEMBROS DA BANCA :
  • THIAGO MAGELA RODRIGUES DIAS
  • ALISSON MARQUES DA SILVA
  • Jesús Pascual Mena Chalco
  • WASHINGTON LUIS RIBEIRO DE CARVALHO SEGUNDO
  • Data: 17/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho busca contribuir com a compreensão do cenário tecnológico nacional, tendo como principal objetivo apresentar uma visão geral da produção técnica brasileira fundamentada na coleta e análise de patentes depositadas no Instituto Nacional da Propriedade Industrial (INPI) e disponibilizadas no repositório internacional de patentes, Espacenet. Inicialmente, é apresentado um conjunto de estratégias que propiciou a coleta, tratamento e organização dos dados contidos em documentos de patentes, processo este, que viabilizou a construção de uma base de dados local, flexível e ampla, composta por dados provenientes do INPI e Espacenet. Para agregar mais valor à base de dados, foram também coletados registros da base curricular da Plataforma Lattes do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A fim verificar a representatividade das patentes registradas nos currículos da plataforma e sua validação junto aos dados coletados na Espacenet. Os dados coletados foram analisados e os resultados são apresentados sob diversas perspectivas, por meio de técnicas de bibliometria, patentometria, mineração de textos e algoritmos de processamento de linguagem natural, foram levantados indicadores quantitativos que caracterizam a produção técnica brasileira, tais como, evolução temporal, áreas do conhecimento que mais depositam patentes de acordo com as classificações obtidas, maiores depositantes, instituições de ensino superior que mais depositam patentes, entre outras. Consequentemente, foi possível salientar que estudar os diversos aspectos da evolução tecnológica com base em informações oriundas de documentos de patentes, além de ser relevante, possibilita compreender tendências tecnológicas e identificar especialistas em determinadas áreas do conhecimento. Além disso, gera uma formulação de políticas e estratégias que potencialize um diferencial competitivo para empresas e organizações atuantes no ramo da inovação e tecnologia. Ademais, destaca-se o grande esforço despendido para análise de um grande volume de dados de patentes, que corrobora com a proposição de uma base de dados local


  • Mostrar Abstract
  • The main objective of this work is to present an overview of Brazilian technical production based on the analysis of patents registered at the National Institute of Industrial Property (INPI), as well as international repositories such as Espacenet. Initially, using the curricular base of the Lattes Platform of the National Council for Scientific and Technological Development (CNPq), this study seeks to carry out an analysis of patents registered in the curricula of Brazilian researchers and their validation with the Espacenet repository, in order to verify the validity of the data, as well as obtaining a set of additional information about the recovered patents. For an analysis that extrapolates the data extracted from the résumés, complementary information will be extracted from the patents identified in the résumés through the collection of information in the INPI repository and also in the Espacenet repository, the latter being an international repository of patent registrations of recognized relevance . In order to identify innovation networks and the formation of invisible schools resulting from collaboration between researchers throughout the national territory, this analysis will be carried out using data extraction tools, text mining, graph construction, as well as algorithms of natural language processing. Subsequently, patterns will be explored and data quantification will be explored, as well as an evaluation of the formed collaboration networks, with an emphasis on individuals and institutions.

3
  • FELIPE DUARTE DOS REIS
  • EFEITO DA HIBRIDIZAÇÃO DINÂMICA DE META-HEURÍSTICAS EM UM SISTEMA MULTIAGENTES DISTRIBUÍDO E ESCALÁVEL

  • Orientador : HENRIQUE ELIAS BORGES
  • MEMBROS DA BANCA :
  • BRUNO ANDRE SANTOS
  • ELIZABETH FIALHO WANNER
  • HENRIQUE ELIAS BORGES
  • ROGERIO MARTINS GOMES
  • Data: 25/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Metaheurísticas híbridas reportam uma melhora significativa comparadas com as respectivas implementações clássicas. Apesar da técnica de hibridização de metaheurísticas ser promissora, ainda assim é possível encontrar problemas técnicos e fundamentalmente teóricos. As principais dificuldades técnicas são a necessidade do conhecimento do problema, e uma vez desenvolvida, é necessário calibrar os parâmetros numéricos do algoritmo. Uma alternativa ao desenvolvimento de novas meta-heurísticas, ou a hibridização manual delas, é utilizar os mecanismos de colaboração e comunicação próprios da modelagem de sistemas multi-agentes (MMAS) para promover uma hibridização dinâmica de diferentes estratégias de busca. A arquitetura D-Optimas é um MMAS baseado no modelo de atores, onde cada agente encapsula uma meta-heurística diferente e, dotado de um mecanismo de aprendizagem colabora com os demais agentes para encontrar a melhor solução para um problema de otimização. Os agentes interagem no espaço de busca que é dividido em regiões, que possuem um comportamento independente, podendo receber novas soluções, se particionar ou se fundir. O presente trabalho evoluiu a arquitetura D-Optimas comparada a sua última versão, adicionando mais algoritmos de otimização, atualizando a implementação para a biblioteca akka-cluster e simplificando a sua execução em um cluster. Este trabalho avaliou experimentalmente tanto a escalabilidade quanto o efeito da diversidade na qualidade das soluções. A arquitetura se mostrou escalável em um cluster de até seis nós, mantendo o número de agentes. A diversidade não se mostrou um fator relevante em todos os casos estudados.


  • Mostrar Abstract
  • Solving complex optimization problems using meta-heuristics and their combinations are, in general, a hard approach, since a great knowledge of the problem often is necessary. An alternative to the development of new algorithms, or their manual hybridization, is to use the collaboration and communication mechanisms inherent in the modeling of multi-agent systems (MMAS). The D-Optimas architecture is an MMAS based on the actor model, where each agent encapsulates a different meta-heuristic, and with a learning mechanism they are allowed to collaborate in finding the best solution to an optimization problem. The agents interact in the search space that is divided into regions, which have an independent behavior, being able to receive new solutions, spliting into three new regions or merge with another one. However, the execution of the D-Optimas is limited to a small number of nodes in a cluster. Extending it, allowing its execution in a cluster with an unfixed number of nodes is essential for solving large-scale problems and extracting reliable data to analyze the architecture’s performance. Therefore, this work aims to consolidate the D-Optimas architecture from the point of view of a distributed system, fault tolerant, with load balancing and location transparency, making it resilient and horizontally scalable. The results obtained by this research so far shows that the architecture scales efficiently in a cluster with up to six nodes without losing performance. It is expected, with the continuation of this work, to study the dynamic hybridization of architecture with a wide variety of agents.

4
  • ALESSANDRA ANGELITA CARNEIRO ALVES
  • MODELO MATEMÁTICO PARA POPULAÇÕES DE AEDES SPP. COM OVIPOSIÇÃO EM AMBIENTES AQUÁTICOS E SECOS

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • MEMBROS DA BANCA :
  • JOSE LUIZ ACEBAL FERNANDES
  • ELIZABETH FIALHO WANNER
  • LUIS ALBERTO D AFONSECA
  • ANA PAULA PINTADO WYSE
  • Lillia dos Santos Barsante Silva
  • Data: 28/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os mosquitos Aedes aegypti e Aedes albopictus são os principais vetores transmissores de arboviroses como dengue, zika, febre de chikungunya e febre amarela no mundo, sendo responsáveis pela infecção de milhões de pessoas anualmente. A faixa de maior incidência global destes vetores concentra-se nas regiões tropicais e subtropicais devido ao favorecimento do desenvolvimento do vetor consequente do clima destas regiões. Variáveis meteorológicas como a precipitação e a temperatura, exercem uma influência considerável nos estágios de desenvolvimento do vetor, afetando a produtividade dos criadouros disponíveis para a postura de ovos, modulando a proliferação do vetor e gerando um padrão sazonal positivamente correlacionado com a incidência de arboviroses. Modelos matemáticos relacionados a variáveis meteorológicas têm sido amplamente desenvolvidos com o intuito de auxiliar no controle do mosquito. A oviposição do Aedes spp. pode se dar em ambientes aquáticos e secos, fator que é capaz de influenciar o padrão sazonal da população do vetor. Neste trabalho, um estudo teórico-numérico de um modelo matemático compartimental entomológico, composto por três equações diferenciais não lineares que representam a dinâmica das populações de ovos em ambientes aquáticos e secos, e da população de fêmeas, cujos parâmetros possuem dependência da temperatura e pluviosidade será realizado a fim de descrever a evolução temporal do ciclo de vida do mosquito. A validação do modelo ocorreu por comparação com dados experimentais de capturas de fêmeas Aedes obtidos pelo monitoramento entomológico das cidades de Caratinga, Lavras e Sete Lagoas, Minas Gerais, Brasil. Verificou-se que o modelo com oviposição em ambientes aquáticos e secos oferece ganho na descrição do ciclo de vida do mosquito com o acréscimo de variáveis meteorológicas nas três cidades em estudo e apresenta potencial para auxiliar no monitoramento e controle do vetor.


  • Mostrar Abstract
  • Aedes aegypti and Aedes albopictus are the main vectors of arbovirus infections such as dengue (DENV), zika (ZIKV), chikungunya fever (CHIKV) and yellow fever (YFV) in the world, being responsible by the infection of millions of people annually. The range of the highest global incidence of these vectors is concentrated in tropical and subtropical regions due to the climate of these regions favoring the development of mosquitoes. Rainfall has a considerable influence on the development of Aedes, with increasing rainfall, the number of breeding sites available for egg laying increases, causing a positive correlation with the incidence of arboviruses. Mathematical models related to meteorological variables have been widely developed in order to assist in the control of the vector. The oviposition of Aedes spp. it can occur in wet and dry environments and this factor is able to modulate the population influencing its seasonal pattern by the female and the seasonal pattern of the vector population. In this work a theoretical-numerical study of the model will be carried out in order to reproduce the dependence of the entomological parameters of the mosquito’s life cycle with the accumulated weekly rainfall of certain Brazilian regions. An entomological compartmental mathematical model composed of three nonlinear differential equations representing the dynamics of egg populations in dry and wet environments, and the female population under the effect of accumulated weekly rainfall variables, was proposed and analyzed. The model was validated by comparison with experimental catch data obtained by entomological monitoring in the city of Caratinga, Lavras and Sete Lagoas (Minas Gerais, Brazil). It was found that the model describes the mosquito’s life cycle and is able to assist in the monitoring and control of Aedes.

5
  • TALITA GOMES SILVA
  • TRANSFERÊNCIA DE EMARANHAMENTO EM UMA CADEIA DE QUBITS, DO TIPO ESCADA, EM PRESENÇA DE DESORDEM CONTROLADA UTILIZANDO SEQUÊNCIAS CAÓTICAS

  • Orientador : GIANCARLO QUEIROZ PELLEGRINO
  • MEMBROS DA BANCA :
  • GIANCARLO QUEIROZ PELLEGRINO
  • JOSE GERALDO PEIXOTO DE FARIA
  • WESLLEY FLORENTINO DE OLIVEIRA
  • Data: 30/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho consiste no estudo da transferência de emaranhamento em um arranjo no qual duas cadeias de átomos de spin 1/2 interagem configurando uma escada com interações em cada perna e entre as pernas descrito por um hamiltoniano, onde os potenciais locais e as taxas de acoplamento estão desordenadas e possuem duas representações, uma por sequências randômicas e outra por sequências caóticas. O estudo propõe ultilizar sequências com desordens controladas entre -W e W e sequências binárias geradas a partir dessas sequências caóticas. Foram gerados gráficos para a caracterização dos espectros e autovetores de energia. Posteriormente foi desenvolvido o estudo da evolução temporal a partir da transmissão de emaranhamento realizada por um estado inicial do tipo estado de Bell até a ponta final da cadeia.

  • Mostrar Abstract
  • **

6
  • LUIS FERNANDO LINHARES
  • Sistemas Fuzzy Evolutivos na Previsão e na Classificação da Demanda de Passageiros de Táxi

  • Orientador : ALISSON MARQUES DA SILVA
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • EDUARDO HABIB BECHELANE MAIA
  • GUSTAVO CAMPOS MENEZES
  • MAGALI REZENDE GOUVEA MEIRELES
  • Data: 04/04/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Utilizar transportes privados tem se tornado uma opção viável e cada vez mais popular como alternativa para transportes urbanos. Com este crescimento, um problema antigo e recorrente torna-se mais latente, que é a relação entre demandas de passageiros e oferta de táxis. Enquanto taxistas gastam considerável tempo em busca de novos passageiros, em contrapartida, têm-se passageiros que não conseguem encontrar taxistas. Com este desequilíbrio os taxistas acabam gastando mais com combustível e desgastando o veículo devido à procura excessiva por passageiros e passageiros acabam não conseguindo táxis, ocasionando assim uma descrença na disponibilidade do serviço prestado. Este problema sugere a criação e a utilização de técnicas que possibilitem diminuir a lacuna entre a procura de passageiros por táxis e o contingente efetivo de veículos necessários para suprir essa demanda. Neste contexto, este trabalho apresenta uma nova abordagem para realizar a previsão e a classificação da demanda de passageiros de táxi. A abordagem proposta utiliza dados históricos de corridas de táxis e dados meteorológicos. O método de Kruskal-Wallis é empregado para identificar as variáveis mais relevantes e um sistema fuzzy evolutivo para realizar a previsão/classificação da demanda. Neste trabalho, são avaliados três sistemas evolutivos: Autonomous Learning Multi-Model (ALMMo); evolving Gaussian Multivariable Fuzzy System (eMG) e; evolving Neo-Fuzzy Neuron (eNFN). Experimentos computacionais foram realizados para comparar o desempenho da abordagem proposta. Os resultados experimentais indicam que a abordagem proposta obteve resultados comparáveis ou superiores ao estado da arte. O desempenho obtido sugere, portanto, que a abordagem proposta é promissora como alternativa para a previsão e classificação da demanda de passageiros.

  • Mostrar Abstract
  • Private transport has become a viable and increasingly popular option as an alternative to urban transport. With this growth, an old and recurrent problem emerges, that is the relationship between passenger demand and taxi supply. While taxi drivers spend considerable time looking for new passengers, on the other hand, some passengers cannot find taxi drivers. With this imbalance, taxi drivers pay more on fuel and depreciate the vehicle due to the excessive demand for passengers. Passengers end up not picking up taxis, causing disbelief in the availability of the service provided. This problem suggests the creation of techniques that make it possible to reduce the gap between the demand of passengers for taxis and the effective contingent of vehicles needed to meet this demand. In this context, this work presents a new approach to taxi demand prediction. The proposed approach uses historical data from taxi rides and weather data. The Kruskal-Wallis method identifies the most relevant variables, and an evolving fuzzy system is used for demand prediction. In this work, to perform the prediction, three evolving systems are evaluated: Autonomous Learning Multi-Model (ALMMo); Multivariable Gaussian Evolving Fuzzy Modeling System (eMG), and; evolving Neo-Fuzzy Neuron (eNFN). Computational experiments were conducted to compare the performance of the proposed approach. The results showed that the proposed approach achieved better or comparable results related to other published works, suggesting, therefore, promising applicability of this alternative as a solution to the problem of passenger supply and demand.

7
  • ARIANE HÉLIDA CRUZ LIMA
  • Plataforma de Inspeção Visual para Classificação de Avarias em Grãos de Milho na Pós Colheita Baseada em Visão Computacional e Aprendizado De Máquina

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • FLAVIO LUIS CARDEAL PADUA
  • MARCO AURÉLIO GUERRA PIMENTEL
  • MARCO TULIO ALVES NOLASCO RODRIGUES
  • NATALIA COSSE BATISTA
  • Data: 08/08/2022
  • Mostrar Resumo
  • Os grãos são fundamentais para a alimentação humana, bem como para outros tipos de negócios, como na produção de biocombustíveis e ração animal. Um dos tipos de grãos mais comercializados no mundo são os grãos de milho e dentre as etapas para venda e compra de safras, existe uma etapa de suma importância que é a de classificação de qualidade. Atualmente esse processo é realizado manualmente por classificadores humanos, o que gera uma demora na análise e uma falta de padronização devido à subjetividade. Com o objetivo de contribuir para a redução dos problemas no processo de classificação de grãos, este trabalho propõe uma solução tecnológica utilizando técnicas de Visão Computacional e Aprendizagem de Máquina nomeada como GrainTech, para identificar grãos normais e 2 tipos de avarias sendo elas: fermentado e carunchado. O método sinteticamente consiste em um sistema de aquisição de imagens, algoritmos de segmentação e de classificação. O protótipo para aquisição das imagens foi pensado e gerado para controlar a iluminação, o efeito de sombras e reflexos e também para realizar uma distinção suficiente entre os grãos e o fundo. Consiste em uma caixa retangular com duas lâmpadas halógenas nos dois menores lados, uma abertura em cima para posicionar o dispositivo de captura, um plástico fosco, para dissipar as sombras e um background na cor azul. Durante o desenvolvimento do trabalho foram desenvolvidas duas versões do GrainTech. Na versão 1.0, a etapa de segmentação dos grãos grudados é feita utilizando métodos de visão computacional e na etapa de classificação é usado uma rede neural convolucional, VGG-16, para obter as classes de cada grão. Já a versão 2.0, foi feita visando aprimorar o GrainTech, sanando alguns problemas que a versão 1.0 possuía. No caso da segunda versão, uma mesma rede neural convolucional, Mask R-CNN, foi usada no processo de segmentação e no de classificação. Durante o trabalho, também foi desenvolvido um aplicativo mobile para facilitar a interação do usuário com o GrainTech. As versões do método foram testadas utilizando um dataset específico de teste, e ao final do experimento a versão 2.0 alcançou melhores resultados em comparação com a 1.0, tendo uma taxa de assertividade na segmentação de 99,89% e uma acurácia de classificação 99,15%. Ao realizar uma busca na literatura sobre métodos que possuem alguma similaridade com o GrainTech, a maioria dos métodos somente analisa se é grão é saudável ou não, diferentemente do GrainTech que também informa o tipo de avaria presente. Foram encontrados somente 3 métodos que classificam os tipos de avaria, porém analisando os resultados disponíveis verifica-se que o GrainTech teve melhores resultados, mostrando que o método proposto pode ser considerado um avanço neste estado da arte.


  • Mostrar Abstract
  • **

8
  • FERNANDA SILVA COIMBRA
  • RECUPERAÇÃO E ANÁLISE DE ARTIGOS PUBLICADOS EM EVENTOS CIENTÍFICOS

  • Orientador : THIAGO MAGELA RODRIGUES DIAS
  • MEMBROS DA BANCA :
  • RONALDO FERREIRA DE ARAÚJO
  • EMERSON DE SOUSA COSTA
  • GUSTAVO CAMPOS MENEZES
  • THIAGO MAGELA RODRIGUES DIAS
  • Data: 26/08/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A produção científica apresentou um crescimento significativo nos últimos tempos. Atualmente, são inúmeras as formas de propagar o conhecimento cientifico. Logo, os eventos científicos surgem como um dos principais meios de divulgação de resultados de pesquisas em diversas áreas do conhecimento e têm como objetivo disponibilizar informações e conhecimento científico para um grupo de pessoas. E ainda, publicar os resultados das pesquisas em formato de anais dos eventos. Trata-se de um compilado de todos os artigos apresentados em um evento específico. Porém, visando a integração de anais de eventos distintos, esta tarefa não é trivial, tendo em vista que cada evento possui suas publicações em repositórios específicos e formatos diversos. Neste contexto, integrar e analisar os artigos gerados a partir dos eventos se torna uma tarefa complexa. O trabalho em questão, visa traçar características dos eventos científicos e dos seus artigos publicados, utilizando os dados extraídos dos currículos cadastrados na Plataforma Lattes. Após a coleta dos dados curriculares da Plataforma Lattes em janeiro de 2021, foram realizadas etapas de seleção, tratamento, curadoria dos dados; caracterizando um conjunto de 360.888 currículos dos indivíduos com doutorado concluído e 11.416.655 artigos publicados em anais de eventos. De forma a tornar possível os resultados apresentados, várias análises foram realizadas a fim de retratar e detalhar características dos eventos científicos, dos artigos publicados e dos autores. Os resultados apresentados servirão de base para diversos outros estudos que visam compreender o desenvolvimento da ciência brasileira a partir de eventos científicos.


  • Mostrar Abstract
  • Scientific production has shown significant growth in recent times. Currently, there are numerous ways to propagate scientific knowledge. Therefore, scientific events emerge as one of the main means of disseminating research results in several areas of knowledge and aim to make information and scientific knowledge available to a group of people. And yet, publish the results of research in the format of annals of the events. This is a compilation of all the articles presented at a specific event. However, aiming at the integration of proceedings of different events, this task is not trivial, considering that each event has its publications in specific repositories and in different formats. In this context, integrating and analyzing the articles generated from the events becomes a complex task. The work in question aims to trace characteristics of scientific events and their published articles, using data extracted from the curricula registered on the Lattes Platform. After the collection of curricular data from the Lattes Platform in January 2021, steps of selection, treatment, curation of the data were carried out; featuring a set of 360,888 curricula of individuals with completed doctorates and 11,416,655 articles published in annals of events. In order to make the presented results possible, several analyzes were carried out in order to portray and detail the characteristics of scientific events, published articles and authors. The results presented will serve as a basis for several other studies that aim to understand the development of Brazilian science based on scientific events

9
  • DIEGO ASCANIO SANTOS
  • Análise da correlação entre sentimentos e avaliações de qualidade sobre diálogos entre chatbots e seus usuários

  • Orientador : GUSTAVO CAMPOS MENEZES
  • MEMBROS DA BANCA :
  • DANIEL HASAN DALIP
  • GUSTAVO CAMPOS MENEZES
  • LIVIA MARIA DUTRA
  • MICHELE AMARAL BRANDÃO
  • THIAGO MAGELA RODRIGUES DIAS
  • Data: 30/11/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Chatbots que apresentam boa qualidade conseguem corresponder às expectativas de seu funcionamento e desta forma, aumentar a retenção, engajamento e satisfação de seus utilizadores. A opinião dos usuários — manifestada através de questionários — é utilizada para mensurar a qualidade destes agentes conversacionais, mas, apesar de ter utilização extensa em contextos comerciais e acadêmicos, possui limitações como métrica de qualidade tais quais: ser sucetível a viéses e displicências, bem como, não poder ser aferida em tempo real. Considerando o conceito de sentimento como um ponto de vista ou opinião que uma pessoa sustenta em relação a um determinado assunto, é possível examinar este conceito como uma métrica candidata de qualidade de chatbots, pois, o sentimento contém informações implícitas que, apesar de sucetíveis a viéses, mitigam displicências existentes nas opiniões manifestadas pelos usuários e por fim, pode ser inferido em tempo real através de algoritmos (ou procedimentos manuais) de análise de sentimento. Desta forma, a partir de referências que exploram o uso do sentimento para realizar inferências e apromixações da qualidade de chatbots — por ferramentas estatísticas de correlação — são realizados experimentos basedos nestas referências sobre o corpo de diálogos (entre humanos e chatbots) ConvAI, que contém conversas avaliadas em escalas Likert pelas opiniões dos usuários, em que os sentimentos das conversas não foram correlacionados com as avaliações emitidas por seus partícipes humanos. Por fim, os experimentos realizados sobre o ConvAI atestam — neste contexto — que o sentimento pode ser usado como um indicativo de qualidade de chatbots.


  • Mostrar Abstract
  • Chatbots with good quality are able to maintain service expectations and therefore, increase users’ retention, engagement, and satisfaction. Users’ opinion — available through surveys — is considered to measure chatbots’ quality, but, even if widely considered by academy and industry, it has several limitations such as: being subject to biases and careless evaluations from users, as well, the impossibility to being measured in real-time. To address these limitations, there are quality attributes that can mitigate them. Textual sentiment is one of those attributes, since textual sentiment is correlated to chatbots’ dialogs quality and can be measured in real-time. Therefore, through literature references that investigate the correlation between textual sentiment and chatbots’ quality, this work replicates correlation experiments over a specific dialogue corpora mentioned by one of the references, whose correlation results between sentiment and dialog quality weren’t shown, assuring that there is a correlation between textual sentiment and chatbots’ quality over this specific dialogue dataset.

10
  • GUILHERME VON RONDOW NASCIMENTO
  • Computational Study on the CO2 Reduction Intermediates over Cu55 Nanoclusters Doped with Cobalt

  • Orientador : BRENO RODRIGUES LAMAGHERE GALVAO
  • MEMBROS DA BANCA :
  • BRENO RODRIGUES LAMAGHERE GALVAO
  • HEITOR AVELINO DE ABREU
  • THIAGO GOMES DE MATTOS
  • Data: 15/12/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os principais problemas ambientais, como o efeito estufa, são decorrentes do avanço da industrialização e da exploração excessiva dos combustíveis fósseis. A queima destes combustíveis libera uma grande quantidade de CO 2 na atmosfera. Nesse contexto, a redução eletroquímica do CO 2 oferece a possibilidade de remover este poluente da atmosfera e transformá-lo em produtos químicos de forma sustentável. Assim, investigar os intermediários eletroquímicos da redução pode fornecer insights sobre os mecanismos para converter CO 2 eletroquimicamente. Neste trabalho, algumas etapas da redução eletroquímica do CO 2 é estudada usando a Teoria do Funcional Densidade (DFT), funcional PBE com correção D3 implementada no pacote de simulação Viena ab initio (VASP). Como primeiro passo, cálculos são realizados para determinar a estrutura de menor energia para um cluster de 55 átomos. Depois, um átomo de cobre foi substituído por um átomo de cobalto em diferentes posições possíveis. Para investigar as interações entre o adsorbato e os aglomerados,cálculos preliminares de triagem são realizados para fornecer uma prévia dos locais e possibilidades de adsorção. As configurações mais relevantes são posteriormente refinadas com cálculos de nível superior. Os resultados mostram que H, OH, CO e COH tendem a adsorver em sítios hollow, enquanto HCO tem preferência em sítios bridge. Quando o cluster é dopado em subsuperfície, os adsorbatos H e COH mantêm sua preferência por sítios hollow, o mesmo acontece com HCO, que se mantém em sítio bridge, enquanto OH e CO preferem adsorver em sítios de bridge e top respectivamente. Se o átomo dopante estiver presente na superfície do cluster, H, OH e COH adsorvem em sítios hollow, enquanto CO e HCO têm preferência em adsorver em sítios top e bridge, respectivamente. Cálculos empregando o modelo do eletrodo de hidrogênio foram realizados com os sistemas mais estáveis, a adsorção do CO é favorável, entretanto a formação do COH e HCO requerem mais energia, resultados mostram também que a dopagem apresenta maiores diferenças quando a mesma é feita na superfície do cluster.


  • Mostrar Abstract
  • **

Teses
1
  • Daniel de Oliveira Capanema
  • ANÁLISE DE FATORES QUE IMPACTAM NO FUTEBOL BASEADA EM CIÊNCIA DE DADOS

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • FLAVIO LUIS CARDEAL PADUA
  • ELIZABETH FIALHO WANNER
  • PAULO ROBERTO PEREIRA SANTIAGO
  • JOÃO GUSTAVO CLAUDINO
  • ADRIANO LIMA ALVES
  • Data: 27/02/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esportes profissionais e de alto desempenho estão cada vez mais utilizando novas tecnologias para obter melhores resultados em treinamentos e competições. Estudos para prevenir lesões e melhorar o desempenho têm sido aplicados e bons resultados já foram alcançados. Para atingir os objetivos, técnicas de inteligência artificial são aplicadas aos dados para encontrar padrões, prever tendências, melhorar resultados, táticas, equipamentos e outros. Este trabalho analisa dados reais de clubes da primeira divisão do futebol brasileiro, aplicando métodos de inteligência artificial para classificar jogadores, encontrar padrões ou características que influenciam nos resultados e definir jogadores que terão melhor desempenho entre os dois tempos de jogo. Jogadores foram classificados e comparações foram feitas em grupos que possuíam ou não jogadores lesionados. Também foram realizadas análises comparativas em grupos de jogadores com melhores e piores médias de eficiência física, mostrando que jogadores com melhores médias tendem a apresentar características de treino mais parecidas com as do jogo, enquanto jogadores com piores médias apresentam números no treinamento inferiores aos dos jogos.Também foram estudadas as principais características que influenciam nos resultados dos jogos, sendo uma delas a diferença de performance entre o primeiro e o segundo tempo, considerando variáveis relacionadas à distância. O classificador XGBoost conseguiu bons resultados ao prever esta diferença de performance, com 0.95 para o Recall e 0.96 para Precision e F1-Score, além de apresentar como e quais variáveis influenciam esta diferença.O trabalho também apresenta revisões sistemáticas de inteligência artificial em esportes em equipes e individuais, trazendo informações relevantes e métricas sobre o assunto. 


  • Mostrar Abstract
  • **

2
  • AMALIA SOARES VIEIRA DE VASCONCELOS
  • Controle do mosquito Aedes aegypti utilizando modelos entomológico e epidemiológico dependentes de variáveis climáticas

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • CLÁUDIA MAZZA DIAS
  • MARIA DA CONSOLAÇÃO MAGALHÃES CUNHA
  • ALLBENS ATMAN PICARDI FARIA
  • ELIZABETH FIALHO WANNER
  • JOSE LUIZ ACEBAL FERNANDES
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 24/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As arboviroses, doenças transmitidas por insetos, são grandes desafios para os gestores de saúde pública. Dentre elas, a Organização Mundial da Saúde destaca a dengue como a responsável por 100 a 400 milhões de infecções por ano em todo o mundo. Como não há um tratamento específico para a doença e nem vacina eficiente e acessível, a melhor opção são as medidas para combater o vetor da dengue, o mosquito Aedes aegypti. A falta de conscientização da população acerca da remoção de potenciais criadouros impulsiona a busca por métodos mais efetivos de controle do vetor. Por exemplo, pode-se citar o uso de inseticidas, desde que em consonância com as regulamentações do Ministério da Saúde. Nesse sentido, é importante levar em consideração os aspectos socioeconômicos envolvidos. Por isso, este trabalho propõe o estudo da evolução das populações do Aedes aegypti por meio de simulações computacionais com o uso de controle e o respectivo custo financeiro. Para isso, dois estudos de caso distintos foram feitos. Primeiramente, considerou-se um modelo entomológico com influência da temperatura e da precipitação. Por meio de um ajuste pela raiz do erro quadrático médio, o modelo foi calibrado com dados reais de fêmeas do vetor capturas em armadilhas no município de Lavras, Minas Gerais. Validados os parâmetros do modelo, em seguida foram feitos três cenários de testes de aplicação de inseticidas utilizando a técnica de controle ótimo. Os cenários permitem a aplicação do controle durante 91 dias variando as estações do ano em que é sabido ocorrerem a maior quantidade de casos de dengue. Dessa forma, o cenário I consiste na aplicação durante os primeiros dias do verão, seguido do cenário II na primavera e, finalmente, o cenário III é uma combinação entre a primavera e o verão. Os resultados encontrados sugerem que dentre os três cenários a melhor opção a ser colocada em prática é o controle integrado realizado no cenário III. A segunda parte deste trabalho envolve a proposta de um modelo epidemiológico dependente da temperatura, precipitação e umidade e que leva em consideração as infecções sintomáticas e assintomáticas de dengue. Para calibração do modelo, foram usados os dados reais de humanos infectados sintomáticos nos anos mais epidêmicos do município de Belo Horizonte, Minas Gerais. Uma vez ajustados os parâmetros, foi mostrado que as ações de controle já realizadas no município não são suficientes para garantir que o limiar de infestação seja pequeno o bastante para evitar uma epidemia. Assim, foi apresentada uma proposta de controle adicional com o uso de larvicida e adulticida e também o uso bloqueio de transmissão, realizado quando há um número considerável de casos de dengue. A principal contribuição do trabalho é o estudo do custo financeiro real que as ações de combate ao vetor demandam versus o custo hospitalar por infectado confirmado. Assim, via otimização mono-objetivo e multiobjetivo os resultados foram discutidos, concluindo que quantidades discretas de controle adicional já são suficientes para reduzir o custo financeiro que seria necessário para tratamento hospitalar. Sobretudo, o trabalho é de grande valia para auxiliar os gestores de saúde a promover a redução de humanos infectados por dengue.


  • Mostrar Abstract
  • **

3
  • RENAN SANTOS MENDES
  • Redução de Dimensionalidade Online para Problema de Roteamento de Veículos com Transporte Reativo a Demanda

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • CAROLINA GIL MARCELINO
  • ELIZABETH FIALHO WANNER
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • GUSTAVO CAMPOS MENEZES
  • IVAN REINALDO MENEGHINI
  • JOAO FERNANDO MACHRY SARUBBI
  • Data: 28/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho é abordada uma formulação com muitos objetivos para o Problema de Roteamento de Veículos com Transporte Reativo a Demanda (PRVTRD). O problema pode ser considerado como um modo de transporte semelhante ao dos serviços de transporte sob demanda com compartilhamento de corridas nos quais os passageiros são transportados da sua origem para o seu destino, compartilhando o mesmo veículo. O objetivo desse tipo de transporte é reduzir os custos de operação/deslocamento, atendendo às necessidades dos passageiros e oferecendo serviços de alta qualidade. Este trabalho propõe o uso da análise de cluster online baseada nos coeficientes de correlação de Pearson e τ de Kendall para realizar a redução de dimensionalidade a cada geração do algoritmo MOEA/D, denominado OnCLτ-MOEA/D e OnCLρ-MOEA/D. A primeira sequência de experimentos comparou as seguintes abordagens: (i) offline usando o coeficiente de correlação de Pearson; (ii) offline usando a correlação τ de Kendall; (iii) online usando o coeficiente de correlação de Pearson; (iv) online usando o coeficiente de correlação τ de Kendall; e (v) uma versão de baseline, o MOEA/D na versão original. Os algoritmos foram testados usando um conjunto de dados reais contendo distâncias e tempos de viagem para Belo Horizonte. Para avaliar a dispersão das soluções obtidas pelos algoritmos, foi aplicado o indicador de hipervolume. Os resultados destes experimentos mostraram que (i) não há diferença na formulação obtida para as abordagens offline; (ii) os algoritmos baseados em Cluster online são estatisticamente melhores do que o algoritmo baseado em Cluster offline; (iii) não é possível afirmar que há diferença estatística entre os algoritmos com redução de dimensionalidade online e o MOEA/D quando o indicador de hipervolume é usado para avaliar as soluções obtidas. Os diagramas de cordas foram aplicados sobre as soluções obtidas e indicaram que a diversidade das soluções encontradas pelo OnCLρ-MOEA/D e OnCLτ-MOEA/D também são ligeiramente distintas. A segunda sequência de experimentos realizados compara as abordagens de redução de dimensionalidade baseada em agregação online e outra baseada em seleção de atributos. A abordagem utilizando a seleção de atributos elimina os objetivos usando duas técnicas não supervisionadas de seleção de atributos: Taxa de Dispersão (DR) e Máxima Variância (MV). A seleção de atributos é usada para selecionar o representante do cluster. A frequência do impacto da redução da dimensionalidade no desempenho do algoritmo também foi analisada. As abordagens usando seleção de atributos foram acopladas ao algoritmo MOEA/D. Três algoritmos foram testados (i) cluster online usando o coeficiente de correlação Pearson juntamente com MOEA/D (OnCLρg-MOEA/D); (ii) cluster online usando o coeficiente de correlação de Pearson e a taxa de dispersão juntamente com MOEA/D (OnDRρg-MOEA/D); (iii) cluster online usando coeficiente de Pearson e Variância Máxima juntamente com MOEA/D (OnMVρg-MOEA/D), sendo g = 1,25,50,100. Os resultados destes novos testes mostraram que, independentemente da frequência da abordagem de redução de dimensionalidade e das instâncias, os algoritmos MOEA/D e OnCLρg-MOEA/D são estatisticamente superiores aos OnDRρg-MOEA/D e OnMVρgMOEA/D. Não é possível afirmar que haja diferença estatística entre os resultados dos algoritmos baseados na seleção de atributos online em termos do indicador de hipervolume. Os diagramas de cordas mostraram que há uma maior diversidade das soluções obtidas quando todas as funções objetivo são utilizadas na forma reduzida do problema e também quando os algoritmos permanecem por mais gerações em uma determinada formulação reduzida.


  • Mostrar Abstract
  • In this work, a many objective formulation for the Vehicle Routing Problem with Demand Responsive Transport (VRPDRT) is addressed. The problem can be considered as a mode of transport similar to on-demand transportation services with shared races in which passengers are transported from their origin to their destination, sharing the same vehicle. The purpose of this type of transport is to reduce operating/displacement costs, meeting the passengers needs and offering high quality services. This work proposes the use of online cluster analysis based on Pearson’s and Kendall’s τ correlation coefficients to perform the dimensionality reduction at each generation of the MOEA/D algorithm, called OnCLτMOEA/D and OnCLρ-MOEA/D. The first sequence of experiments compared the following approaches: (i) offline clustering using Pearson’s correlation coefficient; (ii) offline clustering using Kendall’s τ correlation; (iii) online clustering using the Pearson correlation coefficient; (iv) online clustering using Kendall’s correlation coefficient τ; and (v) a baseline version, the MOEA/D in the original version. The algorithms were tested using a real dataset containing distances and travel times for Belo Horizonte city. To assess the dispersion of the solutions obtained by the algorithms, the hypervolume indicator was applied. The results of these experiments showed (i) there is no difference in the formulation obtained for the offline approaches; (ii) the online cluster-based algorithms are statistically better than the offline cluster-based algorithm; (iii) it is not possible to state that there is a statistical difference between the algorithms with online dimensionality reduction and the MOEA/D when the hypervolume indicator is used to evaluate the obtained solutions. Chord diagrams were applied to the obtained solutions and indicated that the diversity of solutions obtained by OnCLρ-MOEA/D and OnCLτ-MOEA/D are also slightly different. The second sequence of experiments performed compares the dimensionality reduction approaches based on online aggregation and another based on attribute selection. The approach using feature selection eliminates the objectives using two unsupervised feature selection techniques: Dispersion Rate (DR) and Maximum Variance (MV). Feature selection is used to select the cluster representative. The frequency of impact of dimensionality reduction on algorithm performance was also analyzed. Approaches using feature selection are coupled to the MOEA/D algorithm. Three algorithms were tested (i) online cluster using Pearson correlation coefficient with MOEA/D (OnCLρg-MOEA/D); (ii) online cluster using Pearson’s correlation coefficient and dispersion rate with MOEA/D (OnDRρg-MOEA/D); (iii) online cluster using Pearson’s coefficient and Maximum Variance with MOEA/D (OnMVρg-MOEA/D), where g = 1,25,50,100. The results of these new tests showed that, regardless of the frequency of the dimensionality reduction approach and the instances, the algorithms MOEA/D and OnCLρg-MOEA/D are statistically superior to OnDRρg-MOEA/D and OnMVρg-MOEA/D. It is not possible to state that there is a statistical difference between the results of the algorithms based on the selection of attributes online in terms of the hypervolume indicator. The chord diagrams showed that there is a greater diversity of solutions obtained when all objective functions are used in the reduced form of the problem and also when the algorithms remain for more generations in a given reduced formulation.

4
  • GUSTAVO ALVES FERNANDES
  • VARIANTES DA MATHEURÍSTICA LOCAL BRANCHING PARA O PROBLEMA DE SEQUENCIAMENTO EM PROJETOS COM RESTRIÇÃO EM RECURSOS E MÚLTIPLOS MODOS DE EXECUÇÃO

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • HAROLDO GAMBINI SANTOS
  • ALEXANDRE XAVIER MARTINS
  • ELISANGELA MARTINS DE SA
  • GUSTAVO CAMPOS MENEZES
  • MAURÍCIO CARDOSO DE SOUZA
  • SERGIO RICARDO DE SOUZA
  • Data: 30/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O Problema de Sequenciamento em Projetos com Restrição em Recursos e Múltiplos Modos de Execução (Multi-mode Resource Constrained Project Scheduling Problem - MRCPSP) consiste em sequenciar todas as atividades de um projeto, respeitando a ordem de precedência dessas atividades, que, uma vez iniciadas, não podem ser interrompidas. As atividades possuem várias combinações de modos de execução, que consistem em diferentes combinações de tempo de processamento e consumo de recursos. O objetivo é minimizar o tempo de duração do projeto, encontrando tempos de início para cada atividade do projeto. Trata-se de um problema NP-Difícil. Esta tese analisa sua resolução por uma estratégia de geração de pseudo-cortes hibridizada com uma heurística de busca local, o que caracteriza em um método chamado de matheurística. A proposta apresenta duas novas definições para o pseudo-corte linear conhecido como local branching cut, bem como foram verificadas outras duas definições da literatura para a resolução do MRCPSP por meio desse pseudo-corte. Também, são analizados a influência dos parâmetros dessa matheurística e o impacto da busca local. Foram realizados testes computacionais utilizando instâncias da biblioteca PSPLIB e MMLIB. Os melhores resultados conhecidos para as instâncias usadas nos testes são apresentados como referência para validar os resultados obtidos pela abordagem proposta nesta tese.


  • Mostrar Abstract
  • **

5
  • RAFAELA PRISCILA CRUZ MOREIRA
  • Modelagem Matemática para o Problema de Elaboração de Cardápios Nutricionais

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • HELENA SIQUEIRA VASSIMON
  • ANDRE RODRIGUES DA CRUZ
  • ELIZABETH FIALHO WANNER
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • GUSTAVO CAMPOS MENEZES
  • JOAO FERNANDO MACHRY SARUBBI
  • SERGIO RICARDO DE SOUZA
  • Data: 31/03/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta tese aborda o Problema de Elaboração de Cardápios, apresentando modelos matemáticos para gerar cardápios escolares que atendam aos requisitos do Programa Nacional de Alimentação Escolar (PNAE). As duas modelagens têm como função objetivo minimizar o custo total do cardápio. Na primeira modelagem, deseja-se gerar cardápios para 5 dias e tem-se as seguintes restrições: composição; cor; consistência; variedade; limites mínimos e máximos de: carboidratos, lipídeos e proteínas e limites máximos de sódio e gordura saturada. Na segunda modelagem, deseja-se criar cardápios para 푛 dias e foram consideradas restrições relacionadas à: composição; variedade; limites nutricionais de nutrientes como: carboidratos, proteínas, lipídios, gordura saturada, sódio e açúcar adicionado; oferta mínima de: alimentos in natura ou minimamente processados, incluindo porções semanais de frutas, verduras e legumes; oferta mínima semanal de: vitamina A, alimentos com ferro heme e fontes de vitamina C quando há alimentos com ferro não-heme; limite máximo de: margarina, lácteos adoçados e produtos cárneos e por fim, combinação e rejeição de preparações. Os cardápios foram obtidos resolvendo os modelos matemáticos lineares propostos por meio de um pacote de software de programação matemática de alto desempenho (IBM CPLEX Optimizer). Os aspectos qualitativos dos cardápios obtidos foram avaliados por meio do IQ COSAN - Índice de Qualidade da Coordenação de Segurança Alimentar Nutricional. Os resultados mostraram que os cardápios, tanto da primeira modelagem, quanto da segunda estão adequados ao IQ COSAN e às recomendações do PNAE. Os custos foram adequados, tendo em conta o recurso financeiro disponibilizado para as escolas. Aspectos culturais do cardápio foram contabilizados por meio das comidas e preparações culinárias incluídas no programa. Os resultados mostraram que os cardápios gerados pelos modelos são viáveis e adequados quantitativa e qualitativamente para a elaboração de cardápio escolar. Esse estudo viabiliza e contribui para o cenário pandêmico de obesidade mundial, apresentando cardápios que introduzem hábitos alimentares saudáveis, bem como auxiliando o profissional responsável por elaborá-los.

  • Mostrar Abstract
  • This thesis addresses the Menu Planning Problem, presenting mathematical models to generate school menus that attending the requirements of the National Food Program School (PNAE). The two models have the function of minimizing the total cost of the menu. In the first model, we want to generate menus for 5 days and we have the following constraints: composition; color; consistency; variety; the minimum and the maximum limits of: carbohydrates, lipids and proteins, the maximum limit of sodium and saturated fat. In the second model, we want to generate menus for 푛 days and considered constraints related to: variety; the minimum and the maximum limits of: carbohydrates, proteins, lipids, sodium, saturated fat, and added sugar; minimum supply of: in natura or minimally processed foods, including weekly servings of fruits, greens and vegetables; weekly minimum offer of: vitamin A, foods with heme iron and sources of vitamin C when there are foods with non-heme iron; the maximum limit of: margarine, sweetened dairy products and meat derivatives products and finally, and combination and rejection of preparations. The menus were obtained by solving the linear mathematics models proposed through a mathematical programming software package performance (IBM CPLEX Optimizer). The qualitative aspects of the menus obtained were evaluated through the IQ COSAN - Safety Coordination Quality Index Nutritional Food. The results showed that the menus of both the first and second modeling are adequate to the IQ COSAN and to the recommendations of the PNAE. The costs were adequate, taking into account the financial resources made available to the schools. Cultural aspects of the menu were accounted for through the foods and culinary preparations included in the program. The results showed that the menus generated by the models are feasible and suitable both quantitatively and qualitatively for scholar menu planning. This study makes feasible and contributes to the pandemic scenario of obesity worldwide, presenting menus that introduce healthy eating habits, as well as helping the professional responsible for preparing them.

6
  • LARISSA LOPES LIMA
  • ABORDAGEM DE SISTEMAS COMPLEXOS APLICADA A PROBLEMAS BIOLOGICAMENTE MOTIVADOS

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ROBERTO FERNANDES SILVA ANDRADE
  • MARIA HELENA FRANCO MORAIS
  • ALLBENS ATMAN PICARDI FARIA
  • ANDREA RODRIGUES MARQUES
  • ELIZABETH FIALHO WANNER
  • THIAGO GOMES DE MATTOS
  • Data: 13/05/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O campo de estudo dos sistemas complexos está entrelaçado a muitas áreas da ciência e constitui uma abordagem promissora para o estudo de problemas biológicos. Neste trabalho, algumas ferramenta de sistemas complexos são usadas para estudar três problemas biológicos de grande preocupação atual: a pandemia de COVID-19, a ciclicidade dos surtos de dengue e o impacto das mudanças climáticas no banco de sementes de uma espécie invasora. No estudo de COVID-19, desenvolveu-se um modelo baseado em agentes para simular o espalhamento da doença e o efeito de indivíduos superespalhandores com diferentes cenários de mobilidade. Uma análise de redes foi aplicada para investigar o papel dos superespalhadores, mostrando que há indivíduos chave que interferem no processo de infecção. Ainda, foram feitas simulações para algumas capitais brasileiras usando redes, dados de mobilidade extraídos por telefones celulares e diferentes cenários de infecção. No caso do estudo de dengue, inicialmente foram aplicadas ferramentas de grafo de visibilidade e entropia para interpretar os dados de séries temporais de dengue. Além disso, introduziu-se uma ferramenta denominada Histograma de Impacto-Frequência, gerada a partir dos grafos de visibilidade, a qual mostrou resultados melhores para o estudo da ciclicidade da dengue que a abordagem utilizando entropia. Em seguida, foi adaptado um modelo baseado em agentes para investigar a dinâmica de diferentes cenários de infecção por dengue. O resultado permitiu identificar humanos e mosquitos que possuem papel essencial nas redes. Por último, foi adaptado um modelo baseado em agentes para simular a dinâmica de um banco de sementes de uma espécie invasora sob diferentes cenários de mudanças climáticas. Os resultados dos três modelos podem auxiliar na tomada de decisão em diferentes âmbitos. No caso de COVID-19 e dengue, os modelos podem ser adaptados para diferentes cenários e doenças. O modelo de espécie invasora também pode ser adaptado para outras espécies e para auxiliar no manejo dessas espécies. Assim, a abordagem de sistemas complexos permitiu alcançar resultados inéditos no tratamento e análise de problemas biologicamente motivados, como a identificação de superespalhadores no espalhamento da COVID-19, ciclicidade em surtos epidêmicos da dengue e influência das mudanças climáticas no banco de sementes de espécies invasoras. Todos os estudos abordados neste trabalho são passíveis de continuidade, seja para os mesmos problemas ou para aplicações semelhantes.


  • Mostrar Abstract
  •  The field of study of complex systems is intertwined with many areas of science, being a promising approach to the study of biological problems. In this work, we applied some complex systems tools to study three biological problems of great current concern: the COVID-19 pandemic, the cyclicality of dengue outbreaks, and the impact of climate change on an invasive species. In the COVID-19 study, we developed an agent-based model to simulate the spread of the disease and the effect of superspreaders under different mobility scenarios. A network analysis was applied to investigate the role of superspreaders. The results showed that some individuals are crucial to the infection process. Furthermore, we performed simulations for some Brazilian cities using networks, mobility data extracted by cell phones, and different infection scenarios. In the case of the dengue study, we initially applied the visibility graph technique and entropy analysis to interpret two dengue time series data. Also, a tool called impact-frequency histogram was applied. This tool is generated from the visibility graph and showed better results for dengue cycling than the approach using entropy. Then, an agent-based model was adapted to investigate the dynamics of different scenarios of dengue. The result made it possible to identify humans and mosquitoes that play an essential role in the networks. Finally, we adapted an agent-based model to simulate the seed bank dynamics of an invasive species under different climate change scenarios. The results of the three models can help in decision-making in different areas. The COVID-19 and dengue models can be adapted for other scenarios and diseases. The invasive species model can also be adapted to assist in managing these species. Thus, the complex systems approach allowed us to achieve unprecedented results in treating and analyzing biologically motivated problems, such as identifying superspreaders in the spread of COVID-19, cyclicality in dengue epidemic outbreaks, and the influence of climate change on the seed bank of invasive species. All studies discussed in this work are likely to be continued, whether for the same problems or similar applications.

7
  • SABRINA MOREIRA DE OLIVEIRA
  • DESIGN CONFIGURATION FOR MMAS ALGORITHM APPLIED FOR THE TRAVELLING SALESMAN PROBLEM WITH DYNAMIC DEMANDS

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • THOMAS STÜTZLE
  • CAROLINA GIL MARCELINO
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • LEONARDO CÉSAR TEONÁCIO BEZERRA
  • SERGIO RICARDO DE SOUZA
  • Data: 24/06/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os algoritmos Ant Colony Optimization (ACO) foram desenvolvidos originalmente para problemas de otimização estáticos, nos quais os dados referentes ao problema tratado são conhecidos \textit{a priori} e não são passíveis de mudanças durante a execução do algoritmo. Com o passar do tempo, o procedimento de  memória pertencente ao algoritmo ACO provou ser efetivo para aplicação em  problemas em que os dados são passíveis de alterações em tempo real, sem qualquer tipo de previsão, ou seja, se mostram eficientes também para serem aplicados em Problemas de Otimização Combinatória Dinâmicos (POCD). A partir de um estudo profundo das principais publicações sobre aplicação e comparação dos algoritmos ACO para POCD, diversos procedimentos de adaptação com o objetivo de aprimorar seu desempenho puderam ser encontrados na literatura, além da criação do algoritmo PACO, que foi desenvolvido especialmente para resolver POCD. De fato, PACO chamou a atenção da comunidade de pesquisa por sua habilidade de processar informações rapidamente. No entanto, os poucos estudos encontrados na literatura com o foco em analisar a efetividade dos procedimentos dos algoritmos ACO e, em especial, o algoritmo PACO, quando aplicados para a resolução de problemas dinâmicos, não foram suficientes para se alcançar conclusões sobre o estado da arte dos algoritmos ACO quando aplicados para essa nova classe de problemas. Assim, nessa pesquisa, é conduzida uma campanha extensiva de experimentos com o objetivo de estudar e avaliar as adaptações mais comuns dos principais procedimentos dos algoritmos identificados na literatura como estado da arte para resolução de problemas dinâmicos usando ACO, são eles: MMAS e PACO. Uma variação direta do problema do caixeiro viajante clássico, o problema do caixeiro viajante com demanda dinâmica (PCVDD), foi escolhido como problema teste, assim como na maioria  dos outros estudos em otimização combinatória apresentados na Literatura. Mais importante, o design de um setup de experimentos é apresentado, o que representa uma das principais contribuições para Literatura, como justificado a seguir. Primeiramente, este é o primeiro trabalho que identifica a real necessidade do uso de uma configuração de parâmetros específica para problemas de otimização combinatória dinâmica e também o primeiro trabalho a utilizar uma ferramenta de configuração automática para um algoritmo aplicado para essa classe de problemas.  A próxima contribuição desse trabalho se direciona à possibilidade do uso da técnica de hipervolume como indicador de desempenho dos algoritmos com o propósito de serem eficientes em qualquer horizonte de tempo em se tratando de problemas de otimização combinatória dinâmicos. Essa nova proposta de análise é aplicada para comparação de desempenho entre os algoritmos MMAS e PACO. Ao se comparar os dois algoritmos MMAS, foi capaz de obter melhores resultados em relação a PACO quando o procedimento de busca local é utilizado. Finalmente, experimentos são conduzidos com o objetivo de investigar componentes específicos dos algoritmos quando aplicados a problemas de otimização dinâmica  com o isolamento do procedimento de busca local. Os resultados mostraram que, de fato, quando a busca local não é permitida, esses procedimentos são de grande importância. Por outro lado, quando o uso da busca local é permitido, a melhoria em desempenho causada por esses procedimentos é insignificante, ou até mesmo, inexistente. Outro fato importante é o melhor desempenho do algoritmo MMAS em relação ao PACO com o uso de busca local e seu desempenho inferior quando a mesma não é permitida.


  • Mostrar Abstract
  • **

8
  • EMERSON EUSTÁQUIO COSTA
  • Um Método Não Linear de Tempo Real para Unit Commitment de Turbinas Hidráulicas Baseado em Decomposição Dual

  • Orientador : DOUGLAS ALEXANDRE GOMES VIEIRA
  • MEMBROS DA BANCA :
  • LEONARDO WILLER DE OLIVEIRA
  • ADRIANO CHAVES LISBOA
  • DOUGLAS ALEXANDRE GOMES VIEIRA
  • ELISANGELA MARTINS DE SA
  • GUSTAVO RODRIGUES LACERDA SILVA
  • LUCAS SIRIMARCO MOREIRA GUEDES
  • RODNEY REZENDE SALDANHA
  • Data: 18/07/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho apresenta um novo método computacional que combina resultados analíticos com heurísticas, não linear e de tempo real, para resolver o problema de unit commitment de turbinas hidráulicas. Dois teoremas mostram as propriedades da solução ótima do problema considerando curvas colina não lineares. Esses teoremas foram derivados utilizando o método de decomposição dual, gerando uma solução forma-fechada para o número de unidades geradoras e a vazão alocada para cada unidade. Esse resultado foi acoplado a uma heurística que considera a discretização do tempo (em minutos), a queda livre, a vazão turbinada de cada unidade geradora, a vazão defluente total da usina, a faixa operativa e a curva de eficiência, conhecida como curva colina, da unidade geradora, atendendo às restrições físicas e ambientais da usina para maximizar a energia gerada e, consequentemente, atender à demanda estabelecida. Testes numéricos em duas usinas, considerando os dados e parâmetros reais, são apresentados e mostram a eficácia da abordagem proposta. Foi realizada uma comparação com outra estratégia existente na literatura, e obteve-se um ganho médio de 2,5% nas usinas consideradas. O método também é comparado com uma abordagem de Programação Linear Inteira Mista (MILP), mostrando ganho de velocidade considerável (cerca de 1.500 vezes mais rápido). A formulação apresentada neste trabalho está operando em um programa comercial que atualmente é aplicado na operação de 18 usinas hidrelétricas, incluindo a usina Belo Monte, que possui 24 unidades geradoras.


  • Mostrar Abstract
  • **

9
  • CARLA LILIANE GUEDES FONSECA
  • ANÁLISE ESTATÍSTICA DA RELEVÂNCIA DE DIFERENÇAS ENTRE AS COMPONENTES DO CANDLESTICK EM ECONOFÍSICA

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • MEMBROS DA BANCA :
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • ADRIANO CESAR MACHADO PEREIRA
  • ALLBENS ATMAN PICARDI FARIA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • LUIS ALBERTO D AFONSECA
  • ADÉLCIO CARLOS DE OLIVEIRA
  • Data: 12/08/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Cotações de preços de ações são frequentemente armazenadas em séries de candlesticks, que apresentam quatro instâncias relacionadas às negociações que ocorreram em um dado intervalo de tempo: preços de abertura, máximo, mínimo e fechamento. Contudo, o trabalho de grande parte dos pesquisadores em Econofísica limita-se aos dados de abertura e fechamento, negligenciando as duas outras componentes. Nesta contribuição, fatos estilizados (stylized facts) são computados para todas as séries do candlestick, e testes estatísticos são realizados para revelar diferenças significativas. Caudas de distribuições de retornos, comportamento multifractal e expoentes de Hurst são investigados, assim como acurácias de um modelo de previsão baseado em equações diferenciais. Todas as análises são aplicadas separadamente a ativos que compõem dois índices financeiros, um pertencente a um mercado desenvolvido (o índice americano Dow Jones Industrial Average - DJIA) e outro de um mercado emergente (o índice brasileiro Ibovespa). O presente estudo compreende três diferentes experimentos. No primeiro, buscamos conhecer as variações de cada estatística quando mudamos a componente do candlestick usando dados brutos, ou seja, o conjunto de estatísticas sem tratamento. A partir de tais resultados, observou-se que as diferenças devidas à variação do ativo em geral mascaram as que buscamos explicitar, aquelas referentes à variação da componente do candlestick. Daí a necessidade de atenuar as variações existentes entre os ativos, o que foi realizado na segunda abordagem por meio de um processo de tratamento dos dados. Os resultados decorrentes dos dados tratados foram comparados aos primeiros e mostraram-se, então, mais eloquentes: algumas ferramentas revelaram diferenças entre as componentes do candlestick, ao mesmo tempo em que indicaram semelhanças entre resultados concernentes a máximo e mínimo, bem como a abertura e fechamento. Assim, no terceiro experimento, os dados de abertura e fechamento foram agrupados em um conjunto, e os de máximo e mínimo em outro, para novos testes. Essa nova forma de junção dos dados também é justificada pela naturezados mesmos. Máximo e mínimo assemelham-se quanto à origem, porque decorrem da comparação de todos os preços pelos quais o ativo passou durante um determinado intervalo de tempo, enquanto abertura e fechamento têm em comum a questão de serem definidos por apenas uma instância de negociação, a primeira, para abertura, e a última, para fechamento. Aqui, para todos os fatos estilizados investigados, explicitamos diferenças estatisticamente relevantes entre resultados provenientes de dados de máximo e mínimo, em comparação com aqueles oriundos de séries de abertura e fechamento. Tais diferenças não mudam qualitativamente os fatos estilizados analisados, mas sua observação pode ser útil na construção de estratégias de operação em mercado financeiro.


  • Mostrar Abstract
  • **

10
  • Fernando Garcia Diniz Campos Ferreira
  • Análise de integração da classificação de tendências financeiras e otimização de portfólios

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • FREDERICO GADELHA GUIMARÃES
  • ADRIANO CESAR MACHADO PEREIRA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • FELIPE DIAS PAIVA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 24/11/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A área de Finanças Computacionais é marcada por profundas mudanças nas últimas décadas provenientes do surgimento de um rápido desenvolvimento tecnológico que permitiu a incorporação de técnicas computacionais complexas para modelagem e predição dos movimentos dos preços no Mercado Financeiro. Neste cenário, este trabalho propõe um arcabouço computacional composto por diferentes modelos e técnicas de otimização de portfólios financeiros e de classificação de tendências de ativos financeiros, além de proporcionar diferentes formas de integração das duas abordagens. Assim, o arcabouço é composto por quatro modelos propostos para otimização de portfólio e um método para a solução de cada um desses modelos, além de doze algoritmos de classificação utilizando conjuntos de atributos também propostos no trabalho e, por fim, três formas de integração dos métodos de otimização e classificação são considerados. Para os métodos de otimização de portfólio, métodos exatos apresentam melhores soluções, apesar de apresentarem tempos de execução muito maiores que meta-heurísticas. Para a classificação de tendências, os resultados indicam que o Convolutional Neural Network (CNN) foi é o algoritmo que apresenta o melhor desempenho, no geral, considerando os classificadores utilizados. Simulações de investimentos mostram que negociações a uma frequência maior geram custos de transação maiores, podendo inviabilizar a utilização da metodologia proposta. Combinações de otimização de portfólios e classificações financeiras podem aproveitar as vantagens de ambas as abordagens, como mostrado pelos resultados que apresentam maiores retornos acumulados para métodos combinados. Finalmente, pode-se observar que os melhores métodos de otimização e classificação dependem muito da estratégia de operação adotada e das preferências do investidor, justificando o desenvolvimento deste arcabouço computacional proposto, composto por vários métodos.


  • Mostrar Abstract
  • **

11
  • CLAUDIO LUCIO DO VAL LOPES
  • Otimização multiobjetivo: alguns avanços em aspectos teóricos em indicadores de qualidades e frameworks para algoritmos evolucionários

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • ADRIANO CHAVES LISBOA
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • RICARDO HIROSHI CALDEIRA TAKAHASHI
  • CARLOS MANUEL MIRA DA FONSECA
  • KALYANMOY DEB
  • Data: 30/11/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Otimização multiobjetivo refere-se a problemas de otimização com três ou mais objetivos. O aumento da dimensionalidade traz algumas questões complexas, como a ineficácia da relação da dominância de Pareto, complexidade no cálculo de indicadores de qualidade, dificuldade na visualização de conjuntos de soluções, balanceamento entre convergência e diversidade em algoritmos evolucionários,  dentre alguns outros. Uma questão chave na otimização multiobjetivo é comparar e avaliar conjuntos de soluções obtidas por algoritmos de otimização. Esta não é uma tarefa simples. O resultado de algoritmos de otimização multiobjetivo é tipicamente um conjunto de soluções incomparáveis. Usar um indicador de qualidade para refletir as características internas na fronteira de Pareto requer um projeto e seleção cuidadosa de tais indicadores. Na primeira parte desta tese, tratamos de um  indicador de qualidade, o movimento de dominância (DoM). Propomos novas abordagens para calcular o DoM usando modelos de programação inteira mista e um método aproximado usando técnicas de aprendizado de máquina. Em geral, nossas tentativas viabilizam o cálculo do indicador e mostram o seu uso como uma maneira adequada de medir, comparar e avaliara problemas com muitos objetivos. Outro desafio na otimização multiobjetivo é fornecer um verdadeiro conjunto representativo com o número desejado de soluções ótimas na fronteira Pareto e adicionalmente bem distribuído. Na segunda parte deste trabalho, propomos um framework multiestágio que pode ser acoplado a algoritmos evolutivos baseados em vetores de referência. A proposta apresentada retifica deficiências dos estágios anteriores de modo que um número preestabelecido de soluções bem distribuídas e convergentes seja alcançado. Esta pesquisa analisou e avaliou sistematicamente os métodos existentes. Também os ampliou em direções inovadoras relacionadas a indicadores de qualidade e melhorias relacionadas à abordagem para balanceamento de convergência e diversidade em algoritmos evolutivos.


  • Mostrar Abstract
  • Many-Objective Optimization (MaO) refers to optimization problems having four or more objectives, the increase in objective dimensionality brings some complex issues, such as the ineffectiveness of the Pareto dominance relation, quality indicators calculation, solution sets visualization, balancing convergence and diversity, and others. A key issue in many- and multi-objective optimization is comparing and assessing solution sets obtained by optimization algorithms. This is not a simple task; the outcome of many-objective optimization algorithms is typically a set of incomparable solutions. Using a quality indicator to reflect the inner Pareto front characteristics requires careful design/selection of such indicators. In the first part of this thesis, we deal with the Dominance move (DoM) quality indicator. We propose novel approaches to calculate DoM using mixed-integer programming (MIP) models and an approximate method using machine learning techniques. In general, our attempts uses the dominance move quality indicator as a suitable way to measure, compare, and assess many-objective problems. Another challenge in MaO is to provide a true representative set with the desired number of Pareto-optimal solutions in a reliably well-distributed set. In the second part of this work, we propose a multi-stage framework involving reference-vector-based evolutionary multi- and many-objective algorithms that attempt to rectify previous stages’ shortcomings by careful executions of subsequent stages so that a prescribed number of well-distributed and well-converged solutions are achieved. The results presented in this thesis come from the attempts to address challenges in evolutionary many- and multi-objective optimization. This research has not only analyzed and systematically evaluated the existing approaches but has also extended them in innovative directions related to quality indicators and improvements in multistage approach for convergence and diversity balance in evolutionary algorithms.

12
  • ALEXANDRE FRIAS FARIA
  • Métodos Baseados em Programação Matemática para Solução do Problema da Múltipla Partição de Números Multidimensional

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • CARLOS ALEXANDRE SILVA
  • CAROLINA GIL MARCELINO
  • EDUARDO UCHOA BARBOZA
  • ELISANGELA MARTINS DE SA
  • GUSTAVO CAMPOS MENEZES
  • MARCONE JAMILSON FREITAS SOUZA
  • SERGIO RICARDO DE SOUZA
  • Data: 16/12/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta tese apresenta o estudo de técnicas baseadas em programação matemática para a solução do Problema da Múltipla Partição de Números Multidimensional. Este problema tem como objetivo distribuir os vetores de uma dada sequência em k subconjuntos não vazios e disjuntos minimizando o diâmetro dos k vetores resultantes das somas dos elementos de cada subconjunto. O principal foco do trabalho é o desenvolvimento de modelos matemáticos distintos a partir de uma família de restrições centrais. Os modelos matemáticos desenvolvidos servem de base para a aplicação de um método iterativo de solução baseado na inserção e remoção de cortes criados a partir de subproblemas restritos a uma vizinhança da solução corrente, técnica chamada de Local Branching. Os resultados descritivos e comparativos testam a validade do modelo proposto comparando-o com um modelo da literatura proposto para um caso mais particular do problema. Para casos mais gerais, os resultados certificam um melhor comportamento da formulação proposta quando combinada à técnica Local Branching.


  • Mostrar Abstract
  • **

13
  • ANDERSON MOREIRA DE VASCONCELOS
  • ALGORITMO GVNS APLICADO AO PROBLEMA DAS P-MEDIANAS CAPACITADO: ABORDAGENS DETERMINÍSTICA E ROBUSTA

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • GUSTAVO CAMPOS MENEZES
  • MARCONE JAMILSON FREITAS SOUZA
  • MARIA AMÉLIA LOPES SILVA
  • MATHEUS NOHRA HADDAD
  • SERGIO RICARDO DE SOUZA
  • Data: 20/12/2022
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho apresenta um novo método computacional que combina resultados analíticos com heurísticas, não linear e de tempo real, para resolver o problema de unit commitment de turbinas hidráulicas. Dois teoremas mostram as propriedades da solução ótima do problema considerando curvas colina não lineares. Esses teoremas foram derivados utilizando o método de decomposição dual, gerando uma solução forma-fechada para o número de unidades geradoras e a vazão alocada para cada unidade. Esse resultado foi acoplado a uma heurística que considera a discretização do tempo (em minutos), a queda livre, a vazão turbinada de cada unidade geradora, a vazão defluente total da usina, a faixa operativa e a curva de eficiência, conhecida como curva colina, da unidade geradora, atendendo às restrições físicas e ambientais da usina para maximizar a energia gerada e, consequentemente, atender à demanda estabelecida. Testes numéricos em duas usinas, considerando os dados e parâmetros reais, são apresentados e mostram a eficácia da abordagem proposta. Foi realizada uma comparação com outra estratégia existente na literatura, e obteve-se um ganho médio de 2,5% nas usinas consideradas. O método também é comparado com uma abordagem de Programação Linear Inteira Mista (MILP), mostrando ganho de velocidade considerável (cerca de 1.500 vezes mais rápido). A formulação apresentada neste trabalho está operando em um programa comercial que atualmente é aplicado na operação de 18 usinas hidrelétricas, incluindo a usina Belo Monte, que possui 24 unidades geradoras.


  • Mostrar Abstract
  • **

2021
Dissertações
1
  • MONIQUE DE OLIVEIRA SANTIAGO
  • Uma análise bibliométrica da trajetória das pesquisadoras na ciência brasileira

  • Orientador : THIAGO MAGELA RODRIGUES DIAS
  • MEMBROS DA BANCA :
  • SAMILE ANDRÉA DE SOUZA VANZ
  • ALISSON MARQUES DA SILVA
  • ELISANGELA MARTINS DE SA
  • THIAGO MAGELA RODRIGUES DIAS
  • Data: 23/02/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A temática mulheres na ciência vem sendo foco de diversos estudos que buscam entender o papel da mulher e suas variadas relações com a ciência, trazendo abordagens que analisam a participação científica e tecnológica e buscam compreender os aspectos de sua trajetória acadêmica. Neste contexto, este trabalho objetivou analisar a participação das mulheres na ciência brasileira utilizando como fonte de dados o conjunto de doutoras que possuem currículos cadastrados na Plataforma Lattes e cujo gênero registrado em seus currículos seja do sexo feminino. Após a coleta dos dados curriculares da Plataforma Lattes, foi realizada a seleção e tratamento dos dados para caracterizar o conjunto a ser analisado, obtendo um total de 125.515 currículos com gênero feminino informado e com doutorado concluído. Os dados das doutoras foram analisados sob diversos aspectos como orientações, produções bibliográficas e técnicas, áreas de atuação e formação acadêmica. Em sequência, as doutoras que possuem bolsas de produtividade em pesquisa no CNPq também foram analisadas, possibilitando verificar como ocorre a colaboração científica deste conjunto, bem como, no conjunto de todas as doutoras. Logo, destaca-se que, estudar os diversos aspectos da mulher em geral e particularmente na ciência, além de ser relevante, possibilita compreender como tem evoluído suas pesquisas, podendo contribuir para uma melhor compreensão da participação das mulheres no âmbito da ciência brasileira, bem como, para formulação de políticas e estratégias que potencialize a atuação das mulheres nos ambientes acadêmicos e científicos.


  • Mostrar Abstract
  • The theme of women in science has been the focus of several studies that seek to understand women’s role and their varied relations with science, bringing approaches that analyze scientific and technological participation and seek to understand aspects of their academic trajectory. In this context, this study aimed to analyze the participation of women in Brazilian science using as a data source the set of PhDs who have curricula registered in the Lattes Platform and whose gender registered in their curriculum is female. After the collection of curricular data from the Lattes Platform, the selection and treatment of the data was carried out to characterize the set to be analyzed, obtaining a total of 125,515 curriculum with informed female gender and completed doctorate degree. The data of the PhDs female were analyzed under several aspects such as orientations, bibliographical and technical productions, areas of expertise and academic training. In sequence, the PhDs female who have research productivity grants at CNPq were also analyzed, making it possible to verify how the scientific collaboration of this group occurs, as well as, in the group of all PhDs female. Therefore, it is highlighted that studying the various aspects of women in general and particularly in science, in addition to being relevant, makes it possible to understand how their research has evolved, and may contribute to a better understanding of the participation of women in the scope of Brazilian science, as well as as for formulating policies and strategies that enhance the performance of women in academic and scientific environments.

2
  • JORGE HENRIQUE CORRÊA MELGAÇO
  • Modelagem do mercado financeiro baseado na equação de Black-Scholes e em equações diferenciais estocásticas não lineares

  • Orientador : LEONARDO DOS SANTOS LIMA
  • MEMBROS DA BANCA :
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • LEONARDO DOS SANTOS LIMA
  • LUIS ARGEL POVEDA CALVINO
  • Data: 25/02/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho são apresentados dois modelos matemáticos baseados em uma equação diferencial estocástica de Itô, na qual foram incluídos termos não lineares, e analisou-se os efeitos dessa inclusão. Mais especificamente, verificou-se se a inclusão dos termos não lineares altera as características do modelo, enquanto candidato a modelo matemático para o comportamento da dinâmica de preços do mercado. Os modelos foram confrontados com os fatos estilizados do mercado, propriedades gerais que são observadas em quase todos os mercados financeiros. A volatilidade, que representa uma medida da magnitude das flutuações do mercado, foi extraída dos modelos matemáticos e analisada através da sua distribuição de probabilidade acumulada e de correlações de longo alcance. Nesta análise, foi calculado o expoente de Hurst através do detrended fluctuation analysis de ordens 2 a 6 para ambos os modelos, onde se pode observar um comportamento persistente (α > 0,5) nas diferentes ordens do DFA. Foi investigado o comportamento da distribuição de cauda longa das volatilidades, e verificada se a lei de potência obedece a lei cúbica inversa. Esta, citada por autores em inúmeros índices e mercados ao redor do mundo como um fato estilizado. Neles, o expoente γ comumente se aproxima de 3. Na análise dos modelos, foram estimados valores de γ = 3,0666 e γ = 3,2774, o que pode evidenciar o comportamento dos modelos semelhante aos mercados financeiros.


  • Mostrar Abstract
  • **

3
  • VANDERCI FERNANDES ARRUDA
  • MODELOS DE REDES NEURAIS, REGRESSÃO LINEAR MÚLTIPLA E MÁQUINA DE VETORES DE SUPORTE NA PREVISÃO DA RESISTÊNCIA À COMPRESSÃO DO CONCRETO

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • GRAY FARIAS MOITA
  • ALISSON MARQUES DA SILVA
  • ELIENE PIRES CARVALHO
  • JUNIA SOARES NOGUEIRA CHAGAS
  • Data: 06/04/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O presente estudo propõe a análise de três metodologias distintas com a finalidade de prever a resistência à compressão do concreto aos vinte e oito dias, a partir de uma base de dados conhecida e consagrada na literatura acadêmica. Utilizando a base de dados de Yeh (1998), foi possível utilizar métodos de inteligência computacional para obter os melhores resultados de previsão para a compressão do concreto. A primeira proposta foi a resolução deste problema a partir de uma rede neural artificial (RNA), que utiliza o modelo bioinspirado no neurônio biológico, fazendo o processamento de dados a partir de unidades simples. Neste procedimento é utilizado o processo de aprendizagem supervisionada e as redes são treinadas com base nos algoritmos de treinamento: backpropagation e o de Levenberg-Marquardt. Outro método utilizado foi a Regressão Linear Múltipla (RLM), que propõe a resolução do problema utilizando uma regressão múltipla, que se assemelha a uma regressão simples considerando, no entanto, diversas variáveis. Sua solução é alcançada por meio da minimização da soma do quadrado dos resíduos. O último modelo proposto se embasa num conceito da ciência da computação, intitulado Máquinas de Suporte (SVM). O SVM é um método que analisa os dados e reconhece padrões. Neste presente caso, é utilizado para a análise de regressão. O principal objetivo deste trabalho foi obter o resultado mais confiável para previsão da resistência à compressão do concreto pela utilização de métodos computacionais. A partir deste estudo, concluiu-se que as Redes Neurais Artificiais apresentam a melhor performance dentre os métodos testados. Foi feita a comparação dos três métodos: RNA, RLM e SVM e eles se mostraram confiáveis para a previsão de uma característica mecânica do concreto considerando os coeficientes de segurança utilizados em engenharia.


  • Mostrar Abstract
  • **

4
  • JOÃO LUIZ MARQUES DE ANDRADE
  • Modelos e algoritmos para um problema integrado de planejamento, sequenciamento, alocação de pátio e alocação de berço em terminais portuários graneleiros

  • Orientador : GUSTAVO CAMPOS MENEZES
  • MEMBROS DA BANCA :
  • CARLOS RENATO STORCK
  • ELISANGELA MARTINS DE SA
  • GUSTAVO CAMPOS MENEZES
  • SERGIO RICARDO DE SOUZA
  • Data: 23/04/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A integração entre os processos operacionais e logísticos é de fundamental importância para garantir uma operação eficiente e produtiva de um terminal portuário. Este trabalho estuda um problema integrado de planejamento e sequenciamento, alocação de pátio e alocação de berço em um terminal portuário graneleiro. O problema pretende definir a quantidade e destino de cada produto de entrada ou saída do terminal, alocar cada produto nos pátios, estabelecer um conjunto de rotas viáveis que garantam que os produtos sejam estocados e transportados para os berços, e determinar a sequência, o tempo de atracação e a posição de cada navio simultaneamente, minimizando os custos de operação e o tempo de serviço dos navios. Os principais objetivos são desenvolver modelos matemáticos e projetar algoritmos eficientes para solucionar o problema integrado em estudo com instâncias de larga escala. As contribuições desta pesquisa são os seguintes: duas formulações matemáticas para o problema integrado, um algoritmo que combina o método de geração de coluna, uma heurística de mergulho com backtracking, uma heurística relax-and-fix, e um algoritmo branch-and-cut, bem como um algoritmo que combina algumas heurísticas matemáticas. Os resultados dos testes computacionais mostram que ambas as soluções foram capazes de oferecer um limite superior de qualidade para suas respectivas formulações com instâncias de grande porte, com destaque para o desempenho da heurística que aplica a geração de coluna.


  • Mostrar Abstract
  • The integration between operational and logistic processes is of fundamental importance to ensure a port terminal’s efficient and productive operation. This work proposes an integration between production planning, equipament scheduling, stockyard allocation, and berth allocation in bulk terminal. An integrated mathematical programming model is proposed to couple the four issues. The proposed formulation is rich in realistic detail and flexible enough to be adapted to various scenarios. The problem is to define the quantity and destination of each product entering or leaving the terminal, allocate each product in the stockyards, establish a set of feasible routes that ensure that the products are stocked and shipped to the berth, and determine the sequence, mooring time and position of each ship simultaneously, minimizing the operating costs and service time of the vessel. The proposed approach to solving the problem is based on a combination of column generation method and heuristics. Mathematical formulation and heuristics are tested and validated with instances based on real cases. Computational experiments show that the proposed heuristic is efficient, finding strong bounds for large instances.

5
  • DANDARA LORRAYNE DO NASCIMENTO
  • Modelo matemático para a angiogênese baseado na dinâmica das vias de sinalização Notch e VEGF

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ANA PAULA ALVES
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE LUIZ ACEBAL FERNANDES
  • MARIA ELIZABETH DE GOUVEA
  • Data: 18/05/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A angiogênese é o processo de crescimento de novos vasos sanguíneos a partir dos vasos já existentes. Em condições normais, os novos vasos são robustos e organizados e em condições anormais, como ocorre no surgimento de um tumor, os vasos formados são raquíticos e emaranhados, pois são estimulados a crescerem rapidamente para alimentar o tumor que carece de oxigênio e nutrientes. A tentativa de inibição da angiogênese pode ocasionar diversos efeitos colaterais como hipertensão, trombose, fadiga, entre outros. Portanto, estudos que se concentram na caracterização das vias de sinalização atuantes neste processo contribuem com pesquisas direcionadas ao uso de novos medicamentos para diversas doenças, entre elas o câncer. O principal objetivo deste estudo é apresentar um novo modelo matemático para a angiogênese e aplicá-lo à pesquisa experimental de Alves (2018). O modelo é descrito por equações diferenciais ordinárias traduzidas em equações de diferenças no software MatLab e para validação seguiu-se os passos destacados por Boareto et al. (2015a) e Boareto et al. (2015b). Além disso, o modelo foi aplicado à pesquisa experimental de Alves (2018), em que percebeu-se que o equilíbrio do sistema é perturbado quando VEGF (Vascular Endothelial Growth Factor) externo é alterado, ocasionando grandes mudanças no processo de angiogênese.


  • Mostrar Abstract
  • Angiogenesis is the process of growing new blood vessels from existing vessels. Under normal conditions, the new vessels are robust and organized and in non-normal conditions, as with the appearance of a tumor, the vessels formed are stunted and entangled, as they are stimulated to grow quickly to feed the tumor that lacks oxygen and nutrients. The attempt to inhibit angiogenesis can cause several side effects such as hypertension, thrombosis, fatigue, among others. Therefore, studies that focus on the characterization of the signaling pathways that work in this process contribute to research directed to the use of new drugs for various diseases, including cancer. The main objective of this study is to present a new mathematical model for angiogenesis and apply it to Alves (2018) experimental research. The model is described by ordinary differential equations translated into equations of differences in the MatLab software and for validation, followed by the steps outlined by Boareto et al. (2015a) and Boareto et al. (2015b). Moreover, the model was applied to Alves (2018) experimental research, where it was noticed that the balance of the system is disturbed when external VEGF (Vascular Endothelial Growth Factor) is altered, causing great changes in the angiogenesis process.

6
  • GISELLE COUTO FALCÃO
  • Métodos Matemáticos para Diagnóstico da Esquizofrenia: Uma Abordagem da Modelagem Matemática para Classificação dos Sinais do Eletroencefalograma.

  • Orientador : ANTONIO PAULO BAETA SCARPELLI
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ANTONIO PAULO BAETA SCARPELLI
  • BRUNA AMIN GONÇALVES
  • JOSE GERALDO PEIXOTO DE FARIA
  • Data: 18/05/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A busca por métodos não invasivos e com boa acurácia para diagnosticar a esquizofrenia é um grande desafio para os pesquisadores, médicos e pacientes. Mesmo com toda a tecnologia dos dias atuais, o processo de diagnóstico para esta patologia é demorado, o que pode causar prejuízos ainda maiores à qualidade de vida dos portadores da deficiência, bem como a suas famílias. Por estar diretamente relacionada com o potencial elétrico emitido pelo cérebro, esta deficiência pode esta associada a outros sistemas cerebrais, como o sistema corolário, que é responsável pelo processo de estímulo e resposta do nosso cérebro. Este sistema pode estar associado as alucinações auditivas presentes na esquizofrenia. Este trabalho buscou por métodos matemáticos capazes de classificar, por meio de registros de eletroencefalograma (EEG), os sinais cerebrais envolvidos na audição e percepção do som de indivíduos com e sem esquizofrenia. Para isso foram utilizados técnicas de modelagem por meio de regressão logística e pela análise de grafos de visibilidade.


  • Mostrar Abstract
  • The search for non-invasive methods with good accuracy to diagnose schizophrenia is a major challenge for researchers, doctors and patients. Even with all the current technology, the diagnostic process for this pathology is undervalued, or what can cause even greater damage to the quality of life for people with disabilities, as well as their families. Because it is directly involved with the electrical potential emitted by the brain, this difficulty can be associated with other brain systems, such as the corollary system, which is responsible for our brain’s stimulus and response process. This system may be associated with auditory hallucinations present in schizophrenia. This work searched for mathematical methods capable of classifying EEG records, the brain signals involved in the hearing and sound perception of individuals with and without schizophrenia. For this it was necessary to modify or the classic logistic regressive model, by means of a stabilizing term that can be used through the matrix difference.

7
  • TÂMARA SAMANTHA FERREIRA COELHO
  • SOLUÇÕES ANALÍTICAS E ALGORITMOS PARA MAXIMIZAÇÃO DO PERFIL DE GERAÇÃO HIDRELÉTRICA

  • Orientador : DOUGLAS ALEXANDRE GOMES VIEIRA
  • MEMBROS DA BANCA :
  • DOUGLAS ALEXANDRE GOMES VIEIRA
  • ADRIANO CHAVES LISBOA
  • ELISANGELA MARTINS DE SA
  • GUSTAVO RODRIGUES LACERDA SILVA
  • LUCAS SIRIMARCO MOREIRA GUEDES
  • RODNEY REZENDE SALDANHA
  • Data: 29/06/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este projeto tem como objetivo explorar soluções analíticas para o desenvolvimento de matheurísticas para a solução de alguns problemas de geração de energia hidrelétrica. O primeiro problema abordado considera a maximização do volume turbinado, como uma aproximação da energia gerada, com a restrição que deve-se utilizar o mesmo volume em todos instantes de tempo. Seria o equivalente a maximizar a geração flat de uma usina, considerando a função de produtividade constante. A segunda abordagem considera uma formulação onde, dado um perfil de demanda e de afluência para cada instante de tempo, deseja-se maximizar a geração obedecendo o perfil desejado. A simplificação utilizada foi considerar a vazão defluente como o perfil que desejamos gerar. Em ambos os casos o balanço hídrico, como o volume dos reservatórios definem restrições que precisar ser observadas. Até o momento foram obtidas soluções analíticas para o problema simplificado, que servirão como base para a solução do problema completo, considerando a função de produção não -linear. A simplificação de utilizar uma meta de vazão turbinada ao invés de uma meta de demanda de potência equivale a considerar uma função de produtibilidade linear.


  • Mostrar Abstract
  • This study presents an algorithm to solve the problem of optimizing the supply of the power demand in the medium term operation of a hydroelectric plant. Instead of using generic nonlinear algorithms, this work explores the particularities of the mentioned problem in order to produce efficient solutions. In the first phase, an analytical formula that maximizes the turbined for a given target profile, is demonstrated. Then, this formulation in applied to the following phase of the algorithm, which considers the nonlinear model hat converts the discharged flow into power using the efficiency, deriving a nonlinear problem to maximize the power following a given profile. The method second was successfully applied with real data of existing hydropower plants.

8
  • HIGOR ALEXANDRE DUARTE MASCARENHAS
  • Êxodo Científico Brasileiro: Uma Análise do Processo de Migração para Capacitação

  • Orientador : THIAGO MAGELA RODRIGUES DIAS
  • MEMBROS DA BANCA :
  • EMERSON DE SOUSA COSTA
  • FÁBIO CASTRO GOUVEIA
  • GUSTAVO CAMPOS MENEZES
  • THIAGO MAGELA RODRIGUES DIAS
  • WASHINGTON LUIS RIBEIRO DE CARVALHO SEGUNDO
  • Data: 04/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O êxodo de indivíduos por diversos motivos ou circunstâncias vem ao longo dos últimos anos aumentando de forma significativa no cenário brasileiro e mundial. Um dos motivos identificados para esse fluxo migratório é a formação acadêmica desses indivíduos que buscam se capacitar em instituições de ensino de melhor qualidade. Neste contexto, este trabalho tem como objetivo analisar como ocorre o êxodo científico no Brasil, em que indivíduos de diversas localidades do país migram em busca de uma melhor formação acadêmica. Logo, neste estudo, foi analisado como ocorre o êxodo científico brasileiro. Para isso foi necessária a extração dos dados de formação acadêmica, a partir dos currículos de indivíduos cadastrados na Plataforma Lattes. Assim sendo, selecionou-se todos os indivíduos com doutorado concluído, agregando 308.317 currículos. A escolha deste grupo se justifica por se tratar do conjunto de mais alto nível de formação acadêmica concluída, e que detém como característica, possuírem dados recentemente atualizados em seus currículos. Inicialmente, filtrou-se os dados, selecionando os atributos relevantes à pesquisa, e finalmente, efetuou-se o tratamento dos dados com o intuito de encontrar a localização geográfica das instituições em que os indivíduos se capacitaram. Como resultados iniciais, foi possível efetuar uma caracterização dos dados coletados na Plataforma Lattes, mensurando distâncias percorridas pelos indivíduos ao longo de sua formação acadêmica, bem como, fluxos percorridos pelos doutores a nível estadual e uma análise sobre o processo de internacionalização dos doutores brasileiros. Foram efetuadas redes de vínculos demonstrando as principais localizações ocupadas pelos doutores durante a formação acadêmica, bem como as conexões entre estas localizações. Posteriormente foram extraídos e analisados possíveis indicadores buscando justificativas pela escolha dos indivíduos migrarem para as localizações durante a capacitação, tal como, uma correlação entre os resultados encontrados e alguns indicadores extraídos de repositórios de dados em acesso aberto, como população e cursos de graduação e pós-graduação. Sendo assim, foi possível apresentar um retrato inédito sobre como ocorre o êxodo científico brasileiro.


  • Mostrar Abstract
  • The exodus of individuals, for several reasons or circumstances, has increased significantly over the past few years in Brazil and all over the world. One of the identified reasons for such migratory flow is the academic training of these individuals who seek degrees in higher quality educational institutions. In this context, this paper aims to provide an analysis of how the scientific exodus takes place in Brazil, in which individuals from different parts of the country migrate in search of a better academic education. Therefore, in this study, the Brazilian scientific exodus has been analyzed. In order to accomplish this, it was necessary to extract data on academic training from the curricula of individuals registered on the Lattes Platform. Accordingly, all individuals with a PhD degree were selected, adding up to 308,317 curricula. The choice of this group is justified for being the highest level of completed academic training group, as well as having recently updated data in their curricula. Initially, the data was filtered, and the attributes which were relevant to the research were selected. Finally, the data was processed in order to find the geographic location of the institutions in which the individuals were trained. As initial results, it was possible to characterize the data collected on the Lattes Platform by measuring the distances traveled by individuals throughout their academic training, as well as tracking PhDs’ steps at state level followed by an analysis of the internationalization process of Brazilian PhDs. Connection networks were traced showing the main locations occupied by PhDs during their academic training, as well as the links between these locations. Subsequently, possible indicators were extracted and analyzed, seeking justifications for the choice of individuals to migrate to those locations during their training, such as a correlation between the results found and some indicators extracted from open access data repositories, such as population and undergraduate and graduate courses. Thusly, it was possible to present an unprecedented portrait of how the Brazilian scientific exodus takes place.

9
  • LUCAS AQUILA DOS SANTOS
  • Rastreamento e Localização Geográfica de Objetos

  • Orientador : ADRIANO CHAVES LISBOA
  • MEMBROS DA BANCA :
  • HANI CAMILLE YEHIA
  • ADRIANO CHAVES LISBOA
  • ALISSON MARQUES DA SILVA
  • ELIZABETH FIALHO WANNER
  • GUSTAVO CAMPOS MENEZES
  • Data: 13/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O rastreamento e a localização são métodos que permitem mensurar a posição geográfica de um objeto por meio de imagens capturadas por câmera. A partir da coleta e análise de dados geoespaciais é possível realizar aplicações em inúmeros segmentos do cotidiano, como planejamento urbano e transporte.  Neste trabalho, objetivou-se centralizar um objeto de uma imagem e determinar sua localização por meio de uma câmera e uma superfície de relevo. Para tanto, utilizou-se dois modelos, matemático analítico e numérico por interpolação, para o controle da câmera. A partir desta, extraiu-se as informações necessárias para a validação de ambos os modelos com o uso das métricas de erro absoluto médio e erro quadrático médio. Sendo assim, obteve-se um erro MSE máximo de 0,003529 e 0,001773 no modelo analítico e de interpolação, respectivamente. No tocante ao tempo de execução médio, o modelo analítico apresentou 0,007522 segundos e o modelo de interpolação 0,008366 segundos, respectivamente. Por fim, estimou-se os parâmetros da câmera por meio de equações não lineares e determinou-se a posição geográfica do objeto através do método numérico. A escolha dos métodos dependerá de acordo com o projeto, que exigirá uma resposta mais rápida ou mais precisa. A localização dependerá da distância entre os dados da superfície local.


  • Mostrar Abstract
  • **

10
  • OZÓRIO JÚNIO SOARES CAMARGOS
  • Seleção de Portfólios de Ações a partir da Caracterização e Análise de Dados de Redes Sociais.

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • MICHELE AMARAL BRANDÃO
  • ADRIANO CESAR MACHADO PEREIRA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • DANIEL HASAN DALIP
  • Data: 27/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As redes sociais online fornecem uma variedade de informações úteis que podem ajudar a resolver diversos problemas. Diversos fatos que ocorrem no mundo podem provocar oscilações no mercado financeiro como: variação do dólar e indicadores, taxas de juros, crise sanitária além de cenários políticos econômicos. Neste contexto, apresentamos uma caracterização e análise de dados da Stocktwits, uma rede social financeira on-line, a fim de obter insights que podem ser aplicados às estratégias de investimento em bolsa de valores. Os objetivos deste trabalho são: realizar a construção de carteiras de ações, também chamadas de portfólios, através do uso de dados de redes sociais, analisar o desempenho da seleção com as métricas de avaliação e comparar o desempenho dos portfólios criados com os índices de mercado das bolsas de valores norte-americanas. O trabalho foi desenvolvido em cinco etapas: coleta de dados, limpeza e preparação de dados, caracterização e análise de dados, seleção de portfólios de ações e, por fim, a análise de resultados. Os portfólios foram criados a partir dos dados coletados do período de 2015 a 2018. Os Resultados experimentais apresentaram evidências que nossa proposta de composição de portfólios utilizando dados de rede social mostrou-se útil como estratégia de investimento em ações. Os rendimentos dos portfólios indicados através da análise de dados da rede social foram satisfatórios em vários períodos analisados.


  • Mostrar Abstract
  • **

11
  • JÉSSICA DIOGO DE VASCONCELOS
  • Projeto de rede de cadeia de suprimentos multiproduto, capacitada e em circuito fechado

  • Orientador : ELISANGELA MARTINS DE SA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • ELLEN KÊNIA FRAGA COELHO
  • MARCONE JAMILSON FREITAS SOUZA
  • SERGIO RICARDO DE SOUZA
  • Data: 30/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A importância de remanufaturar produtos tem sido amplamente reconhecida na literatura e na prática. A remanufatura reduz significativamente o consumo de recursos naturais e energia utilizados na produção de produtos novos. Além disso, o processo de remanufaturação de produtos também tem como objetivo reduzir a quantidade de resíduos a serem dispostos no ambiente. O presente trabalho aborda o projeto de rede de uma cadeia de suprimentos capacitada em circuito fechado. Este tipo de rede considera tanto o fluxo tradicional de produtos em uma cadeia de suprimentos, fluxo direto, quanto o fluxo reverso de produtos pós-consumo. Propõe-se um algoritmo, baseado nas metaheurísticas Iterated Local Search  e  Variable  Neighborhood  Descent para determinar a melhor localização das instalações responsáveis pela coleta e remanufatura de produtos pós consumo e fazer o roteamento do fluxo de produtos ao longo de todas as instalações da rede, considerando a estrutura já existente de uma cadeia tradicional de produtos.


  • Mostrar Abstract
  • **

12
  • GABRIEL SOUSA FERREIRA
  • Plataforma Diagnóstica da Transferência de Imunidade Passiva em Bezerros Baseada em Visão Computacional

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • FABÍOLA DE OLIVEIRA PAES LEME
  • FLAVIO LUIS CARDEAL PADUA
  • LUIZ FERNANDO ETRUSCO MOREIRA
  • MARCO TULIO ALVES NOLASCO RODRIGUES
  • Data: 30/08/2021
  • Mostrar Resumo
  • Um grande desafio na fase de cria dos bezerros, que compreende os manejos entre o nascimento e a desmama, é a realização da adequada oferta de colostro materno aos bezerros. Visto que, bezerros nascem sem imunoglobulinas (moléculas de defesa imune) e são totalmente dependentes da ingestão de colostro para adquirir imunidade. A composição do sangue de bezerros neonatos é em sua maior parte formada por imunoglobulinas e albumina. Portanto, uma forma de diagnóstico é analisando as informações sobre a proteína total e suas frações. A concentração sérica de proteínas totais e albumina é medida por reações colorimétricas. A intensidade da cor da reação da amostra de soro com a solução (biureto para proteína e verde de bromocresol para albumina) é proporcional à concentração do analito em questão. Em grande parte, estas análises são realizadas em laboratórios por equipamentos de alto custo e baixa portabilidade. Neste cenário, um sistema de visão computacional automatizado capaz de avaliar a transferência de imunidade passiva, conforme a concentração das proteínas totais e suas frações por meio de reações colorimétricas, pode ser uma ferramenta fundamental para auxiliar na fase de cria dos bezerros. Neste trabalho foi desenvolvido um sistema de visão computacional para inspeção de reações colorimétricas para avaliação da transferência de imunidade passiva, denominado CAM, composto por um conjunto de hardware e software. O software é responsável por promover abordagens computacionais para segmentação, extração de características, regressão, persistência e gerência dos dados. Já o hardware consiste em um equipamento desenvolvido para adequar o ambiente para captura de imagens e possibilitara preparação das amostras biológicas. Foram realizados experimentos utilizando dois métodos conhecidos na literatura como referência para as concentrações de proteína total e albumina. Para construção e avaliação do método empregou-se uma base composta por 747 imagens para a proteína e 300 imagens para a albumina. Tais experimentos demonstraram a viabilidade do CAM para operar em campo, visto que os resultados são padronizados com os resultados obtidos por analisadores bioquímicos conhecidos na literatura (COBAS e Thermo Plate). A segmentação mostrou ser robusta e eficaz, segmentando a informação colorimétrica da amostra por meio do canal de cor HSV e eliminando os ruídos presentes. A etapa de regressão, responsável por estimar as concentrações das proteínas totais e frações mostrou-se adequada pelo seu desempenho, tanto em relação às métricas de erros quanto ao coeficiente de determinação para ambos os analitos. Foram obtidos como resultado o coeficiente de determinação acima de 0,8 para a albumina e acima de 0,9 para a proteína, garantindo a confiabilidade do método.

     


  • Mostrar Abstract
  • **

13
  • EOLO APARECIDO CAETANO ROSA
  • UMA ABORDAGEM HEURÍSTICA PARA SOLUÇÃO DO PROBLEMA DE ALOCAÇÃO DE BERÇOS EM PORTOS GRANELEIROS

  • Orientador : GUSTAVO CAMPOS MENEZES
  • MEMBROS DA BANCA :
  • CARLOS RENATO STORCK
  • ELISANGELA MARTINS DE SA
  • GUSTAVO CAMPOS MENEZES
  • THIAGO MAGELA RODRIGUES DIAS
  • Data: 31/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As transações de comercio internacional de matérias-primas a granel é profundamente dependente do transporte marítimo e por isso os portos tem sido forçados a investir em infra-estrutura e logística. Nesse contexto, o presente trabalho aborda o Problema de Alocação de Berços (PAB): como alocar navios a berços em um dado horizonte de planejamento de modo a minimizar os custos operacionais das operações de cargas e/ou descarga. O PAB pode ser considerado como um dos principais problemas de otimização em terminais marítimos, devido à crescente demanda de navios que transportam produtos em granel. Neste contexto, é proposto um algoritmo hibrido das técnicas geração de colunas, RENS e LNS. O modelo adaptado de casos existentes na literatura, são executados com o CPLEX e os resultados obtidos são comparados para que a melhor solução seja encontrada, a fim de demonstrar a viabilidade de uso algoritmo.


  • Mostrar Abstract
  • **

14
  • SÉRGIO JOSÉ DE SOUSA
  • Modelo Neural Fracamente Supervisionado de Busca de Especialistas em Repositório de Dados Científicos

  • Orientador : THIAGO MAGELA RODRIGUES DIAS
  • MEMBROS DA BANCA :
  • THIAGO MAGELA RODRIGUES DIAS
  • THIAGO DE SOUZA RODRIGUES
  • WASHINGTON LUIS RIBEIRO DE CARVALHO SEGUNDO
  • ADILSON LUIZ PINTO
  • Data: 31/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Com o crescente volume de dados produzidos nos dias atuais, percebe-se cada vez mais usuários utilizando de diversos tipos de sistemas, como, por exemplo, sistemas de armazenamento de dados profissionais e acadêmicos. Dada a grande quantidade de dados armazenados, é notável a dificuldade de se encontrar candidatos com perfis apropriados a uma determinada atividade. Neste contexto, para tentar solucionar esse problema surge a recuperação ou busca de especialistas, um ramo da recuperação de informações, que consiste em, dada uma consulta, documentos são recuperados e são relacionados como unidades indiretas de informações das especialidades dos candidatos, com isso, alguma técnica é usada para agregar esses documentos gerando um escore. Possuindo um número menor de pesquisas relacionadas, a busca de especialistas na área acadêmica com modelos neurais se mostra um desafio ainda maior devido à complexidade desses modelos e à necessidade de grandes volumes de dados com julgamentos de relevância ou rótulos para seu treinamento. Diante disso, este trabalho propõe uma técnica de expansão e geração de dados fracamente supervisionados onde os julgamentos de relevância são criados com técnicas heurísticas, tornando possível utilizar modelos que exigem grandes volumes de dados. Além disso, é proposto uma técnica utilizando autoencoder profundo para selecionar documentos negativos ou julgamentos de irrelevância e por fim um modelo de ranqueamento baseado em redes recorrentes denominado Dual Embedding LSTM que foi capaz de superar todos os baselines comparados.


  • Mostrar Abstract
  • **

15
  • VINÍCIUS LUIZ DO AMARAL
  • Sistemas Fuzzy Evolutivos na Previsão e Recomendação de Investimentos em Criptomoedas

  • Orientador : ALISSON MARQUES DA SILVA
  • MEMBROS DA BANCA :
  • LEANDRO DOS SANTOS MACIEL
  • ADRIANO CHAVES LISBOA
  • ALISSON MARQUES DA SILVA
  • GRAY FARIAS MOITA
  • Data: 26/10/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os Sistemas Fuzzy Evolutivos (Evolving Fuzzy Systems ou EFS) foram propostos para atender a demanda existente no processamento online de dados, no qual as informações geralmente são disponibilizadas na forma de um fluxo contínuo, com características que envolvem a  disponibilização  em  grandes  quantidades,  altamente  dinâmicas e não-estacionárias. As criptomoedas, por sua vez, apresentam constante variação de preço, volume transacionado e capitalização de mercado, tornando-se iminente, neste contexto, a existência das características mencionadas. Diante disso, neste trabalho é proposta uma nova abordagem que contempla a utilização de EFS na previsão do valor de fechamento, na previsão do sentido de variação e na recomendação de investimentos em criptomoedas. Na previsão do valor de fechamento são avaliados três sistemas evolutivos e a previsão do sentido de variação é realizada com base no valor previsto pelos sistemas evolutivos. Para esta tarefa também é proposto um novo modelo (chamado Comitê) que consiste na combinação dos resultados apresentados pelos três EFS. Por último, propõe-se uma estratégia de recomendação de investimentos, que consiste na compra e/ou venda de criptomoedas, baseando-se na previsão do sentido de variação. Experimentos computacionais foram realizados para avaliar as abordagens utilizando 10 intervalos (conjuntos de dados),  sendo 6 para o Bitcoin e 4 para o Ether. Os resultados obtidos foram comparados entre as abordagens e, quando possível, com resultados da literatura. Os resultados evidenciam que os EFS considerados postulam como bons candidatos na solução do problema de previsão do valor e do sentido de variação do preço de criptomoedas. Os números apresentados pelos modelos estudados foram competitivos, principalmente em termos de Acurácia e Rentabilidade, superando os trabalhos da literatura. Além disso, os modelos foram capazes de proporcionar ganhos superiores à valorização das criptomoedas em grande parte dos intervalos e, até mesmo, evitar maiores prejuízos em cenários de desvalorização.


  • Mostrar Abstract
  • **

16
  • EUGÊNIO SILVA REZENDE
  • Algoritmo Progressive Hedging aplicado ao problema de gestão de ativos e passivos de fundos de pensão.

  • Orientador : ELISANGELA MARTINS DE SA
  • MEMBROS DA BANCA :
  • CRISTIANO ARBEX VALLE
  • ELISANGELA MARTINS DE SA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • SERGIO RICARDO DE SOUZA
  • Data: 01/12/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho propõe um algoritmo eficiente para resolver um modelo de programação estocástica de gestão de ativos e passivos de um fundo de pensão. Para tanto, foram implementadas diferentes versões do algoritmo \textit{Progressive Hedging}, contendo diversas melhorias propostas na literatura. Para definir a versão mais eficiente, os algoritmos são usados para resolver um conjunto de instâncias geradas aleatoriamente e os resultados obtidos são analisados e comparados. Além disso, a melhor versão implementada e o \textit{solver} do CPLEX são aplicados para resolver um conjunto especial de instâncias e os resultados obtidos são analisados e comparados.


  • Mostrar Abstract
  • **

Teses
1
  • CHARLENE CASSIA DE RESENDE
  • Modelo matemático-computacional para previsão de tendência de preços: abordagem com múltiplos ativos buscando oportunidades em desvios da hipótese de mercado eficiente

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • CRISTIANO ARBEX VALLE
  • FELIPE DIAS PAIVA
  • JOSE LUIZ ACEBAL FERNANDES
  • Data: 26/02/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A teoria econômica clássica defende que os mercados são eficientes, que os preços caminham em direção a um ponto de equilíbrio no longo prazo e que não há possibilidades de arbitragens. Para investigar esta Hipótese de Mercado Eficiente (HME), definimos um modelo de previsão de tendências de retornos de ativos financeiros, baseado em um sistema de equações diferenciais lineares acopladas discretizado. Neste modelo, consideramos que as relações entre os desvios dos preços das ações em relação a um preço considerado justo traz informação sobre a dinâmica dos preços das ações. Tais desvios são calculados utilizando-se a diferença logarítmica entre os preços reais e os preços justos, modelados por um média móvel exponencial. Visando a comparação entre um mercado emergente e um desenvolvido, aplicamos o modelo para a bolsa de valores brasileira e norte-americana. A consistência do modelo foi investigada comparando-se resultados em quadrimestres diferentes. A relação entre a acurácia do modelo e o expoente de Hurst foi estudada. Parâmetros de execução do modelo, tais como, janela de ajuste, número de ações e frequência de amostragem dos dados, são explorados com o objetivo de encontrar uma combinação que apresente taxas de acurácia relevantes. Testes de hipóteses foram aplicados aos resultados da previsão para investigar se o modelo tem uma taxa de acerto de tendência de preços diferente de um processo totalmente aleatório. Diante dos parâmetros explorados, escolhemos um conjunto que apresentou resultados satisfatórios e aplicamos o modelo em simulação realística do mercado utilizando uma plataforma de algotrading. Na simulação, definimos dois modelos de operação para as estratégias de negociação: MO1 e MO2. No MO1, as operação são abertas de acordo com o sinal enviado pelo preditor e encerradas no fechamento do mesmo candle. Para MO2, as operações são encerradas por meio de stops. Os resultados foram comparados levando em consideração indicadores de desempenho, tais como: risco de exposição ao mercado, retorno financeiro, taxas operacionais e capital alocado


  • Mostrar Abstract
  • .The classical economic theory argues that markets are efficient, that prices move towards a long-term equilibrium and that there is no possibility of arbitrage. To investigate this Efficient Market Hypothesis (EMH), we defined a model for forecasting trends in financial asset returns, based on a discretized coupled linear differential equation system. In this model, we consider that the relationship between stock price deviations from a price considered fair provides information on the dynamics of stocks prices. Such deviations are calculated using the logarithmic difference between actual and fair prices, modeled by an exponential moving average. To compare an emerging and a developed market, we applied the model to the Brazilian and North American stock exchanges. The consistency of the model was investigated by comparing results in different periods of four months. The relationship between model accuracy and Hurst exponent was studied. The execution parameters of the model, such as the fitting window, number of assets, and frequency of data sampling, are explored in order to find a combination that presents relevant accuracy rates. Hypothesis tests were applied to the forecast results to investigate whether the model has a success rate different than a completely random process. Given the parameters explored, we chose a set that presented satisfactory results and applied the model in a realistic simulation of the market using an algotrading platform. In the simulation, we defined two operating models for the trading strategies: MO1 and MO2. In MO1, the operations are opened according to the signal sent by the predictor and closed at the closing of the same candle. For MO2, operations are closed using stops. The results were compared taking into account performance indicators, such as: risk of exposure to the market, financial return, operating rates and allocated capital.

2
  • Rodney Oliveira Marinho Diana
  • Projeto e análise de métodos computacionais para problemas de sequenciamento de tarefas em ambientes de máquinas paralelas não relacionadas

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • JOSE ELIAS CLAUDIO ARROYO
  • LUIZ SATORU OCHI
  • MARCONE JAMILSON FREITAS SOUZA
  • MOACIR FELIZARDO DE FRANCA FILHO
  • SERGIO RICARDO DE SOUZA
  • Data: 27/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta tese estuda uma importante classe de problemas de scheduling, denominada sequenciamento de tarefas em máquinas paralelas não relacionadas com tempos de preparação dependentes da sequência e das máquinas. Para isto, é realizada uma minuciosa revisão bibliográfica, que identifica três lacunas na literatura: (i) pouca importância é dada à construção e, principalmente, à validação de componentes utilizados em métodos de busca local e, assim, não há informações suficientes para se determinar padrões que podem potencializar a construção de operadores de busca local; (ii) as metaheurísticas construídas para resolução dos problemas incorporam muitas características dos critérios de otimização no processo de busca, dificultando a adaptação destas a critérios de otimização com pouca visibilidade teórica; (iii) não são encontrados estudos para problemas que envolvam o sequenciamento guiado por uma política Just-in-Time (JIT), considerando janelas de tempo. Esta tese tem como principal objetivo apresentar três estudos a respeito dessas lacunas. No primeiro estudo é proposta uma metodologia para o projeto de operadores de busca local de metaheurísticas. Esta metodologia é avaliada em três metaheurísticas propostas previamente na literatura. O estudo mostra que a utilização da metodologia leva a um incremento significativo nas três metaheurísticas avaliadas, inclusive encontrando resultados superiores às abordagens de estado da arte para o problema avaliado. Além disto, através das análises dos componentes de busca local, foram encontrados padrões que podem ser usados para construção de operadores de busca local em outros cenários. Já o segundo estudo é destinado à construção de uma abordagem metaheurística híbrida para a classe de problemas de sequenciamentos avaliada nesta tese. A abordagem reduz o uso de características do critério de otimização no processo de busca. Ao mesmo tempo, a abordagem não reduz a qualidade dos resultados encontrados, quando comparada a abordagens projetadas especificamente para um critério de otimização. Neste estudo é mostrado, através de quatro estudos de caso, que a abordagem proposta encontra, na maior parte dos cenários avaliados, resultados superiores ou similares às abordagens de estado da arte. Por fim, realizamos um estudo a respeito da importância e dificuldade do projeto de metaheurísticas para a classe de problemas estudados, quando guiados por uma política JIT, permitindo a inserção de tempos ociosos em conjunto com janelas de tempo. Neste estudo é proposto adaptar, para máquinas paralelas não relacionadas, um método de inserção ótima de tempos ociosos para ambientes de máquina única. Este método acarreta em incremento significativo da ordem de complexidade das abordagens. Devido a isto, é proposto um método de busca local com estruturas de vizinhança reduzidas. Os métodos propostos são integrados a quatro metaheurísticas previamente propostas na literatura e à metaheurística híbrida proposta nesta tese. É avaliado como as metaheurísticas se comportam para resolução do problema. Os resultados mostram que a metaheurística híbrida apresenta resultados superiores às demais abordagens na maior parte dos cenários avaliados. Além disto, é avaliado qual a influência do tamanho das janelas de tempo nos resultados advindos do sequenciamento. Os resultados indicam a existência de uma correlação linear entre o tamanho da janela de tempo com os custo advindos dos atrasos e avanços das tarefas.


  • Mostrar Abstract
  • This thesis addresses an important class of scheduling problems named unrelated parallel machines with sequence and machine-dependent setup times scheduling problems. Firstly, a literature review is performed, which raises three gaps: (i) the contribution of components used in local search has received little attention in the metaheuristics convergence validation. Consequently, there is little qualitative information to determine patterns that can enhance the construction of local search operators; (ii) the implemented metaheuristics for solving the scheduling problems incorporate many features of the own optimization criteria in the search process. As a result, these implemented metaheuristics are hard to adapt to the optimization criteria with little theoretical visibility; (iii) the literature review did not found studies for the class of scheduling problems under study guided by a Just-in-Time (JIT) policy considering time windows. This thesis has as main objective to present three contributions regarding these gaps. In the first study, a methodology for the local search operators design for metaheuristics is proposed. This methodology is evaluated in three metaheuristics previously proposed in the literature. The study shows that the use of the proposed methodology leads to a significant increase in the performance of the metaheuristics. The redesigned metaheuristics even outperform the state-of-theart approaches for the evaluated problem. Furthermore, through the analysis of the local search components, some patterns were found that can be used to build local search operators in other scenarios. The second study is aimed at building a hybrid metaheuristic approach to the evaluated scheduling problem. This approach must reduce the use of optimization criteria features in the search process. At the same time, the approach must found results with the same quality of the state-of-the-art approaches designed for a specific optimization criterion. It is shown, using four case studies, that the proposed approach finds superior or similar results to the state-ofthe-art approaches in most of the evaluated scenarios. Finally, we conducted a study about the importance and difficulty of the design of metaheuristics for the studied problems class, when guided by a Just-in-Time policy, allowing the insertion of idle times together with time windows. In this study, it is proposed to adapt, for unrelated parallel machines, a method of optimal insertion of idle times in single-machine environments. This method entails a significant increase in the order of complexity of the metaheuristics approaches. For this reason, a local search method is proposed with reduced neighborhood structures. The proposed methods are integrated into four metaheuristics previously proposed in the literature and to the hybrid metaheuristic proposed in this thesis. The metaheuristics behaviors are evaluated to the problem solution. The results show that the hybrid metaheuristic outperforms the four other approaches in most of the evaluated scenarios. Furthermore, the influence of the size of the time windows on the scheduling results is evaluated. The results indicate the existence of a linear correlation between the size of the time window and the costs arising from jobs earliness and tardiness.

3
  • GUSTAVO HENRIQUE BORGES MARTINS
  • Simulação numérica de materiais granulares: Efeito castanha do Pará e transporte de sedimentos

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • FELIPE GALVÃO RAFAEL MAGALHÃES
  • GIANCARLO QUEIROZ PELLEGRINO
  • JOSE GERALDO PEIXOTO DE FARIA
  • WELLES ANTÔNIO MARTINEZ MORGADO
  • Data: 30/08/2021
  • Mostrar Resumo
  • A simulação de materiais granulares é estudada nas academias de todo o mundo, também aplicada em indústrias e empresas de engenharia. Para o entendimento e quantificação das proprieadades dos materiais granulares, o Método de Elementos Discretos, ou Discrete Element Method (DEM), é uma das técnicas computacionais mais usada para simular o comportamento de materiais granulares. Muitos dos desafios de se compreender o comportamento de materiais granulares têm início no fenômeno de segregação de grãos secos. Classicamente, temos o efeito castanha do Pará - Brazil Nut Effect (BNE) - que consiste em um material granular confinado contendo grãos de diferentes volumes e que, quando agitados, exibem segregação, sendo que os grãos maiores ascendem até a superfície. Por muitos anos, acreditou-se que esta segregação ocorria devido a presença de paredes que confinam o material. Na primeira parte desta tese mostramos que em sistemas com condição periódica de contorno também pode ocorrer o BNE. Propomos que o BNE se comporta com efeito ressonante, e diferenciamos os sistemas com paredes do com condição periódica de contorno usando a função de grandes desvios - Large-Deviation function (LDF). Na segunda parte desta tese estudamos também o transporte de sedimentos, que ocorre na interação entre granulares e fluidos. Para simular o comportamento de materiais granulares imersos em um fluido, utilizamos uma técnica de Fluidodinâmica Computacional, ou Computational Fluid Dynamics (CFD). Os sedimentos sólidos se movem em um campo de velocidades transportados pelo fluido. Três parâmetros adimensionais são necessários para descrever o comportamento do transporte: o número de Reynolds, que relaciona as forças inerciais com as forças viscosas, e consequentemente os efeitos de turbulência do fluido; o número de Shields, que está relacionado com a as forças de arraste e as forças inerciais do fluido; e finalmente, a razão de densidade entre o sólido e a fase fluida. É possível reproduzir os diferentes modos de transporte apenas mudando tais parâmetros adimensionais. Nesta tese, calculamos o tempo de saturação para o modo bedload no regime viscoso, e também predizemos o tempo de saturação para este modo de transporte. Este estudo de transporte de sedimentos foi possível graças ao doutorado sanduíche realizado no PMMH-ESPCI com a bolsa CAPES No.88881.187077/2018-01.


  • Mostrar Abstract
  • **

4
  • PATRÍCIA MASCARENHAS DIAS
  • UMA ANÁLISE DA PRODUÇÃO CIENTÍFICA BRASILEIRA EM PERIÓDICOS DE ACESSO ABERTO

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • ELOÍSA DA CONCEIÇÃO PRÍNCIPE DE OLIVEIRA
  • ADILSON LUIZ PINTO
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • ELIZABETH FIALHO WANNER
  • GRAY FARIAS MOITA
  • Data: 30/08/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • No ambiente científico, um dos principais objetivos é a divulgação dos resultados alcançados pelos pesquisadores em suas pesquisas. Assim, a comunicação científica se caracteriza como um importante mecanismo para a divulgação de resultados de pesquisas nas diversas áreas do conhecimento. Nesse contexto, os artigos científicos se caracterizam como os principais elementos para a descrição dos estudos realizados e, consequentemente, dos resultados obtidos.  A divulgação de resultados de pesquisas, principalmente em artigos científicos, possibilita a difusão das técnicas e métricas utilizadas, bem como dos resultados alcançados, a uma quantidade de interessados na temática investigada. Diante disso, identificar como os resultados de investigações científicas estão sendo publicados permite compreender como a comunicação científica tem sido utilizada para a divulgação dos estudos realizados. Nesse cenário, a publicação de artigos em periódicos de acesso aberto surge como um interessante mecanismo para a divulgação de pesquisas científicas, já que facilita e viabiliza o acesso a elas, tendo em vista que não existem barreiras, em especial financeiras, para acessar os conteúdos desse tipo de publicação.  Considerando que a ampla divulgação e a facilidade de acesso a estudos científicos possibilitam e impulsionam a evolução das pesquisas, esta tese visa identificar e analisar o conjunto de pesquisadores que têm utilizado periódicos de acesso aberto para a divulgação dos resultados de seus estudos, permitindo ampla difusão e acesso a seus trabalhos. Além disso, é realizada uma análise ampla de suas publicações em periódicos de acesso aberto. Para tanto, são discutidos e analisados indicadores sobre a comunicação científica brasileira em periódicos de acesso aberto, tendo como fonte de dados os artigos registrados nos currículos cadastrados na Plataforma Lattes, especificamente as publicações em periódicos que estejam registrados no Directory of Open Access Journals (DOAJ). Descrevem-se os materiais e métodos utilizados, com ênfase na metodologia adotada para apresentar uma visão da comunidade científica que tem utilizado periódicos de acesso aberto. Configurou-se, assim, um retrato até então inédito da produção científica em periódicos de acesso aberto no Brasil, tendo em vista principalmente a quantidade de dados analisados. Os resultados revelaram uma comunidade composta por 370.388 indivíduos distribuídos em diversas áreas do conhecimento, além de demonstrar que a proporção de artigos publicados em periódicos de acesso aberto no Brasil tem aumentado de forma consistente ao longo dos últimos anos, apesar de este ainda não ser o meio preferido de publicação pelos pesquisadores. Revelou-se como algumas áreas tendem a ser mais representativas nesse meio de divulgação, influenciadas por pesquisadores altamente produtivos, e, ainda, como ocorre a colaboração científica entre os pesquisadores na elaboração dos artigos publicados. Por fim, foram aplicadas as principais leis bibliométricas no conjunto de dados analisados, revelando os principais periódicos em que ocorrem as publicações, a produtividade dos autores, considerando suas áreas de atuação, os principais tópicos de pesquisa das publicações, e uma análise qualitativa do conjunto de artigos, considerando suas citações.


  • Mostrar Abstract
  • **

5
  • CHARLES SOUZA DO AMARAL
  • MONOTONICIDADE DO VALOR CRÍTICO EM MODELOS DE PERCOLAÇÃO E DE ISING

     

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • RONALD DICKMAN
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • BERNARDO NUNES BORGES DE LIMA
  • ROGER WILLIAM CÂMARA SILVA
  • THIAGO GOMES DE MATTOS
  • Data: 14/09/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Modelos de percolação e de Ising possuem aplicações em diversas áreas das ciências e estão entre os modelos mais estudados na Mecânica Estatística. Eles exibem uma transição de fase e a determinação do valor crítico no qual ela ocorre é uma das principais questões relacionadas a esses modelos. O presente trabalho tem como objetivo estudar três modelos, dois de percolação e um de Ising, em que o valor crítico varia em função de algum parâmetro. O primeiro modelo apresentado é o Modelo de Percolação com Múltiplos Alcances (MPMA), nele consideramos o modelo clássico de percolação na rede hipercúbica Ld e adicionamos elos de tamanhos m1,m2,...,mn, paralelos a cada eixo coordenado, de forma que os tamanhos dos elos maiores sejam múltiplos dos menores e mi > 1 para todo i. Há resultado analítico mostrando que o ponto crítico desse modelo converge para o do modelo clássico na rede hipercúbica Ld(n+1) quando mi → ∞ para todo i. Nós encontramos evidências numéricas de que, se d = 2, essa convergência é monótona e segue uma lei de potência quando n = 1 e n = 2. Com o intuito de verificar se a convergência relacionada ao ponto crítico no MPMA também ocorre em outros modelos que exibem transição de fase, estudamos o Modelo de Ising com Múltiplos Alcances, que é definido de forma similar ao MPMA. Nós verificamos que, se analisarmos a temperatura crítica ao invés do ponto crítico, também ocorrerá a convergência para as mesmas situações estudadas no MPMA. Por fim, também estudamos o Modelo de Percolação com Grau Restrito (MPGR). Nele, tentamos abrir os elos do grafo em uma ordem aleatória que é definida previamente. Cada elo é aberto se satisfizer uma determinada restrição que depende de um parâmetro k. Esse modelo possui aplicações no estudo de dímeros e polímeros e o simulamos na rede hipercúbica Ld para d {2,3,4}. Através de uma análise numérica, nós mostramos que o valor crítico do modelo decresce em função da restrição k. Além disso, encontramos evidências de que o MPGR está na mesma classe de universalidade do que o modelo clássico de percolação.


  • Mostrar Abstract
  • Percolation and Ising models have applications in several areas of science and are among the most studied models in Statistical Mechanics. They exhibit a phase transition and determining the critical value at which it occurs is one of the main issues related to these models. The aim of this work is to study three models, two percolation and one Ising, in which the critical value varies as a function of some parameter. The first model presented is the Multirange Percolation Model (MPM), in which we consider the classic model of percolation in the hypercubic lattice Ld and add bonds of sizes m1,m2,...,mn, parallel to each coordinate axis, so that the sizes of the larger bonds are multiples of the smaller ones, and mi > 1 for all i. There is an analytical result showing that the critical point of this model converges to that of the classical model in the hypercubic lattice Ld(n+1) when mi → ∞ for all i. We find numerical evidence that, if d = 2, this convergence is monotonous and follows a power law when n = 1 and n = 2. In order to verify whether the convergence related to the critical point in the MPM also occurs in other models that exhibit phase transition, we studied the Multirange Ising Model, which is defined similarly to the MPM. We verified that, if we analyze the critical temperature instead of the critical point, convergence will also occur for the same situations studied in the MPM. Finally, we also study the Constrained-Degree Percolation Model (CDPM). In it, we try to open the bonds of the graph in a random order that is previously defined. Each bond is opened if it satisfies a certain restriction that depends on a k parameter. This model has applications in the study of dimers and polymers and we simulate it in the hypercubic lattice Ld for d ∈ {2,3,4}. Through a numerical analysis, we show that the critical value of the model decreases as function of the constraint k. Furthermore, we found evidence that the CDPM is in the same universality class as the classical Ising model.

6
  • FERNANDO ANDRADE DUCHA
  • Caminho para a complexidade: o papel da topologia de rede na difusão de informação e dinâmica de mercado

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • MEMBROS DA BANCA :
  • LEONARDO COSTA RIBEIRO
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE LUIZ ACEBAL FERNANDES
  • MARCELO MARTINS DE OLIVEIRA
  • THIAGO GOMES DE MATTOS
  • Data: 21/10/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Um novo modelo, em que o fluxo de informação em uma rede social influencia o comportamento de agentes em um  mercado, é apresentado. A difusão de informação na rede segue a do modelo baseado na plataforma de microblogging Twiter [Scientific Reports, Vol.2, pp.335], em que um mecanismo de memória permite a simulação de interesses endógenos dos agentes, bem como de atenção limitada. Considera-se que os agentes negociam um único ativo, ofertando ou demandando de acordo com os conteúdos de suas memórias. Tais conteúdos são modelados através de conjuntos de números com distribuição gaussiana, associados à percepção dos agentes quanto ao valor do ativo. Fluxo de informação e dinâmica de preços são analisados por meio de ferramentas estatísticas. Quatro modelos de redes são utilizados: Albert-Barabàsi (AB), Erdös-Rényi (ER), circular regular (CR) e um modelo, aqui desenvolvido, baseado na distribuição de Zipf (Z). Tais modelos são descritos e explorados através de experimentos computacionais. A Lei de Zipf também é investigada, utilizando-se dados da Wikipedia. No caso em que a rede AB é escolhida para o modelo de rede social, são geradas distribuições cumulativas de retorno que decaem como lei de potência, análogas a distribuições empíricas observadas há duas décadas. Quando as redes ER e CR são empregadas, tal decaimento aproxima-se do apresentado por uma gaussiana, compatível com observações recentes. Já para o modelo baseado na distribuição de Zipf, é possível obter, mediante escolha apropriada de parâmetros, cada um dos comportamentos. Correlações não-lineares em séries financeiras frequentemente produzem o fenômeno da clusterização de volatilidade. Tais correlações podem ser associadas ao comportamento multifractal, que, nesta contribuição, é investigado por meio do Multifractal Detrended Fluctuation Analysis. Nas séries de preços produzidas pelo modelo, observamos correlações mais fortes para a rede AB e para uma das redes Z construídas (a mesma que apresentou caudas pesadas na distribuição de retornos). Resultados análogos, referentes a distribuições e a comportamento multifractal, foram encontrados quando analisamos uma variável relacionada ao fluxo de informação. É digno de nota que, mesmo com entradas gaussianas, o modelo seja capaz de produzir estatísticas não triviais. No presente caso, é possível concluir que a topologia da rede de distribuição de informação cumpre um papel fundamental nesse processo.

  • Mostrar Abstract
  • **

7
  • MAÍSA KELY DE MELO
  • CONTROLE PREDITIVO BASEADO EM MODELO VIA OTIMIZAÇÃO DINÂMICA MULTIOBJETIVO DE PORTFÓLIOS DE INVESTIMENTOS

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • SERGIO RICARDO DE SOUZA
  • TALES ARGOLO JESUS
  • CRISTIANO ARBEX VALLE
  • GUILHERME VIANNA RAFFO
  • Data: 19/11/2021
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Com o advento da tecnologia é possível aliar os modelos matemáticos complexos que representam o problema de otimização de portfólios de investimentos com técnicas computacionais extremamente eficientes e práticas. Busca-se construir um arcabouço computacional capaz de lidar com as peculiaridades reais do mundo financeiro ao mesmo tempo que utiliza o conhecimento teórico disponível. Portanto, propõe-se neste trabalho um arcabouço computacional composto por diferentes modelos que usam a metodologia de controle preditivo baseado em modelo (do inglês, Model Predictive Control-MPC) na otimização de portfólios de investimentos. É proposta uma estratégia inovadora obtida pela combinação do MPC e da otimização multiobjetivo sujeita a restrições realísticas do mercado financeiro, como limites de investimento, auto-financeiro, cardinalidade e custos de transação. Os critérios de desempenho (funções objetivo) são os valores esperados da riqueza, da variância e do CVaR. Como a perspectiva multiperíodo é imprescindível para utilizar a estratégia do MPC, foram propostas formulações multiperíodo para as funções objetivo e também para o algoritmo genético que faz a otimização. Com os experimentos realizados foi possível obter uma variedade de constatações que envolvem o horizonte de predição, a cardinalidade, o risco e o retorno do portfólio. Dentre as quais podem ser destacadas, o horizonte de predição de fato beneficia o problema de otimização de portfólios uma vez que proporciona valores de riqueza não obtidos pela estratégia miópica, portfólios com cardinalidades menores possuem menor risco por possuírem maior alocação de capital no ativo livre de risco. As carteiras com cardinalidade cinco apresentam os maiores valores de riqueza. Na análise out-of-sample a riqueza acumulada da estratégia proposta superou e Ibovespa e fundos de investimento de prestígio em 2020.


  • Mostrar Abstract
  • Combining complex mathematical models that optimize investment portfolios with efficient and practical computational techniques is possible with the advent of technology. The aim is to build a computational framework capable of dealing with the actual peculiarities of the financial world while using available theoretical knowledge. Therefore, this work proposes a computational framework composed of different models that use Model Predictive Control (MPC) to optimize investment portfolios. An innovative strategy that combines MPC and multi-objective optimization and realistic financial market constraints, such as investment limits, automatic finance, cardinality, and transaction cost, is proposed. Performance criteria (objective functions) are the expected values of wealth, variance, and CVaR. We proposed multiperiod formulations for the objective functions and the genetic algorithm that performs the optimization since the multiperiod perspective is essential for the MPC strategy. With the experiments performed, it was possible to obtain various findings involving the prediction horizon, cardinality, risk, and return of the portfolio. Among those that can be highlighted, the prediction horizon benefits the portfolio optimization problem. It offers wealth value not obtained by the myopic strategy; portfolios with smaller cardinalities have greater risk because they have capital allocation in the risk-free asset. The five cardinality portfolios have the highest wealth values. In the out-of-sample analysis, the accumulated wealth of the proposed strategy surpassed Ibovespa and prestigious investment funds in 2020.

2020
Dissertações
1
  • SIMONE APARECIDA ROCHA
  • Otimização Não-linear e Redes Neurais Artificiais: Ferramentas na Classificação e Localização de Faltas em Linhas de Transmissão

  • Orientador : THIAGO GOMES DE MATTOS
  • MEMBROS DA BANCA :
  • CLEVER SEBASTIÃO PEREIRA FILHO
  • DOUGLAS ALEXANDRE GOMES VIEIRA
  • EDUARDO GONZAGA DA SILVEIRA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • THIAGO GOMES DE MATTOS
  • Data: 13/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho apresenta aplicações de Redes Neurais Artificiais (RNAs) e Técnicas de Otimização Não Linear (ONL) para classificar, localizar faltas em linhas de transmissão e determinar o valor das resistências de defeito, utilizando-se dados de faltas simuladas em um programa de transitórios eletromagnéticos e de faltas reais ocorridas no sistema elétrico brasileiro. As RNAs implementadas possuem topologia Multilayer Perceptron, método de aprendizagem supervisionado Backpropagation, algoritmo de treinamento Levenberg-Marquardt e função de ativação tangente-sigmoide, variando-se para cada tarefa o número de redes e neurônios. A etapa de classificação é realizada por uma RNA, a localização de faltas e a determinação da resistência de falta são executadas por 4 RNAs e também pela aplicação de técnicas de Otimização Não Linear mono-objetivo para a minimização de funções objetivo descritivas do problema. As funções objetivo foram definidas em termos dos parâmetros da linha e do tipo de falta obtido na etapa de classificação e submetidas aos métodos de Quasi-Newton, Elipsoidal e Algoritmo Genético Real Polarizado. A localização também é realizada por um método analítico, utilizado como referência para a comparação dos resultados. Na classificação, as respostas mostraram-se corretas em todos os testes realizados. Na localização, a aplicação do teste Anova para os dados simulados revelou, com 5% de significância, a existência de evidências estatísticas que permitiram concluir que os efeitos principais do tipo de método utilizado afetam o erro percentual em relação ao comprimento da linha de transmissão. Neste sentido, o teste de Tukey sinalizou erros menores com a utilização das RNAs e maiores com a utilização do método analítico, ficando as técnicas de Otimização Não Linear com erros intermediários. Para casos reais, diferente da situação verificada em ambientes simulados, o teste de Tukey evidenciou maiores erros percentuais com a utilização das RNAs, sinalizando também a inexistência de evidências estatísticas para rejeitar a igualdade entre a localização de faltas efetuada pelo método analítico e os métodos de Otimização Não Linear.


  • Mostrar Abstract
  • **

2
  • WAGNER BERNARDES QUINTÃO ROMERO
  • CLUSTER GEOMETRY OPTIMIZATION USING MECHANISTIC RANDOM GENERATIONS TO IMPROVE GENETIC ALGORITHMS

  • Orientador : BRENO RODRIGUES LAMAGHERE GALVAO
  • MEMBROS DA BANCA :
  • BRENO RODRIGUES LAMAGHERE GALVAO
  • JOSE LUIZ ACEBAL FERNANDES
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • MATEUS XAVIER SILVA
  • Data: 20/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Nanopartículas são pequenos aglomerados (clusters) com poucos nanômetros de dimensão podendo conter até cerca de um milhão de átomos. O comportamento físico-químico destes clusters está fortemente ligado à sua geometria, número de partículas e composição. Devido à complexidade do problema, a configuração destes clusters não pode ser compreendida puramente por dados experimentais. Portanto, são necessários modelos ou hipóteses para dar sentido aos resultados destes experimentos. Computadores modernos possibilitam o avanço de abordagens ab initio que são capazes de prever a estrutura de menor energia de um cluster mesmo sem nenhum dado experimental, embora sejam eficientes apenas para pequenos clusters demandam alto custo computacional. Fenômenos quânticos contribuem para a dificuldade de se prever a geometria ótima de clusters em casos que se necessitam de grande exatidão. Quanto maior a exatidão esperada para os resultados, mais fenômenos quânticos devem ser levados em consideração, o que aumenta a complexidade do cálculos da energia do cluster. Métodos de busca por soluções, especialmente Algoritmos Genéticos (GA), tem sido usados em uma variedade de estudos apresentando boas soluções em uma maneira altamente paralelizável. Estes GAs se beneficiam de metáforas elaboradas e têm sido constantemente aprimorados ao longo dos anos. Neste trabalho, um método mecanicista para a geração aleatória de clusters é usado a fim de melhorar a eficiência de GAs usados para optimização de clusters.

  • Mostrar Abstract
  • Nanoparticles are small particle agglomerates (clusters) of few nanometers ranging from a dozen up to a million atoms. The cluster behavior is strongly linked to its geometry, number of particles and composition. The cluster configuration cannot be determined by experimental data solely and further hypothesis are necessary for giving meaning to the experimental results. The improvement of the current computer programs makes possible the advance of ab initio approaches which are able to determine the optimal geometries without the need for any experimental data, but only for small clusters and at expenses of high computational cost. Quantum effects involved in clusters contribute to the unpredictability of the output geometries, specially when high accuracy is required. The higher the expected accuracy is, the more of those quantum aspects should be taken under consideration, increasing the complexity of the required algorithms. Search for solutions methods, especially using Genetic Algorithms (GA), have been used in a variety of cluster studies bringing light to good solutions in a highly parallel fashion accessing marginally the geometry domain. GA methods benefit from elegant metaphors and have been constantlty improved throughout the years. In the present work, a mechanistic method for random generation of clusters is studied to improve the GA learning in cluster geometry optimization methods.

3
  • GREICY KELY CARLA DOS SANTOS
  • ESTUDO DA DINÂMICA DE PREÇOS DO MERCADO FINANCEIRO POR MEIO DE EQUAÇÕES DIFERENCIAIS ESTOCÁSTICAS.

  • Orientador : LEONARDO DOS SANTOS LIMA
  • MEMBROS DA BANCA :
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • LEONARDO DOS SANTOS LIMA
  • LUIS ARGEL POVEDA CALVINO
  • Data: 27/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Sabe-se que comportamento do mercado financeiro produz grandes impactos na economia e que estes refletem em diversos setores da sociedade. A sua importância e complexidade o torna um atrativo campo de estudos para pesquisadores de diversas áreas, tais como, Economia, Análise de sistemas, Matemática e Física. É interessante também, para áreas interdisciplinares, como a Econofísica, que relaciona elementos da Economia e da Física no estudo de sistemas financeiros. A modelagem desses sistemas, especificamente a dinâmica de preços, depende fortemente da mecânica estatística. Métodos matemáticos da Física Estatística na descrição de sistemas econômicos, têm sido aplicados às séries temporais para investigar o comportamento dos mercados financeiros em diferentes escalas. Entre as ferramentas utilizados para tal, estão as medidas de dispersão central, distribuição de probabilidade, dinâmica estocástica e métodos para estimar as correlações. Os instrumentos (ativos, opções, índices de bolsas de valores, ...) do mercado financeiro flutuam ao longo do tempo, por isso, podem ser modelados via processos estocásticos. Dessa forma, este estudo pretende verificar se uma equação diferencial estocástica (formalizada por um potencial quártico mais um ruído ambiente), atende a um dado fato estilizado do mercado. Mais especificamente, se a cauda pesada da distribuição dos retornos absolutos gerados pela equação, segue uma empírica lei de potência. Além disso, estimamos o expoente de Hurst através da análise R/S e do DFA para verificar a dependência de longo alcance, ou memória longa da série temporal obtida. Como o termo de ruído presente na equação é não diferenciável, introduzimos o cálculo estocástico para obter analiticamente a solução desta.


  • Mostrar Abstract
  • **

4
  • LETÍCIA OLIVEIRA AQUINO
  • REOLOGIA µ(I) EM ESCOAMENTOS GRANULARES POR MÉTODO DE ELEMENTOS DISCRETOS

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • FELIPE GALVÃO RAFAEL MAGALHÃES
  • THIAGO GOMES DE MATTOS
  • Data: 27/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho, estudamos a reologia de um sistema granular utilizando o Método de Elementos Discretos (DEM). A reologia µ(I) é um problema conhecido intensamente estudado a partir do cisalhamento de um meio granular para diferentes valores do número de inércia (I), quantidade adimensional que relaciona a taxa de cisalhamento e a pressão imposta sobre o sistema. Um dos principais objetivos nos estudos relacionados à reologia µ(I) é a verifificação do funcional que rege a dependência entre as variáveis reológicas, ou seja, a dependência do atrito efetivo em relação ao número de inércia. O objetivo deste trabalho foi estudar o comportamento de sistemas confifinados sob cisalhamento plano, e verifificar o comportamento reológico previsto pela reologia µ(I). Para isso, mediu-se o perfil de velocidades e tensões. Utilizou-se a técnica conhecida como Dinâmica Molecular (DM) um dos Métodos de Elementos Discretos. A simulação do Método de Elementos Discretos (DEM) foi a abordagem adotada, visto que é uma ferramenta poderosa presente em grande parte da literatura dos sistemas granulares. Os resultados obtidos foram parcialmente validados.


  • Mostrar Abstract
  • **

5
  • EDUARDO AUGUSTO GONÇALVES BARBOSA
  • Quantificação da Mobilidade Urbana em Redes Viárias via Fenômenos de Primeira Passagem

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • GERALD WEBER
  • ALCIDES VOLPATO CARNEIRO DE CASTRO E SILVA
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • THIAGO GOMES DE MATTOS
  • Data: 28/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Mais de metade da população mundial vive em áreas urbanas, e este número chega a 80% na América Latina. Os desafios da sustentabilidade sócio-ambiental demandam a produção consistente de bases de dados sobre as dinâmicas urbanas. Essencial para alcançar estes objetivos, a mobilidade precisa assegurar acesso de pedestres ao transporte, consumo e lazer. Os estudos da morfologia urbana observam diferentes aspectos e utilizam ferramentas diversas, como a reprodução do espaço público como um grafo, aplicado pela primeira vez por Euler no problema das pontes de Königsberg. As informações geográficas fornecidas por voluntários assumem papel cada vez mais importante como fontes cartográficas e de dados para o planejamento urbano, com licença livre e aberta, plenamente acessíveis, e que podem representar a geometria viária. A exploração da rede viária por passeios aleatórios vem timidamente sendo utilizada nos estudos urbanos com resultados positivos na simulação do comportamento coletivo dos seres humanos. Os fenômenos de primeira passagem tem sido amplamente estudados em processos de difusão, isto é, aqueles resultantes de movimento aleatório de partículas com fluxo de uma região de alta concentração para uma região de baixa concentração. Este trabalho propõe a utilização de ferramentas matemáticas e computacionais combinadas à Teoria dos Grafos para quantificar dinâmicas de mobilidade de pessoas e veículos em redes viárias. Busca-se demonstrar a potencialidade do estudo dos fenômenos de primeira passagem, destacadamente o Tempo Médio de Primeira Passagem e o Índice de Uniformidade como medidas da integração funcional e espacial dos sítios urbanos em relação a múltiplos pontos de interesse de naturezas distintas. Um modelo baseado em agentes é implementado e aplicado a doze cidades internacionais com características distintas, para as quais são realizadas as medidas de tempo médio de primeira passagem e índice de uniformidade. Os resultados demonstram que a dinâmica sobre a rede viária apresenta comportamento bastante próximo ao de modelos de difusão em domínios confinados ou semi-confinados. O modelo baseado em agentes pode resultar em aplicações diretas no desenvolvimento de políticas públicas e na prática do planejamento urbano e de tráfego.


  • Mostrar Abstract
  • **

6
  • LUCAS DANIEL PADIA ROCHA
  • Abordagens Mono e Multiobjetivo para o Problema de Roteamento de Veículos Capacitados com Restrições Tridimensionais de Carregamento

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • ELIZABETH FIALHO WANNER
  • JOAO FERNANDO MACHRY SARUBBI
  • Data: 28/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Com a expansão da internet, o transporte de produtos ocupa uma das funções mais importantes no comércio eletrônico. Um dos parâmetros com elevado impacto nessa importância está nos altos custos envolvidos com o transporte na economia. Diante desse fato, é considerável analisar os problemas reais enfrentados pelos atores desse ramo de atividade. As questões que se referem ao roteamento e carregamento de veículos, em decorrência de suas complexidades, constituem uma das aplicações com maior potencial na área de otimização. Com o foco de facilitar essas questões, este trabalho tem como objetivo solucionar o problema de roteamento de veículos capacitados com restrições tridimensionais de carregamento (3L-CVRP). Este trabalho traz soluções para o problema em duas modelagens distintas, mono-objetivo e multiobjetivo. No mono-objetivo, a finalidade é minimizar a distância total percorrida pelos veículos. Foram implementados os seguintes algoritmos: Algoritmo Genético, VNS, Simulated Annealing e Busca Tabu. No Algoritmo Genético, utilizou-se as soluções geradas pelas técnicas Greedy Randomized Adaptive Search Procedure (GRASP) e soluções resolvidas por programação linear inteira (PLI) utilizando o pacote comercial CPLEX aplicadas ao problema de roteamento de veículos capacitados (CVRP) para construir a população inicial. No restante dos algoritmos implementados, as soluções do PLI obtidas pelo CPLEX foram utilizadas como solução inicial. Os resultados obtidos foram comparados aos da literatura e entre os algoritmos construídos. Na abordagem multiobjetivo, acrescentou-se o objetivo de minimizar a quantidade de veículos utilizados para a entrega dos itens. Foi feito a implementação do algoritmo Non-Dominated Sorting Genetic Algorithm II (NSGA-II) aplicado ao CVRP e 3L-CVRP. Para o CVRP, as soluções encontradas foram comparadas às da literatura. O algoritmo alcançou resultados satisfatórios, se aproximando do estado da arte, e em algumas instâncias, superando as soluções obtidas. Para o 3L-CVRP, os resultados alcançados exploraram novas soluções para o problema em comparação com a literatura.


  • Mostrar Abstract
  • **

7
  • WESLEY DE MATOS LANCUNA
  • META-HEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DE LOCALIZAÇÃO DE INSTALAÇÕES INDESEJADAS

  • Orientador : ELISANGELA MARTINS DE SA
  • MEMBROS DA BANCA :
  • RICARDO SARAIVA DE CAMARGO
  • ELISANGELA MARTINS DE SA
  • MARCONE JAMILSON FREITAS SOUZA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • SERGIO RICARDO DE SOUZA
  • Data: 02/10/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho tem seu foco no problema de localização de instalações indesejadas. O problema consiste em localizar instalações, de modo que as mesmas estejam o mais afastado possível dos clientes. As instalações serão selecionadas de forma a maximizar a soma das distâncias dos clientes à instalação mais próxima. Possíveis aplicações desse problema são instalações de aterros sanitários, usinas nucleares, barragens de rejeitos de minério e penitenciárias. Como o problema é considerado NP-difícil, para buscar melhores soluções para o problema, propõe-se dois algoritmos meta-heurísticos, um que combina as técnicas do GRASP e do ILS, e o outro que combina as técnicas de inserção mais barata e o ILS. Os resultados mostram que as técnicas propostas apresentam resultados equivalentes aos melhores algoritmos da literatura estatisticamente e são mais simples de serem reproduzidas.


  • Mostrar Abstract
  • **

8
  • MARCOS VINÍCIUS ANDRADE DE CAMPOS
  • Formulações  de Programação Matemática e um Algoritmo Baseado em Simulated Annealing para o Problema de Localização de Mamógrafos

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • ANTÔNIO AUGUSTO CHAVES
  • ELISANGELA MARTINS DE SA
  • MARCONE JAMILSON FREITAS SOUZA
  • MARIA AMÉLIA LOPES SILVA
  • SERGIO RICARDO DE SOUZA
  • Data: 19/10/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O câncer de mama é o mais comum na população feminina. O diagnóstico precoce desta doença, através do rastreamento por mamografia, pode elevar as chances de cura a 95%. Estudos mostram que o Brasil tem um número de mamógrafos relativamente satisfatório, mas estes equipamentos estão mal  distribuídos geograficamente. O foco, neste trabalho, é o Problema de Localização de Mamógrafos (PLM), o qual visa encontrar uma distribuição eficiente dos equipamentos de mamografia, de forma a aumentar a demanda coberta. Focando no Estado de Minas Gerais, uma análise é feita considerando que, no mundo real, há dificuldade de realocar equipamentos já instalados. Além disso, seria interessante otimizar a localização de novas aquisições. Considerando que o PLM é do tipo NP-hard, também é apresentado um algoritmo baseado na metaheurística Simulated Annealing, para lidar com grandes instâncias do problema.


  • Mostrar Abstract
  • Breast cancer is the most commonly occurring one in the female population. Early diagnosisof this disease, through mammography screening, can increase the chances of cure to 95%.Studies show that Brazil has a relatively satisfactory number of mammography units, but thisequipment is poorly geographically distributed. This research focuses on the MammographyUnit Location Problem (MULP), which aims an efficient distribution of mammography units,in order to increase the covered demand. Focusing on the State of Minas Gerais, Brazil,an analysis is made considering that, int the real world, there is a difficulty in relocatingequipment already installed. Therefore, it would be interesting to optimize the location ofnew equipment purchases. Since MULP is NP-hard, an algorithm based on the SimulatedAnnealing meta-heuristic is also developed to handle large instances of the problem.

9
  • FELIPE AFFONSO
  • Uma estratégia para a Predição de Coautorias em Dados de Publicações Científicas


  • Orientador : THIAGO MAGELA RODRIGUES DIAS
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • GRAY FARIAS MOITA
  • Jether Oliveira Gomes
  • THIAGO MAGELA RODRIGUES DIAS
  • Data: 27/11/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Ao se publicar um artigo em conjunto com outros autores, um vínculo é formado pela colaboração, o que pode ser caracterizado como uma rede de colaboração científica. Neste contexto, os trabalhos representam as arestas, e os autores representam os nós, formando uma rede. É possível compreender melhor o relacionamento e as características existentes entre os autores ao se utilizar os conceitos da análise de redes sociais. Desta forma, surge a seguinte pergunta: “É possível estimar futuras colaborações científicas a fim de compreender a evolução desta rede?”. Para ser possível responder a esta pergunta, é necessário analisar como dois nós interagem entre si, ou seja, quais fatores são essenciais para que uma nova ligação seja realizada. O trabalho em questão tem como objetivo realizar a predição de ligações em redes de colaboração científica formadas pelos doutores brasileiros, em 8 diferentes áreas do conhecimento. Como fonte de dados é adotada a Plataforma Lattes, atualmente com 6,9 milhões de currículos cadastrados, que representa um dos repositórios científicos mais relevantes e reconhecidos mundialmente. Deste conjunto, foram utilizados dados de 71.010 doutores, que realizaram, em conjunto, a autoria de 5,8 milhões de colaborações científicas no período de 1960 a 2019, tornando este trabalho inédito devido à sua representatividade. De forma a tornar possível a análise e execução do trabalho, técnicas de aprendizado de máquinas foram utilizadas. Estas possuem a capacidade de identificar padrões de comportamento em grandes conjuntos de dados. Para tanto, quatro algoritmos são utilizados: Regressão Logística, Florestas Aleatórias, K Vizinhos Mais Próximos e Naive Bayes. A partir da abordagem utilizada, é possível identificar diferentes características das áreas do conhecimento analisando como estas influenciam o comportamento das técnicas escolhidas. Os resultados obtidos apresentam uma média de 88% de acertos, considerando todas as áreas e todos os algoritmos, onde a técnica Florestas Aleatórias apresentou o melhor resultado, com 99% de acertos em todas as redes analisadas. Avaliando os fatores que influenciam o surgimento de colaborações científicas, o atributo Menor Caminho se destaca, sendo considerado o mais influente.


  • Mostrar Abstract
  • **

10
  • JULIANO DOS SANTOS CORREA
  • Otimização da Programação Integrada de curto prazo na mineração

  • Orientador : GUSTAVO CAMPOS MENEZES
  • MEMBROS DA BANCA :
  • GUSTAVO CAMPOS MENEZES
  • JOAO FERNANDO MACHRY SARUBBI
  • MARCONE JAMILSON FREITAS SOUZA
  • SERGIO RICARDO DE SOUZA
  • Data: 27/11/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O setor de extração mineral é uma atividade de grande fonte de renda, contribuindo financeira e economicamente, e no Brasil, essa contribuição é muito relevante devido às escalas globais dos ativos minerários existentes em solo. As grandes mineradoras no Brasil possuem múltiplos ativos produtivos e logísticos, o que necessitam ter um planejamento integrado de forma a otimizar a utilização desses ativos objetivando o atendimento das demandas dos clientes e a redução dos custos operacionais. Neste contexto, é definido o problema de programação integrada de curto prazo em minas, em que as decisões    de nível tático são definidas conjuntamente em centros de operações integradas (COI). Este problema é resolvido utilizando programação inteira mista, Relax and Fix, Fix and Optimize e Local Branching. Além disso, uma metodologia de testes e avaliação, tanto da verificação dos algoritmos como da validação do problema, é proposto e os resultados obtidos comprovam estas avaliações.


  • Mostrar Abstract
  • The mineral extraction sector is an activity of great source of income, contributing financially and economically, and in Brazil, this contribution is very relevant due to the global scales of mining assets existing on the ground. Large mining companies in Brazil have multiple productive and logistical assets, which need to have integrated planning to optimize theuse of these assets in order to meet customer demands and reduce operating costs. In this context, the problem of integrated short-term programming in mines is defined, in whicht actical-level decisions are defined jointly in integrated operations centers (IOC). This problemis solved using goal programming and four different strategies from the RelaxandFixheuristic. In addition, a testing and evaluation methodology, so much for the verification ofthe algorithms and for the validation of the mathematical model, is proposed and the results obtained confirm these evaluations.

11
  • GIOVANNI AMORMINO DA SILVA JÚNIOR
  • Método de Imputação Incremental, Simples e Eficiente para Dados Ausentes em Sistemas Evolutivos

  • Orientador : ALISSON MARQUES DA SILVA
  • MEMBROS DA BANCA :
  • DANIEL FURTADO LEITE
  • ALISSON MARQUES DA SILVA
  • EDUARDO HABIB BECHELANE MAIA
  • THIAGO DE SOUZA RODRIGUES
  • Data: 30/11/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Uma grande dificuldade enfrentada no desenvolvimento de aplicações que utilizam fluxos de dados para resolver problemas de previsão são os dados ausentes. Apesar de existirem técnicas para reduzir os impactos ocasionados por este problema, a maioria dos sistemas não são modelados de forma preventiva para possibilitar o tratamento adequado deste tipo de ocorrência. Neste contexto, este trabalho introduz uma nova abordagem denominada MDP (Missing Data Procedure) que possibilita que modelos evolutivos estimem as variáveis ausentes e, simultaneamente, realizem a previsão da saída utilizando todas as variáveis da amostra. A abordagem proposta foi implementada no eNFN (evolving Neo-Fuzzy Neuron) como um modelo de múltiplas entradas e múltiplas saídas e denominada eNFN-MDP. O MDP também foi implementado no ALMMo (Autonomous Learning Multi-Model) porém, como um modelo de múltiplas entradas e uma saída e chamado de ALMMo-MDP. Experimentos computacionais foram realizados em tarefas de previsão e identificação de sistemas não lineares em cenários de Ausência Completamente Aleatória (\textit{Missing Completely at Random – MCAR) e Ausência Aleatória (Missing at Random – MAR) para avaliar o desempenho do eNFN-MDP e do ALMMo-MDP. Os resultados obtidos foram comparados com métodos alternativos de imputação e mostraram que o eNFN-MDP e o ALMMo-MDP obtiveram um desempenho superior aos das abordagens alternativas e que eles são capazes de estimar as variáveis ausentes e realizar a previsão da saída com precisão. Portanto, os resultados experimentais sugerem a abordagem proposta com uma alternativa simples e eficiente como método de imputação para modelos evolutivos.


  • Mostrar Abstract
  • A major difficulty in developing real-world applications that use data streams to solveforecasting problems is missing data. Although there are techniques to reduce the impactscaused by this problem, most systems are not preventively modeled to allow proper treatmentof this type of occurrence. Basically there are two ways to deal with missing data: i) deletion,where all or part of the sample is removed or ignored; and ii) imputation, where the missingvalue is replaced by zero, the average of the variable to the sample with the problem oran estimated value, where the problematic variable is estimated by some model that, insome cases, may take into account. consider other variables and / or previous values. Inthis context, it is included in this work: a literature review with a study regarding the missingdata, as well as some of the main techniques used to minimize the impacts of its occurrence;the presentation of some models developed by other authors to solve the problem in theirrespective areas; the evaluation of the results of the tests performed with some of thetechniques studied in this work; and the planning for the continuity of the research, whichinvolves online based tests and the proposal of a new model that can be used as a solutionto the studied problem and that will be implemented and tested so that its results can beanalyzed and compared in the future. the results of the techniques analyzed in this work.

12
  • LUCAS GABRIEL LAGE COSTA
  • ECT: AN OFFLINE METRIC TO EVALUATE CASE-BASED EXPLANATIONS FOR RECOMMENDER SYSTEMS

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ANISIO MENDES LACERDA
  • DANIEL HASAN DALIP
  • FLAVIO LUIS CARDEAL PADUA
  • Data: 14/12/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A explicação baseada em caso é um dos estilos de explicação mais usado nos sistemas de recomendação. Essa abordagem é focada em fornecer explicações no seguinte formato:quais os itens previamente gostados foram usados para gerar a recomendação. Para medir a qualidade dos métodos que geram explicações, podemos fazer avaliaçõesonline e offline. As avaliações online requerem interação direta com os usuários e as avaliações offline requerem apenas dados extraídos anteriormente. A avaliação online pode lidar com mais aspectos das explicações e produzir resultados mais completos, por isso ela é incentivada. Mas testes envolvendo usuários nem sempre são acessíveis. A avaliação offline é preferida por ser mais fácil de implementar. Poucos projetos de pesquisa abordam métricas offline para medir a qualidade dos métodos de explicação baseados em casos, por isso esse é um problema mal definido. Para cobrir essa falta, estamos propondo ECT, uma nova métrica offline para avaliar aspectos mais complexos dos métodos de explicação baseados em casos. É composto por três sub-métricas, Coverage, Ease-of-interpretationandTriviality. Usamos a nova métrica para comparar vários métodos de explicação entre diferentes domínios de recomendação e acreditamos que essa inovação pode ser promissora para o uso de dados amplamente disponíveis.


  • Mostrar Abstract
  • Recommender systems suggest items that best fit the users’ interests and tastes. They are complex systems, which are often designed as black-box models. However, it is well- known that understanding recommendations is essential to help building users’ trust and engagement in these systems, so explanations for recommendations are a way to achieve this goal. An explanation is a piece of information displayed to users, explaining why a particular item is recommended. The case-based explanation is one of the most commonly used explanation styles in recommender systems. This approach is focused on providing explanations in the form of previously liked items that are used to make the recommendation, such as: “Because you liked A, we recommend B”. To measure the quality of methods that generate explanations, we can conduct online and/or offline evaluations. Online evaluations require direct interaction with users, and offline evaluations require just previously historic data. Online evaluation can handle more aspects of the explanations and produces more complete results, so it is encouraged, but tests involving users are not always accessible. In many scenarios, offline evaluation is preferred because it will not affect user’s experience through bad explanations, and it is also easier to implement than the online counterpart. Few research projects approach offline metrics to measure the quality of case-based ex- planation methods, so it is an ill-defined problem. Thus to cover this gap in the literature, we propose a new offline metric – ECT (Ease-of-interpretation Coverage Triviality) – to evaluate more complex aspects of case-based explanation methods. It is based on three sub metrics, one of them has already been proposed: (Coverage), and two new metrics: (Ease-of-interpretation and Triviality). Experiments were conducted in offline and online scenarios to validate the discriminative power of the proposed metric ECT, and show that it presents a 0.67 correlation with what users consider good explanations to their recommendations.

13
  • JARDELL FILLIPE DA SILVA
  • ARQUITETURA HÍBRIDA MULTIAGENTE AMAM APLICADA AO PROBLEMA P-HUB CENTRO

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FERREIRA GOUVÊA GOLDBARG
  • MARCONE JAMILSON FREITAS SOUZA
  • MARIA AMÉLIA LOPES SILVA
  • SERGIO RICARDO DE SOUZA
  • Data: 14/12/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta Dissertação estuda duas variantes do Problema de Localização de Hubs(HLP), especificamente, o Problema pHub Centro não Capacitado de Múltiplas Alocações (UMApHCP) e o Problema pHub Centro Capacitado de Múltiplas Alocações(CMApHCP). Uma pesquisa sobre o estado da arte e as características do problema é realizada. Tratando-se de problemas NP-Difíceis, este projeto utilizou-se de técnicas heurísticas e metaheurística. Para isso esse projeto implementa métodos de resolução em uma estrutura híbrida multiagente -Framework AMAM. O Framework AMAM possui capacidade de hibridização das metaheurísticas através da abordagem multiagente. Além de possuir conceitos de cooperação e paralelismo. O espaço de busca de cada agente do Framework é o próprio espaço de busca do problema, possibilitando assim sua flexibilidade para tratar problemas distintos. A ação do agente no espaço de busca é autônoma e permite a execução simultânea de vários agentes, de forma cooperativa. Os agentes são auto-adaptativos, o que permitirá que modifiquem suas ações com base em suas experiências. Nesta dissertação 3 propostas de resolução, além de modelagens exatas, são apresentadas. De forma que a primeira proposta consiste em um método híbrido, que combina a fase de construção do GRASP com um Algoritmo Genético na resolução do UMApHCP. Já a segunda proposta combina a fase de construção do GRASP com a metaheurística ILS também na resolução do UMApHCP. E por fim a terceira proposta soluciona o problema CMApHCP utilizando-se da metaheurística VNS. Para avaliar estas propostas, utilizou-se de 3 conjuntos instâncias disponíveis na literatura. Teste computacionais são realizados para comprovar a eficiência das propostas.


  • Mostrar Abstract
  • This dissertation project proposes the study of two variants of the Hub LocationProblem (HLP). Specifically, the Uncapacitated Multiple Allocation p-Hub CenterProblem (UMApHCP) and the Capacitated Multiple Allocationp-Hub Center Pro-blem (CMApHCP). A study on the state of the art and the characteristics of the problem is carried out. In NP-Difficult problems, heuristic and metaheuristic techniques are used. For this, this project implements resolution methods in a hybrid multi-agent structure -AMAM Framework. The AMAM Framework has the capacity to hybridize metaheuristics through multi-agent approach. In addition to having concepts of cooperation and parallelism. search space of each agent of the Framework is the search space of the problem, thus enabling its flexibility to treat different problems. The action of the agent in the search space is autonomous and allows the simultaneous execution of several agents, cooperatively. Agents are self-adaptive, which will allow modifying their actions based on their experiences. In this project, 3 resolution proposals are displayed. So that the first proposal consists of a hybrid method, which combines the construction phase of GRASP with the metaheuristic ILS in the UMApHCP resolution. The second proposal combines the construction phase GRASP with a Genetic Algorithm, also in the resolution of UMApHCP. And Finally, the third proposal solves the CMApHCP problem exactly, using CPLEX solver. To evaluate these proposals, 3 sets of instances were used available in the literature. Computational tests are performed to prove the effectiveness of knowledge of the proposals.

Teses
1
  • EDUARDO JABBUR MACHADO
  • UM ARCABOUÇO DE ALGORITMOS DE APRENDIZADO DE MÁQUINA PARA AVALIAÇÃO DE ESTRATÉGIAS DE INVESTIMENTO PARA O MERCADO DE AÇÕES

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ANISIO MENDES LACERDA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • DANIEL HASAN DALIP
  • FELIPE DIAS PAIVA
  • JULIANO LIMA PINHEIRO
  • Data: 27/02/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O mercado de capitais tem crescido a cada dia e desempenhado um importante papel entre as pessoas físicas que querem investir e as empresas que precisam capitalizar-se para expandir o seu negócio. Em especial, o investimento no mercado de ações é uma das formas mais rápidas e atrativas de obter lucros consideráveis em um curto espaço de tempo. Porém, devido a grandes variações e oscilações neste tipo de mercado, os investidores estão sujeitos à riscos que podem acarretar também em grandes prejuízos. Com o objetivo de estudar os principais trabalhos que envolvem aplicações no mercado de ações relativos aos seguintes temas: tratamento de dados, modelos de previsão de tendências e modelos de operação, foi realizada uma Revisão Sistemática da Literatura (RSL). Verificou-se que o algoritmo Máquina Restrita de Boltzmann (RBM) de categoria não supervisionada de deep learning está sendo muito empregado para realizar redução de dimensionalidade através da seleção e extração de características latentes dos dados de séries temporais. Para evitar que outros estudantes e interessados da área de mercado financeiro tenham que despender muito tempo de suas pesquisas na implementação de algoritmos e possam dedicar esforços em criar, validar e aprimorar suas estratégias de negociação, propõe-se neste trabalho o projeto e implementação de um arcabouço automatizado constituído de 5 etapas: Extração de Dados, Caracterização e Transformação de Dados, Classificação de Modelos de Previsão de Tendências, Estratégia de Operação e a Análise de Resultados. Durante as simulações, avaliou-se dados de cotações históricas de 52 ativos negociados na Bolsa Brasil Balcão (B3), acrescidos de mais 10 índices globais, para um período de 400 dias úteis na etapa de Treinamento e de 1.000 dias úteis na etapa de Validação, para os 8 modelos de previsão de tendências propostos. Como resultados e validação do arcabouço proposto, serão apresentados para cada um dos ativos, índices e modelos de previsão de tendência, uma tabela consolidada contendo dados (desempenho, operação / risco e estatísticos) e 3 gráficos: série de preço de fechamento, série de evolução de capital acumulado (retornos líquido e bruto e custo operacional), boxplot do retorno financeiro e das medidas de desempenho.


  • Mostrar Abstract
  • **

2
  • Sérgio Henrique Nogueira
  • Alguns resultados sobre separadores de vértices em grafos

  • Orientador : VINICIUS FERNANDES DOS SANTOS
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • GUILHERME DE CASTRO MENDES GOMES
  • HUGO DE HOLANDA CUNHA NOBREGA
  • PHABLO FERNANDO SOARES MOURA
  • VINICIUS FERNANDES DOS SANTOS
  • Data: 22/05/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Separadores de vértices são úteis para resolver uma grande variedade de problemas em grafos. Nesta tese nós estudamos uma caracterização de algumas subclasses de grafos através de separadores de vértices e também estudamos reconfiguração de separadores, sob certas condições. Na primeira parte, estudamos subclasses de grafos cordais definidas por restrições impostas nas relações de continência e interseção de seus separadores minimais de vértices e caracterizamos essas subclasses por subgrafos induzidos proibidos. Na segunda parte, consideramos as regras mais comuns de reconfiguração e provamos resultados de equivalência e complexidade para Reconfiguração de Separadores de Vértices.

     

  • Mostrar Abstract
  • **

3
  • Samara Soares Leal
  • CAPSI: Modelo Matemático para Otimização do Controle Ativo dos Parâmetros Semafóricos das Interseções

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • ELIZABETH FIALHO WANNER
  • GLAYDSTON MATOS RIBEIRO
  • MARCONE JAMILSON FREITAS SOUZA
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • RENATO GUIMARAES RIBEIRO
  • THIAGO DE SOUZA RODRIGUES
  • Data: 03/07/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A frota de veículos circulando nos grandes centros brasileiros tem aumentado significativamente, porém as políticas públicas de mobilidade e investimentos em obras viárias não têm sido suficientes para acompanhar este crescimento. A consequência disso é o aumento do tráfego de veículos nas vias ocasionando congestionamentos que afetam a sociedade, o meio ambiente e a economia do país. Diante deste cenário, há diversos trabalhos, na literatura, sobre a construção de cidades inteligentes (smartcities), pelo uso da tecnologia, como alternativa para melhorar a mobilidade nos centros urbanos. Dentre as estratégias utilizadas, destacam-se os semáforos inteligentes ou reativos. Nesse contexto, este trabalho propõe um novo modelo de controle semafórico denominado “CAPSI - Controle Ativo dos Parâmetros Semafóricos de Interseções”. Esse modelo associa o uso de técnicas de Inteligência Computacional (IC) na otimização dos parâmetros semafóricos: tempo de verde, tempo de ciclo, defasagem e sequência de fases. Para tal, o modelo utiliza uma função de atraso para avaliar as soluções dos algoritmos de IC. Assim, não é utilizada a simulação para avaliar as soluções (limitação encontrada em trabalhos na literatura), pois esta estratégia torna o processo de busca dos algoritmos lento e de difícil adaptação para o mundo real. Para testar a aplicabilidade do CAPSI um estudo de caso é desenvolvido, em que os dados de demanda dos veículos nas interseções de duas regiões de Belo Horizonte (dados reais coletados pela Empresa de Transportes e Trânsito de Belo Horizonte - BHTrans) são carregados no simulador de tráfego AIMSUN. Este simulador é calibrado previamente para melhor representar as condições reais das regiões de estudo. O modelo CAPSI recebe essas demandas de veículos do AIMSUN e, a partir da aplicação de um Algoritmo Genético (AG) e/ou um Algoritmo de Evolução Diferencial (DE), define, em tempo real, uma boa configuração dos parâmetros semafóricos que atenda à demanda de veículos de modo a diminuir o tempo de atraso desses veículos nas interseções em estudo. Para calcular esse tempo de atraso é realizado um experimento adicional para definir qual função de atraso, dentre as mais utilizadas na literatura, apresenta uma estimativa mais adequada para a medida em questão. Os experimentos realizados foram analisados estatisticamente. Os resultados mostram que o AG foi capaz de encontrar melhores soluções para o problema quando comparado ao algoritmo DE e ao plano de semáforos utilizado atualmente pela BHTrans. Estes resultados mostram que o uso do modelo CAPSI associado às técnicas de IC no processo de otimização do plano de semáforos é promissor, podendo proporcionar uma gestão de tráfego mais eficiente que minimize as consequências causadas pelos congestionamentos de veículos nos centros urbanos.



  • Mostrar Abstract
  • **

4
  • EDUARDO CELIO BOAVENTURA
  • Geometria Computacional Aplicada à Mecânica de Materiais Granulares

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • WELLES ANTÔNIO MARTINEZ MORGADO
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • SIDINEY GERALDO ALVES
  • THIAGO GOMES DE MATTOS
  • Data: 06/08/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A geometria computacional é uma área de estudo intrinsecamente interdisciplinar, pois associa técnicas computacionais às propriedades geométricas de sistemas diversos. Neste trabalho aplicamos a tesselação de Voronoi, uma técnica de geometria computacional, para obtenção da pavimentação de sistemas granulares bidimensionais. Nosso objetivo é obter propriedades mecânicas a partir das propriedades geométricas da pavimentação do plano. Nesta tese aplicamos a metodologia em duas situações diferentes: 1) sistema dinâmico; 2) empilhamento quasiestático de grãos. A partir da análise das propriedades da geometria dos polígonos obtidos realizamos uma comparação com as propriedades mecânicas do sistema em questão, buscando associar a evolução espácio-temporal da pavimentação à dinâmica do sistema granular. No sistema dinâmico, durante a penetração de um intruso em um material granular confinado, analisamos as mudanças nos polígonos da área da cavidade (espaço vazio atrás do intruso) e do número de lados do polígono gerado pelo intruso, obtendo indícios de uma transição de fase de engarrafamento. No empilhamento quase estático de grãos, utilizamos a tesselação de Voronoi para a obtenção da função resposta a tensões, a partir de um calibre, e fomos capazes de reproduzir os resultados mecânicos obtidos a partir das forças de contato, utilizando geometria computacional. O calibre é uma constante obtida na base da camada granular por meio da relação entre a função resposta a tensões e a função resposta à tesselação de Voronoi. Este protocolo nos permite calcular a função resposta a tensões em diferentes níveis da camada granular, sema necessidade de se introduzir um sensor no bulk, ou seja, de uma forma não destrutiva e não invasiva.

     


  • Mostrar Abstract
  • **

5
  • MARCELO SOUSA CHAVES
  • Tempos de Primeira Passagem para Caminhadas Aleatórias em Redes Complexas

  • Orientador : THIAGO GOMES DE MATTOS
  • MEMBROS DA BANCA :
  • ALCIDES VOLPATO CARNEIRO DE CASTRO E SILVA
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE LUIZ ACEBAL FERNANDES
  • MARCELO MARTINS DE OLIVEIRA
  • THIAGO GOMES DE MATTOS
  • Data: 26/11/2020
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A análise topológica de redes é um importante campo de estudo em Teoria das Redes, com aplicações em vários campos da Ciência. Neste estudo, nós alteramos a topologia de uma rede quadrada através de reconexões em suas arestas e obtivemos diferentes tipos de redes: aleatória conservativa, aleatória não conservativa e livre de escala. Sob determinadas condições, as redes aleatórias e livre de escala apresentaram propriedades de mundo pequeno. Aplicamos as ferramentas da análise de Primeira Passagem para investigar as propriedades e características das caminhadas aleatórias nessas redes. Nas topologias investigadas, analisamos o Tempo de Primeira Passagem (TPP) de um significativo número de caminhantes aleatórios não interagentes, variando-se os sítios de partida e de chegada. Para caracterizar estes processos, aplicamos o conceito da simultaneidade de Primeira Passagem, através do chamado Índice de Uniformidade (IU), que é uma medida da probabilidade de que dois caminhantes independentes cheguem juntos ao sítio alvo. O IU permite avaliar se o tempo médio de primeira passagem (TMPP) é uma boa medida para o processo, e permite identificar redes com características de mundo pequeno. A análise da ocupação dos sítios durante uma caminhada aleatória nos permitiu diferenciar os diferentes tipos de redes, em particular identificar as propriedades de mundo pequeno, um tema que ainda é controverso na literatura.


  • Mostrar Abstract
  • The topological analysis of networks is an important field of study in Network Theory, with applications in various fields of science. In this study, we modified the topology of a square network, through the reconnections of its edges and obtained different types of networks: conservative random, nonconservative random and scale-free. Under certain conditions, the random and free-scale networks showed small world properties. We applied First Passage analysis tools to investigate the properties and characteristics of random walks in these networks. In the topologies investigated, we analyzed the First Passage Time (FPT) of a significant number of non-interacting random walkers, varying the departure and arrival sites. To characterize these processes, we applied the concept of first passage simultaneity, through the so-called Uniformity Index (UI), which is a measure of the probability that two independent walkers will arrive at the target site together. The UI allows to avaliate whether the average first passage time (TMPP) is a good measure for the process, and allows to identify networks with small world characteristics. The analysis of the sites occupation during a random walk allowed us to differentiate the different types of networks, in particular identify the small world properties, a topic that is still controversial in the literature.

2019
Dissertações
1
  • Gustavo Henrique Massula Mendonça
  • TOMADA DE DECISÃO EM PROBLEMAS DE OTIMIZAÇÃO DE PORTFÓLIOS FINANCEIROS
  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • ELIZABETH FIALHO WANNER
  • FELIPE DIAS PAIVA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • LUCIANA ROCHA PEDRO
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 01/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Quando se deseja realizar um investimento financeiro, é aconselhável procurar as soluções de compromisso entre retorno e risco. Estes dois objetivos são conflitantes em um investimento, pois maiores retornos esperados são acompanhados de maiores riscos de perdas. Mesmo quando todas as soluções de compromisso entre risco e retorno estão disponíveis, ainda existe a necessidade de escolher uma delas para concretizar o investimento. Em geral, esta escolha é melhor estruturada quando guiada por algum método de tomada de decisão que reflita as preferências da pessoa responsável por esta decisão, que chamaremos aqui simplesmente de decisor. Neste trabalho, é realizada a otimização de soluções para o problema de portfólio financeiro por meio de um algoritmo evolutivo e são aplicados métodos de auxílio à tomada de decisão em ambientes multiobjetivo. Três métodos disponíveis na literatura são aplicados, sendo eles o Rank Order Centroid Weights (ROCW), método Achievement Scalarizing Function (ASF) e Neural Network Decision-Maker method (NNDM), além de serem propostos mais dois métodos (Decision Maker Queries (DMQ) e Neural Network Decision-Maker method (NNDM 2)), que são testados e comparados. Também são realizadas simulações com séries históricas reais de modo a verificar na prática o comportamento e desempenho dos métodos, considerando diferentes perfis de investidores. No que diz respeito ao número de consultas necessárias ao decisor, o método DMQ foi o que demandou o menor número. O método NNDM com rede neural do tipo RBF foi o que apresentou maior taxa de acerto da melhor solução possível (métrica QA), simulando os diferentes perfis de investidores. No entanto, obteve resultados piores que o método NNDM 2 com rede neural do tipo MLP, que acertou a melhor solução 80% das vezes durante os testes, e obteve melhores resultados para as métricas Kendall-tau distance (KTD) e Distância da Melhor Solução (DMS). Os testes estatísticos realizados com os métodos que utilizam pontos de referência mostraram não haver diferença significativa quando comparados os resultados do método aplicado a priori e a posteriori. Todos os métodos aplicados com a otimização do portfólio conseguiram um alto valor de retorno acumulado nos testes Out of Sample (que utilizam dados posteriores àqueles utilizados para alimentar o modelo de otimização), estando inclusive acima do retorno acumulado da Ibovespa e Selic para o período simulado. Nestes testes, foram simulados diferentes perfis de investidores, sendo eles conservador, moderado e agressivo. Os métodos foram capazes de modelar os perfis, direcionando soluções de acordo com as preferências esperadas de cada um. No entanto, os testes comparando o Drawdown (maior perda no período) nos investimentos dos diferentes investidores não apresentaram diferenças estatísticas significativas.

  • Mostrar Abstract
  • **

2
  • Felipe Augusto Pereira Fernandes
  • PREVISÃO DE RESULTADOS NO FUTEBOL POR MEIO DE TÉCNICAS DE APRENDIZADO DE MÁQUINA

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • DANIEL HASAN DALIP
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 19/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Futebol é considerado o esporte mais popular do mundo. Por isso, existe um grande interesse em saber quem será o vencedor de uma partida com impactos sociais e econômicos ao redor do mundo. A partir de dados básicos de desempenho, extraídos dos placares dos jogos, este trabalho tem o objetivo de estudar o desempenho dos algoritmos de aprendizado de máquina aplicados à predição de jogos de futebol: vitória do mandante, empate ou vitória do visitante. Propusemos um modelo de dados para predição de jogos de futebol e investigamos os modelos de aprendizado com tarefas de regressão e classificação aplicando técnicas de redução de dimensão. Os algoritmos utilizados para regressão foram: Regressão Linear (RegLin), K vizinhos mais próximos (KNN), Random Forest (RF) e Gradient Boosting (GB). Para classificação: Regressão Logística (RegLog), Random Forest (RF),Gradient Boosting (GB), Naive Bayes (NB) e K vizinhos mais próximos (KNN). Para os algoritmos de regressão, o valor referência passou a ser o saldo de gols, pois é um número inteiro que varia num intervalo . Para mapear o saldo predito em classe, criamos uma função que recebe o saldo de gols predito e um parâmetro que deve ser ajustado K. Caso o saldo predito for: maior que K é vitória do mandante; menor que −K vitória do visitante; caso contrario empate. O melhor algoritmo, em relação ao F1-score, foi o GB aplicado a tarefa de regressão utilizando o modelo proposto neste estudo com K igual a 0.25. Este modelo apresentou um F1-score de 0.509 e uma acurácia de 52.78%. Aplicando esse modelo em apostas esportivas, ele se mostrou robusto em relação a lucratividade, com rentabilidade superior a índices de referência como IBOV e a taxa básica de juros do Brasil, a taxa SELIC.

  • Mostrar Abstract
  • **

3
  • THIAGO DA SILVA CORREIA
  • Heurísticas para Implantação de Unidades de Comunicação em Redes Veiculares

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • DANIEL HASAN DALIP
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • GUSTAVO CAMPOS MENEZES
  • JOAO FERNANDO MACHRY SARUBBI
  • Data: 22/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O estudo de redes veiculares (VANETs, Vehicular Ad Hoc Networks) tem recebido uma importante atenção nos últimos anos devido a incorporação de diversas tecnologias nos veículos automotores. Neste trabalho iremos resolver o problema de alocação das unidades de comunicação (RSUs, do inglês Roadside Units). Para realizar tal tarefa iremos utilizar um algoritmo evolucionário multiobjetivo baseado no método NSGA-II tendo como objetivos maximizar a área coberta pelas RSUs utilizando o menor número de RSUs possível. Para alcançar esses objetivos, duas abordagens serão aplicada. A primeira abordagem considera a área coberta pelas RSUs e o número de RSUs utilizadas. Já na segunda abordagem é levado em consideração a taxa de pacotes recebidos pelas RSUs. O algoritmo proposto neste trabalho utiliza operadores geométricos projetados especificamente para esse tipo de problema e uma busca local foi implementada para obter melhores resultados. Além disso o algoritmo proposto foi comparado ao da literatura atingindo melhores resultados em todos os casos testados.

  • Mostrar Abstract
  • **

4
  • MARIONIR MACÊDO CASTELO BRANCO NETO
  • Pontos Excepcionais em Transição de Fase Quântica

  • Orientador : GIANCARLO QUEIROZ PELLEGRINO
  • MEMBROS DA BANCA :
  • ANTONIO PAULO BAETA SCARPELLI
  • EDEN SANTANA CAMPOS AMORIM
  • GIANCARLO QUEIROZ PELLEGRINO
  • RENATO MOREIRA ANGELO
  • Data: 25/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  •  Nos estudos da mecânica quântica, a energia total do sistema quântico é representada pelo operador hamiltoniano H(λ), em que λ é eventualmente um parâmetro do sistema. Na teoria, espera-se que esse operador seja hermitiano, porém essa exigência pode ser relaxada permitindo-se que o parâmetro assuma valores complexos, com parte imaginária diferente de zero. Com esse novo conceito de um hamiltoniano não hermitiano, é sustentado que no comportamento dos autovalores relacionados a esse operador pode ser observada a transição de fase quântica. Esta é mudança do comportamento do sistema quando determinado valor crítico do parâmetro é atingido. Essa transição – quântica – ocorre em temperatura nula, por definição. Para o estudo da transição de fase quântica, foi introduzido o conceito de ponto excepcional, como sendo o valor de uma variável independente λ de uma matriz H(λ) em que há alteração na quantidade de seus autovalores. O intuito desse trabalho é determinar como é o comportamento da ocorrência desses pontos excepcionais, quando a matriz hamiltoniana tem seu parâmetro variado no plano complexo, utilizando como laboratório um dos modelos Curie-Weiss, o modelo Lipkin – originário da física nuclear. Dentro desse modelo, foram feitos estudos da matriz para diferentes valores de momento angular, operador que determina a construção da hamiltoniana, e foram encontradas distribuições dos pontos excepcionais no plano complexo. Observa-se que essas distribuições dependem do valor do momento angular e que o número de pontos excepcionais cresce com o aumento do momento angular. Além disso, os pontos excepcionais tendem a se acumular próximos ao valor crítico (real) que determina a transição de fase quântica. A partir desse comportamento, um subconjunto dos pontos excepcionais permitiu ajuste de curva que tende a revelar o valor crítico para a ocorrência da transição de fase quântica. Sugere-se, por fim, que a mesma abordagem possa ser implementada para outros modelos Curie-Weis vindos de diferentes áreas: modelo de emparelhamento – também da física nuclear; modelo Jaynes-Cummings – da ótica quântica; modelo bicamada – da física da matéria condensada; e modelo de Heisenberg – do magnetismo.


  • Mostrar Abstract
  • .

5
  • HELEN BARRETO LARA
  • EMARANHAMENTO EM SISTEMAS DE PARTÍCULAS IDÊNTICAS: MÉTODO DA DESSIMETRIZAÇÃO E ESTADOS MAXIMAMENTE EMARANHADOS

  • Orientador : GIANCARLO QUEIROZ PELLEGRINO
  • MEMBROS DA BANCA :
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • GIANCARLO QUEIROZ PELLEGRINO
  • JOSE GERALDO PEIXOTO DE FARIA
  • RENATO MOREIRA ANGELO
  • Data: 25/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O fenômeno quântico do emaranhamento em sistemas de partículas idênticas ainda é motivo de discussões e divergências na comunidade acadêmica, tanto no que diz respeito à sua interpretação física e experimental, quanto em relação à maneira correta de se quantificá-lo. Por outro lado, sua correta compreensão é fundamental para o desenvolvimento de tecnologias baseadas em criptografia, computação e informação quântica, medições de alta precisão, entre outros. Aqui, propõe-se um método simples, que lança mão da descrição baseada em partículas (primeira quantização), intuitivamente chamado de “dessimetrização” do estado global, que mostrou-se eficaz no cálculo do emaranhamento por meio do traço parcial do operador densidade, de maneira semelhante ao caso de partículas distinguíveis. Além disso, o trabalho também desenvolve um método para gerar estados maximamente emaranhados, que funciona para sistemas bipartidos idênticos e distinguíveis de dimensão finita, com igual importância para o desenvolvimento de tecnologias associadas ao fenômeno do emaranhamento quântico.


  • Mostrar Abstract
  • **

6
  • LUCAS BRAGA DE OLIVEIRA
  • Desenvolvimento de um Algoritmo Multiobjetivo Híbrido: Estudo de Caso na Geração de Energia com Usinas Hidroelétricas em Cascata

  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • MEMBROS DA BANCA :
  • RODNEY REZENDE SALDANHA
  • CAROLINA GIL MARCELINO
  • ELIZABETH FIALHO WANNER
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 26/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Os algoritmos evolucionários se inspiram em mecanismos de adaptação encontrados na natureza e nas últimas décadas têm se destacado como solução para diversos problemas nas áreas de engenharia, ciência e médica. À medida que a tecnologia avança, a complexidade de seus sistemas aumenta de forma que se torna árduo a sua solução sem o auxílio computacional destes algoritmos. Uma das técnicas para se melhorar o desempenho destes algoritmos é a hibridização, que consiste na criação de um novo algoritmo que combina de diferentes algoritmos evolutivos para que as vantagens de um algoritmo suprimam as deficiências do outro, melhorando de maneira geral a performance. Neste trabalho, foi desenvolvido o algoritmo multiobjetivo híbrido MESH, que se fundamenta nos paradigmas evolucionário e de busca por enxame do algoritmo híbrido C-DEEPSO e incorpora técnicas de outros algoritmos multiobjetivo. O MESH foi comparado com os algoritmos multiobjetivo clássicos NSGA-II e SPEA2, nas funções benchmark ZDT e em dois modelos multiobjetivo de geração de energia em usinas hidroelétricas. Um dos modelos avaliados, que é proposto neste trabalho, aborda a dinâmica da geração de energia com usinas em cascata com os objetivos de eficiência energética e manutenção dos níveis dos reservatórios do sistema. O MESH se mostrou competitivo em relação aos dois algoritmos clássicos, obtendo soluções de maior qualidade e com uma maior estabilidade, tanto com problemas benchmark quanto para os problemas reais de geração de energia com usinas hidroelétricas. O modelo proposto por sua vez se demonstrou de difícil solução em alguns cenários, ocorrendo casos em que os algoritmos não foram capazes de encontrar uma solução válida.


  • Mostrar Abstract
  • **

7
  • KARINA DE OLIVEIRA RODRIGUES DA SILVA
  • MODELOS MATEMÁTICOS PARA A OTIMIZAÇÃO DA ELABORAÇÃO DE CARDÁPIOS AUTOMATIZADOS PARA UMA UNIDADE DE ALIMENTAÇÃO E NUTRIÇÃO

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • MAYRON CÉSAR DE OLIVEIRA MOREIRA
  • ELISANGELA MARTINS DE SA
  • ELIZABETH FIALHO WANNER
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • Data: 27/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O objetivo de empresas responsáveis por produzir refeições coletivas é oferecer uma alimentação balanceada para os consumidores, respeitando as normas da legislação, de modo que o custo de produção das refeições seja o menor possível, ou que a qualidade nutricional das refeições seja a maior possível. Além da preocupação com a criação de um cardápio balanceado, é necessário considerar algumas características que compõem uma refeição, como por exemplo a variedade dos alimentos, combinação de texturas, cores e uma oferta de nutrientes que deve se adequar ao consumidor do serviço. O presente trabalho propõe a criação de dois modelos matemáticos para o problema da elaboração de cardápios para unidades de alimentação e nutrição, apresentando duas abordagens diferentes para o problema. O primeiro modelo tem por objetivo a elaboração de cardápios com o menor custo possível. O segundo modelo tem por meta a elaboração de cardápios com a maior qualidade nutricional possível, respeitando um limite orçamental préestabelecido. Os modelos matemáticos desenvolvidos foram implementados em python e resolvidos com o otimizador CPLEX. Os testes foram realizados considerando como unidade de alimentação e nutrição uma pré-escola que oferece refeições para crianças entre 4 e 5 anos. Os resultados alcançados por meio da implementação dos modelos comprovam que é possível obter cardápios coerentes de maneira prática, adequados nutricionalmente e adaptáveis as necessidades dos consumidores e da unidade de alimentação e nutrição.

  • Mostrar Abstract
  • **

8
  • GUSTAVO HENRIQUE PASSINI SANTOS
  • CLASSIFICAÇÃO DE PACIENTES DE ACORDO COM A SENSIBILIDADE QUIMIOTERÁPICA NEOADJUVANTE POR MEIO DA ANÁLISE DE BIMODALIDADE

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • ANTON SEMENCHENKO
  • THIAGO DE SOUZA RODRIGUES
  • Data: 03/06/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este projeto aborda o desenvolvimento de uma nova metodologia visando à caracterização de pacientes com câncer de mama em PCR (pathologic complete response) e NoPCR para tratamento neoadjuvante. Atualmente a comunidade médica enfrenta uma grande dificuldade em encaminhar pacientes com câncer de mama para o tratamento neoadjuvante, quimioterapia realizada com o intuito de diminuir as dimensões do tumor ou curá-lo, pois não existem ferramentas que garantem um nível satisfatório de confiabilidade. Neste contexto, pesquisadores esforçam-se para encontrar métodos que viabilizem uma caracterização mais assertiva dos pacientes, para que dessa forma se evite o desgaste físico e psicológico de uma quimioterapia sem uma redução satisfatória ou cura. Uma tecnologia utilizada para análise genética de pacientes é o microarray, técnica que se baseia no emparelhamento de sondas marcadas com quimiluminescência, radioatividade, ou por um anticorpo, para calcular a expressão genética em uma sonda, 22283 para o contexto desta dissertação, que por sua vez representa um gene, e apresentá-lo de forma numérica. Uma vertente nessa linha de pesquisa é a utilização do cálculo da bimodalidade genética para verificar a influência de determinadas sondas na caracterização de pacientes como PCR e NoPCR. A metodologia proposta visa selecionar sondas significativas por meio de ordenação e comparação entre as 3000 primeiras sondas com maior e menor valor de bimodalidade em pacientes das duas classes, PCR e NoPCR, em uma base de dados previamente utilizada em literatura. Após selecionar as sondas, pacientes oriundos de uma base diferente da utilizada para seleção serão classificados por intermédio de três classificadores utilizados previamente em literatura: Diagonal Linear Discriminant Analisys, Particle Swarm Optimization e Extreme Learning Machine, atestando dessa forma a qualidade da metodologia por meio dos resultados utilizando a curva ROC, sensibilidade e especificidade. Os resultados indicam que as sondas selecionadas detêm funções genéticas relacionadas à proliferação do câncer, portanto são significativas. Obteve-se desempenho estatístico satisfatório para as classificações realizadas com Extreme Learning Machine, já para os outros algoritmos os resultados não apresentaram significância em comparação a outros trabalhos já realizados e referenciados.


  • Mostrar Abstract
  • **

9
  • VICTOR GERALDO GOMES
  • UMA ABORDAGEM MULTIAGENTE PARA SIMULAÇÕES DE MOVIMENTAÇÃO DE MULTIDÕES E DE EVACUAÇÃO

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • GRAY FARIAS MOITA
  • HENRIQUE ELIAS BORGES
  • HENRIQUE COSTA BRAGA
  • Data: 28/06/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Ambientes com aglomerações podem ser responsáveis por problemas na eficiência de projetos referentes à evasão de multidões. A falta de fiscalização também favorece a grandes tragédias em locais de grande circulação de pessoas. Assim, o controle de multidões pode ser considerado como o planejamento sistemático para evitar problemas em reunião de pessoas. Um modelo via elaboração conceitual multiagentes para o fenômeno de pânico de multidão foi abordado. Para a construção deste modelo computacional utilizou-se modelos matemáticos e simulações multiagentes. Assim, um modelo computacional capaz de simular movimentação e multidões e, consequentemente, sua análise foi desenvolvido. Os resultados mostraram que quanto maior a quantidade de pessoas no ambiente maior é o tempo de evacuação e menor é o tempo de comunicação entre os agentes. As simulações aqui apresentadas mostram que é possível realizar estudos sobre a segurança e fluidez de ambientes e, dessa maneira, podem auxiliar nos projetos de ambientes com uma melhor resposta em casos de evacuação de emergência.



  • Mostrar Abstract
  • Environments   with   agglomerations  may   be   responsible  for   problems   in   the efficiency of multi crowd avoidance projects. Lack of supervision also favors major tragedies in places where there is great movement of people. Thus crowd control can  be  considered  assystematic  planning  to  avoid problems  in crowds. A  model via  multiagent  conceptual  elaboration  for  the  crowd  panic  phenomenon wasaddressed. For the construction of this computational model mathematical models and  multiagent  simulationswereused.  Thus,acomputational  model  able  to simulate  movement  and  crowds  and,  consequently,  its  analysiswas  developed.Results  showed  that  the  greater  the  amount  of  people  in  the  environment  the smaller  the  evacuation  time  and  the  shorter  the  time  of  communication  between the  agents.  The  simulations  presented  here  show  that  it  is  possible  to  carry  out studies on the safety and fluidity of environments and, in this way, it can aid in the design of environments with a better response in case of emergency.

10
  • FABIOLA FERNANDES DE OLIVEIRA
  • Estudo do Comportamento de uma Fibra em um Meio Granular Denso

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • CAIO FRANCA MERELIM MAGALHAES
  • THIAGO GOMES DE MATTOS
  • Data: 27/08/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O solo, como material granular, e a raiz, como uma estrutura biológica, podem ser considerados como um sistema fluido-estrutura e o entendimento da dinâmica dessa interação pode auxiliar no manejo do solo e de culturas, contribuindo tanto para a produção quanto para a estabilidade e qualidade do solo. Neste trabalho faz-se o estudo numérico de um sistema fluido-estrutura, extraindo informações macroscópicas de propriedades microscópicas do comportamento de uma fibra imersa em um meio granular denso. A simulação foi realizada, fazendo uso a técnica de dinâmica molecular em duas dimensões. Para tanto, são geradas as configurações iniciais tratando-se de uma caixa com discos de diferentes diâmetros e uniformemente distribuídos. Na simulação, a fibra é representada por um intruso preso em uma das extremidades. Foram estudadas 6 diferentes configurações iniciais, variando a posição da fibra no meio. Dessa forma, as forças atuantes sobre o intruso e as forças reativas no meio granular foram estudadas e, a partir delas, foi possível calcular as tensões atuantes no sistema em equilíbrio e conhecer o comportamento do mesmo com as diferentes inclinações do intruso. O trabalho representa uma etapa inicial para compreender e construir um modelo computacional realístico para simular a penetração de raízes no solo.


  • Mostrar Abstract
  • **

11
  • ANDRÉ LUIZ DE PAULO E SILVA
  • Utilização das Transformações Conformes e de Schwarz-Christoffel como Método de Abordagem de Problemas na Eletrostática

  • Orientador : GIANCARLO QUEIROZ PELLEGRINO
  • MEMBROS DA BANCA :
  • CARLOS MAGNO MARTINS COSME
  • GIANCARLO QUEIROZ PELLEGRINO
  • LEONARDO DOS SANTOS LIMA
  • URSULA DO CARMO RESENDE
  • Data: 28/08/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta Dissertação utiliza as transformações conformes e de Schwarz-Christoffel como método de abordagem de problemas de valor de contorno bidimensionais que envolvem a Equação de Laplace, com o foco nos problemas da Eletrostática. As condições de contorno que são trabalhadas por essas transformações são do tipo de Dirichlet constante por partes ou de Neumann nulas, sendo o foco desta Dissertação as condições do primeiro tipo. Esse método de abordagem é baseado no mapeamento de regiões de um plano complexo em outro, permitindo que as regiões mapeadas possam sempre voltar para suas geometrias originais. Nesse sentido, a região de destino deve apresentar um menor nível de complexidade do problema e, se possível, uma solução analítica já conhecida. As transformações de Schwarz-Christoffel são um tipo específico de transformações conformes tais que envolvem domínios poligonais. Nesta Dissertação, encontram-se as definições e propriedades matemáticas de ambos os mapeamentos dentro de um mínimo rigor matemático. Além disso, cinco problemas são solucionados analiticamente com as transformações conformes e um com a de Schwarz-Christoffel. E quatro problemas são solucionados numericamente via Schwarz-Christoffel pelo pacote SC Toolbox do MATLAB e confrontados com as soluções analíticas, quando estabelecidas, ou confrontadas com as soluções numéricas pelo método de Elementos Finitos do pacote PDE Toolbox do MATLAB. Tais transformações têm sido bastante utilizadas em pesquisas recentes de diversas áreas.


  • Mostrar Abstract
  • **

12
  • Romeu Manuel de Carvalho
  • ESTUDO DA ESTABILIDADE DE RESERVATÓRIOS DE ÁGUA EM SISTEMAS DE ABASTECIMENTO URBANO.

  • Orientador : THIAGO GOMES DE MATTOS
  • MEMBROS DA BANCA :
  • THIAGO GOMES DE MATTOS
  • ALLBENS ATMAN PICARDI FARIA
  • LUIS ARGEL POVEDA CALVINO
  • Data: 30/08/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A escassez dos recursos hídricos gerada pelos baixos índices pluviométricos entre os anos de 2014 e 2017 no Brasil, especialmente nas regiões Norte, Nordeste e Sudeste, geraram incertezas sobre a recuperação dos volumes dos reservatórios que abastecem a região metropolitana de Belo Horizonte. Neste trabalho propomos um modelo matemático baseado em equações diferenciais para estudar a estabilidade de reservatórios de água em sistemas de abastecimento urbano. O modelo é capaz de descrever o diagrama de fase e a estabilidade para o reservatório, a partir dos pontos de estabilidade do sistema de equações diferenciais. A construção do modelo é feita através da relação entre o volume do reservatório e da estação de tratamento de água sugerindo níveis estáveis na correlação. O foco principal é o sistema Rio Manso, por ser essencial no abastecimento de água da região metropolitana de Belo Horizonte. Através das equações de Lotka-Volterra com crescimento logístico e de métodos de análise de estabilidade, o modelo possibilitou o levantamento do diagrama de fase para o sistema Rio Manso. O resultado obtido para o principal ponto de estabilidade do sistema foi um foco hiperbólico instável. O modelo não apresentou ponto de estabilidade estável para o sistema Rio Manso dentro do domínio desejado.

  • Mostrar Abstract
  • The scarcity of water resources generated by the low rainfall rates between 2014 and 2017 in Brazil, especially in the North, Northeast and Southeast regions, generated uncertainties about the recovery of the volumes of the reservoirs that supply the metropolitan area of Belo Horizonte. In this work we propose a mathematical model based on differential equations to study the stability of water reservoirs in urban supply systems. The model is able to describe the phase diagram and the stability of the reservoir, from the stability points of the system of differential equations. The construction of the model is done through the relation between the volume of the reservoir and the water treatment plant suggesting stable levels in the correlation. The main focus is the Rio Manso system, as it is essential in the water supply of the metropolitan area of Belo Horizonte. Through the Lotka-Volterra equations with logistic growth and methods of stability analysis, the model made it possible to survey the phase diagram for the Rio Manso system. The result obtained for the system’s main stability point was an unstable hyperbolic focus. The model did not present stability point stable for the Rio Manso system within the desired domain.
13
  • Mariela Galdina de Moura Silva
  • INVESTIGAÇÃO DE MEMÓRIA A LONGO PRAZO NO MERCADO ACIONÁRIO BRASILEIRO.

  • Orientador : LEONARDO DOS SANTOS LIMA
  • MEMBROS DA BANCA :
  • LEONARDO DOS SANTOS LIMA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • FELIPE DIAS PAIVA
  • Data: 05/11/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O mercado acionário apresenta variáveis econômicas governadas por processos dinâmicos e não-lineares, podendo levar à geração de relações de dependência de longo prazo. As singularidades deste mercado podem não ser adequadamente descritas pelos tradicionais modelos analíticos da hipótese dos mercados eficientes e de passeio aleatório. Assim, a investigação de memória a longo prazo em séries financeiras é importante para se encontrar modelos adequados que permitam identificar, corretamente, o comportamento das séries financeiras. Neste trabalho é realizada a investigação da memória a longo prazo, em séries financeiras diárias de retornos do índice Bovespa e de cinco ativos individuais do mercado acionário brasileiro. Foram utilizadas a estatística R/S (rescaled range) e também a análise DFA (detrended fluctuation analysis), para a determinação do expoente de Hurst (H) e, consequentemente, a qualificação do comportamento do mercado de ações brasileiro.  Os resultados apresentaram divergências entre os métodos empregues e houve variação nos expoentes de Hurst calculados ao longo do tempo, no entanto, os resultados gerais, suportam a presença de memória longa sob a forma de persistência.


  • Mostrar Abstract
  • **

14
  • GLENDER BRÁS DE MEDEIROS
  • Programação Genética aplicada na Construção da Base de Regras em Redes Neuro-Fuzzy TIPO Neo-Fuzzy-Neuron

  • Orientador : ALISSON MARQUES DA SILVA
  • MEMBROS DA BANCA :
  • WALMIR MATOS CAMINHAS
  • ALISSON MARQUES DA SILVA
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 12/12/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho propõe a utilização de Programação Genética para construção da base de regras em Redes Neuro-Fuzzy do tipo Neo-Fuzzy-Neuron (NFN). Redes Neuro-Fuzzy são sistemas híbridos que combinam características dos Sistemas Fuzzy, como lidar com dados linguísticos e imprecisos, e das Redes Neurais Artificiais, como a capacidade de incorporar técnicas de aprendizado. A rede NFN é uma rede Neuro-Fuzzy composta por n modelos Takagi-Sugeno de ordem zero, um para cada variável de entrada, em que cada modelo possui seu conjunto de regras. A busca por novos algoritmos de aprendizado para construção da base de regras e ajuste de parâmetros em Redes Neuro- Fuzzy é um desafio contínuo. Programação Genética (PG) é uma técnica de Computação Evolucionária que utiliza analogias aos conceitos de evolução natural dos seres vivos para gerar e evoluir programas computacionais automaticamente. É um método populacional, isto é, trabalha com uma população de indivíduos (soluções) que buscam gerar indivíduos melhores através do processo evolutivo da PG. Neste trabalho são apresentados modelos Neuro-Fuzzy do tipo Neo-Fuzzy-Neuron com aprendizado por Programação Genética para construção da base de regras em cooperação com um método do gradiente para ajuste dos parâmetros do consequente. São propostos três novos algoritmos, sendo que cada um deles possui duas versões: a primeira versão utiliza um número fixo de regras definido pelo usuário; já na segunda o número de regras é variável e definido pelo algoritmo, sendo necessário ao usuário apenas informar a quantidade máxima de regras que poderão ser criadas. A escolha da PG se deve principalmente pela capacidade desta de, como qualquer outro método evolucionário, explorar um amplo espaço de busca com menos passos que algoritmos convencionais e fugir de ótimos locais. Por fim, os modelos foram avaliados em problemas de previsão e identificação de sistemas e comparados com modelos alternativos do estado da arte que utilizam métodos convencionais de aprendizado. Os resultados mostram que a Programação Genética é uma alternativa eficaz para a construção da base de regras em redes Neo-Fuzzy-Neuron, possibilitando obter modelos com boa acurácia quando aplicados em problemas de previsão e identificação de sistemas.


  • Mostrar Abstract
  • **

Teses
1
  • Cláudia Raquel Martins Corrêa
  • Análise e Síntese de Regras de Adaptação em Estratégias Evolutivas usando Funções de Lyapunov Estocásticas

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • CARLOS MANUEL MIRA DA FONSECA
  • ELIZABETH FIALHO WANNER
  • PEDRO LUIS DIAS PERES
  • RICARDO HIROSHI CALDEIRA TAKAHASHI
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • SERGIO RICARDO DE SOUZA
  • Data: 28/02/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As Estratégias Evolutivas (EEs) constituem uma classe particular de Algoritmos Evolucionários (AEs). As pesquisas que tratam da análise de estratégias evolutivas têm sido focadas nas aplicações destes algoritmos, usados para resolver problemas das mais diversas áreas, principalmente em espaços de busca contínuos, mas também em espaços discretos. As investigações das EEs também demonstram que esses algoritmos, ainda suscetíveis a diversas pesquisas, são eficientes e populares. Uma análise contendo provas rigorosas de convergência de EEs é uma tarefa difícil devido à estocasticidade desses algoritmos, apesar desta aleatoriedade permitir sua análise sob uma perspectiva matemática. Neste trabalho são propostas Estratégias Evolutivas com um único progenitor e λ descendentes (1 + ; λ)-EE. Na primeira delas, o tamanho do passo do algoritmo é modificado de acordo com uma regra de adaptação simples baseada em sucesso, denominada Regra 1. Uma extensão desta regra de adaptação do tamanho do passo, denominada Regra 2, também é proposta. Nesta estratégia o tamanho do passo é adaptado de acordo com o número de descendentes bem sucedidos. Além destas, a generalização a qualquer número de descentes e qualquer limiar, do controle de mutação baseado no tamanho passo, proposto em (WANNER et al., 2016, ACCEPTED) também é explorada e nomeada Regra 3. Finalmente é formulada uma EE com regra de adaptação do tamanho do passo baseada na combinação da Regra 1 com a Regra 3. A análise teórica destes algoritmos evolutivos concentra-se na investigação sobre sua convergência, quando aplicados em problemas de otimização em espaços de busca contínuos em uma classe de funções estritamente unimodais de uma variável. O estudo sobre a convergência das EEs segue uma abordagem usando funções de Lyapunov estocásticas, desenvolvida em (SEMENOV; TERKEL, 2003), no contexto da teoria de martingais. Expressões gerais para as esperanças condicionais dos próximos valores do tamanho do passo e para a distância para o ótimo são analiticamente derivadas para todas as Estratégias, e uma função de Lyapunov apropriada é construída. Os limites superiores da taxa de convergência, bem como os valores dos parâmetros de adaptação, são obtidos através da otimização numérica para valores crescentes de λ, permitindo também uma seleção informada desse parâmetro. Os resultados experimentais contribuem para uma análise dos limites de convergência teóricos obtidos e fornecem uma visão adicional sobre os pontos fortes e fracos da metodologia adotada.


  • Mostrar Abstract
  • **

2
  • EDUARDO CAMARGO DE SIQUEIRA
  • Heurísticas Computacionais Aplicadas a um Problema Flowshop Híbrido Multiobjetivo

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • ELISANGELA MARTINS DE SA
  • JOSE ELIAS CLAUDIO ARROYO
  • LUCIANO COTA PERDIGÃO
  • MARCONE JAMILSON FREITAS SOUZA
  • MOACIR FELIZARDO DE FRANCA FILHO
  • SERGIO RICARDO DE SOUZA
  • Data: 21/03/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta Tese trata o problema de sequenciamento de tarefas em ambiente Flow Shop Híbrido Multiobjetivo com saltos de estágios. Nesse problema, tem-se um conjunto de tarefas que devem ser executadas em um conjunto de estágios. Em cada estágio tem-se um conjunto de máquinas paralelas não-relacionadas. Algumas tarefas não passam por todos os estágios. Além disso, também são consideradas características como elegibilidade de máquinas, datas de entrega e custos por atrasos e antecipações. Inicialmente, os critérios de avaliação foram as minimizações de makespan, soma ponderada dos atrasos e soma ponderada das antecipações. Isso caracteriza o problema abordado como multiobjetivo, por envolver três objetivos conflitantes, isto é, a minimização de um dos objetivos influencia negativamente na minimização dos outros dois. Assim, não é possível encontrar uma única solução que otimize todos os objetivos ao mesmo tempo. Posteriormente, foram adicionados ao problema dois novos objetivos, que o classifica como um problema com múltiplos objetivos por possuir mais de três. Os novos critérios adicionados foram as minimizações do tempo de ociosidade e do número de tarefas atrasadas. A resolução de problemas dessa classe é dificultada principalmente pela deterioração da seleção por dominância de Pareto e pelo aumento exponencial do número de soluções necessárias para aproximar da frente de Pareto. Para resolvê-lo, foram propostos dois algoritmos, o primeiro baseado na metaheurística Multi-Objective General Variable Neighborhood Search(MO-GVNS) e o segundo baseado na metaheurística Pareto Iterated Local Search (P-ILS). Os algoritmos desenvolvidos foram testados em instâncias adaptadas da literatura e seus resultados foram comparados com os de outros algoritmos da literatura. Os resultados foram avaliados em relação às métricas Hypervolume, Epsilon, Spacing e Hierarquical Cluster Counting (HCC), e validados estatisticamente pelo teste de Levene e pelos gráficos de intervalo de confiança. Os resultados obtidos e as análises realizadas mostraram a superioridade dos algoritmos propostos para a solução dos problemas apresentados com relação às métricas Hypervolume, Epsilon e HCC.


  • Mostrar Abstract
  • **

3
  • Carlos Alberto Silva de Assis
  • Predição de Tendências em Séries Financeiras utilizando Meta-Classificadores

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • DANIEL HASAN DALIP
  • EDUARDO GONTIJO CARRANO
  • FELIPE DIAS PAIVA
  • FLAVIO LUIS CARDEAL PADUA
  • MARCONI DE ARRUDA PEREIRA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 24/04/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A previsão do comportamento de ativos financeiros é uma linha de pesquisa que vem sendo investigada por diversas técnicas ao longo dos últimos anos. Mesmo com inúmeras pesquisas, prever preços de ativos ou tendências continua sendo uma tarefa extremamente difícil, uma vez que tal comportamento está ligado às incertezas do mercado financeiro e outros fatores. Desta forma, neste trabalho foi desenvolvido um meta-classificador baseado em métodos de inteligência computacional para descobrir tendências de preço para ativos de bolsa de valores, como a B3. O kernel do meta-classificador é baseado na ferramenta WEKA, onde 7 classificadores são combinados para serem otimizados na etapa seguinte pela meta-classificação. Testes foram realizados com alguns dos ativos mais líquidos de diferentes setores e o ativo que acompanha o índice Bovespa da B3, são eles: BOVA11, CIEL3, ITUB4, PETR4, USIM5, CMIG4, GGBR4, KROT3 e GOLL4. Os resultados foram promissores, apresentando uma boa acurácia na classificação com até 57%, além de resultados financeiros satisfatórios com ganhos de até 100% do valor de capital inicialmente investido. Também tivemos bons resultados quando comparamos com os baselines buy-and-hold, aleatório e estratégia inversa.


  • Mostrar Abstract
  • **

4
  • Fernando Santos Souza
  • Adsorção de CO2 em Fosfato de Cálcio: Experimento e Modelagem Computacional

  • Orientador : BRENO RODRIGUES LAMAGHERE GALVAO
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • BRENO RODRIGUES LAMAGHERE GALVAO
  • JADSON CLÁUDIO BELCHIOR
  • JOÃO PEDRO BRAGA
  • LEONARDO DOS SANTOS LIMA
  • SIDNEY NICODEMOS DA SILVA
  • Data: 17/05/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho foi realizada a modelagem das características adsortivas do fosfato de cálcio para mitigação de dióxido de carbono (CO2). Através de cálculos utilizando a teoria do funcional da densidade, foram determinadas as energias de ligação do CO2 em diversos sítios do material, além de outras propriedades como a energia de superfíce. Os cálculos realizados possibilitam um entendimento de como as ligações químicas entre o adsorvente e o adsorvato (CO2) ocorrem na interface deste sistema bem como os aspectos quânticos do processo. Foi mostrado como a superfície responde à adsorção com diferentes quantidades de CO2 e o ponto em que a superfície pode ser considerada saturada. Espera-se que os resultados sejam úteis para uma possível aplicação de fosfatos de cálcio na redução da emissão de CO2 em aplicações reais.


  • Mostrar Abstract
  • ..

5
  • Gustavo Peixoto Hanaôka
  • Sistema de Tomada de Decisão Autônomo de Compra e Venda de Ações Baseado em Máquinas de Vetores Suporte e Otimização de Portfólios.


  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • ADRIANO CESAR MACHADO PEREIRA
  • ELISANGELA MARTINS DE SA
  • DANIEL HASAN DALIP
  • FELIPE DIAS PAIVA
  • PAULO ANDRE LIMA DE CASTRO
  • Data: 23/05/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O presente trabalho propõe um sistema de auxílio à compra e venda diária de ações que utiliza o método de máquinas de vetores suporte (SVM - Support Vector Machines), otimização de portfólios e uma estratégia de venda. Por meio da votação majoritária de um comitê de classificadores SVM, é realizada a classificação dos ativos capazes de atingirem rendimentos específicos ao longo do dia, sendo inicialmente considerados os rendimentos alvos de 1%, 2% e 3%. Os classificadores que compõem o comitê são definidos a partir de diferentes funções kernel, bem como valores variados dos hiperparâmetros da SVM. De posse dos ativos capazes de atingirem o alvo estipulado, um modelo de otimização linear inteira mista, que busca minimizar o risco, representado pelo valor em risco condicional (CVaR - Conditional Value-at-Risk), ao mesmo tempo que estipula um limite mínimo para retorno, realiza a alocação ótima de recursos levando em consideração apenas os ativos indicados pela classificação. O modelo realiza a alocação de recursos a partir de um portfólio inicial, permitindo assim o rebalanceamento, além de estipular um valor mínimo e máximo de proporção de investimento em cada ativo presente no portfólio, levando em consideração os custos de transação incorridos nas operações de compra e venda. Os ativos utilizados na pesquisa consistem nos ativos presentes no portfólio teórico do índice Bovespa (Ibovespa) do ano de 2005 a 2016. Para testar a eficácia do sistema proposto, é realizada uma análise in-sample em que se busca testar individualmente as metodologias a serem integradas, além de decidir qual alvo de ganho mais ideal, de acordo com a precisão da classificação. Em seguida, uma análise out-of-sample é realizada, buscando comparar os resultados obtidos pelo sistema integrado com os resultados obtidos pelos métodos individuais que o compõem. Os resultados obtidos mostram a superioridade do sistema integrado proposto, quando comparado com a utilização dos métodos individuais.


  • Mostrar Abstract
  • **

6
  • MARIA AMÉLIA LOPES SILVA
  • AMAM: Framework Multiagente para Otimização usando Metaheurísticas

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • ANA LÚCIA CETERTICH BAZZAN
  • ANISIO MENDES LACERDA
  • ELIZABETH FERREIRA GOUVÊA GOLDBARG
  • HENRIQUE ELIAS BORGES
  • MARCONE JAMILSON FREITAS SOUZA
  • SERGIO RICARDO DE SOUZA
  • Data: 24/06/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta tese apresenta um framework multiagente para otimização usando metaheurísticas, denominado Arquitetura Multiagente para Metaheurísticas (AMAM). O framework AMAM é uma estrutura genérica e flexível, que tem, como principal característica, a facilidade de hibridização de metaheurísticas, a partir da utilização de conceitos relacionados a sistemas multiagentes. Nesta proposta, cada agente atua independentemente no espaço de busca de um problema de otimização combinatória. Os agentes compartilham informações e colaboram entre si através do ambiente. Este tese tem, como principal contribuição, a consolidação do framework AMAM como uma ferramenta capaz de resolver diferentes problemas de otimização e que permita a fácil hibridização de metaheurísticas. Para tal, propõe a revisão da estrutura do framework AMAM com a incorporação de novos recursos que permitam dinamizar e aperfeiçoar o processo de solução. A estrutura do framework foi dividida em dimensões, ao se considerar suas diferentes perspectivas. A remoção de estruturas de coordenação explícita e de elementos que intermediavam a comunicação permitiram aumentar a autonomia do agente. A cooperação entre os agentes foi aprimorada, buscando maior diversidade nas soluções disponíveis na estrutura cooperativa, através da definição de novos critérios de inserção de novas soluções. É proposto também a incorporação de capacidades auto-adaptativas no agentes. O objetivo é permitir que o agente modifique suas ações com base nas experiências obtidas na interação com os outros agentes e com o ambiente, usando conceitos de Aprendizagem de Máquina. Neste sentido, são apresentadas duas propostas de agentes adaptativos baseados em Aprendizado por Reforço e em Autômatos de Aprendizagem. Para melhor introdução e validação do framework AMAM, esta tese utiliza instanciações do framework para dois problemas de otimização combinatória clássicos: Problema de Roteamento de Veículos com Janelas de Tempo (sigla em inglês, VRPTW) e o Problema de Sequenciamento de Máquina Paralela Não Relacionada com Tempos de Configuração Dependentes de Sequência (sigla em inglês, UPMSP-ST). Os experimentos demonstraram a efetiva redução nos custos das soluções com o uso de agentes cooperativos e a escalabilidade da proposta. Os experimentos também confirmaram que a capacidade de aprender atribuída ao agente influencia diretamente a qualidade das soluções, tanto do ponto de vista individual quanto do ponto de vista do trabalho em equipe. Sendo assim, a adaptabilidade dos agentes é confirmada, demonstrando que as técnicas de aprendizado utilizadas conseguem superar a necessidade de conhecimento das características específicas do problema a ser tratado. Os resultados obtidos possibilitaram concluir que o framework aqui apresentado é um passo à frente em relação aos demais frameworks da literatura quanto à adaptação aos aspectos particulares dos problemas.


  • Mostrar Abstract
  • **

7
  • Paloma de Oliveira Campos Xavier
  • Modelagem de Mercados Financeiros via Autômatos Baseados em Equações de Diferenças

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • MEMBROS DA BANCA :
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • ALLBENS ATMAN PICARDI FARIA
  • JOSE GERALDO PEIXOTO DE FARIA
  • JOSE LUIZ ACEBAL FERNANDES
  • FELIPE DIAS PAIVA
  • Data: 20/08/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Propomos uma abordagem via método de elementos discretos inspirada em equações diferenciais, com características de autômatos celulares, para construir um modelo baseado em agentes que visa reproduzir estatísticas observadas em mercados financeiros. É investigada a dinâmica de preços de um ativo financeiro que é transacionado em um mercado onde N agentes interagem demandando ou ofertando um único ativo. Consideramos que os agentes possuem restrição orçamentária devido a uma quantidade de recursos financeiros finita. A soma de todos os recursos financeiros dos agentes compõe a riqueza total do mercado. O modelo não considera alavancagem financeira. Apresenta duas componentes estocásticas de naturezas distintas. A primeira, de caráter endógeno, modela diferentes interpretações dos agentes quanto à percepção do valor intrínseco do ativo. Já a segunda, de caráter exógeno, modela efeitos das perturbações inesperadas que influenciam o mercado de forma proeminente. A atuação, em conjunto, da limitação de recursos financeiros e da variável estocástica de caráter endógeno, leva a oscilações na dinâmica de preços, que foram analisadas por meio de uma avaliação microeconômica do mercado. Através de uma aproximação do modelo, baseada em equações diferenciais, encontramos resultados analíticos que indicam que a dinâmica de preços estabiliza em torno do preço justo médio idealizado pelos agentes que mantém suas negociações ativas no mercado. Também investigamos como o processo de percepção do preço justo do ativo impacta a acumulação de riqueza dos agentes, bem como os riscos a que estão expostos. Observamos que a eficiência do agente em avaliar o preço justo está diretamente relacionada a riqueza acumulada e inversamente ao risco. Analisamos a distribuição logarítmica dos retornos das séries de preços sintéticas, e mostramos que apresentam caudas pesadas, conforme observado em mercados reais. Realizamos uma análise multifractal das séries sintéticas, e averiguamos a presença de correlações de longo alcance. Concluímos que o modelo consegue produzir estatísticas equivalentes às observadas em mercados reais. Através do estudo da sensibilidade do modelo aos parâmetros de controle, montamos um arcabouço que permite compreender melhor as forças subjacentes ao mercado financeiro e suas inter-relações.


  • Mostrar Abstract
  • .

8
  • João Paulo Barbosa Nascimento
  • ADDIC - Um Algoritmo Distribuído para a Descoberta de Comunidades Sobrepostas em Grandes Grafos

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • CARLOS AUGUSTO PAIVA DA SILVA MARTINS
  • FLAVIO LUIS CARDEAL PADUA
  • HENRIQUE COTA DE FREITAS
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 26/09/2019
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Redes complexas são sistemas grandes e dinâmicos que podem ser modelados por grafos. Muitos sistemas sociais, biológicos ou tecnológicos são considerados redes complexas, dentre eles a Internet e a Web, as redes sociais reais ou virtuais e as redes de infraestrutura física, tais como redes de transporte e de comunicação. A análise destas redes, na forma de grandes grafos, provê informações importantes acerca das características dos sistemas modelados. No entanto, o processamento sequencial destes grafos pode requerer alto custo computacional ou mesmo ser inviável, dependendo de seu tamanho e complexidade. Para solucionar esse problema recorremos ao processamento paralelo e distribuído. Este trabalho propõe o algoritmo paralelo e distribuído ADDIC, indicado para o processo de detecção de comunidades sobrepostas em uma rede complexa de grande porte. O algoritmo foi projetado a partir de um importante algoritmo da literatura e também por meio de um estudo criterioso do framework de programação paralela e distribuída Apache Spark, aliado a um planejamento detalhado de experimentos. Os experimentos foram executados em vários tipos de grafos de diferentes tamanhos, reais e sintéticos. O tempo de excução, consumo de recursos (CPU e Memória RAM) e medidas de escalabilidade e eficiência do algoritmo foram avaliadas. Os resultados dos experimentos indicam que o ADDIC alcança seu objetivo, que é detectar comunidades sobrepostas, além de apresentar resultados de tempo de execução melhores que o principal algoritmo sequencial da literatura. Além disso, o algoritmo proposto apresenta Escalabilidade próxima à linearidade e boas taxas de Eficiência.


  • Mostrar Abstract
  • .

2018
Dissertações
1
  • Mariana Mendes Guimarães
  • Modelos mono e multiobjetivo para o problema de localização de máxima cobertura: estudo de caso SAMU-BH

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • EDUARDO GONTIJO CARRANO
  • ELISANGELA MARTINS DE SA
  • FABIO ROCHA DA SILVA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • JOAQUIM JOSE DA CUNHA JUNIOR
  • Data: 07/02/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O problema de Localização de Facilidades (Facility Location Problem - FLP), é um dos temas clássicos na Pesquisa Operacional e se propõe a definir os melhores pontos de instalação de p facilidades para que as n demandas sejam atendidas. Uma de suas versões, o Problema de Máxima Cobertura (Maximal Covering Location Problem - MCLP), tem o objetivo de cobrir a maior demanda possível dentro de um limite preestabelecido (de tempo ou distância). Neste trabalho, o problema do tipo MCLP foi aplicado à realidade do Serviço de Atendimento Móvel de Urgência da cidade de Belo Horizonte, Minas Gerais, SAMU-BH, com o objetivo de maximizar a cobertura dos chamados atendidos dentro de um tempo de resposta de até oito minutos, para as unidades de suporte básico (USBs), e de até dez minutos, para as unidades de suporte avançado (USAs). Foram coletados dados dos prontuários referentes às ocorrências de Maio/2016 a Abril/2017, totalizando 29.048 registros. Os dados foram utilizados para a criação de instâncias do problema baseadas no comportamento dos chamados e que representassem a realidade do estudo de caso. Foi desenvolvido um modelo de programação linear inteira, adaptado de um modelo da literatura, e mapeados 427 nós de demanda e 1.527 nós candidatos a instalação de facilidades. Os tempos de resposta entre os nós foram calculados pelo aplicativo GoogleMaps Direction API. O modelo foi rodado em IBM ILOG CPLEX 12.7.1, em tempos computacionais satisfatórios. Foram construídos três cenários para localização das 26 ambulâncias disponíveis. Foram considerados o remanejamento entre as bases existentes, a localização ótima em novos pontos mapeados e as taxas de ocupação para cada tipo de ambulância conforme níveis de confiança predefinidos. Os resultados foram comparados com o cenário real de localização das bases, vigente em 2017. Houve um aumento de 9% a 25% na taxa de cobertura, que variou conforme parâmetros estabelecidos, e chegou à cobertura de 100% dos chamados com empenho de USBs. Novos cenários também foram testados, com a aquisição de ambulâncias conforme planejamento para o triênio 2018-2020, resultando em uma cobertura 36% maior das ocorrências com o empenho de unidades avançadas e de 95% das básicas, com a redução do seu tempo de resposta para seis minutos. Uma abordagem multiobjetivo foi apresentada, utilizando o método da Soma Ponderada, a posteriori, com os objetivos de aumentar a cobertura total e reduzir o número de bases instaladas. Foram encontradas 25 soluções Pareto-Ótimas, sendo uma alternativa à tomada de decisão gerencial.

  • Mostrar Abstract
  • .

2
  • Fernando Garcia Diniz Campos Ferreira
  • Estudo Comparativo Entre Modelos e Técnicas de Otimização de Portfólios com Restrição de Cardinalidade.

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • FELIPE CAMPELO FRANÇA PINTO
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 08/02/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A teoria moderna do portfólio introduz o conceito de risco para investimentos financeiros, iniciando um problema de decisão em uma relação de compromisso entre o risco e retorno, que são características conflitantes em um investimento. Recentemente, estudos vêm utilizando otimização multiobjetivo para tratar esse problema, mas modelos e técnicas ainda estão sendo aprimorados. Deseja-se, portanto, contribuir para o desenvolvimento desse processo de otimização, especificamente com restrição de quantidade de diferentes ativos em um investimento, propondo modificações em modelos e técnicas já propostos. Para isso, quatro experimentos foram planejados, estabelecendo comparação de técnicas, de modelos, simulações para validação desses e desenvolvimento de técnicas paralelas para investimentos em alta frequência, respectivamente. Resultados dos dois primeiros experimentos sugerem superioridade do modelo e técnica proposta em relação a outros presentes na literatura. Terceiro experimento valida o modelo e técnica escolhidos nos experimentos anteriores em uma simulação de negociações no mercado de ações e o quarto experimento apresenta melhorias à técnica que apresentou melhor desempenho, melhorando a qualidade das soluções geradas com um aumento mínimo de tempo. Uma vez que são propostos modelos e técnicas para a solução do problema estudado que, aparentemente, apresentam melhor desempenho que alguns presentes na literatura, conclui-se que esses novos procedimentos constituem uma importante contribuição acadêmica para a área de otimização de portfólios financeiros.


  • Mostrar Abstract
  • .

3
  • Rodrigo Couto e Silva
  • Estratégias de Operação Automatizada em Mercado Financeiro baseada em Previsões de Redes Neurais Artificiais.

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • FELIPE DIAS PAIVA
  • Data: 09/02/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A aplicação de algoritmos em investimentos é bastante pertinente, considerando que é comum o desejo dos investidores em adotar critérios objetivos para embasar suas decisões em operações financeiras. Recentemente há um crescente interesse pela automatização de estratégias de operação (*algotrading*). O emprego de Redes Neurais Artificiais (RNAs) do tipo *Extreme Machine Learning* (ELM) mostra-se propício, principalmente para estratégias de operação de curto prazo, dada sua maior eficiência demonstrada no treinamento. Porém, há uma carência de estudos na aplicação de ELM no mercado financeiro. O objetivo deste trabalho foi desenvolver uma estratégia de operação inteligente, baseada nas previsões geradas por um conjunto (*Ensemble*) de RNAs do tipo ELM. Cada RNA tem a responsabilidade de realizar previsões de tendência no retorno dos Preço e Volume com base em dados históricos dispostos em janelas temporais deslizantes de preço, retorno, volume e indicadores de análise técnica. A estratégia então determina os momentos de abertura e fechamento de posições considerando os sinais das previsões das RNAs. Uma validação do tipo *backtesting* simulado foi realizado nos ativos VALE3, ITUB4, PETR4 e BOVA11, com periodicidades variadas durante o ano de 2017, comparando os resultados financeiros com as estratégias *Buy and Hold* e Randômica, e entre a Estratégia RNA Preço e o *Ensemble* Preço e Volume. Os resultados encontrados mostram que o uso de RNAs do tipo ELM são adequadas para estratégias de operações de curto prazo. O *Enslemble* de RNA Preço e Volume causou melhoras nos indicadores financeiros Fator de Lucro e reduziu o *Maxdrawdown* em todos os casos apresentados, melhorando a relação risco retorno da estratégia. Além disso, reduziu o número de operações para quase metade quando comparada com a estratégia que utilizava apenas previsões da RNA Preço.


  • Mostrar Abstract
  •  

4
  • Jésus Amarante dos Reis
  • AVALIAÇÃO DE RETORNO E RISCO EM ALOCAÇÃO DE RECURSOS DE FUNDO DE PENSÃO

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • FELIPE DIAS PAIVA
  • MARCONI DE ARRUDA PEREIRA
  • Data: 15/06/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As alterações de fatores econômicos e sociais ocorridas nos últimos anos estão modificando significativamente a maneira de se preparar para aposentadoria. A gradativa redução da capacidade laboral, que acontece naturalmente com o passar dos anos, faz refletir sobre o período da incapacidade para o trabalho e, neste momento, reconhecemos a importância dos benefícios pagos pela Previdência Oficial, que há tempos vive uma expectativa de crise financeira favorecendo o surgimento e posterior crescimento das Entidades Fechadas de Previdência Complementar (EFPC). Neste mercado de previdência complementar, o período de acumulação de recursos é muito importante e a rentabilidade obtida nesta fase interfere diretamente na reserva financeira acumulado para a aposentadoria. Por isso, este trabalho tem como objetivo criar uma modelagem para selecionar e sugerir aos gestores de EFPC um portfólio de investimentos usando também renda variável em sua composição e que tenha rentabilidade suficiente para o cumprimento das expectativas do plano a um baixo nível de risco, medido pelo CVaR. Para tornar possível esta seleção de ativos é necessário observar a legislação atual relacionada aos limites da meta atuarial e da composição da carteira conforme a classificação dos ativos na B3. Dispondo das cotações diárias da BOVESPA do período de 2008 a 2016 será aplicada a Teoria do Portfólio de Markowitz para obter uma carteira ativos com o retorno adequado a legislação e risco minimizado. As simulações realizadas apresentaram retorno acumulado em oito anos superior em 128,45% a meta atuarial e 193,55% ao IBOVESPA que em média representa retorno anual superior em 16,00% e 24,00%, respectivamente. Os resultados foram validados com Fundos de Investimentos selecionados e com uma solução proposta pelo algoritmo evolutivo multiobjetivo NSGA-II, que também foram superados. De posse dos melhores ativos selecionados, pode-se então recomendar sugestões de carteiras para fundos de pensão.


  • Mostrar Abstract
  • .

5
  • Renato Barros Arantes
  • SISTEMAS DE RECOMENDAÇÃO BASEADOS EM VETORES DE PALAVRAS E PROPRIEDADES DE REDES COMPLEXAS.

  • Orientador : ANISIO MENDES LACERDA
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • ELIZABETH FIALHO WANNER
  • FLAVIO LUIS CARDEAL PADUA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • MARCELO PEIXOTO BAX
  • Data: 16/07/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Com o rápido crescimento e a abundância de serviços na internet, as pessoas se veem em frente a uma enorme gama de opções. Embora esse crescimento tenha permitido que os usuários da internet consumam uma grande quantidade de recursos com apenas um clique, também tornou mais difícil para os mesmos encontrar informações relevantes para seus interesses. Em muitas situações, as pessoas possuem pouca ou quase nenhuma experiência pessoal para escolher uma dentre as inúmeras opções que são oferecidas. Neste contexto, os sistemas de recomendação desempenham um papel importante auxiliando no aumento da capacidade e eficácia deste processo de indicação. Neste trabalho, os sistemas de recomendação de tags e recomendação de artigos científicos, duas formas diferentes de recomendações, são abordados tendo em comum a utilização de propriedades de redes complexas como meio auxiliar no processo de recomendação. A recomendação de tags é feita de duas maneiras distintas. Para determinar a relevância de uma tags em um documento, o vocabulário do documento é representado usando um grafo gerado a partir de um modelo de vetores de palavras. As métricas de uma rede complexas são aplicadas para calcular a relevância das palavras do documento e as palavras mais relevantes são selecionadas como as tags recomendadas. Alternativamente, as tags podem ser recomendadas usando as métricas de redes complexas como dados de entrada para técnicas de aprendizado de máquina. Para a recomendação de artigos científicos, para cada usuário, pretende-se recomendar artigos que não estão em sua biblioteca, mas são de potencial interesse para o mesmo. As informações sobre as bibliotecas de outros usuários e informações sobre os artigos disponíveis, tais como título e resumos utilizados como entrada para um modelo de vetor de palavras, serão usadas para gerar uma rede complexa e, usando as propriedades das redes complexas, palavras deste grafo são selecionadas para expandir um documento. Para extrair os tópicos e as recomendações, técnicas de processamento de linguagem natural serão aplicadas. Combinar as métricas de rede é mais eficiente do que usá-las separadamente para recomendar tags nos filmes do conjunto de dados IMDb. Para os métodos não supervisionados, o melhor resultado foi obtido pelo algoritmo TF-IDF, com uma precisão de aproximadamente 31%. Este resultado é muito inferior ao que foi obtido usando o algoritmo Random Forest que foi de aproximadamente 85% no cenário supervisionado. Os resultados obtidos com a metodologia proposta para recomendação de tags mostraram o potencial da abordagem. A partir dos experimentos realizados para a recomendação de artigos científicos, a técnica proposta melhora o desempenho do modelo CTR para o problema de cold start. 


  • Mostrar Abstract
  • **

6
  • Michelle Diniz Lopes
  • MODELO LONGITUDINAL APLICADO À PERDA AUDITIVA INDUZIDA PELO RUÍDO.

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • ELIZABETH FIALHO WANNER
  • FABIO ROCHA DA SILVA
  • THIAGO DE SOUZA RODRIGUES
  • GLADSTON JULIANO PRATES MOREIRA
  • Data: 19/07/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Em ambientes industriais é comum a presença de ruídos que podem causar danos cumulativos e irreversíveis na audição dos trabalhadores, afastamento do trabalho e até indenizações no caso do não cumprimento rigoroso das normas de saúde e segurança do trabalho, além de onerar o sistema de saúde. O objetivo desse estudo é determinar a prevalência de perda auditiva induzida por ruído (PAIR) em trabalhadores de uma indústria, relacionado com a idade e com o tempo de exposição ao ruído. Os dados são de 106 trabalhadores que se submeteram a exame audiométrico periódico. Na literatura não foram identificados trabalhos que levem em consideração que as medidas feitas nos trabalhadores ao longo do tempo são correlacionadas. Portanto, a associação estatística entre PAIR com idade e tempo de empresa foi avaliada usando um modelo longitudinal. Estudos longitudinais permitem a distinção entre o grau de variação na variável de resposta para um indivíduo ao longo do tempo e a variação entre diferentes indivíduos. Dos diversos modelos testados, o modelo exponencial foi o que apresentou os melhores resultados e se ajustou melhor aos dados, relacionando as medições audiométricas com a idade do trabalhador e o tempo de empresa. Este modelo poderia ser usado em aplicações semelhantes em diversas áreas. Todas as análises comparativas entre os diversos modelos foram realizadas usando programas na linguagem R para validação dos dados.


  • Mostrar Abstract
  • **

7
  • Augusto Flávio Morais Santos
  • ALGORITMOS HEURÍSTICOS PARA A SOLUÇÃO DO PROBLEMA DA CADEIA DE CARACTERES MAIS PRÓXIMA.


  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • MARCONE JAMILSON FREITAS SOUZA
  • ELISANGELA MARTINS DE SA
  • SERGIO RICARDO DE SOUZA
  • VITOR NAZARIO COELHO
  • Data: 13/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O presente trabalho tem seu foco no Problema da Cadeia de Caracteres Mais Próxima (PCCP) – Closest String Problem (CSP). O objetivo deste problema é o de encontrar uma sequência de caracteres que mais se aproxime, segundo uma dada métrica, de um conjunto de cadeias de caracteres de mesma dimensão. Sendo o CSP da classe NP-difícil, justifica-se a utilização de métodos heurísticos para solucioná-lo. Propõe-se a implementação de três metaheurísticas, a saber: Simulated Annealing (SA), Variable Neighborhood Search (VNS) e Discrete Particle Swarm Optimization (DPSO). Todos os métodos foram implementados com características híbridas, combinados com um método de busca local, que é aplicado cada vez que é atualizada a melhor solução corrente. Para testá-los, foram utilizados conjuntos de problemas-teste amplamente usados na literatura. Os experimentos computacionais realizados indicaram que o método híbrido Hybrid Discrete Particle Swarm Optimization for Closest String Problem (HDPSO CSP ) obteve bom desempenho e, em alguns casos, chegou a encontrar as soluções ótimas.


  • Mostrar Abstract
  • O presente trabalho tem seu foco no Problema da Cadeia de Caracteres mais Próxima

    – PCCP (Closest String Problem - CSP). O objetivo no PCCP é o de encontrar uma

    sequência de caracteres que mais se aproxime, segundo uma dada métrica, de um dado

    conjunto de cadeias de caracteres de mesma dimensão. Sendo este problema da classe NP-

    difícil, são propostos algoritmos metaheurísticos para resolvê-lo. Em particular, propõe-se

    dois algoritmos heurísticos, um baseado na metaheurística Simulated Annealing, chamado

    de HSALS, e outro baseado na metaheurística Variable Neighborhood Search (VNS). Ambos

    utilizam um método de busca local com a estratégia Best Improvement. No algoritmo

    HSALS, essa busca local é aplicada cada vez que é atualizada a melhor solução. Para

    testá-los, foram usados problemas-teste disponíveis na literatura e os resultados parciais

    obtidos mostram que o algoritmo HSALS é competitivo com outro algoritmo heurístico da

    literatura.

8
  • TALES HENRIQUE JOSE MOREIRA
  • Genealogia Acadêmica Brasileira: Uma Caracterização da relação Orientador-Orientado no Brasil

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • GRAY FARIAS MOITA
  • GUSTAVO CAMPOS MENEZES
  • THIAGO MAGELA RODRIGUES DIAS
  • BRUNO FERREIRA
  • Data: 27/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A relação orientador-orientado, que se caracteriza como uma forma de propagação do conhecimento, como resultado pode proporcionar um aumento na produção científica dos orientadores e orientados. Especificamente em programas de pós-graduação, onde orientados submetem artigos científicos em diversos meios de publicação em coautoria com seus orientados, estes acabam por impulsionar a produção científica de seu orientador, já que em geral os orientadores surgem como coautores das publicações. Portanto, caracterizar como ocorre o processo de orientação e a produção científica resultante dessa relação é mais um importante meio de análise da colaboração cientifica nas diversas áreas do conhecimento. Neste trabalho, são utilizados os dados de orientações extraídos dos currículos cadastrados na Plataforma Lattes com o objetivo de obter-se, além de uma visão geral do processo de orientação no Brasil, uma análise da produção bibliográfica advinda desse processo, identificando dessa forma como o conhecimento científico Brasileiro tem se propagado.


  • Mostrar Abstract
  • .

9
  • LUIZ ALBERTO DA SILVA VIEIRA
  • ESTUDO DAS PROPRIEDADES MECÂNICAS DE CAMADAS GRANULARES INCLINADAS COM ATRITO: UMA ANÁLISE NUMÉRICA DOS DADOS POR MÉTODOS DE OTIMIZAÇÃO.

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • ALLBENS ATMAN PICARDI FARIA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • LEONARDO DOS SANTOS LIMA
  • CAIO FRANCA MERELIM MAGALHAES
  • Data: 29/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Nesse projeto realizamos a análise de dados obtidos através de simulação numérica da deposição da Dinâmica Molecular ocorrido em camadas de materiais granulares . Visamos encontrar um protocolo para analisar as propriedades mecânicas do material realizando a execução de diferentes instâncias do problema. Os dados numéricos encontrados são ajustados a um modelo teórico da resposta de um sólido correspondente a aplicação de uma força. Os resultados obtidos na simulação deverão ser avaliados por um algoritmo de otimização populacional visando encontrar os parâmetros teóricos para os resultados obtidos. Através do estudo das propriedades físicas do sistema no limiar do cisalhamento espera-se avaliar o comportamento do coeficiente de cisalhamento ao variar as diversas propriedades da simulação.


  • Mostrar Abstract
  • **

10
  • RONDINELLI LEONARDO JORGE
  • Desenvolvimento de um Modelo de Estimação de Confiabilidade para Redes de Sensores Sem Fio

  • Orientador : ELIZABETH FIALHO WANNER
  • MEMBROS DA BANCA :
  • ALISSON MARQUES DA SILVA
  • FÁTIMA DE LIMA PROCÓPIO DUARTE FIGUEIREDO
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 29/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As Redes de Sensores Sem Fio (RSSF) são consideradas como extensão da internet para o ambiente da Internet das Coisas e adquiriram uma importância fundamental na evolução tecnológica. Sua aplicação se estende entre as mais diversas áreas estratégicas como militar, engenharia, meio ambiente, tráfego, aviação, automação de ambientes e diversas outras que são consideradas corriqueiras nos dias de hoje, como saúde e segurança. Com tanta utilidade, torna-se fundamental que haja um sistema de estimativa quanto ao grau de confiabilidade dessas redes visando melhor desempenho nas áreas a que são propostas. O presente trabalho tem o intuito de propor e desenvolver um sistema de classificação das RSSF, a partir de modelos matemáticos, que trate objetivamente aspectos como confiabilidade entre os nós da rede, acurácia na comunicação, latência e eficiência energética. Estes valores servirão de entrada para um Sistema Fuzzy configurado para retornar como saída o grau de confiabilidade que a RSSF possui para a realização da tarefa para a qual foi designada. Experimentos práticos foram escolhidos a partir de simulações para demonstrar a eficácia do sistema proposto. Os resultados obtidos se mostraram satisfatórios na obtenção do grau de confiança da RSSF em escala de 0 a 1.


  • Mostrar Abstract
  •  **

11
  • Wagner Cipriano da Silva
  • LOCALIZAÇÃO INDOOR BASEADA EM TECNOLOGIA BLUETOOTH DE BAIXA ENERGIA

  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • MEMBROS DA BANCA :
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • GUSTAVO CAMPOS MENEZES
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • RAQUEL APARECIDA DE FREITAS MINI
  • Data: 30/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Com o desenvolvimento da Internet das Coisas e o crescente interesse comercial por serviços baseados em localização indoor, tornou-se essencial o aperfeiçoamento de técnicas para suportar as aplicações. As pessoas passam de 80% a 90% do tempo em ambientes fechados e algumas das aplicações móveis que utilizam fazem sentido apenas quando a localização do usuário é conhecida. Contexto no qual os serviços dessa natureza se tornam muito importantes. O GPS é o sistema mais utilizado para localização e orientação, consolidado para ambientes externos, porém apresenta limitações para funcionamento em locais fechados. A partir da versão 4.0, de 2010, o protocolo Bluetooth passou a incluir o padrão Low Energy (BLE), que possibilitou o lançamento dos beacons BLE, em 2013/14, e impulsionou o desenvolvimento das aplicações de localização em ambientes fechados. Neste contexto, o presente trabalho avalia técnicas de localização indoor para suportar aplicações móveis. A partir da planta baixa do estabelecimento, é construído um modelo gráfico de representação da área de interesse, onde serão executados os experimentos. O posicionamento dos beacons é definido e os experimentos são conduzidos no ambiente. São desenvolvidas técnicas de localização utilizando Fingerprinting e Triangulação que são testadas com os dados gerados nos experimentos. Os resultados do trabalho mostram uma precisão de 90% a 100% para as técnicas de Fingerprinting, dependendo da granularidade utilizada. Para a Triangulação, a mediana do erro ficou entre 0 e 2 metros para todos os experimentos com foco nessa abordagem e o intervalo interquartil ficou situado entre 0 e 2.25 metros em 3 dos 4 experimentos. A análise dos resultados mostra que a utilização dos Beacons BLE é adequada para ambientes divididos com granularidade entre 1 e 3 metros, para um intervalo de confiança entre 90% e 99%. Foi validado, nos experimentos efetuados, que é possível alcançar uma exatidão de 100% em configurações que trabalham com identificação por zona.

  • Mostrar Abstract
  • **

12
  • Washington Pinheiro de Souza
  • MODELAGEM DE UM TESTE DE HIPÓTESES, BASEADO NA CONVOLUÇÃO DA DISTRIBUIÇÃO BINOMIAL E A DISTRIBUIÇÃO NORMAL, COM APLICAÇÕES NA INDÚSTRIA AUTOMOTIVA, MEDICINA VETERINÁRIA E NO ÍNDICE IPCA DO BANCO CENTRAL.


  • Orientador : THIAGO GOMES DE MATTOS
  • MEMBROS DA BANCA :
  • THIAGO GOMES DE MATTOS
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • FABIO ROCHA DA SILVA
  • LUIS ARGEL POVEDA CALVINO
  • Data: 30/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Em vários segmentos que necessitam de um orçamento prévio e/ou uma previsão de receitas, é comum a realização de estimativas. Tal procedimento é feito embasado em modelos estatísticos. A distribuição Binomial é um modelo estatístico discreto que determina as chances de sucesso ou fracasso da ocorrência de um determinado número de eventos em um espaço amostral limitado. A distribuição normal é o modelo estatístico padrão que segue a lei dos grandes números, ou seja, ocorrências aleatórias que tendem ao infinito convergem para uma média e apresentam uma variância. Reunir as características das duas distribuições em uma ferramenta única é de grande valia para se realizar estimativas e, para tanto, utiliza-se a convolução. Os testes de hipóteses são ferramentas estatísticas muito utilizadas para se determinar o a abrangência de um determinado conjunto de dados numéricos a partir da rejeição ou não da hipótese nula. Para se realizar a convolução entre as duas distribuições citadas é necessário que ambas sejam discretas ou contínuas. A distribuição Binomial foi aproximada de uma função contínua, através de ferramentas matemáticas apropriadas, e posteriormente convoluída com a distribuição normal. Foi feita a previsão da quantidade de peças defeituosas que devem ser recolhidas pela Magneti Marelli em todo o Brasil através da relação de proporcionalidade da convolução discreta. Os valores estimados contemplaram os valores reais divulgados pela empresa. No Hospital Veterinário da UFMG, foram feitas previsões da quantidade de animais que estavam aptos a realizar a cirurgia de castração no ano de 2016, através da convolução discreta e utilizando dados do ano de 2015. Todos os valores mensais coletados no hospital veterinário no ano de 2016 estavam dentro da previsão feita utilizando o modelo. Foi estimado o Índice Nacional de Preços ao Consumidor Amplo (IPCA) dos anos de 2011 a 2016 com base nos dados de 1996 a 2010 divulgados pelo IBGE, utilizando a convolução contínua. Os valores observados estavam dentro da faixa prevista pelo método com proximidade da média. Pela aplicação nos diversos setores citados com respectivos resultados satisfatórios, o método proposto se mostrou eficaz e multidisciplinar, ou seja, pode ser aplicado em diversas áreas.


  • Mostrar Abstract
  • .In several segments that require a prior budget and / or a revenue forecast, estimates are common. This procedure is based on statistical models. The Binomial distribution is a discrete statistical model that determines the chances of success or failure of the occurrence of a certain number of events in a limited sample space. The normal distribution is the standard statistical model that follows the law of large numbers, that is, random occurrences that tend to infinity converge to an average and present a variance. Gathering the characteristics of the two distributions in a single tool is of great value to make estimates and, for that, the convolution is used. In order to perform the convolution between the two distributions, it is necessary that both are discrete or continuous. The Binomial distribution was approximated to a continuous function and subsequently convolved with the normal distribution, while the normal distribution was approximated from a discrete series and was subsequently convolved with the Binomial distribution. It is made the forecast of the quantity of defective pieces that must be collected by Magneti Marelli throughout Brazil through the proportionality relation of the discrete convolution. The estimated values include the actual values disclosed by the company. At the UFMG Veterinary Hospital, estimates were made of the number of animals that were able to perform castration surgery in 2016, through discrete convolution and using data from the year 2015. All monthly values collected at the veterinary hospital in the year of 2016 are within the forecast made using the model. The National Broad Consumer Price Index (IPCA) for the years 2011 to 2016 was estimated based on data from 1996 to 2010 released by IBGE, using continuous convolution. The observed values are within the range predicted by the method with proximity to the mean. Due to the application in the several sectors mentioned with satisfactory results, the proposed method proved effective and multidisciplinary, that is, it can be applied in several areas.

13
  • Mariana de Mendonça Melo
  • AUTÔMATOS CELULARES APLICADOS À DINÂMICA DE DOAÇÃO EMPARELHADA DE RINS.

  • Orientador : THIAGO GOMES DE MATTOS
  • MEMBROS DA BANCA :
  • THIAGO GOMES DE MATTOS
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE GERALDO PEIXOTO DE FARIA
  • LEONARDO DOS SANTOS LIMA
  • RICARDO DE CARVALHO FALCÃO
  • Data: 31/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Embora o transplante seja o melhor tratamento para o doente renal crônico, há um desequilíbrio constante entre a doação de rim para a realização de transplante e o número de doentes renais na fase terminal, segundo Organ Procurement and Transplantation Network (OPTN). Dessa forma, para estender o acesso ao transplante e melhorar a taxa de sobrevivência com qualidade de vida para o paciente, este trabalho visa desenvolver um modelo de doação emparelhada de rins. A idealização do modelo baseia-se em solucionar a incompatibilidade e/ou a baixa compatibilidade envolvida em um par doador-receptor trocando-se o doador de pares distintos. No modelo proposto descrevemos a propagação de transplantes renais a cada passo de tempo sob influência do grau de altruísmo do doador e da compatibilidade entre os pares. Através de simulações computacionais e estudos estatísticos, analisamos o comportamento do modelo que consiste na dinâmica de evolução de uma rede aleatória de autômatos, no qual cada nó da rede corresponde a um par doador-receptor.

  • Mostrar Abstract
  • ..

14
  • Alex Sander de Oliveira Toledo
  • ESTUDO DA COMPLEXIDADE DE REDES DE CRIMINALIDADE

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ANTONIO PAULO BAETA SCARPELLI
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • LAURA CORINA CARPI
  • MARCONI MARTINS LAIA
  • MARTIN GÓMEZ RAVETTI
  • Data: 13/11/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A sociedade moderna tem experimentado uma grande revolução devido à percepção de que redes complexas governam os relacionamentos sociais. Nesse ínterim, buscamos evidenciar redes de criminalidade de Minas Gerais. Estudar os criminosos em rede é fascinante, pois permite novas respostas à demanda de Segurança Pública. A pesquisa na área concentrou-se na hierarquia, personagens e violência nas organizações criminosas. A partir da modelagem de relacionamentos oriundos de um banco de dados de Inteligência de Segurança Pública e utilizando elementos de redes complexas, foi possível identificar redes de criminalidade, relacionamentos entre criminosos e líderes.  O uso de autômatos celulares permitiu modelar e analisar a evolução de rede de criminalidade e testar a robustez à ruptura e resiliência.  A utilização pioneira de redes multiplex para identificação e análise de redes de criminalidade possibilitou a visualização da estrutura criminosa em camadas hierárquicas, sendo explorada a medida de diversidade de nós para identificação de líderes.


  • Mostrar Abstract
  • **

15
  • LARISSA LOPES LIMA
  • ANÁLISE DA INFLUÊNCIA DO AMBIENTE NA DISPERSÃO DE DENGUE, FEBRE DE CHIKUNGUNYA E FEBRE PELO VÍRUS ZIKA USANDO AUTÔMATOS CELULARES.

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • THIAGO GOMES DE MATTOS
  • MARCELO CARVALHO DE RESENDE
  • Data: 29/11/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Dengue é uma doença transmitida por mosquitos do gênero Aedes e que, atualmente, gera grande preocupação com relação a seus efeitos na saúde pública. Além da dengue, o Ae. aegypti, que é frequentemente o principal transmissor da doença no meio urbano, transmite também a febre de chikungunya e a febre pelo vírus Zika no território brasileiro. Diante disso, este trabalho propõe simular computacionalmente a complexa dinâmica de algumas doenças transmitidas pelo Ae. aegypti por meio de um modelo baseado em autômatos celulares probabilísticos e modelagem baseada em agentes. Foram usadas imagens de satélite para a identificação dos elementos do ambiente (água, vegetação, solo exposto, residências e pavimentação) e criação da matriz de simulação. Os humanos e mosquitos são distribuídos nessa matriz, que representa a região de estudo. Considera-se que os diferentes sorotipos de dengue (DENV-1, DENV-2, DENV-3 e DENV-4) e os vírus da febre de chikungunya e da febre pelo vírus Zika podem circular simultaneamente em uma mesma área. Testou-se cinco variações do modelo em duas áreas diferentes. Pelos resultados, foi possível inferir que houve diferença significativa quando se utilizou a distribuição dos pesos dos elementos do ambiente em escala probit. Ainda, foi possível verificar a existência de uma variação cíclica das doenças nas populações, conforme era esperado. O cálculo do número de reprodução basal mostrou que o estado do ambiente influencia na dispersão das doenças. Isso ressalta a necessidade de ações voltadas para a eliminação dos focos do mosquito no ambiente, como, por exemplo, o fornecimento de serviços de saneamento básico adequados e o cuidado com recipientes que possam acumular água. Assim, o modelo apresenta um grande potencial de uso como ferramenta auxiliar na saúde pública.


  • Mostrar Abstract
  • **

16
  • Ulisses Rezende Teixeira
  • ALGORITMOS BASEADOS NA METAHEURÍSTICA VNS PARA RESOLUÇÃO DO PROBLEMA DE PROGRAMAÇÃO DE HORÁRIOS EM ESCOLAS

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • ALEXANDRE XAVIER MARTINS
  • ELISANGELA MARTINS DE SA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • MARCONE JAMILSON FREITAS SOUZA
  • SERGIO RICARDO DE SOUZA
  • Data: 03/12/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho tem seu foco no Problema de Programação de Horários em Escolas. Este problema consiste em produzir um quadro de horários, tipicamente semanais, para os encontros entre professores e turmas de instituições de ensino, satisfazendo a restrições de várias naturezas. Dada a sua natureza combinatória, foram desenvolvidos cinco algoritmos heurísticos baseados na metaheurística Variable Neighborhood Search (VNS) para resolvê-lo. Todos os algoritmos exploram o espaço de soluções do problema por meio dos seguintes tipos de movimento: troca de eventos, troca de recursos, troca de bloco de recursos, mudança de horário de recurso, mudança de horário de evento e cadeia Kempe. Os três primeiros algoritmos desenvolvidos consistem em variações do método General Variable Neighborhood Search (GVNS), que diferem entre si pelo método de busca local usado na fase de refinamento. O quarto algoritmo desenvolvido, nomeado VNS Adaptativo, consiste em aplicar a busca local em uma vizinhança escolhida probabilisticamente, sendo que a probabilidade é maior para as vizinhanças cujas buscas locais foram mais bem sucedidas em iterações anteriores. O quinto algoritmo desenvolvido, nomeado Skewed General Variable Neighborhood Search (SGVNS), explora o espaço de soluções do problema permitindo também a geração de soluções intermediárias que sejam piores que a solução corrente. Todos os algoritmos usam a biblioteca KHE, especializada para implementação de problemas de programação de horários. Os algoritmos foram testados em problemas teste da Competição Internacional de Programação de Horários ocorrida em 2011 e seus resultados foram comparados com aqueles gerados pelo algoritmo Goal Solver, vencedor da competição.


  • Mostrar Abstract
  • *

17
  • CARLOS AUGUSTO GUERRA CARNEIRO
  • SIGNWEAVER: PLATAFORMA DIGITAL DE APOIO A DISSEMINAÇÃO DE GLOSSÁRIOS BILÍNGUES LIBRAS-PORTUGUÊS

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • DANIELA SATOMI SAITO
  • FLAVIO LUIS CARDEAL PADUA
  • VERA LUCIA DE SOUZA E LIMA
  • VIVIAN MARY BARRAL DODD RUMJANEK
  • Data: 14/12/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho aborda o desenvolvimento de uma plataforma digital, denominada SignWeaver, que apoia a disseminação e manutenção de glossários bilíngues Libras-Português. De forma geral, os vocabulários técnico-científicos são escassos nos vernáculos das principais línguas de sinais do mundo. Neste contexto, estudantes surdos, intérpretes e professores empenham-se em criar neologismos terminológicos ou sinais-termo em tais áreas, geral- mente por meio da organização de comitês locais de discussão, compostos por pessoas da comunidade surda diretamente interessadas. Frequentemente, por meio deste tipo de abordagem, verifica-se que sinais completamente distintos entre si podem ser atribuídos a um mesmo conceito técnico, dificultando-se a comunicação em Libras entre membros de regiões e comunidades diferentes. Neste cenário, a principal contribuição deste trabalho consiste em prover uma plataforma inédita para aglutinar os sinais-termo criados pela comunidade surda e, atualmente, dispersos em diferentes bases de dados pelas diversas regiões do Brasil, facilitando-se a disseminação, adoção e eventual padronização dos sinais- termo em todo o território nacional. Para o desenvolvimento da SignWeaver, utilizou-se as linguagens PHP e JavaScript, bem como dois arcabouços para desenvolvimento de softwares, quais sejam, o arcabouço Laravel, fundamental para o desenvolvimento dos módulos da plataforma que cuidam da gestão de seus dados (do inglês, back-end side) e o arcabouço Ionic, para o desenvolvimento módulos que cuidam das interações com os usuários (do inglês, front-end side). A plataforma SignWeaver provê uma interface intuitiva e pode ser utilizada a partir de diferentes ambientes computacionais, tais como, a partir de sítios web em computadores de uso pessoal, bem como a partir de um aplicativo para dispositivos móveis (por exemplo, celulares e tablets). As funcionalidades da SignWeaver foram validadas com sucesso por 65 membros da comunidade surda, em sua maioria, surdos e intérpretes de Libras, sendo que 87,7% destes prováveis usuários mostraram-se satisfeitos com a plataforma proposta, credenciando-a como uma ferramenta a ser potencialmente utilizada pela comunidade.


  • Mostrar Abstract
  • **

Teses
1
  • Ana Paula de Paiva Pereira
  • CALIBRAÇÃO DE PARÂMETROS ENTRE AS ESCALAS DE VOOS DIFUSIVOS ANÔMALOS: PRESCRIÇÃO PARA CORRESPONDER SIMULAÇÃO E MODELOS.

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE GERALDO PEIXOTO DE FARIA
  • JOSE LUIZ ACEBAL FERNANDES
  • RENIO DOS SANTOS MENDES
  • SILVIO DA COSTA FERREIRA JÚNIOR
  • Data: 23/03/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho buscamos uma calibração que possa auxiliar na simulação de processos de difusão com parâmetros em pequena escala que conduzam a um modelo desejado em grande escala. Ou, na via inversa, conhecidos os dados de um processo, determinar os parâmetros em grande escala e, em seguida, inferir as suas características dinâmicas em pequena escala por meio da calibração. As simulações consistem um random walk de tempo contínuo e foram conduzidas controlando as potências de pequena escala r e s das distribuições segundo lei de potência para, respectivamente, o comprimento dos saltos e tempo de espera entre os saltos. De acordo com estes parâmetros, gera-se processos de difusão anômala que podem ser subdifusivos, normais ou superdifusivos. A avaliação dos parâmetros, da pequena escala à grande escala, obtidos a partir das simulações é feita utilizando duas diferentes abordagens: estudando a evolução temporal da variância amostral dos deslocamentos destas simulações para identificar os parâmetros dos modelos aplicáveis de pequena escala e, em grande escala, otimizando as PDFs soluções de equações de difusão fracionárias e ou da equação de difusão não linear aos histogramas de posições gerados pelas simulações. Foram obtidos, através do método de escala de tamanho finito o número N de séries geradas e o tempo T das simulações que fazem com que o sistema se torne estável. Construiu-se, então, o espaço de parâmetros. Com isso, foram analisadas as relações entre parâmetros teóricos e os parâmetros obtidos por meio das simulações. Desta forma, foi possível controlar todo o processo que vai da geração de processos de difusão aos modelos que os descrevem em diferentes escalas.


  • Mostrar Abstract
  • ***

2
  • HENRIQUE COSTA BRAGA
  • Modelagem Computacional Híbrida Ergonomicamente Embasada da Movimentação Humana por Agentes Fuzzy.

  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • GRAY FARIAS MOITA
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • SERGIO RICARDO DE SOUZA
  • ALISSON MARQUES DA SILVA
  • FRANCISCO DE ASSIS DAS NEVES
  • PAULO GUSTAVO VON KRÜGER
  • Data: 19/04/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho, foram realizados o desenvolvimento, a implementação computacional, a verificação e a validação de um novo modelo por agentes para a simulação computacional da movimentação humana, utilizando, como premissas, um enfoque híbrido discreto-contínuo da estrutura espacial, a utilização de uma abordagem ergonômica formal mais acurada das principais grandezas envolvidas e o uso da lógica fuzzy para emulação do processo de decisão humana. Desenvolveu-se, também, um algoritmo de busca e exploração, denominado BR – Busca Referenciada, cujos resultados são superiores aos algoritmos tradicionais de pesquisa para a geração de mapas de distância. A utilização da lógica fuzzy incorporou o conceito da tabela fuzzy, o que propicia um aumento da velocidade de processamento sem perda de conhecimento. Na tese, diversos exemplos são mostrados, atestando a efetividade e eficiência do modelo proposto. Também é incluída uma aplicação prática do novo modelo, com um estudo relacionado à tragédia da Boate Kiss, onde simulações de abandono foram realizadas de forma e se compreender melhor a razão para tal tragédia no que tange ao dimensionamento das saídas de emergência e se propor melhorias, inclusive abordando alguns aspectos legais.


  • Mostrar Abstract
  • ***

3
  • Celso Luiz de Souza
  • Abordagem Computacional para Criação de Neologismos Terminológicos em Línguas de Sinais.

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • FLAVIO LUIS CARDEAL PADUA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • ANISIO MENDES LACERDA
  • VERA LUCIA DE SOUZA E LIMA
  • ERICKSON RANGEL DO NASCIMENTO
  • MARIANNE ROSSI STUMPF
  • Data: 20/04/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O número de surdos que estão ativamente no meio acadêmico está aumentando, os quais, deparam-se com diversos tipos de barreiras que dificultam o seu desenvolvimento. Uma dessas barreiras está associada à escassez de um léxico específico para termos técnicos na língua de sinais em que têm proficiência. Visando-se solucionar este problema em particular, a presente tese apresenta uma abordagem inovadora para criação de neologismos terminológicos (sinais técnicos) para as áreas de Ciência, Tecnologia, Engenharia e Matemática (CTEM) em língua de sinais.  A abordagem proposta baseia-se na utilização de métodos computacionais para auxiliar o processo de criação de neologismos terminológicos que constituirão novos dicionários em CTEM. Especificamente, propõe-se: (1) a extração de descritores de forma a partir da imagem contendo a ilustração do significado do conceito técnico sem sinal de interesse, utilizando-se visão computacional, e (2) a determinação do radical do termo associado ao conceito na língua oral de referência do surdo, utilizando-se processamento de linguagem natural. Ao comparar essas informações do conceito técnico sem sinal com as correspondentes de sinais de propósito geral em um repositório, a presente abordagem cria um novo sinal semanticamente aceitável a partir de sinais pré-existentes com características semelhantes. No estado da arte atual, não foram identificados trabalhos cujas soluções para criação de sinais sejam apoiadas por métodos computacionais. Dito isso, a abordagem proposta nesta tese é potencialmente a primeira na literatura a apoiar a produção de novos sinais com o auxílio da computação, tornando este processo mais parametrizado, ágil e escalável.  Para avaliar a qualidade e a utilidade dos sinais técnicos criados por meio desta abordagem, considerou-se neste trabalho um estudo de caso no âmbito da Língua Brasileira de Sinais (Libras). Em particular, foram avaliados sinais em Libras criados para conceitos técnicos da área de Desenho Arquitetônico. Constituiu-se, para este fim, um comitê avaliador composto por falantes de Libras e conhecedores de escrita de sinais, os quais realizaram suas avaliações tomando como base aspectos fonéticos, fonológicos e a própria estrutura morfológica da língua de sinais em questão. Os resultados obtidos sugerem que a abordagem proposta é promissora, sendo que cerca de 60% dos novos sinais criados foram classificados com nível de satisfação similar àquele atribuído a sinais de uma base de dados de referência (criados manualmente), em uma escala de classificação de cinco níveis.


  • Mostrar Abstract
  • **

4
  • MOISES HENRIQUE RAMOS PEREIRA
  • Análise de Sentimentos Multimodal Aplicada à Computação de Níveis de Tensão em Vídeos de Notícias.

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • FLAVIO LUIS CARDEAL PADUA
  • ADRIANO CESAR MACHADO PEREIRA
  • ANISIO MENDES LACERDA
  • GIANI DAVID SILVA
  • FABRICIO BENEVENUTO DE SOUZA
  • MARCELLO PEIXOTO BAX
  • Data: 23/04/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta tese aborda o desenvolvimento de uma nova abordagem de análise de sentimentos multimodal para estimar os níveis de tensão em vídeos de notícias. As mídias de notícias constituem um tipo específico de discurso e se tornaram uma parte central da vida moderna de milhões de pessoas. Neste contexto, é muito importante estudar e entender como a indústria de notícias funciona e como ela afeta o cotidiano da sociedade. Para isso, especialmente sob a perspectiva da análise do discurso, a abordagem proposta calcula níveis de tensão como pontuações de sentimento (polaridades) ao longo da narrativa das notícias, revelando os diferentes padrões de comunicação utilizados. A fim de atingir esse objetivo, combinou-se pistas visuais e de áudio extraídas dos participantes das notícias, tais como repórteres, âncoras, entrevistados, dentre outros, usando métodos para: (1) reconhecimento de emoção a partir das expressões faciais, (2) estimativa do plano fílmico e (3) extração de recursos de áudio (p. ex., características de croma, coeficientes mel-cepstrais no domínio da frequência e características espectrais), bem como sentenças textuais obtidas a partir da (4) análise de sentimento das transcrições de fala da narrativa das notícias. Os resultados experimentais com um conjunto de dados contendo 960 vídeos de notícias rotuladas para telejornais brasileiros e americanos mostram que a abordagem proposta atinge uma precisão global de 64,17% na tarefa de classificação de níveis de tensão. Ao ser comparado também com um baseline, o método proposto alcançou uma precisão próxima de um método supervisionado, mas sem a necessidade de um treinamento rotulado. Esses resultados demonstram o alto potencial da abordagem proposta para ser usada por analistas de mídia em várias aplicações, especialmente no domínio jornalístico.


  • Mostrar Abstract
  • .

5
  • WESLLEY FLORENTINO DE OLIVEIRA
  • Potenciais Caóticos no Operador de Schrödinger Unidimensional: Análise pelo Inverso do Número de Participação.

  • Orientador : GIANCARLO QUEIROZ PELLEGRINO
  • MEMBROS DA BANCA :
  • GIANCARLO QUEIROZ PELLEGRINO
  • ALLBENS ATMAN PICARDI FARIA
  • JOSE GERALDO PEIXOTO DE FARIA
  • CARLOS MAGNO MARTINS COSME
  • TÚLIO OLIVEIRA DE CARVALHO
  • Data: 23/04/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Uma maneira de se modelar quase-cristais consiste no ordenamento de sequência de átomos em redes unidimensionais por meio de sequências numéricas. As sequências peneperiódicas têm sido utilizadas com esse intuito desde a criação do primeiro quase-cristal, construído com base na sequência de Fibonacci na década de 80. Além disso, a caracterização da participação dos sítios da rede tem sido medida, entre outros métodos, pelo decaimento da densidade de probabilidade  do estado quântico. O presente trabalho propõe a utilização de mapas caóticos em substituição às sequências peneperiódicas, pois acredita-se que esses mapas apresentam a possibilidade de controle de desordem, o que indicaria uma vantagem frente às sequências peneperiódicas. A partir desses mapas caóticos são criados potenciais binários para o operador de Schrödinger. Além disso, propõe também a utilização do inverso do número de participação (IPR) para caracterizar o sistema em localizado-delocalizado, pois esse apresenta relação com as quantidades físicas de interesse, geralmente vistas em física do Estado Sólido. Além disso, o $IPR$ é utilizado para fazer diferentes caracterizações e estabelecer relações entre as dimensões fractais, o IPR generalizado (GIPR), IPR típico ou médio e a classificação pela energia do sistema, a fim de se conhecer melhor sobre os sistemas gerados por mapas caóticos. Foi possível caracterizar os potenciais caóticos, obter correlação entre o IPR e o expoente de Lyapunov Ly, reproduzir a singularidade encontrada por Johri e Bhatt para potenciais aleatórios e evidenciar o caráter multifractal dos autovetores. De modo amplo, pôde-se perceber que os mapas caóticos apresentam, de fato, a vantagem de controle da desordem por meio do ajuste da caoticidade.


  • Mostrar Abstract
  • ***

6
  • MARCELA RICHELE FERREIRA
  • "ESTUDO DA PROPAGAÇÃO DE INTERFACES RUGOSAS"

     

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • GIANCARLO QUEIROZ PELLEGRINO
  • THIAGO GOMES DE MATTOS
  • ISMAEL LIMA MENEZES SOBRINHO
  • SIDINEY GERALDO ALVES
  • Data: 27/04/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O crescimento de interfaces rugosas tem atraído a atenção dos pesquisadores ao longo dos anos devido a sua vasta gama de aplicações. Esse crescimento pode ocorrer de diversas formas e a compreensão do processo físico que controla a formação e morfologia das estruturas geradas depende, muitas vezes, da elaboração de um modelo simplificado. Sendo assim, esta tese tem por objetivo analisar a propagação de interfaces sob duas situações distintas: crescimento de superfícies rugosa por deposição de partículas e movimentação de uma linha elástica em um meio heterogêneo. Inicialmente, focamos no estudo dos modelos discretos de crescimento por deposição de partículas afim de associá-los às diferentes classes de universalidade. Entender o estado crítico de sistemas que pertencem a uma determinada classe leva-nos à compreensão de todos os demais sistemas dessa classe. Para a realização dessa análise, utilizamos um novo modelo de Autômato Celular Probabilístico em (1 + 1) dimensões, capaz de reproduzir uma ampla gama de padrões permitindo a análise dos mais variados sistemas. As regras de transição que determinam a atualização desse autômato dependem do perfil local e são definidas a partir da diferença de alturas entre os vizinhos da direita e esquerda do sítio central. Conforme o conjunto de parâmetros escolhidos, obtivemos morfologias distintas e expoentes críticos associados às diferentes classes de universalidades. Posteriormente, abordamos o comportamento da interface produzida durante a propagação de uma fratura a partir da separação de duas placas. À medida que esses sólidos se separam, forma-se uma linha elástica que se movimenta sobre o substrato. Se a superfície é homogênea, a propagação da interface ocorre uniformemente. Caso contrário, a movimentação acontece de forma irregular, ficando retida em alguns pontos, devido aos diferentes valores de tensão superficial. Para analisar o comportamento da interface durante sua propagação, implementamos um modelo computacional capaz de gerar diferentes tipos de superfícies a partir da variação de alguns parâmetros. Dentre os parâmetros de controle escolhidos para a construção do substrato, incluímos a variação angular dos pontos de pinning, ou seja, alteramos a correlação do ruído congelado. Os processos de propagação de interfaces analisados neste trabalho são considerados fenômenos críticos fora do equilíbrio e dependem de parâmetros que podem ser modificados de acordo com cada modelo. A partir da variação desses parâmetros foi possível encontrar diferentes interfaces onde analisamos o comportamento temporal da rugosidade. Com os dados obtidos foi possível, na primeira parte da tese, fazer um mapeamento das principais classes de universalidade encontradas na literatura - EW, KPZ, DA, DP e CDP. No segundo modelo, observamos que o comportamento temporal da rugosidade apresentou alterações mediante a variação angular e mostrou-se mais acentuado quando essa variação estava associada à alteração de algum outro parâmetro. 


  • Mostrar Abstract
  • **

7
  • Lillia dos Santos Barsante Silva
  • Proposição e análise de modelos determinísticos com parâmetros meteorológicos para descrição da população de mosquitos Aedes spp. e otimização da eficácia do controle entomológico.

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • MEMBROS DA BANCA :
  • JOSE LUIZ ACEBAL FERNANDES
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • SERGIO RICARDO DE SOUZA
  • ANIBAL MUNOZ LOAIZA
  • MARCELO CARVALHO DE RESENDE
  • Data: 11/05/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Apesar do crescente empenho das autoridades públicas e da população na prevenção da dengue, da febre chikungunya, da febre amarela e do zika vírus, muitos casos de infecção humana (com gravidade variável) têm sido registrados periodicamente no mundo. As fêmeas infectadas do Aedes destacam-se como dispersoras destas arboviroses. O estudo do ciclo de vida deste mosquito é de grande importância para a saúde pública mundial e, em especial, no Brasil, onde as condições ambientais e climáticas são favoráveis à sua infestação. A modelagem matemática possibilita prever a dinâmica destes vetores e de suas arboviroses através da simulação de modelos entomológicos e/ou epidemiológicos. Este trabalho propõe o estudo de modelos matemáticos que descrevem o ciclo de vida do Aedes com dependência da temperatura e da pluviosidade, considerando um sistema de equações diferencias ordinárias não lineares. Os modelos incluem a possibilidade de simulação de controle entomológico. Estudos como de equilíbrio, de estabilidade, de sensibilidade são realizados sobre os modelos. Dois dos modelos são confrontados com dados amostrais de campo de fêmeas Aedes Aegypti capturadas pelas armadilhas MosquiTRAP@ em um programa de controle ambiental nos municípios mineiros de Caratinga, Lavras e Sete Lagoas Brasil.  Através de uma metaheurística verificamos a eficácia da aplicação de possíveis cenários de intervenções com ações de controle do mosquito.  Os resultados mostram um aumento na infestação do vetor com o aumento da temperatura e da pluviosidade nas três cidades, este fato potencializa o risco de surtos das arboviroses transmitidas pelo Aedes. Os pontos de controle foram relacionados à taxa de mortalidade das fêmeas, à fração de ovos viáveis, à fração da fase imatura que desenvolve em adultos fêmeas e à taxa de oviposição. As intervenções no verão, primavera-verão e verão-outono realizadas em intervalos regulares de tempo agem como medida preventiva contra a infestação do mosquito, e foi possível verificar horizontes livres da infestação vetorial.


  • Mostrar Abstract
  • **

8
  • Felipe Leandro Andrade da Conceição
  • ARCABOUÇO MULTIMODAL PARA RECOMENDAÇÃO DE VÍDEOS

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • FLAVIO LUIS CARDEAL PADUA
  • ANISIO MENDES LACERDA
  • THIAGO DE SOUZA RODRIGUES
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • ADRIANO CESAR MACHADO PEREIRA
  • DANIEL HASAN DALIP
  • MARCELLO PEIXOTO BAX
  • MARCELO GARCIA MANZATO
  • Data: 24/08/2018
  • Mostrar Resumo
  • Este trabalho propõe um novo arcabouço multimodal para recomendação de vídeo baseada em redes neurais de aprendizagem profunda (Deep Learning). Ao contrário das soluções mais comuns, foram explorados simultaneamente duas modalidades de dados, quais sejam: (i) conteúdo visual (imagens) e (ii) as modalidades textuais que, em conjunto com o fluxo de áudio, constituem os dados elementares de um vídeo. Especificamente, este arcabouço descreve os dados textuais usando bag-of-words (BOW) e TF-IDF, mesclando esse conteúdo com descritores visuais obtidos por meio de redes neurais convolucionais. Como resultado é construído um descritor multimodal para cada vídeo, obtida por meio dautilização de autoencoder que permite construir representação com baixa dimensionalidade. Para qualificar a recomendação realizada, aplica-se na abordagem o método chamado Sparse Linear Method with Side Information (SSLIM), o qual considera como entrada as modalidades propostas de descritores visuais e textuais. Ao fazer isso, é possível produzir um ranking (top-N ) de recomendação mais relevantes para o usuário. É importante destacar que esta abordagem é flexível, ou seja, é possível usar outros tipos de modalidades, autoencoders e arquiteturas de fusão. Resultados experimentais obtidos com três coleções reais (MovieLens-1M, MovieLens-10M e Vine), contendo 3.320, 8.400 e 18.576 vídeos, respectivamente, demonstram que este arcabouço pode melhorar em até 60,6% os resultados da recomendação, quando comparada a uma única modalidade de recomendação e até 84%, quando comparado com os métodos de referência deste estudo, demonstrando a eficácia desta proposta e destacando a utilidade da informação multimodal em um sistema de recomendação.


  • Mostrar Abstract
  • .

9
  • DARLAN NUNES DE BRITO
  • Calibração de Câmeras Baseada em Álgebra Intervalar

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • ALDO PERES CAMPOS E LOPES
  • ALLBENS ATMAN PICARDI FARIA
  • ANTÔNIO WILSON VIEIRA
  • DAVID MENOTTI GOMES
  • FLAVIO LUIS CARDEAL PADUA
  • JOSE LUIZ ACEBAL FERNANDES
  • Data: 31/08/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho aborda o desenvolvimento de um novo método para calibração de câmeras, baseado em álgebra intervalar. Diferentemente dos métodos existentes, a abordagem proposta possui maior tolerância a ruídos, sendo capaz de produzir resultados com boa exatidão, mesmo em cenários onde os dados de entrada estejam bastante corrompidos ou não existam alvos de calibração apropriados. Conceitos fundamentais como definição do próprio espaço projetivo, álgebra vetorial no espaço projetivo, entre outros, frequentemente utilizados na definição dos principais métodos de calibração atuais, são devidamente estendidos de modo que princípios da álgebra intervalar sejam aplicados. Neste cenário, formula-se o problema de estimação dos parâmetros de calibração (intrínsecos e extrínsecos) como um problema de otimização, cuja solução é obtida a partir do bem conhecido método de otimização global de Hansen e Walster para análises intervalares. Adicionalmente, propõe-se uma modificação neste, utilizando o algoritmo genético para diminuir o diâmetro do casco convexo (convex hull) da solução em torno do mínimo. São apresentados resultados experimentais para ruídos adicionados nos pontos do sistema de coordenadas cartesianas global dos dados utilizados para calibração de até 500 mm e nos dados do plano de imagem até 10 pixels, que são maiores do que os normalmente utilizados por outros trabalhos em calibração de câmeras. Mesmo com estes níveis severos de ruído foram apresentados erros de projeção no plano de imagem com um limite superior do intervalo com um valor mínimo igual a 12 pixels e a distância dos parâmetros, também com um limite superior mínimo, menor do que 1%.


  • Mostrar Abstract
  • ***

10
  • JOÃO ROGÉRIO DA SILVA
  • Efeito da Configuração de Suportes sobre a Precisão do Método de Quadratura Diferencial Local.

  • Orientador : JOSE GERALDO PEIXOTO DE FARIA
  • MEMBROS DA BANCA :
  • JOSE GERALDO PEIXOTO DE FARIA
  • GRAY FARIAS MOITA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • CARLOS MAGNO MARTINS COSME
  • MARCIO MATIAS AFONSO
  • URSULA DO CARMO RESENDE
  • Data: 06/11/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As pesquisas acerca dos métodos alternativos aos esquemas baseados em malha têm crescido nos últimos anos. Esses métodos, comumente conhecidos como sem malha, consistem de técnicas que constroem aproximações irrestritamente em termos de nós, facilitando, assim, as aplicações às geometrias tidas como complexas. Dentre os métodos sem malha, tem-se o método de quadratura diferencial local (MQDL), cujo alcance de suas recentes aplicações o tem tornado proeminente nas diversas áreas da engenharia. Neste trabalho, é desenvolvido um estudo sobre o MQDL munido de funções de base radial (FBR), onde são destacadas duas técnicas para otimizar o seu desempenho numérico. A primeira destaca o efeito da distância mínima entre pontos no número de condição dos sistemas lineares locais (SLL), construídos no MQDL. Para mitigar isso, é proposto uma nova forma de suporte local para o método. Com essa técnica, são realizados estudos do erro de aproximação e taxa de convergência da solução numérica de problemas em eletrostática e dinâmica dos fluidos. A outra contribuição deste trabalho é referente ao tratamento de problemas com meios heterogêneos no MQDL. Nesse sentido, foi proposto o reparo de aproximações nas interfaces materiais por meio de aumento do grau de suavidade da FBR empregada. Assim, foi realizado a simulação de um problema eletrostático bidimensional em meios heterogêneos. Para validar os resultados foi realizada a análise do erro de aproximação através da solução semi-analítca do problema. Os resultados trazem duas inovações referentes à melhoria da acurácia do MQDL, evidenciando-o, assim, como uma ferramenta promissora em problemas envolvendo equações diferenciais parciais (EDP). Principalmente quando essas EDP sejam não lineares, contenham condição de contorno mista, geometrias irregulares e meios descontínuos.


  • Mostrar Abstract
  • **

11
  • Jether Oliveira Gomes
  • Uma Análise Temporal dos Principais Tópicos de Pesquisa da Ciência Brasileira a partir das Palavras-chave de Publicações Científicas.


  • Orientador : GRAY FARIAS MOITA
  • MEMBROS DA BANCA :
  • GRAY FARIAS MOITA
  • THIAGO MAGELA RODRIGUES DIAS
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • HENRIQUE ELIAS BORGES
  • MAGALI REZENDE GOUVEA MEIRELES
  • ADILSON LUIZ PINTO
  • Data: 19/12/2018
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A produção de trabalhos científicos apresentou um crescimento importante nas últimas décadas, sendo a internet o principal meio para seu acesso e difusão. Consequentemente, nota-se um esforço global de todas as áreas do conhecimento na confecção de estudos sobre dados da produção científica, a fim de conhecer o que tem sido pesquisado. Tais estudos podem servir a diversos propósitos, como fornecer embasamento para a construção de políticas de incentivo à pesquisa visando novos avanços na ciência. No entanto, a maioria dos trabalhos encontrados analisam conjuntos restritos de dados, que são originados de repositórios internacionais, geralmente específicos de uma determinada área. Por outro lado, pouquíssimos e recentes trabalhos utilizam fontes de dados nacionais, manipulando, no entanto, uma quantidade restrita dos dados disponíveis em análises preliminares. Apesar de tais trabalhos apresentarem resultados significantes, não foram encontrados estudos prévios que englobem, de forma abrangente, o que é produzido pela comunidade científica brasileira. Além disso, a estratégia principal de alguns desses estudos, principalmente os que utilizam repositórios de dados nacionais, é analisar os títulos das publicações. Em outra perspectiva, uma estratégia que vem se destacando é a análise das palavras-chave das publicações científicas, tendo em vista que as mesmas foram selecionadas cuidadosamente por seus autores com o foco de evidenciar os principais assuntos que permeiam o trabalho de forma clara e objetiva. Nesse contexto, esta tese apresenta-se como uma proposta de análise textual sobre o desenvolvimento científico brasileiro registrado ao longo da história na base curricular da Plataforma Lattes. Concomitantemente, é também a primeira análise sobre todo o conjunto de palavras-chave das publicações dos indivíduos com doutorado concluído que possuem currículos cadastrados na Plataforma Lattes. Para tanto, foi desenvolvido um arcabouço de componentes com a finalidade de filtrar e tratar os dados dos currículos para padronização e definição das informações essenciais a serem analisadas, e, ao mesmo tempo, diminuir o processamento computacional para geração dos resultados desejados. Os resultados iniciais são apresentados a partir da aplicação de análises bibliométricas e técnicas baseadas em análises de redes sociais sobre as palavras-chave de artigos publicados em anais de congressos e em periódicos do conjunto selecionado. Assim, quantitativamente, foi possível apresentar uma caracterização geral das palavras-chave utilizadas pelos doutores, e, com isso, destacar os principais tópicos de pesquisa desenvolvidos por eles ao longo dos últimos anos. No entanto, a análise apenas quantitativa dos tópicos pode não explorar por completo as características existentes nos dados contidos na Plataforma Lattes. Por isso, foi desenvolvida nesta tese a medida de importância de tópicos TF.FI, que leva em consideração tanto as características quantitativas das palavras-chave dos artigos quanto as características qualititativas (Fator de Impacto) dos periódicos em que tais artigos foram publicados. Como resultado final, as palavras-chave dos artigos publicados em periódicos entre 1997 e 2016 foram ranqueadas utilizando a medida TF.FI e analisadas em suas respectivas grandes áreas do conhecimento. Os resultados apresentados servirão de base para diversos outros estudos que visam entender o desenvolvimento da ciência brasileira nas diversas áreas do conhecimento.


  • Mostrar Abstract
  •  

2017
Dissertações
1
  • BRUNO CÂNDIDO BARROSO
  • Um Estudo Comparativo da Integração entre Métodos da Análise Técnica e Otimização de Portifólios

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • EDUARDO GONTIJO CARRANO
  • FELIPE DIAS PAIVA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 13/02/2017
  • Mostrar Resumo
  • Este trabalho investiga a eficiência de uma combinação de métodos da análise técnica com otimização de risco e retorno de investimentos. Para isso, foi realizado um estudo estatístico de eficiência e retorno dos principais métodos de investimento oriundos da escola de análise técnica: Cruzamento de médias móveis, Índice de Força Relativa (IFR), Moving Average Convergence and Divergence (MACD) e Bandas de Bollinger. Para realizar a otimização de portfólios considera-se as medidas de risco a covariância e o Conditional value-at-risk (CVaR), e como medida de retorno a média dos retornos passados. São sugeridos dois cenários para a integração entre análise técnica e otimização: o primeiro, chamado de ATOT, verifica quais ativos possuem indicativo de compra de acordo com as ferramentas da análise técnica e posteriormente realiza a otimização de portfólio considerando apenas os ativos indicados. A segunda, chamada de OTAT, realiza primeiro a otimização de portfólio considerando todos os ativos da pesquisa e posteriormente realiza um filtro através das ferramentas da análise técnica. Os cenários criados são comparados com os benchmarks do Ibovespa, IBX100, além da abordagem considerando apenas a análise técnica (AT) e apenas a otimização (OT). As métricas avaliadas foram: retorno, drawdown e drawup máximo, índice Return Over Maximum Drawdown (ROMAD) e o índice Draw Ratio. Resultados numéricos mostram que os métodos IFR e Bandas de Bollinger possuem eficiência superior aos demais, mas sem refletir em uma superioridade no retorno financeiro ao considerar os custos. Analisando as estratégias de investimento, os resultados mostram que as carteiras OTAT e OT obtiveram desempenho de retorno superior às demais carteiras, sendo que a utilização da análise técnica após a otimização (OTAT) produziu os melhores resultados relacionados ao risco do investimento. A estratégia que utiliza a análise técnica antes da otimização (ATOT) não obteve bons resultados de risco nem de retorno. Por fim, os resultados mostram que as carteiras otimizadas pelo CVaR conseguiram superar as carteiras otimizadas pela variância ao reduzir a cauda negativa de retorno em uma proporção superior à redução da cauda positiva.


  • Mostrar Abstract
  • **

2
  • ALEXANDRE FRIAS FARIA
  • Algoritmos e Modelos Matemáticos para o Problema da K-Partição de Números

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • Alessandra Martins Coelho
  • CARLOS ALEXANDRE SILVA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • SERGIO RICARDO DE SOUZA
  • Data: 16/02/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta dissertação de mestrado apresenta uma formulação matemática e algoritmos para a versão de otimização do Problema da k-Partição de Números. Este problema consiste em distribuir os elementos de uma sequência em k subconjuntos disjuntos, de modo que as somas dos elementos de cada subconjunto fiquem no menor intervalo possível. A formulação matemática proposta é baseada em dois problemas semelhantes da literatura. Elimina-se a multiplicidade de soluções do modelo de programação inteira, reduzindo ao mínimo o número de variáveis. Mostra-se a NP-completude do problema estudado. Estuda-se algoritmos heurísticos, aproximados e exatos da literatura aplicáveis aos problemas relacionados. Aplica-se a meta-heurística ILS (Iterated Local Search) à solução gerada por um algoritmo aproximado. A estratégia é aplicar método guloso em todas as fases do algoritmo, tanto na inicialização quanto para a escolha de movimentos do ILS. Propõe-se uma melhoria de métodos exatos Branch-and-Bound presentes na literatura. Esta modificação refina os limitantes do método usando a relaxação do modelo matemático e ILS propostos. Insere-se um critério de busca para que os nós mais promissores tenham prioridade. Os resultados mostram a solução do ILS superando as soluções de heurísticas construtivas listadas na literatura. A qualidade da solução do ILS é certificada por métodos exatos, um da literatura e outro com as melhorias propostas neste trabalho. As modificações do algoritmo exato se mostram eficazes em uma comparação entre a solução alcançada sobre o número de nós explorados nas duas versões.


  • Mostrar Abstract
  •  

3
  • RAFAEL AVELAR PACHECO
  • D-Optimas: Um Sistema de Otimização Multiagentes Distribuído Baseado no Modelo de Atores

  • Orientador : HENRIQUE ELIAS BORGES
  • MEMBROS DA BANCA :
  • ANOLAN YAMILE MILANES BARRIENTOS
  • HENRIQUE ELIAS BORGES
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • ROGERIO MARTINS GOMES
  • Data: 17/02/2017
  • Mostrar Resumo
  • Vários problemas em otimização são denominados NP-completos (ou NP-difíceis) devido a dificuldade para solucioná-los, através de programação matemática, em um tempo razoável. Apesar disso, nos últimos anos, vários trabalhos tem apresentado mecanismos capazes de produzir soluções rápidas, e aceitáveis, para estes problemas. Um destes mecanismos é conhecido como sistemas multi agentes, ou MAS - Multi-Agent System. Este trabalho apresenta o D-OPTIMAS - Distributed Optimization Multi-agent System, um sistema multi agentes, distribuído e flexível para resolução de problemas de otimização de diferentes classes. O D-OPTIMAS usa o modelo de atores, um modelo de programação concorrente e assíncrono, que possibilita a execução de uma grande quantidade de agentes através de processos distribuídos. Neste sistema, cada agente é incapsulado por um ator e executa uma meta-heurística específica, de forma reativa e isolada, interagindo com os demais exclusivamente por troca de mensagens, ou seja, toda informação trocada entre os agentes segue um protocolo de comunicação assíncrono definido. Foram realizadas simulações, utilizando o D-OPTIMAS, para resolução de problemas de diferentes classes, como a minimização das funções EggHolder e XinSheYang - usualmente utilizadas como benchmarck de algoritmos de otimização contínua, e o problema de otimização combinatória PPN - Problema da Partição de Números. Os resultados obtidos mostram que o D-OPTIMAS é capaz de produzir soluções iguais, ou muito próximas, dos ótimos globais destes problemas. Além disso, o modelo de atores se mostrou uma poderosa ferramenta para construção de sistemas multi agentes escaláveis, possibilitando a criação de uma quantidade de agentes duas ordens de grandeza superior aquela produzidas por sistemas anteriores, baseados em concorrência por compartilhamento de estado em memória. 


  • Mostrar Abstract
  • .

4
  • CRISTIANO FRAGA GUIMARÃES NUNES
  • Descritor Local Baseado em Filtros Log-Gabor para Correspondência de Pontos-Chave entre Imagens Multiespectrais.

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • FLAVIO LUIS CARDEAL PADUA
  • JEFERSSON ALEX DOS SANTOS
  • Data: 17/02/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho apresenta um novo método descritor de características locais entre Imagensmultiespectrais para ser aplicado em abordagens de correspondência de pontos-chave. O problema de correspondência de pontos-chave entre Imagensmultiespectrais está presente em um amplo conjunto de aplicações em Visão Computacional, tais como: monitoramento de desastres naturais, sistemas de vigilância por vídeo, navegação de aeronaves guiadas por imagem, dentre outras. Diferentemente da grande maioria das abordagens anteriores, baseadas em métodos descritores projetados exclusivamente para imagens obtidas no espectro de luz visível, este trabalho propõe a utilização de um novo descritor local projetado especialmente para trabalhar com imagens multiespectrais. O descritor proposto, denominado Multiespectral Feature Descriptor (MFD), baseia-se na extração de informações das imagens nos domínios do espaço e da frequência por meio da utilização de filtros Log-Gabor. Para avaliar a eficácia e a eficiência do método proposto, utilizou-se duas bases de dados compostas por imagens obtidas nos espectros de luz visível e infravermelho, amplamente utilizadas na literatura, e comparou-se seu desempenho com algoritmos do estado da arte, tais como, EOH e LGHD. Os resultados experimentais obtidos demonstram que o descritor MFD possui maior eficiência computacional que os algoritmos descritores EOH e LGHD, bem como uma eficácia (precisão e revocação) estatisticamente comparável às de tais métodos.

     


  • Mostrar Abstract
  •  

5
  • CARLA LILIANE GUEDES FONSECA
  • Modelo para Dinâmica de Mercado Financeiro baseado no Modelo SIR

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE LUIZ ACEBAL FERNANDES
  • ADÉLCIO CARLOS DE OLIVEIRA
  • Data: 21/02/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho, busca-se modelar e compreender a dinâmica de preços de ativos, através de equações diferenciais tendo como referência um modelo epidêmico que visa contribuir para a modelagem de sistemas financeiros, considerados complexos, através de sistemas determinísticos simples que agregam características estocásticas. Em analogia ao modelo SIR (Suscetíveis - Infectados - Recuperados), foi construído um modelo de mercado composto de quatro populações, infectados de compra, infectados de venda, suscetíveis de compra e suscetíveis de venda, que resultou em um sistema de quatro equações diferenciais não lineares. Em paralelo às equações inspiradas no modelo SIR, foi formulada a equação do preço. O modelo foi investigado por meio da análise dos autovalores de sua matriz jacobiana nos pontos críticos, e dele foram extraídas diversas dinâmicas, todas simuladas em um programa específico, construído através do software MATLAB. Num segundo momento, foi inserida aleatoriedade no modelo para novas análises, o que, aparentemente, tornou as curvas de preço por ele produzidas mais parecidas com as curvas encontradas em séries reais. Dois tipos de aleatoriedade foram considerados, uma em que a liquidez no mercado não muda e outra em que tal liquidez varia. Para efeito de validação do modelo, foram realizadas investigações estatísticas através da ferramenta expoente de Hurst e por meio do cálculo da curtose de séries por ele produzidas. As curvas sintéticas extraídas do modelo foram comparadas estatisticamente a curvas reais advindas de ativos do Índice Bovespa. Ao mesmo tempo foram analisadas estatísticas relativas a um caminhante aleatório, para servirem de referência. Todas as estatísticas foram calculadas para candles completos, oriundos de séries empíricas ou construídos a partir de séries sintéticas. Os resultados mais interessantes encontrados foram diferenças consistentes nos expoentes de Hurst e nas curtoses quando calculadas sobre preços de abertura e fechamento, em relação aos valores relativos a máximo e mínimo. Até onde sabemos, tais resultados não estão ainda presentes na literatura. 


  • Mostrar Abstract
  •  

6
  • Julia de Mello Assis Correia
  • Estudo e Modelagem de uma Estratégia Financeira Baseada na Combinação de Redes Neurais Artificiais para Apoiar a Tomada de Decisão no Mercado Financeiro

  • Orientador : ADRIANO CESAR MACHADO PEREIRA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • FELIPE DIAS PAIVA
  • Data: 23/02/2017
  • Mostrar Resumo
  • Antes da chegada dos computadores e da Internet, os investidores do mercado de ações realizavam suas operações baseadas principalmente na intuição. Com o crescimento dos investimentos e da negociação de ações on-line, uma busca contínua de ferramentas para melhorar a previsão das tendências do mercado de ações tornou-se necessária para aumentar os lucros e reduzir os riscos.O mercado financeiro é arisco, pois os valores dos ativos mudam por influência de diversos fatores e por isso a série temporal de preços é difícil de prever. As redes neurais artificiais (RNAs) são capazes de realizar predições de séries temporais e são flexíveis em sua modelagem. Entretanto, para modelar uma rede com capacidade de previsão, é necessário selecionar cuidadosamente grandes quantidades de parâmetros, além de testá-los e verificá-los exaustivamente. O objetivo deste trabalho é apoiar a decisão de um investidor no mercado acionário brasileiro, através de estratégias de ensemble de RNAs. Assim, esse trabalho propõe e valida algumas estratégias financeiras, baseadas na combinação (ensemble) de RNAs. Para isso, trinta diferentes modelos de RNAs, usando diferentes conjuntos de entrada como preço, volume e indicadores técnicos, foram analisados para diferentes ações, da BM&FBovespa, pertencentes à companhias de diferentes setores da economia brasileira. A partir disso, foi possível definir três diferentes conjuntos que combinam os melhores classificadores para previsão de tendência de alta. Esses conjuntos se diferem quanto ao nível de rigidez da concordância das redes a cerca de uma tendência futura. Com isso, modelou-se três diferentes estratégias financeiras, que operam de diferentes maneiras, onde cada uma possui três variações – a utilização de cada ensemble. Os resultados obtidos confirmam o potencial das estratégias financeiras propostas. 


  • Mostrar Abstract
  • .

7
  • Abraao Marques Tavares
  • SIMULAÇÃO DE MATERIAIS GRANULARES APLICADA A EQUIPAMENTOS INDUSTRIAIS.


  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • FLAVIO LUIS CARDEAL PADUA
  • THIAGO GOMES DE MATTOS
  • CAIO FRANCA MERELIM MAGALHAES
  • Data: 24/02/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Nesta dissertação tratamos do desenvolvimento de simulações para o estudo
    do comportamento de materiais granulares em situações típicas da
    indústria.  Estudamos o transporte via trasportadores de correia,  uma
    importante etapa nos processos da indústria de mineração e manuseio de
    matérias primas.  Desse modo, nos focamos em um fenômeno de aumento de
    velocidade de grãos no ponto de descarga de transportadores, que em nosso
    conhecimento é inédito na literatura.  Para tal, desenvolvemos um sistema
    de simulação que utiliza a técnica da Dinâmica Molecular e realizamos uma
    série de simulações com o intuito de investigar fatores que influenciam o
    supracitado fenômeno, tais como altura da camada de material, inclinação da
    correia e distribuição granulométrica.  A partir dos resultados de nosso
    sistema e de outro previamente utilizado, formulamos hipóteses sobre os
    mecanismos físicos subjacentes ao comportamento observado.


  • Mostrar Abstract
  •  

8
  • HENRIQUE BARROS LOPES
  • Combinando Regras e Proporções: Uma abordagem Multiobjetivo para Composição Musical Algorítmica

  • Orientador : VINICIUS FERNANDES DOS SANTOS
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • VINICIUS FERNANDES DOS SANTOS
  • ALAN ROBERT RESENDE DE FREITAS
  • LUIZ CHAIMOWICZ
  • Data: 10/07/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Composição musical é uma atividade da produção fonográfica de alta complexidade e que, até mesmo para os músicos mais experientes, demanda grande quantidade de tempo para ser concluída. Apesar de existirem vários trabalhos na área, a composição musical por um computador ainda é um tema bastante incipiente na literatura e os resultados obtidos ainda se Composição musical é uma atividade da produção fonográfica de alta complexidade e que, até mesmo para os músicos mais experientes, demanda grande quantidade de tempo para ser concluída. Apesar de existirem vários trabalhos na área, a composição musical por um computador ainda é um tema bastante incipiente na literatura e os resultados obtidos ainda se encontram longe de serem utilizados como insumo na indústria do entretenimento. Este trabalho propõe quatro métodos para composição de melodias monofônicas, dois mono-objetivos e dois multiobjetivos, cuja abordagem combina regras de Fux, provenientes de teoria musical e regras de proporções baseadas na lei de Zipf, em uma implementação do algoritmo NSGA-II, e uma nova função de avaliação baseada na lei de Zipf. Propusemos também uma nova metodologia baseada em questionários capaz de avaliar a qualidade de um método de composição algorítmica. Nós utilizamos essa nova metodologia para validar nossos resultados e verificar a qualidade das melodias compostas pelos nossos métodos.   

     

     


  • Mostrar Abstract
  •  

9
  • Luis Ricardo Fernandes
  • Estudo Comparativo Sobre Métodos Iterativos de Resolução de Sistemas Lineares de Grande Porte

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • MEMBROS DA BANCA :
  • CARLOS MAGNO MARTINS COSME
  • GIANCARLO QUEIROZ PELLEGRINO
  • ISAAC PINHEIRO DOS SANTOS
  • LUIS ALBERTO D AFONSECA
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 13/07/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Esta dissertação apresenta um estudo sobre métodos iterativos para resolução de sistemas lineares de grande porte não simétricos. Foram estudados três métodos: GMRES, CMRH e LCD. Os métodos GMRES e CMRH são baseados em espaços de Krylov. A principal diferença entre eles é a forma como a base desses espaços é construída. Enquanto o GMRES utiliza o método de Arnoldi, através do processo de ortogonalização de Gram-Schmidt, o método CMRH utiliza o processo de Hessenberg, via fatoração LU. O método LCD é baseado em vetores de direções conjugadas à esquerda. Uma versão do método CMRH, denominado CMRH-OVER, que inclui um processo de sobre-armazenamento, também é abordado.  Em todos os métodos, exceto o CMRH-OVER, aplica-se um processo de reinicialização cujo intuito é diminuir o custo computacional em armazenar os vetores que formam a base do espaço. Com o objetivo de comparar o desempenho computacional, seja o tempo de execução ou a quantidade de iterações necessárias para calcular a solução do sistema, os métodos foram testados em matrizes genéricas e em um problema aplicado, através da equação de convecção-difusão transiente, resolvida numericamente via elementos finitos. A solução numérica dessa equação também é apresentada neste trabalho.


  • Mostrar Abstract
  •  

10
  • Túlio Philipe Ferreira e Vieira
  • GERENCIAMENTO INTELIGENTE DE FALHAS APLICADO A REDE DE SENSORES SEM FIO COM INTEGRAÇÃO A INTERNET DAS COISAS.


  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • MEMBROS DA BANCA :
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • HENRIQUE ELIAS BORGES
  • MAGALI REZENDE GOUVEA MEIRELES
  • ANTÔNIO ALFREDO FERREIRA LOUREIRO
  • Data: 14/07/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho consiste no desenvolvimento de um sistema centralizado de gerenciamento de falhas que possibilita a integração das redes de sensores sem fio com a Internet das Coisas mediante a redução dos efeitos danosos causados por erros de hardware. Quando um erro de hardware não é identificado e prontamente corrigido, todo o monitoramento de uma rede de sensores é comprometido. Ao integrar estes sensores à Internet das Coisas, os danos causados são potencializados, pois muitos outros dispositivos se utilizam destes dados para incrementar a qualidade de monitoramento do sistema e tomar decisões que podem gerar resultados negativos. A abordagem centralizada, proposta nesta dissertação, adota o protocolo 6LoWPAN como interface de rede para a comunicação. Este sistema é baseado em dois níveis de detecção de falhas. No primeiro nível, cada nó da rede realiza uma inferência estatística sobre o seu próprio estado de funcionamento. No segundo nível, realizado pela estação base, é usado um comitê composto por duas redes neurais artificiais do tipo Multilayer Perceptron (MLP). Uma destas redes é constantemente treinada enquanto a outra é utilizada como classificador da falhas. Em intervalos variados de tempo ocorre o chaveamento entre estas redes. As entradas da rede MLP são as saídas de um filtro de Kalman, que prevê o comportamento dinâmico da temperatura medida, e o nível de impacto sofrido pelo nó, medido por um acelerômetro. Os resultados experimentais demonstram que esta abordagem reduz o consumo de energia de um sistema centralizado em até 35,0% e mantém a precisão do processo de detecção de falhas em 97,0%. 


  • Mostrar Abstract
  • .

11
  • Otávio Augusto Malheiros Rodrigues
  • APRENDIZADO POR REFORÇO BASEADO EM AGRUPAMENTOS PARA RECOMENDAÇÃO NA AUSÊNCIA DE INFORMAÇÃO PRÉVIA.


  • Orientador : ANISIO MENDES LACERDA
  • MEMBROS DA BANCA :
  • ADRIANO CESAR MACHADO PEREIRA
  • ANISIO MENDES LACERDA
  • FLAVIO LUIS CARDEAL PADUA
  • MARCELO PEIXOTO BAX
  • Data: 02/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Atualmente, com o crescimento da Web, o volume de informação compartilhada tem crescido, ampliando cada vez mais a quantidade de conteúdo disponível para os usuários da rede. Assim, surge a necessidade de ferramentas capazes de identificar conteúdo relevante a partir do grande volume de informação disponível. Os sistemas de recomendação são ferramentas computacionais que possuem este objetivo, ou seja, esses sistemas focam em auxiliar os usuários a encontrar informação relacionada às suas preferências de forma personalizada. As técnicas estado-da-arte na literatura de sistemas de recomendação são baseadas no histórico de interação dos usuários com os itens disponíveis no sistema. Assim, estas técnicas são limitadas no cenário de ausência de informação prévia sobre as preferências dos itens. Este é um problema bem conhecido na literatura de sistemas de recomendação, chamado cold-start, e é o foco desta dissertação. Mais especificamente, aborda-se o problema de recomendar itens para usuários de forma contínua (i.e.,online) por meio de algoritmos baseados em aprendizado por reforço. A classe de algoritmos na qual baseia-se este trabalho é Multi-Armed Bandits (MAB) e refere-se a algoritmos de tomada de decisão sequencial com retro-alimentação. Neste trabalho, modelamos a recomendação no cenário cold-start como um algoritmo MAB de dois passos. Assumimos que os itens podem ser agrupados considerando sua descrição textual, o que leva a agrupamentos de itens semanticamente semelhantes. Primeiramente, seleciona-se o agrupamento de itens mais relevante para o usuário-alvo da recomendação. A seguir, dado o agrupamento previamente selecionado, escolhe-se o item mais relevante dentro desse agrupamento, o qual é sugerido para o usuário-alvo. Para avaliar a qualidade do algoritmo proposto, o seu desempenho foi mensurado utilizando um conjunto de dados real. A avaliação experimental mostra que o algoritmo proposto produz melhorias significativas em termos de qualidade de recomendação em relação aos algoritmos MAB estado-da-arte.


  • Mostrar Abstract
  •  

12
  • Anna Claudia Almeida Anicio
  • UM ARCABOUÇO DE RECOMENDAÇÃO MULTIMODAL DE IMAGENS BASEADO EM FATORES LATENTES DE BAIXA DIMENSIONALIDADE.

  • Orientador : ANISIO MENDES LACERDA
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • FLAVIO LUIS CARDEAL PADUA
  • THIAGO DE SOUZA RODRIGUES
  • ALVARO RODRIGUES PEREIRA JUNIOR
  • Data: 04/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • A popularização de dispositivos fotográficos, como smartphones e câmeras digitais, tem levado as pessoas ao hábito de registrar momentos por meio de fotos. Assim, todos os dias, uma grande quantidade de imagens são disponibilizadas em redes sociais de compartilhamento de fotos, como Flickr, Pinterest e Instagram. Esta dissertação propõe um arcabouço de recomendação de imagens, que visa ajudar os usuários a lidar com a enorme quantidade de informação disponível, por meio de uma experiência personalizada. Sistemas de Recomendação são ferramentas computacionais que auxiliam usuários a encontrar informação relevante (por exemplo: imagens, músicas, filmes) de acordo com seus interesses. Tradicionalmente, esses sistemas utilizam informação colaborativa das preferências dos usuários para sugerir itens. Porém, nem sempre essa informação está disponível. Por exemplo, quando novos itens são inseridos no sistema não existe informação de preferência dos usuários sobre eles, fato que leva à necessidade de explorar o conteúdo desses itens. Neste trabalho, o foco é explorar informação de natureza multimodal para recomendação de imagens, sendo essas representadas por meio de características (i) visuais e (ii) textuais. As características visuais são extraídas da própria imagem (ex., cor e textura), utilizando técnicas de Visão Computacional e Processamento de Imagens. Por outro lado, as características textuais são extraídas de metadados das imagens (ex., do título e da descrição), utilizando técnicas de Recuperação de Informação. Dessa forma, é possível descrever uma imagem sob diferentes dimensões. Os sistemas de recomendação estado-da-arte são baseados em informação colaborativa e descrição dos itens. Esses sistemas sofrem do problema da "maldição da dimensionalidade". As características de alta dimensão dos itens dificulta a identificação de itens similares, dado que a distribuição dos dados originais é extremamente esparsa. A fim de aliviar esse problema, propõe-se projetar a  representação dos itens de alta dimensão em um espaço de fatores latentes de dimensão inferior. O arcabouço de recomendação proposto é baseado no algoritmo Sparse Linear Methods with Side Information (SSLIM) que, por sua vez, consiste na construção de matrizes de (i) relação entre usuários e itens e de (ii) relação entre itens. O trabalho proposto é avaliado em uma base de dados real coletada do Flickr ; e comparado com técnicas do estado-da-arte. Conforme demonstrado nos experimentos, o arcabouço proposto apresenta melhora na qualidade das recomendações e fornece ganhos de 15% a 17% em termos de taxa de acertos em relação aos métodos de referência.


  • Mostrar Abstract
  •  

13
  • Larissa Camila Papa
  • Um Algoritmo Híbrido baseado em Colônia de Formigas e Programação Linear
    Aplicado ao Problema de Roteamento de Veículos Capacitados.

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • MEMBROS DA BANCA :
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • JOAO FERNANDO MACHRY SARUBBI
  • RAFAEL FREDERICO ALEXANDRE
  • RODRIGO TOMAS NOGUEIRA CARDOSO
  • VINICIUS FERNANDES DOS SANTOS
  • Data: 10/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Neste trabalho é abordado o Problema de Roteamento de Veículos Capacitados. Ele compreende a obtenção de um conjunto de rotas, que devem ser percorridas por uma frota de veículos homogêneos e de igual capacidade, atendendo assim as demandas de um conjunto de clientes. Seu objetivo é a minimização do custo total das rotas, sabendo-se que elas devem iniciar e terminar no depósito central, além de cada cliente somente pode ser atendido uma única vez por um único veículo. Este problema possui natureza NP-difícil, sendo comumente resolvido por meio de heurísticas. Outra técnica utilizada é a programação linear inteira, cuja particularidade corresponde a confiança na solução obtida, uma vez que por meio da solução final retornada pode-se provar esta é o ótimo global. Como desvantagem, os problemas de natureza combinatória são computacionalmente custosos, tornando improvável encontrar uma solução ótima em tempo computacional aceitável. A proposta deste trabalho é desenvolver um algoritmo híbrido que combine a natureza ágil das heurísticas com a precisão dos métodos de solução por Programação Linear. A heurística utilizada foi a Otimização por Colônia de Formigas (ACO), a qual irá trabalhar de forma híbrida com o CPLEX, software distribuído pela IBM. Estuda-se a melhor forma de interação entre estes dois métodos, analisando os seus possíveis modos de comunicação. Estes compreendem duas diferentes formas de hibridização, uma caracterizada pela ausência do processo de realimentação, e a outra fazendo uso deste recurso. Os resultados obtidos pelas hibridizações foram comparados com os produzidos pelos métodos executados individualmente, bem como com as soluções presentes na literatura.


  • Mostrar Abstract
  •  

14
  • Marlei Ribeiro da Silva
  • Estudo do Transporte de Energia em Redes Complexas de Osciladores Harmônicos Quânticos Linearmente Acoplados

  • Orientador : JOSE GERALDO PEIXOTO DE FARIA
  • MEMBROS DA BANCA :
  • ADÉLCIO CARLOS DE OLIVEIRA
  • ARTHUR RODRIGO BOSCO DE MAGALHAES
  • JOSE GERALDO PEIXOTO DE FARIA
  • LEONARDO ANTONIO MENDES DE SOUZA
  • THIAGO GOMES DE MATTOS
  • Data: 10/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Nesta dissertação de mestrado, apresentamos um estudo analítico e numérico do transporte de energia em redes complexas de osciladores harmônicos quânticos linearmente acoplados. Nesse contexto, temos como objetivo revelar aspectos da dinâmica quântica, que fornecerá detalhes da comunicação entre os osciladores da rede, os quais trocam informação na forma de energia ou excitação. Dessa forma, esta pesquisa contribui para a compreensão de fenômenos de fluxo de informação quântica em sistemas quânticos complexos com potenciais aplicações na computação quântica, por exemplo. São exploradas quatro topologias de rede: regular, aleatória, livre de escala e mundo pequeno. Nos casos investigados, um quantum de energia é atribuído ao oscilador de interesse, que é o mais ligado da rede e, após a evolução temporal do sistema, mede-se a probabilidade de que a energia retorne para ele. Propomos o cálculo do valor médio dessa probabilidade como fator caracterizador da dinâmica. Três regimes dinâmicos foram presenciados: o primeiro, em que a energia distribui pela rede e não retorna significativamente para o oscilador de interesse em tempos curtos; o segundo, em que parcela considerável da energia flui do oscilador de interesse para o resto do sistema e retorna a ele de modo quase-periódico; o terceiro, em que a maior parte da energia permanece no oscilador de interesse em qualquer instante, sem trocas significativas com os demais osciladores.


  • Mostrar Abstract
  • .

15
  • OTAVIANO MARTINS MONTEIRO
  • Desenvolvimento de uma Metodologia Baseada em Matriz de Distâncias para a Verificação de Similaridades de Proteínas

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • ANISIO MENDES LACERDA
  • THIAGO DE SOUZA RODRIGUES
  • SANDRO RENATO DIAS
  • ANTON SEMENCHENKO
  • Data: 25/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • As proteínas são macromoléculas presentes em todos os seres vivos e desempenham funções importantes, tais como manutenção de órgãos e tecidos, diferenciação celular, transporte, entre outras diversas finalidades. Várias proteínas, possuem a sua estrutura tridimensional resolvida e armazenada em bancos de dados biológicos, como o Protein Data Bank (PDB). Existem diversos softwares que trabalham com informações extraídas do PDB. Algumas dessas ferramentas, tem como função a verificação de similaridades entre estruturas proteicas. Um exemplo é o LSQKAB, que pertence ao pacote CCP4, e tem o seu funcionamento baseado no algoritmo de Kabsch, uma técnica frequentemente utilizada na área de bioinformática. Este trabalho tem como objetivo desenvolver uma metodologia baseada em uma matriz de distâncias, que verifique a similaridade de trechos de proteínas. A sua precisão deve ser a mesma do LSQKAB e ainda deve ser possibilitado o agrupamento de resíduos de acordo com as similaridades de seus valores de distâncias atômicas. Os experimentos foram realizados com arquivos de interações de resíduos de uma mesma proteína e os resultados foram comparados com o Cutoff Scanning Matrix (CSM) e com a técnica do arquivo de referência, utilizada na busca de pares interagentes pela ferramenta RID.  Foi possível formar diversos grupos com arquivos similares através de cada técnica avaliada. A metodologia apresentada obteve resultados interessantes diante das outras técnicas comparadas, obtendo uma maior precisão.


  • Mostrar Abstract
  • As proteínas são macromoléculas presentes em todos os seres vivos e desempenham funções importantes, tais como manutenção de órgãos e tecidos, diferenciação celular, transporte, entre outras diversas finalidades. Várias proteínas, possuem a sua estrutura tridimensional resolvida e armazenada em bancos de dados biológicos, como o Protein Data Bank (PDB). Existem diversos softwares que trabalham com informações extraídas do PDB. Algumas dessas ferramentas, tem como função a verificação de similaridades entre estruturas proteicas. Um exemplo é o LSQKAB, que pertence ao pacote CCP4, e tem o seu funcionamento baseado no algoritmo de Kabsch, uma técnica frequentemente utilizada na área de bioinformática. Este trabalho tem como objetivo desenvolver uma metodologia baseada em uma matriz de distâncias, que verifique a similaridade de trechos de proteínas. A sua precisão deve ser a mesma do LSQKAB e ainda deve ser possibilitado o agrupamento de resíduos de acordo com as similaridades de seus valores de distâncias atômicas. Os experimentos foram realizados com arquivos de interações de resíduos de uma mesma proteína e os resultados foram comparados com o Cutoff Scanning Matrix (CSM) e com a técnica do arquivo de referência, utilizada na busca de pares interagentes pela ferramenta RID.  Foi possível formar diversos grupos com arquivos similares através de cada técnica avaliada. A metodologia apresentada obteve resultados interessantes diante das outras técnicas comparadas, obtendo uma maior precisão.

16
  • AGUINALDO ALVES PINTO
  • Algoritmos Híbridos Aplicados ao Problema de Roteamento de Veículos com Janela de Tempo

  • Orientador : SERGIO RICARDO DE SOUZA
  • MEMBROS DA BANCA :
  • CARLOS ALEXANDRE SILVA
  • GRAY FARIAS MOITA
  • MOACIR FELIZARDO DE FRANCA FILHO
  • SERGIO RICARDO DE SOUZA
  • Data: 25/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Nesta dissertação é tratado o Problema de Roteamento de Veículos com Janela de Tempo. O objetivo é atender um conjunto de clientes geograficamente distribuídos com um número de veículos limitado. É considerado um único depósito, a partir do qual os veículos partem e retornam após visitar todos os clientes de sua respectiva rota. Há uma janela de tempo associada ao depósito, que indica seu período de funcionamento, além de uma janela de 
    tempo correspondente  a cada cliente, que indica o intervalo de tempo para iniciar o atendimento. Todos os veículos possuem a mesma capacidade de carga e há uma demanda correspondente a cada cliente. Esta dissertação propõe uma hibridização das metaheurísticas  Iterated Greedy Search (IGS) e Greedy Randomized Adaptive Search  Procedure (GRASP), e integrada às heurísticas  Push-Forward Insertion Heuristic (PFIH) e  Variable Neighborhood Descent (VND). Os testes computacionais realizados utilizam as instâncias padrões da literatura e comparam com os melhores resultados da literatura.


  • Mostrar Abstract
  •  

17
  • PEDRO KASSIO RIBEIRO MATOS LOUREIRO DE CARVALHO
  • Classificadores para Pacientes com Câncer de Mama de Acordo com a Sensibilidade Quimioterápica Neoadjuvante

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • VINICIUS FERNANDES DOS SANTOS
  • THIAGO DE SOUZA RODRIGUES
  • JOAO FERNANDO MACHRY SARUBBI
  • SANDRO RENATO DIAS
  • Data: 30/08/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • O câncer de mama é o tipo de câncer mais comum entre as mulheres. O seu tratamento é geralmente feito por meio da utilização de quimioterapia neoadjuvante, também conhecida como pré-operatória, seguida da operação para remoção do tumor e posteriormente a quimioterapia pós-operatória. A quimioterapia neoadjuvante pode ter Resposta Patológica Completa (PCR), quando o tumor é eliminado, ou resultar em Doença Residual (RD). Este trabalho busca utilizar informações dos subtipos moleculares do câncer de mama, para, através de dados de expressão gênica por microarray, classificar os pacientes de acordo com a resposta quimioterápica. Foram aplicados métodos uni e multivariados para a seleção de características e métodos de classificação para testar a separabilidade dos pacientes de acordo com os genes selecionadas. Todas as combinações dos métodos de seleção e classificadores foram realizadas, sendo a combinação Stepwise Generalized Linear Model e Extreme Learning Machine, que resultou em 81% de acerto em média, indicando um bom resultado.


  • Mostrar Abstract
  •  

Teses
1
  • ANTON SEMENCHENKO
  • Sintese proteica In silico :Modelo Baseado em Agendes da Formação das Cadeias de Amino Ácido

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • MEMBROS DA BANCA :
  • ALLBENS ATMAN PICARDI FARIA
  • BRENO RODRIGUES LAMAGHERE GALVAO
  • LEONARDO DOS SANTOS LIMA
  • JOSÉ MIGUEL ORTEGA
  • LUCAS BLEICHER
  • GUILHERME CORRÊA OLIVEIRA
  • Data: 19/04/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Este trabalho apresenta o desenvolvimento do ambiente computacional que permite estudo da síntese protéica in-sílico em conformidade com os dados experimentais observados utilizando as técnicas e ambientes da expressão de proteinas do tipo cell-free (CECF). Este sistema é baseado no modelo matemático da tradução do mRNA. As reações bioquímicas são representadas como processos estocásticos (cadeias de Markov) e integradas em ambiente de simulação baseado em agentes. O modelo é validado pela comparação dos resultados das simulações com os dados experimentais para as taxas de síntese protéica da luciferase em sistemas do tipo CECF e efeito inibidor de tradução demonstrado pelo antibiótico Edeina. O principal resultado desta pesquisa é a capacidade de predizer a taxa de produção de proteínas em função da sequência genética. Além disto, a tese apresenta as propostas concretas para a investigação dos mecanismos de formação das estruturas secundárias de polissomos. Este trabalho é a primeira integração dos processos de tradução e formação das estruturas secundárias de polissomos e a primeira aplicação de um rigoroso modelo matemático de tradução dentro de um ambiente baseado em agentes, abrindo uma nova frente de pesquisa para investigação in-silico das propriedades 3-dimensionais da formação das cadeias polipeptídicas.


  • Mostrar Abstract
  •  

2
  • CAROLINA GIL MARCELINO
  • UMA ABORDAGEM EVOLUTIVA E HÍBRIDA PARA SOLUÇÃO DE PROBLEMAS DE FLUXO DE POTÊNCIA ÓTIMO

  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • MEMBROS DA BANCA :
  • ELIZABETH FIALHO WANNER
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • MARCONE JAMILSON FREITAS SOUZA
  • PAULO EDUARDO MACIEL DE ALMEIDA
  • FELIPE CAMPELO FRANÇA PINTO
  • HEDER SOARES BERNARDINO
  • Data: 09/06/2017
  • Visualizar Dissertação/Tese  
  • Mostrar Resumo
  • Nos últimos anos, tem-se percebido uma preocupação crescente em relação ao uso racional da energia. Os países desenvolvidos têm realizado campanhas relacionadas à projeção e prospecção de novas soluções eficazes na indústria, entre elas a busca objetiva pelo uso adequado das fontes de energia elétrica. Esta forma de energia é considerada de suma importância para o desenvolvimento social e econômico. Garantir a eficiência energética visando a sustentabilidade e a minimização do uso de recursos se torna um grande desafio. Controlar grandes sistemas de geração e transmissão de energia elétrica é uma tarefa complexa, dado o alto número de restrições agregadas. Neste contexto, o estudo e a proposição de novos métodos para solucionar problemas de Fluxo de Potência Ótimo (OPF) se tornam temas de alta prioridade no cenário mundial. Este trabalho propõe e implementa algoritmos evolucionários híbridos e os aplica para solução destes problemas. Dois novos algoritmos híbridos são propostos e apresentados, os quais resolvem: o problema de despacho elétrico em uma usina hidrelétrica, o problema do despacho elétrico em uma planta eólica, os problemas OPF com restrições de segurança em grandes redes e o problema do despacho elétrico em um modelo de microgrid híbrido aperfeiçoado. Neste caso, um método de tomada de decisão foi utilizado a posteriori para definir o melhor sistema de armazenamento de energia para a rede proposta. Experimentos simulados foram executados em um computador de alto desempenho, e a análise dos mesmos foi realizada a partir de técnicas de inferência estatística, indicando que os algoritmos propostos se mostraram eficientes e competitivos na solução dos problemas estudados.


  • Mostrar Abstract
  •  

3
  • BRUNO FERREIRA ROSA
  • Problemas de programação de tarefas em uma máquina com janelas de conclusão  e Penalidades por  Atnecipação e Atraso:Algoritmos e Fromulações.

  • Orientador : MARCONE JAMILSON FREITAS SOUZA
  • MEMBROS DA BANCA :
  • SERGIO RICARDO DE SOUZA
  • ELISANGELA MARTINS DE SA
  • FLAVIO VINICIUS CRUZEIRO MARTINS
  • MARCONE JAMILSON FREITAS SOUZA
  • MOACIR FELIZARDO DE FRANCA FILHO
  • DÉBORA PRETTI RONCONI
  • MAURÍCIO CARDOSO DE SOUZA
  • PHILIPPE YVES PAUL MICHELON
  • LUIZ SATORU OCHI
  • Data: 27/10/2017
  • Visualizar Dissertação/Tese