Dissertações/Teses

2018
Dissertações
1
  • Mariana Mendes Guimarães
  • Modelos mono e multiobjetivo para o problema de localização de máxima cobertura: estudo de caso SAMU-BH

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • Data: 07/02/2018
  • Mostrar Resumo
  • O problema de Localização de Facilidades (Facility Location Problem - FLP), é um dos temas clássicos na Pesquisa Operacional e se propõe a definir os melhores pontos de instalação de p facilidades para que as n demandas sejam atendidas. Uma de suas versões, o Problema de Máxima Cobertura (Maximal Covering Location Problem - MCLP), tem o objetivo de cobrir a maior demanda possível dentro de um limite preestabelecido (de tempo ou distância). Neste trabalho, o problema do tipo MCLP foi aplicado à realidade do Serviço de Atendimento Móvel de Urgência da cidade de Belo Horizonte, Minas Gerais, SAMU-BH, com o objetivo de maximizar a cobertura dos chamados atendidos dentro de um tempo de resposta de até oito minutos, para as unidades de suporte básico (USBs), e de até dez minutos, para as unidades de suporte avançado (USAs). Foram coletados dados dos prontuários referentes às ocorrências de Maio/2016 a Abril/2017, totalizando 29.048 registros. Os dados foram utilizados para a criação de instâncias do problema baseadas no comportamento dos chamados e que representassem a realidade do estudo de caso. Foi desenvolvido um modelo de programação linear inteira, adaptado de um modelo da literatura, e mapeados 427 nós de demanda e 1.527 nós candidatos a instalação de facilidades. Os tempos de resposta entre os nós foram calculados pelo aplicativo GoogleMaps Direction API. O modelo foi rodado em IBM ILOG CPLEX 12.7.1, em tempos computacionais satisfatórios. Foram construídos três cenários para localização das 26 ambulâncias disponíveis. Foram considerados o remanejamento entre as bases existentes, a localização ótima em novos pontos mapeados e as taxas de ocupação para cada tipo de ambulância conforme níveis de confiança predefinidos. Os resultados foram comparados com o cenário real de localização das bases, vigente em 2017. Houve um aumento de 9% a 25% na taxa de cobertura, que variou conforme parâmetros estabelecidos, e chegou à cobertura de 100% dos chamados com empenho de USBs. Novos cenários também foram testados, com a aquisição de ambulâncias conforme planejamento para o triênio 2018-2020, resultando em uma cobertura 36% maior das ocorrências com o empenho de unidades avançadas e de 95% das básicas, com a redução do seu tempo de resposta para seis minutos. Uma abordagem multiobjetivo foi apresentada, utilizando o método da Soma Ponderada, a posteriori, com os objetivos de aumentar a cobertura total e reduzir o número de bases instaladas. Foram encontradas 25 soluções Pareto-Ótimas, sendo uma alternativa à tomada de decisão gerencial.
2
  • Fernando Garcia Diniz Campos Ferreira
  • Estudo Comparativo Entre Modelos e Técnicas de Otimização de Portfólios com Restrição de Cardinalidade.

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 08/02/2018
  • Mostrar Resumo
  • A teoria moderna do portfólio introduz o conceito de risco para investimentos financeiros, iniciando um problema de decisão em uma relação de compromisso entre o risco e retorno, que são características conflitantes em um investimento. Recentemente, estudos vêm utilizando otimização multiobjetivo para tratar esse problema, mas modelos e técnicas ainda estão sendo aprimorados. Deseja-se, portanto, contribuir para o desenvolvimento desse processo de otimização, especificamente com restrição de quantidade de diferentes ativos em um investimento, propondo modificações em modelos e técnicas já propostos. Para isso, quatro experimentos foram planejados, estabelecendo comparação de técnicas, de modelos, simulações para validação desses e desenvolvimento de técnicas paralelas para investimentos em alta frequência, respectivamente. Resultados dos dois primeiros experimentos sugerem superioridade do modelo e técnica proposta em relação a outros presentes na literatura. Terceiro experimento valida o modelo e técnica escolhidos nos experimentos anteriores em uma simulação de negociações no mercado de ações e o quarto experimento apresenta melhorias à técnica que apresentou melhor desempenho, melhorando a qualidade das soluções geradas com um aumento mínimo de tempo. Uma vez que são propostos modelos e técnicas para a solução do problema estudado que, aparentemente, apresentam melhor desempenho que alguns presentes na literatura, conclui-se que esses novos procedimentos constituem uma importante contribuição acadêmica para a área de otimização de portfólios financeiros.

3
  • Rodrigo Couto e Silva
  • Estratégias de Operação Automatizada em Mercado Financeiro baseada em Previsões de Redes Neurais Artificiais.

  • Orientador : ELIZABETH FIALHO WANNER
  • Data: 09/02/2018
  • Mostrar Resumo
  • A aplicação de algoritmos em investimentos é bastante pertinente, considerando que é comum o desejo dos investidores em adotar critérios objetivos para embasar suas decisões em operações financeiras. Recentemente há um crescente interesse pela automatização de estratégias de operação (*algotrading*). O emprego de Redes Neurais Artificiais (RNAs) do tipo *Extreme Machine Learning* (ELM) mostra-se propício, principalmente para estratégias de operação de curto prazo, dada sua maior eficiência demonstrada no treinamento. Porém, há uma carência de estudos na aplicação de ELM no mercado financeiro. O objetivo deste trabalho foi desenvolver uma estratégia de operação inteligente, baseada nas previsões geradas por um conjunto (*Ensemble*) de RNAs do tipo ELM. Cada RNA tem a responsabilidade de realizar previsões de tendência no retorno dos Preço e Volume com base em dados históricos dispostos em janelas temporais deslizantes de preço, retorno, volume e indicadores de análise técnica. A estratégia então determina os momentos de abertura e fechamento de posições considerando os sinais das previsões das RNAs. Uma validação do tipo *backtesting* simulado foi realizado nos ativos VALE3, ITUB4, PETR4 e BOVA11, com periodicidades variadas durante o ano de 2017, comparando os resultados financeiros com as estratégias *Buy and Hold* e Randômica, e entre a Estratégia RNA Preço e o *Ensemble* Preço e Volume. Os resultados encontrados mostram que o uso de RNAs do tipo ELM são adequadas para estratégias de operações de curto prazo. O *Enslemble* de RNA Preço e Volume causou melhoras nos indicadores financeiros Fator de Lucro e reduziu o *Maxdrawdown* em todos os casos apresentados, melhorando a relação risco retorno da estratégia. Além disso, reduziu o número de operações para quase metade quando comparada com a estratégia que utilizava apenas previsões da RNA Preço.

4
  • Jesus Amarante dos Reis
  • AVALIAÇÃO DE RETORNO E RISCO EM ALOCAÇÃO DE RECURSOS DE FUNDO DE PENSÃO

  • Data: 15/06/2018
  • Mostrar Resumo
  • As alterações de fatores econômicos e sociais ocorridas nos últimos anos estão modificando significativamente a maneira de se preparar para aposentadoria. A gradativa redução da capacidade laboral, que acontece naturalmente com o passar dos anos, faz refletir sobre o período da incapacidade para o trabalho e, neste momento, reconhecemos a importância dos benefícios pagos pela Previdência Oficial, que há tempos vive uma expectativa de crise financeira favorecendo o surgimento e posterior crescimento das Entidades Fechadas de Previdência Complementar (EFPC). Neste mercado de previdência complementar, o período de acumulação de recursos é muito importante e a rentabilidade obtida nesta fase interfere diretamente na reserva financeira acumulado para a aposentadoria. Por isso, este trabalho tem como objetivo criar uma modelagem para selecionar e sugerir aos gestores de EFPC um portfólio de investimentos usando também renda variável em sua composição e que tenha rentabilidade suficiente para o cumprimento das expectativas do plano a um baixo nível de risco, medido pelo CVaR. Para tornar possível esta seleção de ativos é necessário observar a legislação atual relacionada aos limites da meta atuarial e da composição da carteira conforme a classificação dos ativos na B3. Dispondo das cotações diárias da BOVESPA do período de 2008 a 2016 será aplicada a Teoria do Portfólio de Markowitz para obter uma carteira ativos com o retorno adequado a legislação e risco minimizado. As simulações realizadas apresentaram retorno acumulado em oito anos superior em 128,45% a meta atuarial e 193,55% ao IBOVESPA que em média representa retorno anual superior em 16,00% e 24,00%, respectivamente. Os resultados foram validados com Fundos de Investimentos selecionados e com uma solução proposta pelo algoritmo evolutivo multiobjetivo NSGA-II, que também foram superados. De posse dos melhores ativos selecionados, pode-se então recomendar sugestões de carteiras para fundos de pensão.

5
  • Renato Barros Arantes
  • SISTEMAS DE RECOMENDAÇÃO BASEADOS EM VETORES DE PALAVRAS E PROPRIEDADES DE REDES COMPLEXAS

  • Orientador : ANISIO MENDES LACERDA
  • Data: 16/07/2018
  • Mostrar Resumo
  • Com o rápido crescimento e a abundância de serviços na internet, as pessoas se veem em frente a uma enorme gama de opções. Embora esse crescimento tenha permitido que os usuários da internet consumam uma grande quantidade de recursos com apenas um clique, também tornou mais difícil para os mesmos encontrar informações relevantes para seus interesses. Em muitas situações, as pessoas possuem pouca ou quase nenhuma experiência pessoal para escolher uma dentre as inúmeras opções que são oferecidas. Neste contexto, os sistemas de recomendação desempenham um papel importante auxiliando no aumento da capacidade e eficácia deste processo de indicação. Neste trabalho, os sistemas de recomendação de tags e recomendação de artigos científicos, duas formas diferentes de recomendações, são abordados tendo em comum a utilização de propriedades de redes complexas como meio auxiliar no processo de recomendação. A recomendação de tags é feita de duas maneiras distintas. Para determinar a relevância de uma tags em um documento, o vocabulário do documento é representado usando um grafo gerado a partir de um modelo de vetores de palavras. As métricas de uma rede complexas são aplicadas para calcular a relevância das palavras do documento e as palavras mais relevantes são selecionadas como as tags recomendadas. Alternativamente, as tags podem ser recomendadas usando as métricas de redes complexas como dados de entrada para técnicas de aprendizado de máquina. Para a recomendação de artigos científicos, para cada usuário, pretende-se recomendar artigos que não estão em sua biblioteca, mas são de potencial interesse para o mesmo. As informações sobre as bibliotecas de outros usuários e informações sobre os artigos disponíveis, tais como título e resumos utilizados como entrada para um modelo de vetor de palavras, serão usadas para gerar uma rede complexa e, usando as propriedades das redes complexas, palavras deste grafo são selecionadas para expandir um documento. Para extrair os tópicos e as recomendações, técnicas de processamento de linguagem natural serão aplicadas. Combinar as métricas de rede é mais eficiente do que usá-las separadamente para recomendar tags nos filmes do conjunto de dados IMDb. Para os métodos não supervisionados, o melhor resultado foi obtido pelo algoritmo TF-IDF, com uma precisão de aproximadamente 31%. Este resultado é muito inferior ao que foi obtido usando o algoritmo Random Forest que foi de aproximadamente 85% no cenário supervisionado. Os resultados obtidos com a metodologia proposta para recomendação de tags mostraram o potencial da abordagem. A partir dos experimentos realizados para a recomendação de artigos científicos, a técnica proposta melhora o desempenho do modelo CTR para o problema de cold start. 

6
  • MICHELLE DINIZ LOPES
  • Modelo Longitudinal Aplicado à Perda Auditiva Induzida pelo Ruído

  • Orientador : ELIZABETH FIALHO WANNER
  • Data: 19/07/2018
  • Mostrar Resumo
  • Em ambientes industriais é comum a presença de ruídos que podem causar danos cumulativos e irreversíveis na audição dos trabalhadores, afastamento do trabalho e até indenizações no caso do não cumprimento rigoroso das normas de saúde e segurança do trabalho, além de onerar o sistema de saúde. O objetivo desse estudo é determinar a prevalência de perda auditiva induzida por ruído (PAIR) em trabalhadores de uma indústria, relacionado com a idade e com o tempo de exposição ao ruído. Os dados são de 106 trabalhadores que se submeteram a exame audiométrico periódico. Na literatura não foram identificados trabalhos que levem em consideração que as medidas feitas nos trabalhadores ao longo do tempo são correlacionadas. Portanto, a associação estatística entre PAIR com idade e tempo de empresa foi avaliada usando um modelo longitudinal. Estudos longitudinais permitem a distinção entre o grau de variação na variável de resposta para um indivíduo ao longo do tempo e a variação entre diferentes indivíduos. Dos diversos modelos testados, o modelo exponencial foi o que apresentou os melhores resultados e se ajustou melhor aos dados, relacionando as medições audiométricas com a idade do trabalhador e o tempo de empresa. Este modelo poderia ser usado em aplicações semelhantes em diversas áreas. Todas as análises comparativas entre os diversos modelos foram realizadas usando programas na linguagem R para validação dos dados.

7
  • TALES HENRIQUE JOSE MOREIRA
  • Genealogia Acadêmica Brasileira: Uma Caracterização da relação Orientador-Orientado no Brasil

  • Orientador : GRAY FARIAS MOITA
  • Data: 27/08/2018
  • Mostrar Resumo
  • A relação orientador-orientado, que se caracteriza como uma forma de propagação do conhecimento, como resultado pode proporcionar um aumento na produção científica dos orientadores e orientados. Especificamente em programas de pós-graduação, onde orientados submetem artigos científicos em diversos meios de publicação em coautoria com seus orientados, estes acabam por impulsionar a produção científica de seu orientador, já que em geral os orientadores surgem como coautores das publicações. Portanto, caracterizar como ocorre o processo de orientação e a produção científica resultante dessa relação é mais um importante meio de análise da colaboração cientifica nas diversas áreas do conhecimento. Neste trabalho, são utilizados os dados de orientações extraídos dos currículos cadastrados na Plataforma Lattes com o objetivo de obter-se, além de uma visão geral do processo de orientação no Brasil, uma análise da produção bibliográfica advinda desse processo, identificando dessa forma como o conhecimento científico Brasileiro tem se propagado.

8
  • WASHINGTON PINHEIRO DE SOUZA
  • Modelagem de um teste de hipóteses, baseado na convolução da distribuição Binomial e a distribuição Normal, com aplicações na indústria automotiva, medicina veterinária e no índice IPCA do Banco Central

  • Orientador : THIAGO GOMES DE MATTOS
  • Data: 30/08/2018
  • Mostrar Resumo
  • Em vários segmentos que necessitam de um orçamento prévio e/ou uma previsão de receitas, é comum a realização de estimativas. Tal procedimento é feito embasado em modelos estatísticos. A distribuição Binomial é um modelo estatístico discreto que determina as chances de sucesso ou fracasso da ocorrência de um determinado número de eventos em um espaço amostral limitado. A distribuição normal é o modelo estatístico padrão que segue a lei dos grandes números, ou seja, ocorrências aleatórias que tendem ao infinito convergem para uma média e apresentam uma variância. Reunir as características das duas distribuições em uma ferramenta única é de grande valia para se realizar estimativas e, para tanto, utiliza-se a convolução. Os testes de hipóteses são ferramentas estatísticas muito utilizadas para se determinar o a abrangência de um determinado conjunto de dados numéricos a partir da rejeição ou não da hipótese nula. Para se realizar a convolução entre as duas distribuições citadas é necessário que ambas sejam discretas ou contínuas. A distribuição Binomial foi aproximada de uma função contínua, através de ferramentas matemáticas apropriadas, e posteriormente convoluída com a distribuição normal. Foi feita a previsão da quantidade de peças defeituosas que devem ser recolhidas pela Magneti Marelli em todo o Brasil através da relação de proporcionalidade da convolução discreta. Os valores estimados contemplaram os valores reais divulgados pela empresa. No Hospital Veterinário da UFMG, foram feitas previsões da quantidade de animais que estavam aptos a realizar a cirurgia de castração no ano de 2016, através da convolução discreta e utilizando dados do ano de 2015. Todos os valores mensais coletados no hospital veterinário no ano de 2016 estavam dentro da previsão feita utilizando o modelo. Foi estimado o Índice Nacional de Preços ao Consumidor Amplo (IPCA) dos anos de 2011 a 2016 com base nos dados de 1996 a 2010 divulgados pelo IBGE, utilizando a convolução contínua. Os valores observados estavam dentro da faixa prevista pelo método com proximidade da média. Pela aplicação nos diversos setores citados com respectivos resultados satisfatórios, o método proposto se mostrou eficaz e multidisciplinar, ou seja, pode ser aplicado em diversas áreas.

9
  • Mariana de Mendonça Melo
  • Autômatos Celulares Aplicados à Dinâmica de Doação Emparelhada de Rins.

  • Orientador : THIAGO GOMES DE MATTOS
  • Data: 31/08/2018
  • Mostrar Resumo
  • Embora o transplante seja o melhor tratamento para o doente renal crônico, há um desequilíbrio constante entre a doação de rim para a realização de transplante e o número de doentes renais na fase terminal, segundo Organ Procurement and Transplantation Network (OPTN). Dessa forma, para estender o acesso ao transplante e melhorar a taxa de sobrevivência com qualidade de vida para o paciente, este trabalho visa desenvolver um modelo de doação emparelhada de rins. A idealização do modelo baseia-se em solucionar a incompatibilidade e/ou a baixa compatibilidade envolvida em um par doador-receptor trocando-se o doador de pares distintos. No modelo proposto descrevemos a propagação de transplantes renais a cada passo de tempo sob influência do grau de altruísmo do doador e da compatibilidade entre os pares. Através de simulações computacionais e estudos estatísticos, analisamos o comportamento do modelo que consiste na dinâmica de evolução de uma rede aleatória de autômatos, no qual cada nó da rede corresponde a um par doador-receptor.
Teses
1
  • Ana Paula de Paiva Pereira
  • CALIBRAÇÃO DE PARÂMETROS ENTRE AS ESCALAS DE VOOS DIFUSIVOS ANÔMALOS: PRESCRIÇÃO PARA CORRESPONDER SIMULAÇÃO E MODELOS.

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • Data: 23/03/2018
  • Mostrar Resumo
  • Neste trabalho buscamos uma calibração que possa auxiliar na simulação de processos de difusão com parâmetros em pequena escala que conduzam a um modelo desejado em grande escala. Ou, na via inversa, conhecidos os dados de um processo, determinar os parâmetros em grande escala e, em seguida, inferir as suas características dinâmicas em pequena escala por meio da calibração. As simulações consistem um random walk de tempo contínuo e foram conduzidas controlando as potências de pequena escala r e s das distribuições segundo lei de potência para, respectivamente, o comprimento dos saltos e tempo de espera entre os saltos. De acordo com estes parâmetros, gera-se processos de difusão anômala que podem ser subdifusivos, normais ou superdifusivos. A avaliação dos parâmetros, da pequena escala à grande escala, obtidos a partir das simulações é feita utilizando duas diferentes abordagens: estudando a evolução temporal da variância amostral dos deslocamentos destas simulações para identificar os parâmetros dos modelos aplicáveis de pequena escala e, em grande escala, otimizando as PDFs soluções de equações de difusão fracionárias e ou da equação de difusão não linear aos histogramas de posições gerados pelas simulações. Foram obtidos, através do método de escala de tamanho finito o número N de séries geradas e o tempo T das simulações que fazem com que o sistema se torne estável. Construiu-se, então, o espaço de parâmetros. Com isso, foram analisadas as relações entre parâmetros teóricos e os parâmetros obtidos por meio das simulações. Desta forma, foi possível controlar todo o processo que vai da geração de processos de difusão aos modelos que os descrevem em diferentes escalas.

2
  • HENRIQUE COSTA BRAGA
  • “Modelagem Computacional Híbrida Ergonomicamente Embasada da Movimentação Humana por Agentes Fuzzy”.

  • Orientador : GRAY FARIAS MOITA
  • Data: 19/04/2018
  • Mostrar Resumo
  • Neste trabalho, foram realizados o desenvolvimento, a implementação computacional, a verificação e a validação de um novo modelo por agentes para a simulação computacional da movimentação humana, utilizando, como premissas, um enfoque híbrido discreto-contínuo da estrutura espacial, a utilização de uma abordagem ergonômica formal mais acurada das principais grandezas envolvidas e o uso da lógica fuzzy para emulação do processo de decisão humana. Desenvolveu-se, também, um algoritmo de busca e exploração, denominado BR – Busca Referenciada, cujos resultados são superiores aos algoritmos tradicionais de pesquisa para a geração de mapas de distância. A utilização da lógica fuzzy incorporou o conceito da tabela fuzzy, o que propicia um aumento da velocidade de processamento sem perda de conhecimento. Na tese, diversos exemplos são mostrados, atestando a efetividade e eficiência do modelo proposto. Também é incluída uma aplicação prática do novo modelo, com um estudo relacionado à tragédia da Boate Kiss, onde simulações de abandono foram realizadas de forma e se compreender melhor a razão para tal tragédia no que tange ao dimensionamento das saídas de emergência e se propor melhorias, inclusive abordando alguns aspectos legais.

3
  • Celso Luiz de Souza
  • Abordagem Computacional para Criação de Neologismos Terminológicos em Línguas de Sinais.

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • Data: 20/04/2018
  • Mostrar Resumo
  • O número de surdos que estão ativamente no meio acadêmico está aumentando, os quais, deparam-se com diversos tipos de barreiras que dificultam o seu desenvolvimento. Uma dessas barreiras está associada à escassez de um léxico específico para termos técnicos na língua de sinais em que têm proficiência. Visando-se solucionar este problema em particular, a presente tese apresenta uma abordagem inovadora para criação de neologismos terminológicos (sinais técnicos) para as áreas de Ciência, Tecnologia, Engenharia e Matemática (CTEM) em língua de sinais.  A abordagem proposta baseia-se na utilização de métodos computacionais para auxiliar o processo de criação de neologismos terminológicos que constituirão novos dicionários em CTEM. Especificamente, propõe-se: (1) a extração de descritores de forma a partir da imagem contendo a ilustração do significado do conceito técnico sem sinal de interesse, utilizando-se visão computacional, e (2) a determinação do radical do termo associado ao conceito na língua oral de referência do surdo, utilizando-se processamento de linguagem natural. Ao comparar essas informações do conceito técnico sem sinal com as correspondentes de sinais de propósito geral em um repositório, a presente abordagem cria um novo sinal semanticamente aceitável a partir de sinais pré-existentes com características semelhantes. No estado da arte atual, não foram identificados trabalhos cujas soluções para criação de sinais sejam apoiadas por métodos computacionais. Dito isso, a abordagem proposta nesta tese é potencialmente a primeira na literatura a apoiar a produção de novos sinais com o auxílio da computação, tornando este processo mais parametrizado, ágil e escalável.  Para avaliar a qualidade e a utilidade dos sinais técnicos criados por meio desta abordagem, considerou-se neste trabalho um estudo de caso no âmbito da Língua Brasileira de Sinais (Libras). Em particular, foram avaliados sinais em Libras criados para conceitos técnicos da área de Desenho Arquitetônico. Constituiu-se, para este fim, um comitê avaliador composto por falantes de Libras e conhecedores de escrita de sinais, os quais realizaram suas avaliações tomando como base aspectos fonéticos, fonológicos e a própria estrutura morfológica da língua de sinais em questão. Os resultados obtidos sugerem que a abordagem proposta é promissora, sendo que cerca de 60% dos novos sinais criados foram classificados com nível de satisfação similar àquele atribuído a sinais de uma base de dados de referência (criados manualmente), em uma escala de classificação de cinco níveis.

4
  • MOISES HENRIQUE RAMOS PEREIRA
  • Análise de Sentimentos Multimodal Aplicada à Computação de Níveis de Tensão em Vídeos de Notícias.

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • Data: 23/04/2018
  • Mostrar Resumo
  • Esta tese aborda o desenvolvimento de uma nova abordagem de análise de sentimentos multimodal para estimar os níveis de tensão em vídeos de notícias. As mídias de notícias constituem um tipo específico de discurso e se tornaram uma parte central da vida moderna de milhões de pessoas. Neste contexto, é muito importante estudar e entender como a indústria de notícias funciona e como ela afeta o cotidiano da sociedade. Para isso, especialmente sob a perspectiva da análise do discurso, a abordagem proposta calcula níveis de tensão como pontuações de sentimento (polaridades) ao longo da narrativa das notícias, revelando os diferentes padrões de comunicação utilizados. A fim de atingir esse objetivo, combinou-se pistas visuais e de áudio extraídas dos participantes das notícias, tais como repórteres, âncoras, entrevistados, dentre outros, usando métodos para: (1) reconhecimento de emoção a partir das expressões faciais, (2) estimativa do plano fílmico e (3) extração de recursos de áudio (p. ex., características de croma, coeficientes mel-cepstrais no domínio da frequência e características espectrais), bem como sentenças textuais obtidas a partir da (4) análise de sentimento das transcrições de fala da narrativa das notícias. Os resultados experimentais com um conjunto de dados contendo 960 vídeos de notícias rotuladas para telejornais brasileiros e americanos mostram que a abordagem proposta atinge uma precisão global de 64,17% na tarefa de classificação de níveis de tensão. Ao ser comparado também com um baseline, o método proposto alcançou uma precisão próxima de um método supervisionado, mas sem a necessidade de um treinamento rotulado. Esses resultados demonstram o alto potencial da abordagem proposta para ser usada por analistas de mídia em várias aplicações, especialmente no domínio jornalístico.

5
  • WESLLEY FLORENTINO DE OLIVEIRA
  • Potenciais Caóticos no Operador de Schrödinger Unidimensional: Análise pelo Inverso do Número de Participação.

  • Orientador : GIANCARLO QUEIROZ PELLEGRINO
  • Data: 23/04/2018
  • Mostrar Resumo
  • Uma maneira de se modelar quase-cristais consiste no ordenamento de sequência de átomos em redes unidimensionais por meio de sequências numéricas. As sequências peneperiódicas têm sido utilizadas com esse intuito desde a criação do primeiro quase-cristal, construído com base na sequência de Fibonacci na década de 80. Além disso, a caracterização da participação dos sítios da rede tem sido medida, entre outros métodos, pelo decaimento da densidade de probabilidade  do estado quântico. O presente trabalho propõe a utilização de mapas caóticos em substituição às sequências peneperiódicas, pois acredita-se que esses mapas apresentam a possibilidade de controle de desordem, o que indicaria uma vantagem frente às sequências peneperiódicas. A partir desses mapas caóticos são criados potenciais binários para o operador de Schrödinger. Além disso, propõe também a utilização do inverso do número de participação (IPR) para caracterizar o sistema em localizado-delocalizado, pois esse apresenta relação com as quantidades físicas de interesse, geralmente vistas em física do Estado Sólido. Além disso, o $IPR$ é utilizado para fazer diferentes caracterizações e estabelecer relações entre as dimensões fractais, o IPR generalizado (GIPR), IPR típico ou médio e a classificação pela energia do sistema, a fim de se conhecer melhor sobre os sistemas gerados por mapas caóticos. Foi possível caracterizar os potenciais caóticos, obter correlação entre o IPR e o expoente de Lyapunov Ly, reproduzir a singularidade encontrada por Johri e Bhatt para potenciais aleatórios e evidenciar o caráter multifractal dos autovetores. De modo amplo, pôde-se perceber que os mapas caóticos apresentam, de fato, a vantagem de controle da desordem por meio do ajuste da caoticidade.

6
  • MARCELA RICHELE FERREIRA
  • "ESTUDO DA PROPAGAÇÃO DE INTERFACES RUGOSAS"

     

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • Data: 27/04/2018
  • Mostrar Resumo
  • O crescimento de interfaces rugosas tem atraído a atenção dos pesquisadores ao longo dos anos devido a sua vasta gama de aplicações. Esse crescimento pode ocorrer de diversas formas e a compreensão do processo físico que controla a formação e morfologia das estruturas geradas depende, muitas vezes, da elaboração de um modelo simplificado. Sendo assim, esta tese tem por objetivo analisar a propagação de interfaces sob duas situações distintas: crescimento de superfícies rugosa por deposição de partículas e movimentação de uma linha elástica em um meio heterogêneo. Inicialmente, focamos no estudo dos modelos discretos de crescimento por deposição de partículas afim de associá-los às diferentes classes de universalidade. Entender o estado crítico de sistemas que pertencem a uma determinada classe leva-nos à compreensão de todos os demais sistemas dessa classe. Para a realização dessa análise, utilizamos um novo modelo de Autômato Celular Probabilístico em (1 + 1) dimensões, capaz de reproduzir uma ampla gama de padrões permitindo a análise dos mais variados sistemas. As regras de transição que determinam a atualização desse autômato dependem do perfil local e são definidas a partir da diferença de alturas entre os vizinhos da direita e esquerda do sítio central. Conforme o conjunto de parâmetros escolhidos, obtivemos morfologias distintas e expoentes críticos associados às diferentes classes de universalidades. Posteriormente, abordamos o comportamento da interface produzida durante a propagação de uma fratura a partir da separação de duas placas. À medida que esses sólidos se separam, forma-se uma linha elástica que se movimenta sobre o substrato. Se a superfície é homogênea, a propagação da interface ocorre uniformemente. Caso contrário, a movimentação acontece de forma irregular, ficando retida em alguns pontos, devido aos diferentes valores de tensão superficial. Para analisar o comportamento da interface durante sua propagação, implementamos um modelo computacional capaz de gerar diferentes tipos de superfícies a partir da variação de alguns parâmetros. Dentre os parâmetros de controle escolhidos para a construção do substrato, incluímos a variação angular dos pontos de pinning, ou seja, alteramos a correlação do ruído congelado. Os processos de propagação de interfaces analisados neste trabalho são considerados fenômenos críticos fora do equilíbrio e dependem de parâmetros que podem ser modificados de acordo com cada modelo. A partir da variação desses parâmetros foi possível encontrar diferentes interfaces onde analisamos o comportamento temporal da rugosidade. Com os dados obtidos foi possível, na primeira parte da tese, fazer um mapeamento das principais classes de universalidade encontradas na literatura - EW, KPZ, DA, DP e CDP. No segundo modelo, observamos que o comportamento temporal da rugosidade apresentou alterações mediante a variação angular e mostrou-se mais acentuado quando essa variação estava associada à alteração de algum outro parâmetro. 

7
  • Lillia dos Santos Barsante
  • "Proposição e análise de modelos determinísticos com parâmetros meteorológicos para descrição da população de mosquitos Aedes spp. e otimização da eficácia do controle entomológico"

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • Data: 11/05/2018
  • Mostrar Resumo
  • Apesar do crescente empenho das autoridades públicas e da população na prevenção da dengue, da febre chikungunya, da febre amarela e do zika vírus, muitos casos de infecção humana (com gravidade variável) têm sido registrados periodicamente no mundo. As fêmeas infectadas do Aedes destacam-se como dispersoras destas arboviroses. O estudo do ciclo de vida deste mosquito é de grande importância para a saúde pública mundial e, em especial, no Brasil, onde as condições ambientais e climáticas são favoráveis à sua infestação. A modelagem matemática possibilita prever a dinâmica destes vetores e de suas arboviroses através da simulação de modelos entomológicos e/ou epidemiológicos. Este trabalho propõe o estudo de modelos matemáticos que descrevem o ciclo de vida do Aedes com dependência da temperatura e da pluviosidade, considerando um sistema de equações diferencias ordinárias não lineares. Os modelos incluem a possibilidade de simulação de controle entomológico. Estudos como de equilíbrio, de estabilidade, de sensibilidade são realizados sobre os modelos. Dois dos modelos são confrontados com dados amostrais de campo de fêmeas Aedes Aegypti capturadas pelas armadilhas MosquiTRAP@ em um programa de controle ambiental nos municípios mineiros de Caratinga, Lavras e Sete Lagoas Brasil.  Através de uma metaheurística verificamos a eficácia da aplicação de possíveis cenários de intervenções com ações de controle do mosquito.  Os resultados mostram um aumento na infestação do vetor com o aumento da temperatura e da pluviosidade nas três cidades, este fato potencializa o risco de surtos das arboviroses transmitidas pelo Aedes. Os pontos de controle foram relacionados à taxa de mortalidade das fêmeas, à fração de ovos viáveis, à fração da fase imatura que desenvolve em adultos fêmeas e à taxa de oviposição. As intervenções no verão, primavera-verão e verão-outono realizadas em intervalos regulares de tempo agem como medida preventiva contra a infestação do mosquito, e foi possível verificar horizontes livres da infestação vetorial.

8
  • Felipe Leandro Andrade da Conceição
  • ARCABOUÇO MULTIMODAL PARA RECOMENDAÇÃO DE VÍDEOS

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • Data: 24/08/2018
  • Mostrar Resumo
  • Este trabalho propõe um novo arcabouço multimodal para recomendação de vídeo baseada em redes neurais
    de aprendizagem profunda (Deep Learning). Ao contrário das soluções mais comuns, foram explorados simultaneamente duas modalidades de dados, quais sejam: (i) conteúdo visual (imagens) e (ii) as modalidades textuais que, em conjunto com o fluxo de áudio, constituem os dados elementares de um vídeo. Especificamente, este arcabouço descreve os dados textuais usando bag-of-words (BOW) e TF-IDF, mesclando esse conteúdo com descritores visuais obtidos por meio de redes neurais convolucionais. Como resultado é construído um descritor multimodal para cada vídeo, obtida por meio dautilização de autoencoder que permite construir representação com baixa dimensionalidade. Para qualificar a recomendação realizada, aplica-se na abordagem o método chamado Sparse Linear Method with Side Information (SSLIM), o qual considera como entrada as modalidades propostas de descritores visuais e textuais. Ao fazer isso, é possível produzir um ranking (top-N ) de recomendação mais relevantes para o usuário. É importante destacar que esta abordagem é flexível, ou seja, é possível usar outros tipos de modalidades, autoencoders e arquiteturas de fusão. Resultados experimentais obtidos com três coleções reais (MovieLens-1M, MovieLens-10M e Vine), contendo 3.320, 8.400 e 18.576 vídeos, respectivamente, demonstram que este arcabouço pode melhorar em até 60,6% os resultados da recomendação, quando comparada a uma única modalidade de recomendação e até 84%, quando comparado com os métodos de referência deste estudo, demonstrando a eficácia desta proposta e destacando a utilidade da informação multimodal em um sistema de recomendação.

9
  • DARLAN NUNES DE BRITO
  • Calibração de Câmeras Baseada em Álgebra Intervalar

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • Data: 31/08/2018
  • Mostrar Resumo
  • Este trabalho aborda o desenvolvimento de um novo método para calibração de câmeras, baseado em álgebra intervalar. Diferentemente dos métodos existentes, a abordagem proposta possui maior tolerância a ruídos, sendo capaz de produzir resultados com boa exatidão, mesmo em cenários onde os dados de entrada estejam bastante corrompidos ou não existam alvos de calibração apropriados. Conceitos fundamentais como definição do próprio espaço projetivo, álgebra vetorial no espaço projetivo, entre outros, frequentemente utilizados na definição dos principais métodos de calibração atuais, são devidamente estendidos de modo que princípios da álgebra intervalar sejam aplicados. Neste cenário, formula-se o problema de estimação dos parâmetros de calibração (intrínsecos e extrínsecos) como um problema de otimização, cuja solução é obtida a partir do bem conhecido método de otimização global de Hansen e Walster para análises intervalares. Adicionalmente, propõe-se uma modificação neste, utilizando o algoritmo genético para diminuir o diâmetro do casco convexo (convex hull) da solução em torno do mínimo. São apresentados resultados experimentais para ruídos adicionados nos pontos do sistema de coordenadas cartesianas global dos dados utilizados para calibração de até 500 mm e nos dados do plano de imagem até 10 pixels, que são maiores do que os normalmente utilizados por outros trabalhos em calibração de câmeras. Mesmo com estes níveis severos de ruído foram apresentados erros de projeção no plano de imagem com um limite superior do intervalo com um valor mínimo igual a 12 pixels e a distância dos parâmetros, também com um limite superior mínimo, menor do que 1%.

2017
Dissertações
1
  • ALEXANDRE FRIAS FARIA
  • Algoritmos e Modelos Matemáticos para o Problema da K-Partição de Números

  • Orientador : SERGIO RICARDO DE SOUZA
  • Data: 16/02/2017
  • Mostrar Resumo
  • Esta dissertação de mestrado apresenta uma formulação matemática e algoritmos para a versão de otimização do Problema da k-Partição de Números. Este problema consiste em distribuir os elementos de uma sequência em k subconjuntos disjuntos, de modo que as somas dos elementos de cada subconjunto fiquem no menor intervalo possível. A formulação matemática proposta é baseada em dois problemas semelhantes da literatura. Elimina-se a multiplicidade de soluções do modelo de programação inteira, reduzindo ao mínimo o número de variáveis. Mostra-se a NP-completude do problema estudado. Estuda-se algoritmos heurísticos, aproximados e exatos da literatura aplicáveis aos problemas relacionados. Aplica-se a meta-heurística ILS (Iterated Local Search) à solução gerada por um algoritmo aproximado. A estratégia é aplicar método guloso em todas as fases do algoritmo, tanto na inicialização quanto para a escolha de movimentos do ILS. Propõe-se uma melhoria de métodos exatos Branch-and-Bound presentes na literatura. Esta modificação refina os limitantes do método usando a relaxação do modelo matemático e ILS propostos. Insere-se um critério de busca para que os nós mais promissores tenham prioridade. Os resultados mostram a solução do ILS superando as soluções de heurísticas construtivas listadas na literatura. A qualidade da solução do ILS é certificada por métodos exatos, um da literatura e outro com as melhorias propostas neste trabalho. As modificações do algoritmo exato se mostram eficazes em uma comparação entre a solução alcançada sobre o número de nós explorados nas duas versões.

2
  • CRISTIANO FRAGA GUIMARAES NUNES
  • Descritor Local Baseado em Filtros Log-Gabor para Correspondência de Pontos-Chave entre Imagens Multiespectrais.

  • Orientador : FLAVIO LUIS CARDEAL PADUA
  • Data: 17/02/2017
  • Mostrar Resumo
  • Este trabalho apresenta um novo método descritor de características locais entre Imagensmultiespectrais para ser aplicado em abordagens de correspondência de pontos-chave. O problema de correspondência de pontos-chave entre Imagensmultiespectrais está presente em um amplo conjunto de aplicações em Visão Computacional, tais como: monitoramento de desastres naturais, sistemas de vigilância por vídeo, navegação de aeronaves guiadas por imagem, dentre outras. Diferentemente da grande maioria das abordagens anteriores, baseadas em métodos descritores projetados exclusivamente para imagens obtidas no espectro de luz visível, este trabalho propõe a utilização de um novo descritor local projetado especialmente para trabalhar com imagens multiespectrais. O descritor proposto, denominado Multiespectral Feature Descriptor (MFD), baseia-se na extração de informações das imagens nos domínios do espaço e da frequência por meio da utilização de filtros Log-Gabor. Para avaliar a eficácia e a eficiência do método proposto, utilizou-se duas bases de dados compostas por imagens obtidas nos espectros de luz visível e infravermelho, amplamente utilizadas na literatura, e comparou-se seu desempenho com algoritmos do estado da arte, tais como, EOH e LGHD. Os resultados experimentais obtidos demonstram que o descritor MFD possui maior eficiência computacional que os algoritmos descritores EOH e LGHD, bem como uma eficácia (precisão e revocação) estatisticamente comparável às de tais métodos.

     

3
  • RAFAEL AVELAR PACHECO
  • D-Optimas: Um Sistema de Otimização Multiagentes Distribuído Baseado no Modelo de Atores

  • Orientador : HENRIQUE ELIAS BORGES
  • Data: 17/02/2017
  • Mostrar Resumo
  • Vários problemas em otimização são denominados NP-completos (ou NP-difíceis) devido a dificuldade para solucioná-los, através de programação matemática, em um tempo razoável. Apesar disso, nos últimos anos, vários trabalhos tem apresentado mecanismos capazes de produzir soluções rápidas, e aceitáveis, para estes problemas. Um destes mecanismos é conhecido como sistemas multi agentes, ou MAS - Multi-Agent System. Este trabalho apresenta o D-OPTIMAS - Distributed Optimization Multi-agent System, um sistema multi agentes, distribuído e flexível para resolução de problemas de otimização de diferentes classes. O D-OPTIMAS usa o modelo de atores, um modelo de programação concorrente e assíncrono, que possibilita a execução de uma grande quantidade de agentes através de processos distribuídos. Neste sistema, cada agente é incapsulado por um ator e executa uma meta-heurística específica, de forma reativa e isolada, interagindo com os demais exclusivamente por troca de mensagens, ou seja, toda informação trocada entre os agentes segue um protocolo de comunicação assíncrono definido. Foram realizadas simulações, utilizando o D-OPTIMAS, para resolução de problemas de diferentes classes, como a minimização das funções EggHolder e XinSheYang - usualmente utilizadas como benchmarck de algoritmos de otimização contínua, e o problema de otimização combinatória PPN - Problema da Partição de Números. Os resultados obtidos mostram que o D-OPTIMAS é capaz de produzir soluções iguais, ou muito próximas, dos ótimos globais destes problemas. Além disso, o modelo de atores se mostrou uma poderosa ferramenta para construção de sistemas multi agentes escaláveis, possibilitando a criação de uma quantidade de agentes duas ordens de grandeza superior aquela produzidas por sistemas anteriores, baseados em concorrência por compartilhamento de estado em memória. 

4
  • CARLA LILIANE GUEDES FONSECA
  • Modelo para Dinâmica de Mercado Financeiro baseado no Modelo SIR

  • Orientador : ARTHUR RODRIGO BOSCO DE MAGALHAES
  • Data: 21/02/2017
  • Mostrar Resumo
  • Neste trabalho, busca-se modelar e compreender a dinâmica de preços de ativos, através de equações diferenciais tendo como referência um modelo epidêmico que visa contribuir para a modelagem de sistemas financeiros, considerados complexos, através de sistemas determinísticos simples que agregam características estocásticas. Em analogia ao modelo SIR (Suscetíveis - Infectados - Recuperados), foi construído um modelo de mercado composto de quatro populações, infectados de compra, infectados de venda, suscetíveis de compra e suscetíveis de venda, que resultou em um sistema de quatro equações diferenciais não lineares. Em paralelo às equações inspiradas no modelo SIR, foi formulada a equação do preço. O modelo foi investigado por meio da análise dos autovalores de sua matriz jacobiana nos pontos críticos, e dele foram extraídas diversas dinâmicas, todas simuladas em um programa específico, construído através do software MATLAB. Num segundo momento, foi inserida aleatoriedade no modelo para novas análises, o que, aparentemente, tornou as curvas de preço por ele produzidas mais parecidas com as curvas encontradas em séries reais. Dois tipos de aleatoriedade foram considerados, uma em que a liquidez no mercado não muda e outra em que tal liquidez varia. Para efeito de validação do modelo, foram realizadas investigações estatísticas através da ferramenta expoente de Hurst e por meio do cálculo da curtose de séries por ele produzidas. As curvas sintéticas extraídas do modelo foram comparadas estatisticamente a curvas reais advindas de ativos do Índice Bovespa. Ao mesmo tempo foram analisadas estatísticas relativas a um caminhante aleatório, para servirem de referência. Todas as estatísticas foram calculadas para candles completos, oriundos de séries empíricas ou construídos a partir de séries sintéticas. Os resultados mais interessantes encontrados foram diferenças consistentes nos expoentes de Hurst e nas curtoses quando calculadas sobre preços de abertura e fechamento, em relação aos valores relativos a máximo e mínimo. Até onde sabemos, tais resultados não estão ainda presentes na literatura. 

5
  • Julia de Mello Assis Correia
  • Estudo e Modelagem de uma Estratégia Financeira Baseada na Combinação de Redes Neurais Artificiais para Apoiar a Tomada de Decisão no Mercado Financeiro

  • Data: 23/02/2017
  • Mostrar Resumo
  • Antes da chegada dos computadores e da Internet, os investidores do mercado de ações realizavam suas operações baseadas principalmente na intuição. Com o crescimento dos investimentos e da negociação de ações on-line, uma busca contínua de ferramentas para melhorar a previsão das tendências do mercado de ações tornou-se necessária para aumentar os lucros e reduzir os riscos.O mercado financeiro é arisco, pois os valores dos ativos mudam por influência de diversos fatores e por isso a série temporal de preços é difícil de prever. As redes neurais artificiais (RNAs) são capazes de realizar predições de séries temporais e são flexíveis em sua modelagem. Entretanto, para modelar uma rede com capacidade de previsão, é necessário selecionar cuidadosamente grandes quantidades de parâmetros, além de testá-los e verificá-los exaustivamente. O objetivo deste trabalho é apoiar a decisão de um investidor no mercado acionário brasileiro, através de estratégias de ensemble de RNAs. Assim, esse trabalho propõe e valida algumas estratégias financeiras, baseadas na combinação (ensemble) de RNAs. Para isso, trinta diferentes modelos de RNAs, usando diferentes conjuntos de entrada como preço, volume e indicadores técnicos, foram analisados para diferentes ações, da BM&FBovespa, pertencentes à companhias de diferentes setores da economia brasileira. A partir disso, foi possível definir três diferentes conjuntos que combinam os melhores classificadores para previsão de tendência de alta. Esses conjuntos se diferem quanto ao nível de rigidez da concordância das redes a cerca de uma tendência futura. Com isso, modelou-se três diferentes estratégias financeiras, que operam de diferentes maneiras, onde cada uma possui três variações – a utilização de cada ensemble. Os resultados obtidos confirmam o potencial das estratégias financeiras propostas. 

6
  • Abraao Marques Tavares
  • Simulação de Materiais Granulares Aplicada a Equipamentos Industriais

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • Data: 24/02/2017
  • Mostrar Resumo
  • Nesta dissertação tratamos do desenvolvimento de simulações para o estudo
    do comportamento de materiais granulares em situações típicas da
    indústria.  Estudamos o transporte via trasportadores de correia,  uma
    importante etapa nos processos da indústria de mineração e manuseio de
    matérias primas.  Desse modo, nos focamos em um fenômeno de aumento de
    velocidade de grãos no ponto de descarga de transportadores, que em nosso
    conhecimento é inédito na literatura.  Para tal, desenvolvemos um sistema
    de simulação que utiliza a técnica da Dinâmica Molecular e realizamos uma
    série de simulações com o intuito de investigar fatores que influenciam o
    supracitado fenômeno, tais como altura da camada de material, inclinação da
    correia e distribuição granulométrica.  A partir dos resultados de nosso
    sistema e de outro previamente utilizado, formulamos hipóteses sobre os
    mecanismos físicos subjacentes ao comportamento observado.

7
  • HENRIQUE BARROS LOPES
  • Combinando Regras e Proporções: Uma abordagem Multiobjetivo para Composição Musical Algorítmica

  • Data: 10/07/2017
  • Mostrar Resumo
  • Composição musical é uma atividade da produção fonográfica de alta complexidade e que, até mesmo para os músicos mais experientes, demanda grande quantidade de tempo para ser concluída. Apesar de existirem vários trabalhos na área, a composição musical por um computador ainda é um tema bastante incipiente na literatura e os resultados obtidos ainda se Composição musical é uma atividade da produção fonográfica de alta complexidade e que, até mesmo para os músicos mais experientes, demanda grande quantidade de tempo para ser concluída. Apesar de existirem vários trabalhos na área, a composição musical por um computador ainda é um tema bastante incipiente na literatura e os resultados obtidos ainda se encontram longe de serem utilizados como insumo na indústria do entretenimento. Este trabalho propõe quatro métodos para composição de melodias monofônicas, dois mono-objetivos e dois multiobjetivos, cuja abordagem combina regras de Fux, provenientes de teoria musical e regras de proporções baseadas na lei de Zipf, em uma implementação do algoritmo NSGA-II, e uma nova função de avaliação baseada na lei de Zipf. Propusemos também uma nova metodologia baseada em questionários capaz de avaliar a qualidade de um método de composição algorítmica. Nós utilizamos essa nova metodologia para validar nossos resultados e verificar a qualidade das melodias compostas pelos nossos métodos.   

     

     

8
  • Luis Ricardo Fernandes
  • Estudo Comparativo Sobre Métodos Iterativos de Resolução de Sistemas Lineares de Grande Porte

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 13/07/2017
  • Mostrar Resumo
  • Esta dissertação apresenta um estudo sobre métodos iterativos para resolução de sistemas lineares de grande porte não simétricos. Foram estudados três métodos: GMRES, CMRH e LCD. Os métodos GMRES e CMRH são baseados em espaços de Krylov. A principal diferença entre eles é a forma como a base desses espaços é construída. Enquanto o GMRES utiliza o método de Arnoldi, através do processo de ortogonalização de Gram-Schmidt, o método CMRH utiliza o processo de Hessenberg, via fatoração LU. O método LCD é baseado em vetores de direções conjugadas à esquerda. Uma versão do método CMRH, denominado CMRH-OVER, que inclui um processo de sobre-armazenamento, também é abordado.  Em todos os métodos, exceto o CMRH-OVER, aplica-se um processo de reinicialização cujo intuito é diminuir o custo computacional em armazenar os vetores que formam a base do espaço. Com o objetivo de comparar o desempenho computacional, seja o tempo de execução ou a quantidade de iterações necessárias para calcular a solução do sistema, os métodos foram testados em matrizes genéricas e em um problema aplicado, através da equação de convecção-difusão transiente, resolvida numericamente via elementos finitos. A solução numérica dessa equação também é apresentada neste trabalho.

9
  • TULIO PHILIPE FERREIRA E VIEIRA
  • GERENCIAMENTO INTELIGENTE DE FALHAS APLICADO A REDE DE SENSORES SEM FIO COM INTEGRAÇÃO A INTERNET DAS COISAS.


  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 14/07/2017
  • Mostrar Resumo
  • Este trabalho consiste no desenvolvimento de um sistema centralizado de gerenciamento de falhas que possibilita a integração das redes de sensores sem fio com a Internet das Coisas mediante a redução dos efeitos danosos causados por erros de hardware. Quando um erro de hardware não é identificado e prontamente corrigido, todo o monitoramento de uma rede de sensores é comprometido. Ao integrar estes sensores à Internet das Coisas, os danos causados são potencializados, pois muitos outros dispositivos se utilizam destes dados para incrementar a qualidade de monitoramento do sistema e tomar decisões que podem gerar resultados negativos. A abordagem centralizada, proposta nesta dissertação, adota o protocolo 6LoWPAN como interface de rede para a comunicação. Este sistema é baseado em dois níveis de detecção de falhas. No primeiro nível, cada nó da rede realiza uma inferência estatística sobre o seu próprio estado de funcionamento. No segundo nível, realizado pela estação base, é usado um comitê composto por duas redes neurais artificiais do tipo Multilayer Perceptron (MLP). Uma destas redes é constantemente treinada enquanto a outra é utilizada como classificador da falhas. Em intervalos variados de tempo ocorre o chaveamento entre estas redes. As entradas da rede MLP são as saídas de um filtro de Kalman, que prevê o comportamento dinâmico da temperatura medida, e o nível de impacto sofrido pelo nó, medido por um acelerômetro. Os resultados experimentais demonstram que esta abordagem reduz o consumo de energia de um sistema centralizado em até 35,0% e mantém a precisão do processo de detecção de falhas em 97,0%. 

10
  • Otavio Augusto Malheiros Rodrigues
  • Aprendizado por Reforço Baseado em Agrupamentos para Recomendação na Ausência de Informação Prévia

  • Orientador : ANISIO MENDES LACERDA
  • Data: 02/08/2017
  • Mostrar Resumo
  • Atualmente, com o crescimento da Web, o volume de informação compartilhada tem crescido, ampliando cada vez mais a quantidade de conteúdo disponível para os usuários da rede. Assim, surge a necessidade de ferramentas capazes de identificar conteúdo relevante a partir do grande volume de informação disponível. Os sistemas de recomendação são ferramentas computacionais que possuem este objetivo, ou seja, esses sistemas focam em auxiliar os usuários a encontrar informação relacionada às suas preferências de forma personalizada. As técnicas estado-da-arte na literatura de sistemas de recomendação são baseadas no histórico de interação dos usuários com os itens disponíveis no sistema. Assim, estas técnicas são limitadas no cenário de ausência de informação prévia sobre as preferências dos itens. Este é um problema bem conhecido na literatura de sistemas de recomendação, chamado cold-start, e é o foco desta dissertação. Mais especificamente, aborda-se o problema de recomendar itens para usuários de forma contínua (i.e.,online) por meio de algoritmos baseados em aprendizado por reforço. A classe de algoritmos na qual baseia-se este trabalho é Multi-Armed Bandits (MAB) e refere-se a algoritmos de tomada de decisão sequencial com retro-alimentação. Neste trabalho, modelamos a recomendação no cenário cold-start como um algoritmo MAB de dois passos. Assumimos que os itens podem ser agrupados considerando sua descrição textual, o que leva a agrupamentos de itens semanticamente semelhantes. Primeiramente, seleciona-se o agrupamento de itens mais relevante para o usuário-alvo da recomendação. A seguir, dado o agrupamento previamente selecionado, escolhe-se o item mais relevante dentro desse agrupamento, o qual é sugerido para o usuário-alvo. Para avaliar a qualidade do algoritmo proposto, o seu desempenho foi mensurado utilizando um conjunto de dados real. A avaliação experimental mostra que o algoritmo proposto produz melhorias significativas em termos de qualidade de recomendação em relação aos algoritmos MAB estado-da-arte.

11
  • Anna Claudia Almeida Anicio
  • Um Arcabouço de Recomendação Multimodal de Imagens Baseado em Fatores Latentes de Baixa Dimensionalidade

  • Orientador : ANISIO MENDES LACERDA
  • Data: 04/08/2017
  • Mostrar Resumo
  • A popularização de dispositivos fotográficos, como smartphones e câmeras digitais, tem levado as pessoas ao hábito de registrar momentos por meio de fotos. Assim, todos os dias, uma grande quantidade de imagens são disponibilizadas em redes sociais de compartilhamento de fotos, como Flickr, Pinterest e Instagram. Esta dissertação propõe um arcabouço de recomendação de imagens, que visa ajudar os usuários a lidar com a enorme quantidade de informação disponível, por meio de uma experiência personalizada. Sistemas de Recomendação são ferramentas computacionais que auxiliam usuários a encontrar informação relevante (por exemplo: imagens, músicas, filmes) de acordo com seus interesses. Tradicionalmente, esses sistemas utilizam informação colaborativa das preferências dos usuários para sugerir itens. Porém, nem sempre essa informação está disponível. Por exemplo, quando novos itens são inseridos no sistema não existe informação de preferência dos usuários sobre eles, fato que leva à necessidade de explorar o conteúdo desses itens. Neste trabalho, o foco é explorar informação de natureza multimodal para recomendação de imagens, sendo essas representadas por meio de características (i) visuais e (ii) textuais. As características visuais são extraídas da própria imagem (ex., cor e textura), utilizando técnicas de Visão Computacional e Processamento de Imagens. Por outro lado, as características textuais são extraídas de metadados das imagens (ex., do título e da descrição), utilizando técnicas de Recuperação de Informação. Dessa forma, é possível descrever uma imagem sob diferentes dimensões. Os sistemas de recomendação estado-da-arte são baseados em informação colaborativa e descrição dos itens. Esses sistemas sofrem do problema da "maldição da dimensionalidade". As características de alta dimensão dos itens dificulta a identificação de itens similares, dado que a distribuição dos dados originais é extremamente esparsa. A fim de aliviar esse problema, propõe-se projetar a  representação dos itens de alta dimensão em um espaço de fatores latentes de dimensão inferior. O arcabouço de recomendação proposto é baseado no algoritmo Sparse Linear Methods with Side Information (SSLIM) que, por sua vez, consiste na construção de matrizes de (i) relação entre usuários e itens e de (ii) relação entre itens. O trabalho proposto é avaliado em uma base de dados real coletada do Flickr ; e comparado com técnicas do estado-da-arte. Conforme demonstrado nos experimentos, o arcabouço proposto apresenta melhora na qualidade das recomendações e fornece ganhos de 15% a 17% em termos de taxa de acertos em relação aos métodos de referência.

12
  • Larissa Camila Papa
  • Um Algoritmo Híbrido baseado em Colônia de Formigas e Programação Linear
    Aplicado ao Problema de Roteamento de Veículos Capacitados.

  • Orientador : FLAVIO VINICIUS CRUZEIRO MARTINS
  • Data: 10/08/2017
  • Mostrar Resumo
  • Neste trabalho é abordado o Problema de Roteamento de Veículos Capacitados. Ele compreende a obtenção de um conjunto de rotas, que devem ser percorridas por uma frota de veículos homogêneos e de igual capacidade, atendendo assim as demandas de um conjunto de clientes. Seu objetivo é a minimização do custo total das rotas, sabendo-se que elas devem iniciar e terminar no depósito central, além de cada cliente somente pode ser atendido uma única vez por um único veículo. Este problema possui natureza NP-difícil, sendo comumente resolvido por meio de heurísticas. Outra técnica utilizada é a programação linear inteira, cuja particularidade corresponde a confiança na solução obtida, uma vez que por meio da solução final retornada pode-se provar esta é o ótimo global. Como desvantagem, os problemas de natureza combinatória são computacionalmente custosos, tornando improvável encontrar uma solução ótima em tempo computacional aceitável. A proposta deste trabalho é desenvolver um algoritmo híbrido que combine a natureza ágil das heurísticas com a precisão dos métodos de solução por Programação Linear. A heurística utilizada foi a Otimização por Colônia de Formigas (ACO), a qual irá trabalhar de forma híbrida com o CPLEX, software distribuído pela IBM. Estuda-se a melhor forma de interação entre estes dois métodos, analisando os seus possíveis modos de comunicação. Estes compreendem duas diferentes formas de hibridização, uma caracterizada pela ausência do processo de realimentação, e a outra fazendo uso deste recurso. Os resultados obtidos pelas hibridizações foram comparados com os produzidos pelos métodos executados individualmente, bem como com as soluções presentes na literatura.

13
  • Marlei Ribeiro da Silva
  • Estudo do Transporte de Energia em Redes Complexas de Osciladores Harmônicos Quânticos Linearmente Acoplados

  • Orientador : JOSE GERALDO PEIXOTO DE FARIA
  • Data: 10/08/2017
  • Mostrar Resumo
  • Nesta dissertação de mestrado, apresentamos um estudo analítico e numérico do transporte de energia em redes complexas de osciladores harmônicos quânticos linearmente acoplados. Nesse contexto, temos como objetivo revelar aspectos da dinâmica quântica, que fornecerá detalhes da comunicação entre os osciladores da rede, os quais trocam informação na forma de energia ou excitação. Dessa forma, esta pesquisa contribui para a compreensão de fenômenos de fluxo de informação quântica em sistemas quânticos complexos com potenciais aplicações na computação quântica, por exemplo. São exploradas quatro topologias de rede: regular, aleatória, livre de escala e mundo pequeno. Nos casos investigados, um quantum de energia é atribuído ao oscilador de interesse, que é o mais ligado da rede e, após a evolução temporal do sistema, mede-se a probabilidade de que a energia retorne para ele. Propomos o cálculo do valor médio dessa probabilidade como fator caracterizador da dinâmica. Três regimes dinâmicos foram presenciados: o primeiro, em que a energia distribui pela rede e não retorna significativamente para o oscilador de interesse em tempos curtos; o segundo, em que parcela considerável da energia flui do oscilador de interesse para o resto do sistema e retorna a ele de modo quase-periódico; o terceiro, em que a maior parte da energia permanece no oscilador de interesse em qualquer instante, sem trocas significativas com os demais osciladores.

14
  • AGUINALDO ALVES PINTO
  • Algoritmos Híbridos Aplicados ao Problema de Roteamento de Veículos com Janela de Tempo

  • Orientador : SERGIO RICARDO DE SOUZA
  • Data: 25/08/2017
  • Mostrar Resumo
  • Nesta dissertação é tratado o Problema de Roteamento de Veículos com Janela de Tempo. O objetivo é atender um conjunto de clientes geograficamente distribuídos com um número de veículos limitado. É considerado um único depósito, a partir do qual os veículos partem e retornam após visitar todos os clientes de sua respectiva rota. Há uma janela de tempo associada ao depósito, que indica seu período de funcionamento, além de uma janela de 
    tempo correspondente  a cada cliente, que indica o intervalo de tempo para iniciar o atendimento. Todos os veículos possuem a mesma capacidade de carga e há uma demanda correspondente a cada cliente. Esta dissertação propõe uma hibridização das metaheurísticas  Iterated Greedy Search (IGS) e Greedy Randomized Adaptive Search  Procedure (GRASP), e integrada às heurísticas  Push-Forward Insertion Heuristic (PFIH) e  Variable Neighborhood Descent (VND). Os testes computacionais realizados utilizam as instâncias padrões da literatura e comparam com os melhores resultados da literatura.

15
  • Otaviano Martins Monteiro
  • Desenvolvimento de uma Metodologia Baseada em Matriz de Distâncias para a Verificação de Similaridades de Proteínas

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • Data: 25/08/2017
  • Mostrar Resumo
  • As proteínas são macromoléculas presentes em todos os seres vivos e desempenham funções importantes, tais como manutenção de órgãos e tecidos, diferenciação celular, transporte, entre outras diversas finalidades. Várias proteínas, possuem a sua estrutura tridimensional resolvida e armazenada em bancos de dados biológicos, como o Protein Data Bank (PDB). Existem diversos softwares que trabalham com informações extraídas do PDB. Algumas dessas ferramentas, tem como função a verificação de similaridades entre estruturas proteicas. Um exemplo é o LSQKAB, que pertence ao pacote CCP4, e tem o seu funcionamento baseado no algoritmo de Kabsch, uma técnica frequentemente utilizada na área de bioinformática. Este trabalho tem como objetivo desenvolver uma metodologia baseada em uma matriz de distâncias, que verifique a similaridade de trechos de proteínas. A sua precisão deve ser a mesma do LSQKAB e ainda deve ser possibilitado o agrupamento de resíduos de acordo com as similaridades de seus valores de distâncias atômicas. Os experimentos foram realizados com arquivos de interações de resíduos de uma mesma proteína e os resultados foram comparados com o Cutoff Scanning Matrix (CSM) e com a técnica do arquivo de referência, utilizada na busca de pares interagentes pela ferramenta RID.  Foi possível formar diversos grupos com arquivos similares através de cada técnica avaliada. A metodologia apresentada obteve resultados interessantes diante das outras técnicas comparadas, obtendo uma maior precisão.

16
  • PEDRO KASSIO RIBEIRO MATOS LOUREIRO DE CARVALHO
  • Classificadores para Pacientes com Câncer de Mama de Acordo com a Sensibilidade Quimioterápica Neoadjuvante

  • Orientador : THIAGO DE SOUZA RODRIGUES
  • Data: 30/08/2017
  • Mostrar Resumo
  • O câncer de mama é o tipo de câncer mais comum entre as mulheres. O seu tratamento é geralmente feito por meio da utilização de quimioterapia neoadjuvante, também conhecida como pré-operatória, seguida da operação para remoção do tumor e posteriormente a quimioterapia pós-operatória. A quimioterapia neoadjuvante pode ter Resposta Patológica Completa (PCR), quando o tumor é eliminado, ou resultar em Doença Residual (RD). Este trabalho busca utilizar informações dos subtipos moleculares do câncer de mama, para, através de dados de expressão gênica por microarray, classificar os pacientes de acordo com a resposta quimioterápica. Foram aplicados métodos uni e multivariados para a seleção de características e métodos de classificação para testar a separabilidade dos pacientes de acordo com os genes selecionadas. Todas as combinações dos métodos de seleção e classificadores foram realizadas, sendo a combinação Stepwise Generalized Linear Model e Extreme Learning Machine, que resultou em 81% de acerto em média, indicando um bom resultado.

Teses
1
  • ANTON SEMENCHENKO
  • Sintese proteica In silico :Modelo Baseado em Agendes da Formação das Cadeias de Amino Ácido

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • Data: 19/04/2017
  • Mostrar Resumo
  • Este trabalho apresenta o desenvolvimento do ambiente computacional que permite estudo da síntese protéica in-sílico em conformidade com os dados experimentais observados utilizando as técnicas e ambientes da expressão de proteinas do tipo cell-free (CECF). Este sistema é baseado no modelo matemático da tradução do mRNA. As reações bioquímicas são representadas como processos estocásticos (cadeias de Markov) e integradas em ambiente de simulação baseado em agentes. O modelo é validado pela comparação dos resultados das simulações com os dados experimentais para as taxas de síntese protéica da luciferase em sistemas do tipo CECF e efeito inibidor de tradução demonstrado pelo antibiótico Edeina. O principal resultado desta pesquisa é a capacidade de predizer a taxa de produção de proteínas em função da sequência genética. Além disto, a tese apresenta as propostas concretas para a investigação dos mecanismos de formação das estruturas secundárias de polissomos. Este trabalho é a primeira integração dos processos de tradução e formação das estruturas secundárias de polissomos e a primeira aplicação de um rigoroso modelo matemático de tradução dentro de um ambiente baseado em agentes, abrindo uma nova frente de pesquisa para investigação in-silico das propriedades 3-dimensionais da formação das cadeias polipeptídicas.

2
  • CAROLINA GIL MARCELINO
  • UMA ABORDAGEM EVOLUTIVA E HÍBRIDA PARA SOLUÇÃO DE PROBLEMAS DE FLUXO DE POTÊNCIA ÓTIMO

  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 09/06/2017
  • Mostrar Resumo
  • Nos últimos anos, tem-se percebido uma preocupação crescente em relação ao uso racional da energia. Os países desenvolvidos têm realizado campanhas relacionadas à projeção e prospecção de novas soluções eficazes na indústria, entre elas a busca objetiva pelo uso adequado das fontes de energia elétrica. Esta forma de energia é considerada de suma importância para o desenvolvimento social e econômico. Garantir a eficiência energética visando a sustentabilidade e a minimização do uso de recursos se torna um grande desafio. Controlar grandes sistemas de geração e transmissão de energia elétrica é uma tarefa complexa, dado o alto número de restrições agregadas. Neste contexto, o estudo e a proposição de novos métodos para solucionar problemas de Fluxo de Potência Ótimo (OPF) se tornam temas de alta prioridade no cenário mundial. Este trabalho propõe e implementa algoritmos evolucionários híbridos e os aplica para solução destes problemas. Dois novos algoritmos híbridos são propostos e apresentados, os quais resolvem: o problema de despacho elétrico em uma usina hidrelétrica, o problema do despacho elétrico em uma planta eólica, os problemas OPF com restrições de segurança em grandes redes e o problema do despacho elétrico em um modelo de microgrid híbrido aperfeiçoado. Neste caso, um método de tomada de decisão foi utilizado a posteriori para definir o melhor sistema de armazenamento de energia para a rede proposta. Experimentos simulados foram executados em um computador de alto desempenho, e a análise dos mesmos foi realizada a partir de técnicas de inferência estatística, indicando que os algoritmos propostos se mostraram eficientes e competitivos na solução dos problemas estudados.

3
  • BRUNO FERREIRA ROSA
  • Problemas de programação de tarefas em uma máquina com janelas de conclusão  e Penalidades por  Atnecipação e Atraso:Algoritmos e Fromulações.

  • Data: 27/10/2017
  • Mostrar Resumo
  • Este trabalho trata o problema de programação de tarefas em uma máquina com janelas de conclusão distintas e tempos de preparação da máquina dependentes da sequência de execução das tarefas, denominado SMSPETP-SDS. O objetivo é minimizar a soma ponderada das antecipações e dos atrasos na conclusão das tarefas. Em termos práticos, as penalidades por antecipação são decorrentes de custos gerados pela necessidade de estocagem, enquanto as penalidades por atraso são consequências de multas contratuais. O SMSPETP-SDS possui muitas aplicações em indústrias metalúrgicas, têxteis, químicas, entre outras. Além do grande número de aplicações, é um problema difícil de ser resolvido na otimalidade, visto pertencer à classe NP-difícil. A união entre a aplicabilidade e a dificuldade de encontrar uma solução ótima motiva o desenvolvimento de algoritmos eficientes para resolvê-lo. Apesar disso, o problema de programação de tarefas com as características consideradas neste trabalho ainda não recebeu a devida atenção. Embora existam na literatura formulações matemáticas que representam o SMSPETP-SDS, elas não são eficientes e o SMSPETP-SDS tem sido tratado somente por meio de procedimentos heurísticos que dividem o problema em dois subproblemas: determinar a melhor programação de uma dada sequência de tarefas, considerando-se a possibilidade de inserção de tempos ociosos entre a execução de tarefas consecutivas; e determinar uma seqüência de tarefas que, associada à sua programação ótima, minimize a soma das penalidades geradas pelas tarefas. Neste trabalho, o SMSPETP-SDS é tratado sob uma perspectiva ainda não considerada na literatura. Inicialmente é proposto um novo algoritmo de programação ótima de uma dada sequência de tarefas. Esse algoritmo, de complexidade O(n2), é utilizado nos algoritmos heurísticos propostos para resolver o problema de sequenciamento das tarefas. Esse algoritmo de programação ótima também é utilizado em um algoritmo exato de enumeração implícita para o caso particular com tempos de preparação da máquina independentes da sequência de execução das tarefas, denominado SMSPETP-SIS. O algoritmo de enumeração implícita proposto faz uso de resultados teóricos desenvolvidos exclusivamente para o SMSPETP-SIS. Em um segundo momento, propõem-se várias formulações matemáticas para o SMSPETP-SDS. Um horizonte de planejamento para a execução de cada tarefa é proposto a um de ser utilizado na determinação dos parâmetros de entrada dessas formulações. Por último, são propostas novas famílias de restrições válidas para as formulações baseadas em variáveis indexadas no tempo, bem como algoritmos de separação para essas famílias. Experimentos computacionais mostram que: o algoritmo de programação ótima de uma dada sequência de execução das tarefas proposto é mais rápido que o algoritmo até então utilizado para esse um; os algoritmos heurísticos propostos para o problema de sequenciamento das tarefas são melhores que dois algoritmos da literatura na maioria dos problemas-teste considerados; o algoritmo de enumeração implícita é uma boa alternativa para a resolução exata do SMSPETP-SIS; e os limites inferiores construídos com os algoritmos de separação propostos são muito melhores que as soluções das respectivas relaxações lineares das formulações matemáticas apresentadas

     

4
  • FISCHER STEFAN MEIRA
  •  

    MODELO DE FINANÇA COMPORTAMENTAL
    APLICADO AO PROCESSO DE DECISÃO NO
    MERCADO DE AÇÕES .
     
  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • Data: 10/11/2017
  • Mostrar Resumo
  • Finança Comportamental se tornou um importante campo de estudo por, principalmente,
    considerar aspectos comportamentais dos investidores para explicar algumas caracte-
    rísticas observadas no mercado financeiro. Econofísica, por sua vez, trouxe muitas
    ferramentas da física-estatística, especialmente da mecânica estatística, e se tornou
    uma abordagem interdisciplinar inovadora para descrever importantes características do
    mercado financeiro, considerando finança comportamental. Neste trabalho consideramos
    um modelo de finança comportamental, baseado em agentes, que é capaz de reproduzir
    a maioria das características observadas no mercado de ações. Propomos uma extensão
    deste modelo considerando um novo algoritmo para guiar a decisão de investimento
    levando em consideração a análise técnica. Analisamos como as flutuações do índice
    do mercado são afetadas devido à introdução da tomada de decisão a partir da análise
    técnica. Estudamos como a distribuição de riquezas é afetada ao implementar um
    processo estocástico combinando duas estratégias propostas para a tomada de decisão: a
    primeira estratégia baseada no modelo comportamental e a segunda constituída de análise
    técnica, utilizando especificamente uma ferramenta denominada momentum. Analisamos
    diferentes janelas de tempos de uma série temporal para avaliar a tendência do índice
    para o próximo passo de tempo. Resultados interessantes de simulações mostram como
    a combinação destas duas estratégias influenciam a tomada de decisão dos investidores.
    Além disso, verificamos como a distribuição de riquezas é afetada em face da segunda
    estratégia, considerando os perfis psicológicos dos agentes. Observamos, também, a forte
    influência do hub da rede, para cada um dos perfis psicológicos que ele pode assumir.
    Concluimos que a anti-imitação é o melhor perfil psicológico para o investidor adotar,
    considerando a análise técnica, por que traz uma alta taxa de retorno em suas transações.
2016
Dissertações
1
  • Renan Santos Mendes
  • Abordagem Multiobjetivo para o Problema de Roteamento de Veículos com Transporte Reativo a Demanda

  • Orientador : ELIZABETH FIALHO WANNER
  • Data: 07/03/2016
  • Mostrar Resumo
  • O problema de roteamento de veículos (PRV) ou Vehicle Routing Problem (VRP), tem sido um dos problemas mais abordados na área de Otimização Combinatória e Pesquisa Operacional, uma vez que problemas que envolvam o transporte de pessoas e/ou mercadorias possuem grande aplicação prática. Neste trabalho, foi abordado o problema de roteamento de veículos para o transporte reativo a demanda (PRVTRD). Esse tipo de transporte permite que clientes sejam levados para o seu destino como em um serviço de táxi ou micro-ônibus, desde que os clientes estejam no mesmo veículo, a fim de reduzir os custos operacionais e atender as necessidades dos clientes. Diante da natureza combinatória do problema, foi utilizada uma abordagem evolutiva para resolver o PRVTRD. Foram propostos dois operadores de cruzamento e quatro de mutação. Este trabalho também procurou abordar o problema através de um tratamento multiobjetivo. Cinco funções objetivo foram inicialmente utilizadas e, através da utilização da Árvore de Agregação, os objetivos foram agregados formando dois novos objetivos. O problema bi-objetivo proposto foi resolvido usando os algoritmos NSGA-II e SPEA 2. A Análise de variância (ANOVA) foi utilizada para definir os melhores operadores para configurar os algoritmos multiobjetivo utilizados. Em seguida, duas novas funções objetivo foram inseridas no problema e uma nova agregação dos objetivos foi feita resultando em um novo problema bi-objetivo. Os algoritmos NSGA-II e SPEA 2 foram aplicados e os operadores genéticos foram escolhidos após a utilização da ANOVA. Os resultados obtidos mostram que a metodologia proposta foi capaz de resolver o problema de maneira eficiente.

2
  • Gustavo Alves Fernandes
  • “Metaheurísticas para o Problema de Sequenciamento em Projetos com Restrição em Recursos e Múltiplos Modos de Execução

  • Orientador : SERGIO RICARDO DE SOUZA
  • Data: 11/07/2016
  • Mostrar Resumo
  • O problema conhecido como Sequenciamento em Projetos com Restrição em Recursos e Múltiplos Modos de Execução (Multi-mode Resource Constrained Project Scheduling Problem - MRCPSP) consiste em sequenciar todas as atividades de um projeto respeitando a ordem de precedência dessas atividades, que, uma vez iniciadas, não podem ser interrompidas. As atividades possuem várias combinações de modos de execução, que consistem em diferentes combinações de tempo de processamento e consumo de recursos. O objetivo é minimizar o tempo de duração do projeto, encontrando tempos de início para cada atividade do projeto. Por ser um problema NP-Difícil, nessa dissertação são apresentadas duas metaheurísticas, Iterated Local Search (ILS) e Clonal Selection Algorithm (CLONALG), hibridizadas com outras técnicas heurísticas específicas para o MRCPSP. Para cada algoritmo proposto, foram realizados testes estatísticos para verificar influência e tendência dos parâmetros, assim como testes computacionais para comparação entre os algoritmos. Os resultados obtidos para um grupo de instâncias entre classes de problemas da biblioteca pública PSPLIB apresentaram relevância em relação aos trabalhos presentes na literatura.

3
  • Maxwell Rodrigo Silva Oliveira
  • Utilização de meta-heurísticas para distribuição de forças em um laminador de tiras a frio em tandem

  • Orientador : PAULO EDUARDO MACIEL DE ALMEIDA
  • Data: 05/12/2016
  • Mostrar Resumo
  • A Laminação a Frio em tandem de uma tira de aço é um processo complexo, não linear, multivariável e com elevado nível de desafio em seu controle. As inúmeras variáveis envolvidas são inerentes à natureza dos diferentes tipos de aço processado, do equipamento em si e dos insumos utilizados, como os cilindros de laminação. Um dos principais parâmetros do processo que influencia diretamente na qualidade do material produzido é a força de laminação aplicada sobre os cilindros em contato direto com a tira de aço em processo. O cálculo das forças de laminação envolve equações e parâmetros não lineares, tornando o cálculo direto uma tarefa complexa. Neste trabalho foi proposto um método de cálculo e distribuição de forças de laminação entre as cadeiras do Laminador utilizando as meta-heurísticas computacionais Recozimento Simulado (RS) e Algoritmos Genéticos (AG), considerando as limitações eletromecânicas do equipamento, bem como características do material processado. O melhor conjunto de referências de laminação pôde ser obtido a partir de padrões de distribuição de redução, potência, força ou modo misto, com imposição de força específica em qualquer cadeira. Os algoritmos foram desenvolvidos, parametrizados e validados com base em um conjunto de dados de processo de 5000 bobinas produzidas no Laminador de Tiras a Frio (LTF) da ArcelorMittal Vega. Um método de adaptação do coeficiente de fricção da interface cilindro-tira e da curva de deformação do aço foi desenvolvido para aumentar a precisão do método. Os resultados obtidos mostram que a método proposto foi capaz de resolver o problema de forma eficiente, rápida e precisa.

Teses
1
  • THIAGO MAGELA RODRIGUES DIAS
  • UM ESTUDO DA PRODUÇÃO CIENTÍFICA BRASILEIRA A PARTIR DE DADOS DA PLATAFORMA LATTES

  • Orientador : GRAY FARIAS MOITA
  • Data: 18/10/2016
  • Mostrar Resumo
  • Os estudos sobre dados de produções científicas têm recebido atenção de pesquisadores, de diversas áreas, que visam obter conhecimento sobre a evolução das pesquisas em geral. Tais estudos possibilitam a análise da produção científica para diversos propósitos e um dos desafios neste tipo de análise está na diversidade de repositórios contendo dados em formatos e estruturas distintas. Além disso, problemas como redundância dos dados, ambiguidade e dados incorretos tornam a análise ainda mais complexa. Logo, a maioria dos trabalhos atuais visa realizar análises sobre conjuntos restritos de dados que frequentemente são originados de repositórios específicos e com uma quantidade limitada de registros. Apesar de tais análises apresentarem resultados significantes, estes não conseguem expressar, de forma geral, grandes conjuntos com extensa quantidade de pesquisadores. Assim, este projeto apresenta uma plataforma experimental para a extração e análise de dados curriculares da Plataforma Lattes, para que desta forma seja possível obter uma visão sobre a produção científica brasileira. Os currículos da Plataforma Lattes se caracterizam atualmente como importante ferramenta para que pesquisadores, acadêmicos e estudantes, registrem seus dados, sendo amplamente utilizados, se caracterizando como um dos maiores repositórios de dados sobre produção científica, técnica, artística e profissional, contendo milhões de pesquisadores cadastrados. Na plataforma proposta neste projeto, além da extração de todo o conjunto de dados da Plataforma Lattes compondo um grande repositório de dados científicos, também são implementadas técnicas para análises bibliométricas dos dados e ainda um método para identificação de colaboração científica. Com isso, é possível realizar a análise de grandes conjuntos de pesquisadores obtendo conhecimento sobre o modo como ocorre a colaboração científica nas diversas áreas do conhecimento, os principais tópicos de pesquisa em estudo e o perfil dos pesquisadores por localização geográfica ou instituição. Dessa forma, neste projeto são apresentadas todas as etapas da plataforma experimental proposta, como a obtenção dos dados individuais dos pesquisadores, as transformações necessárias nos dados a serem analisados, as técnicas implementadas para as análises e o método proposto para a identificação das colaborações. Como resultados iniciais são apresentados estudos sobre a produção científica brasileira, e para justificar a eficiência, viabilidade e flexibilidade da plataforma proposta, quatro outros estudos serão realizados. Esses estudos objetivam apresentar uma visão detalhada sobre a produção científica brasileira e como as pesquisas estão sendo realizadas. Os resultados a serem apresentados possuem caráter inédito tendo em vista a abrangência das análises a serem realizadas e corroboram na afirmação de que a análise dos currículos Lattes pode proporcionar diversos outros estudos em várias vertentes.

2015
Dissertações
1
  • Eloisa Marcia da Silva
  • Simulação computacional para comportamento de oviposição do Aedes Aegypti em semi-campo

  • Orientador : JOSE LUIZ ACEBAL FERNANDES
  • Data: 23/10/2015
  • Mostrar Resumo
  • Compreender o comportamento de oviposição do Aedes aegypti é importante uma vez que a forma como ocorre a distribuição dos ovos contribui para a dispersão do mosquito e do vírus da dengue. A esse comportamento é dado o nome de "oviposição em saltos". Armadilhas para o controle do mosquito da dengue são utilizadas com o intuito de monitorar as suas fêmeas. O objetivo deste trabalho é simular computacionalmente o comportamento de oviposição em saltos do mosquito Aedes aegypti, na presença ou não de armadilha, e comparar com dados coletados experimentalmente em ambiente de semicampo. O ambiente computacional foi estruturado para representar uma gaiola quadrada com presença ou não de uma armadilha. Criadouros para postagem dos ovos e armadilhas também foram inseridos, com a possibilidade de serem alternadas suas quantidades (densidade) 2, 4, 8 ou 16. Para os cálculos de aleatoriedade do programa, foi utilizado o método de Monte Carlo com as distribuições Uniforme, Gaussiana, Poisson e Cauchy, consequentemente os mosquitos apresentam um voo aleatório chamado de voo de Rayleigh. Para cada experimento e repetições foi liberado um vetor que representasse o mosquito, com certa quantidade de ovos. Os dados coletados durante a simulação foram submetidos a testes de normalidade com nível de significância de 5%. Foram realizadas 15, 200 e 1000 repetições para cada densidade de criadouro e os resultados encontrados na simulação, quando comparados com os resultados coletados no experimento em semicampo, mostraram-se equivalentes, assim como os resultados com a presença da armadilha e o fato de serem coerentes valida o modelo matemático proposto.

     

2
  • NATHALIA MELLO MASCARENHAS PAIXAO
  • Formação de Padrões em Sistemas Granulares Confinados

  • Orientador : ALLBENS ATMAN PICARDI FARIA
  • Data: 20/11/2015
  • Mostrar Resumo
  • Existem muitas questões em aberto envolvendo o escoamento de materiais granulares em sistemas confinados, em particular, o escoamento em uma célula de Hele-Shaw em regime quasi-estático. Foi mostrado que, em alguns casos, existe uma formação espontânea de dedos durante a injeção de grãos em um sistema confinado. Neste trabalho, nosso objetivo foi estudar a formação de padrões neste tipo de escoamento, utilizando simulações de Dinâmica Molecular. Alguns parâmetros foram escolhidos para determinar sua função no desenvolvimento dos dedos: o coeficiente de atrito entre as partículas, geometria e granulometria dos grãos da base de confinamento, a distribuição de tamanhos dos grãos (sistemas monodispersos, polidispersos e bidispersos). As distribuições de forças e as componentes de tensão foram analisadas. Observamos que sistemas monodispersos têm uma maior tendência para a formação de dedos, exibindo uma simetria hexagonal, enquanto sistemas com alta polidispersão e bidispersos tendem a formar padrões circulares. Em sistemas monodispersos, os contatos possuem direções preferenciais, que estão nas direções dos dedos formados, enquanto que sistemas de alta polidispersão e bidispersos possuem distribuições de ângulos de contatos de maneira aleatória. Também evidenciamos um campo de tensão maior próximo às pontas dos dedos, em analogia ao fenômeno observado por Saffman-Taylor para fluidos de diferentes viscosidades. Portanto, concluímos que a formação de dedos em amostras monodispersas está associada à cristalização do sistema, e consequentemente a propagação de tensão está de acordo com os modelos hiperbólicos, onde a tensão se propaga de maneira anisotrópica. Já os sistemas de alta polidispersão e bidispersos possuem problemas para cristalizar, por isto exibem padrões circulares, portanto, a propagação de tensão está de acordo com modelos elípticos, onde a tensão se propaga de maneira difusa.

2012
Dissertações
1
  • LUIZ OTAVIO RODRIGUES ALVES SERENO
  • Roteamento em Redes Interligadas modeladas por Grafos Circulantes e Gaussianos

  • Orientador : RODRIGO TOMAS NOGUEIRA CARDOSO
  • Data: 29/02/2012
  • Mostrar Resumo
  • O objetivo principal deste trabalho é estudar o roteamento de redes interligadas para diferentes topologias dos grafos que o modelam, pretendendo, por exemplo, tornar possível o cálculo do seu diâmetro e as distâncias mínimas de forma mais efi ciente. Dois tipos de grafos foram escolhidos: os circulantes e os gaussianos. Com base na tese de Martínez (2007), é apresentado um estudo teórico das estruturas matemáticas dos grafos, que são importantes no desenvolvimento das ferramentas estudadas. Algoritmos efi cientes são propostos para calcular o caminho mais curto entre dois vértices quaisquer destas duas classes de grafos, e suas implementações computacionais permitirão uma visualização gráfi ca das redes e do roteamento ótimo. Além disso, a partir do artigo de Yanga (2009), constrói-se árvores geradoras independentes para uma classe especial de grafos circulantes, fi nalizando com uma proposta de extensão para grafos gaussianos em geral.

2009
Dissertações
1
  • MARIANA SILVA FALEIRO DE ANDRADE
  • ALGORITMOS EVOLUTIVOS MONO E MULTIOBJETIVOS PARA PROBLEMAS BIDIMENSIONAIS DE CORTE

  • Orientador : SERGIO RICARDO DE SOUZA
  • Data: 28/09/2009
  • Mostrar Resumo
  • **

SIGAA | Secretaria de Governança da Informação - (31) 3319-7000 | Copyright © 2006-2018 - CEFET-MG - vm-sig-app-02.ditic.sgi.cefetmg.br.inst2