51 results on '"Rogério Rosenfeld"'
Search Results
2. DES science portal: Creating science-ready catalogs.
- Author
-
Angelo Fausti Neto, Luiz Nicolaci da Costa, Aurelio Carnero Rosell, Julia Gschwend, R. L. C. Ogando, Flavia Sobreira, Marcio A. G. Maia, Basillio X. Santiago, Rogério Rosenfeld, C. Singulani, C. Adean, L. D. P. Nunes, Riccardo Campisano, R. Brito, G. Soares, G. C. Vila-Verde, Timothy M. C. Abbott, Filipe B. Abdalla, Sahar Allam, Aurélien Benoit-Lévy, David D. Brooks, Elizabeth Buckley-Geer, Diego Capozzi, Matias Carrasco Kind, Jorge Carretero, Chris D'Andrea, Shantanu Desai, Peter Doel, Alex Drlica-Wagner, August E. Evrard, Pablo Fosalba, Juan García-Bellido, David W. Gerdes, Robert A. Gruendl, Gaston R. Gutiérrez, Klaus Honscheid, David J. James, Tesla E. Jeltema, Kyler W. Kuehn, Steve E. E. Kuhlmann, Nikolay Kuropatkin, Ofer Lahav, Marcos Lima, Jennifer L. Marshall, Peter Melchior, Felipe Menanteau, Andreas Alejandro Plazas, Eusebio Sánchez, Victor E. Scarpine, Rafe H. Schindler, Michael S. Schubnell, Ignacio Sevilla-Noarbe, Mathew C. Smith, Robert C. Smith, Eric Suchyta, Mollye E. C. Swanson, Gregory G. Tarlé, and Alistair R. Walker
- Published
- 2018
- Full Text
- View/download PDF
3. A note on the quality of dilatonic ultralight dark matter
- Author
-
Jay Hubisz, Shaked Ironi, Gilad Perez, and Rogerio Rosenfeld
- Subjects
Dark matter ,Dilatons ,Physics ,QC1-999 - Abstract
Dilatons are pseudo-Nambu-Goldstone bosons arising from the breaking of conformal invariance. In this letter we point out that in general a dilaton mass has a power-law dependence on a small parameter related to the explicit breaking of conformal invariance whereas the ratio between the ultraviolet and infrared scales in the theory is exponentially related to the same parameter. We show that this scaling results in a separation between the dilaton mass and the infrared scale that can not be arbitrary large. Therefore a small dilaton mass necessarily is associated to a secluded conformal sector. We argue that the fact that the dilaton field must have a small displacement from the minimum of its effective potential generated near the infrared scale precludes a cosmologically interesting amount of dilatonic dark matter to be produced by a misalignment mechanism in the early Universe.
- Published
- 2024
- Full Text
- View/download PDF
4. P-wave Sommerfeld enhancement near threshold: a simplified approach
- Author
-
Carlos H. de Lima, Alberto Tonero, Andres Vasquez, and Rogerio Rosenfeld
- Subjects
Astrophysics ,QB460-466 ,Nuclear and particle physics. Atomic energy. Radioactivity ,QC770-798 - Abstract
Abstract The calculation of P-wave Sommerfeld enhancement in processes with unstable particles in the final state is known to be divergent. In a complete description, where resonant (on-shell unstable particles) and non-resonant contributions are included, it has been shown that results are finite. For most beyond the Standard Model applications, these complete calculations are not readily available. In this work, we are interested in the near-threshold region and we consider only the resonant contribution. In this case, we provide a simplified prescription to compute the P-wave Sommerfeld enhancement in the narrow-width approximation of the unstable particle that directly eliminates divergences. We show that we can define a finite resonant contribution without the inclusion of the non-resonant processes in a way similar to the usual S-wave Sommerfeld enhancement.
- Published
- 2023
- Full Text
- View/download PDF
5. New physics in double Higgs production at future e + e − colliders
- Author
-
Andres Vasquez, Céline Degrande, Alberto Tonero, and Rogerio Rosenfeld
- Subjects
Beyond Standard Model ,Higgs Physics ,Nuclear and particle physics. Atomic energy. Radioactivity ,QC770-798 - Abstract
Abstract We study the effects of new physics in double Higgs production at future e + e − colliders. In the Standard Model the chiral limit (m e = 0) plays an important role for this process, being responsible for the smallness of the tree-level diagrams with respect to the 1-loop contributions. In our work, we consider the possibility of an enhancement due to the contribution of Standard Model dimension-six effective operators. We show that there are only two relevant operators for this process that are not yet (strongly) constrained by other data. We perform a sensitivity study on the operator coefficients for several benchmark values of energy and integrated luminosity related to the proposed linear colliders such as CLIC, ILC and FCC-ee and we derive expected 95% CL limits for each benchmark scenario.
- Published
- 2019
- Full Text
- View/download PDF
6. Particles And Fields - Proceedings Of The X Jorge Andre Swieca Summer School
- Author
-
Joao Carlos Alves Barata, M Begalli, Rogerio Rosenfeld, Joao Carlos Alves Barata, M Begalli, and Rogerio Rosenfeld
- Subjects
- Field theory (Physics)--Congresses, Electroweak interactions--Congresses, Particles (Nuclear physics)--Congresses
- Abstract
This book constitutes the proceedings of the X Jorge André Swieca Summer School — Particles and Fields. It includes topics on non-commutative geometry, constructive quantum field theory and duality in quantum field theory, as well as various subjects in high energy physics and phenomenology.
- Published
- 2000
7. Observing the Dark Sector
- Author
-
Valerio Marra, Rogerio Rosenfeld, and Riccardo Sturani
- Subjects
observational cosmology ,gravitational waves ,galaxy surveys ,radio surveys ,Elementary particle physics ,QC793-793.5 - Abstract
Despite the observational success of the standard model of cosmology, present-day observations do not tightly constrain the nature of dark matter and dark energy and modifications to the theory of general relativity. Here, we will discuss some of the ongoing and upcoming surveys that will revolutionize our understanding of the dark sector.
- Published
- 2019
- Full Text
- View/download PDF
8. Dynamic parameters for Brazilian financial time series
- Author
-
Gerson Francisco, Cláudio Paiva, and Rogerio Rosenfeld
- Subjects
deterministic ,stochastic ,reconstruction in phase space ,complexity ,Economic history and conditions ,HC10-1085 ,Economics as a science ,HB71-74 - Abstract
In this study we analyse a Brazilian stock index called IBOVESPA using techniques from dynamical systems theory and stochastic processes. We discuss the Lyapunov exponent, the correlation dimension, the LempelZiv complexity, the Hurst exponent and the BDS statistics. We compare this study with other time series including stock prices and deterministic systems. We conclude that the IBOVESPA is a linear stochastic process that exhibits the phenomenon of persistence, thatis, it has long term memory. The stocks are described by nonlinear stochastic processes making it impossible to be simulated with deterministic models such as the usual neural networks architectures.
- Published
- 2002
9. Um novo algoritmo para aplicações das seqüências de Sobol à precificação de derivativos financeiros
- Author
-
Thierry Barbe, Marcos Eugenio da Silva, Oswaldo Luiz do Valle Costa, Rogério Rosenfeld, Jose Carlos de Souza Santos, and Jose de Oliveira Siqueira
- Abstract
A simulação Monte Carlo adquiriu enorme popularidade durante a segunda metade do século XX tanto pela facilidade com a qual o método é implementado como pela sua eficácia. No entanto o seu uso depende de um grande esforço computacional que muitas vezes limita o seu alcance. Por isso muito esforço tem sido despendido na tentativa de encontrar maneiras de reduzir este ônus. Técnicas de redução de variância são um exemplo desta linha de pesquisa. Um dos métodos que também visa uma convergência mais rápida consiste em escolher antecipadamente os números aleatórios com os quais a simulação será efetuada. Quando estes são oriundos de sequências de baixa discrepância esta técnica recebe o nome de simulação quase Monte Carlo. Este método mostrou-se mais preciso que a simulação Monte Carlo tradicional para uma ampla gama de problemas. Todavia, o seu uso restringiu-se a simulações desenvolvidas em espaços de pequena dimensão pois, como os demais métodos deterministas, ele sofre da maldição da dimensionalidade. Criou-se então o desafio de estender o uso da simulação quase Monte Cario a problemas de dimensão elevada. Várias soluções têm sido propostas, mas nenhuma delas tem conseguido lidar com problemas para as quais a dimensão alcança níveis altíssimos. Além disso demonstrou-se que os poucos resultados satisfatórios em dimensões médias e altas resultavam de propriedades específicas das simulações que as tomavam unicamente sensíveis a um subespaço de dimensão muito menor. Definiu-se então as noções de dimensão efetiva e dimensão nominal de uma simulação Monte Carlo. O nosso trabalho apresenta um método que permite estender o uso das sequências de Sobol para simulações de dimensão muito maior do que o geralmente admitido como seguro pelos usuários. Isso passa pela descoberta de uma propriedade de uniformidade implícita nos números direcionais e pela implementação de um algoritmo que gera números direcionais eficientes. Em seguida, a construção é avaliada na resolução de integrais de teste e na precificação de instrumentos que pertencem a três famílias de derivativos financeiros. Pela primeira vez na literatura sobre quase Monte Carlo em finanças a análise leva em consideração a dicotomia entre dimensão nominal e dimensão efetiva, o que permite a realização de testes desprovidos de vieses. Conseguimos excelentes resultados para simulações Monte Carlo de dimensão efetiva até 2000. During the latter half of the twentieth century Monte Carlo gained enormous popularity, both for its efficiency and ease of implementation. However, its use requires great computational cost, a factor that has limited its expansion. This is why a great deal of effort has been spent in an effort to discover ways to reduce this burden. Variance reduction techniques are an example of this line of research. Another technique that seeks faster convergence consists in picking beforehand the randomnumbers used in the simulation. When these numbers are chosen from low discrepancy sequences the method is then called quasi Monte Carlo and has proved more efficient than traditional Monte Carlo for solving a vast array of problems. Nonetheless, its use has been confined to simulations in low dimensional spaces, for, like other deterministic methods, it suflfers from the curse of dimensionality. Researchers are now challenged to extend the use of quasi Monte Carlo to problems of very high dimension. Various Solutions have been suggested but none has managed to deal with problems of very high dimensions. Furthermore, it has been shown that in various cases where satisfactory results we reached for médium to high dimensional problems the simulation was in fact sensitive only to a subset of much lower dimension. This generated the distinction between nominal and effective dimension of the Monte Carlo simulation. Our work presents a method that unleashes the use of Sobol sequences to dimensions much higher than those for which it has insofar proved operational. This goes through the discovery of a uniformity property implicit in the directional numbers and the implementation of an algorithm that generates efficient directional numbers. The construction is then tested in different settings which range from the estimation of test integrals to the pricing of instruments that belong to three different families of financial derivatives. For the first time in the quasi Monte Carlo literature in finance the analysis takes into consideration the dichotomy between nominal and effective dimension thus reducing much of the bias present in previous tests. Excellent results were obtained for simulations with effective dimension ranging up to 2000.
- Published
- 2022
- Full Text
- View/download PDF
10. Vinculando teorias modificadas de gravitação utilizando propriedades de voids
- Author
-
Rodrigo Voivodic, Marcos Vinicius Borges Teixeira Lima, Eduardo Serra Cypriano, and Rogério Rosenfeld
- Abstract
Neste trabalho investigamos observáveis relacionados à estrutura em larga escala do universo, especialmente aqueles sensíveis a mudanças na gravidade e que possam ser usados para impor vínculos em teorias gravitacionais. O foco do trabalho foi estudar as propriedades de voids, tanto no desenvolvimento de programas para detectá-los em simulações e observações, como no cálculo de previsões teóricas em função da cosmologia e da teoria gravitacional. Dadas estas medidas e predições teóricas, estudamos o poder dos vínculos impostos usando voids, se comparados com outros observáveis, e buscamos compreender como complicações observacionais podem prejudicar estes vínculos. Construímos algoritmos para a detecção de voids e halos em simulações de N-corpos, além de implementarmos códigos para efetuar a medida da função de dois e três pontos de voids, halos e da matéria. Produzimos também códigos para fazer medidas dos perfis de velocidade e densidade de halos e voids, e propusemos uma nova predição para a abundância dos voids em gravidade modificada do tipo f(R) e Symmetron. Com isso, medimos o poder da abundância de voids em vincular parâmetros de gravitação. Desenvolvemos ainda uma generalização do modelo de halos para a inclusão de voids, no que denominamos modelo de Halos e Voids. Além disso, estudamos a dependência do raio de turnaround dos halos em diferentes teorias de gravitação e para diferentes perfis de densidade iniciais, além de relacionar as quantidades teoricamente calculadas com observáveis. Finalmente, construímos um novo método para a rápida geração de catálogos de halos, algo fundamental para o cálculo de matrizes de covariâncias nos próximos levantamentos de galáxias. In this work, we investigated observables related to the large-scale structure of the Universe, especially those sensitive to gravitational effects, and can be used to constrain gravity theories. Our main goal was the study of cosmological voids, both the development of codes for detecting them in N-body simulation and observations, as well as the construction of theoretical predictions for these observables as functions of cosmological and gravity parameters. Given these measurements and theoretical predictions, we studied the constraining power of voids, in comparison with other observables, and we assessed the effects of observational complications. We constructed algorithms to find halos and voids, using a Voronoi tessellation, as well as codes to measure the power spectrum and the bispectrum of a catalogue of voids, halos, and matter. We also produced codes to measure the density and velocity profiles of halos and voids, and we proposed a new theoretical prediction for the void abundance in f(R) and Symmetron models of modified gravity. These tools allowed us to put constraints on modified gravity parameters using void abundance. We also developed a generalization of the standard Halo model to include the effects of cosmic voids, in the so-called Halo-Void model. In addition, we computed the turnaround radius of halos in f(R) gravity and related the theoretical computations with current observations. Finally, we constructed a new method for the fast generation of halo catalogues, which are crucial for the computation of covariance matrices in next-generation galaxy surveys.
- Published
- 2022
- Full Text
- View/download PDF
11. Análise dos modelos de Vasicek e Black-Derman-Toy para o apreçamento de hedge dinâmico de opções de taxa de juro
- Author
-
Maria Carlota Morandin Senger, Rogério Rosenfeld, Luiz Felipe Pinheiro de Andrade, and Jose Carlos de Souza Santos
- Abstract
Modelos Estocásticos de Estrutura a Tempo são essenciais para avaliação de ativos contingentes em taxas de juro. No Brasil. onde a oferta de instrumentos mais sofisticados sobre taxas de juro está apenas agora se fortalecendo, o desenvolvimento e implementação de modelos mais complexos é desafiador. Buscou-se nesse trabalho a implementação de dois modelos: Vasicek e Black-Derman-Toy e seu uso no apreçamento da recém-lançada opção sobre taxa de juro na Bolsa de Mercadoria Futuro. comparando os preços obtidos com o modelo mais largamente utilizado pelo mercado -- o modelo de Black. Os preços obtidos mostraram que o modelo de Vasicek tende a produzia- preços inferiores aos do modelo de Black ou mercado, enquanto no modelo de Black-Derman-Toy constatou-se o contrário: ou seja, os preços produzidos pelo modelo coram superiores aos obtidos no modelo de Black. Procurou-se também avaliar os erros de hedge dinâmico de cada modelo em que os erros verificados têm relação com o prazo de vencimento da opção, dias de rebalanceamento eclone com o modelo de Black apresentando os menores ecos nas opções dentro do dinheiro e no dinheiro. Entretanto. essa superioridade não se verificou nas opções fora do dinheiro, em que o modelo de Black apresentou os resultados mais instáveis. Com isso, o modelo de Black é sugerido para gerenciamento de risco devido a sua simplicidade analítica incorporando outras medidas de sensibilidade como o Gamma da opção que procure diminuir os erros verificados. Para fins de apreçamento, o modelo de Black-Derman-Toy com volatilidade constante é sugerido devido a estabilidade dos resultados apresentados no hedge dinâmico nas diversas faixas de moneyness. Stochastic Time Structure Models are essential for evaluating contingent assets at interest rates. In Brazil. where the offer of instruments more sophisticated interest rate systems is only now getting stronger, the development and implementation of more complex models is frustrating. In this work, the aim was to implementation of two models: Vasicek and Black-Derman-Toy and their use in the pricing of the recently launched interest rate option on the Commodity Exchange Future, comparing the prices obtained with the model most widely used by the market -- Black\'s model. The prices obtained showed that the Vasicek model tends to produce prices lower than the Black model or market, while in the Black-Derman-Toy model, the opposite was found: that is, the prices produced by the model were superior to those obtained in the Black model. We also tried to evaluate the dynamic hedging errors of each model in which the verified errors are related to the option expiration date, days of eclone rebalance with Black\'s model showing the smallest echoes in-the-money and in-the-money options. However. this superiority is not found in out-of-the-money options, where Black\'s model presented the more unstable results. With this, Black\'s model is suggested for management risk due to its analytical simplicity, incorporating other measures of sensitivity as the Gamma of the option that seeks to reduce the errors verified. For For pricing purposes, the Black-Derman-Toy model with constant volatility is suggested due to the stability of the results presented in the dynamic hedge in the various moneyness ranges.
- Published
- 2022
- Full Text
- View/download PDF
12. Sistema de teste de stress para análise de carteiras com aplicação de análise de componentes principais
- Author
-
Edson Kojó, Rogério Rosenfeld, Luiz Felipe Pinheiro de Andrade, and Gerson Francisco
- Abstract
O trabalho destaca (nos Capítulos l e 2) a necessidade de um tratamento específico na avaliação de risco de uma carteira para situações de stress dos mercados. Isto decorre do fato de que essas situações extremas não satisfazem as hipóteses dos modelos tradicionais de risco. São também discutidas as vantagens e desvantagens das várias metodologias que procuram tratar essas situações para justificar a escolha da metodologia da BM&F de margens de garantia. Esta atende aos requisitos mais relevantes como simplicidade nos conceitos e facilidade no uso (possibilitando várias análises e discussões estratégicas). De maneira resumida, ela consiste na decomposição dos ativos em seus fatores primitivos de risco e na marcação a cenário desses ativos. No Capítulo 3 cada etapa da metodologia adotada é detalhada. No Capítulo 4 é demonstrada a técnica da Análise dos Componentes Principais -- ACP (Principal Components Analysis - PCA). Trata-se de uma análise estatística utilizando conceitos de álgebra linear, a qual mostra resultados práticos e bem intuitivos. A ACP permite a seleção de cenários de stress a serem avaliados de uma maneira quantitativa, procurando solucionar o problema de subjetividade na escolha de cenários (uma característica muito criticada das metodologias baseadas em marcação a cenário, como no caso da metodologia adotada). O capítulo 5 apresenta a implementação da técnica da ACP e o capítulo 6, por sua vez, demonstra o uso desta ferramenta para a geração de cenários de stress de taxas de Juros. No capítulo 7 é mostrado o sistema de stress implementado para quantificar os riscos de um portfólio qualquer. Na conclusão (Capítulo 8), são apresentados os bons resultados atingidos no trabalho. Espera-se, assim, integrar uma ferramenta quantitativa a um sistema de gerenciamento de risco que trata as situações de stress nos mercados, motivando a criação de uma política de risco específica para a carteira que aborde essas situações The work highlights (in Chapters 1 and 2) the need for specific treatment in assessing the risk of a portfolio for market stress situations. This stems from the fact that these extreme situations do not satisfy the assumptions of traditional risk models. The advantages and disadvantages of the various methodologies that seek to deal with these situations are also discussed in order to justify the choice of the BM&F\'s methodology for margins. It meets the most relevant requirements such as simplicity in concepts and ease of use (allowing for various analyzes and strategic discussions). Briefly, it consists of decomposing assets into their primitive risk factors and marking these assets for the scenario. In Chapter 3 each step of the adopted methodology is detailed. In Chapter 4, the Análise dos Componentes Principais - ACP (Principal Components Analysis - PCA) technique is demonstrated. It is a statistical analysis using linear algebra concepts, which shows practical and very intuitive results. The PCA allows the selection of stress scenarios to be evaluated in a quantitative way, seeking to solve the problem of subjectivity in the choice of scenarios (a highly criticized characteristic of methodologies based on scenario marking, as in the case of the adopted methodology). Chapter 5 presents the implementation of the PCA technique and chapter 6, in turn, demonstrates the use of this tool to generate interest rate stress scenarios. Chapter 7 shows the stress system implemented to quantify the risks of any portfolio. In the conclusion (Chapter 8), the good results achieved in the work are presented. It is expected, therefore, to integrate a quantitative tool into a risk management system that deals with situations of stress in the markets, motivating the creation of a specific risk policy for the portfolio that addresses these situations.
- Published
- 2022
- Full Text
- View/download PDF
13. Calibração entrópica para modelos de taxa de câmbio
- Author
-
Paulo Roberto Lagrotta, Pedro Paulo Serpa Schirmer, Rogério Rosenfeld, and Jose de Oliveira Siqueira
- Abstract
A teoria da Informação nos ensina que a entropia é essencial para transmissão de informação. Considerando a eficiência informacional do mercado, assumimos que o preço de um determinado ativo objeto reflete toda informação que chega ao mercado e levando as distribuições de probabilidade de seus retornou serem ajustadas ao risco. Este trabalho aplica o tratamento entrópico para o mercado de taxa de câmbio brasileiro e sugere um modelo com probabilidades calibradas entropicamente a partir de contratos futuros de dólar que possa ser utilizado para a avaliação de estratégias de operações de opções de dólar permitindo detectar distorções entre os mercados de futuros e de opções de taxa de câmbio The Information theory teaches that entropy is fundamental to transmission of information. Considering the operacional efficiency of price we have assumed that informational effciency of market prices adjusts the distribution probabilities of return prices to a risk-neutral in an Arrow-Debreu economy. This work apply the entropic theory for the Brazilian FX market and suggest an entropic adjusted probabilities model using the FX future contracts. This model can be used to evaluate the FX option strategies and analyze mismatches between FX future and FX option contracts
- Published
- 2022
- Full Text
- View/download PDF
14. Um modelo de expectativas racionais para crashes
- Author
-
Ana Paula Neves Granieri Domenici, Gerson Francisco, Amaury Fonseca Junior, and Rogério Rosenfeld
- Abstract
Este estudo apresenta um modelo de expectativas racionais para bolhas e crashes. O modelo possui duas premissas básicas: 1) os grandes crashes são causados pela tendência que existe entre os traders à situação das ações de seus vizinhos. Esse processo cresce até um ponto em que todos estão praticando a mesma ordem de venda e o sistema colapsa, causando os crashes. 2) uma hipótese que, já que os crashes não são pontos determinísticos, ainda é racional para os traders manterem seus investimentos, motivados pelas altas taxas de retorno causadas pelo crescimento das bolhas especulativas e correr o risco de um crash. O final de uma bolha não é necessariamente o início de um crash, embora seja seu momento mais provável. Existe ainda uma probabilidade finita de ocorrer o final de uma bolha sem que o crash ocorra. O modelo apresenta previsões específicas sobre a presença de movimentos log-periódicos na formação de preços em periódicos que antecedem os crashes. Analisamos também evidências empíricas observadas no mercado norte-americano e testamos as hipóteses para o mercado acionário brasileiro durante a década de 90 A rational expectation model for bubbles and crashes is studied. This model has two basic assumptions: 1) The big crashes are caused by local imitation between traders. This process grows up to a certain time when all traders are placing the same sell order at the same moment and the system goes into a collapse, causing a crash. 2) The hypothesis that, once the crashes are not deterministic points, it is still rational for the traders to keep their investments provided that they are compensated by higher spreads caused by the growth of the speculative bubble and taking the risk of the crash. The end of a bubble is not necessarily the beginning of a crash, even though it is the most probable time. There is a finite probability of ending a bubble without havíng a crash. The model has specific predictions about a critical log-periodic patterns in pre-crash prices. Finally, we test the model for Brazihan markets in the 90\'s based on empirical evidentes observed in US stock markets
- Published
- 2022
- Full Text
- View/download PDF
15. Precificação de opções européias de moedas com taxas de juros domésticas e externas estocásticas: aplicação no mercado de câmbio brasileiro
- Author
-
Décio Cunha Júnior, Gerson Francisco, Eduardo Facó Lemgruber, and Rogério Rosenfeld
- Abstract
As opções européias em moeda estrangeira são precificadas no Brasil pelo método tradicional, o modelo de Garman & Kohlhagen, que nada mais é do que o modelo de Black & Scholes para ações acrescentando-se os dividendos ou a remuneração da moeda no exterior e onde há apenas um fator de risco que é a cotação da moeda estrangeira. O método proposto neste trabalho é um modelo de precificação que leva em conta além da volatilidade da moeda, as volatilidades das taxas de juros local e externa, bem como a correlação entre estes três fatores de risco. O objetivo desta dissertação é a comparação entre as duas metodologias para o período compreendido de janeiro de 1998 a dezembro de 2001 das opções de compra européias de dólar negociadas na BM&F. Devido às volatilidades dos cupons do papel indexado ao dólar e da taxa de juro local, este estudo pode mostrar diferenças significativas de precificação entre os modelos, apresentar possibilidades de arbitragem no mercado de derivativos, além de contribuir para a evolução deste mercado no país. The vanilla foreign exchange options are priced in Brazil by the traditional method, the Garman & Kohlhagen model\'s, which is the Black & Scholes model for equities including the dividends or the coupon that is the interest rate of the bond in the country of this currency. In this model there is only one factor that is stochastic, which is the price of the foreign currency. The proposed method in this work is a model that considers besides the volatility of the currency, other two volatilities: the domestic interest rates and the foreign interest rates, and the correlation among these three risk factors. The target of this dissertation is to compare these two methodologies for the period corresponding from 04/01/1998 until 28/12/2001 of the European call options indexed to US$ dollar negotiated in BM&F. Due the volatilities of the local interest rates and the foreign bond, this work could show significant differences between the Garman & Kolhagen model and the proposed model, therefore it could give possibilities of arbitrage in the derivatives market and contribute in the evolution of the financial market in this country.
- Published
- 2021
- Full Text
- View/download PDF
16. Comparação de métodos de estimação de volatilidade para a utilização do modelo de Black na precificação de opções de IDI
- Author
-
Luiz Adriano de Azevedo Bozutti Martinez, Gerson Francisco, Eduardo Facó Lemgruber, and Rogério Rosenfeld
- Abstract
O tema deste trabalho é a escolha do melhor método para estimação de volatilidade quando utiliza-se o modelo de Black (1976) para precificação da opção de IDI. No capítulo 2 é feita uma revisão bibliográfica da pouca literatura existente no Brasil sobre o tema e algumas adaptações às demonstrações relevantes para a justificativa teórica do trabalho, principalmente a utilização de métodos alternativos para a estimação de volatilidade para o modelo de Black (1976). O capítulo 3 descreve o modelo de Black (1976) em sua forma genérica e faz uma adaptação ao delta para balancear-se o modelo utilizando-se o PU negociado na BM&F. O capítulo 4 é uma descrição teórica dos modelos de retorno, volatilidade e testes realizados para verificação dos modelos. Todos estes testes mais a descrição dos dados numéricos utilizados e as conclusões numéricas do trabalho estão no capítulo 5. O capítulo 6 faz a conclusão geral do trabalho. Mostra-se que o modelo de Black (1976), que é largamente utilizado pelas mesas de operações pode ser justificado teoricamente e dá resultados numéricos bastante razoáveis se levarmos em conta que trata-se de um modelo de um fator com todas as limitações que isto impõe. The theme of this paper is the choice of the best volatility estimation method when the Black (1976) model is used for pricing the RDI option. In chapter 2, a bibliographical review of the little existing literature in Brazil on the topic and some adaptations to the relevant statements for the justification theoretical work is presented, mainly the use of alternative methods for the estimation of volatility for the Black model (1976). Chapter 3 describes Black\'s (1976) model in its generic form and makes a adaptation to the delta to balance the model using the PU traded on the BM&F. Chapter 4 is a theoretical description of the return, volatility and testing models performed to verify the models. All these tests plus the description of the numerical data used and the numerical conclusions of the work are in chapter5. Chapter 6 makes the general conclusion of the work. It is shown that the model of Black(197 6), which is widely used by trading desks can be justified theoretically and gives very reasonable numerical results if we take into account that it is a one-factor model with all the limitations that this imposes.
- Published
- 2021
- Full Text
- View/download PDF
17. Statistical and Numerical Methods for Precision Cosmology
- Author
-
Francisco Germano Maion, Luis Raul Weber Abramo, Carlos Hernández Monteagudo, and Rogério Rosenfeld
- Subjects
Redshift-space distortions ,Physics ,Theoretical physics ,Numerical analysis ,Perturbation theory ,Cosmology - Abstract
The current cosmological model tells us that the Universe began very homogeneous, and matter slowly started clumping to make up stars, galaxies, clusters of galaxies, and the large scale structure that we see. The rate with which these structures were formed is very dependent on the theory that describes gravity. Measuring the multipoles of the power spectrum in redshift space we can probe this growth-rate, and thus constrain alternative models of gravity. In this work we review techniques to accurately measure the multipoles of the power spectrum, and to maximize the amount of information contained in these quantities. We also do a careful treatment of systematical effects, reviewing techniques to forward model these effects into the theoretical model for the power-spectrum multipoles. Combining these techniques, we were able to develop a pipeline capable of taking raw galaxy positions and turning them into unbiased cosmological parameters; furthermore, we have extensively tested it, and applied it to obtain constraints with data from the VIPERS survey. We have also done complementary work on understanding the noise in numerical simulations of the large scale structure. In particular, we have studied techniques to reduce the noise in statistics derived from numerical simulations, and were the first to give a detailed explanation of the process through which the fixing and pairing technique works to reduce the variance in n-point functions. O modelo cosmológico atual diz que o universo teria começado numa distribuição extremamente homogênea de matéria, que lentamente iria se aglomerando e formando as estrelas, galáxias, aglomerados de galáxias, e a estrutura em larga escala que vemos. A taxa com a qual estas estruturas crescem está intimamente ligada à teoria que rege a gravidade. Através de medições dos multipolos do espectro de potências, é possível medir esta taxa de crescimento, e com isso excluir possíveis modelos de gravitação. Neste trabalho, revisamos técnicas para medir o espectro de potências de forma acurada, e para maximizar a informação contida nestas medições. Ademais, damos um tratamento cuidadoso aos erros sistemáticos, revisando técnicas pelas quais podemos incorporar os efeitos destes erros no modelo teórico do espectro de potências, de forma a reproduzir as observações reais. Combinando estes conhecimentos, foi possível desenvolver um programa computacional capaz de tomar medições das posições de galáxias no céu, e transformá-las em vínculos nos parâmetros cosmológicos; ademais, este programa foi extensivamente testado, e utilizado para vincular parâmetros usando dados reais do levantamento de galáxias VIPERS. Além disso, este trabalho também versa sobre uma área altamente complementar, na qual buscamos compreender o ruído presente em simulações cosmológicas da estrutura em larga escala. Em particular, estudamos técnicas pelas quais é possível reduzir este ruído, e fomos os primeiros a dar uma descrição detalhada do processo pelo qual a técnica \\textit{fixing and pairing} reduz a variância em funções de n-pontos.
- Published
- 2021
- Full Text
- View/download PDF
18. Unitarização de ressonâncias piônicas escalares
- Author
-
Lécio de Oliveira Arantes, Manoel Roberto Robilotta, Frederique Marie Brigitte Sylvie Grassi, and Rogério Rosenfeld
- Abstract
A implementação da simetria quiral por meio do modelo sigma linear requer um méson escalar, cuja existência foi objeto de muito debate ao longo das últimas quatro décadas. Recentemente, evidências da ocorrência dessa partícula foram encontradas em um experimento realizado no Fermilab. A análise desses resultados experimentais depende de modelos teóricos acerca da dinâmica das ressonâncias. Neste trabalho, estudou-se o papel da simetria quiral na estrutura desses modelos e mostrou-se que, na região de energias baixas, essa simetria influi decisivamente nas expressões que descrevem ressonâncias escalares In the linear sigma model, the implementation of chiral symmetry requires a scalar meson, whose existence has been much debated along the last four decades. Recently, evidences of this particle were found in a experiment done at Fermilab. The interpretation of these experimental results relies on theoretical models for the dynamics of resonances. In this work, the role of chiral symmetry in these models is studied and it is shown that this symmetry is rather important in determining the expressions that should be used to describe scalar resonances at low-energies.
- Published
- 2021
- Full Text
- View/download PDF
19. O fator de forma J/\'psi\'-D-D em regras de soma da QCD
- Author
-
Ricardo D'Elia Matheus, Fernando Silveira Navarra, Mirian Enriqueta Bracco, and Rogério Rosenfeld
- Abstract
Neste trabalho calculamos o fator de forma e a constante de acoplamento para o vértice J/\'psi\'DD nos casos em que os mesons J/\'psi\' ou D estão fora da camada de massa, utilizando as técnicas das Regras de Soma da QD. Nós estudamos a regra de coma com dupla transformada de Borel da função de três pontos contendo duas corrente mesônicas pseudoescalares e uma vetorial. Encontramos assim a dependência de momento do fator de forma para cada caso e concluímos que elas levam à mesma constante de acoplamento, permitindo assim obter esta com maior precisão. Estudamos também a regra da soma da função de dois pontos dos mesons J/\'psi\' e D com o objetvo de aplicar os resultados destas regras de soma na função de três pontos. The J/\'psi\'-D-D form factor in QCD summation rules
- Published
- 2021
- Full Text
- View/download PDF
20. O problema da hierarquia do Modelo Padrão e suas soluções
- Author
-
Gabriel Massoni Salla, Enrico Bertuzzo, Ricardo D'Elia Matheus, and Rogério Rosenfeld
- Subjects
Algebra ,Computer science ,Hierarchy problem ,Supersymmetry ,Standard model (cryptography) - Abstract
In this thesis the Hierarchy Problem of particle physics is studied, in particular both its formulation and some of its solutions, namely Supersymmetry, Composite Higgs models, Twin Higgs models and Cosmological Relaxation models. In the first part the Hierarchy Problem is defined as two different problems: the Scalar Mass Problem and the Hierarchy Paradigm, which are related to the inconsistencies within the Effective Field Theory framework and the concept of naturalness, respectively. A review of each of the aforementioned solutions is presented by developing their basic theoretical formulation, focusing on how they solve the Hierarchy Problem, and their minimal implementation. Furthermore, recent experimental bounds of the corresponding minimal models are discussed. On top of this, a novel model-independent approach to Cosmological Relaxation models based on effective theories is developed. Finally, the characterisation of each model in terms of the Scalar Mass Problem and the Hierarchy Paradigm is obtained. Nesta dissertação é estudado o Problema da Hierarquia de física de partículas, em particular tanto a sua formulação como também algumas de suas soluções, nomeadamente Supersimetria, modelos de Higgs Composto, modelos de Higgs Gêmeos e modelos de Relaxamento Cosmológico. Na primeira parte deste trabalho define-se a questão como dois problemas distintos: o Problema da Massa Escalar e o Paradigma da Hierarquia, que estão relacionados respectivamente às inconsistências dentro do contexto de Teorias de Campos Efetivas e ao conceito de naturalidade. São revisadas, a partir de sua formulação teórica baseada em primeiros princípios e com foco em como solucionam o Problema da Hierarquia, as soluções acima mencionadas juntamente com suas implementações mínimas. Além disso, restrições experimentais dos respectivos modelos mínimos são discutidas. Em particular, uma nova abordagem independente de modelo fundamentada em teorias efetivas para os modelos de Relaxamento Cosmológico é desenvolvida. Finalmente, obtém-se uma caracterização de cada solução com base na classificação entre o Problema da Massa Escalar e o Paradigma da Hierarquia.
- Published
- 2020
21. Fenomenologia de teorias com um Higgs composto
- Author
-
Pedro Bittar Oliveira Souza, Gustavo Alberto Burdman, Pedro Galli Mercadante, and Rogério Rosenfeld
- Abstract
O Modelo Padrão (MP) é uma descrição completa e bem testada das interações de partículas elementares. Contudo, quando se discute a estabilidade da escala eletrofraca (EW), a sua estrutura parece incompleta. Concretamente, ter um boson de Higgs leve não é atingível de maneira natural se existe física microscópica além da escala EW. Essa questão é o problema da hierarchia (PH). O boson de Higgs é o agente da quebra espontânea da simetria eletrofraca (EWSB), responsável pela origem das massas das paticulas elementares. Aqui, se a estrutura de simetrias do MP for mantida, o caráter elementar do Higgs vai, inevitavelmente, reintroduzir o PH. Embora o MP parametrize o mecanismo de Higgs, ele não oferece uma explicação dinâmica para EWSB, e consequentemente, causa o PH. Dar uma natureza composta para o Higgs pode resolver o PH e também dar um novo conteúdo dinâmico para EWSB. Essa proposta está no centro dos modelos do Higgs composto. Eles dão um contexto geral para extender o MP na escala dos $TeV$ e atacam diretamente o PH. Contudo, no que tange ao sinais experimentais da composição do Higgs, esses modelos podem falhar na sua descrição efetiva e local. Nosso objetivo é olhar para os sinais mais gerais do Higgs composto nos experimentos de colisor. A tarefa é encontrar uma maneira sistematica de incluir os efeitos de uma partícula composta na teoria e derivar meios para estudar a sua fenomenologia. No nosso trabalho, tivemos que restaurar completamente a dependência no momento de um Higgs composto, e estudamos os sinais desse caso por simulações. Aqui, encontramos modificações nas distribuições cinemáticas, que são típicas do cenário assumido. Se o Higgs é de fato composto, os seus efeitos devem começar a ser visíveis nas próximas fases do LHC. The Standard Model (SM) is a complete and well-tested framework for describing elementary particles interactions. However, when discussing the stability of the Electroweak (EW) scale, it lacks theoretical grounding. More concretely, having a light Higgs boson is not naturally attainable if there is new microscopic physics above the EW scale. This issue is the hierarchy problem (HP) The Higgs boson is the agent of Electroweak Symmetry Breaking (EWSB), the origin of particles masses. Here, if the symmetry structure of the SM is maintained, the elementary nature of the Higgs inevitably introduces the HP. Even though the SM parametrizes the Higgs mechanism, it offers no dynamical explanation for EWSB and, consequently, causes the HP. Giving a composite nature to the Higgs can solve such a problem, while also providing EWSB with new dynamical content. Such a proposal is at the core of composite Higgs models (CHM). They provide a general framework for extending the SM at the $TeV$ scale, the aimed energy scales of the LHC, and to attack the HP. However, when it comes to the experimental signatures of compositeness itself, such models may lack in their effective local descriptions. Our objective is to look for general signs of compositeness in collider experiments. The task ahead is to find a systematic way of including compositeness effects while providing the means to study its phenomenology. Throughout our work, we have restored the full momentum dependence of compositeness via the form factor formalism and studied its phenomenological consequences through simulations. Here, we discovered changes in the shapes of kinematic distributions, that are typical of compositeness. If the Higgs is composite, such signatures should start to become apparent in the next stages of the LHC experiment.
- Published
- 2020
- Full Text
- View/download PDF
22. Study of turnaround radius in f(R) theories
- Author
-
Rafael Christ de Castro Lopes, Luis Raul Weber Abramo, Laerte Sodre Junior, Marcos Vinicius Borges Teixeira Lima, Miguel Boavista Quartin, Rogério Rosenfeld, and Alberto Vazquez Saa
- Abstract
Nós investigamos o raio de turnaround, a distância do centro da estrutura cósmica até a casca que está se descolando do fluxo de Hubble em um dado tempo, no contexto do modelo de colapso esférico, tanto em Relatividade Geral e em Gravidade Modificada, em particular no cenário f(R) chamado de modelo de Hu-Sawicki. O próximo passo foi investigar a relação entre este raio e a massa de virial de estruturas cósmicas no contexto do modelo LCDM e no modelo f(R) de gravidade modificada. We investigate the turnaround radius, the distance from the center of the cosmic structure to the shell that is detaching from the Hubble flow at a given time, in the context of the spherical collapse model, both in General Relativity and in modified gravity, in particular f(R) scenarios -- namely the Hu-Sawicki model. The next step was to investigate the relationship between that radius and the virial mass of cosmic structures in the context of LCDM model and in an f(R) model of modified gravity.
- Published
- 2019
23. Melhorias na predição da estrutura de larga escala do universo por meio de teorias efetivas de campo
- Author
-
Marcos Lima, Henrique Rubira, Marcos Vinicius Borges Teixeira Lima, Miguel Boavista Quartin, and Rogério Rosenfeld
- Abstract
Com os próximos grandes projetos the observação do Universo, a cosmologia entrará em uma era de alta precisão de medidas. Novos dados trarão um novo entendimento da evolução do Universo, seus principais componentes e do comportamento da gravi- dade. Sendo assim, é fundamental também ter uma boa predição teórica para a formação de estrutura de larga escala em regime não-linear. A melhor maneira de resolver as equações hidrodinâmicas que descrevem o nosso universo é por meio de simulações cosmológicas na rede. Entretando, estas contém desafios, como a correta inclusão de física bariônica e a diminuição do alto tempo computacional. Uma outra abordagem muito usada é o cálculo das funções de cor- relação por meio de métodos perturbativos (em inglês, Standard Perturbation Theory, ou SPT). Entretanto, esta contém problemas variados: pode não convergir para algu- mas cosmologias e, caso convirja, não há certeza de convergência para o resultado correto. Além disso, há uma escala privilegiada nos limites integrais que envolvem o método perturbativo. Nós calculamos o resultado por esse método até terceira ordem e mostramos que o termo de terceira ordem é ainda maior que o de 2-loops e 3-loops. Isso evidencia alguns problemas descritos com o método perturbativo. O método de Teorias Efetivas de Campo aplicado ao estudo de LSS busca corrigir os problemas da SPT e, desta forma, complementar os resultados de simulações na rede. Em outras áreas da física, como a Cromodinâmica Quântica de baixas energias, EFTs também são usadas como um complemento a essas simulações na rede. EFTs melhoram a predição do espectro de potência da matéria por meio da inclusão dos chamados contra-termos, que precisam ser fitados em simulações. Estes contratermos, que são parâmetros livres, contém importante informação sobre como a física em pequenas escalas afeta a física nas escalas de interesse. Explicaremos os resultados para a predição em 3-loops de EFT, trabalho inédito. É possível usar as EFTs também no problema de conectar a campo de matéria com outros traçadores, como os halos e as galáxias, chamado de bias. Com as EFTs podemos construir uma base completa de operadores para parametrizar o bias. Será explicado como utilizar esses operadores para melhorar a predição do bias em escalas não-lineares. Serão calculados esses termos de EFT em simulações. Também será mostrado como renormalizar o bias em coordenadas de Lagrange. Por fim, será explicada outra importante aplicação das EFTs em cosmologia, mais especificamente em teorias de inflação. EFTs parametrizam desvios nas teorias de um campo único no chamado regime de slow-roll. With future cosmological surveys, cosmology will enter in the precision era. New data will improve the constraints on the standard cosmological model enhancing our knowledge about the universe history, its components and the behavior of gravity. In this context, it is vital to come up with precise theoretical predictions for the formation of large-scale structure beyond the linear regime. The best way of solving the fluid equations that describe the large-scale universe is through lattice simulations, which faces difficulties in the inclusion of accurate baryonic physics and is very computationally costly. Another approach is the theoreti- cal calculation of the correlation statistics through the perturbative approach, called Standard Perturbation Theory (SPT). However, SPT has several problems: for some cosmologies, it may not converge and even when it converges, we cannot be sure it converges to the right result. Also, it contains a special scale that is the loop momenta upper-bound in the integral. In this work, we show results for the 3-loop calculation. The term of third order is larger than the terms of 2-loops and 3-loops, making explicit SPT problems. In this work, we describe the recent usage of Effective Field Theories (EFTs) on Large Scale Structure problems to correct SPT issues and complement cosmological simulations. EFTs are used in other areas of physics, such as low energy QCD, serving as a complement to lattice calculations. EFT improves the predictions for the matter power spectrum and bispectrum by adding counterterms that need to be fitted. The free parameters, instead of being a problem, bring relevant information about how the small-scale physics affects the scales for which we are trying to make statistical predictions. We show the calculation of the 3-loop EFT counterterms. EFTs are also used to explain main points connecting the matter density field with tracers like galaxies and halos. EFTs highlighted how to construct a complete basis of operators that parametrize the bias. We explain how we can use EFT to improve the bias prediction to non-linear scales. We compute the non-linear halo-bias by fitting the bias parameters in simulations. We also show the EFT renormalization in Lagrangian coordinates. Finally, we explain another critical EFT application to cosmology: in primordial physics. It can be used to parametrize deviations to the slow-roll theory within the inflationary paradigm.
- Published
- 2018
- Full Text
- View/download PDF
24. Primordial non-Gaussianities: Theory and Prospects for Observations
- Author
-
Caroline Macedo Guandalin, Luis Raul Weber Abramo, Thiago dos Santos Pereira, and Rogério Rosenfeld
- Subjects
Inflation (cosmology) ,Physics ,Theoretical physics ,Cosmological perturbation theory ,Spectral density ,Bispectrum - Abstract
Early Universe physics leaves distinct imprints on the Cosmic Microwave Background (CMB) and Large-Scale Structure (LSS). The current cosmological paradigm to explain the origin of the structures we see in the Universe today (CMB and LSS), named Inflation, says that the Universe went through a period of accelerated expansion. Density fluctuations that eventually have grown into the temperature fluctuations of the CMB and the galaxies and other structures we see in the LSS come from the quantization of the scalar field (inflaton) which provokes the accelerated expansion. The most simple inflationary model, which contains only one slowly-rolling scalar field with canonical kinetic term in the action, produces a power-spectrum (Fourier transform of the two-point correlation function) approximately scale invariant and an almost null bispectrum (Fourier transform of the three-point correlation function). This characteristic is called Gaussianity, once random fields that follow a normal distribution have all the odd moments null. Yet, more complex inflationary models (with more scalar fields and/or non-trivial kinetic terms in the action, etc) and possible alternatives to inflation have a non-vanishing bispectrum which can be parametrized by a non-linearity parameter f_NL, whose value differs from model to model. In this work we studied the basic ingredients to understand such statements and focused on the observational evidences of this parameters and how the current and upcoming galaxy surveys are able to impose constraints to the value of f_NL with a better accuracy, through the multi-tracer technique, than those obtained by means of CMB measurements. A física do Universo primordial deixa sinais distintos na Radiação Cósmica de Fundo (CMB) e Estrutura em Larga Escala (LSS). O paradigma atual da cosmologia explica a origem das estruturas que vemos hoje (CMB e LSS) através da inflação, teoria que diz que o Universo passou por um período de expansão acelerada. As flutuações de densidade que eventualmente crescem, dando origem às flutuações de temperatura da CMB, às galáxias e outras estruturas que vemos na LSS, provém da quantização do campo escalar (inflaton) que provoca a tal expansão acelerada. O modelo inflacionário mais simples, o qual contém um único campo escalar nas condições de rolamento lento e termo cinético canônico da ação, possui o espectro de potências (transformada de Fourier da função de correlação de dois pontos) aproximadamente invariante de escala e o bispectro (transformada de Fourier da função de correlação de três pontos) aproximadamente nulo. Tal característica é conhecida por Gaussianidade, uma vez que campos aleatórios cuja distribuição é uma normal tem todas as funções de correlação de ordem ímpar nulas. Contudo, modelos inflacionários mais complexos (mais campos escalares, termos cinéticos não-triviais na ação, etc) e alternativas possíveis à inflação possuem um bispectro não nulo, o qual pode ser parametrizado através do parâmetro de não-linearidade f_NL, cujo valor difere de modelo para modelo. Neste trabalho estudamos os ingredientes básicos para entender tais afirmações e focamos nas evidências observacionais desse parâmetro e como os levantamentos de galáxias atuais e futuros podem impor restrições ao valor de f_NL com uma precisão maior, através da técnica de múltiplos traçadores, do que aquelas obtidas com medidas da CMB.
- Published
- 2018
- Full Text
- View/download PDF
25. Anisotropias no fluxo de Raios Cósmicos de Ultra Altas Energias
- Author
-
Johnnier Pérez Armand, Edivaldo Moura Santos, Rogério Rosenfeld, and Rodrigo Nemmen da Silva
- Abstract
O objetivo desta dissertação é a busca de anisotropias em grandes escalas angulares no fluxo de raios cósmicos acima de 4 × 10^{18} eV e o confronto dos resultados obtidos com as previsões dos principais modelos astrofísicos na região de ultra altas energias. Com esse propósito foram analisados os dados de chuveiros atmosféricos extensos registrados pelo Observatório Pierre Auger no período de 01 de janeiro de 2004 até 31 de agosto de 2016, compreendendo um total de 108 480 eventos detetados com ângulos zenitais entre 0 e 80 graus acima de 4 × 10^{18} eV. Efeitos sistemáticos locais como a influência da variação das condições atmosféricas e a influência do campo geomagnético nos estimadores de energia das cascatas atmosféricas foram corrigidos cuidadosamente para evitar a introdução de sinais espúrios de anisotropias na análise. Especial ênfase foi dedicada à construção de um mapa bidimensional na esfera celeste com os valores da exposição para cada direção no céu, calculado com uma precisão de 1% a partir da informação da área de coleção efetiva no Observatório Pierre Auger a cada minuto. Da mesma forma, a distribuição das direções de chegada dos eventos foi registrada em mapas bidimensionais na esfera celeste que, após corrigidos pela exposição, são transformados nos mapas de fluxo usados na análise quantitativa para a busca de anisotropias. Neste trabalho procurou-se padrões dipolares de anisotropias, os quais foram quantificados usando o método de expansão multipolar em harmônicos esféricos. Diferentemente do método bidimensional de Rayleigh usado na maioria dos estudos deste tipo, o método aqui utilizado fornece de maneira direta as três componentes cartesianas do dipolo, por meio das quais a reconstrução da amplitude e orientação espacial do dipolo é feita de maneira mais natural. A busca de anisotropias foi realizada em dois intervalos de energia independentes, assim foram analisados por separado os eventos com energias entre 4 × 10^{18} e 8 × 10^{18} eV e de energias maiores que 8 × 10^{18} eV. No primeiro intervalo não foi encontrado nenhum sinal de anisotropia estatisticamente significativo. No segundo intervalo foi encontrada uma anisotropia dipolar de amplitude d = (7.9 ± 1.1)% com coordenadas equatoriais (_d , _d ) = (103 ± 10 , 38 ± 7 ) graus e uma probabilidade de ocorrência ao acaso de 6.90 × 10^{8} , correspondendo a uma significância estatística acima do limiar de descoberta de 5 . Tal amplitude e direção são melhor explicadas assumindo-se uma origem extragaláctica para os raios cósmicos com energias acima de 8 × 10^{18} eV. The aim of this dissertation is the search for large scale anisotropies in the cosmic ray flux above 4 × 10^{18} eV and the comparison of the results with the predictions of the main astrophysical models in the ultra high energy region. With this purpose we analyzed the data of extensive air showers detected by the Pierre Auger Observatory in the period of 1st January 2004 to 31st August 2016 comprising a total of 108 480 events with zenith angles between 0 and 80 degrees above the threshold of 4 × 10^{18} eV. Local systematic effects such as the influence of the variation of the atmospheric conditions and the effect of the geomagnetic field in the energy estimators were properly corrected to avoid the introduction of spurious anisotropy signals in the analysis. Special emphasis was placed on the construction of a two-dimensional map on the celestial sphere with the exposure values for each direction on the sky, calculated with an accuracy of 1% from the information of the effective collection area of the observatory at every minute. Likewise, the arrival directions distribution of the events was recorded in two-dimensional maps on the celestial sphere that after correcting by the exposure were transformed into the flux maps to be used in the quantitative analysis for the anisotropies search. In this work we search for dipolar-like anisotropy patterns, which were quantified by performing a spherical harmonics decomposition of the cosmic ray flux map. Unlike the traditional two-dimensional Rayleigh method used in the majority of the studies of this kind, the method used here directly provides the three cartesian components of the dipole, allowing the reconstruction of its amplitude and orientation in a more natural way. The anisotropy search was made in two independent energy bins, so the distributions of the events with energies between 4 × 10^{18} and 8 × 10^{18} eV and those with energies greater than 8 × 10^{18} eV were analyzed separately. In the first energy bin no statistically significant departure from isotropy was found. In the second energy bin a dipole anisotropy of amplitude d = (7.9 ± 1.1)% with equatorial coordinates (_d , _d ) = (103 ± 10 , 38 ± 7 ) degrees and a chance probability of 6.90 × 10^{8} was found, corresponding to a statistical significance above the discovery threshold of 5 . Such amplitude and direction for the reconstructed dipole is better explained if an extragalactic origin is assumed for the bulk of cosmic rays above 8 × 10^{18} eV.
- Published
- 2018
- Full Text
- View/download PDF
26. Cosmologia do setor escuro
- Author
-
Ricardo G. Landim, Elcio Abdalla, Enrico Bertuzzo, Julio Cesar Fabris, Rogério Rosenfeld, and Diego Trancanelli
- Abstract
O lado escuro do universo é misterioso e sua natureza é ainda desconhecida. De fato, isto talvez constitua o maior desafio da cosmologia moderna. As duas com- ponentes do setor escuro (mat´ eria escura e energia escura) correspondem hoje a cerca de noventa e cinco por cento do universo. O candidato mais simples para a energia energia é uma constante cosmológica. Contudo, esta tentativa apresenta uma enorme discrepância de 120 ordens de magnitude entre a predição teórica e os dados observados. Tal disparidade motiva os físicos a investigar modelos mais sofisticados. Isto pode ser feito tanto buscando um entendimento mais profundo de onde a constante cosmológica vem, se deseja-se derivá-la de primeiros princípios, quanto considerando outras possibilidades para a expansão acelerada, tais como modificações da relatividade geral, campos de matéria adi- cionais e assim por diante. Ainda considerando uma energia escura dinâmica, pode existir a possibilidade de interação entre energia e matéria escuras, uma vez que suas densidades são comparáveis e, dependendo do acoplamento usado, a interação pode também aliviar a questão de porquê as densidades de matéria e energia escura são da mesma ordem hoje. Modelos fenomenológicos tem sido amplamente estudados na literatura. Por outro lado, modelos de teoria de cam- pos que visam uma descrição consistente da interação energia escura/matéria escura ainda são poucos. Nesta tese, nós exploramos como candidato à energia escura um campo escalar ou vetorial em várias abordagens diferentes, levando em conta uma possível interação entre as duas componentes do setor escuro. A tese é dividida em três partes, que podem ser lidas independentemente. Na primeira parte, nós analisamos o comportamento asintótico de alguns modelos cosmológicos usando campos escalares ou vetorial como candidatos para a energia escura, à luz da teoria de sistemas dinâmicos. Na segunda parte, nós usamos um campo escalar em supergravidade para construir um modelo de energia escura dinâmico e também para incorporar um modelo de energia escura holográfica em supergravidade mínima. Finalmente, na terceira parte, nós propomos um modelo de energia escura metaestável, no qual a energia escura é um campo escalar com um potencial dado pela soma de auto-interações pares até ordem seis. Nós inserimos a energia escura metaestável em um modelo SU(2)R escuro, onde o dubleto de energia escura e o dubleto de matéria escura interagem nat- uramente. Tal interação abre uma nova janela para investigar o setor escuro do ponto-de-vista de física de partículas. Esta tese é baseada nos seguintes artigos, disponíveis também no arXiv: 1611.00428, 1605.03550, 1509.04980, 1508.07248, 1507.00902 e 1505.03243. O autor também colaborou nos trabalhos: 1607.03506 e 1605.05264. The dark side of the universe is mysterious and its nature is still unknown. In fact, this poses perhaps as the biggest challenge in the modern cosmology. The two components of the dark sector (dark matter and dark energy) correspond today to around ninety five percent of the universe. The simplest dark energy candidate is a cosmological constant. However, this attempt presents a huge discrepancy of 120 orders of magnitude between the theoretical prediction and the observed data. Such a huge disparity motivates physicists to look into a more sophisticated models. This can be done either looking for a deeper understanding of where the cosmological constant comes from, if one wants to derive it from first principles, or considering other possibilities for accelerated expansion, such as modifications of general relativity, additional matter fields and so on. Still regarding a dynamical dark energy, there may exist a possibility of interaction between dark energy and dark matter, since their densities are comparable and, depending on the coupling used, the interaction can also alleviate the issue of why dark energy and matter densities are of the same order today. Phenomenological models have been widely explored in the literature. On the other hand, field theory models that aim a consistent description of the dark energy/dark matter interaction are still few. In this thesis, we explore either a scalar or a vector field as a dark energy candidate in several different approaches, taking into account a possible interaction between the two components of the dark sector. The thesis is divided in three parts, which can be read independently of each other. In the first part, we analyze the asymptotic behavior of some cosmological models using either scalar or vector fields as dark energy candidates, in the light of the dynamical system theory. In the second part, we use a scalar field in the supergravity framework to build a model of dynamical dark energy and also to embed a holographic dark energy model into minimal supergravity. Finally, in the third part, we propose a model of metastable dark energy, in which the dark energy is a scalar field with a potential given by the sum of even self-interactions up to order six. We insert the metastable dark energy into a dark SU(2)R model, where the dark energy doublet and the dark matter doublet naturally interact with each other. Such an interaction opens a new window to investigate the dark sector from the point-of-view of particle physics. This thesis is based on the following papers, available also in the arXiv: 1611.00428, 1605.03550, 1509.04980, 1508.07248, 1507.00902 and 1505.03243. The author also collaborated in the works 1607.03506 and 1605.05264.
- Published
- 2018
- Full Text
- View/download PDF
27. Testando modelos de matéria escura auto-interagente com telescópios de neutrinos
- Author
-
Denis Stefan Robertson Sotelo, Ivone Freire da Mota e Albuquerque, Enrico Bertuzzo, Rogério Rosenfeld, Rodrigo Nemmen da Silva, and Laerte Sodre Junior
- Subjects
Physics ,Particle physics ,Self-interacting dark matter ,Dark matter ,Neutrino - Abstract
In this thesis we studied dark matter models with strong self-interactions, typically known as self-interacting dark matter (SIDM). This kind of models constitute a promising solution to the tension between small scale structure observations and predictions assuming the standard case of collisionless cold dark matter (CDM) while keeping the success of the standard cosmological model, LambdaCDM, at large scales. The presence of strong self-interactions can increase the dark matter capture and annihilation in astrophysical objects like our sun, enhancing the potential of indirect detection signals. We used the high energy neutrinos produced by such annihilations to probe SIDM models. We established strong constraints on SIDM with velocity independent cross section by comparing the expected neutrino signal with the results of the IceCube-79 dark matter search. Also, we determined the sensitivity for the IceCube-DeepCore and PINGU detectors for SIDM with a velocity dependent self-interacting cross section (vdSIDM). Most of its relevant parameter space can be tested with the three years of data already collected by IceCube-DeepCore, complementing results from direct detection experiments and other indirect detection studies. Nesta tese investigamos modelos de matéria escura com auto-interações fortes, conhecidos tipicamente como matéria escura auto-interagente (SIDM). Este tipo de modelos constituem uma solução promissora à tensão entre as observações de estrutura a pequena escala e as previsões assumindo o caso padrão de matéria escura fria não colisional (CDM), enquanto se mantêm o sucesso do modelo cosmológico padrão, LambdaCDM, a grandes escalas. A presença de auto-interações fortes podem aumentar a captura e a aniquilação da matéria escura em objetos astrofísicos como o nosso sol, aumentando o potencial de sinais de detecção indireta. Usamos o sinal de neutrinos de alta energia produzidos por essas aniquilações para explorar modelos de SIDM. Estabelecemos fortes vínculos em modelos de SIDM com seção de auto-interação independente da velocidade comparando o sinal de neutrinos esperado com os resultados de busca de matéria escura do IceCube-79. Também, determinamos a sensibilidade dos detectores IceCube-DeepCore e PINGU para modelos de SIDM com uma seção de auto-interação dependente da velocidade (vdSIDM). A maior parte do espaço de parâmetros de interesse pode ser testado com os três anos de dados já coletados pelo IceCube-DeepCore, complementando os resultados de experimentos de detecção direta e outras an análises de detecção indireta.
- Published
- 2017
28. Teorias com grande hierarquia de escalas
- Author
-
Nayara Fonseca de Sá, Gustavo Alberto Burdman, Eduardo Pontón Bayona, Oscar Jose Pinto Eboli, Gero Arthur Hubertus Thilo Freiherr von Gersdorff, and Rogério Rosenfeld
- Abstract
Nesta tese exploramos uma classe de modelos de N-sítios que foram desenvolvidos para produzir grandes hierarquias de escalas. Usando a abordagem de desconstrução dimensional e correspondências apropriadas, esses modelos puramente quadridimensionais coincidem com modelos AdS5 no limite do contínuo, que corresponde ao limite com um grande núumero de grupos de gauge. Por outro lado, no limite em que há poucos grupos de gauge, tais teorias possuem os acoplamentos entre estados excitados e modos zero dos campos muito distintos dos acoplamentos em construções AdS5, resultando em uma rica fenomenologia a ser explorada no Large Hadron Collider (LHC). O problema da hierarquia do Modelo Padrão (MP) é resolvido se o campo de Higgs estão localizado no infravermelho, assim como nas teorias Randall-Sundrum. A hierarquia de massa dos férmions do MP e misturas são obtidas pelas diferentes localizações dos modos zero dos férmions no espaço dos sítios. Essa estrutura é empregada para abordar o problema da hierarquia sob uma nova perspectiva. Nós mostramos que uma descrição efetiva com poucos sítios de uma dimensão extra curva pode implementar os recentemente introduzidos modelos de relaxion, que são uma nova alternativa para explicar a estabilidade radiativa do setor escalar do MP através do mecanismo de relaxação cosmológico. Esses modelos requerem que o campo experimente grandes variações, que s~ao difíceis de serem geradas em um modelo ultravioleta consistente e de serem compatíveis com o espaço compacto do relaxion. Nós propomos um modelo de N-sítios que gera naturalmente essa grande constante de decaimento necessária para abordar esses problemas. No nosso modelo, a matriz de massa dos pseudo Bósons de Nambu-Goldstone (pBNGs), cujo modo zero faz o papel do relaxion, é idêntica à matriz obtida para uma linha de Wilson pBNG na desconstrução de AdS5. this thesis we explore a class of N-site models that were developed to generate large-scale hierarchies. Using the dimensional deconstruction approach and appropriate matchings, these purely four-dimensional theories coincide with AdS5 models in the continuum limit, which corresponds to the limit with a large number of gauge groups. On the other hand, in the coarse lattice limit such theories have very distinct couplings of the excited states to zero mode fields compared with AdS5 constructions, resulting in a rich phenomenology to be explored at the Large Hadron Collider (LHC). The Standard Model (SM) hierarchy problem is solved if the Higgs field is infrared-localized as in Randall-Sundrum scenarios. The SM fermion mass hierarchy and mixings are obtained by different localizations of zero mode fermions in the theory space. This framework is employed to tackle the electroweak hierarchy problem from a new perspective. We show that an effective few site description of a warped extra dimension can implement the recently introduced relaxion models, which are a new alternative to explain the radiative stability of the SM scalar sector through the cosmological relaxation mechanism. These models require very large field excursions, which are difficult to generate in a consistent ultraviolet completion and to reconcile with the compact field space of the relaxion. We propose an N-site model that naturally generates the large decay constant needed to address these problems. In our model, the mass matrix of the pseudo-Nambu-Goldstone Bosons (pNGBs), whose zero mode plays the role of the relaxion field, is identical to the one obtained for a pNGBWilson line in the deconstruction of AdS5.
- Published
- 2017
- Full Text
- View/download PDF
29. Equivalências entre Teorias Quânticas de Campos em Duas e Três Dimensões
- Author
-
Paulo José Torres Homem Valente, Marcelo Otavio Caminha Gomes, Rogério Rosenfeld, and Paulo Teotonio Sobrinho
- Abstract
É efetuado o estudo de alguns modelos em TQC em 2 e 3 dimensões espaço-temporais. Em 2D são analisados os modelos de Thirring, Thirring SU (2) e Schiwinger, dando enfoque especial à dedução das equações de movimento através de suas soluções bosonizadas. É mostrado que a existência de um termo de massa explícito nas equações de movimento renormalizadas, em geral depende do valor da constante de acoplamento. Em 3 D, é utilizado o procedimento de Integração Funcional para obter equivalências entre modelos da TQC. Para a Lagrangiana de dois campos vetoriais - um Auto-dual e um de Maxwell-Simons - acoplados com férmions, é mostrado que o cálculo do determinante fermiônico, em regime de acoplamento fraco, leva a uma teoria não local de campos bosônicos. Por fim, é feita uma comparação entre os resultados obtidos em 2 e 3 dimensões The study of some TQC models in 2 and 3 space-time dimensions is done. In 2D the models of Thirring, Thirring SU (2) and Schiwinger are analyzed, giving special focus to the deduction of the equations of movement through their bosonized solutions. It is shown that the existence of an explicit mass term in the renormalized equations of motion generally depends on the value of the coupling constant. In 3 D, the Functional Integration procedure is used to obtain equivalences between TQC models. For the Lagrangian of two vector fields - an Auto-dual and one of Maxwell-Simons - coupled with fermions, it is shown that the calculation of the fermionic determinant in a weak coupling regime leads to a non-local theory of bosonic fields. Finally, a comparison between the results obtained in 2 and 3 dimensions
- Published
- 2017
- Full Text
- View/download PDF
30. Novos modelos na escala TeV para a hierarquia de Gauge e das massas dos férmions
- Author
-
Leonardo de Lima, Gustavo Alberto Burdman, Alex Gomes Dias, Oscar Jose Pinto Eboli, Rogério Rosenfeld, and Diego Trancanelli
- Subjects
Physics - Abstract
O Modelo Padrão (MP) da física de partículas fornece uma descrição extremamente bem sucedida de todos os dados experimentais atuais. No entanto, temos razões para esperar que ele não seja válido até escalas de energia arbitrariamente altas. No MP a massa do bóson de Higgs é quadraticamente sensível a correções radiativas, sofrendo de grandes problemas de ajuste fino. Isso gera o chamado problema da hierarquia de gauge, cuja solução natural requer nova física na escala TeV. O MP também não fornece nenhuma explicação para a grande hierarquia de massas e ângulos de mistura dos férmions. Os problemas de hierarquia podem ser resolvidos naturalmente em teorias com uma dimensão extra curva. No entanto, a sua versão mais simples viola sabor a nível árvore, em conflito com os dados. Nesta tese investigaremos modelos quadridimensionais que descrevem a física na escala TeV obtidos da discretização de teorias em cinco dimensões no espaço AdS5, segundo o procedimento de desconstrução dimensional. As hierarquias de gauge e das massas dos férmions são geradas naturalmente como no modelo extra-dimensional, satisfazendo ainda os vínculos de sabor e de precisão eletrofraca. Estudaremos também um modelo desconstruído em que o Higgs é um pseudo bóson de Nambu-Goldstone, a fim de obter um Higgs naturalmente leve e dinamicamente localizado The Standard Model (SM) of particle physics provides an extremely successful description of all current experimental data. However, we have reasons to expect that it cannot be valid up to arbitrarily high energy scales. In the SM the Higgs boson mass is quadratically sensitive to radiative corrections and, hence, suffers from a severe fine-tunning problem. This creates the so-called gauge hierarchy problem, the natural solution of which requires new physics at the TeV scale. The SM also doesnt provide any explanation for the large hierarchy of fermion masses and mixing angles. The hierarchy problems can be naturally solved in theories with a warped extra dimension. However, their simplest version violates flavor at tree level, conflicting with experimental data. In this thesis we investigate four dimensional models that describe physics at the TeV scale obtained from a coarse discretization of five dimensional theories in AdS5 space, by the dimensional deconstruction procedure. The gauge as well as the fermion mass hierarchies are naturally generated in the same manner as in the extra-dimensional model, while also satisfying bonds from flavor physics and precision electroweak data. We also study a deconstructed model in which the Higgs is a pseudo Nambu-Goldstone boson, with the motivation of obtaining a naturally light and localized Higgs.
- Published
- 2015
- Full Text
- View/download PDF
31. Desenvolvimento de formalismo para evolução de neutrinos no universo primordial
- Author
-
Pedro Accioly Nogueira Machado, Renata Zukanovich Funchal, Pedro Cunha de Holanda, and Rogério Rosenfeld
- Abstract
Neste trabalho, estudamos alguns aspectos da física de neutrinos, usando os formalismos de vetores de estado e de matriz densidade, com o objetivo de entender a evolução dos neutrinos no universo primordial. No primeiro formalismo, analisamos o fenômeno de oscilação de neutrinos no vácuo, o potencial induzido pela matéria e sua expressão como um índice de refração, e a influência de efeitos de temperatura finita em tal índice. Iniciamos o segundo formalismo com o estudo de sistemas oscilantes de dois níveis sujeitos à colisões com o meio. Deduzimos uma equação de evolução da matriz densidade que descreve um sistema de neutrinos no universo primordial. Para tanto, usamos uma abordagem simplificada e outra baseada em primeiros princípios. In this work, we studied some aspects of neutrino physics, using the state vector and density matrix formalisms, with the goal of understanding the neutrino evolution in the primordial universe. In the rst approach, we analysed the phenomenum of neutrino oscillation in vacuum, the induced matter potential and its expression as a refraction index, and the influence of finite temperature efects in such index. We began the second formalism with the study of oscillating two levels systems subject to collisions with media. We derived an evolution equation for the density matrix that describes a neutrino system in the primordial universe. To that end, we used one simplified approach and another based on first principles.
- Published
- 2015
- Full Text
- View/download PDF
32. Análogos cosmológicos dos efeitos Schwinger estático e oscilatório
- Author
-
Elisa Gouvêa Mauricio Ferreira, Luis Raul Weber Abramo, Maria Carolina Nemes, and Rogério Rosenfeld
- Abstract
Neste trabalho estudamos os efeitos quânticos de criação de partículas nos contextos cosmológico e da eletrodinâmica clássica. Com o estudo da criação de partículas em campos elétricos externos constantes e oscilatórios, os conhecidos efeitos Schwinger estático e oscilatório, respectivamente, foi possível estudar a polarização do vácuo quântico e a conseqüente criação de partículas do vácuo. Esse é um efeito não-perturbativo no contexto da eletrodinâmica e sua observação seria de grande importância para validar essa teoria nesse regime. Esse efeito, no entanto, ainda não foi detectado experimentalmente, uma vez que são necessários campos elétricos muito fortes no caso estático. Contudo, no caso oscilatório existe um experimento em andamento para a detecção de um efeito quântico análogo, o chamado efeito Casimir dinâmico. A verificação do efeito Casimir dinâmico é importante para a validação do efeito Schwinger oscilatório, dado que o movimento das condições de contorno é equivalente à aplicação de um campo externo. Finalmente, foi estudada a criação de partículas em um contexto cosmológico, sendo o caso estático a criação de partículas na era inflacionária do universo. O caso dinâmico corresponde ao período de reaquecimento ou, mais precisamente, em seu período inicial conhecido como pré-aquecimento, em que a criação de partículas é mais eficiente. A criação de partículas na era inflacionária ocorre devido à expansão acelerada do universo. Por meio de uma transformação canônica simples foi possível observar que o mecanismo de criação de partículas nesse período é o mesmo da criação de partículas do efeito Schwinger estático. Da mesma forma, para o pré-aquecimento, em que a criação de partículas é dada pela oscilação do inflaton em torno de seu mínimo do potencial, o mecanismo de criação resume-se a um mecanismo de ressonância paramétrica descrito por uma equação de Mathieu. Esse é exatamente o mesmo mecanismo que descreve a criação de partículas no caso do efeito Schwinger oscilatório. Dessa forma, os mecanismos de criação de partículas nos casos do efeitos Schwinger estático e oscilatório são análogos aos mecanismo de criação inflacionário e do pré- aquecimento. A detecção experimental desse efeito em um experimento terrestre seria uma grande confirmação para esses mecanismos cosmológicos. In this work we study the quantum effects of particle creation in the cosmological context and of the classical electrodynamics. With the studies of the particle creation in constant and oscillatory external electrical fields, the known static and oscillatory Schwinger effects, respectively, it was possible to study the polarization of the quantum vacuum and the consequently creation of particles from the vacuum. This is a non perturbative effect in the context of the electrodynamics and its observation would be of great importance to validate this theory in this regime. This effect, however, was not yet experimentally detected, since very strong electric fields are necessary in the static case. However, in the oscillatory case there is an experiment currently in development for the detection of an analog quantum effect called dynamical Casimir effect. The verification of the dynamical Casimir effect is important for the validation of the oscillatory Schwinger effect, since the movement of the boundary conditions is equivalent to the application of a external field. Finally, it was studied the creation of particles in a cosmological context, being the static case the creation of particles in the inflationary epoch of the universe. The dynamical case corresponds to the reheating period or, more precisely, its initial stage known as preheating, in which the creation of particles is more efficient. The creation of particles in the inflationary epoch occurs due to the accelerated expansion of the universe. By means of a simple canonical transformation it was possible to observe that the mechanism of particle creation in this period is the same of the one in Schwinger effect. In the same way, for the preheating, in which the particle creation is given by the oscillation of the inflaton field around the minimum of its potential, the mechanism of creation happens due to the parametric resonance described by a Mathieu equation. This is exactly the same mechanism that describes the oscillatory Schwinger effect. In this way, the mechanisms of particle creation in the cases of the static and oscillatory Schwinger effects are analogs to the creation mechanisms from inflation and from preheating. The experimental detection of this effect in a terrestrial experiment would be a confirmation for this cosmological mechanisms.
- Published
- 2015
- Full Text
- View/download PDF
33. Buracos negros em universos brana com constante cosmológica
- Author
-
Juliano César Silva Neves, Carlos Molina Mendes, George Emanuel Avraam Matsas, and Rogério Rosenfeld
- Abstract
Obtivemos famílias de soluções estáticas e esfericamente simétricas para buracos negros numa brana com vácuo, constante cosmológica não nula e imersa num bulk 5-dimensional assintoticamente anti-de Sitter. Para o caso das geometrias assintoticamente de Sitter, o único membro da família obtida foi a geometria Schwarzschild-de Sitter extrema. Para o caso de geometrias assintoticamente anti-de Sitter, obtivemos toda uma família de soluções, onde cada elemento desta família é determinado por uma constante C. Estudamos o comportamento destas soluções próximo e longe do horizonte de eventos. A seguir, analisamos a evolução de um campo escalar não massivo no exterior dos buracos negros obtidos. Verificamos analiticamente e numericamente o comportamento do potencial efetivo em função da coordenada tartaruga próximo ao horizonte de eventos. Para qualquer geometria ou solução desta família observamos que o campo escalar não massivo decai com o tempo, e o tipo de decaimento depende do valor da constante C. Assim, toda a família de soluções obtida mostrou-se estável. We found classes of static and spherically symmetric black hole solutions on the brane for a vacuum configuration, non-null cosmological constant, embedded into a 5-dimensional asymptotically anti-de Sitter bulk. In the asymptotically de Sitter case, the only solution obtained was the extreme Schwarzschild-de Sitter geometry. In the asymptotically anti-de Sitter case, a class of solutions was obtained where a particular geometry is fixed by a constant, C. We studied the behaviour of these solutions near and far from the horizon. Next, we studied the time evolution of a scalar field outside the black hole. For the effective potential as function of tortoise coordinate, the analytical results near the horizon agree with numerical calculations. The scalar field decays with time and the particular form of decay depends of the value for C. Thus, all solutions in the obtained class are stable.
- Published
- 2015
- Full Text
- View/download PDF
34. 'Física além do modelo padrão em teorias com dimensões extras'
- Author
-
Priscila de Aquino, Gustavo Alberto Burdman, Adriano Antonio Natale, and Rogério Rosenfeld
- Abstract
O objetivo desta dissertação é estudar teorias que utilizam dimensões extras para explicar os problemas que surgem no Modelo Padrão quando a energia atinge valores muito altos chegando à ordem TeV. Trabalhamos especificamente com modelos com mais de 4 dimensões, onde as dimensões extras são espaciais e compactificadas com o procedimento S1/Z2. Sabemos que o Modelo Padrão é consistente com todos os dados experimentais que medimos até hoje, mas existem muitas razões para esperarmos nova física na escala TeV. Iniciamos o trabalho apresentando os aspectos mais importantes do Modelo Padrão. Seguimos especificando alguns problemas que surgem no Modelo Padrão no limite para altas energias que resultaram na motivação para a criação de Teorias Além do Modelo Padrão. Explicitamos alguns de seus problemas, mas entramos em detalhes no estudo de dois principais: o Problema da Hierarquia e o Problema de Massa dos Férmions. Em seguida, definimos os três tipos de teorias que utilizam dimensões extras para solucionar o Problema da Hierarquia e as apresentamos na ordem em que foram idealizadas. As duas primeiras, denominadas \"Large Extra Dimensions\" (LED) e \"Universal Extra Dimensions\" (UED) utilizam uma métrica plana do espaço-tempo total e são diferentes na definição da propagação dos campos em determinadas dimensões. A \"Warped Extra Dimensions\" (WED) utiliza uma uma métrica curva do espaço-tempo 5-dimensional e soluciona o Problema da Hierarquia de maneira diferenciada. Para finalizar definimos especificamente uma teoria WED e calculamos sua correspondência em uma teoria 4-dimensional. Através desta teoria efetiva, estudamos sua fenomenologia no Large Hadron Collider (LHC) e mostramos como ela se relaciona com a origem dos sabores fermiônicos. Como consequência, mostramos que o Problema de Massa dos Férmions é naturalmente solucionado, e propomos um sinal experimental para testar este aspecto da teoria no LHC. The goal of this dissertation is to study theories that use extra dimensions to solve the problems that appear in the Standard Model at energies of the order 1 TeV. Specifically, we worked with models with more than 4 dimensions, where the spatial dimensions are compactified in an S1/Z2 orbifold. The Standard Model agrees to a great degree with the experimental data we have today but there are several reasons to expect new physics at the TeV scale. We start presenting the most important aspects of the Standard Model. We then specify some of the problems that appear at high energies (higher than the weak scale) and that are the motivation to consider theories beyond the Standard Model. We focus on two such problems: the hierarchy problem and the origin of the fermion masses. We present three types of theories using extra dimensions to address the hierarchy problem. The first two, Large Extra Dimensions (LED) and Universal Extra Dimensions (UED) use a flat metric and only differ on the fields that are allowed to propagate in the extra dimensions. Warped Extra Dimensions (WED) use a curved metric to solve the hierarchy problem in a unique way. Within a WED setup, we study the resulting four-dimensional effective theory. This theories naturally explain the hierarchy of fermion masses. Within this effective theory, we study the phenomenology at the LHC as it relates to the origin of flavor. In particular, we propose a signal that can test this important aspect of the theory.
- Published
- 2015
- Full Text
- View/download PDF
35. Ressonâncias escalares: relações dinâmicas entre processos de espalhamento e decaimento
- Author
-
Diogo Rodrigues Boito, Manoel Roberto Robilotta, Carla Göbel Burlamaqui de Melo, and Rogério Rosenfeld
- Subjects
Physics ,Meson ,Unitarity ,Scattering ,Quantum mechanics ,Phenomenological model ,Sigma ,Resonance ,Quantum field theory ,Loop integral - Abstract
A existência de um méson escalar-isoescalar leve, conhecido como ?, foi proposta pela primeira vez na década de 60. A partícula tinha então um papel importante na construção teórica das interações ?? mas, apesar dos esforços experimentais, ela não foi detectada nos anos que se seguiram. Essa situação foi radicalmente alterada em 2001, quando uma ressonância escalar foi descoberta nos canais ?+?- do decaimento D+ -> ?+?-?+ e recebeu o rótulo ?(500). Sua existência é bem estabelecida hoje em dia. Contudo, no tratamento dos dados dos vários grupos experimentais são empregadas expressões com pouca base teórica e, por isso, os valores de sua massa e largura ainda são mal conhecidos. Neste tipo de decaimento, a formação da ressonância pode se dar no vértice fraco. Em sua subseqüente propagação, ocorrem as chamadas interações de estado final, cuja descrição não é trivial. Normalmente, essas interações não são levadas em conta de maneira criteriosa na análise de dados experimentais. Neste trabalho introduzimos uma função _(s) que descreve a propagação e decaimento da ressonância em presença das interações de estado final. No regime elástico, a fase de _(s) é determinada pelo chamado teorema de Watson, segundo o qual ela deve ser a mesma do espalhamento. Conseguimos estabelecer, sem ambigüidades, como a informação do espalhamento deve ser usada de forma a determinar não somente a fase de _(s), mas também seu módulo. Nosso principal resultado é uma expressão para _(s) em termos da fase elástica e de uma outra fase relacionada a uma integral de loop bem controlada. Três casos particulares foram explorados numericamente: os modelos sigma linear e não linear e ainda um modelo fenomenológico que leva em conta o acoplamento de canais p´?on-p´?on e k´aon-k´aon. Em consonância com a teoria quântica de campos, nosso resultado incorpora a unitariedade, considera a ressonância como grau de liberdade explícito e representa, ainda, uma generalização do procedimento usual de unitarizacao pela matriz K. Por permitir uma ligação clara entre espalhamento e produção, a função _(s) pode ser útil na análise de dados experimentais e ajudar na determinação da posição do pólo do ? e de outras ressonâncias escalares. The existence of a light scalar-isoscalar meson, known as ?, was suggested in the 60\'s. This particle played an important role in the theoretical construction of ?? interactions but, in spite of all experimental effort, it failed to be detected. This scenario changed radically in 2001, when a scalar-isoscalar resonance was discovered in the ?+?- channel of the D+ -> ?+?-?+ decay and was called ?(500). Nowadays, its existence is rather well established. However, in the analysis of experimental data, expressions loosely based on theory are employed and therefore its mass and width are still not well known. In this kind of decay, the production of the resonance may occur at the weak vertex. When it propagates, final state interactions take place. Usually these interactions are not properly taken into account in data analysis. In this work, we introduce a function _(s), which describes the propagation and decay of the resonance in the presence of the final state interactions. In the elastic regime, the phase of _(s) is determined by the Watson\'s theorem, which states that it must be the same as the scattering phase. We were able to establish, unambiguously, how the information from scattering should be used to determine not only the phase of _(s) but also its modulus. Our main result is an expression for _(s) in terms of the elastic phase and another one related to a well controlled loop integral. Three special cases are explored numerically, namely: the linear and non linear sigma models and a phenomenological model that takes into account the coupling between pion-pion and kaon-kaon channels. In agreement with quantum field theory, our result encompasses unitarity, treats the resonance as an explicit degree of freedom and, moreover, corresponds to a generalisation of the usual K-matrix unitarization procedure. Since it represents a clear way to relate scattering and production, our function _(s) can be useful in data analysis and may be instrumental in the determination of the pole position of the ? as well as other scalar resonances.
- Published
- 2015
- Full Text
- View/download PDF
36. Determinação da razão de ramificação e dos fatores de forma do decaimento semi-leptônico 'K IND.L'-> ''pi' POT.0' ''pi' POT.+/-' e 'ANTPOT.-/+ 'nü''
- Author
-
Edivaldo Moura Santos, Renata Zukanovich Funchal, Ivone Freire da Mota e Albuquerque, Sergio Ferraz Novaes, Rogério Rosenfeld, and Ronald Cintra Shellard
- Abstract
Mediu-se a razão de ramificação do decaimento semi-leptônico \"K IND.L->\"pi\"POT.0\"\"pi\" POT, +/-\" e \"ANTPOT.-/+nu\" (\"BR IND.\"K POT.0\"IND.E4\" = [5.19 =/- \"0.09 IND.sist\"] X \"10 POT.-5\"), baseado numa amostra de 4000 eventos sobre um fundo residual a ser subtraído de 143 (3.6%) eventos. Os dados foram coletados pelo experimento KTeV no Fermilab. A contaminação residual é compatível com \"K IND.->\"\"pi\"POT.=/-\" e \" ANTPOT.=/-\"nu\"\"gama\" ou \"K IND.L->\"\"pi\"POT.=/-\" e \" ANTPOT.=/-\"nu\" ou \"K IND.L\" ->\"pi\" POT.=/-\" e \" ANTPOT.=/-\"nu\" na presença de um ou dois fótons acidentais, respectivamente. A contribuição dominante ao erro sistemático advém de uma discrepância observada entre dados/Monte Carlo com respeito à eficiência de detecção ao longo da direção do feixe de káons. O modo de normalização utilizado na medida da razão de ramificação foi \"K IND.L\" ->\"pi\"POT.=/-\" e \" ANTPOT.=/-\"nu\". Correções radiativas eletromagnéticas de ordem \"\"alfa\"IND.QED\" foram incluídas no Monte Carlo de simulação, tendo a fração radiativa sido conferida por meio de um cálculo analítico, incluindo bremsstrahlung interno e correções virtuais, das quais a correção de vértice fornece uma contribuição finita após o processo de renormalização. Por meio de um ajuste ao espectro e construído do decaimento, três dos fatores de forma que parametrizam o elemento de matriz hadrônica também foram medidos, cujos valores indicam uma violação da regra empírica \"delta\"I=1/2 de cerca de 2%. A dependência, em primeira ordem, de um dos fatores de forma com o momento transferido aos léptons \"q POT.2\" também foi obtida, possibilitando a resolução da ambiguidade quadrática entre \"\"gama\"IND.K\" IND.E.4\" a constante de acoplamento \"L IND.3\" em Teoria de Perturbação Quiral e permitindo uma medida direta dessa constante (\"L IND.3\"=[-4.0 =/- 0.3] X \"10 POT.-3\"). We have measured the branching fraction of the \"K IND.L->\"pi\"POT.0\"\"pi\" POT, +/-\" e \"ANTPOT.-/+nu\" decay (\"BR IND.\"K POT.0\"IND.E4\" = [5.19 =/- \"0.09 IND.sist\"] X \"10 POT.-5\"), based on a 4000 candidates sample over a residual background of 143 (3.6%) events. The data was collected by the KTeV experiment at Fermilab. The remaining contamination is consistent with \"K IND.->\"\"pi\"POT.=/-\" e \" ANTPOT.=/-\"nu\"\"gama\" ou \"K IND.L->\"\"pi\"POT.=/-\" e \" ANTPOT.=/-\"nu\" ou \"K IND.L\" ->\"pi\" POT.=/-\" e \" ANTPOT.=/-\"nu\" plus one or two accidental photons, respectively. The leading contribution to the systematic error comes from an observed discrepancy between data/Monte Carlo for the detection efficiency along the kaon beam direction. The \"K IND.L\" ->\"pi\"POT.=/-\" e \" ANTPOT.=/-\"nu\" decay was used as normalization mode for the purpose of branching fraction measurement. Radiative corrections of order \"\"alfa\"IND.QED\" were included into the Monte Carlo, the radiative fraction being crosschecked through an analytical calculation, which included internal bremsstrahlung and virtual corrections, of which the vertex correction gives a finite contribution after renormalization. Through a fit to the reconstructed decay spectrum, three form factors appearing in the parametrization of the hadronic matrix element were measured, whose values allow for a violation of the empirical \"delta\"I=1/2 rule of about 2%. We have also measured the first order dependence on the transfered momentum to the leptons of one of the form factors, solving the quadratic ambiguity between \"\"gama\"IND.K\" IND.E.4\" and the low energy coupling constant \"L IND.3\" from Chiral Perturbation Theory, allowing for a direct measurement of this constant (\"L IND.3\"=[-4.0 =/- 0.3] X \"10 POT.-3\").
- Published
- 2015
- Full Text
- View/download PDF
37. A equação de Dirac com uma superposição do campo de Aharonov-Bohm e um campo magnético uniforme colinear
- Author
-
Andrei Anatolyevich Smirnov, Dmitri Maximovitch Guitman, Ivan Chestakov, Bruto Max Pimentel Escobar, Marcelo Otavio Caminha Gomes, and Rogério Rosenfeld
- Abstract
Neste trabalho é estudada a equação de Dirac com uma superposição do campo de Aharonov-Bohm (AB) e de um campo magnético colinear uniforme, que nós chamamos de campo magneto-solenoidal (MS). Usando a teoria de von Neumann das extensões auto-adjuntas de operadores simétricos, nós construímos no caso de 2+ 1 dimensões uma família uni paramétrica de hamiltonianos de Dirac auto-adjuntos especificados pelas condições de contorno no solenóide AB, e encontramos o espectro e as auto-funções para cada valor do parâmetro de extensão. Em seguida, reduzimos o problema em 3+ 1 dimensões ao problema em 2+ 1 dimensões pela escolha apropriada do operador de spin, o que permite realizar todo o programa de construção de extensões auto-adjuntas, e assim, também permite obter os espectros e auto-funções em termos do problema em 2+1 dimensões. Ademais, nós apresentamos o método reduzido de extensões auto-adjuntas do hamiltoniano radial de Dirac com o campo MS. Depois nós consideramos o caso regularizado do solenóide de raio finito. Nós estudamos a estrutura das autofunções e a sua dependência com o comportamento do campo magnético dentro do solenóide. Considerando o limite de raio zero para o valor fixo do fl.mm magnético, nós obtemos um hamiltoniano auto-adjunto particular que corresponde à condição de contorno específica para o caso do campo magneto-solenoidal com o solenóide AB. Nós chamamos estes casos particulares das extensões auto-adjuntas extensões naturais. Para completeza da investigação nós estudamos também o comportamento de uma partícula sem spin no campo magneto-solenoidal regularizado. A etapa seguinte da investigação é a construção das funções de Green da equação de Dirac com o campo MS em 2 + 1 e 3 + 1 dimensões. As funções de Green são construídas por meio de um somatório sobre o conjunto completo das soluções da equação de Dirac. Ao construir as funções de Green, nós usamos as soluções exatas da equação de Dirac, que são relacionadas a valores específicos do parâmetro de extensão. Estes valores correspondem às extensões naturais. Depois nós estendemos os resultados ao caso em 3 + 1 dimensões. Nós apresentamos também as funções de Green não relativísticas e as funções de Green de uma partícula relativística escalar. ln the present work the Dirac equation with the supereposition of the Aharonov-Bohm (AB) field and a collinear uniform magnetic field, which we call a magnetic-solenoid (MS) field, is studied. Using von Neumann\'s theory of the self-adjoint extensions of symmetric operators, in 2 + 1 dimensions we construct a one-parameter family of self-adjoint Dirac Hamiltonians specified by boundary conditions at the AB solenoid and find the spectrurn and eigenfunctions for each value of the extension parameter. We reduce the (3 + 1)-dimensional. problem to the (2 + 1)-dimensional one by a proper choice of the spin operator, which allows realizing all the programme of constructing self-adjoint extensions and finding spectra and eigenfunctions in the previous tenns. We also present the reduced self-adjoint extension method for the radial Dirac Hamiltonian with the MS field. We then turn to the regularized case of finite-radius solenoid. We study the structure of the corresponding eigenfunctions and their dependence on the behavior of the magnetic field inside the solenoid. Considering the zero-radius limit with the fixed value of the magnetic flux, we obtain a concrete self-adjoint Hamiltonian corresponding to a specific boundary condition for the case of the magnetic-solenoid field \'W-ith the AB solenoid. These particular cases of self-adjoint extensions we call natural extensions. For completeness we also study the behavior of the spinless particle in the regularized magnetic-solenoid field. Successive step of our investigation is a construction of the Green functions of the Dirac equation with the MS field in 2 + 1 and 3 + 1 dimensions. The Green functions are constructed by means of summation over the complete set of solutions of the Dirac equation. Constructing the Green functions, we use the exact solutions of the Dirac equation that are related to the specific values of the extension parameter. These values correspond to the natural extension. Then we extend the results to the (3 + 1)-dimensional case. For the sake of completeness, we present nonrelativistic Green functions and Green functions of the relativistic scalar particle.
- Published
- 2015
- Full Text
- View/download PDF
38. Aplicações da expansão de Edgeworth à precificação de derivativos financeiros
- Author
-
Ruy Gabriel, Balieiro Filho, Rogério Rosenfeld, Gustavo Monteiro de Athayde, and Marcos Eugenio da Silva
- Subjects
Philosophy - Abstract
O Objetivo deste trabalho é usar uma ferramenta matemática conhecida como expansão de Edgeworth em conjunto com a moderna teoria de análise de derivativos financeiros que utilizam o método de precificação neutra ao risco. Tal expansão permite obter uma função densidade de probabilidade com assimetria e curtose arbitrárias a partir de uma densidade normal. Desta forma, podemos usar esta nova distribuição como a state price density do ativo-objeto procurando corrigir o sorriso da volatilidade através da definição de funções de probabilidade com assimetrias positivas ou negativas e curtose maior de que três. Além disso esperamos também chegar a uma nova maneira de realizar o delta hedge de uma carteira de replicação de modo mais eficiente do que a de Black-Scholes. There is a well-developed framework, the Black?Scholes theory, for the pricing of contracts based on the future prices of certain assets, called options. This theory assumes that the probability distribution of the returns of the underlying asset is a Gaussian distribution. However, it is observed in the market that this hypothesis is 2awed, leading to the introduction of a fudge factor, the so-called volatility smile. Therefore, it would be interesting to explore extensions of the Black?Scholes theory to non-Gaussian distributions. In this paper, we provide an explicit formula for the price of an option when the distributions of the returns of the underlying asset is parametrized by an Edgeworth expansion, which allows for the introduction of higher independent moments of the probability distribution, namely skewness and kurtosis. We test our formula with options in the Brazilian and American markets, showing that the volatility smile can be reduced. We also check whether our approach leads to more e6cient hedging strategies of these instruments.
- Published
- 2015
- Full Text
- View/download PDF
39. Estudo dos estados excitados IND.C * IND.C produzidos hadronicamente
- Author
-
Monique Kamla Moura Srivastava, Carlos Ourivio Escobar, Roberto José Maria Covolan, Renata Zukanovich Funchal, Miriam Gandelman, and Rogério Rosenfeld
- Abstract
A experiência E781/SELEX acumulou um total de 1 bilhão de eventos de trígger charmoso em fita utilizando um feixe secundário de POT.-/ POT.- de 600 GeV/c e um de próton de 500 GeV/c, ambos a partir do feixe de prótons de 800 GeV/c gerado pelo Tevatron no Fermilab. Aqueles incidiram em alvos de cobre e carbono com o objetivo de estudar a produção e o decaimento de estados charmosos. Neste trabalho estudamos os estados POT. ++0 IND.C(2455) c++/- e POT. ++0* IND.C (2520) POT.+ IND. C POT. +/- a partir dos dados da E781 tomados durante o período de Dezembro de 1996 até Setembro de 1997. Obtivemos as medidas de massa e largura para dos báríons IND.C e * IND.C com valores: M IND. c++ M IND. c+ = 167.5 ± 0.5 ± 0.2MeV/c2, M IND. c POT.0 -- M IND. c+ = 167.9 ± 0.7 ± 1.2 MeV/c2, M IND. c++* M IND. c+ = 237.4 ± 4.9 ± 3.1MeV/c2, M IND. c POT.0* -- M IND. c+ = 232.6 ± 1.7 ± 1.3 MeV/c2, M IND. c++- = 16.2 ± 7.8 ± 5.5MeV e M IND. c POT.0* = 9.1 ± 6.0 ± 6.2MeV. Fizemos também o estudo de hadroprodução destes estados medindo o parâmetro que caracteriza a distribuição em x IND.f. OS valores obtidos são: n IND. c++ = 2.57 ± 0.57 ± 0,45, n IND. c POT.0 = 1.37 ± 0,27 ± 0.43, n IND. c++ = 2,13 ± 0,26 ± 0,61, n IND. c POT.0- =2.05 ± 0,35 ± 0,80. The experiment E781/SELEX collected a total of 1 billion charm trígger events ou tape using a 600 GeV/c -/ and a 500 GeV/c proton secondary beams, both from the 800 GeV/c proton beam delivered by the Fermilab Tevatron, Those beams reached the copper and carbon targets. The main goal was to study charm hadron production and decays. This work is dedicated to study the c++/0(2455) c++/- e c (++/0)*(2520) c++/- states from the E781 data obtained from December 1996 to September 1997. We obtained the mass and width values for the c and c* bárions as: M c++ M c+ = 167.5 ± 0.5 ± 0.2MeV/c2, M c0 -- M c+ = 167.9 ± 0.7 ± 1.2 MeV/c2, M c++* M c+ = 237.4 ± 4.9 ± 3.1MeV/c2, M c0* -- M c+ = 232.6 ± 1.7 ± 1.3 MeV/c2, M c++- = 16.2 ± 7.8 ± 5.5MeV e M c0* = 9.1 ± 6.0 ± 6.2MeV. We also studied the hadroproduction for those states measuring the paramenter that characterizes the xf distribution. The values obtained are: n c++ = 2.57 ± 0.57 ± 0,45, n c0 = 1.37 ± 0,27 ± 0.43, n c++- = 2,13 ± 0,26 ± 0,61, n c0- =2.05 ± 0,35 ± 0,80.
- Published
- 2015
- Full Text
- View/download PDF
40. À Procura de Algumas Evidências de Física Além do Modelo Padrão
- Author
-
M. B. Magro, Oscar Jose Pinto Eboli, Carlos Ourivio Escobar, Erasmo Madureira Ferreira, Sergio Ferraz Novaes, and Rogério Rosenfeld
- Abstract
Apresentamos um estudo fenomenológico de algumas extensões do modelo padrão da física de partículas no LEP e no LHC. Concentramos nossa atenção, em particular1 na busca por evidências de supersimetria com violação de paridade--R no LEP I, LEP II e LHC. Estudamos um modelo supersirnétrico com violação espontânea de paridade-R bem como um modelo efetivo onde a violação ocorre explicitamente. Realizamos, também, um estudo independente de modelo para leptoquarks no LHC a partir de colisões eq baseado em uma lagrangiana efetiva. Mostramos que os efeitos destas duas extensões do modelo padrão poderão ser visíveis no intervalo de energia dos aceleradores considerados. We present a phenomenologic study of some extensions of standard model of elementary particles at LEP and LHC. We concentrate our attention, for instance, on the search of R-parity violating supersymmetry evidences at LEP I, LEP II and LHC. We study a spontaneous R-parity violating model as well an effective one where the violation occurs explicitly. We also perform an independent model study on leptoquarks at LHC coming from e q collisions, in the frame of an effective lagrangian. We show that the effects of these two standard model extensions can be visible in the range of energy of the chosen colliders.
- Published
- 2015
- Full Text
- View/download PDF
41. Setor eletrofraco fortemente acoplado na escala TeV: teoria e fenomenologia no LHC
- Author
-
Eduardo Roberto De Lascio, Gustavo Alberto Burdman, Adriano Antonio Natale, Jorge Jose Leite Noronha Junior, Victor de Oliveira Rivelles, and Rogério Rosenfeld
- Subjects
Quark ,Physics ,Particle physics ,Large Hadron Collider ,High Energy Physics::Lattice ,High Energy Physics::Phenomenology ,Electroweak interaction ,Scalar (mathematics) ,High Energy Physics::Experiment ,Hierarchy problem ,Fermion ,Orbifold ,Gluon - Abstract
Esta tese apresenta estudos sobre uma possível extensão do Modelo Padrão, suas características teóricas e fenomenológicas. São estudados aspectos do Modelo Padrão relevantes para a análise do setor eletrofraco. Motivado pela solução do problema da hierarquia, é introduzido um espaço de cinco dimensões, com a quinta dimensão curva e compactificada em orbifold. Neste espaço são analisados campos escalares, espinoriais e vetoriais, exibindo modos excitados, os chamados modos de Kaluza-Klein. É incluída uma quarta geração de férmions, sendo então possível obter um setor eletrofraco fortemente acoplado na escala TeV, com a condensação de quarks. Este mecanismo é consequência de acoplamentos não universais com o primeiro modo de Kaluza-Klein do glúon, acoplamentos mais intensos com a quarta geração de quarks. É feita a determinação dos parâmetros dos quarks no espaço de cinco dimensões, resultando no setor de quarks do Modelo Padrão como limite da teoria a baixas energias. A análise teórica termina com a determinação dos acoplamentos dos quarks com o primeiro modo de Kaluza-Klein do glúon. Valendo-se da propriedade de o primeiro modo excitado do glúon trocar sabor, mesmo sendo uma partícula neutra, um estudo fenomenológico é realizado, mostrando que é possível observar eventos no LHC que indicam haver o setor fortemente acoplado, mediante a aplicação dos cortes descritos neste trabalho. This thesis presents studies concerning a possible extension of the Standard Model, its theoretical and phenomenological characteristics. Aspects of the Standard Model that are relevant for the analysis of the electroweak sector are studied. In order to solve the hierarchy problem, a space with ve dimensions is introduced, with the fth dimension curved and compactied in orbifold. Within this space scalar, spinorial and vectorial elds are analysed, showing excited modes, the so-called Kaluza-Klein modes. A fourth generation of fermions is included, which makes it possible to obtain a strongly coupled electroweak sector at the TeV scale, with quarks condensation. This mechanism is possible due to non-universal couplings with the rst Kaluza-Klein mode of the gluon, couplings which are stronger with the fourth generation quarks. The quarks parameters in the ve-dimensional space are determined, leading to the quark sector of the Standard Model as a low energy limit of the theory. The theoretical analysis is nished by the determination of the quarks couplings with the rst Kaluza-Klein mode of the gluon. Using the property of avor exchange by the gluon, even this being a neutral particle, a phenomenological study is carried out, showing that is possible to observe events at the LHC that indicate the existence of the strongly coupled sector, by means of the use of the cuts described in this work.
- Published
- 2011
42. Sinais de produção de novos bósons vetoriais no LHC
- Author
-
Dorival Gonçalves Netto, Oscar Jose Pinto Eboli, Orlando Luis Goulart Peres, and Rogério Rosenfeld
- Subjects
Physics ,Particle physics ,Gauge boson ,Large Hadron Collider ,Unitarity ,High Energy Physics::Phenomenology ,Electroweak interaction ,Boundary value problem ,Symmetry breaking ,Boson ,Standard Model - Abstract
Neste trabalho realizamos uma abordagem fenomenológica da observação de novos bósons de spin-1 associados ao setor de Quebra de Simetria Eletrofraca. Como motivação a essa análise estudamos primeiramente o caso especial de modelos baseados no mecanismo de Quebra espontânea de Simetria por Condições de Contorno, os quais também apresentam uma torre de bósons vetoriais de Kaluza-Klein assegurando a unitariedade no espalhamento entre bósons gauge. Na análise fenomenológica efetuamos uma abordagem independente de modelo analisando o potencial do Large Hadron Collider (LHC) na detecção de novos bósons vetoriais associados ao setor de quebra de simetria. In this work we performed a phenomenological observation of new spin-1 bosons associated with the Electroweak Symmetry Breaking sector. As motivation for this analysis we previously studied the special case of models based on the mechanism of Eletroweak Symmetry Breaking via Boundary Conditions, which also have a tower vector of Kaluza-Klein bosons ensuring unitarity in scattering between gauge bosons. In the phenomenological analysis we performed a model independent approach to analyzing the potential of the Large Hadron Collider (LHC) in the detection of new vector bosons associated with the symmetry breaking sector.
- Published
- 2009
43. Discrete-time, continuous state-space ctochastic optimal control applied to derivatives
- Author
-
André Cury Maiali, Oswaldo Luiz do Valle Costa, Flavio Almeida de Magalhaes Cipparrone, Afonso de Campos Pinto, Jose Roberto Castilho Piqueira, and Rogério Rosenfeld
- Abstract
Nesta tese abordamos o problema do hedging de mínima variância de derivativos em mercados incompletos usando a teoria de controle ótimo estocástico com critério quadrático de otimização. Desenvolvemos um modelo geral de apreçamento e hedging de derivativos em mercados incompletos, a tempo discreto, que é capaz de acomodar qualquer tipo de payoff com característica européia que dependa de n ativos de risco. Nesse modelo, o mercado pode apresentar diferentes modos de operação, o que foi formalizado matematicamente por meio de uma cadeia de Markov. Também desenvolvemos um modelo geral de apreçamento e hedging de derivativos em mercados incompletos, a tempo discreto e espaço de estados contínuo, que é capaz de acomodar qualquer tipo de payoff com característica européia que dependa de um ativo de risco cujos retornos sejam representados por um processo de difusão com saltos. Desenvolvemos, ainda, expressões analíticas fechadas para o apreçamento e hedging de uma opção de compra européia vanilla em duas situações: (1) quando os retornos do ativo de risco são representados por um processo de difusão com saltos, e (2) quando os retornos do ativo de risco são representados por um processo de Wiener. Por fim, realizamos simulações numéricas para o controle (hedging) de uma opção de compra européia vanilla quando os retornos do ativo de risco são representados por um processo de Wiener, e comparamos os resultados obtidos com a estratégia de controle derivada do modelo de Black & Scholes. In this thesis we approach the mean-variance hedging problem of derivatives in incomplete markets employing the theory of stochastic optimal control with quadratic optimization criteria. We developed a general derivatives pricing and hedging model in incomplete markets, in discrete time, capable of accommodating any type of European payoff contingent on n risky assets. In this model, the market may exhibit different operating modes, which were mathematically formalized by means of a Markov chain. We also developed a general derivatives pricing and hedging model in incomplete markets, in discrete time and continuous state space, capable of accommodating any type of European payoff contingent on one risky asset whose returns are described by a jump diffusion process. Even further, we developed closed-form analytical expressions for the pricing and hedging of a European vanilla call option in two situations: (1) when the risky asset returns are described by a jump diffusion process, and (2) when the risky asset returns are described by a Wiener process. Finally, we simulated the control (hedging) of a European vanilla call option when the risky asset returns are described by a Wiener process, and compared the results to those obtained with the control strategy derived from the Black & Scholes model.
- Published
- 2006
44. Learning in Hidden Markov Models
- Author
-
Roberto Castro Alamino, Nestor Felipe Caticha Alfonso, Marco Aurelio Pires Idiart, Carmen Pimentel Cintra do Prado, Rogério Rosenfeld, and Renato Vicente
- Subjects
Computer science - Abstract
Neste trabalho estudamos o aprendizado em uma classe específica de modelos probabilísticos conhecidos como modelos de Markov com variáveis de estado escondidas (em inglês, Hidden Markov Models ou HMMs). Primeiramente discutimos sua teoria básica e em seguida fazemos um estudo detalhado do comportamento de cinco diferentes algoritmos de aprendizado, dois deles já conhecidos na literatura e os outros três propostos por nós neste trabalho. Os cinco algoritmos estão descritos abaixo e são estudados na seqüência apresentada: Algoritmo de Baum-Welch (BW): consiste em um célebre algoritmo off-line obtido através da aplicação do algoritmo EM ao caso particular dos HMMs. Na literatura, é comum referir-se a ele pelo nome de Fórmulas de Reestimação de BaumWelch. Algoritmo de Baum-Welch On-line (BWO): versão on-line de BW proposta por nós. Algoritmo de Baldi-Chauvin (BC): algoritmo on-line proposto por Baldi e Chauvin em [5] onde uma representação do tipo softma:x é utilizada para as probabilidades dos HMMs e cujo objetivo é, a cada passo de iteração, maximizar a verossimilhança do modelo. Algoritmo Bayesiano On-line (BKL): algoritmo desenvolvido por nós baseado numa proposta de Opper [74], onde, após a atualização da distribuição de probabilidades do modelo a cada novo dado, projeta-se a densidade obtida em uma família paramétrica de distribuições tratáveis minimizando-se a distância de KullbackLeibler entre as duas. Algoritmo Posterior Média (PM): uma simplificação de BKL onde a projeção após a atualização é feita na distribuição posterior média. Para cada um dos algoritmos acima, obtemos curvas de aprendizado através de simulações onde utilizamos duas medidas distintas de erro de generalização: a distância de Kullback-Leibler (dKL) e a distância euclideana (d IND. E). Com exceção do algoritmo BW, que só pode ser utilizado em situações de aprendizado off-line, estudamos para todos os outros algoritmos as curvas de aprendizado tanto para a situação on-line quanto para a off-line. Comparamos as performances dos algoritmos entre si e discutimos os resultados obtidos mostrando que, apesar de um tempo de computação maior, o algoritmo bayesiano PM, proposto por nós, é superior aos outros algoritmos não-bayesianos quanto à generalização em situações de aprendizado estáticas e possui uma performance muito próxima do algoritmo bayesiano BKL. Fazemos, também, uma comparação entre os algoritmos PM e BC em situações de aprendizado variáveis com o tempo, com dados gerados artificialmente e em uma situação com dados reais, porém com um cenário simplificado, onde os utilizamos para prever o comportamento do índice da bolsa de valores de São Paulo (IBOVESPA), mostrando que, embora necessitem de um período longo de aprendizado, após essa fase inicial as previsões obtidas por esses algoritmos são surpreendentemente boas. Por fim, apresentamos uma discussão sobre aprendizado e quebra de simetria baseada nos estudos feitos. In this work we study learning in a specific class of probabilistic models known as Hidden Markov Models (HMMs). First we discuss its basic theory and after we make a detailed study of the behavior of five different learning algorithms, two of them already known in the literature and the other three proposed by us in this work. The five algorithms are described below in the sequence they are presented in the thesis: Baum-Welch Algorithm(BW): consists of a renowed offline algorithm obtained by applying the EM-algorithm to the particular case of HMMs. Through the literature it is common to refer to it by the name Baum-Welch Reestimation Formulas. Baum-Welch Online Algorithm (BWO): online version of BW proposed by us. Baldi-Chauvin Algorithm (BC): online algorithm proposed by Baldi and Chauvin in [5] where a softmax representation for the probabilities of the HMMs is used and where the aim is to maximize the model likelihood at each iteration step. Online Bayesian Algorithm (BKL): an algorithm developed by us based on the work of Opper [74] where, after updating the probability distribution of the model with each new data, the obtained density is projected into a parametric family of tractable distributions minimizing the Kullback-Leibler distance between both. Mean Posterior Algorithm (PM): a simplification of BKL where the projection after the update is made on the mean posterior distribution. For each one of the above algorithms, we obtain learning curves by means of simulations where we use two distinct measures of generalization error: the Kullback-Leibler distance (dKL) and the Euclidian distance (dE). With exception of the BW algorithm, which can be used only in offline learning situations, we study for all the other algorithms the learning curves for both learning situations: online and offiine. We compare the performance of the algorithms with one another and discuss the results showing that, besides its larger computation time, the bayesian algorithm PM, proposed by us, is superior to the other non-bayesian algorithms with respect to the generalization in static learning situations and that it has a performance that is very close to the bayesian algorithm BKL. We also make a comparison between algorithms PM and BC in learning situations that change with time using artificially generated data and in one situation with real data, with a simplified scenario, where we use them to predict the behavior of the São Paulo Stock Market Index (BOVESPA) showing that, although they need a large learning period, after that initial phase the predictions obtained by both algorithms are surprisingly good. Finally, we present a discussion about learning and symmetry breaking based on the presented studies.
- Published
- 2005
45. Pricing and market risk\'s analysis of futures contract of Brazilian external debt
- Author
-
Américo José Marques de Pinho, Gerson Francisco, Eduardo Facó Lemgruber, and Rogério Rosenfeld
- Abstract
O crescente volume de transações e a diversidade no mercado de derivativos leva a busca de modelos mais sofisticados para a estimação do preço e o cálculo do risco nesse mercado. Associada a essa premissa em alguns momentos de grande liquidez mundial, círculos virtuosos de melhoria na economia mundial e queda dos prêmios de risco individuais dos títulos emitidos pelos países tidos como desenvolvidos (EUA, alguns países da comunidade européia e outros), os grandes investidores mundiais podem procurar alternativas em ativos financeiros de países em desenvolvimento que oferecem um retorno maior. A partir desses argumentos e do fato do aumento do volume de captação e da grande valorização de títulos da divida externa brasileira em 2003, foi escolhido modelar os contratos futuros de títulos da divida externa brasileira negociados na Bolsa de Mercadorias Futuro. O contrato futuro de títulos da divida externa brasileira é um derivativo do ativo objeto C-Bond ou Global40 ou EI Bond que envolve duas moedas distintas (o Real e o Dólar Norte Americano) no qual o retorno é obtido em termo de valores das variáveis medidas na moeda Dólar Norte Americano já que o título é cotado nessa moeda, porém o ajuste de mercado é denominado na moeda Real. Analogicamente no Estados Unidos da América existe um derivativo semelhante: o contrato futuro de NIKKEI225 negociados na bolsa de Chicago Mercantile Exchange para investidores norte-americanos. Esse contrato de NIKKEI225 é classificado por diversos autores em uma das categorias de Quanto Derivativo por ser um derivativo que envolve duas moedas distintas no qual o retorno é obtido em termo de valores das variáveis medidas na primeira moeda, sendo realizado na segunda moeda. Sendo assim, esta dissertação atribui qual categoria de Quanto Derivativo os contratos futuros de títulos da divida externa brasileira, estima o preço de mercado e calcula o risco de mercado do contrato futuro de C-Bond associando a estrutura de Quanto Derivativo. Embora em termos de atribuição da categoria esse contrato de C-Bond seja da categoria I de WEI (1997) devido ao fato da cotação da moeda (PTAX800) variar o longo dos dias até o vencimento, foi levantado uma possibilidade de ser atribuída a categoria II de WEI (1997) advindo de uma particularidade na cotação do mercado cambial brasileiro. Essa particularidade advinda do câmbio intermediário e da transação PTAX800, que é uma média ponderada do volume negociado no dia, é gerada devido à concentração dos negócios serem 12:00 a 13:00. Portanto com a informação do câmbio intermediário divulgado pelo Banco Central do Brasil é possível determinar antes do final do final com boa precisão o valor da transação PTAX800 e sendo assim abrir a possibilidade da classificação do contrato de C-Bond em categoria II por possuir a cotação da moeda fixa para esse dia. A modelagem de estimação de preço foi realizada para as duas categorias e obteve resultados pouco significativos que possa definir qual categoria seja a mais adequada. Já na modelagem de risco de mercado foi considerado o contrato de C-Bond como um Quanto Derivativo da categoria II e os resultados foram satisfatórios com a aprovação do Valor em Risco calculado baseado em KUPIEC (1995). The increasing volume of transactions and the diversity in the market of derivatives more take the search of models sophisticated for the esteem of the price and the calculation of the risk in this market. Associated to this premise at some moments of great world-wide liquidity, virtuous circles of improvement in the world-wide economy and fall of the individual prices of risk of the headings emitted for the had countries as developed (U.S.A., some countries of the Europe Community and others), the great world-wide investors can look alternatives in financial assets of developing countries that offer a bigger return. To leave of these arguments and the fact of the increase of the volume of captation and the great valuation of headings of he divides external Brazilian in 2003, was chosen shape future contracts of negotiated headings of divides external Brazilian in the Bolsa de Mercadoria Futuro. The future contract of headings of divides external Brazilian is a derivative of the C-Bond or Global40 or EI Bond that involves two distinct currencies (the Real and the Dollar American North) in which the return is gotten in term of values of the variable measured in the currency Dollar American North since the heading is quoted in this currency, however the market adjustment is called in the Real currency. Similarity in the United States of America exists a similar derivative: the future contract of NIKKEI225 negotiated in the future market of Chicago Mercantile Exchange for North American investors. This contract of NIKKEI225 is classified by diverse authors in one of the categories of Quanto Derivative for being a derivative that involves two distinct currencies in which the return is gotten in term of values of the variable measured in the first currency, being carried through in the second currency. Being thus, this dissertation attributes which category of Quanto Derivative future contracts of headings of it divides external Brazilian, it esteem the market price and it calculates the risk of market of the future contract of C-Bond associating the structure of Quanto Derivative. Although in terms of attribution of the category this contract of C-Bond is of category I of WEI (1997) which had to the fact of the quotation of the currency (PTAX800) to vary the long one of the days until the expiration, a possibility of being attributed category II of WEI (1997) happened of a particularity in the quotation of the Brazilian cambial market was raised. This happened particularity of the intermediate exchange and transaction PTAX800, that is a weighed mean of the volume negotiated in the day, is generated due to concentration of the businesses to be 12:00 to 13:00. Therefore with the information of the intermediate exchange divulged by the Brazilian Central Bank it is possible to determine before the end of the end with good precision the value of transaction PTAX800 and being thus to open the possibility of the classification of the contract of C-Bond in category II for possessing the quotation of the fixed currency for this day. The modeling of price esteem was carried through for the two categories and got little resulted significant that can define which category are adjusted. Already in the modeling of market risk the contract of C-Bond was considered as one Quanto Derivative of category II and the results they had been satisfactory with the approval of the Value in Risk calculated based in KUPIEC (1995).
- Published
- 2005
46. Inflationary Cosmology in RS-I Brane Models
- Author
-
Michele Ferraz Figueiró, Elcio Abdalla, Josif Frenkel, and Rogério Rosenfeld
- Abstract
A cosmologia inflacionária descreve uma fase durante a qual o nosso universo passou por expansão acelerada em um curto período de tempo a escalas de altas energias. A inflação soluciona os problemas deixados pelo modelo cosmológico da Grande Explosão, tais como os problemas de planura e do horizonte. Nesta fase, o nosso universo era governado por um potencial V(Ø) gerado por um campo escalar inflaton, Ø(t). este potencial deve obedecer às condições de rolagem lenta dadas por {, |n|} 1, onde e n são os parâmetros de rolagem lenta. A cosmologia de branas inspira-se na teoria de cordas descrevendo modelos cosmológicos com dimensões extras. Sua grande ascensão aconteceu com a publicação de dois trabalhos de Randall e Sundrum na década de 90. Estes dois modelos consideram um espaço-tempo AdS5 no qual está inserido uma hipersuperfície 3-dimensional chamada 3-brana (nosso universo). As partículas e forças do modelo padrão estão confinadas nesta 3-brana enquanto o gráviton pode viajar por todo o espaço-tempo. O modelo RS-I considera duas 3-branas que delimitam a dimensão extra enquanto o modelo RS-II considera uma única 3-brana e o tamanho da dimensão extra é infinito. O objetivo deste trabalho é unir estas duas cosmologias de modo que possamos estudar inflação em modelos de branas. Escolhemos a cosmlogia de branas do tipo RS-I para exempleficarmos três potenciais condidatos a gerarem inflação em nosso universo. Para a aceitação de um modelo inflacionário representado por V (Ø), devemos calcular o índice espectral n(k) e sua derivada em relação ao número de onda k, dn(k)/dlnk, deste potencial, e comparar estes resultados teóricos com os dados experimentais do WMAP. É isto que faremos com estes três potenciais An inflationary cosmology describles a phase in which ou Universe goes through accelerated expansion in a short time period at high energy scales. Inflation solves problems left by the Standard Big Bang cosmological model such as problems of flatness and horizon. In this phase, our Universe is ruled by a potential V(Ø) generated bya an inflaton scalar field Ø(t). This potential generated must obey conditions of slow roll given by {, |n|}1, and n are the parameters of slow roll. A brane cosmology was inspired by a string describing cosmological models with extra dimensions. An interest to it highly arose with a publication of two papers by Randall and Sundrum in the 90s. These two models consider a space-time AdS5 in which the hipersurface with three spacial dimensions is inserted. This hypersurface (our Universe) is called a 3-brane. Particles and forces of the standard model are inserted in this 3-brane whereas the graviton can move through all space-time. In the RS-I model one considers two three-brane which delimit an extra dimension whereas in the RS-II model one consideres a unique 3-brane ande the size of the extra dimension is infinite. The aim of this ork is to unify these two cosmologies in a way which would allow studying inflation in brane models. We choose a cosmology in RS-I branes to exemplify three candidate potentials to generate inflation in our Universe. In order to accept an inflationary model represented by V (Ø), we shold calculate the spectral index n(k)/d/lnk, for this potential, and compare these theoretical results with the available experimental data fo WMAP. These studies will be carried out for the three potentials above mentioned.
- Published
- 2005
47. Particle production in the early universe and its application to problems of astrophysics and cosmology
- Author
-
Ana Helena de Campos, Rogério Rosenfeld, Elcio Abdalla, Luis Raul Weber Abramo, Carlos Ourivio Escobar, and José Ademir Sales de Lima
- Abstract
Neste trabalho estudam-se três aplicações de mecanismos de produção de partículas no universo pós inflacionário. Apesar da motivação inicial para esses mecanismos ter sido o reaquecimento do universo, eles foram utilizados, posteriormente, para produzir partículas supermassivas. A produção de partículas, sejam elas supermassivas ou não, depende essencialmente do modelo inflacionário utilizado. Aqui, trabalha-se com modelos inflacionários caóticos gerados por um campo escalar, o inflaton. A primeira aplicação estuda a produção de partículas supermassivas pelo mecanismo de pré-aquecimento instantâneo que é não perturbativo. Estabelece-se os limites dos parãmetros desse mecanismo impondo que essas partículas constituam parte da matéria escura e que seu decaimento, hoje, produzam os raios cósmicos de altíssimas energias. A segunda aplicação é um estudo numérico de como teria sido o reaquecimento do universo, num modelo inflacionário quintessencial, com partículas tendo sido produzidas através do mecanismo de pré-aquecimento instantâneo. Esses modelos inflacionários são utilizados para explicar a origem da energia escura que parece dominar o universo hoje. Obtém-se a faixa de temperaturas de reaquecimento permitidas. A terceira aplicação também estuda a produção de partículas supermassivas para explicar os raios cósmicos de altíssimas energias, mas por um mecanismo perturbativo. As partículas seriam o produto do decaimento direto do inflaton após a inflação. Obtém se limites para razão de ramificação deste decaimento, impondo restrições para a vida média das partículas supermassivas e para a sua abundância hoje. We studied three applications of the mechanisms of particle production in the early universe. Although such mechanisms were first proposed to reheat the universe they were used lately to produce supermassive particles. The production of supermassive or massless particles depends mainly on the inflationary model that we work with. Here, we chose the chaotic inflationary models generated by one scalar field, the inflaton. In the first application we studied the production of supermassive particles by the non-perturbative instant preheating mechanism. We used cosmic ray flux and cold dark matter observational data to constrain the parameters of the model, since we are supposing that such particles may account for a fraction of the cold dark matter as well as decay into high energy cosmic rays. In the second application we perform a numerical study of the instant preheating mechanism of particle production in a model of quintessential inflation. Such inflationary models are used to explain the dark energy that seems to dominate the universe nowadays. We obtained the reheating temperatures allowed by this mechanism. The third application studied the supermassive particle production by a perturbative mechanism to explain high energy cosmic rays. The inflaton would have decayed into such particles after inflation. By constraining their lifetime and present abundance we obtained the branching ratio of such decay.
- Published
- 2004
48. Efficiency of the implied forward exchange market in Brazil
- Author
-
Guilherme Maia Garcia, Paulo Picchetti, Rogério Rosenfeld, and Marcos Eugenio da Silva
- Subjects
Mathematics - Abstract
Neste estudo, é testada empiricamente a hipótese de eficiência no mercado a termo de câmbio brasileiro, para o período recente de flutuação cambial. A freqüência dos dados é diária, e as taxas a termo são construídas com base no mercado de swaps. É utilizado um método de estimação semi-paramétrico e estatisticamente robusto no contexto de distribuições com caudas pesadas. Este método ainda permite que se trabalhe com séries não-estacionárias no nível (sem diferenciar) e com observações sobrepostas (quando o prazo do contrato a termo excede o intervalo entre as observações da amostra). A hipótese de eficiência é rejeitada quando se usa o método robusto; por outro lado, um método mais sensível à presença de outliers falha em rejeitar a hipótese. Por fim, são discutidas algumas questões relativas à hipótese de eficiência, com especial ênfase para a questão de se a rejeição da hipótese é devida à presença de um prêmio de risco cambial, da ineficiência de mercado ou de ambos os fatores. Os resultados sugerem que o mercado de câmbio a termo no Brasil não é eficiente. In this dissertation, the forward exchange market efficiency hypothesis is tested for the recent floating regime in Brazil. We use daily frequency data, with implied forward rates based on the swap market. The statistical approach is a semiparametric procedure which is statistically robust to data distributions with heavy tails and allows for non-stationarity of the data and overlapping observations (when the interval between observations is shorter than the futures maturity). The efficiency hypothesis is rejected when the robust procedure is used; still, a distinct procedure more sensible to the presence of outliers fails to reject the hypothesis. At last, we discuss some issues regarding the efficiency hypothesis, emphasizing the question of whether the rejection of the efficiency hypothesis denounces the presence of a risk premium, of market inefficiency or both. The results suggest the Brazilian forward exchange market is not efficient.
- Published
- 2003
49. Probability distribution of returns based on Heston\'s model
- Author
-
Charles Mann de Toledo, Rogério Rosenfeld, Renato Vicente, and Joe Akira Yoshino
- Abstract
O trabalho é um estudo baseado no modelo de volatilidade estocástica de Heston (também conhecido como Cox-Ingersoll-Ross ou Feller). Adotamos a solução semi-analítica proposta por Dragulescu e Yakovenko para explicar as distribuições condicionais de retornos do Ibovespa (índice Bovespa). Verificamos que a distribuição resultante do modelo se ajusta muito bem à distribuição observada, de escalas que vão de 1 minuto a 100 dias. Os resultados têm relevância para as áreas de gerenciamento de risco e para a prática de negociação no mercado acionário e derivativos The work is a study based on the stochastic volatility model of Heston (also known as Cox-lngersoll-Rosé or Feller model). We use the semi-analytic solution developed by Dragulescu and Yakovenko to explain the condicional distribution of the returns of the lbovespa (Bovespa index). We verify that the resulting distribution of the model fits very well the observed distribution, in scales that go from l minute to 100 days. The results are relevant for risk management and for the practice of the stock market and derivatives trading
- Published
- 2003
50. Pricing and hedging of barrier options: incorporation of the volatility smile
- Author
-
Carlos Eduardo de Souza Lara, Joe Akira Yoshino, Gustavo Monteiro de Athayde, and Rogério Rosenfeld
- Abstract
Este trabalho objetiva verificar a aplicabilidade ou não dos procedimentos adotados no mercado financeiro para o apreçamento e hedging de opções com barreira. A ideia básica é a de comparar, em um ambiente controlado, duas alternativas de apreçamento, ambas paramétricas, e avaliar se existe ou não diferença significativa entre elas. Uma discussão sobre a modelagem de opções com barreira, que envolve aplicações do teorema de Girsanov e da reflexividade, é apresentada como subsídio para o argumento que se quer testar empiricamente, mas num ambiente controlado. Para os casos estudados, a incorporação do Sorriso de volatilidades não levou a resultados muito melhores que a utilização de uma volatilidade constante na abordagem de Black&Scholes This paper intends to verify the suitability or not of practical procedures used in the market for pricing and hedging of Barrier Options. The main idea is to compare two different pricing strategies, in a known enviroment, under control. Both strategies are parametric, and the task is to compare the performance of two different models, finding whether a relevant difference does exist. A discussion on barrier options pricing and hedging, with uses of Girsanov\' s Theorem and the reflexion principle is presented and used as subside for the argument we want to check empirically, but under a controled enviroment. For the studied cases, incorporanting the volatility smile doesn\'t lead to much better results than using flat volatility in the Black&Scholes\' s approach
- Published
- 2003
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.