31 results
Search Results
2. Data Mining Techniques to acquire new customers for financing of Consumer Credit
- Author
-
Adriana Maria Marques da Silva, Carlos Tadeu dos Santos Dias, and Edina Shisue Miazaki
- Subjects
Mathematics - Abstract
O trabalho busca dissertar sobre as técnicas de data mining mais difundidas: regressão logística, árvore de decisão e rede neural, além de avaliar se tais técnicas oferecem ganhos financeiros para instituições privadas que contam com processos ativos de conquista de clientes. Uma empresa do setor financeiro será utilizada como objeto de estudo, especificamente nos seus processos de aquisição de novos clientes para adesão do Crédito Direto ao Consumidor (CDC). Serão mostrados os resultados da aplicação nas três técnicas mencionadas, para que seja possível verificar se o emprego de modelos estatísticos discriminam os clientes potenciais mais propensos dos menos propensos à adesão do CDC e, então, verificar se tal ação impulsiona na obtenção de ganhos financeiros. Esses ganhos poderão vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. O trabalho apresentará o funcionamento de cada técnica teoricamente, e conforme os resultados indicam, data mining é uma grande oportunidade para ganhos financeiros em uma empresa. The paper intends to discourse about most widespread data mining techniques: logistic regression, decision tree and neural network, and assess whether these techniques provide financial gains for private institutions that have active processes for business development. A company of the financial sector is used as object of study, specifically in the processes of acquiring new customers for adhesion to consumer credit (in Brazil CDC). This research will show the results of the three above mentioned techniques, to check whether the statistical models point out relevant differences between prospects´ intentions to adhere to consumer credit. In the meantime, the techniques are checked whether they leverage financial gain. These gains are expected to came from better focused and directed marketing efforts. The paper presents the operation of each technique theoretically, and as the results indicate, data mining is a great opportunity for a company boost profits.
- Published
- 2012
3. Contributions for development of the agriculture income insurace to Brazil: theorethical and empirical evidences
- Author
-
Guilherme Jacob Miqueleto, Vitor Augusto Ozaki, Mirian Rumenos Piedade Bacchi, Carlos Jose Caetano Bacha, João Domingos Scalon, and Ralph dos Santos Silva
- Subjects
Mathematics - Abstract
O principal objetivo dessa tese foi contribuir para a discussão sobre o seguro de renda e sua adoção no Brasil. No primeiro artigo buscou-se fornecer argumentos para posteriores discussões no que se refere ao seguro de renda. Para isso, o artigo apresentou o seguro de renda, seu funcionamento e como ele se desenvolveu nos dois principais países que o utilizaram, sendo eles os Estados Unidos e Canadá. Buscou-se ainda apresentar as principais características desse modelo de seguro, e quais são os principais modelos existentes. Esse artigo também teve como objetivo contribuir teoricamente para o desenvolvimento do tema no que se refere ao contrato ótimo de um seguro de renda. Como resultados, observou-se que a determinação endógena do prêmio e dos custos da seguradora para um contrato ótimo de seguro (de renda) são fundamentais para a solução (principalmente afetando as condições de primeira ordem) assim como os efeitos marginais de determinadas restrições impostas do ponto de vista de Pareto. Além disso, buscouse nesse trabalho tratar, do ponto de vista teórico, a capacidade de proteção de um seguro de renda quando comparado a um portfólio composto por seguros tradicionais de produtividade e mecanismos de proteção de preços, como mercados futuros ou opções. Observou-se uma limitação dos resultados e de uma melhor análise quantitativa dada a ausência de uma forma funcional, porém foi possível observar alguns resultados interessantes no que se refere à substituição entre a adoção de seguros (tradicionais) e derivativos agrícolas para proteção de preços. O segundo artigo teve como objetivo expor formas de calcular as taxas de prêmio de um hipotético seguro de renda no formato dos seguros americanos Income Protection ou Revenue Assurance, para milho para municípios do Paraná/BR, por meio do uso de cópulas na distribuição conjunta entre preços e produtividade. Buscou-se com isso contribuir para a obtenção de taxas mais precisas. Os resultados mostraram que existem significativas diferenças entre as taxas de prêmio entre os diferentes municípios e, ainda mais com relação aos diferentes meses de vencimento dos preços futuros utilizados na análise. Além disso, outras análises revelaram que o adequado planejamento do plantio, por exemplo, pelo produtor rural irá lhe garantir menores taxas de prêmio. Como uma das conclusões do trabalho, observa-se que esse tipo de ferramenta, levando-se em conta as características do país, poderia ser utilizado, principalmente com o ajuste de subvenções por parte do governo federal e/ou estadual. The main objective of this thesis was to contribute to the discussion of income insurance and its adoption in Brazil. In the first article we attempted to provide arguments for further discussions about income insurance. The paper presented how it works and how it has developed in two major countries: the United States and Canada. It also sought to present the main characteristics of this insurance model, and what are the main existing models. This article also aims to contribute to the theoretical development of the subject with regard to the optimal contract for a income insurance policy. As a result, it was observed that the endogenous determination of the premium and costs of insurance for an optimal contract is the key to the solution (mainly affecting the first order conditions) as well as the marginal effects of certain restrictions, in view of Pareto Optimal. In addition, we sought to address in this paper, in the theoretical point of view, the protective capabilities of a secure income when compared to a \"portfolio\" composed by traditional insurance productivity and price protection mechanisms such as futures or options. There was a limitation of the results and better quantitative analysis given the absence of a functional form, but there have been some interesting results regarding the replacement of the adoption of insurance (traditional) and derivatives for the protection of agricultural prices. The second article aims to explain ways to calculate premium rates for hypothetical income insurance in the form of American Income Protection or Revenue Assurance for corn for municipalities of Parana/BR, through the use of copulas in the joint distribution between prices and productivity. Was sought to help to obtain more accurate rates. The results showed that there are significant differences in premium rates between different cities and even more about the different months of maturity of the futures prices used in the analysis. In addition, further analysis revealed that the proper planning of planting, for example, will guarantee for the farmer a lower premium rates. As one of the conclusions of the study, notes that these types of tool, taking into account the characteristics of the country, could be used, especially with the setting of grants by the federal government and/or state.
- Published
- 2011
4. Brazilian economic cycles: decompositions and 'real time' analysis
- Author
-
Toledo Neto, Celso de Campos, Fabio Kanczuk, Denisard Cneio de Oliveira Alves, Guillermo Roberto Tomas Malaga Butron, Gesner Jose de Oliveira Filho, and Paulo Picchetti
- Subjects
Mathematics - Abstract
Esta tese é composta de três artigos. O primeiro artigo aplica a metodologia proposta por Chari, Kehoe e McGrattan (2003) para decompor as flutuações da indústria brasileira, usualmente medidas por meio da aplicação de filtros mecânicos. Sugere-se que os ciclos encontrados pela utilização do filtro Hodrick Prescott (ou qualquer filtro band pass) englobam oscilações econômicas cuja origem pode ser deslocamentos tanto da demanda quanto da oferta. Em particular, as simulações a partir de dados reais indicam que a maior parte dos ciclos brasileiros têm origem na oferta. Este resultado sugere que a calibração da política monetária a partir da noção usual de hiato do produto" é potencialmente falha. De fato, estimativas da curva IS a partir dos componentes cíclicos associados à oferta e à demanda mostra que o impacto negativo de uma elevação de juros é relativamente maior sobre a oferta. De certa forma, portanto, há um viés inflacionário no uso da política monetária. Uma estimativa da Curva de Philips com o componente cíclico associado às mudanças de demanda revela coeficiente positivo maior do que o observado em modelos estimados com a medida usual de hiato do produto". O segundo artigo compara a performance de filtros band pass com a do filtro Hodrick Prescott na determinação dos ciclos do produto brasileiro. Conclui-se, com base em inspeção do desempenho na amostra de dados disponível e em simulações de Monte Carlo, que o filtro Hodrick Prescott é inferior às alternativas consideradas quando o objetivo é extrair os ciclos em tempo real". Essa conclusão é válida para dois modelos estatísticos alternativos de descrição do PIB: (i) supondo que a variável é I(0) em torno de uma tendência linear com quebras" e (ii) supondo que a variável é I(1). Há também robustez com relação ao parâmetro de comparação do desempenho dos filtros. O terceiro artigo obtém: (i) uma série do PIB trimestral dessazonalizado perfeitamente compatível com as variações anuais, desde 1980, corrigindo um problema de ajustamento existente na série disponível eletronicamente; (ii) uma série confiável desde 1970, a partir de técnicas de desagregação temporal utilizando indicadores; (iii) uma série trimestral desde 1947 que, provavelmente, preserva uma parcela razoável dos componentes do PIB normalmente associados aos ciclos econômicos e; (iv) uma série alternativa que, provavelmente, incorpora uma parte dos componentes irregulares do período que vai de 1956 a 1969. The first paper applies the methodology proposed by Chari, Kehoe and McGrattan (2003) to analyze cyclical fluctuations of the Brazilian industry, usually obtained by means of mechanical filters. The results suggest that filter-obtained cycles using the Hodrick Prescott filter or a band pass filter include components originated from supply and demand disturbances. Particularly, the simulations indicate that most Brazilian cycles are due to supply movements. This result leads to the conclusion that calibrating monetary policy based on a filter-obtained output-gap" is potentially flawed. Indeed, IS curve estimations using supply-driven and demand-driven cyclical components show that the impact of monetary policy is more significant in the former than the latter. Thus, it would seem that there is an inflation bias in current monetary policy practice. The paper shows also that a Phillips Curve estimated from demand-driven cyclical components reveals a higher coefficient than one obtained by the usual regressions. The second paper compares the performance of band pass filters with the Hodrick Prescott filter in terms of their ability to extract the cycles of Brazilian GDP in real time". Using actual and artificial data, the simulations indicate that the Hodrick Prescott filter is inferior. This conclusion holds for two alternative models to describe the GDP dynamics: (i) supposing the series is I(0) around a deterministic trend with a few structural breaks and (ii) supposing the series is I(1). The results are also robust with respect to more than one benchmark chosen to evaluate the performance of the filters. The third paper obtains: (i) a seasonally adjusted quarterly GDP series for the period 1980 to 2002, that is perfectly compatible with the annual National Accounts real variations, correcting a step problem present in the electronically available series; (ii) a reliable series going back to 1970, using temporal disaggregation methods with indicators; (iii) a series going back to 1947 that, most likely, preserves a reasonable amount of the cyclical components of the GDP and (iv) a series going back to 1956 that is likely to include part of the irregular components.
- Published
- 2004
5. Inferência Bayesiana em Modelos de Volatilidade Estocástica usando Métodos de Monte Carlo Hamiltoniano
- Author
-
David de Souza Dias, Ricardo Sandes Ehlers, Mauricio Enrique Zevallos Herencia, Maria Sílvia de Assis Moura, and Ehlers, Ricardo Sandes
- Subjects
PROBABILIDADE E ESTATISTICA::ESTATISTICA::FUNDAMENTOS DA ESTATISTICA [CIENCIAS EXATAS E DA TERRA] ,Método HMC ,Value at Risk (VaR) ,Valor em Risco (VaR) ,HMC methods ,Stochastic Volatility Models ,Bayesian inference ,Modelos de Volatilidade Estocástica ,PROBABILIDADE E ESTATISTICA::ESTATISTICA::INFERENCIA EM PROCESSOS ESTOCASTICOS [CIENCIAS EXATAS E DA TERRA] ,WAIC and LOO ,Inferência Bayesiana ,PROBABILIDADE E ESTATISTICA::ESTATISTICA::ANALISE DE DADOS [CIENCIAS EXATAS E DA TERRA] ,Econometrics ,Bayesian Inference ,WAIC e LOO ,PROBABILIDADE E ESTATISTICA::ESTATISTICA::INFERENCIA PARAMETRICA [CIENCIAS EXATAS E DA TERRA] ,Mathematics - Abstract
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) This paper presents a study using Bayesian approach in stochastic volatility models for modeling financial time series, using Hamiltonian Monte Carlo methods (HMC). We propose the use of other distributions for the errors of the equation at stochastic volatiliy model, besides the Gaussian distribution, to treat the problem as heavy tails and asymmetry in the returns. Moreover, we use recently developed information criteria WAIC and LOO that approximate the crossvalidation methodology, to perform the selection of models. Throughout this work, we study the quality of the HMC methods through examples, simulation study and application to dataset. In addition, we evaluated the performance of the proposed models and methods by calculating estimates for Value at Risk (VaR) for multiple time horizons. Este trabalho apresenta um estudo através da abordagem Bayesiana em modelos de volatilidade estocástica, para modelagem de séries temporais financeiras, com o uso do método de Monte Carlo Hamiltoniano (HMC). Propomos o uso de outras distribuições para os erros da equação de observações do modelos de volatilidade estocástica, além da distribuição Gaussiana, para tratar problemas como caudas pesadas e assimetria nos retornos. Além disso, utilizamos critérios de informações, recentemente desenvolvidos, WAIC e LOO que aproximam a metodologia de validação cruzada, para realizar a seleção de modelos. No decorrer do trabalho, estudamos a qualidade do método HMC através de exemplos, estudo de simulação e aplicação a conjunto de dados. Adicionalmente, avaliamos a performance dos modelos e métodos propostos através do cálculo de estimativas para o Valor em Risco (VaR) para múltiplos horizontes de tempo. CAPES/DS - Demanda Social
- Published
- 2018
6. Medindo a Qualidade das Escolas: Evidências para o Brasil
- Author
-
Andréa Zaitune Curi and Andre de Souza
- Subjects
Index (economics) ,media_common.quotation_subject ,education ,modelo estrutural ,background familiar ,Latent variable ,school-management ,lcsh:Economic history and conditions ,structural model ,ranking ,Statistics ,Operations management ,Quality (business) ,Mathematics ,media_common ,gestão-escolar ,lcsh:HB71-74 ,lcsh:Economics as a science ,family background ,Ranking ,accountability ,lcsh:HC10-1085 ,Value (mathematics) - Abstract
ResumoNeste artigo propomos a criação de um indicador que reflita a qualidade da escola associada aos fatores escolares e que evite dois problemas encontrados em estudos anteriores: indicadores de proficiência em nível que refletem mais o background familiar do aluno do que a qualidade da escola; e estimações de valor adicionado muito sensíveis a erros de mensuração. Propomos indicadores que são obtidos através de um modelo estrutural em que se modela a variável latente de qualidade da escola de modo a corrigir o potencial viés dos estudos anteriores. Utilizamos dados brasileiros para aplicações desses indicadores e revisitamos a importância relativa dos fatores de família, escola e gestão. Os resultados mostram que o ordenamento das escolas pelos indicadores de qualidade difere do ordenamento obtido pelos indicadores com a proficiência em nível e é menos instável do que o ordenamento obtido a partir dos indicadores de valor adicionado puro. AbstractIn this paper, we propose the creation of an index that reflects the quality of school associated with school factors and avoids two problems found in previous studies: indicators of proficiency level that reflect more the family background of the student than school quality; and estimations of value added very sensitive to measurement errors. Thus, indicators are obtained through a structural model that models the latent variable quality of the school to correct the potential bias of previous studies. We used Brazilian data for applications of such indicators and we revisited the factors of family, school and management. The results show that the ranking of schools by quality indicators differs fromthe ordering obtained by the indicators with the proficiency level and is less volatile than the ordering obtained from the indicators of value added.
- Published
- 2015
7. Regularity and solvability of linear differential operators in spaces of ultradistributions
- Author
-
Gabriel Cueva Candido Soares de Araujo, Paulo Domingos Cordaro, Rafael Fernando Barostichi, Oscar Fortunato Vilcachagua Erazo, Gustavo Hoepfner, and Gerson Petronilho
- Subjects
Mathematics - Abstract
Desenvolvemos novos resultados da teoria dos espaços FS e DFS (espaços de Fréchet-Schwartz e seus duais) e os empregamos ao estudo da seguinte questão: quando certas propriedades de regularidade de um operador diferencial parcial linear (entre fibrados vetoriais Gevrey sobre uma variedade Gevrey) implicam resolubilidade, no sentido de ultradistribuições, do operador transposto? Estudamos esta questão para uma classe de operadores abstratos que contém os operadores diferenciais parciais lineares com coeficientes Gevrey usuais, mas também certas classes de operadores pseudo-diferenciais em variedades compactas, além de certos tipos de operadores de ordem infinita. Neste contexto, obtemos uma nova demonstração de um resultado global em variedades compactas (em que hipoelipticidade Gevrey global de um operador implica resolubilidade global de seu transposto), assim como alguns resultados no caso não-compacto relacionados à propriedade de não-confinamento de singularidades. Na sequência apresentamos algumas aplicações concretas, em particular para operadores de Hörmander, operadores de força constante e sistemas localmente integráveis de campos vetoriais. Analisamos ainda algumas instâncias de uma conjectura levantada em um artigo recente de F. Malaspina e F. Nicola (2014), a qual afirma que, para certos complexos diferenciais naturalmente associados a estruturas localmente integráveis, resolubilidade local no sentido de ultradistribuições (perto de um ponto, em um grau fixado) implica resolubilidade local no sentido de distribuições. Estabelecemos a validade desta conjectura quando o fibrado estrutural cotangente é gerado pelo diferencial de uma única integral primeira. We develop new techniques in the setting of FS and DFS spaces (Fréchet-Schwartz spaces and their strong duals) and apply them to the study of the following question: when regularity properties of a general linear differential operator (between Gevrey vector bundles over a Gevrey manifold) imply solvability of its transpose in the sense of ultradistributions? This question is studied for a class of abstract operators that encompasses the usual partial differential operators with Gevrey coefficients, but also some flavors of pseudodifferential operators on compact manifolds and some classes of operators with infinite order. In this setting, we obtain a new proof of a global result on compact manifolds (global Gevrey hypoellipticity of the operator implying global solvability of the transpose), as well as some results in the non-compact case by means of the so-called property of non-confinement of singularities. We then move to some concrete applications, especially for Hörmander operators, operators of constant strength and locally integrable systems of vector fields. We also analyze some instances of a conjecture stated in a recent paper of F. Malaspina and F. Nicola (2014), which asserts that, in differential complexes naturally arising from locally integrable structures, local solvability in the sense of ultradistributions (near a point, in some fixed degree) implies local solvability in the sense of distributions. We establish the validity of the conjecture when the cotangent structure bundle is spanned by the differential of a single first integral.
- Published
- 2016
8. Estudo comparativo entre métodos de contrôle quantitativo da produção leiteira
- Author
-
W. R. Jardim, A. M. Peixoto, S. Silveira F°, and F. Pimentel Gomes
- Subjects
Absolute deviation ,General Health Professions ,Statistics ,Limit (mathematics) ,Analysis of variance ,Interval (mathematics) ,Table (information) ,Maximum error ,Standard deviation ,Mathematics ,Arithmetic mean - Abstract
This paper deals with the estimation of milk production by means of weekly, biweekly, bimonthly observations and also by method known as 6-5-8, where one observation is taken at the 6th week of lactation, another at 5th month and a third one at the 8th month. The data studied were obtained from 72 lactations of the Holstein Friesian breed of the "Escola Superior de Agricultura "Luiz de Queiroz" (Piracicaba), S. Paulo, Brazil), being 6 calvings on each month of year and also 12 first calvings, 12 second calvings, and so on, up to the sixth. The authors criticize the use of "maximum error" to be found in papers dealing with this subject, and also the use of mean deviation. The former is completely supersed and unadvisable and latter, although equivalent, to a certain extent, to the usual standard deviation, has only 87,6% of its efficiency, according to KENDALL (9, pp. 130-131, 10, pp. 6-7). The data obtained were compared with the actual production, obtained by daily control and the deviations observed were studied. Their means and standard deviations are given on the table IV. Inspite of BOX's recent results (11) showing that with equal numbers in all classes a certain inequality of varinces is not important, the autors separated the methods, before carrying out the analysis of variance, thus avoiding to put together methods with too different standard deviations. We compared the three first methods, to begin with (Table VI). Then we carried out the analysis with the four first methods. (Table VII). Finally we compared the two last methods. (Table VIII). These analysis of variance compare the arithmetic means of the deviations by the methods studied, and this is equivalent to compare their biases. So we conclude tht season of calving and order of calving do not effect the biases, and the methods themselves do not differ from this view point, with the exception of method 6-5-8. Another method of attack, maybe preferrable, would be to compare the estimates of the biases with their expected mean under the null hypothesis (zero) by the t-test. We have: 1) Weekley control: t = x - 0/c(x) = 8,59 - 0/ = 1,56 2) Biweekly control: t = 11,20 - 0/6,21= 1,80 3) Monthly control: t = 7,17 - 0/9,48 = 0,76 4) Bimonthly control: t = - 4,66 - 0/17,56 = -0,26 5) Method 6-5-8 t = 144,89 - 0/22,41 = 6,46*** We denote above by three asterisks, significance the 0,1% level of probability. In this way we should conclude that the weekly, biweekly, monthly and bimonthly methods of control may be assumed to be unbiased. The 6-5-8 method is proved to be positively biased, and here the bias equals 5,9% of the mean milk production. The precision of the methods studied may be judged by their standard deviations, or by intervals covering, with a certain probability (95% for example), the deviation x corresponding to an estimate obtained by cne of the methods studied. Since the difference x - x, where x is the mean of the 72 deviations obtained for each method, has a t distribution with mean zero and estimate of standard deviation. s(x - x) = √1+ 1/72 . s = 1.007. s , and the limit of t for the 5% probability, level with 71 degrees of freedom is 1.99, then the interval to be considered is given by x ± 1.99 x 1.007 s = x ± 2.00. s The intervals thus calculated are given on the table IX.
- Published
- 1956
9. Análise da variação qualitativa em amostras pequenas
- Author
-
F. G. Brieger
- Subjects
Combinatorics ,symbols.namesake ,One half ,Standard error ,Homogeneity (statistics) ,General Health Professions ,symbols ,Exponent ,Expected value ,Poisson distribution ,Binomial series ,Quotient ,Mathematics - Abstract
The main object of the paper is a revision of the methods for the statistical analysis of qualitative variation in small samples. In general, this analysis is carried out by means of two tests, which are mathematically different, but give identical statistical results : the analysis of relative deviates, i.e. of te quotients between the deviate of the observed frequency, with regerds to the expected frequency divided by its standard error, or an analysis using the X2-test. We must distinguish, in our discussion, two cases, which are quite different. The basic distribuition of all cases of qualitative variation is the binomial. If we expect any qualitative result to occur with probability p ,its non-occurence having probability q equal to (1-p>;, the expectancy to have, 0, 1, 2... m cases or individuals of the expected type in N trials may be calculated by expanding the binomial. (P + q)N Such a binomial may be substituited by other distributions in two special cases: a) If p is very small and thus q is aproaching the value one, we may substitute the binomial by a Poisson series. b) If the exponent N becomes very large, the binomial is approaching a continous distribution, i.e. the normal or Gaus-sean distribution. Only in the second case, the application of the X2-test is really justified, and in all other cases, we are dealing only with approximations. Indvidual values of X2- should follow a modified distribution of Pearson, with nl = 1; n2 = inf. Since this distributon corresponds exactly to one half of the Gaus-sean dstribution, it follows that the b lateral limits of the latter are equal to the unilateral limits of the former. These points have been explained fully elsewhere (BRIEGER, 1945, 1946). We have row to decide which value of p may be accepted as a satisfactory limit between a Poisson and a binomial series. Quadros 1-3, show that the conventional limit of pr=0,l is fully justified, from a practical point of view. In these tables we find in the second column from the left the frequencies of a Poisson series, and in the second column from the night the values of X2 based, as explained, on a modified Gaussean distribution. The two columns in the centre correspond to two binomials and it is evident that the first with p=0,05 has its limits of precision almost at the same level as the Poisson series, while the other with p=0,l agrees fairly well with the limits of the X2 series. Thus is seems justified to treat separately the cases with expected frequencies of p equal or smaller that 0,1 and those with p larger than 0,1. A) When the different classes, wich may be two (alternative variability) or more (multiple variability, have all expected frequences of p between 0,1 and 0,9, we may use practically the X2 test with out any restriction. Quadros 8 and 9 show that the limits calculated for two binomials are practically identical with those of the X2 total. Nevertheless a special table is given (table 11) for the limits of binomials with p equal 0,5 and 0,25 and expected class frequencies of less than 10. One must not forget that in these cases the individual values of X2 for each class are of less importance than their sum, the X2 total. The value of X2 for each class may be calculated either with the general formula, using actual numbers or with a modified formula using percentages : X² = ( f obs - f esp)² = (f esp - NP)² f esp NP = (f obs - p%)2.N p% 100 In the case of alternative variability, we may calculate directly the value of the X2 total, by squaring the relative deviate : x² total = (f obs - f esp)² = (f obs - Np)² f esp NP = ( f obs % - p %) 2. N p % (100 - p%) B) If we have one or more classes with expected frequencies equal os smaller than 0,1 we have to deal with a Poisson series. As shown in Quadro 7 the agreement between the limits of the Poisson series and the X2-test for one classe (simple X2) is only satisfactory when the expected frequency, is larger than 10 and tolerable when it is between 5 and 10. If the expected number should be smaller still, we cannot use anymore the X2-test, but should use the values given in table I, calculated for Poisson series witr expected frequencies (in numbers) from 1 to 15. Very frequently the X2-test is used for comparing in detail observed and expected distributions, a test called sometimes "homogeneity test". Since generally the frequencies in the marginal classes are less than five, we have to accumulate by summing the frequencies from the more extreme classes towards the center, untill all accumulated and remaining values are at least equal to five. The statistical information, lost in this accumulating process, may be recovered when comparing the individual class frequencies with the limiting values in table 1. As ilustration, a concrete exemple is discussed. (Quadro 10). The formulas and tables of this paper have been tried out first during sometime and, having been found of considerable value in the execution of statistical analysis, are now published. In order to permit a more general use, a table of ordinary limits for the X2-test is included, taken from a recent paper (BRIEGER, 1946). Na aplicação do X2-teste devemos distinguir dois casos : Á) Quando as classes de variáveis são caracterizadas por freqüências esperadas entre p = 0,1 e p = 0,9, podemos aplicar o X2-teste praticamente sem restrição. É talvez aconselhável, mas não absolutamente necessário limitar o teste aos casos nos quais a freqüência esperada é pelo menos igual a 5. e porisso incluimos na Táboa II os limites da variação de dois binômios ( 1/2 + 1/2)n ( 1/4 + 3/4)n para valo r es pequenos de N e nos três limites convencionais de precisão : ,5%, 1% e 0,1%. Neste caso, os valores dos X2 Índividuais têm apenas valor limitado e devemos sempre tomar em consideração principalmente o X2 total. O valor para cada X2 individual pode ser calculado porqualquer das expressôe seguintes: x2 = (f obs - f esp)²>; f. esp = ( f obs - pn)2 pn = ( f obs% - p)2.N p% (100 - p%) O delta-teste dá o mesmo resultado estatístico como o X2-teste com duas classes, sendo o valor do X2-total algébricamente igual ao quadrado do valor de delta. Assim pode ser mais fácil às vezes calcular o X2 total como quadrado do desvio relativo da. variação alternativa : x² = ( f obs -pn)² p. (1-p)N = ( f obs - p %)2.N p% (100 - p%) B) Quando há classes com freqüência esperada menor do que p = 0,1, podemos analisar os seus valores individuais de X2, e desprezar o valor X2 para as classes com p maior do que 0,9. O X2-teste, todavia, pode agora ser aplicado apenas, quando a freqüência esperada for pelo menos igual ou maior do que 5 ou melhor ainda, igual ou maior do que 10. Quando a freqüência esperada for menor do que 5, a variação das freqüências observadas segue uma distribuição de Poisson, não sendo possível a sua substituição pela aproximação Gausseana. A táboa I dá os limites da variação da série de Poisson para freqüências esperadas (em números) desde 0,001 até 15. A vantagem do emprego da nova táboa I para a comparação, classe por classe, entre distribuições esperadas e observadas é explicada num exemplo concreto. Por meio desta táboa obtemos informações muito mais detablhadas do que pelo X2-teste devido ao fato que neste último temos que reunir as classes nas extremidades das distribuições até que a freqüência esperada atinja pelo menos o valor 5. Incluimos como complemento uma táboa dos limites X2, pára 1 até 30 graus de liberdade, tirada de um outro trabalho recente (BRIEGER, 1946). Para valores maiores de graus da liberdade, podemos calcular os limites por dois processos: Podemos usar uma solução dada por Fischer: √ 2 X² -√ 2 nf = delta Devem ser aplicados os limites unilaterais da distribuição de Gauss : 5%:1, 64; 1%:2,32; 0,1%:3,09: Uma outra solução podemos obter segundo BRIEGER (1946) calculando o valor: √ x² / nf = teta X nf = teta e procurando os limites nas táboas para limites unilaterais de distribuições de Fischer, com nl = nf(X2); n2 = inf; (BRIEGER, 1946).
- Published
- 1948
10. Architecture and sustainability: considerations about disassembly of buildings
- Author
-
Letícia França Mattaraia, Márcio Minto Fabricio, Akemi Ino, and Mônica Santos Salgado
- Subjects
Mathematics - Abstract
Este trabalho visa discutir duas importantes fases do edifício: a concepção do projeto e o final de sua vida útil, com enfoque na arquitetura sustentável. Logo nas primeiras idealizações do edifício, quando se inicia o conceito e projeto, já é importante considerar todo o seu ciclo de vida, até mesmo a fase de desmontagem ou demolição, como é mais comum atualmente. Através da demolição são gerados muitos resíduos que, grande parte das vezes, são despejados na natureza ou em aterros sanitários sem tratamento adequado, o que traz como consequência grande poluição ambiental e desperdício. Assim este trabalho tem o objetivo de analisar e avaliar processos de demolição ou desmontagem de edificações para propor diretrizes que visam reduzir o desperdício e o impacto ambiental, através de um desmonte racionalizado, no lugar da demolição. Inicialmente foi realizada revisão bibliográfica com o intuito de analisar o que está sendo estudado sobre o assunto no Brasil e no mundo. Um dos principais temas foi o Projeto para o Desmonte, pois é um assunto novo no setor e de grande relevância que vem sendo abordado em países preocupados com o desenvolvimento sustentável. A revisão bibliográfica se baseia principalmente no Design for Disassembly, Design for \"X\", desenvolvimento sustentável, arquitetura sustentável, análise do ciclo de vida e o ciclo de alguns materiais, reutilização e reciclagem, além da demolição. Para análise prática, foram realizados estudos de maneira a avaliar diferentes métodos construtivos e processos de demolições ou desmonte, além das possibilidades de reutilização e reciclagem, após a vida útil dos edifícios. Estes estudos foram realizados através de observação direta, isto é, acompanhamento de alguns processos de demolição ou desmontagem, visitas a obras, entrevistas com arquitetos e demais profissionais envolvidos, além de análise de documentos. Dessa maneira foi possível verificar diversos processos e buscar diretrizes para auxiliar a aplicação do Projeto para o Desmonte e reduzir os impactos ambientais. This paper aims at discussing two important phases of the building: the project design and the end of his life, focusing on sustainable architecture. In the first few idealizations of the building, when it starts the concept and design, it is important to consider the entire life cycle, even dismantling stage or the demolition, as is more common today. Through many demolition waste are generated, most times, are dumped in nature or in landfills without proper treatment, which consequently brings great environmental pollution and waste. Thus this work aims to analyze and evaluate processes demolition or dismantling of buildings to propose guidelines aimed at reducing waste and environmental impact, through a streamlined disassemble, instead of demolition. Initially literature review was performed in order to analyze what is being studied on the subject in Brazil and worldwide. A major theme was the Design for the Disassembly because it is a new subject in the field and of great importance that is being addressed in countries concerned with sustainable development. The literature review is mainly based on Design for Disassembly, Design for \"X\", sustainable development, sustainable architecture, analysis of the life cycle and the cycle of some materials, reuse and recycling, and demolition. For practical analysis, studies were performed in order to evaluate different methods of construction and demolition or dismantling processes, beyond the possibilities of reuse and recycling after the useful life of the buildings. These studies were conducted through direct observation, monitoring of some processes demolition or dismantling works visits, interviews with architects and other professionals involved, and document analysis. Thus it was possible to get various processes and guidelines to assist the application of Design for Disassembly and reduce environmental impacts.
- Published
- 2013
11. Brunnian braid groups and homotopy groups of the sphere S2
- Author
-
Ocampo Uribe, Oscar Eduardo, Daciberg Lima Goncalves, Tomas Edson Barros, John Guaschi, Alcibiades Rigas, and Daniel Vendruscolo
- Subjects
Mathematics - Abstract
A relação entre os grupos de tranças de superfícies e os grupos de homotopia das esferas é atualmente um tópico de bastante interesse. Nos últimos anos tem sido feitos avanços consideráveis no estudo desta relação no caso dos grupos de tranças de Artin com n cordas, denotado por Bn, da esfera e do plano projetivo. Nessa tese analisamos com detalhes as interações entre a teoria de tranças e a teoria de homotopia, e mostramos novos resultados que estabelecem conexões entre os grupos de homotopia da 2-esfera S2 e os grupos de tranças sobre qualquer superfície. No andamento deste trabalho, descobrimos uma conexão surpreendente dos grupos de tranças com os grupos cristalográficos e de Bieberbach: para n maior ou igual que 3, o grupo quociente Bn/[Pn, Pn] é um grupo cristalográfico que contém grupos de Bieberbach como subgrupos, onde Pn é o subgrupo de tranças puras de Bn. Com isto obtivemos uma formulação de um Teorema de Auslander e Kuranishi para 2-grupos finitos e exibimos variedades Riemannianas compactas planas que admitem difeomorfismo de Anosov e cujo grupo de holonomia é Z2k . Além disso, durante esta tese, detectamos e, quando possível, corrigimos algumas imprecisões em dois importantes artigos nessa área de estudo, escritos por J. Berrick, F. R. Cohen, Y. L. Wong e J. Wu (Jour. Amer. Math. Soc. - 2006) assim como por J. Y. Li e J.Wu (Proc. London Math. Soc. - 2009). The relation between surface braid groups and homotopy groups of spheres is currently a subject of great interest. Considerable progress has been made in recent years in the study of these relations in the case of the n-string Artin braid groups, denoted by Bn, the sphere and the projective plane. In this thesis we analyse in detail the interactions between braid theory and homotopy theory, and we present new results that establish connections between the homotopy groups of the 2-sphere S2 and the braid groups of any surface. During the course of this work, we discovered an unexpected connection of braid groups with crystallographic and Bieberbach groups: for n greater or equal than 3, the quotient group Bn/[Pn, Pn] is a crystallographic group that contains Bieberbach groups as subgroups, where Pn is the pure braid subgroup of Bn. This enables us to obtain a formulation of a theorem of Auslander and Kuranishi for finite 2-groups, and to exhibit Riemannian compact flat manifolds that admit Anosov diffeomorphisms and whose holonomy group is Z2k. In addition, during the thesis, we have detected, and where possible, corrected some inaccuracies in two important papers in the area of study, by J. Berrick, F. R. Cohen, Y. L. Wong and J. Wu (Jour. Amer. Math. Soc. - 2006), and by J. Y. Li and J. Wu (Proc. London Math. Soc. - 2009).
- Published
- 2013
12. Asymptotic stability for logistic models with delay
- Author
-
Juliana Rodrigues Dionisio Pereira, Sueli Mieko Tanaka Aki, Ma To Fu, and Suzinei Aparecida Siqueira Marconato
- Subjects
Dominance (ethology) ,General theory ,Exponential stability ,Stability theory ,Applied mathematics ,Type (model theory) ,Stability (probability) ,Mathematics ,Term (time) - Abstract
Esta dissertação tem como objetivo principal estudar a estabilidade assintótica de Equações Diferenciais com Retardamento utilizando as técnicas desenvolvidas por Faria e Liz (2003). Para analisar a estabilidade assintótica, a abordagem utilizada neste trabalho é a de impor uma condição de dominância do termo sem retardo sobre a parte com retardo, possibilitando o estudo de soluções oscilatórias. Além disso, o estudo culminará em um teorema que garante essa estabilidade em uma Equação do tipo Lotka-Volterra, para a qual o método de Liapunov não se aplica. Para atingir o objetivo, estudou-se inicialmente a teoria geral de estabilidade de Equações Diferenciais Funcionais e a teoria de estabilidade para alguns tipos dessas equações This paper\'s main objective is to study the asymptotic stability of Dierential Equations with Delay using the techniques developed by Faria and Liz (2003). To analyze the asymptotic stability, the approach used in this study is to impose a condition of dominance of the term without delay on the part delayed, allowing the study of oscillatory solutions. In addition, the study will culminate in a theorem ensures such stability in an equation Lotka-Volterra type, for which the Liapunov method does not apply. To achieve the objective, we studied initially the general theory of stability of Functional Dierential Equations and stability theory for some types of these equations
- Published
- 2013
13. Sequential decomposition from Sup-Representation of W-operators
- Author
-
Joel Edu, Sanchez Castro, Ronaldo Fumio Hashimoto, Junior Barrera, and Peter Sussner
- Subjects
Mathematics - Abstract
Os W-operadores são operadores invariantes por translação e localmente definidos dentro de uma janela W. Devido a sua grande utilidade em análise de imagens, estes operadores foram extensamente pesquisados, sendo que uma abordagem para o seu estudo é a partir da Morfologia Matemática. Uma propriedade interessante de W-operadores é que eles possuem uma sup-decomposição, ou seja, um W-operador pode ser decomposto em termos de uma família de operadores sup-geradores que, por sua vez, são parametrizados por elementos da base desse $W$-operador. No entanto, a sup-decomposição tem uma estrutura intrinsecamente paralela que não permite uma implementação eficiente em máquinas de processamento sequencial. Em um trabalho publicado em 2001, Hashimoto e Barrera formalizaram o problema de transformar a sup-decomposição em decomposições puramente sequenciais como um problema de encontrar soluções discretas de uma equação. Neste texto, estendemos o trabalho desenvolvido por eles. Estudamos e exploramos as propriedades matemáticas do problema, e desenvolvemos estratégias heurísticas para encontrar uma decomposição sequencial de um $W$-operador a partir de sua base que seja eficiente ao ser executado. W-operators are defined as operators which are translation invariant and locally defined within a finite window W. Due to their great contribution to image processing, these operators have been widely researched and used, specially in Mathematical Morphology. An interesting property of W-operators is that they have a sup-decomposition in terms of a family of sup-generating operators, that are parameterized by their basis. However, the sup-decomposition has a parallel structure that is not efficient in sequential machines. In a paper published in 2001, Hashimoto and Barrera formalized the problem of transforming sup-decompositions into purely sequential decompositions as a problem of finding discrete solutions of an equation. In this work, we extend Hashimoto and Barrera\'s approach. We study and explore mathematical properties of this problem and we elaborate heuristic strategies to find a sequential decomposition of a $W$-operator from its basis that can be executed efficiently.
- Published
- 2013
14. Evaluation of multiresidue methods of sample preparation for determination of antimicrobials in food: QuEChERS and MEPS
- Author
-
Raquel Lourenço Mendonça, Fernando Mauro Lanças, Maria Eugenia Queiroz Nassur, and Eny Maria Vieira
- Subjects
Chromatography ,Quechers ,Mathematics - Abstract
As Sulfonamidas (SAs) são antibióticos de uso muito comum na medicina veterinária, sendo também aplicadas na medicina humana. Os resíduos dessas substâncias, ou dos seus metabolitos na carne e outros alimentos, podem causar efeitos adversos para a saúde dos consumidores como, por exemplo, resistências a antibióticos e alergias. Este trabalho apresenta o desenvolvimento e aplicação de métodos modernos de preparo de amostra para determinação de multiresíduo de sulfonamidas em alimentos por cromatografia líquida acoplada a espectrometria de massas e ultravioleta visível. Dentre os métodos de preparo de amostra, aplicou-se o método de extração QuEChERS (Quicky, Easy, Cheap. Effective, Rugged, Safe) modificado, em combinação com a cromatografia liquida acoplada a espectrometria de massas, para a análise de dez sulfonamidas em amostras de músculo de frango e bovino. No segundo estudo, seguindo a tendência de miniaturização, sintetizou-se um polímero molecularmente impresso (Sulfadimetoxina-MIP) para uso como sorbente em dispositivos de Microextração com Sorbentes Empacotado (MEPS). O método, denominado SDM-MIP-MEPS, foi otimizado e aplicado em amostras de músculo de frango usando a cromatografia liquida com detecção por ultravioleta-visivel. Embora o uso do polímero molecularmente impresso (MIP) como sorbente seletivo para o MEPS já tenha sido reportada em dois trabalhos, pela primeira vez é descrito a aplicação de um MIP impresso com sulfdimetoxina (SDM), usando MEPS para extração de sulfonamidas em músculo de frango. Portanto, a novidade neste caso, é o uso da nova técnica extração miniaturizada (MEPS) com o polímero sintetizado sulfadimetoxina-MIP como sorbente de empacotamento. As metodologias foram validadas com sucesso de acordo com as diretrizes 657/2002/EU. Sulfonamides are widely used in veterinary and human medicine. Residues of these compounds, or their metabolites in animal meats and other foods, are toxic and can cause side effects in human\'s health, such as resistance to antibiotics and allergic reactions. This study describes the development and application of a modern sample preparation approach for sulfonamides multiresidue determination in food by chromatographic methods coupled to mass spectrometry and ultraviolet-visible spectroscopy. Among those sample preparation methods, the modified QuEChERS extraction in combination with liquid chromatography in tandem with mass spectrometric detection was applied to the analysis of residues of 10 sulfonamides in chiken and cattle muscle. In the second study, following the miniaturization trends, it was synthesized a molecularly imprinted polymer (Sulfadimethoxine-MIP), for application as sorbent in Microextraction by Packed Sorbents (MEPS). The extraction method was optimized and successfully applied to chicken muscle samples in combination with highperformance liquid chromatography by ultraviolet-visible detection. Although the use of MIPs as selective packing materials for MEPS has already been reported in two papers, is first time that application of a MIP imprinted with Sulfadimethoxine is evaluated for the extraction of sulfonamides in chicken muscle. Therefore the novelty of the present work is the use of this new miniaturization extraction technique with synthesized sulfadimethoxine-MIP polymer as packing sorbent. The methods were successfully validated according to the 2002/657/EC guidelines.
- Published
- 2013
15. A posteriori error estimator based on gradient recovery for the generalized finite element method
- Author
-
Rafael Marques Lins, Sergio Persival Baroncini Proença, Felício Bruzzi Barros, and Edson Cezar Wendland
- Subjects
Mathematics - Abstract
O trabalho aborda a questão das estimativas a posteriori dos erros de discretização e particularmente a recuperação dos gradientes de soluções numéricas obtidas com o método dos elementos finitos (MEF) e com o método dos elementos finitos generalizados (MEFG). Inicialmente, apresenta-se, em relação ao MEF, um resumido estado da arte e conceitos fundamentais sobre este tema. Em seguida, descrevem-se os estimadores propostos para o MEF denominados Estimador Z e \"Superconvergent Patch Recovery\" (SPR). No âmbito do MEF propõe-se de modo original a incorporação do \"Singular Value Decomposition\" (SVD) ao SPR aqui mencionada como SPR Modificado. Já no contexto do MEFG, apresenta-se um novo estimador do erro intitulado EPMEFG, estendendo-se para aquele método as idéias do SPR Modificado. No EPMEFG, a função polinomial local que permite recuperar os valores nodais dos gradientes da solução tem por suporte nuvens (conjunto de elementos finitos que dividem um nó comum) e resulta da aplicação de um critério de aproximação por mínimos quadrados em relação aos pontos de superconvergência. O número destes pontos é definido a partir de uma análise em cada elemento que compõe a nuvem, considerando-se o grau da aproximação local do campo de deslocamentos enriquecidos. Exemplos numéricos elaborados com elementos lineares triangulares e quadrilaterais são resolvidos com o Estimador Z, o SPR Modificado e o EPMEFG para avaliar a eficiência de cada estimador. Essa avaliação é realizada mediante o cálculo dos índices de efetividade. The paper addresses the issue of a posteriori estimates of discretization errors and particularly the recovery of gradients of numerical solutions obtained with the finite element method (FEM) and the generalized finite element method (GFEM). Initially, it is presented, for the MEF, a brief state of the art and fundamental concepts about this topic. Next, it is described the proposed estimators for the FEM called Z-Estimator and Superconvergent Patch Recovery (SPR). It is proposed, originally, in the ambit of the FEM, the incorporation of the \"Singular Value Decomposition (SVD) to SPR mentioned here as Modified SPR. On the other hand, in the context of GFEM, it is presented a new error estimator entitled EPMEFG in order to expand the ideas of Modified SPR to that method. In EPMEFG, the local polynomial function that allows to recover the nodal values of the gradients of the solution has for support clouds (set of finite elements that share a common node) and results from the applying of a criterion of least squares approximation in relation to the superconvergent points. The number of these points is defined from an analysis of each cloud\'s element, considering the degree of local approximation of the displacement field enriched. Numerical examples elaborated with linear triangular and quadrilateral elements are solved with the Z-Estimator, the Modified SPR and the EPMEFG to evaluate the efficiency of each estimator. This evaluation is done calculating the effectivity indexes.
- Published
- 2011
16. A study on the relationship between income polarization and crime in Brazil
- Author
-
Maria Isabel Accoroni Theodoro, Luiz Guilherme Dacar da Silva Scorzafave, Elaine Toldo Pazello, and Alexandre Sartoris Neto
- Subjects
Inequality ,media_common.quotation_subject ,Polarization (politics) ,Econometric methods ,Econometrics ,Spatial analysis ,media_common ,Mathematics - Abstract
Este trabalho estima o efeito da polarização de renda sobre os índices de criminalidade para avaliar se a polarização é mais relevante que as medidas de desigualdade tradicionais na explicação da criminalidade. Para o cálculo da polarização foi utilizada a medida proposta por Duclos et al. (2004). Foram estimados modelos com dados de corte transversal e em painel, utilizando dados dos municípios paulistas, empregando-se modelos de auto-correlação espacial e System GMM. A principal conclusão deste trabalho é que a medida de polarização de renda tem efeito positivo e significativo sobre a taxa de crimes contra o patrimônio, assim como esperado inicialmente. Este resultado é robusto a alterações no peso do sentimento de identificação entre os indivíduos, α, e aos diferentes métodos econométricos e variáveis de renda utilizadas para calcular as medidas de desigualdade. This paper estimates the effect of polarization of income on crime rates to assessing whether the polarization is more relevant than traditional measures of inequality in the explanation of crime. To calculate the polarization was used to measure proposed by Duclos et al. (2004). Models were estimated with cross-sectional and panel datas using models of spatial autocorrelation and System GMM. The main conclusion of this study is that the measure of income polarization has positive and significant effect on the rate of property crimes, as originally hoped. This result is robust to weight changes the feeling of identification among individuals, α, and different econometric methods and income variables used for calculate measures of inequality.
- Published
- 2011
17. Log-Birnbaum-Saunders mixed models
- Author
-
Cristian Marcelo Villegas Lobos, Gilberto Alvarenga Paula, Viviana Giampaoli, Victor Eliseo Leiva Sanchez, and Michelli Karinne Barros da Silva
- Subjects
Mixed model ,Diagnostic methods ,Estimation theory ,Calculus ,Applied mathematics ,Variance components ,Residual ,Random effects model ,Likelihood function ,Random intercept ,Mathematics - Abstract
O objetivo principal deste trabalho é introduzir os modelos log-Birnbaum-Saunders mistos (log-BS mistos) e estender os resultados para os modelos log-Birnbaum-Saunders t-Student mistos (log-BS-t mistos). Os modelos log-BS são bastante conhecidos desde o trabalho de Rieck e Nedelman (1991) e particularmente receberam uma grande atenção nos últimos 10 anos com vários trabalhos publicados em periódicos internacionais. Contudo, o enfoque desses trabalhos tem sido em modelos log-BS ou log-BS generalizados com efeitos fixos, não havendo muita atenção para modelos com efeitos aleatórios. Inicialmente, apresentamos no trabalho uma revisão das distribuições Birnbaum-Saunders e Birnbaum-Saunders generalizada (BSG) e em seguida discutimos os modelos log-BS e log-BS-t com efeitos fixos, para os quais revisamos alguns resultados de estimação e diagnóstico. Os modelos log-BS mistos são então apresentados precedidos de uma revisão dos métodos de quadratura de Gauss Hermite (QGH). Embora a estimação dos parâmetros nos modelos log-BS mistos seja efetuada através do procedimento Proc NLMIXED do SAS (Littell et al, 1996), aplicamos o método de quadratura não adaptativa a fim de obtermos aproximações para o logaritmo da função de verossimilhança do modelo log-BS de intercepto aleatório. Com essas aproximações derivamos as funções escore e a matriz hessiana, além das curvaturas normais de influência local (Cook, 1986) para alguns esquemas de perturbação usuais. Os mesmos procedimentos são aplicados para os modelos log-BS-t de intercepto aleatório. Discussões sobre a predição dos efeitos aleatórios, teste para o componente de variância dos modelos com intercepto aleatório e análises de resíduos são também apresentados. Finalmente, comparamos os ajustes de modelos log-BS e log-BS mistos a um conjunto de dados reais. Métodos de diagnóstico são utilizados na comparação dos modelos ajustados. The aim of this work is to introduce the log-Birnbaum-Saunders mixed models (log-BS mixed models) and to extend the results to log-Birnbaum-Saunders Student-t mixed models (log-BS-t mixed models). The log-BS models are well-known since the work by Rieck and Nedelman (1991) and particularly have received great attention in the last 10 years with various published papers in international journals. However, the emphasis given in such works has been in fixed-effects models with few attention given to random-effects models. Firstly, we present in this work a review on Birnbaum-Saunders and generalized Birnbaum-Saunders distributions and so we discuss log-BS and log-BS-t fixed-effects models for which some results on estimation and diagnostic are presented. Then, we introduce the log-BS mixed models preceded by a review on Gauss-Hermite quadrature. Although the parameter estimation of the marginal log-BS and log-BS-t mixed models are performed in the procedure NLMIXED of SAS (Littell et al., 1996), we apply the quadrature methods in order to obtain approximations for the likelihood function of the log-BS and log-BS-t random intercept models. These approximations are used to derive the respective score functions, observed information matrices as well as the normal curvature of local influence (Cook, 1986) under some usual perturbation schemes. Discussions on the prediction of the random effects, variance component tests and residual analysis are also given. Finally, we compare the fits of log-BS and log-BS-t mixed models to a real data set. Diagnostic methods are used in the comparisons.
- Published
- 2010
18. Use of non-conventional formulations of finite element method in the analysis of linear two-dimensional solids with multiple cracks
- Author
-
Higor Sergio Dantas de Argolo, Sergio Persival Baroncini Proença, Edgard Sant\'Anna de Almeida Neto, and Walter Savassi
- Subjects
Stress (mechanics) ,Polynomial ,Applied mathematics ,Field (mathematics) ,Fracture mechanics ,Element (category theory) ,Finite element method ,Stress intensity factor ,Domain (mathematical analysis) ,Mathematics - Abstract
O trabalho trata da utilização de formulações não-convencionais de elementos finitos na obtenção de fatores de intensidade de tensão associados a múltiplas fissuras distribuídas num domínio bidimensional. A formulação do problema de múltiplas fissuras baseia-se numa abordagem de sobreposição proposta pelo Método da Partição (\"Splitting Method\"). Segundo essa abordagem a solução do problema pode ser encontrada a partir da sobreposição de três subproblemas combinados de tal forma que o fluxo de tensão resultante nas faces das fissuras seja nulo. O uso do Método dos Elementos Finitos (MEF) em sua forma convencional pode requerer um refinamento excessivo da rede nesse tipo de problema, aumentando o custo computacional da análise. Objetivando reduzir este custo, empregam-se duas formulações não-convencionais, de forma independente, num dos subproblemas, dito local: a formulação híbrido-Trefftz de tensão e o Método dos Elementos Finitos Generalizados (MEFG). Na formulação híbrido-Trefftz é adotado o recurso do enriquecimento seletivo mediante o refrno- p na aproximação dos campos de deslocamento no contorno do elemento. Já com relação ao MEFG, empregam-se funções polinomiais e a solução analítica da mecânica da fratura como funções enriquecedoras. Exemplos de simulação numérica são apresentados no sentido de comprovar que a utilização dessas formulações não-convencionais juntamente com o Método da Partição viabiliza a obtenção de resultados com boa aproximação com recurso a redes pouco refinadas, reduzindo significativamente o custo computacional de toda a análise. This paper treats with the use of non-conventional finite element formulations to obtain the stress intensity factor of multiple cracks located in a two-dimensional domain. The formulation of the multiple cracks problem is based on an overlapping approach suggested by the Splitting Method. Accordingly, the solution of the problem can be achieved by dividing the problem in three steps, combined so that the resulting stress flux is zero on the cracks face. The use of the Finite Element Method (FEM) in its conventional formulation requires a mesh refinement in this kind of problem, then increasing the computational cost. Aiming to reduce this cost, two non-conventional formulations are used independently to solve the local problem: the Hybrid-Trefftz stress formulation and the Generalized Finite Elements Method (GFEM). The Hybrid-Trefftz formulation is applied with selective enrichment using p-refinement in the displacements field on the element boundaries. The GFEM employs polynomial functions and analytical solutions of the fracture mechanics as enrichment functions. Examples of numerical simulations are presented in order to show that non- conventional formulations and the Splitting Method can provide accurate results with coarse mesh, thus reducing the computational cost.
- Published
- 2010
19. A semi-parametric model for Taguchi´s On-Line Quality-Monitoring Procedure for Attributes
- Author
-
Miriam Harumi Tsunemi, Luís Gustavo Esteves, Sergio Wechsler, Linda Lee Ho, Jose Galvao Leite, Francisco Louzada Neto, and Josemar Rodrigues
- Subjects
Mathematics - Abstract
Este modelo contempla o cenário em que a sequência de frações não-conformes no decorrer de um ciclo do processo de produção aumenta gradativamente (situação comum, por exemplo, quando o desgaste de um equipamento é gradual), diferentemente dos modelos de Taguchi, Nayebpour e Woodall e Nandi e Sreehari (1997), que acomodam sequências de frações não-conformes assumindo no máximo três valores, e de Nandi e Sreehari (1999) e Trindade, Ho e Quinino (2007) que contemplam funções de degradação mais simples. O desenvolvimento é baseado nos trabalhos de Ferguson e Antoniak para o cálculo da distribuição a posteriori de uma medida P desconhecida, associada a uma função de distribuição F desconhecida que representa a sequência de frações não-conformes ao longo de um ciclo, supondo, a priori, mistura de Processos Dirichlet. A aplicação consiste na estimação da função de distribuição F e as estimativas de Bayes são analisadas através de alguns casos particulares In this work, we propose an alternative model for Taguchi´s On-Line Quality-Monitoring Procedure for Attributes under a Bayesian nonparametric framework. This model may be applied to production processes the sequences of defective fractions during a cycle of which increase gradually (for example, when an equipment deteriorates little by little), differently from either Taguchi\'s, Nayebpour and Woodall\'s and Nandi and Sreehari\'s models that allow at most three values for the defective fraction or Nandi and Sreehari\'s and Trindade, Ho and Quinino\'s which take into account simple deterioration functions. The development is based on Ferguson\'s and Antoniak\'s papers to obtain a posteriori distribution for an unknown measure P, associated with an unknown distribution function F that represents the sequence of defective fractions, considering a prior mixture of Dirichlet Processes. The results are applied to the estimation of the distribution function F and the Bayes estimates are analised through some particular cases.
- Published
- 2009
20. Avaliação metrológica da incerteza na medição de vazão mássica de gases com tecnologias volumétrica e pressão diferencial
- Author
-
Flavio Barbosa Melo, Goro Hiromoto, Claudio Garcia, and Orlando Rodrigues Junior
- Subjects
uncertainty principle ,volumetric analysis ,flowmeters ,measuring instruments ,Mathematics - Abstract
A avaliação metrológica da incerteza da medição, apesar de estar normalizada internacionalmente (ISO-GUM, 1995) desde a metade dos anos 90, só agora está se popularizando nas indústrias, nas escolas técnicas e de engenharia. Em algumas áreas, como na metrologia dimensional, está avançada e em outras, como na medição de variáveis de processos industriais tais como vazão, pressão e temperatura, ainda está numa fase intermediara. Um dos principais entraves para essa popularização é a falta de padronização da nomenclatura nas especificações técnicas dos instrumentos de medição, onde se declara a incerteza, por exemplo, de 1% de ?acurácia? sem definir se é percentual da leitura, da faixa calibrada ou da faixa máxima. Ou ainda, sem definir se a probabilidade de abrangência é 68, 95 ou 99,7%. Esse trabalho entra nesse cenário com a pretensão de clarificar e simplificar esses conceitos, começando pelo histórico da evolução do pensamento que transformou a incerteza numa variável quantitativa com sua avaliação efetuada de uma maneira padronizada e internacionalmente aceita. Em seguida é feita uma descrição conceitual sucinta do método ISO-GUM e também é desvendado o intrincado jogo de palavras e fórmulas das declarações de incertezas dos fabricantes de instrumentos de medição. Com o domínio desses conceitos, partimos para efetuar dois exemplos numéricos de avaliação metrológica de incertezas na medição de vazão, usando um conjuntos de fórmulas semelhantes Ás publicadas por renomados fabricantes de instrumentos de medição. No primeiro exemplo usando a medição de vazão por pressão diferencial com placa de orifício e no segundo usando um medidor volumétrico, nos quais são identificadas e quantificadas todas as potenciais fontes de incerteza. A visualização e a analise é feita através de gráficos e planilhas em Excel. In despite of the metrological evaluation of the measurement uncertainty have been internationally standardized (ISO-GUM, 1995) since the mid of the nineties, only now it?s getting popular in the industries, technical and engineering schools. In some fields like dimensional metrology it is advanced, while in others like in the process measurement industries like flow, temperature and pressure is still in an intermediate phase. One of the main barriers to this popularization is the lack of standardized nomenclature used in the technical data sheets of the measuring instruments, where is claimed, for example, 1% accuracy without defining whether is of the reading, span or upper range limit or even without defining the coverage probability. This paper enters into this scenario with the pretension of clarify and simplify this concept, starting with the historic and evolution of the thinking which transformed the uncertainty in a quantitative variable with it?s evaluation done in a standardized and internationally accepted way. Following is done a summarized description of the ISO-GUM method and also is unveiled the entangled play of words and formulas stated by instrument manufacturers. With the grasp of these concepts we begin start carrying out two worked examples of the metrological evaluation of flow metering uncertainty by renowned instrument makers. In the first example making use of an orifice meter and in the second one a volumetric flow meter, where the main components and sources of uncertainties are identified and quantified. The analysis and visualization is done through Excel curves and spread-sheets.
- Published
- 2007
21. Geostatistic application to forestry inventory
- Author
-
José Marcio de Mello, Joao Luis Ferreira Batista, Hilton Thadeu Zarate do Couto, Marcelo Silva de Oliveira, Jose Raimundo de Souza Passos, and Paulo Justiniano Ribeiro Junior
- Subjects
Mathematics - Abstract
Este trabalho teve como objetivo geral avaliar o uso da geoestatística aplicada ao inventário florestal. Especificamente avaliaram-se: a estrutura de continuidade espacial de quatro características dendrométricas, os métodos de ajuste e seleção de modelos da função de semivariância, o comportamento dos intervalos de confiança clássico e geoestatístico e o potencial da krigagem de bloco para a predição volumétrica por talhão. Os dados para realização do presente estudo foram obtidos num povoamento de 987 hectares de Eucalyptus grandis, com sete anos de idade, localizados no município de Itapetininga, São Paulo, pertencente à Votorantin Celulose e Papel (VCP). Pelos semivariogramas anisotrópico e isotrópico avaliou-se a estrutura de continuidade espacial das características: volume, diâmetro médio quadrático, área basal e altura média dominante. Dois modelos da função de semivariância foram ajustados para o volume, por meio de quatro métodos de ajuste e a seleção do melhor modelo foi efetuada a partir do critério de Akaike (AIC) e por meio das técnicas de validação cruzada e preditiva. Quanto às simulações estocásticas com o modelo geoestatístico, verificou-se o desempenho da cobertura do intervalo de confiança clássico e geoestatístico em relação à cobertura nominal. A predição volumétrica por talhão foi obtida da krigagem com simulação em cada um dos talhões do povoamento. Verificouse que as características dendrométricas mensuradas no inventário florestal apresentaram-se estruturadas espacialmente. Este resultado sugeriu que no processamento do inventário florestal deve-se considerar a componente espacial, ou seja, as parcelas não devem ser tratadas de forma independente. Sugere-se o uso conjugado do critério de Akaike e da validação cruzada para seleção de modelos da função de semivariância. Detectou-se que os intervalos de confiança clássico e geoestatístico apresentaram cobertura inferior à cobertura nominal, para uma população espacialmente contínua. Porém, a cobertura do intervalo de confiança do estimador clássico foi bem inferior à cobertura nominal, mostrando viés substancial na estimativa da variância da média quando há estrutura de continuidade espacial. Para populações fixas o estimador clássico proporcionou cobertura observada igual à cobertura nominal. Este resultado comprova a validade da aleatorização para uso do Teorema Central do Limite, na definição do intervalo de confiança, independente da estrutura de continuidade espacial. Na presença de continuidade espacial, o uso do estimador geoestatístico (krigagem de bloco), para estimativa do volume por talhão, é preferido por duas razões: proporciona estimativa da precisão sem viés e é de baixo custo quando comparado ao estimador clássico. This research evaluated the use of applied geostatistic forestry inventory. Specifically, it evaluated: the continuity of spatial structure of four dendrometric characteristics, the adjustment methods and model selection of the semi variance function, the behavior of classic and geostatístic confidence intervals and the potential of the block krigage for the stand volumetric prediction. Data were obtained in a 987 ha of Eucalyptus grandis forest plantation aged 7 years, located in Itapetininga county- São Paulo State, belonging to Votorantim Pulp and Paper (VCP). The spatial continuity structure of volume, quadratic average diameter, basal area and dominant average height was evaluated through the anisotropic and isotropic semi variogrammes. Two semi variance function models were adjusted for volume, through four adjustment methods. The selection of the best model was made starting from the Akaike information criterion (AIC) and through the crossed validation and prediction techniques. Departing from stochastic simulations, using geostatistic model the performa nce of the classic and geoestatístic confidence interval covering was verified, in relation to the nominal covering. The stands volumetric prediction was obtained from the krigage with simulation in each plantation stand. It was verified that the dendrométric characteristics measured in the forestry inventory presented spatially structured. This result suggested that, in the forestry inventory processing, spatial component should be considered, i.e., the plots should not be treated separately. It seems tha t the AIC and the cross validation for semi variance function model selection must be associated. It was detected that both classic and geostatistic confidence intervals presented lower covering than that of the nominal covering, for a spatial continuous population. However, the confidence covering interval of the classic estimator was much lower than the nominal covering, showing substantial bias in the estimate of the average variance, when there is structure of spatial continuity. For fixed populations, the classic estimator provided observed covering equal to the nominal covering. Thus, proving that the validity of the randomization for use of the Central Limit Theorem, in the definition of the confidence interval, independently of the structure of space continuity. The use of the geoestatístic estimator (block krigage) for estimating stand volume, in the presence of spatial continuity, is preferred because it provides unbiased and precise estimate at lower cost as compared to the classic estimator.
- Published
- 2004
22. Generelized finite element method in mixed variational formulation
- Author
-
Wesley Góis, Sergio Persival Baroncini Proenca, Flavio Luiz de Silva Bussamra, and Walter Savassi
- Subjects
Mathematics - Abstract
Este trabalho trata da combinação entre a formulação híbrida-mista de tensão (FHMT) (Freitas et al. (1996)), para a elasticidade plana, com o método dos elementos finitos generalizados (MEFG), Duarte et al. (2000). O MEFG se caracteriza como uma forma não-convencional do método dos elementos finitos (MEF) que resulta da incorporação a este de conceitos e técnicas dos métodos sem malha, como o enriquecimento nodal proposto do método das nuvens hp". Como na FHMT são aproximados dois campos no domínio (tensão e deslocamento) e um no contorno (deslocamento), diferentes possibilidades de enriquecimento nodal são exploradas. Para a discretização do modelo híbrido-misto empregam-se elementos finitos quadrilaterais com funções de forma bilineares para o domínio e elementos lineares para o contorno. Essas funções são enriquecidas por funções polinomiais, trigonométricas, polinômios que proporcionam distribuição de tensões auto-equilibradas ou mesmo funções especiais relacionadas às soluções dos problemas de fratura. Uma extensão do teste numérico abordado em Zienkiewicz et al. (1986) é proposta como investigação inicial das condições necessárias para garantia de estabilidade da resposta numérica. O estudo da estabilidade é completado com a análise da condição de Babuka-Brezzi (inf-sup). Esta condição é aplicada nos elementos finitos quadrilaterais híbridos-mistos enriquecidos por meio de um teste numérico, denominado de inf-sup teste, desenvolvido com base no trabalho de Chapelle e Bathe (1993). Exemplos numéricos revelam que a FHMT é uma interessante alternativa para obtenção de boas estimativas para os campos de tensões e deslocamentos, usando-se enriquecimento sobre alguns nós de malhas pouco refinadas This work presents a combination of hybrid-mixed stress model formulation (HMSMF) (Freitas et al. (1996)), to treat plane elasticity problems, with generalized finite element method (GFEM), (Duarte et al. (2000)). GFEM is characterized as a nonconventional formulation of the finite element method (FEM). GFEM is the result of the incorporation of concepts and techniques from meshless methods. One example of these techniques is the nodal enrichment that was formulated in the hp" clouds method. Since two fields in domain (stress and displacement) and one in boundary (displacement) are approximated in the HMSMF, different possibilities of nodal enrichment are tested. For the discretization of the hybrid-mixed model quadrilateral finite elements with bilinear shape functions for the domain and linear elements for the boundary were employed. These functions are enriched with polynomial functions, trigonometric functions, polynomials that generate self-equilibrated stress distribution, or, even special functions connected with solutions of fracture problems. An extension of the numerical test cited in Zienkiewicz et al. (1986) is proposed as initial investigation of necessary conditions to assure the stability of the numerical answer. The stability study is completed with the analysis of the Babuka-Brezzi (inf-sup) condition. This last condition is applied to hybrid-mixed enrichment quadrilaterals finite elements by means of a numerical test, denominated inf-sup test, which was developed based on paper of Chapelle and Bathe (1993). Numerical examples reveal that HMSMF is an interesting alternative to obtain good estimates of the stress and displacement fields, using enrichment over some nodes of poor meshes
- Published
- 2004
23. Characterization of monoflorais eucalyptus and orange honeys from the State of São Paulo by thermoanalytical techniques
- Author
-
Maria Lurdes Felsner, Jivaldo do Rosario Matos, Roy Edward Bruns, Luci Diva Brocardo Machado, Ligia Bicudo de Almeida Muradian, and Elisabeth de Oliveira
- Subjects
Mathematics - Abstract
Este trabalho apresenta o desenvolvimento e a otimização de metodologias analíticas para avaliação da temperatura de transição vítrea (Tg) por DSC e determinação do teor de umidade e cinzas por TG/DTG de amostras de mel. Além disso, foi realizado também um estudo da variabilidade nestes parâmetros físico-químicos e na temperatura de transição vítrea de amostras de méis monoflorais de eucalipto e laranja de algumas regiões do Estado de São Paulo. Para a avaliação termogravimétrica das amostras de mel, inicialmente foi realizado um estudo do comportamento térmico de padrões de carboidratos por TG/DTG, DSC e DTA Os resultados obtidos permitiram diferenciar as etapas de decomposição térmica correspondentes aos açúcares dos demais componentes presentes no mel. A variabilidade nos conteúdos de umidade e cinzas de méis de eucalipto e laranja foram investigadas por planejamento hierárquico e pela análise de variância (ANOVA) e verificou-se que estes parâmetros físico-químicos são significativamente diferentes no nível de 95% de confiança. Para o desenvolvimento e otimização de metodologias analíticas para a determinação do teor de umidade e de cinzas em mel por TG/DTG foram utilizados os métodos oficiais e aplicados planejamentos experimentais e um teste-F para a comparação entre variâncias. Os resultados sugeriram que para a obtenção de conteúdos médios de umidade e cinzas em mel por TG/DTG, similares aos encontrados pelos métodos oficiais, é necessário utilizar cadinho de alumina (150 µL), taxas de aquecimento de 5ºC/min e papel de microfibra de vidro. Além disso, a comparação entre a variabilidade do método termogravimétrico com os métodos oficiais para estas determinações sugeriu que não existem diferenças significativas entre os métodos investigados. Para as amostras de méis monoflorais de laranja e eucalipto foram determinadas temperaturas de transição vítrea médias de -47 e -55ºC, respectivamente sugerindo uma diferença significativa nesta propriedade física para estes tipos de méis. Além disso, entre o conteúdo de umidade e a temperatura de transição vítrea destes tipos de méis foi verificada uma correlação linear negativa significativa no nível de 95% de confiança (r = - 0,916). Assim pode-se dizer, que os parâmetros fisico-químicos umidade e cinzas obtidos pelos métodos oficiais ou pelo método termogravimétrico e a temperatura de transição vítrea determinada por DSC podem ser utilizados para a caracterização da origem floral destes tipos de méis. This work presents the optimization and development of analytical methodologies for evaluation of glass transition temperature (Tg) by DSC and for moisture and ash content determinations by TG/DTG of honey samples. Beyond this, a study of variability in these physicochemical parameters determined by conventional methods was realized for eucalyptus and citrus monofloral honeys of some regions of São Paulo State. For the thermogravimetric evaluation of honey samples, initially a study of thermal behavior of standard of carbohydrates was carried out by TG/DTG, DSC and DTA The results obtained allowed to distinguish the decomposition steps corresponding to the sugars in relation to other components present in honey. The variabilities in average moisture and ash contents of eucalyptus and citrus monofloral honeys were investigated by a hierarchical design and by an analysis of variance (ANOVA). These physicochemical parameters are significantly different at the 95% confidence level. For the development and optimization of analytical methodologies for moisture and ash contents in honey by TG/DTG conventional methods, experimental designs and a F-test for the comparison between variances were utilized. The results suggest that to get average moisture and ash contents in honey by TG/DTG similar to those found by conventional methods an alumine crucible (150 µL ), heating rates of 5ºC/min and microfiber glass paper should be used. Besides this, the comparison between the thermogravimetric method and the conventional ones for these determinations suggest that there are no significant differences between the methods investigated. For eucalyptus and citrus monofloral honeys average glass transition temperatures of -47 and -55ºC, respectively, were determined suggesting a significant difference in this physical property for these honey types. Besides this, a significant negative linear correlation at 95% confidence level (r = - 0.916) was verified between the moisture contents and glass transition temperatures of these honey types. So, it may be said that the physicochemical parameters, moisture and ash, obtained by conventional and thermogravimetric methods and the glass transition temperature determined by DSC can be utilized for the characterization of the floral origin of these types of honey.
- Published
- 2001
24. Not available
- Author
-
Paulo Cesar Espindola Frota and Afonso Decico
- Subjects
Mathematics - Abstract
O presente trabalho tem como objetivo principal fornecer informações básicas sobre o microclima e sua variação no interior de uma cultura de milho (Zea mays, L.), variedade Cargil 111, pelo estudo do comportamento dos fluxos de calor sensível e calor latente. A análise dos dados experimentais possibilitou a determinação das zonas de fonte e sorvedouro de calor sensível e calor latente, bem como as variações que se procederam no posicionamento e na intensidade dessas fontes e sorvedouros nos diferentes tratamentos, decorrentes das modificações introduzidas na técnica de plantio (orientação das plantas e espaçamento). Foram observadas também, variações no desenvolvimento da área foliar, no porte das plantas e na produtividade nos três tratamentos estudados. Com as técnicas introduzidas foram obtidos aumentos na produtividade dos tratamentos 1 e 2 (plantio orientado), de 33,3 e 41,4% respectivamente, em relação ao tratamento 3 (plantio tradicional), evidenciando, que a variação no microclima, provocou reações no comportamento das plantas no tocante a aumento de produtividade. The main objective of this paper is to provide basic information on the microclimate and its variation within maize (Zea mays, L.) crops, var. Cargil 111, through the study of sensible and latent heat fluxes within plant canopies. An analysis of the experimental data made it possible to determine regions of sources and sinks of sensible latent heat, as well as the intensity of the variations occurred in different treatments, as a result of the modifications in the sowing technique (orientation and plant density). Variations in the leaf area development, plant height and productivity for 3 treatments studied were observed also. The application of these techniques, showed an increase of 33.3 and 41.4% in productivity, for treatments 1 and 2 (oriented sowing) when compared to treatment 3 (traditional sowing), providing evidence that the variation in the microclimate, caused reactions in the plant behavior regarding productivity increase.
- Published
- 1978
25. Microdeterminação do arsênico
- Author
-
G. Ranzani
- Subjects
General Health Professions ,Analytical chemistry ,Microanalysis ,Test tube ,Mathematics - Abstract
Studying the application of those methods of microanalysis which avoid costly instalations and atempting to combine high precision with low cost, the author recomends a new method consisting of the following : a) exposure of a surface of 530.66 mm2 of Zn to the action of the acid. b) instalation of 3 series of HgBr2 paper in test tubes with an internal diameter of respectively 3,5 and 9 mm. c - mouting between two slides, covering the margins (with parafin etc.) with parafin in order to conserve the results of the determination without change due to the action of light or moisture. d) the results can be compared at a level of 0.00001 mgr. A203 or 0.000007575 mgr. As.
- Published
- 1947
26. Estudo sôbre as temperaturas médias em Campinas
- Author
-
Frederico Pimentel Gomes, Izaias Rangel Nogueira, and Hernani Godoy
- Subjects
Standard error ,General Health Professions ,Statistics ,Regression analysis ,Mathematics ,Degree (temperature) - Abstract
This paper deals with the study by orthogonal polynomials of trends in the mean annual and mean monthly temperatures (in degrees Centigrade) in Campinas (State of Sao Paulo, Brasil), from 1890 up to 1956. Only 4 months were studied (January, April, July and October) taken as typical of their respective season. For the annual averages both linear and quadratic components were significant, the regression equation being y = 19.95 - 0.0219 x + 0.00057 x2, where y is the temperature (in degrees Centigrade) and x is the number of years after 1889. Thus 1890 corresponds to x = 1, 1891, to x = 2, etc. The equation shows a minimum for the year 1908, with a calculated mean y = 19.74. The expected means by the regression equation are given below. Anual temperature means for Campinas (SP, Brasil) calculated by the regression equation Year Annual mean (Degrees Centigrade) 1890 19.93 1900 10.78 1908 19.74 (minimum) 1010 19.75 1920 19.82 1930 20.01 1940 20.32 1950 20.74 1956 21.05 The mean for 67 years was 20.08°C with standard error of the mean 0.08°G. For January the regression equation was y = 23.08 - 0.0661 x + 0.00122 x2, with a minimum of 22.19°C for 1916. The average for 67 years was 22.70°C, with standard error 0.12°C. For April no component of regression was significant. The average was 20.42°C, with standard error 0.13°C. For July the regression equation was of first degree, y = 16.01 + 0.0140X. The average for 67 years was 16.49°C, with standard error of the mean 0.14°C. Finally, for October the regression equation was y = 20.55 - 0.0362x + 0.00078x2, with a minimum of 20.13°C for 1912. The average was 20.52°C, with standard error of the mean equal to 0.14°C.
- Published
- 1959
27. Tratamento preservativo do bambu pelo processo do banho frio
- Author
-
Antonio Paulo M. Galvão
- Subjects
Toxicology ,Preservative ,Cubic foot ,General Health Professions ,Bambusa tuldoides ,Mineralogy ,Mathematics - Abstract
O presente trabalho relata resultados obtidos no tratamento preservativo de estacas rachadas e roliças de Bambusa tuldoides. Fornece dados sobre o período de tempo necessário à secagem das estacas, volume, absorções alcançadas nos tratamentos e custos por ano de serviço prestado. Conclui pela conveniência do tratamento preservativo. This paper deals with the preservative treatment of Bambusa tuldoides. The stakes 2 meters long were treated by the cold-soaking method in a 5% pentaclorofenol solution for 7 to 8 days. Results on volume, moisture content and air seasoning of stakes are presented. Retentions of preservative solution ranged from 9,3 to 35,8 kilogram per cubic meter (0,58 to 2,24 pounds per cubic foot). The cost year of service of a treated stake was Cr$ 5,58 and Cr$ 14,28 for the untreated. So, the preservative treatment of Bambusa tuldoides stakes is recommended.
- Published
- 1967
28. Sombreamento dos cafezais: III - Resultados do 5º biênio (1961/1962)
- Author
-
C. Godoy Junior and E. A. Graner
- Subjects
Horticulture ,Harvest time ,General Health Professions ,Infestation ,medicine ,Berry ,medicine.disease_cause ,Mathematics - Abstract
This paper deals with data obtained in 1961 and 1962 in shaded and unshaded coffee plots at Piracicaba, Sao Paulo, Brazil. The results can be summarized as follows: a - the production, in shaded and unshaded plots, did not show differences statistically significant; b - the percentage of coffee berry borer infestation was higher in shaded plots as compared with unshaded ones; c - coffee fruits brought from the field in the harvest time yielding up in sunshaded plots as compared with shaded ones.
- Published
- 1962
29. Contribuição para o estudo da influência da profundidade de trabalho do arado na produção agrícola
- Author
-
Hugo de Almeida Leme
- Subjects
Plough ,business.product_category ,Agriculture ,business.industry ,General Health Professions ,Soil water ,Agricultural engineering ,Silt ,business ,Mathematics - Abstract
A aradura é a principal das operações agrícolas para o desenvolvimento das diversas culturas. A sua importância é conhecida desde as mais remotas eras. Assim, os romanos já tinham sua teoria sobre aradura. Desta forma o arado, a mais antiga das máquinas agrícolas, foi sempre motivo de atenção dos agricultores, fabricantes e técnicos em mecânica agrícola. A sua evolução foi bastante grande. O estudo do arado sob o ponto de vista agrícola e econômico, para exata aplicação da máquina, nas diversas condições de solo, é de máximo interêsse para a mecânica agrícola. Assim sendo, para orientar a correta aplicação do arado, o que constitui a presente tese, foi experimentado num solo arenoso, de características mecânicas (areia total 75,7%, argila 13,5 e lôdo 10,8%) a diversas profundidades de aração, (5, 10, 15, 20, 25, 30cm), plantando nos mesmos, milho para verificar o efeito na produção. Num terceiro ano de experiência, foi realizada uma experiência a mais, isto é, uma subsolagem a 40 cm. Foi plantado milho nos canteiros assim trabalhados, e que eram repetidos em número de 4, porque o milho é uma cultura muito frequente e de fácil contrôle. As experiências com as diversas profundidades, demostraram que nestas condições de solo, à medida que aumenta a profundidade, aumenta também a produção. Do exposto, conclui-se pela experimentação que para esse solo é aconselhável: fazer o arado trabalhar a maior profundidade em que comumente é empregado até o limite de 25 cm, que foi o valor máximo examinado. No matter what crop is concerned, plowing the soil is the main agricultural practice. Its importance is well known since many centuries ago: suffices to say that the Romans before Christ already had a theory on plowing the land. Thus, the plow, the oldest agricultural implement, has always attracted the attention of farmers, engineers and people engaged on agricultural mechanics. For this reason, its evolution was remarkable. The study of the plow, under both an agricultural and an econcmic point of view, is of great interest to agricultural mechanica, since on such a kind of research is based the best method of application of the plow. The present paper deals with an experiment carried out to obtain data on the use and effect of plowing as related to different depths of doing it. The soil worked out presented the following characteristics: total sand - 75.7%, clay - 13.5%, silt - 10.8%; hence, it is a sandy soil. Plowing was made at the following depths: 5, 10, 15, 20, 25, and 30 cm. in the first two years; in the third year, another depth was included, that is, 40 cm., which corresponds to an under-plowing. The field trial was conducted with four replicates throughout, plots 50 X 20 m. being used. Corn was planted to find out the effects of the depth of plowing on such a crop. The following conclusions can be drawn: 1. on the experimental conditions, yield was directly proportional to the depth of plowing; in other words, the deeper the plow works, the best is the yield therein obtained; 2. it is therefore suggersted that on soils similar to this experiment's it is advisable to plow deeper than usual; a working depth of 252cm. is recommended.
- Published
- 1956
30. Contribuição ao estudo da aplicação do método da diagnose foliar ao algodoeiro (Grossypium hirsutum L., var. I. A. C. 817) II
- Author
-
Moacyr de O. C. do Brasil Sobrº, Henrique Paulo Haag, and Francisco de A. F. de Mello
- Subjects
Horticulture ,chemistry ,Yield (wine) ,Phosphorus ,General Health Professions ,Potash ,chemistry.chemical_element ,Hectare ,Mathematics - Abstract
This paper deal with one experiment carried out in order to study the correlation between petioles analysis and seed cotton yield. A 3X3X3 factorial with respect to N, P2 0(5) and K2 O was installed in a sandy soil with low potash content and medium amounts of total N and easily extractable P. Two kinds of petioles, newly mature were collected for analysis: those attached to fruit hearing branches, and petioles located on the stem; the first group is conventionally named "productive petioles"; The second one is called "not productive petioles". Petioles' sampling was done when the first blossoms appeared. Yield date showed a marked response to potash, both nitrogen and phosphorus having no effect. Very good correlation was found between petioles potash and yield. Both types of petioles samples were equally good indicators of the potash status of the plants. By mathematical treatment of the date it followes that the highed yield which was possible under experimental conditions, 1.562 kg of seed cotton per hectare would be reacher by using 128 kg of K2O per hectare. With this amount of potash supplied to the plants the following K levels would be expected in the petioles: "productive petioles" "not productive petioles" 1,93 % K 1,85 % K
- Published
- 1959
31. Sombreamento dos cafèzais II: resultados do 4.° biênio (1959/1960)
- Author
-
C. Godoy Junior and E. A. Graner
- Subjects
Horticulture ,Harvest time ,General Health Professions ,Botany ,Infestation ,medicine ,Berry ,medicine.disease_cause ,Mathematics - Abstract
This paper deals with data obtained in 1959 and 1960 in shaded and unshaded coffee plots at Piracicaba, Sao Paulo, Brazil. The results can be summarized as follows: a) the production, in shaded and unshaded plots, did not show differences statisticaly significant; b) the percentage of coffee berry borer infestation was higher in shaded plots as compared with unshaded ones; c) the percentage of green, ripened and dry fruits depends of the year and of the harvest time. In the same harvest time, both for shaded and for unshaded plots the percentages in the shaded plots were higher for green fruits and lesser for ripened and dry fruits; d) coffee fruits brought from the field in the harvest time yielding up in unshaded plots as compared with shaded ones; e) the relation grains/dry fruits was better in shaded plots.
- Published
- 1961
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.