29 results on '"Schach, Siegfried"'
Search Results
2. Weak Convergence Results for a Class of Multivariate Markov Processes
- Author
-
Schach, Siegfried
- Published
- 1971
3. On a Class of Nonparametric Two-Sample Tests for Circular Distributions
- Author
-
Schach, Siegfried
- Published
- 1969
4. The Asymptotic Distribution of Some Non Linear Functions of the Two-Sample Rank Vector
- Author
-
Schach, Siegfried
- Published
- 1969
5. Central Limit Analogues for Markov Population Processes
- Author
-
McNeil, Donald R. and Schach, Siegfried
- Published
- 1973
6. Nonparametric Symmetry Tests for Circular Distributions
- Author
-
Schach, Siegfried
- Published
- 1969
- Full Text
- View/download PDF
7. Reducing the probability of false positive research findings by pre-publication validation – Experience with a large multiple sclerosis database
- Author
-
Heinz Moritz, Ickstadt Katja, Held Ulrike, Daumer Martin, Schach Siegfried, and Ebers George
- Subjects
Medicine (General) ,R5-920 - Abstract
Abstract Background Published false positive research findings are a major problem in the process of scientific discovery. There is a high rate of lack of replication of results in clinical research in general, multiple sclerosis research being no exception. Our aim was to develop and implement a policy that reduces the probability of publishing false positive research findings. We have assessed the utility to work with a pre-publication validation policy after several years of research in the context of a large multiple sclerosis database. Methods The large database of the Sylvia Lawry Centre for Multiple Sclerosis Research was split in two parts: one for hypothesis generation and a validation part for confirmation of selected results. We present case studies from 5 finalized projects that have used the validation policy and results from a simulation study. Results In one project, the "relapse and disability" project as described in section II (example 3), findings could not be confirmed in the validation part of the database. The simulation study showed that the percentage of false positive findings can exceed 20% depending on variable selection. Conclusion We conclude that the validation policy has prevented the publication of at least one research finding that could not be validated in an independent data set (and probably would have been a "true" false-positive finding) over the past three years, and has led to improved data analysis, statistical programming, and selection of hypotheses. The advantages outweigh the lost statistical power inherent in the process.
- Published
- 2008
- Full Text
- View/download PDF
8. Allgemeine Theorie des Linearen Modells
- Author
-
Schach, Siegfried, Schäfer, Thomas, Schach, Siegfried, and Schäfer, Thomas
- Published
- 1978
- Full Text
- View/download PDF
9. Einige wichtige Modelle der Varianzanalyse
- Author
-
Schach, Siegfried, Schäfer, Thomas, Schach, Siegfried, and Schäfer, Thomas
- Published
- 1978
- Full Text
- View/download PDF
10. Ergänzungen zur Regressionsanalyse
- Author
-
Schach, Siegfried, Schäfer, Thomas, Schach, Siegfried, and Schäfer, Thomas
- Published
- 1978
- Full Text
- View/download PDF
11. Schatz- und Testverfahren bei Epidepmiologischen Studien
- Author
-
Schach, Siegfried, Infante, Armando, Koller, S., editor, Reichertz, P. L., editor, Überla, K., editor, Anderson, J., editor, Goos, G., editor, Gremy, F., editor, Jesdinsky, H.-J., editor, Lange, H.-J., editor, Schneider, B., editor, Segmüller, G., editor, Wagner, G., editor, Berger, J., editor, and Höhne, K. H., editor
- Published
- 1983
- Full Text
- View/download PDF
12. Reducing the Probability of False Positive Research Findings by Pre-Publication Validation - Experience with a Large Multiple Sclerosis Database
- Author
-
Daumer, Martin, Held, Ulrike, Ickstadt, Katja, Heinz, Moritz, Schach, Siegfried, and Ebers, George
- Published
- 2007
- Full Text
- View/download PDF
13. Hyperuricemia is Associated with Musculo-skeletal Pain - Results from a Cross-sectional Study
- Author
-
Comberg, Hans-Ulrich, primary and Schach, Siegfried, additional
- Published
- 2016
- Full Text
- View/download PDF
14. An Extension of the Hewitt-Savage Zero-One Law
- Author
-
Horn, Susan and Schach, Siegfried
- Published
- 1970
15. CENTRAL LIMIT ANALOGUES FOR MARKOV POPULATION PROCESSES
- Author
-
McNeil, Donald R., primary and Schach, Siegfried, additional
- Published
- 1980
- Full Text
- View/download PDF
16. Regressions- und Varianzanalyse
- Author
-
Schach, Siegfried, primary and Schäfer, Thomas, additional
- Published
- 1978
- Full Text
- View/download PDF
17. Statistical analysis of spatial and temporal dynamics of a bacterial layer in an aquatic ecosystem
- Author
-
Gerß, Joachim, Schach, Siegfried, and Urfer, Wolfgang
- Subjects
ddc:519 ,Spatial Resolution ,Active Bacterial Movement ,Variogram ,Ordinary Kriging ,Space-Time Process - Abstract
Do active vertical mass movements occur within a population of phototropic bacteria in the meromictic Lake Cadagno. An experiment was conducted in vivo to record vertical profiles of the parameters turbidity and temperature in a spatial resolution of 30 cm repeatedly over time. After eliminating the temporal dependencies within both the space-time data of turbidity measurements and temperatures, the respective spatial correlation structure can be estimated. Spatial prediction Kriging then offers a tool to enhance the observed spatial resolution of both processes. By means of the temporally repeated turbidity profiles the vertical position of the bacterial layer can be estimated at each time point. Obviously its vertical displacements in course of the observational time occur not only due to active bacterial swimming, additionally the bacteria are dragged along passively by internal waves in the lake. Eliminating this latter disturbing effect the estimated temperature instead of depth at the bounds of the layer in course of time allows to draw conclusions on the active component of bacterial movements. Such phenomena can be found especially at the lower bound of the bacterial layer with amplitudes up to more than 30 cm.
- Published
- 1999
18. Reducing the probability of false positive research findings by pre-publication validation – Experience with a large multiple sclerosis database
- Author
-
Daumer, Martin, primary, Held, Ulrike, additional, Ickstadt, Katja, additional, Heinz, Moritz, additional, Schach, Siegfried, additional, and Ebers, George, additional
- Published
- 2008
- Full Text
- View/download PDF
19. Book Review: Encyclopedia of Biostatistics (2nd ed.). By P. Armitage and T. Colton
- Author
-
Held, Leonhard, primary and Schach, Siegfried, additional
- Published
- 2007
- Full Text
- View/download PDF
20. Statistical Modelling of Physiological Heat Stress Response by Means of a Nonlinear Two-Stage Model
- Author
-
Gehring, Ulrike, primary, Broede, Peter, additional, Mehnert, Peter, additional, Griefahn, Barbara, additional, and Schach, Siegfried, additional
- Published
- 2001
- Full Text
- View/download PDF
21. A continuous time stochastic model for the utilization of health services
- Author
-
Schach, Elisabeth, primary and Schach, Siegfried, additional
- Published
- 1972
- Full Text
- View/download PDF
22. Markov models for multi-lane freeway traffic
- Author
-
Schach, Siegfried, primary
- Published
- 1970
- Full Text
- View/download PDF
23. Einfuhrung in die Mathematische Statistik: Wahrscheinlichkeitsrechnung und Grundlagen der Mathematischen Statistik D. Rasch
- Author
-
Schach, Siegfried
- Published
- 1979
- Full Text
- View/download PDF
24. Einfuhrung in die Mathematicsche Statistik (Book).
- Author
-
Schach, Siegfried
- Subjects
MATHEMATICAL statistics ,NONFICTION - Abstract
Reviews the book "Einführung in die Mathematicsche Statistik: Wahrscheinlichkeitsrcchnung und Grundlagen der Mathematischen Statistik," by D. Rasch.
- Published
- 1979
- Full Text
- View/download PDF
25. Analyse von Missklassifikationseffekten auf das attributable Risiko
- Author
-
Vogel, Christine, Schach, Siegfried, Gefeller, O., and Hartung, Joachim
- Subjects
Epidemiologie ,Missclassification ,Missklassifikation ,attributable risk ,epidemiology ,Attributables Risiko - Abstract
Das am weitesten verbreitetste epidemiologische Risikomaß ist das relative Risiko, es setzt die Erkrankungswahrscheinlichkeit unter Exponierten zur Erkrankungswahrscheinlichkeit unter Nicht-Exponierten ins Verhältnis. Das relative Risiko quantifiziert die Stärke des Zusammenhangs zwischen Exposition und Krankheit auf Individualebene. Die Risikosteigerung durch Exposition für das einzelne Individuum wird beschrieben. Dieses Risikomaß ist nicht geeignet zur Beurteilung eines Expositionsfaktors auf Populationsebene, da die Prävalenz der Exposition nicht eingeht. Dieser Gesichtspunkt wird von einem anderen, zunehmend an Bedeutung gewinnenden Risikomaß, dem attributablen Risiko, berücksichtigt. Es quantifiziert den Anteil der Kranken, welcher theoretisch durch vollständige Elimination der Exposition in der Bevölkerung vermieden werden könnte.Die Auswirkungen von Missklassifikationen auf das relative Risiko wurden in der epidemiologischen Literatur für eine Vielzahl von Missklassifikationsszenarien diskutiert. Hingegen beschränkt sich die Analyse der Missklassifikationseffekte im Kontext des attributablen Risikos auf einige wenige Modellsituationen. Lediglich die Effekte der isolierten nichtdifferentiellen Missklassifikation der Exposition oder Krankheit wurden für die 2x2-Situation untersucht. In diesen Modellsituationen ist das attributable Risiko zur Null hin verzerrt, sofern die Klassifikation besser als eine Zufallsklassifikation ist. Die einzige Ausnahme bilden Klassifikationen, bei denen Fehler in der Bestimmung des Expositions- bzw. Krankheitsstatus lediglich unter Nicht-Exponieren bzw. Kranken auftreten können, beides führt zu einem unverzerrten attributablen Risiko. Die weitgehende Übereinstimmung der Effekte auf das attributable Risiko mit denen auf das relative Risiko mag der Grund dafür sein, dass die Analyse der Auswirkungen von Missklassifikationen komplexerer Struktur auf das attributable Risiko im letzten Jahrzehnt nur wenig Beachtung in der epidemiologischen Forschung fand.Im Rahmen dieser Arbeit konnten die Auswirkungen nichtdifferentieller Missklassifikationen auf das attributable Risiko erstmals für ein breites Spektrum an Missklassifikationsstrukturen hergeleitet werden.Zur mathematischen Formalisierung der Missklassifikationsproblematik wurde ein flexibler matrix-orientierter Ansatz entwickelt, welcher die einheitliche Analyse einer Vielzahl von Missklassifikationsstrukturen ermöglichte: (i) nichtdifferentielle (unabhängige) Missklassifikation des Expositions- oder/und Krankheitsstatus, (ii) nichtdifferentielle abhängige Missklassifikation des Expositions- und Krankheitsstatus, sowie (iii) Missklassifikationseffekte bei Vorhandensein von Kovariablen, insbesondere Missklassifikation dichotomer bzw. polytomer Kovariablen.Die Struktur der nichtdifferentiellen unabhängigen Missklassifikation von Exposition und Krankheit lässt sich im matrix-basierten Ansatz multiplikativ aus den beiden marginalen Strukturen der isolierten nichtdifferentiellen Missklassifikation von Exposition oder Krankheit herleiten. Die multiplikative Zerlegung der Effekte nichtdifferentieller unabhängiger Missklassifikation von Exposition und Krankheit in die marginalen Effekte kann so begründet werden.Die Vorstellung, nichtdifferentielle Missklassifikation könne epidemiologische Risikomaße lediglich zur Null hin verzerren, wurde im Kontext des relativen Risikos bereits widerlegt. Unter der durchaus realistischen Annahme abhängiger Klassifikationsfehler ist eine Verzerrung weg von der Null oder Effektumkehr auch dann möglich, wenn die Missklassifikation die Voraussetzung der Nichtdifferentialität erfüllt. Das gleiche gilt für das attributable Risiko. Ein Vergleich mit den Auswirkungen von Missklassifikationen auf das relative Risiko zeigte zudem, dass neben quantitativen auch qualitative Unterschiede in den Effekten zu finden sind. Dies verdeutlichte somit bereits in der 2x2-Situation die Notwendigkeit der separaten Analyse für verschiedene epidemiologische Risikomaße.Wie beim relativen Risiko führt die nichtdifferentielle Missklassifikation dichotomer Kovariablen zu einem lediglich partiell adjustierten Risikomaß. Nichtdifferentielle Missklassifikation polytomer Kovariablen kann für beide Risikomaße neben partieller Adjustierung auch Überadjustierung oder Verstärkung des Confoundings hervorrufen, die Verzerrungsrichtungen der beiden Risikomaße müssen nicht übereinstimmen. Ein weiterer wichtiger Vorteil des matrix-basierten Ansatzes ist seine direkte Anwendbarkeit in matrix-basierten Korrekturverfahren.Die Resultate dieser Arbeit verdeutlichen, dass es aufgrund der algebraischen Unterschiede zwischen relativem Risiko und attributablem Risiko unumgänglich ist, die methodischen Überlegungen, die sich bisher vor allem auf das relative Risiko konzentrierten, für das attributable Risiko neu durchzuführen. Die Ähnlichkeit der Ergebnisse für simple Missklassifikationsstrukturen rechtfertigt keineswegs die leichtfertige Übertragung von bekannten Ergebnissen zu Missklassifikationseffekten im Kontext des relativen Risikos auf andere epidemiologische Risikomaße, welche häufig in der Diskussion von Studienergebnissen zu finden sind. Mit Hilfe des in dieser Arbeit bereitgestellten methodischen Instrumentariums kann eine die spezielle Missklassifikationsstruktur berücksichtigende Analyse der Auswirkungen von Klassifikationsfehlern in Exposition, Krankheit oder/und Kovariablen auf die Schätzung des attributablen Risikos durchgeführt werden.
- Published
- 2002
26. Fallzahladjustierung im Rahmen von klinischen Studien
- Author
-
Hennig, Michael, Neiß, A., Schach, Siegfried, and Urfer, Wolfgang
- Subjects
Fallzahl ,Klinische Studie ,Adjustierung - Abstract
In dieser Arbeit wird auf einen sehr wesentlichen Planungsaspekt bei klinischen Studien eingegangen: die möglichst genaue Abschätzung der benötigten Fallzahl. Zur Fallzahlplanung werden Vorinformationen über die Zielvariable, wie z.B. deren Streuung benötigt. Mit Hilfe von Fallzahladjustierungsverfahren ist es möglich, die Power einer Studie abzusichern, falls diese Vorinformationen nicht zutreffen. Die Verfahren lassen sich grob in zwei Kategorien einteilen: Verfahren, die eine Entblindung der Studiendaten benötigen vs. Verfahren, die ohne Entblindung arbeiten. In dieser Arbeit werden Verfahren zur Fallzahladjustierung bei klinischen Studien zum Nachweis der Überlegenheit einer Therapie gegenüber gestellt, weiter entwickelt und abschließend bewertet. Neben den klassischen Beurteilungskriterien wie Signifikanzniveau und Power werden mit der Verteilung der Fallzahl und der Weite des Konfidenzintervalls zwei zusätzliche wichtige Indikatoren vorgestellt und bei der Bewertung berücksichtigt. Auf der Basis von theoretischen Überlegungen und von umfangreichen Simulationsstudien werden für verschiedene Vergleichstypen die jeweiligen Adjustierungsmethoden hinsichtlich ihrer Eigenschaften verglichen. Dazu werden eine Reihe von relevanten Szenarien betrachtet, die einen differenzierten Vergleich zwischen den Methoden ermöglichen. Es stellt sich heraus, dass insbesondere 'unblinde' Verfahren zu einer leichten Inflation des Signifikanzniveaus führen, während bei 'blinden' Verfahren dieses Manko nicht auftritt. Dabei wird der Inflationsfaktor auch von dem Zeitpunkt der Fallzahladjustierung beeinflusst. Alle Verfahren sind in der Lage, die angestrebte Absicherung der Power im Wesentlichen zu gewährleisten - auch wenn es gewisse Situationen gibt, bei denen die geplante Power nicht ganz erreicht wird, oder aber bei weitem übertroffen wird.Beim Vergleich von Mittelwerten genügt die adjustierte Fallzahl einer gestutzten Chi-Quadrat-Verteilung. Adjustierungsverfahren, die die Fallzahl nur nach oben anpassen, liefern verzerrte Schätzungen der Fallzahl. Ebenso wirkt sich ein früher Adjustierungszeitpunkt negativ auf die Verteilung von N aus. Beim Vergleich von Ereignisraten zeigt ein etabliertes Verfahren eine unnötig große Streuung der Fallzahl. Eine notwendige Korrektur wird vorgestellt und beurteilt. Die Weite des Konfidenzintervalls zur Schätzung des Unterschiedes zwischen den Gruppen hängt insbesondere von der adjustierten Fallzahl ab - so dass Verfahren, die die Fallzahl stark nach oben korrigieren hinsichtlich dieses Beurteilungskriteriums am besten abschneiden.Für Repeated-Measurements-Designs gibt es in der Literatur erst einen Vorschlag für Adjustierungsverfahren. Motiviert von einer konkreten Phase-III-Studie wird hierzu eine neue Methode unter Berücksichtigung von wesentlichen logistischen Studienaspekten entwickelt und ebenfalls mittels einer Simulationsstudie bewertet. Eine Fallzahladjustierung, die auf die Entblindung der Daten angewiesen ist, hat immer einen Zwischenauswertungscharakter, da Unterschiede zwischen den Gruppen quantifiziert werden. Wenn also schon zu einem Zwischenzeitpunkt entblindet wird, so liegt es nahe, eine Zwischenauswertung durchzuführen. Aus dieser Motivation heraus sind Adjustierungsverfahren, die ohne Entblindung arbeiten, besonders interessant. In dieser Arbeit wird gezeigt, dass sowohl für den Vergleich von Mittelwerten als auch für den Vergleich von Ereignisraten leistungsfähige 'blinde' Methoden zur Fallzahladjustierung existieren.
- Published
- 2002
27. Regression and residual analysis in linear models with interval censored data
- Author
-
Topp, Rebekka, Universitat Politècnica de Catalunya. Departament d'Estadística i Investigació Operativa, Gómez Melis, Guadalupe, Gómez, G., and Schach, Siegfried
- Subjects
Estadística matemàtica ,interval censoring ,residual analysis ,Matemàtiques i estadística [Àrees temàtiques de la UPC] ,regression analysis ,1209. Estadística ,residuals ,Statistics::Methodology ,regression ,interval-censoroed data - Abstract
Meine Arbeit besteht aus zwei Teilen, die beide mit der Regressionsanalyse im Zusammenhang mit intervallzensierten Daten zu tun haben. Intervallzensierte Daten x sind solche Daten, die man nicht genau beobachten kann, sondern nur deren Intervalle [xL,xR], die mit Wahrscheinlichkeit 1 den wahren Wert von x enthalten.Im ersten Teil entwickle ich eine Schätztheorie für die Regressionsparameter im linearen Modell, wenn sowohl die abhängige als auch die unabhängige Variable intervallzensiert ist. Dabei benutze ich einen semiparametrischen Maximum Likelihood Ansatz, der die Schätzer für die Regressionsparameter durch die Maximierung der Likelihood Funktion bestimmt. Das Problem, das hierbei in meinem Kontext auftritt ist, dass die bei der Likelihoodmaximierung benötigte Dichtefunktion der Kovariante durch die Intervallzensierung nicht bekannt ist. Deswegen löse ich das Maximierungsproblem mit einem Algorithmus, der gleichzeitig die unbekannte Dichte der Kovariante bestimmt, und danach die dann vollständig bestimmte Likelihoodfunktion maximiert. Die Bestimmung der Kovariantendichte ist eine Modifikation des Ansatzes von Turnbull (1976), der eine nichtparametrische Schätztheorie vorschlägt. Die Maximierung der Likelihoodfunktion erfolgt dann wie normal durch Nullsetzen der Scorefunktion. Ich berechne die resultierenden Parameterschätzer für die Fälle, dass der Fehlerterm aus einer Verteilung der Exponentialfamilie oder der Weibullverteilung stammt. Ausserdem erweitere ich die Schätztheorie für den Fall, dass man ausser der intervallzensierten Kovariate noch zusätzlich einen unzensierten Kovariatenvektor im Modell hat. Da theoretische statistische Eigenschaften für die Schätzer nur schwer hergeleitet werden können, habe ich Simulationen durchgeführt, um die Güte der Schätzer bestimmen zu können. Für die gewählten Simulationsszenarien waren die mit meiner Methode geschätzten Werte für die Regressionsparameter immer sehr nah an den wahren Werten. Abschließend diskutiere ich noch zwei alternative Schätzmethoden für dieses Regressionsproblem.Im zweiten Teil meiner Arbeit beschäftige ich mich mit der Residualanalyse im linearen Modell wenn nur die Kovariante intervallzensiert ist, die abhängige Variable aber unzensiert ist. In diesem Fall stellt sich heraus, dass die zugehörigen Fehler des Modells, und damit auch die Residuen, intervallzensiert sind, und es tritt das Problem auf, dass die Residuen nicht direkt beobachtbar sind. Mein Ansatz zur Lösung dieses Problem ist der folgende: Da die Modellannahme N(0,s2)-verteilte Fehler vorsieht, ist die Verteilung der hier intervallzensierten Fehler eine durch das Fehlerintervall gestutzte Normalverteilung. Entsprechend ist die Verteilung der Residuen die -Verteilung gestutzt im zugehörigen Residualintervall. Die Fehlervarianz schätze ich dabei mit der Methode von Gómez et al. (2002). In einer Simulationsstudie vergleiche ich das Verhalten der so konstruierten Residuen mit dem der Residuen von Gómez et al. (2002) und einem naiven Typ von Residuen, die den Intervallmittelpunkt als das beobachtete Residuum annehmen. Dabei untersuche ich deren Verhalten sowohl im korrekt spezifizierten Modell, als auch für Fälle, in denen Modellverletzungen, wie zum Beispiel nichtkonstante Fehlervarianz oder eine falsch spezifizierte Regressionsgleichung, vorliegen. Die Resultate zeigen, dass meine Residuen in den meisten Szenarien für die Modellevaluierung benutzt werden könne, während das bei den anderen beiden Resiudaltypen nicht der Fall ist. Zum Schluß wende ich meine Residualtheorie auf einen Datensatz einer klinischen Studie an.
- Published
- 2002
28. Estimating the functional form of the effect of a continuous covariate on survival time
- Author
-
Holländer, Norbert, Schumacher, M., Schach, Siegfried, and Urfer, Wolfgang
- Subjects
risk function ,bootstrap aggregating ,proportional hazards model ,model building ,Proportionales Hazardmodell ,Risikofunktion ,Modellbildung - Abstract
Bei der Analyse vieler medizinischer Studien geht man davon aus, dass der Effekt stetiger Kovariablen auf die Zielgröße linear ist. Diese Annahme ist aber nicht immer zutreffend. In dieser Dissertation werden verschiedene Methoden zur Schätzung der funktionalen Form des Effektes einer stetigen Kovariable im Rahmen des Cox'schen proportionalen Hazardmodells untersucht. Dabei werden datenunabhängige und datenabhängige Methoden verwendet. Datenunabhängigkeit bedeutet hier, dass die generelle funktionale Form vorgegeben ist (z.B. bei restricted cubic splines, bei der Kategorisierung der stetigen Kovariable an fest vorgegebenen Cutpoints). Aus den Daten werden lediglich die Parameter dieser Funktionen geschätzt. Bei den datenabhängigen Methoden (z.B. der Kategorisierung anhand Ergebnis-orientierter datenabhängiger Cutpoints, der Modellierung des Effektes durch fractional polynomials) wird zusätzlich die funktionale Form aus den Daten bestimmt. Dieser Prozess der Modellbildung kann zu einem gravierenden `Overfitting' führen. Anhand einer fest vorgegeben Funktion läßt sich dagegen der wahre Effekt möglicherweise nicht korrekt beschreiben. Um eine bessere Schätzung für die Risikofunktion zu erhalten und die negativen Auswirkungen der Modellbildung zu reduzieren habe ich alle Methoden erweitert, indem ich das von Breiman (1996) vorgeschlagene bootstrap aggregating (bagging) auf das vorliegende Problem übertragen habe. Bei diesem Ansatz wird die Risikofunktion in einer Menge von Bootstrap-Stichproben geschätzt, wobei jeweils die gleiche Methode angewendet wird wie in den Originaldaten. Durch Mittelung aller in den Bootstrap-Stichproben geschätzten Risikofunktionen erhält man dann einen neuen aggregierten Schätzer für die Risikofunktion. Zur Illustration aller Methoden wird der Effekt der stetigen Kovariable Alter hinsichtlich der rezidivfreien Überlebenszeit von Patientinnen mit Mammakarzinom modelliert. Beurteilt werden die Methoden anhand einer Simulationsstudie, bei der typische Risikofunktionen zugrundegelegt wurden. Es konnte gezeigt werden, dass bagging besonders dann zu einer Verbesserung der geschätzen Risikofunktion führt, wenn der Prozess der Modellbildung in den Originaldaten einen instabilen Schätzer liefert. Weitere Aspekte wie z.B. die Anwendung verschiedener Fehlermaße zur Beurteilung der Ergebnisse oder die Verwendung verschiedener Ansätze, Risikofunktionen vergleichbar zu machen, werden ebenfalls diskutiert., In the analysis of many medical studies the effect of a continuous covariate on an outcome variable is assumed to be linear. However, this assumption is not appropriate in all situations. In this thesis several methods for estimating the functional form of the effect of one continuous covariate are investigated in the framework of the Cox proportional hazards model. In particular, I consider data-independent and data-dependent methods: Using data-independent methods (e.g. restricted cubic splines, the categorisation of the continuous covariate by fix cutpoints) the general functional form is given in advance, the data are used for estimating the parameters of these functions only. With data-dependent methods (e.g. the categorisation by data-driven cutpoints, modeling the effect by fractional polynomials) the functional form is estimated from the data, too. This process of model building can lead to a drastic `overfitting' whereas a specific prespecified functional form may be not suitable to describe the true effect correctly. In order to obtain more appropriate risk functions and to correct for bias caused by model building I extend all methods by adapting a method called bootstrap aggregating (bagging) proposed by Breiman (1996). With this approach the risk function is estimated in a set of bootstrap samples using the same method as in the original data. An aggregated risk function is then obtained by averaging the functions over all bootstrap samples. All methods are illustrated by modeling the effect of the continuous covariate age with respect to recurrence free survival in patients with breast carcinoma. Considering typical risk functions a simulation study was performed in order to assess all methods. It could be shown that bagging is able to improve the estimation of risk functions, if the model selection process led to an unstabe risk function in the original data. Other topics concerning e.g. the use of different error measures for the assessment of the results or the comparison of methods for making risk functions comparable are also discussed. Breiman L (1996): Bagging predictors. Machine Learning, 26:123-140. 1
- Published
- 2002
29. On the estimation of smooth autoregressive parameter fields with applications in ophthalmology
- Author
-
Krahnke, Tillmann, Schach, Siegfried, and Gather, Ursula
- Subjects
multifocal ,Spatiotemporal ,ERG ,autoregressive parameter fields ,AMD - Abstract
The focus of this doctoral thesis is on the analysis of data obtained from the multifocal ERG. An exploratory analysis of the data available is presented in Chapter 2. It is demonstrated that the data carry both spatial as well as temporal information. Therefore, a combination of techniques both from spatial statistics and time series analysis should be used to more adequately describe multifocal ERG data within a statistical framework.Ordinary least squares estimates for parameters from autoregressive time series models are the starting point. They are introduced in Chapter 3. It is seen there that a purely temporal analysis only partly describes the dynamics in the multifocal ERG data sets at hand, and that the spatial layout of the data should be accounted for explicitly.Chapter 4 therefore provides a spatial analysis of the data. Spatial smoothing is performed to remove noise inherent in the resulting estimators. The techniques of Kriging and SplineSmoothing are two candidates under study. They are introduced in Chapters 4 and 5, respectively. Applications to multifocal ERG data are added at the end of each of thesechapters, and arguments are given why modifications are desirable.A modified smoothing approach referred to as smoothing of AR-parameter fields is described in Chapter 6. It makes use of a fitting criterion that accounts both for spatial smoothness of the autoregressive parameter estimates as well as a satisfactory temporal fit to the observed data. It will be seen that the smoothed parameter estimates are well interpretable, while giving rise to only a small increase in the overall sum of squares for fit. Chapter 7 summarizes these results and gives some suggestions for future research. Empirical results obtained for the available data sets are combined in the appendix and complement the examples already described in the foregoing text., Die vorgelegte Arbeit befasst sich mit der statistischen Analyse zeitlich-räumlicher Daten aus dem Bereich der Augenheilkunde. Zur näheren Untersuchung der sog. altersabhängigen Makula-Degeneration (AMD), einer Gruppe von Erkrankungen der Netzhaut, wurden mit Hilfe des sogenannten multifokalen Elektroretinogramms an der Augenklinik der Universität Essen Daten gesammelt, die die elektrophysiologische Reaktion der auf der Retina befindlichen Rezeptoren auf optische Reize widerspiegeln. Die dabei gewonnen Daten können als zeitlich-räumliche Datensätze betrachtet werden, die auf einem auf die Retina projezierten Gitter von 103 Teilflächen erhoben werden. Jeder Teilfläche ist dabei eine Zeitreihe der Länge 122 msec zuordnenbar. Vier derartiger Datensätze standen für eine Analyse zur Verfügung. Eigentliches Ziel der Essener Studie ist die nähere Charakterisierung der elektrophysiologischen Response bei verschiedenen Ausprägungen der AMD. Dies soll zu einer verbesserten Diagnose führen. Die vorliegenden Datensätze bieten einen ersten Einstieg zu dem Versuch, die zu beobachtenden Dynamiken statistisch näher zu beschreiben. Eine erste explorative Analyse bestätigte die Erfahrung aus der Medizin, dass sich sowohl räumliche als auch zeitliche Strukturen in den Daten erkennen lassen. Diese werden in der aktuellen medizinischen Literatur jedoch vorwiegend deskriptiv analysiert. Dabei werden in aller Regel nicht die gesamten zur Verfügung stehenden Daten verwendet, sondern lediglich abgeleitete Statistiken, wie etwa Amplituden, betrachtet. Dies führt zu einem Verlust an Informationen, der vermieden werden sollte.In dem Bestreben, die in der Praxis verwendeten Analysetechniken aus statistischer Sicht zu verbessern, wurden zunächst bekannte Verfahren der Zeitreihenanalyse und der räumlichen Statistik betrachtet. Speziell wurden autoregressive (AR) Modelle sowie Kriging-Verfahren verwendet. Während erstere eine kompakte Parametrisierung der zeitlichen Dynamiken durch wenige Parameter erlauben, führen Kriging-Verfahren zu optimalen räumlichen Prognosen. Jedoch sind dabei die Modellierung der räumlichen Kovarianzstruktur sowie Kenntnisse über die Grundstruktur des zugrundeliegenden räumlichen Trends erforderlich. Da letztere in der Regel nicht im vorhinein vorhanden sind, wurden Thin Plate Spline-Verfahren als Alternative betrachtet. Diese Verfahren entsprechen unter gewissen Modellannahmen dem Kriging, eignen sich aber besser zur Schätzung glatter lokaler Trendstrukturen. Die Spline-Schätzer lassen sich dabei über einen Kleinste-Quadrate-Ansatz mit integriertem Strafterm ableiten, in welchem die Glätte der geschätzten Trendfläche über Bedingungen an deren Ableitungen beeinflusst wird.Der in dieser Arbeit vorgestellte neue Ansatz besteht nun in einer direkten Verknüpfung von Techniken der Zeitreihenanalyse mit denen der Schätzung räumlicher Trends durch Splines. Um eine kompakte und zugleich gut interpretierbare Charakterisierung der in einem Datensatz zu beobachtenden Dynamiken zu erreichen, erfolgt eine Glättung nicht im Beobachtungsraum selbst. Stattdessen werden die abgeleiteten AR-Parameter, welche räumlich zu Parameterfeldern anordnenbar sind, selbst geglättet. Um dabei die eigentlichen Beobachtungen nicht außer acht zu lassen, wird als Kriterium zur optimalen Schätzung eine zeitlich-räumliche Quadratsumme mit entsprechendem Strafterm für die Glattheit der AR-Parameter eingeführt. Ausgangspunkt sind dabei die lokal (d.h. für jede einzelne Zeitreihe) geschätzten Kleinste-Quadrate-Schätzer der AR-Parameter, da diese per constructionem die optimale Anpassung an die Daten liefern. Im Ergebnis erhält man Schätzer mit optimaler Anpassung an die Daten, bei gleichzeitig vorgegebener Glattheit der geschätzten Parameterfelder. Eine geschlossen Darstellung der so geglätteten Schätzer kann angegeben werden. Ausdrücke für die Differenz des neuen Schätzers zum ursprünglichen Kleinste-Quadrate-Schätzer, sowie zu dem aus einer einfachen Glättung der AR-Parameter (ohne Berücksichtigung der zeitlichen Anpassung) abgeleiteten Schätzer werden angegeben. Ebenso lässt sich die Veränderung in der Summe der quadrierten Residuen geschlossen darstellen.Bei der Glättung mit Splines ist die Auswahl von besonderen Glättungsparametern notwendig. Neben der expliziten Auswahl durch den Datenanalysten lässt sich dieser Parameter auch automatisch mit Hilfe der Verallgemeinerten Kreuzvalidierung bestimmen. Dieser Ansatz wurde auf den neu eingeführten Schätzer übertragen und auf die vier Datensätze angewandt. Es zeigte sich dabei, dass die resultierende kreuzvalidierte Schätzung der AR-Parameter numerisch sehr aufwendig zu berechnen und zugleich bisweilen unbefriedigend ist, da u.U. sehr stark geglättet wird. Dies ist insbesondere dann der Fall, wenn die AR-Parameter aus der zugrundeliegenden Kleinste-Quadrate-Schätzung kaum räumlich variieren und stattdessen eine starke Variabilität im Verhältnis zu eventuellen Trendstrukturen zeigen. Eine direkte Auswahl der Glättungs-parameter erscheint in solchen Fällen möglicherweise eher angezeigt. Gute Ergebnisse ließen sich jedoch dann erzielen, wenn grobe Strukturen bereits in den räumlich angeordneten Kleinste-Quadrate-Schätzeren zu erkennen waren. Diese traten nach der Glättung durch Kreuzvalidierung umso deutlicher hervor.
- Published
- 2002
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.