In den letzten Jahren haben 3D-Kameras mit hohen Bildwiederholfrequenzen und g��nstigem Anschaffungspreis eine gro��e Verbreitung gefunden. Diese Kameras erlauben gleichzeitig Entfernung und Intensit��t zu messen und sind deshalb f��r viele Anwendungen interessant. Die Vermessung von Innenr��umen und die selbstt��tige Auto-Navigation seien als Beispiele genannt. Die Bestimmung der Bewegung der Kamera bzw. jener der beobachteten Objekte ist eine wichtige Teilaufgabe in all diesen m��glichen Anwendungen. Deshalb ist es wichtig Methoden zu untersuchen, die die Bewegung unter Verwendung der simultan erfassten Strecken- und Intensit��tsmessungen bestimmen. Diese Arbeit untersucht diese gemeinsame Verwendung von Strecken- und Intensit��tsmessungen f��r die Bewegungsbestimmung. Dabei wird die Bewegungsbestimmung sowohl von einer bewegten Kamera als auch von mehreren sich unabh��ngig bewegenden Objekten untersucht. Die gemeinsame Verarbeitung der Entfernungs- und Intensit��tsmessungen wird ��ber Range-Flow und Optical-Flow-Bedingungen realisiert. Der in Entfernungsbildern formulierte Range-Flow und der in Intensit��tsbildern formulierte Optical-Flow verwenden sehr ��hnliche mathematische Beschreibungen. Daher lassen sich beide sehr gut in einer gemeinsamen Parametersch��tzung zusammenfassen. Anhand dieser Flow-Algorithmen wird zuerst die relative Orientierung eines Paars von aufeinanderfolgenden Bildern bestimmt. Dabei wird ein hochgradig ��berbestimmtes Gleichungssystem gel��st um die sechs Parameter der relativen Orientierung zu berechnen. Die Trajektorie der bewegten Kamera ergibt sich dann aus der Sequenz aller paarweise berechneten relativen Orientierungen. Diese paarweise Aneinanderreihung f��hrt zu einer Aufsummierung von Fehlern, was sich in einem Gangfehler in der berechneten Trajektorie niederschl��gt. Um dieses Problem zu l��sen und somit eine global konsistente Trajektorie zu bestimmen, werden die Ergebnisse aller relativen Orientierungen in einer gemeinsamen B��ndelblockausgleichung eingef��hrt. F��r die Sch��tzung einer global konsistenten Trajektorie ist es wichtig denselben Objektbereich mehrmals zu erfassen und diese so entstehenden Schleifenschl��sse zu identifizieren. F��r Letzteres werden eindeutige Merkmale in den Bildern extrahiert und gematcht. In Innenraumbereichen k��nnen diese Merkmale selten auftreten wenn die Umgebung entweder einf��rbig ist oder ��ber sich wiederholende Muster verf��gt. In solchen Szenarien sind die Extraktion und das Matching von robusten Merkmalen somit sehr schwierig. In dieser Arbeit wird dieses Problem durch die gesch��tzten relativen Orientierungen in der B��ndelblockausgleichung gel��st. Somit kann die Orientierung auch dann noch genau gesch��tzt werden, wenn die Anzahl der Merkmale gering oder deren Verteilung ung��nstig ist. Der vorgestellte Algorithmus wird anhand einer ��ffentlichen Datenbank an Bildern getestet. Die Einordnung der Performance des Algorithmus in die dort ver��ffentlichten Vergleichswerte ("Benchmark") zeigt, dass er sich im Vergleich zu anderen aktuellen Methoden sehr gut h��lt. Die weitere Analyse anhand der Varianz-Komponenten-Sch��tzung in der B��ndelblockausgleichung hat gezeigt, dass die original gesch��tzten Genauigkeitswerte der relativen Orientierung viel zu optimistisch ausfallen. Im letzten Teil der Arbeit wird eine Methode vorgestellt, wie anhand einer statischen Kamera die Trajektorien von sich unabh��ngig voneinander bewegenden Objekten bestimmt werden kann. Auch hier wird wieder auf die gemeinsame Verwendung von Range-Flow und Optical-Flow zur��ckgegriffen. Die Bestimmung erfolgt in zwei Schritten. Im ersten Schritt werden lokale Bewegungsvektoren berechnet. Im zweiten Schritt werden diese einer globalen Optimierung unterzogen wodurch sich dann ein gegl��ttetes dichtes Feld von Bewegungsvektoren ergibt. Der Vorteil dieses Zugangs liegt darin, dass es auf ein lineares Gleichungssystem f��hrt, welches iterativ gel��st wird um grobe Fehler zu entfernen. Den Abschluss der Arbeit bildet ein praktisches Beispiel, bei dem die Bewegungsvektoren aufgrund eines Erdrutsches aus multi-temporalen Laserdaten bestimmt werden. Die Berechnung verwendet den Range-Flow und wendet diesen auf rasterbasierte digitale Oberfl��chenmodelle an. Zusammenfassend wurde in dieser Arbeit gezeigt, dass die gemeinsame Verwendung von Entfernungs- und Intensit��tsmessungen, die Kombination von lokalen und globalen Modellen und die Ber��cksichtigung der stochastischen Eigenschaften der Messungen bei der Parametersch��tzung durchf��hrbar und auch von Vorteil sind., In recent years, low cost, high frame rate 3D or range cameras, which simultaneously provide distance and intensity information have become commercially available. These cameras have gained a lot of interest in numerous applications. Indoor mapping and autonomous mobile navigation are two example applications, which have a lot of potential for such cameras. Motion estimation is an integral part of these applications. Therefore, it is vital to investigate methods and techniques for motion estimation, which can exploit the simultaneous availability of range and intensity information provided by these 3D cameras. This thesis investigates the integration of range and intensity data for the task of motion estimation. The motion estimation of a moving camera and motion estimation of independently moving objects are both investigated. The integration of range and intensity information is realized using range flow and optical flow constraints, which have been used for motion estimation in range and intensity images respectively. Range flow and optical flow lead to similar mathematical formulations, therefore they are well integrated into one estimation problem. Using these \textit{flow} algorithms, first a method of estimating relative orientation of a pair of camera frames is presented. A highly over determined system of equations is solved for estimating the six parameters of relative orientation between two frames of the range camera. The trajectory of the moving camera is then computed using sequentially estimated pair wise relative orientations. The concatenation of sequential pair wise orientations lead to drift and accumulation of errors which does not give a globally consistent trajectory. To solve this problem, a method utilizing relative orientations results in bundle adjustment is presented. Matching distinctive features in images helps to identify loop closures and revisit of an area, which is essential in obtaining a globally consistent trajectory. However, in indoor environments features may be sparse and due to similar looking environment robust feature matching can be very challenging. Thus, the solution proposed in this thesis, utilizes the estimated relative orientations in the bundle adjustment. So, even when the feature points are low in number and not well distributed across the image, the orientation can still be accurately estimated by using information from the relative orientation. The proposed algorithm is evaluated on a publicly available dataset and benchmark, which shows that the algorithm performs well in comparison to the state of the art algorithm. Furthermore, using variance component analysis in bundle adjustment, it is shown that the original accuracy estimates of the relative orientation are far too optimistic. Furthermore, this thesis presents a method for dense 3D motion estimation of independently moving objects with a static camera, which is also based on the integration of range flow and optical flow constraints. This method is based on two steps, in the first step the motion is estimated locally, while in the second step a global regularization is performed, which leads to smooth dense flow vectors. The advantage of such an approach is that it leads to a linear equation system, which is then iteratively solved to remove the outliers. In the end, an example of motion estimation on a landslide is presented. The motion estimation is realized using range flow constraint, which is applied on raster based digital surface models generated from the multi-temporal laser scanning data of a landslide surface. The thesis demonstrates the feasibility and the benefits of integrating range and intensity data, of combining global and local models, and finally of considering stochastic properties of the measurements in the parameter estimation.