The combination two-dimensional detectors, powder diffraction and synchrotron light sources has been staggeringly successful, opening doors to many new experiments. The great advantages of such data collection lie in the short exposure times as well as in the huge redundancy. A large angular region of the Bragg cone is recorded in a single exposure; indeed most detectors are set up perpendicular and centrally to the primary beam, intercepting the Bragg cone over the entire azimuthal range. The standard practice is to integrate the image along the ellipses described by the intersection of the cone with the planar detector to a conventional powder pattern. This commonly reduces the amount of information by the square root of the number of pixels. Does this represent the gamut of information contained in a powder diffraction image? A glance at an image from a calibration standard might lend itself to such a conclusion. Less perfect samples, as well as sample environments leave distinctive artefacts on images. How can they be extracted, filtered or interpreted? Methods offering answers to these questions are introduced. The origins of powder diffraction were based on diffraction images, however with the onset of equatorial electronic point detectors all high quality powder diffraction experiments switched to this method. It has remained the experimental doctrine to this day. Only recently have powder diffraction scientists rediscovered the allure of diffraction images. Indeed high pressure powder diffraction experiments are unthinkable without two-dimensional detectors. What seems like such a positive development does, on closer inspection have its problems. Two dimensional correction factors effectively do not exist for powder diffraction experiments. All commonly used Lorentz and polarization (LP) corrections are meaningless outside the thin equatorial strip for which they were determined. Furthermore various other detector and geometry dependent factors have to be considered should a high quality powder diffraction pattern be extracted from the image. The first chapter of this thesis takes on this challenge and presents all applicable two-dimensional correction factors, as well as the basis for their application: the experimental set-up. Determining the geometry to the highest possible precision is paramount to the quality of the experiment. How can one achieve this goal, without losing oneself in diverging refinements and renitent analysis software? Pattern recognition methods and whole image refinement have been used to solve the two main problems of calibration and are presented in the second chapter. The first global search gives sensible starting values for what is probably the most extreme refinement single pattern powder diffraction has to offer: whole image refinement. Here the entire two-dimensional image is rebuilt, based on the initial values, and subtracted from the experimental image. This residual is then minimized using a Levenberg-Marquardt non-linear least squares refinement algorithm. This method leads to calibrations that are at least one order of magnitude more precise than traditional calibration routines. This is of fundamental importance for the effective use of future high resolution area detectors. A perfect calibration does not suffice to ensure a successful data reduction. Especially in situ experiments - the forte of two-dimensional detectors cause intensity aberrations that need to be removed before the image can successfully be integrated to a conventional powder diffractogram. The source of deviations can be sorted into two camps: those originating from the sample environment and those emanating from the sample itself. Of course the former is both more easily recognized visually and also removed more simply by the fractile filters presented in the third chapter. When intensity deviations originate from the sample the matter becomes far more complex. A new distribution function, the normal Pareto function, has been shown to describe the intensity distribution that results from small sample amounts without substantial sample rotation, as is the case in high pressure powder diffraction. The great benefit of this function is that it opens the possibility of extracting a fractional filtering setting which ultimately leads to normally distributed intensities. Structural analysis from diffraction data is always connected to a plethora of reliability values, describing the raw data as well as the refinement quality. Powder diffraction images completely lack any numerical estimation of their quality. Functions giving universally comparable, detector independent reliability values for images can be found in chapter four., Die Kombination von Pulverdiffraktometrie, großen Flächendetektoren und Synchrotronquellen ist phänomenal erfolgreich und ermöglicht viele neue Experimente. Die großen Vorteile solcher Datengewinnung liegen in den kurzen Belichtungszeiten sowie in der enormen Redundanz. Ein großer Winkelbereich des Brechungskegels wird in einer einzigen Belichtung erfasst, häufig wird sogar der gesamte Kegelschnitt detektiert, da die meisten Kameras rechtwinklig und mittig zum Primärstrahl positioniert sind. Es ist dann gebräuchlich, die gesamten Ellipsen, die die Kegelschnitte beschreiben, zu einem konventionellen Pulverdiffraktogramm zu integrieren. Üblicherweise wird die Datenmenge um eine Quadratwurzel der Anzahl der Pixel reduziert. Gibt dieses jedoch die komplette Information aus dem Streuungsbild zufrieden stellend wieder? Ein Blick auf ein ideales Kalibrierungsbild könnte einen solchen Schluss nahe legen. Minder perfekte Proben sowie Effekte von Probenumgebungen hinterlassen jedoch starke Spuren auf den Bildern. Hier liegt das Problem: Wie können auch solche Daten gefiltert und interpretiert werden? In dieser Arbeit werden Methoden vorgestellt, die darüber Aufschluss geben und die Ergebnisse von verblüffender Qualität ermöglichen. Ursprünglich basierte die Pulverdiffraktometrie auf Streubilder. Mit der Ankunft der äquatorialen Punktzählrohren übernahm diese Methode die Messherrschaft über qualitativ hochwertige Pulverdiffraktogramme. Bis heute setzt sich diese experimentelle Doktrin durch. Kürzlich haben Wissenschaftler aber die Vorzüge der Streubilder wiederentdeckt. So ist beispielsweise die gesamte Hochdruckpulverdiffraktometrie ohne den Einsatz von großen zweidimensionalen Detektoren undenkbar. Was auf dem ersten Blick als Segen daherkommt, bringt allerdings auch einige Probleme mit sich. Es existieren effektiv kaum zweidimensionale Korrekturfunktionen für die Pulverdiffraktometrie. Alle gebräuchlichen Lorentz und Polarisationskorrekturen (LP) sind außerhalb des dünnen äquatorialen Bereichs, für den sie entwickelt wurden bedeutungslos. Weiterhin müssen viele geometrische und detektorische Eigenschaften in die Korrekturen einfließen, um ein qualitativ hochwertiges Pulverdiffraktogramm aus dem Bild zu extrahieren. Diesem Problem nimmt sich das erste Kapitel dieser Arbeit an: Es stellt alle nötigen Korrekturfunktionen dar, zusammen mit ihrer Basis: der geometrischen Beschreibung des experimentellen Aufbaus. Die Bestimmung aller geometrischen Parameter zur höchstmöglichen Präzision ist bedeutsam für die Qualität des Experiments. Wie erreicht man dieses Ziel, ohne sich in den Wirren divergierender Verfeinerungen und Analysesoftware zu verlieren? Hier werden Methoden der Mustererkennung und das so genannte ‚whole image refinement‘ also die Komplettbildverfeinerung eingesetzt um die beiden Hauptprobleme der Kalibrierung zu lösen. Methode eins, die Mustererkennung, ist eine globale Optimierung, gibt vernünftige Startwerte für die zweite Methode, eine lokale Optimierung der Parameter durch ‚whole image refinement‘. Hier wird das gesamte zwei-dimensionale Bild basierend auf den Startwerten und den Probeneigenschaften berechnet und vom experimentellen Bild abgezogen. Die Differenz wird gewichtet und stellt für den Minimierungsalgorithmus den zu reduzierenden Kostenfaktor dar. Diese Methode führt zu Kalibrierungen, die mindestens eine Größenordnung genauer sind, als solche die man mittels traditioneller Methoden errechnet. Dieses ist für die effektive Nutzung zukünftiger hoch auflösender Detektoren von fundamentaler Bedeutung. Eine perfekte Kalibrierung reicht allerdings nur in der seltensten Fällen für eine gelungene Integration. Gerade in situ Experimente welche die Stärke der zwei-dimensionalen Detektoren sind verursachen stark abweichende Intensitäten. Diese lassen sich nach Ihrem Ursprung unterscheiden: Entweder sie stammen von der Probenumgebung oder von der Probe. Natürlich sind die ersteren leichter mit dem Auge zu erkennen und auch leicht mit Filter zu entfernen die in Kapitel drei vorgestellt werden. Schwieriger gestaltet es sich bei den letzteren. Eine neue Verteilungsfunktion, die normale Pareto Verteilung, beschreibt die Intensitätsverteilung von kleinen Probenmengen, die kaum im Strahl rotiert werden. Diese Verhältnisse werden gerade bei Hochdruckuntersuchungen realisiert. Der große Vorteil dieser Beschreibung ist: Sie eröffnet die Möglichkeit, vernünftige Filtereinstellungen zu berechnen, die dann eine normale Verteilung wieder herstellen können. Strukturanalysen werden immer von einer Vielzahl von R-(reliability) Werten begleitet, die die Rohdatenqualität sowie die Verfeinerungsqualität bewerten. Pulverstreuungsbilder sind in dieser Beziehung bisher leer ausgegangen. In Kapitel vier werden Funktionen für universell vergleichbare, Detektor unabhängige R-Werte vorgestellt.