Titelaufnahme

Titel
Development of vertex finding and vertex fitting algorithms for CMS / Wolfgang Waltenberger
VerfasserWaltenberger, Wolfgang
Begutachter / BegutachterinFrühwirth, Rudolf ; Regler, Meinhard
Erschienen2004
UmfangIX, 171 S. : Ill., graph. Darst.
HochschulschriftWien, Univ. u. Techn. Univ., Diss., 2004
Anmerkung
Zsfassung in dt. Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (GND)LHC / CMS-Detektor / Zentraler Spurdetektor / Teilchen / Wechselwirkung / Punkt / Rekonstruktion / Algorithmus
URNurn:nbn:at:at-ubtuw:1-9592 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Development of vertex finding and vertex fitting algorithms for CMS [7.99 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Im CMS Experiment müssen Interaktionswechselwirkungspunkte (``Vertices'') der Teilchen rekonstruiert werden. Man unterscheidet zwischen ``primären'' Proton-Proton Kollisionsvertices und ``sekundären'' Zerfallsvertices. Das Problem der Vertexrekonstruktion wird des weiteren aufgeteilt in das statistische Problem, einen Vertex aus einer gegebenen Menge an Teilchenspuren zu schätzen, und in ein Mustererkennungsproblem. Hierbei ist die Aufgabenstellung, aus einer Gesamtmenge Untermengen von Teilchenspuren zu finden, die einen gemeinsamen Ursprungsvertex teilen. Die vorliegende Arbeit beschäftigt sich mit allen oben genannten Aspekten. Im Gebiet der Vertexschätzung wurden Robustifizierungen des Kalman Filters entwickelt, implementiert und untersucht. Die Vertexsuche betreffend wurden verschiedene, teils aus der Literatur bekannte Algorithmen der Problemstellung angepasst, implementiert und analysiert. Zu diesem Zweck musste eine Reihe an Softwaretools geschrieben werden. Es war notwendig, dem Anwender volle Kontrolle über die kinematischen und statistischen Eigenschaften zu ermöglichen. Dafür wurde ein Paket zur schnellen Simulation entwickelt. Eventweises Debuggen hingegen führte zur Entwicklung eines Visualisierungstoolkits. Ein einfacher Persistenzmechanismus (``data harvesting'') ermöglichte schnelleres Debuggen. Erst ein Paket, das Vertexsucher automatisch fein abstimmt, erlaubte einen unverzerrten Vergleich der verschiedenen Algorithmen.

Alle Algorithmen wurden auch in realistischen Anwendungen getestet. Im Gebiet der Vertexsuche wurde das Hauptaugenmerk auf die Verwendung der Vertexsucher im ``b-tagging'' gelegt. Im Bereich der Vertexschätzung wurde das Schätzen von Primärvertices mit Ausreißern und Sekundärvertices mit schlecht gemessenen Spuren getestet. Es konnte gezeigt werden, dass der adaptive Schätzer den klassischen Methoden, die mit ``harter'' Zuordnung arbeiten, überlegen ist.

Der Multi-Vertexschätzer konnte im Vergleich zu den klassischen Strategien bei gleichbleibenden b-tagging Ergebnissen die b-mis-tagging Raten wesentlich verringern. Darüberhinaus wurde ein exzellenter Kandidat für die Online-Vertexrekonstruktion gefunden: der adaptive Vertexrekonstruktor erzielt ebenfalls gute b-tagging Ergebnisse, und ist außerdem sehr schnell.

Robuste Schätzer sind in großem Maße abhängig von ihrer Initialisierung.

Verschiedene ``linearization point finders'' wurden analysiert. Ein bestimmter Algorithmus wurde als neuer Standardalgorithmus festgelegt. Er ist sehr schnell und liefert in einem weiten physikalischen Anwendungsbereich ausgezeichnete Anfangswerte. Viele ``linearization point finders'', darunter auch der neue Standardalgorithmus, bedürfen einer schnellen und dennoch präzisen Methode, den minimalen Abstand zwischen zwei Helices zu berechnen. Ein neuer Algorithmus wurde implementiert; er ist den bisherigen Methoden weitaus überlegen.

Zusammenfassung (Englisch)

In the CMS detector interaction vertices of particles will have to be reconstructed. We distinguish between proton-proton collision vertices (``primary vertices'') and decay vertices (``secondary vertices''). We furthermore categorize into fitting a given set of tracks into a vertex, and finding sets of compatible track bundles, ``vertex finding''. This PhD thesis deals with the tasks of finding and fitting of primary and secondary vertices.

In the field of vertex fitting robustifications to the classical Kalman filter formalism have been developed, implemented, and tested. In vertex finding several algorithms found in literature have been identified, implemented, and tested.

To this end it was necessary to develop a fairly large set of tools. The necessity for full control over event kinematics and the reconstructed tracks lead to the implementation of a fast simulation package. The event-by-event debugging process triggered the development for a special-purpose visualization. A simple persistency mechanism (``data harvesting'')· that allows for faster debugging cycles was developed. A package that automatically tunes vertex finders made fair comparisons between different algorithms possible.

All algorithms have also been tested in realistic use cases. On the finding side strong emphasis was put on the use case of employing vertex finding algorithms in the context of b-tagging; vertex fitting was tested in the application of primary vertex fitting with outlying tracks and secondary vertex fitting with mis-measured tracks. It could be shown that the adaptive vertex fitting method is superior to the classical algorithms that operate with ``hard assignment''. In the vertex finding section, the multi vertex fitter method improved b-mis-tagging rates significantly, while maintaining the same level of b-tagging rates as the classical strategies. Also, a likely candidate for online vertex reconstruction could be identified:

the adaptive vertex reconstructor. This method, while it is extremely fast, also exhibits an excellent b-tagging performance.

Robust fitting methods depend heavily on their initialization. Various linearization point finders were studied, one of which was identified as the· new default algorithm. It is a fast algorithm which has an excellent performance over a wide range of applications. Many linearization point finders, including the default method, need good and fast ways to compute the minimal· distance between two helices. A new algorithm was implemented that outperforms the previous methods.