Bibliographic Metadata

Title
Erstellung eines Werkzeugs zur Integration großer Datenmengen für die Lagerplanung / von Philipp Knödgen
Additional Titles
Creation of a tool to integrate large amounts of data for warehouse planning
AuthorKnödgen, Philipp
CensorRiester, Martin ; Sihn, Wilfried
PublishedWien, 2017
DescriptionVII, 122 Seiten : Illustrationen, Diagramme
Institutional NoteTechnische Universität Wien, Diplomarbeit, 2017
Annotation
Zusammenfassung in englischer Sprache
Annotation
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
LanguageGerman
Document typeThesis (Diplom)
Keywords (DE)Lagerplanung / Datenintegration
Keywords (EN)Warehouse planning / Data integration
URNurn:nbn:at:at-ubtuw:1-106355 Persistent Identifier (URN)
Restriction-Information
 The work is publicly available
Files
Erstellung eines Werkzeugs zur Integration großer Datenmengen für die Lagerplanung [10.23 mb]
Links
Reference
Classification
Abstract (German)

Die Logistikkosten, die innerhalb eines Lagers anfallen, werden zu einem großen Teil bereits während der Lagerplanung bestimmt. In der Literaturrecherche wird beim Vergleich verschiedener Lagerplanungsmodelle deutlich, dass den Planungsphasen Datenerfassung und -analyse eine elementare Bedeutung zukommt. Bei der Grobplanung gelten diese Planungsschritte, mit einem Anteil von über 50 Prozent, als die zeitintensivsten Phasen. Die kontinuierlich wachsende, zu verarbeitende Datenmenge und das Erstellen immer komplexerer und detaillierterer Systeme, stellt die Planung stets vor neue Herausforderungen. Zusätzlich steigt die Nachfrage an Flexibilisierung und Individualisierung der Prozesse. Zudem wurde festgestellt, dass hauptsächlich Tabellenkalkulationen und Datenbankmanagement-Systeme zur Verarbeitung von Stammdaten und Bewegungsdaten zum Einsatz kommen. Die Verwendung von gewöhnlichen Datenverarbeitungswerkzeugen kann aber, aufgrund der stetig zunehmenden Datenmenge, zu Herausforderungen und Problemen führen. Schnell sind Grenzen möglicher Zeilen pro Tabellenblatt erreicht. Zudem ist innerhalb dieser Programme die Aufbereitung und die Verknüpfung großer Datenmengen aufwendig und gleichzeitig zeitintensiv. Im Rahmen der vorliegenden Diplomarbeit wurde ein Lagerplanungswerkzeug entwickelt, welches als Planungshilfsmittel fungiert und die oben genannten Planungsphasen deutlich vereinfacht. Dieses Werkzeug basiert auf der ETL-Anwendung Pentaho Data Integration (PDI). Damit ist es möglich, die heterogenen Daten aus unterschiedlichen Datenquellen zu vereinheitlichen und anschließend in einer Datenbank bzw. in dem gewünschten Zielformat zu speichern. Dieser Prozess beinhaltet die Schritte der Datenextraktion, Datentransformation und der Datenladephase. Das entstandene Lagerplanungshilfsmittel ermöglicht, schnell eine Datenbasis für die weitere Planung zu schaffen und hilft somit, die Planungskosten zu senken. Zudem kann es universell durch die Anpassungen der Metadaten in verschiedenen Projekten zum Einsatz kommen. Ein denkbares Szenario ist, dass der Kunde die Metadatendatei vom Planungsdienstleister erhält und diese selbständig ausfüllt. So können schon beim Kunden erste Datenanalysen stattfinden. Ein weiterer Vorteil ist die übersichtliche Dokumentation innerhalb dieser Metadatendatei. Der Kunde sieht sofort, welche ursprünglichen Feldbeschreibungen mit den Feldnamen der Standardvorlage des Dienstleisters korrespondieren. Die Ausgabedateien sind so vorkonfiguriert, dass sie in zusätzlichen Planungshilfsmitteln zum Einsatz kommen können. Beispielsweise lässt sich zur Visualisierung der Ergebnisse das Programm Tableau Software nutzen, mit welchem sich die generierten Dateien schnell einlesen und interaktiv auswerten lassen.

Abstract (English)

The logistics costs of a warehouse are largely determined during the warehouse planning stage. Today, the warehouse plays a more important role in the success of the company than ever before. The distinction between production, transport and storage is blurred. Comparing different warehouse planning models makes it clear that the planning phases of data acquisition and analysis are of fundamental importance. These planning steps are the most time-consuming phases. The continuously growing amount of data and the creation of more complex and detailed systems leads to new challenges. In addition, the demand for more flexibility and individualization of processes is increasing. It was found that mainly spreadsheets and database management systems are used to process master data and transaction data. The use of these tools can cause problems because of the increasing amount of data. The limits of possible lines per worksheet are quickly reached. In addition, the preparation and linking of large amounts of data is difficult and time-consuming. Within the scope of this thesis, a warehouse planning tool was developed. It acts as a planning aid and simplifies the initial planning phases. The tool is based on the ETL application Pentaho Data Integration (PDI). This makes it possible to unify and store heterogeneous data from different data sources. The process includes the steps of data extraction, data transformation and data loading phase. In this way, a data basis for further planning is quickly created and planning costs are reduced. By modifying the metadata, it can be used in different projects. A possible scenario is that the customer receives the metadata file from the warehouse design company and fills it out independently. This means that initial data analyses can be carried out at the customer's location. A further advantage is the clear documentation within this metadata file. The customer immediately sees which original field descriptions correspond to the field names of the planning company's standard template. The output files are preconfigured so that they can be used in additional planning tools. For example, the Business Intelligence Tool Tableau Software can be used to visualize the results. With this software, the generated files can be fed into quickly and be evaluated interactively.

Stats
The PDF-Document has been downloaded 33 times.