Das Open Research Knowledge Graph (ORKG) hat das Ziel, die jährlich Millionen veröffentlichten wissenschaftlichen Publikationen (’Paper’) in einer strukturierten, maschinell verarbeitbare Darstellung zu bringen. Diese Darstellungsform wird Wissensgraph genannt, der die Aussagen (’Statements’) einer Publikation repräsentieren. Das hat den Vorteil gegenüber Texten, die Aussagen von Papern als Wissensgraph mittels voll automatischen Comparison-Methode zu vergleichen. Das Resultat einer Comparison-Methode entspricht nicht immer den Vorstellungen des Nutzers, da es passieren kann, dass Aussagen nicht verknüpft wurden. Die Funktionalität dies anzupassen wird im Comparison-Feature des ORKG nicht bereitgestellt. Diese Arbeit befasst sich mit der Verbesserung der Usability, dem Hinzufügen von Funktionalität zur Abdeckung der Benutzerziele für das Anpassen von Comparisons und dem Erstellen einer nutzerzentrierten Comparison-Methode. Mittels heuristischer und metrischer Analysen werden Usability-Defizite des ComparisonFeature gefunden und gemessen. Basierend auf der Analyse und neu gewünschten Funktionen, werden die Anforderungen abgeleitet. Daraus wurden dann Konzepte mit dem Fokus auf Usability-Aspekte entwickelt und für die Evaluation als Prototyp implementiert. Das Ergebnis der Evaluation zeigt, dass die neuen Konzepte die Usability insgesamt nach metrischen Messungen verbessern, sowie die Anforderungen umsetzen. Besonders mit dem Konzept des ’Tabellen Editor’ wurde eine nutzergesteuerte, graphenbasierte Comparison-Methode geschaffen, mit der Aussagen nachträglich/dynamisch für die Comparison-Tabelle erstellt werden können. Schlussfolgernd kann man sagen, dass die Grundbausteine für eine Verbesserung der Usability und Erweiterung des Funktionalitätsumfang für das ORKG-Comparison-Feature gelegt wurde. Es ist auch wichtig, die neuen Konzepte, die nicht durch die Evaluation abgedeckt werden, in Zukunft auf nicht nur metrisch gemessene Usability-Aspekte, zu untersuchen., The Open Research Knowledge Graph (ORKG) aims to bring together the millions of scientific publications (’papers’) published each year in a structured machine-processable representation. This form of representation is called a knowledge graph, which represents the statements of a publication. This has the advantage over texts that the statements of papers can be compared by a fully automatic comparison method. The result of a comparison method does not always correspond to the user’s expectations, as it can happen that some statements are not linked. The functionality to adjust this is not provided in the comparison feature of ORKG. This work is concerned with improving usability, adding functionality to cover user goals for customising comparisons and creating a user-centric comparison method. Using heuristic and metric analysis, usability weaknesses of the Comparison feature are found and measured. Based on the analysis and newly desired functions, the requirements are derived. From this, concepts with a focus on usability aspects were developed and implemented as a prototype for the evaluation. The result of the evaluation shows that the new concepts improve the overall usability according to metric measurements, as well as implementing the requirements. Especially with the concept of the ’Table Editor’, a user-controlled, graph-based comparison method was created, with which statements can be created subsequently/dynamically for the comparison table. In conclusion, it can be said that the foundations have been laid for improving the usability and extending the functionality of the ORKG Comparison feature. It is also important in the future to examine the new concepts not covered by the evaluation for usability aspects, not only measured metrically