Adresse und Kontakt

AG Netzbasierte Informationssysteme
FU Berlin
Königin-Luise-Straße 24-26
14195 Berlin

Tel.: +49-30-838-75221
Fax: +49-30-838-75220

This site is no longer maintained. You see a static copy as of April 1 2016.

Visualisierung von Ontologienutzungsdaten in SONIVIS

Die Analyse der Nutzung von Webseiten stellt schon heute eine wichtige Grundlage für bedarfsorientierte Angebote im Web dar. Kommen die Technologien des Semantic Web zur Anwendung, wird diese Analyse ungleich schwieriger, weil reine HTTP-Antworten des Servers zum Beispiel keine Aussage darüber zulassen, ob und welche Daten durch eine SPARQL-Anfrage an einem Endpoint gefunden wurden. Für die Betreiber von semantischen Datenrepositories verbergen sich aber hinter ebendiesen Infomrationen interessante Rückschlüsse auf die Qualität der Daten im Bezug zu den Anforderungen der Nutzer bzw. der Anwendungen, die diese Daten nutzen. Im Rahmen eines Promotionsvorhabens wurde eine Methode zur Sammlung solcher Nutzungsinformationen entworfen und implementiert und es liegen erste Beispieldaten über die Nutzung des DBpedia 3.3 Datensets vor.

Im Rahmen dieser Arbeit sollen nun die Beispieldaten und die ihnen zugrunde liegenden Ontologien durch eine Erweiterung der quelloffenen Software SONIVIS als Netzwerk visualisiert werden. Darüberhinaus sollen, ebenfalls für das SONIVIS Tool, Metriken entworfen und implementiert werden, die unterschiedliche Sichten auf diese Netzwerke ermöglichen. Ein Beispiel hierfür wären sogenannte Heat Maps, d.h. eine Visualisierung, die anhand der Anfragehäufigkeit Konzepte der Ontologie größer oder kleiner darstellt.

Art
Bachelor- oder Studienarbeit

Voraussetzungen
Kenntnisse in Programmierung mit Java und dem Umgang mit Eclipse. Kenntnisse in RCP Entwicklung von [...Weiterlesen/more...]

Normennetzwerke: RFCs

Die Requests for Comments, RFCs definieren die Standards des Internet. Der Korpus dieser Dokumente liegt in verarbeitbarer und weit regulierter Form vor.Dokumente sind in verschiedene Kategorien eingeordnet.

Aufgabe dieser Arbeit ist die Erfassung und Analyse des kompletten RFC Korpus als Netzwerk. Beziehungen darin umfassen die definierten und in Metadaten erfassten „Obsoletes xxx“, „Obsoleted by xxx“, „Updates xxx“, „Updated by xxx“ aber auch das durch Referenzen sich ergebende Zitationsnetzwerk zu weitern RFCs einerseits und zu externen Quellen andererseits.

In der Arbeit soll eine Erfassung der vorliegenden RFC Dokumente erfolgen, eine Extraktion der Beziehungen zu anderen Dokumenten und Standards sowie eine Analyse der sich ergebenden Netzwerkstruktur mit Hilfe eines Werkzeugs wie SONIVIS erfolgen.

Die Arbeit wurde von Maciej Wienszczak bearbeitet und liegt als PDF vor: „Analyse des Normennetzwerks der Internet Requests for Comments„.… [...Weiterlesen/more...]

Kunstnetzwerke: Werke, Künstler und Auktionen

Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken und Auktionshäuser, die Werke von Künstlern auf dem sog. 2. Markt an Museen und Sammler versteigern. Kunstauktionen werden mittlerweile von umfangreichen Online-Katalogen begleitet, die Gebotsabgabe über das Internet ist möglich und auch Ergebnislisten werden online bereitgestellt. Aufgrund der individuellen Insellösungen von Auktionshäusern ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstauktionsmarkts zu bilden. Kommerzielle Dienste wie artprice.com oder artfacts.net sind vergleichsweise hochpreisig.

In dieser Arbeit sollen Informationen über in Auktionen gehandelte Werke und deren Künstler ermittelt und mit Hilfe einer Netzwerkanalyse Strukturen des 2. Markts identifiziert werden. Verzeichnisse von Auktionshäusern wie von kunstmarkt.com erfassen relevante Sites und liefern Ausgangspunkte für einen Crawler, der beispielsweise auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist. Aus Online-Katalogen sollen angebotene Künstler und Werke extrahiert werden und geeignet ein Netzwerk erstellt werden. Mit dem Tool SONIVIS sollen dann Analysen zu Netzwerkeigenschaften durchgeführt werden und deren Ergebnisse sowie das Werke-Künstler-Auktionshaus-Netzwerk online dargestellt werden. Sämtliche Software ist unter die BSD oder Apache Lizenz zu stellen.

Art der Arbeit: Diplom- oder Masterarbeit

Voraussetzungen: Kenntnisse in grundlegenden … [...Weiterlesen/more...]

Kunstnetzwerke: Künstler und Galerien

Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken, Galerien die die Werke von Künstlern auf dem sog. 1. Markt vermarkten sowie Museen und private Sammler die Werke ankaufen sowie weiter Intermediäre die Öffentlichkeit herstellen. Künstler, Galerien und Museen haben in den letzten Jahre erkannt, dass ihre Online-Repräsentanzen notwendig für das Funktionieren des Kunstmarkts sind. Aufgrund der sehr losen Organisation ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstmarkts zu bilden.

In dieser Arbeit sollen mit Hilfe einer Netzwerkanalyse solche Strukturen identifiziert werden. Als Künstler sollen dabei jene gelten die von deutschen oder deutschsprachigen Galerien vertreten werden. Dazu müssen die verteilt vorliegenden Online-Informationen geeignet analysiert werden. In der Arbeit ist dies durch einen Crawler zu automatisieren, der auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist.

Galerieverzeichnisse wie bei artfacts oder beim Bundesverband Deutscher Galerien und Editionen e.V. müssen geeignet analysiert werden um Listen mit Netzadressen von Galerien zu ermitteln. Auf den Galerie-Sites muss dann durch eine Heuristik die Liste der von der Galerie vertretenen Künstler ermittelt werden. Aus diesen Informationen – eventuell angereichert um Metainformationen wie Stilrichtung … [...Weiterlesen/more...]

Webrings

Webrings sind eine sehr alte Struktur im Web mit der thematisch ähnliche Sites über ein externes Navigationselement verknüpft werden sollen. In der Arbeit soll statistisch geprüft werden ob dies erreicht wird.

Ausgehend vom Verzeichnis von Webrings bei www.webring.com soll zunächst die Strukturen von Webrings (Größe und Konnektivität) analysiert werden. Weiterhin sollen jeweils miteinander verbundene Site auf Ähnlichkeit überprüft werden (Indexierung z.B. mit Lucene und Berechnung des Dokumentenabstands) sowie die Auswirkung auf die Popularität der verbundenen Sites anhand ihres Pageranks (statischer Vergleich des Pageranks innerhalb des Webrings mit dem vondurch google als ähnlich identifizierten Sites ausserhalb des Webrings) analysiert werden.

Art der Arbeit

Studien- oder Bachelorarbeit

Voraussetzungen

Kenntnisse in Web Technologien, Information Retrieval, Netzwerke

Betreuer

Prof. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Semantische Integration von Konferenzinformationen

Informationen über wissenschaftliche Konferenzen in der Informatik und anderen Wissenschaften sind im Netz nur schlecht erschließbar. Neben den völlig verstreut angebotenen eigentlichen Konferenzankündigungen und Aufrufen zur Beitragseinreichung gibt es verschiedene Angebote mit Sammlungen solcher Informationen. So wollen z.B. allconferences.com oder goingtomeet.com möglich alle Konferenzen erfassen, während Fachverbände wie die IEEE, die ACM oder die GI jeweils informatikspezifische Kalender anbieten.

Wissenschaftler möchten die Anfrage „Auf welchen Konferenzen kann ich meine Arbeit im Themenbereich X, Y und Z einreichen“ einfach von einer Suchmaschine beantwortet bekommen. Eine solche Suchmaschine existiert bislang aber nicht.

In der Arbeit soll ein Rahmenwerk geschaffen und exemplarisch für informatische Themen realisiert werden mit dem aus unterschiedlichen Quellen erschlossene Konferenzankündigungen Informationen über die jeweils geforderten Themen ermittelt werden und auf dieser Basis die obige Anfrage präzise und umfassend beantwortet werden kann. Dabei soll eine Ontologie für die Themenklassifikation sowie eine semantische Suche genutzt werden.

Das Rahmenwerk soll exemplarisch für Konferenzen aus der Informatik realisiert werden, gleichzeitig aber so allgemein sein, dass leicht eine Suchmaschine für andere Disziplinen (z.B. Elektrotechnik, Mathematik) oder andere Veröffentlichungsarten (z.B. wissenschaftliche Zeitschriften) konfiguriert werden könnte. Die zu erstellende Software soll als LGPL lizensiert sein.

Art der Arbeit

Diplom- oder Masterarbeit

Voraussetzungen

Kenntnisse in Web-Technologien … [...Weiterlesen/more...]

Automatische Klausurerstellung mit semantischen Informationen

Lehrveranstaltungen, Weiterbildungen etc. werden von Prüfungen abgeschlossen, die beispielsweise als Klausuren eine Reihe von Prüfungsfragen in geeigneter inhaltlicher Kombination in geeigneten Schwierigkeitsgraden zusammenstellen.

Diese Zusammenstellung in hoher Qualität ist momentan ein manueller und damit teurer Vorgang. Aus einem Pool von Aufgaben werden mit menschlichem Hintergrundwissen um den Inhalt und die Schwierigkeit einige ausgewählt und zu einer Klausur kombiniert. Falls bestimmte Themen noch nicht abgedeckt sind, werden neue Aufgaben erstellt.

In der Arbeit soll dieser Vorgang automatisiert werden. Aufgaben sollen dabei einzeln geeignet mit Metadaten zu ihrem Inhalt und Schwierigkeitsgrad markiert sind. Es soll eine Zielvorgabe für inhaltliche Schwerpunkt der Klausur und ihrer Schwierigkeit geben. Die in er Arbeit zu erstellende Software soll dann mit Hilfe Semantischer Technologien eine geeignete Auswahl treffen und die Klausur kombinieren.

Als triviales Beispiel könnte in einer Klausur eine Frage nach einem Internet-Transportprotokoll gestellt werden sollen. Vorhandene Aufgaben zu NNTP, FTP, HTTP etc. sind als solche semantisch markiert und in einer Ontologie ist vermerkt, dass sie alle Internet-Transportprotokolle sind. Das System soll dann automatisch eine davon auswählen.

Art der Arbeit

Studien-, oder Bachelorarbeit

Voraussetzungen

Kenntnisse in Semantischen Technologien

Betreuer

Prof. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Zusammenfassung von Web-Seiten aufgrund visueller Prominenz von Textteilen

Die automatische Zusammenfassung von Web-Seiten (automatisches Abstracting) basiert auf statistischen oder computerlinguistischen Verfahren auf dem Textinhalt einer Seite. Web-Seiten haben aber auch eine visuelle Repräsentation (die Darstellung im Web-Browser), die – beispielsweise durch Stylesheets beeinflusst – weitere Hinweise auf entscheidende Inhalte geben kann, die für ein Abstracting genutzt werden sollten.

In der Arbeit soll ein Konzept entwickelt und prototypisch implementiert werden, das für eine Web-Seite ein Abstract erzeugt und dabei die visuelle Erscheinung der Seite untersucht. Dazu sollen geeignete Browser-Erweiterungen (z.B. Web Developer) modifiziert werden. Zu berücksichtigen sind visuelle Eigenschaften von Textteilen wie Position auf der Seite, Größe, Farbkontrast zu den anderen Teilen etc. Die Ergebnisse sollen geeignet evaluiert werden.

Art der Arbeit

Diplom- oder Masterarbeit

Voraussetzungen

Kenntnisse in Web-Technologien, insbesondere Seitendarstellung, Technologie von Web-Browsern, Interesse an Gestaltungsprinzipien im Web.

Betreuer

Prof. Dr.-Ing. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Gemeinsame Wissensmodellierung mit Ursache-Wirkungsmodellen

Wissen über komplexe Zusammenhänge lässt sich in Modellen fassen. Eine Form der Modelle sind Ursache-Wirkungsmodelle bei denen die Wirkung einer Entität im Modell auf eine andere beschrieben wird. Aktuell könnte man modellieren, dass eine staatliche Prämie für die Verschrottung von Altwagen sich positiv auf den Absatz von Neuwagen auswirkt. Es gibt Anwendungen wie Consideo, die eine solche Modellierung unterstützen und durch Simulationen ergänzen.

Nun könnte aber diese Modellierung auch gemeinsam erfolgen. Ein zweiter Benutzer könnte beispielsweise den Zusammenhang hinzufügen, dass durch höheren Absatz von Neuwagen der durchschnittliche Benzinverbrauch im Fahrzeugverkehr sinkt. Ein dritter könnte hinzufügen, dass damit die Nachfrage nach Benzin sinkt und ein vierter, dass somit der Benzinpreis eher sinkt.

In der Arbeit soll ein Konzept und eine prototypische Implementierung einer solchen gemeinsamen Wissensmodellierung mit Ursache-Wirkungsmodellen erstellt werden. Dabei sollen Konzepte sowie Beziehungen (trivialerweise zunächst „positiver Einfluss (+)“ und „negativer Einfluss (-)“) zwischen ihnen mit Technologien des Semantic Web typisiert werden. Die Anwendung selber besteht aus einer Web-basierten Software, die das Einfügen von Abhängigkeiten durch unteschiedliche Benutzer ermöglicht und eine geeignete Darstellung erzeugt.

Art der Arbeit

Diplom- oder Masterarbeit

Voraussetzungen

Kenntnisse in Web-Technologien, Modellierung, Semantic Web

Betreuer

Prof. Dr.-ing. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf [...Weiterlesen/more...]

Semantik zum Layout von Netzwerken

Zur Darstellung von Graphen und Netzwerken existiert eine Fülle von Software, Tools und Forschung. Ein verbreitetes Modell ist die Verwendung von Kräften mit denen sich verbundene Knoten anziehen oder abstoßen.

In der Arbeit soll anhand mehrerer Verfahren erprobt werden, inwiefern sich semantische Abstandsmasse als Grundlage für solche Kräfte verwenden lassen. Dazu ist ein Konzept zu erstellen, eine geeignete Open Source Software auszuwählen und zu erweitern sowie das Konzept zu evaluieren.

Art der Arbeit

Studien- oder Bachelorarbeit

Voraussetzungen

Kenntnisse mindestens in einem der Bereiche Semantic Web und Graphlayout

Betreuer

Prof. Dr.-Ing. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

AG Netzbasierte Informationssysteme, http://www.ag-nbi.de
Königin-Luise-Straße 24-26, 14195 Berlin, Tel.: +49-30-838-75221, Fax: +49-30-838-75220