Adresse und Kontakt AG Netzbasierte Informationssysteme FU Berlin Königin-Luise-Straße 24-26 14195 Berlin Tel.: +49-30-838-75221 Fax: +49-30-838-75220
| Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken und Auktionshäuser, die Werke von Künstlern auf dem sog. 2. Markt an Museen und Sammler versteigern. Kunstauktionen werden mittlerweile von umfangreichen Online-Katalogen begleitet, die Gebotsabgabe über das Internet ist möglich und auch Ergebnislisten werden online bereitgestellt. Aufgrund der individuellen Insellösungen von Auktionshäusern ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstauktionsmarkts zu bilden. Kommerzielle Dienste wie artprice.com oder artfacts.net sind vergleichsweise hochpreisig. In dieser Arbeit sollen Informationen über in Auktionen gehandelte Werke und deren Künstler ermittelt und mit Hilfe einer Netzwerkanalyse Strukturen des 2. Markts identifiziert werden. Verzeichnisse von Auktionshäusern wie von kunstmarkt.com erfassen relevante Sites und liefern Ausgangspunkte für einen Crawler, der beispielsweise auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist. Aus Online-Katalogen sollen angebotene Künstler und Werke extrahiert werden und geeignet ein Netzwerk erstellt werden. Mit dem Tool SONIVIS sollen dann Analysen zu Netzwerkeigenschaften durchgeführt werden und deren Ergebnisse sowie das Werke-Künstler-Auktionshaus-Netzwerk online dargestellt werden. Sämtliche Software ist unter die BSD oder Apache Lizenz zu stellen. Art der Arbeit: Diplom- oder Masterarbeit Voraussetzungen: Kenntnisse in grundlegenden … [...Weiterlesen/more...] Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken, Galerien die die Werke von Künstlern auf dem sog. 1. Markt vermarkten sowie Museen und private Sammler die Werke ankaufen sowie weiter Intermediäre die Öffentlichkeit herstellen. Künstler, Galerien und Museen haben in den letzten Jahre erkannt, dass ihre Online-Repräsentanzen notwendig für das Funktionieren des Kunstmarkts sind. Aufgrund der sehr losen Organisation ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstmarkts zu bilden. In dieser Arbeit sollen mit Hilfe einer Netzwerkanalyse solche Strukturen identifiziert werden. Als Künstler sollen dabei jene gelten die von deutschen oder deutschsprachigen Galerien vertreten werden. Dazu müssen die verteilt vorliegenden Online-Informationen geeignet analysiert werden. In der Arbeit ist dies durch einen Crawler zu automatisieren, der auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist. Galerieverzeichnisse wie bei artfacts oder beim Bundesverband Deutscher Galerien und Editionen e.V. müssen geeignet analysiert werden um Listen mit Netzadressen von Galerien zu ermitteln. Auf den Galerie-Sites muss dann durch eine Heuristik die Liste der von der Galerie vertretenen Künstler ermittelt werden. Aus diesen Informationen – eventuell angereichert um Metainformationen wie Stilrichtung … [...Weiterlesen/more...] Webrings sind eine sehr alte Struktur im Web mit der thematisch ähnliche Sites über ein externes Navigationselement verknüpft werden sollen. In der Arbeit soll statistisch geprüft werden ob dies erreicht wird. Ausgehend vom Verzeichnis von Webrings bei www.webring.com soll zunächst die Strukturen von Webrings (Größe und Konnektivität) analysiert werden. Weiterhin sollen jeweils miteinander verbundene Site auf Ähnlichkeit überprüft werden (Indexierung z.B. mit Lucene und Berechnung des Dokumentenabstands) sowie die Auswirkung auf die Popularität der verbundenen Sites anhand ihres Pageranks (statischer Vergleich des Pageranks innerhalb des Webrings mit dem vondurch google als ähnlich identifizierten Sites ausserhalb des Webrings) analysiert werden. Art der Arbeit Studien- oder Bachelorarbeit Voraussetzungen Kenntnisse in Web Technologien, Information Retrieval, Netzwerke Betreuer Prof. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] Informationen über wissenschaftliche Konferenzen in der Informatik und anderen Wissenschaften sind im Netz nur schlecht erschließbar. Neben den völlig verstreut angebotenen eigentlichen Konferenzankündigungen und Aufrufen zur Beitragseinreichung gibt es verschiedene Angebote mit Sammlungen solcher Informationen. So wollen z.B. allconferences.com oder goingtomeet.com möglich alle Konferenzen erfassen, während Fachverbände wie die IEEE, die ACM oder die GI jeweils informatikspezifische Kalender anbieten. Wissenschaftler möchten die Anfrage „Auf welchen Konferenzen kann ich meine Arbeit im Themenbereich X, Y und Z einreichen“ einfach von einer Suchmaschine beantwortet bekommen. Eine solche Suchmaschine existiert bislang aber nicht. In der Arbeit soll ein Rahmenwerk geschaffen und exemplarisch für informatische Themen realisiert werden mit dem aus unterschiedlichen Quellen erschlossene Konferenzankündigungen Informationen über die jeweils geforderten Themen ermittelt werden und auf dieser Basis die obige Anfrage präzise und umfassend beantwortet werden kann. Dabei soll eine Ontologie für die Themenklassifikation sowie eine semantische Suche genutzt werden. Das Rahmenwerk soll exemplarisch für Konferenzen aus der Informatik realisiert werden, gleichzeitig aber so allgemein sein, dass leicht eine Suchmaschine für andere Disziplinen (z.B. Elektrotechnik, Mathematik) oder andere Veröffentlichungsarten (z.B. wissenschaftliche Zeitschriften) konfiguriert werden könnte. Die zu erstellende Software soll als LGPL lizensiert sein. Art der Arbeit Diplom- oder Masterarbeit Voraussetzungen Kenntnisse in Web-Technologien … [...Weiterlesen/more...] Lehrveranstaltungen, Weiterbildungen etc. werden von Prüfungen abgeschlossen, die beispielsweise als Klausuren eine Reihe von Prüfungsfragen in geeigneter inhaltlicher Kombination in geeigneten Schwierigkeitsgraden zusammenstellen. Diese Zusammenstellung in hoher Qualität ist momentan ein manueller und damit teurer Vorgang. Aus einem Pool von Aufgaben werden mit menschlichem Hintergrundwissen um den Inhalt und die Schwierigkeit einige ausgewählt und zu einer Klausur kombiniert. Falls bestimmte Themen noch nicht abgedeckt sind, werden neue Aufgaben erstellt. In der Arbeit soll dieser Vorgang automatisiert werden. Aufgaben sollen dabei einzeln geeignet mit Metadaten zu ihrem Inhalt und Schwierigkeitsgrad markiert sind. Es soll eine Zielvorgabe für inhaltliche Schwerpunkt der Klausur und ihrer Schwierigkeit geben. Die in er Arbeit zu erstellende Software soll dann mit Hilfe Semantischer Technologien eine geeignete Auswahl treffen und die Klausur kombinieren. Als triviales Beispiel könnte in einer Klausur eine Frage nach einem Internet-Transportprotokoll gestellt werden sollen. Vorhandene Aufgaben zu NNTP, FTP, HTTP etc. sind als solche semantisch markiert und in einer Ontologie ist vermerkt, dass sie alle Internet-Transportprotokolle sind. Das System soll dann automatisch eine davon auswählen. Art der Arbeit Studien-, oder Bachelorarbeit Voraussetzungen Kenntnisse in Semantischen Technologien Betreuer Prof. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] Die automatische Zusammenfassung von Web-Seiten (automatisches Abstracting) basiert auf statistischen oder computerlinguistischen Verfahren auf dem Textinhalt einer Seite. Web-Seiten haben aber auch eine visuelle Repräsentation (die Darstellung im Web-Browser), die – beispielsweise durch Stylesheets beeinflusst – weitere Hinweise auf entscheidende Inhalte geben kann, die für ein Abstracting genutzt werden sollten. In der Arbeit soll ein Konzept entwickelt und prototypisch implementiert werden, das für eine Web-Seite ein Abstract erzeugt und dabei die visuelle Erscheinung der Seite untersucht. Dazu sollen geeignete Browser-Erweiterungen (z.B. Web Developer) modifiziert werden. Zu berücksichtigen sind visuelle Eigenschaften von Textteilen wie Position auf der Seite, Größe, Farbkontrast zu den anderen Teilen etc. Die Ergebnisse sollen geeignet evaluiert werden. Art der Arbeit Diplom- oder Masterarbeit Voraussetzungen Kenntnisse in Web-Technologien, insbesondere Seitendarstellung, Technologie von Web-Browsern, Interesse an Gestaltungsprinzipien im Web. Betreuer Prof. Dr.-Ing. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] Zur Darstellung von Graphen und Netzwerken existiert eine Fülle von Software, Tools und Forschung. Ein verbreitetes Modell ist die Verwendung von Kräften mit denen sich verbundene Knoten anziehen oder abstoßen. In der Arbeit soll anhand mehrerer Verfahren erprobt werden, inwiefern sich semantische Abstandsmasse als Grundlage für solche Kräfte verwenden lassen. Dazu ist ein Konzept zu erstellen, eine geeignete Open Source Software auszuwählen und zu erweitern sowie das Konzept zu evaluieren. Art der Arbeit Studien- oder Bachelorarbeit Voraussetzungen Kenntnisse mindestens in einem der Bereiche Semantic Web und Graphlayout Betreuer Prof. Dr.-Ing. Robert Tolksdorf Weitere Informationen Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...] | |