Prof. Dr. Daniel Cremers,
Lehrstuhl für Computer Vision, Universität Bonn
Optimierungsverfahren in der maschinellen Bildverarbeitung
Eine Vielzahl von Forschungsfragen des Maschinensehens lassen sich als
Optimierungsprobleme formulieren. Eine zentrale Herausforderung ist
es, effiziente Minimierungsverfahren für die entsprechenden
Kostenfunktionen zu entwickeln.
In meinem Vortrag werde ich Optimierungsansätze vorstellen für das
Erfassen von bewegten Objekten in Bildsequenzen, für die Erkennung
von Hindernissen im Straßenverkehr, für die Bestimmung der
Ähnlichkeit von Formen, für die Rekonstruktion drei-dimensionaler
Objekte aus einer Menge von zwei-dimensionalen Ansichten, und für das
Verfolgen von Menschen in Videos. Zur Minimierung der jeweiligen
Kostenfunktionen lassen sich sowohl räumlich kontinuierliche Methoden
(insbesondere mit partiellen Differentialgleichungen und Level Set
Methoden) als auch räumlich diskrete (graphentheoretischen) Methoden
einsetzen.
Prof. Dr. Gerhard Weikum,
Direktor am Max-Planck Institut für Informatik, Saarbrücken
Internet, Semantik, und soziale Informationsgewinnung
On one hand, Web search is a mature technology that can index tens
of billions of Web pages and provides fast and effective Internet
search for the daily information needs of many millions of users.
On the other hand, the continuing rapid growth of digital information
on the Internet, and also in enterprises and digital libraries, poses
tremendous challenges regarding scalability and information quality.
This entails technical issues like index partitioning, caching, and
top-k query processing on the scalability side,
and advanced link analysis, combatting Web spam, and mining query and click logs
for personalization on the quality side.
The first part of the tutorial discusses recent approaches that
aim to address these challenges.
In addition to these ongoing efforts to further scale up today's keyword-oriented Web search
functionality and maintain its high quality, there are also major trends to advance the
functionality itself to a more expressive semantic level.
Faceted Information Retrieval organizes search results along dimension hierarchies based on metadata or
automatic topic detection.
Digital libraries, e-science archives, and Deep-Web portals provide steadily growing structured
datasets, along with Semantic-Web-style ontologies and other kinds of knowledge sources.
Information extraction technology has become more efficient and
robust so as to enable large-scale extraction of entities and relationships from natural-language
text sources; search and ranking could then be performed in terms of entities rather than pages.
Finally, social networks provide means for tagging and organizing Web pages, photos, and videos
in a way that resembles structured, albeit schemaless, data.
The second part of the tutorial discusses these issues, presents selected approaches
towards such richer search experiences, and points out research opportunities and challenges.
Prof. Dr. Ina Schieferdecker,
Fachgebiet Entwurf und Testen kommunikationsbasierter Systeme, Institut für Telekommunikationssysteme, TU-Berlin
Modellbasierte Softwareentwicklung und Qualitätssicherung
Dieser Vortrag gibt einen Einblick in den Stand der Forschung und
Entwicklung der modellbasierten SW-Entwicklung. Dieses neue Paradigma
stellt Modelle in das Zentrum der SW-Entwicklung. Modelle erlauben eine
abstrahierte, präzise Darstellung verschiedener Aspekte eines Systems
und bilden die Grundlage für die Automatisierung verschiedener
Entwicklungsschritte wie Verifikation, Validierung, Code-Generierung,
Testen, etc.
Anhand der UML (Unified Modelling Language) der OMG (Object Management Group)
und dem Entwicklungsprozess MDA (Model-Driven Architecture) der OMG werden
Konzepte, Methoden und Techniken modellbasierter Entwicklung wie Abstraktion
und Verfeinerung, Sichten, Modelltransformationen, Modellkorrektheit,
Modellqualität, etc. diskutiert.
Einen weiteren Schwerpunkt nimmt im Vortrag die modellbasierte Qualitätssicherung
ein, bei der insbesondere auf modell-basierte Testtechniken eingegangen wird.
Detlev Majewski,
Leiter des Referats Numerische Modelle beim Deutschen Wetterdienst, Offenbach
Klimamodelle
Bei dem Vortrag wird insbesondere auf folgende Fragen eingegangen:
- die Modelle und Computerrechnungen, die die kurzzeitigen Wettervorhersagen ermöglichen
- die Handwerkzeuge der Informatik, mit diesen Modellen zu Ergebnissen zu kommen
- die Unterschiede zu langfristigen Klimamodellen (z.B. Erderwärmung)
- sind die Grenzen der Vorhersagbarkeit eher grundsätzlicher Art oder eher ein Komplexitätsproblem der Informatik?
Friederike Meyer zu Tittingdorf,
Presse- und Öffentlichkeitsarbeit an der Universität des Saarlandes
Roboter-Workshop
Der Workshop richtet sich an Lehrerinnen und Lehrer, die bisher noch
nicht mit Lego Mindstorms gearbeitet. Zwei Informatik-Studenten der
Universität des Saarlandes. die für Schulklassen eintägige
Roboter-Workshops anbieten, werden eine kurze Einführung in die
Programmierung der Lego Mindstorms-Roboter geben.
Nach dieser Einführung können die
Workshop-Teilnehmer selbst den Robotern beibringen, wie er sich vorwärts
und rückwärts bewegt, vor Hindernissen umdreht, durch Tunnel rollt oder
vor einem Abgrund halt macht. Anschließend wird es noch eine kurze
Einführung in die Sprachsteuerung Dialog OS für Lego Mindstorms-Roboter
geben, die von Computerlinguisten der Universität des Saarlandes
entwickelt wurde. Auch dieses Programm kann mit kurzen Beispiel-Dialogen
am Roboter getestet werden.
Dr. rer. nat. Thomas Haenselmann, Lehrstuhl Praktische Informatik, Rechnernetze und Multimediatechnik, Universität Mannheim
Traditionelle Netzwerke, Sensor Netzwerke und Peer-to-Peer Netze
Traditionell sind das Routing von Paketen im Internet oder der Zugriff
auf ein gemeinsames Funkmedium Themen der Forschung im Bereich
Computer Netzwerke. Doch selbst nach jahrzehnte langer Forschung sind
manche fundamentalen Probleme wie z.B. die Qualitätssicherung von
IP-Telefonaten ungelöst.
Teilweise bedingt durch die Entwicklung neuer Hardware sind aber auch
ganz neue Gebiete entstanden, so z.B. im Bereich der Sensor
Netzwerke. Diese bestehen aus einer großen Anzahl von Kleinstcomputern,
die nur für den Lebenszyklus einer Batterieladung entworfen
sind. Einmal in einem Gebiet ausgebracht, vernetzen sich die
Sensorknoten und erfüllen Aufgaben gemeinsam, die über die Fähigkeiten
eines einzelnen Knoten hinausgehen. Dafür sind aber neue Algorithmen
nötig, die auf äußerste Energieeffizienz ausgelegt sind.
Auch der Bereich der Peer-to-Peer Netze wird zur Zeit von großen
Forschergruppen untersucht. Diese Overlay-Netze überlagern das
klassische Internet und ermöglichen neue Anwendungen, wie z.B. das
weltweite Speichern und Verteilen von Daten.
Entsprechend der oben genannten Themen wird die Veranstaltung einige
Aspekte klassischer Rechnernetze aufgreifen und dann auf neuere
Ansätze im Bereich Sensor- und Peer-to-Peer Netze eingehen.
Dipl.-Inform. Christian Gorecki und
Dipl.-Inform. Jan Gerrit Goebel, Lehrstuhl für Praktische Informatik, Universität Mannheim
Trojaner infiziert Mensch
In diesem Vortrag werden nach einer allgemeinen Einführung aktuelle Trends in der Schadsoftware Entwicklung und resultierende Gegenmaßnahmen präsentiert. Der Fokus liegt hierbei auf neuartigen Techniken der Angreifer, die sich zunehmend in den Bereich des Social Engineering verlagern. Aber auch technische Methoden werden anhand von Beispielen betrachtet, um etwa zu veranschaulichen, dass das Formatieren der Festplatte nicht ausreicht um ein infiziertes System zu bereinigen.