Menschen sind diploid. Das bedeutet, wir erben von beiden Elternteilen je einen Satz Chromosomen. Dabei kodiert jedes Chromosom eine Abfolge der Buchstaben A, C, G und T. Die Buchstabenfolgen, die wir von Vater und Mutter erben, sind ähnlich aber nicht identisch. Die verschiedenen "Versionen" dieser Zeichenfolgen nennt man Haplotypen. Beim Auslesen eines Genoms, dem Sequenzieren, werden Millionen kurze Fragmente dieser Haplotypen ermittelt. Allerdings wissen wir nicht, von welchem der beiden Haplotypen diese Fragmente jeweils kommen. Sie wieder zusammenzusetzen gleicht daher dem Lösen von zwei eindimensionalen Puzzles, deren Teile vermischt wurden und deren Motive sehr ähnlich sind. Dieses Problem zu lösen, ist hochrelevant für die biologische Grundlagenforschung sowie für medizinische Fragestellungen. Leider sind die meisten Formalisierungen NP-schwer. Nach einer kurzen Einführung in die biologischen Grundlagen (kein Vorwissen erforderlich) werden wir uns mit der Frage befassen, wie wir die Probleminstanzen, die von praktischer Relevanz sind, dennoch lösen können.
Maschinelle Übersetzung (MÜ) ist die automatische Übersetzung von Texten in einer Ausgangssprache in eine Zielsprache. Die Anfänge der MÜ reichen bis in die 50er Jahre des letzten Jahrhunderts zurück. Die ersten MÜ Ansätze stützten sich meist auf regelbasierte Verfahren, mit denen, inspiriert durch die Erfolge der formalen Sprachen in der Mathematik, Logik, Informatik und Linguistik, menschliche Sprachen durch Regeln syntaktisch und semantisch erschöpfend beschrieben und mit Computern verarbeitet werden sollten. Da menschliche Sprache aber viel komplexer, als vielleicht ursprünglich angenommen, ist, sind diese Ansätze aber nur schwer und mit ungeheuer großem Aufwand zu skalieren. Aus diesem Grund wurde seit Beginn der 80er Jahre mehr und mehr mit maschinellem Lernen aus großen Datenmengen gearbeitet. Die statistische maschinelle Übersetzung beruht auf Erfolgen des noisy channel models aus der Informationstheorie in der Spracherkennung und war bis vor ein bis zwei Jahren unangefochten die Nummer Eins in der MÜ und die technologische Grundlage der großen öffentlich zugänglichen MÜ Systeme wie Google Translate und Microsoft Translator. Innerhalb der letzten 2 – 3 Jahre hat sich aber der gesamte Bereich, erst in der Forschung und nun auch in der Anwendung, revolutioniert: die aktuell besten Systeme sind allesamt neuronale MÜ Systeme. In dem Kurs werden wir uns damit beschäftigen, was menschliche Sprachen anders als die bekannten formalen Sprachen der Mathematik, Logik und Informatik macht. Wir werden uns die Intuitionen anschauen, die regel-basierten, statistischen und neuronalen MÜ Systemen zugrunde liegen. Dabei kann, wenn von den Teilnehmern gewünscht, auch tiefer in die mathematischen Grundlagen eingegangen werden. MÜ ist auch heute noch nicht perfekt und wir werden uns kurz mit MÜ Evaluation, der Einbindung von MÜ als Hilfsmittel in professionellen menschlichen Übersetzungsworkflows und der aktuellen Forschung beschäftigen.
Abstract des Workshops folgt in Kürze...
Insulinpumpen, Spülmaschinen, Solaranlagen, Dieselmotoren, Dash Buttons und Hochgeschwindigkeitszüge haben etwas gemeinsam: Sie werden von einem oder mehreren Computern gesteuert. Die dort "eingebettete Informatik" gilt als wesentlicher Innovationstreiber unserer Zeit, und bildet den technischen Kern von populären Schlagwörten wie "Internet der Dinge", "Industrie 4.0" und "Cyberphysische Systeme".
Prof. Hermanns erläutert die wesentlichen Herausforderungen eingebetteter Informatik anhand einiger aktueller Beispiele. Er spannt dazu einen Bogen von der Interoperabilität elektrischer Komponenten in Elektrofahrrädern, über die Manipulation der Abgasreinigung in Dieselmotoren durch Software, bis zur Steuerung von Nano-Satelliten im erdnahen Orbit. Er arbeitet dabei jeweils die Rolle der dort eingebetteten Hard- und Software heraus und beleuchtet die sich ergebenden aktuellen Forschungsfragen.
Im Big-Data-Zeitalter wird bezweifelt, ob es Datenschutz überhaupt noch geben kann - dennoch gibt es mit der Datenschutz-Grundverordnung einen vielbeachteten Versuch, Datenschutz in Europa neu zu regeln. Stärker als bisher setzt die Verordnung auf "Data Protection by Design" und macht damit klar, dass es hier nicht um ein rein juristisches Thema geht. Der Vortrag stellt dar, dass Datenschutz sich lediglich auf personenbezogene Daten bezieht, und präsentiert Grundlagen der Anonymisierung, die diesen Personenbezug verhindern soll. Dargestellt wird dies an den Beispielen anonyme Kommunikation und Anonymisierung in Datenbanken, wobei auch spektakuläre Fälle fehlgeschlagener Anonymisierungsversuche präsentiert werden. Anwendungsbeispiele aus aktuellen Projekten, etwa zu Datenschutzaspekten intelligenter Stromzähler, zeigen die Praxisrelevanz der Thematik.
Selbstfahrende Autos müssen ihre Umgebung wahrnehmen und in einem gewissen Maß verstehen.
Die automatische Wahrnehmung der Verkehrsumgebung aus einem fahrenden Auto heraus stellt eine große Herausforderung dar, die man erst in den letzten Jahren durch sogenanntes "Deep Learning" zu meistern begonnen hat.
Der Vortrag behandelt grundlegende Konzepte und Implementierungen des "Deep Learning", insbesondere im Rahmen des künstlichen Sehens. "Deep Learning" baut auf neuralen Netzen auf, die sowohl für das menschliche, natürliche Sehen, wie auch für das künstliche Sehen eine Grundlage bilden. Künstliche neurale Netze gibt es schon seit über 50 Jahren, aber erst in den letzten Jahren konnten sie erstaunlich erfolgreich in vielen Bereichen Anwendung finden. Wir werden die Gründe für diese "Deep Learning" Revolution skizzieren und diskutieren und dabei Beispiele aus unserer Forschungsarbeit bei Daimler heranziehen.