Suche

Bachelor: Multimedia Projekt


Dozent(in): Prof. Dr. Elisabeth André und Mitarbeiter
Termin: Dienstag, 9:00 Uhr - 13:45 Uhr
Gebäude/Raum: 2026 N
Anmeldung: Anmeldung über DigiCampus

Die Vorlesung "Multimedia Projekt" ersetzt die Vorlesung "Multimediapraktikum". Dementsprechend können wir auch nur Studenten zulassen, die noch kein Multimediapraktikum besucht haben. Die Vorlesung kann nur von Bachelor- und Diplomstudenten eingebracht werden!

Die Anmeldung findet voraussichtlich von Montag, 28.07.2014 bis Freitag 03.10.2014 im Digicampus statt. Die Gruppengröße ist auf jeweils max. fünf Teilnehmer pro Thema beschränkt.

 

Themen-Überblick:

 

 


Thema: Mobile Augmented Reality - Wasserkraft & Wasserkunst in Augsburg

stadtmetzg-ar_kleinAugsburg ist durch seine Wasserläufe, die die ganze Stadt über- und unterirdisch durchziehen, weltbekannt. Die kleinen Gässchen zwischen den Renaissance-Bauten der Altstadt, in denen sich mehr Brücken als in Venedig finden, laden zum Bummeln und Erkunden ein. Zuletzt trat Augsburgs Wasserwirtschaft im Rahmen der Bewerbung zum UNESCO-Welterbe international in Erscheinung.

Kaum ein Besucher hat jedoch die Chance alle Wasserwege und deren historische Hintergründe ohne Hilfe kennen zu lernen. Zwar sind einige Kanäle noch sichtbar, doch ist unklar, warum diese überhaupt angelegt wurden. An anderer Stelle ist der Wasserlauf nicht oder nicht mehr zu sehen, da er unter oder durch Gebäude hindurch fließt. Diese unzugänglichen oder historischen Sehenswürdigkeiten können heute aber mittels Augmented Reality wieder zum Leben erweckt werden. Aktuelle Smartphones sind leistungsfähig genug, um das Live-Kamerabild mit virtuellen 3D-Objekten zu überlagern, so dass unsichtbares sichtbar wird.

Im Wintersemester 2013 wurden im Rahmen des Multimedia-Projekts bereits erste Untersuchungen zur Umsetzung einer solchen App durchgeführt und wertvolle Erkenntnisse gewonnen. In enger Kooperation mit Studenten der Geographie wurden inhaltliche und technische Recherchen betrieben, die die Grundlage einer Android-App darstellen.

In diesem Semester soll, auf Grundlage der bereits bestehenden Erkenntnisse, eine Android-App entwickelt werden, die die Sehenswürdigkeiten zum Thema Wasser in anwenderfreundlicher Art und Weise aufbereitet. Die dafür einzusetzenden Technologien umfassen die Android Development Tools, das Metaio SDK, Blender und andere Werkzeuge. 

Neben Kreativität, Engagement, Teamfähigkeit und eigenverantwortlichem Arbeiten sind vorwiegend Vorkenntnisse und Erfahrungen in 3D-/Multimedia-Gestaltung sowie objektorientierter Programmierung (Java, JavaScript, Webtechnologien) unbedingt erforderlich.

Die Kooperationstreffen mit der Partner-Projektgruppe aus der Geografie sind für folgenden Termin angesetzt, den alle Teilnehmer zusätzlich einplanen sollten: Donnerstags, 8:15-9:45.

Weiterer Zeitplan hier

Ansprechpartner:
René Bühling (buehling@informatik.uni-augsburg.de), Simon Flutura




Thema: Interactive Portals in Multi-Display Environments

Im Rahmen dieses Themas werden einige Visualisierungs- und Interaktionstechniken konzipiert und implementiert, welche durch virtuelle Schichten über einem interaktiven Tisch ermöglicht werden. Die Darstellung der virtuellen Schichten über dem interaktiven Tisch (also die physikalische Manifestation) wird durch mobile Tablets und sogenannten interaktiven Videoportalen realisiert. Abhängig von der physikalischen Höhe des Tablets über dem Tisch soll sich die Visualisierung entsprechend des Anwendungskontextes ändern und anpassen.

Für die Implementierung steht das Open-Source Framework Environs bereit, welches vorhandene Geräte (Android, iOS, Windows) in einer Umgebung automatisch verwaltet, verbindet und sowohl eine nachrichtenbasierte Kommunikation, die Übertragung von beliebigen Daten, als auch die Realisierung von interaktiven Videoportalen übernimmt.

Hinweis: Als Vorbereitung auf dieses Praktikumsthema wird empfohlen, dass Sie sich in das Environs-Framework ( http://hcm-lab.de/environs ) mit den bereitgestellten Tutorials einarbeiten. Unter zuhilfenahme des Frameworks sollten Sie mit wenig Aufwand eine kleine Text-Chat-App (mit Videoübertragung) prototypisch entwickeln können.

Vorkenntnisse und Erfahrungen in der Programmierung mit C#/WPF, Java oder Objective-C sind Voraussetzung zur erfolgreichen Teilnahme. Zusätzlich sind Vorkenntnisse und Erfahrungen in der Entwicklung von Apps (u.a. für mobile Geräte) von Vorteil.

Um optimale Gruppenzusammenstellungen zu erreichen, schreiben Sie bitte dem Dozenten eine Digicampus-Nachricht oder Email mit Ihren Vorkenntnissen.

Ansprechpartner: Chi-Tai Dang




Thema: RoboWiz - Wizard-Of-Oz Steuerung für Roboter

robots_ws2014

An unserem Lehrstuhl wird intensiv an der natürlichen und intuitiven Interaktion zwischen Menschen und sozialen Robotern geforscht. Zu diesem Zweck besitzen wir verschiedene Roboter-Modelle mit unterschiedlichem Aussehen und Fähigkeiten. Diese Roboter werden jeweils mit völlig verschiedenen Kommandosprachen gesteuert und besitzen eigene Software-Bibliotheken zur Anbindung an unsere Anwendungen.

Um die Entwicklung solcher Anwendungen in Forschung und Lehre zu vereinfachen, haben wir begonnen eine einheitliche Kommandosprache zu definieren, die zur Laufzeit für die jeweiligen Roboter-Plattformen übersetzt wird. In langen Jahren der Forschung haben wir das Software-Tool VisualSceneMaker entwickelt, welches zur Steuerung von komplexem und weitestgehend autonomen Verhalten eingesetzt werden kann.

Für Ausstellungen, spontane Demonstrationen und Wizard-Of-Oz-Studien benötigen wir allerdings zusätzlich eine Software, mit der es möglich ist, eher kurze Verhaltensmuster vorzubereiten, die durch einen menschlichen Operator manuell ausgelöst werden sollen. Dieser sogenannte "Wizard" übernimmt dadurch Teile des Verhaltens, die in dieser Form noch nicht oder nur sehr schwer programmierbar sind, wie etwa fehlerfreie Spracherkennung und sinnvolle Antworten auf das Gesagte.

Das dafür benötigte Interface soll möglichst benutzerfreundlich und aussagekräftig gestaltet sein. Außerdem soll es möglich sein, beliebig viele Roboter gleichzeitig zu kontrollieren, und alle Robotertypen sollen über das gleiche Nachrichten-Protokoll (das des VisualSceneMaker) angesteuert werden.

    Sie werden an der Programmierung der Benutzeroberfläche sowie an der Netzwerkkommunikation zwischen der Software und den Robotern beteiligt sein. Es existiert bereits eine erste Grundanwendung, die erweitert werden kann, daher sind Vorkenntnisse in Java empfohlen.

    Ansprechpartner: Gregor Mehlmann und Kathrin Janowski




    Thema: Einführung in Maschinelles Lernen

    Viele moderne Anwendung versuchen auf unterschiedlichste Weise mit dem Menschen zu interagieren. Solche Konzepte basieren grundsätzlich auf dem Erlernen der Erkennung von menschlichen Attributen, Verhaltensweisen oder Emotionen. Die Erkennung dieser Gegebenheiten geschieht über verfügbare Sensorik, das Erlernen wird von speziellen Klassifikationssystemen übernommen. Der Weg vom Signal zur Klassifizierung folgt hierbei einem standartisierbaren Schema, das im Rahmen des Multimedia Projekts erlernt und in Teilen realisiert werden soll.

    pipe

    Benutzt wird hierzu ein am Lehrstuhl entwickeltes Software-Framework (Social Signal Interpretation Framework). Es werden verschiedenste Sensoren sowie geeignete Klassifikationsmodelle zur Verfügung gestellt. Das Hauptaugenmerk liegt in der Extraktion von geeigneten Merkmalen aus verschiedenen Sensoren.

      Das Praktikum beinhaltet eine Einführung in Form von Übungsblättern, Vorkenntnisse in C++ sind dennoch empfohlen.

      Ansprechpartner: Florian Lingenfelser


      Thema: Automatische Generierung Natürlichsprachlicher Texte

      In diesem Projekt soll ein Dialog zwischen zwei virtuellen Charakteren und dem Benutzer modelliert werden.


      agents

      Die grobe Struktur des Dialogs sowie die Kontrolle über die Interaktionsmöglichkeiten des Benutzers sollen mit Hilfe des Autorenwerkzeugs VisualSceneMaker modelliert werden. Die Eingaben des Benutzers sollen durch das Social Signal Interpretation Framework verarbeitet werden. Das Verhalten des Benutzers sowie der Agenten wird dabei automatisch mit der NovASoftware annotiert und analysiert. Ihre Hauptaufgabe wir sein unter Anleitung von Prof. Wanner ein Softwaremodul zu implementieren, welches in der Lage ist basierend auf Hintergrundwissen über den Benutzer und die Agenten die natürlichsprachlichen Texte welche von den Agenten gesprochen werden sollen automatisch zu generieren. So soll es möglich sein aus dem Interaktionsmodell heraus abstrakte Sprechakte zu spezifizieren, zu denen Ihre Software dann den entsprechenden Text generiert, der anschließend wieder an das Interaktionsmodell  zur Ausführung zurückgeliefert wird. Der generierte Text könnte dann z.B. von der Persönlichkeit des jeweiligen Agenten abhängen oder vom Hintergrundwissen über den Benutzer.

      Ansprechpartner: Prof. Dr. Leo WannerGregor Mehlmann und Tobias Baur





      Aktuelles

      12.06.2014
      • Themenstellungen folgen in Kürze
      01.10.2014
      • Erstes Treffen für alle: 07.10.2014 11:00 in 2026N


      weitere Informationen zu der Lehrveranstaltung:

      empfohlenes Studiensemester der Lehrveranstaltung: ab dem 5. Semester
      Fachrichtung Lehrveranstaltung: Multimedia-Anwendungen
      Dauer der Lehrveranstaltung: 6 SWS
      Typ der Lehrveranstaltung: P - Praktikum
      Leistungspunkte: 10
      Lehrveranstaltungspflicht: Pflicht
      Semester: WS 2014/15