Portfolio

Alisa Rüge

M.Sc. Medientechnologie · Interaktive Medien · Computeranimation · VR | AR | XR

Ich entwickle interaktive Anwendungen mit Schwerpunkt VR und AR. Aktuell im Master der Medientechnologie an der TH Köln.

Portrait von Alisa Rüge

About

Ich stehe kurz vor dem Abschluss meines Masters in Medientechnologie an der TH Köln. Ab Mai 2026 schreibe ich meine Masterarbeit im Bereich In-Car XR bei der Mercedes-Benz Tech Innovation GmbH. Dort bringe ich zusammen, was mich am meisten antreibt: interaktive Systeme, die sich nicht nur sehen, sondern auch fühlen lassen.

In meinen Projekten arbeite ich mit Unity und C#, von der Konzeption über die Implementierung bis zur Evaluation mit Nutzerstudien. Mich fasziniert besonders, wie haptisches Feedback, intuitive Interaktion und immersive Umgebungen zusammenspielen können. Ob VR-Schnittsimulator mit Force Feedback, volumetrische Videos in XR oder agent-gestützte Lernanwendungen: Ich suche Projekte, in denen Technik, Nutzererlebnis und Forschung sich gegenseitig verstärken.

Vor dem Master habe ich bereits als Werkstudentin bei Mercedes-Benz praktische Erfahrung mit XR-Systemen wie der Varjo XR-3 gesammelt und Projekte von Virtual Reality in Extended Reality überführt.

Timeline

Projekte

2026

Haptic Interfaces

VR-Schnittsimulator mit Force Feedback

Entwicklung einer VR-basierten Schnittsimulation für Trainingsaufgaben mit Fokus auf Präzision, Usability und geringe kognitive Belastung.

Im Projekt wurden drei Eingabemethoden gegenübergestellt: VR-Controller sowie ein haptisches Gerät mit und ohne Force Feedback. Die Umsetzung erfolgte in Unity, mit besonderem Fokus auf der Anbindung eines 3D Systems Touch an die Meta Quest 3.

UnityC#VRHapticsUser StudyQuest 33D Systems Touch
2025

VolumanXR — Masterprojekt

XR-Viewer für volumetrische Inhalte

Interdisziplinäres Projekt zur Entwicklung einer vollständigen Pipeline für volumetrische Videos, von der Aufnahme bis zur Darstellung.

Im Projekt wurde ein 68-Kamera-Rig mit Raspberry Pis zur Aufnahme aufgebaut und die Daten mittels Spacetime Gaussian Splatting verarbeitet. Ich war an der Enwticklung des Viewers beteiligt mit Schwerpunkt auf UI/UX für die Interaktion und Darstellung auf Head-Mounted Displays. Die Ergebnisse wurden 2026 als wissenschaftliches Poster auf einer IEEE-Konferenz veröffentlicht.

UnityC#XRGaussian SplattingUI/UXInteraction DesignReal-time RenderingVolumetric VideoWebGLWebXR
2024

Bachelorarbeit

Titel: Können agent-gestützte Lernanwendungen positive Auswirkungen auf die Lernmotivation von Studierenden haben?

Im Rahmen meiner Bachelorarbeit habe ich eine VR-Lernanwendung mit virtuellem Agenten entwickelt und evaluiert.

Die Anwendung wurde in Unity umgesetzt, mit Fokus auf Interaktion, Aufbau und User Experience. Besonders interessiert hat mich, wie sich Motivation durch Feedback und Begleitung innerhalb der Anwendung beeinflussen lässt. Zur Evaluation habe ich eine User Study durchgeführt, welche die Motivation und die User Experience untersucht.

UnityC#VRUI/UXInteraction DesignGamificationVirtual AgentsUser Study
2024

VAE — Virtual Acoustic Environments

Echtzeit-Audio für virtuelle Räume

VAE — Virtual Acoustic Environments

Technisches Audio-Projekt zur räumlichen Audiowiedergabe in Echtzeit in virtuellen Umgebungen.

Es wurde ein System zur binauralen Audiowiedergabe entwickelt und in Unity integriert. Dabei kamen Raycasting zur Simulation der Schallausbreitung sowie Impulse-Response-Berechnungen für räumliche Effekte zum Einsatz. Für das Rendering wurde HRTF-basiertes Audio über SOFA-Dateien verwendet, kombiniert mit Fast Convolution für die Echtzeitverarbeitung.

UnityC#AudioDSPHRTF
2023

Miniatur Mario Welt

CGI-Szene im Super-Mario-Stil

Miniatur Mario Welt

CGI-Projekt zur Gestaltung einer Miniaturwelt im Look-and-Feel von Super Mario.

Im Rahmen eines Moduls habe ich eine eigenständig gestaltete 3D-Szene modelliert und texturiert, mit Fokus auf Szenenaufbau, Materialien und visuelle Konsistenz.

Blender3D ModelingTexturingUV EditingLightingMaterialsRendering
2023

SimuLED

3D-Webanwendung für Lichtsimulation

SimuLED

Interaktive Anwendung zur Konfiguration und Visualisierung von Lampen in einer 3D-Umgebung.

Mein Fokus lag auf der Gestaltung und Umsetzung der Benutzeroberfläche sowie der Interaktion im 3D-Raum. Ich habe daran gearbeitet, die Platzierung von Objekten und die Anpassung von Lichtparametern möglichst intuitiv zu gestalten und die Verbindung zwischen UI und Three.js-Szene umzusetzen. Die konfigurierte Szene kann anschließend exportiert und in Blender gerendert werden.

JavaScriptThree.jsWebGLBlender3D VisualizationUI/UXInteraction DesignConfigurator
2022

Bird Classification

CNN-basierte Klassifikation von Vogelarten

Bird Classification

Entwicklung eines Systems zur automatischen Klassifikation von sieben Vogelarten auf Basis eines kuratierten Bilddatensatzes.

Im Projekt wurde ein umfangreicher Bilddatensatz aus einer privaten Sammlung aufbereitet, manuell gelabelt und für das Training strukturiert. Die Daten wurden bereinigt, zugeschnitten und durch Data Augmentation erweitert. Anschließend wurde ein Convolutional Neural Network in TensorFlow/Keras trainiert und iterativ optimiert (inkl. Anpassung von Netzwerkstruktur, Augmentation und Datensatzverteilung). Durch Erweiterung des Datensatzes mit externen Bildern konnte eine durchschnittliche Genauigkeit von 93 % erreicht werden, wobei alle sieben Klassen über 80 % lagen.

PythonTensorFlowKerasJupyter NotebookMachine LearningImage ClassificationData PreparationData Augmentation

Kontakt

Lass uns gerne sprechen

Interesse an Unity-, XR- oder interaktiven Projekten? Ob Jobangebot, Forschungskooperation oder Projektidee, ich freue mich über den Austausch.