Portfolio

Alisa Rüge

M.Sc. Medientechnologie · Interaktive Medien · Computeranimation · VR | AR | XR

Ich entwickle immersive Erlebnisse an der Schnittstelle von Technologie, Wahrnehmung und Interaktion. Aktuell schließe ich meinen Master in Medientechnologie an der TH Köln ab mit Schwerpunkt auf virtueller und erweiterter Realität.

Portrait von Alisa Rüge

About

Ich stehe kurz vor dem Abschluss meines Masters in Medientechnologie an der TH Köln. Aktuell schreibe ich meine Masterarbeit im Bereich In-Car XR bei der Mercedes-Benz Tech Innovation GmbH. Dort bringe ich zusammen, was mich am meisten antreibt: interaktive Systeme, die sich nicht nur sehen, sondern auch fühlen lassen.

In meinen Projekten arbeite ich eigenständig mit Unity und C#, von der Konzeption über die Implementierung bis zur Evaluation mit Nutzerstudien. Mich fasziniert besonders, wie haptisches Feedback, intuitive Interaktion und immersive Umgebungen zusammenspielen können. Ob VR-Schnittsimulator mit Force Feedback, volumetrische Videos in XR oder agent-gestützte Lernanwendungen: Ich suche Projekte, in denen Technik, Nutzererlebnis und Forschung sich gegenseitig verstärken.

Vor dem Master habe ich bereits als Werkstudentin bei Mercedes-Benz praktische Erfahrung mit XR-Systemen wie der Varjo XR-3 gesammelt und Projekte von Virtual Reality in Extended Reality überführt.

Timeline

Projekte

2026

Haptic Interfaces

VR-Schnittsimulator mit Force Feedback

Entwicklung einer VR-basierten Schnittsimulation für telerobotische Trainingsaufgaben mit Fokus auf Präzision, Usability und geringe kognitive Belastung.

Im Projekt wurden drei Eingabemethoden direkt verglichen: VR-Controller, haptisches Gerät ohne und mit Force Feedback. Die Implementierung erfolgte in Unity und wurde durch eine quantitative User Study ergänzt. Die Ergebnisse zeigen, dass Force Feedback sowohl die höchste Schnittpräzision als auch die beste Usability bei gleichzeitig geringster subjektiver Belastung ermöglicht.

Mehr Details

Im Projekt wurden drei Eingabemethoden direkt verglichen: VR-Controller, haptisches Gerät ohne und mit Force Feedback. Die Implementierung erfolgte in Unity und wurde durch eine quantitative User Study ergänzt. Die Ergebnisse zeigen, dass Force Feedback sowohl die höchste Schnittpräzision als auch die beste Usability bei gleichzeitig geringster subjektiver Belastung ermöglicht.

UnityC#VRHapticsUser Study
2025

VolumanXR — Masterprojekt

XR-Viewer für volumetrische Inhalte

Interdisziplinäres Projekt zur Entwicklung einer vollständigen Pipeline für volumetrische Videos — von Aufnahme bis XR-Darstellung.

Im Projekt wurde ein 68-Kamera-Rig mit Raspberry Pis zur Aufnahme aufgebaut und die Daten mittels Spacetime Gaussian Splatting verarbeitet. Ich arbeitete im Viewer-Subteam an der Echtzeit-Darstellung der Inhalte auf Head-Mounted Displays.

Mehr Details

Im Projekt wurde ein 68-Kamera-Rig mit Raspberry Pis zur Aufnahme aufgebaut und die Daten mittels Spacetime Gaussian Splatting verarbeitet. Ich arbeitete im Viewer-Subteam an der Echtzeit-Darstellung der Inhalte auf Head-Mounted Displays.

UnityC#XRVolumetric Video
2024

Bachelorarbeit

VR-Lernanwendung mit virtuellem Agenten

Können virtuelle Agenten die Lernmotivation steigern? Entwicklung und Evaluation einer VR-Lernanwendung mit spielerischen Aufgaben.

Die Anwendung integriert Such- und Quizaufgaben sowie einen virtuellen Agenten als motivierenden Begleiter. In einer User Study wurden Motivation, User Experience und Lerneffektivität untersucht. Die Ergebnisse zeigen positive Effekte auf die intrinsische Motivation.

Mehr Details

Die Anwendung integriert Such- und Quizaufgaben sowie einen virtuellen Agenten als motivierenden Begleiter. In einer User Study wurden Motivation, User Experience und Lerneffektivität untersucht. Die Ergebnisse zeigen positive Effekte auf die intrinsische Motivation.

UnityC#VRUser StudyUX
2024

VAE — Virtual Acoustic Environments

Echtzeit-Audio für virtuelle Räume

Technisches Audio-Projekt zur räumlichen Audiowiedergabe in Echtzeit in virtuellen Umgebungen.

Die Anwendung kombiniert Raycasting, Impulse-Response-Berechnung und HRTF-basiertes Rendering über SOFA-Dateien mit Fast Convolution. Durch Thread-Pooling und Burst-Optimierung konnte die Latenz deutlich reduziert werden.

Mehr Details

Die Anwendung kombiniert Raycasting, Impulse-Response-Berechnung und HRTF-basiertes Rendering über SOFA-Dateien mit Fast Convolution. Durch Thread-Pooling und Burst-Optimierung konnte die Latenz deutlich reduziert werden.

UnityC#AudioDSPHRTF
2023

SimuLED

3D-Webanwendung für Lichtsimulation

Interaktive Anwendung zur Konfiguration und Visualisierung von Lampen in einer 3D-Umgebung.

Als sales-unterstützendes Tool ermöglicht SimuLED das Platzieren von Lampen und Möbeln im Raum sowie die Anpassung von Lichtparametern. Die Szene kann anschließend per Blender gerendert werden.

Mehr Details

Als sales-unterstützendes Tool ermöglicht SimuLED das Platzieren von Lampen und Möbeln im Raum sowie die Anpassung von Lichtparametern. Die Szene kann anschließend per Blender gerendert werden.

JavaScriptThree.jsFlaskBlender

Kontakt

Lass uns gerne sprechen

Interesse an Unity-, XR- oder interaktiven Projekten? Ob Jobangebot, Forschungskooperation oder Projektidee, ich freue mich über den Austausch.