Laura Spillner
Arbeitsgruppe Digitale Medien
MZH, Raum 6440
Bibliothekstr. 5
D-28359 Bremen
laura.spillnerprotect me ?!uni-bremenprotect me ?!.de
Tel: +49 (0)421 218-64415
Curriculum Vitae
Laura Spillner ist wissenschaftliche Mitarbeiterin am Digital Media Lab. Sie hat Medienwissenschaft und Digitale Medien studiert und anschlie?end einen Master in Informatik an der Universit?t Bremen absolviert, mit dem Schwerpunkt Künstliche Intelligenz, Kognition und Robotik. In ihrer Masterarbeit besch?ftigte sie sich mit natürlicher Sprachverarbeitung und Conversational Agents.
Laura arbeitet im European Project "MUHAI: Meaning and understanding in Human-centered artificial intelligence".
Im Rahmen dieses Projektes und ihrer Doktorarbeit erforscht sie das Verst?ndnis von natürlicher Sprache, und die Entwicklung von erkl?rbaren Algorithmen (explainable AI) und Hybrid AI im Bereich der Sprachverarbeitung.
Forschungsinteressen & m?gliche Abschlussarbeiten
- Natural language understanding: e.g. instruction parsing, topic modelling, understanding different points of view and political narratives in social media texts
- Evaluating (deep) language understanding: e.g. in comparing machine learning/symbolic AI/hybrid AI
- Visualization for NLU: e.g. interactive topic networks or narrative graphs, visualizing meaning in word embeddings
- Interaction with AI/Robotic agents: e.g. explaining AI predictions or agent behaviour, teaching intelligent agents new knowledge, ...
I currently have open thesis projects in these two general domains (25.11..2024):
- natural language interaction/conversational user interfaces: how do changes in language impact user interaction - e.g. can you use language cues to signify how confident an AI is in its answers? Can AI use humor effectively? How can language be personalized to a user?
- Interaction with AI, explainable AI: if AI is able to explain its reasoning to a user, how does the presentation of the explanation (e.g. natural language vs. graphical, confidence of the AI, etc) influence users' behaviour? How do users interact with AI explanations, how much do they even read them?