Arbeitsgebiete
Promotionsprojekt:
"Combining the benefits of distributional and structured semantic representations to address domain-specific NLP Problems."
Large Language Models (LLMs) basierend auf künstlichen neuronalen Netzen dominieren die aktuelle Forschung im Bereich Computerlinguistik bzw. Natural Language Processing (NLP). 百利宫_百利宫娱乐平台¥官网e LLMs codieren distributionelle semantische Repr?sentationen, die aus sehr gro?en Datens?tzen abgeleitet werden. Dabei werden die Grenzen aktueller Hardware, wie GPU und TPU Chips, die für das Training neuronaler Netze optimiert sind, ausgereizt. Für einige Probleme in speziellen Anwendungsdom?nen kann die Verwendung dieser LLMs allerdings schwierig sein, wenn es an Trainingsdaten mangelt oder besondere Transparenz und Nachvollziehbarkeit gefordert ist. Mein Hauptinteresse liegt darin zu erforschen, wie klassische semantische Repr?sentation wie z.B. Wissensgraphen (Knowledge Graphs) in unternehmensspezifischen Anwendungsdom?nen mit diesen LLMs kombiniert werden k?nnen, um diese Schwierigkeiten zu l?sen.
Lebenslauf
Seit 03/2023
Doktorand am Lehrstuhl für Informationswissenschaft
Seit 2016
Software Engineer im Bereich Suchmaschinen und Information Retrieval (seit 2019 selbstst?ndig)
2012 - 2016
Masterstudium Robotics, Cognition, Intelligence an der Technischen Universit?t München
2007 - 2012
Bachelorstudium Medieninformatik an der Ludwig-Maximilians-Universit?t München