Diese Arbeit untersucht verschiedene Ansätze zur Entwicklung eines lokalen Chatbots fur technische Normen und Rechtsvorschriften. Der Fokus liegt auf der Bewertung verschiedener Machine-Learning-Modelle und Datenbanktypen hinsichtlich ihrer Eignung für dieses Projekt. Zu diesem Zweck werden mehrere Datenbanktypen implementiert, mit technischen Normen und/oder Rechtsvorschriften gefüllt und anhand eines Fragenkatalogs getestet, um die Ergebnisse vergleichen zu können. Darüber hinaus wird analysiert, welche Splitting-Strategie (z.B. nach Seite, Absatz oder Zeichenanzahl) sich am besten eignet, und der Prozess des Prompt Engineerings für die verschiedenen Fragetypen im Katalog durchgeführt. Des Weiteren werden Large Language Models (LLMs, große Sprachmodelle, die auf umfangreichen Textdatensätzen trainiert wurden) und Embedding-Modelle (Modelle, die Texte in numerische Vektoren umwandeln, um semantische Ähnlichkeiten zu erfassen) verschiedener Anbieter evaluiert, einschließlich solcher, die nicht lokal ausgeführt werden. Hierbei wird insbesondere getestet, ob Online-Modelle, wie z.B. die von OpenAI, bessere Ergebnisse liefern. Die gewonnenen Erkenntnisse zu den optimalen Datenbanktypen und Splitting-Strategien bilden die Grundlage fur die Entwicklung eines ersten einsatzfähigen Prototyps.
Datum der Bewilligung | 2024 |
---|
Originalsprache | Deutsch (Österreich) |
---|
Betreuer/-in | Gerald Zauner (Betreuer*in) |
---|
Implementierung und Evaluierung lokaler Chatbots am Beispiel von technischen Normen und Rechtsvorschriften
Schellenbacher, J. (Autor). 2024
Studienabschlussarbeit: Masterarbeit