Trainieren ist ein Begriff, der im Zusammenhang mit machine learning zentral ist und auch bei der Entwicklung von Sprachmodellen essenziell bleibt. Aber warum begegnet man immer wieder Personen und Institutionen, die einen Chatbot trainieren wollen? Wir haben dies sogar kürzlich als Anforderung bei einer öffentlichen Ausschreibung gelesen. Möchte man tatsächlich in veraltete Technologie investieren und einen auf machine learning basierenden Chatbot anschaffen? Wahrscheinlicher scheint, dass nicht bekannt ist, dass man vorhandene grosse Sprachmodelle nur nutzt und nicht selber trainiert. Man könnte zwar z.B. GPT3.5 nachtrainieren, der Nutzen rechtfertigt den immensen Aufwand hierfür in der Regel jedoch nicht, weshalb sich das auch nicht durchgesetzt hat. Ein eigenes Sprachmodell trainiert nur, wer sehr viel Kapital investieren und einen ganz spezifischen Nutzen erzielen will. Dies ist zumindest in Verwaltungen weder der Fall noch notwendig. Ich habe noch keinen „trainierten“ Bot gesehen, der bessere Ergebnisse liefert als ein Bot basierend auf GPT4 oder GPT4o und RAG. Hinzu kommt allerlei Ungemach, falls man den Chatbot in irgend einer Art "trainieren" oder "manipulieren" möchte. Will man sich innerhalb der Verwaltung in jedem Einzelfall darüber streiten, welcher Webseiteninhalt durch den Bot anzuzeigen ist und welcher nicht? Wer entscheidet, ob die Perspektive der Abteilung X oder die Perspektive der Abteilung Y auf ein Thema vom Bot kommuniziert werden soll? Wer prüft jede einzelne vom Bot gelieferte Antwort darauf hin, ob sie verbesserungswürdig sein könnte oder ob sie genügt? Wer entscheidet aufgrund von welchen Kriterien eine Korrektur? Die Kommunikationsabteilung oder die Fachabteilung? Und wie organisiert man das? Konflikte innerhalb der Verwaltung und Frust beim Nutzer des Chatbots sind vorprogrammiert. Ethische Fragen ebenfalls. Und an die Anschaffungs- und Betriebskosten eines solchen Bots möchte ich gar nicht erst denken.
Wir jedenfalls bauen Chatbots, die nicht trainiert werden. Wir bauen keine zusätzlichen Biases in den Bot ein. Insofern ist unser Bot neutral, objektiv und transparent weil vollständig algorithmusgesteuert. Selbstverständlich kann der Bot für individuelle Bedürfnissen angepasst werden. Wie wir das für den TownBot Römerswil gemacht haben:
Beispiele:
Damit erschöpfen sich unsere Eingriffe in den TownBot. Alles andere ist generisch und vollständig automatisiert. Dies bedeutet, dass unser TownBot sehr schnell, effizient und kostengünstig gebaut werden kann und im Betrieb kaum Pflege braucht – konkret werde ich Anfang Januar den Link auf oben erwähnte Entsorgungs-Liste aktualisieren müssen (sogar das könnte man noch automatisieren). Fertig. Der Rest läuft automatisch: tägliches Crawlen der Webseite, Vektorisieren der neuen Inhalte, bereinigen des Index und Testing laufen automatisch ab.
Wir stellen fest, dass wir selber und Dritte immer wieder in die gleichen Fallen beim Befragen von Chatbots tappen. Hier spreche ich nicht von ChatGPT (obwohl auch dort ähnliches passieren kann), sondern von mit RAG erstellte ChatBots. Also Chatbots, die auf einen spezifischen Wissenskorpus zugreifen, wie eben zum Beispiel der TonwBot Römerswil, der seine Informationen ausschliesslich aus der Webseite von roemerswil.ch beziehen soll.
Nathalie Portmanns Erkenntnis: Je besser die Dokumente im Suchkorpus geschnetzelt sind, desto besser die Suchergebnisse.
Nathalie Portmanns Erkenntnis: Je besser die Dokumente im Suchkorpus geschnetzelt sind, desto besser die Suchergebnisse.