{
"event": "UserPromptSubmit",
"prompt": "ich habe die pipeline abgebrochen. analysiere mal bitte die qualität in https:\/\/dev.campus.systemische-tools.de\/semantic-explorer\/entitaeten . was denkst du?"
}
{
"assistant_response": "**Qualitätsanalyse der Entitäten:**\n\n### Verteilung\n| Typ | Anzahl | Bewertung |\n|-----|--------|-----------|\n| CONCEPT | 197 | ⚠️ Viele fragwürdig |\n| OTHER | 76 | ❌ Zu viele unklassifiziert |\n| PERSON | 28 | ⚠️ Teilweise falsch |\n| ORGANIZATION | 14 | ⚠️ Fehlklassifizierungen |\n| LOCATION | 6 | ✅ OK |\n\n### Probleme gefunden:\n\n**1. Müll-Entitäten (Noise):**\n- `\"Der Blick über den Tellerrand beschäftigt sich...\"` - Satzfragment\n- `\"Herzlich Willkommen!\"` - Begrüßung\n- `\"NICHT LOSGELÖST\"` - Textfragment\n- `\"Autorinne\"` - Tippfehler\n- `\"LIVE COACHING\"` - Überschrift\n\n**2. Falsche Typisierung:**\n- `\"systemische Arbeit\"` → ORGANIZATION (sollte CONCEPT sein)\n- `\"Potenzialträger*innen\"` → PERSON (sollte CONCEPT sein)\n\n**3. Fehlende Beschreibungen:**\n- ~80% der Entitäten haben keine Beschreibung\n\n**4. Redundanzen:**\n- `\"Auftragsklärung\"` vs `\"Auftragsklärung zum\/zur Start\"`\n\n### Fazit:\n**Qualität: 4\/10** - Das Modell extrahiert zu unkritisch. Hauptprobleme:\n1. Überschriften\/Formatierung werden als Entitäten erkannt\n2. Satzfragmente landen in der DB\n3. Generische Begriffe ohne Kontext\n4. Hohe OTHER-Quote zeigt Unsicherheit\n\n**Empfehlung:** Der Analyse-Prompt in `analyze.py` braucht strengere Filterkriterien und bessere Beispiele für valide Entitäten."
}