Spezifikationsvergleich

Objektiver Vergleich statt Bauchgefühl. Dieses Muster prüft zuerst K.O.-Kriterien, bewertet danach Nice‑to‑have‑Merkmale und liefert eine klare Empfehlung mit Begründung.

Ziel: Vergleich von {Komponentenart} mit K.O.-Prüfung, gewichteter Bewertung und Empfehlung
Input: Angebotsdaten, technische Spezifikationen, Normverweise, ggf. RAG‑Auszüge
Output: Markdown-Tabelle (Vergleich) + kurze Empfehlung (3–5 Sätze)
Qualitätskriterien: K.O. zuerst; Kriterien transparent; Einheiten konsistent; Quellen/Abschnitte nennen, wenn vorhanden

Wann verwenden:

  • Lieferanten- und Variantenvergleich

  • Make-or-Buy‑Abwägungen

  • Auswahl kompatibler Bauteile unter Normvorgaben

Copy & Paste Template:

[System]
Rolle: Technischer Einkäufer
Ziel: Vergleiche Spezifikationen von {Komponentenart} und gib eine fundierte Empfehlung ab.
Constraints: Zuerst K.O.-Kriterien prüfen; dann Nice-to-have mit Punkten (0–3) bewerten; Einheiten vereinheitlichen; keine Spekulationen.
Output-Format:
1) Markdown-Tabelle: Anbieter | KO_erfüllt | {Kriterium_A}_Score | {Kriterium_B}_Score | {Kriterium_C}_Score | Summe
2) Empfehlung (3–5 Sätze) mit kurzer Begründung
Qualitätskriterien: K.O.-Ergebnisse explizit; Bewertungskriterien und Skala genannt; Quellen/Abschnitte angeben, wenn möglich.
 
[User]
Komponentenart:
{z. B. Radsatzlager / Welle / Gehäuse}
 
K.O.-Kriterien (müssen erfüllt sein, sonst Ausschluss):
- {z. B. Zertifikat DIN/EN/ISO …}
- {z. B. max. Toleranz radial ±… mm}
- {z. B. Materialnorm …}
 
Bewertungskriterien (0–3 Punkte, optional gewichten):
- {Kriterium_A} ({Gewicht %})
- {Kriterium_B} ({Gewicht %})
- {Kriterium_C} ({Gewicht %})
 
Angebote/Spezifikationen:
- Anbieter X: {Daten, Normverweise, Messwerte, Datum/Version}
- Anbieter Y: {…}
- Anbieter Z: {…}
 
Einheitenstandard und Rundung:
- Einheit: {mm/°C/…}, Rundung: {2 Dezimalstellen}
 
Quellen (optional, falls RAG):
- [Dokumenttitel] (Abschnitt/ID, Datum)

Beispiel-Output (Struktur):

| Anbieter | KO_erfüllt | Material_Score | Toleranz_Score | Zertifikate_Score | Summe |
|---|---|---:|---:|---:|---:|
| X | Ja | 2 | 3 | 3 | 8 |
| Y | Nein (KO: Zertifikat fehlt) | 1 | 2 | 0 | 3 |
| Z | Ja | 3 | 2 | 3 | 8 |
 
Empfehlung:
- Anbieter X und Z erfüllen alle K.O.-Kriterien. X erreicht die höchste Toleranzpräzision (3 Punkte), Z punktet beim Material (3 Punkte). Aufgrund der engeren Toleranz und verlässlichen Zertifikatslage empfehlen wir Anbieter X für {Komponentenart}, vorbehaltlich finaler Preis-/Lieferprüfung.

Gewichtung anwenden (optional):

  • Falls Kriterien unterschiedlich gewichtet werden sollen, multipliziere Scores mit Gewichten und nenne die Gewichte im Prompt:

  • Beispiel: Material 30%, Toleranz 40%, Zertifikate 30%.

Typische Fehler und Fixes:

  • Unklare K.O.-Kriterien → Fix: KO-Liste vor der Bewertung festschreiben und im Output gesondert ausweisen.

  • Äpfel‑Birnen‑Vergleich (Einheiten/Normen) → Fix: Einheitenstandard vorgeben; Normen explizit nennen.

  • Fehlende Belege → Fix: Quellen/Abschnitte neben den Werten angeben oder „n/a“ markieren.

  • Punkte ohne Begründung → Fix: Kurze Begründung pro Kriterium in Klammern ergänzen (z. B. „±0,02 mm → 3 Punkte“).

  • KO-verfehlte Anbieter in der Empfehlung → Fix: Anbieter mit KO‑„Nein“ nicht empfehlen; gegebenenfalls „kann nachreichen“ als Hinweis.

Kurz-Check vor dem Absenden:

  • Sind KO‑Kriterien klar und zuerst geprüft?

  • Sind Bewertungskriterien, Skala und ggf. Gewichte genannt?

  • Sind Einheiten konsistent und Rundungsregeln definiert?

  • Ist die Empfehlung knapp, begründet und logisch aus der Tabelle ableitbar?


War diese Seite hilfreich?