OpenWebUI im strategischen IT-Einkauf – LLMs richtig nutzen

🧠 LLMs im Einkauf: Intelligenz trifft Strategie
Der strategische IT- und Software-Einkauf steht unter Druck: steigende Anforderungen an Compliance, Sicherheit, Effizienz und Innovationsfähigkeit. Gleichzeitig sind Einkaufsabteilungen oft unterbesetzt und überlastet. Genau hier setzen Large Language Models (LLMs) an – als kognitive Werkzeuge, die repetitive Aufgaben abnehmen, Risiken erkennen und Entscheidungsprozesse beschleunigen können.
OpenWebUI stellt dafür eine einfache, lokal kontrollierbare Plattform bereit, mit der sich eine Vielzahl von LLMs testen und zielgerichtet einsetzen lässt. In diesem Beitrag zeigen wir anhand realer Anwendungsbeispiele, wie sich LLMs im strategischen Einkauf praktisch nutzen lassen – und welches Modell sich wofür eignet.
📋 Use Cases im strategischen Einkauf
1. 📄 Vertragsanalyse und Risikobewertung
LLMs können Standardverträge analysieren und auf typische Risikopositionen hinweisen:
- Zahlungsbedingungen vs. Leistungspflichten
- Vendor-Lock-in Klauseln
- Unklare SLA-Definitionen
Modell-Empfehlung:
llama3.3
oder llama4
für tiefe Analyse, phi4
für kompaktere Bewertung.
Beispiel-Prompt:
„Analysiere diesen Lizenzvertrag und liste alle Klauseln mit möglichem finanziellen Risiko für den Käufer auf.“
2. 🛠️ Lieferantengespräche vorbereiten
Mit dolphin-mistral
oder nous-hermes2
lassen sich Rollenspiele für Verhandlungsgespräche simulieren – inklusive kultureller Nuancen, Sprachvarianten und typischer Reaktionen.
Beispiel:
„Simuliere ein Gespräch mit einem US-amerikanischen Softwareanbieter über eine Preiserhöhung. Der Kunde ist nicht bereit zuzustimmen.“
3. 📊 Toolvergleich und Anbieterauswahl
Ein häufiges Problem: Die Auswahl zwischen mehreren konkurrierenden Softwarelösungen. LLMs wie mistral
, gemma
oder llama3.1
können:
- Feature-Listen extrahieren
- Preis- und Lizenzmodelle vergleichen
- Kompatibilität prüfen (z. B. mit bestehenden APIs)
Beispiel-Prompt:
„Vergleiche Microsoft Power BI, Tableau und Looker hinsichtlich Lizenzkosten, Cloud-Unterstützung, Deployment-Optionen und Datensicherheitsfeatures.“
4. 📑 Angebotsbewertung automatisieren
In großen Ausschreibungen sind dutzende Angebote zu prüfen. LLMs helfen, diese strukturiert auszuwerten:
- Erkennung fehlender Informationen
- Vergleich zu Mindestanforderungen
- Ableitung von TCO-Vorteilen
Tipp: Kombiniere tinydolphin
für schnelle Checklisten mit llama3.3
für tiefere Bewertungstexte.
5. 🔐 Lizenzmodelle verstehen
Gerade im Software-Einkauf sind Lizenzen (z. B. bei Oracle, Microsoft oder SAP) komplex und oft missverständlich. Codellama oder Deepseek helfen hier beim:
- Entschlüsseln von Lizenztypen
- Formulieren von Audit-konformen Anforderungen
- Aufzeigen versteckter Kosten
Prompt:
„Erläutere die Unterschiede zwischen Microsoft CSP, NCE und EA aus Sicht des Einkäufers.“
💡 Modellübersicht – strategisch betrachtet
Modellname | Stärken im Einkaufskontext | Empfehlung für |
---|---|---|
mistral |
Sehr vielseitig, ideal für strukturierten Vergleich | Feature-Analysen, Schreiben |
dolphin-mistral |
Dialogorientiert, emotional intelligent | Rollenspiele, Kommunikation |
nous-hermes2 |
Ausgewogen und anpassungsfähig | Freie Szenarien |
codellama |
Lizenz-/Technik-Parsing, gut für Codes & Verträge | Lizenzanalysen |
phi / tinydolphin |
Schnell und sparsam, gute Erstfilterung | Checklisten, Schnellbewertungen |
llama3.3 |
Tiefe Kontextverarbeitung, stark bei Argumentation | Vertragsbewertung |
llava |
Vision-Modell – z. B. für Screenshots von Angeboten | UI-Vergleiche, Screenshots |
deepseek-coder-v2 |
Für API-/Script-Verständnis | Automatisierungsideen |
nomic-embed-text |
Semantische Suche – ideal für Angebotsdatenbanken | Matching & Analyse |
🧰 Toolchain: So setzt du OpenWebUI effizient ein
✅ Schritt 1: Modell auswählen
Nutze die interne Tabelle von OpenWebUI, um das passende Modell für dein Szenario zu wählen. Achte dabei auf:
- RAM- und CPU-Verbrauch
- Zensurstufe (wichtig für Compliance)
- Antwortzeit und Dateigröße
✅ Schritt 2: Kontext vorbereiten
LLMs liefern bessere Ergebnisse, wenn du den Kontext genau beschreibst. Beispiel:
Ich bin strategischer IT-Einkäufer und vergleiche gerade Angebote für eine Cloud-SaaS-Lösung. Das Unternehmen hat 800 Nutzer in 3 Ländern. Budgetvorgabe: 250.000 €/Jahr.
✅ Schritt 3: Iterieren und optimieren
Arbeite mit mehreren Modellen parallel – etwa phi
für die schnelle Erstbewertung und llama3.3
für den Feinschliff.
Nutze Systemprompts wie:
„Antworte als Lizenzmanager mit 10 Jahren Erfahrung. Verwende keine Marketingsprache.“
🚧 Risiken und Grenzen
LLMs sind Werkzeuge – keine Entscheider. Achte auf:
- Halluzinationen bei Zahlen, Rechtsauskünften
- Fehlende Aktualität (Stand der Trainingsdaten)
- Fehlende Quelltransparenz → immer verifizieren!
Empfehlung: Nutze LLMs als „Sparringspartner“, nicht als alleinige Quelle.
🎯 Fazit: Einkauf neu gedacht
Mit OpenWebUI und den richtigen LLMs lässt sich der strategische IT-Einkauf:
- schneller
- fundierter
- und dialogorientierter gestalten.
Sie ersetzen keine Fachabteilungen – aber sie erweitern ihre Kapazitäten um eine kognitive Ebene, die bisher so nicht möglich war.
➕ Nächste Schritte
- Eigene Prompt-Bibliothek für Ausschreibungen erstellen
- Modelle nach Use Case taggen
- Datenschutzkonformität prüfen (lokaler Betrieb!)
Meine Dev-/Test Umgebung mit Ollama und OpenWebUI
Hier findest du eine Übersicht unserer installierten LLMs und ihrer idealen Einsatzbereiche:
Modellname | Größe | Eignung / Spezialisierung | Geschwindigkeit ⚡ | Zensur 🛡️ |
---|---|---|---|---|
tinydolphin |
636 MB | Sehr schnell, für Kurzantworten & Chatbots | 🟢 Sehr schnell | 🔓 Unzensiert |
phi / dolphin-phi |
1.6 GB | Klein, effizient, gut für einfache Aufgaben | 🟢 Sehr schnell | 🔓 Gering |
gemma:2b |
1.7 GB | Für lokale Tests, begrenzt leistungsfähig | 🟢 Schnell | 🛡️ Hoch |
phi4:14b |
9.1 GB | Gute Qualität, kompakt, dialogorientiert | 🟡 Mittel | 🔓 Gering |
gemma:7b / gemma2 |
5–5.4 GB | Guter Allrounder mit Google-Style Antworten | 🟡 Mittel | 🛡️ Hoch |
mistral |
4.1 GB | Schnell, vielseitig, beliebt für Coding & QA | 🟢 Schnell | 🔓 Gering |
dolphin-mistral |
4.1 GB | Mistral + Feinjustierung, empathischer Stil | 🟢 Schnell | 🔓 Unzensiert |
nous-hermes2 |
6.1 GB | Balanced LLM, stark im freien Dialog | 🟡 Mittel | 🔓 Gering |
codellama:13b |
7.4 GB | Sehr gut für Programmieraufgaben | 🟡 Mittel | 🔓 Unzensiert |
command-r |
18 GB | Agent-ähnlich, stark in Anleitungen & Tasks | 🔴 Langsam | 🔓 Unzensiert |
deepseek-coder-v2 |
8.9 GB | Hochspezialisiert auf Programmcode | 🟡 Mittel | 🔓 Unzensiert |
devstral |
14 GB | Ideal für Roleplay, kreative Aufgaben | 🔴 Langsam | 🔓 Offen |
llava (Vision) |
4.7 GB | Bildverständnis & visuelles Q&A | 🟡 Mittel | 🛡️ Mittel |
nomic-embed-text |
274 MB | Text-Embedding-Modell für semantische Suche | 🟢 Sehr schnell | – |
llama3.1:latest |
4.9 GB | Kompakt & solide – für Alltag und Recherche | 🟡 Mittel | 🛡️ Leicht |
llama3.3:latest |
42 GB | Leistungsfähig, kreativ, breites Wissen | 🔴 Langsam | 🔓 Gering |
llama4:latest |
67 GB | Fortgeschritten, tieferes Verständnis | 🔴 Sehr langsam | 🛡️ Hoch |
llama2:70b |
38 GB | GPT-ähnlich, aber offline – hoher Aufwand | 🔴 Sehr langsam | 🛡️ Hoch |
dolphin-llama3:70b |
39 GB | Unzensierte Variante von LLaMA 3 | 🔴 Sehr langsam | 🔓 Unzensiert |
deepseek-v3:671b |
404 GB | Forschung, nicht produktionsbereit | ⚫ Extrem langsam | 🔓 Unzensiert |
hammad70012/deepseek-cyber |
13 GB | Spezialgebiet: Cyber-Security / Reverse Eng. | 🔴 Langsam | 🔓 Offen |
Legende
- 🟢 Schnell = geeignet für interaktive Nutzung (z. B. Chat)
- 🟡 Mittel = nutzbar mit kurzer Ladezeit
- 🔴 Langsam = erfordert Geduld oder starke Hardware
- ⚫ Extrem langsam = nur auf Anfrage/Experiment
- 🔓 Unzensiert = gibt freie Antworten, ohne Einschränkungen
- 🛡️ Hoch = sicher und moderiert, mit Antwortfiltern
Empfehlung für Einsteiger:innen
- 💬 Schneller Chat:
tinydolphin
oderphi
- 🧠 Balanced & kreativ:
mistral
,dolphin-mistral
,nous-hermes2
- 💻 Code:
codellama
,deepseek-coder-v2
- 🖼️ Bildverständnis:
llava
- 📚 Fortgeschritten:
llama3.3
,llama4
Hinweis: Große Modelle wie
llama4
oderdeepseek-v3
verbrauchen viel RAM und GPU – nur auf Nachfrage oder mit starker Hardware laden.