OpenWebUI im strategischen IT-Einkauf – LLMs richtig nutzen

OpenWebUI im strategischen IT-Einkauf – LLMs richtig nutzen

🧠 LLMs im Einkauf: Intelligenz trifft Strategie

Der strategische IT- und Software-Einkauf steht unter Druck: steigende Anforderungen an Compliance, Sicherheit, Effizienz und Innovationsfähigkeit. Gleichzeitig sind Einkaufsabteilungen oft unterbesetzt und überlastet. Genau hier setzen Large Language Models (LLMs) an – als kognitive Werkzeuge, die repetitive Aufgaben abnehmen, Risiken erkennen und Entscheidungsprozesse beschleunigen können.

OpenWebUI stellt dafür eine einfache, lokal kontrollierbare Plattform bereit, mit der sich eine Vielzahl von LLMs testen und zielgerichtet einsetzen lässt. In diesem Beitrag zeigen wir anhand realer Anwendungsbeispiele, wie sich LLMs im strategischen Einkauf praktisch nutzen lassen – und welches Modell sich wofür eignet.


📋 Use Cases im strategischen Einkauf

1. 📄 Vertragsanalyse und Risikobewertung

LLMs können Standardverträge analysieren und auf typische Risikopositionen hinweisen:

  • Zahlungsbedingungen vs. Leistungspflichten
  • Vendor-Lock-in Klauseln
  • Unklare SLA-Definitionen

Modell-Empfehlung:
llama3.3 oder llama4 für tiefe Analyse, phi4 für kompaktere Bewertung.

Beispiel-Prompt:

„Analysiere diesen Lizenzvertrag und liste alle Klauseln mit möglichem finanziellen Risiko für den Käufer auf.“


2. 🛠️ Lieferantengespräche vorbereiten

Mit dolphin-mistral oder nous-hermes2 lassen sich Rollenspiele für Verhandlungsgespräche simulieren – inklusive kultureller Nuancen, Sprachvarianten und typischer Reaktionen.

Beispiel:

„Simuliere ein Gespräch mit einem US-amerikanischen Softwareanbieter über eine Preiserhöhung. Der Kunde ist nicht bereit zuzustimmen.“


3. 📊 Toolvergleich und Anbieterauswahl

Ein häufiges Problem: Die Auswahl zwischen mehreren konkurrierenden Softwarelösungen. LLMs wie mistral, gemma oder llama3.1 können:

  • Feature-Listen extrahieren
  • Preis- und Lizenzmodelle vergleichen
  • Kompatibilität prüfen (z. B. mit bestehenden APIs)

Beispiel-Prompt:

„Vergleiche Microsoft Power BI, Tableau und Looker hinsichtlich Lizenzkosten, Cloud-Unterstützung, Deployment-Optionen und Datensicherheitsfeatures.“


4. 📑 Angebotsbewertung automatisieren

In großen Ausschreibungen sind dutzende Angebote zu prüfen. LLMs helfen, diese strukturiert auszuwerten:

  • Erkennung fehlender Informationen
  • Vergleich zu Mindestanforderungen
  • Ableitung von TCO-Vorteilen

Tipp: Kombiniere tinydolphin für schnelle Checklisten mit llama3.3 für tiefere Bewertungstexte.


5. 🔐 Lizenzmodelle verstehen

Gerade im Software-Einkauf sind Lizenzen (z. B. bei Oracle, Microsoft oder SAP) komplex und oft missverständlich. Codellama oder Deepseek helfen hier beim:

  • Entschlüsseln von Lizenztypen
  • Formulieren von Audit-konformen Anforderungen
  • Aufzeigen versteckter Kosten

Prompt:

„Erläutere die Unterschiede zwischen Microsoft CSP, NCE und EA aus Sicht des Einkäufers.“


💡 Modellübersicht – strategisch betrachtet

Modellname Stärken im Einkaufskontext Empfehlung für
mistral Sehr vielseitig, ideal für strukturierten Vergleich Feature-Analysen, Schreiben
dolphin-mistral Dialogorientiert, emotional intelligent Rollenspiele, Kommunikation
nous-hermes2 Ausgewogen und anpassungsfähig Freie Szenarien
codellama Lizenz-/Technik-Parsing, gut für Codes & Verträge Lizenzanalysen
phi / tinydolphin Schnell und sparsam, gute Erstfilterung Checklisten, Schnellbewertungen
llama3.3 Tiefe Kontextverarbeitung, stark bei Argumentation Vertragsbewertung
llava Vision-Modell – z. B. für Screenshots von Angeboten UI-Vergleiche, Screenshots
deepseek-coder-v2 Für API-/Script-Verständnis Automatisierungsideen
nomic-embed-text Semantische Suche – ideal für Angebotsdatenbanken Matching & Analyse

🧰 Toolchain: So setzt du OpenWebUI effizient ein

✅ Schritt 1: Modell auswählen

Nutze die interne Tabelle von OpenWebUI, um das passende Modell für dein Szenario zu wählen. Achte dabei auf:

  • RAM- und CPU-Verbrauch
  • Zensurstufe (wichtig für Compliance)
  • Antwortzeit und Dateigröße

✅ Schritt 2: Kontext vorbereiten

LLMs liefern bessere Ergebnisse, wenn du den Kontext genau beschreibst. Beispiel:

Ich bin strategischer IT-Einkäufer und vergleiche gerade Angebote für eine Cloud-SaaS-Lösung. Das Unternehmen hat 800 Nutzer in 3 Ländern. Budgetvorgabe: 250.000 €/Jahr.

✅ Schritt 3: Iterieren und optimieren

Arbeite mit mehreren Modellen parallel – etwa phi für die schnelle Erstbewertung und llama3.3 für den Feinschliff.

Nutze Systemprompts wie:

„Antworte als Lizenzmanager mit 10 Jahren Erfahrung. Verwende keine Marketingsprache.“


🚧 Risiken und Grenzen

LLMs sind Werkzeuge – keine Entscheider. Achte auf:

  • Halluzinationen bei Zahlen, Rechtsauskünften
  • Fehlende Aktualität (Stand der Trainingsdaten)
  • Fehlende Quelltransparenz → immer verifizieren!

Empfehlung: Nutze LLMs als „Sparringspartner“, nicht als alleinige Quelle.


🎯 Fazit: Einkauf neu gedacht

Mit OpenWebUI und den richtigen LLMs lässt sich der strategische IT-Einkauf:

  • schneller
  • fundierter
  • und dialogorientierter gestalten.

Sie ersetzen keine Fachabteilungen – aber sie erweitern ihre Kapazitäten um eine kognitive Ebene, die bisher so nicht möglich war.


➕ Nächste Schritte

  • Eigene Prompt-Bibliothek für Ausschreibungen erstellen
  • Modelle nach Use Case taggen
  • Datenschutzkonformität prüfen (lokaler Betrieb!)

Meine Dev-/Test Umgebung mit Ollama und OpenWebUI

Hier findest du eine Übersicht unserer installierten LLMs und ihrer idealen Einsatzbereiche:

Modellname Größe Eignung / Spezialisierung Geschwindigkeit ⚡ Zensur 🛡️
tinydolphin 636 MB Sehr schnell, für Kurzantworten & Chatbots 🟢 Sehr schnell 🔓 Unzensiert
phi / dolphin-phi 1.6 GB Klein, effizient, gut für einfache Aufgaben 🟢 Sehr schnell 🔓 Gering
gemma:2b 1.7 GB Für lokale Tests, begrenzt leistungsfähig 🟢 Schnell 🛡️ Hoch
phi4:14b 9.1 GB Gute Qualität, kompakt, dialogorientiert 🟡 Mittel 🔓 Gering
gemma:7b / gemma2 5–5.4 GB Guter Allrounder mit Google-Style Antworten 🟡 Mittel 🛡️ Hoch
mistral 4.1 GB Schnell, vielseitig, beliebt für Coding & QA 🟢 Schnell 🔓 Gering
dolphin-mistral 4.1 GB Mistral + Feinjustierung, empathischer Stil 🟢 Schnell 🔓 Unzensiert
nous-hermes2 6.1 GB Balanced LLM, stark im freien Dialog 🟡 Mittel 🔓 Gering
codellama:13b 7.4 GB Sehr gut für Programmieraufgaben 🟡 Mittel 🔓 Unzensiert
command-r 18 GB Agent-ähnlich, stark in Anleitungen & Tasks 🔴 Langsam 🔓 Unzensiert
deepseek-coder-v2 8.9 GB Hochspezialisiert auf Programmcode 🟡 Mittel 🔓 Unzensiert
devstral 14 GB Ideal für Roleplay, kreative Aufgaben 🔴 Langsam 🔓 Offen
llava (Vision) 4.7 GB Bildverständnis & visuelles Q&A 🟡 Mittel 🛡️ Mittel
nomic-embed-text 274 MB Text-Embedding-Modell für semantische Suche 🟢 Sehr schnell
llama3.1:latest 4.9 GB Kompakt & solide – für Alltag und Recherche 🟡 Mittel 🛡️ Leicht
llama3.3:latest 42 GB Leistungsfähig, kreativ, breites Wissen 🔴 Langsam 🔓 Gering
llama4:latest 67 GB Fortgeschritten, tieferes Verständnis 🔴 Sehr langsam 🛡️ Hoch
llama2:70b 38 GB GPT-ähnlich, aber offline – hoher Aufwand 🔴 Sehr langsam 🛡️ Hoch
dolphin-llama3:70b 39 GB Unzensierte Variante von LLaMA 3 🔴 Sehr langsam 🔓 Unzensiert
deepseek-v3:671b 404 GB Forschung, nicht produktionsbereit ⚫ Extrem langsam 🔓 Unzensiert
hammad70012/deepseek-cyber 13 GB Spezialgebiet: Cyber-Security / Reverse Eng. 🔴 Langsam 🔓 Offen

Legende

  • 🟢 Schnell = geeignet für interaktive Nutzung (z. B. Chat)
  • 🟡 Mittel = nutzbar mit kurzer Ladezeit
  • 🔴 Langsam = erfordert Geduld oder starke Hardware
  • ⚫ Extrem langsam = nur auf Anfrage/Experiment
  • 🔓 Unzensiert = gibt freie Antworten, ohne Einschränkungen
  • 🛡️ Hoch = sicher und moderiert, mit Antwortfiltern

Empfehlung für Einsteiger:innen

  • 💬 Schneller Chat: tinydolphin oder phi
  • 🧠 Balanced & kreativ: mistral, dolphin-mistral, nous-hermes2
  • 💻 Code: codellama, deepseek-coder-v2
  • 🖼️ Bildverständnis: llava
  • 📚 Fortgeschritten: llama3.3, llama4

Hinweis: Große Modelle wie llama4 oder deepseek-v3 verbrauchen viel RAM und GPU – nur auf Nachfrage oder mit starker Hardware laden.

Besuche OpenWebUI