Sprzęt AI
(on‑prem)
Dostarczamy, konfigurujemy i utrzymujemy stacje oraz serwery AI. Zestawy projektujemy pod Twoje modele, dane i budżet.
Stacje robocze AI
- Single‑GPU — idealne do inferencji i mniejszych eksperymentów.
- Multi‑GPU — do większych modeli i treningów przyspieszonych.
- Parametry (przykładowe placeholders):
- GPU: NVIDIA GeForce RTX 5090 / RTX 5080 / RTX 5090 Ti (w zależności od dostępności)
- CPU: AMD Ryzen/Threadripper lub Intel Xeon
- RAM: 64–256 GB
- Dyski: NVMe 2–8 TB (RAID opcjonalny)
- Sieć: 10/25/40 GbE (wg potrzeb)

Serwery AI (rack)
- 2–8 GPU, zasilacze redundantne, kontrolery BMC, hot‑swap dysków.
- Chłodzenie zoptymalizowane pod długą pracę 24/7.
Oprogramowanie i MLOps
- System kontenerów (Docker/Podman), orkiestracja (k3s/Kubernetes — wg rozmiaru),
- Rejestr modeli i wersjonowanie danych, monitoring (Prometheus/Grafana),
- Backup i odtwarzanie, polityki aktualizacji, mechanizmy roll‑back.


Wsparcie i gwarancja
- SLA 8/5 lub 24/7, czas reakcji 2–4 h (wariantowo),
- Zdalne wsparcie + opcja wizyt on‑site,
- Umowa serwisowa (części/zapasowe GPU, gwarancja door‑to‑door).
FruityTree


