Budete optimalizovat inference servery, vytvářet nástroje pro LLM a rozšiřovat platformu pro nasazování ML modelů. Pokud vás baví Python, Linux, Kubernetes a práce s LLM technologiemi, připojte se k nám a využijte stovky GPU karet pro inovativní projekty!
Co vás čeká:
- zrychlování, škálování a monitoring inference serveru nasazených modelů
- tvorba nástrojů pro snadnější využití LLM pro ostatní týmy
- rozšiřování platformy pro automatizované nasazování ML modelů do produkce
- implementace a rozvoj nových LLM funkcionalit ve spolupráci s našimi výzkumníky
- Technologie jako jsou Kubeflow, S3, MLflow
- Z Python světa využíváme FastAPI, Pandas a další
- Naše LLM modely provozujeme na Tritonu (TensorRT-LLM) nebo vLLM
- Aplikace balíme do Dockeru a nasazujeme na Kubernetes, který je součástí našeho firemního cloudu zvaného SCIF
Koho hledáme?
- Vývojáře, který má zkušenosti s vývojem v Pythonu a alespoň základní zkušenosti s Linuxovým prostředím.
- Někoho, kdo se chce učit nové věci, automatizovat a optimalizovat co se dá a budovat spolehlivou infrastrukturu s monitoringem.
- Člověka, který se zajímá o LLM a přidružené problémy.
- SQL, Spark výhodou.
Na co se můžete těšit?
- Možnost seberealizace
- Práce s unikátními daty
- Přístup k velkému výpočetnímu výkonu, Stovky GPU karet (H100 a L4) k dispozici
- Samoorganizovaný tým, kde vládne přátelská atmosféra a týmový duch
- Sdílení nápadů a inspirace mezi kolegy
- Možnost podílet se na inovativních projektech
- Podpora pro profesní rozvoj a růst