Template ultra-court pour onboarding: valide rapidement pipeline dataset -> workload -> rewards.
- Modèle
- logreg
- Dataset
- Synthetic smoke (4k)1 Mo • npz
- GPU requis
- autoauto (2 Go)
- Récompense suggérée
- 40 CRUXbase 25 + 5 / epoch
- Objectif
- Loss = 0.351 époques (~6 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Baseline PoUW deterministic batch. Sert à valider les mineurs CPU/GPU (seed = hash du bloc précédent).
- Modèle
- logreg
- Dataset
- Synthetic balanced (75k)9 Mo • npz
- GPU requis
- autoauto (2 Go)
- Récompense suggérée
- 645 CRUXbase 400 + 50 / epoch
- Objectif
- Loss = 0.184 époques (~64 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-labs
CNN Lite Vision
disponiblevisiongpumnist
Fine-tuning d'un CNN compact sur dataset MNIST 32x32 (+ data aug). Budget idéal pour GPU 8 Go.
- Modèle
- cnn-lite
- Dataset
- MNIST-lite (augmenté)140 Mo • parquet
- GPU requis
- gpu_8ggpu_8g (8 Go)
- Récompense suggérée
- 3592.5 CRUXbase 1200 + 350 / epoch
- Objectif
- Loss = 0.125 époques (~320 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Fine-tuning d'un ViT-S/16 sur CIFAR-100. Demande un GPU 12 Go pour le micro-batching.
- Modèle
- vit-small384 dims / 8 layers
- Dataset
- CIFAR-100 augmenté610 Mo • tar
- GPU requis
- gpu_12ggpu_12g (12 Go)
- Récompense suggérée
- 6482 CRUXbase 2500 + 400 / epoch
- Objectif
- Loss = 0.088 époques (~- blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Modèle distillé, 55M params pour question/réponse multi-langue. Nécessite un GPU 24 Go pour la fenêtre contextuelle étendue.
- Modèle
- transformer-mini512 dims / 12 layers
- Dataset
- QA Global 40k980 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 25000 CRUXbase 8000 + 2500 / epoch
- Objectif
- Loss = 0.23 époques (~600 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-labs
Text - DistilBERT QA
disponibletextqanlpsmall
QA extractive leger pour texte. Rapide a entrainer.
- Modèle
- distilbert
- Dataset
- SQuAD v1500 Mo • jsonl
- GPU requis
- autoauto (2 Go)
- Récompense suggérée
- 1800 CRUXbase 600 + 200 / epoch
- Objectif
- Loss = 0.283 époques (~210 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Fine-tuning QA extractive sur un modele texte classique.
- Modèle
- bert-base
- Dataset
- SQuAD v1500 Mo • jsonl
- GPU requis
- gpu_8ggpu_8g (8 Go)
- Récompense suggérée
- 2400 CRUXbase 900 + 300 / epoch
- Objectif
- Loss = 0.253 époques (~240 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-labs
Text - RoBERTa Large QA
disponibletextqanlplarge
QA extractive haute qualite, plus lourd.
- Modèle
- roberta-large
- Dataset
- SQuAD v1500 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 6220 CRUXbase 1800 + 850 / epoch
- Objectif
- Loss = 0.24 époques (~320 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Classification image classique, rapide a entrainer.
- Modèle
- resnet-50
- Dataset
- CIFAR-10170 Mo • parquet
- GPU requis
- autoauto (2 Go)
- Récompense suggérée
- 2450 CRUXbase 900 + 300 / epoch
- Objectif
- Loss = 0.155 époques (~300 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Adaptation image/texte via CLIP pour recherche visuelle.
- Modèle
- clip-vit-b32
- Dataset
- COCO captions24000 Mo • tar
- GPU requis
- gpu_12ggpu_12g (12 Go)
- Récompense suggérée
- 5200 CRUXbase 1800 + 600 / epoch
- Objectif
- Loss = 0.184 époques (~400 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Vision Transformer large pour classification image.
- Modèle
- vit-large
- Dataset
- ImageNet-1k150000 Mo • tar
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 9680 CRUXbase 3200 + 1600 / epoch
- Objectif
- Loss = 0.123 époques (~420 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-audio
Audio - Whisper Tiny
disponibleaudioasrsmall
ASR ultra leger pour tests rapides.
- Modèle
- whisper-tiny
- Dataset
- LibriSpeech ASR60000 Mo • wav
- GPU requis
- autoauto (2 Go)
- Récompense suggérée
- 2600 CRUXbase 900 + 300 / epoch
- Objectif
- Loss = 0.283 époques (~240 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-audio
Audio - Whisper Base
disponibleaudioasrmedium
ASR audio multi-langue, equilibre cout/qualite.
- Modèle
- whisper-base
- Dataset
- LibriSpeech ASR60000 Mo • wav
- GPU requis
- gpu_8ggpu_8g (8 Go)
- Récompense suggérée
- 4200 CRUXbase 1500 + 450 / epoch
- Objectif
- Loss = 0.243 époques (~300 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-audio
Audio - Whisper Small
disponibleaudioasrlarge
ASR audio multi-langue. Bon compromis qualite/cout.
- Modèle
- whisper-small
- Dataset
- LibriSpeech ASR60000 Mo • wav
- GPU requis
- gpu_12ggpu_12g (12 Go)
- Récompense suggérée
- 6200 CRUXbase 2200 + 800 / epoch
- Objectif
- Loss = 0.223 époques (~360 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Classification video courte, modele compact.
- Modèle
- videomae-small
- Dataset
- Kinetics-400180000 Mo • mp4
- GPU requis
- gpu_12ggpu_12g (12 Go)
- Récompense suggérée
- 6200 CRUXbase 2200 + 800 / epoch
- Objectif
- Loss = 0.243 époques (~360 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Classification video courte (sports, actions).
- Modèle
- timesformer-base
- Dataset
- Kinetics-400180000 Mo • mp4
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 9270 CRUXbase 3000 + 1200 / epoch
- Objectif
- Loss = 0.24 époques (~480 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Video transformer large pour classification exigeante.
- Modèle
- timesformer-large
- Dataset
- Kinetics-400180000 Mo • mp4
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 14610 CRUXbase 4200 + 1950 / epoch
- Objectif
- Loss = 0.184 époques (~520 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-devtools
Code - CodeT5 Small
disponiblecodenlpsmall
Generation/resume de code rapide pour prototypes.
- Modèle
- codet5-small
- Dataset
- CodeSearchNet22000 Mo • jsonl
- GPU requis
- gpu_8ggpu_8g (8 Go)
- Récompense suggérée
- 3800 CRUXbase 1400 + 450 / epoch
- Objectif
- Loss = 0.33 époques (~300 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-devtools
Code - CodeT5 Base
disponiblecodenlpmedium
Generation/resume de code pour Python/JS.
- Modèle
- codet5-base
- Dataset
- CodeSearchNet22000 Mo • jsonl
- GPU requis
- gpu_12ggpu_12g (12 Go)
- Récompense suggérée
- 5200 CRUXbase 2000 + 600 / epoch
- Objectif
- Loss = 0.243 époques (~360 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
orcrux-devtools
Code - CodeT5 Large
disponiblecodenlplarge
Generation de code plus lourde, qualite superieure.
- Modèle
- codet5-large
- Dataset
- CodeSearchNet22000 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 13800 CRUXbase 4200 + 2600 / epoch
- Objectif
- Loss = 0.23 époques (~420 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Generation texte/assistant, gros modele 8B.
- Modèle
- llama3-8b-instruct
- Dataset
- OpenWebText40000 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 21520 CRUXbase 6000 + 6000 / epoch
- Objectif
- Loss = 0.182 époques (~480 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Gros modele 8B avec sharding + micro-batching + checkpoints (spec v2).
- Modèle
- llama3-8b-instruct
- Dataset
- OpenWebText40000 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Sharding v2
- tensor • 4 shardsmin 16 Go VRAM
- Micro-batching
- 2 microaccum 8 steps
- Checkpoints
- 50 stepskeep 3 • safetensors
Cadence: 8s cible / 30s max
- Récompense suggérée
- 25680 CRUXbase 7000 + 7000 / epoch
- Objectif
- Loss = 0.182 époques (~480 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Generation de code avec un modele 7B.
- Modèle
- codellama-7b
- Dataset
- CodeSearchNet22000 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 18800 CRUXbase 5200 + 5400 / epoch
- Objectif
- Loss = 0.22 époques (~480 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Modele 7B avec sharding + micro-batching + checkpoints (spec v2).
- Modèle
- codellama-7b
- Dataset
- CodeSearchNet22000 Mo • jsonl
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Sharding v2
- tensor • 2 shardsmin 12 Go VRAM
- Micro-batching
- 2 microaccum 6 steps
- Checkpoints
- 40 stepskeep 3 • safetensors
Cadence: 7s cible / 24s max
- Récompense suggérée
- 21480 CRUXbase 6200 + 5800 / epoch
- Objectif
- Loss = 0.22 époques (~420 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Generation d images rapide (support LoRA).
- Modèle
- flux1-schnell
- Dataset
- LAION-2B (subset)200000 Mo • tar
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 16160 CRUXbase 5000 + 4500 / epoch
- Objectif
- Loss = 0.22 époques (~420 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Generation d images haute qualite (support LoRA).
- Modèle
- sdxl-1.0
- Dataset
- LAION-5B (subset)500000 Mo • tar
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 23840 CRUXbase 7000 + 6500 / epoch
- Objectif
- Loss = 0.182 époques (~520 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Generation audio a partir de texte (text-to-audio).
- Modèle
- audioldm2
- Dataset
- Common Voice80000 Mo • wav
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 13600 CRUXbase 4500 + 3750 / epoch
- Objectif
- Loss = 0.222 époques (~360 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Fine-tuning LoRA d'un Llama 3 8B. Concu pour tourner sur un GPU 20 Go unique ou en mode sharde/adapters sur plusieurs GPU plus modestes.
- Modèle
- byo
- Dataset
- OpenOrca ORCRUX Lite2400 Mo • jsonl
- GPU requis
- gpu_12ggpu_12g (12 Go), gpu_24g (24 Go)
- Sharding v2
- tensor • 3 shardsmin 8 Go VRAM
- Micro-batching
- 1 microaccum 12 steps
- Checkpoints
- 40 stepskeep 3 • safetensors
Cadence: 12s cible / 45s max
- Récompense suggérée
- 19080 CRUXbase 7000 + 4500 / epoch
- Objectif
- Loss = 0.222 époques (~480 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Validation courte GPU pour testnet et beta tests sur cartes 20 Go. Workflow LoRA/adapters, sharding actif, duree et reward bornees.
- Modèle
- byo
- Dataset
- OpenOrca ORCRUX Lite2400 Mo • jsonl
- GPU requis
- gpu_12ggpu_12g (12 Go), gpu_24g (24 Go)
- Sharding v2
- tensor • 3 shardsmin 8 Go VRAM
- Micro-batching
- 1 microaccum 12 steps
- Checkpoints
- 2 stepskeep 2 • safetensors
Cadence: 10s cible / 30s max
- Récompense suggérée
- 0.5 CRUX
- Objectif
- Loss = 0.351 époques (~6 blocs)
- Statut
- approuve
Pret a etre mine.0/24 blocs (0%)Queue #1Priority 1.50Shards 3
Generation video a partir d image ou prompt.
- Modèle
- stable-video-diffusion
- Dataset
- Kinetics-400180000 Mo • mp4
- GPU requis
- gpu_24ggpu_24g (24 Go)
- Récompense suggérée
- 17280 CRUXbase 5200 + 4900 / epoch
- Objectif
- Loss = 0.22 époques (~420 blocs)
- Statut
- disponible
Template pret a etre soumis.Disponible
Marketplace branche sur l'API `/workloads/marketplace` (templates + queue) et le scheduler PoUW.