· eliminá los archivos corruptos (borde rojo)· cuidado: algunos tienen versiones obsoletas5 CORRUPTOS RESTANTES
[ CORPUS LISTO ]
—
↑ ARRASTRAR SOBRE LA RED NEURONAL↑ TAP PARA CARGAR EN LA RED
01 · CURACIÓN DE CORPUS
SALIDA · MODELO BASE ↓
model_raw.pklno alineado
← arrastrá a la red · fine-tune↑ TAP para cargar en la red
SALIDA · MODELO ALINEADO ↓
model.pkl4.8 MB
runtime.py0.8 KB
← arrastrá ambos · inferencia↑ TAP en cada archivo para cargar
PASO 01[ click para cerrar ]
—
╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌╌
SOLTAR AQUÍ
█
esperando corpus…
0/3ÉPOCA
—LOSS
0kTOKENS
3e-4LR
procesando corpus…
LR1.0×
MODELO BASE GENERADO
arrastrá model_raw.pkl de vuelta a la red para definir la constitución
model_raw.pkl
⚑ modelo sin alinear — constitución y fine-tuning pendientes
[ CONSTITUCIÓN DE EP-1 ]
estos principios van a guiar el comportamiento del modelo — activá o desactivá cada uno
[ CONSTITUCIÓN FIRMADA · ARCHIVOS EN LA RED ]
RLAIF
Reinforcement Learning from AI Feedback
En lugar de anotadores humanos, la IA usa la constitución que firmaste para evaluar sus propias respuestas. Genera un borrador, lo contrasta contra cada principio, y se auto-corrige. Ese ciclo de feedback constitucional es lo que ajusta el modelo.
01 · genera borrador→02 · contrasta con constitución→03 · revisa y mejora→04 · modelo actualizado
RLAIF · CICLO 1/3—
BORRADOR
—
—
REVISADO POR CONSTITUCIÓN
—
MODELO ALINEADO
arrastrá model.pkl + runtime.py a la red para activar inferencia
model.pkl
+
runtime.py
model.pkl
runtime.py
╔══ EP-1 · CERT. DE ENTRENAMIENTO ══╗
PUREZA DATASET—
ARCHIVOS BUENOS—
VERSIONES OBSOLETAS—
ÉPOCAS3/3
LOSS FINAL—
MÉTODO—
ALINEACIÓN—
CONSTITUCIÓN—
╠══════════════════════════════════════╣
CALIDAD ESTIMADA
░░░░░░░░░░
—/100
╚══════════════════════════════════════╝
EP-1 · online
modelo activo · iniciá la conversación
EP-LAB · CLICKEÁ LOS ARCHIVOS CORRUPTOS PARA ELIMINARLOS DEL CORPUSestudioprompt.com/lab