| { | |
| "best_metric": null, | |
| "best_model_checkpoint": null, | |
| "epoch": 1.9968, | |
| "eval_steps": 500, | |
| "global_step": 234, | |
| "is_hyper_param_search": false, | |
| "is_local_process_zero": true, | |
| "is_world_process_zero": true, | |
| "log_history": [ | |
| { | |
| "epoch": 0.08533333333333333, | |
| "grad_norm": 0.7316675629896696, | |
| "learning_rate": 4.166666666666667e-06, | |
| "loss": 0.1469, | |
| "step": 10 | |
| }, | |
| { | |
| "epoch": 0.17066666666666666, | |
| "grad_norm": 0.8665839421193544, | |
| "learning_rate": 8.333333333333334e-06, | |
| "loss": 0.1492, | |
| "step": 20 | |
| }, | |
| { | |
| "epoch": 0.256, | |
| "grad_norm": 0.633961817328206, | |
| "learning_rate": 9.979871469976197e-06, | |
| "loss": 0.1547, | |
| "step": 30 | |
| }, | |
| { | |
| "epoch": 0.3413333333333333, | |
| "grad_norm": 0.5903283571188152, | |
| "learning_rate": 9.857450191464337e-06, | |
| "loss": 0.1574, | |
| "step": 40 | |
| }, | |
| { | |
| "epoch": 0.4266666666666667, | |
| "grad_norm": 0.5902148471791281, | |
| "learning_rate": 9.626521502369984e-06, | |
| "loss": 0.154, | |
| "step": 50 | |
| }, | |
| { | |
| "epoch": 0.512, | |
| "grad_norm": 0.5883534851956401, | |
| "learning_rate": 9.292243968009332e-06, | |
| "loss": 0.1523, | |
| "step": 60 | |
| }, | |
| { | |
| "epoch": 0.5973333333333334, | |
| "grad_norm": 0.6123916827073737, | |
| "learning_rate": 8.862084796122998e-06, | |
| "loss": 0.1492, | |
| "step": 70 | |
| }, | |
| { | |
| "epoch": 0.6826666666666666, | |
| "grad_norm": 0.565967627424994, | |
| "learning_rate": 8.345653031794292e-06, | |
| "loss": 0.1406, | |
| "step": 80 | |
| }, | |
| { | |
| "epoch": 0.768, | |
| "grad_norm": 0.6835307977435123, | |
| "learning_rate": 7.754484907260513e-06, | |
| "loss": 0.1401, | |
| "step": 90 | |
| }, | |
| { | |
| "epoch": 0.8533333333333334, | |
| "grad_norm": 0.5414963909468348, | |
| "learning_rate": 7.101786141547829e-06, | |
| "loss": 0.136, | |
| "step": 100 | |
| }, | |
| { | |
| "epoch": 0.9386666666666666, | |
| "grad_norm": 0.5676182506359556, | |
| "learning_rate": 6.402136946530014e-06, | |
| "loss": 0.132, | |
| "step": 110 | |
| }, | |
| { | |
| "epoch": 1.024, | |
| "grad_norm": 0.8239356557531824, | |
| "learning_rate": 5.671166329088278e-06, | |
| "loss": 0.1233, | |
| "step": 120 | |
| }, | |
| { | |
| "epoch": 1.1093333333333333, | |
| "grad_norm": 0.6097393411755191, | |
| "learning_rate": 4.9252029649236835e-06, | |
| "loss": 0.0967, | |
| "step": 130 | |
| }, | |
| { | |
| "epoch": 1.1946666666666665, | |
| "grad_norm": 0.615505994063403, | |
| "learning_rate": 4.180910442924312e-06, | |
| "loss": 0.0916, | |
| "step": 140 | |
| }, | |
| { | |
| "epoch": 1.28, | |
| "grad_norm": 0.582308669375433, | |
| "learning_rate": 3.4549150281252635e-06, | |
| "loss": 0.0902, | |
| "step": 150 | |
| }, | |
| { | |
| "epoch": 1.3653333333333333, | |
| "grad_norm": 0.6306458357892114, | |
| "learning_rate": 2.7634342584218364e-06, | |
| "loss": 0.0867, | |
| "step": 160 | |
| }, | |
| { | |
| "epoch": 1.4506666666666668, | |
| "grad_norm": 0.5730144238180547, | |
| "learning_rate": 2.1219146715716332e-06, | |
| "loss": 0.0849, | |
| "step": 170 | |
| }, | |
| { | |
| "epoch": 1.536, | |
| "grad_norm": 0.6193662189799138, | |
| "learning_rate": 1.544686755065677e-06, | |
| "loss": 0.0828, | |
| "step": 180 | |
| }, | |
| { | |
| "epoch": 1.6213333333333333, | |
| "grad_norm": 0.6337519511043657, | |
| "learning_rate": 1.044644826718295e-06, | |
| "loss": 0.0814, | |
| "step": 190 | |
| }, | |
| { | |
| "epoch": 1.7066666666666666, | |
| "grad_norm": 0.5685784598053166, | |
| "learning_rate": 6.329589969143518e-07, | |
| "loss": 0.0765, | |
| "step": 200 | |
| }, | |
| { | |
| "epoch": 1.792, | |
| "grad_norm": 0.5642497108881858, | |
| "learning_rate": 3.18825646801314e-07, | |
| "loss": 0.0762, | |
| "step": 210 | |
| }, | |
| { | |
| "epoch": 1.8773333333333333, | |
| "grad_norm": 0.5952533794949149, | |
| "learning_rate": 1.0926199633097156e-07, | |
| "loss": 0.0759, | |
| "step": 220 | |
| }, | |
| { | |
| "epoch": 1.9626666666666668, | |
| "grad_norm": 0.5219907489358415, | |
| "learning_rate": 8.949351161324227e-09, | |
| "loss": 0.074, | |
| "step": 230 | |
| }, | |
| { | |
| "epoch": 1.9968, | |
| "step": 234, | |
| "total_flos": 165239653924864.0, | |
| "train_loss": 0.11473839328839229, | |
| "train_runtime": 7900.5123, | |
| "train_samples_per_second": 7.594, | |
| "train_steps_per_second": 0.03 | |
| } | |
| ], | |
| "logging_steps": 10, | |
| "max_steps": 234, | |
| "num_input_tokens_seen": 0, | |
| "num_train_epochs": 2, | |
| "save_steps": 100, | |
| "stateful_callbacks": { | |
| "TrainerControl": { | |
| "args": { | |
| "should_epoch_stop": false, | |
| "should_evaluate": false, | |
| "should_log": false, | |
| "should_save": true, | |
| "should_training_stop": true | |
| }, | |
| "attributes": {} | |
| } | |
| }, | |
| "total_flos": 165239653924864.0, | |
| "train_batch_size": 2, | |
| "trial_name": null, | |
| "trial_params": null | |
| } | |